特色功能

未完章节自动替换

系统可自助实现对应章节内容未完的数据进行自动修复而不需要借助其他工具。

全功能爬虫程序

依托Python强大的爬虫功能,后台已集成全功能的爬虫程序。仅需要在后台进行简单的规则设置即可实现目标站全站爬取。

自动获取分页

对于章节分页、内容分页的站点可以轻松实现全部分页爬取。获取更加完整的章节和内容数据。

自定义爬虫请求头

在后台可以轻松实现指定爬虫程序的请求头包括UA、Referer等任意请求头字段。除了请求头Cookie也是可以设置的。

代理IP设置

后台可随时设置使用代理IP,对于时常封锁IP的站点可以设置多大代理IP随机使用。

Redis缓存

Redis作为最热门的缓存数据库,开启Redis缓存功能可轻松应对大流量访问需求。

长尾词挖掘

开启长尾词功能,可获取多个搜索引擎的长尾关键词数据。自动关联相关书籍而无需额外的获取章节和内容数据。

内容分页显示

只需在后台简单设置分页大小即可实现章节或内容的分页展示。分页大小可随时修改。

MySQL分表

系统可以轻松实现章节数据分表存储,而无需将所有章节存储到同一表中。使用分表存储可大大降低数据库查询负担。

章节缓存

在使用分表存储的同时我们还支持将章节直接缓存为文件,在前端显示时直接使用读取缓存文件而无需查询数据库。

特色服务

章节乱序复原

在爬取书籍时经常遇到一些目标站的章节是乱序排列的,对于这种我们可提供插件实现章节排序自动复原。

访问认证突破

对于常规的JA3认证我们可通过专用类库实现验证并轻松获取网页数据。

JavaScript认证、解密

目前越来越多的站使用JS加密参数或加密cookie进行访问的组合认证。也有使用加密内容JS解密方式预防爬虫。

Ajax内容获取

Ajax获取内容的特征就是网页源码中并无内容通过异步方式获取内容。对应这类站点我们需要使用独立程序获取接口数据。

非数字ID书籍获取

对于某些站点使用非数字ID可定制爬虫程序获取相应书籍。

模板定制

拒绝千篇一律的网站模板。我们接受个性化的模板定制。让你的网页拥有独一无二的模板风格。