打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
阅读傻瓜版书源教程 来自 iamiku

总有在评论区求书源的,基本上都是某些小众书只有某个网站有,看完这本以后就用不上了,那么能不能简单的写书源呢,当然可以,实际上打开某本书只需要有目录列表、章节名称、章节url、正文规则就够了。
工具:谷歌浏览器,xpathhelper插件(懒得传网盘随便找了个,链接应该是有效的 查看链接
1.以九桃为例,打开一本书的目录,按f12,打开这个窗口,点下箭头

2.点了箭头后选择目录,把整个框上全选上后单击,到右侧右键,复制xpath(如果复制出的代码有[@id='485665']这类会变的id的,选择下面的copy full xpath复制即可)。点下右上角的x图标,使用xpathhelper插件,把复制的内容粘贴上去,可以看到定位到了第一章

4.删掉后面的限制[1],定位到整个目录,如图目录全部选中,代码太长了我们把前面删一节去,删去后的代码以//开头,随便删多少只要黄色的还是全部选中就行

删掉钱

删掉前面的后

5.同样的方法点下箭头后单击标题,只选中标题文本就行,别把整个框上了,然后重复同样的操作右键复制xpath,粘贴到xpathhelper里把里面限制的数字如[1]删了(一般在代码最后面的,前面的不用管),可以看到所有章节都被选中,然后把这个和目录规则重叠的部分代码删了保留不相同的部分,以//开头,举个例子目录规则是这个//*[@class='']/div/div,章节复制下来的是//*[@class='']/div/div/a,那么去掉重复就是//a,在后面加/text()就是章节名称规则,加/@href就是章节url规则
代码显示的是完整链接的话直接填到书源就行,像九桃这样链接只有一半的一样填上,然后在后面加上##(/.*)##你的书源网址$1。

去掉重复的部分

去掉[]里的限制,不知道删哪个的随便删一个,全部章节都黄了就对了

章节名称,右边也能看到

章节url,右边这种只有一半的用正则连接下就行

九桃可以直接这样

6.随便点开个章节进入到正文页面,同样点箭头,点正文(把正文整个框全选上),复制xpath粘贴到xpathhelper一条龙,看看右边出如果直接出正文了那直接填正文规则里就行,论坛这类正文里有防复制乱码的加上/text()就行,正文有分页的话在正文下一页规则加入text.下一页@href就行(目录有分页和这个一样,一般填这个就行,不行的话同样点f12里的箭头,选中翻页的按钮后复制xpath,在后面加上/@href填到下一页规则就行)

7.把书源网址和书源名称填上,以上工作完成的话就能打开书籍了,在网站找到看的书点进目录页复制网址,到阅读主页右上网址导入即可,自己输个书名作者就行。只是想看某个网站某几本书看完用不上了的就不用往下面看了。

因为懒得截图后面就不放图了,和前面一样操作,没什么不同的。

8.发现规则,只要填列表规则、书名、和目录url三个就行其他的想作者、分类都不是必须的,自己选择添加,发现网址怎么填就不说了,打开你的书源看看就知道了,发现列表规则和目录列表一样,只不过打开的是分类网址,参考1-4条(记得把整本书的内容全框上,包括书名作者封面啥的),书名、作者、封面、目录url参考5,分别选中书名作者的文字封面的图片,复制xpath,删掉重复的部分加上,书名作者加上/text(),封面和目录url加/@href,发现搞定

9.搜索地址,可以使用插件http simulate获取,wws.lanzous.com/isTAfff448b
打开插件清空数据,在网站搜索个关键词,然后到里面查看post就行。
附桃搜索地址查看链接{
'method': 'POST',
'body': 'searchkey={{key}}'
}
网址直接把第一个红圈的填上,把把第二个圈里的'我的'关键词换成{{key}}即可,附ez看书的 'body': 's={{key}}&type=articlename&submit=' 不同的词之间用&连接起来,[ ]里的内容用=连接在一起。

九桃的

ez看书的

10.在网站上随便搜个关键词,对搜索到的列表里的书用同样的方法把搜索的列表、书名、详情url填上即可

11.详情页里面的可填可不填看个人添加,详情页url可以用来跳转网址,比如用电脑版的搜索手机版的目录正文,论坛只看楼主都可以用这个,一般空着就行。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
如何读一本书?读书七步骤
5分钟,6行代码教你写爬虫!(python)
Python爬虫教程使用Scrapy框架爬取小说代码示例
爬虫抓图全网最新方法,这一次终于是4k高清美图,只因为我不下载JPG图片!
如何用 Python 爬虫分析酷我音乐网站,并爬取歌曲?
【动画】如何用scrapy命令行访问、解析网页数据
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服