打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
一篇文章教会你利用Python网络爬虫实现妖怪信息的分类采集

【一、项目背景】

    中国妖怪百集( c-china-(中国) baigui-百鬼) 现已更名为知妖。

知妖网是一个开放的在线“妖怪”资料库。致力于收集、整理、介绍、分享古人文献中的“妖怪” , 收录古文献中的“妖怪”资料,让更多的人能够完整,系统地了解中国“妖怪”文化。

    今天来教大家如何使用Python来爬取知妖网的妖怪文章,分类保存,写入文档。

【二、项目目标】

    创建一个文件夹, 分类保存所有妖怪文章。下载成功结果显示控制台。

【三、涉及的库和网站】

1、网址如下:


http://www.cbaigui.com/?paged={}

2、涉及的库:requestslxml、fake_useragent、time、os

3、软件:PyCharm

【四、项目分析】

1、如何多网页请求?

    首先需要解决如何对下一页的网址进行请求的问题。可以点击下一页的按钮,观察到网站的变化分别如下所示:








http://www.cbaigui.com/?paged=1
http://www.cbaigui.com/?paged=2
http://www.cbaigui.com/?paged=3
http://www.cbaigui.com/?paged=4

    点击下一页时,每增加一页paged自增加1,用{}代替变换的变量,再用for循环遍历这网址,实现多个网址请求。

2.  反爬处理

    1)获取正常的http请求头,并在requests请求时,设置这些常规的http请求头。

    2)使用 fake_useragent ,产生随机的UserAgent进行访问。

【五、项目实施】

1、我们定义一个class类继承object,然后定义init方法继承self,再定义一个主函数main继承self。导入需要的库和网址,创建保存文件夹。













import requests, osfrom lxml import etreefrom fake_useragent import UserAgentimport timeclass goblin(object): def __init__(self): os.mkdir('妖怪') # 创建妖怪这个文件夹 记住只有第一次运行加上,如果多次运行请注释掉本行 def main(self): passif __name__ == '__main__': Siper=goblin() Siper.main()

2、随机产生UserAgent,构造请求头。








    ua = UserAgent(verify_ssl=False)    for i in range(1, 50):        self.headers = {            'User-Agent': ua.random,            'Host': 'www.cbaigui.com',            'Referer': 'http: // www.cbaigui.com /?paged={}'        }

3、发送请求 ,获取响应。






'''发送请求 获取响应''' def get_page(self, url): res = requests.get(url=url, headers=self.headers) html = res.content.decode('utf-8') return html

4、定义parse_page函数,获取二级页面地址,for遍历获取需要的字段。创建对应的妖怪文件夹。








    parse_html = etree.HTML(html)    t = parse_html.xpath('//div[@class='post-inner post-hover']/h2')    for i in t:        goblin_herf = i.xpath('./a/@href')[0].strip()  # 二级页面链接        name = i.xpath('.//a/text()')[0].strip()  # 对应文件夹的名字        os.mkdir('././妖怪/{}'.format(name))  # 拼接文件夹        print(name, goblin_herf)

5、对二级页面发生请求,xpath解析数据,获取文章内容。





print(name, goblin_herf) html2 = self.get_page(goblin_herf) # 第二个发生请求 parse_html2 = etree.HTML(html2) r = parse_html2.xpath('//div[@class='entry']/p/text()')

6、for遍历文章内容,文章异常处理,写入文档。









    for rte in r:        # print(rte)w        try:            with open('./妖怪/{}/{}.txt'.format(name, name), 'a', encoding='utf-8') as f:                f.write(rte)  # 把内容存储到对应名字的文件里        except OSError:            pass        continue

7、调用方法,实现功能。





url = self.url.format(page) print(url) html = self.get_page(url) self.parse_page(html)

8、time模块,设置时间延迟,(防止ip被封)。


    time.sleep(1) '''时间延时'''

【六、效果展示】

1、点击运行,输入起始页,终止页。

2、将下载成功信息显示在控制台。

3、分类列表。

4、文章展示。

【七、总结】

    1、不建议抓取太多数据,容易对服务器造成负载,浅尝辄止即可。

    2、本文章就python爬取知妖网,在应用中出现的难点和重点,以及如何防止反爬,做出了相对于的解决方案。

    3、希望通过这个项目,能够帮助了解xpath,字符串是如何拼接,format函数如何运用。

    4、本文基于Python网络爬虫,利用爬虫库,实现分类写入文档。实现的时候,总会有各种各样的问题,切勿眼高手低,勤动手,才可以理解的更加深刻。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
用Python网络爬虫获取Mikan动漫资源
爬虫笔记
用Python网络爬虫来看看最近电影院都有哪些上映的电影
一款可能取代 Scrapy 的爬虫框架 - feapder
80行快乐代码与你窥探爬虫的数据深渊——教你如何高效快速任意爬虫(附大量项目案例和语法解析文章)
爬虫之Scrapy框架
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服