打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
糗事百科爬虫

代码如下:(友情提示输入quit结束调用)

Qiushi.py


  1. #!/usr/bin/env python  
  2. #encoding:utf-8  
  3. #By eathings  
  4.   
  5. import urllib2  
  6. import re  
  7.   
  8. class Console_page:  
  9.     def __init__(self):  
  10.         self.page = 1  
  11.         self.enable = True  
  12.         self.qiushi=re.compile('<div.*?class="content".*?title="(.*?)">([\s\S]*?)</div>')  
  13.     def getpage(self, page):  
  14.         url = "http://www.qiushibaike.com/hot/page/" + str(page)  
  15.         response = urllib2.urlopen(url)  
  16.         result = response.read()  
  17.         en_result = re.sub("<br/>", "", result)  
  18.         items = re.findall(self.qiushi, en_result)  
  19.         return items  
  20.       
  21.     def show_page(self,page):  
  22.         view = self.getpage(page)  
  23.         for i in view:  
  24.             print u"第 %d页"%page, i[0], i[1]  
  25.             inputs = raw_input()  
  26.             if inputs == 'quit':  
  27.                 self.enable = False  
  28.                 break  
  29.   
  30.     def startread(self):  
  31.         while self.enable:  
  32.             #print self.page  
  33.             page = self.page  
  34.             self.show_page(page)  
  35.             self.page += 1  
  36.   
  37. qiushibaike = Console_page()  
  38. qiushibaike.startread()  
[python] view plaincopy
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
在Linux系统上安装Python的Scrapy框架的教程
python爬虫29 | 使用scrapy爬取糗事百科的例子,告诉你它有多厉害!
爬虫 | urllib入门 糗事百科实战
用python编写自动信息收集脚本(四)-爱站信息收集
Python笔记3-精简语法
python常见语句汇总
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服