打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
Python——网络爬虫
userphoto

2022.06.29 福建

关注

这一节介绍webbrowser模块浏览网页

import webbrowser

python提供webbrowser模块,可以调用这个模块的open()方法打开指定网页!

下载网页信息使用requests模块

requests模块属于第三方模块,因此需要安装此模块才可以使用:

pip install requests

requests.get()方法内需放置欲下载网页信息的网址当参数,这个方法可以传回网页的HTML源文件。

由上述可知requests.get()方法传回的数据类型是Response对象!!!!!那什么是Response对象呢??

Response对象

Response对象有几个重要属性:

status_code如果值是requests.codes.ok,表示获得的网页内容成功。

text:网页内容。

下载网页失败的异常处理

有些网页由反爬虫机制,会造成网页下载失败。使用抛出异常可以处理类似问题。Response对象有raise_for_status()方法,可以针对网址正确但是后续文件名错误的状况产生异常处理。也可以预防错误网址!!!

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
最简单的python爬虫案例,适合入门学习
认识爬虫:如何使用 requests 模块模拟浏览器请求爬取网页信息?
python网络爬虫常用技术
你要偷偷的学Python,然后惊呆所有人(第七天)
浅谈Python两大爬虫库——urllib库和requests库区别
推荐一款小众且好用的 Python 爬虫库
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服