打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
网络爬虫中这种请求格式怎么解析?

曲径通幽处,禅房花木深。

大家好,我是皮皮。

一、前言

前几天在Python钻石交流群【花间一壶酒】问了一个Python网络爬虫的问题,这里拿出来给大家分享下。

截图如下:

看上去有加密参数:

使用爬虫工具得到的结果不是预期的。

二、实现过程

这里【吴大佬】给了一个思路,使用selenium可以搞定,代码如下:

from selenium import webdriver
from selenium.webdriver.common.by import By

url = 'http://ggzyjy.baiyin.gov.cn/InfoPage/TradeInfomation.aspx?state=3'
browser = webdriver.Chrome()
browser.get(url)

li_list = browser.find_elements(By.XPATH, '//ul[@id="tradMainWrap"]/li')
for li in li_list:
    url_detail = li.find_element(By.XPATH, './a').get_attribute('href')
    print(url_detail)

顺利地解决了粉丝的问题。

后来【甯同学】经验丰富,看出了代码的问题,给了一个提示,入下图所示。

将请求的字典,修改为字符串,然后就出来对应的请求结果了,真是太强了!

三、总结

大家好,我是皮皮。这篇文章主要盘点了一个Python网络爬虫的问题,文中针对该问题,给出了具体的解析和代码实现,帮助粉丝顺利解决了问题。

最后感谢粉丝【花间一壶酒】提问,感谢【吴大佬】和【甯同学】给出的思路和代码解析,感谢【eric】、【未央.】等人参与学习交流。

------------------- End -------------------

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
Python爬虫
得来全不费功夫,使用Python爬虫自动采集Cookies、URL等网页数据
爬虫笔记
Selenium+Python进行web自动化测试(Demo+API)
骚年,还在为歌荒发愁吗?python教你爬取网易云热门歌单
小白学 Python 爬虫(27):自动化测试框架 Selenium 从入门到放弃(上)
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服