打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
爬虫需要登陆怎么办?这份python登陆代码请收下

相信很多python学习者都和我一样在刚开始学习爬虫时,对见到的网站都有种跃跃欲试的冲动,像豆瓣电影、电影天堂以及各类壁纸写真图片网站的等等,但这些都是不需要登陆账号就可以直接请求解析网页获取资源链接的,如果遇到需要登陆账号的网站时就不行了。这个时候小编就及时出来解决大家的问题,给大家准备了一份模拟登陆代码供大家学习。

环境准备

python3.5

selenium模块

模拟登陆思路

通过selenium中的webdriver控制浏览器登录目标网站,然后获取模拟登陆需要的Cookie,再利用此Cookie来达到登录的效果。本次我们使用webdriver来驱动火狐浏览器插件。在登录网站时,cookie保存在发起请求的客户端中,网站服务器利用cookie来区分不同的客户端。cookie里面记录了“访问登录后才能看到的页面”这一行为的信息,含有能够向服务器证明:“我刚才登录过”。因此cookie可以用来标识客户端的身份,以存储它的信息。

登录步骤

导入模块

  1. from selenium import webdriver
  2. import requests
  3. import json

启动浏览器

通过webdriver驱动火狐浏览器,然后在加载将要访问的目标网站

  1. driver = webdriver.Firefox()
  2. driver.get('目标网站')

点击登录

找到网页中登录按钮所在的位置,通过浏览器模拟点击打开登录框,然后找到用户名和密码框的位置,输入用户名及密码,在寻找按钮以及密码输入框时可鼠标右键然后找到“查看元素”选项,点击之后可在网页源码中寻找。代码如下

  1. #清空登录框
  2. driver.find_element_by_xpath("./*//input[@name='username']").clear()
  3. #自动填入登录用户名
  4. driver.find_element_by_xpath("./*//input[@name='username']").send_keys(user)
  5. #清空密码框
  6. driver.find_element_by_xpath("./*//input[@name='password']").clear()
  7. #自动填入登录密码
  8. driver.find_element_by_xpath("./*//input[@name='password']").send_keys(password)
  9. time.sleep(8)
  10. #点击登录按钮进行登录
  11. driver.find_element_by_xpath("./*//button[@name='loginsubmit']").click()
  12. time.sleep(10)

记录cookie

经过上面几步,如果没有报错的话就说明已经登录成功了,接下来我们再次加载网页获取登录cookie。代码如下

  1. driver.get('目标网站')
  2. #获取cookies
  3. cookie_items = driver.get_cookies()
  4. for cookie_item in cookie_items:
  5.     post[cookie_item['name']] = cookie_item['value']
  6. cookie_str = json.dumps(post)
  7. with open('cookie.txt', 'w', encoding='utf-8') as f:
  8.     f.write(cookie_str)
  9. f.close()

通过cookie登录

获得cookie之后,模拟登陆就跟之前一样用requests请求网站,只需要将cookie内容加到请求中即可。代码如下

  1. header = {"User-Agent": "Mozilla/5.0 (Windows NT 6.1; WOW64;rv:53.0) Gecko/20100101 Firefox/53.0"}
  2. with open('cookie.txt', 'r', encoding='utf-8') as f:
  3.     cookie = f.read()
  4. cookies = json.loads(cookie)
  5. res = requests.get(url=url, cookies=cookies, headers=header)

对于有些网站来说,cookie的生命期较长,所以在第一次登陆获取cookie后,在以后模拟登陆时只需要调用此cookie即可,十分方便。

具体代码如下

  1. from selenium import webdriver
  2. import time
  3. import json

  4. user="用户名"
  5. password="密码"

  6. driver = webdriver.Firefox()
  7. driver.get('目标网站')
  8. time.sleep(5)
  9. driver.find_element_by_xpath("./*//button[@type='submit']").click()
  10. print("正在输入用户名和密码")
  11. #清空登录框
  12. driver.find_element_by_xpath("./*//input[@name='username']").clear()
  13. #自动填入登录用户名
  14. driver.find_element_by_xpath("./*//input[@name='username']").send_keys(user)
  15. #清空密码框
  16. driver.find_element_by_xpath("./*//input[@name='password']").clear()
  17. #自动填入登录密码
  18. driver.find_element_by_xpath("./*//input[@name='password']").send_keys(password)

  19. time.sleep(8)
  20. #点击登录按钮进行登录
  21. driver.find_element_by_xpath("./*//button[@name='loginsubmit']").click()
  22. time.sleep(10)
  23. driver.get('目标网站')
  24. #获取cookies
  25. cookie_items = driver.get_cookies()

  26. #获取到的cookies是列表形式,将cookies转成json形式并存入本地名为cookie的文本中
  27. for cookie_item in cookie_items:
  28.     post[cookie_item['name']] = cookie_item['value']
  29. cookie_str = json.dumps(post)
  30. with open('cookie.txt', 'w', encoding='utf-8') as f:
  31.     f.write(cookie_str)
  32. f.close()
  33. print("登录完成")
本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
Selenium webdriver添加cookie实现过程详解
Python爬虫利器五之Selenium的用法 | 静觅
Python爬虫(二十一)
Selenium2+python自动化27
《selenium2 python 自动化测试实战》(14)——下载文件
selenium2+phantomjs入门范例
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服