打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
python爬不同图片分别保存在不同文件夹中

文章目录


例如,爬取赵丽颖,赵本山,赵文卓,赵欢,赵日天的图片分别保存在赵丽颖,赵本山,赵文卓,赵欢,赵日天命名的文件夹中,

测试代码



别的图就不放了

import requests
import time
import os
# 请求头,伪装成浏览器
headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.116 Safari/537.36'
}
# keyword = '云斑白条天牛' # 关键字
keywords = ['赵丽颖','赵本山','赵文卓','赵欢','赵日天']
max_page = 2
i=1 # 记录图片数
for keyword in keywords:
    
    os.makedirs(keyword)
    for page in range(1,max_page):
        page = page*30
        # 网址
        url = 'https://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&is=&fp=result&queryWord='                +keyword+'&cl=2&lm=-1&ie=utf-8&oe=utf-8&adpicid=&st=-1&z=&ic=0&hd=&latest=&copyright=&word='                +keyword+'&s=&se=&tab=&width=&height=&face=0&istype=2&qc=&nc=1&fr=&expermode=&force=&cg=wallpaper&pn='                +str(page)+'&rn=30&gsm=1e&1596899786625='
        # 请求响应
        response = requests.get(url=url,headers=headers)
        # 得到相应的json数据
        json = response.json()
        if json.get('data'):
            for item in json.get('data')[:30]:
                # 图片地址
                img_url = item.get('thumbURL')
                # 获取图片
                image = requests.get(url=img_url)
                # 下载图片
                newstr = './'+keyword+'/'+str(i)+'.jpg'
                # with open('./%s/%d.jpg'%keywords ,%i,'wb') as f:
                with open(newstr,'wb') as f:
                    f.write(image.content) # 图片二进制数据
                time.sleep(1) # 等待1s
                print('第%d张%s图片下载完成...'%(i,keyword))
                i+=1
              
            
            

print('End!')

你要修改的参数

将你想要爬的数据填入keywords 数组中即可

# 这里放你要查询的数组
keywords = ['','','',']

max_page是爬取百度图片的页数,一页是30张,这里写2的话就能爬30张,3能爬60张,以此类推

max_page = 3

你要的代码

代码如下:

import requests
import time
import os
# 请求头,伪装成浏览器
headers = {
        'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/53.0.2785.116 Safari/537.36'
}
# 这里放你要查询的数组
keywords = ['','','',']
max_page = 4
i=1 # 记录图片数
for keyword in keywords:
    
    os.makedirs(keyword)
    for page in range(1,max_page):
        page = page*30
        # 网址
        url = 'https://image.baidu.com/search/acjson?tn=resultjson_com&ipn=rj&ct=201326592&is=&fp=result&queryWord='                +keyword+'&cl=2&lm=-1&ie=utf-8&oe=utf-8&adpicid=&st=-1&z=&ic=0&hd=&latest=&copyright=&word='                +keyword+'&s=&se=&tab=&width=&height=&face=0&istype=2&qc=&nc=1&fr=&expermode=&force=&cg=wallpaper&pn='                +str(page)+'&rn=30&gsm=1e&1596899786625='
        # 请求响应
        response = requests.get(url=url,headers=headers)
        # 得到相应的json数据
        json = response.json()
        if json.get('data'):
            for item in json.get('data')[:30]:
                # 图片地址
                img_url = item.get('thumbURL')
                # 获取图片
                image = requests.get(url=img_url)
                # 下载图片
                newstr = './'+keyword+'/'+str(i)+'.jpg'
                # with open('./%s/%d.jpg'%keywords ,%i,'wb') as f:
                with open(newstr,'wb') as f:
                    f.write(image.content) # 图片二进制数据
                time.sleep(1) # 等待1s
                print('第%d张%s图片下载完成...'%(i,keyword))
                i+=1    
print('End!')

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
python网络爬虫笔记
今年支付宝的集福字就靠这个了,天天不重样
唯品会爬取商品信息
数据保存!!!Python 爬取网页数据后,三种保存格式
Python3爬虫之模拟post登陆及get登陆
python+pytest接口自动化之token关联登录的实现
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服