大家好,我是皮皮。
前几天在Python钻石交流群【余克富】问了一个Python
网络爬虫过程中中文乱码的问题,这里拿出来给大家分享下。
下图是乱码截图:
【甯同学】这里也指出了,最好还是要加个请求头,尊重下爬虫。
这个问题其实不太难,网络爬虫过程中肯定会经常遇到,这里【eric】提供了三种解决方法,后面如果你有遇到的话,也可以尝试使用下。
1、可以考虑将请求变为.content,得到的内容就是正常的了。
2、使用apparent_encoding,如下图所示:
3、使用通用的编码方法,对中文出现乱码的地方进行编码设定即可。还是当前的这个例子,针对img_name进行编码设定,指定编码并进行解码,img_name.encode('iso-8859-1').decode('gbk')
。
后来【瑜亮老师】指出,也可能是自身Pycharm编码设置的问题。
顺利地解决了粉丝的问题。
大家好,我是皮皮。这篇文章主要盘点了一个Python
网络爬虫中文乱码的问题,文中针对该问题,给出了具体的解析和代码实现,帮助粉丝顺利解决了问题。
最后感谢粉丝【余克富】提问,感谢【eric】、【瑜亮老师】、【甯同学】给出的思路和代码解析,感谢【M.R.D】、【逸 】、【此类生物】等人参与学习交流。
最后给大家推荐一个易哥的星球,这个星球我邀请了很多行业内真正的AI大咖,比如腾讯的大模型技术专家、阿里的大模型技术专家、虾皮算法部门技术专家、头条的算法专家、商汤的AI产品专家,再比如已经将ChatGPT赋能到自己创业上的考考CEO等等。
在星球上无论是嘉宾还是球友都异常活跃,大家已经开始交AI做的各种作业,嘉宾们也开始分享入门课程和进阶知识,这让我非常非常开心。
简单说下这个星球能给大家提供什么:
【提问补充】温馨提示,大家在群里提问的时候。可以注意下面几点:如果涉及到大文件数据,可以数据脱敏后,发点demo数据来(小文件的意思),然后贴点代码(可以复制的那种),记得发报错截图(截全)。代码不多的话,直接发代码文字即可,代码超过50行这样的话,发个.py文件就行。
------------------- End -------------------
联系客服