十年网站开发经验 + 多家企业客户 + 靠谱的建站团队
量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决
小编给大家分享一下怎么用res函数解决python爬虫的中文乱码,希望大家阅读完这篇文章后大所收获,下面让我们一起去探讨吧!
创新互联-专业网站定制、快速模板网站建设、高性价比姜堰网站开发、企业建站全套包干低至880元,成熟完善的模板库,直接使用。一站式姜堰网站制作公司更省心,省钱,快速模板网站建设找我们,业务覆盖姜堰地区。费用合理售后完善,10年实体公司更值得信赖。
我们知道Requests 会基于 HTTP 头部对响应的编码作出有根据的推测。当你访问 r.text 之时,Requests 会使用其推测的文本编码。你可以找出 Requests 使用了什么编码,并且能够使用r.encoding 属性来改变它。接下来,我们一起通过resquests的一些用法,来看看Requests 会基于 HTTP 头部对响应的编码方式。
print(res.encoding) #查看网页返回的字符集类型 print(res.apparent_encoding) #自动判断字符集类型
输出结果为:
可以发现Requests 推测的文本编码(也就是网页返回即爬取下来后的编码转换)与源网页编码不一致,由此可知其正是导致乱码原因。
解决方法
根据原因来找解决方法,就非常简单了。
方法一:直接指定res.encoding
import requests url = "http://search.51job.com" res = requests.get(url) res.encoding = "gbk" html = res.text print(html)
方法二:通过res.apparent_encoding属性指定
import requests url = "http://search.51job.com" res = requests.get(url) res.encoding = res.apparent_encoding html = res.text print(html)
看完了这篇文章,相信你对怎么用res函数解决python爬虫的中文乱码有了一定的了解,想了解更多相关知识,欢迎关注创新互联行业资讯频道,感谢各位的阅读!