使用python爬取网页时,经常会遇到乱码。一旦遇到乱码,就很难得到有用的信息。遇到乱码问题,一般有以下几种方式:
1、查看网页源码中的head标签,找到编码方式,例如:
在上图中,可以看到charset='utf-8',说明这个网页很大可能是采用‘UTF-8’编码(是很大可能,但不是百分之百),因此可以试试这个编码方式:
result = response.content.decode('utf-8')
这种方式得到的内容基本上就不会乱码了。
2.如果以上方法都没有效果,页面还是乱码;或者在head标签下找不到charset属性;或者我们需要收集很多网页的信息,而这些网页的编码方式不同,我们一个也做不了。查看网页的head标签,可以使用以下方法解决乱码。
(1)python的chardet库
可以使用下面的方式解决乱码问题
result = chardet.detect(response.content)
print(result)
data = response.content.decode(chardet.detect(response.content)['encoding'])
{'confidence': 0.99, 'language': '', 'encoding': 'utf-8'}
从输出结果可以看出,这是一种“猜测”编码。猜测的方法是先收集各种编码的特征字符,根据这些特征字符,“猜对”的概率很大。
这种方法的效率很低,如果采集的网页很大,可以只猜测其中一段的源码,即
result = chardet.detect(response.content[:1000])
(2)response的编码
也可以使用另一种方法,即response自有的encoding,apparent_encoding这两个变量。
response.encoding一般是从response.headers中content-type字段中的charset的值,其它情况我也不是很了解。
response.apparent_encoding一般是采用上述的python的chardet库这种方法。
因此可以用下面的方式解决乱码问题
data = response.content.decode(response.apparent_encoding)
3、一般情况下,以上两种方法都可以解决乱码问题。但是,如果以上两种方法都不能解决,则可能是网页压缩造成的。这个问题通过以下方式解决。
检查一下你写的头信息是不是包含了Accept-Encoding这个字段,如果有,请删除这个字段,乱码问题就会得到解决。
headers = {
'Accept-Encoding': 'gzip, deflate, sdch',
'Accept-Language': 'zh-CN,zh;q=0.8',
'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/49.0.2623.221
Safari/537.36 SE 2.X MetaSr 1.0',
'Accept': 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8',
'Connection': 'keep-alive',
}
本文为原创文章,版权归知行编程网所有,欢迎分享本文,转载请保留出处!
你可能也喜欢
- ♥ 如何在python空闲时清除屏幕09/01
- ♥ python线程间通信用什么方式12/13
- ♥ python输入错误密码3次后如何锁定?12/27
- ♥ python中的数组堆叠函数有哪些10/06
- ♥ 如何用python tkinter插入和显示图片?12/20
- ♥ python如何遍历元组10/19
内容反馈