Python中Scrapy框架的response编码问题如何解决?
爬淘宝的 https://s.taobao.com/search?data-key=s&data-value=132&ajax=true&callback=jsonp1124&q=%E9%9D%A2%E8%86%9C&s=44 json 数据
用 scrapy Request 得到的 response,做编码处理的时候报:
UnicodeEncodeError: ‘ascii’ codec can’t encode characters in position 516-519: ordinal not in range(128)
但是用 requests 库,取的 response,可以正常 json,大佬们问题出在哪里呀?
scrapy 里用了 ascii, ingore,但是把中文字符干掉了,不可行。
Python中Scrapy框架的response编码问题如何解决?
大神们快出来呀,折磨新人 2 天咯。。。各种谷歌都没找到答案,,
在Scrapy里处理编码问题,直接设置 response.encoding 就行。不过得注意,Scrapy默认会用HTTP头或者HTML/XML里的meta标签来自动检测编码,有时候不准。
最稳的方法是直接指定编码。你可以在下载中间件里改,或者在回调函数里处理。比如这样:
class MySpider(scrapy.Spider):
name = 'example'
def start_requests(self):
# 在请求里指定编码
yield scrapy.Request('http://example.com',
callback=self.parse,
meta={'dont_retry': True})
def parse(self, response):
# 强制指定响应编码
response.encoding = 'gb2312' # 或者 'utf-8', 'gbk' 等
# 现在用response.text就是正确解码的内容了
title = response.css('title::text').get()
print(f"页面标题: {title}")
如果网站编码乱七八糟,可以用 chardet 或者 cchardet 库先检测一下:
import chardet
def parse(self, response):
# 检测编码
detected = chardet.detect(response.body)
response.encoding = detected['encoding']
# 继续解析...
还有个办法是在 settings.py 里设置默认编码,不过这样不够灵活:
FEED_EXPORT_ENCODING = 'utf-8' # 只影响输出文件
总结一下,直接在回调里设置 response.encoding 最管用。
找到答案了,,url 前面加个 u ‘ https://’ 就可以了。。。%>_<%
嗯,unicode 转义的问题<br>def parse(self, response):<br> mimvp_url = response.url # 爬取时请求的 url<br> body = response.body # 返回网页内容<br> <br> print("mimvp_url : " + str(mimvp_url))<br> print("body : " + str(body))<br> <br># unicode_body = response.body_as_unicode() # 返回的 html unicode 编码<br># print("unicode_body : " + str(unicode_body))<br>

