Python中Scrapy框架的response编码问题如何解决?

爬淘宝的 https://s.taobao.com/search?data-key=s&data-value=132&ajax=true&callback=jsonp1124&q=%E9%9D%A2%E8%86%9C&s=44 json 数据
用 scrapy Request 得到的 response,做编码处理的时候报:
UnicodeEncodeError: ‘ascii’ codec can’t encode characters in position 516-519: ordinal not in range(128)

但是用 requests 库,取的 response,可以正常 json,大佬们问题出在哪里呀?

scrapy 里用了 ascii, ingore,但是把中文字符干掉了,不可行。
Python中Scrapy框架的response编码问题如何解决?


4 回复

大神们快出来呀,折磨新人 2 天咯。。。各种谷歌都没找到答案,,


在Scrapy里处理编码问题,直接设置 response.encoding 就行。不过得注意,Scrapy默认会用HTTP头或者HTML/XML里的meta标签来自动检测编码,有时候不准。

最稳的方法是直接指定编码。你可以在下载中间件里改,或者在回调函数里处理。比如这样:

class MySpider(scrapy.Spider):
    name = 'example'
    
    def start_requests(self):
        # 在请求里指定编码
        yield scrapy.Request('http://example.com', 
                             callback=self.parse, 
                             meta={'dont_retry': True})
    
    def parse(self, response):
        # 强制指定响应编码
        response.encoding = 'gb2312'  # 或者 'utf-8', 'gbk' 等
        
        # 现在用response.text就是正确解码的内容了
        title = response.css('title::text').get()
        print(f"页面标题: {title}")

如果网站编码乱七八糟,可以用 chardet 或者 cchardet 库先检测一下:

import chardet

def parse(self, response):
    # 检测编码
    detected = chardet.detect(response.body)
    response.encoding = detected['encoding']
    
    # 继续解析...

还有个办法是在 settings.py 里设置默认编码,不过这样不够灵活:

FEED_EXPORT_ENCODING = 'utf-8'  # 只影响输出文件

总结一下,直接在回调里设置 response.encoding 最管用。

找到答案了,,url 前面加个 u ‘ https://’ 就可以了。。。%>_<%

嗯,unicode 转义的问题

<br>def parse(self, response):<br> mimvp_url = response.url # 爬取时请求的 url<br> body = response.body # 返回网页内容<br> <br> print("mimvp_url : " + str(mimvp_url))<br> print("body : " + str(body))<br> <br># unicode_body = response.body_as_unicode() # 返回的 html unicode 编码<br># print("unicode_body : " + str(unicode_body))<br>

回到顶部