Python中socket多线程运行报错,大佬们帮帮看下

背景:同时开了几千个线程,运行到 300 多个线程的时间报错了, socket.setdefaulttimeout(45) sleep_download_time = 1 time.sleep(sleep_download_time) 超时和延时都有加上

1、ConnectionResetError: [WinError 10054] 远程主机强迫关闭了一个现有的连接。 这个我认为是被服务器拒绝了,被发是爬虫了?

2、socket.timeout: timed out 这个我已经设置了超时的时间,还是报错了


Python中socket多线程运行报错,大佬们帮帮看下

33 回复

求大佬们帮忙看看,跪求😂


我无法理解你的问题

为什么要开着么多线程?是没试过最多可以开多少个线程?

几千个线程去爬,可能不是发现是爬虫了,是发现被 D 了。。。。

怎么解决这个问题

多线程效率高啊!怎么解决这个问题・_・?一个线程跑正常

每个线程一个代理吗?

没有用代理,这个还要代理?

你这样去请求别人 把你 ip 封了

应该不是封 ip,我重新运行后还是可以跑的,每次重新跑都是大概跑到 300 多线程就保存了

你把 sleep 设置的时间长一点

时间设置太久就没意义了,要跑的内容太多了,好几千个线程要等到什么时候?

线程多就一定快?想多了

多线程效率不一定高。nodejs 还是单线程呢。看看磁盘内存 CPU 有没有瓶颈吧。还要考虑到网站服务器的承受能力,有的服务器可能还没个人 pc 的配置高呢。

爬虫的精髓在于怎么慢 而不是怎么快

我一直不理解开很多线程的代码逻辑,尤其有些库在测试性能时还开了几百个,难不成大家的 cpu 都是几百上千核的,或者是逻辑都是阻塞写法。开了那么多线程,我的其他逻辑还要不要跑了,三五个线程差不多了。

一般上限是 3 万多,但是这个是可以设置的,这个要看你怎么写了


从你的描述很显然啊,远程服务器设置了瞬时并发数啊(如 nginx 添加 nginx_http_limit_conn_module )来限制同一个 ip 来源的连接数,防止恶意攻击访问)

不是说一定快,我是说要爬的内容必须要同时运行,所以才用了多线程

太慢的话,还没爬完,数据就没了😂

是不是只有用 ip 代理才可以解决? 那我要怎么设置切换 ip ?

你一个 ip 整上千个并发连接,你不被拦谁被拦

socket 应该怎么切换代理

用 squid 吧

噢,刚发现 squid 主要是 HTTP 代理,socket 的我还真不知道

开几千个线程的爬虫。。。。系统吃的消吗
真的想用多线程,开个线程池几个线程并发跑就好了

还好吧,只是跑到 300 多就被服务器拒绝了,线程池总是有点问题,调了好长时间,话说线程池就不会报错被服务器拒绝了吗?

线程池要怎么写?大佬有例子介绍一下吗?😂

沉了吗

参考前面说的你想办法爬慢点就能解决了。并发控制到 300 以下试试。
线程池我觉的可有可无,主要是写了可以减少开销。

不能爬太慢,需求就是要同时并发好几千,所以暂时只想到用线程池,但是自己写的线程池总是有问题,跑不起来所以请教一下线程池的写法,最好有个例子最好了,多谢啦!

concurrent.futures.ThreadPoolExecutor 了解一下

好的,多谢!不过我又分析了一下自己的需求,发现目前用不了多进程,只能多线程了,不过会被服务器拒绝,请问有比较好的 socket 代理吗?

回到顶部