Python中如何创建关于各种反爬解决方案的GitHub Organizations
同题,之所以想开这个 organizations 是因为 1.因为有很多网站的反爬手段都很类似,把这些反爬手段收集起来能够给做爬虫的兄弟们一些借鉴。 2.爬虫本身有时候是很繁琐的一件事情,在 api,网页,源码中寻找数据,所以希望开源一些实际生产环境的解决方案让大家使用 3.爬虫这个岗位确实很有挑战性,大家也可以谈谈自己爬过的艰难的网站。
来吧,留下你的 github 名,加入我们!
Python中如何创建关于各种反爬解决方案的GitHub Organizations
我无法理解你的问题
乱爬数据不是违法的么^-^
这个应该这么说,我们只是交流想法,具体爬的话不是得对应到具体人,具体公司吗,这个我们就不管了,大家都是为了技术嘛
好的,
老哥,已经邀请了,点击这个网址接受就好了 https://github.com/AntiCrawlerSolution
反扒还需要手段?谁爬就报警。
这个 github 之前也关注过,确实很优秀,不过我觉得还是内容比较少,一些方法也是比较旧了,所以希望有个 organizations 来让大家更加能够及时获取这些前沿的反爬手段以及对应的解决方案
老哥牛比阿
兄弟什么方向的
内容图片输出即可
andylsr~常年爬数据~
???
nickliqian
chrisguox
https://github.com/ta7sudan
我贡献一个自己写的前端反调试的库, 也许和反爬有那么点关系…
https://github.com/ta7sudan/secan
https://github.com/PinoZhou 在公司写爬虫,主要是 java 爬虫,python 也会点,希望加入一起学习
工作上也爬~~被反扒了,就 sleep 时间长一点,楼主这个反扒方案很给力啊
相见恨晚,学习了
相煎何急
哈哈
楼上的相煎何急笑死我了
我也凑个热闹
https://github.com/13hoop
老哥已发
chrisguox
PinoZhou
PinoZhou
13hoop
之前也遇到过反调试的,不知道老哥你这个怎么样,star 你一下
Good idea,带上我
https://github.com/mmdsyl
老哥已发
兄弟上车
新开了个反爬小组的微信群,老哥们可以加入一下

我看的怎么只有目录啊
目前还在填充具体的细节,老哥稍等哈,也可以共享一下自己的案例哈

