Python每周免费领取10个爬虫项目

最近在攻爬虫

实操是最好的老师

所以每周我会在留言里按时间选 10 个项目

因为是免费的,所以得加些限制

 单应用,即不需要代理、没有很变态的验证码、没有很复杂的 JS 解析
 python3
 只负责写爬虫,运行得自己的机子

先留言占位,然后私信我详细的需求。私信尽量简介、全面。你只有一次私信需求的机会。

我会私信你是否接受和大概完成的时间。每天 20:点之前我会看完当日所有需求,20:00 以后按第二天算

单名一个 c 后缀 freelancecn.com


Python每周免费领取10个爬虫项目

31 回复

爬知乎日报,如何正确地吐槽。


我无法理解你的问题

前程无忧,或者拉钩、智联这种招聘网站,这种的容易爬吗?

根据关键词爬取豆瓣电影搜索结果

我想爬大发彩票网,不过他有的一些信息加了锁

汽车之家

天眼查或者企查查,他们自己都是爬来的信息,不知道反爬虫做的强不强。

wechat 指定 n 个公众号下所有文章的内容评论阅读数赞,有时间精力可一试。

能做个像推酷 APP 的那种功能吗

维基百科政治相关的人物以及任职信息出生信息

句子迷

#7 这个有点难度…哦

拉勾还好了,我之前爬过

写个框架吧

全国的高校就业信息网,类似 jiandan.live 哎,要是有套框架就好了

可以不用 scrapy 不?就爬一下 unicode 对应的 unicode-id

我也在学爬虫。还不是很熟

公众号的好爬

直接下载个表不就好了

#17 我之前从搜狗那个微信接口爬,失效太快了,不会找 token,有时候还会解码不了源代码

根据微博 id 获取此人点赞过的微博内容

tangut unicode 和 unicode-id 没表下呐。。

脉脉
主要是我和我家人收到这垃圾 app 的短信

请大神协助,这个网站我关注很久了,死活爬不到,貌似用的 socket 传的数据,不得要领,只要能够每小时爬取一次就行的,地址: http://www.usdebtclock.org/



py 文件下载 https://omnas.ml/s/55YrRydoQZdBSib

效果图 https://i.loli.net/2018/11/05/5bdff52b41c2c.png

需求不详细,所以只有当日份的吐槽。也只能是命令行查看。

可以了,剩下的我自己改,也学一下爬虫。

您的行为很赞。

豆瓣电影搜索(输入电影名,输出搜索结果),要用到 post

看了看评论, 已经知道拿什么网站练手了

这个爬了会不会被抄水表= =。。

“单应用,即不需要代理、没有很变态的验证码、没有很复杂的 JS 解析”。。那不就是写 xpath 和正则吗,这种难度其实没啥必要拿来练手。
直接找个应用商店把热度排行前 100 里大厂的社交媒体类 APP 的网站版和 APP 版都爬一遍,这种有难度的才能叫练手。

您好,请问您现在还爬吗,能否帮我爬取百度招聘所有招聘数据保存下来用于个人的毕业设计,

回到顶部