scrape_news

所属分类:数据采集/爬虫
开发工具:Python
文件大小:26KB
下载次数:0
上传日期:2018-04-05 12:46:16
上 传 者sh-1993
说明:  使用python Scrapy框架,执行多进程scrap新闻
(using python Scrapy framework, do multiprocess scrape news)

文件列表:
config (0, 2018-04-05)
config\keyword.json (27, 2018-04-05)
config\logging.json (1170, 2018-04-05)
config\mail.json (199, 2018-04-05)
config\web_src_name.json (2351, 2018-04-05)
log (0, 2018-04-05)
log\errors.log (1809, 2018-04-05)
log\info.log (1809, 2018-04-05)
nohup_restart_process.sh (1502, 2018-04-05)
scrape_yy (0, 2018-04-05)
scrape_yy\__init__.py (0, 2018-04-05)
scrape_yy\config (0, 2018-04-05)
scrape_yy\config\junjie.json (271, 2018-04-05)
scrape_yy\config\neteasy.json (271, 2018-04-05)
scrape_yy\items.py (487, 2018-04-05)
scrape_yy\main.py (2322, 2018-04-05)
scrape_yy\middlewares.py (1882, 2018-04-05)
scrape_yy\pipelines.py (5468, 2018-04-05)
scrape_yy\run_config (0, 2018-04-05)
scrape_yy\run_config\mysql_config.json (150, 2018-04-05)
scrape_yy\run_config\run_config.json (17, 2018-04-05)
scrape_yy\run_config\scrape_list.json (45, 2018-04-05)
scrape_yy\run_config\test_mysql_config.json (172, 2018-04-05)
scrape_yy\scrapy_info.log (1551, 2018-04-05)
scrape_yy\settings.py (3673, 2018-04-05)
scrape_yy\spiders (0, 2018-04-05)
scrape_yy\spiders\CommonSpider.py (3524, 2018-04-05)
scrape_yy\spiders\JunJieSpider.py (271, 2018-04-05)
scrape_yy\spiders\NetEasySpider.py (266, 2018-04-05)
scrape_yy\spiders\__init__.py (161, 2018-04-05)
scrape_yy\test (0, 2018-04-05)
scrape_yy\test\MongoDBPipeline.py (607, 2018-04-05)
scrape_yy\test\__init__.py (0, 2018-04-05)
scrape_yy\test\testXPath.py (13036, 2018-04-05)
scrapy.cfg (262, 2018-04-05)
utils (0, 2018-04-05)
utils\Json2XPath.py (2298, 2018-04-05)
utils\JsonUtil.py (1725, 2018-04-05)
... ...

由于工作需要使用python+scrapy框架做了一个新闻舆情的爬虫系统,当时任务比较紧自己也没有搞过爬虫,但最终还是较好的完成了任务,现在把做的大致思路记录分享一下。 ---- 首先,展示一下部分截图吧: ![pycharm单个爬虫调试](http://img.blog.csdn.net/20170828203953540?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvaGFsdW9sdW8yMTE=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast) ![数据库的存储](http://img.blog.csdn.net/20170828203839765?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvaGFsdW9sdW8yMTE=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast) ![根据关键词舆情部分](http://img.blog.csdn.net/20170828203916369?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvaGFsdW9sdW8yMTE=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast) ![部分web展示](http://img.blog.csdn.net/20170828204021875?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvaGFsdW9sdW8yMTE=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast) ![这里写图片描述](http://img.blog.csdn.net/20170828211440758?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvaGFsdW9sdW8yMTE=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast) [本文]()主要内容如下: - 开发背景 - 开发的大致思路 - 代码框架的介绍 ------- ### 开发背景 近两年国家对网络的内容监管十分的严格,前一两年被称为“网络直播年”因此出现了有很多直播公司。我们需要第一时间知道有关直播的新闻(直播新闻的特点是新闻会根据标题(包含“直播”,“女直播”)吸引网络用户阅读)。因此我的大致思路是获取各大新闻网站所有的含有相关关键词的新闻,爬取其url以及标题。 ------- ### 开发大致的思路 由于前面也没有做过爬虫相关的内容,于是google搜索了一下“python common scrape website framework”最终确定使用scrapy框架。 - 首先找到了一个scrapy 完成了一个爬取stack overflow的的示例大致知道了scrapy的用法。 - 会使用了基本的爬取之后,于是将爬取的结果存储到数据库 - 由于要爬取很多网站,结合scrapy框架的特点设计了一个公共的爬虫模板类,当需要爬取其他网站的时候只需要,写配置文件,以及网站的XPath结构即可 - 当网站爬取出现问题(网站结构发生改变的时候)会给自己的邮箱发一封邮件提醒自己修改 - 爬虫系统上线大概五个多月,挂了2~2次,最终写了个shell脚本,当系统挂了,会自动重新启动爬虫程序 ------- ### 代码框架大致介绍 首先上个代码框架的截图吧 ![这里写图片描述](http://img.blog.csdn.net/20170828210756788?watermark/2/text/aHR0cDovL2Jsb2cuY3Nkbi5uZXQvaGFsdW9sdW8yMTE=/font/5a6L5L2T/fontsize/400/fill/I0JBQkFCMA==/dissolve/70/gravity/SouthEast) 注意: 1. 实际使用中我大概爬取了30多个网站,但是不太方便上传多有的待爬取网站的结构,这里只上传了2个 2. 运行代码的时候需要注释掉有关数据库以及发送邮件的模块,或者你自己看代码创建数据库以及表,应该还是很简单的 代码的注释还是挺多的,相信大致看一下跑一下应该没什么问题。

近期下载者

相关文件


收藏者