使用爬虫程序配置对网页进行爬网的微框架。它可以使用MangGDB、弹性搜索和SOLR数据库来缓存和保存提取的数据。
web-crawler-plus的Python项目详细描述
使用爬虫程序配置对网页进行爬网的微框架。它可以使用MangGDB、弹性搜索和SOLR数据库来缓存和保存提取的数据。
- 此包Python名称:web-crawler-plus
- 目前版本: web-crawler-plus 0.9.14
- 最后维护时间:Apr 1, 2018
- 摘要:A micro-framework to crawl the web pages with crawlers configs. It can use MongoDB, Elasticsearch and Solr databases to cache and save the extracted data.
- 安装命令:pip install web-crawler-plus
- 其它:web-crawler-plus 这个Python第三方库的作者没有提供更多的项目描述信息了,2019-11-10 23:44:14。
- 可以返回 PyPI第三方库 首页,查找更多相关Python包程序。