使用爬虫程序配置对网页进行爬网的微框架。它可以使用MangGDB、弹性搜索和SOLR数据库来缓存和保存提取的数据。

web-crawler-plus的Python项目详细描述


使用爬虫程序配置对网页进行爬网的微框架。它可以使用MangGDB、弹性搜索和SOLR数据库来缓存和保存提取的数据。

  • 此包Python名称:web-crawler-plus
  • 目前版本: web-crawler-plus 0.9.14
  • 最后维护时间:Apr 1, 2018
  • 摘要:A micro-framework to crawl the web pages with crawlers configs. It can use MongoDB, Elasticsearch and Solr databases to cache and save the extracted data.
  • 安装命令:pip install web-crawler-plus
  • 其它:web-crawler-plus 这个Python第三方库的作者没有提供更多的项目描述信息了,2019-11-10 23:44:14。
  • 可以返回 PyPI第三方库 首页,查找更多相关Python包程序。

欢迎加入QQ群-->: 979659372 Python中文网_新手群

推荐PyPI第三方库


热门话题
Java泛型和基类   ProcessBuilder或DefaultExecutor启动的“RunAs”子进程的java读取标准输出   java应用程序在尝试登录时突然停止   Java:神秘的Java未捕获异常处理程序[带代码]   java JavaFX NumberAxis自动范围无限循环   最新版本和旧版本冲突的java双Maven依赖关系   java如何导入带有部署变量类名的静态函数?   编译器构造不同的JDK更新会产生不同的Java字节码吗?   java无法在struts 1.1中上载任何超过250 MB大小的文件   java调整jcombobox下拉菜单的宽度   java如何在某些情况下忽略@SQLDelete注释   在Eclipse for Java EE developers edition中禁用HTML警告   java HttpUrlConnection重置请求属性   java@Provider资源未在rest应用程序中注册   java TOP N使用JPA连接   java在使用反射调用方法时区分int和Integer参数