2024-04-18 14:12:53 发布
网友
有人知道我如何在不同的网站上运行同一个刮刀200多次,每个网站都有各自的输出文件吗?通常在scray中,当从命令行运行输出文件时,可以通过键入-o filename.json.来指示输出文件
-o filename.json.
我也在做类似的事情。以下是我所做的:
scrapyd
我已经用上面的策略浅刮了200万个域名,我做了不到5天。在
多种方式:
Create a ^{}删除具有可配置参数的项,如运行scrapy crawl myspider -a output_filename=output_file.txt。output_filename作为参数添加到spider,现在您可以从如下管道访问它:
scrapy crawl myspider -a output_filename=output_file.txt
class MyPipeline(object): def process_item(self, item, spider): filename = spider.output_filename # now do your magic with filename
您可以run scrapy within a python script,然后对输出项执行操作。
我也在做类似的事情。以下是我所做的:
scrapyd
运行蜘蛛我已经用上面的策略浅刮了200万个域名,我做了不到5天。在
多种方式:
Create a ^{} 删除具有可配置参数的项,如运行
scrapy crawl myspider -a output_filename=output_file.txt
。output_filename作为参数添加到spider,现在您可以从如下管道访问它:您可以run scrapy within a python script,然后对输出项执行操作。
相关问题 更多 >
编程相关推荐