动态pag用含硒废料

2021-06-14 23:03:48 发布

您现在位置:Python中文网/ 问答频道 /正文

我正试着用scrapy从网页上搜集产品信息。我的待刮网页如下:

  • 从包含10个产品的产品列表页开始
  • 点击“下一步”按钮加载下10个产品(两个页面之间的url不变)
  • 我使用LinkExtractor跟踪每个产品链接到产品页面,并获取所需的所有信息

我试图复制下一个按钮ajax调用,但无法正常工作,所以我尝试使用selenium。我可以在单独的脚本中运行selenium的webdriver,但是我不知道如何与scrapy集成。我该把硒的那部分放在我的蜘蛛身上?

我的蜘蛛很标准,如下所示:

class ProductSpider(CrawlSpider):
    name = "product_spider"
    allowed_domains = ['example.com']
    start_urls = ['http://example.com/shanghai']
    rules = [
        Rule(SgmlLinkExtractor(restrict_xpaths='//div[@id="productList"]//dl[@class="t2"]//dt'), callback='parse_product'),
        ]

    def parse_product(self, response):
        self.log("parsing product %s" %response.url, level=INFO)
        hxs = HtmlXPathSelector(response)
        # actual data follows

任何想法都值得赞赏。谢谢您!

2条回答
网友
1楼 ·

这真的取决于你需要如何刮网站,如何和什么样的数据,你想得到。

下面是一个如何在易趣上使用Scrapy+Selenium进行分页的示例:

import scrapy
from selenium import webdriver

class ProductSpider(scrapy.Spider):
    name = "product_spider"
    allowed_domains = ['ebay.com']
    start_urls = ['http://www.ebay.com/sch/i.html?_odkw=books&_osacat=0&_trksid=p2045573.m570.l1313.TR0.TRC0.Xpython&_nkw=python&_sacat=0&_from=R40']

    def __init__(self):
        self.driver = webdriver.Firefox()

    def parse(self, response):
        self.driver.get(response.url)

        while True:
            next = self.driver.find_element_by_xpath('//td[@class="pagn-next"]/a')

            try:
                next.click()

                # get the data and write it to scrapy items
            except:
                break

        self.driver.close()

以下是一些“硒蜘蛛”的例子:


还有一种方法可以替代使用SeleniumScrapy。在某些情况下,使用^{} middleware就足以处理页面的动态部分。实际使用示例:

网友
2楼 ·

如果(url在两个页面之间没有变化),那么您应该使用scrapy.Request()添加don_filter=True,否则scrapy在处理完第一个页面后会发现此url是重复的。

如果需要使用javascript呈现页面,则应该使用scrapy-splash,还可以检查这个scrapy middleware,它可以使用selenium处理javascript页面,也可以通过启动任何无头浏览器来完成

但更有效、更快的解决方案是检查浏览器,查看在提交表单或触发某个事件期间发出的请求。尝试模拟浏览器发送的相同请求。如果您能够正确地复制请求,您将获得所需的数据。

下面是一个例子:

class ScrollScraper(Spider):
    name = "scrollingscraper"

    quote_url = "http://quotes.toscrape.com/api/quotes?page="
    start_urls = [quote_url + "1"]

    def parse(self, response):
        quote_item = QuoteItem()
        print response.body
        data = json.loads(response.body)
        for item in data.get('quotes', []):
            quote_item["author"] = item.get('author', {}).get('name')
            quote_item['quote'] = item.get('text')
            quote_item['tags'] = item.get('tags')
            yield quote_item

        if data['has_next']:
            next_page = data['page'] + 1
            yield Request(self.quote_url + str(next_page))

当每一页的分页url相同时&;使用POST-request,则可以使用scrapy.FormRequest()而不是scrapy.request(),两者相同,但FormRequest向构造函数添加了一个新参数(formdata=)。

下面是这个post中的另一个蜘蛛示例:

class SpiderClass(scrapy.Spider):
    # spider name and all
    name = 'ajax'
    page_incr = 1
    start_urls = ['http://www.pcguia.pt/category/reviews/#paginated=1']
    pagination_url = 'http://www.pcguia.pt/wp-content/themes/flavor/functions/ajax.php'

    def parse(self, response):

        sel = Selector(response)

        if self.page_incr > 1:
            json_data = json.loads(response.body)
            sel = Selector(text=json_data.get('content', ''))

        # your code here

        # pagination code starts here
        if sel.xpath('//div[@class="panel-wrapper"]'):
            self.page_incr += 1
            formdata = {
                'sorter': 'recent',
                'location': 'main loop',
                'loop': 'main loop',
                'action': 'sort',
                'view': 'grid',
                'columns': '3',
                'paginated': str(self.page_incr),
                'currentquery[category_name]': 'reviews'
            }
            yield FormRequest(url=self.pagination_url, formdata=formdata, callback=self.parse)
        else:
            return

相关问题