PYTHON SCRAPY无法将信息发布到表单,

2024-04-27 23:33:17 发布

您现在位置:Python中文网/ 问答频道 /正文

我想我会请求非常大的帮助,因为我在这个问题上挣扎了几天。我尽了一切可能(据我所知),但还是没有结果。我做错了什么,但还是搞不清是什么。所以感谢每一个愿意参加这次冒险的人。 第一件事: 我试图使用POST方法将信息发布到delta.com上的表单 与往常一样,这个网站是复杂的,因为他们在会话,cookies和Javascript中,所以它可能有问题。 我正在使用stackoverflow中的代码示例: Using MultipartPostHandler to POST form-data with Python 这是我为delta网页修改的代码。

from scrapy.selector import HtmlXPathSelector
from scrapy.http import FormRequest, Request
from delta.items import DeltaItem
from scrapy.contrib.spiders import CrawlSpider, Rule


class DmozSpider(CrawlSpider):
    name = "delta"
    allowed_domains = ["http://www.delta.com"]
    start_urls = ["http://www.delta.com"]

    def start_requests(self, response):
        yield FormRequest.from_response(response, formname='flightSearchForm',url="http://www.delta.com/booking/findFlights.do", formdata={'departureCity[0]':'JFK', 'destinationCity[0]':'SFO','departureDate[0]':'07.20.2013','departureDate[1]':'07.28.2013','paxCount':'1'},callback=self.parse1)

    def parse1(self, response):
        hxs = HtmlXPathSelector(response)
        sites = hxs.select('//')
        items = []
        for site in sites:
            item = DeltaItem()
            item['title'] = site.select('text()').extract()
            item['link'] = site.select('text()').extract()
            item['desc'] = site.select('text()').extract()
            items.append(item)
        return items

当我指示蜘蛛爬进终端时,我看到:

 scrapy crawl delta -o items.xml  -t xml

2013-07-01 13:39:30+0300 [scrapy] INFO: Scrapy 0.16.2 started (bot: delta)
2013-07-01 13:39:30+0300 [scrapy] DEBUG: Enabled extensions: FeedExporter, LogStats, TelnetConsole, CloseSpider, WebService, CoreStats, SpiderState
2013-07-01 13:39:30+0300 [scrapy] DEBUG: Enabled downloader middlewares: HttpAuthMiddleware, DownloadTimeoutMiddleware, UserAgentMiddleware, RetryMiddleware, DefaultHeadersMiddleware, RedirectMiddleware, CookiesMiddleware, HttpCompressionMiddleware, ChunkedTransferMiddleware, DownloaderStats
2013-07-01 13:39:30+0300 [scrapy] DEBUG: Enabled spider middlewares: HttpErrorMiddleware, OffsiteMiddleware, RefererMiddleware, UrlLengthMiddleware, DepthMiddleware
2013-07-01 13:39:30+0300 [scrapy] DEBUG: Enabled item pipelines: 
2013-07-01 13:39:30+0300 [delta] INFO: Spider opened
2013-07-01 13:39:30+0300 [delta] INFO: Crawled 0 pages (at 0 pages/min), scraped 0 items (at 0 items/min)
2013-07-01 13:39:30+0300 [scrapy] DEBUG: Telnet console listening on 0.0.0.0:6023
2013-07-01 13:39:30+0300 [scrapy] DEBUG: Web service listening on 0.0.0.0:6080
2013-07-01 13:39:33+0300 [delta] DEBUG: Crawled (200) <GET http://www.delta.com> (referer: None)
2013-07-01 13:39:33+0300 [delta] INFO: Closing spider (finished)
2013-07-01 13:39:33+0300 [delta] INFO: Dumping Scrapy stats:
    {'downloader/request_bytes': 219,
     'downloader/request_count': 1,
     'downloader/request_method_count/GET': 1,
     'downloader/response_bytes': 27842,
     'downloader/response_count': 1,
     'downloader/response_status_count/200': 1,
     'finish_reason': 'finished',
     'finish_time': datetime.datetime(2013, 7, 1, 10, 39, 33, 159235),
     'log_count/DEBUG': 7,
     'log_count/INFO': 4,
     'response_received_count': 1,
     'scheduler/dequeued': 1,
     'scheduler/dequeued/memory': 1,
     'scheduler/enqueued': 1,
     'scheduler/enqueued/memory': 1,
     'start_time': datetime.datetime(2013, 7, 1, 10, 39, 30, 734090)}
2013-07-01 13:39:33+0300 [delta] INFO: Spider closed (finished)

如果您与link中的示例进行比较,我看不出即使在使用几乎相同的代码时,我也成功地生成了POST方法。 我甚至尝试使用来自W3schools的非常简单的HTML/PHP表单,并将其放在服务器上,但在那里是一样的。我从来没有成功地创建过POST。 我认为问题很简单,但因为只有Python的知识是零碎的,所有零碎的都是我在网上找到的(我有很好的文档记录)和从示例中得到的,但对我来说仍然不够。因此,如果有人至少能表明正确的方式,这将是非常大的帮助。


Tags: fromdebugimportinfocomhttpresponsewww
0条回答
网友
1楼 · 发布于 2024-04-27 23:33:17

下面是使用Request.from_response进行delta.com的工作示例:

from scrapy.item import Item, Field
from scrapy.http import FormRequest
from scrapy.spider import BaseSpider


class DeltaItem(Item):
    title = Field()
    link = Field()
    desc = Field()


class DmozSpider(BaseSpider):
    name = "delta"
    allowed_domains = ["delta.com"]
    start_urls = ["http://www.delta.com"]

    def parse(self, response):
        yield FormRequest.from_response(response,
                                        formname='flightSearchForm',
                                        formdata={'departureCity[0]': 'JFK',
                                                  'destinationCity[0]': 'SFO',
                                                  'departureDate[0]': '07.20.2013',
                                                  'departureDate[1]': '07.28.2013'},
                                        callback=self.parse1)

    def parse1(self, response):
        print response.status

您使用了错误的spider方法,另外allowed_domains设置不正确。

但是,无论如何,delta.com大量使用动态ajax调用来加载内容-这里是问题的开始。E、 g.responseinparse1方法不包含任何搜索结果-而是包含用于加载动态加载结果的AWAY WE GO. ARRIVING AT YOUR FLIGHTS SOON 页的html。

基本上,您应该使用浏览器开发工具,并尝试在spider中模拟那些ajax调用,或者使用像selenium这样的工具来使用真正的浏览器(您可以将其与scrapy结合使用)。

另见:

希望能有所帮助。

相关问题 更多 >