如何在已通过scrapy下载的网页上使用selenium.PhantomJS()
def parseList(self, response):
dr=webdriver.PhantomJS()
dr.get(response.url)
pageSource = dr.page_source
print dr.page_source
这个网页已经被scrapy下载了(包含在response.body
里面),而dr.get(response.url)
会再次下载一次。
有没有办法让selenium直接使用response.body
呢?