如何使用线程或其他快速方式获取网站?

2024-04-26 06:55:00 发布

您现在位置:Python中文网/ 问答频道 /正文

我在这里有一点小麻烦来理解线程是如何工作的,或者用它来构建一些东西。在

我需要下载几个网页,改变链接上的一个值(容易的部分)并获取一些信息,但我使用的是“while”,下载一个类似60kb的网站大约需要1秒或更长时间。。。我的互联网5mb。。在

有人能给我举个最简单的例子吗?在


Tags: 信息网页网站链接互联网线程例子while
2条回答

提取自here

      #!/usr/bin/env python
      import Queue
      import threading
      import urllib2
      import time

      hosts = ["http://yahoo.com", "http://google.com", "http://amazon.com",
      "http://ibm.com", "http://apple.com"]

      queue = Queue.Queue()

      class ThreadUrl(threading.Thread):
      """Threaded Url Grab"""
        def __init__(self, queue):
          threading.Thread.__init__(self)
          self.queue = queue

        def run(self):
          while True:
            #grabs host from queue
            host = self.queue.get()

            #grabs urls of hosts and prints first 1024 bytes of page
            url = urllib2.urlopen(host)
            print url.read(1024)

            #signals to queue job is done
            self.queue.task_done()

      start = time.time()
      def main():

        #spawn a pool of threads, and pass them queue instance 
        for i in range(5):
          t = ThreadUrl(queue)
          t.setDaemon(True)
          t.start()

       #populate queue with data   
          for host in hosts:
            queue.put(host)

       #wait on the queue until everything has been processed     
       queue.join()

      main()
      print "Elapsed Time: %s" % (time.time() - start)

来自Advanced Usage: Asynchronous Requests

from requests import async

urls = [
    'http://python-requests.org',
    'http://httpbin.org',
    'http://python-guide.org',
    'http://kennethreitz.com'
]

rs = [async.get(u) for u in urls]
async.map(rs)

这不是使用线程,但工作方式相同-请求是并发的。在

相关问题 更多 >