使用Python网络爬虫下载多个文件
如果我有一个指向Yahoo财经的CSV文件的链接:http://ichart.finance.yahoo.com/table.csv?s=LOW&d=4&e=29&f=2014&g=d&a=8&b=22&c=1981&ignore=.csv
我该如何写一个网络爬虫,来根据一个符号列表下载多个文件呢?这个符号列表是:[LOW, SPY, AAPL]
from StringIO import StringIO
from urllib2 import urlopen
for symbol in symbols:
f = urlopen ('http://www.myurl.com'+symbol+'therestoftheurl')
p = f.read()
d = StringIO(p)
f.close
我需要把这个网址的内容写入文件,还是它会自动下载到某个文件夹里呢?
1 个回答
0
你可以用下面这种方法来下载文件:
import urllib2
file_name = "myfile.xyz"
u = urllib2.urlopen(url)
f = open(file_name, 'wb')
block_sz = 4096
while True:
buffer = u.read(block_sz)
if not buffer:
break
f.write(buffer)
f.close()