用Python列出在线目录中的所有文件?

2024-05-23 17:38:22 发布

您现在位置:Python中文网/ 问答频道 /正文

你好,我只是想知道我正在尝试创建一个python应用程序,从互联网上下载文件,但目前它只下载一个我知道名字的文件。。。有什么方法可以让我在一个在线目录中得到一个文件列表并下载它们吗?我会告诉你我每次下载一个文件的代码,这样你就知道我不想做什么了。

import urllib2

url = "http://cdn.primarygames.com/taxi.swf"

file_name = url.split('/')[-1]
u = urllib2.urlopen(url)
f = open(file_name, 'wb')
meta = u.info()
file_size = int(meta.getheaders("Content-Length")[0])
print "Downloading: %s Bytes: %s" % (file_name, file_size)

file_size_dl = 0
block_sz = 8192
while True:
    buffer = u.read(block_sz)
    if not buffer:
        break

    file_size_dl += len(buffer)
    f.write(buffer)
    status = r"%10d  [%3.2f%%]" % (file_size_dl, file_size_dl * 100. / file_size)
    status = status + chr(8)*(len(status)+1)
    print status,

f.close()

那么它是从这个网站下载taxi.swf的,但我想它做的是从那个目录“/”下载所有的.swf到计算机上?

有可能吗?非常感谢你的帮助。-特丽-


Tags: 文件name目录urlsizebufferstatusurllib2
1条回答
网友
1楼 · 发布于 2024-05-23 17:38:22

既然你想一次下载一大堆东西,那就从寻找一个网站索引或一个网页开始,它能清楚地列出你想下载的所有东西。该网站的移动版本通常比桌面更轻,更容易擦伤。

这个网站正是你要找的:All Games

现在,做起来真的很简单。只是,提取所有的游戏页面链接。我使用BeautifulSouprequests来执行此操作:

import requests
from bs4 import BeautifulSoup

games_url = 'http://www.primarygames.com/mobile/category/all/'

def get_all_games():
    soup = BeautifulSoup(requests.get(games_url).text)

    for a in soup.find('div', {'class': 'catlist'}).find_all('a'):
        yield 'http://www.primarygames.com' + a['href']

def download_game(url):
    # You have to do this stuff. I'm lazy and won't do it.

if __name__ == '__main__':
    for game in get_all_games():
        download_game(url)

剩下的就看你了。download_game()根据游戏的URL下载游戏,因此您必须找出<object>标记在DOM中的位置。

相关问题 更多 >