从网页递归下载文件
http://examples.oreilly.com/9780735615366/
我其实想把这些文件都下载到我的电脑上。
你可以看到有很多文件夹,每个文件夹里都有不同类型的文件。
而且你不能直接下载“整个文件夹”...只能下载里面的单个文件。
~
有没有什么办法可以自动化这个过程呢?
我需要用正则表达式来处理网址,把它们整理成像“文件夹”一样的结构。
我应该用什么呢...像Python这样的脚本语言吗?
4 个回答
1
wget 是一个 GNU 的命令行工具,可以帮你完成这个任务。你想要做的事情的相关说明可以在这里找到:http://www.gnu.org/software/wget/manual/html_node/Recursive-Retrieval-Options.html
4
看看这个叫做 wget
的工具吧。它可以完全满足你的需求。
0
一个简单的解决办法是使用FTP:
ftp://examples.oreilly.com/pub/examples/9780735615366/
这是针对你给出的例子的...