2013-06-20 229 views
-2

我有大约300个小文件需要从网站下载。全部位于一个目录中。这些文件大小不同,并具有不同的扩展名。我不想将每个输入到我的网络浏览器,然后点击“另存为”等。我想给我的列表python,并让它下载并保存在一个目录中的每个文件。如果python可以简单地下载目录,那会更好。使用Python从网站下载文件

+1

工作目录中的文件。如果这一切都是什么你需要使用wget或curl。如果你真的想要一个Python解决方案(比如:你不在Unix上),你可以使用这样的包:https://pypi.python.org/pypi/wget – michaelmeyer

+3

可能更容易使用['wget' ](http://en.wikipedia.org/wiki/Wget)和'--recursive'选项。 – Aya

+0

使用chrome转到网站,然后执行'右键单击+另存为'。你会得到一个文件夹与网站上的所有文件以及它的HTML – ytpillai

回答

2

这是所有详细的here。我希望使用Requests,因为它通常很棒,但urllib2位于标准库中,因此不需要安装新的软件包。

+0

我不要以为他想要一个编程解决方案 – michaelmeyer

+0

第二个想法,如果你要保存这些文件,urreib中的urlretrieve可能更容易。 – richsilv

+0

@doukremt:他在一个编程问答网站上提出了一个关于Python的具体问题。你为什么会认为他不想编程? – geoffspear

1

如果你在蟒蛇3.3,你要找的urllib:

import urllib.request 
url = r"https://www.google.com/images/srpr/logo4w.png" 
opener = urllib.request.urlopen(url) 
file_out = open("my_image.png", "wb") 
file_out.write(opener.readall()) 
file_out.close() 

现在你应该在你的所谓的“my_image.png”