这是我的第一个Python项目,所以它是非常基础和基本的。 我经常需要清理朋友的病毒,并且我使用的免费程序经常更新。我没有手动下载每个程序,而是试图创建一个简单的方法来自动化该过程。由于我也在学习python,我认为这将是一个很好的练习机会。从多个网站下载文件。
问题:
我必须找到一些链接的.exe文件。我可以找到正确的网址,但在尝试下载时出现错误。
有没有办法将所有链接添加到列表中,然后创建一个函数来遍历列表并在每个url上运行该函数?我已经谷歌了很多,我似乎无法使它工作。也许我不是在朝着正确的方向思考?
import urllib, urllib2, re, os
from BeautifulSoup import BeautifulSoup
# Website List
sas = 'http://cdn.superantispyware.com/SUPERAntiSpyware.exe'
tds = 'http://support.kaspersky.com/downloads/utils/tdsskiller.exe'
mbam = 'http://www.bleepingcomputer.com/download/malwarebytes-anti-malware/dl/7/?1'
tr = 'http://www.simplysup.com/tremover/download.html'
urllist = [sas, tr, tds, tr]
urrllist2 = []
# Find exe files to download
match = re.compile('\.exe')
data = urllib2.urlopen(urllist)
page = BeautifulSoup(data)
# Check links
#def findexe():
for link in page.findAll('a'):
try:
href = link['href']
if re.search(match, href):
urllist2.append(href)
except KeyError:
pass
os.chdir(r"C:\_VirusFixes")
urllib.urlretrieve(urllist2, os.path.basename(urllist2))
正如你所看到的,我已经离开注释掉了,因为我不能让它正常工作的功能。
我是否应该放弃列表并单独下载它们?我试图保持高效。
任何建议,或者如果你能指出我在正确的方向,它将不胜感激。
谢谢你的协助。我想我明白我现在错过了循环。不幸的是,它仍然不适合我。它仍然有问题的网址。我会继续排除故障。 – MBH