我需要帮助制定在我的脚本新的代码读取通过文件报废,如果有文件名的任何重复(不是文件类型),然后从目录中删除重复的文件名。提前致谢!这里是我当前的代码:如何摆脱使用python
from bs4 import BeautifulSoup
import urllib.request
import os
url = urllib.request.urlopen("https://www.fhfa.gov/DataTools/Downloads/Pages/House-Price-Index-Datasets.aspx#mpo")
soup = BeautifulSoup(url, from_encoding=url.info().get_param('charset'))
FHFA = os.chdir('C:/US_Census/Directory')
for link in soup.find_all('a', href=True):
href = link.get('href')
if not any(href.endswith(x) for x in ['.csv', '.xml', '.xls', '.xlsx', '.sql', '.txt', '.json']):
continue
filename = href.split('/')[-1]
url = urllib.request.urlretrieve('https://www.fhfa.gov/' + href, filename)
print(filename)
print(' ')
print("All files successfully downloaded.")
您可以包括你现在做了什么输出以前的文件的
set
,和你想要的输出。 –我很难理解你想要做什么以及你有什么问题。输入和预期输出的例子会有所帮助。 – MrJLP