好的,我在智慧的结尾。对于我的班级,我们应该从wunderground.com网站上抓取数据。我们不断遇到问题(错误消息),或者代码运行正常,但.txt文件将包含NO数据。这很烦人,因为我需要这样做!所以这里是我的代码。使用Wunderground数据进行网页扫描,BeautifulSoup
f = open('wunder-data1.txt', 'w')
for m in range(1, 13):
for d in range(1, 32):
if (m == 2 and d > 28):
break
elif (m in [4, 6, 9, 11] and d > 30):
break
url = "http://www.wunderground.com/history/airport/KBUF/2009/" + str(m) + "/" + str(d) + "/DailyHistory.html"
page = urllib2.urlopen(url)
soup = BeautifulSoup(page, "html.parser")
dayTemp = soup.find("span", text="Mean Temperature").parent.find_next_sibling("td").get_text(strip=True)
if len(str(m)) < 2:
mStamp = '0' + str(m)
else:
mStamp = str(m)
if len(str(d)) < 2:
dStamp = '0' +str(d)
else:
dStamp = str(d)
timestamp = '2009' + mStamp +dStamp
f.write(timestamp.encode('utf-8') + ',' + dayTemp + '\n')
f.close()
另外对不起,这段代码可能不是正确的缩进,因为它在Python中。我对此并不擅长。
更新:所以有人回答下面的问题,它的工作,但我意识到我拉错了数据(oops)。所以我把这个放在:
import codecs
import urllib2
from bs4 import BeautifulSoup
f = codecs.open('wunder-data2.txt', 'w', 'utf-8')
for m in range(1, 13):
for d in range(1, 32):
if (m == 2 and d > 28):
break
elif (m in [4, 6, 9, 11] and d > 30):
break
url = "http://www.wunderground.com/history/airport/KBUF/2009/" + str(m) + "/" + str(d) + "/DailyHistory.html"
page = urllib2.urlopen(url)
soup = BeautifulSoup(page, "html.parser")
dayTemp = soup.findAll(attrs={"class":"wx-value"})[5].span.string
if len(str(m)) < 2:
mStamp = '0' + str(m)
else:
mStamp = str(m)
if len(str(d)) < 2:
dStamp = '0' +str(d)
else:
dStamp = str(d)
timestamp = '2009' + mStamp +dStamp
f.write(timestamp.encode('utf-8') + ',' + dayTemp + '\n')
f.close()
所以我很不确定。我正在试图做的是数据刮
请编辑您的帖子以修复您的缩进,以便发布的代码实际运行。另外,请添加任何错误或回溯的**全文**。 – MattDMo
解释您想要获取数据的月份和日期。此外,而不是2循环创建一个网址列表,并一次处理它们,只是一个建议。你的代码很杂乱...... – firephil
没有任何错误,它只是不会把任何东西放到.txt文件中。另外,我很抱歉。我真的不知道我在做什么。这是全班同学。 –