0
用下面的代码我试图从一个网站抓取数据每5分钟,时间戳它,计算其回报LOGN和追加所有到CSV文件。蟒蛇2.7:附加日志返回CSV
拼抢数据,时间戳记,并追加到csv的作品,但是当我试图找出如何将日志回我有点卡住。
import time
from time import strftime, gmtime
import numpy as np
import urllib2
from urllib2 import urlopen
from math import log
coiAr = []
dateAr = []
logReAr = []
def mcapGrab():
while True:
try:
sourceCode = urllib2.urlopen('http://coinmarketcap.com').read()
mcapUSD = sourceCode.split('<strong>Total Market Cap: <span id="total-marketcap" data-usd="')[1].split('"')[0]
coiAr.append(float(mcapUSD.replace(',','')))
date = strftime('%d %b %Y %H:%M:%S', gmtime())
dateAr.append(date)
# if len(coiAr) > 0:
# indexLog = 1
# logRe = log(coiAr[indexLog]/coiAr[indexLog-1])
# logReAr.append(logRe)
# indexLog += 1
# else:
# logReAr.append(0)
for eachMcap in coiAr:
saveLine = date+','+str(eachMcap)+'\n'
saveFile = open('mcapdata.csv', 'a')
saveFile.write(saveLine)
saveFile.close()
s = 0
print dateAr[s]+','+str(coiAr[s])
time.sleep(300)
s+= 1
except Exception, e:
print 'Failed to grab market cap', str(e)
mcapGrab()
我已经注释了我尝试计算并追加日志返回但不起作用的部分。
任何帮助,将不胜感激!
什么是你期望的输出?如果取消注释,会发生什么情况? –
你是先读数据到'coiAr'吗?您没有使用列表,不是真的,因为您追加** one **项目,然后将该项目写入您的CSV文件。 –
您是否正在尝试根据您写入CSV文件的*上一个*值来计算日志? –