我知道我已经问过类似的问题,但它是一个新的蜘蛛,我有同样的问题(Crawling data successfully but cannot scraped or write it into csv)...我把我的另一个蜘蛛放在这里,我应该有一个输出的例子,我通常需要获取输出文件的所有信息......有没有人可以帮助我?我必须在周五完成这个蜘蛛......所以,我很着急! 奇怪的是,我的Fnac.c
这里是我的代码: import _thread
import time
def print_time(name, delay):
count=1
while count<=5:
time.delay(delay)
print ("Thread %s Time is %s"%(count, time.ctime(time.time())))