2016-07-28 24 views
0

其实我读的URL从包含每行1个URL文件,但在环当我阅读和蟒蛇打开URL这会带来坏的响应输出400Python读物的URL从文件

<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01//EN""http://www.w3.org/TR/html4/strict.dtd"> 
<HTML><HEAD><TITLE>Bad Request</TITLE> 
<META HTTP-EQUIV="Content-Type" Content="text/html; charset=us-ascii"> 
</HEAD> 
<BODY><h2>Bad Request - Invalid URL</h2> 
<hr><p>HTTP Error 400. The request URL is invalid.</p> 
</BODY></HTML> 
#$#$#$#$#$#$#$#$#$#$#$# 
<!DOCTYPE HTML PUBLIC "-//W3C//DTD HTML 4.01//EN""http://www.w3.org/TR/html4/strict.dtd"> 
<HTML><HEAD><TITLE>Bad Request</TITLE> 
<META HTTP-EQUIV="Content-Type" Content="text/html; charset=us-ascii">  
</HEAD> 
<BODY><h2>Bad Request - Invalid URL</h2> 
<hr><p>HTTP Error 400. The request URL is invalid.</p> 
</BODY></HTML> 
#$#$#$#$#$#$#$#$#$#$#$# 

这是2个url的输出。

但是,当我只在文件中添加一个Url时,它读取它并输出实际的HTML页面。 (即使是在环)

这里我的Python代码

import time 
import cfscrape 
scraper = cfscrape.create_scraper() 
f = open('links.txt') 
f2 = open('pages.html','a') 
for line in iter(f): 
    line2 = line 
    page = scraper.get(line2).content 
    f2.write(page) 
    f2.write("#$#$#$#$#$#$#$#$#$#$#$#") 
    time.sleep(30) 
f.close() 
f2.close() 

这里是链接/那links.txt文件包含

http://kissmanga.com/Manga/Mekakushi-no-Kuni 
http://kissmanga.com/Manga/Gigi-Goegoe 

回答

1

尝试改变line2 = lineline2 = line.strip()

+0

网址非常感谢,解决了这个问题。 :)太棒了 –