2013-12-18 42 views
0

我是新来的perl。现在我需要编写一个perl程序来定期从网站下载网页。我看到一些有用的方法来建立网络连接并获取内容,但我不知道哪个更好。任何人都可以推荐一些图书馆来下载带有示例代码或教程网站的网页吗?我希望能够像伪代码一样简单:如何使用perl下载网页?

use library;

打开连接; 获取内容; 过程是否成功或处理错误。

而且最好有cookie支持。

谢谢。

回答

-1

我推荐libcurl。它很简单,并具有完整的功能来处理几乎所有关于http的内容,包括cookie支持。它有许多不同的语言绑定,所以你很容易转向其他语言。使用cpan搜索perl的绑定。官方网站是http://curl.haxx.se

+0

谢谢。我对C有点熟悉,所以libcurl可能是我的选择。 – user3114299

+0

请参阅http://curl.haxx.se/programs/curlmirror.txt上的perlcript了解一些想法。 –