2016-12-20 70 views
1

(注意:您至少需要10声誉后超过2个链接,我不得不删除HTTP和URL,但它仍然是可以理解的,我希望!)Wget宏用于下载多个URL?

您好!

我试图wget的个人教育用途整个网站。这里的网址是什么样子:

example.com/download.php?id=1

我想从1下载所有网页到最后一页是4952

所以第一URL是:

example.com/download.php?id=1

,第二个是

example.com/download.php?id=4952

什么是下载1页最有效的方法 - 4952?

我现在命令(它的工作完全正常,准确的方式,我希望它):

wget -P /home/user/wget -S -nd --reject=.rar http://example.com/download.php?id=1 

注:该网站有一个巨魔,如果你尝试运行下面的命令:

wget -P /home/user/wget -S -nd --reject=.rar --recursive --no-clobber --domains=example.com --no-parent http://example.com/download.php 

它会下载一个1000GB .rar文件只是吓吓你!

林新的Linux,请该多好!只是想学习!

谢谢!

+0

使用'for i in {1..4952}',然后在URL中插入'$ i'。 – Barmar

+0

解决{1..4952}({1..4952})...失败:名称或服务未知。 wget的:无法解析主机地址“{1..4952}” – PurifiedDrinkingWater

+0

您使用的脚本什么的壳呢? '{1..4952}'在'bash'中有效。 – Barmar

回答

0

Notepadd ++ =

您的网址+栏目主编=所有URL

Wget的-I your_file_with_all_urls =成功的大规模名单!

感谢Barmar