1
(注意:您至少需要10声誉后超过2个链接,我不得不删除HTTP和URL,但它仍然是可以理解的,我希望!)Wget宏用于下载多个URL?
您好!
我试图wget的个人教育用途整个网站。这里的网址是什么样子:
example.com/download.php?id=1
我想从1下载所有网页到最后一页是4952
所以第一URL是:
example.com/download.php?id=1
,第二个是
example.com/download.php?id=4952
什么是下载1页最有效的方法 - 4952?
我现在命令(它的工作完全正常,准确的方式,我希望它):
wget -P /home/user/wget -S -nd --reject=.rar http://example.com/download.php?id=1
注:该网站有一个巨魔,如果你尝试运行下面的命令:
wget -P /home/user/wget -S -nd --reject=.rar --recursive --no-clobber --domains=example.com --no-parent http://example.com/download.php
它会下载一个1000GB .rar文件只是吓吓你!
林新的Linux,请该多好!只是想学习!
谢谢!
使用'for i in {1..4952}',然后在URL中插入'$ i'。 – Barmar
解决{1..4952}({1..4952})...失败:名称或服务未知。 wget的:无法解析主机地址“{1..4952}” – PurifiedDrinkingWater
您使用的脚本什么的壳呢? '{1..4952}'在'bash'中有效。 – Barmar