我真的想从网站下载图片,但我不知道很多wget要这样做。他们在一个独立的网站上托管图像,我如何通过使用cat或其他东西从网站上拉链图像链接,因此我可以使用wget将它们全部下载。我所知道的是wget部分。例子是Reddit.com如何从网站中拉出图片链接并使用wget下载它们?
wget -i download-file-list.txt
我真的想从网站下载图片,但我不知道很多wget要这样做。他们在一个独立的网站上托管图像,我如何通过使用cat或其他东西从网站上拉链图像链接,因此我可以使用wget将它们全部下载。我所知道的是wget部分。例子是Reddit.com如何从网站中拉出图片链接并使用wget下载它们?
wget -i download-file-list.txt
试试这个:
wget -r -l 1 -A jpg,jpeg,png,gif,bmp -nd -H http://reddit.com/some/path
这将递归1级深起价http://reddit.com/some/path
页,它不会创建一个目录结构(如果你想要的目录,删除-nd
),它只会下载以“jpg”,“jpeg”,“png”,“gif”或“bmp”结尾的文件。它将跨越主机。
唯一的是,图像是承载了不同的网站。这是一大堆图像网址。 – c0rruptbytes 2012-07-29 08:23:55
@ user1560474然后你想'-H'跨越主机 – 2012-07-29 09:06:33
我会使用perl
模块WWW::Mechanize
。下面堆放的所有链接stdout
:
use WWW::Mechanize;
$mech = WWW::Mechanize->new();
$mech->get("URL");
$mech->dump_links(undef, 'absolute' => 1);
替换URL
你想要的实际的URL。
不错的方法。但是,您是否可以更改此设置,以便从文本文件中一次只读取一个链接? – 2015-05-26 14:28:16
您只能使用wget。你将不得不编写一个使用管道和正则表达式的shell脚本。 – 2012-07-29 04:16:02
这有如何使用wget下载整个网站,其中将包含图像:http://www.thegeekstuff.com/2009/09/the-ultimate-wget-download-guide-with-15-awesome-examples/ – 2012-07-29 04:18:54
可能的重复http://stackoverflow.com/questions/4602153/how-do-i-use-wget-to-download-all-images-into-a-single-folder – 2014-02-21 16:38:19