2011-04-09 86 views
0

有没有办法抓取一个网站,让它下载每一个文件,并使其相对?我有一个网站有很多绝对网址,当我使用wget时,它只下载index.html页面,并且不会获取绝对URL的文件,也不会将它们变成相对链接。这可能吗?获取完整网站克隆

谢谢。

+0

你可以告诉wget用'-p'来加载先决条件 – knittl 2011-04-09 13:13:46

回答

2

这不是一个编程的问题...但你可以尝试HTTrack

它的自由和开放源码和可在Windows和Linux。

+0

httrack做到了。非常感谢你 – mike 2011-04-09 13:48:21

0

有一个名为DownloadThemAll!的Firefox扩展,可以确保抓取单个页面。不知道您是否可以强制它抓取整个网站。