3
我有一个磁盘上的本地HTML页面,其中包含与子文件夹中的多个图像的相对链接。我希望将此页面的所有内容复制到不同的目录中。一个Web浏览器(例如Firefox)提供了“另存为”选项来做到这一点,但由于我会经常更新它,所以我需要一个相当于自动执行此同步操作的命令行。替代mget移动本地文件与本地图像
我从命令行使用firefox
进行了调查,但没有找到保存页面的方法。
我也看了看wget
,如果页面在线但是不支持file://
协议,它将工作。
最后,curl
允许我移动html,但似乎没有遵循或关心链接的图像。
任何提示?我在Mac OS 10.8.2上。
如果'cURL'具有所有必需的选项,您可以尝试[cURL mirror] [1]。 是一个自动执行cURL的旧Perl脚本。 [1]:http://curl.haxx.se/programs/curlmirror.txt – 2013-09-11 15:30:45