使用wget递归下载整个网站

Posted by crazywhale on 2019-05-27

why?

有些时候在特殊环境下,可能无法访问外网,而这时候离线的资料就成了非常重要的东西。这时在想,能不能把一些静态网站整个下载下来呢?

指令

1
wget --recursive --no-clobber --page-requisites --adjust-extension --convert-links --restrict-file-names=windows --domains example.com --no-parent www.example.com

帮助

–recursive 递归下载整个站点

–no-clobber 不要覆盖已有文件(以防下载被中断而重新开始)

–domains example.com 不要下载example.com以外的链接地址

–no-parent 不要下载当前/目录之外的内容

–page-requisites 下载所有页面需要的元素(图像、CSS等等)

–adjust-extention 只下载html,css相关的文件

–convert-links 转换链接地址,从而本地离线可以正常访问

–restrict-file-names=windows 修改文件名以使文件也可以在windows下访问(某些情况文件名在Linux下合法而在windows下非法)。

来源

http://lanbing510.info/2015/12/11/Wget.html