why?
有些时候在特殊环境下,可能无法访问外网,而这时候离线的资料就成了非常重要的东西。这时在想,能不能把一些静态网站整个下载下来呢?
指令
1 | wget --recursive --no-clobber --page-requisites --adjust-extension --convert-links --restrict-file-names=windows --domains example.com --no-parent www.example.com |
帮助
–recursive 递归下载整个站点
–no-clobber 不要覆盖已有文件(以防下载被中断而重新开始)
–domains example.com 不要下载example.com以外的链接地址
–no-parent 不要下载当前/目录之外的内容
–page-requisites 下载所有页面需要的元素(图像、CSS等等)
–adjust-extention 只下载html,css相关的文件
–convert-links 转换链接地址,从而本地离线可以正常访问
–restrict-file-names=windows 修改文件名以使文件也可以在windows下访问(某些情况文件名在Linux下合法而在windows下非法)。
来源
http://lanbing510.info/2015/12/11/Wget.html