wget 命令详解
参考:
https://www.cnblogs.com/sx66/p/11887022.html
命令详解:
一、Linux 安装 wget
apt-get update
apt-get upgrade
apt-get install wget
1、普通下载 (显示下载信息:-d | 不显示任何信息:-q)
wget https://wordpress.org/latest.zip // 下载单个文件
wget -O wordpress.zip https://wordpress.org/latest.zip // 下载文件并重命名(-O参数)
wget -P /opt/wordpress https://wordpress.org/latest.zip // 下载到指定文件夹(-P参数)
2、扩展下载指令参数
限制下载速度:--limit-rate,断电续传:-c,后台下载:-b,设置重置次数:-tries
wget --limit-rate=300k https://wordpress.org/latest.zip
wget -c https://wordpress.org/latest.zip
wget -b http://example.com/big-file.zip
wget -tries=100 https://example.com/file.zip
- 断电续传:若下载中断后你没有用 =-c= 进行断点续传,而是重新下载, wget 会在文件名后加上 “.1” 防止与前面下载的文件重名。
- 后台下载:输出内容会写入同目录下的 “wget-log” 文件, 这样你就可以用下面命令来检查下载状态了
tail -f wget-log
3、多文件下载
若你想同时下载多个文件,你可以将要在的文件URL存放在一个文本文件中(假设该文件名为download.txt),下面命令创建一个文本文件:
http://example.com/file1.zip http://example.com/file2.zip http://example.com/file3.zip
wget下载
wget -i download.txt
4、下载 ftp 文件
wget --ftp-user=username --ftp-password=password ftp://url-to-ftp-file
5、下载整个网站
wget --mirror --convert-links --page-requisites --no-parent -P /path/to/download https://example-domain.com
- --mirror 会开启镜像所需要的所有选项.
- --convert-links 会将所有链接转换成本地链接以便离线浏览.
- --page-requisites 表示下载包括CSS样式文件,图片等所有所需的文件,以便离线时能正确地现实页面.
- --no-parent 用于限制只下载网站的某一部分内容.
6、伪装代理名称
wget –user-agent=”Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.204 Safari/534.16″
二、常用命令详解
1、下载整个http或者ftp站点。
wget http://baidu.com/here
这个命令可以将 http://baidu.com/here 首页下载下来。使用 -x 会强制建立服务器上一模一样的目录,如果使用-nd参数,那么服务器上下载的所有内容都会加到本地当前目录。
wget -r http://baidu.com/here
这 个命令会按照递归的方法,下载服务器上所有的目录和文件,实质就是下载整个网站。
注:慎用,因为在下载的时候,被下载网站指向的所有地址同样会被下载。因此,如果这个网站引用了其他网站,那么被引用的网站也会被下载下来!基于这个原因,这个参数不常用。
可以用 -l number 参数来指定下载的层次。例如只下载两层,那么使用 -l 2。
要是您想制作镜像站点,那么可以使用-m参数,例如:
wget -m http://place.your.url/here
这时wget会自动判断合适的参数来制作镜像站点。此时,wget会登录到服务器上,读入robots.txt并按robots.txt的规定来执行。
2、断点续传。
当文件特别大或者网络特别慢的时候,往往一个文件还没有下载完,连接就已经被切断,此时就需要断点续传。wget的断点续传是自动的,只需要使用-c参数,例如:
wget -c http://the.url.of/incomplete/file
- -t :使用断点续传要求服务器支持断点续传。表示重试次数,例如需要重试100次,那么就写 -t 100,如果设成 -t 0,那么表示无穷次重试,直到连接成功。
- -T:参数表示超时等待时间,例如 -T 120,表示等待120秒连接不上就算超时。
3、选择性的下载。
可以指定让wget只下载一类文件,或者不下载什么文件。例如:
wget -m –-reject=gif http://target.web.site/subdirectory
表示下载http://target.web.site/subdirectory,但是忽略gif文件。--accept=LIST 可以接受的文件类型,--reject=LIST 拒绝接受的文件类型。
4、密码和认证。
wget只能处理利用用户名/密码方式限制访问的网站,可以利用两个参数:
–http-user=USER // 设置HTTP用户 –http-passwd=PASS // 设置HTTP密码
对于需要证书做认证的网站,就只能利用其他下载工具了,例如curl。
5、利用代理服务器进行下载。
如果用户的网络需要经过代理服务器,那么可以让wget通过代理服务器进行文件的下载。此时需要在当前用户的目录下创建一个.wgetrc文件。文件中可以设置代理服务器:
http-proxy = 111.111.111.111:8080
ftp-proxy = 111.111.111.111:8080
分别表示http的代理服务器和ftp的代理服务器。如果代理服务器需要密码则使用这两个参数:
–proxy-user=USER设置代理用户
–proxy-passwd=PASS设置代理密码
使用参数–proxy=on/off 使用或者关闭代理。
三、其它命令帮助
命令格式: wget [参数列表] [目标软件、网页的网址] -V,–version 显示软件版本号然后退出; -h,–help 显示软件帮助信息; -e,–execute=COMMAND 执行一个 “.wgetrc”命令 -o,–output-file=FILE 将软件输出信息保存到文件; -a,–append-output=FILE 将软件输出信息追加到文件; -d,–debug 显示输出信息; -q,–quiet 不显示输出信息; -i,–input-file=FILE 从文件中取得URL; -t,–tries=NUMBER 是否下载次数(0表示无穷次) -O –output-document=FILE 下载文件保存为别的文件名 -nc, –no-clobber 不要覆盖已经存在的文件 -N,–timestamping 只下载比本地新的文件 -T,–timeout=SECONDS 设置超时时间 -Y,–proxy=on/off 关闭代理 -nd,–no-directories 不建立目录 -x,–force-directories 强制建立目录 –http-user=USER 设置HTTP用户 –http-passwd=PASS 设置HTTP密码 –proxy-user=USER 设置代理用户 –proxy-passwd=PASS 设置代理密码 -r,–recursive 下载整个网站、目录(慎用) -l,–level=NUMBER 下载层次 -A,–accept=LIST 可以接受的文件类型 -R,–reject=LIST 拒绝接受的文件类型 -D,–domains=LIST 可以接受的域名 –exclude-domains=LIST 拒绝的域名 -L,–relative 下载关联链接 –follow-ftp 只下载FTP链接 -H,–span-hosts 可以下载外面的主机 -I,–include-directories=LIST 允许的目录 -X,–exclude-directories=LIST 拒绝的目录
注:中文文档名在平常的情况下会被编码, 但是在 –cut-dirs 时又是正常的
wget -r -np -nH –cut-dirs=3 ftp://host/test/ 测试.txt
wget -r -np -nH -nd ftp://host/test/ %B4%FA%B8%D5.txt
wget “ftp://host/test/*” %B4%FA%B8%D5.txt
由 於不知名的原因,可能是为了避开特殊档名,wget 会自动将抓取档名的部分用 encode_string 处理过,所以该 patch 就把被 encode_string 处理成 “%3A” 这种东西。
用 decode_string 还原成 “:”,并套用在目录与档案名称的部分,decode_string 是 wget 内建的函式。
wget -t0 -c -nH -x -np -b -m -P /home/sunny/NOD32view/ http://downloads1.kaspersky-labs.com/bases/ -o wget.log