• Linux用wget命令行方式进行网络下载文件


    wget的使用形式是: wget [参数列表] URL
    首先来介绍一下wget的主要参数:
    · -b:让wget在后台运行,记录文件写在当前目录下”wget-log”文件中;
    · -t [nuber of times]:尝试次数,当wget无法与服务器建立连接时,尝试连接多少次 。比如”-t 120″表示尝试120次。当这一项为”0″的时候,指定尝试无穷多次直到连接成功为止,这个 设置非常有用,当对方服务器突然关机或者网络突然中断的时候,可以在恢复正常后继续 下载没有传完的文件;
    ·-c:断点续传,这也是个非常有用的设置,特别当下载比较大的文件的时候,如果中途意外中断,那么连接恢复的时候会从上次没传完的地方接着传,而不是又 从头开始,使用这一项需要远程服务器也支持断点续传,一般来讲,基于UNIX/Linux的Web/FTP服务器 都支持断点续传;
    · -T [number of seconds]:超时时间,指定多长时间远程服务器没有响应就中断连接 ,开始下一次尝试。比如”-T 120″表示如果120秒以后远程服务器没有发过来数据,就重新尝试连接。如果网络速度比较快,这个时间可以设置的短些,相反,可以设置的长一些,一般最 多不超过900,通常也不少于60,一般设置在120左右比较合适;
    · -w [number of seconds]:在两次尝试之间等待多少秒,比如”-w 100″表示两次尝试 之间等待100秒;
    · -Y on/off:通过/不通过代理服务器进行连接;
    · -Q [byetes]:限制下载文件的总大小最多不能超过多少,比如”-Q2k”表示不能超过2K 字节,”-Q3m”表示最多不能超过3M字节,如果数字后面什么都不加,就表示是以字节为单 位,比如”-Q200″表示最多不能超过200字节;
    · -nd:不下载目录结构,把从服务器所有指定目录下载的文件都堆到当前目录里;
    · -x:与”-nd”设置刚好相反,创建完整的目录结构,例如”wget -x http://www.gnu.org”将在当前目录下创建”www.gnu.org”子目录,然后按照服务器 实际的目录结构一级一级建下去,直到所有的文件都传完为止;
    · -nH:不创建以目标主机域名为目录名的目录,将目标主机的目录结构直接下到当前目录下;
    · –http-user=username · –http-passwd=password:如果Web服务器需要指定用户名和口令,用这两项来设定;
    · –proxy-user=username · –proxy-passwd=password:如果代理服务器需要输入用户名和口令,使用这两个选项 ;
    · -r:在本机建立服务器端目录结构;
    · -l [depth]:下载远程服务器目录结构的深度,例如”-l 5″下载目录深度小于或者等 于5以内的目录结构或者文件;
    · -m:做站点镜像时的选项,如果你想做一个站点的镜像,使用这个选项,它将自动设定其他合适的选项以便于站点镜像;
    · -np:只下载目标站点指定目录及其子目录的内容。这也是一个非常有用的选项,我们假设某个人的个人主页里面有一个指向这个站点其他人个人主页的连接,而 我们只想下载这个人的个人主页,如果不设置这个选项,甚至–有可能把整个站点给抓下来,这显然是我们通常不希望的;
    ü 如何设定wget所使用的代理服务器 wget
    可以使用用户设置文件”.wgetrc”来读取很多设置,我们这里主要利用这个文件来是
    设置代理服务器。使用者用什么用户登录,那么什么用户主目录下的”.wgetrc”文件就起
    作用。例如,”root”用户如果想使用”.wgetrc”来设置代理服务器,”/root/.wgert”就起 作用,下面给出一个”.wge trc”文件的内容,读者可以参照这个例子来编写自己的”wgetrc”文件:
    http-proxy = 111.111.111.111:8080
    ftp-proxy = 111.111.111.111:8080
    这两行的含义是,代理服务器IP地址为:111.111.111.111,端口号为:80。第一行指定 HTTP协议所使用的代理服务器,第二行指定FTP协议所使用的代理服务器。

    下面就开始实战吧!
    A.使用wget工具

    linux所以的主要版本都自带了wget这个下载工具.

    bash$ wget http://place.your.url/here

    它还能控制ftp来下载整个web站点的各级目录,当然,如果你不小心,可能会把整个网站以及其他和他做链接的网站全部下载下来.

    bash$ wget -m http://target.web.site/subdirectory

    由于这个工具具有很强的下载能力,所以可以在服务器上把它用作镜像网站的工具.让它按照”robots.txt”的规定来执行.
    有很多参数用来控制它如何正确地做镜像,可以限制链接的类型和下载文件的类型等等.例如:只下载有联系的链接并且忽略GIF图片:

    bash$ wget -m -L –reject=gif http://target.web.site/subdirectory

    wget也能够实现端点续传(-c参数),当然,这种操作是需要远程服务器支持的.

    bash$ wget -c http://the.url.of/incomplete/file

    可以把端点续传和镜像功能结合起来,这样可以在以前断过多次的情况下继续镜像一个有大量选择性文件的站点.如何自动实现这个目的我们在后面会讨论得更多.
    如果你觉得下载时老是断线会影响你办公的话,你可以限制wget重试的次数.
    bash$ wget -t 5 http://place.your.url/here
    这样重试五次后就放弃了.用”-t inf”参数表示永远不放弃.不停地重试.

    B.那对于代理服务该怎么办呢?
    可以使用http代理的参数或者在.wgetrc配置文件里指定一个如何通过代理去下载的途径.但是有这么一个问题,
    如果通过代理来进行端点续传的话可能会有几次失败.如果有一次通过代理下载的过程发生中断,那么代理服务器上缓存里保存是那个完整的
    文件拷贝.所以当你用”wget -c”来下载剩余部分的时候代理服务器查看它的缓存,并错误地认为你已经下载了整个文件.于是就发出了错误的信号.
    这个时候你可以用添加一个特定的请求参数来促使代理服务器清除他们的缓存:

    bash$ wget -c –header=”Pragma: no-cache” http://place.your.url/here

    这个”–header”参数能够以各种数字,各种方式添加。通过它我们可以更改
    web服务器或者代理服务器的某些属性。有些站点不提供外部连接的文件服务,只有通过同一个站点上其他的一些页面时内容
    才会被提交。这个时候你可以用加上”Referer:”
    参数:
    bash$ wget –header=”Referer: http://coming.from.this/page” http://surfing.to.this/page
    有些特殊的网站只支持某种特定的浏览器,这个时候可以用”User-Agent:”参数
    bash$ wget –header=”User-Agent: Mozilla/4.0 (compatible; MSIE 5.0;Windows NT; DigExt)” http://msie.only.url/here

    C.那我怎么设定下载时间呢?
    如果你需要在你的办公电脑上通过和其他同事共享的一个连接来下载一些很大的文件,而且你希望你的同事不会因为网络速度的减慢而收到影响,
    那你就应该尽量避开高峰时段。当然,不需要在办公室里等到所以人都走掉,也不需要在家里用完晚饭后还惦记着要上网下载一次。
    用at来就可以很好的定制工作时间:
    bash$ at 2300
    warning: commands will be executed using /bin/sh
    at> wget http://place.your.url/here
    at> press Ctrl-D
    这样,我们设定了下载工作在晚上11点进行。为了使这个安排能够正常进行,请确
    认atd这个后台程序正在运行。

    D.下载要花很多时间?
    当你需要下载大量的数据,而且你又没有享有足够的带宽,这个时候你会经常发现在你安排的下载任务还没有完成,一天的工作却又要开始了。
    作为一个好同事,你只能停掉了这些任务,而开始另外的工作。然后你又需要反复地重复使用”wget -c”来完成你的下载。这样肯定太繁琐了,
    所以最好是用crontab来自动执行。创建一个纯文本文件,叫做”crontab.txt”,包含下面的内容:
    0 23 * * 1-5 wget -c -N http://place.your.url/here
    0 6 * * 1-5 killall wget
    这个crontab文件指定某些任务定期地执行。前五列声明是什么时候执行这个命令,而每行的剩余部分则告诉crontab执行什么内容。
    前两列指定了每天一到晚上11点就开始用wget下载,一到早上6点就停止一切wget
    下载。第三四列的*表示每个月的每一天都执行这个任务。第五列则指定了一个星期的哪几天来执行这个程序。 –”1-5″表示从星期一
    到星期五。

    这样在每个工作日的晚上11点,下载工作开始,到了上午的6点,任何的wget任务
    就被停掉了。你可以用下面的命令来执行crontab:
    bash$ crontab crontab.txt
    wget的这个”-N”参数将会检查目标文件的时间戳,如果匹配了,下载程序就会停止,因为它说明整个文件已经下载完全了。
    用”crontab -r”可以删除这个计划安排。我已经多次采用这种方法,通过共享的电话拨号来下载过很多的ISO镜像文件,还是
    比较实用的。

    E.如何下载动态变化的网页
    有些网页每天都要根据要求变化好几次.所以从技术上讲,目标不再是一个文件,它没有文件长度.因此”-c”这个参数也就失去了意义.
    例如:一个PHP写的并且经常变动的linux周末新闻网页:
    bash$ wget http://lwn.net/bigpage.php3

    我办公室里的网络条件经常很差,给我的下载带了很大的麻烦,所以我写了个简单的脚本来检测动态页面是否已经完全更新了.
    #!/bin/bash

    #create it if absent
    touch bigpage.php3

    #check if we got the whole thing
    while ! grep -qi bigpage.php3
    do
    rm -f bigpage.php3

    #download LWN in one big page
    wget http://lwn.net/bigpage.php3

    done
    这个脚本能够保证持续的下载该网页,直到网页里面出现了”",这就表示该文件已经完全更新了.

    F.对于ssl和Cookies怎么办?
    如果你要通过ssl来上网,那么网站地址应该是以”https://”来开头的.在这样的情况下你就需要另外一种下载工具,叫做curl,它能够
    很容易获得.有些网站迫使网友在浏览的时候必须使用cookie.所以你必须从在网站上得到的那个Cookie里面得到”Cookie:”这个参数.这样才
    能保证下载的参数正确.对于lynx和Mozilla的Cookie的文件格式,用下面的:
    bash$ cookie=$( grep nytimes ~/.lynx_cookies |awk {printf(“%s=%s;”,$6,$7)} )
    就可以构造一个请求Cookie来下载http://www.nytimes.com上的内容.当然,你要已经用这个浏览器在该网站上完成注册.
    w3m使用了一种不同的,更小巧的Cookie文件格式:
    bash$ cookie=$( grep nytimes ~/.w3m/cookie |awk {printf(“%s=%s;”,$2,$3)} )
    现在就可以用这种方法来下载了:
    bash$ wget –header=”Cookie: $cookie” http://www.nytimes.com/reuters/technology/tech-tech-supercomput.html
    或者用curl工具:
    bash$ curl -v -b $cookie -o supercomp.html http://www.nytimes.com/reuters/technology/tech-tech-supercomput.htm

    G.如何建立地址列表?
    到现在为止我们下载的都是单个文件或者是整个网站.有的时候我们需要下载某个网页上链接的大量文件,但没有必要把它整个网站
    都镜像下来.比如说我们想从一个依次排列的100首歌里面下载前20首.注意,这里”–accept”和”–reject”参数是不会
    起作用的,因为他们只对文件操作起作用.所以一定要用”lynx -dump”参数来代替.
    bash$ lynx -dump ftp://ftp.ssc.com/pub/lg/ |grep gz$ |tail -10 |awk {print $2} > urllist.txt
    lynx的输出结果可以被各种GNU文本处理工具过虑.在上面的例子里,我们的链接地址是以”gz”结尾的,并且把最后10个文件地址放到
    urllist.txt文件里.然后我们可以写一个简单的bash脚本来自动下载这个文件里的目标文件:

    bash$ for x in $(cat urllist.txt)
    > do
    > wget $x
    > done
    这样我们就能够成功下载Linux Gazette网站(ftp://ftp.ssc.com/pub/lg/)上的最新10个论题.

    H.扩大使用的带宽
    如果你选择下载一个受带宽限制的文件,那你的下载会因为服务器端的限制而变得很慢.下面这个技巧会大大缩短下载的过程.但这个技巧
    需要你使用curl并且远程服务器有多个镜像可以供你下载.例如,假设你想从下面的三个地址下载Mandrake 8.0:
    url1=http://ftp.eecs.umich.edu/pub/linux/mandrake/iso/Mandrake80-inst.iso
    url2=http://ftp.rpmfind.net/linux/Mandrake/iso/Mandrake80-inst.iso
    url3=http://ftp.wayne.edu/linux/mandrake/iso/Mandrake80-inst.iso
    这个文件的长度是677281792个字节,所以用curl程序加”–range”参数来建立三个同时进行的下载:
    bash$ curl -r 0-199999999 -o mdk-iso.part1 $url1 &
    bash$ curl -r 200000000-399999999 -o mdk-iso.part2 $url2 &
    bash$ curl -r 400000000- -o mdk-iso.part3 $url3 &
    这样就创建了三个后台进程.每个进程从不同的服务器传输这个ISO文件的不同部分.这个”-r”参数指定目标文件的字节范围.当这三个
    进程结束后,用一个简单的cat命令来把这三个文件衔接起来– cat mdk-iso.part? > mdk-80.iso.(强烈建议在刻盘之前先检查md5)
    你也可以用”–verbose”参数来使每个curl进程都有自己的窗口来显示传输的过程.

    结束语
    不用担心使用非交互式的下载方式会影响你的下载效果.无论网站设计者如何绞尽脑汁想阻止我们从他们的网站下载,我们都可以得到
    免费的工具来自动完成下载任务.这会大大丰富我们的网络经历.

    原文出自http://www.linuxgazette.com/

  • 相关阅读:
    mysql关于time时间戳相关使用
    CentOS7环境对MySQL5.7的卸载及手动安装(非yum方式)
    eldialog弹窗偶现遮罩层全部变黑
    基于QToolButton封装,解决Icon不能设置hover和press态的问题
    Linux常用错误too many open files
    一套十万级TPS的IM综合消息系统的架构实践与思考
    基于Netty,徒手撸IM(一):IM系统设计篇
    如何用好 vim 里面的宏
    Nginx 面试题 40
    Mobaxterm在边栏中编辑/删除宏Macros
  • 原文地址:https://www.cnblogs.com/no7dw/p/1941860.html
Copyright © 2020-2023  润新知