Linux用wget命令行方式进行网络下载文件:wget 命令
wget的使用形式是:wget[参数列表]URL,接下来是小编为大家收集的Linux用wget命令行方式进行网络下载文件,欢迎大家阅读:
Linux用wget命令行方式进行网络下载文件。
首先来介绍一下wget的主要参数:
—b:让wget在后台运行,记录文件写在当前目录下wget—log文件中;。
—t [nuber of times]:尝试次数,当wget无法与服务器建立连接时,尝试连接多少次 。比如—t 120表示尝试120次。当这一项为0的时候,指定尝试无穷多次直到连接成功为止,这个 设置非常有用,当对方服务器突然关机或者网络突然中断的时候,可以在恢复正常后继续 下载没有传完的文件;。
—c:断点续传,这也是个非常有用的设置,特别当下载比较大的文件的时候,如果中途意外中断,那么连接恢复的时候会从上次没传完的地方接着传,而不是又从头开始,使用这一项需要远程服务器也支持断点续传,一般来讲,基于UNIX/Linux的Web/FTP服务器 都支持断点续传;。
—T [number of seconds]:超时时间,指定多长时间远程服务器没有响应就中断连接 ,开始下一次尝试。比如—T 120表示如果120秒以后远程服务器没有发过来数据,就重新尝试连接。如果网络速度比较快,这个时间可以设置的短些,相反,可以设置的长一些,一般最多不超过900,通常也不少于60,一般设置在120左右比较合适;。
—w [number of seconds]:在两次尝试之间等待多少秒,比如—w 100表示两次尝试 之间等待100秒;。
—Y on/off:通过/不通过代理服务器进行连接;。
—Q [byetes]:限制下载文件的总大小最多不能超过多少,比如—Q2k表示不能超过2K 字节,—Q3m表示最多不能超过3M字节,如果数字后面什么都不加,就表示是以字节为单 位,比如—Q200表示最多不能超过200字节;。
—nd:不下载目录结构,把从服务器所有指定目录下载的文件都堆到当前目录里;。
—x:与—nd设置刚好相反,创建完整的目录结构,例如wget —x 将在当前目录下创建子目录,然后按照服务器 实际的目录结构一级一级建下去,直到所有的文件都传完为止;。
—nH:不创建以目标主机域名为目录名的目录,将目标主机的目录结构直接下到当前目录下;。
proxy—user=username proxy—passwd=password:如果代理服务器需要输入用户名和口令,使用这两个选项 ;。
—l [depth]:下载远程服务器目录结构的深度,例如—l 5下载目录深度小于或者等 于5以内的目录结构或者文件;。
—m:做站点镜像时的选项,如果你想做一个站点的镜像,使用这个选项,它将自动设定其他合适的选项以便于站点镜像;。
—np:只下载目标站点指定目录及其子目录的内容。这也是一个非常有用的选项,我们假设某个人的个人主页里面有一个指向这个站点其他人个人主页的连接,而我们只想下载这个人的个人主页,如果不设置这个选项,甚至有可能把整个站点给抓下来,这显然是我们通常不希望的;。
可以使用用户设置文件.wgetrc来读取很多设置,我们这里主要利用这个文件来是。
设置代理服务器。使用者用什么用户登录,那么什么用户主目录下的.wgetrc文件就起。
作用。例如,root用户如果想使用.wgetrc来设置代理服务器,/root/.wgert就起 作用,下面给出一个.wge trc文件的内容,读者可以参照这个例子来编写自己的wgetrc文件:
这两行的含义是,代理服务器IP地址为:111.111.111.111,端口号为:80。第一行指定 H协议所使用的代理服务器,第二行指定FTP协议所使用的代理服务器。
下面就开始实战吧!
A.使用wget工具。
bash$ wget 它还能控制ftp来下载整个web站点的各级目录,当然,如果你不小心,可能会把整个网站以及其他和他做链接的网站全部下载下来.
bash$ wget —m 由于这个工具具有很强的下载能力,所以可以在服务器上把它用作镜像网站的工具.让它按照robots.txt的规定来执行.
有很多参数用来控制它如何正确地做镜像,可以限制链接的类型和下载文件的类型等等.例如:只下载有联系的链接并且忽略GIF图片:。
bash$ wget —m —L reject=gif 也能够实现断点续传(—c参数),当然,这种操作是需要远程服务器支持的.
bash$ wget —c 可以把断点续传和镜像功能结合起来,这样可以在以前断过多次的情况下继续镜像一个有大量选择性文件的站点.如何自动实现这个目的我们在后面会讨论得更多.
如果你觉得下载时老是断线会影响你办公的话,你可以限制wget重试的次数.
bash$ wget —t 5 这样重试五次后就放弃了.用—t inf参数表示永远不放弃.不停地重试.
B.那对于代理服务该怎么办呢?。
可以使用H代理的参数或者在.wgetrc配置文件里指定一个如何通过代理去下载的途径.但是有这么一个问题,如果通过代理来进行断点续传的话可能会有几次失败.如果有一次通过代理下载的过程发生中断,那么代理服务器上缓存里保存是那个完整的文件拷贝.所以当你用wget —c来下载剩余部分的时候代理服务器查看它的缓存,并错误地认为你已经下载了整个文件.于是就发出了错误的信号.
这个时候你可以用添加一个特定的请求参数来促使代理服务器清除他们的缓存:。
bash$ wget —c header=Pragma: no—cache 这个header参数能够以各种数字,各种方式添加。通过它我们可以更改web服务器或者代理服务器的某些属性。有些站点不提供外部连接的文件服务,只有通过同一个站点上其他的一些页面时内容才会被提交。这个时候你可以用加上Referer:参数:
bash$ wget header=Referer: 有些特殊的网站只支持某种特定的浏览器,这个时候可以用User—Agent:参数。
bash$ wget header=User—Agent: Mozilla/4.0 (compatible; MSIE 5.0;Windows NT; DigExt) 那我怎么设定下载时间呢?。
如果你需要在你的办公电脑上通过和其他同事共享的一个连接来下载一些很大的文件,而且你希望你的同事不会因为网络速度的减慢而收到影响,那你就应该尽量避开高峰时段。当然,不需要在办公室里等到所以人都走掉,也不需要在家里用完晚饭后还惦记着要上网下载一次。
用at来就可以很好的定制工作时间:
bash$ at 23:00。
warning: commands will be executed using /bin/sh。
at wget 这样,我们设定了下载工作在晚上11点进行。为了使这个安排能够正常进行,请确。
认atd这个后台程序正在运行。
D.下载要花很多时间?。
当你需要下载大量的数据,而且你又没有享有足够的带宽,这个时候你会经常发现在你安排的下载任务还没有完成,一天的工作却又要开始了。
作为一个好同事,你只能停掉了这些任务,而开始另外的工作。然后你又需要反复地重复使用wget —c来完成你的下载。这样肯定太繁琐了,所以最好是用crontab来自动执行。创建一个纯文本文件,叫做crontab.txt,包含下面的内容:
0 23 * * 1—5 wget —c —N 这个crontab文件指定某些任务定期地执行。前五列声明是什么时候执行这个命令,而每行的剩余部分则告诉crontab执行什么内容。
前两列指定了每天一到晚上11点就开始用wget下载,一到早上6点就停止一切wget下载。第三四列的*表示每个月的每一天都执行这个任务。第五列则指定了一个星期的哪几天来执行这个程序。 1—5表示从星期一到星期五。
这样在每个工作日的晚上11点,下载工作开始,到了上午的6点,任何的wget任务就被停掉了。你可以用下面的命令来执行crontab:bash$ crontab crontab.txt。
wget的这个—N参数将会检查目标文件的时间戳,如果匹配了,下载程序就会停止,因为它说明整个文件已经下载完全了。
用crontab —r可以删除这个计划安排。我已经多次采用这种方法,通过共享的电话拨号来下载过很多的ISO镜像文件,还是比较实用的。
E.如何下载动态变化的网页。
有些网页每天都要根据要求变化好几次.所以从技术上讲,目标不再是一个文件,它没有文件长度.因此—c这个参数也就失去了意义.
例如:一个PHP写的并且经常变动的linux周末新闻网页:。
bash$ wget 我办公室里的网络条件经常很差,给我的下载带了很大的麻烦,所以我写了个简单的脚本来检测动态页面是否已经完全更新了.
#!/bin/bash。
#create it if absent。
touch bigpage.php3。
#check if we got the whole thing。
while ! grep —qi bigpage.php3。
do。
rm —f bigpage.php3。
#download LWN in one big page。
wget 这个脚本能够保证持续的下载该网页,直到网页里面出现了" ",这就表示该文件已经完全更新了.
F.对于ssl和Cookies怎么办?。
如果你要通过ssl来上网,那么网站地址应该是以来开头的.在这样的情况下你就需要另外一种下载工具,叫做curl,它能够很容易获得.有些网站迫使网友在浏览的时候必须使用cookie.所以你必须从在网站上得到的那个Cookie里面得到Cookie:这个参数.这样才。
能保证下载的参数正确.对于lynx和Mozilla的Cookie的文件格式,用下面的:。
bash$ cookie=$( grep nytimes ~/.lynx_cookies |awk {printf(%s=%s;,$6,$7)} )。
就可以构造一个请求Cookie来下载上的内容.当然,你要已经用这个浏览器在该网站上完成注册.
bash$ cookie=$( grep nytimes ~/.w3m/cookie |awk {printf(%s=%s;,$2,$3)} )。
bash$ wget header=Cookie: $cookie 或者用curl工具:。
bash$ curl —v —b $cookie —o supercomp.html 如何建立地址列表?。
到现在为止我们下载的都是单个文件或者是整个网站.有的时候我们需要下载某个网页上链接的大量文件,但没有必要把它整个网站都镜像下来.比如说我们想从一个依次排列的100首歌里面下载前20首.注意,这里accept和reject参数是不会起作用的,因为他们只对文件操作起作用.所以一定要用lynx —dump参数来代替/pub/lg/ |grep gz$ |tail —10 |awk {print $2} urllist.txt。
lynx的输出结果可以被各种GNU文本处理工具过虑.在上面的例子里,我们的链接地址是以gz结尾的,并且把最后10个文件地址放到urllist.txt文件里.然后我们可以写一个简单的bash脚本来自动下载这个文件里的目标文件:。
bash$ for x in $(cat urllist.txt)。
do。
wget $x。
done。
这样我们就能够成功下载Linux Gazette网站/pub/lg/)上的最新10个论题.
H.扩大使用的带宽。
如果你选择下载一个受带宽限制的文件,那你的下载会因为服务器端的限制而变得很慢.下面这个技巧会大大缩短下载的过程.但这个技巧需要你使用curl并且远程服务器有多个镜像可以供你下载.例如,假设你想从下面的三个地址下载Mandrake 8.0:。
url1=这个文件的长度是677281792个字节,所以用curl程序加range参数来建立三个同时进行的下载:。
bash$ curl —r 0—199999999 —o mdk—iso.part1 $url1。
bash$ curl —r 200000000—399999999 —o mdk—iso.part2 $url2。
bash$ curl —r 400000000— —o mdk—iso.part3 $url3。
这样就创建了三个后台进程.每个进程从不同的服务器传输这个ISO文件的不同部分.这个—r参数指定目标文件的字节范围.当这三个。
进程结束后,用一个简单的cat命令来把这三个文件衔接起来 cat mdk—iso.part? mdk—80.iso.(强烈建议在刻盘之前先检查md5)。
你也可以用verbose参数来使每个curl进程都有自己的窗口来显示传输的过程.
wget —P/tmp ftp://user:passwd@url/file。
把文件file下载到/tmp目录下。看了Linux用wget命令行方式进行网络下载文件还想看:
2.linux wget 命令用法详解。
3.Linux系统中wget命令怎么用。
4.什么是wget命令。