update wget

This commit is contained in:
jaywcjlove 2017-02-16 16:35:11 +08:00
parent ecd13e4f3b
commit faf0c374d5
1 changed files with 113 additions and 24 deletions

View File

@ -1,43 +1,132 @@
wget
===
Linux系统下载文件工具
## 补充说明
**wget命令** 用来从指定的URL下载文件。wget非常稳定它在带宽很窄的情况下和不稳定网络中有很强的适应性如果是由于网络的原因下载失败wget会不断的尝试直到整个文件下载完毕。如果是服务器打断下载过程它会再次联到服务器上从停止的地方继续下载。这对从那些限定了链接时间的服务器上下载大文件非常有用。
wget支持HTTPHTTPS和FTP协议可以使用HTTP代理。所谓的自动下载是指wget可以在用户退出系统的之后在后台执行。这意味这你可以登录系统启动一个wget下载任务然后退出系统wget将在后台执行直到任务完成相对于其它大部分浏览器在下载大量数据时需要用户一直的参与这省去了极大的麻烦。
用于从网络上下载资源没有指定目录下载资源回默认为当前目录。wget虽然功能强大但是使用起来还是比较简单
1. **支持断点下传功能** 这一点也是网络蚂蚁和FlashGet当年最大的卖点现在Wget也可以使用此功能那些网络不是太好的用户可以放心了
2. **同时支持FTP和HTTP下载方式** 尽管现在大部分软件可以使用HTTP方式下载但是有些时候仍然需要使用FTP方式下载软件
3. **支持代理服务器** 对安全强度很高的系统而言,一般不会将自己的系统直接暴露在互联网上,所以,支持代理是下载软件必须有的功能;
4. **设置方便简单** 可能,习惯图形界面的用户已经不是太习惯命令行了,但是,命令行在设置上其实有更多的优点,最少,鼠标可以少点很多次,也不要担心是否错点鼠标;
5. **程序小,完全免费** 程序小可以考虑不计,因为现在的硬盘实在太大了;完全免费就不得不考虑了,即使网络上有很多所谓的免费软件,但是,这些软件的广告却不是我们喜欢的。
### 语法
```
wget(选项)(参数)
wget [参数] [URL地址]
```
### 选项
```
-a<日志文件>:在指定的日志文件中记录资料的执行过程;
-A<后缀名>:指定要下载文件的后缀名,多个后缀名之间使用逗号进行分隔;
-b进行后台的方式运行wget
-B<连接地址>:设置参考的连接地址的基地地址;
-c继续执行上次终端的任务
-C<标志>设置服务器数据块功能标志on为激活off为关闭默认值为on
-d调试模式运行指令
-D<域名列表>:设置顺着的域名列表,域名之间用“,”分隔;
-e<指令>:作为文件“.wgetrc”中的一部分执行指定的指令
-h显示指令帮助信息
-i<文件>从指定文件获取要下载的URL地址
-l<目录列表>:设置顺着的目录列表,多个目录用“,”分隔;
-L仅顺着关联的连接
-r递归下载方式
-nc文件存在时下载文件不覆盖原有文件
-nv下载时只显示更新和出错信息不显示指令的详细执行过程
-q不显示指令执行过程
-nh不查询主机名称
-v显示详细执行过程
-V显示版本信息
--passive-ftp使用被动模式PASV连接FTP服务器
--follow-ftp从HTML文件中下载FTP连接文件。
启动参数:
-V, version 显示wget的版本后退出
-h, help 打印语法帮助
-b, background 启动后转入后台执行
-e, execute=COMMAND 执行`.wgetrc格式的命令wgetrc格式参见/etc/wgetrc或~/.wgetrc
记录和输入文件参数:
-o, output-file=FILE 把记录写到FILE文件中
-a, append-output=FILE 把记录追加到FILE文件中
-d, debug 打印调试输出
-q, quiet 安静模式(没有输出)
-v, verbose 冗长模式(这是缺省设置)
-nv, non-verbose 关掉冗长模式,但不是安静模式
-i, input-file=FILE 下载在FILE文件中出现的URLs
-F, force-html 把输入文件当作HTML格式文件对待
-B, base=URL 将URL作为在-F -i参数指定的文件中出现的相对链接的前缀
sslcertfile=FILE 可选客户端证书
sslcertkey=KEYFILE 可选客户端证书的KEYFILE
egd-file=FILE 指定EGD socket的文件名
下载参数:
bind-address=ADDRESS 指定本地使用地址(主机名或IP当本地有多个IP或名字时使用)
-t, tries=NUMBER 设定最大尝试链接次数(0 表示无限制).
-O output-document=FILE 把文档写到FILE文件中
-nc, no-clobber 不要覆盖存在的文件或使用.#前缀
-c, continue 接着下载没下载完的文件
progress=TYPE 设定进程条标记
-N, timestamping 不要重新下载文件除非比本地文件新
-S, server-response 打印服务器的回应
spider 不下载任何东西
-T, timeout=SECONDS 设定响应超时的秒数
-w, wait=SECONDS 两次尝试之间间隔SECONDS秒
waitretry=SECONDS 在重新链接之间等待1…SECONDS秒
random-wait 在下载之间等待0…2*WAIT秒
-Y, proxy=on/off 打开或关闭代理
-Q, quota=NUMBER 设置下载的容量限制
limit-rate=RATE 限定下载输率
目录参数:
-nd no-directories 不创建目录
-x, force-directories 强制创建目录
-nH, no-host-directories 不创建主机目录
-P, directory-prefix=PREFIX 将文件保存到目录 PREFIX/…
cut-dirs=NUMBER 忽略 NUMBER层远程目录
HTTP 选项参数:
http-user=USER 设定HTTP用户名为 USER.
http-passwd=PASS 设定http密码为 PASS
-C, cache=on/off 允许/不允许服务器端的数据缓存 (一般情况下允许)
-E, html-extension 将所有text/html文档以.html扩展名保存
ignore-length 忽略 `Content-Length头域
header=STRING 在headers中插入字符串 STRING
proxy-user=USER 设定代理的用户名为 USER
proxy-passwd=PASS 设定代理的密码为 PASS
referer=URL 在HTTP请求中包含 `Referer: URL
-s, save-headers 保存HTTP头到文件
-U, user-agent=AGENT 设定代理的名称为 AGENT而不是 Wget/VERSION
no-http-keep-alive 关闭 HTTP活动链接 (永远链接)
cookies=off 不使用 cookies
load-cookies=FILE 在开始会话前从文件 FILE中加载cookie
save-cookies=FILE 在会话结束后将 cookies保存到 FILE文件中
FTP 选项参数:
-nr, dont-remove-listing 不移走 `.listing文件
-g, glob=on/off 打开或关闭文件名的 globbing机制
passive-ftp 使用被动传输模式 (缺省值).
active-ftp 使用主动传输模式
retr-symlinks 在递归的时候,将链接指向文件(而不是目录)
递归下载参数:
-r, recursive 递归下载--慎用!
-l, level=NUMBER 最大递归深度 (inf 或 0 代表无穷)
delete-after 在现在完毕后局部删除文件
-k, convert-links 转换非相对链接为相对链接
-K, backup-converted 在转换文件X之前将之备份为 X.orig
-m, mirror 等价于 -r -N -l inf -nr
-p, page-requisites 下载显示HTML文件的所有图片
递归下载中的包含和不包含(accept/reject)
-A, accept=LIST 分号分隔的被接受扩展名的列表
-R, reject=LIST 分号分隔的不被接受的扩展名的列表
-D, domains=LIST 分号分隔的被接受域的列表
exclude-domains=LIST 分号分隔的不被接受的域的列表
follow-ftp 跟踪HTML文档中的FTP链接
follow-tags=LIST 分号分隔的被跟踪的HTML标签的列表
-G, ignore-tags=LIST 分号分隔的被忽略的HTML标签的列表
-H, span-hosts 当递归时转到外部主机
-L, relative 仅仅跟踪相对链接
-I, include-directories=LIST 允许目录的列表
-X, exclude-directories=LIST 不被包含目录的列表
-np, no-parent 不要追溯到父目录
wget -S spider url 不下载只显示过程
```
### 参数