當前位置:
首頁 > 知識 > Linux wget 命令用法詳解

Linux wget 命令用法詳解


來源:peida


http://www.cnblogs.com/peida/archive/2013/03/18/2965369.html




Linux系統中的wget是一個下載文件的工具,它用在命令行下。對於Linux用戶是必不可少的工具,我們經常要下載一些軟體或從遠程伺服器恢復備份到本地伺服器。wget支持HTTP,HTTPS和FTP協議,可以使用HTTP代理。所謂的自動下載是指,wget可以在用戶退出系統的之後在後台執行。這意味這你可以登錄系統,啟動一個wget下載任務,然後退出系統,wget將在後台執行直到任務完成,相對於其它大部分瀏覽器在下載大量數據時需要用戶一直的參與,這省去了極大的麻煩。


wget 可以跟蹤HTML頁面上的鏈接依次下載來創建遠程伺服器的本地版本,完全重建原始站點的目錄結構。這又常被稱作」遞歸下載」。在遞歸下載的時候,wget 遵循Robot Exclusion標準(/robots.txt). wget可以在下載的同時,將鏈接轉換成指向本地文件,以方便離線瀏覽。


wget 非常穩定,它在帶寬很窄的情況下和不穩定網路中有很強的適應性.如果是由於網路的原因下載失敗,wget會不斷的嘗試,直到整個文件下載完畢。如果是伺服器打斷下載過程,它會再次聯到伺服器上從停止的地方繼續下載。這對從那些限定了鏈接時間的伺服器上下載大文件非常有用。




1.命令格式:




wget [參數] [URL地址]





2.命令功能:




用於從網路上下載資源,沒有指定目錄,下載資源回默認為當前目錄。wget雖然功能強大,但是使用起來還是比較簡單:



1)支持斷點下傳功能;這一點,也是網路螞蟻和FlashGet當年最大的賣點,現在,Wget也可以使用此功能,那些網路不是太好的用戶可以放心了;


2)同時支持FTP和HTTP下載方式;儘管現在大部分軟體可以使用HTTP方式下載,但是,有些時候,仍然需要使用FTP方式下載軟體;


3)支持代理伺服器;對安全強度很高的系統而言,一般不會將自己的系統直接暴露在互聯網上,所以,支持代理是下載軟體必須有的功能;


4)設置方便簡單;可能,習慣圖形界面的用戶已經不是太習慣命令行了,但是,命令行在設置上其實有更多的優點,最少,滑鼠可以少點很多次,也不要擔心是否錯點滑鼠;


5)程序小,完全免費;程序小可以考慮不計,因為現在的硬碟實在太大了;完全免費就不得不考慮了,即使網路上有很多所謂的免費軟體,但是,這些軟體的廣告卻不是我們喜歡的。





3.命令參數:




啟動參數:




  • -V, –version 顯示wget的版本後退出



  • -h, –help 列印語法幫助



  • -b, –background 啟動後轉入後台執行



  • -e, –execute=COMMAND 執行`.wgetrc』格式的命令,wgetrc格式參見/etc/wgetrc或~/.wgetrc


記錄和輸入文件參數:



  • -o, –output-file=FILE 把記錄寫到FILE文件中



  • -a, –append-output=FILE 把記錄追加到FILE文件中



  • -d, –debug 列印調試輸出



  • -q, –quiet 安靜模式(沒有輸出)



  • -v, –verbose 冗長模式(這是預設設置)



  • -nv, –non-verbose 關掉冗長模式,但不是安靜模式



  • -i, –input-file=FILE 下載在FILE文件中出現的URLs



  • -F, –force-html 把輸入文件當作HTML格式文件對待



  • -B, –base=URL 將URL作為在-F -i參數指定的文件中出現的相對鏈接的前綴



  • –sslcertfile=FILE 可選客戶端證書



  • –sslcertkey=KEYFILE 可選客戶端證書的KEYFILE



  • –egd-file=FILE 指定EGD socket的文件名


下載參數:




  • –bind-address=ADDRESS 指定本地使用地址(主機名或IP,當本地有多個IP或名字時使用)



  • -t, –tries=NUMBER 設定最大嘗試鏈接次數(0 表示無限制).



  • -O –output-document=FILE 把文檔寫到FILE文件中



  • -nc, –no-clobber 不要覆蓋存在的文件或使用.#前綴



  • -c, –continue 接著下載沒下載完的文件



  • –progress=TYPE 設定進程條標記



  • -N, –timestamping 不要重新下載文件除非比本地文件新



  • -S, –server-response 列印伺服器的回應



  • –spider 不下載任何東西



  • -T, –timeout=SECONDS 設定響應超時的秒數



  • -w, –wait=SECONDS 兩次嘗試之間間隔SECONDS秒



  • –waitretry=SECONDS 在重新鏈接之間等待1…SECONDS秒



  • –random-wait 在下載之間等待0…2*WAIT秒



  • -Y, –proxy=on/off 打開或關閉代理



  • -Q, –quota=NUMBER 設置下載的容量限制



  • –limit-rate=RATE 限定下載輸率


目錄參數:




  • -nd –no-directories 不創建目錄



  • -x, –force-directories 強制創建目錄



  • -nH, –no-host-directories 不創建主機目錄



  • -P, –directory-prefix=PREFIX 將文件保存到目錄 PREFIX/…



  • –cut-dirs=NUMBER 忽略 NUMBER層遠程目錄


HTTP 選項參數:




  • –http-user=USER 設定HTTP用戶名為 USER.



  • –http-passwd=PASS 設定http密碼為 PASS



  • -C, –cache=on/off 允許/不允許伺服器端的數據緩存 (一般情況下允許)



  • -E, –html-extension 將所有text/html文檔以.html擴展名保存



  • –ignore-length 忽略 `Content-Length』頭域



  • –header=STRING 在headers中插入字元串 STRING



  • –proxy-user=USER 設定代理的用戶名為 USER



  • –proxy-passwd=PASS 設定代理的密碼為 PASS



  • –referer=URL 在HTTP請求中包含 `Referer: URL』頭



  • -s, –save-headers 保存HTTP頭到文件



  • -U, –user-agent=AGENT 設定代理的名稱為 AGENT而不是 Wget/VERSION



  • –no-http-keep-alive 關閉 HTTP活動鏈接 (永遠鏈接)



  • –cookies=off 不使用 cookies



  • –load-cookies=FILE 在開始會話前從文件 FILE中載入cookie



  • –save-cookies=FILE 在會話結束後將 cookies保存到 FILE文件中


FTP 選項參數:




  • -nr, –dont-remove-listing 不移走 `.listing』文件



  • -g, –glob=on/off 打開或關閉文件名的 globbing機制



  • –passive-ftp 使用被動傳輸模式 (預設值).



  • –active-ftp 使用主動傳輸模式



  • –retr-symlinks 在遞歸的時候,將鏈接指向文件(而不是目錄)


遞歸下載參數:




  • -r, –recursive 遞歸下載--慎用!



  • -l, –level=NUMBER 最大遞歸深度 (inf 或 0 代表無窮)



  • –delete-after 在現在完畢後局部刪除文件



  • -k, –convert-links 轉換非相對鏈接為相對鏈接



  • -K, –backup-converted 在轉換文件X之前,將之備份為 X.orig



  • -m, –mirror 等價於 -r -N -l inf -nr



  • -p, –page-requisites 下載顯示HTML文件的所有圖片


遞歸下載中的包含和不包含(accept/reject):




  • -A, –accept=LIST 分號分隔的被接受擴展名的列表



  • -R, –reject=LIST 分號分隔的不被接受的擴展名的列表



  • -D, –domains=LIST 分號分隔的被接受域的列表



  • –exclude-domains=LIST 分號分隔的不被接受的域的列表



  • –follow-ftp 跟蹤HTML文檔中的FTP鏈接



  • –follow-tags=LIST 分號分隔的被跟蹤的HTML標籤的列表



  • -G, –ignore-tags=LIST 分號分隔的被忽略的HTML標籤的列表



  • -H, –span-hosts 當遞歸時轉到外部主機



  • -L, –relative 僅僅跟蹤相對鏈接



  • -I, –include-directories=LIST 允許目錄的列表



  • -X, –exclude-directories=LIST 不被包含目錄的列表



  • -np, –no-parent 不要追溯到父目錄



  • wget -S –spider url 不下載只顯示過程




4.使用實例:




實例1:使用wget下載單個文件



命令:


wget http://www.linuxidc.com/linuxidc.zip


說明:


以下的例子是從網路下載一個文件並保存在當前目錄,在下載的過程中會顯示進度條,包含(下載完成百分比,已經下載的位元組,當前下載速度,剩餘下載時間)。




實例2:使用wget -O下載並以不同的文件名保存


命令:


wget -O wordpress.zip http://www.linuxidc.com/download.aspx?id=1080


說明:


wget默認會以最後一個符合」/」的後面的字元來命令,對於動態鏈接的下載通常文件名會不正確。


錯誤:下面的例子會下載一個文件並以名稱download.aspx?id=1080保存


wget http://www.linuxidc.com/download?id=1


即使下載的文件是zip格式,它仍然以download.php?id=1080命令。


正確:為了解決這個問題,我們可以使用參數-O來指定一個文件名:


wget -O wordpress.zip http://www.linuxidc.com/download.aspx?id=1080


實例3:使用wget –limit -rate限速下載


命令:


wget --limit-rate=300k http://www.linuxidc.com/linuxidc.zip


說明:


當你執行wget的時候,它默認會佔用全部可能的寬頻下載。但是當你準備下載一個大文件,而你還需要下載其它文件時就有必要限速了。


實例4:使用wget -c斷點續傳


命令:


wget -c http://www.linuxidc.com/linuxidc.zip


說明:


使用wget -c重新啟動下載中斷的文件,對於我們下載大文件時突然由於網路等原因中斷非常有幫助,我們可以繼續接著下載而不是重新下載一個文件。需要繼續中斷的下載時可以使用-c參數。


實例5:使用wget -b後台下載


命令:


wget -b http://www.linuxidc.com/linuxidc.zip


說明:


對於下載非常大的文件的時候,我們可以使用參數-b進行後台下載。


wget -b http://www.linuxidc.com/linuxidc.zip


Continuing in background, pid 1840.


Output will be written to `wget-log".


你可以使用以下命令來察看下載進度:


tail -f wget-log


實例6:偽裝代理名稱下載


命令:


wget --user-agent="Mozilla/5.0 (Windows; U; Windows NT 6.1; en-US) AppleWebKit/534.16 (KHTML, like Gecko) Chrome/10.0.648.204 Safari/534.16" http://www.linuxidc.com/linuxidc.zip


說明:


有些網站能通過根據判斷代理名稱不是瀏覽器而拒絕你的下載請求。不過你可以通過–user-agent參數偽裝。


實例7:使用wget –spider測試下載鏈接


命令:


wget --spider URL


說明:


當你打算進行定時下載,你應該在預定時間測試下載鏈接是否有效。我們可以增加–spider參數進行檢查。


wget --spider URL


如果下載鏈接正確,將會顯示


wget --spider URL


Spider mode enabled. Check if remote file exists.


HTTP request sent, awaiting response... 200 OK


Length: unspecified [text/html]


Remote file exists and could contain further links,


but recursion is disabled -- not retrieving.


這保證了下載能在預定的時間進行,但當你給錯了一個鏈接,將會顯示如下錯誤


wget --spider url


Spider mode enabled. Check if remote file exists.


HTTP request sent, awaiting response... 404 Not Found


Remote file does not exist -- broken link!!!


你可以在以下幾種情況下使用spider參數:


定時下載之前進行檢查


間隔檢測網站是否可用


檢查網站頁面的死鏈接


實例8:使用wget –tries增加重試次數


命令:


wget --tries=40 URL


說明:


如果網路有問題或下載一個大文件也有可能失敗。wget默認重試20次連接下載文件。如果需要,你可以使用–tries增加重試次數。


實例9:使用wget -i下載多個文件


命令:


wget -i filelist.txt


說明:


首先,保存一份下載鏈接文件


cat > filelist.txt


url1


url2


url3


url4


接著使用這個文件和參數-i下載


實例10:使用wget –mirror鏡像網站


命令:


wget --mirror -p --convert-links -P ./LOCAL URL


說明:


下載整個網站到本地。


–miror:開戶鏡像下載


-p:下載所有為了html頁面顯示正常的文件


–convert-links:下載後,轉換成本地的鏈接


-P ./LOCAL:保存所有文件和目錄到本地指定目錄


實例11:使用wget –reject過濾指定格式下載


命令:
  wget --reject=gif ur


說明:


下載一個網站,但你不希望下載圖片,可以使用以下命令。


實例12:使用wget -o把下載信息存入日誌文件


命令:


wget -o download.log URL


說明:


不希望下載信息直接顯示在終端而是在一個日誌文件,可以使用


實例13:使用wget -Q限制總下載文件大小


命令:


wget -Q5m -i filelist.txt


說明:


當你想要下載的文件超過5M而退出下載,你可以使用。注意:這個參數對單個文件下載不起作用,只能遞歸下載時才有效。


實例14:使用wget -r -A下載指定格式文件


命令:


wget -r -A.pdf url


說明:


可以在以下情況使用該功能:


下載一個網站的所有圖片


下載一個網站的所有視頻


下載一個網站的所有PDF文件


實例15:使用wget FTP下載


命令:


wget ftp-url


wget --ftp-user=USERNAME --ftp-password=PASSWORD url


說明:


可以使用wget來完成ftp鏈接的下載。


使用wget匿名ftp下載:


wget ftp-url


使用wget用戶名和密碼認證的ftp下載


wget --ftp-user=USERNAME --ftp-password=PASSWORD url


備註:編譯安裝


使用如下命令編譯安裝:


# tar zxvf wget-1.9.1.tar.gz
# cd wget-1.9.1
# ./configure
# make
# make install




●編號588,輸入編號直達本文



●輸入m獲取文章

目錄

推薦↓↓↓

 



運維


更多推薦

18個技術類微信公眾號


涵蓋:程序人生、演算法與數據結構、黑客技術與網路安全、大數據技術、前端開發、Java、Python、Web開發、安卓開發、iOS開發、C/C++、.NET、Linux、資料庫、運維等。

喜歡這篇文章嗎?立刻分享出去讓更多人知道吧!

本站內容充實豐富,博大精深,小編精選每日熱門資訊,隨時更新,點擊「搶先收到最新資訊」瀏覽吧!


請您繼續閱讀更多來自 Linux學習 的精彩文章:

TIOBE 8月編程語言榜:Python超越C++指日可待
Linux性能檢測常用的10個基本命令

TAG:Linux學習 |