更新時間:2017-11-10 來源:黑馬程序員 瀏覽量:
1、CURL使用
curl命令可以用來構(gòu)造http請求。參數(shù)有很多,常用的參數(shù)如下:
通用語法:
curl [option] [URL...]
2、option
curl的選項功能:
· 不帶任何參數(shù)時 curl 將返回指定url中的數(shù)據(jù)并打印在屏幕上
· -u 使用用戶名和密碼登陸。如curl –u name:passwd URL
· -b/--cookie 向服務(wù)器提交cookie,若無=則name視為文件名,例如:curl -b cookie.txt www.linuxidc.com
· -o out 將指定curl返回保存為out文件,內(nèi)容從html/jpg到各種MIME類型文件。如curl -o page.html URL
· -d 向服務(wù)器POST表單數(shù)據(jù) 例如:curl -d "order=111&count=2" http://www.linuxidc.com/buy
· -A/--user-agent 指定發(fā)送請求的用戶代理,例如:curl -A My-Agent/1.0.0 www.linuxidc.com
· -x ip:port 指定使用的http代理,例如:curl -x 192.168.1.1:8080 www.linuxidc.com
· -D head.txt 將服務(wù)器的返回的header保存為文件,頭部的cookie也可被保存,例如:curl -D header.txt www.linuxidc.com
o 如果希望從本地文件中獲取表單數(shù)據(jù),則在文件名前加@ ,例如:curl -d @data.xml http://www.linuxidc.com
o 若希望從標(biāo)準(zhǔn)輸入獲取則用 curl -d "name=username&passwd=pwd" http://www.linuxidc.com
· -L 當(dāng)頁面有跳轉(zhuǎn)的時候,輸出跳轉(zhuǎn)到的頁面
· -I header信息 當(dāng)有跳轉(zhuǎn)時,可以通過 curl -L -I URL|grep Location 來確定跳轉(zhuǎn)到的新url地址
· -c 保存服務(wù)器的cookie文件
· -e url 設(shè)置引用頭的值
· -T localfile 向服務(wù)器PUT文件 例如:curl -T 1.mp3 www.linuxidc.com/upload.php
· -F 向服務(wù)器POST表單,例如:curl -F "web=@index.html;type=text/html" url.com
· -E cert.pem 指定本地證書
· -H 為HTTP請求設(shè)置任意header及值。如curl -H "Connection:keep-alive" http://www.linuxidc.com
· -X/--request method 用戶定義的HTTP請求方法名如 curl -X GET www.baidu.com
· --compressed 采用壓縮方式接收返回數(shù)據(jù)
· --connect-timeout 設(shè)置超時時間
· -v 詳細(xì)輸出,包含請求和響應(yīng)的首部
· --retry num
· --retry timeo 指定重試的次數(shù)和間隔
· --tcp-nodelay 打開TCP_NODELAY選項 不進(jìn)行捎帶確認(rèn)
· -O 按服務(wù)器上的名稱保存下載的文件
· -r/--range from-to 下載指定range內(nèi)的數(shù)據(jù)
· -C 在保存文件時進(jìn)行續(xù)傳
3、使用實例
Curl是Linux下一個很強(qiáng)大的http命令行工具,其功能十分強(qiáng)大。
1) 先從這里開始吧!
$ curl http://www.linuxidc.com
回車之后,www.linuxidc.com 的html顯示在屏幕上了 ~
2) 要想把讀過來頁面存下來,是不是要這樣呢?
$ curl http://www.linuxidc.com > page.html
當(dāng)然可以,但不用這么麻煩的!
用curl的內(nèi)置option就好,存下http的結(jié)果,用這個option: -o
$ curl -o page.html http://www.linuxidc.com
這樣,你就可以看到屏幕上出現(xiàn)一個下載頁面進(jìn)度指示。等進(jìn)展到100%,自然就 OK咯
3) proxy設(shè)定。
使用curl的時候,用這個option可以指定http訪問所使用的proxy服務(wù)器及其端口: -x
$ curl -x 123.45.67.89:1080 -o page.html http://www.linuxidc.com
4) 訪問有些網(wǎng)站的時候比較討厭,他使用cookie來記錄session信息。
像IE/NN這樣的瀏覽器,當(dāng)然可以輕易處理cookie信息,但我們的curl呢?.....
我們來學(xué)習(xí)這個option: -D <— 這個是把http的response里面的cookie信息存到一個特別的文件中去
$ curl -x 123.45.67.89:1080 -o page.html -D cookie0001.txt http://www.linuxidc.com
這樣,當(dāng)頁面被存到page.html的同時,cookie信息也被存到了cookie0001.txt里面了
5)那么,下一次訪問的時候,如何繼續(xù)使用上次留下的cookie信息呢?要知道,很多網(wǎng)站都是靠監(jiān)視你的cookie信息,來判斷你是不是不按規(guī)矩訪問他們的網(wǎng)站的。
這次我們使用這個option來把上次的cookie信息追加到http request里面去: -b
$ curl -x 123.45.67.89:1080 -o page1.html -D cookie0002.txt -b cookie0001.txt http://www.linuxidc.com
這樣,我們就可以幾乎模擬所有的IE操作,去訪問網(wǎng)頁了!
6)瀏覽器信息
有些討厭的網(wǎng)站總要我們使用某些特定的瀏覽器去訪問他們,有時候更過分的是,還要使用某些特定的版本
curl給我們提供了一個有用的option,可以讓我們隨意指定自己這次訪問所宣稱的自己的瀏覽器信息: -A
$ curl -A "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" -x 123.45.67.89:1080 -o page.html -D cookie0001.txt http://www.linuxidc.com
這樣,服務(wù)器端接到訪問的要求,會認(rèn)為你是一個運(yùn)行在Windows 2000上的 IE6.0
而"Mozilla/4.73 [en] (X11; U; Linux 2.2; 15 i686"則可以告訴對方你是一臺 PC上跑著的Linux,用的是Netscape 4.73
7)另外一個服務(wù)器端常用的限制方法,就是檢查http訪問的referer。比如你先訪問首頁,再訪問里面所指定的下載頁,這第二次訪問的 referer地址就是第一次訪問成功后的頁面地址。這樣,服務(wù)器端只要發(fā)現(xiàn)對下載頁面某次訪問的referer地址不是首頁的地址,就可以斷定那是個盜連了 ~
curl給我們提供了設(shè)定referer的option: -e
$ curl -A "Mozilla/4.0 (compatible; MSIE 6.0; Windows NT 5.0)" -x 123.45.67.89:1080 -e "mail.linuxidc.com" -o page.html -D cookie0001.txt http://www.linuxidc.com
這樣,就可以騙對方的服務(wù)器,你是從mail.linuxidc.com點擊某個鏈接過來的了。
8) 利用curl 下載文件
剛才講過了,下載頁面到一個文件里,可以使用 -o ,下載文件也是一樣。比如,
$ curl -o 1.jpg http://cgi2.tky.3web.ne.jp/~zzh/screen1.JPG
這里教大家一個新的option: -O 大寫的O,這么用:
$ curl -O http://cgi2.tky.3web.ne.jp/~zzh/screen1.JPG
這樣,就可以按照服務(wù)器上的文件名,自動存在本地了!
再來一個更好用的。
如果screen1.JPG以外還有screen2.JPG、screen3.JPG、....、screen10.JPG需要下載,難不成還要讓我們寫一個script來完成這些操作?
在curl里面,這么寫就可以了:
$ curl -O http://cgi2.tky.3web.ne.jp/~zzh/screen[1-10].JPG
9)再來,我們繼續(xù)講解下載!
$ curl -O http://cgi2.tky.3web.ne.jp/~{zzh,nick}/[001-201].JPG
這樣產(chǎn)生的下載,就是
~zzh/001.JPG
~zzh/002.JPG
...
~zzh/201.JPG
~nick/001.JPG
~nick/002.JPG
...
~nick/201.JPG
夠方便的了吧
由于zzh/nick下的文件名都是001,002...,201,下載下來的文件重名,后面的把前面的文件都給覆蓋掉了 ~
沒關(guān)系,我們還有更狠的!
$ curl -o #2_#1.jpg http://cgi2.tky.3web.ne.jp/~{zzh,nick}/[001-201].JPG
—這是.....自定義文件名的下載?
這樣,自定義出來下載下來的文件名,就變成了這樣:原來: ~zzh/001.JPG —-> 下載后: 001-zzh.JPG 原來: ~nick/001.JPG —-> 下載后: 001-nick.JPG
這樣一來,就不怕文件重名啦。
9)繼續(xù)講下載
我們平時在windows平臺上,flashget這樣的工具可以幫我們分塊并行下載,還可以斷線續(xù)傳。
curl在這些方面也不輸給誰,嘿嘿
比如我們下載screen1.JPG中,突然掉線了,我們就可以這樣開始續(xù)傳
curl -c -O http://cgi2.tky.3wb.ne.jp/~zzh/screen1.JPG
當(dāng)然,你不要拿個flashget下載了一半的文件來糊弄我~~~~別的下載軟件的半截文件可不一定能用哦~~~
分塊下載,我們使用這個option就可以了: -r
舉例說明
比如我們有一個http://cgi2.tky.3web.ne.jp/~zzh/zhao1.mp3 要下載(趙老師的電話朗誦 :D )
我們就可以用這樣的命令:
curl -r 0-10240 -o "zhao.part1" http:/cgi2.tky.3web.ne.jp/~zzh/zhao1.mp3 &\
curl -r 10241-20480 -o "zhao.part1" http:/cgi2.tky.3web.ne.jp/~zzh/zhao1.mp3 &\
curl -r 20481-40960 -o "zhao.part1" http:/cgi2.tky.3web.ne.jp/~zzh/zhao1.mp3 &\
curl -r 40961- -o "zhao.part1" http:/cgi2.tky.3web.ne.jp/~zzh/zhao1.mp3
這樣就可以分塊下載啦。
不過你需要自己把這些破碎的文件合并起來
如果你用UNIX或蘋果,用 cat zhao.part* > zhao.mp3就可以
如果用的是Windows,用copy /b 來解決
上面講的都是http協(xié)議的下載,其實ftp也一樣可以用。
用法嘛,
curl -u name:passwd ftp://ip:port/path/file
或者大家熟悉的
curl ftp://name:passwd@ip:port/path/file
10)上傳的option是 -T
比如我們向ftp傳一個文件: curl -T localfile -u name:passwd ftp://upload_site:port/path/
當(dāng)然,向http服務(wù)器上傳文件也可以
比如 curl -T localfile http://cgi2.tky.3web.ne.jp/~zzh/abc.cgi
注意,這時候,使用的協(xié)議是HTTP的PUT method
剛才說到PUT,其他幾種methos還沒講呢!
GET和POST都不能忘哦。
http提交一個表單,比較常用的是POST模式和GET模式
GET模式什么option都不用,只需要把變量寫在url里面就可以了
比如:
curl http://www.yahoo.com/login.cgi?user=nickwolfe&password=12345
而POST模式的option則是 -d
比如,curl -d "user=nickwolfe&password=12345" http://www.yahoo.com/login.cgi
就相當(dāng)于向這個站點發(fā)出一次登陸申請~~~~~
到底該用GET模式還是POST模式,要看對面服務(wù)器的程序設(shè)定。
一點需要注意的是,POST模式下的文件上的文件上傳,比如
這樣一個HTTP表單,我們要用curl進(jìn)行模擬,就該是這樣的語法:
curl -F upload=@localfile -F nick=go http://cgi2.tky.3web.ne.jp/~zzh/up_file.cgi
羅羅嗦嗦講了這么多,其實curl還有很多很多技巧和用法
比如 https的時候使用本地證書,就可以這樣
curl -E localcert.pem https://remote_server
再比如,你還可以用curl通過dict協(xié)議去查字典~~~~~
curl dict://dict.org/d:computer
今天為了檢查所有刺猬主機(jī)上所有域名是否有備案.在使用wget不爽的情況下,找到了curl這個命令行流量器命令.發(fā)現(xiàn)其對post的調(diào)用還是蠻好的.特別有利于對提交信息及變
更參數(shù)進(jìn)行較驗.對于我想將幾十萬域名到miibeian.gov.cn進(jìn)行驗證是否有備案信息非常有用.發(fā)現(xiàn)這篇文章很不錯,特為轉(zhuǎn)貼.
我的目標(biāo):
curl -d "cxfs=1&ym=xieyy.cn" http://www.miibeian.gov.cn/baxx_cx_servlet
在出來的信息中進(jìn)行過濾,提取備案號信息,并設(shè)置一個標(biāo)識位.將域名,備案號及標(biāo)識位入庫
用curl命令,post提交帶空格的數(shù)據(jù)
今天偶然遇到一個情況,我想用curl登入一個網(wǎng)頁,無意間發(fā)現(xiàn)要post的數(shù)據(jù)里帶空格。比如用戶名為"abcdef",密碼為"abc def",其中有一個空格,按照我以前的方式提交:
curl -D cookie -d "username=abcdef&password=abc def" http://login.xxx.com/提示登入失敗。
于是查看curl手冊man curl。找到:
d/--data (HTTP) Sends the speci?ed data in a POST request to the HTTP server, in a way that can emulate as if a user has ?lled in a HTML form and pressed the
submit button. Note that the data is sent exactly as speci?ed with no extra processing (with all newlines cut off). The data is expected to be "url-encoded".
This will cause curl to pass the data to the server using the content-type application/x-www-form-urlencoded. Compare to -F/--form. If this option is used
more than once on the same command line, the data pieces speci?ed will be merged together with a separating &-letter. Thus, using ’-d name=daniel -d
skill=lousy’ would generate a post chunk that looks like ’name=daniel&skill=lousy’.
于是改用:
curl -D cookie -d "username=abcdef" -d "password=abc efg" http://login.xxx.com/這樣就能成功登入了。【注:需要更多免費(fèi)學(xué)習(xí)視頻+資料+源碼,請加QQ:2632311208】
本文版權(quán)歸黑馬程序員人工智能+Python學(xué)院所有,歡迎轉(zhuǎn)載,轉(zhuǎn)載請注明作者出處。謝謝!
作者:黑馬程序員人工智能+Python培訓(xùn)學(xué)院
首發(fā):http://python.itheima.com/
零基礎(chǔ)學(xué)習(xí)網(wǎng)絡(luò)爬蟲知識(一)
2017-11-10Python培訓(xùn)之人工智能3.0時代來襲,誰會是下一代霸主?(二)
2017-08-31Python培訓(xùn)之人工智能3.0時代來襲,誰會是下一代霸主?(一)
2017-08-31Python培訓(xùn)之姜光敏:隨著AI人工智能的發(fā)展,未來的人力資源從業(yè)者將面臨失業(yè)
2017-08-31Python培訓(xùn)之人工智能技術(shù)是基于大數(shù)據(jù)吃飯的?
2017-08-31Python培訓(xùn)之Python超過R,成為數(shù)據(jù)科學(xué)和機(jī)器學(xué)習(xí)的常用語言
2017-08-31