Python爬虫利器一Requests库的用法
之前我們用了 urllib 庫,這個作為入門的工具還是不錯的,對了解一些爬蟲的基本理念,掌握爬蟲爬取的流程有所幫助。入門之后,我們就需要學習一些更加高級的內容和工具來方便我們的爬取。那么這一節來簡單介紹一下 requests 庫的基本用法
官方文檔
中文文檔
引入
引入一個小例子來感受一下
import requestsr = requests.get('http://www.baidu.com') print type(r) # 返回結果類型 print r.status_code # 狀態碼 print r.encoding # 編碼方式 print r.cookies # cookies print r.text # html文本 <class 'requests.models.Response'> 200 ISO-8859-1 <RequestsCookieJar[<Cookie BDORZ=27315 for .baidu.com/>]> <!DOCTYPE html> ...以上代碼我們請求了本站點的網址,然后打印出了返回結果的類型,狀態碼,編碼方式,Cookies ,網頁html等內容
基本請求
requests 庫提供了 http 所有的基本請求方式。例如
r = requests.post("http://httpbin.org/post") r = requests.put("http://httpbin.org/put") r = requests.delete("http://httpbin.org/delete") r = requests.head("http://httpbin.org/get") r = requests.options("http://httpbin.org/get")基本GET請求
最基本的 GET 請求可以直接用 get 方法
r = requests.get("http://httpbin.org/get")如果想要加參數,可以利用 params 參數
import requestspayload = {'key1': 'value1', 'key2': 'value2'} r = requests.get("http://httpbin.org/get", params=payload) print r.url http://httpbin.org/get?key2=value2&key1=value1如果想請求 JSON 文件,可以利用 json () 方法解析 例如自己寫一個 JSON 文件命名為 a.json,內容如下
a.json文件["foo", "bar", {"foo": "bar" }]利用如下程序請求并解析
import requestsr = requests.get("a.json") print r.text print r.json()運行結果如下,其中一個是直接輸出內容,另外一個方法是利用 json () 方法解析,感受下它們的不同
["foo", "bar", {"foo": "bar"}][u'foo', u'bar', {u'foo': u'bar'}]如果想獲取來自服務器的原始套接字響應,可以取得 r.raw 。 不過需要在初始請求中設置 stream=True 。
r = requests.get('https://github.com/timeline.json', stream=True) r.raw r.raw.read(10) <requests.packages.urllib3.response.HTTPResponse object at 0x101194810> '\x1f\x8b\x08\x00\x00\x00\x00\x00\x00\x03'這樣就獲取了網頁原始套接字內容。 如果想添加 headers,可以傳 headers 參數
import requestspayload = {'key1': 'value1', 'key2': 'value2'} headers = {'content-type': 'application/json'} r = requests.get("http://httpbin.org/get", params=payload, headers=headers) print r.url print r.headers http://httpbin.org/get?key2=value2&key1=value1 {'Content-Length': '418', 'Server': 'gunicorn/19.9.0', 'Connection': 'keep-alive', 'Access-Control-Allow-Credentials': 'true', 'Date': 'Sat, 02 Jan 2021 09:17:07 GMT', 'Access-Control-Allow-Origin': '*', 'Content-Type': 'application/json'}基本 POST 請求
對于 POST 請求來說,我們一般需要為它增加一些參數。那么最基本的傳參方法可以利用 data 這個參數。
import requestspayload = {'key1': 'value1', 'key2': 'value2'} r = requests.post("http://httpbin.org/post", data=payload) print r.text {"args": {}, "data": "", "files": {}, "form": {"key1": "value1", "key2": "value2"}, "headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Content-Length": "23", "Content-Type": "application/x-www-form-urlencoded", "Host": "httpbin.org", "User-Agent": "python-requests/2.9.1"}, "json": null, "url": "http://httpbin.org/post" }可以看到參數傳成功了,然后服務器返回了我們傳的數據。 有時候我們需要傳送的信息不是表單形式的,需要我們傳 JSON 格式的數據過去,所以我們可以用 json.dumps () 方法把表單數據序列化。
import json import requestsurl = 'http://httpbin.org/post' payload = {'some': 'data'} r = requests.post(url, data=json.dumps(payload)) print r.text {"args": {}, "data": "{\"some\": \"data\"}", "files": {}, "form": {}, "headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Content-Length": "16", "Host": "httpbin.org", "User-Agent": "python-requests/2.9.1"}, "json": {"some": "data"}, "url": "http://httpbin.org/post" }通過上述方法,我們可以 POST JSON 格式的數據 如果想要上傳文件,那么直接用 file 參數即可 。
新建一個 a.txt 的文件,內容寫上 Hello World!
運行結果
{"args": {}, "data": "", "files": {"file": "Hello World!"}, "form": {}, "headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Content-Length": "156", "Content-Type": "multipart/form-data; boundary=7d8eb5ff99a04c11bb3e862ce78d7000", "Host": "httpbin.org", "User-Agent": "python-requests/2.9.1"}, "json": null, "url": "http://httpbin.org/post" }這樣我們便成功完成了一個文件的上傳。 requests 是支持流式上傳的,這允許你發送大的數據流或文件而無需先把它們讀入內存。要使用流式上傳,僅需為你的請求體提供一個類文件對象即可。
with open('massive-body') as f:requests.post('http://some.url/streamed', data=f)Cookies
如果一個響應中包含了 cookie,那么我們可以利用 cookies 變量來拿到
import requestsurl = 'http://example.com' r = requests.get(url) print r.cookies print r.cookies['example_cookie_name'] import requestsurl = 'http://www.baidu.com' r = requests.get(url) print(r) print(r.cookies) print(repr(r.cookies)) for cookie in r.cookies:print(cookie.name,':',cookie.value) 結果: <Response [200]> <RequestsCookieJar[<Cookie BDORZ=27315 for .baidu.com/>]> <RequestsCookieJar[Cookie(version=0, name='BDORZ', value='27315', port=None, port_specified=False, domain='.baidu.com', domain_specified=True, domain_initial_dot=True, path='/', path_specified=True, secure=False, expires=1609667934, discard=False, comment=None, comment_url=None, rest={}, rfc2109=False)]> ('BDORZ', ':', '27315')以上程序僅是樣例,可以用 cookies 變量來得到站點的 cookies 另外可以利用 cookies 變量來向服務器發送 cookies 信息
import requestsurl = 'http://httpbin.org/cookies' cookies = dict(cookies_are='working') r = requests.get(url, cookies=cookies) print r.text結果
'{"cookies": {"cookies_are": "working"}}'超時配置
可以利用 timeout 變量來配置最大請求時間
requests.get('http://github.com', timeout=0.001)注:timeout 僅對連接過程有效,與響應體的下載無關。 也就是說,這個時間只限制請求的時間。即使返回的 response 包含很大內容,下載需要一定時間,然而這并沒有什么卵用。
會話對象
在以上的請求中,每次請求其實都相當于發起了一個新的請求。也就是相當于我們每個請求都用了不同的瀏覽器單獨打開的效果。也就是它并不是指的一個會話,即使請求的是同一個網址。比如
r = requests.get('http://httpbin.org/cookies/set/sessioncookie/123456789') print(r.text) r = requests.get("http://httpbin.org/cookies") print(r.text)結果
{"cookies": {"sessioncookie": "123456789"} }{"cookies": {} }很明顯,這不在一個會話中,無法獲取 cookies,那么在一些站點中,我們需要保持一個持久的會話怎么辦呢?就像用一個瀏覽器逛淘寶一樣,在不同的選項卡之間跳轉,這樣其實就是建立了一個長久會話。 解決方案如下
import requestss = requests.Session() r = s.get('http://httpbin.org/cookies/set/sessioncookie/123456789') print(r.text), r = s.get("http://httpbin.org/cookies") print(r.text) {"cookies": {"sessioncookie": "123456789"} } {"cookies": {"sessioncookie": "123456789"} }在這里我們請求了兩次,一次是設置 cookies,一次是獲得 cookies 運行結果。
發現可以成功獲取到 cookies 了,這就是建立一個會話到作用。體會一下。 那么既然會話是一個全局的變量,那么我們肯定可以用來全局的配置了。
通過 s.headers.update 方法設置了 headers 的變量。然后我們又在請求中設置了一個 headers,那么會出現什么結果? 很簡單,兩個變量都傳送過去了。 運行結果
{"headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "httpbin.org", "User-Agent": "python-requests/2.25.1", "X-Amzn-Trace-Id": "Root=1-5ff04727-6f9c875c3aab64a939bdc939", "X-Test": "true"} } {"headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "httpbin.org", "User-Agent": "python-requests/2.25.1", "X-Amzn-Trace-Id": "Root=1-5ff04728-1a6024b044e0fcba04d96242", "X-Test": "true", "X-Test2": "true"} }如果 get 方法傳的 headers 同樣也是 x-test 呢?
r = s.get('http://httpbin.org/headers', headers={'x-test': 'true'}) {"headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "httpbin.org", "User-Agent": "python-requests/2.9.1", "X-Test": "true"} }那如果不想要全局配置中的一個變量了呢?很簡單,設置為 None 即可
r = s.get('http://httpbin.org/headers', headers={'x-test': None}) {"headers": {"Accept": "*/*", "Accept-Encoding": "gzip, deflate", "Host": "httpbin.org", "User-Agent": "python-requests/2.9.1"} }以上就是 session 會話的基本用法
SSL證書驗證
現在隨處可見 https 開頭的網站,Requests 可以為 HTTPS 請求驗證 SSL 證書,就像 web 瀏覽器一樣。要想檢查某個主機的 SSL 證書,你可以使用 verify 參數 現在 12306 證書不是無效的嘛,來測試一下
import requestsr = requests.get('https://kyfw.12306.cn/otn/', verify=True) print r.text requests.exceptions.SSLError: [SSL: CERTIFICATE_VERIFY_FAILED] certificate verify failed (_ssl.c:590)測試下正常的
import requestsr = requests.get('https://github.com', verify=True) print r.text嗯,正常請求,內容我就不輸出了。 如果我們想跳過剛才 12306 的證書驗證,把 verify 設置為 False 即可
代理
如果需要使用代理,你可以通過為任意請求方法提供 proxies 參數來配置單個請求。
import requestsproxies = {"https": "http://41.118.132.69:4433" } r = requests.post("http://httpbin.org/post", proxies=proxies) print r.text也可以通過環境變量 HTTP_PROXY 和 HTTPS_PROXY 來配置代理
export HTTP_PROXY="http://10.10.1.10:3128" export HTTPS_PROXY="http://10.10.1.10:1080"API
Developer Interface
總結
以上是生活随笔為你收集整理的Python爬虫利器一Requests库的用法的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Python对文件的操作(转)
- 下一篇: 广州Uber优步司机奖励政策(1月4日~