[Python]网络爬虫(二):利用urllib2通过指定的URL抓取网页内容
版本號:Python2.7.5,Python3改動較大,各位另尋教程。
所謂網頁抓取,就是把URL地址中指定的網絡資源從網絡流中讀取出來,保存到本地。?
類似于使用程序模擬IE瀏覽器的功能,把URL作為HTTP請求的內容發送到服務器端, 然后讀取服務器端的響應資源。
在Python中,我們使用urllib2這個組件來抓取網頁。
urllib2是Python的一個獲取URLs(Uniform Resource Locators)的組件。
它以urlopen函數的形式提供了一個非常簡單的接口。
最簡單的urllib2的應用代碼只需要四行。
我們新建一個文件urllib2_test01.py來感受一下urllib2的作用:
import urllib2 response = urllib2.urlopen('http://www.baidu.com/') html = response.read() print html按下F5可以看到運行的結果:
我們可以打開百度主頁,右擊,選擇查看源代碼(火狐OR谷歌瀏覽器均可),會發現也是完全一樣的內容。
也就是說,上面這四行代碼將我們訪問百度時瀏覽器收到的代碼們全部打印了出來。
這就是一個最簡單的urllib2的例子。
除了"http:",URL同樣可以使用"ftp:","file:"等等來替代。
HTTP是基于請求和應答機制的:
客戶端提出請求,服務端提供應答。
urllib2用一個Request對象來映射你提出的HTTP請求。
在它最簡單的使用形式中你將用你要請求的地址創建一個Request對象,
通過調用urlopen并傳入Request對象,將返回一個相關請求response對象,
這個應答對象如同一個文件對象,所以你可以在Response中調用.read()。
我們新建一個文件urllib2_test02.py來感受一下:
import urllib2 ? req = urllib2.Request('http://www.baidu.com') ? response = urllib2.urlopen(req) ? the_page = response.read() ? print the_page可以看到輸出的內容和test01是一樣的。
urllib2使用相同的接口處理所有的URL頭。例如你可以像下面那樣創建一個ftp請求。
req = urllib2.Request('ftp://example.com/')
在HTTP請求時,允許你做額外的兩件事。
1.發送data表單數據
這個內容相信做過Web端的都不會陌生,
有時候你希望發送一些數據到URL(通常URL與CGI[通用網關接口]腳本,或其他WEB應用程序掛接)。
在HTTP中,這個經常使用熟知的POST請求發送。
這個通常在你提交一個HTML表單時由你的瀏覽器來做。
并不是所有的POSTs都來源于表單,你能夠使用POST提交任意的數據到你自己的程序。
一般的HTML表單,data需要編碼成標準形式。然后做為data參數傳到Request對象。
編碼工作使用urllib的函數而非urllib2。
我們新建一個文件urllib2_test03.py來感受一下:
?
import urllib ? import urllib2 ?url = 'http://www.someserver.com/register.cgi' ?values = {'name' : 'WHY', ?'location' : 'SDU', ?'language' : 'Python' } ?
?
data = urllib.urlencode(values) # 編碼工作
req = urllib2.Request(url, data) ?# 發送請求同時傳data表單
response = urllib2.urlopen(req) ?#接受反饋的信息
the_page = response.read() ?#讀取反饋的內容
如果沒有傳送data參數,urllib2使用GET方式的請求。
GET和POST請求的不同之處是POST請求通常有"副作用",
它們會由于某種途徑改變系統狀態(例如提交成堆垃圾到你的門口)。
Data同樣可以通過在Get請求的URL本身上面編碼來傳送。
import urllib2 ? import urllibdata = {}data['name'] = 'WHY' ? data['location'] = 'SDU' ? data['language'] = 'Python'url_values = urllib.urlencode(data) ? print url_valuesname=Somebody+Here&language=Python&location=Northampton ? url = 'http://www.example.com/example.cgi' ? full_url = url + '?' + url_valuesdata = urllib2.open(full_url) ?這樣就實現了Data數據的Get傳送。
2.設置Headers到http請求
有一些站點不喜歡被程序(非人為訪問)訪問,或者發送不同版本的內容到不同的瀏覽器。
默認的urllib2把自己作為“Python-urllib/x.y”(x和y是Python主版本和次版本號,例如Python-urllib/2.7),
這個身份可能會讓站點迷惑,或者干脆不工作。
瀏覽器確認自己身份是通過User-Agent頭,當你創建了一個請求對象,你可以給他一個包含頭數據的字典。
下面的例子發送跟上面一樣的內容,但把自身模擬成Internet Explorer。
(多謝大家的提醒,現在這個Demo已經不可用了,不過原理還是那樣的)。
import urllib ? import urllib2 ?url = 'http://www.someserver.com/cgi-bin/register.cgi'user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)' ? values = {'name' : 'WHY', ?'location' : 'SDU', ?'language' : 'Python' } ?headers = { 'User-Agent' : user_agent } ? data = urllib.urlencode(values) ? req = urllib2.Request(url, data, headers) ? response = urllib2.urlopen(req) ?---------------------?
作者:請叫我汪海?
來源:CSDN?
原文:https://blog.csdn.net/pleasecallmewhy/article/details/8923067?
版權聲明:本文為博主原創文章,轉載請附上博文鏈接!
總結
以上是生活随笔為你收集整理的[Python]网络爬虫(二):利用urllib2通过指定的URL抓取网页内容的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Visual Studio Code高效
- 下一篇: [Python]网络爬虫(三):异常的处