Crawler:基于urllib库获取cn-proxy代理的IP地址
生活随笔
收集整理的這篇文章主要介紹了
Crawler:基于urllib库获取cn-proxy代理的IP地址
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
Crawler:基于urllib庫獲取cn-proxy代理的IP地址
?
?
?
?
目錄
輸出結果
實現代碼
?
?
?
?
輸出結果
后期更新……
?
實現代碼
import urllib.request import re import osprint(os.getcwd())def open_url(url):req=urllib.request.Request(url) req.add_header("User-Agent", "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/56.0.2924.90 Safari/537.36 2345Explorer/9.2.1.17116")page=urllib.request.urlopen(req)html=page.read().decode("utf-8")return htmldef get_img(html):p=r'(?:(?:[0,1])?\d?\d|2[0-4]\d|25[0-5]\.){3}(?:[0,1]?\d?\d|2[0-4]\d|25[0-5]))' iplist=re.findall(p,html)for each in iplist: print(each)if __name__=="__mian__":url="http://cn-proxy.com" get_img(open_url(url)) url="http://cn-proxy.com" get_img(open_url(url))?
?
?
總結
以上是生活随笔為你收集整理的Crawler:基于urllib库获取cn-proxy代理的IP地址的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Crawler:反爬虫之基于urllib
- 下一篇: Crawler:反爬虫机制之基于urll