python爬取10个网站_十个Python爬虫武器库示例,十个爬虫框架,十种实现爬虫的方法!...
一般比價小型的爬蟲需求,我是直接使用requests庫 + bs4就解決了,再麻煩點就使用selenium解決js的異步 加載問題。相對比較大型的需求才使用框架,主要是便于管理以及擴展等。
1.Scrapy
Scrapy是一個為了爬取網站數據,提取結構性數據而編寫的應用框架。 可以應用在包括數據挖掘,信息處理或存儲歷史數據等一系列的程序中。
快速入門
安裝
pip?install scrapy
創建項目
寫爬蟲
運行
scrapy?crawl dmoz
這里就簡單介紹一下,后面有時間詳細寫一些關于scrapy的文章,我的很多爬蟲的數據都是scrapy基礎上實現的。
2.PySpider
PySpider:一個國人編寫的強大的網絡爬蟲系統并帶有強大的WebUI。采用Python語言編寫,分布式架構,支持多種數據庫后端,強大的WebUI支持腳本編輯器,任務監視器,項目管理器以及結果查看器。
python 腳本控制,可以用任何你喜歡的html解析包(內置 pyquery)
WEB 界面編寫調試腳本,起停腳本,監控執行狀態,查看活動歷史,獲取結果產出
數據存儲支持MySQL, MongoDB, Redis, SQLite, Elasticsearch; PostgreSQL 及 SQLAlchemy
示例
代開web界面的編輯輸入代碼即可
3.Crawley
Crawley可以高速爬取對應網站的內容,支持關系和非關系數據庫,數據可以導出為JSON、XML等。
創建project
寫Python爬蟲邏輯
配置
運行
~$ crawley?run
4.Portia
Portia是一個開源可視化爬蟲工具,可讓您在不需要任何編程知識的情況下爬取網站!簡單地注釋您感興趣的頁面,Portia將創建一個蜘蛛來從類似的頁面提取數據。
5.Newspaper
Newspaper可以用來提取新聞、文章和內容分析。使用多線程,支持10多種語言等。作者從requests庫的簡潔與強大得到靈感,使用python開發的可用于提取文章內容的程序。
支持10多種語言并且所有的都是unicode編碼。
示例
6.Beautiful Soup
Beautiful Soup 是一個可以從HTML或XML文件中提取數據的Python庫.它能夠通過你喜歡的轉換器實現慣用的文檔導航,查找,修改文檔的方式.Beautiful Soup會幫你節省數小時甚至數天的工作時間。這個我是使用的特別頻繁的。在獲取html元素,都是bs4完成的。
示例:
7.Grab
Grab是一個用于構建Web刮板的Python框架。借助Grab,您可以構建各種復雜的網頁抓取工具,從簡單的5行腳本到處理數百萬個網頁的復雜異步網站抓取工具。Grab提供一個API用于執行網絡請求和處理接收到的內容,例如與HTML文檔的DOM樹進行交互。
8.Cola
Cola是一個分布式的爬蟲框架,對于用戶來說,只需編寫幾個特定的函數,而無需關注分布式運行的細節。任務會自動分配到多臺機器上,整個過程對用戶是透明的。
案例
10 .Python-goose框架
Python-goose框架可提取的信息包括:
用法示例
---------------------
總結
以上是生活随笔為你收集整理的python爬取10个网站_十个Python爬虫武器库示例,十个爬虫框架,十种实现爬虫的方法!...的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 从FTP拷贝文件报错无法从指定的位置下载
- 下一篇: linux右键菜单的截图,Linux: