久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

Python 爬虫框架 - PySpider

發(fā)布時間:2024/7/23 python 35 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Python 爬虫框架 - PySpider 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.


Python爬蟲進階四之PySpider的用法:http://cuiqingcai.com/2652.html
網(wǎng)絡爬蟲剖析,以Pyspider為例:http://python.jobbole.com/81109
Python爬蟲利器六之PyQuery的用法:https://cuiqingcai.com/2636.html

爬蟲框架pyspider個人總結(詳細)熟悉:https://www.jianshu.com/p/39c7371dd6c2

?

pyspider 和 scrapy 比較起來有什么優(yōu)缺點嗎?:https://www.zhihu.com/question/37686665

pyspider 的優(yōu)點是簡單,立刻就能上手,腳本編寫規(guī)則。懂了的話,一小時寫甚至可以寫十多個爬蟲。
scrapy 的優(yōu)點是自定義程度高,適合學習研究爬蟲技術,要學習的相關知識也較多,故而完成一個爬蟲的時間較長。

如果不知道使用哪個,可以看這篇文章的比較:
三大主流開源框架,為何Python中Scrapy如此突出:http://3g.163.com/dy/article/DNLM2IP90511HJQ3.html

?

?

PySpider

?

PySpider github地址 ? ?PySpider 官方文檔? ? PySpider 中文文檔

PySpider是binux做的一個爬蟲架構的開源化實現(xiàn)。主要的功能需求是:

  • 1. 抓取、更新調度多站點的特定的頁面
  • 2. 需要對頁面進行結構化信息提取
  • 3. 靈活可擴展,穩(wěn)定可監(jiān)控

而這也是絕大多數(shù) python 爬蟲的需求 —— 定向抓取,結構化化解析。但是面對結構迥異的各種網(wǎng)站,單一的抓取模式并不一定能滿足,靈活的抓取控制是必須的。為了達到這個目的,單純的配置文件往往不夠靈活,于是,通過腳本去控制抓取是最后的選擇。而去重調度,隊列,抓取,異常處理,監(jiān)控等功能作為框架,提供給抓取腳本,并保證靈活性。最后加上web的編輯調試環(huán)境,以及web任務監(jiān)控,即成為了這套框架。

?

PySpider 簡介

?

pyspider的設計基礎是:以python腳本驅動的抓取環(huán)模型爬蟲

  • 1. 通過python腳本進行結構化信息的提取,follow鏈接調度抓取控制,實現(xiàn)最大的靈活性
  • 2. 通過web化的腳本編寫、調試環(huán)境。web展現(xiàn)調度狀態(tài)
  • 3. 抓取環(huán)模型成熟穩(wěn)定,模塊間相互獨立,通過消息隊列連接,從單進程到多機分布式靈活拓展

pyspider架構圖

模塊功能
webuiweb的可視化任務監(jiān)控,web腳本編寫,單步調試,異常捕獲,log捕獲,print捕獲等
scheduler任務優(yōu)先級,周期定時任務,流量控制,基于時間周期 或 前鏈標簽(例如更新時間)的重抓取調度
fetcherdataurl支持,用于假抓取模擬傳遞,method, header, cookie, proxy, etag, last_modified, timeout 等等抓取調度控制,可以通過適配類似 phantomjs 的webkit引擎支持渲染
processor內置的pyquery,以jQuery解析頁面,在腳本中完全控制調度抓取的各項參數(shù),,可以向后鏈傳遞信息,異常捕獲

?

pyspider的架構主要分為 scheduler(調度器), fetcher(抓取器), processor(腳本執(zhí)行):

  • 1. 各個組件間使用消息隊列連接,除了scheduler是單點的,fetcher 和 processor 都是可以多實例分布式部署的。 scheduler 負責整體的調度控制
  • 2. 任務由 scheduler 發(fā)起調度,fetcher 抓取網(wǎng)頁內容, processor 執(zhí)行預先編寫的python腳本,輸出結果或產(chǎn)生新的提鏈任務(發(fā)往 scheduler),形成閉環(huán)。
  • 3. 每個腳本可以靈活使用各種python庫對頁面進行解析,使用框架API控制下一步抓取動作,通過設置回調控制解析動作。

爬蟲pyspider提供一個異常強大的網(wǎng)頁界面(web ui),它允許你編輯和調試你的腳本,管理整個抓取過程,監(jiān)控正在進行的任務,并最終輸出結果。

項目和任務

在pyspider中,我們有項目和任務的概念。 一個任務指的是一個需要從網(wǎng)站檢索并進行分析的單獨頁面。 一個項目指的是一個更大的實體,它包括爬蟲涉及到的所有頁面,分析網(wǎng)頁所需要的python腳本,以及用于存儲數(shù)據(jù)的數(shù)據(jù)庫等等。 在pyspider中我們可以同時運行多個項目。

代碼結構分析

根目錄:在根目錄中可以找到的文件夾有:

?data,空文件夾,它是存放由爬蟲所生成的數(shù)據(jù)的地方。 ?docs,包含該項目文檔,里邊有一些markdown代碼。 ?pyspider,包含項目實際的代碼。 ?test,包含相當多的測試代碼。

這里重點介紹一些重要的文件:

?travis.yml, 一個很棒的、連續(xù)性測試的整合。你如何確定你的項目確實有效?畢竟僅在你自己的帶有固定版本的庫的機器上進行測試是不夠的。 ?Dockerfile,同樣很棒的工具!如果我想在我的機器上嘗試一個項目,我只需要運行Docker,我不需要手動安裝任何東西,這是一個使開發(fā)者參與到你的項目中的很好的方式。 ?LICENSE,對于任何開源項目都是必需的,(如果你自己有開源項目的話)不要忘記自己項目中的該文件。 ?requirements.txt,在Python世界中,該文件用于指明為了運行該軟件,需要在你的系統(tǒng)中安裝什么Python包,在任何的Python項目中該文件都是必須的。 ?run.py, 該軟件的主入口點。 ?setup.py,該文件是一個Python腳本,用于在你的系統(tǒng)中安裝pyspider項目。

分析完項目的根目錄了,僅根目錄就能說明該項目是以一種非常專業(yè)的方式進行開發(fā)的。如果你正在開發(fā)任何的開源程序,希望你能達到這樣的水準。

文件夾pyspider

讓我們更深入一點兒,一起來分析實際的代碼。 在這個文件夾中還能找到其他的文件夾,整個軟件背后的邏輯已經(jīng)被分割,以便更容易的進行管理和擴展。 這些文件夾是:database、fetcher、libs、processor、result、scheduler、webui。 在這個文件夾中我們也能找到整個項目的主入口點,run.py。

文件run.py

這個文件首先完成所有必需的雜事,以保證爬蟲成功地運行。最終它產(chǎn)生所有必需的計算單元。 向下滾動我們可以看到整個項目的入口點,cli()。

函數(shù)cli()

這個函數(shù)好像很復雜,但與我相隨,你會發(fā)現(xiàn)它并沒有你想象中復雜。 函數(shù)cli()的主要目的是創(chuàng)建數(shù)據(jù)庫和消息系統(tǒng)的所有連接。 它主要解析命令行參數(shù),并利用所有我們需要的東西創(chuàng)建一個大字典。 最后,我們通過調用函數(shù)all()開始真正的工作。

函數(shù)all()

一個網(wǎng)絡爬蟲會進行大量的IO操作,因此一個好的想法是產(chǎn)生不同的線程或子進程來管理所有的這些工作。 通過這種方式,你可以在等待網(wǎng)絡獲取你當前html頁面的同時,提取前一個頁面的有用信息。

函數(shù)all()決定是否運行子進程或者線程,然后調用不同的線程或子進程里的所有的必要函數(shù)。這時pyspider將產(chǎn)生包括webui在內的,爬蟲的所有邏輯模塊所需要的,足夠數(shù)量的線程。當我們完成項目并關閉webui時,我們將干凈漂亮地關閉每一個進程。

現(xiàn)在我們的爬蟲就開始運行了,讓我們進行更深入一點兒的探索。

調度程序

調度程序從兩個不同的隊列中獲取任務(newtask_queue和status_queue),并把任務加入到另外一個隊列(out_queue),這個隊列稍后會被抓取程序讀取。

調度程序做的第一件事情是從數(shù)據(jù)庫中加載所需要完成的所有的任務。之后,它開始一個無限循環(huán)。

def run(self):while not self._quit:try:time.sleep(self.LOOP_INTERVAL)self._update_projects()self._check_task_done()self._check_request()while self._check_cronjob():passself._check_select()self._check_delete()self._try_dump_cnt()self._exceptions = 0except KeyboardInterrupt:breakexcept Exception as e:logger.exception(e)self._exceptions += 1if self._exceptions > self.EXCEPTION_LIMIT:breakcontinue

在這個循環(huán)中會調用幾個方法:

1._update_projects():嘗試更新的各種設置,例如,我們想在爬蟲工作的時候調整爬取速度。 2._check_task_done():分析已完成的任務并將其保存到數(shù)據(jù)庫,它從status_queue中獲取任務。 3._check_request():如果內容處理程序要求分析更多的頁面,把這些頁面放在隊列newtask_queue中,該函數(shù)會從該隊列中獲得新的任務。 4._check_select():把新的網(wǎng)頁加入到抓取程序的隊列中。 5._check_delete():刪除已被用戶標記的任務和項目。 6._try_dump_cnt():記錄一個文件中已完成任務的數(shù)量。對于防止程序異常所導致的數(shù)據(jù)丟失,這是有必要的。

循環(huán)也會檢查運行過程中的異常,或者我們是否要求 python 停止處理。

finally:# exit components run in subprocessfor each in threads:if not each.is_alive():continueif hasattr(each, 'terminate'):each.terminate()each.join()

?

抓取程序

抓取程序的目的是檢索網(wǎng)絡資源。

pyspider能夠處理普通HTML文本頁面和基于AJAX的頁面。只有抓取程序能意識到這種差異,了解這一點非常重要。我們將僅專注于普通的html文本抓取,然而大部分的想法可以很容易地移植到Ajax抓取器。

這里的想法在某種形式上類似于調度程序,我們有分別用于輸入和輸出的兩個隊列,以及一個大的循環(huán)。對于輸入隊列中的所有元素,抓取程序生成一個請求,并將結果放入輸出隊列中。

它聽起來簡單但有一個大問題。網(wǎng)絡通常是極其緩慢的,如果因為等待一個網(wǎng)頁而阻止了所有的計算,那么整個過程將會運行的極其緩慢。解決方法非常的簡單,即不要在等待網(wǎng)絡的時候阻塞所有的計算。這個想法即在網(wǎng)絡上發(fā)送大量消息,并且相當一部分消息是同時發(fā)送的,然后異步等待響應的返回。一旦我們收回一個響應,我們將會調用另外的回調函數(shù),回調函數(shù)將會以最適合的方式管理這樣的響應。

爬蟲pyspider中的所有的復雜的異步調度都是由另一個優(yōu)秀的開源項目tornado完成。

現(xiàn)在我們的腦海里已經(jīng)有了極好的想法了,讓我們更深入地探索這是如何實現(xiàn)的。

def run(self):def queue_loop():if not self.outqueue or not self.inqueue:returnwhile not self._quit:try:if self.outqueue.full():breaktask = self.inqueue.get_nowait()task = utils.decode_unicode_obj(task)self.fetch(task)except queue.Empty:breaktornado.ioloop.PeriodicCallback(queue_loop, 100, io_loop=self.ioloop).start()self._running = Trueself.ioloop.start()

函數(shù)run()是抓取程序fetcher中的一個大的循環(huán)程序。

函數(shù)run()中定義了另外一個函數(shù)queue_loop(),該函數(shù)接收輸入隊列中的所有任務,并抓取它們。同時該函數(shù)也監(jiān)聽中斷信號。函數(shù)queue_loop()作為參數(shù)傳遞給tornado的類PeriodicCallback,如你所猜,PeriodicCallback會每隔一段具體的時間調用一次queue_loop()函數(shù)。函數(shù)queue_loop()也會調用另一個能使我們更接近于實際檢索Web資源操作的函數(shù):fetch()。
函數(shù)fetch(self, task, callback=None)

網(wǎng)絡上的資源必須使用函數(shù)phantomjs_fetch()或簡單的http_fetch()函數(shù)檢索,函數(shù)fetch()只決定檢索該資源的正確方法是什么。接下來我們看一下函數(shù)http_fetch()。

函數(shù)http_fetch(self, url, task, callback)

def http_fetch(self, url, task, callback):'''HTTP fetcher'''fetch = copy.deepcopy(self.default_options)fetch['url'] = urlfetch['headers']['User-Agent'] = self.user_agentdef handle_response(response):...return task, resulttry:request = tornado.httpclient.HTTPRequest(header_callback=header_callback, **fetch) if self.async:self.http_client.fetch(request, handle_response)else:return handle_response(self.http_client.fetch(request))

終于,這里才是完成真正工作的地方。這個函數(shù)的代碼有點長,但有清晰的結構,容易閱讀。

在函數(shù)的開始部分,它設置了抓取請求的header,比如User-Agent、超時timeout等等。然后定義一個處理響應response的函數(shù):handle_response(),后邊我們會分析這個函數(shù)。最后我們得到一個tornado的請求對象request,并發(fā)送這個請求對象。請注意在異步和非異步的情況下,是如何使用相同的函數(shù)來處理響應response的。

讓我們往回看一下,分析一下函數(shù)handle_response()做了什么。

函數(shù)handle_response(response)

def handle_response(response):result = {}result['orig_url'] = urlresult['content'] = response.body or ''callback('http', task, result)return task, result

這個函數(shù)以字典的形式保存一個response的所有相關信息,例如url,狀態(tài)碼和實際響應等,然后調用回調函數(shù)。這里的回調函數(shù)是一個小方法:send_result()。

函數(shù)send_result(self, type, task, result)

def send_result(self, type, task, result):if self.outqueue:self.outqueue.put((task, result))

這個最后的函數(shù)將結果放入到輸出隊列中,等待內容處理程序processor的讀取。

?

內容處理程序processor

內容處理程序的目的是分析已經(jīng)抓取回來的頁面。它的過程同樣也是一個大循環(huán),但輸出中有三個隊列(status_queue, newtask_queue 以及result_queue)而輸入中只有一個隊列(inqueue)。

讓我們稍微深入地分析一下函數(shù)run()中的循環(huán)過程。

函數(shù)run(self)

def run(self):try:task, response = self.inqueue.get(timeout=1)self.on_task(task, response)self._exceptions = 0except KeyboardInterrupt:breakexcept Exception as e:self._exceptions += 1if self._exceptions > self.EXCEPTION_LIMIT:breakcontinue

這個函數(shù)的代碼比較少,易于理解,它簡單地從隊列中得到需要被分析的下一個任務,并利用on_task(task, response)函數(shù)對其進行分析。這個循環(huán)監(jiān)聽中斷信號,只要我們給Python發(fā)送這樣的信號,這個循環(huán)就會終止。最后這個循環(huán)統(tǒng)計它引發(fā)的異常的數(shù)量,異常數(shù)量過多會終止這個循環(huán)。

函數(shù)on_task(self, task, response)

def on_task(self, task, response):response = rebuild_response(response)project = task['project']project_data = self.project_manager.get(project, updatetime)ret = project_data['instance'].run(status_pack = {'taskid': task['taskid'],'project': task['project'],'url': task.get('url'),...}self.status_queue.put(utils.unicode_obj(status_pack))if ret.follows:self.newtask_queue.put([utils.unicode_obj(newtask) for newtask in ret.follows])for project, msg, url in ret.messages:self.inqueue.put(({...},{...}))return True

函數(shù)on_task()是真正干活的方法。

它嘗試利用輸入的任務找到任務所屬的項目。然后它運行項目中的定制腳本。最后它分析定制腳本返回的響應response。如果一切順利,將會創(chuàng)建一個包含所有我們從網(wǎng)頁上得到的信息的字典。最后將字典放到隊列status_queue中,稍后它會被調度程序重新使用。

如果在分析的頁面中有一些新的鏈接需要處理,新鏈接會被放入到隊列newtask_queue中,并在稍后被調度程序使用。

現(xiàn)在,如果有需要的話,pyspider會將結果發(fā)送給其他項目。

最后如果發(fā)生了一些錯誤,像頁面返回錯誤,錯誤信息會被添加到日志中。

?

?

Scrapy

?

Scrapy是一個為了爬取網(wǎng)站數(shù)據(jù),提取結構性數(shù)據(jù)而編寫的應用框架。 可以應用在包括數(shù)據(jù)挖掘,信息處理或存儲歷史數(shù)據(jù)等一系列的程序中。
其最初是為了頁面抓取 (更確切來說, 網(wǎng)絡抓取 )所設計的, 也可以應用在獲取API所返回的數(shù)據(jù)(例如 Amazon Associates Web Services ) 或者通用的網(wǎng)絡爬蟲。Scrapy用途廣泛,可以用于數(shù)據(jù)挖掘、監(jiān)測和自動化測試

Scrapy 使用了 Twisted?異步網(wǎng)絡庫來處理網(wǎng)絡通訊。整體架構大致如下

?

Scrapy主要包括了以下組件:

  • 1. 引擎(Scrapy): 用來處理整個系統(tǒng)的數(shù)據(jù)流處理, 觸發(fā)事務(框架核心)
  • 2. 調度器(Scheduler): 用來接受引擎發(fā)過來的請求, 壓入隊列中, 并在引擎再次請求的時候返回. 可以想像成一個URL(抓取網(wǎng)頁的網(wǎng)址或者說是鏈接)的優(yōu)先隊列, 由它來決定下一個要抓取的網(wǎng)址是什么, 同時去除重復的網(wǎng)址
  • 3. 下載器(Downloader): 用于下載網(wǎng)頁內容, 并將網(wǎng)頁內容返回給蜘蛛(Scrapy下載器是建立在twisted這個高效的異步模型上的)
  • 4. 爬蟲(Spiders): 爬蟲是主要干活的, 用于從特定的網(wǎng)頁中提取自己需要的信息, 即所謂的實體(Item)。用戶也可以從中提取出鏈接,讓Scrapy繼續(xù)抓取下一個頁面
  • 5. 項目管道(Pipeline): 負責處理爬蟲從網(wǎng)頁中抽取的實體,主要的功能是持久化實體、驗證實體的有效性、清除不需要的信息。當頁面被爬蟲解析后,將被發(fā)送到項目管道,并經(jīng)過幾個特定的次序處理數(shù)據(jù)。
  • 6. 下載器中間件(Downloader Middlewares): 位于Scrapy引擎和下載器之間的框架,主要是處理Scrapy引擎與下載器之間的請求及響應。
  • 7. 爬蟲中間件(Spider Middlewares): 介于Scrapy引擎和爬蟲之間的框架,主要工作是處理蜘蛛的響應輸入和請求輸出。
  • 8. 調度中間件(Scheduler Middewares): 介于Scrapy引擎和調度之間的中間件,從Scrapy引擎發(fā)送到調度的請求和響應。

Scrapy運行流程大概如下:

  • 1. 首先,引擎從調度器中取出一個鏈接(URL)用于接下來的抓取
  • 2. 引擎把URL封裝成一個請求(Request)傳給下載器,下載器把資源下載下來,并封裝成應答包(Response)
  • 3. 然后,爬蟲解析Response
  • 4. 若是解析出實體(Item),則交給實體管道進行進一步的處理。
  • 5. 若是解析出的是鏈接(URL),則把URL交給Scheduler等待抓取

?

安裝

?

1. pip。首先確保你已經(jīng)安裝了pip,若沒有安裝,請參照 pip安裝

2. phantomjs。PhantomJS 是一個基于 WebKit 的服務器端 JavaScript API。它全面支持web而不需瀏覽器支持,其快速、原生支持各種Web標準:DOM 處理、CSS 選擇器、JSON、Canvas 和 SVG。 PhantomJS 可以用于頁面自動化、網(wǎng)絡監(jiān)測、網(wǎng)頁截屏以及無界面測試等。phantomjs安裝

3. pyspider。直接利用 pip 安裝即可:pip install pyspider。如果你是 Ubuntu 用戶,請?zhí)崆鞍惭b好以下支持類庫

sudo apt-get install python python-dev python-distribute python-pip libcurl4-openssl-dev libxml2-dev libxslt1-dev python-lxml

4. 測試。如果安裝過程沒有提示任何錯誤,那就證明一些OK。命令行輸入:pyspider all (這句命令的意思是,運行 pyspider 并 啟動它的所有組件。)。然后瀏覽器訪問 http://localhost:5000 觀察一下效果,如果可以正常出現(xiàn) PySpider 的頁面,那證明一切OK,在此附圖一張,這是我寫了幾個爬蟲之后的界面。

接下來我會進一步介紹這個框架的使用。

?

?

PySpider的用法

?

1. 抓取淘寶MM照片

PySpider 是一個非常方便并且功能強大的爬蟲框架,支持多線程爬取、JS動態(tài)解析,提供了可操作界面、出錯重試、定時爬取等等的功能,使用非常人性化。

爬取目標網(wǎng)站:https://mm.taobao.com/json/request_top_list.htm?page=1,大家打開之后可以看到許多淘寶MM的列表。

列表有多少?

https://mm.taobao.com/json/request_top_list.htm?page=10000,第10000頁都有,看你想要多少。我什么也不知道。

隨機點擊一位 MM 的姓名,可以看到她的基本資料。

可以看到圖中有一個個性域名,我們復制到瀏覽器打開。mm.taobao.com/tyy6160

嗯,往下拖,海量的 MM 圖片都在這里了,怎么辦你懂得,我們要把她們的照片和個人信息都存下來。

P.S. 注意圖中進度條!你猜有多少圖片~

安裝成功之后,跟我一步步地完成一個網(wǎng)站的抓取,你就會明白 PySpider 的基本用法了。

命令行下執(zhí)行:pyspider all。這句命令的意思是,運行 pyspider 并 啟動它的所有組件。

可以發(fā)現(xiàn)程序已經(jīng)正常啟動,并在 5000 這個端口運行。接下來在瀏覽器中輸入 http://localhost:5000,可以看到 PySpider 的主界面,點擊右下角的 Create,命名為 taobaomm,當然名稱你可以隨意取,繼續(xù)點擊 Create。

這樣我們會進入到一個爬取操作的頁面。

?

整個頁面分為兩欄,左邊是爬取頁面預覽區(qū)域,右邊是代碼編寫區(qū)域。下面對區(qū)塊進行說明:

左側綠色區(qū)域:這個請求對應的 JSON 變量,在 PySpider 中,其實每個請求都有與之對應的 JSON 變量,包括回調函數(shù),方法名,請求鏈接,請求數(shù)據(jù)等等。

綠色區(qū)域右上角Run:點擊右上角的 run 按鈕,就會執(zhí)行這個請求,可以在左邊的白色區(qū)域出現(xiàn)請求的結果。

左側 enable css selector helper: 抓取頁面之后,點擊此按鈕,可以方便地獲取頁面中某個元素的 CSS 選擇器。

左側 web: 即抓取的頁面的實時預覽圖。

左側 html: 抓取頁面的 HTML 代碼。

左側 follows: 如果當前抓取方法中又新建了爬取請求,那么接下來的請求就會出現(xiàn)在 follows 里。

左側 messages: 爬取過程中輸出的一些信息。

右側代碼區(qū)域: 你可以在右側區(qū)域書寫代碼,并點擊右上角的 Save 按鈕保存。

右側 WebDAV Mode: 打開調試模式,左側最大化,便于觀察調試。

依然是上面那個網(wǎng)址,https://mm.taobao.com/json/request_top_list.htm?page=1,其中 page 參數(shù)代表頁碼。所以我們暫時抓取前 30 頁。頁碼到最后可以隨意調整。

首先我們定義基地址,然后定義爬取的頁碼和總頁碼。

from pyspider.libs.base_handler import *class Handler(BaseHandler):crawl_config = {}def __init__(self):self.base_url = 'https://mm.taobao.com/json/request_top_list.htm?page='self.page_num = 1self.total_num = 30@every(minutes=24 * 60)def on_start(self):while self.page_num <= self.total_num:url = self.base_url + str(self.page_num)print urlself.crawl(url, callback=self.index_page)self.page_num += 1@config(age=10 * 24 * 60 * 60)def index_page(self, response):for each in response.doc('a[href^="http"]').items():self.crawl(each.attr.href, callback=self.detail_page)@config(priority=2)def detail_page(self, response):return {"url": response.url,"title": response.doc('title').text(),}

點擊 save 保存代碼,然后點擊左邊的 run,運行代碼。

運行后我們會發(fā)現(xiàn) follows 出現(xiàn)了 30 這個數(shù)字,說明我們接下來有 30 個新請求,點擊可查看所有爬取列表。另外控制臺也有輸出,將所有要爬取的 URL 打印了出來。

然后我們點擊左側任意一個綠色箭頭,可以繼續(xù)爬取這個頁面。例如點擊第一個 URL,來爬取這個 URL

點擊之后,再查看下方的 web 頁面,可以預覽實時頁面,這個頁面被我們爬取了下來,并且回調到 index_page 函數(shù)來處理,目前 index_page 函數(shù)我們還沒有處理,所以是繼續(xù)構件了所有的鏈接請求。

好,接下來我們怎么辦?當然是進入到 MM 到個人頁面去爬取了。

爬取到了 MM 的列表,接下來就要進入到 MM 詳情頁了,修改 index_page 方法。

def index_page(self, response):for each in response.doc('.lady-name').items():self.crawl(each.attr.href, callback=self.detail_page)

其中 response 就是剛才爬取的列表頁,response 其實就相當于列表頁的 html 代碼,利用 doc 函數(shù),其實是調用了 PyQuery,用 CSS 選擇器得到每一個MM的鏈接,然后重新發(fā)起新的請求。比如,我們這里拿到的 each.attr.href 可能是 mm.taobao.com/self/model_card.htm?user_id=687471686,在這里繼續(xù)調用了 crawl 方法,代表繼續(xù)抓取這個鏈接的詳情。

self.crawl(each.attr.href, callback=self.detail_page)

然后回調函數(shù)就是 detail_page,爬取的結果會作為 response 變量傳過去。detail_page 接到這個變量繼續(xù)下面的分析。

好,我們繼續(xù)點擊 run 按鈕,開始下一個頁面的爬取。得到的結果是這樣的。

哦,有些頁面沒有加載出來,這是為什么?在之前的文章說過,這個頁面比較特殊,右邊的頁面使用 JS 渲染生成的,而普通的抓取是不能得到 JS 渲染后的頁面的,這可麻煩了。然而,幸運的是,PySpider 提供了動態(tài)解析 JS 的機制。

友情提示:可能有的小伙伴不知道 PhantomJS,可以參考:Python爬蟲利器五之Selenium的用法

如果已經(jīng)裝好了 PhantomJS,這時候就輪到它來出場了。在最開始運行 PySpider 的時候,使用了pyspider all命令,這個命令是把 PySpider 所有的組件啟動起來,其中也包括 PhantomJS。

所以我們代碼怎么改呢?很簡單。

def index_page(self, response):for each in response.doc('.lady-name').items():self.crawl(each.attr.href, callback=self.detail_page, fetch_type='js')

只是簡單地加了一個 fetch_type=’js’,點擊綠色的返回箭頭,重新運行一下。可以發(fā)現(xiàn),頁面已經(jīng)被我們成功加載出來了,簡直不能更帥!

看下面的個性域名,所有我們需要的 MM 圖片都在那里面了,所以我們需要繼續(xù)抓取這個頁面。

好,繼續(xù)修改 detail_page 方法,然后增加一個 domain_page 方法,用來處理每個 MM 的個性域名。

def detail_page(self, response):domain = 'https:' + response.doc('.mm-p-domain-info li > span').text()print domainself.crawl(domain, callback=self.domain_page)def domain_page(self, response):pass

好,繼續(xù)重新 run,預覽一下頁面,終于,我們看到了 MM 的所有圖片。

照片都有了,那么我們就偷偷地下載下來吧~。完善 domain_page 代碼,實現(xiàn)保存簡介和遍歷保存圖片的方法。

在這里,PySpider 有一個特點,所有的 request 都會保存到一個隊列中,并具有去重和自動重試機制。所以,我們最好的解決方法是,把每張圖片的請求都寫成一個 request,然后成功后用文件寫入即可,這樣會避免圖片加載不全的問題。

曾經(jīng)在之前文章寫過圖片下載和文件夾創(chuàng)建的過程,在這里就不多贅述原理了,直接上寫好的工具類,后面會有完整代碼。

import osclass Deal:def __init__(self):self.path = DIR_PATHif not self.path.endswith('/'):self.path = self.path + '/'if not os.path.exists(self.path):os.makedirs(self.path)def mkDir(self, path):path = path.strip()dir_path = self.path + pathexists = os.path.exists(dir_path)if not exists:os.makedirs(dir_path)return dir_pathelse:return dir_pathdef saveImg(self, content, path):f = open(path, 'wb')f.write(content)f.close()def saveBrief(self, content, dir_path, name):file_name = dir_path + "/" + name + ".txt"f = open(file_name, "w+")f.write(content.encode('utf-8'))def getExtension(self, url):extension = url.split('.')[-1]return extension

這里面包含了四個方法。

mkDir:創(chuàng)建文件夾,用來創(chuàng)建 MM 名字對應的文件夾。 saveBrief: 保存簡介,保存 MM 的文字簡介。 saveImg: 傳入圖片二進制流以及保存路徑,存儲圖片。 getExtension: 獲得鏈接的后綴名,通過圖片 URL 獲得。

然后在 domain_page 中具體實現(xiàn)如下

def domain_page(self, response):name = response.doc('.mm-p-model-info-left-top dd > a').text()dir_path = self.deal.mkDir(name)brief = response.doc('.mm-aixiu-content').text()if dir_path:imgs = response.doc('.mm-aixiu-content img').items()count = 1self.deal.saveBrief(brief, dir_path, name)for img in imgs:url = img.attr.srcif url:extension = self.deal.getExtension(url)file_name = name + str(count) + '.' + extensioncount += 1self.crawl(img.attr.src, callback=self.save_img,save={'dir_path': dir_path, 'file_name': file_name})def save_img(self, response):content = response.contentdir_path = response.save['dir_path']file_name = response.save['file_name']file_path = dir_path + '/' + file_nameself.deal.saveImg(content, file_path)

以上方法首先獲取了頁面的所有文字,然后調用了 saveBrief 方法存儲簡介。

然后遍歷了 MM 所有的圖片,并通過鏈接獲取后綴名,和 MM 的姓名以及自增計數(shù)組合成一個新的文件名,調用 saveImg 方法保存圖片。

基本的東西都寫好了。接下來。繼續(xù)完善一下代碼。第一版本完成。

版本一功能:按照淘寶MM姓名分文件夾,存儲MM的 txt 文本簡介以及所有美圖至本地。

可配置項:

PAGE_START: 列表開始頁碼 PAGE_END: 列表結束頁碼 DIR_PATH: 資源保存路徑

代碼:

#!/usr/bin/env python # -*- encoding: utf-8 -*- # Created on 2016-03-25 00:59:45 # Project: taobaommfrom pyspider.libs.base_handler import *PAGE_START = 1 PAGE_END = 30 DIR_PATH = '/var/py/mm'class Handler(BaseHandler):crawl_config = {}def __init__(self):self.base_url = 'https://mm.taobao.com/json/request_top_list.htm?page='self.page_num = PAGE_STARTself.total_num = PAGE_ENDself.deal = Deal()def on_start(self):while self.page_num <= self.total_num:url = self.base_url + str(self.page_num)self.crawl(url, callback=self.index_page)self.page_num += 1def index_page(self, response):for each in response.doc('.lady-name').items():self.crawl(each.attr.href, callback=self.detail_page, fetch_type='js')def detail_page(self, response):domain = response.doc('.mm-p-domain-info li > span').text()if domain:page_url = 'https:' + domainself.crawl(page_url, callback=self.domain_page)def domain_page(self, response):name = response.doc('.mm-p-model-info-left-top dd > a').text()dir_path = self.deal.mkDir(name)brief = response.doc('.mm-aixiu-content').text()if dir_path:imgs = response.doc('.mm-aixiu-content img').items()count = 1self.deal.saveBrief(brief, dir_path, name)for img in imgs:url = img.attr.srcif url:extension = self.deal.getExtension(url)file_name = name + str(count) + '.' + extensioncount += 1self.crawl(img.attr.src, callback=self.save_img,save={'dir_path': dir_path, 'file_name': file_name})def save_img(self, response):content = response.contentdir_path = response.save['dir_path']file_name = response.save['file_name']file_path = dir_path + '/' + file_nameself.deal.saveImg(content, file_path)import osclass Deal:def __init__(self):self.path = DIR_PATHif not self.path.endswith('/'):self.path = self.path + '/'if not os.path.exists(self.path):os.makedirs(self.path)def mkDir(self, path):path = path.strip()dir_path = self.path + pathexists = os.path.exists(dir_path)if not exists:os.makedirs(dir_path)return dir_pathelse:return dir_pathdef saveImg(self, content, path):f = open(path, 'wb')f.write(content)f.close()def saveBrief(self, content, dir_path, name):file_name = dir_path + "/" + name + ".txt"f = open(file_name, "w+")f.write(content.encode('utf-8'))def getExtension(self, url):extension = url.split('.')[-1]return extension

粘貼到你的 PySpider 中運行吧~。其中有一些知識點,我會在后面作詳細的用法總結。大家可以先體會一下代碼。

保存之后,點擊下方的 run,你會發(fā)現(xiàn),海量的 MM 圖片已經(jīng)涌入你的電腦啦~

項目代碼:

TaobaoMM – GitHub

?

?

?

pyspider 爬蟲教程

?

From:?https://segmentfault.com/a/1190000002477863

?

(一):HTML 和 CSS 選擇器

?

在 教程一 中,我們將要爬取的網(wǎng)站是豆瓣電影:http://movie.douban.com/

你可以在:?http://demo.pyspider.org/debug/tutorial_douban_movie?獲得完整的代碼,和進行測試。

開始之前

由于教程是基于 pyspider 的,你可以安裝一個 pyspider(Quickstart,也可以直接使用 pyspider 的 demo 環(huán)境:?http://demo.pyspider.org/。

你還應該至少對萬維網(wǎng)是什么有一個簡單的認識:

  • 萬維網(wǎng)是一個由許多互相鏈接的超文本頁面(以下簡稱網(wǎng)頁)組成的系統(tǒng)。
  • 網(wǎng)頁使用網(wǎng)址(URL)定位,并鏈接彼此
  • 網(wǎng)頁使用?HTTP?協(xié)議傳輸
  • 網(wǎng)頁使用?HTML?描述外觀和語義

所以,爬網(wǎng)頁實際上就是:

  • 找到包含我們需要的信息的網(wǎng)址(URL)列表
  • 通過 HTTP 協(xié)議把頁面下載回來
  • 從頁面的 HTML 中解析出需要的信息
  • 找到更多這個的 URL,回到 2 繼續(xù)
  • ?

    選取一個開始網(wǎng)址

    既然我們要爬所有的電影,首先我們需要抓一個電影列表,一個好的列表應該:

    • 包含足夠多的電影的 URL
    • 通過翻頁,可以遍歷到所有的電影
    • 一個按照更新時間排序的列表,可以更快抓到最新更新的電影

    我們在?http://movie.douban.com/?掃了一遍,發(fā)現(xiàn)并沒有一個列表能包含所有電影,只能退而求其次,通過抓取分類下的所有的標簽列表頁,來遍歷所有的電影:?http://movie.douban.com/tag/

    ?

    創(chuàng)建一個項目

    在 pyspider 的 dashboard 的右下角,點擊 "Create" 按鈕

    替換?on_start?函數(shù)的?self.crawl?的 URL:

    @every(minutes=24 * 60) def on_start(self):self.crawl('http://movie.douban.com/tag/', callback=self.index_page)
    • self.crawl?告訴 pyspider 抓取指定頁面,然后使用?callback?函數(shù)對結果進行解析。
    • @every?修飾器,表示?on_start?每天會執(zhí)行一次,這樣就能抓到最新的電影了。

    點擊綠色的?run?執(zhí)行,你會看到?follows?上面有一個紅色的 1,切換到?follows?面板,點擊綠色的播放按鈕:

    ?

    Tag 列表頁

    在?tag 列表頁?中,我們需要提取出所有的 電影列表頁 的 URL。你可能已經(jīng)發(fā)現(xiàn)了,sample handler 已經(jīng)提取了非常多大的 URL,所有,一種可行的提取列表頁 URL 的方法就是用正則從中過濾出來:

    import re ...@config(age=10 * 24 * 60 * 60)def index_page(self, response):for each in response.doc('a[href^="http"]').items():if re.match("http://movie.douban.com/tag/\w+", each.attr.href, re.U):self.crawl(each.attr.href, callback=self.list_page)
    • 由于 電影列表頁和 tag列表頁長的并不一樣,在這里新建了一個?callback?為?self.list_page
    • @config(age=10 * 24 * 60 * 60)?在這表示我們認為 10 天內頁面有效,不會再次進行更新抓取

    由于 pyspider 是純 Python 環(huán)境,你可以使用 Python 強大的內置庫,或者你熟悉的第三方庫對頁面進行解析。不過更推薦使用 CSS選擇器。

    ?

    電影列表頁

    再次點擊?run?讓我們進入一個電影列表頁(list_page)。在這個頁面中我們需要提取:

    • 電影的鏈接,例如,http://movie.douban.com/subject/1292052/
    • 下一頁的鏈接,用來翻頁

    CSS選擇器

    CSS選擇器,顧名思義,是?CSS?用來定位需要設置樣式的元素 所使用的表達式。既然前端程序員都使用 CSS選擇器 為頁面上的不同元素設置樣式,我們也可以通過它定位需要的元素。你可以在?CSS 選擇器參考手冊?這里學習更多的 CSS選擇器 語法。

    在 pyspider 中,內置了?response.doc?的?PyQuery?對象,讓你可以使用類似 jQuery 的語法操作 DOM 元素。你可以在?PyQuery?的頁面上找到完整的文檔。

    CSS Selector Helper

    在 pyspider 中,還內置了一個?CSS Selector Helper,當你點擊頁面上的元素的時候,可以幫你生成它的 CSS選擇器 表達式。你可以點擊?Enable CSS selector helper?按鈕,然后切換到?web?頁面:

    ?

    ?

    開啟后,鼠標放在元素上,會被黃色高亮,點擊后,所有擁有相同 CSS選擇器 表達式的元素會被高亮。表達式會被插入到 python 代碼當前光標位置。創(chuàng)建下面的代碼,將光標停留在單引號中間:

    def list_page(self, response):for each in response.doc('').items():

    點擊一個電影的鏈接,CSS選擇器 表達式將會插入到你的代碼中,如此重復,插入翻頁的鏈接:

    def list_page(self, response):for each in response.doc('HTML>BODY>DIV#wrapper>DIV#content>DIV.grid-16-8.clearfix>DIV.article>DIV>TABLE TR.item>TD>DIV.pl2>A').items():self.crawl(each.attr.href, callback=self.detail_page)# 翻頁for each in response.doc('HTML>BODY>DIV#wrapper>DIV#content>DIV.grid-16-8.clearfix>DIV.article>DIV.paginator>A').items():self.crawl(each.attr.href, callback=self.list_page)
    • 翻頁是一個到自己的?callback?回調

    電影詳情頁

    再次點擊?run,follow 到詳情頁。使用?css selector helper?分別添加電影標題,打分和導演:

    def detail_page(self, response):return {"url": response.url,"title": response.doc('HTML>BODY>DIV#wrapper>DIV#content>H1>SPAN').text(),"rating": response.doc('HTML>BODY>DIV#wrapper>DIV#content>DIV.grid-16-8.clearfix>DIV.article>DIV.indent.clearfix>DIV.subjectwrap.clearfix>DIV#interest_sectl>DIV.rating_wrap.clearbox>P.rating_self.clearfix>STRONG.ll.rating_num').text(),"導演": [x.text() for x in response.doc('a[rel="v:directedBy"]').items()],}

    注意,你會發(fā)現(xiàn)?css selector helper?并不是總是能提取到合適的 CSS選擇器 表達式。你可以在?Chrome Dev Tools?的幫助下,寫一個合適的表達式:

    右鍵點擊需要提取的元素,點擊審查元素。你并不需要像自動生成的表達式那樣寫出所有的祖先節(jié)點,只要寫出那些能區(qū)分你不需要的元素的關鍵節(jié)點的屬性就可以了。不過這需要抓取和網(wǎng)頁前端的經(jīng)驗。所以,學習抓取的最好方法就是學會這個頁面/網(wǎng)站是怎么寫的。

    你也可以在 Chrome Dev Tools 的 Javascript Console 中,使用?$$(a[rel="v:directedBy"])?測試 CSS Selector。

    開始抓取

  • 使用?run?單步調試你的代碼,對于用一個?callback?最好使用多個頁面類型進行測試。然后保存。
  • 回到 Dashboard,找到你的項目
  • 將?status?修改為?DEBUG?或?RUNNING
  • 按?run?按鈕
  • ?

    ?

    ?

    (二):AJAX 和 HTTP

    ?

    From:?https://segmentfault.com/a/1190000002477870

    在上面教程中,用?self.crawl?API 抓取豆瓣電影的 HTML 內容,并使用 CSS 選擇器解析了一些內容。不過,現(xiàn)在的網(wǎng)站通過使用?AJAX?等技術,在你與服務器交互的同時,不用重新加載整個頁面。但是,這些交互手段,讓抓取變得稍微難了一些:你會發(fā)現(xiàn),這些網(wǎng)頁在抓回來后,和瀏覽器中的并不相同。你需要的信息并不在返回 HTML 代碼中。

    在這一篇教程中,我們會討論這些技術 和 抓取他們的方法。(英文版:AJAX-and-more-HTTP

    ?

    AJAX

    AJAX?是 Asynchronous JavaScript and XML(異步的 JavaScript 和 XML)的縮寫。AJAX 通過使用原有的 web 標準組件,實現(xiàn)了在不重新加載整個頁面的情況下,與服務器進行數(shù)據(jù)交互。例如在新浪微博中,你可以展開一條微博的評論,而不需要重新加載,或者打開一個新的頁面。但是這些內容并不是一開始就在頁面中的(這樣頁面就太大了),而是在你點擊的時候被加載進來的。這就導致了你抓取這個頁面的時候,并不能獲得這些評論信息(因為你沒有『展開』)。

    AJAX?的一種常見用法是使用?AJAX?加載?JSON?數(shù)據(jù),然后在瀏覽器端渲染。如果能直接抓取到?JSON?數(shù)據(jù),會比 HTML 更容易解析。

    當一個網(wǎng)站使用了 AJAX 的時候,除了用 pyspider 抓取到的頁面和瀏覽器看到的不同以外。你在瀏覽器中打開這樣的頁面,或者點擊『展開』的時候,常常會看到『加載中』或者類似的圖標/動畫。例如,當你嘗試抓取:http://movie.douban.com/explore

    ?

    你會發(fā)現(xiàn)電影是『載入中...』

    ?

    找到真實的請求

    由于 AJAX 實際上也是通過 HTTP 傳輸數(shù)據(jù)的,所以我們可以通過?Chrome Developer Tools?找到真實的請求,直接發(fā)起真實請求的抓取就可以獲得數(shù)據(jù)了。

  • 打開一個新窗口
  • 按?Ctrl+Shift+I?(在 Mac 上請按?Cmd+Opt+I) 打開開發(fā)者工具。
  • 切換到網(wǎng)絡( Netwotk 面板)
  • 在窗口中打開?http://movie.douban.com/explore
  • 在頁面加載的過程中,你會在面板中看到所有的資源請求。

    AJAX 一般是通過?XMLHttpRequest?對象接口發(fā)送請求的,XMLHttpRequest 一般被縮寫為 XHR。點擊網(wǎng)絡面板上漏斗形的過濾按鈕,過濾出 XHR 請求。挨個查看每個請求,通過訪問路徑和預覽,找到包含信息的請求:http://movie.douban.com/j/searchX61Xsubjects?type=movie&tag=%E7%83%AD%E9%97%A8&sort=recommend&page_limit=20&page_start=0

    ?

    在豆瓣這個例子中,XHR 請求并不多,可以挨個查看來確認。但在 XHR 請求較多的時候,可能需要結合觸發(fā)動作的時間,請求的路徑等信息幫助在大量的請求中找到包含信息的關鍵請求。這需要抓取或者前端的相關經(jīng)驗。所以,有一個我一直在提的觀點,學習抓取的最好方法是:學會寫網(wǎng)站。

    現(xiàn)在可以在新窗口中打開?http://movie.douban.com/j/searchX67Xsubjects?type=movie&tag=%E7%83%AD%E9%97%A8&sort=recommend&page_limit=20&page_start=0,你會看到包含電影數(shù)據(jù)的?JSON?原始數(shù)據(jù)。推薦安裝?JSONView(Firfox版)插件,這樣可以看到更好看的 JSON 格式,展開折疊列等功能。然后,我們根據(jù)?JSON?數(shù)據(jù),編寫一個提取電影名和評分的腳本:

    class Handler(BaseHandler):def on_start(self):self.crawl('http://movie.douban.com/j/search_subjects?type=movie&tag=%E7%83%AD%E9%97%A8&sort=recommend&page_limit=20&page_start=0',callback=self.json_parser)def json_parser(self, response):return [{"title": x['title'],"rate": x['rate'],"url": x['url']} for x in response.json['subjects']]
    • 你可以使用?response.json?將結果轉為一個 python 的?dict?對象

    你可以在?http://demo.pyspider.org/debug/tutorial_douban_explore?獲得完整的代碼,并進行調試。腳本中還有一個使用?PhantomJS?渲染的提取版本,將會在下一篇教程中介紹。

    ?

    HTTP

    HTTP?是用來傳輸網(wǎng)頁內容的協(xié)議。在前面已經(jīng)通過?self.crawl?接口提交了 URL 進行了抓取。這些抓取就是通過 HTTP 協(xié)議傳輸?shù)摹?/p>

    在抓取過程中,你可能會遇到類似?403 Forbidden,或者需要登錄的情況,這時候你就需要正確的 HTTP 參數(shù)進行抓取了。

    一個典型的 HTTP 請求包如下,這個請求是發(fā)往?http://example.com/?的:

    GET / HTTP/1.1 Host: example.com Connection: keep-alive Cache-Control: max-age=0 Accept: text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8 User-Agent: Mozilla/5.0 (Macintosh; Intel Mac OS X 10_10_1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/40.0.2214.45 Safari/537.36 Referer: http://en.wikipedia.org/wiki/Example.com Accept-Encoding: gzip, deflate, sdch Accept-Language: zh-CN,zh;q=0.8 If-None-Match: "359670651" If-Modified-Since: Fri, 09 Aug 2013 23:54:35 GMT
    • 請求的第一行包含?method,?path?和 HTTP 協(xié)議的版本信息
    • 余下的行被稱為 header,是以?key: value?的形式呈現(xiàn)的
    • 如果是 POST 請求,在請求結尾可能還會有?body?內容

    你可以通過前面用過的?Chrome Developer Tools?工具查看到這些信息:

    ?

    ?

    在大多數(shù)時候,使用正確的?method,?path,?headers?和?body?總是能抓取到你需要的信息的。

    HTTP Method

    HTTP Method?告訴服務器對 URL 資源期望進行的操作。例如在打開一個 URL 的時候使用的是 GET 方式,而在提交數(shù)據(jù)的時候一般使用 POST。

    TODO: need example here

    HTTP Headers

    HTTP Headers 是請求所帶的一個參數(shù)列表,你可以在?這里?找到完整的常用 Headers 列表。一些常用的需要注意的有:

    User-Agent

    UA 是標識你使用的瀏覽器,或抓取程序的一段字符串。pyspider 使用的默認 UA 是?pyspider/VERSION (+http://pyspider.org/)。網(wǎng)站常用這個字符串來區(qū)分用戶的操作系統(tǒng)和瀏覽器,以及判斷對方是否是爬蟲。所以在抓取的時候,常常會對 UA 進行偽裝。

    在 pyspider 中,你可以通過?self.crawl(URL, headers={'User-Agent': 'pyspider'}),或者是?crawl_config = {'headers': {'User-Agent': 'xxxx'}}?來指定腳本級別的 UA。詳細請查看?API 文檔。

    Referer

    Referer 用于告訴服務器,你訪問的上一個網(wǎng)頁是什么。常常被用于防盜鏈,在抓取圖片的時候可能會用到。

    X-Requested-With

    當使用 XHR 發(fā)送 AJAX 請求時會帶上的 Header,常被用于判斷是不是 AJAX 請求。例如在?北郵人論壇?中,你需要:

    def on_start(self):self.crawl('http://bbs.byr.cn/board/Python', headers={'X-Requested-With': 'XMLHttpRequest'}, callback=self.index_page)

    帶有?headers={'X-Requested-With': 'XMLHttpRequest'}?才能抓取到內容。

    HTTP Cookie

    雖然?Cookie?只是 HTTP Header 中的一個,但是因為非常重要,但是拿出來說一下。Cookie?被 HTTP 請求用來區(qū)分、追蹤用戶的身份,當你在一個網(wǎng)站登錄的時候,就是通過寫入?Cookie?字段來記錄登錄狀態(tài)的。

    當遇到需要登錄的網(wǎng)站,你需要通過設置 Cookie 參數(shù),來請求需要登錄的內容。Cookie 可以通過開發(fā)者工具的請求面板,或者是資源面板中獲得。在 pyspider 中,你也可以使用?response.cookies?獲得返回的 cookie,并使用?self.crawl(URL, cookie={'key': 'value'})?來設置請求的 Cookie 參數(shù)。

    ?

    ?

    (三):使用 PhantomJS 渲染帶 JS 的頁面

    ?

    在上兩篇教程中,我們學習了怎么從 HTML 中提取信息,也學習了怎么處理一些請求復雜的頁面。但是有一些頁面,它實在太復雜了,無論是分析 API 請求的地址,還是渲染時進行了加密,讓直接抓取請求非常麻煩。這時候就是?PhantomJS?大顯身手的時候了。

    在使用?PhantomJS?之前,你需要安裝它(安裝文檔)。當你安裝了之后,在運行?all?模式的 pyspider 時就會自動啟用了。當然,你也可以在?demo.pyspider.org?上嘗試。

    使用 PhantomJS

    當 pyspider 連上 PhantomJS 代理后,你就能通過在?self.crawl?中添加?fetch_type='js'?的參數(shù),開啟使用 PhantomJS 抓取。例如,在教程二中,我們嘗試抓取的?http://movie.douban.com/explore?就可以通過 PhantomJS 直接抓取:

    class Handler(BaseHandler):def on_start(self):self.crawl('http://movie.douban.com/explore',fetch_type='js', callback=self.phantomjs_parser)def phantomjs_parser(self, response):return [{"title": "".join(s for s in x('p').contents() if isinstance(s, basestring)).strip(),"rate": x('p strong').text(),"url": x.attr.href,} for x in response.doc('a.item').items()]
    • 我在這里使用了一些 PyQuery 的 API,你可以在?PyQuery complete API?獲得完整的 API 手冊。

    在頁面上執(zhí)行自定義腳本

    你會發(fā)現(xiàn),在上面我們使用?PhantomJS?抓取的豆瓣熱門電影只有 20 條。當你點擊『加載更多』時,能獲得更多的熱門電影。為了獲得更多的電影,我們可以使用?self.crawl?的?js_script?參數(shù),在頁面上執(zhí)行一段腳本,點擊加載更多:

    def on_start(self):self.crawl('http://movie.douban.com/explore#more',fetch_type='js', js_script="""function() {setTimeout("$('.more').click()", 1000);}""", callback=self.phantomjs_parser)
    • 這個腳本默認在頁面加載結束后執(zhí)行,你可以通過?js_run_at?參數(shù)?修改這個行為
    • 由于是 AJAX 異步加載的,在頁面加載完成時,第一頁的電影可能還沒有加載完,所以我們用?setTimeout?延遲 1 秒執(zhí)行。
    • 你可以間隔一定時間,多次點擊,這樣可以加載更多頁。
    • 由于相同 URL (實際是相同 taskid) 的任務會被去重,所以這里為 URL 加了一個?#more

    上面兩個例子,都可以在?http://demo.pyspider.org/debug/tutorial_douban_explore?中找到。

    ?

    ?

    漫談Pyspider網(wǎng)絡爬蟲的實踐

    轉載地址

    為什么是Python

    寫網(wǎng)絡爬蟲的語言有很多,編程的語言更多。個人認為Python是一種工具型的語言,上手快,語法簡單(相比于C/C++/JAVA族),各種功能庫豐富而且小巧單一(每個獨立的庫只做一件事情),所以編程就像是在玩樂高積木,照著自己設計好的流程,拼接就行了。當然,這是筆者個人的經(jīng)驗和喜好。如果你有自己擅長并喜歡的,大可用自己的去實現(xiàn)一個網(wǎng)絡爬蟲系統(tǒng),這個不在本文的討論范圍之類了。
    有關幾種編程語言編寫網(wǎng)絡爬蟲的比較,可以參考知乎上的文章?PHP, Python, Node.js 哪個比較適合寫爬蟲?

    ?

    為什么是Pyspider

    Python有很多成熟的網(wǎng)絡爬蟲框架, 知乎上很多大牛總結了一些實踐經(jīng)驗,具體可以參考如何入門 Python 爬蟲?
    很多推薦用requests做請求,query/soup做頁面數(shù)據(jù)(Html/Xml)解析,看起來很靈活,然而,一個比較完善的網(wǎng)絡爬蟲系統(tǒng),所需要提供的功能可能遠遠不止這些。也有推薦Scrapy的,雖然看起來功能非常強大,但是這個框架上手需要一些時間,有一定的學習成本,相對于新手來說,很難快速專注爬蟲業(yè)務的開發(fā)。
    Pyspider是Roy Binux開發(fā)的一款開源的網(wǎng)絡爬蟲系統(tǒng),它不止是一個爬蟲框架,而是一套完備的爬蟲系統(tǒng),使用這套系統(tǒng)你只需要關注兩件事情

    • 目標網(wǎng)站上的內容元素的解析,而且只需要關注解析什么,解析框架也有提供,并且提供了可視化工具輔助從目標頁面摳取需要解析的元素CSS屬性
    • 解析出來的內容元素如何保存,你只需要關注數(shù)據(jù)庫表字段的設計,然后把解析出來的頁面元素內容保存到數(shù)據(jù)庫表中
    • 那么,剩下的幾乎所有事情,就交給Pyspider吧

    是不是聽上去感覺很簡單,那么,開始動手吧,跟著這篇官方文檔,最快幾分鐘的功夫,你就可以學會從2048(草榴)找到真愛了。

    簡單的爬取看官方文檔就可以了,不過,實踐過程中總會遇到各種問題,那么,看看這些如何解決的吧。

    如何模擬登陸

    有些網(wǎng)站內容的展示需要用戶登錄,那么如果需要爬取這樣的頁面內容,我們的爬蟲就需要模擬用戶登陸。網(wǎng)站一般在頁面跳轉或者刷新的時候,也需要獲取登錄信息以確定這個頁面的訪問用戶是登陸過的。如果每次都需要用戶重新登錄,那么這種體驗就太爛了,需要一種機制把之前用戶登陸的信息保存起來,而且一定是保存在瀏覽器可以訪問的本地存儲上,這樣,用戶在頁面跳轉或者頁面刷新的時候,登錄信息被網(wǎng)站自動讀取,就不需要用戶頻繁登錄了。而這個保存的地方,叫做Cookie。
    爬蟲需要做的事情,一是模擬登陸,拿到Cookie數(shù)據(jù),然后保存下來,二是每次去訪問網(wǎng)頁的時候,將Cookie信息傳遞給請求,這樣就可以正常爬到需要用戶登錄的數(shù)據(jù)了。

    我們先設計一個登錄類,用來管理登錄的請求和數(shù)據(jù)

    import urllib import urllib2 import lxml.html as HTMLclass Login(object):def __init__(self, username, password, login_url, post_url_prefix):self.username = usernameself.password = passwordself.login_url = login_urlself.post_url_prefix = post_url_prefixdef login(self):post_url, post_data = self.getPostData()post_url = self.post_url_prefix + post_urlreq = urllib2.Request(url = post_url, data = post_data)resp = urllib2.urlopen(req)return Truedef getPostData(self):url = self.login_url.strip()if not re.match(r'^http://', url):return None, Nonereq = urllib2.Request(url)resp = urllib2.urlopen(req)login_page = resp.read()doc = HTML.fromstring (login_page)post_url = doc.xpath("//form[@method='post' and @id='lsform']/@action")[0]cookietime = doc.xpath("//input[@name='cookietime' and @id='ls_cookietime']/@value")[0]username = self.usernamepassword = self.passwordpost_data = urllib.urlencode({'fastloginfield' : 'username','username' : username,'password' : password,'quickforward' : 'no','handlekey' : 'ls','cookietime' : cookietime,})return post_url, post_data

    代碼解釋

    • 用戶名username, 密碼password, 目標網(wǎng)站的登錄頁面地址login_url, 目標網(wǎng)站的主域名post_url_prefix,這些參數(shù)從外部傳入,目標網(wǎng)站的登錄頁面地址也有可能就是網(wǎng)站的主頁地址。
    • getPostData首先向目標網(wǎng)站的登錄頁面地址發(fā)起一個請求,然后解析這個頁面的數(shù)據(jù),解析出登錄請求的目標地址和post請求的數(shù)據(jù)(登錄請求一般為post請求),然后返回這兩個參數(shù)

    設計一個方法,這個方法用來獲取爬取網(wǎng)頁請求需要的Cookie數(shù)據(jù)。

    import os import hashlib import cookielibLOGIN_URL = 'http://登錄頁面地址' USER_NAME = '用戶名' PASSWORD = '密碼'HOST = '目標網(wǎng)頁主域名' REFERER = 'http://目標網(wǎng)頁主域名/' POST_URL_PREFIX = 'http://目標網(wǎng)頁主域名/'# !!! Notice !!! # Tasks that share the same account MUST share the same cookies file COOKIES_FILE = '/tmp/pyspider.%s.%s.cookies' % (HOST, hashlib.md5(USER_NAME).hexdigest()) COOKIES_DOMAIN = HOSTUSER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/42.0.2311.135 Safari/537.36' HTTP_HEADERS = {'Accept' : 'text/html,application/xhtml+xml,application/xml;q=0.9,image/webp,*/*;q=0.8','Accept-Encoding' : 'gzip, deflate, sdch','Accept-Language' : 'zh-CN,zh;q=0.8,en;q=0.6','Connection' : 'keep-alive','DNT' : '1','Host' : HOST,'Referer' : REFERER,'User-Agent' : USER_AGENT, }def getCookies():cookiesJar = cookielib.MozillaCookieJar(COOKIES_FILE)if not os.path.isfile(COOKIES_FILE):cookiesJar.save()cookiesJar.load (COOKIES_FILE)cookieProcessor = urllib2.HTTPCookieProcessor(cookiesJar)cookieOpener = urllib2.build_opener(cookieProcessor, urllib2.HTTPHandler)for item in HTTP_HEADERS:cookieOpener.addheaders.append ((item ,HTTP_HEADERS[item]))urllib2.install_opener(cookieOpener)if len(cookiesJar) == 0:login = Login(USER_NAME, PASSWORD, LOGIN_URL, POST_URL_PREFIX)if login.login():cookiesJar.save()else:return NonecookiesDict = {}for cookie in cookiesJar:if COOKIES_DOMAIN in cookie.domain:cookiesDict[cookie.name] = cookie.valuereturn cookiesDict

    代碼解釋

    • USER_NAME PASSWORD LOGIN_URL POST_URL_PREFIX 分別定義了用戶名/密碼/登錄頁面地址/目標網(wǎng)頁前綴
    • 如果從COOKIES_FILE讀取出的Cookie信息為空,那么就調用Login做登錄流程,并且把獲取到的結果保存,如果Cookie不為空,就返回Cookie信息到字典cookiesDict中

    Pyspider每次爬取請求都帶上Cookie字典,這樣,向目標地址發(fā)請求就可以獲取到需要登錄才能訪問到的數(shù)據(jù)了。

    cookies = getCookies() self.crawl(url, cookies = cookies, callback=self.index_page)

    如何解析爬取下來的內容

    爬取的內容通過回調的參數(shù)response返回,response有多種解析方式

    • 如果返回的數(shù)據(jù)是json,則可以通過response.json訪問
    • response.doc返回的是PyQuery對象
    • response.etree返回的是lxml對象
    • response.text返回的是unicode文本
    • response.content返回的是字節(jié)碼

    所以返回數(shù)據(jù)可以是5種形式,unicode和字節(jié)碼不是結構化的數(shù)據(jù),很難解析,這里就不贅述了,json需要特定的條件,而且解析相對簡單,也不必說。
    常用的就是PyQuery和lxml的方式,關于lxml,可以采用XPath的語法來解析,比如前面模擬登錄中就采用了xpath的語法解析網(wǎng)頁,具體可參考lxml和XPath的相關文檔。

    XPath選擇器參考

    選擇器示例示例說明
    nodenamebookstore選擇所有名稱叫做”bookstore”的節(jié)點
    /bookstore/book選擇”bookstore”的節(jié)點的所有”book”子節(jié)點
    ////book選擇文檔中所有名稱叫做”book”的節(jié)點,不管它們的父節(jié)點叫做什么
    .?選擇當前的節(jié)點
    ..?選擇當前節(jié)點的父節(jié)點
    @//@lang選擇所有名稱叫做”lang”的屬性
    ?bookstore//book選擇節(jié)點”bookstore”所有叫做”book”的子孫節(jié)點,bookstore不一定是book的父節(jié)點
    ?/bookstore/book[1]選擇節(jié)點”bookstore”的第一個叫做”book”的子節(jié)點
    ?/bookstore/book[last()]選擇節(jié)點”bookstore”的最后一個叫做”book”的子節(jié)點
    ?//title[@lang]選擇所有有一個屬性名叫做”lang”的title節(jié)點
    ?//title[@lang=’en’]選擇所有有一個屬性”lang”的值為”en”的title節(jié)點
    */bookstore/*選擇”bookstore”節(jié)點的所有子節(jié)點
    ?//*選擇文檔中所有的節(jié)點
    @*//title[@*]選擇所有的”title”節(jié)點至少含有一個屬性,屬性名稱不限

    PyQuery可以采用CSS選擇器作為參數(shù)對網(wǎng)頁進行解析。
    類似這樣

    response.doc('.ml.mlt.mtw.cl > li').items()

    或者這樣

    response.doc('.pti > .pdbt > .authi > em > span').attr('title')

    關于PyQuery更多玩法,可以參考PyQuery complete API

    CSS選擇器

    選擇器示例示例說明
    .class.introSelects all elements with class=”intro”
    #id#firstnameSelects the element with id=”firstname”
    elementpSelects all <p> elements
    element,elementdiv, pSelects all <div> elements and all <p> elements
    element elementdiv pSelects all <p> elements inside <div> elements
    element>elementdiv > pSelects all <p> elements where the parent is a <div> element
    [attribute][target]Selects all elements with a target attribute
    [attribute=value][target=_blank]Selects all elements with target=”_blank”
    [attribute^=value]a[href^=”https”]Selects every <a> element whose href attribute value begins with “https”
    [attribute$=value]a[href$=”.pdf”]Selects every <a> element whose href attribute value ends with “.pdf”
    [attribute*=value]a[href*=”w3schools”]Selects every <a> element whose href attribute value contains the substring “w3schools”
    :checkedinput:checkedSelects every checked <input> element

    更多詳情請參考CSS Selector Reference

    如何將數(shù)據(jù)保存到MySQL中

    將MySQL的數(shù)據(jù)庫訪問封裝成一個類

    import hashlib import unicodedata import mysql.connector from mysql.connector import errorcodeclass MySQLDB:username = '數(shù)據(jù)庫用戶名'password = '數(shù)據(jù)庫密碼'database = '數(shù)據(jù)庫名'host = 'localhost' #數(shù)據(jù)庫主機地址connection = ''isconnect = Trueplaceholder = '%s'def __init__(self):if self.isconnect:MySQLDB.connect(self)MySQLDB.initdb(self)def escape(self,string):return '`%s`' % stringdef connect(self):config = {'user':self.username,'password':self.password,'host':self.host}if self.database != None:config['database'] = self.databasetry:cnx = mysql.connector.connect(**config)self.connection = cnxreturn Trueexcept mysql.connector.Error as err:if (err.errno == errorcode.ER_ACCESS_DENIED_ERROR):print "The credentials you provided are not correct."elif (err.errno == errorcode.ER_BAD_DB_ERROR):print "The database you provided does not exist."else:print "Something went wrong: " , errreturn Falsedef initdb(self):if self.connection == '':print "Please connect first"return Falsecursor = self.connection.cursor()# 創(chuàng)建表的定義sql = 'CREATE TABLE IF NOT EXISTS \table_name ( \id VARCHAR(64) PRIMARY KEY, \url TEXT, \title TEXT, \type TEXT, \thumb TEXT, \count INTEGER, \images TEXT, \tags TEXT, \post_time DATETIME \) ENGINE=INNODB DEFAULT CHARSET=UTF8'try:cursor.execute(sql)self.connection.commit()return Trueexcept mysql.connector.Error as err:print ("An error occured: {}".format(err))return Falsedef cleardb (self):if self.connection == '':print "Please connect first"return Falsecursor = self.connection.cursor()sql = 'DROP TABLE IF EXISTS table_name'try:cursor.execute(sql)self.connection.commit()return Trueexcept mysql.connector.Error as err:print ("An error occured: {}".format(err))return Falsedef insert (self,**values):if self.connection == '':print "Please connect first"return Falsecursor = self.connection.cursor()# 插入數(shù)據(jù)sql = "insert into table_name (id, url, title, type, thumb, count, temperature, images, tags, post_time) values (%s,%s,%s,%s,%s,%s,%s,%s,%s) on duplicate key update id=VALUES(id), url=VALUES(url), title=VALUES(title), type=VALUES(type), thumb=VALUES(thumb), count=VALUES(count), images=VALUES(images), tags=VALUES(tags), post_time=VALUES(post_time)"title = unicodedata.normalize('NFKD', values['title']).encode('ascii','ignore')images = ", ".join('%s' % k for k in values['images'])params = (hashlib.md5(title + images).hexdigest(), values['url'], values['title'], values['type'], values['thumb'], values['count'], images, '', values['date'])try:cursor.execute(sql,params)self.connection.commit()return Trueexcept mysql.connector.Error as err:print ("An error occured: {}".format(err))return Falsedef replace(self,tablename=None,**values):if self.connection == '':print "Please connect first"return Falsetablename = self.escape(tablename)if values:_keys = ", ".join(self.escape(k) for k in values)_values = ", ".join([self.placeholder, ] * len(values))sql_query = "REPLACE INTO %s (%s) VALUES (%s)" % (tablename, _keys, _values)else:sql_query = "REPLACE INTO %s DEFAULT VALUES" % tablenamecur = self.connection.cursor()try:if values:cur.execute(sql_query, list(itervalues(values)))else:cur.execute(sql_query)self.connection.commit()return Trueexcept mysql.connector.Error as err:print ("An error occured: {}".format(err))return False

    在處理爬取結果的回調中保存到數(shù)據(jù)庫

    def on_result(self, result):db = MySQLDB()db.insert(**result)

    如何在爬蟲腳本更新后重新運行之前執(zhí)行過的任務

    比如這種場景,爬取了一些數(shù)據(jù),發(fā)現(xiàn)沒有寫保存到數(shù)據(jù)庫的邏輯,然后加上了這段邏輯,卻發(fā)現(xiàn)之前跑過的任務不會在執(zhí)行了。那么如何做到在爬蟲腳本改動后,之前的任務重新自動再跑一遍呢。
    crawl_config中使用itag來標示爬蟲腳本的版本號,如果這個值發(fā)生改變,那么所有的任務都會重新再跑一遍。示例代碼如下

    class Handler(BaseHandler):crawl_config = {'headers': {'User-Agent': USER_AGENT,},'itag': 'v1'}

    itag也可以用來控制特定的任務是否需要重新執(zhí)行,詳見官方文檔

    如何解析JavaScript代碼

    具體如何使用的可以看官方文檔,這里列舉出一些可供參考的JavaScript解析器
    基于Webkit的PhantomJS?基于Gecko的SlimerJS
    基于PhantomJSSlimerJS的CasperJS
    Nightmare
    Selenium
    spynner
    ghost.py

    更多工具/框架請參考Headless Browser and scraping - solutions

    參考資料

    binux/pyspider
    Pyspider官方文檔
    pyspider架構設計
    pyspider中文腳本編寫指南
    Pyspider爬蟲教程
    把 pyspider的結果存入自定義的mysql數(shù)據(jù)庫中
    pyspider的mysql數(shù)據(jù)存儲接口
    PyQuery complete API
    CSS Selector Reference

    ?

    收集的一些其它網(wǎng)絡爬蟲的資料

    Java

    雪球股票信息超級爬蟲
    一個簡單易用的爬蟲框架,內置代理管理模塊,靈活設置多線程爬取
    A scalable web crawler framework for Java
    強力 Java 爬蟲,列表分頁、詳細頁分頁、ajax、微內核高擴展、配置靈活

    Python

    Scrapy
    a smart stream-like crawler & etl python library
    爬視頻音頻神器You-Get
    另一款視頻下載神器youtube-dl
    youtube-dl圖形界面版
    自動抓取Tumblr指定用戶視頻分享
    crawley
    烏云公開漏洞、知識庫爬蟲和搜索
    下載指定的 Tumblr 博客中的圖片,視頻
    下載指定的 Tumblr 博客中的圖片,視頻,玄魂修改版
    DHT網(wǎng)絡爬蟲
    豆瓣電影、書籍、小組、相冊、東西等爬蟲集 writen in Python
    如何不用客戶端下載 YouKu 視頻-YouKu 實現(xiàn)下載 Python3 實現(xiàn)
    一個可配置的、分布式的爬蟲框架
    cloud-based web crawling platform
    百度云爬蟲-爬取百度云/百度網(wǎng)盤所有的分享文件
    愛絲APP圖片爬蟲,以及免支付破解VIP看圖
    微信公眾號爬蟲
    拉勾網(wǎng)爬蟲
    百度網(wǎng)盤爬蟲(如何爬取百度網(wǎng)盤)

    PHP

    PHP Crawler
    PHPCrawl
    Phpfetcher
    php spider framework
    我用爬蟲一天時間“偷了”知乎一百萬用戶,只為證明PHP是世界上最好的語言
    爬蟲組件
    PHP Simple HTML DOM Parser
    QueryList
    Goutte, a simple PHP Web Scraper

    Nodejs

    Nodejs 編寫的爬蟲工具
    批量抓取AV磁鏈或封面的苦勞力
    Easily download all the photos from a Tumblr blog.
    DHT Spider + BitTorrent Client = P2P Spider
    P2P Spider修改版,添加了babel,eslint,gulp等工具來支持es6代碼
    一個Node.js福利圖網(wǎng)站爬蟲程序
    一個簡單的dht爬蟲,用于搜集infohash
    百度云分享爬蟲項目

    Ruby

    A simple DHT crawler, written in Ruby

    C sharp

    visualized crawler & ETL IDE written with C#/WPF

    Erlang

    使用erlang實現(xiàn)P2P磁力搜索

    C++

    給不了你夢中情人,至少還有硬盤女神:hardseed

    Golang

    a distributed, high concurrency and powerful web crawler software

    網(wǎng)絡爬蟲專題

    open-open 網(wǎng)絡爬蟲專題
    你想要的爬蟲,都在這里

    ?

    ?

    ?

    總結

    以上是生活随笔為你收集整理的Python 爬虫框架 - PySpider的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內容還不錯,歡迎將生活随笔推薦給好友。

    婷婷丁香六月激情综合啪 | 欧美国产日韩久久mv | √8天堂资源地址中文在线 | 在教室伦流澡到高潮hnp视频 | 2020久久超碰国产精品最新 | 老司机亚洲精品影院 | 午夜男女很黄的视频 | 成人试看120秒体验区 | 欧洲精品码一区二区三区免费看 | 成年美女黄网站色大免费全看 | 野狼第一精品社区 | 亚洲中文字幕在线无码一区二区 | 日本丰满护士爆乳xxxx | 综合网日日天干夜夜久久 | 亚洲日韩av片在线观看 | 色婷婷久久一区二区三区麻豆 | 妺妺窝人体色www婷婷 | 久激情内射婷内射蜜桃人妖 | 熟妇人妻无乱码中文字幕 | 精品aⅴ一区二区三区 | 久久久久久av无码免费看大片 | 性生交大片免费看女人按摩摩 | 国产无套粉嫩白浆在线 | 日韩成人一区二区三区在线观看 | 亚洲另类伦春色综合小说 | 日本一区二区三区免费播放 | 国产一区二区不卡老阿姨 | 成人试看120秒体验区 | 亚洲自偷自拍另类第1页 | 骚片av蜜桃精品一区 | 1000部啪啪未满十八勿入下载 | 国产两女互慰高潮视频在线观看 | 日产国产精品亚洲系列 | 丰满岳乱妇在线观看中字无码 | 国产精品久久久一区二区三区 | 国产综合色产在线精品 | 免费观看黄网站 | 狠狠cao日日穞夜夜穞av | 日本熟妇人妻xxxxx人hd | 国产农村乱对白刺激视频 | 国产成人精品三级麻豆 | a片在线免费观看 | 欧美怡红院免费全部视频 | 领导边摸边吃奶边做爽在线观看 | 性色av无码免费一区二区三区 | 永久黄网站色视频免费直播 | 日韩少妇内射免费播放 | 亚洲精品中文字幕久久久久 | 美女张开腿让人桶 | 久久久婷婷五月亚洲97号色 | 女人色极品影院 | 久久久久成人片免费观看蜜芽 | 亚洲毛片av日韩av无码 | 欧洲vodafone精品性 | 成人无码视频在线观看网站 | 亚洲成a人片在线观看日本 | www国产精品内射老师 | 久久久久国色av免费观看性色 | 久久国产劲爆∧v内射 | 香蕉久久久久久av成人 | 在线观看国产一区二区三区 | 三上悠亚人妻中文字幕在线 | av无码电影一区二区三区 | 国产热a欧美热a在线视频 | 色欲av亚洲一区无码少妇 | 久久综合网欧美色妞网 | 四虎国产精品一区二区 | 一本久久a久久精品vr综合 | 久久久久久亚洲精品a片成人 | 欧洲熟妇色 欧美 | 在线成人www免费观看视频 | 亚洲小说图区综合在线 | 自拍偷自拍亚洲精品被多人伦好爽 | 国产人妖乱国产精品人妖 | 久久久久久国产精品无码下载 | 欧美 丝袜 自拍 制服 另类 | 亚洲综合另类小说色区 | 亚洲日韩av片在线观看 | 欧洲vodafone精品性 | 久久久久久a亚洲欧洲av冫 | 中文字幕无码视频专区 | 色 综合 欧美 亚洲 国产 | 内射白嫩少妇超碰 | 国产黄在线观看免费观看不卡 | 国语精品一区二区三区 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 疯狂三人交性欧美 | 2020久久超碰国产精品最新 | 少妇激情av一区二区 | 日日噜噜噜噜夜夜爽亚洲精品 | 国产欧美精品一区二区三区 | 国产精品久久久av久久久 | 欧美自拍另类欧美综合图片区 | 98国产精品综合一区二区三区 | v一区无码内射国产 | 蜜臀av在线播放 久久综合激激的五月天 | 亚无码乱人伦一区二区 | 亚洲精品一区二区三区在线 | 人妻互换免费中文字幕 | 精品一区二区不卡无码av | 成人片黄网站色大片免费观看 | 国产成人久久精品流白浆 | 在线а√天堂中文官网 | 国产精品久久久久7777 | 亚洲欧美日韩成人高清在线一区 | 网友自拍区视频精品 | 少妇性荡欲午夜性开放视频剧场 | 中文字幕乱妇无码av在线 | 亚洲高清偷拍一区二区三区 | 日韩av激情在线观看 | 国产精品人人爽人人做我的可爱 | 偷窥村妇洗澡毛毛多 | 久久久精品欧美一区二区免费 | 中文精品无码中文字幕无码专区 | 永久免费精品精品永久-夜色 | 亚洲小说春色综合另类 | 天堂а√在线中文在线 | 亚洲第一网站男人都懂 | 中文字幕 亚洲精品 第1页 | 日韩视频 中文字幕 视频一区 | 性欧美熟妇videofreesex | 欧美人妻一区二区三区 | 免费中文字幕日韩欧美 | 粉嫩少妇内射浓精videos | 无码av最新清无码专区吞精 | 国产偷国产偷精品高清尤物 | 性欧美大战久久久久久久 | 中文久久乱码一区二区 | 亚洲男人av天堂午夜在 | 欧美三级a做爰在线观看 | 丰满人妻一区二区三区免费视频 | 一本色道久久综合亚洲精品不卡 | 精品亚洲成av人在线观看 | 久久综合网欧美色妞网 | 婷婷丁香六月激情综合啪 | 亚洲日本一区二区三区在线 | 综合激情五月综合激情五月激情1 | 好屌草这里只有精品 | 久久久久久久久蜜桃 | 熟妇女人妻丰满少妇中文字幕 | 国产偷国产偷精品高清尤物 | 欧美丰满少妇xxxx性 | 亚洲日本在线电影 | 一区二区三区高清视频一 | 日韩少妇白浆无码系列 | 性色欲情网站iwww九文堂 | 2019nv天堂香蕉在线观看 | 国产精品免费大片 | 成年美女黄网站色大免费全看 | 久久99精品久久久久久动态图 | 性生交大片免费看女人按摩摩 | 无码播放一区二区三区 | 捆绑白丝粉色jk震动捧喷白浆 | 国产无套粉嫩白浆在线 | 中文字幕中文有码在线 | 狠狠躁日日躁夜夜躁2020 | 中文字幕人妻无码一区二区三区 | 超碰97人人做人人爱少妇 | 欧美成人免费全部网站 | 一本色道久久综合狠狠躁 | 大肉大捧一进一出好爽视频 | 亚洲人成影院在线观看 | 亚洲欧美色中文字幕在线 | 国产精品无码久久av | 日韩av无码一区二区三区不卡 | 中文无码伦av中文字幕 | 国产av无码专区亚洲a∨毛片 | 日本高清一区免费中文视频 | 欧洲极品少妇 | 日本熟妇浓毛 | 牲欲强的熟妇农村老妇女 | 久久综合狠狠综合久久综合88 | 国产疯狂伦交大片 | 国产av剧情md精品麻豆 | 任你躁在线精品免费 | 18黄暴禁片在线观看 | 久久国产精品萌白酱免费 | 狠狠亚洲超碰狼人久久 | 国产精品.xx视频.xxtv | 中文字幕人妻丝袜二区 | 亚洲国产成人av在线观看 | 无码人妻av免费一区二区三区 | 131美女爱做视频 | 欧美激情综合亚洲一二区 | 亚洲一区二区三区四区 | 国产无遮挡又黄又爽免费视频 | 日本熟妇浓毛 | 精品少妇爆乳无码av无码专区 | 熟妇激情内射com | 久久午夜无码鲁丝片 | 十八禁视频网站在线观看 | 精品国产精品久久一区免费式 | 日本一本二本三区免费 | 久久久久久久人妻无码中文字幕爆 | 久久国产劲爆∧v内射 | 国产suv精品一区二区五 | 久久综合久久自在自线精品自 | 欧美精品在线观看 | 欧美日本日韩 | 性欧美疯狂xxxxbbbb | 丰满护士巨好爽好大乳 | 久久综合久久自在自线精品自 | 国产九九九九九九九a片 | 久久精品女人天堂av免费观看 | 无码午夜成人1000部免费视频 | 在线观看国产一区二区三区 | 久久无码专区国产精品s | 日韩亚洲欧美中文高清在线 | 国产两女互慰高潮视频在线观看 | 狠狠躁日日躁夜夜躁2020 | 中文字幕无码乱人伦 | 欧美怡红院免费全部视频 | 国产乱子伦视频在线播放 | 帮老师解开蕾丝奶罩吸乳网站 | 亚洲精品一区二区三区婷婷月 | 久久精品中文字幕大胸 | 97精品人妻一区二区三区香蕉 | 午夜免费福利小电影 | 丁香啪啪综合成人亚洲 | 亚洲 激情 小说 另类 欧美 | 日本在线高清不卡免费播放 | 77777熟女视频在线观看 а天堂中文在线官网 | 久久亚洲中文字幕精品一区 | 久久精品国产大片免费观看 | 久久综合色之久久综合 | 国产精品无码一区二区桃花视频 | 综合网日日天干夜夜久久 | 国产亚洲欧美日韩亚洲中文色 | 精品偷拍一区二区三区在线看 | 在线 国产 欧美 亚洲 天堂 | 图片小说视频一区二区 | 中文字幕日韩精品一区二区三区 | 亚洲国产精品成人久久蜜臀 | 亚洲一区二区三区四区 | 国产精品毛片一区二区 | 日本xxxx色视频在线观看免费 | 国模大胆一区二区三区 | 欧美野外疯狂做受xxxx高潮 | 老子影院午夜伦不卡 | 人妻互换免费中文字幕 | 国产午夜无码视频在线观看 | 黄网在线观看免费网站 | 人妻夜夜爽天天爽三区 | 国产av一区二区三区最新精品 | 午夜精品一区二区三区的区别 | 少妇愉情理伦片bd | 国产精品人人妻人人爽 | 国产农村乱对白刺激视频 | 夜夜夜高潮夜夜爽夜夜爰爰 | 国产两女互慰高潮视频在线观看 | 无码av最新清无码专区吞精 | 亚洲色偷偷男人的天堂 | 国产人妖乱国产精品人妖 | 欧美老人巨大xxxx做受 | 国产成人久久精品流白浆 | 自拍偷自拍亚洲精品10p | 青青青爽视频在线观看 | 丰满少妇熟乱xxxxx视频 | 亚洲国产成人a精品不卡在线 | 妺妺窝人体色www婷婷 | 三级4级全黄60分钟 | 狂野欧美性猛交免费视频 | 国产女主播喷水视频在线观看 | 桃花色综合影院 | av小次郎收藏 | 日本xxxx色视频在线观看免费 | 中文字幕无码人妻少妇免费 | 国产成人无码av片在线观看不卡 | 欧美xxxxx精品 | 亚洲国产欧美日韩精品一区二区三区 | 全球成人中文在线 | 久久久久久久人妻无码中文字幕爆 | 未满小14洗澡无码视频网站 | 色 综合 欧美 亚洲 国产 | 中文字幕乱码人妻无码久久 | 精品人人妻人人澡人人爽人人 | 色爱情人网站 | 国产又粗又硬又大爽黄老大爷视 | 欧美丰满少妇xxxx性 | 国产精品嫩草久久久久 | 欧美日韩视频无码一区二区三 | 久久精品一区二区三区四区 | 99久久久无码国产aaa精品 | 中文无码伦av中文字幕 | 日韩精品无码一区二区中文字幕 | 亚洲色大成网站www | 人妻互换免费中文字幕 | 动漫av一区二区在线观看 | 亚洲天堂2017无码 | 国产欧美熟妇另类久久久 | 少妇被粗大的猛进出69影院 | 波多野结衣av一区二区全免费观看 | 精品一区二区不卡无码av | 狠狠综合久久久久综合网 | 亚洲成a人片在线观看日本 | 一二三四在线观看免费视频 | 免费中文字幕日韩欧美 | 波多野结衣av一区二区全免费观看 | 中文字幕 人妻熟女 | 国产午夜亚洲精品不卡下载 | 97资源共享在线视频 | 精品欧美一区二区三区久久久 | 女人被男人躁得好爽免费视频 | 亚洲欧美日韩成人高清在线一区 | 人妻尝试又大又粗久久 | 免费人成在线视频无码 | 97无码免费人妻超级碰碰夜夜 | 激情人妻另类人妻伦 | 久久国产36精品色熟妇 | 牲欲强的熟妇农村老妇女 | 欧美xxxx黑人又粗又长 | 久久久无码中文字幕久... | 国产熟妇另类久久久久 | 亚洲aⅴ无码成人网站国产app | 人妻天天爽夜夜爽一区二区 | 午夜精品久久久久久久 | 精品无码一区二区三区爱欲 | 麻豆国产丝袜白领秘书在线观看 | 国模大胆一区二区三区 | 国产成人精品视频ⅴa片软件竹菊 | 日韩人妻少妇一区二区三区 | 国产精品久久久一区二区三区 | 午夜精品一区二区三区的区别 | 亚洲欧美精品aaaaaa片 | 亚洲天堂2017无码 | av无码不卡在线观看免费 | 无码一区二区三区在线观看 | 无码人妻久久一区二区三区不卡 | 国产精品久久久久久久影院 | 亚洲精品久久久久久久久久久 | 欧美激情一区二区三区成人 | 中文字幕 人妻熟女 | 国产成人无码av片在线观看不卡 | 未满小14洗澡无码视频网站 | 天堂亚洲免费视频 | 日本熟妇乱子伦xxxx | 亚洲欧美国产精品久久 | 久久精品中文闷骚内射 | 日日橹狠狠爱欧美视频 | 午夜熟女插插xx免费视频 | 性做久久久久久久免费看 | 亚洲成a人片在线观看日本 | 色综合天天综合狠狠爱 | 亚洲精品中文字幕久久久久 | 蜜桃无码一区二区三区 | 国产真实伦对白全集 | 人人妻人人澡人人爽欧美精品 | 在线观看免费人成视频 | 玩弄少妇高潮ⅹxxxyw | 一本大道久久东京热无码av | 日本丰满熟妇videos | 久久久久久久久蜜桃 | 秋霞成人午夜鲁丝一区二区三区 | 人妻夜夜爽天天爽三区 | 色综合久久久久综合一本到桃花网 | 又大又黄又粗又爽的免费视频 | 久久久久国色av免费观看性色 | 熟女少妇在线视频播放 | 免费看少妇作爱视频 | 扒开双腿疯狂进出爽爽爽视频 | 亚洲码国产精品高潮在线 | 无码乱肉视频免费大全合集 | 在线精品亚洲一区二区 | www一区二区www免费 | 久久精品国产99精品亚洲 | 午夜丰满少妇性开放视频 | 日产精品99久久久久久 | аⅴ资源天堂资源库在线 | 成 人 网 站国产免费观看 | 免费无码的av片在线观看 | 亚洲乱码日产精品bd | 日日麻批免费40分钟无码 | 欧美日韩一区二区综合 | 性欧美疯狂xxxxbbbb | 日本精品高清一区二区 | 国产精品人人爽人人做我的可爱 | 国产精品久久久久久久影院 | 丁香啪啪综合成人亚洲 | 日本精品人妻无码77777 天堂一区人妻无码 | 99国产欧美久久久精品 | 久久无码中文字幕免费影院蜜桃 | 奇米影视888欧美在线观看 | 亚洲伊人久久精品影院 | 无码播放一区二区三区 | 狠狠cao日日穞夜夜穞av | 人妻夜夜爽天天爽三区 | 国产在线精品一区二区三区直播 | 久久久久人妻一区精品色欧美 | 东京热无码av男人的天堂 | 亚洲中文字幕va福利 | 55夜色66夜色国产精品视频 | 欧美日韩精品 | 国产亚洲精品久久久久久国模美 | 377p欧洲日本亚洲大胆 | 一本久道久久综合婷婷五月 | 日韩欧美群交p片內射中文 | 男人的天堂2018无码 | 久久无码中文字幕免费影院蜜桃 | 午夜精品久久久久久久久 | 77777熟女视频在线观看 а天堂中文在线官网 | 久久久成人毛片无码 | 人人澡人人透人人爽 | 少妇无码av无码专区在线观看 | 特大黑人娇小亚洲女 | 18禁黄网站男男禁片免费观看 | 激情爆乳一区二区三区 | 无码av岛国片在线播放 | 亚洲精品美女久久久久久久 | 欧美老人巨大xxxx做受 | 丝袜 中出 制服 人妻 美腿 | www一区二区www免费 | 丰满少妇熟乱xxxxx视频 | 99国产欧美久久久精品 | 久久精品人人做人人综合试看 | 亚洲精品一区二区三区大桥未久 | 亚洲热妇无码av在线播放 | 女人被爽到呻吟gif动态图视看 | 夜先锋av资源网站 | 疯狂三人交性欧美 | 久久久久久久久蜜桃 | 国产亚洲欧美在线专区 | 亚洲综合另类小说色区 | 中国女人内谢69xxxxxa片 | 国精产品一区二区三区 | 帮老师解开蕾丝奶罩吸乳网站 | 精品国产一区av天美传媒 | 久久久久免费精品国产 | 天天躁日日躁狠狠躁免费麻豆 | 亚洲成a人片在线观看无码3d | 人人澡人摸人人添 | 无码一区二区三区在线 | 九月婷婷人人澡人人添人人爽 | 日本丰满护士爆乳xxxx | 亚洲熟女一区二区三区 | 一本色道婷婷久久欧美 | 香蕉久久久久久av成人 | 女人和拘做爰正片视频 | 日本熟妇浓毛 | 免费中文字幕日韩欧美 | 西西人体www44rt大胆高清 | 国产内射爽爽大片视频社区在线 | 麻豆国产丝袜白领秘书在线观看 | 亚洲成色在线综合网站 | 国产成人精品必看 | 人人妻人人澡人人爽欧美一区九九 | 99精品无人区乱码1区2区3区 | 欧美三级不卡在线观看 | 国产亚洲精品久久久久久久 | 国产美女极度色诱视频www | 国产精品福利视频导航 | 丁香花在线影院观看在线播放 | 国产精品无码久久av | 男女作爱免费网站 | 乱人伦人妻中文字幕无码 | 乱码午夜-极国产极内射 | 无码人妻黑人中文字幕 | 无码午夜成人1000部免费视频 | 国产亚洲精品久久久久久国模美 | 日本一区二区三区免费高清 | 亚洲欧美日韩国产精品一区二区 | 中文字幕无码乱人伦 | 老司机亚洲精品影院 | 成熟女人特级毛片www免费 | 亚洲精品午夜无码电影网 | 中文字幕无码热在线视频 | 天堂а√在线中文在线 | 国产三级久久久精品麻豆三级 | 鲁鲁鲁爽爽爽在线视频观看 | 国产成人一区二区三区别 | 亚洲综合无码久久精品综合 | 无码人妻av免费一区二区三区 | 国产 精品 自在自线 | 精品国产国产综合精品 | 在线a亚洲视频播放在线观看 | 久久久久久亚洲精品a片成人 | 精品无码成人片一区二区98 | 天天躁夜夜躁狠狠是什么心态 | 午夜性刺激在线视频免费 | 国产精品手机免费 | 国产又爽又猛又粗的视频a片 | 国产热a欧美热a在线视频 | 免费看男女做好爽好硬视频 | 久久久久se色偷偷亚洲精品av | 激情内射亚州一区二区三区爱妻 | 99久久99久久免费精品蜜桃 | 久久人人爽人人爽人人片av高清 | 国产熟妇高潮叫床视频播放 | 97夜夜澡人人双人人人喊 | 131美女爱做视频 | 亚洲综合无码一区二区三区 | 久久久久se色偷偷亚洲精品av | 樱花草在线播放免费中文 | 中文字幕人妻无码一区二区三区 | 99精品久久毛片a片 | 精品国产成人一区二区三区 | 国产精品美女久久久 | 精品无码一区二区三区的天堂 | 55夜色66夜色国产精品视频 | 亚洲日韩一区二区三区 | 少妇性l交大片 | 亚洲精品国产a久久久久久 | 一区二区三区高清视频一 | 免费无码一区二区三区蜜桃大 | 国产亚洲精品久久久久久久久动漫 | 俺去俺来也www色官网 | 国产手机在线αⅴ片无码观看 | 强伦人妻一区二区三区视频18 | 嫩b人妻精品一区二区三区 | 国产深夜福利视频在线 | 欧美一区二区三区 | 久久精品国产大片免费观看 | 图片小说视频一区二区 | 亚洲一区av无码专区在线观看 | 国产精品久免费的黄网站 | 欧美激情综合亚洲一二区 | 亚洲精品国产a久久久久久 | 国产卡一卡二卡三 | 国产超碰人人爽人人做人人添 | 亚洲欧美国产精品专区久久 | 国产精品久久久久久久影院 | 亚洲综合精品香蕉久久网 | 久久aⅴ免费观看 | 国内揄拍国内精品人妻 | 樱花草在线社区www | 国产在线精品一区二区高清不卡 | 精品久久8x国产免费观看 | 久久综合久久自在自线精品自 | 国产精品亚洲五月天高清 | 老司机亚洲精品影院无码 | 国内精品久久毛片一区二区 | 377p欧洲日本亚洲大胆 | 99久久精品无码一区二区毛片 | 亚洲人成影院在线观看 | 澳门永久av免费网站 | 久久国产精品精品国产色婷婷 | аⅴ资源天堂资源库在线 | 欧美亚洲国产一区二区三区 | 色婷婷香蕉在线一区二区 | 九月婷婷人人澡人人添人人爽 | 久久久久成人精品免费播放动漫 | 国产精品成人av在线观看 | 国产人成高清在线视频99最全资源 | 国产一区二区三区精品视频 | 久久天天躁狠狠躁夜夜免费观看 | 亚洲区欧美区综合区自拍区 | 东京热一精品无码av | 国产成人精品优优av | 青青青爽视频在线观看 | 欧美肥老太牲交大战 | 强奷人妻日本中文字幕 | 性开放的女人aaa片 | 久久久成人毛片无码 | 成人片黄网站色大片免费观看 | 鲁大师影院在线观看 | 无码人妻av免费一区二区三区 | 亚洲 a v无 码免 费 成 人 a v | 天天爽夜夜爽夜夜爽 | 色综合天天综合狠狠爱 | 久久精品一区二区三区四区 | 国产精品无码永久免费888 | 撕开奶罩揉吮奶头视频 | 国产亚洲欧美在线专区 | 亚洲精品久久久久久久久久久 | 精品少妇爆乳无码av无码专区 | 中文字幕人成乱码熟女app | 精品无码成人片一区二区98 | 日本一区二区三区免费播放 | 动漫av一区二区在线观看 | 色偷偷人人澡人人爽人人模 | 青春草在线视频免费观看 | 久久久久se色偷偷亚洲精品av | 白嫩日本少妇做爰 | 成人性做爰aaa片免费看不忠 | 日本一区二区三区免费高清 | 国产人妻精品午夜福利免费 | 国产精品美女久久久久av爽李琼 | 成人免费视频一区二区 | 亚洲欧美精品aaaaaa片 | 国产免费久久精品国产传媒 | v一区无码内射国产 | 免费网站看v片在线18禁无码 | 国产精品鲁鲁鲁 | 精品无码国产一区二区三区av | 久久婷婷五月综合色国产香蕉 | 久久久中文久久久无码 | 熟女体下毛毛黑森林 | 亚洲日韩乱码中文无码蜜桃臀网站 | 鲁鲁鲁爽爽爽在线视频观看 | 久久午夜无码鲁丝片秋霞 | 夜夜影院未满十八勿进 | 久久久久国色av免费观看性色 | 无码人妻精品一区二区三区下载 | 亚洲日本va午夜在线电影 | 欧美人与物videos另类 | 人人妻人人澡人人爽人人精品浪潮 | 国产精品无码永久免费888 | 亚洲人交乣女bbw | 婷婷色婷婷开心五月四房播播 | 久久综合给合久久狠狠狠97色 | 午夜嘿嘿嘿影院 | 午夜精品一区二区三区的区别 | 国产真人无遮挡作爱免费视频 | 国产成人无码午夜视频在线观看 | 99麻豆久久久国产精品免费 | 少妇的肉体aa片免费 | 国产精品香蕉在线观看 | 青草视频在线播放 | 国产 浪潮av性色四虎 | 九九在线中文字幕无码 | 在线播放免费人成毛片乱码 | 久久天天躁夜夜躁狠狠 | 乌克兰少妇xxxx做受 | 中文无码成人免费视频在线观看 | 久久无码中文字幕免费影院蜜桃 | 麻豆精品国产精华精华液好用吗 | 高潮毛片无遮挡高清免费 | 真人与拘做受免费视频一 | 极品尤物被啪到呻吟喷水 | 国内老熟妇对白xxxxhd | 久久亚洲a片com人成 | 俺去俺来也www色官网 | 日本丰满熟妇videos | 国产性生大片免费观看性 | 亚洲日韩精品欧美一区二区 | 欧美日韩久久久精品a片 | 天堂а√在线地址中文在线 | 国产精品久久福利网站 | 国产一区二区三区精品视频 | 久久综合给久久狠狠97色 | 人妻天天爽夜夜爽一区二区 | 美女黄网站人色视频免费国产 | 国产偷国产偷精品高清尤物 | 日韩在线不卡免费视频一区 | 国产精品亚洲а∨无码播放麻豆 | 草草网站影院白丝内射 | 久久久精品成人免费观看 | 国产精品久久国产精品99 | 国产亚洲美女精品久久久2020 | 99久久久无码国产精品免费 | 日本丰满熟妇videos | 黑人大群体交免费视频 | 高潮毛片无遮挡高清免费 | 熟妇激情内射com | av在线亚洲欧洲日产一区二区 | 爽爽影院免费观看 | 在线天堂新版最新版在线8 | 免费国产黄网站在线观看 | 领导边摸边吃奶边做爽在线观看 | 国产舌乚八伦偷品w中 | 亚洲 高清 成人 动漫 | 5858s亚洲色大成网站www | 蜜臀aⅴ国产精品久久久国产老师 | 国产成人无码区免费内射一片色欲 | 青青青爽视频在线观看 | 少妇无码吹潮 | 丰满岳乱妇在线观看中字无码 | 一本加勒比波多野结衣 | 亚洲精品午夜国产va久久成人 | 奇米影视7777久久精品人人爽 | 永久黄网站色视频免费直播 | 欧美乱妇无乱码大黄a片 | 粉嫩少妇内射浓精videos | 伊人久久大香线焦av综合影院 | 国产热a欧美热a在线视频 | 中文字幕无码av波多野吉衣 | 亚洲毛片av日韩av无码 | 久久精品人妻少妇一区二区三区 | 色婷婷综合激情综在线播放 | 日日天干夜夜狠狠爱 | 国产小呦泬泬99精品 | 国产内射爽爽大片视频社区在线 | 日本熟妇大屁股人妻 | 亚洲精品一区二区三区婷婷月 | 三上悠亚人妻中文字幕在线 | 免费中文字幕日韩欧美 | 风流少妇按摩来高潮 | 中文字幕无码热在线视频 | 又湿又紧又大又爽a视频国产 | 又大又黄又粗又爽的免费视频 | 中文字幕无码免费久久9一区9 | 国产美女精品一区二区三区 | 成人精品视频一区二区三区尤物 | 久久无码中文字幕免费影院蜜桃 | 国产一区二区三区四区五区加勒比 | 又粗又大又硬毛片免费看 | 中国大陆精品视频xxxx | 无码一区二区三区在线观看 | 亚洲中文字幕无码中字 | 精品亚洲韩国一区二区三区 | 久久久婷婷五月亚洲97号色 | 成人免费视频在线观看 | 国产亚洲精品久久久久久久 | 日韩人妻无码一区二区三区久久99 | 天堂一区人妻无码 | 露脸叫床粗话东北少妇 | 日韩亚洲欧美精品综合 | 日本丰满熟妇videos | 无码人妻精品一区二区三区下载 | 女人被男人爽到呻吟的视频 | 99riav国产精品视频 | 熟女少妇在线视频播放 | 国色天香社区在线视频 | 亚洲成av人综合在线观看 | av无码电影一区二区三区 | 欧美猛少妇色xxxxx | 沈阳熟女露脸对白视频 | 精品一区二区不卡无码av | 久久综合激激的五月天 | 久久精品人人做人人综合 | 暴力强奷在线播放无码 | av人摸人人人澡人人超碰下载 | 亚洲第一无码av无码专区 | 国产日产欧产精品精品app | 国产精品爱久久久久久久 | 一本大道伊人av久久综合 | 亚洲欧美日韩成人高清在线一区 | 婷婷丁香五月天综合东京热 | 久久综合色之久久综合 | 伊人久久大香线蕉亚洲 | 亚洲国产精品久久久久久 | 日日麻批免费40分钟无码 | 国产九九九九九九九a片 | 性欧美牲交在线视频 | 国产农村妇女高潮大叫 | 美女黄网站人色视频免费国产 | 在线a亚洲视频播放在线观看 | 亚洲精品综合五月久久小说 | 国产一区二区三区精品视频 | 亚洲中文字幕无码中字 | 一本加勒比波多野结衣 | 国产熟妇高潮叫床视频播放 | 十八禁真人啪啪免费网站 | 久久精品人妻少妇一区二区三区 | 亚洲日韩乱码中文无码蜜桃臀网站 | 青青草原综合久久大伊人精品 | 黑人玩弄人妻中文在线 | 欧美一区二区三区视频在线观看 | 国产精品国产自线拍免费软件 | 亚洲日本一区二区三区在线 | 免费看男女做好爽好硬视频 | 一本久久伊人热热精品中文字幕 | 久久久久99精品国产片 | 97久久国产亚洲精品超碰热 | 国产精品高潮呻吟av久久 | 天天躁夜夜躁狠狠是什么心态 | 日韩人妻无码一区二区三区久久99 | 日欧一片内射va在线影院 | 亚洲 激情 小说 另类 欧美 | 天天做天天爱天天爽综合网 | 中文无码成人免费视频在线观看 | 宝宝好涨水快流出来免费视频 | 色 综合 欧美 亚洲 国产 | 久久精品一区二区三区四区 | 无码人妻黑人中文字幕 | 精品人妻人人做人人爽 | 精品国精品国产自在久国产87 | 国内揄拍国内精品少妇国语 | 中文无码成人免费视频在线观看 | 强奷人妻日本中文字幕 | 奇米影视888欧美在线观看 | 亚洲精品一区二区三区在线观看 | 无码人妻丰满熟妇区毛片18 | 中文字幕无码日韩欧毛 | 日韩人妻无码一区二区三区久久99 | 人人爽人人澡人人人妻 | 亚洲综合色区中文字幕 | 国产真人无遮挡作爱免费视频 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 久久综合香蕉国产蜜臀av | 亚洲综合在线一区二区三区 | 国产无av码在线观看 | 精品一区二区三区无码免费视频 | 三级4级全黄60分钟 | 亚洲成av人在线观看网址 | 成人免费无码大片a毛片 | 日韩精品一区二区av在线 | 欧美野外疯狂做受xxxx高潮 | 久久午夜夜伦鲁鲁片无码免费 | 国产97色在线 | 免 | 无码av中文字幕免费放 | 欧美丰满熟妇xxxx | 久久国内精品自在自线 | 亚洲va中文字幕无码久久不卡 | 久久亚洲中文字幕精品一区 | 亚洲人成无码网www | 荡女精品导航 | 动漫av网站免费观看 | 国产va免费精品观看 | 国产av无码专区亚洲a∨毛片 | 欧美放荡的少妇 | 成在人线av无码免观看麻豆 | 少妇高潮一区二区三区99 | 成人欧美一区二区三区 | 少妇性俱乐部纵欲狂欢电影 | 久久久久久九九精品久 | 国内精品人妻无码久久久影院 | 国产一区二区三区日韩精品 | 成人三级无码视频在线观看 | 领导边摸边吃奶边做爽在线观看 | 久久天天躁夜夜躁狠狠 | 亚洲日韩乱码中文无码蜜桃臀网站 | 精品国产精品久久一区免费式 | 欧美 亚洲 国产 另类 | 男人扒开女人内裤强吻桶进去 | 四虎4hu永久免费 | 国产精品嫩草久久久久 | 国语自产偷拍精品视频偷 | 无码国模国产在线观看 | 九九热爱视频精品 | 性啪啪chinese东北女人 | 曰韩少妇内射免费播放 | 天堂а√在线中文在线 | 丰满少妇熟乱xxxxx视频 | 久久精品国产日本波多野结衣 | 国产一区二区三区四区五区加勒比 | 亚洲 另类 在线 欧美 制服 | 国产精品第一区揄拍无码 | 亚洲自偷精品视频自拍 | 精品国产精品久久一区免费式 | 天干天干啦夜天干天2017 | 漂亮人妻洗澡被公强 日日躁 | 中文亚洲成a人片在线观看 | 少妇愉情理伦片bd | 精品欧美一区二区三区久久久 | 性做久久久久久久免费看 | 九一九色国产 | 色欲人妻aaaaaaa无码 | 老太婆性杂交欧美肥老太 | 丝袜人妻一区二区三区 | 伊人久久大香线蕉av一区二区 | 激情人妻另类人妻伦 | 国产小呦泬泬99精品 | 97久久国产亚洲精品超碰热 | 老熟妇仑乱视频一区二区 | 玩弄中年熟妇正在播放 | 99久久久无码国产aaa精品 | 欧美午夜特黄aaaaaa片 | 国产精品无码永久免费888 | 国产av一区二区三区最新精品 | 亚洲精品午夜国产va久久成人 | 扒开双腿吃奶呻吟做受视频 | 国产无套粉嫩白浆在线 | 小泽玛莉亚一区二区视频在线 | 精品人妻人人做人人爽 | 无码人妻精品一区二区三区下载 | 久久精品中文字幕大胸 | 性色欲情网站iwww九文堂 | 日本精品人妻无码免费大全 | 99精品无人区乱码1区2区3区 | 国产极品美女高潮无套在线观看 | 欧洲精品码一区二区三区免费看 | 未满小14洗澡无码视频网站 | 国产精品嫩草久久久久 | 水蜜桃亚洲一二三四在线 | 久久精品女人的天堂av | 亚洲人交乣女bbw | 丰满肥臀大屁股熟妇激情视频 | 亚洲一区二区三区 | 国产精品手机免费 | 国产精品.xx视频.xxtv | 成人免费视频视频在线观看 免费 | 国产又爽又黄又刺激的视频 | 国产卡一卡二卡三 | 欧美人与禽猛交狂配 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 中文字幕av伊人av无码av | 国产精品.xx视频.xxtv | 一二三四社区在线中文视频 | 日本乱人伦片中文三区 | 久久99久久99精品中文字幕 | 国产成人精品视频ⅴa片软件竹菊 | 青青久在线视频免费观看 | 亚洲小说图区综合在线 | 黑人玩弄人妻中文在线 | 在线播放无码字幕亚洲 | 国产人成高清在线视频99最全资源 | 小sao货水好多真紧h无码视频 | 久久婷婷五月综合色国产香蕉 | 少妇性l交大片 | 青青草原综合久久大伊人精品 | 亚洲人成网站免费播放 | 久久无码中文字幕免费影院蜜桃 | 国产超级va在线观看视频 | 亚洲欧美国产精品专区久久 | 成人无码视频在线观看网站 | 国产无av码在线观看 | 高潮毛片无遮挡高清免费 | 国产真人无遮挡作爱免费视频 | 国内精品人妻无码久久久影院 | 欧美国产日产一区二区 | 国产精品va在线播放 | 日本一区二区三区免费播放 | 中文字幕人妻无码一区二区三区 | 亚洲第一网站男人都懂 | 日本精品少妇一区二区三区 | 欧美精品免费观看二区 | 少妇人妻av毛片在线看 | 性色av无码免费一区二区三区 | 又大又硬又黄的免费视频 | 国产内射爽爽大片视频社区在线 | 中文亚洲成a人片在线观看 | 国产激情一区二区三区 | 色综合久久久无码中文字幕 | 久久国语露脸国产精品电影 | 欧美人与禽猛交狂配 | 九月婷婷人人澡人人添人人爽 | 丰满妇女强制高潮18xxxx | 两性色午夜视频免费播放 | 欧美一区二区三区 | 樱花草在线播放免费中文 | 大乳丰满人妻中文字幕日本 | 久久午夜无码鲁丝片 | 亚洲の无码国产の无码步美 | 国内精品人妻无码久久久影院 | 99riav国产精品视频 | 荫蒂被男人添的好舒服爽免费视频 | 国产高清av在线播放 | 国产网红无码精品视频 | 欧美人与善在线com | 欧美精品免费观看二区 | 在线成人www免费观看视频 | 一个人看的www免费视频在线观看 | 老熟妇乱子伦牲交视频 | 欧美日韩一区二区三区自拍 | 日本一区二区三区免费高清 | 99re在线播放 | 无码午夜成人1000部免费视频 | 久久久久人妻一区精品色欧美 | 大地资源网第二页免费观看 | 狠狠综合久久久久综合网 | 国产成人精品视频ⅴa片软件竹菊 | 国产免费无码一区二区视频 | 牛和人交xxxx欧美 | 国产乱人偷精品人妻a片 | 国产97人人超碰caoprom | 一本色道久久综合狠狠躁 | 少妇人妻大乳在线视频 | 嫩b人妻精品一区二区三区 | 日日碰狠狠躁久久躁蜜桃 | 中文字幕无码视频专区 | 76少妇精品导航 | 人人妻人人澡人人爽欧美精品 | 国产av人人夜夜澡人人爽麻豆 | 国产舌乚八伦偷品w中 | 亚洲а∨天堂久久精品2021 | 国产亚洲人成在线播放 | 免费无码一区二区三区蜜桃大 | 国产艳妇av在线观看果冻传媒 | 精品无码国产一区二区三区av | 国产在线一区二区三区四区五区 | 亚洲日本va中文字幕 | 日韩亚洲欧美精品综合 | 在线成人www免费观看视频 | 强辱丰满人妻hd中文字幕 | 兔费看少妇性l交大片免费 | 亚洲 a v无 码免 费 成 人 a v | 无码国产激情在线观看 | 人人妻人人澡人人爽欧美一区九九 | 人人妻人人澡人人爽人人精品浪潮 | 狠狠综合久久久久综合网 | 精品aⅴ一区二区三区 | 午夜免费福利小电影 | 日韩无套无码精品 | 国产成人精品无码播放 | 久久99精品国产麻豆蜜芽 | 国产va免费精品观看 | 在线播放免费人成毛片乱码 | 一区二区三区高清视频一 | 波多野结衣 黑人 | 精品乱码久久久久久久 | 正在播放老肥熟妇露脸 | 国产精品高潮呻吟av久久4虎 | 一本色道久久综合亚洲精品不卡 | 兔费看少妇性l交大片免费 | 久久精品国产精品国产精品污 | 久久国产劲爆∧v内射 | 强伦人妻一区二区三区视频18 | 欧美国产亚洲日韩在线二区 | 国产亚洲精品久久久久久 | 伦伦影院午夜理论片 | 东北女人啪啪对白 | 在线а√天堂中文官网 | аⅴ资源天堂资源库在线 | 国产成人午夜福利在线播放 | 中文字幕人妻无码一区二区三区 | 日本一区二区三区免费播放 | 精品夜夜澡人妻无码av蜜桃 | 国产精品久久久久9999小说 | 亚洲天堂2017无码中文 | 东北女人啪啪对白 | 精品成人av一区二区三区 | 精品久久综合1区2区3区激情 | 国产亚洲日韩欧美另类第八页 | 亚洲の无码国产の无码影院 | 亚洲色无码一区二区三区 | 国产 精品 自在自线 | 色欲久久久天天天综合网精品 | 色一情一乱一伦一区二区三欧美 | 久久国产精品_国产精品 | 十八禁真人啪啪免费网站 | 一本久道久久综合婷婷五月 | 欧美国产亚洲日韩在线二区 | 好爽又高潮了毛片免费下载 | 国产成人一区二区三区在线观看 | 一本无码人妻在中文字幕免费 | 男女超爽视频免费播放 | 国产精品美女久久久久av爽李琼 | 永久黄网站色视频免费直播 | 成人免费视频在线观看 | 国产精品人妻一区二区三区四 | 高潮毛片无遮挡高清免费视频 | 色综合久久久无码中文字幕 | 久久伊人色av天堂九九小黄鸭 | 搡女人真爽免费视频大全 | 四虎永久在线精品免费网址 | 精品国偷自产在线 | 麻豆蜜桃av蜜臀av色欲av | 无码av免费一区二区三区试看 | 日韩av无码中文无码电影 | 日本护士毛茸茸高潮 | 国产无遮挡吃胸膜奶免费看 | 少妇性l交大片欧洲热妇乱xxx | 国产乱码精品一品二品 | 大乳丰满人妻中文字幕日本 | 久久精品国产精品国产精品污 | 国产亚洲精品久久久ai换 | 国产一区二区三区精品视频 | 乱码av麻豆丝袜熟女系列 | 国产成人一区二区三区别 | 国产婷婷色一区二区三区在线 | 精品 日韩 国产 欧美 视频 | 久久国产精品二国产精品 | 欧美性猛交内射兽交老熟妇 | 天天摸天天透天天添 | 亚洲天堂2017无码中文 | 亚洲区欧美区综合区自拍区 | 午夜不卡av免费 一本久久a久久精品vr综合 | 免费人成网站视频在线观看 | 乱码午夜-极国产极内射 | √天堂中文官网8在线 | 午夜嘿嘿嘿影院 | 中文字幕无码av激情不卡 | 国产欧美熟妇另类久久久 | 日韩精品久久久肉伦网站 | 无码国产乱人伦偷精品视频 | 国产肉丝袜在线观看 | 亚洲人交乣女bbw | 人妻人人添人妻人人爱 | 99久久婷婷国产综合精品青草免费 | 中文字幕人妻无码一区二区三区 | 超碰97人人射妻 | 成人精品天堂一区二区三区 | 亚洲自偷自偷在线制服 | 又色又爽又黄的美女裸体网站 | 亚洲小说图区综合在线 | 在线欧美精品一区二区三区 | 久久精品女人天堂av免费观看 | 国产亚av手机在线观看 | 欧洲vodafone精品性 | 久久精品国产亚洲精品 | 久久精品99久久香蕉国产色戒 | 永久免费观看国产裸体美女 | 国产另类ts人妖一区二区 | 亚洲一区二区三区无码久久 | 国产9 9在线 | 中文 | 欧美肥老太牲交大战 | 久久久精品成人免费观看 | 人人妻人人澡人人爽欧美一区九九 | 色婷婷综合中文久久一本 | 好屌草这里只有精品 | 亚洲国产av美女网站 | 久久99国产综合精品 | 国产精品久久福利网站 | 国产人妖乱国产精品人妖 | 免费人成网站视频在线观看 | 亚洲成av人片在线观看无码不卡 | 在线亚洲高清揄拍自拍一品区 | 熟妇人妻中文av无码 | 国产精品亚洲专区无码不卡 | 亚洲精品综合五月久久小说 | 三级4级全黄60分钟 | 帮老师解开蕾丝奶罩吸乳网站 | 老子影院午夜精品无码 | 亚洲精品国产精品乱码视色 | 永久免费观看国产裸体美女 | 精品久久综合1区2区3区激情 | 亚洲熟妇自偷自拍另类 | 少妇无码av无码专区在线观看 | 成人欧美一区二区三区黑人免费 | 亚洲熟熟妇xxxx | 国内精品九九久久久精品 | 免费视频欧美无人区码 | 大肉大捧一进一出好爽视频 | 少妇久久久久久人妻无码 | 最新国产乱人伦偷精品免费网站 | 小鲜肉自慰网站xnxx | 亚洲色偷偷偷综合网 | 欧美freesex黑人又粗又大 | 撕开奶罩揉吮奶头视频 | 亚洲人成网站色7799 | 精品人人妻人人澡人人爽人人 | 国产av久久久久精东av | 亚洲一区二区三区偷拍女厕 | 国内少妇偷人精品视频免费 | 日本一区二区三区免费播放 | 亚拍精品一区二区三区探花 | 成人一在线视频日韩国产 | 成人一在线视频日韩国产 | 精品午夜福利在线观看 | 最新国产乱人伦偷精品免费网站 | 国产乱人偷精品人妻a片 | 精品国产国产综合精品 | 成人片黄网站色大片免费观看 | 国产精品va在线观看无码 | 亚洲成色www久久网站 | 无码人妻出轨黑人中文字幕 | 国产成人综合在线女婷五月99播放 | 日韩成人一区二区三区在线观看 | 精品人妻中文字幕有码在线 | 国产精品无码一区二区桃花视频 | 欧美丰满熟妇xxxx性ppx人交 | 性做久久久久久久免费看 | 国产精品18久久久久久麻辣 | 天天摸天天碰天天添 | 狠狠色欧美亚洲狠狠色www | 国产xxx69麻豆国语对白 | 一本久久a久久精品亚洲 | 性啪啪chinese东北女人 | 精品熟女少妇av免费观看 | 午夜精品久久久久久久久 | 国产成人精品必看 | 东京热无码av男人的天堂 | 精品日本一区二区三区在线观看 | 欧美日韩亚洲国产精品 | 婷婷综合久久中文字幕蜜桃三电影 | 人人妻人人藻人人爽欧美一区 | 在线观看欧美一区二区三区 | 无码国模国产在线观看 | 久久综合色之久久综合 | 国产精华av午夜在线观看 | 水蜜桃色314在线观看 | 免费视频欧美无人区码 | 99久久精品无码一区二区毛片 | 欧洲熟妇精品视频 | 国产情侣作爱视频免费观看 | 国产精品久久久久久亚洲毛片 | 97精品人妻一区二区三区香蕉 | 国产欧美熟妇另类久久久 | 少妇性l交大片 | 欧美xxxx黑人又粗又长 | 国产在线一区二区三区四区五区 | 中文精品久久久久人妻不卡 | 久久久久久久久888 | 夜夜躁日日躁狠狠久久av | 亚洲精品综合五月久久小说 | 成人综合网亚洲伊人 | 久久久无码中文字幕久... | 国产在线一区二区三区四区五区 | 色一情一乱一伦一区二区三欧美 | 成人欧美一区二区三区 | 久久亚洲精品成人无码 | 在线播放免费人成毛片乱码 | 麻豆国产人妻欲求不满谁演的 | 欧美黑人巨大xxxxx | 精品午夜福利在线观看 | 国产精品亚洲综合色区韩国 | 亚洲中文字幕在线无码一区二区 | 国产热a欧美热a在线视频 | 天天做天天爱天天爽综合网 | 国产精品沙发午睡系列 | 久久精品国产一区二区三区 | 久久视频在线观看精品 | 欧洲熟妇精品视频 | 荫蒂被男人添的好舒服爽免费视频 | 伊人色综合久久天天小片 | 久久久久成人精品免费播放动漫 | 亚洲色欲色欲欲www在线 | 国产亚洲欧美在线专区 | 18无码粉嫩小泬无套在线观看 | 亚洲色www成人永久网址 | 老子影院午夜伦不卡 | 国产av剧情md精品麻豆 | 性啪啪chinese东北女人 | 国产精品久免费的黄网站 | 国精品人妻无码一区二区三区蜜柚 | 亚洲综合在线一区二区三区 | 午夜无码人妻av大片色欲 | 中文字幕久久久久人妻 | 国产精品二区一区二区aⅴ污介绍 | 国内精品久久毛片一区二区 | 内射爽无广熟女亚洲 | 久久久久免费看成人影片 | 精品人妻人人做人人爽夜夜爽 | 东京无码熟妇人妻av在线网址 | 九月婷婷人人澡人人添人人爽 | 成熟妇人a片免费看网站 | 国产香蕉97碰碰久久人人 | 学生妹亚洲一区二区 | 国产国产精品人在线视 | aⅴ亚洲 日韩 色 图网站 播放 | 亚洲中文字幕成人无码 | 永久免费观看国产裸体美女 | 欧美真人作爱免费视频 | 日日碰狠狠躁久久躁蜜桃 | 国产又爽又黄又刺激的视频 | 久久久久久av无码免费看大片 | 天天做天天爱天天爽综合网 | 亚洲成a人片在线观看无码3d | 鲁鲁鲁爽爽爽在线视频观看 | 伊人久久大香线焦av综合影院 | 日韩精品无码一区二区中文字幕 | 欧美日本精品一区二区三区 | 国产无遮挡又黄又爽免费视频 | 中文字幕av伊人av无码av | 精品无码国产自产拍在线观看蜜 | aⅴ亚洲 日韩 色 图网站 播放 | 在线 国产 欧美 亚洲 天堂 | 国产超碰人人爽人人做人人添 | 西西人体www44rt大胆高清 | 女高中生第一次破苞av | 国产乱码精品一品二品 | 欧美乱妇无乱码大黄a片 | 久久亚洲中文字幕无码 | 丰满少妇弄高潮了www | 亚洲综合久久一区二区 | 国产乱码精品一品二品 | 高潮毛片无遮挡高清免费 | a片免费视频在线观看 | 荫蒂被男人添的好舒服爽免费视频 | 久热国产vs视频在线观看 | 黄网在线观看免费网站 | 一本大道伊人av久久综合 | 午夜无码人妻av大片色欲 | 强伦人妻一区二区三区视频18 | 日本又色又爽又黄的a片18禁 | 亚洲无人区午夜福利码高清完整版 | 天天做天天爱天天爽综合网 | 爆乳一区二区三区无码 | 香蕉久久久久久av成人 | 国产内射爽爽大片视频社区在线 | 3d动漫精品啪啪一区二区中 | 国产免费无码一区二区视频 | 久久伊人色av天堂九九小黄鸭 | 人人妻人人澡人人爽人人精品浪潮 | 欧美高清在线精品一区 | 国产又爽又黄又刺激的视频 | 骚片av蜜桃精品一区 | 伊人色综合久久天天小片 | 久久天天躁狠狠躁夜夜免费观看 | 无码精品国产va在线观看dvd | 日韩精品无码一本二本三本色 | 精品偷拍一区二区三区在线看 | 日日摸天天摸爽爽狠狠97 | 人人妻人人藻人人爽欧美一区 | 激情国产av做激情国产爱 | 亚洲欧美日韩成人高清在线一区 | 青春草在线视频免费观看 | 精品无码一区二区三区爱欲 | 少妇人妻偷人精品无码视频 | 少妇一晚三次一区二区三区 | 97久久超碰中文字幕 | 精品欧美一区二区三区久久久 | 人妻aⅴ无码一区二区三区 | 国产另类ts人妖一区二区 | 国产精品高潮呻吟av久久4虎 | 午夜成人1000部免费视频 | 少妇性荡欲午夜性开放视频剧场 | 国产 浪潮av性色四虎 | 日本爽爽爽爽爽爽在线观看免 | 午夜无码人妻av大片色欲 | 欧美阿v高清资源不卡在线播放 | 亚洲中文字幕va福利 | 亚洲小说春色综合另类 | 性欧美videos高清精品 | 麻豆果冻传媒2021精品传媒一区下载 | 无码福利日韩神码福利片 | 国产亚洲精品久久久ai换 | 日韩人妻少妇一区二区三区 | 妺妺窝人体色www婷婷 | 色偷偷人人澡人人爽人人模 | 国产精品无码一区二区三区不卡 | 久久99热只有频精品8 | 亚洲精品一区二区三区四区五区 | 波多野结衣乳巨码无在线观看 | 国产精品99久久精品爆乳 | 少妇邻居内射在线 | 三级4级全黄60分钟 | 国语精品一区二区三区 | 亚洲伊人久久精品影院 | 久久综合久久自在自线精品自 | 久久精品人人做人人综合试看 | 少妇人妻大乳在线视频 | 久久国语露脸国产精品电影 | 精品国产乱码久久久久乱码 | 丰满少妇熟乱xxxxx视频 | 国产乱人伦偷精品视频 | 国产精品丝袜黑色高跟鞋 | 亚洲成a人片在线观看无码 | 无套内谢老熟女 | 欧美熟妇另类久久久久久多毛 | 欧美怡红院免费全部视频 | 欧美三级不卡在线观看 | 色窝窝无码一区二区三区色欲 | 无码吃奶揉捏奶头高潮视频 | 成人亚洲精品久久久久软件 | 亚洲成av人在线观看网址 | 日日摸日日碰夜夜爽av | 欧美日本日韩 | 午夜熟女插插xx免费视频 | 国产电影无码午夜在线播放 | 又黄又爽又色的视频 | 无码国产激情在线观看 | 乱码午夜-极国产极内射 | 欧洲精品码一区二区三区免费看 | 国产午夜视频在线观看 | 人妻中文无码久热丝袜 | 日本一卡二卡不卡视频查询 | 人人妻人人澡人人爽人人精品浪潮 | 国产凸凹视频一区二区 | av在线亚洲欧洲日产一区二区 | 一本无码人妻在中文字幕免费 | 亚洲精品欧美二区三区中文字幕 | 日欧一片内射va在线影院 | 中文字幕无线码免费人妻 | 免费观看激色视频网站 | 日本成熟视频免费视频 | 中文字幕av无码一区二区三区电影 | 77777熟女视频在线观看 а天堂中文在线官网 | 国产亚洲精品精品国产亚洲综合 | 亚洲国产精品美女久久久久 | www国产亚洲精品久久网站 | 18禁止看的免费污网站 | 天天躁日日躁狠狠躁免费麻豆 | 久久综合九色综合欧美狠狠 | 色五月五月丁香亚洲综合网 | 狠狠色欧美亚洲狠狠色www | 18无码粉嫩小泬无套在线观看 | 兔费看少妇性l交大片免费 | 日韩av无码一区二区三区 | 好男人社区资源 | 无套内射视频囯产 | 扒开双腿疯狂进出爽爽爽视频 | 精品久久8x国产免费观看 | 天干天干啦夜天干天2017 | 欧美性猛交xxxx富婆 | 精品成人av一区二区三区 | 蜜臀av无码人妻精品 | 亚洲 高清 成人 动漫 | 久久久久久久人妻无码中文字幕爆 | 日本xxxx色视频在线观看免费 | 国产成人一区二区三区在线观看 | 超碰97人人做人人爱少妇 | 欧美黑人性暴力猛交喷水 | 天天躁日日躁狠狠躁免费麻豆 | 午夜熟女插插xx免费视频 | 亚洲人亚洲人成电影网站色 | 水蜜桃亚洲一二三四在线 | 天天做天天爱天天爽综合网 | 国产精品沙发午睡系列 | 国产精品无码一区二区桃花视频 | 午夜精品一区二区三区的区别 | 亚洲精品久久久久久久久久久 | 一区二区传媒有限公司 | 在线a亚洲视频播放在线观看 | 亚洲无人区午夜福利码高清完整版 | 日本欧美一区二区三区乱码 | 最近中文2019字幕第二页 | 久久精品国产99精品亚洲 | 亚洲熟妇自偷自拍另类 | 少妇性l交大片欧洲热妇乱xxx | 国产精品人人妻人人爽 | 欧美成人午夜精品久久久 | 人妻少妇精品视频专区 | 精品人妻人人做人人爽 | 狠狠亚洲超碰狼人久久 | 国产精品人妻一区二区三区四 | 欧洲熟妇色 欧美 | 精品熟女少妇av免费观看 | 亚洲小说春色综合另类 | 99er热精品视频 | av小次郎收藏 | 国产欧美熟妇另类久久久 | 99精品视频在线观看免费 | 国产乱人伦av在线无码 | 伊人久久婷婷五月综合97色 | 在教室伦流澡到高潮hnp视频 | 日本一卡2卡3卡四卡精品网站 | 免费无码肉片在线观看 | 日日干夜夜干 | 伊人色综合久久天天小片 | 国产精品亚洲五月天高清 | 激情综合激情五月俺也去 | 国产精品自产拍在线观看 | 日日天日日夜日日摸 | 国产精品久久久久久无码 | 老太婆性杂交欧美肥老太 | 国产激情无码一区二区 | 人人爽人人澡人人人妻 | 天天躁日日躁狠狠躁免费麻豆 | 亚洲日本在线电影 | 久久精品99久久香蕉国产色戒 | 国产黄在线观看免费观看不卡 | 亚洲中文字幕在线无码一区二区 | 四虎国产精品一区二区 | 亚洲精品午夜国产va久久成人 | 亚无码乱人伦一区二区 | 亚洲一区av无码专区在线观看 | 免费国产黄网站在线观看 | 国产精品二区一区二区aⅴ污介绍 | 色偷偷人人澡人人爽人人模 | 亚洲熟妇色xxxxx欧美老妇 | 18禁止看的免费污网站 | 国产高潮视频在线观看 | 亚洲成熟女人毛毛耸耸多 | 大肉大捧一进一出好爽视频 | 久久精品人人做人人综合 | 成人精品天堂一区二区三区 | 亚洲国产av精品一区二区蜜芽 | 午夜精品久久久内射近拍高清 | 国产成人久久精品流白浆 | 天天躁日日躁狠狠躁免费麻豆 | 久久久精品欧美一区二区免费 | 国产熟女一区二区三区四区五区 | 伊人久久大香线蕉午夜 | 双乳奶水饱满少妇呻吟 | 国产深夜福利视频在线 | 亚洲精品中文字幕 | 日本高清一区免费中文视频 | 国产99久久精品一区二区 | 欧美精品国产综合久久 | 日韩av无码一区二区三区 | 国产在线精品一区二区高清不卡 | 国产美女精品一区二区三区 | 狠狠色欧美亚洲狠狠色www | 中文字幕久久久久人妻 | 日本免费一区二区三区最新 | 日日摸夜夜摸狠狠摸婷婷 | 国产乱人无码伦av在线a | 综合网日日天干夜夜久久 | 国产成人无码专区 | 欧美人与牲动交xxxx | 精品偷自拍另类在线观看 | 蜜臀av无码人妻精品 | 东京热男人av天堂 | 在线亚洲高清揄拍自拍一品区 | 国产办公室秘书无码精品99 | 久青草影院在线观看国产 | 青青青爽视频在线观看 | 亚洲精品午夜国产va久久成人 | 亚洲日韩一区二区 | 亚洲色欲色欲欲www在线 | 在线播放无码字幕亚洲 | 无码av最新清无码专区吞精 | 中国女人内谢69xxxx | 精品偷自拍另类在线观看 | 帮老师解开蕾丝奶罩吸乳网站 | 亚洲一区二区三区含羞草 | 97精品国产97久久久久久免费 | 强辱丰满人妻hd中文字幕 | 少妇无码吹潮 | 性史性农村dvd毛片 | 免费无码肉片在线观看 | 国产精品高潮呻吟av久久4虎 | 国产深夜福利视频在线 | 精品一区二区三区波多野结衣 | 偷窥村妇洗澡毛毛多 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 国产无遮挡吃胸膜奶免费看 | 久久无码人妻影院 | 丁香啪啪综合成人亚洲 | 国产精品亚洲а∨无码播放麻豆 | 国产人妻大战黑人第1集 | 帮老师解开蕾丝奶罩吸乳网站 | 国产精品爱久久久久久久 | 18无码粉嫩小泬无套在线观看 | 妺妺窝人体色www在线小说 | 天堂а√在线中文在线 | 欧洲精品码一区二区三区免费看 | 四虎影视成人永久免费观看视频 | 国产精品无码一区二区三区不卡 | 初尝人妻少妇中文字幕 | 青青久在线视频免费观看 | 国产精品资源一区二区 | 天天av天天av天天透 | 女人色极品影院 | 无码人妻av免费一区二区三区 | 国产极品视觉盛宴 | 国产亚洲精品久久久久久国模美 | 亚洲成a人片在线观看日本 | 成人无码视频在线观看网站 | 亚洲aⅴ无码成人网站国产app | 日日麻批免费40分钟无码 | 呦交小u女精品视频 | 午夜时刻免费入口 | 中文无码成人免费视频在线观看 | 欧美大屁股xxxxhd黑色 | 高中生自慰www网站 | 双乳奶水饱满少妇呻吟 | 亚洲精品鲁一鲁一区二区三区 | 亚洲成av人在线观看网址 | 亚无码乱人伦一区二区 | 色欲综合久久中文字幕网 | 久久97精品久久久久久久不卡 | 欧美三级不卡在线观看 | 精品成在人线av无码免费看 | 欧美精品在线观看 | 国产极品美女高潮无套在线观看 | 日本精品少妇一区二区三区 | 丝袜足控一区二区三区 | 久久精品国产一区二区三区 | 国产sm调教视频在线观看 | 久久久国产一区二区三区 | 精品人妻中文字幕有码在线 | 精品久久8x国产免费观看 | 久久综合给久久狠狠97色 | 男女超爽视频免费播放 | 久久精品中文字幕一区 | 女人高潮内射99精品 | 国内精品人妻无码久久久影院蜜桃 | 欧美野外疯狂做受xxxx高潮 | 亚洲乱码中文字幕在线 | 在线观看欧美一区二区三区 | 久久国产36精品色熟妇 | 精品无人区无码乱码毛片国产 | 亚洲阿v天堂在线 | 人人妻人人澡人人爽欧美一区 | 久久国产精品精品国产色婷婷 | 久久综合九色综合欧美狠狠 | 久久久www成人免费毛片 | 久久综合久久自在自线精品自 | 欧美性生交xxxxx久久久 | 中文字幕日韩精品一区二区三区 | 少妇无码一区二区二三区 | 亚洲自偷自拍另类第1页 | 2020最新国产自产精品 | 人妻少妇精品视频专区 | 曰韩少妇内射免费播放 | 亚洲一区二区三区播放 | 亚洲国产精品无码久久久久高潮 | 国产精品99爱免费视频 | 亚洲gv猛男gv无码男同 | 国产亚洲精品久久久闺蜜 | 亚洲欧美日韩成人高清在线一区 | 三级4级全黄60分钟 | 欧美性生交xxxxx久久久 | 久久亚洲日韩精品一区二区三区 | 成人试看120秒体验区 | 日韩少妇白浆无码系列 | 99在线 | 亚洲 | 欧美人妻一区二区三区 | 丁香啪啪综合成人亚洲 | 成人免费视频视频在线观看 免费 | 国产精品久久久久久亚洲影视内衣 | 色一情一乱一伦一视频免费看 | 国产精品久久久久无码av色戒 | 亚洲日韩精品欧美一区二区 | 成 人影片 免费观看 | 亚洲天堂2017无码中文 | 强辱丰满人妻hd中文字幕 | 中文字幕无码热在线视频 | 人妻少妇精品无码专区动漫 | 中文久久乱码一区二区 | 粗大的内捧猛烈进出视频 | 久久无码人妻影院 | 国产亚洲精品久久久久久久久动漫 | 久久亚洲日韩精品一区二区三区 | 国内丰满熟女出轨videos | 色婷婷久久一区二区三区麻豆 | 国产在线精品一区二区高清不卡 | 日韩精品乱码av一区二区 | 人妻少妇精品无码专区动漫 | 一本色道婷婷久久欧美 | 1000部啪啪未满十八勿入下载 | 欧美35页视频在线观看 | 亚洲天堂2017无码中文 | 国产成人av免费观看 | 精品国产麻豆免费人成网站 | 色欲av亚洲一区无码少妇 | 亚洲精品国偷拍自产在线麻豆 | 中文字幕色婷婷在线视频 | 男人扒开女人内裤强吻桶进去 | 久久精品99久久香蕉国产色戒 | 日本一区二区三区免费播放 | 精品成在人线av无码免费看 | √8天堂资源地址中文在线 | 人妻少妇精品久久 | 亚洲区欧美区综合区自拍区 | 亚洲另类伦春色综合小说 | 久久综合给合久久狠狠狠97色 | 波多野42部无码喷潮在线 | 在线天堂新版最新版在线8 | 丁香花在线影院观看在线播放 | 色五月五月丁香亚洲综合网 | 无码人中文字幕 | 中文字幕无码热在线视频 | 亚洲熟女一区二区三区 | 久久aⅴ免费观看 | 日本一区二区三区免费高清 | 精品国精品国产自在久国产87 | 少妇高潮喷潮久久久影院 | 国产色精品久久人妻 | 日本又色又爽又黄的a片18禁 | 亚洲码国产精品高潮在线 | 亚洲爆乳无码专区 | 午夜福利试看120秒体验区 | 任你躁国产自任一区二区三区 | 成人精品视频一区二区三区尤物 | 暴力强奷在线播放无码 | 国产精品va在线观看无码 | 少妇性荡欲午夜性开放视频剧场 | 日本爽爽爽爽爽爽在线观看免 | 黑人巨大精品欧美一区二区 | 水蜜桃av无码 | 无码帝国www无码专区色综合 | 无码人妻黑人中文字幕 | 亚洲中文字幕av在天堂 | 国产三级久久久精品麻豆三级 | 亚洲小说春色综合另类 | 日日干夜夜干 | 国产真人无遮挡作爱免费视频 | 国产电影无码午夜在线播放 | 女人被爽到呻吟gif动态图视看 | 久久人人爽人人爽人人片av高清 | 成人欧美一区二区三区黑人 | 帮老师解开蕾丝奶罩吸乳网站 | 人人爽人人爽人人片av亚洲 | 久久国产36精品色熟妇 | 精品国产一区二区三区四区在线看 | 小泽玛莉亚一区二区视频在线 | 青青青爽视频在线观看 | 扒开双腿疯狂进出爽爽爽视频 | 麻豆精产国品 | 久久精品国产亚洲精品 | 98国产精品综合一区二区三区 | 久久亚洲日韩精品一区二区三区 | 亚洲欧美色中文字幕在线 | 久久久久亚洲精品中文字幕 | 3d动漫精品啪啪一区二区中 | 天下第一社区视频www日本 | 男女超爽视频免费播放 | 中文精品无码中文字幕无码专区 | 精品亚洲成av人在线观看 | 国产内射爽爽大片视频社区在线 | 国产亚洲精品精品国产亚洲综合 | 99久久亚洲精品无码毛片 | 国产精品国产三级国产专播 | 欧美日韩一区二区免费视频 | a在线亚洲男人的天堂 | 少妇无码一区二区二三区 | 熟妇人妻无码xxx视频 | 无码人妻久久一区二区三区不卡 | 国内精品人妻无码久久久影院蜜桃 | 日韩在线不卡免费视频一区 | 无码人妻出轨黑人中文字幕 | 欧美丰满熟妇xxxx性ppx人交 | 黄网在线观看免费网站 | 日韩精品无码一本二本三本色 | 无码成人精品区在线观看 | 国产在线aaa片一区二区99 | 久久视频在线观看精品 | 成人无码视频在线观看网站 | 欧美一区二区三区视频在线观看 | 97资源共享在线视频 | 亚洲国产精品久久久久久 | 国产美女精品一区二区三区 | 中文字幕无码免费久久99 | √天堂资源地址中文在线 | 无码人妻少妇伦在线电影 | 67194成是人免费无码 | 水蜜桃色314在线观看 | 国产超碰人人爽人人做人人添 | 人妻少妇精品久久 | 亚洲午夜无码久久 | 精品一区二区三区波多野结衣 | 日日干夜夜干 | 99久久精品无码一区二区毛片 |