久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 综合教程 >内容正文

综合教程

python爬虫入门 之 移动端数据的爬取

發布時間:2024/1/4 综合教程 24 生活家
生活随笔 收集整理的這篇文章主要介紹了 python爬虫入门 之 移动端数据的爬取 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

第七章 移動端數據的爬取

基于某一款抓包工具 : fiddler ,青花瓷 ,miteproxy

7.1 fiddler 基本配置

7.1.1fiddler簡介和安裝

什么是Fiddler?

Fiddler是位于客戶端和服務器端的HTTP代理,也是目前最常用的http抓包工具之一 。 它能夠記錄客戶端和服務器之間的所有 HTTP請求,可以針對特定的HTTP請求,分析請求數據、設置斷點、調試web應用、修改請求的數據,甚至可以修改服務器返回的數據,功能非常強大,是web調試的利器。

Fiddler安裝

Fiddler下載地址:https://www.telerik.com/fiddler

傻瓜式安裝,一鍵到底。Fiddler軟件界面如圖所示:

7.1.2手機APP抓包設置

Fiddler設置打開Fiddler軟件,打開工具的設置。(Fiddler軟件菜單欄:Tools->Options)在HTTPS中設置如下:

在Connections中設置如下

這里使用默認8888端口,當然也可以自己更改,但是注意不要與已經使用的端口沖突:Allow remote computers to connect:允許別的機器把請求發送到fiddler上來

安全證書下載

在電腦瀏覽器中輸入地址:http://localhost:8888/,點擊FiddlerRoot certificate,下載安全證書:

安全證書安裝

證書是需要在手機上進行安裝的,這樣在電腦Fiddler軟件抓包的時候,手機使用電腦的網卡上網才不會報錯。

Android手機安裝:

把證書放入手機的內置或外置存儲卡上,然后通過手機的"系統安全-》從存儲設備安裝"菜單安裝證書。然后找到拷貝的FiddlerRoot.cer進行安裝即可。安裝好之后,可以在信任的憑證中找到我們已經安裝好的安全證書。

蘋果手機安裝:

保證手機網絡和fiddler所在機器網絡是同一個網段下的在safari中訪問http://fiddle機器ip:fiddler端口,進行證書下載。然后進行安裝證書操作。在手機中的設置-》通用-》關于本機-》證書信任設置-》開啟fiddler證書信任

局域網設置 想要使用Fiddler進行手機抓包,首先要確保手機和電腦的網絡在一個內網中,可以使用讓電腦和手機都連接同一個路由器。當然,也可以讓電腦開放WIFI熱點,手機連入。這里,我使用的方法是,讓手機和電腦同時連入一個路由器中。最后,讓手機使用電腦的代理IP進行上網。 在手機上,點擊連接的WIFI進行網絡修改,添加代理。進行手動設置,ip和端口號都是fiddler機器的ip和fiddler上設置的端口號。

Fiddler手機抓包測試

上述步驟都設置完成之后,用手機瀏覽器打開百度首頁,我們就可以順利抓包了

7.1.3移動端數據的捕獲流程

tools --> options --> connection -->allow remote

http: fiddler所在pc機的ip :8888/ 訪問到一張提供了證書下載功能的界面

fiddler所在機器和手機在同一網段下 :在手機上瀏覽器中訪問 http: fiddler所在pc機的ip :8888 獲取子頁面進行證書的下載和安裝(證書信任的操作)

配置你手機的代理 :將手機的代理配置成 fiddler所對應的pc機的ip和手機自己的端口

就可以讓fiddler捕獲手機發起的http和https的請求

7.2 scrapy ,pyspider

#總結:
?
#爬蟲文件中的屬性和方法
    name :爬蟲文件唯一標識
    start_url:該列表中的url會被自動的進行請求發送
#自動請求發送的過程:
    def start_requests(self):
        for url in self.start_urls:
            yield scrapy.Request(url,callback=self.parse)
?
#數據解析:
    scrapy中封裝的xpath進行數據解析   
    
#scrapy中的xpath 和 etree中的xpath的區別
    scrapy的xpath進行數據解析后返回的列表元素為Selector對象,extract或extract_first這兩個方法將Selector對象中對應的數據取出

View Code

7.2.1Scrapy簡介

什么是框架?如何學習

框架就是一個集成各種功能且具有很強通用性(可以被應用在各種不同的需求中)的一個項目模板

我們只需要學習框架中封裝好的相關功能即可

scrapy 集成的功能

高性能的數據解析操作 ,持久化存儲,高性能的數據下載操作......

環境的安裝(windows)

pip install wheel

下載twisted http://www.lfd.uci.edu/~gohlke/pythonlibs/

進入下載目錄,執行 pip3 install Twisted?17.1.0?cp35?cp35m?win_amd64.whl

pip3 install pywin32

pip3 install scrapy

7.2.2 scrapy的基本使用

創建一個工程 :scrapy startproject firstBlood

項目結構:

project_name/
   scrapy.cfg:            #項目的主配置信息。(真正爬蟲相關的配置信息在settings.py文件中)
   project_name/
       __init__.py  
       items.py            #設置數據存儲模板,用于結構化數據,如:Django的Model
       pipelines.py        #數據持久化處理
       settings.py         #配置文件,如:遞歸的層數、并發數,延遲下載等
       spiders/            #爬蟲目錄,如:創建文件,編寫爬蟲解析規則
           __init__.py

創建爬蟲應用程序:(必須在spider這個目錄下創建一個爬蟲文件)

cd proName

scrapy genspider spiderName http://t.zoukankan.com/www.xx.com

編寫爬蟲文件:在步驟2執行完畢后,會在項目的spiders中生成一個應用名的py爬蟲文件

import scrapy

class FirstSpider(scrapy.Spider):
    #爬蟲文件的名稱:爬蟲文件的唯一標識(在spiders子目錄下是可以創建多個爬蟲文件)
    name = 'first'
    #允許的域名
    # allowed_domains = ['www.baidu.com']
    #起始的url列表:列表中存放的url會被scrapy自動的進行請求發送
    start_urls = ['https://www.baidu.com/','https://www.sogou.com/']
    #用作于數據解析:將start_urls列表中對應的url請求成功后的響應數據進行解析
    def parse(self, response):
        print(response.text) #獲取字符串類型的響應內容
        print(response.body)#獲取字節類型的相應內容

View Code

設置修改settings.py配置文件相關配置

# settings.py 文件中
    #不遵從robots協議
    #進行UA偽裝
    #進行日志等級設定: LOG_LEVEL = False

View Code

setting.py中 ----- 基于終端指令的持久化存儲操作

BOT_NAME = 'firstBlood'

SPIDER_MODULES = ['firstBlood.spiders']
NEWSPIDER_MODULE = 'firstBlood.spiders'


# Crawl responsibly by identifying yourself (and your website) on the user-agent
USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36'       #進行ua偽裝
# Obey robots.txt rules
ROBOTSTXT_OBEY = False    #不遵從robotstx協議
LOG_LEVEL = 'ERROR'       #輸出錯誤類型的日志

View Code

setting.py ------------- 基于管道的持久化存儲

BOT_NAME = 'qiubaiPro'
USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36'

SPIDER_MODULES = ['qiubaiPro.spiders']
NEWSPIDER_MODULE = 'qiubaiPro.spiders'


ITEM_PIPELINES = {
   'qiubaiPro.pipelines.QiubaiproPipeline': 300, #300表示的是優先級(數值越小優先級越大)
}

View Code

執行爬蟲程序:scripy crawl spiderName

不輸出日志(錯誤信息會在日志中輸出,不要使用)

scripy crawl spiderName --nolog

View Code

7.2.3scrapy框架持久化存儲

#持久化存儲
    #基于終端指令
        特性 : 只能將 parse 方法的返回值存儲到本地的磁盤文件中
        指令 : scripy crawl spiderName -o filepath
    #基于管道
        #實現流程
        1.數據解析
        2.在item類中定義相關屬性
        3.將解析的數據封裝到一個 item 對象中(item文件中對應類的對象)
        4.向管道提交item
        5.在管道文件中的 process_item 方法中接收 item 進行持久化存儲
        6.在配置文件中開啟管道
    
    #管道中需注意細節:
        1.配置文件中開啟的管道是一個字典,字典中的鍵值表示的就是某一個管道
        2.在管道對應的源文件中其實可以定義多個管道類,一種形式的持久化存儲
        3.在process_item方法中的 return item 表示的是提交給下一個即將被執行的管道類
        4.爬蟲文件中yield item 只可以將item傳遞給第一個被執行的(優先級最高的)管道
    
    #將同一份數據持久化存儲到不同平臺中:
        #分析
        1.管道文件中的一個管道內負責數據的一種形式的持久化存儲

setting.py中 ----- 基于終端指令的持久化存儲操作

BOT_NAME = 'firstBlood'

SPIDER_MODULES = ['firstBlood.spiders']
NEWSPIDER_MODULE = 'firstBlood.spiders'


# Crawl responsibly by identifying yourself (and your website) on the user-agent
USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36'       #進行ua偽裝
# Obey robots.txt rules
ROBOTSTXT_OBEY = False    #不遵從robotstx協議
LOG_LEVEL = 'ERROR'       #輸出錯誤類型的日志

View Code

setting.py ------------- 基于管道的持久化存儲

BOT_NAME = 'qiubaiPro'
USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36'

SPIDER_MODULES = ['qiubaiPro.spiders']
NEWSPIDER_MODULE = 'qiubaiPro.spiders'


ITEM_PIPELINES = {
   'qiubaiPro.pipelines.QiubaiproPipeline': 300, #300表示的是優先級(數值越小優先級越大)
}

View Code

糗事百科

qiubai.py

import scrapy
from qiubaiPro.items import QiubaiproItem

class QiubaiSpider(scrapy.Spider):
    name = 'qiubai'
    # allowed_domains = ['http://t.zoukankan.com/www.xxx.com']
    start_urls = ['https://www.qiushibaike.com/text/']
    
    #基于終端指令的持久化存儲操作
    # def parse(self, response):
    #     div_list = response.xpath('//*[@id="content-left"]/div')
    #     all_data = []
    #     for div in div_list:
    #         #scrapy中的xpath返回的列表的列表元素一定是Selector對象,我們最終想要的解析的
    #         #數據一定是存儲在該對象中
    #         #extract()將Selector對象中data參數的值取出
    #         # author = div.xpath('./div[1]/a[2]/h2/text()')[0].extract()
    #         author = div.xpath('./div[1]/a[2]/h2/text()').extract_first()
    #         #列表直接調用extract表示的是將extract作用到每一個列表元素中
    #         content = div.xpath('./a[1]/div/span//text()').extract()
    #         content = ''.join(content)
    #         dic = {
    #             'author':author,
    #             'content':content
    #         }
    #         all_data.append(dic)
    #     return all_data
    
   
    #基于管道的持久化存儲
    def parse(self, response):
        div_list = response.xpath('//*[@id="content-left"]/div')
        all_data = []
        for div in div_list:
            #scrapy中的xpath返回的列表的列表元素一定是Selector對象,我們最終想要的解析的
            #數據一定是存儲在該對象中
            #extract()將Selector對象中data參數的值取出
            # author = div.xpath('./div[1]/a[2]/h2/text()')[0].extract()
            author = div.xpath('./div[1]/a[2]/h2/text()').extract_first()
            #列表直接調用extract表示的是將extract作用到每一個列表元素中
            content = div.xpath('./a[1]/div/span//text()').extract()
            content = ''.join(content)

            #將解析的數據存儲到item對象
            item = QiubaiproItem()
            item['author'] = author
            item['content'] = content

            #將item提交給管道
            yield item #item一定是提交給了優先級最高的管道類

View Code

itims.py

import scrapy

class QiubaiproItem(scrapy.Item):
    # define the fields for your item here like:
    author = scrapy.Field() #Field可以將其理解成是一個萬能的數據類型
    content = scrapy.Field()

View Code

pipelines.py 管道文件

import pymysql
from redis import Redis
class QiubaiproPipeline(object):
    fp = None
    def open_spider(self,spider):
        print('開始爬蟲......')
        self.fp = open('qiushibaike.txt','w',encoding='utf-8')

    #使用來接收爬蟲文件提交過來的item,然后將其進行任意形式的持久化存儲
    #參數item:就是接收到的item對象
    #該方法每接收一個item就會調用一次
    def process_item(self, item, spider):
        author = item['author']
        content= item['content']

        self.fp.write(author+':'+content+'
')
        return item #item是返回給了下一個即將被執行的管道類

    def close_spider(self,spider):
        print('結束爬蟲!')
        self.fp.close()

        
#負責將數據存儲到mysql
class MysqlPL(object):
    conn = None
    cursor = None
    def open_spider(self,spider):
        self.conn = pymysql.Connect(host='127.0.0.1',port=3306,user='root',password='123',db='spider',charset='utf8')
        print(self.conn)
    def process_item(self,item,spider):
        author = item['author']
        content = item['content']

        sql = 'insert into qiubai values ("%s","%s")'%(author,content)
        self.cursor = self.conn.cursor()
        try:
            self.cursor.execute(sql)
            self.conn.commit()
        except Exception as e:
            print(e)
            self.conn.rollback()
        return item
    
    def close_spider(self,spider):
        self.cursor.close()
        self.conn.close()

#基于redis的管道存儲
class RedisPL(object):
    conn = None
    def open_spider(self,spider):
        self.conn = Redis(host='127.0.0.1',port=6379)
        print(self.conn)
        
    def process_item(self,item,spider):
        self.conn.lpush('all_data',item)     # name  value
        #注意:如果將字典寫入redis報錯:pip install -U redis==2.10.6

View Code

7.2.4scrapy框架之遞歸解析和post請求

遞歸解析(手動請求發送)

使用場景 :爬取多個頁碼對應的頁面源碼數據

yield scrapy.Request(url,callback)

import scrapy
from qiubaiPro.items import QiubaiproItem

class QiubaiSpider(scrapy.Spider):
    name = 'qiubai'
    # allowed_domains = ['http://t.zoukankan.com/www.xxx.com']
    start_urls = ['https://www.qiushibaike.com/text/']

    #將多個頁碼對應的頁面數據進行爬取和解析的操作
    url = 'https://www.qiushibaike.com/text/page/%d/'#通用的url模板
    pageNum = 1
    #parse第一次調用表示的是用來解析第一頁對應頁面中的段子內容和作者
    def parse(self, response):
        div_list = response.xpath('//*[@id="content-left"]/div')
        all_data = []
        for div in div_list:
            # scrapy中的xpath返回的列表的列表元素一定是Selector對象,我們最終想要的解析的
            # 數據一定是存儲在該對象中
            # extract()將Selector對象中data參數的值取出
            # author = div.xpath('./div[1]/a[2]/h2/text()')[0].extract()
            author = div.xpath('./div[1]/a[2]/h2/text()').extract_first()
            # 列表直接調用extract表示的是將extract作用到每一個列表元素中
            content = div.xpath('./a[1]/div/span//text()').extract()
            content = ''.join(content)

            # 將解析的數據存儲到item對象
            item = QiubaiproItem()
            item['author'] = author
            item['content'] = content

            # 將item提交給管道
            yield item  # item一定是提交給了優先級最高的管道類

        if self.pageNum <= 5:
            self.pageNum += 1
            new_url = format(self.url%self.pageNum)
            #手動請求(get)的發送
            yield scrapy.Request(new_url,callback=self.parse)

View Code

post請求發送

問題:在之前代碼中,我們從來沒有手動的對start_urls列表中存儲的起始url進行過請求的發送,但是起始url的確是進行了請求的發送,那這是如何實現的呢?

解答:其實是因為爬蟲文件中的爬蟲類繼承到了Spider父類中的start_requests(self)這個方法,該方法就可以對start_urls列表中的url發起請求:

  def start_requests(self):
        for u in self.start_urls:
           yield scrapy.Request(url=u,callback=self.parse)

【注意】該方法默認的實現,是對起始的url發起get請求,如果想發起post請求,則需要子類重寫該方法。

方法: 重寫start_requests方法,讓其發起post請求:

def start_requests(self):
        #請求的url
        post_url = 'http://fanyi.baidu.com/sug'
        # post請求參數
        formdata = {
            'kw': 'wolf',
        }
        # 發送post請求
        yield scrapy.FormRequest(url=post_url, formdata=formdata, callback=self.parse)

scrapy五大核心組件

#引擎(Scrapy)
  用來處理整個系統的數據流處理, 觸發事務(框架核心)
#調度器(Scheduler)
  用來接受引擎發過來的請求, 壓入隊列中, 并在引擎再次請求的時候返回. 可以想像成一個URL(抓取網頁的網址或者說是鏈接)的優先隊列, 由它來決定下一個要抓取的網址是什么, 同時去除重復的網址
#下載器(Downloader)
  用于下載網頁內容, 并將網頁內容返回給蜘蛛(Scrapy下載器是建立在twisted這個高效的異步模型上的)
#爬蟲(Spiders)
  爬蟲是主要干活的, 用于從特定的網頁中提取自己需要的信息, 即所謂的實體(Item)。用戶也可以從中提取出鏈接,讓Scrapy繼續抓取下一個頁面
#項目管道(Pipeline)
  負責處理爬蟲從網頁中抽取的實體,主要的功能是持久化實體、驗證實體的有效性、清除不需要的信息。當頁面被爬蟲解析后,將被發送到項目管道,并經過幾個特定的次序處理數據。

工作流程

#步驟
1.spider中的url被封裝成請求對象交給引擎(每一個url對應一個請求對象);
2.引擎拿到請求對象之后, 將其全部交給調度器;
3.調度器拿到所有請求對象后, 通過內部的過濾器過濾掉重復的url, 最后將去重后的所有url對應的請求對象壓入到隊列中, 隨后調度器調度出其中一個請求對象, 并將其交給引擎;
4.引擎將調度器調度出的請求對象交給下載器;
5.下載器拿到該請求對象去互聯網中下載數據;
6.數據下載成功后會被封裝到response中, 隨后response會被交給下載器;
7.下載器將response交給引擎;
8.引擎將response交給spiders;
9.spiders拿到response后調用回調方法進行數據解析, 解析成功后產生item, 隨后spiders將item交給引擎;
10.引擎將item交給管道, 管道拿到item后進行數據的持久化存儲.

7.3基于scrapy進行圖片數據的爬取

示例 :校花網圖片的爬取

鏈接地址 :http://www.521609.com/daxuemeinv/list81.html

項目的創建

scrapy startproject imgPro

cd imgPro

scrapy genspider img http://t.zoukankan.com/www.xxx.com

如何基于scrapy進行圖片的爬取

1.在爬蟲文件中只需要解析出圖片地址,然后將圖片地址提交給管道
2.配置文件中添加  IMAGES_STORE = './imasLib'
1.在管道文件中進行管道類的制定:
    from scrapy.pipelines.images import ImagesPipeline
    將管道的父類修改成 ImagesPipeline
    重寫父類的三個方法

代碼:

img.py

import scrapy
from imgPro.items import ImgproItem

class ImgSpider(scrapy.Spider):
    name = 'img'
    # allowed_domains = ['www.x.com']
    start_urls = ['http://www.521609.com/daxuemeinv/']
    url = 'http://www.521609.com/daxuemeinv/list8%d.html'
    pageNum = 1
    def parse(self, response):
        li_list = response.xpath('//*[@id="content"]/div[2]/div[2]/ul/li')
        for li in li_list:
            img_src = 'http://www.521609.com' + li.xpath('./a[1]/img/@src').extract_first()
            item = ImgproItem()
            item['src'] = img_src

            yield item

        if self.pageNum < 4:
            self.pageNum += 1
            new_url = format(self.url%self.pageNum)
            yield scrapy.Request(new_url,callback=self.parse)

View Code

setting.py

##不遵從robotstx協議
ROBOTSTXT_OBEY = False

#輸出錯誤類型的日志
LOG_LEVEL = 'ERROR'
# LOG_FILE = './log.txt'

#圖片存儲地址
IMAGES_STORE = './imasLib'

ITEM_PIPELINES = {
   'imgPro.pipelines.ImgproPipeline': 300,
}

View Code

pipelines.py

import scrapy
from scrapy.pipelines.images import ImagesPipeline

class ImgproPipeline(ImagesPipeline):

    #對某一個媒體資源進行請求發送
    # item 就是接收到的spider提交的數據
    def get_media_requests(self, item, info):
        yield scrapy.Request(item['src'])

    #指定媒體數據存儲的名稱
    def file_path(self, request, response=None, info=None):
        #返回原始圖片名稱
        name = request.url.split('/')[-1]
        print("正在下載:",name)
        return name

    #將 item 傳遞給下一個即將被執行的管道類
    def item_completed(self, results, item, info):
        return item

View Code

items.py

import scrapy

class ImgproItem(scrapy.Item):
    # define the fields for your item here like:
    src = scrapy.Field()

View Code

如何提升scrapy爬取數據的效率

只需要將如下五個步驟配置在配置文件中即可:

#增加并發
    默認scrapy開啟的并發線程為32個,可以適當進行增加。在settings配置文件中修改CONCURRENT_REQUESTS = 100值為100,并發設置成了為100。
    
#降低日志級別:
    在運行scrapy時,會有大量日志信息的輸出,為了減少CPU的使用率。可以設置log輸出信息為INFO或者ERROR即可。在配置文件中編寫:LOG_LEVEL = ‘INFO’

#禁止cookie:
    如果不是真的需要cookie,則在scrapy爬取數據時可以禁止cookie從而減少CPU的使用率,提升爬取效率。在配置文件中編寫:COOKIES_ENABLED = False

#禁止重試:
    對失敗的HTTP進行重新請求(重試)會減慢爬取速度,因此可以禁止重試。在配置文件中編寫:RETRY_ENABLED = False

#減少下載超時:
    如果對一個非常慢的鏈接進行爬取,減少下載超時可以能讓卡住的鏈接快速被放棄,從而提升效率。在配置文件中進行編寫:DOWNLOAD_TIMEOUT = 10 超時時間為10s

7.4請求傳參

實現深度爬取:爬取多個層級對應的頁面數據

使用場景:爬取的數據沒有在同一張頁面中

在手動請求的時候傳遞item:yield scrapy.Request(url,callback,meta={'item':item})

將meta這個字典傳遞給callback

在callback中接收meta:item = response.meta['item']

代碼:

movie.py

import scrapy
from moviePro.items import MovieproItem

class MovieSpider(scrapy.Spider):
    name = 'movie'
    # allowed_domains = ['http://t.zoukankan.com/www.xxx.com']
    start_urls = ['https://www.4567tv.tv/index.php/vod/show/class/動作/id/5.html']

    url = 'https://www.4567tv.tv/index.php/vod/show/class/動作/id/5/page/%d.html'
    pageNum = 1
    def parse(self, response):
        li_list = response.xpath('/html/body/div[1]/div/div/div/div[2]/ul/li')
        for li in li_list:
            title = li.xpath('./div[1]/a/@title').extract_first()
            detail_url = "https://www.4567tv.tv" + li.xpath('./div[1]/a/@href').extract_first()

            item = MovieproItem()
            item['title'] = title
            # meta參數是一個字典,該參數可以傳遞給callback指定的回調函數,
            yield scrapy.Request(detail_url,callback=self.parse_detail,meta={'item':item})

        if self.pageNum < 5:
            self.pageNum += 1
            new_url = format(self.url%self.pageNum)
            yield scrapy.Request(new_url,callback=self.parse)


    def parse_detail(self,response):
        #接收參數 response.meta
        item = response.meta['item']
        #簡介
        desc = response.xpath('/html/body/div[1]/div/div/div/div[2]/p[5]/span[2]/text()').extract_first()
        item['desc'] = desc
        yield item

View Code

setting.py

BOT_NAME = 'moviePro'

SPIDER_MODULES = ['moviePro.spiders']
NEWSPIDER_MODULE = 'moviePro.spiders'

# UA偽裝
USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36'

# Obey robots.txt rules
ROBOTSTXT_OBEY = False
#輸出錯誤類型的日志
LOG_LEVEL = 'ERROR'


ITEM_PIPELINES = {
   'moviePro.pipelines.MovieproPipeline': 300,
}

View Code

items.py

import scrapy

class MovieproItem(scrapy.Item):
    # define the fields for your item here like:
    title = scrapy.Field()
    desc = scrapy.Field()

View Code

pipelines.py

class MovieproPipeline(object):
    def process_item(self, item, spider):
        print(item)
        return item

View Code

7.5scrapy中的中間件的應用

1.請求載體身份標識(可用)

user_agent_list = [
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 "
        "(KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1",
        "Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 "
        "(KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.6 "
        "(KHTML, like Gecko) Chrome/20.0.1092.0 Safari/536.6",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.6 "
        "(KHTML, like Gecko) Chrome/20.0.1090.0 Safari/536.6",
        "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.1 "
        "(KHTML, like Gecko) Chrome/19.77.34.5 Safari/537.1",
        "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/536.5 "
        "(KHTML, like Gecko) Chrome/19.0.1084.9 Safari/536.5",
        "Mozilla/5.0 (Windows NT 6.0) AppleWebKit/536.5 "
        "(KHTML, like Gecko) Chrome/19.0.1084.36 Safari/536.5",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 5.1) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
        "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_0) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1061.0 Safari/536.3",
        "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.24 "
        "(KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24",
        "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 "
        "(KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24"
]

View Code

3.代理池(不可用)

PROXY_http = [
    '153.180.102.104:80',
    '195.208.131.189:56055',
]
PROXY_https = [
    '120.83.49.90:9000',
    '95.189.112.214:35508',
]

View Code

3.爬蟲中間件

4.下載中間件

作用 :批量攔截請求和響應

攔截請求

UA偽裝 :將所有的請求盡可能多的設定成不同的請求載體身份標識

代理操作

rom scrapy import signals
import random
user_agent_list = [
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.1 "
        "(KHTML, like Gecko) Chrome/22.0.1207.1 Safari/537.1",
        "Mozilla/5.0 (X11; CrOS i686 2268.111.0) AppleWebKit/536.11 "
        "(KHTML, like Gecko) Chrome/20.0.1132.57 Safari/536.11",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.6 "
        "(KHTML, like Gecko) Chrome/20.0.1092.0 Safari/536.6",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.6 "
        "(KHTML, like Gecko) Chrome/20.0.1090.0 Safari/536.6",
        "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/537.1 "
        "(KHTML, like Gecko) Chrome/19.77.34.5 Safari/537.1",
        "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/536.5 "
        "(KHTML, like Gecko) Chrome/19.0.1084.9 Safari/536.5",
        "Mozilla/5.0 (Windows NT 6.0) AppleWebKit/536.5 "
        "(KHTML, like Gecko) Chrome/19.0.1084.36 Safari/536.5",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 5.1) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
        "Mozilla/5.0 (Macintosh; Intel Mac OS X 10_8_0) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1063.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1062.0 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1061.1 Safari/536.3",
        "Mozilla/5.0 (Windows NT 6.2) AppleWebKit/536.3 "
        "(KHTML, like Gecko) Chrome/19.0.1061.0 Safari/536.3",
        "Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/535.24 "
        "(KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24",
        "Mozilla/5.0 (Windows NT 6.2; WOW64) AppleWebKit/535.24 "
        "(KHTML, like Gecko) Chrome/19.0.1055.1 Safari/535.24"
]

PROXY_http = [
    '153.180.102.104:80',
    '195.208.131.189:56055',
]
PROXY_https = [
    '120.83.49.90:9000',
    '95.189.112.214:35508',
]

# 下載中間件
class MovieproDownloaderMiddleware(object):

    # 攔截正常的請求,參數 request 就是攔截到請求對象
    def process_request(self, request, spider):
        print("i am process_request")
        #實現:將攔截到的請求盡可能多的設定成不同的請求載體身份標識
        request.headers['USER_AGENT'] = random.choice(user_agent_list)

        if request.url.split(":")[0] == "http":
            request.meta['proxy'] = 'http://' + random.choice(PROXY_http)
        else:
            request.meta['proxy'] = 'https://' + random.choice(PROXY_https)
        return None


    # 攔截響應,參數 request 就是攔截到響應
    def process_response(self, request, response, spider):
        print("i am process_response")
        return response

    # 攔截發生異常的請求
    def process_exception(self, request, exception, spider):
        print("i am process_exception")
        #攔截到異常的請求,然后對其進行修正,然后重新進行請求發送
        #代理操作
        if request.url.split(":")[0] == "http":
            request.meta['proxy'] = 'http://' + random.choice(PROXY_http)
        else:
            request.meta['proxy'] = 'https://' + random.choice(PROXY_https)
        #將修正后的請求進行重新發送
        return request

View Code

攔截響應

篡改響應數據或直接替換響應對象

需求 : 爬取網易新聞 國內,國際,軍事,航空,無人機這五個板塊下對應的新聞標題和內容

#分析:
1.每一個板塊對應的新聞數據是動態加載出來的

# selenium在scrapy中的應用:
    實例化瀏覽器對象:卸載爬蟲類的構造方法中

wangyi.py

import scrapy
from selenium import webdriver
from wangyiPro.items import WangyiproItem

class WangyiSpider(scrapy.Spider):
    name = 'wangyi'
    # allowed_domains = ['http://t.zoukankan.com/www.xxx.com']
    start_urls = ['https://news.163.com']

    five_model_urls = []
    #實例化一個瀏覽器對象
    bro = webdriver.Chrome(executable_path=r'E:飛秋爬蟲+數據	oolschromedriver.exe')
    #用來解析五個板塊對應的url,然后對齊進行手動請求發送
    def parse(self, response):
        model_index = [3,4,6,7,8]
        li_list = response.xpath('//*[@id="index2016_wrap"]/div[1]/div[2]/div[2]/div[2]/div[2]/div/ul/li')

        for index in model_index:
            li = li_list[index]
            #獲取五個板塊對應的url
            model_url = li.xpath('./a/@href').extract_first()
            self.five_model_urls.append(model_url)
            #對每個板塊的url進行手動請求發送
            yield scrapy.Request(model_url,callback=self.parse_model)

    #用作與解析每個板塊中的新聞標題和新聞詳情頁的url
    #問題:response(不滿足需求的response)沒有包含每一個板塊中動態加載的新聞數據
    def parse_model(self,response):
        div_list = response.xpath('/html/body/div/div[3]/div[4]/div[1]/div/div/ul/li/div/div')
        for div in div_list:
            title = div.xpath('./div/div[1]/h3/a/text()').extract_first()
            detail_url = div.xpath('./div/div[1]/h3/a/@href').extract_first()
            item = WangyiproItem()
            item['title'] = title
            #對詳情頁發起請求解析出新聞內容
            yield scrapy.Request(detail_url,callback=self.prase_new_detail,meta={'item':item})

    def prase_new_detail(self,response):
        item = response.meta['item']
        content = response.xpath('//*[@id="endText"]//text()').extract()
        content = ''.join(content)
        item['content'] = content
        yield  item

    #最后執行
    def closed(self,spider):
        self.bro.quit()

View Code

items.py

import scrapy

class WangyiproItem(scrapy.Item):
    # define the fields for your item here like:
    title = scrapy.Field()
    content = scrapy.Field()

View Code

middlewares.py

from scrapy import signals
from scrapy.http import HtmlResponse
from time import sleep

class WangyiproDownloaderMiddleware(object):

    def process_request(self, request, spider):

        return None

    # spider 就是爬蟲文件中爬蟲類實例化的對象
    def process_response(self, request, response, spider):
        #進行所有響應對象的攔截
        # 1.將所有響應對象中那五個不滿足需求的響應對象找出
            #每個響應對象對應唯一一個請求對象
            #如果我們定位到五個響應對象的請求對象后,就可以通過該請求對象定位到指定的響應對象
            #可以通過五個板塊的 url 定位請求對象
                #總結: url ==> request ==> response
        # 2.將找出的五個不滿足需求的響應對象進行修正(替換)

        #  spider.five_model_urls :五個板塊對應的url
        bro = spider.bro
        if request.url in spider.five_model_urls:
            bro.get(request.url)
            sleep(1)
            #包含了動態加載的新聞數據
            page_text = bro.page_source
            #如果if條件成立,則該response就是五個板塊對應的響應對象
            new_response = HtmlResponse(url=request.url,body=page_text,encoding='utf-8',request=request)
            return new_response
        return response

    def process_exception(self, request, exception, spider):
        pass

View Code

pipelines.py

class WangyiproPipeline(object):
    def process_item(self, item, spider):
        print(item)
        return item

View Code

setting.py

BOT_NAME = 'wangyiPro'

SPIDER_MODULES = ['wangyiPro.spiders']
NEWSPIDER_MODULE = 'wangyiPro.spiders'

# UA偽裝
USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36'

ROBOTSTXT_OBEY = False
LOG_LEVEL = 'ERROR'

DOWNLOADER_MIDDLEWARES = {
   'wangyiPro.middlewares.WangyiproDownloaderMiddleware': 543,
}

ITEM_PIPELINES = {
   'wangyiPro.pipelines.WangyiproPpeline': 300,
}

View Code

7.6.基于CrawSpider的全站數據爬取

CrawSpider簡介

CrawSpider就是爬蟲類中 Spider的一個子類

除了繼承到Spider的特性和功能外,還派生除了其自己獨有的更加強大的特性和功能。其中最顯著的功能就是”LinkExtractors鏈接提取器“。Spider是所有爬蟲的基類,其設計原則只是為了爬取start_url列表中網頁,而從爬取到的網頁中提取出的url進行繼續的爬取工作使用CrawlSpider更合適。

使用流程

1.創建一個基于CrawSpider的爬蟲文件 : 
    scrapy startproject sunPro
    cd sunPro
    scrapy genspider -t crawl spiderName http://t.zoukankan.com/www.xxx.com
2.構造鏈接提取器和規則解析器
    鏈接提取器
        作用:可根據指定的規則進行指定鏈接的提取
         提取規則:allow = '正則表達式'
    規則解析器
        作用:獲取鏈接提取器提取到的鏈接,然后進行請求發送,根據指定規則對請求到的頁面源碼數據進行數據解析
        follow = 'True' :將鏈接提取器 繼續作用到 鏈接提取器所提取到的頁碼鏈接所對應的頁面中 

7.6.1 基于CrawSpider的基本使用

數據鏈接地址 :http://wz.sun0769.com/index.php/question/questionType?type=4&page=

sun.py

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule

#未實現深度爬取:爬取的只是每個頁面對應的數據
class SunSpider(CrawlSpider):
    name = 'sun'
    # allowed_domains = ['http://t.zoukankan.com/www.xxx.com']
    start_urls = ['http://wz.sun0769.com/index.php/question/questionType?type=4&page=']
    #鏈接提取器  type=4&page=d+
    link = LinkExtractor(allow=r'type=4&page=d+')

    rules = (
        #實例化一個Rule(規則解析器)的對象
        Rule(link, callback='parse_item', follow=True),
    )

    def parse_item(self, response):
        tr_list = response.xpath('//*[@id="morelist"]/div/table[2]//tr/td/table//tr')
        for tr in tr_list:
            title = tr.xpath('./td[2]/a[2]/@title').extract_first()
            status = tr.xpath('./td[3]/span/text()').extract_first()
            print(title,status)

View Code

setting.py

BOT_NAME = 'sunPro'

SPIDER_MODULES = ['sunPro.spiders']
NEWSPIDER_MODULE = 'sunPro.spiders'

# UA偽裝
USER_AGENT = 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/76.0.3809.132 Safari/537.36'

ROBOTSTXT_OBEY = False
LOG_LEVEL = 'ERROR'

View Code

7.6.2 基于CrawSpider的深度爬取

sun.py

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from sunPro.items import SunproItem,SunproItem_detail

class SunSpider(CrawlSpider):
    name = 'sun'
    # allowed_domains = ['http://t.zoukankan.com/www.xxx.com']
    start_urls = ['http://wz.sun0769.com/index.php/question/questionType?type=4&page=']
    #鏈接提取器
    link = LinkExtractor(allow=r'type=4&page=d+')

    #詳情頁url  question/201909/426989.shtml
    link_detail = LinkExtractor(allow=r'question/d+/d+.shtml')

    rules = (
        #實例化一個Rule(規則解析器)的對象
        Rule(link, callback='parse_item', follow=True),
        Rule(link_detail, callback='parse_datail'),
    )

    def parse_item(self, response):
        tr_list = response.xpath('//*[@id="morelist"]/div/table[2]//tr/td/table//tr')
        for tr in tr_list:
            title = tr.xpath('./td[2]/a[2]/@title').extract_first()
            status = tr.xpath('./td[3]/span/text()').extract_first()
            num = tr.xpath('./td[1]/text()').extract_first()
            item = SunproItem()
            item['title'] = title
            item['status'] = status
            item['num'] = num
            if num:
                yield item

    def parse_datail(self,response):
        content = response.xpath('/html/body/div[9]/table[2]/tbody/tr[1]//text()').extract()
        content = ''.join(content)
        num = response.xpath('/html/body/div[9]/table[1]/tbody/tr/td[2]/span[2]/text()').extract_first()
        if num:
            num = num.split(':')[-1]
            item = SunproItem_detail()
            item['content'] = content
            item['num'] = num
            yield item

View Code

pipelines.py

class SunproPipeline(object):
    def process_item(self, item, spider):

        if item.__class__.__name__ == "SunproItem_detail":
            content = item['content']
            num = item['num']
            print(content,num)
        else:
            title = item['title']
            status = item['status']
            num = item['num']
            print(title,status,num)

View Code

items.py

class SunproItem(scrapy.Item):
    title = scrapy.Field()
    status = scrapy.Field()
    num = scrapy.Field()

class SunproItem_detail(scrapy.Item):
    content = scrapy.Field()
    num = scrapy.Field()

View Code

7.7.分布式

7.7.1基本概念

什么是分布式爬蟲?

基于多臺電腦組建一個分布式機群,然后讓機群中的每一臺電腦執行同一組程序,然后讓它們對同一個網站的數據進行分布爬取

為什么要用分布式爬蟲?

提升爬取數據的效率

如何實現分布式爬蟲?

基于scrapy + redis 的形式實現分布式

scrapy 結合著 scrapy-redis組件實現分布式

原生的scrapy無法實現分布式原因?

調度器無法被分布式群共享

管道無法被共享

scrapy-redis組件的作用

提供可以被共享的調度器和管道

環境安裝:

pip insatll redis

pip install scrapy-redis

7.7.2分布式流程

#1.創建一個基于CrawSpider的爬蟲文件 : 
    scrapy startproject sunPro
    cd sunPro
    scrapy genspider -t crawl spiderName http://t.zoukankan.com/www.xxx.com
#2.修改當前的爬蟲文件
    1.導包 : from scrapy_redis.spiders import RedisCrawlSpider
       2.將當前爬蟲類的父類修改成RedisCrawlSpider
    3.將start_urls替換成redis_key = 'xxx'  #表示的是可被共享調度器中隊列的名稱
    4.編寫爬蟲類爬取數據的操作
#3.對setting進行操作 
    #指定管道
        開啟可被共享的管道 :
            ITEM_PIPELINES = {
                'scrapy_redis.pipelines.RedisPipeline': 400
                }
    #指定可被共享的調度器
    
# 增加了一個去重容器類的配置, 作用使用Redis的set集合來存儲請求的指紋數據, 從而實現請求去重的持久化
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
# 使用scrapy-redis組件自己的調度器
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
# 配置調度器是否要持久化, 也就是當爬蟲結束了, 要不要清空Redis中請求隊列和去重指紋的set。如果是True, 就表示要持久化存儲, 就不清空數據, 否則清空數據
SCHEDULER_PERSIST = True  

    #指定redis服務
        REDIS_HOST = 'redis服務的ip地址'
        REDIS_PORT = 6379
        
#4.對redis配置文件進行配置 (redis.windows.conf)
    56行 :  #bind 127.0.0.1
    75行 :  protected-mode yes  --> protected-mode no
#5.攜帶配置文件啟動redis服務   redis-server .edis.windows.conf
    地址: E:飛秋爬蟲+數據	oolsedisRedis-x64-3.2.100
#6.啟動redis客戶端 :  redis-cli
#7.執行當前的工程
    進入到爬蟲文件對應的目錄中:scrapy runspider xxx.py
#8.向調度器隊列中仍入一個起始的url:
    隊列在哪里呢?
    答:隊列在redis中        lpush fbsQueue http://t.zoukankan.com/www.xxx.com

代碼

fbs.py

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from scrapy_redis.spiders import RedisCrawlSpider
from fbsPro.items import FbsproItem

class FbsSpider(RedisCrawlSpider):
    name = 'fbs'
    # allowed_domains = ['http://t.zoukankan.com/www.xxx.com']
    # start_urls = ['http://http://t.zoukankan.com/www.xxx.com/']

    # redis_key表示的是可被共享調度器中隊列的名稱
    redis_key = 'fbsQueue'

    rules = (
        Rule(LinkExtractor(allow=r'type=4&page=d+'), callback='parse_item', follow=True),
    )

    def parse_item(self, response):
        tr_list = response.xpath('//*[@id="morelist"]/div/table[2]//tr/td/table//tr')
        for tr in tr_list:
            title = tr.xpath('./td[2]/a[2]/@title').extract_first()
            status = tr.xpath('./td[3]/span/text()').extract_first()

            item = FbsproItem()
            item['title'] = title
            item['status'] = status
            yield item

View Code

items.py

import scrapy


class FbsproItem(scrapy.Item):
    title = scrapy.Field()
    status = scrapy.Field()

View Code

settings.py

BOT_NAME = 'fbsPro'

SPIDER_MODULES = ['fbsPro.spiders']
NEWSPIDER_MODULE = 'fbsPro.spiders'

ROBOTSTXT_OBEY = True

#開啟可被共享的管道
ITEM_PIPELINES = {
    'scrapy_redis.pipelines.RedisPipeline': 400
}

#指定可被共享的調度器
# 增加了一個去重容器類的配置, 作用使用Redis的set集合來存儲請求的指紋數據, 從而實現請求去重的持久化
DUPEFILTER_CLASS = "scrapy_redis.dupefilter.RFPDupeFilter"
# 使用scrapy-redis組件自己的調度器
SCHEDULER = "scrapy_redis.scheduler.Scheduler"
# 配置調度器是否要持久化, 也就是當爬蟲結束了, 要不要清空Redis中請求隊列和去重指紋的set。如果是True, 就表示要持久化存儲, 就不清空數據, 否則清空數據
SCHEDULER_PERSIST = True

#指定redis服務
REDIS_HOST = '192.168.11.50'
REDIS_PORT = 6379

View Code

7.8 增量式爬蟲

總結

以上是生活随笔為你收集整理的python爬虫入门 之 移动端数据的爬取的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

婷婷六月久久综合丁香 | 国产成人无码av一区二区 | 熟妇人妻激情偷爽文 | 国产高清不卡无码视频 | 中文字幕乱码人妻无码久久 | 成人性做爰aaa片免费看不忠 | 无码国产激情在线观看 | 久久久国产精品无码免费专区 | 久久国产自偷自偷免费一区调 | 国产婷婷色一区二区三区在线 | 久久久中文久久久无码 | 久久99精品久久久久久 | 大胆欧美熟妇xx | 欧美成人午夜精品久久久 | 国产精品第一区揄拍无码 | 日韩欧美中文字幕公布 | 国内综合精品午夜久久资源 | 玩弄中年熟妇正在播放 | 99久久亚洲精品无码毛片 | 久久久中文久久久无码 | 老熟妇仑乱视频一区二区 | 性生交大片免费看女人按摩摩 | 亚洲国产av美女网站 | 中国女人内谢69xxxxxa片 | 国产凸凹视频一区二区 | 色情久久久av熟女人妻网站 | 亚洲精品国偷拍自产在线麻豆 | 欧美黑人巨大xxxxx | 日韩欧美中文字幕公布 | 国产熟妇另类久久久久 | 人人妻人人澡人人爽欧美一区 | 天天躁日日躁狠狠躁免费麻豆 | 四虎4hu永久免费 | 欧美乱妇无乱码大黄a片 | 色情久久久av熟女人妻网站 | 国产99久久精品一区二区 | 美女张开腿让人桶 | 久久视频在线观看精品 | 国产在线无码精品电影网 | 在线看片无码永久免费视频 | 亚洲男人av香蕉爽爽爽爽 | 国产精品高潮呻吟av久久4虎 | 亚洲熟女一区二区三区 | 欧美色就是色 | 99久久精品无码一区二区毛片 | 在线观看免费人成视频 | 亚洲精品美女久久久久久久 | 国产麻豆精品一区二区三区v视界 | 性生交大片免费看女人按摩摩 | 日日干夜夜干 | 久久99热只有频精品8 | 美女毛片一区二区三区四区 | 性做久久久久久久免费看 | 荫蒂添的好舒服视频囗交 | 国产99久久精品一区二区 | 无人区乱码一区二区三区 | 久久人人爽人人人人片 | 一二三四社区在线中文视频 | 国产av一区二区精品久久凹凸 | 国产成人无码av片在线观看不卡 | 欧美精品无码一区二区三区 | 欧美一区二区三区 | 国产热a欧美热a在线视频 | 欧美日本日韩 | 国产精品久久久久久亚洲影视内衣 | 久久99精品久久久久久 | 亚洲熟妇色xxxxx亚洲 | 亚洲欧美国产精品久久 | 亚洲色在线无码国产精品不卡 | 极品尤物被啪到呻吟喷水 | 波多野结衣高清一区二区三区 | 国产乱人伦偷精品视频 | 又湿又紧又大又爽a视频国产 | 欧美精品免费观看二区 | 日日天日日夜日日摸 | 亚洲色大成网站www国产 | 蜜臀av无码人妻精品 | 成在人线av无码免观看麻豆 | 欧美freesex黑人又粗又大 | 大屁股大乳丰满人妻 | 伦伦影院午夜理论片 | 亚洲欧美日韩成人高清在线一区 | 精品乱子伦一区二区三区 | 国产精品va在线观看无码 | 久久国产自偷自偷免费一区调 | 麻豆av传媒蜜桃天美传媒 | 天干天干啦夜天干天2017 | 久久综合久久自在自线精品自 | 色窝窝无码一区二区三区色欲 | 天堂无码人妻精品一区二区三区 | 无码福利日韩神码福利片 | 欧美丰满老熟妇xxxxx性 | 日日摸夜夜摸狠狠摸婷婷 | 亚洲aⅴ无码成人网站国产app | 国产午夜精品一区二区三区嫩草 | 鲁大师影院在线观看 | 日韩人妻系列无码专区 | 中文字幕av无码一区二区三区电影 | 女人和拘做爰正片视频 | 亚洲精品一区二区三区四区五区 | 日本一卡二卡不卡视频查询 | 亚洲精品一区二区三区婷婷月 | 少妇性荡欲午夜性开放视频剧场 | 欧美性色19p | 男女爱爱好爽视频免费看 | 成人无码影片精品久久久 | 激情内射亚州一区二区三区爱妻 | 亚洲国产精品久久久天堂 | 久久97精品久久久久久久不卡 | 中文字幕精品av一区二区五区 | 国产人妻精品一区二区三区 | 亚洲男女内射在线播放 | 网友自拍区视频精品 | 国产乱人无码伦av在线a | 无码人妻丰满熟妇区五十路百度 | 精品久久久久久亚洲精品 | 日日摸日日碰夜夜爽av | 黄网在线观看免费网站 | 黑人玩弄人妻中文在线 | 国产国语老龄妇女a片 | 国产成人无码a区在线观看视频app | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 亚洲国产综合无码一区 | 精品久久久久久亚洲精品 | 久久精品99久久香蕉国产色戒 | 国产亚洲精品久久久久久久久动漫 | 亚洲精品www久久久 | 精品国偷自产在线 | 久久久久久a亚洲欧洲av冫 | 国产激情艳情在线看视频 | 亚洲精品一区二区三区在线 | 国内揄拍国内精品少妇国语 | 成人片黄网站色大片免费观看 | 亚洲国产精品无码一区二区三区 | 精品国产av色一区二区深夜久久 | 亚洲精品成人福利网站 | 澳门永久av免费网站 | 欧美35页视频在线观看 | 国产精品久久久久久亚洲影视内衣 | 国产成人久久精品流白浆 | 国产午夜精品一区二区三区嫩草 | 荫蒂添的好舒服视频囗交 | 天堂一区人妻无码 | 欧美自拍另类欧美综合图片区 | 男女猛烈xx00免费视频试看 | 久久人人爽人人爽人人片ⅴ | 亚洲一区二区三区四区 | 亚洲天堂2017无码 | 人人妻人人澡人人爽欧美精品 | 偷窥村妇洗澡毛毛多 | 欧美大屁股xxxxhd黑色 | 精品国产一区二区三区四区在线看 | 亚洲自偷自拍另类第1页 | 亚洲国产精品成人久久蜜臀 | 色综合天天综合狠狠爱 | 女人被爽到呻吟gif动态图视看 | 久久人妻内射无码一区三区 | 漂亮人妻洗澡被公强 日日躁 | 啦啦啦www在线观看免费视频 | 99精品久久毛片a片 | 国产无套内射久久久国产 | 亚洲成a人片在线观看日本 | 婷婷六月久久综合丁香 | 欧美日韩视频无码一区二区三 | 99久久无码一区人妻 | 日韩人妻少妇一区二区三区 | 亚洲欧美日韩国产精品一区二区 | 精品偷拍一区二区三区在线看 | 亚洲va欧美va天堂v国产综合 | 国产成人精品久久亚洲高清不卡 | 精品日本一区二区三区在线观看 | 国产9 9在线 | 中文 | 国内精品一区二区三区不卡 | 东京热一精品无码av | 漂亮人妻洗澡被公强 日日躁 | 精品人妻人人做人人爽夜夜爽 | 国产av一区二区精品久久凹凸 | 午夜无码区在线观看 | 精品一二三区久久aaa片 | 大地资源网第二页免费观看 | 国产口爆吞精在线视频 | 国产成人一区二区三区别 | 熟妇人妻无码xxx视频 | 麻豆果冻传媒2021精品传媒一区下载 | 精品无人国产偷自产在线 | 国产精品办公室沙发 | 亚洲精品久久久久久久久久久 | 亚洲欧美综合区丁香五月小说 | 国产亚洲人成在线播放 | 日韩精品无码一本二本三本色 | 国产精品鲁鲁鲁 | 欧美日本免费一区二区三区 | 亚洲s码欧洲m码国产av | 丰满少妇人妻久久久久久 | 亚洲色欲久久久综合网东京热 | 18精品久久久无码午夜福利 | 欧美黑人乱大交 | 午夜精品一区二区三区在线观看 | 色欲av亚洲一区无码少妇 | 亚洲一区二区观看播放 | 久久精品国产大片免费观看 | 极品尤物被啪到呻吟喷水 | 国产精品人人爽人人做我的可爱 | 丰满护士巨好爽好大乳 | 黑人大群体交免费视频 | 国产激情艳情在线看视频 | 午夜嘿嘿嘿影院 | 国内精品九九久久久精品 | 国产乡下妇女做爰 | 2019午夜福利不卡片在线 | 狂野欧美性猛xxxx乱大交 | 国内少妇偷人精品视频免费 | 亚洲欧美精品伊人久久 | 娇妻被黑人粗大高潮白浆 | 中文字幕中文有码在线 | 久久久久久国产精品无码下载 | 人妻aⅴ无码一区二区三区 | 野外少妇愉情中文字幕 | 亚洲国产一区二区三区在线观看 | 国产亚洲精品久久久久久大师 | 东京热无码av男人的天堂 | 久久人妻内射无码一区三区 | 国色天香社区在线视频 | 最近免费中文字幕中文高清百度 | 国产午夜亚洲精品不卡下载 | 久久精品中文字幕大胸 | 欧美肥老太牲交大战 | 亚洲国产精品无码一区二区三区 | 红桃av一区二区三区在线无码av | 一二三四社区在线中文视频 | 撕开奶罩揉吮奶头视频 | 在线а√天堂中文官网 | 亚洲国产精品成人久久蜜臀 | 成熟妇人a片免费看网站 | 国产在线精品一区二区三区直播 | 一本色道久久综合狠狠躁 | 久久亚洲日韩精品一区二区三区 | 免费人成在线观看网站 | 中国大陆精品视频xxxx | 欧美激情内射喷水高潮 | 久久久久免费精品国产 | 东京一本一道一二三区 | 精品无码国产一区二区三区av | 特级做a爰片毛片免费69 | a片在线免费观看 | 精品欧美一区二区三区久久久 | 国产真实夫妇视频 | 亚洲精品一区二区三区在线 | 亚洲中文字幕无码中字 | а√资源新版在线天堂 | 精品久久综合1区2区3区激情 | 久久天天躁狠狠躁夜夜免费观看 | 国内精品一区二区三区不卡 | 大肉大捧一进一出视频出来呀 | 国产精品igao视频网 | 日韩人妻系列无码专区 | 国产精品自产拍在线观看 | 国産精品久久久久久久 | 久久综合激激的五月天 | 国产精品丝袜黑色高跟鞋 | 亚洲成a人片在线观看无码 | 精品人人妻人人澡人人爽人人 | 国产免费无码一区二区视频 | 熟妇人妻无码xxx视频 | 欧美亚洲国产一区二区三区 | 国产激情无码一区二区app | 色偷偷人人澡人人爽人人模 | 国产深夜福利视频在线 | 沈阳熟女露脸对白视频 | 人人超人人超碰超国产 | 婷婷五月综合缴情在线视频 | 久久99精品久久久久婷婷 | 亚洲精品成a人在线观看 | 国产内射爽爽大片视频社区在线 | 久久久久久久女国产乱让韩 | 亚洲色欲色欲天天天www | 久久综合给合久久狠狠狠97色 | 最新国产乱人伦偷精品免费网站 | 欧美激情一区二区三区成人 | 国产亚洲人成a在线v网站 | 麻豆md0077饥渴少妇 | 野狼第一精品社区 | 日韩精品无码一本二本三本色 | www成人国产高清内射 | 日韩欧美成人免费观看 | 久激情内射婷内射蜜桃人妖 | 日韩亚洲欧美中文高清在线 | 久久久久久亚洲精品a片成人 | 55夜色66夜色国产精品视频 | 欧美阿v高清资源不卡在线播放 | 国产激情一区二区三区 | 精品国产麻豆免费人成网站 | 国产成人一区二区三区在线观看 | 伊人久久婷婷五月综合97色 | 国产精品久久国产三级国 | 日韩欧美中文字幕在线三区 | 亚洲综合在线一区二区三区 | 四虎国产精品一区二区 | 精品国产一区av天美传媒 | 最近中文2019字幕第二页 | 久久久久久av无码免费看大片 | 亚洲国产欧美在线成人 | 国产精品久久久午夜夜伦鲁鲁 | 国产精品二区一区二区aⅴ污介绍 | 老熟女重囗味hdxx69 | 色综合久久88色综合天天 | 小鲜肉自慰网站xnxx | 俺去俺来也在线www色官网 | 国产午夜无码视频在线观看 | 国产免费观看黄av片 | 一区二区传媒有限公司 | 亚洲成av人影院在线观看 | 天堂亚洲2017在线观看 | 亚洲精品国产品国语在线观看 | 无码中文字幕色专区 | 樱花草在线播放免费中文 | 好爽又高潮了毛片免费下载 | 久久97精品久久久久久久不卡 | 欧美日韩人成综合在线播放 | 国产av无码专区亚洲awww | 十八禁视频网站在线观看 | 国产一精品一av一免费 | 黑人巨大精品欧美黑寡妇 | 日韩av激情在线观看 | 欧美兽交xxxx×视频 | 一本精品99久久精品77 | 天海翼激烈高潮到腰振不止 | 女人被男人爽到呻吟的视频 | 亚洲精品综合一区二区三区在线 | 中文字幕无码日韩专区 | 亚洲一区二区三区无码久久 | 色婷婷av一区二区三区之红樱桃 | 色情久久久av熟女人妻网站 | 亚洲 另类 在线 欧美 制服 | 任你躁在线精品免费 | 亚洲国产欧美日韩精品一区二区三区 | 国产又爽又黄又刺激的视频 | 国产人妻人伦精品1国产丝袜 | 老子影院午夜伦不卡 | 免费视频欧美无人区码 | 国产精品国产自线拍免费软件 | 婷婷五月综合缴情在线视频 | 日本乱偷人妻中文字幕 | 中文字幕久久久久人妻 | 精品无人国产偷自产在线 | 亚洲中文字幕va福利 | 色婷婷香蕉在线一区二区 | 国产午夜无码精品免费看 | 国产精品香蕉在线观看 | 无码人妻久久一区二区三区不卡 | 日本精品少妇一区二区三区 | 无码吃奶揉捏奶头高潮视频 | 欧洲熟妇精品视频 | 99er热精品视频 | 欧美真人作爱免费视频 | 福利一区二区三区视频在线观看 | 少妇邻居内射在线 | 无码人妻少妇伦在线电影 | 国产精品久久久久9999小说 | 欧美精品免费观看二区 | 亚洲国产av美女网站 | 精品日本一区二区三区在线观看 | 亚洲欧美日韩国产精品一区二区 | 国产成人无码av在线影院 | 图片小说视频一区二区 | 日韩人妻少妇一区二区三区 | 人妻无码久久精品人妻 | 亚洲精品综合五月久久小说 | 国产亚洲精品久久久闺蜜 | 人人妻人人澡人人爽人人精品浪潮 | www国产亚洲精品久久网站 | 国产口爆吞精在线视频 | 日韩精品成人一区二区三区 | 激情国产av做激情国产爱 | 亚洲人成影院在线无码按摩店 | 强开小婷嫩苞又嫩又紧视频 | 性欧美大战久久久久久久 | 最新国产乱人伦偷精品免费网站 | 夜夜影院未满十八勿进 | 色综合久久88色综合天天 | 精品无人国产偷自产在线 | 久久亚洲精品中文字幕无男同 | 亚洲综合无码一区二区三区 | 久久99精品国产麻豆 | 国产精品高潮呻吟av久久 | 午夜无码区在线观看 | 日本在线高清不卡免费播放 | 一本久道久久综合狠狠爱 | 兔费看少妇性l交大片免费 | 欧美成人午夜精品久久久 | 成人免费视频视频在线观看 免费 | 国产女主播喷水视频在线观看 | 色综合久久久无码网中文 | 少妇愉情理伦片bd | 最近的中文字幕在线看视频 | 久久伊人色av天堂九九小黄鸭 | 国内精品久久久久久中文字幕 | 日本一区二区三区免费高清 | 亚洲成av人在线观看网址 | 日本又色又爽又黄的a片18禁 | 性生交片免费无码看人 | 精品人妻人人做人人爽 | 国产人妻大战黑人第1集 | 久久aⅴ免费观看 | 国内精品一区二区三区不卡 | 国产内射老熟女aaaa | 国产 浪潮av性色四虎 | 国产香蕉尹人视频在线 | 成熟女人特级毛片www免费 | 少妇性俱乐部纵欲狂欢电影 | 国内揄拍国内精品少妇国语 | 免费无码av一区二区 | 国产无套内射久久久国产 | 国产精品久免费的黄网站 | 国产三级久久久精品麻豆三级 | 动漫av一区二区在线观看 | 久久午夜无码鲁丝片秋霞 | 久久人人97超碰a片精品 | 夜夜夜高潮夜夜爽夜夜爰爰 | 亚洲成av人综合在线观看 | 成人无码视频在线观看网站 | 初尝人妻少妇中文字幕 | 高清无码午夜福利视频 | 亚洲乱码日产精品bd | 日日摸天天摸爽爽狠狠97 | 中文字幕乱码人妻无码久久 | 久久综合给合久久狠狠狠97色 | 九九热爱视频精品 | 日本一区二区更新不卡 | 在线亚洲高清揄拍自拍一品区 | 欧美成人午夜精品久久久 | 亚洲区欧美区综合区自拍区 | 东京无码熟妇人妻av在线网址 | 中文精品无码中文字幕无码专区 | 免费看少妇作爱视频 | 2020久久超碰国产精品最新 | 国产xxx69麻豆国语对白 | 夜夜影院未满十八勿进 | 精品国偷自产在线视频 | 久精品国产欧美亚洲色aⅴ大片 | 亚洲爆乳无码专区 | 四虎影视成人永久免费观看视频 | 国产成人人人97超碰超爽8 | 久久亚洲精品中文字幕无男同 | 国产成人综合色在线观看网站 | 高潮毛片无遮挡高清免费视频 | 又粗又大又硬又长又爽 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 西西人体www44rt大胆高清 | 国产两女互慰高潮视频在线观看 | 中国大陆精品视频xxxx | 精品久久综合1区2区3区激情 | 水蜜桃亚洲一二三四在线 | 久久精品女人的天堂av | 一本大道伊人av久久综合 | 无遮挡国产高潮视频免费观看 | 国产熟妇另类久久久久 | 激情综合激情五月俺也去 | 1000部夫妻午夜免费 | www成人国产高清内射 | 天天躁夜夜躁狠狠是什么心态 | 澳门永久av免费网站 | 久久综合狠狠综合久久综合88 | 最新版天堂资源中文官网 | 99re在线播放 | 老太婆性杂交欧美肥老太 | 成人欧美一区二区三区黑人 | 无码乱肉视频免费大全合集 | 任你躁国产自任一区二区三区 | 偷窥日本少妇撒尿chinese | 色婷婷欧美在线播放内射 | 亚洲国产欧美日韩精品一区二区三区 | 欧美日本免费一区二区三区 | 国产激情综合五月久久 | 国产精品无码一区二区三区不卡 | 国产香蕉97碰碰久久人人 | 久久精品人人做人人综合 | 澳门永久av免费网站 | 国产精品久久福利网站 | 任你躁国产自任一区二区三区 | 精品厕所偷拍各类美女tp嘘嘘 | 国产超级va在线观看视频 | 99久久亚洲精品无码毛片 | 最近的中文字幕在线看视频 | 天天摸天天碰天天添 | 国内综合精品午夜久久资源 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 日日摸日日碰夜夜爽av | 亚洲日韩乱码中文无码蜜桃臀网站 | 亚洲人成无码网www | 国产黑色丝袜在线播放 | 亚洲爆乳精品无码一区二区三区 | 99久久久无码国产精品免费 | 日本精品高清一区二区 | 国产69精品久久久久app下载 | 久久精品人人做人人综合 | 日韩精品无码免费一区二区三区 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 又大又黄又粗又爽的免费视频 | 久久人人爽人人爽人人片av高清 | 亚洲a无码综合a国产av中文 | 精品无码av一区二区三区 | 亚洲综合精品香蕉久久网 | 久久精品国产99精品亚洲 | 国产成人一区二区三区在线观看 | 国产一区二区三区日韩精品 | 西西人体www44rt大胆高清 | 国产午夜无码精品免费看 | 人妻插b视频一区二区三区 | 蜜桃臀无码内射一区二区三区 | 久久精品国产精品国产精品污 | 中文字幕无码免费久久9一区9 | 欧美人与禽zoz0性伦交 | 国产真人无遮挡作爱免费视频 | 丰满妇女强制高潮18xxxx | 精品人妻av区 | аⅴ资源天堂资源库在线 | 久久无码人妻影院 | 亚洲男人av香蕉爽爽爽爽 | 无码乱肉视频免费大全合集 | 自拍偷自拍亚洲精品被多人伦好爽 | 国产明星裸体无码xxxx视频 | 国产成人久久精品流白浆 | 窝窝午夜理论片影院 | 日本精品少妇一区二区三区 | 色综合视频一区二区三区 | 大肉大捧一进一出好爽视频 | 国产精品美女久久久网av | 亚洲色欲久久久综合网东京热 | 亚洲综合在线一区二区三区 | 装睡被陌生人摸出水好爽 | 欧洲精品码一区二区三区免费看 | 久久久久亚洲精品男人的天堂 | 亚洲一区二区三区无码久久 | 香港三级日本三级妇三级 | 国产色xx群视频射精 | 亚洲中文字幕乱码av波多ji | 在线观看国产午夜福利片 | 午夜嘿嘿嘿影院 | 风流少妇按摩来高潮 | 亚洲一区二区三区无码久久 | 高清不卡一区二区三区 | 伦伦影院午夜理论片 | 亚洲成在人网站无码天堂 | 亚洲国产精品久久久天堂 | 久热国产vs视频在线观看 | 欧美兽交xxxx×视频 | 国产午夜福利100集发布 | 国产成人一区二区三区别 | 亚洲精品国偷拍自产在线观看蜜桃 | 老头边吃奶边弄进去呻吟 | 国产一区二区三区四区五区加勒比 | 欧美亚洲日韩国产人成在线播放 | 俺去俺来也在线www色官网 | 乱人伦人妻中文字幕无码久久网 | 日韩精品久久久肉伦网站 | 欧美日韩亚洲国产精品 | 亚洲精品www久久久 | 综合激情五月综合激情五月激情1 | 亚洲熟妇色xxxxx欧美老妇y | 人人妻人人澡人人爽欧美一区 | 免费无码一区二区三区蜜桃大 | 国产精品va在线观看无码 | 久久99精品国产.久久久久 | 2020久久超碰国产精品最新 | 娇妻被黑人粗大高潮白浆 | 性色欲情网站iwww九文堂 | 国产成人无码一二三区视频 | 老熟妇仑乱视频一区二区 | 亚洲成a人片在线观看无码 | 亚洲国产精品久久人人爱 | 亚洲欧美国产精品专区久久 | 无码av免费一区二区三区试看 | 亚洲国产精品一区二区美利坚 | 婷婷丁香五月天综合东京热 | 亚洲精品综合一区二区三区在线 | 乌克兰少妇xxxx做受 | 中文无码精品a∨在线观看不卡 | 色综合久久久无码网中文 | 国产亚av手机在线观看 | 天天av天天av天天透 | 亚洲国产日韩a在线播放 | 久久午夜无码鲁丝片 | 久久亚洲精品成人无码 | 男人和女人高潮免费网站 | 亚洲国产午夜精品理论片 | 中文字幕中文有码在线 | 国产97人人超碰caoprom | 伊人久久大香线蕉午夜 | 精品无码成人片一区二区98 | 欧美刺激性大交 | 无码成人精品区在线观看 | 欧美野外疯狂做受xxxx高潮 | 婷婷六月久久综合丁香 | 精品无码成人片一区二区98 | 亚洲熟妇色xxxxx欧美老妇y | 亚洲中文字幕无码中字 | 东京热无码av男人的天堂 | 99久久精品无码一区二区毛片 | 欧美日韩亚洲国产精品 | 国产亚洲精品久久久久久国模美 | 伊在人天堂亚洲香蕉精品区 | 婷婷丁香五月天综合东京热 | 久久综合九色综合97网 | 国产精品a成v人在线播放 | 成人欧美一区二区三区黑人 | 国产亚洲精品久久久久久 | 精品国产一区二区三区四区 | 色综合视频一区二区三区 | 东京一本一道一二三区 | 波多野42部无码喷潮在线 | 亚洲精品中文字幕乱码 | 在线天堂新版最新版在线8 | 亚洲 高清 成人 动漫 | 国产免费观看黄av片 | 激情内射日本一区二区三区 | 久久久精品成人免费观看 | 亚洲の无码国产の无码步美 | 国产三级久久久精品麻豆三级 | 免费播放一区二区三区 | 老熟女重囗味hdxx69 | 欧美xxxx黑人又粗又长 | 国产精品99爱免费视频 | 中文字幕乱码人妻二区三区 | 麻豆av传媒蜜桃天美传媒 | 国产成人综合色在线观看网站 | 无遮挡国产高潮视频免费观看 | 丰满少妇弄高潮了www | 亚洲国产精品久久久久久 | 亚洲成a人一区二区三区 | 精品无码国产一区二区三区av | 午夜福利不卡在线视频 | 无码福利日韩神码福利片 | 中文久久乱码一区二区 | 午夜性刺激在线视频免费 | 麻豆成人精品国产免费 | 亚洲中文字幕成人无码 | 精品国精品国产自在久国产87 | 成人精品视频一区二区三区尤物 | 亚洲日韩av一区二区三区四区 | 日本一本二本三区免费 | 丰满人妻一区二区三区免费视频 | 国产欧美精品一区二区三区 | 夜先锋av资源网站 | 嫩b人妻精品一区二区三区 | 色情久久久av熟女人妻网站 | 日韩亚洲欧美中文高清在线 | 无码人妻av免费一区二区三区 | 国产在线aaa片一区二区99 | 亚洲大尺度无码无码专区 | 18禁止看的免费污网站 | 亚洲精品美女久久久久久久 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 精品国产成人一区二区三区 | 亚洲精品久久久久久一区二区 | 国产凸凹视频一区二区 | 又大又硬又爽免费视频 | 免费无码午夜福利片69 | 无码中文字幕色专区 | 亚洲欧美国产精品专区久久 | 97se亚洲精品一区 | 精品亚洲成av人在线观看 | 国产97色在线 | 免 | 天天摸天天碰天天添 | 精品无码成人片一区二区98 | 波多野结衣一区二区三区av免费 | 亚洲欧美综合区丁香五月小说 | 久久久久成人片免费观看蜜芽 | 欧美日韩一区二区免费视频 | 婷婷五月综合激情中文字幕 | 国产精品无码久久av | 国产sm调教视频在线观看 | 成年美女黄网站色大免费视频 | 久热国产vs视频在线观看 | 中文精品无码中文字幕无码专区 | 午夜成人1000部免费视频 | 国产精品国产三级国产专播 | 亚洲小说图区综合在线 | 少妇无套内谢久久久久 | ass日本丰满熟妇pics | 在线观看国产一区二区三区 | 日本乱偷人妻中文字幕 | 东京热无码av男人的天堂 | 国产av无码专区亚洲a∨毛片 | 欧美人与禽猛交狂配 | 色婷婷香蕉在线一区二区 | 亚洲人成无码网www | 国产性生交xxxxx无码 | 久久伊人色av天堂九九小黄鸭 | 在线观看免费人成视频 | 少妇人妻大乳在线视频 | 学生妹亚洲一区二区 | 黑人粗大猛烈进出高潮视频 | 精品人妻人人做人人爽夜夜爽 | 国产乱码精品一品二品 | 桃花色综合影院 | 久久精品国产99精品亚洲 | 国产成人无码午夜视频在线观看 | 午夜无码人妻av大片色欲 | 国产精品久久久久久亚洲影视内衣 | 77777熟女视频在线观看 а天堂中文在线官网 | 国产亚洲精品久久久久久 | 国内精品久久毛片一区二区 | 久久国内精品自在自线 | 伊人久久婷婷五月综合97色 | 中文字幕 人妻熟女 | 国产免费观看黄av片 | 人妻熟女一区 | 中国大陆精品视频xxxx | 亚洲精品国产a久久久久久 | 国产无套粉嫩白浆在线 | 免费观看黄网站 | 中文精品久久久久人妻不卡 | 国产综合色产在线精品 | 国产成人精品无码播放 | 中文字幕无码免费久久9一区9 | 国内精品人妻无码久久久影院蜜桃 | 国产情侣作爱视频免费观看 | 国产亚洲精品久久久久久久久动漫 | 国产精品久久久久久久影院 | 国产激情无码一区二区 | 无码乱肉视频免费大全合集 | 亚洲成av人片在线观看无码不卡 | av人摸人人人澡人人超碰下载 | 日韩精品无码一本二本三本色 | 99久久精品日本一区二区免费 | 成人动漫在线观看 | 98国产精品综合一区二区三区 | 少女韩国电视剧在线观看完整 | 午夜熟女插插xx免费视频 | 人妻夜夜爽天天爽三区 | 日韩精品无码一区二区中文字幕 | 国产精品久久久一区二区三区 | 日韩欧美群交p片內射中文 | 色欲人妻aaaaaaa无码 | 国产成人精品一区二区在线小狼 | 国产偷抇久久精品a片69 | 久久久久av无码免费网 | 97精品人妻一区二区三区香蕉 | 免费人成在线观看网站 | 樱花草在线播放免费中文 | 精品国产麻豆免费人成网站 | 久久综合给久久狠狠97色 | 国产欧美亚洲精品a | 欧美一区二区三区 | 亚洲一区二区三区在线观看网站 | 在线成人www免费观看视频 | 精品一二三区久久aaa片 | 国产sm调教视频在线观看 | 狠狠色丁香久久婷婷综合五月 | а√资源新版在线天堂 | 精品国偷自产在线视频 | 又大又黄又粗又爽的免费视频 | 久久成人a毛片免费观看网站 | 国产又粗又硬又大爽黄老大爷视 | 亚洲精品国产第一综合99久久 | 国产成人av免费观看 | 伊人久久大香线焦av综合影院 | 男女超爽视频免费播放 | 成人女人看片免费视频放人 | 欧美自拍另类欧美综合图片区 | 亚洲欧美国产精品久久 | 色欲综合久久中文字幕网 | 成人亚洲精品久久久久 | 丁香花在线影院观看在线播放 | 欧美 丝袜 自拍 制服 另类 | 东京一本一道一二三区 | 国产精品手机免费 | 欧美精品国产综合久久 | 国产午夜福利100集发布 | 国产精品.xx视频.xxtv | 在线a亚洲视频播放在线观看 | 久久精品女人的天堂av | 欧美性猛交内射兽交老熟妇 | 中文字幕精品av一区二区五区 | 国产艳妇av在线观看果冻传媒 | 在线欧美精品一区二区三区 | 久久熟妇人妻午夜寂寞影院 | 十八禁视频网站在线观看 | 国产精品久久久久无码av色戒 | 在线观看免费人成视频 | 精品国产精品久久一区免费式 | 成 人影片 免费观看 | 精品国产aⅴ无码一区二区 | 领导边摸边吃奶边做爽在线观看 | 国产在线精品一区二区三区直播 | 伊人久久大香线焦av综合影院 | 国产亚洲精品久久久久久大师 | 精品成在人线av无码免费看 | 国产精品久久国产三级国 | 久久精品国产99精品亚洲 | 国产综合色产在线精品 | 久久国产精品二国产精品 | 啦啦啦www在线观看免费视频 | 激情国产av做激情国产爱 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 丰满少妇熟乱xxxxx视频 | 美女黄网站人色视频免费国产 | 美女极度色诱视频国产 | 日日碰狠狠躁久久躁蜜桃 | 亚洲精品国产精品乱码视色 | 国产亚洲精品久久久久久久 | 国产亚洲精品久久久久久国模美 | 无码人妻少妇伦在线电影 | 欧美国产亚洲日韩在线二区 | 狠狠色丁香久久婷婷综合五月 | 性生交大片免费看女人按摩摩 | 国产成人综合在线女婷五月99播放 | 亚洲日韩av一区二区三区四区 | 国产两女互慰高潮视频在线观看 | 亚洲国产av美女网站 | 人妻少妇精品无码专区动漫 | 少妇人妻大乳在线视频 | 一本无码人妻在中文字幕免费 | 俄罗斯老熟妇色xxxx | 亚洲欧美日韩国产精品一区二区 | 男人的天堂av网站 | 秋霞特色aa大片 | 午夜福利一区二区三区在线观看 | 少妇被黑人到高潮喷出白浆 | 一区二区三区高清视频一 | 国产精品人妻一区二区三区四 | 国产内射老熟女aaaa | 高潮毛片无遮挡高清免费视频 | 日韩人妻系列无码专区 | 亚洲高清偷拍一区二区三区 | 无码av最新清无码专区吞精 | 在线播放免费人成毛片乱码 | 亚洲熟妇色xxxxx欧美老妇 | 丝袜足控一区二区三区 | 国产人妻精品一区二区三区不卡 | 十八禁视频网站在线观看 | 国产亚洲欧美日韩亚洲中文色 | 亚洲成色在线综合网站 | 国产精品人人妻人人爽 | 国产精品沙发午睡系列 | 中文字幕无码日韩欧毛 | 在线欧美精品一区二区三区 | 国产人妻精品一区二区三区 | 久久zyz资源站无码中文动漫 | 中文字幕无码热在线视频 | 丰满少妇高潮惨叫视频 | 亚洲 另类 在线 欧美 制服 | 国产激情精品一区二区三区 | 色 综合 欧美 亚洲 国产 | 亚洲国产欧美日韩精品一区二区三区 | 国产亚洲欧美日韩亚洲中文色 | 亚洲一区二区三区四区 | 日本又色又爽又黄的a片18禁 | 色狠狠av一区二区三区 | 亚洲国产精品久久人人爱 | 成人毛片一区二区 | 婷婷丁香五月天综合东京热 | 国产高清不卡无码视频 | 国产精品多人p群无码 | 正在播放老肥熟妇露脸 | 亚洲成a人片在线观看日本 | 乱人伦中文视频在线观看 | 久久无码中文字幕免费影院蜜桃 | 色婷婷久久一区二区三区麻豆 | 精品国产一区二区三区四区在线看 | 国产精品va在线观看无码 | 免费无码的av片在线观看 | 麻豆av传媒蜜桃天美传媒 | 国产又爽又黄又刺激的视频 | 亚洲综合无码久久精品综合 | 99久久久国产精品无码免费 | 亚洲日韩一区二区 | 精品无码国产自产拍在线观看蜜 | 国产97人人超碰caoprom | 一本色道久久综合亚洲精品不卡 | 久久精品国产精品国产精品污 | 亚洲精品鲁一鲁一区二区三区 | 精品乱子伦一区二区三区 | 国产精品久久久久影院嫩草 | 97久久国产亚洲精品超碰热 | 亚洲国产精品无码久久久久高潮 | 夜夜影院未满十八勿进 | 日本精品久久久久中文字幕 | 国产精品久久久久久久9999 | 国产精品久久久久影院嫩草 | 亚洲の无码国产の无码影院 | 欧美性黑人极品hd | 日日摸夜夜摸狠狠摸婷婷 | 日日橹狠狠爱欧美视频 | 无码成人精品区在线观看 | 少妇人妻大乳在线视频 | 亚洲成a人片在线观看无码3d | 中国大陆精品视频xxxx | 亚洲中文字幕乱码av波多ji | 国色天香社区在线视频 | 亚洲成熟女人毛毛耸耸多 | 扒开双腿疯狂进出爽爽爽视频 | 精品国产精品久久一区免费式 | aⅴ亚洲 日韩 色 图网站 播放 | 亚洲高清偷拍一区二区三区 | 成人精品视频一区二区 | 麻豆人妻少妇精品无码专区 | 无码国产色欲xxxxx视频 | 午夜福利一区二区三区在线观看 | 无码人妻少妇伦在线电影 | 欧美丰满熟妇xxxx | 亚洲人亚洲人成电影网站色 | 成人无码影片精品久久久 | 日本大乳高潮视频在线观看 | 成在人线av无码免费 | 亚洲精品午夜无码电影网 | 亚洲の无码国产の无码影院 | 大地资源网第二页免费观看 | 亚洲成a人片在线观看日本 | 麻豆精产国品 | 四虎影视成人永久免费观看视频 | 无码av岛国片在线播放 | 亚洲精品一区二区三区四区五区 | 亚洲综合无码一区二区三区 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 小泽玛莉亚一区二区视频在线 | 最近免费中文字幕中文高清百度 | 欧美亚洲日韩国产人成在线播放 | 亚洲一区二区三区播放 | 97色伦图片97综合影院 | 熟妇人妻无乱码中文字幕 | 午夜丰满少妇性开放视频 | 国产真人无遮挡作爱免费视频 | 国产精品99爱免费视频 | 久久久久久久久蜜桃 | 国产精品美女久久久久av爽李琼 | 丰满少妇熟乱xxxxx视频 | 色偷偷人人澡人人爽人人模 | 国产莉萝无码av在线播放 | 久久久精品成人免费观看 | 亚洲 高清 成人 动漫 | 欧美freesex黑人又粗又大 | 亚洲日韩av一区二区三区四区 | 天天躁夜夜躁狠狠是什么心态 | 无码国产色欲xxxxx视频 | 亚洲人成影院在线无码按摩店 | 无码任你躁久久久久久久 | 亚洲日本va午夜在线电影 | 国产农村妇女高潮大叫 | 国产精品久久久av久久久 | 在线观看国产午夜福利片 | 丰满人妻精品国产99aⅴ | 女人被男人躁得好爽免费视频 | 少妇性l交大片 | 中文字幕亚洲情99在线 | 67194成是人免费无码 | 夫妻免费无码v看片 | 欧洲vodafone精品性 | 久久精品女人天堂av免费观看 | 无遮挡国产高潮视频免费观看 | 午夜时刻免费入口 | 精品国产一区av天美传媒 | 日韩精品一区二区av在线 | 国产精品亚洲综合色区韩国 | 精品国产aⅴ无码一区二区 | 无人区乱码一区二区三区 | 亚洲成av人综合在线观看 | 亚洲毛片av日韩av无码 | 亚洲熟女一区二区三区 | 国产午夜亚洲精品不卡 | 天天做天天爱天天爽综合网 | 国产三级久久久精品麻豆三级 | 色综合久久久久综合一本到桃花网 | 亚洲精品中文字幕乱码 | 大胆欧美熟妇xx | 国产无遮挡吃胸膜奶免费看 | 亚洲 a v无 码免 费 成 人 a v | 熟妇人妻中文av无码 | 亚洲国产精品无码久久久久高潮 | 成人精品视频一区二区三区尤物 | 欧美黑人乱大交 | 亚洲性无码av中文字幕 | 妺妺窝人体色www婷婷 | 午夜精品一区二区三区在线观看 | 成人免费视频在线观看 | 久久综合香蕉国产蜜臀av | 欧美人与善在线com | 丰满人妻一区二区三区免费视频 | 欧美人妻一区二区三区 | 国产精品嫩草久久久久 | 东京一本一道一二三区 | 国产av无码专区亚洲awww | 综合网日日天干夜夜久久 | 国产精品久免费的黄网站 | 少妇被粗大的猛进出69影院 | 波多野结衣高清一区二区三区 | 久久人人爽人人爽人人片av高清 | 亚洲国产一区二区三区在线观看 | 久久综合给合久久狠狠狠97色 | 免费男性肉肉影院 | 少妇性l交大片 | 日本高清一区免费中文视频 | 日日夜夜撸啊撸 | 最近的中文字幕在线看视频 | 国产精品高潮呻吟av久久 | 在线a亚洲视频播放在线观看 | 扒开双腿吃奶呻吟做受视频 | 骚片av蜜桃精品一区 | 精品无码一区二区三区爱欲 | 蜜桃臀无码内射一区二区三区 | 无码人妻av免费一区二区三区 | 国产色在线 | 国产 | 成年女人永久免费看片 | 中国女人内谢69xxxx | 中文字幕人妻无码一夲道 | 亚洲s色大片在线观看 | 成人无码影片精品久久久 | 无码人妻丰满熟妇区毛片18 | 久久久国产一区二区三区 | 国产麻豆精品精东影业av网站 | 国产亚洲日韩欧美另类第八页 | 亚洲国产欧美国产综合一区 | 日本成熟视频免费视频 | 中文字幕乱码人妻无码久久 | 国语自产偷拍精品视频偷 | 波多野42部无码喷潮在线 | 亚洲乱码日产精品bd | 成在人线av无码免费 | 欧美zoozzooz性欧美 | 老头边吃奶边弄进去呻吟 | 老司机亚洲精品影院 | 亚洲色大成网站www | 精品久久久久香蕉网 | 帮老师解开蕾丝奶罩吸乳网站 | 欧美freesex黑人又粗又大 | 奇米影视7777久久精品人人爽 | 曰本女人与公拘交酡免费视频 | 亚洲一区二区三区无码久久 | 色欲久久久天天天综合网精品 | 亚洲精品综合一区二区三区在线 | 国产莉萝无码av在线播放 | 久久久久免费精品国产 | 久久综合九色综合97网 | 中文字幕av无码一区二区三区电影 | 老司机亚洲精品影院无码 | 一本加勒比波多野结衣 | 亚洲人成人无码网www国产 | 亚洲精品美女久久久久久久 | 亚洲欧洲无卡二区视頻 | 日日摸天天摸爽爽狠狠97 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 久久99精品国产麻豆 | 国产精品国产自线拍免费软件 | 人妻互换免费中文字幕 | 76少妇精品导航 | 97夜夜澡人人爽人人喊中国片 | www成人国产高清内射 | 国产精品第一国产精品 | 未满成年国产在线观看 | 国产欧美熟妇另类久久久 | 国产精品免费大片 | 免费中文字幕日韩欧美 | 无码一区二区三区在线 | 午夜男女很黄的视频 | 欧美熟妇另类久久久久久不卡 | 国产在线aaa片一区二区99 | aⅴ亚洲 日韩 色 图网站 播放 | 亚洲日韩中文字幕在线播放 | 国精产品一区二区三区 | 精品 日韩 国产 欧美 视频 | 婷婷五月综合激情中文字幕 | 成人精品视频一区二区 | 国产又爽又黄又刺激的视频 | 日本一本二本三区免费 | 成人精品视频一区二区 | 国产va免费精品观看 | 亚洲色在线无码国产精品不卡 | 国产又爽又黄又刺激的视频 | 少妇太爽了在线观看 | 国产激情精品一区二区三区 | 成人无码精品一区二区三区 | 欧美性猛交内射兽交老熟妇 | 国产69精品久久久久app下载 | 国产精品久久福利网站 | 亚洲 另类 在线 欧美 制服 | 国产精品久久久久久久9999 | 亚洲国产午夜精品理论片 | 国产av一区二区精品久久凹凸 | 无码国模国产在线观看 | 人妻无码αv中文字幕久久琪琪布 | 小鲜肉自慰网站xnxx | 天天爽夜夜爽夜夜爽 | 一本色道久久综合亚洲精品不卡 | 无码人妻黑人中文字幕 | 亚洲国产综合无码一区 | 无遮挡国产高潮视频免费观看 | 无遮挡啪啪摇乳动态图 | 婷婷综合久久中文字幕蜜桃三电影 | 欧美喷潮久久久xxxxx | av小次郎收藏 | 国产成人无码区免费内射一片色欲 | 亚洲天堂2017无码中文 | 午夜精品久久久久久久久 | 正在播放东北夫妻内射 | 欧美老妇交乱视频在线观看 | 精品国产一区二区三区av 性色 | 一区二区三区乱码在线 | 欧洲 | 四虎国产精品一区二区 | 欧美国产日产一区二区 | 国产sm调教视频在线观看 | 国产精品永久免费视频 | 东京热无码av男人的天堂 | 国产精品多人p群无码 | 无码一区二区三区在线 | 国产亚洲精品久久久ai换 | 国产成人综合在线女婷五月99播放 | 国产精品免费大片 | 乌克兰少妇性做爰 | 欧洲vodafone精品性 | 青青青手机频在线观看 | 在线播放无码字幕亚洲 | 国产特级毛片aaaaaaa高清 | 成人无码影片精品久久久 | 熟女俱乐部五十路六十路av | 少妇一晚三次一区二区三区 | 精品乱码久久久久久久 | 久久亚洲a片com人成 | 国产午夜亚洲精品不卡 | 午夜熟女插插xx免费视频 | 亚无码乱人伦一区二区 | 九月婷婷人人澡人人添人人爽 | 荫蒂被男人添的好舒服爽免费视频 | 精品偷拍一区二区三区在线看 | 国产一区二区三区四区五区加勒比 | 色婷婷香蕉在线一区二区 | 国产明星裸体无码xxxx视频 | 亚洲日韩av一区二区三区四区 | 亚洲中文字幕在线无码一区二区 | 亚洲一区二区三区偷拍女厕 | 国产精品99久久精品爆乳 | 国产一区二区三区日韩精品 | 夫妻免费无码v看片 | 国内揄拍国内精品少妇国语 | 精品国产一区二区三区av 性色 | 又大又黄又粗又爽的免费视频 | 无套内谢老熟女 | 日韩亚洲欧美中文高清在线 | 少女韩国电视剧在线观看完整 | 亚洲精品国产品国语在线观看 | 日本大香伊一区二区三区 | 国产97人人超碰caoprom | 欧美黑人性暴力猛交喷水 | 日韩精品无码免费一区二区三区 | 久久综合九色综合欧美狠狠 | 亚洲色欲久久久综合网东京热 | 日韩视频 中文字幕 视频一区 | 国产午夜亚洲精品不卡 | 精品偷自拍另类在线观看 | 精品国产一区二区三区四区在线看 | 午夜精品久久久内射近拍高清 | 国产精品亚洲综合色区韩国 | 国模大胆一区二区三区 | 亚洲精品国产精品乱码不卡 | 亚洲一区二区三区无码久久 | 亚洲一区二区三区国产精华液 | 强开小婷嫩苞又嫩又紧视频 | 性生交大片免费看女人按摩摩 | 亚洲 激情 小说 另类 欧美 | 中文字幕日产无线码一区 | 国产精品久久久久久久9999 | 国产情侣作爱视频免费观看 | 乱人伦人妻中文字幕无码久久网 | 国产区女主播在线观看 | 婷婷丁香六月激情综合啪 | 久久久国产精品无码免费专区 | 亚洲一区二区三区国产精华液 | 激情内射日本一区二区三区 | 精品乱码久久久久久久 | 帮老师解开蕾丝奶罩吸乳网站 | 国产精品久久国产精品99 | 亚洲 日韩 欧美 成人 在线观看 | 欧美精品国产综合久久 | 一个人看的视频www在线 | 在线视频网站www色 | 人妻插b视频一区二区三区 | 大肉大捧一进一出好爽视频 | 亚洲欧美中文字幕5发布 | 精品成在人线av无码免费看 | 国产精品igao视频网 | 国产乱子伦视频在线播放 | 国产成人无码a区在线观看视频app | 久久亚洲a片com人成 | 色一情一乱一伦一视频免费看 | 成人精品天堂一区二区三区 | 国产99久久精品一区二区 | 少妇性俱乐部纵欲狂欢电影 | 乌克兰少妇xxxx做受 | 精品一区二区三区波多野结衣 | 国产精品沙发午睡系列 | 国产成人无码av在线影院 | 国产亚洲视频中文字幕97精品 | v一区无码内射国产 | 国产一区二区三区精品视频 | 亚洲成a人片在线观看无码3d | 日本乱偷人妻中文字幕 | 久久午夜夜伦鲁鲁片无码免费 | 领导边摸边吃奶边做爽在线观看 | 久久伊人色av天堂九九小黄鸭 | 蜜臀av在线播放 久久综合激激的五月天 | 亚洲自偷精品视频自拍 | 欧美 日韩 亚洲 在线 | 国产97色在线 | 免 | 成人片黄网站色大片免费观看 | 亚洲欧美国产精品专区久久 | 亚洲精品国偷拍自产在线观看蜜桃 | 精品一区二区三区无码免费视频 | 少女韩国电视剧在线观看完整 | 欧洲熟妇精品视频 | 小鲜肉自慰网站xnxx | 久久午夜无码鲁丝片秋霞 | 亚洲国产欧美国产综合一区 | 欧美乱妇无乱码大黄a片 | 亚洲人成网站色7799 | 婷婷丁香六月激情综合啪 | 久久这里只有精品视频9 | 欧美日本日韩 | 天堂一区人妻无码 | 精品无码一区二区三区的天堂 | 亚洲欧美综合区丁香五月小说 | 四虎4hu永久免费 | 国产成人久久精品流白浆 | 一本久道久久综合婷婷五月 | 久久久婷婷五月亚洲97号色 | 四十如虎的丰满熟妇啪啪 | 99久久精品午夜一区二区 | 沈阳熟女露脸对白视频 | 欧美日韩在线亚洲综合国产人 | 国产卡一卡二卡三 | 国产日产欧产精品精品app | √8天堂资源地址中文在线 | 好男人社区资源 | 纯爱无遮挡h肉动漫在线播放 | 丝袜美腿亚洲一区二区 | 国产后入清纯学生妹 | 国产9 9在线 | 中文 | 国产乡下妇女做爰 | 国产精品a成v人在线播放 | 亚洲精品一区二区三区大桥未久 | 亚洲一区二区三区香蕉 | 奇米影视7777久久精品人人爽 | 精品无码国产一区二区三区av | 成人试看120秒体验区 | 青青青爽视频在线观看 | 亚洲国产精品成人久久蜜臀 | 国产成人一区二区三区别 | 午夜肉伦伦影院 | 婷婷六月久久综合丁香 | 中文字幕无码免费久久9一区9 | 无码人妻少妇伦在线电影 | 人妻插b视频一区二区三区 | 在教室伦流澡到高潮hnp视频 | 欧洲极品少妇 | 国产成人综合在线女婷五月99播放 | 老熟妇仑乱视频一区二区 | 国产精品无码一区二区桃花视频 | 99久久精品无码一区二区毛片 | 熟女俱乐部五十路六十路av | 久久综合激激的五月天 | 国产精品亚洲一区二区三区喷水 | 国产精品人人爽人人做我的可爱 | 亚洲色大成网站www国产 | 一本无码人妻在中文字幕免费 | 久久国产精品精品国产色婷婷 | 久久久中文字幕日本无吗 | 青青久在线视频免费观看 | 97无码免费人妻超级碰碰夜夜 | 午夜性刺激在线视频免费 | 高清无码午夜福利视频 | 无码国产激情在线观看 | 牛和人交xxxx欧美 | 国产精品美女久久久 | 亚洲精品久久久久久久久久久 | 特级做a爰片毛片免费69 | 3d动漫精品啪啪一区二区中 | 一本色道婷婷久久欧美 | 国产在线一区二区三区四区五区 | 亚洲精品中文字幕久久久久 | 国产av一区二区三区最新精品 | 久久国语露脸国产精品电影 | 无码国内精品人妻少妇 | 蜜桃av抽搐高潮一区二区 | 麻豆精品国产精华精华液好用吗 | 国产特级毛片aaaaaa高潮流水 | 色婷婷久久一区二区三区麻豆 | 中文无码精品a∨在线观看不卡 | 国产成人无码专区 | 欧美高清在线精品一区 | 久久久国产一区二区三区 | 性做久久久久久久久 | 欧美freesex黑人又粗又大 | 欧美日韩色另类综合 | 精品无人区无码乱码毛片国产 | 无码播放一区二区三区 | 亚洲国产av精品一区二区蜜芽 | 天天躁夜夜躁狠狠是什么心态 | 国产成人综合色在线观看网站 | 国产免费无码一区二区视频 | 婷婷六月久久综合丁香 | 无码精品国产va在线观看dvd | 免费视频欧美无人区码 | 国产在线aaa片一区二区99 | 久久精品无码一区二区三区 | 少妇太爽了在线观看 | 国产做国产爱免费视频 | 内射后入在线观看一区 | 女人被爽到呻吟gif动态图视看 | 少妇激情av一区二区 | 波多野结衣一区二区三区av免费 | 日日摸天天摸爽爽狠狠97 | 大胆欧美熟妇xx | 国产熟女一区二区三区四区五区 | 欧洲vodafone精品性 | 夜先锋av资源网站 | 正在播放东北夫妻内射 | 人妻尝试又大又粗久久 | 性做久久久久久久久 | 午夜熟女插插xx免费视频 | 狠狠色丁香久久婷婷综合五月 | 夜先锋av资源网站 | 精品日本一区二区三区在线观看 | 一本久久a久久精品vr综合 | 熟妇人妻激情偷爽文 | 99er热精品视频 | 国产精品第一区揄拍无码 | 国内精品一区二区三区不卡 | 十八禁真人啪啪免费网站 | 日本高清一区免费中文视频 | 亚洲国产av精品一区二区蜜芽 | 99久久人妻精品免费一区 | 欧美 亚洲 国产 另类 | 国产精品对白交换视频 | 人妻无码αv中文字幕久久琪琪布 | 无码成人精品区在线观看 | 无码纯肉视频在线观看 | 国产精品无套呻吟在线 | 成人片黄网站色大片免费观看 | 蜜臀aⅴ国产精品久久久国产老师 | 亚洲一区二区观看播放 | 蜜臀av无码人妻精品 | 日韩亚洲欧美精品综合 | 久久无码中文字幕免费影院蜜桃 | 1000部啪啪未满十八勿入下载 | 天海翼激烈高潮到腰振不止 | 内射欧美老妇wbb | 中文字幕无码免费久久99 | 欧洲欧美人成视频在线 | 免费视频欧美无人区码 | 久久99精品久久久久婷婷 | 国产精品福利视频导航 | 白嫩日本少妇做爰 | 人人妻人人澡人人爽欧美一区 | 国产在线精品一区二区高清不卡 | 丝袜足控一区二区三区 | 免费乱码人妻系列无码专区 | 亚洲欧美日韩成人高清在线一区 | 色婷婷久久一区二区三区麻豆 | 99久久99久久免费精品蜜桃 | 国产成人无码专区 | 天天av天天av天天透 | 麻豆精品国产精华精华液好用吗 | 中文字幕无码日韩专区 | 小鲜肉自慰网站xnxx | 国产精品毛多多水多 | 一区二区三区乱码在线 | 欧洲 | 成人无码视频在线观看网站 | 99国产欧美久久久精品 | 大色综合色综合网站 | 免费无码的av片在线观看 | 亚洲国产日韩a在线播放 | 高中生自慰www网站 | 少妇性l交大片欧洲热妇乱xxx | 久久精品人人做人人综合 | 男人的天堂2018无码 | 欧美一区二区三区 | 亚洲呦女专区 | 呦交小u女精品视频 | 久久久久99精品成人片 | 国产精品无码mv在线观看 | 午夜成人1000部免费视频 | 国产麻豆精品精东影业av网站 | 欧美人与物videos另类 | 国产av一区二区三区最新精品 | 久久精品一区二区三区四区 | 欧美大屁股xxxxhd黑色 | 领导边摸边吃奶边做爽在线观看 | 国产精品久久久久久亚洲影视内衣 | 国产精品美女久久久网av | 亚洲第一无码av无码专区 | 无码精品国产va在线观看dvd | 国产亚洲美女精品久久久2020 | 国产亚洲精品久久久久久大师 | 大肉大捧一进一出好爽视频 | 夜夜高潮次次欢爽av女 | 日本丰满熟妇videos | 成人无码视频在线观看网站 | 亚洲精品中文字幕久久久久 | 99er热精品视频 | 国产精品久久久久久亚洲影视内衣 | 波多野结衣 黑人 | 国产猛烈高潮尖叫视频免费 | 中文字幕无码免费久久99 | 免费观看激色视频网站 | 夜夜躁日日躁狠狠久久av | 国内少妇偷人精品视频免费 | 中文字幕av无码一区二区三区电影 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 精品国产一区二区三区四区在线看 | av小次郎收藏 | 国产午夜亚洲精品不卡 | 中文字幕av伊人av无码av | 免费男性肉肉影院 | 日韩av无码一区二区三区不卡 | 国产精品欧美成人 | 亚洲精品国产品国语在线观看 | 小泽玛莉亚一区二区视频在线 | 国产成人无码区免费内射一片色欲 | 99re在线播放 | 成熟人妻av无码专区 | 亚洲综合在线一区二区三区 | 99久久婷婷国产综合精品青草免费 | 国语自产偷拍精品视频偷 | 亚洲成a人片在线观看无码 | 妺妺窝人体色www婷婷 | 国产成人av免费观看 | 亚洲欧美日韩国产精品一区二区 | 日韩av无码一区二区三区 | 国产精品久久久 | 中文字幕乱码中文乱码51精品 | 精品人妻中文字幕有码在线 | 97精品人妻一区二区三区香蕉 | 76少妇精品导航 | 亚洲日韩乱码中文无码蜜桃臀网站 | 亚洲色欲久久久综合网东京热 | 激情亚洲一区国产精品 | 少女韩国电视剧在线观看完整 | 麻豆成人精品国产免费 | 亚洲国产欧美国产综合一区 | 最近的中文字幕在线看视频 | 成人一区二区免费视频 | 麻豆成人精品国产免费 | 亚洲一区二区三区国产精华液 | 亚洲乱码日产精品bd | 强辱丰满人妻hd中文字幕 | 少妇太爽了在线观看 | 久久午夜夜伦鲁鲁片无码免费 | 永久免费观看美女裸体的网站 | 国产无套粉嫩白浆在线 | 樱花草在线播放免费中文 | 少女韩国电视剧在线观看完整 | 荫蒂被男人添的好舒服爽免费视频 | 宝宝好涨水快流出来免费视频 | 精品国产av色一区二区深夜久久 | 久久人人97超碰a片精品 | 女人被男人爽到呻吟的视频 | 亚洲区欧美区综合区自拍区 | 久久成人a毛片免费观看网站 | 国产精品香蕉在线观看 | 精品国偷自产在线视频 | 丰满少妇弄高潮了www | 日日摸夜夜摸狠狠摸婷婷 | 午夜精品一区二区三区在线观看 | 欧美熟妇另类久久久久久不卡 | 色综合久久中文娱乐网 | 亚洲精品一区二区三区婷婷月 | 免费无码午夜福利片69 | 婷婷五月综合缴情在线视频 | 麻豆国产人妻欲求不满谁演的 | 东京热无码av男人的天堂 | 性欧美大战久久久久久久 | 九九在线中文字幕无码 | 搡女人真爽免费视频大全 | 国产亚洲视频中文字幕97精品 | 亚洲中文字幕在线观看 | 国产亚洲精品久久久久久国模美 | 亚洲午夜福利在线观看 | 亚洲国产综合无码一区 | 波多野结衣 黑人 | 99精品久久毛片a片 | a片在线免费观看 | 大地资源中文第3页 | 3d动漫精品啪啪一区二区中 | 久久精品99久久香蕉国产色戒 | 成人试看120秒体验区 | 亚洲色大成网站www | 国产成人精品优优av | 久青草影院在线观看国产 | 久热国产vs视频在线观看 | 久久久久久av无码免费看大片 | 国产成人无码区免费内射一片色欲 | 国产精品99爱免费视频 | 国产人妖乱国产精品人妖 | 波多野结衣aⅴ在线 | 少妇人妻大乳在线视频 | 日韩精品乱码av一区二区 | 久久国产精品精品国产色婷婷 | 特级做a爰片毛片免费69 | 国产超碰人人爽人人做人人添 | 2019nv天堂香蕉在线观看 | 国产精品久久国产精品99 | a在线亚洲男人的天堂 | 理论片87福利理论电影 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 日本精品人妻无码免费大全 | 55夜色66夜色国产精品视频 | 一区二区三区高清视频一 | 乱中年女人伦av三区 | 久久久中文久久久无码 | 国产国产精品人在线视 | 无码人妻精品一区二区三区下载 | 日本又色又爽又黄的a片18禁 | 水蜜桃色314在线观看 | 内射巨臀欧美在线视频 | 人人爽人人澡人人人妻 | 久久精品人妻少妇一区二区三区 | 99国产欧美久久久精品 | 成人免费无码大片a毛片 | 午夜精品一区二区三区的区别 | 色欲av亚洲一区无码少妇 | 亚洲欧美日韩综合久久久 | 亚洲呦女专区 | 午夜性刺激在线视频免费 | 伊人色综合久久天天小片 | 日本www一道久久久免费榴莲 | 风流少妇按摩来高潮 | 久久综合九色综合97网 | 人妻少妇精品久久 | 亚洲国精产品一二二线 | 男女超爽视频免费播放 | 亚洲一区二区三区 | 妺妺窝人体色www婷婷 | 黑森林福利视频导航 | 日韩人妻系列无码专区 | 一区二区传媒有限公司 | 精品乱子伦一区二区三区 | 亚洲熟悉妇女xxx妇女av | 九九在线中文字幕无码 | 精品午夜福利在线观看 | 亚洲天堂2017无码中文 | 日本www一道久久久免费榴莲 | 欧洲欧美人成视频在线 | 成人精品视频一区二区三区尤物 | 无码av中文字幕免费放 | 亚洲人成网站色7799 | 成人无码精品一区二区三区 | 精品无码成人片一区二区98 | 人人超人人超碰超国产 | 精品国产一区av天美传媒 | 久久综合香蕉国产蜜臀av | 久久久久久久人妻无码中文字幕爆 | 成人免费视频一区二区 | 欧美日韩综合一区二区三区 | 四虎永久在线精品免费网址 | 国产精品99爱免费视频 | 图片区 小说区 区 亚洲五月 | 亚洲精品成a人在线观看 | 中文无码精品a∨在线观看不卡 | 狠狠色色综合网站 | 久久综合色之久久综合 | 欧美成人高清在线播放 | 国内揄拍国内精品少妇国语 | 欧美 亚洲 国产 另类 | 无码国产乱人伦偷精品视频 | 动漫av一区二区在线观看 | 性欧美牲交在线视频 | 中文久久乱码一区二区 | 国产手机在线αⅴ片无码观看 | 俺去俺来也在线www色官网 | 国产在热线精品视频 | 波多野结衣高清一区二区三区 | 欧美性猛交xxxx富婆 | 精品国产一区二区三区四区在线看 | 日韩亚洲欧美中文高清在线 | 少妇性l交大片欧洲热妇乱xxx | 亚洲欧美色中文字幕在线 | 日本熟妇乱子伦xxxx | 国产农村妇女高潮大叫 | 成人精品视频一区二区三区尤物 | 欧美日韩亚洲国产精品 | 亚洲国产精品无码一区二区三区 | 欧美人与善在线com | 大地资源中文第3页 | 亚洲乱码日产精品bd | 2020久久香蕉国产线看观看 | 久久综合香蕉国产蜜臀av | 中文亚洲成a人片在线观看 | 最新国产乱人伦偷精品免费网站 | 亚洲成a人片在线观看日本 | 国产亚洲精品久久久久久 | 中文字幕中文有码在线 | 亚洲欧美国产精品专区久久 | 成人片黄网站色大片免费观看 | 性生交大片免费看l | 国产成人午夜福利在线播放 | 欧美自拍另类欧美综合图片区 | 免费男性肉肉影院 | 中文字幕色婷婷在线视频 | 国产精品毛片一区二区 | 性色欲网站人妻丰满中文久久不卡 | 色综合久久久久综合一本到桃花网 | 欧美变态另类xxxx | 青青青爽视频在线观看 | 亚洲一区二区三区偷拍女厕 | 人人妻人人澡人人爽欧美精品 | 亚洲 高清 成人 动漫 | 影音先锋中文字幕无码 | 国产精品怡红院永久免费 | 中文无码精品a∨在线观看不卡 | 人妻插b视频一区二区三区 | 亚洲爆乳精品无码一区二区三区 | 日产精品高潮呻吟av久久 | 国产无套粉嫩白浆在线 | 日韩精品无码免费一区二区三区 | 国产亚洲人成a在线v网站 | 国产成人无码午夜视频在线观看 | 少妇邻居内射在线 | 一个人看的www免费视频在线观看 | 两性色午夜视频免费播放 | 国产偷国产偷精品高清尤物 | 成在人线av无码免费 | 好爽又高潮了毛片免费下载 | 天天摸天天透天天添 | 女人高潮内射99精品 | 欧美丰满熟妇xxxx性ppx人交 | 天天做天天爱天天爽综合网 | 呦交小u女精品视频 | 欧美黑人乱大交 | 自拍偷自拍亚洲精品10p | 在教室伦流澡到高潮hnp视频 | 色噜噜亚洲男人的天堂 | 又紧又大又爽精品一区二区 | 亚洲伊人久久精品影院 | 一本一道久久综合久久 | 最近的中文字幕在线看视频 | ass日本丰满熟妇pics | 波多野42部无码喷潮在线 | 精品乱码久久久久久久 | 人人妻人人澡人人爽欧美一区九九 | 久久 国产 尿 小便 嘘嘘 | 丰满妇女强制高潮18xxxx | 最近中文2019字幕第二页 | 在线看片无码永久免费视频 | 天堂一区人妻无码 | 亚洲精品中文字幕久久久久 | 亚洲精品综合一区二区三区在线 | 成人影院yy111111在线观看 | 成人影院yy111111在线观看 | 亚洲日本va午夜在线电影 | 久久亚洲日韩精品一区二区三区 | 伊人久久大香线蕉av一区二区 | 强奷人妻日本中文字幕 | 曰本女人与公拘交酡免费视频 | 色婷婷久久一区二区三区麻豆 | 人人妻在人人 | 久久97精品久久久久久久不卡 | 自拍偷自拍亚洲精品10p | 无遮挡啪啪摇乳动态图 | 国产亚洲tv在线观看 | 午夜福利试看120秒体验区 | 国内揄拍国内精品少妇国语 | 久久97精品久久久久久久不卡 | 国产精品人人爽人人做我的可爱 | 国产97在线 | 亚洲 | 国内少妇偷人精品视频免费 | 欧美日韩人成综合在线播放 | 99视频精品全部免费免费观看 | 麻豆国产丝袜白领秘书在线观看 | 丰满少妇人妻久久久久久 | 成在人线av无码免观看麻豆 | 国产明星裸体无码xxxx视频 | 人妻体内射精一区二区三四 | 日日天日日夜日日摸 | 亚洲国产日韩a在线播放 | 亚洲综合色区中文字幕 | 国产无遮挡吃胸膜奶免费看 | 亚洲中文字幕无码一久久区 |