久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

T5: Text-to-Text Transfer Transformer 阅读笔记

發布時間:2025/3/8 编程问答 20 豆豆
生活随笔 收集整理的這篇文章主要介紹了 T5: Text-to-Text Transfer Transformer 阅读笔记 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

作者:徐嘯

知乎專欄:自然語言處理學習之旅

https://zhuanlan.zhihu.com/p/89719631

寫在前面

谷歌用一篇誠意滿滿(財大氣粗)的基于實驗的綜述,試圖幫助研究者們「撥開云霧見光明」。論文十分適合該領域的初學者通讀,寫的十分友好,不過由于涉及到的模型/技術很多,所以遇到不熟悉的部分還是需要自行了解。

本文是對 T5 論文[1]的閱讀筆記,原文篇幅很長并且涉及很多模型與技術,我將其視為一份實驗報告性質的綜述,于是花了較長時間進行閱讀與筆記的整理。不過這也導致本文很長(近 3w 字),想要快速閱讀的朋友可以直接閱讀 2 & 3.1 & 4 部分以及相關圖表部分。論文的討論可以參見該問題。本來想把自己的一些感想加上,不過最近出了ELECTRA,等看完一起寫在新一篇筆記里吧。

論文的摘要以及 1-2 部分介紹了 Motivation、數據集的預處理操作、待評估的下游任務以及這些任務為了適應 Text-to-text 框架所需的相關處理。

第 3 部分是最長的實驗部分,3.1 介紹了 Text-to-text 框架下使用的基線模型;3.2 介紹了現有的不同模型架構,并對無監督預訓練的降噪目標和傳統語言建模目標進行實驗比較;3.3 對無監督降噪目標進行了細致研究,如圖 5 所示,先對前綴語言建模、BERT-style 和 Deshuffling 三種方法進行選擇(表 3 提供了各種方法的輸入與輸出),接著對 BERT-style 的降噪目標進行修改,對 MASS-style、Replace corrupted spans 和 Drop corrupted spans 進行實驗,最后對 corruption rate 和 corruption span length 依次實驗;3.4 比較了使用不同方法過濾后的 C4 數據集以及常用的預訓練數據集,并對預訓練數據集(是否重復)進行試驗;3.5 對訓練方式進行了探究,Baseline 是在無監督降噪任務上對模型的所有參數進行預訓練,然后對在每個下游任務上分別對其進行了微調,并使用模型的不同參數設置(檢查點)來評估性能,本節進一步的對微調方法、多任務學習方法以及兩者的結合進行了實驗探究;3.6 對增加計算成本獲取性能提升的各種方式進行了探究;3.7 對第 3 部分進行了總結與細節分析。

第 4 部分是基于本文的實驗研究以及Text-to-text 框架,對系統實驗進行了總結,并對未來的研究進行展望。

如有疏漏之處,還望不吝賜教~


0. Abstract

遷移學習是一種在自然語言處理中強大的技術,模型首先要針對數據豐富的任務進行預訓練,然后再針對下游任務進行微調。本文通過引入統一的框架來探索NLP遷移學習技術的前景:將問題都轉換為 text-to-text 格式,并在數十種語言理解任務研究比較了預訓練目標,架構,未標記的數據集,遷移方法和其他因素。結合實驗所得以及 C4 數據集,在許多基準上獲得了最新的結果,這些基準涵蓋了摘要,問題回答,文本分類等等。

1. Introduction

訓練機器學習模型以執行自然語言處理任務通常需要模型能夠以適合下游學習的方式處理文本。可以將其大致視為發展通用知識,使模型可以“理解”文本。這些知識的范圍從低級(例如單詞的拼寫或含義)到高級(例如大多數背包都無法容納大號這樣大的樂器)。

在這個迅速發展的領域中,快速的進步和多樣的技術可能使不同算法的比較,理清新貢獻的效果以及理解現有的遷移學習方法變得困難。為了獲得更嚴謹的理解,我們提出了一種統一的遷移學習方法,使我們能夠系統地研究不同的方法,并推動領域發展。

T5 的基本思想是將每個 NLP 問題都視為“text-to-text”問題,即將文本作為輸入并生成新的文本作為輸出,這允許將相同的模型、目標、訓練步驟和解碼過程,直接應用于每個任務。

本文的重點不在于提出新方法,而是提供該領域的全面見解。主要貢獻在于對現有技術的調查,探索和比較,以及簡單且強大的 text-to-text 框架。

2. Setup

介紹 Transformer 模型架構和待評估的下游任務,介紹了將每個問題視為 text-to-text 任務的方法,并描述了 “Colossal Clean Crawled Corpus” C4 數據集,模型和框架稱為 “Text-to-Text?Transfer?Transformer” T5。

2.1 Model

本文研究的所有模型均基于 Transformer 架構。需要注意的是,Transformer 使用正余弦函數的位置編碼,BERT 使用的是學習到的位置嵌入,而本文使用的是相對位置嵌入。

相對位置嵌入[2]不是對每個位置使用固定的嵌入,而是根據 self-attention 機制中的“key”和“query”之間的偏移量生成不同的學習嵌入。本文使用位置嵌入的簡化形式——每個“嵌入”只是一個標量,被添加到用于計算注意力權重的相應 logit 中。為了提高效率還在模型的所有層之間共享位置嵌入參數,不過每個注意力頭使用的是不同“套”位置嵌入。通常學習固定長度的嵌入,每個嵌入對應于一系列可能的key-query偏移量。在這項工作中,我們對所有模型使用 32 個嵌入,其數值范圍的大小以對數方式增加,最大偏移量為128,超過此偏移量,所有相對位置使用同一嵌入。需要注意的是,某一給定層對超過 128 的相對位置不敏感,但是后續層可以通過組合來自先前層的局部信息來建立對更大偏移的敏感性。

2.2 The Colossal Clean Crawled Corpus

NLP 遷移學習中,之前的許多工作都是利用大型未標記數據集進行無監督學習。本文試圖衡量這類未標記數據集的質量,特征和大小的影響。通過 Common Crawl 抓取網頁文本數據,并使用下列啟發式方法進行過濾:

  • 只保留以終點符號(即句點,感嘆號,問號或引號)為結尾的行

  • 刪除任何包含?List-of-Dirty-Naughty-Obscene-and-Otherwise-Bad-Words?中單詞的網頁

  • 刪除包含 Javascript 單詞的行

  • 刪除出現“lorem ipsum”短語(即排版測試)的所有頁面

  • 刪除所有包含大括號的頁面

  • 對數據集進行重復數據刪除,當連續的三句話重復出現時只保留一個

  • 使用?langdetect?工具過濾掉非英文的頁面

2.3 Downstream tasks

本文的目的是評估通用語言學習能力,測試如下下游任務的性能:

  • 文本分類:GLUE & SuperGLUE,是測試通用語言理解能力的文本分類任務的集合,包括句子可接受性判斷、情緒分析、釋義/句子相似度、自然語言推斷、指代消解、完成句子、詞義消歧和問題回答。

  • 機器翻譯:WMT English to German, French, and Romanian translation

  • 文本摘要:CNN/Daily Mail abstractive summarization

  • 智能問答:SQuAD question answering

本文將 GLUE (SuperGLUE也類似) 中所有任務的數據集在微調時連接起來,將所有任務視為一個任務,并且在 SuperGLUE 中加入了 Definite Pronoun Resolution (DPR) 數據集。本模型使用 SQuAD 數據集時是將問題和上下文喂入,并逐個令牌生成答案。機器翻譯任務中也僅對英語數據進行預訓練,這意味著模型需要學習生成目標語言的文本。

2.4 Input and output format

為了在上述各種任務上訓練單個模型,需要在所有任務上保持一致的輸入和輸出格式。decaNLP[3]?將 10 項不同的任務都寫成了 QA 的形式,進行訓練與測試 (作者 Socher 在 CS224N里做了介紹,可以參見筆記或原視頻),以文本到文本的格式來表達大多數NLP任務,輸入上下文或條件文本后輸出文本。

該框架為預訓練和微調提供了一致的訓練目標。具體來說,無論任務如何,都以最大可能性為目標訓練模型并使用教師強制。為指定模型執行的任務,需要向原始輸入序列添加特定于任務的(文本)前綴后再輸入模型。

  • 機器翻譯:“That is good.” 英翻德,在輸入句子前加上“translate English to German: ”的 prefix ,就會生成句子“Das ist gut.”

  • 文本分類:輸出與目標標簽對應的單個單詞。例如 NLI 任務中輸出entailment、contradiction 或 neutral。如果輸出的文本與該任務的標簽都不符合,則視為錯誤(不過未在任何經過訓練的模型中出現)

一些任務為了適應 Text-to-text 框架,需要進行調整:

  • STS-B。這是預測 1-5 之間的相似性得分的一項回歸任務。作者發現大部分得分是以 0.2 為增量的,于是將分數四舍五入到最接近的 0.2 增量(2.57 四舍五入為 2.6)并將其轉為字符串。測試時,如果模型輸出字符串對應于 1-5 之間的數字,則轉為浮點數進行判斷,否則視為錯誤。這有效地將 STS-B 的回歸問題轉換為 21 類分類問題。

  • Winograd任務(WNLI、WSC 和 DPR)轉換為一種更適合Text-to-text框架的格式。此類任務的示例是一段包含一個歧義代詞的文本,歧義代詞可以指代段落中不止一個名詞短語。例如:“The city councilmen refused the demonstrators a permit because they feared violence.” 的 “they” 指代的是“city councilmen”還是“demonstrators”。模型將輸入中的歧義代詞用*包裹以突出:“The city councilmen refused the demonstrators a permit because *they* feared violence.” 并且要求模型輸出答案 “city councilmen” 。WSC 數據集的樣本由文章、歧義代詞、候選名詞及對應的 True/False 標簽組成,這就無法知曉標簽為 False 的樣本的歧義代詞所指代的名詞是什么,因此只在標簽為 True 的樣本上進行訓練(大約刪除了 WSC 訓練集的一半)。DPR 數據集則很適用上述格式。

  • WNLI 的訓練集和驗證集與 WSC 的訓練集有很大重疊,為了防止驗證集出現在訓練集中,不訓練 WNLI,并且由于其訓練集和驗證集之間是對抗的(dev=train+擾動且標簽相反),所以也不匯報其驗證集的結果。將示例從WNLI轉換為上述“指稱名詞預測”變體的過程要復雜得多,參見附錄B。

附錄D中提供了研究的每個任務的預處理輸入的完整示例。

3. Experiments

NLP 遷移學習的最新進展來自新的預訓練目標、模型架構和未標記的數據集等。我們在本節中對這些技術進行了實驗研究,希望弄清它們的貢獻和重要性。對于更廣泛的文獻綜述,參見 Ruder 等人 NAACL2019 的Tutorial (筆記及資源整理)。

實驗每次通過調整某一方面并固定其他的方式來研究該方面的影響,這樣的 coordinate descent 方法可能會忽視 second-order effects 二階效應(例如在當前設置下的某種預訓練目標效果不好,但在其他設置下很好,但由于如上實驗方法,無法發現),但出于組合探索極其昂貴代價,會在未來的工作中探索。(谷歌都會覺得 prohibitively expensive~)

本文的目標是在保持盡可能多的因素不變的情況下,采用多種不同的方法比較各種任務的效果。為了實現此目標,在某些情況下我們沒有完全復制現有方法而是測試本質上相似的方法。

3.1 Baseline

我們使用簡單的降噪目標對標準 Transformer(2.1節)進行了預訓練,然后分別對我們的每個下游任務進行了微調。我們將在以下小節中描述此實驗設置的詳細信息。

3.1.1 Model

對于我們的模型,我們使用 Vaswani 等人提出的標準 encoder-decoder Transformer[4]。盡管許多現代的NLP遷移學習方法都使用僅包含 encoder/decoder stack 的 Transformer 架構,我們發現使用標準的 結構在生成和分類任務上均取得了良好的效果。我們將在3.2 節中探討不同模型架構的性能。

3.1.3 Vocabulary

本文使用 SentencePiece[7]?將文本編碼為 WordPiece token。

對于所有實驗使用 32,000 個 wordpiece 的詞匯表。由于我們最終會微調英語到德語、法語和羅馬尼亞語翻譯的模型,因此詞匯表需要涵蓋這些非英語語言——將C4中使用的頁面分類為德語,法語和羅馬尼亞語。然后我們在10個部分的英語 C4 數據與1個部分的德語,法語或羅馬尼亞語的數據的混合物(理解為10 + 3 -> 3*(10+1) 的意思?)上訓練了SentencePiece模型。該詞匯表在模型的輸入和輸出之間共享。因此詞匯表使模型只能處理預定的固定語言集。

這里需要補充一下 SentencePiece 。基本單元介于字符與單詞之間的模型稱作 Subword Model 。Byte Pair Encoding 即 BPE,利用了n-gram頻率來更新詞匯庫,而 WordPiece model使用貪心算法來最大化語言模型概率,即選取新的 n-gram 時都是選擇使 perplexity 減少最多的n-gram。進一步的,SentencePiece model 將詞間的空白也當成一種標記,可以直接處理sentence,而不需要將其 pre-tokenize 成單詞,并且能帶來更短的句子長度。[8][9]

3.1.4 Unsupervised objective

利用未標記的數據對模型進行預訓練并且訓練目標不包括標簽,(不準確地說)但是卻可以教給模型可推廣的知識,這將對下游任務有用。NLP的早期遷移學習工作使用語言模型目標。但是,最近有研究表明,“denoising”目標產生了更好的性能,因此它們很快成為標準。降噪目標:訓練模型以預測輸入中丟失或損壞的令牌。受 BERT 的“masked language modeling”目標和“word dropout ”正則化技術(Decoder 輸入為隨機替換為 UNK)啟發,設計目標如下(本文的 Denoising Objective指的是該目標):隨機采樣然后丟棄輸入序列中15%的標記。所有丟棄令牌組成的連續片段都由單個標記令牌代替(圖中的 for inviting 只對應一個標記令牌)。每個標記令牌都分配有該序列唯一的令牌ID。然后對應于所有丟失的令牌范圍,目標由輸入序列中使用的相同標記令牌加上最終的標記令牌來標記目標序列的末尾來定界(預測輸入中的 <X> 和 <Y> 對應的 SentencePiece,目標格式為 <X> SentencePiece of X <Y> SentencePiece of Y <Z>,<Z>為最終的標記令牌)。圖2顯示了應用此目標所產生的轉換示例。我們將在 3.3 節中將該目標與許多其他變體進行經驗比較。

3.1.5 Baseline performance

本節中使用上述基準實驗過程進行實驗,以了解預期的一系列下游任務性能。理想情況下,我們應將研究中的每個實驗重復多次,以得到結果的置信區間,但由于實驗太多過于昂貴,作為一種更便宜的選擇,從零開始訓練基線模型10次(即使用不同的隨機初始化和數據集 shuffle ),并假設基本模型運行的方差也適用于每個實驗變體。我們不希望所做的大多數更改會對運行間差異產生重大影響,因此,這應該可以合理地表明不同更改的重要性。另外,我們還評估了在不進行預訓練的情況下,對所有下游任務進行?步訓練(與用于微調的次數相同)的模型的性能,從而了解預訓練對基線設置中的模型有多少有幫助。

需要注意的是 EnFr 對應的是 WMT 中的英語譯成法語,這一任務下是否預訓練的影響沒有特別可觀。這是一個足夠大的數據集,從預訓練中獲得的收益往往很小,因此我們將這一任務包括在我們的實驗中,以測試高資源體制下的遷移學習行為。

3.2 Architectures

3.2.1 Model structures

Attention masks:不同體系結構的主要區別因素是模型中不同注意力機制所使用的“掩碼”。Transformer 中的自注意操作將一個序列作為輸入,并輸出相同長度的新序列。通過計算輸入序列的加權平均值來生成輸出序列的每個條目

圖3 是代表不同的注意力掩碼矩陣。自我注意機制的輸入和輸出分別表示為x和y。第 i 行和第 j 列中的黑色單元表示在輸出時間步驟 i 允許自我注意機制參與輸入元素 j。白色單元格表示不允許自我注意機制參與相應的 i 和 j 組合。
  • 左:完全可見的掩碼。輸出的每個時間步會注意全部輸入

  • 中:因果掩碼。防止第 i 個輸出元素依賴于“未來”的任何輸入元素

  • 右:帶前綴的因果掩碼。使自我注意機制可以在輸入序列的一部分上使用完全可見的掩碼。

Transformer體系結構變體的示意圖。方框代表序列的元素,線條代表注意力的可見度。不同顏色的塊組指示不同的 Transformer 層塊。深灰色線對應于完全可見的掩碼,淺灰色線對應于因果的掩碼。我們使用“·”表示表示預測結束的特殊序列結束標記。輸入和輸出序列分別表示為 x 和 y。
  • 左:標準的編碼器-解碼器體系結構,在 encoder 和encoder-decoder 注意力中使用完全可見的掩碼,在解碼器中使用因果掩碼。

  • 中:語言模型由一個單獨的 Transformer 層塊組成,并通過使用因果掩碼始終輸入輸入和目標的串聯。

  • 右:在語言模型中添加前綴并對這部分輸入使用完全可見的掩碼。

Encoder-decoder:圖 4 左側展示了編碼器-解碼器結構,編碼器使用“完全可見”的注意掩碼。這種掩碼適用于注意“前綴”,即提供給模型的某些上下文,供以后進行預測時使用。BERT也使用了完全可見掩碼,并在輸入中附加了特殊的“分類”標記。然后,在與分類令牌相對應的時間步中,BERT的輸出將用于對輸入序列進行分類的預測。

Language model:Transformer 中的解碼器用于自回歸生成輸出序列,即在每個輸出時間步,都會從模型的預測分布中選取令牌,然后將選取的令牌再輸入到模型中為下一個輸出時間步做出預測。這樣,可以將 Transformer 解碼器用作語言模型,即僅訓練用于下一步預測的模型。此架構的示意圖如圖 4 中間所示。實際上,針對NLP的遷移學習的早期工作使用這種架構并將語言建模目標作為一種預訓練方法。

語言模型通常用于壓縮或序列生成。但是,它們也可以簡單地通過連接輸入和目標而用于 text-to-text 框架中。例如,考慮英語到德語的翻譯:如果我們有一個訓練數據的輸入句子為“ That good.”,目標為“Das ist gut.”,那么我們只需在連接的輸入序列“translate English to German: That is good. Target: Das ist gut.” 上對模型進行語言模型訓練(錯位預測)即可。如果我們想獲得此示例的模型預測,則向模型輸入前綴“translate English to German: That is good. Target: ”,模型自回歸生成序列的其余部分。通過這種方式,該模型可以預測給定輸入的輸出序列,從而滿足 text-to-text 任務。這種方法最近被用來表明語言模型可以學會在無監督的情況下執行一些 text-to-text 的任務。

Prefix LM:在 text-to-text 設置中使用語言模型的一個基本且經常被提到的缺點是,因果掩碼會迫使模型對輸入序列的第 i 個輸入的表示僅取決于直到 i 為止的輸入部分。在該框架中,在要求模型進行預測之前,為模型提供了前綴/上下文(例如,前綴為英語句子,并且要求模型預測德語翻譯)。使用完全因果掩碼,前綴狀態的表示只能取決于前綴的先前條目。因此,在預測輸出的條目時,模型使用的前綴表示是不需要受到限制的,但卻由于語言模型而使其前綴表示受到了限制。在序列到序列模型中使用單向遞歸神經網絡編碼器也存在類似問題。

只需更改掩碼模式,就可以在基于Transformer的語言模型中避免此問題。在序列的前綴部分使用完全可見的掩碼。圖 3 和 4 的右邊分別顯示了此掩碼模式和前綴LM的示意圖。

在上述英語到德語的翻譯示例中,將完全可見的掩碼應用于前綴“translate English to German: That is good. Target: ”,而因果掩碼將在訓練期間用于預測目標“Das ist gut.”。在 Text-to-text 框架中使用 prefix LM 最初是由 Generating Wikipedia by Summarizing Long Sequences [10]提出的。最近有工作[11]展示了這種架構對多種 Text-to-text 任務均有效。

我們注意到,當遵循我們的 Text-to-text 框架時,prefix LM體系結構非常類似于分類任務的BERT。以 MNLI 基準為例,前提是“I hate pigeons.”,假設是“My feelings towards pigeons are filled with animosity.”,而正確的標簽是“entailment”。為了將此示例輸入語言模型,我們將其轉換為序列“mnli premise: I hate pigeons. hypothesis: My feelings towards pigeons are filled with animosity. target: entailment”。在這種情況下,完全可見的前綴將對應于整個輸入序列,直到單詞“target:”,這可以看作類似于BERT中使用的“分類”令牌。因此,我們的模型將對整個輸入具有完全的可見性,然后將通過輸出單詞“entailment”來進行分類。對于給定任務前綴(在這種情況下為“mnli”)的模型,該模型很容易學習輸出有效的類標簽。這樣,prefix LM 和 BERT 架構之間的主要區別在于,?分類器簡單地集成到 prefix LM 中的 Transformer 解碼器的輸出層中?。

3.2.2 Comparing different model structures

為了實驗上比較這些體系結構變體,我們希望每個模型在某種意義上都是等效的:如果兩個模型具有相同數量的參數,或者它們需要大致相同的計算量來處理給定的(輸入序列,目標序列)對,則可以說是等效的。但不可能同時根據這兩個標準將編碼器-解碼器模型與語言模型體系結構(包含單個Transformer塊)進行比較。由于在編碼器中具有L層且在解碼器中具有L層的編碼器-解碼器模型具有與具有2L層的語言模型大約相同數量的參數。但是,相同的L + L編解碼器模型將具有與僅具有 L 層的語言模型大約相同的計算成本,這是因為語言模型中的L層必須同時應用于輸入和輸出序列,而編碼器僅應用于輸入序列,而解碼器僅應用于輸出序列。所以存在參數量不同,但計算量幾乎相同的情況。這些等價是近似的——由于對編碼器的注意力,解碼器中存在一些額外的參數,并且在注意力層中,序列長度為平方的計算量也很大。然而,實際上,我們觀察到L層語言模型與L + L層編碼器-解碼器模型幾乎相同的步長時間,這表明計算成本大致相當。

為了提供合理的比較方法,我們考慮了編碼器-解碼器模型的多種配置。我們將?大小的層塊中的層數和參數分別稱為 L 和 P 。

我們將使用 M 來指代L + L層編碼器-解碼器模型或僅L層的解碼器模型處理給定輸入目標對所需的FLOP數量。

總的來說,我們將進行比較:

  • 在編碼器中具有 L 層,在解碼器中具有 L 層的編碼器-解碼器模型。該模型具有 2P 個參數和M FLOP的計算成本。

  • 等效模型,但參數在編碼器和解碼器之間共享,即 P 個參數和 M FLOP計算成本。

  • 在編碼器和解碼器中各具有 L / 2 層的編碼器-解碼器模型,提供 P 參數和 M/2 FLOP成本。

  • 具有 L 層和 P 參數的純解碼器的語言模型,以及由此產生的M FLOP計算成本。

  • 具有相同架構(因此具有相同數量的參數和計算成本),但對輸入具有完全可見的自我注意力的解碼器的前綴LM。

3.2.3 Objectives

基本語言建模目標以及第 3.1.4 節中描述的降噪目標作為無監督的目標。對于在進行預測之前先提取前綴的模型(編碼器-解碼器模型和前綴LM),我們從未標記的數據集中采樣了一段文本,并選擇一個隨機點將其分為前綴和目標部分。對于標準語言模型,我們訓練模型以預測從開始到結束的整個跨度。我們的無監督降噪目標是為 text-to-text 模型設計的;為了使其適應語言模型,我們將輸入和目標連接起來,如3.2.1節所述。

3.2.4 Results

表 2 顯示了我們比較的每種架構所獲得的分數。對于所有任務,具有降噪目標的編碼器-解碼器架構表現最佳。此變體具有最高的參數計數(2P),但與僅使用P參數的解碼器的模型具有相同的計算成本。令人驚訝的是,我們發現在編碼器和解碼器之間共享參數幾乎同樣有效。相反,將編碼器和解碼器堆棧中的層數減半會嚴重影響性能。ALBERT 還發現,在Transformer塊之間共享參數是可以減少總參數數量而不犧牲太多性能的有效方法。XLNet 與具有降噪目標的共享編碼器-解碼器方法有些相似。我們還注意到,共享參數編碼器-解碼器的性能優于僅解碼器的前綴LM,這表明增加編碼器-解碼器的顯式注意是有益的。最后,我們確認了一個廣為接受的觀念,即與語言建模目標相比,使用降噪目標始終可以帶來更好的下游任務性能。在以下部分中,我們將對無監督目標進行更詳細的探討。

3.3 Unsupervised objectives

選擇無監督目標至關重要,因為它提供了一種機制:模型可以獲取通用知識以應用于下游任務。這導致了各種各樣的預訓練目標的發展。在許多情況下,我們不會完全復制現有目標,而是將某些目標進行修改以適合我們的 Text-to-text 編碼器/解碼器框架;在其他情況下,我們將使用結合了多種常見方法的概念的目標。

總體而言,我們所有的目標都從未標記的文本數據集中提取一系列與令牌化文本范圍相對應的令牌ID。對令牌序列進行處理以產生(損壞的)輸入序列和相應的目標。然后,像往常一樣訓練模型,以最大可能性預測目標序列。

3.3.1 討論前三行,3.3.2 討論后三行。這里的第六行應該是 I.i.d noise, drop spans。

表 3 : 以“Thank you for inviting me to your party last week .”作為輸入文本,所有的目標都處理tokenized 的文本。詞匯表將所有單詞映射到單個token,(original text) 作為目標時,該模型的任務是重建整個輸入文本。<M>表示共享的掩碼令牌,而<X>,<Y>和<Z>表示已分配了唯一令牌ID的標記令牌。BERT樣式的目標(第二行):其中某些令牌被隨機令牌ID取代,例如灰色的 apple 。

3.3.1 Disparate high-level approaches

比較三種技術,這些技術受常用目標的啟發,但其方法卻大不相同。首先,我們引入 3.2.3 節中使用的 prefix LM 目標:將文本的范圍分為兩個部分,一個部分用作編碼器的輸入,另一部分用作解碼器要預測的目標序列。其次,我們考慮一個受BERT的MLM啟發的目標。MLM需要一段文本并破壞15%的令牌。90%的損壞令牌被替換為特殊的掩碼令牌,而10%的令牌被替換為隨機令牌。由于BERT是只有編碼器的模型,因此其目標是在編碼器的輸出上重建原始序列。在編碼器-解碼器架構下,我們僅將整個未損壞的序列用作目標。請注意,這與我們僅使用損壞的令牌作為目標的基準目標不同。我們將在3.3.2節中比較這兩種方法。最后,我們還考慮了一個基本 deshuffling 目標。此方法采用令牌序列,對其進行隨機排序,然后將原始的經過隨機排序的序列用作目標。我們在表3的前三行中提供了這三種方法的輸入和目標的示例。

對應表 3 中的前六行,同樣的,表 5 的第四行應該是 drop corrupted spans

表 4 中顯示了這三個目標的性能。總的來說,盡管前綴語言建模目標在翻譯任務上達到了類似的性能,但我們發現BERT風格的目標表現最佳。確實,實現BERT目標的動機是超越基于語言模型的預訓練。相較于前綴語言建模和BERT風格的目標,Deshuffling 目標的性能要差得多。

3.3.2 Simplifying the BERT objective

基于上一節中的結果,我們現在將重點研究對BERT樣式降噪目標的修改。該目標最初是作為針對分類和跨度預測而訓練的僅編碼器模型的預訓練技術提出的。對其進行修改以使其在我們的編碼器-解碼器 Text-to-text 框架中表現更好或更有效。

首先,我們考慮BERT樣式目標的一個簡單變體,其中不包括隨機令牌交換步驟。最終的目標只需用掩碼令牌替換輸入中15%的令牌,然后訓練模型以重建原始的未損壞序列,此變體為“MASS-style”[12]目標。

其次,我們感興趣的是看看是否有可能避免預測整個未損壞的文本跨度,因為這需要對解碼器中的長序列進行自我關注。我們考慮了兩種策略來實現此目的:

  • 不是用掩碼令牌替換每個損壞的令牌,而是用唯一的掩碼令牌替換了每個連續的損壞令牌的范圍。然后,目標序列變成“損壞的”跨度的串聯,每個跨度都帶有用于在輸入中替換它的掩碼標記的前綴。這是我們在基線中使用的預訓練目標,如3.1.4節所述。

  • 我們還考慮了一種變體,其中我們簡單地從輸入序列中完全刪除損壞的令牌,并按順序構造丟棄的令牌。表3的第五和第六行顯示了這些方法的示例。

  • 表 5 中顯示了原始BERT-style的目標與這三個變體的比較。我們發現,在我們的設置中,所有這些變體的性能相似。唯一的例外是,drop corrupted tokens 在GLUE上的提升完全是由于CoLA的得分明顯更高(60.04,而我們的基準平均值53.84,見表15)。這可能是由于CoLA需要對“給定句子在語法和句法上是否可接受”進行分類,并且“確定何時丟失標記”與“檢測可接受性”密切相關。但是,與在SuperGLUE上將其替換為標記令牌相比,丟棄令牌的性能要差得多。不需要預測完整原始序列的兩個變體(“replace corrupted spans” and “drop corrupted spans”)都具有潛在的吸引力,因為它們可使目標序列更短,從而使訓練更快。展望未來,我們將探索用標記令牌替換損壞的跨度,并僅預測損壞的令牌(如我們的基準目標)的變體。

    3.3.3 Varying the corruption rate

    到目前為止,我們一直破壞了15%的令牌,即BERT中使用的值。同樣,由于我們的 Text-to-text 框架與BERT的框架不同,因此需要查看不同的破壞率。我們在表6中比較了10%,15%,25%和50%的損壞率。總體而言,我們發現損壞率對模型的性能影響有限。唯一的例外是,最大的損壞率(50%)導致GLUE和SQuAD的性能顯著下降。使用較大的破壞率還會導致目標更長,這可能會減慢訓練速度。根據這些結果以及BERT設定的歷史先例,未來將使用15%的破壞率。

    3.3.4 Corrupting spans

    現在,我們轉向通過預測更短的目標來加快訓練速度的目標。到目前為止,我們使用的方法是是否要破壞每個輸入令牌的獨立同分布的決策。如果多個連續標記已損壞,則將它們視為“span 跨度”,并使用單個唯一的掩碼標記來替換整個跨度。用單個標記替換整個范圍會導致將未標記的文本數據處理為較短的序列。由于我們使用的是獨立同分布的損壞策略,并非總是會出現大量損壞的令牌的情況。因此,我們可以通過專門破壞令牌的跨度而不是破壞獨立同分布的單個令牌來獲得額外的加速。破壞跨度以前也曾被認為是BERT的預訓練目標,發現它可以提高性能。

    為了測試這個想法,我們考慮:專門破壞連續的,隨機分布的令牌跨度。可以通過要破壞的令牌比例和破壞跨度的總數來參數化該目標。然后隨機選擇跨度長度以滿足這些指定參數。例如,如果我們正在處理500個令牌的序列,并指定應損壞15%的令牌,并且應該有25個跨度,那么損壞令牌的總數將為500×0.15 = 75,平均跨度長度將為75/25 =3。請注意,給定原始序列長度和損壞率,我們可以通過平均跨度長度或跨度總數等效地參數化此目標。

    我們在表7中將跨度破壞目標與獨立同分布的破壞目標進行比較。在所有情況下,破壞率均為15%,并使用平均跨度長度為2、3、5和10進行比較。同樣,我們發現在這些目標之間差異有限,盡管平均跨度長度為10的版本在某些情況下稍遜于其他值。我們還特別發現,使用3的平均跨度長度略微(但顯著)優于獨立同分布目標(即第一行,隨機選擇 token 并將連續的 token 再視為 span 進行替換)的大多數非翻譯基準。幸運的是,與獨立同分布噪聲方法相比,跨度破壞目標還提供了訓練期間的一些加速,因為跨度損壞會產生較短的序列。

    3.3.5 Discussion

    圖 5 顯示了在我們探索無監督目標過程中所做選擇的流程圖。總體而言,我們觀察到的性能上最顯著的差異是在預訓練中,降噪目標的性能優于語言建模和Deshufling的變體。在我們探索的降噪目標的許多變體之間,我們沒有觀察到顯著差異。但是,不同的目標(或目標的參數化)可能導致不同的序列長度,從而導致不同的訓練速度。這意味著我們在此處考慮的降噪目標之間的選擇應主要根據其計算成本進行。我們的結果還表明,與我們在此考慮的目標類似的其他目標探索可能不會導致我們所考慮的任務和模型有重大收獲。相反,探索利用未標記數據的完全不同的方法可能是偶然的。

    3.4 Pre-training dataset

    本節將比較 C4 數據集的變體和其他潛在的預訓練數據源。

    3.4.1 Unlabeled datasets

    第2.2節講述了很多建立 C4 數據集時使用的啟發式方法。除了將其與其他過濾方法和常見的預訓練數據集進行比較之外,我們有興趣測量這種過濾是否會改善下游任務的性能。為此,我們在以下數據集上進行預訓練后比較基線模型的性能:

    • C4:作為基準,首先在我們發布的未標記數據集進行預訓練。

    • Unfiltered C4:為了衡量我們在創建C4中使用的啟發式過濾的效果,我們還生成了C4的替代版本,該版本放棄了過濾。請注意,我們仍然使用 langdetect 提取英文文本。結果,我們的“未過濾”變體仍包含一些過濾,因為 langdetect 有時會給不自然的英語文本分配低概率。

    • RealNews-like:使用了從新聞網站提取的文本數據。為了進行比較,我們額外過濾C4使其僅包括一個“RealNews”數據集對應的域的內容來生成另一個未標記的數據集。請注意,為便于比較,我們保留了C4中使用的啟發式過濾方法。唯一的區別是,表面上我們忽略了任何非新聞內容。

    • WebText-like:WebText數據集僅使用提交到內容聚合網站 Reddit 且收到的“score”至少為3的網頁內容。提交給Reddit的網頁得分基于認可或反對網頁的用戶比例。使用Reddit分數作為質量信號的背后想法是,該網站的用戶只會上傳高質量的文本內容。為了生成可比較的數據集,我們首先嘗試從C4中刪除所有不是 OpenWebText[13]?列表中出現的URL。但是,由于大多數頁面從未出現在Reddit上,因此內容相對較少,僅約 2 GB。為避免使用過小的數據集,因此我們從2018年8月至2019年7月從 Common Crawl 下載了12個月的數據,對 C4 和 Reddit 應用了啟發式過濾,產生了一個17 GB的類似 WebText 的數據集,其大小與原始40GB的 WebText 數據集相類似。

    • Wikipedia:Wikipedia網站包含數以百萬計的協作撰寫的百科全書文章。該網站上的內容受嚴格的質量準則約束,因此已被用作可靠且純凈的自然文本來源。我們使用 TensorFlow Datasets[14]?的英文 Wikipedia 文本數據,其中省略了文章中的任何標記或參考部分。

    • Wikipedia + Toronto Books Corpus:使用來自 Wikipedia 的預訓練數據的缺點是,它僅表示自然文本的一個可能域(百科全書文章)。為了緩解這種情況,BERT將來自維基百科的數據與多倫多圖書公司進行了組合。TBC包含從電子書中提取的文本,它代表自然語言的不同領域。

    表 8 顯示了每個數據集預訓練后獲得的結果。第一個明顯的收獲是,C4中刪除啟發式過濾會降低性能,并使未過濾的變體在每個任務中表現最差。除此之外,我們發現在某些情況下,具有更受限域的預訓練數據集的性能優于多樣化的C4數據集。例如,使用Wikipedia + TBC語料庫產生的SuperGLUE得分為73.24,超過了我們的基準得分。這幾乎完全歸因于MultiRC的完全匹配得分從25.78(基準C4)提高到50.93(Wikipedia + TBC)(參見表15)。MultiRC是一個閱讀理解數據集,其最大數據來源來自小說書,而這恰恰是TBC覆蓋的領域。類似地,使用類似RealNews 的數據集進行預訓練可使 ReCoRD 的精確匹配得分從68.16提高到73.72,ReCoRD是測量新聞文章閱讀理解的數據集。最后一個例子是,使用來自Wikipedia的數據在 SQuAD上獲得了顯著(但并沒那么突出)的收益,SQuAD是一個使用來自 Wikipedia 的段落的問題解答數據集。這些發現背后的主要教訓是,對域內未標記的數據進行預訓練可以提高下游任務的性能。如果我們的目標是預訓練可以快速適應來自任意領域的語言任務的模型,這將不足為奇,但也不令人滿意。

    僅在單個域上進行預訓練的一個缺點是所得的數據集通常要小得多。類似地,雖然在我們的基準設置中類似WebText的變體在性能上類似或優于C4數據集,并且基于Reddit的過濾所產生的數據集比C4小約 40 倍,但它是基于Common Crawl的 12 倍以上數據而建立的。在以下部分中,我們將研究使用較小的預訓練數據集是否會引起問題。

    3.4.2 Pre-training dataset size

    本文創建C4的方法旨在能夠創建非常大的預訓練數據集。對大量數據的訪問使我們能夠對模型進行預訓練,而無需重復樣本。目前尚不清楚在預訓練期間重復樣本是會對下游性能有所幫助還是有害,因為我們的預訓練目標本身就是隨機的,并且可以幫助防止模型多次看到相同的數據。

    最終的下游性能如表9所示,隨著數據集大小縮小而下降。我們懷疑這可能是由于該模型開始記住預訓練數據集。為了測量這是否成立,我們在圖6中繪制了每種數據集大小的訓練損失。的確,隨著預訓練數據集的大小縮小,該模型獲得的訓練損失明顯較小,這表明可能存在記憶。

    我們注意到,當預訓練數據集僅重復 64 次時,這些影響是有限的。這表明一定程度的重復預訓練數據可能不會有害。但是,考慮到額外的預訓練可能是有益的(我們將在第3.6節中顯示),并且獲取額外的未標記數據既便宜又容易,我們建議盡可能使用大型的預訓練數據集。

    3.5 Training strategy

    到目前為止,我們已經考慮了以下設置:在無監督的任務上對模型的所有參數進行預訓練,然后對個別有監督的任務進行微調。?盡管這種方法很簡單,但現在已經有了各種用于在下游/監督任務上訓練模型的替代方法。在本節中,除了在多個任務上同時訓練模型的方法之外,我們還比較了用于微調模型的不同方案。

    3.5.1 Fine-tuning methods

    有人認為,微調模型的所有參數可能會導致結果欠佳,尤其是在資源匱乏的情況下。文本分類任務的遷移學習的早期結果提倡僅微調小型分類器的參數。?這種方法不太適用于我們的編碼器-解碼器模型,因為必須訓練整個解碼器以輸出給定任務的目標序列?。相反,我們專注于兩種替代的微調方法,這些方法僅更新編碼器-解碼器模型的參數的子集。

    第一種:“adapter layers”[15]的動機是在微調時保持大多數原始模型固定不變。適配器層是附加的dense-ReLU-dense塊,這些塊在變壓器的每個塊中的每個預先存在的前饋網絡之后添加。這些新的前饋網絡的設計使其輸出維數與其輸入相匹配。這樣就可以將它們插入網絡,而無需更改結構或參數。進行微調時,僅更新適配器層和層歸一化參數。這種方法的主要超參數是前饋網絡的內部維數 d?,它改變了添加到模型中的新參數的數量。我們用 d 的各種值進行實驗。

    第二種替代性微調方法是“gradual unfreezing”[6]。在逐步解凍過程中,隨著時間的流逝,越來越多的模型參數會進行微調。逐步解凍最初應用于包含單個塊層(a single stack of layers)的語言模型體系結構。在此設置中,微調開始時僅更新最后一層的參數,然后在訓練了一定數量的更新之后,就會更新包括倒數第二層的參數,依此類推,直到整個網絡的參數都在微調。為了使這種方法適應我們的編碼器-解碼器模型,我們從頂部開始逐漸并行地解凍編碼器和解碼器中的層。由于我們的輸入嵌入矩陣和輸出分類矩陣的參數是共享的,因此我們會在整個微調過程中對其進行更新。

    表 10 顯示了這些微調方法的性能比較。對于適配器層,我們使用32、128、512、2048的內部尺寸 d 。根據過去的結果我們發現像 SQuAD 這樣的資源較少的任務在 d 較小的情況下效果很好,而資源較高的任務則需要較大的維度才能實現合理的性能。這表明,adapter layers 可能是一種在較少參數上進行微調的有前途的技術,只要將維度適當地縮放到任務大小即可。請注意,在我們的案例中,我們通過將 GLUE 和 SuperGLUE 的各自的子數據集連接起來,將它們分別視為一個“任務”,因此,盡管它們包含一些資源較少的數據集,但組合的數據集足夠大,因此需要較大的 d 值。我們發現,?盡管在微調過程中確實提供了一定的加速,但全局解凍會在所有任務中造成輕微的性能下降。通過更仔細地調整解凍時間表,可以獲得更好的結果。

    3.5.2 Multi-task learning

    到目前為止,我們已經在單個無監督學習任務上對我們的模型進行了預訓練,然后在每個下游任務上分別對其進行了微調。另一種方法稱為“多任務學習”,在多個任務上同時訓練模型。這種方法通常的目標是訓練可以同時執行許多任務的單個模型,即該模型及其大多數參數在所有任務之間共享。我們在某種程度上放松了這一目標,而是一次研究了針對多個任務進行訓練的方法,以便最終產生對每個任務都執行良好的獨立參數設置。例如,?我們可能會針對多個任務訓練一個模型,但是在報告性能時,我們可以為每個任務選擇不同的檢查點?。與目前為止我們所考慮的 pre-train-then-fine-tune 方法相比,這放松了多任務學習框架的要求并使之處于更穩定的基礎上。我們還注意到,在我們統一的 Text-to-text 框架中,“多任務學習”僅對應于將數據集混合在一起。相比之下,大多數將多任務學習應用于NLP的應用都會添加特定于任務的分類網絡,或者為每個任務使用不同的損失函數。

    正如Arivazhagan等人指出,在多任務學習中一個非常重要的因素是模型應該在每個任務的多少數據進行訓練。我們的目標是不對模型進行 under- or over-train 過少訓練或過度訓練——也就是說,我們希望模型從給定任務中看到足夠的數據以使其能夠很好地執行任務,但又不想看到太多數據以致于記住訓練集。

    如何準確設置每個任務的數據比例取決于各種因素,包括數據集大小,學習任務的“難度”(即模型在有效執行任務之前必須看到多少數據),正則化等。

    另一個問題是潛在的“任務干擾”或“負向轉移”,在一個任務上實現良好的性能會阻礙在另一任務上的性能。鑒于這些問題,我們先探索各種設置每個任務的數據比例的策略。Wang [16]等人進行了類似的探索。

    Examples-proportional mixing:?模型適應給定任務的速度的主要因素是任務數據集的大小。因此,設置混合比例的自然方法是根據每個任務數據集的大小按比例進行采樣。這等效于串聯所有任務的數據集并從組合數據集中隨機采樣示例。但是請注意,我們引入了無監督降噪任務,該任務使用的數據集比其他所有任務的數量級大。因此,如果我們僅按每個數據集的大小按比例進行采樣,該模型看到的絕大多數數據將是無標簽的,并且所有監督任務都會缺乏訓練(under-train)。即使沒有無監督的任務,某些任務(例如WMT英語到法語)也很大,以至于它們同樣會占據大多數批次。為了解決這個問題,我們在計算比例之前對數據集的大小設置了人為的“限制”。具體來說,第N個任務的每個數據集中的示例數為??,則,然后我們將訓練期間從第 m 個任務采樣的概率設置為??,其中 K 為人工數據集大小限制。

    Equal mixing:在這種情況下,我們以相等的概率從每個任務中抽取示例。具體來說,每個批次中的每個示例都是從我們訓練的數據集中隨機抽樣的。這很可能是次優策略,因為該模型將在資源不足的任務上快速過擬合,而在資源過多的任務上不充分擬合。我們主要將其作為參考當比例設置不理想時可能出現的問題。

    為了將這些混合策略在相同的基礎上與我們的基線 pre-train-then-fine-tune 結果進行比較,我們以相同的總步數訓練了多任務模型:??

    總的來說,我們發現多任務訓練的效果不如預訓練后對大多數任務進行微調。特別是“均等”的混合策略會導致性能急劇下降,這可能是因為低資源任務過度擬合,高資源任務沒有看到足夠的數據,或者模型沒有看到足夠的未標記數據以學習通用語言能力。對于Examples-proportional mixing的示例,我們發現對于大多數任務,K 都有一個“最佳點”,在該點上模型可以獲得最佳性能,而K值較大或較小都會導致性能變差。(對于我們考慮的K值范圍)WMT英語到法語的翻譯是個例外,這是一項資源非常豐富的任務,它總是受益于更高的混合比例。最后,我們注意到 Temperature-scaled mixing 提供了一種從大多數任務中獲得合理性能的方法,其中 T = 2 在大多數情況下表現最佳。在以下部分中,我們將探討縮小多任務訓練與 pre-train-then-fine-tune 方法之間差距的方法。

    3.5.3 Combining multi-task learning with fine-tuning

    回想一下,我們正在研究多任務學習的寬松版本:我們在混合任務上訓練單個模型,但允許使用模型的不同參數設置(檢查點)來評估性能(注意,預訓練時是只有單一無監督任務的)。我們可以通過考慮以下情況來擴展此方法:模型同時針對所有任務進行預訓練,然后針對有監督的單個任務進行微調。這是“MT-DNN”[17]使用的方法,該方法在推出時就達到了GLUE和其他基準的最新性能。

  • 首先,模型在 Examples-proportional mixing 的人工混合數據集上預訓練模型,然后在每個單獨的下游任務上對其進行微調。?這有助于我們衡量在預訓練期間是否將監督任務與無監督目標一起包括在內,可以使模型對下游任務有一些有益的早期暴露?。我們也希望,可能在許多監督源中進行混合可以幫助預訓練的模型在適應單個任務之前獲得更為通用的“技能”(寬松地說)。

  • 為了直接測量這一點,我們考慮第二個變體,其中我們在相同的混合數據集上對模型進行預訓練,只是從該預訓練混合物中省略了一項下游任務。然后,我們在預訓練中遺漏的任務上對模型進行微調。對于我們考慮的每個下游任務,我們都會重復此步驟。我們稱這種方法為“leave-one-out”多任務訓練。這模擬了真實的設置,在該設置中,針對未在預訓練中看到的任務微調了預訓練模型。

  • 因此,對于第三個變體,我們對所有考慮的監督任務進行預訓練。


  • 我們在表 12 中比較了這些方法的結果。為進行比較,我們還包括基線和標準多任務學習的結果。我們發現,多任務預訓練后的微調可以使性能與我們的基準相當。這表明在多任務學習之后使用微調可以幫助減輕第 3.5.2 節中描述的不同混合比率之間的某些權衡。有趣的是,“leave-one-out”訓練的性能僅稍差一些,這表明針對各種任務訓練的模型仍然可以適應新任務(即多任務預訓練可能不會產生嚴重的任務干擾)。最后,除了翻譯任務外,在所有情況下,有監督的多任務預訓練的表現都明顯較差。這可能表明翻譯任務從(英語的)無監督預訓練中受益較少,而無監督預訓練則是其他任務中的重要因素。

    3.6 Scaling

    機器學習研究的“慘痛教訓”認為,利用額外計算的通用方法最終會勝過依賴于人類專業知識的方法。最近的結果表明,這可能適用于NLP中的遷移學習,例如一再證明的擴大規模可以提高性能。但是,有多種可能的縮放方法,包括使用更大的模型,訓練模型更多步驟以及進行組合。在本節中,我們通過解決以下前提“獲得了 4 倍的計算能力該如何使用它?”來比較這些不同的方法

    模型查看 4 倍數據的另一種方法是將批處理大小增加 4 倍。由于更有效的并行化,這有可能導致更快的訓練。但是,以 4 倍大的批次大小進行訓練會產生與以 4 倍多的步驟進行訓練不同的結果。我們包括一個額外的實驗,在該實驗中,我們將基線模型訓練的批次大小提高了 4 倍,以比較這兩種情況。

    我們認為,在許多基準測試中,通常的做法是通過使用集成模型進行訓練和評估來獲得額外的性能。這提供了利用附加計算的正交方式。為了將其他縮放方法與集成發放進行比較,我們還測量了 4 個分別進行預訓練和微調的模型的集成的性能。我們將整個集成模型中的 logits 取平均,然后將它們輸入到 output softmax nonlinearity 中,以獲得匯總預測。代替預先訓練 4 個單獨的模型,更便宜的選擇是采用一個預先訓練的模型并產生4個單獨的微調版本。雖然這不會占用我們的全部 4 倍計算預算,但我們還包括此方法,以查看它是否比其他縮放方法具有競爭優勢。

    表 13 中顯示了應用這些各種縮放方法后獲得的性能。毫不奇怪,增加訓練時間和/或模型大小會持續改善基線。在進行 4 倍步數訓練或使用 4 倍大批量大小的訓練之間,盡管兩者都是有益的,但沒有明顯的贏家。通常,與僅增加訓練時間或增加批處理大小相比,增加模型大小會導致額外的性能提升。在我們研究的任何任務上,訓練一個 2 倍大的模型達到 2 倍長和訓練一個4 倍大模型之間,我們沒有觀察到很大的區別。這表明增加訓練時間和增加模型大小可以是提高性能的補充手段。我們的結果還表明,集成提供了一種通過規模來改善性能的正交有效方法。在某些任務中(CNN/DM,EnDe 以及 EnRo ),集成了 4 個完全獨立訓練的模型,其性能明顯優于其他縮放方法。預訓練但分別進行微調的集成模型也使性能大大超過了基線,這以更便宜的方式提高性能。唯一的例外是SuperGLUE,在這兩種方法中,兩種方法都不比基線有明顯改善。

    我們注意到,不同的縮放方法需要與不同的性能進行權衡。例如,使用較大的模型可能會使下游的微調和推斷變得更加昂貴。相反,如果將一個較小的模型進行較長時間的預訓練,如果將其應用于許多下游任務,則可以有效地攤銷該成本。另外,我們注意到,集成 N 個單獨的模型與使用具有 N 倍高的計算成本的模型具有相似的成本。因此,在縮放方法之間進行選擇時,一定要考慮模型的最終用途。

    3.7 Putting it all together

    現在,我們利用系統研究的見解來確定我們可以在流行的NLP基準上提高性能的程度。我們也有興趣通過在大量數據上訓練更大的模型來探索NLP遷移學習的當前限制。我們從基線訓練方法開始,進行以下更改:

    Objective:我們將獨立同分布的降噪目標替換為第3.3.4節中描述的?span-corruption 目標,這是受 SpanBERT[18]啟發。具體來說,我們使用平均跨度長度 3 ,破壞原始序列的15%。我們發現,該目標產生了略微更好的性能(表 7) ,并且由于目標序列長度較短,其計算效率略高。

    Longer training:我們的基線模型使用相對較少的預訓練步驟(BERT的 1?4 倍,XLNet的 1?16 倍,RoBERTa的 1?64)。幸運的是,C4足夠大,我們可以訓練更長的時間而無需重復數據(這可能是有害的,如3.4.2節所示)。我們在3.6節中發現,額外的預訓練確實可以提供幫助,并且增加批次大小和增加訓練步驟數量都可以帶來這一好處。因此,我們以?個長度為512的序列的批次大小對模型進行了100萬步的預訓練,相當于總共約 1 萬億個預訓練令牌(大約是我們基準的 32 倍)。

    在3.4.1節中,我們顯示了在類似RealNews,WebText和Wikipedia + TBC數據集上的預訓練在一些下游任務上優于在C4上的預訓練。

    但是,這些數據集變體非常小,以至于在對1萬億令牌進行預訓練的過程中,它們會重復數百次。

    由于我們在3.4.2節中表明了這種重復可能是有害的,因此我們選擇繼續使用C4數據集。

    Model sizes:在3.6節中,我們還展示了如何擴大基準模型大小以提高性能。但是,在有限用于微調或推理的計算資源的設置下,使用較小的模型可能會有所幫助。基于這些因素,我們訓練了各種尺寸的模型:

    Multi-task pre-training:在3.5.3節中,我們顯示了在微調之前對無監督任務和有監督任務的多任務混合進行預訓練以及僅對無監督任務進行了預訓練。這是“MT-DNN”[17]提倡的方法。它還具有實際的好處,即能夠在整個訓練期間(而不只是在微調期間)監視“下游”性能。因此,我們在最后一組實驗中使用了多任務預訓練。我們假設接受較長時間訓練的較大模型可能會從較大比例的未標記數據中受益,因為它們更可能過度擬合較小的訓練數據集。但是,我們還注意到,第3.5.3節的結果表明,在多任務預訓練后進行微調可以減輕因選擇未標記數據的次優比例而可能引起的一些問題。基于這些想法,在使用標準 example-proportional mixing(在第3.5.2節中介紹)之前,我們將以下人工數據集大小替換為未標記的數據:Small 710,000,Base 2,620,000,Large 8,660,000,3B 33,500,000和11B 133,000,000。對于所有模型變體,我們還在預訓練期間將WMT EnFr 和 EnDe 的數據集的有效數據集大小限制為 100 萬個示例。

    Fine-tuning on individual GLUE and SuperGLUE tasks:到目前為止,在 GLUE 和 SuperGLUE 上進行微調時,我們已將這兩個基準測試中的所有數據集分別連接在一起,因此我們僅對GLUE和SuperGLUE各微調一次模型。這種方法使我們的研究在邏輯上更加簡單,但是我們發現與單獨微調任務相比,這在某些任務上犧牲了少量的性能。微調各個任務的潛在問題(可以通過一次訓練所有任務來緩解)可能會導致我們對資源不足的任務過擬合。例如,?個長度為 512 個序列的批處理大小將導致整個數據集在許多低資源的 GLUE 和 SuperGLUE 任務的每次批處理中出現多次。

    因此,在 GLUE 和 SuperGLUE 任務的微調期間,我們使用 8 個長度為 512 個序列的較小批處理大小。

    我們還會每 1000 步而不是每 5,000 步保存檢查點,以確保可以訪問在模型過擬合之前的模型參數。

    我們針對 GLUE / SuperGLUE 混合以及每個任務分別都微調了模型。

    然后,我們根據每個任務的驗證集性能,從混合微調或單個任務微調中選擇最佳檢查點。

    具體來說,我們使用在 GLUE 或 SuperGLUE 混合物上微調的 STS-B,QQP,RTE,BoolQ,COPA和MultiRC的模型,并對所有其他任務使用經過單獨微調的模型。

    Beam search:我們所有以前的結果都是使用貪婪解碼來報告的。對于具有較長輸出序列的任務,我們發現使用波束搜索可以提高性能。具體來說,對于WMT翻譯和CNN / DM摘要任務,我們使用 4 的beam width和??的長度損失。

    Test set:由于這是我們的最后一組實驗,我們對測試集而不是驗證集報告結果。對于CNN/Daily Mail,我們使用的數據集分布的標準測試集。對于 WM T任務,這對應于對英語-德語使用 newstest2014,對英語-法語使用 newstest2015 和對英語-羅馬尼亞語使用 newstest2016 。對于 GLUE 和 SuperGLUE ,我們使用基準評估服務器來計算官方測試集分數。對于 SQuAD ,在測試集上進行評估需要在基準服務器上運行推理。不幸的是,該服務器上的計算資源不足以從我們最大的模型中獲得預測。結果,我們改為繼續報告SQuAD驗證集的性能。幸運的是,在 SQuAD 測試集上性能最高的模型也在驗證集上報告了結果,因此我們仍然可以與現在的最新技術進行比較。

    除了上述更改之外,我們使用與基線相同的訓練過程和超參數(AdaFactor優化器,用于預訓練的 inverse square root 計劃,用于微調的恒定學習率,dropout 正則化,詞匯表等)。作為參考,這些詳細信息在第2節中進行了描述。

    最后一組實驗的結果顯示在表 14 中。總的來說,我們在考慮的24個任務中的 17 個上達到了最先進的性能。不出所料,我們最大的模型(參數為110億)在所有任務的模型大小變體中表現最佳。我們的T5-3B模型變體確實在一些任務上超越了現有技術,但是將模型大小擴展到110億個參數是實現我們最佳性能的最重要因素。現在,我們分析每個基準的結果。

    我們的 GLUE 平均得分為 89.7。有趣的是,在某些任務(CoLA,RTE和WNLI)上,我們的性能大大優于以前的最新技術,而在其他任務(QNLI和MRPC)上,我們的性能則明顯差。RTE和 WNLI 是機器性能歷來落后于人類性能的兩項任務,分別為93.6和95.9。我們在 QNLI 上的表現較差,可能是由于以下事實:該任務上的大多數最佳模型使用特殊的成對排名公式,該公式在進行預測時會整合來自多個樣本的信息。但是,我們在未在 QNLI 上使用這種方法的模型的表現優于其他模型。在參數數量方面,我們的 11B 模型變量是已提交給 GLUE 基準測試的最大模型。但是,大多數得分最高的模型都使用大量的集成和計算來產生預測。例如,實現了先前技術水平的 ALBERT 的變體使用的模型在大小和架構上與我們的3B變體相似(盡管由于巧妙的參數共享,其參數大大減少了)。為了在GLUE上產生更好的性能,ALBERT作者根據任務將“from 6 to 17”個模型組合在一起。這可能導致使用 ALBERT 集成進行預測要比使用 11B 變體進行計算更加昂貴。

    對于 SQuAD,我們在精確匹配和 F1 指標上均比以前的最新技術高出約一個點。SQuAD 是建立于三年前的長期基準,最近的改進僅使最新技術水平提高了一個百分點。我們注意到,當在測試集上報告結果時,它們通常基于一組模型和/或利用外部數據集來擴充小型SQuAD訓練集。精確匹配和 F1 指標在SQuAD上的人類表現估計分別為82.30和91.22 ,因此尚不清楚在此基準上進行進一步的改進是否有意義。

    對于 SuperGLUE,我們對最新技術進行了大幅度改進(從84.6的平均得分提高到88.9)。SuperGLUE 的設計任務是“超出當前最先進系統的范圍,但可以由大多數受過大學教育的英語語言使用者解決”。我們的人類表現幾乎達到了89.8。有趣的是,在閱讀理解任務(MultiRC和ReCoRD)上,我們的表現遠遠超出了人類的表現,這表明用于這些任務的評估指標可能偏向于機器做出的預測。在另一方面,人類在兩個 COPA 和 WSC 的準確率為100%,比我們的模型中的表現好得多。這表明,仍然存在語言上的任務是我們的模型難以完善的,尤其是在資源匱乏的環境中。

    在任何WMT翻譯任務中,我們都沒有達到最先進的性能。這可能部分是由于我們使用了僅英語的未標記數據集。我們還注意到,在這些任務上,大多數最佳結果都使用了backtranslation,這是一種復雜的數據增強方案。在資源匱乏的英語到羅馬尼亞語基準方面的最新技術還使用了其他形式的跨語言無監督訓練。我們的結果表明,規模和英語預訓練可能不足以匹配這些更復雜的方法的性能。更具體地說,英語到德語 newstest2014 的最佳結果使用了 WMT2018 更大的訓練集,很難直接與我們的結果進行比較。

    最后,盡管在 ROUGE-2-F 得分上僅達到相當高的水平,但在 CNN/Daily Mail 上,我們獲得了最先進的性能。已經顯示,對 ROUGE 分數的改進不一定對應于更連貫的摘要。此外,盡管將CNN/Daily Mail作為抽象摘要的基準,但已證明純粹的提取方法行之有效。也有人認為,以最大可能性訓練的生成模型易于產生重復的摘要。盡管存在這些潛在問題,我們發現我們的模型確實能夠生成連貫且基本正確的摘要。我們在附錄 C 中提供了一些未經特別挑選的驗證集示例。

    4 Reflection

    完成我們的系統研究后,我們首先總結一些最重要的發現。我們的研究結果提供了一些我們認為更有希望的研究途徑的高層次的觀點。總而言之,我們概述了一些我們認為可以為進一步發展該領域提供有效方法的主題。

    4.1 Takeaways

    Text-to-text:我們的 Text-to-text 框架提供了一種簡單的方法,可以在各種文本任務上使用相同的損失函數和解碼步驟訓練單個模型。我們展示了如何將該方法成功地應用于生成任務,例如抽象摘要,分類任務(例如自然語言推斷),甚至回歸任務(例如STS-B)。盡管簡單,但我們發現Text-to-text框架的性能與特定于任務的體系結構的性能是可比的,并且在與規模結合時產生了最佳的結果。

    Architectures:盡管有關NLP的遷移學習的一些工作已考慮了Transformer的體系結構變體,但我們發現原始的編碼器/解碼器形式在我們的 Text-to-text 框架中效果最好。盡管編碼器/解碼器模型使用的參數是“僅編碼器”(例如BERT)或“僅解碼器”(語言模型)體系結構的兩倍,但其計算成本卻相似。我們還表明,在編碼器和解碼器中共享參數不會導致性能下降,并且使得總參數數量減半。

    Unsupervised objectives:總體而言,我們發現大多數訓練模型以重建隨機損壞文本的“denoising”目標在 Text-to-text 框架中的性能相似。因此,我們建議使用可產生短目標序列的目標,以便無監督的預訓練在計算上更加有效。

    Datasets:我們引入了“Colossal Clean Crawled Corpus” C4,其中包含來自Common Crawl web dump的啟發式清理的文本。?將 C4 與使用額外過濾的數據集進行比較時,我們發現對域內未標記數據的訓練可以提高一些下游任務的性能。但是,約束到單個域通常會導致數據集較小。我們分別表明,當未標記的數據集足夠小以至于在預訓練過程中重復多次時,性能可能會下降。這促使使用大量不同的數據集(如C4)來進行通用語言理解任務。

    Training strategies:我們發現盡管更新所有參數最昂貴,但是在微調期間更新預訓練模型的所有參數的基本方法優于旨在更新較少參數的方法。?我們還嘗試了多種方法來一次在多個任務上訓練模型,這在我們的Text-to-text框架中僅對應于在構建批處理時混合來自不同數據集的示例。多任務學習中的主要問題是設置要繼續訓練的每個任務的比例。我們最終沒有找到一種設置混合比例的策略,該策略與無監督的預訓練和有監督的微調的基本方法的性能相匹配。但是,我們發現,在對各種任務進行預訓練后進行微調可以產生與無監督預訓練相當的性能。

    Scaling:我們比較了利用額外計算的各種策略,包括在更多數據上訓練模型,訓練更大的模型以及使用一組模型。我們發現每種方法都可以顯著提高性能,盡管通過在較少的步驟上訓練更大的模型通常比在較小的模型上訓練更多的數據要好。我們還表明,與單個模型相比,一組集成模型可以提供實質上更好的結果,后者提供了一種利用附加計算的正交方式。從同一預訓練模型進行分別微調所構成的集成模型的效果要比所有模型分別進行預訓練和微調的效果差,不過仍遠勝于單個模型。

    Pushing the limits:我們結合了上述見解,并訓練了更大的模型(最多 110 億個參數),從而在我們考慮的許多基準測試中均獲得了最新的結果。對于無監督訓練,我們從C4數據集中提取文本并應用降噪目標,該目標會破壞連續范圍的令牌。在對單個任務進行微調之前,我們對多任務混合進行了預訓練。總體而言,我們的模型已針對超過1萬億 tokens 進行了訓練。為了促進結果的復制,擴展和應用,我們發布了每個 T5 變體的代碼,C4 數據集和預訓練的模型權重。

    4.2 Outlook

    The inconvenience of large models:我們的研究得出的不令人驚訝但重要的結果是,較大的模型往往表現更好。用于運行這些模型的硬件不斷變得更便宜和更強大的事實表明,擴大規模可能仍然是實現更好性能的有前途的方法。但是,在某些應用程序和場景中,總是存在使用較小或較便宜的模型有幫助的情況,例如在執行客戶端推斷或聯合學習時。相關地,遷移學習的一種有益用途是在低資源任務上獲得良好性能的可能性。低資源任務通常(根據定義)發生在缺乏資產以標記更多數據的環境中。因此,低資源應用程序通常也對計算資源的訪問受到限制,這可能會導致額外的成本。因此,我們提倡研究使用更便宜的模型實現更強性能的方法,以便將遷移學習應用于影響最大的地方。這些方面目前的一些工作包括 distillation 蒸餾,parameter sharing 參數共享和 conditional computation 條件計算。

    More efficient knowledge extraction:回想一下,預訓練的目標之一是(寬松地說)為模型提供通用的“知識”,以提高其在下游任務上的性能。?這項工作中的方法是訓練模型去噪損壞的文本范圍(也是目前普遍采用的)。我們懷疑這種簡單化的技術可能不是傳授模型通用知識的非常有效的方法。?更具體地說,能夠獲得良好的微調性能而無需先對 1 萬億文本標記訓練我們的模型將很有用。這些方面的一些并行工作通過預訓練模型以區分真實文本和機器生成的文本來提高效率。

    Formalizing the similarity between tasks:我們觀察到,對未標記的域內數據進行預訓練可以提高下游任務的性能(第3.4節)。這一發現主要依賴于基本觀察,例如 SQuAD 是使用來自Wikipedia 的數據創建的。對預訓練任務和下游任務之間的“相似性”提出更為嚴格的概念將很有用,這樣我們就可以在使用何種類型的無標簽數據來源方面做出更原則性的選擇。在計算機視覺領域,沿著這些思路開展了一些早期的實證研究。更好地了解任務的關聯性也可以幫助選擇有監督的預訓練任務,這已被證明對 GLUE 基準測試很有幫助。

    Language-agnostic models:我們失望地發現 English-only 的預訓練在我們研究的翻譯任務上未能達到最新的結果。我們也有興趣去避免需要指定某種語言的預先編碼的詞匯表的準備困難。為了解決這些問題,我們有興趣進一步研究與語言無關的模型,即無論文本的語言如何,都能執行給定 NLP 任務且性能良好的模型。鑒于英語不是世界上大多數人口的母語,所以這是一個特別相關的問題。

    本文的動機是最近針對 NLP 的遷移學習的大量工作。在我們開始這項工作之前,這些進步已經實現了基于學習的方法尚未被證明有效的環境中的突破。我們很高興能夠繼續保持這種趨勢,例如通過在 SuperGLUE 基準測試上接近人類水平的性能來完成這一任務,這項任務專為現代的遷移學習pipeline 而設計。我們的結果源于簡單,統一的Text-to-text框架,新的C4數據集以及系統研究的見解。此外,我們提供了該領域的經驗概述以及展望。我們很高興看到后續工作能夠使用遷移學習實現通用語言理解的目標。

    參考

  • ^T5 論文?https://arxiv.org/abs/1910.10683

  • ^相對位置嵌入?https://arxiv.org/abs/1803.02155

  • ^decaNLP?https://arxiv.org/abs/1806.08730

  • ^Transformer?https://arxiv.org/abs/1706.03762

  • ^AdaFactor?https://arxiv.org/abs/1804.04235

  • ^abUniversal Language Model Fine-tuning for Text Classification?https://arxiv.org/abs/1801.06146

  • ^SentencePiece?https://arxiv.org/abs/1808.06226

  • ^Subword模型?https://zhuanlan.zhihu.com/p/69414965

  • ^深入理解NLP Subword算法:BPE、WordPiece、ULM https://zhuanlan.zhihu.com/p/86965595

  • ^Generating Wikipedia by Summarizing Long Sequences?https://arxiv.org/abs/1801.10198

  • ^Unified Language Model Pre-training for Natural Language Understanding and Generation?https://arxiv.org/abs/1905.03197

  • ^MASS?https://arxiv.org/abs/1905.02450

  • ^OpenWebText?https://github.com/jcpeterson/openwebtext

  • ^wikipedia dataset?https://www.tensorflow.org/datasets/catalog/wikipedia

  • ^Parameter-Efficient Transfer Learning for NLP?https://arxiv.org/abs/1902.00751

  • ^Can you tell me how to get past sesame street? sentence-level pretraining beyond language modeling.?https://www.aclweb.org/anthology/P19-1439/

  • ^abMulti-Task Deep Neural Networks for Natural Language Understanding?https://arxiv.org/abs/1901.11504

  • ^SpanBERT?https://arxiv.org/abs/1907.10529

  • 總結

    以上是生活随笔為你收集整理的T5: Text-to-Text Transfer Transformer 阅读笔记的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    中文字幕无码日韩欧毛 | 国产午夜亚洲精品不卡 | 人妻少妇精品久久 | 国产色xx群视频射精 | 色情久久久av熟女人妻网站 | 玩弄中年熟妇正在播放 | 国产9 9在线 | 中文 | 成 人 免费观看网站 | 久久综合久久自在自线精品自 | 成人一区二区免费视频 | 免费网站看v片在线18禁无码 | 色偷偷人人澡人人爽人人模 | 亚洲日韩乱码中文无码蜜桃臀网站 | 人人妻人人澡人人爽欧美一区九九 | 一本一道久久综合久久 | 爽爽影院免费观看 | 亚洲熟女一区二区三区 | 久久综合网欧美色妞网 | 亚洲熟妇色xxxxx亚洲 | 国产乱人无码伦av在线a | 黑人巨大精品欧美黑寡妇 | 久久国产精品二国产精品 | 久久久婷婷五月亚洲97号色 | 中文字幕无码免费久久9一区9 | 红桃av一区二区三区在线无码av | 中文无码成人免费视频在线观看 | 香港三级日本三级妇三级 | 中文久久乱码一区二区 | 亚洲成av人影院在线观看 | 国产后入清纯学生妹 | 俄罗斯老熟妇色xxxx | 一个人看的视频www在线 | av无码电影一区二区三区 | 久久综合狠狠综合久久综合88 | 国产精品美女久久久久av爽李琼 | 国产精品手机免费 | 国产在线精品一区二区三区直播 | 欧美日韩综合一区二区三区 | 亚洲精品欧美二区三区中文字幕 | 俄罗斯老熟妇色xxxx | 日本在线高清不卡免费播放 | 成 人 免费观看网站 | 久久精品人妻少妇一区二区三区 | 一二三四社区在线中文视频 | 18无码粉嫩小泬无套在线观看 | 欧美猛少妇色xxxxx | 青青草原综合久久大伊人精品 | 国产精品怡红院永久免费 | 青青草原综合久久大伊人精品 | 国产高清av在线播放 | 国产成人无码av一区二区 | 国产精品.xx视频.xxtv | 无码精品人妻一区二区三区av | 国产熟妇高潮叫床视频播放 | 久久午夜夜伦鲁鲁片无码免费 | 午夜理论片yy44880影院 | 国产午夜亚洲精品不卡下载 | 色五月五月丁香亚洲综合网 | 免费看少妇作爱视频 | 国产午夜视频在线观看 | a在线亚洲男人的天堂 | 国产成人一区二区三区在线观看 | 亚洲熟悉妇女xxx妇女av | 久久久久久久女国产乱让韩 | 在线精品亚洲一区二区 | 久久亚洲日韩精品一区二区三区 | 成人精品一区二区三区中文字幕 | 欧美老妇与禽交 | 中文字幕乱码人妻无码久久 | 欧美性猛交xxxx富婆 | a在线观看免费网站大全 | 欧美日韩在线亚洲综合国产人 | 中文字幕亚洲情99在线 | 国产亚洲人成a在线v网站 | 午夜无码区在线观看 | 四十如虎的丰满熟妇啪啪 | 日本乱偷人妻中文字幕 | 欧美激情综合亚洲一二区 | 亚洲aⅴ无码成人网站国产app | 久久综合九色综合欧美狠狠 | 最新国产乱人伦偷精品免费网站 | а天堂中文在线官网 | 成年美女黄网站色大免费视频 | 国产农村妇女高潮大叫 | 97久久国产亚洲精品超碰热 | 欧美一区二区三区 | 国产成人无码午夜视频在线观看 | 国产精品人妻一区二区三区四 | 麻豆av传媒蜜桃天美传媒 | 三上悠亚人妻中文字幕在线 | 丰满少妇弄高潮了www | 熟妇激情内射com | 曰本女人与公拘交酡免费视频 | 久久精品人人做人人综合试看 | 亚洲gv猛男gv无码男同 | 野外少妇愉情中文字幕 | 中文字幕av无码一区二区三区电影 | 久久国产劲爆∧v内射 | 欧美一区二区三区视频在线观看 | 国内揄拍国内精品人妻 | 成人影院yy111111在线观看 | 色综合视频一区二区三区 | 国产午夜无码精品免费看 | 成人性做爰aaa片免费看不忠 | 精品厕所偷拍各类美女tp嘘嘘 | 中文字幕人妻丝袜二区 | 欧美丰满熟妇xxxx性ppx人交 | 永久免费观看国产裸体美女 | 狠狠色丁香久久婷婷综合五月 | 中文字幕av日韩精品一区二区 | 无码吃奶揉捏奶头高潮视频 | 亚洲国产精品一区二区第一页 | 波多野结衣乳巨码无在线观看 | 国产精品自产拍在线观看 | 国产情侣作爱视频免费观看 | 性开放的女人aaa片 | 国产人妻久久精品二区三区老狼 | 国产成人亚洲综合无码 | 性开放的女人aaa片 | 一本大道久久东京热无码av | 最新国产乱人伦偷精品免费网站 | 久久99热只有频精品8 | 精品日本一区二区三区在线观看 | 国产精品a成v人在线播放 | 国产成人无码一二三区视频 | 久久99国产综合精品 | 亚洲欧美日韩综合久久久 | 99麻豆久久久国产精品免费 | 国产午夜福利100集发布 | 日本在线高清不卡免费播放 | 久精品国产欧美亚洲色aⅴ大片 | 人妻互换免费中文字幕 | 国产亚洲精品久久久久久久 | 1000部啪啪未满十八勿入下载 | 成人片黄网站色大片免费观看 | 中文字幕无码av激情不卡 | 亚洲欧美日韩成人高清在线一区 | 在线 国产 欧美 亚洲 天堂 | 性生交大片免费看l | 亚洲色无码一区二区三区 | 中文字幕乱码人妻二区三区 | 99国产欧美久久久精品 | 乱人伦人妻中文字幕无码久久网 | 亚洲一区二区三区偷拍女厕 | 久久熟妇人妻午夜寂寞影院 | 国产片av国语在线观看 | 天天拍夜夜添久久精品 | 成人影院yy111111在线观看 | 蜜桃视频插满18在线观看 | 久久无码专区国产精品s | 国产精品人妻一区二区三区四 | 国产真实夫妇视频 | 色欲久久久天天天综合网精品 | 人妻插b视频一区二区三区 | 牲交欧美兽交欧美 | 99久久99久久免费精品蜜桃 | 人妻尝试又大又粗久久 | 日韩人妻系列无码专区 | 久久久久久久久888 | 红桃av一区二区三区在线无码av | 亚洲国产欧美在线成人 | 国产精品久久精品三级 | 红桃av一区二区三区在线无码av | а√资源新版在线天堂 | 午夜熟女插插xx免费视频 | 免费国产黄网站在线观看 | 国产真实乱对白精彩久久 | 狠狠cao日日穞夜夜穞av | 国产性生交xxxxx无码 | 欧美人与牲动交xxxx | 久久精品一区二区三区四区 | 国产精品二区一区二区aⅴ污介绍 | 日日噜噜噜噜夜夜爽亚洲精品 | 欧洲欧美人成视频在线 | 国产小呦泬泬99精品 | 毛片内射-百度 | 日韩精品a片一区二区三区妖精 | 亚洲区小说区激情区图片区 | 亚洲欧美国产精品专区久久 | 西西人体www44rt大胆高清 | 精品无码一区二区三区的天堂 | 亚洲熟妇色xxxxx亚洲 | 国产精品18久久久久久麻辣 | 少妇性俱乐部纵欲狂欢电影 | 国产9 9在线 | 中文 | 亚洲欧美国产精品久久 | 麻豆国产人妻欲求不满 | 欧美人与善在线com | 亚洲日本在线电影 | 波多野结衣高清一区二区三区 | 天天综合网天天综合色 | 成人无码视频在线观看网站 | 一个人看的www免费视频在线观看 | 国内精品久久毛片一区二区 | 国产97色在线 | 免 | 精品无人国产偷自产在线 | 一个人看的www免费视频在线观看 | 一区二区三区高清视频一 | 精品人人妻人人澡人人爽人人 | 无码午夜成人1000部免费视频 | 中文字幕av日韩精品一区二区 | 日韩欧美中文字幕在线三区 | 国产人妻人伦精品 | 亚洲日韩av一区二区三区中文 | 老熟妇仑乱视频一区二区 | 丁香花在线影院观看在线播放 | 精品少妇爆乳无码av无码专区 | 大肉大捧一进一出视频出来呀 | 高清无码午夜福利视频 | 亚洲精品午夜无码电影网 | 久久久久成人片免费观看蜜芽 | 国产亚洲欧美在线专区 | 天堂а√在线地址中文在线 | 欧美日本精品一区二区三区 | 娇妻被黑人粗大高潮白浆 | 欧美日本日韩 | 久久综合给合久久狠狠狠97色 | 天天摸天天碰天天添 | 精品久久久久久亚洲精品 | av香港经典三级级 在线 | 一本色道久久综合亚洲精品不卡 | 丰满少妇弄高潮了www | 亚洲成a人片在线观看无码 | 国产亚洲精品久久久久久国模美 | 真人与拘做受免费视频一 | 无码人妻久久一区二区三区不卡 | 亚洲人成人无码网www国产 | 欧洲熟妇精品视频 | 国产精品手机免费 | 欧美一区二区三区视频在线观看 | 国产亚洲精品久久久久久国模美 | 免费观看又污又黄的网站 | v一区无码内射国产 | 中文毛片无遮挡高清免费 | 亚洲熟悉妇女xxx妇女av | 狠狠噜狠狠狠狠丁香五月 | 日韩人妻系列无码专区 | 久久国产36精品色熟妇 | 野外少妇愉情中文字幕 | 成年美女黄网站色大免费视频 | 国产精品二区一区二区aⅴ污介绍 | 国产精品理论片在线观看 | 女人被男人爽到呻吟的视频 | 国产深夜福利视频在线 | 黑人粗大猛烈进出高潮视频 | 任你躁在线精品免费 | 成人三级无码视频在线观看 | 丰满少妇女裸体bbw | 日本大香伊一区二区三区 | 中国女人内谢69xxxx | 国精产品一区二区三区 | 国精品人妻无码一区二区三区蜜柚 | 99久久久无码国产aaa精品 | 东京一本一道一二三区 | 搡女人真爽免费视频大全 | aⅴ亚洲 日韩 色 图网站 播放 | 人人妻人人澡人人爽欧美一区九九 | 精品日本一区二区三区在线观看 | 国产尤物精品视频 | 久青草影院在线观看国产 | 国产精品亚洲专区无码不卡 | 中文字幕 亚洲精品 第1页 | 少妇无码一区二区二三区 | 四虎影视成人永久免费观看视频 | 无码av免费一区二区三区试看 | 国产精品高潮呻吟av久久 | 亚洲性无码av中文字幕 | 蜜桃视频插满18在线观看 | 国产午夜精品一区二区三区嫩草 | 日本一区二区三区免费播放 | 日本在线高清不卡免费播放 | 老司机亚洲精品影院无码 | 97精品国产97久久久久久免费 | 老头边吃奶边弄进去呻吟 | 青青久在线视频免费观看 | 色综合久久88色综合天天 | 久久精品中文闷骚内射 | 亚洲精品久久久久久久久久久 | 精品一区二区三区无码免费视频 | 国色天香社区在线视频 | 亚洲中文字幕无码一久久区 | 蜜臀aⅴ国产精品久久久国产老师 | 中文字幕av日韩精品一区二区 | 午夜精品一区二区三区在线观看 | 精品成人av一区二区三区 | 国产综合在线观看 | 精品国产成人一区二区三区 | 人人爽人人爽人人片av亚洲 | 精品夜夜澡人妻无码av蜜桃 | 美女毛片一区二区三区四区 | 曰本女人与公拘交酡免费视频 | 六十路熟妇乱子伦 | 久久亚洲中文字幕精品一区 | 99精品无人区乱码1区2区3区 | 亚无码乱人伦一区二区 | 亚洲啪av永久无码精品放毛片 | 国产成人精品一区二区在线小狼 | 99久久精品午夜一区二区 | 亚洲成av人在线观看网址 | 久久久国产精品无码免费专区 | 色 综合 欧美 亚洲 国产 | 精品欧洲av无码一区二区三区 | 粗大的内捧猛烈进出视频 | 国产sm调教视频在线观看 | 蜜桃臀无码内射一区二区三区 | 久久国产精品二国产精品 | 天天爽夜夜爽夜夜爽 | 色妞www精品免费视频 | 88国产精品欧美一区二区三区 | 色爱情人网站 | 久久99精品国产麻豆蜜芽 | 日本大乳高潮视频在线观看 | 欧美35页视频在线观看 | 无码国产色欲xxxxx视频 | 激情综合激情五月俺也去 | 亚洲性无码av中文字幕 | 久久精品无码一区二区三区 | 中文字幕av伊人av无码av | 中文亚洲成a人片在线观看 | 精品欧洲av无码一区二区三区 | 精品久久久久香蕉网 | 最近的中文字幕在线看视频 | 成年女人永久免费看片 | 国产一区二区三区影院 | 欧洲欧美人成视频在线 | 国产精品毛多多水多 | 永久免费观看美女裸体的网站 | 成人aaa片一区国产精品 | 在线 国产 欧美 亚洲 天堂 | 国产97人人超碰caoprom | 亚洲高清偷拍一区二区三区 | 熟妇女人妻丰满少妇中文字幕 | 久久久久亚洲精品男人的天堂 | 国产美女精品一区二区三区 | 国产黄在线观看免费观看不卡 | 欧美色就是色 | 国产精品久久久久无码av色戒 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 国产精品永久免费视频 | 欧美 日韩 人妻 高清 中文 | 国产午夜手机精彩视频 | 在线天堂新版最新版在线8 | 国产三级久久久精品麻豆三级 | 漂亮人妻洗澡被公强 日日躁 | 久久99精品久久久久久 | 麻豆成人精品国产免费 | 日本一区二区三区免费高清 | 亚洲乱码国产乱码精品精 | 午夜理论片yy44880影院 | 免费观看激色视频网站 | 无码人妻黑人中文字幕 | 国产精品嫩草久久久久 | 98国产精品综合一区二区三区 | 欧美成人高清在线播放 | 精品厕所偷拍各类美女tp嘘嘘 | 麻豆av传媒蜜桃天美传媒 | 久久国语露脸国产精品电影 | 中文字幕乱码人妻二区三区 | 国产香蕉尹人视频在线 | 久精品国产欧美亚洲色aⅴ大片 | 国产精品成人av在线观看 | 麻豆国产人妻欲求不满谁演的 | 欧洲vodafone精品性 | 国产精品高潮呻吟av久久 | 精品偷拍一区二区三区在线看 | 欧美黑人性暴力猛交喷水 | 久久五月精品中文字幕 | 98国产精品综合一区二区三区 | 日本又色又爽又黄的a片18禁 | 久久久久99精品成人片 | 捆绑白丝粉色jk震动捧喷白浆 | 亚洲の无码国产の无码影院 | 亚洲精品久久久久久一区二区 | 国产农村妇女高潮大叫 | 18无码粉嫩小泬无套在线观看 | 日本肉体xxxx裸交 | 国产亚洲美女精品久久久2020 | 日韩精品无码免费一区二区三区 | 国产精品免费大片 | 国产亚洲精品久久久ai换 | 性欧美疯狂xxxxbbbb | 东京热无码av男人的天堂 | 牲欲强的熟妇农村老妇女 | 狠狠色噜噜狠狠狠狠7777米奇 | 色综合久久久久综合一本到桃花网 | 中文无码精品a∨在线观看不卡 | 久久午夜无码鲁丝片秋霞 | 国内揄拍国内精品少妇国语 | 国产又爽又黄又刺激的视频 | 宝宝好涨水快流出来免费视频 | 欧美人妻一区二区三区 | 国产亚洲欧美在线专区 | 人人妻人人澡人人爽人人精品浪潮 | 国产精品美女久久久久av爽李琼 | 国产午夜无码视频在线观看 | 国产一区二区三区影院 | 三级4级全黄60分钟 | 国产超碰人人爽人人做人人添 | 十八禁真人啪啪免费网站 | 亚洲狠狠色丁香婷婷综合 | 日韩av激情在线观看 | 成人精品天堂一区二区三区 | 日本熟妇乱子伦xxxx | 欧美 丝袜 自拍 制服 另类 | 女人被男人躁得好爽免费视频 | 日本欧美一区二区三区乱码 | 无码av最新清无码专区吞精 | 日韩精品久久久肉伦网站 | 女人高潮内射99精品 | 成人免费无码大片a毛片 | 亚洲s色大片在线观看 | 97无码免费人妻超级碰碰夜夜 | 捆绑白丝粉色jk震动捧喷白浆 | 精品国产青草久久久久福利 | 亚洲国产精品久久人人爱 | 九九热爱视频精品 | 搡女人真爽免费视频大全 | 中文字幕中文有码在线 | 成年美女黄网站色大免费视频 | 国产性生大片免费观看性 | 中文字幕无码av波多野吉衣 | 亚洲综合伊人久久大杳蕉 | 99精品无人区乱码1区2区3区 | 免费无码一区二区三区蜜桃大 | 色欲av亚洲一区无码少妇 | 男人的天堂2018无码 | www一区二区www免费 | 成人无码视频在线观看网站 | 久久久久久国产精品无码下载 | 久久精品国产一区二区三区肥胖 | 欧美亚洲国产一区二区三区 | 欧美性生交活xxxxxdddd | 久久成人a毛片免费观看网站 | 强辱丰满人妻hd中文字幕 | 精品国产福利一区二区 | 女高中生第一次破苞av | 久久久久se色偷偷亚洲精品av | 又紧又大又爽精品一区二区 | 大肉大捧一进一出好爽视频 | 久久久久亚洲精品男人的天堂 | 亚洲精品www久久久 | 亚洲一区av无码专区在线观看 | 国产亚洲欧美在线专区 | 四虎永久在线精品免费网址 | 国产精品自产拍在线观看 | 久久人人爽人人爽人人片av高清 | 亚洲男人av香蕉爽爽爽爽 | 性色欲网站人妻丰满中文久久不卡 | 55夜色66夜色国产精品视频 | av无码不卡在线观看免费 | 国产精品国产自线拍免费软件 | 日本饥渴人妻欲求不满 | 国产人妻大战黑人第1集 | 成人精品一区二区三区中文字幕 | 久久久久久亚洲精品a片成人 | 免费看少妇作爱视频 | 成人无码精品一区二区三区 | 97精品人妻一区二区三区香蕉 | 国产精品高潮呻吟av久久4虎 | 精品厕所偷拍各类美女tp嘘嘘 | 露脸叫床粗话东北少妇 | 国产亚洲人成在线播放 | 99久久婷婷国产综合精品青草免费 | av无码电影一区二区三区 | 一二三四社区在线中文视频 | 漂亮人妻洗澡被公强 日日躁 | 国产在线无码精品电影网 | 丰满少妇人妻久久久久久 | 一本色道婷婷久久欧美 | 性生交大片免费看女人按摩摩 | 久久精品女人天堂av免费观看 | 中文字幕无码人妻少妇免费 | 中文字幕av日韩精品一区二区 | 久久久精品欧美一区二区免费 | 国产精品igao视频网 | 久久精品中文字幕大胸 | av无码不卡在线观看免费 | 欧美黑人性暴力猛交喷水 | 98国产精品综合一区二区三区 | 亚洲中文字幕无码中字 | 国产精品对白交换视频 | 色狠狠av一区二区三区 | 国产亚洲精品久久久闺蜜 | 成人性做爰aaa片免费看不忠 | 无码人妻丰满熟妇区五十路百度 | 精品午夜福利在线观看 | 无码av免费一区二区三区试看 | 妺妺窝人体色www婷婷 | 色婷婷综合中文久久一本 | 欧美人与物videos另类 | 中文字幕无码av波多野吉衣 | 国产精华av午夜在线观看 | av在线亚洲欧洲日产一区二区 | 国产99久久精品一区二区 | 成人aaa片一区国产精品 | 欧美xxxxx精品 | 在线精品国产一区二区三区 | a国产一区二区免费入口 | 亚洲国产精品久久久久久 | 午夜男女很黄的视频 | 两性色午夜视频免费播放 | 亚洲乱码日产精品bd | 国产艳妇av在线观看果冻传媒 | 嫩b人妻精品一区二区三区 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 国产真实夫妇视频 | 婷婷丁香五月天综合东京热 | 2020最新国产自产精品 | 亚洲国产欧美日韩精品一区二区三区 | 男人扒开女人内裤强吻桶进去 | 中文字幕av无码一区二区三区电影 | 欧美刺激性大交 | 99在线 | 亚洲 | 久久久久久九九精品久 | 亚洲 a v无 码免 费 成 人 a v | 国产极品视觉盛宴 | 兔费看少妇性l交大片免费 | 小sao货水好多真紧h无码视频 | 亚洲综合在线一区二区三区 | 国产精品永久免费视频 | 未满小14洗澡无码视频网站 | 色欲久久久天天天综合网精品 | 无码av岛国片在线播放 | 粉嫩少妇内射浓精videos | а√资源新版在线天堂 | 曰韩少妇内射免费播放 | 在线a亚洲视频播放在线观看 | 日本丰满熟妇videos | 国产午夜视频在线观看 | 国产精品成人av在线观看 | 亚洲综合无码一区二区三区 | 特级做a爰片毛片免费69 | 无套内谢老熟女 | 丰满少妇高潮惨叫视频 | 激情亚洲一区国产精品 | 久久久精品456亚洲影院 | 国产精品手机免费 | 精品久久综合1区2区3区激情 | 亚洲国产午夜精品理论片 | 亚洲熟女一区二区三区 | 97夜夜澡人人双人人人喊 | 人妻aⅴ无码一区二区三区 | 国产精品久久福利网站 | 牲欲强的熟妇农村老妇女视频 | 日韩亚洲欧美中文高清在线 | 在线观看国产午夜福利片 | 亚洲精品中文字幕久久久久 | 97夜夜澡人人双人人人喊 | 人人爽人人澡人人人妻 | 亚洲国产综合无码一区 | 久久精品中文字幕大胸 | 美女黄网站人色视频免费国产 | аⅴ资源天堂资源库在线 | 久久 国产 尿 小便 嘘嘘 | 久久综合网欧美色妞网 | 夜夜高潮次次欢爽av女 | 久久亚洲日韩精品一区二区三区 | 久久综合九色综合97网 | 国产欧美精品一区二区三区 | 乌克兰少妇xxxx做受 | 国产乱人偷精品人妻a片 | 国产色xx群视频射精 | 亚洲精品成人av在线 | 最近的中文字幕在线看视频 | 丰满少妇女裸体bbw | 国产福利视频一区二区 | 人人妻在人人 | 亚洲精品久久久久avwww潮水 | 成在人线av无码免费 | 漂亮人妻洗澡被公强 日日躁 | 麻豆国产97在线 | 欧洲 | 荫蒂添的好舒服视频囗交 | 伊人久久大香线蕉午夜 | 少妇激情av一区二区 | 日本又色又爽又黄的a片18禁 | 一本久道高清无码视频 | 又大又紧又粉嫩18p少妇 | 久久久精品欧美一区二区免费 | 亚洲熟妇色xxxxx欧美老妇y | 午夜精品久久久久久久 | 精品午夜福利在线观看 | 亚洲日本va中文字幕 | 亚洲第一无码av无码专区 | 性生交大片免费看女人按摩摩 | 久久精品国产一区二区三区 | 中文字幕无线码免费人妻 | 中文字幕乱码人妻二区三区 | 4hu四虎永久在线观看 | 国产综合在线观看 | 中文字幕色婷婷在线视频 | 国产精品视频免费播放 | 超碰97人人做人人爱少妇 | 国产精品人人妻人人爽 | 色婷婷av一区二区三区之红樱桃 | 色婷婷综合中文久久一本 | 最近免费中文字幕中文高清百度 | 亚洲欧美精品aaaaaa片 | 国产成人无码a区在线观看视频app | 亚洲人亚洲人成电影网站色 | 男女下面进入的视频免费午夜 | 亚洲一区av无码专区在线观看 | а√资源新版在线天堂 | v一区无码内射国产 | 狂野欧美性猛xxxx乱大交 | 人人妻人人澡人人爽欧美一区 | 久久久久免费看成人影片 | 无码一区二区三区在线观看 | 国产亚洲精品久久久久久大师 | 美女毛片一区二区三区四区 | 在线看片无码永久免费视频 | 色综合久久中文娱乐网 | 狠狠色丁香久久婷婷综合五月 | 精品无码国产自产拍在线观看蜜 | 精品一区二区不卡无码av | 中文字幕无码日韩专区 | 人妻与老人中文字幕 | 成 人 免费观看网站 | 少妇愉情理伦片bd | 亚洲最大成人网站 | 国产无遮挡吃胸膜奶免费看 | 国产精品va在线播放 | 国产内射爽爽大片视频社区在线 | 亚洲成av人影院在线观看 | 国产免费无码一区二区视频 | 欧美日韩久久久精品a片 | 久久97精品久久久久久久不卡 | 亚洲 a v无 码免 费 成 人 a v | 成年美女黄网站色大免费视频 | 大地资源网第二页免费观看 | 丝袜人妻一区二区三区 | 亚洲精品午夜国产va久久成人 | 欧美激情内射喷水高潮 | 国产成人无码专区 | 丝袜人妻一区二区三区 | 一区二区传媒有限公司 | 日韩成人一区二区三区在线观看 | 国产精品久久久久久亚洲毛片 | 国产免费久久精品国产传媒 | 国产人成高清在线视频99最全资源 | 撕开奶罩揉吮奶头视频 | 国产人妻精品一区二区三区不卡 | 久久久久99精品国产片 | 偷窥日本少妇撒尿chinese | 欧美zoozzooz性欧美 | 国产精品无码一区二区三区不卡 | 国产97在线 | 亚洲 | 全黄性性激高免费视频 | 国产成人一区二区三区别 | 色狠狠av一区二区三区 | 黑人粗大猛烈进出高潮视频 | 久久亚洲中文字幕精品一区 | 国产人妖乱国产精品人妖 | 老熟妇乱子伦牲交视频 | 天干天干啦夜天干天2017 | 久久99久久99精品中文字幕 | 一个人看的www免费视频在线观看 | 亚洲熟妇色xxxxx欧美老妇y | 人妻天天爽夜夜爽一区二区 | 精品国产av色一区二区深夜久久 | 无码人妻精品一区二区三区下载 | 午夜福利试看120秒体验区 | 国产精品理论片在线观看 | 永久免费精品精品永久-夜色 | 日韩视频 中文字幕 视频一区 | 精品久久久无码中文字幕 | 久久精品国产99久久6动漫 | 亚洲综合无码久久精品综合 | 国产成人精品一区二区在线小狼 | 成年女人永久免费看片 | 无码乱肉视频免费大全合集 | 久久久国产精品无码免费专区 | 欧美国产日产一区二区 | 大胆欧美熟妇xx | 初尝人妻少妇中文字幕 | 色婷婷久久一区二区三区麻豆 | 中文精品久久久久人妻不卡 | 网友自拍区视频精品 | 狠狠cao日日穞夜夜穞av | 亚洲一区av无码专区在线观看 | 97久久国产亚洲精品超碰热 | 给我免费的视频在线观看 | 亚洲小说春色综合另类 | 久9re热视频这里只有精品 | 成人性做爰aaa片免费看 | 国产福利视频一区二区 | 高中生自慰www网站 | 少妇的肉体aa片免费 | 玩弄少妇高潮ⅹxxxyw | 久久国产精品二国产精品 | 国产片av国语在线观看 | 日本一卡二卡不卡视频查询 | a在线观看免费网站大全 | 一本久久a久久精品亚洲 | 午夜不卡av免费 一本久久a久久精品vr综合 | 成人无码视频在线观看网站 | 成在人线av无码免费 | 樱花草在线播放免费中文 | 国产成人精品久久亚洲高清不卡 | 强辱丰满人妻hd中文字幕 | 亚洲成a人片在线观看无码 | 久久精品中文字幕大胸 | 黑人巨大精品欧美一区二区 | 日本大香伊一区二区三区 | 激情综合激情五月俺也去 | 久久久久se色偷偷亚洲精品av | 亚洲成av人片在线观看无码不卡 | 久久99精品国产麻豆 | 亚洲gv猛男gv无码男同 | 亚洲国产欧美日韩精品一区二区三区 | 国色天香社区在线视频 | 伊人久久大香线焦av综合影院 | 人人爽人人澡人人人妻 | 亚洲毛片av日韩av无码 | 丰满护士巨好爽好大乳 | 国产av久久久久精东av | 亚洲综合无码久久精品综合 | 久久这里只有精品视频9 | 欧美性猛交xxxx富婆 | 天堂久久天堂av色综合 | 国产口爆吞精在线视频 | 日韩精品无码一本二本三本色 | 欧美日本日韩 | 中文字幕乱码亚洲无线三区 | 国产人妖乱国产精品人妖 | 日日躁夜夜躁狠狠躁 | 久久 国产 尿 小便 嘘嘘 | 97人妻精品一区二区三区 | 少女韩国电视剧在线观看完整 | 98国产精品综合一区二区三区 | 国内揄拍国内精品少妇国语 | 国产高清av在线播放 | 国产精品嫩草久久久久 | 国产尤物精品视频 | 中文字幕日产无线码一区 | 十八禁视频网站在线观看 | 亚洲色大成网站www | av无码久久久久不卡免费网站 | 国产莉萝无码av在线播放 | 一个人看的www免费视频在线观看 | 免费观看的无遮挡av | 亚洲aⅴ无码成人网站国产app | 国产精品毛多多水多 | 美女黄网站人色视频免费国产 | 欧美成人家庭影院 | 国产美女极度色诱视频www | 蜜臀av在线播放 久久综合激激的五月天 | 少妇愉情理伦片bd | 精品人妻中文字幕有码在线 | 成人免费视频视频在线观看 免费 | 亚洲一区av无码专区在线观看 | 98国产精品综合一区二区三区 | 亚洲va中文字幕无码久久不卡 | 97精品国产97久久久久久免费 | 无码精品国产va在线观看dvd | 国产成人精品三级麻豆 | 亚洲一区二区三区香蕉 | 欧美日韩人成综合在线播放 | 无套内谢的新婚少妇国语播放 | 久久亚洲国产成人精品性色 | 少妇愉情理伦片bd | 亚洲国产精品久久久久久 | 久久久久人妻一区精品色欧美 | 久久99精品久久久久久 | 宝宝好涨水快流出来免费视频 | 欧美野外疯狂做受xxxx高潮 | 无套内射视频囯产 | 久久熟妇人妻午夜寂寞影院 | 东京无码熟妇人妻av在线网址 | 国模大胆一区二区三区 | 日韩av激情在线观看 | 51国偷自产一区二区三区 | 爽爽影院免费观看 | 2019nv天堂香蕉在线观看 | 亚洲国产精品久久人人爱 | 思思久久99热只有频精品66 | 亚洲日本va中文字幕 | 国产成人无码av片在线观看不卡 | 丰满人妻一区二区三区免费视频 | 欧美熟妇另类久久久久久不卡 | 成人精品天堂一区二区三区 | 成人精品天堂一区二区三区 | 成人女人看片免费视频放人 | 狠狠色欧美亚洲狠狠色www | 少女韩国电视剧在线观看完整 | 亚洲七七久久桃花影院 | yw尤物av无码国产在线观看 | 97精品国产97久久久久久免费 | 免费国产黄网站在线观看 | 无码国产色欲xxxxx视频 | 亚洲国精产品一二二线 | 在线а√天堂中文官网 | 亚洲色欲久久久综合网东京热 | 97精品国产97久久久久久免费 | 国产精品无码久久av | 欧美亚洲国产一区二区三区 | 天天av天天av天天透 | 蜜桃臀无码内射一区二区三区 | 精品国产青草久久久久福利 | 久久久久久a亚洲欧洲av冫 | 又大又紧又粉嫩18p少妇 | 日韩人妻无码中文字幕视频 | 综合人妻久久一区二区精品 | 日本精品少妇一区二区三区 | 在线视频网站www色 | 午夜男女很黄的视频 | 天天燥日日燥 | 日本大香伊一区二区三区 | 美女极度色诱视频国产 | 欧美乱妇无乱码大黄a片 | 成人无码精品1区2区3区免费看 | 妺妺窝人体色www在线小说 | 无码乱肉视频免费大全合集 | 亚洲 高清 成人 动漫 | 无码帝国www无码专区色综合 | 人妻aⅴ无码一区二区三区 | 亚洲人成网站色7799 | 无码一区二区三区在线 | 成人免费视频一区二区 | 亚洲成av人综合在线观看 | 最近免费中文字幕中文高清百度 | 婷婷丁香五月天综合东京热 | 国产麻豆精品精东影业av网站 | 国产精品人人妻人人爽 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 自拍偷自拍亚洲精品10p | 麻豆av传媒蜜桃天美传媒 | 免费人成在线视频无码 | 久久亚洲精品中文字幕无男同 | 高清无码午夜福利视频 | 国产人妻人伦精品 | 国产精品久久国产三级国 | 国产艳妇av在线观看果冻传媒 | 亚洲狠狠婷婷综合久久 | 欧美老妇交乱视频在线观看 | 国产极品视觉盛宴 | 中文字幕日产无线码一区 | 亚洲精品久久久久久一区二区 | 亚洲 a v无 码免 费 成 人 a v | 无人区乱码一区二区三区 | 久久婷婷五月综合色国产香蕉 | 国产三级精品三级男人的天堂 | 国产美女精品一区二区三区 | 奇米影视7777久久精品 | 国产成人精品久久亚洲高清不卡 | 久久99国产综合精品 | 欧美xxxxx精品 | 亚洲熟妇色xxxxx亚洲 | 亚洲 另类 在线 欧美 制服 | 97资源共享在线视频 | 精品国产福利一区二区 | 免费无码av一区二区 | 夜夜影院未满十八勿进 | 夜夜夜高潮夜夜爽夜夜爰爰 | 国产精品.xx视频.xxtv | 久久亚洲日韩精品一区二区三区 | 国模大胆一区二区三区 | 国产深夜福利视频在线 | 久久综合香蕉国产蜜臀av | 久在线观看福利视频 | 国产av人人夜夜澡人人爽麻豆 | 国产精品va在线观看无码 | 天堂а√在线中文在线 | 久久97精品久久久久久久不卡 | 无码av最新清无码专区吞精 | 亚洲精品久久久久久久久久久 | 欧美 丝袜 自拍 制服 另类 | 精品国产精品久久一区免费式 | 国精产品一品二品国精品69xx | 亚洲欧洲日本综合aⅴ在线 | 久久综合久久自在自线精品自 | 美女极度色诱视频国产 | 久久久久se色偷偷亚洲精品av | 国内精品一区二区三区不卡 | 成人精品一区二区三区中文字幕 | 任你躁国产自任一区二区三区 | 欧美日韩在线亚洲综合国产人 | 亚洲 a v无 码免 费 成 人 a v | 国产熟女一区二区三区四区五区 | 欧美老妇交乱视频在线观看 | 一本大道伊人av久久综合 | 国产真人无遮挡作爱免费视频 | 国产亚洲欧美日韩亚洲中文色 | 亚洲毛片av日韩av无码 | 99久久婷婷国产综合精品青草免费 | 少妇无码吹潮 | 国产成人精品久久亚洲高清不卡 | 久久久久免费精品国产 | 成在人线av无码免观看麻豆 | 欧美国产日产一区二区 | 欧美人与禽zoz0性伦交 | 色老头在线一区二区三区 | 人人澡人人透人人爽 | 久久综合香蕉国产蜜臀av | 乱人伦人妻中文字幕无码 | 少妇被黑人到高潮喷出白浆 | 麻豆果冻传媒2021精品传媒一区下载 | 少妇一晚三次一区二区三区 | 蜜桃视频插满18在线观看 | 97色伦图片97综合影院 | 一本久久a久久精品vr综合 | 大地资源网第二页免费观看 | 国产精品人妻一区二区三区四 | 国产成人无码午夜视频在线观看 | 丰满少妇高潮惨叫视频 | 麻花豆传媒剧国产免费mv在线 | 欧美人与善在线com | 秋霞特色aa大片 | 欧洲精品码一区二区三区免费看 | 少妇被黑人到高潮喷出白浆 | www国产亚洲精品久久网站 | 大肉大捧一进一出视频出来呀 | 国产精品无套呻吟在线 | 国产真实乱对白精彩久久 | 亚洲理论电影在线观看 | 亚洲狠狠婷婷综合久久 | 两性色午夜免费视频 | 亚洲精品一区二区三区婷婷月 | 久久久久久av无码免费看大片 | 无码av最新清无码专区吞精 | 久久久久久久女国产乱让韩 | 日本丰满熟妇videos | 亚洲va中文字幕无码久久不卡 | 成人欧美一区二区三区黑人 | 无码人妻出轨黑人中文字幕 | 男女猛烈xx00免费视频试看 | 无码任你躁久久久久久久 | a在线亚洲男人的天堂 | 一本色道婷婷久久欧美 | 国精产品一品二品国精品69xx | 亲嘴扒胸摸屁股激烈网站 | 精品国产一区二区三区四区在线看 | 国产无av码在线观看 | 无码人妻丰满熟妇区毛片18 | 国产精品久免费的黄网站 | 亚洲爆乳无码专区 | 欧洲vodafone精品性 | 国产精品亚洲lv粉色 | 美女黄网站人色视频免费国产 | а√资源新版在线天堂 | 熟女体下毛毛黑森林 | 色爱情人网站 | 国产极品美女高潮无套在线观看 | 亚洲日韩乱码中文无码蜜桃臀网站 | 双乳奶水饱满少妇呻吟 | 成人亚洲精品久久久久软件 | 日韩av无码一区二区三区不卡 | 国产精品高潮呻吟av久久4虎 | 成人精品一区二区三区中文字幕 | 色欲综合久久中文字幕网 | 高清国产亚洲精品自在久久 | 国产亚av手机在线观看 | 国产亚洲日韩欧美另类第八页 | 亚洲熟妇自偷自拍另类 | 日韩人妻系列无码专区 | 色五月五月丁香亚洲综合网 | 中文字幕无码日韩欧毛 | 亚洲综合另类小说色区 | 永久黄网站色视频免费直播 | 性欧美videos高清精品 | 色婷婷综合激情综在线播放 | 国产在热线精品视频 | 国产成人无码区免费内射一片色欲 | 无人区乱码一区二区三区 | 自拍偷自拍亚洲精品10p | 午夜性刺激在线视频免费 | 久久精品国产大片免费观看 | 国产舌乚八伦偷品w中 | 色婷婷欧美在线播放内射 | 成人影院yy111111在线观看 | 无码中文字幕色专区 | 97夜夜澡人人双人人人喊 | 成熟妇人a片免费看网站 | 丰满岳乱妇在线观看中字无码 | 人妻体内射精一区二区三四 | 国产精品.xx视频.xxtv | aⅴ在线视频男人的天堂 | 久久精品国产日本波多野结衣 | 无遮挡啪啪摇乳动态图 | 国产成人人人97超碰超爽8 | 亚洲欧美日韩国产精品一区二区 | 亚洲精品综合一区二区三区在线 | 久9re热视频这里只有精品 | 蜜臀av无码人妻精品 | 色爱情人网站 | 亚洲精品一区二区三区大桥未久 | 色婷婷久久一区二区三区麻豆 | 国产三级精品三级男人的天堂 | а√天堂www在线天堂小说 | 欧美日韩综合一区二区三区 | 九一九色国产 | 久久精品成人欧美大片 | 中文字幕色婷婷在线视频 | 久久久久久九九精品久 | 国产精品免费大片 | 久久久久国色av免费观看性色 | 中文精品无码中文字幕无码专区 | 黄网在线观看免费网站 | 7777奇米四色成人眼影 | 国产办公室秘书无码精品99 | 狠狠色丁香久久婷婷综合五月 | 久久无码中文字幕免费影院蜜桃 | 疯狂三人交性欧美 | 激情综合激情五月俺也去 | 久久伊人色av天堂九九小黄鸭 | 成人欧美一区二区三区黑人免费 | 午夜精品一区二区三区的区别 | 真人与拘做受免费视频 | 偷窥日本少妇撒尿chinese | 东京一本一道一二三区 | 日韩成人一区二区三区在线观看 | 丝袜足控一区二区三区 | 精品国产一区av天美传媒 | 四十如虎的丰满熟妇啪啪 | 四虎国产精品免费久久 | 四虎永久在线精品免费网址 | 亚洲aⅴ无码成人网站国产app | 久久国产36精品色熟妇 | 97久久国产亚洲精品超碰热 | 久久午夜夜伦鲁鲁片无码免费 | 国产69精品久久久久app下载 | 国产免费久久精品国产传媒 | 国产成人综合在线女婷五月99播放 | 久在线观看福利视频 | 亚洲色在线无码国产精品不卡 | 亚洲国产精品无码一区二区三区 | 欧美乱妇无乱码大黄a片 | 4hu四虎永久在线观看 | 色一情一乱一伦一区二区三欧美 | 少妇性俱乐部纵欲狂欢电影 | 日韩视频 中文字幕 视频一区 | 久久99精品国产麻豆蜜芽 | 久久久久久久久888 | 无码国产乱人伦偷精品视频 | 中文字幕人成乱码熟女app | 在线天堂新版最新版在线8 | 国产精品无码永久免费888 | 久久久精品456亚洲影院 | 欧美激情内射喷水高潮 | 在线播放免费人成毛片乱码 | 牲欲强的熟妇农村老妇女视频 | 国产偷抇久久精品a片69 | 蜜臀aⅴ国产精品久久久国产老师 | 国模大胆一区二区三区 | 一本久道久久综合狠狠爱 | 水蜜桃色314在线观看 | 亚洲欧美国产精品久久 | 国产97人人超碰caoprom | 国产成人午夜福利在线播放 | 日欧一片内射va在线影院 | 曰韩少妇内射免费播放 | 亚洲色欲色欲欲www在线 | 亚洲欧美色中文字幕在线 | 东京热一精品无码av | 国产成人精品视频ⅴa片软件竹菊 | 免费观看激色视频网站 | 久久久精品国产sm最大网站 | 精品久久久无码人妻字幂 | 一本久久伊人热热精品中文字幕 | 黑人粗大猛烈进出高潮视频 | 窝窝午夜理论片影院 | 亚洲天堂2017无码 | 性色欲网站人妻丰满中文久久不卡 | 在线播放无码字幕亚洲 | 国产99久久精品一区二区 | 日本一卡二卡不卡视频查询 | 高清不卡一区二区三区 | 日韩亚洲欧美精品综合 | 久久精品国产99久久6动漫 | 久久精品一区二区三区四区 | 国产免费观看黄av片 | 亚洲 a v无 码免 费 成 人 a v | 帮老师解开蕾丝奶罩吸乳网站 | 国产亚洲精品久久久久久久 | 蜜桃臀无码内射一区二区三区 | 人妻与老人中文字幕 | 中文字幕av日韩精品一区二区 | 久久精品国产日本波多野结衣 | 久久久久成人片免费观看蜜芽 | 久久精品国产日本波多野结衣 | 久久精品99久久香蕉国产色戒 | 欧美三级不卡在线观看 | 一本无码人妻在中文字幕免费 | 婷婷五月综合缴情在线视频 | 99精品视频在线观看免费 | 性色av无码免费一区二区三区 | 色一情一乱一伦一视频免费看 | 少女韩国电视剧在线观看完整 | 四虎国产精品一区二区 | 国产精品99爱免费视频 | 天堂无码人妻精品一区二区三区 | 狠狠色色综合网站 | 人妻少妇被猛烈进入中文字幕 | 2020久久香蕉国产线看观看 | 久久久久久a亚洲欧洲av冫 | 中文字幕日产无线码一区 | 国产人妻大战黑人第1集 | 99久久人妻精品免费二区 | 国产人妻人伦精品 | 国产亚洲精品精品国产亚洲综合 | 亚洲a无码综合a国产av中文 | 亚洲国产日韩a在线播放 | 无码国内精品人妻少妇 | 亚洲国产精品久久人人爱 | 东京热无码av男人的天堂 | 免费男性肉肉影院 | 国产精品香蕉在线观看 | 免费播放一区二区三区 | 奇米影视888欧美在线观看 | 久久久www成人免费毛片 | 一本无码人妻在中文字幕免费 | 中文字幕av日韩精品一区二区 | 亚洲精品国产精品乱码视色 | 国产在热线精品视频 | 亚洲熟女一区二区三区 | 久久精品99久久香蕉国产色戒 | 狠狠色噜噜狠狠狠7777奇米 | 97久久国产亚洲精品超碰热 | 无码av中文字幕免费放 | 亚洲の无码国产の无码步美 | 欧美熟妇另类久久久久久多毛 | 天堂一区人妻无码 | 久久综合狠狠综合久久综合88 | 国产偷自视频区视频 | 黑人粗大猛烈进出高潮视频 | 亚洲精品午夜国产va久久成人 | 成人精品天堂一区二区三区 | 国产亚洲精品精品国产亚洲综合 | 国产又粗又硬又大爽黄老大爷视 | 国产成人一区二区三区在线观看 | 亚洲无人区一区二区三区 | 中文字幕无码av波多野吉衣 | 丰满肥臀大屁股熟妇激情视频 | 亚洲成a人片在线观看无码3d | 久久综合久久自在自线精品自 | 帮老师解开蕾丝奶罩吸乳网站 | 四虎影视成人永久免费观看视频 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 偷窥日本少妇撒尿chinese | 少妇愉情理伦片bd | 熟妇人妻中文av无码 | 国产亚洲精品久久久久久大师 | 日本精品久久久久中文字幕 | 亚洲伊人久久精品影院 | 欧美成人午夜精品久久久 | 国模大胆一区二区三区 | 成年美女黄网站色大免费全看 | 精品欧洲av无码一区二区三区 | 无码一区二区三区在线观看 | 四十如虎的丰满熟妇啪啪 | 欧美阿v高清资源不卡在线播放 | 麻豆国产丝袜白领秘书在线观看 | 日日天日日夜日日摸 | 成在人线av无码免观看麻豆 | 牲欲强的熟妇农村老妇女 | 又大又硬又爽免费视频 | 欧美性生交活xxxxxdddd | 无码吃奶揉捏奶头高潮视频 | 日日摸夜夜摸狠狠摸婷婷 | 亚洲精品鲁一鲁一区二区三区 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 日韩无套无码精品 | 老太婆性杂交欧美肥老太 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 狠狠综合久久久久综合网 | 国产成人av免费观看 | 欧美精品在线观看 | 久久久久久久人妻无码中文字幕爆 | 成人片黄网站色大片免费观看 | 97人妻精品一区二区三区 | 中文精品久久久久人妻不卡 | 牛和人交xxxx欧美 | 欧美熟妇另类久久久久久不卡 | 好男人社区资源 | 国产成人一区二区三区在线观看 | 成人av无码一区二区三区 | 一区二区传媒有限公司 | 久久午夜无码鲁丝片午夜精品 | 欧美日本免费一区二区三区 | 天天躁夜夜躁狠狠是什么心态 | 国产无遮挡又黄又爽免费视频 | 天堂а√在线地址中文在线 | 377p欧洲日本亚洲大胆 | 国精产品一区二区三区 | 日本va欧美va欧美va精品 | 久久久久人妻一区精品色欧美 | 国产精品亚洲lv粉色 | 精品久久久久久亚洲精品 | 人人澡人人透人人爽 | 国内精品人妻无码久久久影院蜜桃 | 国产综合久久久久鬼色 | 亚洲欧美国产精品专区久久 | 最新国产麻豆aⅴ精品无码 | 美女张开腿让人桶 | 国产性生大片免费观看性 | 国色天香社区在线视频 | 亚洲の无码国产の无码影院 | 特级做a爰片毛片免费69 | 成人aaa片一区国产精品 | 熟女体下毛毛黑森林 | 中文字幕人妻丝袜二区 | 国产绳艺sm调教室论坛 | 四虎影视成人永久免费观看视频 | 天堂久久天堂av色综合 | 亚洲日韩中文字幕在线播放 | 久久精品丝袜高跟鞋 | 秋霞特色aa大片 | 樱花草在线社区www | 精品国产一区二区三区四区 | 亚洲另类伦春色综合小说 | 夜夜影院未满十八勿进 | 无码人妻丰满熟妇区毛片18 | 老司机亚洲精品影院无码 | 大肉大捧一进一出视频出来呀 | 男女性色大片免费网站 | 四虎4hu永久免费 | 国产亚洲精品久久久久久久 | 中文精品久久久久人妻不卡 | 欧美性生交xxxxx久久久 | 久久精品成人欧美大片 | 中文字幕无码免费久久9一区9 | av无码不卡在线观看免费 | 国产精品久久久久久久影院 | 亚洲中文字幕在线无码一区二区 | a片免费视频在线观看 | 亚洲欧洲日本无在线码 | 精品水蜜桃久久久久久久 | 久久亚洲精品成人无码 | 国产乱人偷精品人妻a片 | 国产又爽又猛又粗的视频a片 | 亚洲中文字幕在线无码一区二区 | 国产午夜手机精彩视频 | 3d动漫精品啪啪一区二区中 | 两性色午夜视频免费播放 | 国产精品久久国产三级国 | 亚洲另类伦春色综合小说 | 少妇人妻大乳在线视频 | 女人被男人躁得好爽免费视频 | 99久久99久久免费精品蜜桃 | 欧美xxxxx精品 | 玩弄少妇高潮ⅹxxxyw | 亚洲一区二区三区偷拍女厕 | 亚洲精品国偷拍自产在线麻豆 | 国产成人精品三级麻豆 | 久久99精品国产麻豆蜜芽 | 天堂在线观看www | 国产精品久久久午夜夜伦鲁鲁 | 高清无码午夜福利视频 | 99久久精品午夜一区二区 | 又黄又爽又色的视频 | 国产亚洲人成a在线v网站 | 少妇一晚三次一区二区三区 | 成人一区二区免费视频 | 欧美午夜特黄aaaaaa片 | 暴力强奷在线播放无码 | 无码免费一区二区三区 | 国产精品美女久久久久av爽李琼 | 久久久久亚洲精品男人的天堂 | 亚洲国产精品毛片av不卡在线 | 5858s亚洲色大成网站www | 日本精品久久久久中文字幕 | 亚洲欧美日韩综合久久久 | 少妇无码吹潮 | 精品日本一区二区三区在线观看 | 日韩 欧美 动漫 国产 制服 | 久久99久久99精品中文字幕 | 国产又粗又硬又大爽黄老大爷视 | 成人亚洲精品久久久久软件 | 无码帝国www无码专区色综合 | 色综合天天综合狠狠爱 | 亚洲爆乳无码专区 | 国产成人综合在线女婷五月99播放 | 日本免费一区二区三区最新 | 国产一区二区三区四区五区加勒比 | 性开放的女人aaa片 | 久久精品国产日本波多野结衣 | 亚洲一区二区三区含羞草 | 青草青草久热国产精品 | 最近免费中文字幕中文高清百度 | 强辱丰满人妻hd中文字幕 | 精品水蜜桃久久久久久久 | 精品国产国产综合精品 | 99久久无码一区人妻 | 亚洲欧美日韩成人高清在线一区 | 99久久无码一区人妻 | 波多野结衣 黑人 | 无码国产乱人伦偷精品视频 | 天天av天天av天天透 | 国产成人久久精品流白浆 | 亚洲一区av无码专区在线观看 | 久久久av男人的天堂 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 麻豆成人精品国产免费 | 少妇厨房愉情理9仑片视频 | 亚洲狠狠婷婷综合久久 | 中文字幕乱码人妻无码久久 | 国产亚洲人成在线播放 | 天下第一社区视频www日本 | 国产成人久久精品流白浆 | 国产精品香蕉在线观看 | 国产精品理论片在线观看 | 99视频精品全部免费免费观看 | 成人免费视频一区二区 | 国产精品资源一区二区 | 亚洲欧美中文字幕5发布 | 免费无码的av片在线观看 | 国产在线一区二区三区四区五区 | 俄罗斯老熟妇色xxxx | 精品一区二区三区无码免费视频 | 男女超爽视频免费播放 | 丰满诱人的人妻3 | 玩弄少妇高潮ⅹxxxyw | 久久久久久九九精品久 | 亚洲一区二区三区国产精华液 | 国产精品久久久久久无码 | 日本乱偷人妻中文字幕 | 亲嘴扒胸摸屁股激烈网站 | 欧美成人免费全部网站 | 亚洲国精产品一二二线 | 99精品久久毛片a片 | 久久久久久a亚洲欧洲av冫 | 国产午夜精品一区二区三区嫩草 | 亚洲男人av香蕉爽爽爽爽 | 丝袜美腿亚洲一区二区 | 人妻少妇精品视频专区 | 国产精品美女久久久久av爽李琼 | 无码人妻少妇伦在线电影 | 国产性生大片免费观看性 | 毛片内射-百度 | 久久无码人妻影院 | 99久久人妻精品免费一区 | 国产人妻久久精品二区三区老狼 | 无码av中文字幕免费放 | 亚洲 日韩 欧美 成人 在线观看 | 丰满人妻翻云覆雨呻吟视频 | 亚洲欧美精品伊人久久 | 亚洲精品鲁一鲁一区二区三区 | 少妇一晚三次一区二区三区 | 东北女人啪啪对白 | 欧美一区二区三区 | 久久综合久久自在自线精品自 | 日韩欧美成人免费观看 | 中文字幕无码热在线视频 | 成人精品视频一区二区 | 无码人妻少妇伦在线电影 | 黄网在线观看免费网站 | 丰腴饱满的极品熟妇 | 一本久久a久久精品vr综合 | 亚洲成av人影院在线观看 | 国产极品视觉盛宴 | 久久久久国色av免费观看性色 | 永久黄网站色视频免费直播 | 伊人久久婷婷五月综合97色 | 欧美阿v高清资源不卡在线播放 | 蜜臀av在线播放 久久综合激激的五月天 | 麻豆精品国产精华精华液好用吗 | 久久综合给久久狠狠97色 | 在线亚洲高清揄拍自拍一品区 | 漂亮人妻洗澡被公强 日日躁 | a在线亚洲男人的天堂 | 无套内谢的新婚少妇国语播放 | 精品国产麻豆免费人成网站 | 亚洲熟悉妇女xxx妇女av | 中文字幕无线码免费人妻 | 日韩成人一区二区三区在线观看 | 免费无码av一区二区 | 中文字幕人妻无码一区二区三区 | 最近中文2019字幕第二页 | 国产极品视觉盛宴 | 99麻豆久久久国产精品免费 | 啦啦啦www在线观看免费视频 | 欧美一区二区三区 | 小鲜肉自慰网站xnxx | 欧美 日韩 亚洲 在线 | 久久无码人妻影院 | 国产精品资源一区二区 | 欧美一区二区三区视频在线观看 | 天天躁日日躁狠狠躁免费麻豆 | 久久天天躁狠狠躁夜夜免费观看 | 强奷人妻日本中文字幕 | 色婷婷综合中文久久一本 | 免费人成网站视频在线观看 | 亚洲一区二区三区 | 午夜福利试看120秒体验区 | 国产午夜视频在线观看 | 无码人妻精品一区二区三区下载 | 丰满少妇女裸体bbw | 熟妇人妻无码xxx视频 | 国产人妻精品一区二区三区 | 性色av无码免费一区二区三区 | 色婷婷av一区二区三区之红樱桃 | 久久久久亚洲精品中文字幕 | 亚洲大尺度无码无码专区 | 丰满岳乱妇在线观看中字无码 | 人妻夜夜爽天天爽三区 | 久久五月精品中文字幕 | 国产性生大片免费观看性 | 精品乱码久久久久久久 | 日本大香伊一区二区三区 | 国产精品香蕉在线观看 | 97se亚洲精品一区 | 精品无码一区二区三区爱欲 | 国产免费无码一区二区视频 | 天下第一社区视频www日本 | 婷婷色婷婷开心五月四房播播 | 丰满人妻被黑人猛烈进入 | 妺妺窝人体色www婷婷 | 国产精品久久国产精品99 | 性史性农村dvd毛片 | 少妇被粗大的猛进出69影院 | 伊在人天堂亚洲香蕉精品区 | 欧美国产日韩亚洲中文 | 日本一卡2卡3卡四卡精品网站 | 欧美性猛交内射兽交老熟妇 | 丰满少妇熟乱xxxxx视频 | 亚洲狠狠婷婷综合久久 | 欧美三级不卡在线观看 | 少妇性l交大片欧洲热妇乱xxx | 国产乱人伦偷精品视频 | 精品无码一区二区三区爱欲 | 青青草原综合久久大伊人精品 | 国产无av码在线观看 | 18黄暴禁片在线观看 | 97久久国产亚洲精品超碰热 | 高潮毛片无遮挡高清免费 | 狠狠色欧美亚洲狠狠色www | 97人妻精品一区二区三区 | 又大又硬又黄的免费视频 | 波多野结衣高清一区二区三区 | 女人被男人爽到呻吟的视频 | 兔费看少妇性l交大片免费 | 欧美熟妇另类久久久久久不卡 | 中文字幕人妻无码一区二区三区 | 欧美国产日韩久久mv | 波多野结衣乳巨码无在线观看 | 国产色视频一区二区三区 | 日本饥渴人妻欲求不满 | aⅴ亚洲 日韩 色 图网站 播放 | 131美女爱做视频 | 国产乱人偷精品人妻a片 | 性色欲网站人妻丰满中文久久不卡 | 日本熟妇人妻xxxxx人hd | 2020久久超碰国产精品最新 | 午夜精品久久久久久久 | 国产亚洲人成a在线v网站 | 亚洲欧美色中文字幕在线 | 国产亚洲视频中文字幕97精品 | 久久伊人色av天堂九九小黄鸭 | 国产人妻精品午夜福利免费 | 伊人久久婷婷五月综合97色 | 精品偷自拍另类在线观看 | 亚洲爆乳精品无码一区二区三区 | 中文字幕无码av波多野吉衣 | 国产成人亚洲综合无码 | 久久久久av无码免费网 | 少妇被黑人到高潮喷出白浆 | 正在播放老肥熟妇露脸 | 老熟妇仑乱视频一区二区 | 久久久久久久女国产乱让韩 | 在线观看免费人成视频 | 久久99精品久久久久婷婷 | 精品一区二区三区波多野结衣 | 久久久久99精品国产片 | 色妞www精品免费视频 | 精品国产乱码久久久久乱码 | 一本无码人妻在中文字幕免费 | 狠狠综合久久久久综合网 | 亚洲精品成人av在线 | 久久亚洲a片com人成 | 欧美日韩综合一区二区三区 | www成人国产高清内射 | 国产人成高清在线视频99最全资源 | 免费国产成人高清在线观看网站 | 日韩精品成人一区二区三区 | 色综合久久久久综合一本到桃花网 | 中文字幕中文有码在线 | 欧美精品国产综合久久 | 亚洲无人区一区二区三区 | 1000部夫妻午夜免费 | 欧美人与物videos另类 | 久久久久av无码免费网 | 无码任你躁久久久久久久 | 久青草影院在线观看国产 | 红桃av一区二区三区在线无码av | 麻豆精品国产精华精华液好用吗 | 毛片内射-百度 | 久久久久国色av免费观看性色 | 内射爽无广熟女亚洲 | 四虎影视成人永久免费观看视频 | 亚洲国产综合无码一区 | 国产精品国产三级国产专播 | 18黄暴禁片在线观看 | 又色又爽又黄的美女裸体网站 | 亚洲欧洲无卡二区视頻 | 九月婷婷人人澡人人添人人爽 | 强辱丰满人妻hd中文字幕 | 中文亚洲成a人片在线观看 | 亚洲成av人综合在线观看 | 国产精品手机免费 | 成人无码精品1区2区3区免费看 | 高潮毛片无遮挡高清免费 | 天堂久久天堂av色综合 | 一本久久伊人热热精品中文字幕 | 国产片av国语在线观看 | 亚洲精品国产品国语在线观看 | 国精产品一区二区三区 | 性色欲网站人妻丰满中文久久不卡 | 国产成人精品一区二区在线小狼 | 狂野欧美性猛xxxx乱大交 | 亚洲精品国产品国语在线观看 | 国产精品多人p群无码 | 国产亚洲人成a在线v网站 | 国产一区二区三区四区五区加勒比 | 波多野结衣av一区二区全免费观看 | 亚洲精品成a人在线观看 | 国产99久久精品一区二区 | 午夜精品久久久内射近拍高清 | 日韩人妻少妇一区二区三区 | 色综合久久久无码中文字幕 | 丝袜 中出 制服 人妻 美腿 | 免费观看激色视频网站 | 一二三四社区在线中文视频 | 中文无码精品a∨在线观看不卡 | 国产精品爱久久久久久久 | av无码久久久久不卡免费网站 | а√天堂www在线天堂小说 | 国产精品久久国产精品99 | 丰满少妇人妻久久久久久 | 成人一区二区免费视频 | 欧美老人巨大xxxx做受 | 欧美激情一区二区三区成人 | 捆绑白丝粉色jk震动捧喷白浆 | 啦啦啦www在线观看免费视频 | 亚洲gv猛男gv无码男同 | 丝袜 中出 制服 人妻 美腿 | 日日干夜夜干 | 99麻豆久久久国产精品免费 | 日本护士毛茸茸高潮 | 久久午夜无码鲁丝片 | 亚洲色成人中文字幕网站 | 成人影院yy111111在线观看 | 女人被男人躁得好爽免费视频 | www国产亚洲精品久久久日本 | 波多野结衣乳巨码无在线观看 | 久久午夜无码鲁丝片午夜精品 | 成人精品视频一区二区三区尤物 | 无码精品国产va在线观看dvd | 日本精品久久久久中文字幕 | 国产97人人超碰caoprom | 亚洲日韩av一区二区三区中文 | 亚欧洲精品在线视频免费观看 | 性欧美牲交xxxxx视频 | 精品人妻av区 | 日欧一片内射va在线影院 | 亚洲色欲色欲天天天www | 久久久av男人的天堂 | 宝宝好涨水快流出来免费视频 | av无码电影一区二区三区 | 国产一区二区三区四区五区加勒比 | 亚洲欧洲无卡二区视頻 | 丰腴饱满的极品熟妇 | 国产午夜亚洲精品不卡 | 国产精品永久免费视频 | 内射欧美老妇wbb | 无码av中文字幕免费放 | 99视频精品全部免费免费观看 | 狠狠色噜噜狠狠狠狠7777米奇 | 熟女少妇人妻中文字幕 | 狂野欧美性猛交免费视频 | 亚洲精品鲁一鲁一区二区三区 | 国产精品沙发午睡系列 | 在线看片无码永久免费视频 | 国产精品久久久久久久影院 | 老头边吃奶边弄进去呻吟 | 精品乱子伦一区二区三区 | 中文字幕无码日韩欧毛 | 美女黄网站人色视频免费国产 | 久久这里只有精品视频9 | 亚洲 激情 小说 另类 欧美 | 国产在线精品一区二区三区直播 | 无码人妻久久一区二区三区不卡 | 久久精品女人天堂av免费观看 | 娇妻被黑人粗大高潮白浆 | 在线观看国产一区二区三区 | 国产乱码精品一品二品 | 精品无码一区二区三区的天堂 | 久久精品人人做人人综合试看 | 国产亚洲精品久久久ai换 | 中文字幕av无码一区二区三区电影 | 任你躁国产自任一区二区三区 | 久久天天躁狠狠躁夜夜免费观看 | 又粗又大又硬毛片免费看 | 激情五月综合色婷婷一区二区 | √天堂中文官网8在线 | 熟女俱乐部五十路六十路av | 中文字幕色婷婷在线视频 | 亚洲乱码中文字幕在线 | 国产尤物精品视频 | 在线播放亚洲第一字幕 | 欧洲vodafone精品性 | 午夜精品久久久久久久 | 夫妻免费无码v看片 | 国产精品鲁鲁鲁 | 夜夜高潮次次欢爽av女 | 蜜臀av在线播放 久久综合激激的五月天 | aⅴ在线视频男人的天堂 | 狠狠cao日日穞夜夜穞av | 亚洲国产av美女网站 | 国产精品亚洲一区二区三区喷水 | 久久99精品久久久久婷婷 | 人妻天天爽夜夜爽一区二区 | 300部国产真实乱 | 天天摸天天透天天添 | 久热国产vs视频在线观看 | 久久精品女人的天堂av | 欧美怡红院免费全部视频 | 国产激情无码一区二区 | 婷婷色婷婷开心五月四房播播 | 精品日本一区二区三区在线观看 | 免费播放一区二区三区 | 无人区乱码一区二区三区 | 欧美激情内射喷水高潮 | 国产内射爽爽大片视频社区在线 | 国产精品人人妻人人爽 | 又紧又大又爽精品一区二区 | 久久久久国色av免费观看性色 | 全黄性性激高免费视频 | 亚洲精品一区二区三区在线 | 精品无码一区二区三区的天堂 | 国产深夜福利视频在线 | 一区二区三区高清视频一 | 人妻少妇精品久久 | 国产口爆吞精在线视频 | aⅴ在线视频男人的天堂 | 欧美 亚洲 国产 另类 | 国产女主播喷水视频在线观看 | 国产网红无码精品视频 | 性色欲网站人妻丰满中文久久不卡 | 亚洲中文字幕乱码av波多ji | 精品久久久久久人妻无码中文字幕 | 亚洲欧美中文字幕5发布 | 99久久精品无码一区二区毛片 | 国产特级毛片aaaaaaa高清 | 男女猛烈xx00免费视频试看 | 亚洲狠狠色丁香婷婷综合 | 国产精品久久久一区二区三区 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 亚洲性无码av中文字幕 | a片免费视频在线观看 | 99久久无码一区人妻 | 麻豆国产丝袜白领秘书在线观看 | 久久精品一区二区三区四区 | 大肉大捧一进一出视频出来呀 | 大肉大捧一进一出视频出来呀 | 日日天日日夜日日摸 | 377p欧洲日本亚洲大胆 | 人人爽人人澡人人人妻 | 亚洲国产精品一区二区美利坚 | 亚洲精品国产品国语在线观看 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 丰满人妻被黑人猛烈进入 | 日本爽爽爽爽爽爽在线观看免 | 欧美日韩一区二区综合 | 极品尤物被啪到呻吟喷水 | 一本无码人妻在中文字幕免费 | 日本va欧美va欧美va精品 | 成人无码精品一区二区三区 | 98国产精品综合一区二区三区 | 无码一区二区三区在线 | 一本久道久久综合狠狠爱 | 大屁股大乳丰满人妻 | 亚无码乱人伦一区二区 | 特黄特色大片免费播放器图片 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 国产真实伦对白全集 | 中文字幕中文有码在线 | 国产区女主播在线观看 |