久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 运维知识 > windows >内容正文

windows

Reformer 模型 - 突破语言建模的极限

發(fā)布時間:2023/12/29 windows 41 coder
生活随笔 收集整理的這篇文章主要介紹了 Reformer 模型 - 突破语言建模的极限 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

Reformer 如何在不到 8GB 的內(nèi)存上訓(xùn)練 50 萬個詞元

Kitaev、Kaiser 等人于 20202 年引入的 Reformer 模型 是迄今為止長序列建模領(lǐng)域內(nèi)存效率最高的 transformer 模型之一。

最近,人們對長序列建模的興趣激增,僅今年一年,就涌現(xiàn)出了大量的工作,如 Beltagy 等人的工作 (2020) 、Roy 等人的工作 (2020) 、Tay 等人的工作 以及 Wang 等人的工作 等等。長序列建模背后的動機是,N??LP 中的許多任務(wù) (例如 摘要、問答 ) 要求模型處理更長的序列,這些序列長度超出了 BERT 等模型的處理能力。在需要模型處理長輸入序列的任務(wù)中,長序列模型無需對輸入序列進(jìn)行裁剪以避免內(nèi)存溢出,因此已被證明優(yōu)于標(biāo)準(zhǔn)的 BERT 類模型 ( Beltagy 等人 2020 年的工作)。

Reformer 能夠一次處理多達(dá) 50 萬個詞元,從而突破了長序列建模的極限 (具體可參見本 筆記本)。相形之下,傳統(tǒng)的 bert-base-uncased 模型最長僅支持 512 個詞元。在 Reformer 中,標(biāo)準(zhǔn) transformer 架構(gòu)的每個部分都經(jīng)過重新設(shè)計,以最小化內(nèi)存需求,并避免顯著降低性能。

內(nèi)存的改進(jìn)來自于 Reformer 作者向 transformer 世界引入的 4 大特性:

  1. Reformer 自注意力層 - 如何在不受限于本地上下文的情況下高效地實現(xiàn)自注意力機制?
  2. 分塊前饋層 - 如何更好地對大型前饋層的時間和內(nèi)存進(jìn)行權(quán)衡?
  3. 可逆殘差層 - 如何聰明地設(shè)計殘差架構(gòu)以大幅減少訓(xùn)練中的內(nèi)存消耗?
  4. 軸向位置編碼 (Axial Positional Encodings) - 如何使位置編碼可用于超長輸入序列?

本文的目的是 深入 闡述 Reformer 的上述四大特性。雖然這四個特性目前是用在 Reformer 上的,但其方法是通用的。因此,讀者不應(yīng)被此束縛,而應(yīng)該多思考在哪些情況下可以把這四個特性中的某一個或某幾個應(yīng)用于其他的 transformer 模型,以解決其問題。

下文四個部分之間的聯(lián)系很松散,因此可以單獨閱讀。

Reformer 已集成入 ??Transformers 庫。對于想使用 Reformer 的用戶,建議大家閱讀本文,以更好地了解該模型的工作原理以及如何正確配置它。文中所有公式都附有其在 transformers 中對應(yīng)的 Reformer 配置項 ( 例如 config.<param_name> ),以便讀者可以快速關(guān)聯(lián)到官方文檔和配置文件。

注意: 軸向位置編碼 在官方 Reformer 論文中沒有解釋,但在官方代碼庫中廣泛使用。本文首次深入闡釋了軸向位置編碼。

1. Reformer 自注意力層

Reformer 使用了兩種特殊的自注意力層: 局部 自注意力層和 LSH (Locality Sensitive Hashing,局部敏感哈希, LSH ) 自注意力層。

在介紹新的自注意力層之前,我們先簡要回顧一下傳統(tǒng)的自注意力,其由 Vaswani 等人在其 2017 年的論文 中引入。

本文的符號及配色與 《圖解 transformer》 一文一致,因此強烈建議讀者在閱讀本文之前,先閱讀《圖解 transformer》一文。

重要: 雖然 Reformer 最初是為了因果自注意力而引入的,但它也可以很好地用于雙向自注意力。本文在解釋 Reformer 的自注意力時,將其用于 雙向 自注意力。

全局自注意力回顧

Transformer 模型的核心是 自注意力 層。現(xiàn)在,我們回顧一下傳統(tǒng)的自注意力層,這里稱為 全局自注意力 層。首先我們假設(shè)對嵌入向量序列 \(\mathbf{X} = \mathbf{x}_1, \ldots, \mathbf{x}_n\) 執(zhí)行一個 transformer 層,該序列中的每個向量 \(\mathbf{x}_{i}\) 的維度為 config.hidden_??size \(d_h\)

簡而言之,全局自注意力層將 \(\mathbf{X}\) 投影到查詢矩陣、鍵矩陣和值矩陣: \(\mathbf{Q}\)\(\mathbf{K}\)\(\mathbf{V}\) 并使用 softmax 計算最終輸出 \(\mathbf{Z}\),如下所示:

\(\mathbf{Z} = \text{SelfAttn}(\mathbf{X}) = \text{softmax}(\mathbf{Q}\mathbf{K}^T) \mathbf{V}\),其中 \(\mathbf{Z}\) 的維度為 \(d_h \times n\) (為簡單起見,此處省略了鍵歸一化因子和輸出映射權(quán)重 \(\mathbf{W}^{O}\))。有關(guān)完整 transformer 操作的更多詳細(xì)信息,請參閱 《圖解 transformer》 一文。

下圖給出了 \(n=16,d_h=3\) 情況下的操作:

請注意,本文所有示意圖都假設(shè) batch_sizeconfig.num_attention_heads 為 1。為了便于稍后更好地解釋 LSH 自注意力 ,我們還在圖中標(biāo)記出了一些向量, \(\mathbf{x_3}\) 及其相應(yīng)的輸出向量 \(\mathbf{z_3}\)。圖中的邏輯可以輕易擴展至多頭自注意力 ( config.num_attention_heads > 1)。如需了解多頭注意力,建議讀者參閱 《圖解 transformer》。

敲個重點,對于每個輸出向量 \(\mathbf{z}_{i}\),整個輸入序列 \(\mathbf{X}\) 都需要參與其計算。內(nèi)積張量 \(\mathbf{Q}\mathbf{K}^T\) 的內(nèi)存復(fù)雜度為 \(\mathcal{O}(n^2)\),這事實上使得 transformer 模型的瓶頸在內(nèi)存。

這也是為什么 bert-base-casedconfig.max_position_embedding_size 只有 512 的原因。

局部自注意力

局部自注意力 是緩解 \(\mathcal{O}(n^2)\) 內(nèi)存瓶頸的一個顯然的解決方案,它使我們能夠以更低的計算成本建模更長的序列。在局部自注意力中,輸入 \(\mathbf{X} = \mathbf{X}_{1:n} = \mathbf{x}_{1}, \ldots, \mathbf{x}_{n}\) 被切成 \(n_{c}\) 個塊: \(\mathbf{X} = \left[\mathbf{X}_{1:l_{c}}, \ldots, \mathbf{X} _{(n_{c} - 1) * l_{c} : n_{c} * l_{c}}\right]\),每塊長度為 config.local_chunk_length \(l_{c}\),隨后,對每個塊分別應(yīng)用全局自注意力。

繼續(xù)以 \(n=16,d_h=3\) 為例:

假設(shè) \(l_{c} = 4,n_{c} = 4\),此時,我們將分塊注意力圖示如下:

可以看出,我們對每個塊分別執(zhí)行了注意力操作 \(\mathbf{X} _{1:4},\mathbf{X}_ {5:8},\mathbf{X} _{9:12 },\mathbf{X}_ {13:16}\)
該架構(gòu)的一個明顯的缺點是: 一些輸入向量無法訪問其直接上下文, 例如 ,我們的例子中的 \(\mathbf{x} _9\) 無法訪問 \(\mathbf{x}_ {8}\),反之亦然。這是有問題的,因為這些詞元無法在學(xué)習(xí)其向量表征時將其直接上下文的納入考量。

一個簡單的補救措施是用 config.local_num_chunks_before ( \(n_{p}\)) 以及 config.local_num_chunks_after ( \(n_{a}\)) 來擴充每個塊,以便每個輸入向量至少可以訪問 \(n_{p}\) 個先前輸入塊及 \(n_{a}\) 個后續(xù)輸入塊。我們可將其理解為重疊分塊,其中 \(n_{p}\)\(n_{a}\) 定義了每個塊與其先前塊和后續(xù)塊的重疊量。我們將這種擴展的局部自注意力表示如下:

\[\mathbf{Z}^{\text{loc}} = \left[\mathbf{Z}_{0:l_{c}}^{\text{loc}}, \ldots, \mathbf{Z}_{(n_{c} - 1) * l_{c} + 1 : n_{c} * l_{c}}^{\text{loc}}\right], \]

其中

\[\mathbf{Z}_{l_{c} * (i - 1) + 1 : l_{c} * i}^{\text{loc}} = \text{SelfAttn}(\mathbf{X}_ {l_{c} * (i - 1 - n_{p}) + 1: l_{c} * (i + n_{a})})\left[n_{p} * l_{c}: -n_{ a} * l_{c}\right], \forall i \in \{1, \ldots, n_{c} \} \]

好吧,這個公式看起來有點復(fù)雜,我們稍微分析一下。在 Reformer 的自注意力層中,\(n_{a}\) 通常設(shè)為 0,\(n_{p}\) 設(shè)為 1,我們據(jù)此重寫 \(i = 1\) 時的公式:

\[\mathbf{Z}_{1:l_{c}}^{\text{loc}} = \text{SelfAttn}(\mathbf{X}_{-l_{c} + 1: l_{c}})\left[l_{c}:\right] \]

我們注意到這里有一個循環(huán)關(guān)系,因此第一個塊也可以關(guān)注最后一個塊。我們再次圖解一下這種增強的局部關(guān)注算法。我們先按塊找到其對應(yīng)的窗口,并在其上應(yīng)用自注意力,然后僅保留中心輸出段作為本塊的輸出。

最后,將相應(yīng)的輸出串接到 \(\mathbf{Z}^{\text{loc}}\) 中,如下所示:

請注意,在實現(xiàn)局部自注意力時,為了計算效率,我們并不會像圖中一樣先計算全部輸出并隨后 丟棄 一部分。圖中紅叉所示的地方僅用于說明,實際并不會產(chǎn)生計算行為。

這里需要注意的是,擴展每個分塊自注意力函數(shù)的輸入向量可以使得 每個 輸出向量 \(\mathbf{z}_{i}\) 都能夠?qū)W到更好的向量表征。以圖中的向量為例,每個輸出向量 \(\mathbf{z}_{5}^{\text{loc}},\mathbf{z}_{6}^{\text{loc}},\mathbf{z}_{7}^{\text{loc}},\mathbf{z}_{8}^{\text{loc}}\) 都可以將 \(\mathbf{X}_{1:8}\) 的所有輸入向量納入考量以學(xué)到更好的表征。

內(nèi)存消耗上的降低也是顯而易見的: \(\mathcal{O}(n^2)\) 的內(nèi)存復(fù)雜度被分解到段,因此總內(nèi)存復(fù)雜度減少為 \(\mathcal{O}(n_{c} * l_{c}^2) = \mathcal{O}(n * l_{c})\)

這種增強的局部自注意力比普通的局部自注意力架構(gòu)更好,但仍然存在一個主要缺陷,因為每個輸入向量只能關(guān)注預(yù)定義大小的局部上下文。對于不需要 transformer 模型學(xué)習(xí)輸入向量之間的遠(yuǎn)程依賴關(guān)系的 NLP 任務(wù) ( 例如 語音識別、命名實體識別以及短句子的因果語言建模) 而言,可能不是一個大問題。但還有許多 NLP 任務(wù)需要模型學(xué)習(xí)遠(yuǎn)程依賴關(guān)系,因此局部自注意力在這些任務(wù)下可能會導(dǎo)致顯著的性能下降, :

  • 問答 : 模型必須學(xué)習(xí)問題詞元和相關(guān)答案詞元之間的關(guān)系,這些詞元很可能并不相鄰;
  • 多項選擇 : 模型必須將多個答案詞元段相互比較,這些答案詞元段通常隔得比較遠(yuǎn);
  • 摘要 : 模型必須學(xué)習(xí)長序列的上下文詞元和較短的摘要詞元序列之間的關(guān)系,而上下文和摘要之間的相關(guān)關(guān)系很可能無法通過局部自注意力來捕獲。
  • ……

局部自注意力本身很可能不足以讓 transformer 模型學(xué)習(xí)輸入向量 (詞元) 彼此之間的相關(guān)關(guān)系。

因此,Reformer 額外采用了一個近似全局自注意力的高效自注意力層,稱為 LSH 自注意力

LSH 自注意力

鑒于我們已經(jīng)了解了局部自注意力的工作原理,下面我們繼續(xù)嘗試一下可能是 Reformer 中最具創(chuàng)新性的算法改進(jìn): LSH 自注意力

LSH 自注意力的設(shè)計目標(biāo)是在效果上接近全局自注意力,而在速度與資源消耗上與局部自注意力一樣高效。

LSH 自注意力因依賴于 Andoni 等人于 2015 年提出的 LSH 算法 而得名。

LSH 自注意力源于以下洞見: 如果 \(n\) 很大,則對每個查詢向量而言,其對應(yīng)的輸出向量 \(\mathbf{z}_{i}\) 作為所有 \(\mathbf{V}\) 的線性組合,其中應(yīng)只有極少數(shù)幾個 \(\mathbf{v}_{i}\) 的權(quán)重比其他大得多。也就是說對 \(\mathbf{Q}\mathbf{K}^T\) 注意力點積作 softmax 產(chǎn)生的權(quán)重矩陣的每一行應(yīng)僅有極少數(shù)的值遠(yuǎn)大于 0。

我們展開講講: 設(shè) \(\mathbf{k}_{i} \in \mathbf{K} = \left[\mathbf{k}_1, \ldots, \mathbf{k}_n \right]^T\)\(\mathbf{q}_{i} \in \mathbf{Q} = \left[\mathbf{q}_1, \ldots, \mathbf{q}_n\right]^T\) 分別為鍵向量和查詢向量。對于每個 \(\mathbf{q}_{i}\),可以僅用那些與 \(\mathbf{q}_{i}\) 具有高余弦相似度的 \(\mathbf{k}_{j}\) 的鍵向量來近似計算 \(\text{softmax}(\mathbf{q}_{i}^T \mathbf{K}^T)\) 。這是因為 softmax 函數(shù)對較大輸入值的輸出會呈指數(shù)級增加。聽起來沒毛病,那么下一個問題就變成了如何高效地找到每個 \(\mathbf{q}_{i}\) 的高余弦相似度鍵向量集合。

首先,Reformer 的作者注意到共享查詢投影和鍵投影: \(\mathbf{Q} = \mathbf{K}\) 并不會影響 transformer 模型 \({}^1\)。現(xiàn)在,不必為每個查詢向量 \(q_i\) 找到其高余弦相似度的鍵向量,而只需計算查詢向量彼此之間的余弦相似度。這一簡化很重要,因為查詢向量之間的余弦相似度滿足傳遞性: 如果 \(\mathbf{q}_{i}\)\(\mathbf{q}_{j}\)\(\mathbf{q}_{k}\) 都具有較高的余弦相似度,則 \(\mathbf{q}_{j}\)\(\mathbf{q}_{k}\) 也具有較高的余弦相似度。因此,可以將查詢向量聚類至不同的桶中,使得同一桶中的所有查詢向量彼此的余弦相似度較高。我們將 \(C_{m}\) 定義為第 m 組位置索引,其中裝的是屬于同一個桶的所有查詢向量: \(C_{m} = { i | \mathbf{q}_{i} \in \text{第 m 簇}}\),同時我們定義桶的數(shù)量 config.num_buckets \(n_{b}\)

對每個索引 \(C_{m}\) 對應(yīng)的查詢向量桶內(nèi)的查詢向量 \(\mathbf{q}_{i}\),我們可以用 softmax 函數(shù) \(\text{softmax}(\mathbf{Q}_{i \in C_{m}} \mathbf{Q}^T_{i \in C_{m}})\) 通過共享查詢和鍵投影來近似全局自注意力的 softmax 函數(shù) \(\text{softmax}(\mathbf{q}_{i}^T \mathbf{Q}^T)\)

其次,作者利用 LSH 算法將查詢向量聚類到預(yù)定義的 \(n_{b}\) 個桶 中。這里,LSH 算法是理想之選,因為它非常高效,且可用于近似基于余弦相似度的最近鄰算法。對 LSH 進(jìn)行解釋超出了本文的范圍,我們只要記住,對向量 \(\mathbf{q}_{i}\),LSH 算法將其索引至 \(n_{b}\) 個預(yù)定義桶中的某個桶, \(\text{LSH}(\mathbf{q}_{i}) = m\) 其中 \(i \in {1, \ldots, n}\)\(m \in {1, \ldots, n_{b}}\)

還用前面的例子,我們有:

接著,可以注意到,將所有查詢向量聚類至 \(n_{b}\) 個桶中后,我們可以將輸入向量 \(\mathbf{x}_1, \ldots, \mathbf{x}_n\) 按其對應(yīng)的索引 \(C_{m}\) 進(jìn)行重排 \({}^2\),以便共享查詢 - 鍵自注意力可以像局部注意力一樣分段應(yīng)用。

我們用例子再解釋一下,假設(shè)在 config.num_buckets=4 config.lsh_chunk_length=4 時重排輸入向量 \(\mathbf{X} = \mathbf{x}_1, …, \mathbf{x}_{16}\)。上圖已將每個查詢向量 \(\mathbf{q}_1, \ldots, \mathbf{q}_{16}\) 分配給簇 \(\mathcal{C}_{1}、\mathcal{C}_{2}、\mathcal{C}_{3}、\mathcal{C}_{4}\) 中的某一個。現(xiàn)在,對其對應(yīng)的輸入向量 \(\mathbf{x}_1, \ldots, \mathbf{x}_{16}\) 進(jìn)行重排,并將重排后的輸入記為 \(\mathbf{X'}\):

對每個輸入向量,僅需在簇內(nèi)進(jìn)行自注意力計算即可,因此每個輸入向量對應(yīng)的輸出向量可計算如下: \(\mathbf{Z}^{\text{LSH}}_{i \in \mathcal{C}_m} = \text{SelfAttn}_{\mathbf{Q}=\mathbf{K}}(\mathbf{X}_{i \in \mathcal{C}_m})\)

我們再次圖解一下該過程:

可以看出,自注意力函數(shù)的運算矩陣大小各不相同,這種情況比較麻煩,因為 GPU 和 TPU 無法高效并行處理不同尺寸的矩陣運算。

為了進(jìn)一步解決高效計算的問題,可以借鑒局部注意力的方法,對重排后的輸入進(jìn)行分塊,以使每個塊的大小均為 config.lsh_chunk_length 。通過對重排后的輸入進(jìn)行分塊,一個桶可能會被分成兩個不同的塊。為了解決這個問題,與局部自注意力一樣,在 LSH 自注意力中,每個塊除了自身之外還關(guān)注其前一個塊 config.lsh_num_chunks_before=1 ( config.lsh_num_chunks_after 通常設(shè)置為 0)。這樣,我們就可以大概率確保桶中的所有向量相互關(guān)注 \({}^3\)

總而言之,對于所有塊 \(k \in {1, \ldots, n_{c}}\),LSH 自注意力可以如下表示:

\[\mathbf{Z’}_{l_ {c} * k + 1:l_{c} *(k + 1)}^{\text{LSH}} = \text{SelfAttn}_{\mathbf{Q} = \mathbf{K}}(\mathbf{X’}_{l_{c} * (k + 1): l_{c} *(k + 1)})\left[l_{c}:\right] \]

其中 \(\mathbf{X'}\)\(\mathbf{Z'}\) 是按照 LSH 分桶進(jìn)行重排后的輸入和輸出向量。公式有點復(fù)雜,我們還是畫個圖以幫助大家理解。

這里,我們對上圖中的重排向量 \(\mathbf{X'}\) 進(jìn)行分塊,并分別計算每塊的共享查詢 - 鍵自注意力。

最后,將輸出 \(\mathbf{Z'}^{\text{LSH}}\) 重排回原順序。

這里還要提到的一個重要特征是,可以通過并行運行 LSH 自注意力 config.num_hashes (即 \(n_{h}\)) 次來提高 LSH 自注意力的準(zhǔn)確性,其中每次使用不同的隨機 LSH 哈希。通過設(shè)置 config.num_hashes > 1 ,對于每個 \(i\),會計算多個輸出向量 \(\mathbf{z}^{\text{LSH}, 1}_{i}, \ldots , \mathbf{z}^{\text{LSH}, n_{h}}_{i}\)。隨后,可以對它們進(jìn)行加權(quán)求和: \(\mathbf{z}^{\text{LSH}}_{i} = \sum_k^{n_{h}} \mathbf{Z}^{\text{LSH}, k}_{i} * \text{weight}^k_i\),這里 \(\text{weight}^k_i\) 表示第 \(k\) 輪哈希的輸出向量 \(\mathbf{z}^{\text{LSH}, k}_{i}\) 與其他哈希輪次相比的重要度,其應(yīng)與其對應(yīng)輸出的 softmax 歸一化系數(shù)呈指數(shù)正比關(guān)系。這一設(shè)計背后的直覺是,如果查詢向量 \(\mathbf{q}_{i}^{k}\) 與其對應(yīng)塊中的所有其他查詢向量具有較高的余弦相似度,則該塊的 softmax 歸一化系數(shù)往往很大,因此相應(yīng)的輸出向量 \(\mathbf{q}_{i}^{k}\) 應(yīng)該能更好地近似全局注意力,因此其理應(yīng)比 softmax 歸一化系數(shù)較小的哈希輪次所產(chǎn)生的輸出向量獲得更高的權(quán)重。更多詳細(xì)信息,請參閱 該論文 的附錄 A。在我們的例子中,多輪 LSH 自注意力示意圖如下。

打完收工!至此,我們了解了 LSH 自注意力在 Reformer 中是如何工作的。

說回內(nèi)存復(fù)雜度,該方法有兩個可能的瓶頸點: 點積所需的內(nèi)存: \(\mathcal{O}(n_{h} * n_{c} * l_{c}^2) = \mathcal{O}(n * n_{h} * l_{c})\) 以及 LSH 分桶所需的內(nèi)存: \(\mathcal{O}(n * n_{h} * \frac{n_{b}}{2})\) 其中 \(l_{c}\) 是塊長度。因為對于大的 \(n\) 而言,桶的數(shù)量 \(\frac{n_{b}}{2}\) 的增長速度遠(yuǎn)遠(yuǎn)快于塊長度 \(l_{c}\),因此用戶可以繼續(xù)對存儲桶的數(shù)量 config.num_buckets 進(jìn)行分解,詳見 此處。

我們快速總結(jié)一下:

  1. 我們希望利用 softmax 運算僅對極少數(shù)鍵向量賦予重要權(quán)重的先驗知識來對全局注意力進(jìn)行近似。
  2. 如果鍵向量等于查詢向量,這意味著 對于每個 查詢向量 \(\mathbf{q}_{i}\),softmax 只需給與其余弦相似度高的其他查詢向量賦予重要權(quán)重就行了。
  3. 這種關(guān)系是對稱的,也就是說,如果 \(\mathbf{q}_{j}\)\(\mathbf{q}_{i}\) 相似,則 \(\mathbf{q}_{j}\) 也與 \(\mathbf{q}_{i}\) 相似,因此我們可以在計算自注意力之前對輸入進(jìn)行全局聚類。
  4. 我們對輸入按簇進(jìn)行重排,并對重排后的輸入計算局部自注意力,最后將輸出重新恢復(fù)為原順序。

\({}^{1}\) 作者進(jìn)行了一些初步實驗,確認(rèn)共享查詢 - 鍵自注意力的表現(xiàn)與標(biāo)準(zhǔn)自注意力大體一致。

\({}^{2}\) 更準(zhǔn)確地說,對存儲桶中的查詢向量根據(jù)其原始順序進(jìn)行排序。舉個例子, 假如 向量 \(\mathbf{q}_1, \mathbf{q}_3, \mathbf{q}_7\) 全部散列到存儲桶 2,則存儲桶 2 中向量的順序仍應(yīng)是先 \(\mathbf{q}_1\),后跟 \(\mathbf{q}_3\)\(\mathbf{q}_7\)

\({}^3\) 順帶說明一下,作者在查詢向量 \(\mathbf{q}_{i}\) 上放了一個掩碼,以防止向量關(guān)注本身。因為向量與其自身的余弦相似度總是大于等于其與其他向量的余弦相似度,所以強烈不建議共享查詢 - 鍵自注意力中的查詢向量關(guān)注自身。

基準(zhǔn)測試

Transformers 最近增加了基準(zhǔn)測試相關(guān)的代碼,你可參閱 此處 以獲取更詳細(xì)的說明。

為了展示局部 LSH 自注意力可以節(jié)省多少內(nèi)存,我們在不同的 local_attn_chunk_lengthlsh_attn_chunk_length 上對 Reformer 模型 google/reformer-enwik8 上進(jìn)行了基準(zhǔn)測試。你可以從 此處 找到更詳細(xì)的有關(guān) google/reformer-enwik8 模型的默認(rèn)配置和用法信息。

我們先進(jìn)行一些必要的導(dǎo)入和安裝。

#@title Installs and Imports
# pip installs
!pip -qq install git+https://github.com/huggingface/transformers.git
!pip install -qq py3nvml

from transformers import ReformerConfig, PyTorchBenchmark, PyTorchBenchmarkArguments

首先,我們測試一下在 Reformer 模型上使用 全局 自注意力的內(nèi)存使用情況。這可以通過設(shè)置 lsh_attn_chunk_length = local_attn_chunk_length = 8192 來達(dá)成,此時,對于所有小于或等于 8192 的輸入序列,模型事實上就回退成全局自注意力了。

config = ReformerConfig.from_pretrained("google/reformer-enwik8", lsh_attn_chunk_length=16386, local_attn_chunk_length=16386, lsh_num_chunks_before=0, local_num_chunks_before=0)
benchmark_args = PyTorchBenchmarkArguments(sequence_lengths=[2048, 4096, 8192, 16386], batch_sizes=[1], models=["Reformer"], no_speed=True, no_env_print=True)
benchmark = PyTorchBenchmark(configs=[config], args=benchmark_args)
result = benchmark.run()
HBox(children=(FloatProgress(value=0.0, description='Downloading', max=1279.0, style=ProgressStyle(description…



1 / 1
Doesn't fit on GPU. CUDA out of memory. Tried to allocate 2.00 GiB (GPU 0; 11.17 GiB total capacity; 8.87 GiB already allocated; 1.92 GiB free; 8.88 GiB reserved in total by PyTorch)

====================      INFERENCE - MEMORY - RESULT       ====================
--------------------------------------------------------------------------------
          Model Name             Batch Size     Seq Length    Memory in MB 
--------------------------------------------------------------------------------
           Reformer                  1              2048            1465     
           Reformer                  1              4096            2757     
           Reformer                  1              8192            7893     
           Reformer                  1             16386            N/A      
--------------------------------------------------------------------------------

輸入序列越長,輸入序列和峰值內(nèi)存使用之間的平方關(guān)系 \(\mathcal{O}(n^2)\) 越明顯。可以看出,實際上,需要更長的輸入序列才能清楚地觀察到輸入序列翻倍會導(dǎo)致峰值內(nèi)存使用量增加四倍。

對使用全局注意力的 google/reformer-enwik8 模型而言,序列長度超過 16K 內(nèi)存就溢出了。

現(xiàn)在,我們使用模型的默認(rèn)參數(shù)以使能 局部 LSH 自注意力。

  config = ReformerConfig.from_pretrained("google/reformer-enwik8")
  benchmark_args = PyTorchBenchmarkArguments(sequence_lengths=[2048, 4096, 8192, 16384, 32768, 65436], batch_sizes=[1], models=["Reformer"], no_speed=True, no_env_print=True)
  benchmark = PyTorchBenchmark(configs=[config], args=benchmark_args)
  result = benchmark.run()
1 / 1
Doesn't fit on GPU. CUDA out of memory. Tried to allocate 2.00 GiB (GPU 0; 11.17 GiB total capacity; 7.85 GiB already allocated; 1.74 GiB free; 9.06 GiB reserved in total by PyTorch)
Doesn't fit on GPU. CUDA out of memory. Tried to allocate 4.00 GiB (GPU 0; 11.17 GiB total capacity; 6.56 GiB already allocated; 3.99 GiB free; 6.81 GiB reserved in total by PyTorch)

====================      INFERENCE - MEMORY - RESULT       ====================
--------------------------------------------------------------------------------
          Model Name             Batch Size     Seq Length    Memory in MB 
--------------------------------------------------------------------------------
           Reformer                  1              2048            1785     
           Reformer                  1              4096            2621     
           Reformer                  1              8192            4281     
           Reformer                  1             16384            7607     
           Reformer                  1             32768            N/A      
           Reformer                  1             65436            N/A      
--------------------------------------------------------------------------------

不出所料,對于較長的輸入序列,使用局部 LSH 自注意力機制的內(nèi)存效率更高,對于本文使用的 11GB 顯存 GPU 而言,模型直到序列長度為 32K 時,內(nèi)存才耗盡。

2. 分塊前饋層

基于 transformer 的模型通常在自注意力層之后會有一個非常大的前饋層。該層可能會占用大量內(nèi)存,有時甚至成為模型主要的內(nèi)存瓶頸。Reformer 論文中首次引入了前饋分塊技術(shù),以用時間換取內(nèi)存。

Reformer 中的分塊前饋層

在 Reformer 中, LSH 自注意力層或局部自注意力層通常后面跟著一個殘差連接,我們可將其定義為 transformer 塊 的第一部分。更多相關(guān)知識,可參閱此 博文。

Transformer 塊 第一部分的輸出,稱為 歸范化自注意力 輸出,可以記為 \(\mathbf{\overline{Z}} = \mathbf{Z} + \mathbf{X}\)。在 Reformer 模型中,\(\mathbf{Z}\)\(\mathbf{Z}^{\text{LSH}}\)\(\mathbf{Z}^\text{loc}\)

在我們的例子中,輸入 \(\mathbf{x}_1, \ldots, \mathbf{x}_{16}\) 的規(guī)范化自注意力輸出圖示如下:

Transformer 塊 的第二部分通常由兩個前饋層 \(^{1}\) 組成,其中 \(\text{Linear}_{\text{int}}(\ldots)\) 用于將 \(\mathbf{\overline{Z}}\) 映射到中間輸出 \(\mathbf{Y}_{\text{int}}\)\(\text{Linear}_{\text{out}}(\ldots)\) 用于將中間輸出映射為最終輸出 \(\mathbf{Y}_{\text{out}}\)。我們將兩個前饋層定義如下:

\[\mathbf{Y}_{\text{out}} = \text{Linear}_{\text{out}}(\mathbf{Y} _\text{int}) = \text{Linear}_{\text{out}}(\text{Linear}_{\text{int}}(\mathbf{\overline{Z}})) \]

敲重點!在數(shù)學(xué)上,前饋層在位置 \(i\) 處的輸出 \(\mathbf{y}_{\text{out}, i}\) 僅取決于該位置的輸入 \(\mathbf{\overline{y}}_{i}\)。與自注意力層相反,每個輸出 \(\mathbf{y}_{\text{out}, i}\) 與其他位置的輸入 \(\mathbf{\overline{y}}_{j \ne i}\) 完全獨立。

\(\mathbf{\overline{z}}_1, \ldots, \mathbf{\overline{z}}_{16}\) 的前饋層圖示如下:

從圖中可以看出,所有輸入向量 \(\mathbf{\overline{z}}_{i}\) 均由同一前饋層并行處理。

我們再觀察一下前饋層的輸出維度,看看有沒有啥有意思的事情。在 Reformer 中,\(\text{Linear}_{\text{int}}\) 的輸出維度為 config.feed_forward_size \(d_ {f}\); 而 \(\text{Linear}_{\text{out}}\) 的輸出維度為 config.hidden_??size \(d_ {h}\)

Reformer 作者觀察到 \(^{2}\),在 transformer 模型中,中間維度 \(d_{f}\) 通常往往比輸出維度 \(d_{h}\) 大許多。這意味著尺寸為 \(d_{f} \times n\) 的張量 \(\mathbf{\mathbf{Y}}_\text{int}\) 占據(jù)了大量的內(nèi)存,甚至可能成為內(nèi)存瓶頸。

為了更好地感受維度的差異,我們將本文例子中的矩陣 \(\mathbf{Y}_\text{int}\)\(\mathbf{Y}_\text{out}\) 圖示如下:

很明顯,張量 \(\mathbf{Y} _\text{int}\)\(\mathbf{Y}_{\text{out}}\) 占用了更多的內(nèi)存 (準(zhǔn)確地說,多占 \(\frac{d_{f}}{d_{h}} \times n\) 字節(jié)的內(nèi)存)。但是,是否有必要存儲完整的中間矩陣 \(\mathbf{Y}_\text{int}\) ?并非如此,因為我們關(guān)心的實際上只有輸出矩陣 \(\mathbf{Y}_ \text{out}\)。為了以速度換內(nèi)存,我們可以對線性層計算進(jìn)行分塊,一次只處理一個塊。定義 config.chunk_size_feed_forward\(c_{f}\),則分塊線性層定義為 \(\mathbf{Y}_{\text{out}} = \left[\mathbf{Y}_{\text{out}, 1: c_{f}}, \ldots, \mathbf{Y}_{\text{out}, (n - c_{f}): n}\right]\)\(\mathbf{Y}_{\text{out}, (c_{f} * i):(i * c_{f} + i)} = \text{Linear}_{\text{out}}( \text{Linear}_{\text{int}}(\mathbf{\overline{Z}}_{(c_{f} * i):(i * c_{f} + i)}))\)。這么做意味著我們可以增量計算輸出最后再串接在一起,這樣可以避免將整個中間張量 \(\mathbf{Y}_{\text{int}}\) 存儲在內(nèi)存中。

假設(shè) \(c_{f}=1\),我們把增量計算 \(i=9\) 的過程圖示如下:

當(dāng)塊大小為 1 時,必須完整存儲在內(nèi)存中的唯一張量是大小為 \(16 \times d_{h}\) 的輸入張量 \(\mathbf{\overline{Z}}\),其中 \(d_{h}\)config.hidden_size 。而中間張量只需要存儲大小為 \(d_{f}\)\(\mathbf{y}_{\text{int}, i}\) 就可以了 \(^{3}\)

最后,重要的是要記住, 分塊線性層 與傳統(tǒng)的完整線性層相比,其輸出在數(shù)學(xué)上是等效的,因此可以應(yīng)用于所有 transformer 線性層。因此,在某些場景下,可以考慮使用 config.chunk_size_feed_forward 在內(nèi)存和速度之間進(jìn)行更好的權(quán)衡。


\({}^1\) 為了簡單起見,我們省略了前饋層之前的層歸一化操作。

\({}^2\)bert-base-uncased 為例,其中間維度 \(d_{f}\) 是 3072,為輸出維度 \(d_{h}\) 的 4 倍。

\({}^3\) 提醒一下,為清晰說明起見,本文假設(shè)輸出 config.num_attention_heads 為 1,因此假設(shè)自注意力層的輸出大小為 config.hidden_??size

讀者也可以在 ??Transformers 的 相應(yīng)文檔 中找到有關(guān)分塊線性/前饋層的更多信息。

基準(zhǔn)測試

我們測試一下使用分塊前饋層可以節(jié)省多少內(nèi)存。

#@title Installs and Imports
# pip installs
!pip -qq install git+https://github.com/huggingface/transformers.git
!pip install -qq py3nvml

from transformers import ReformerConfig, PyTorchBenchmark, PyTorchBenchmarkArguments
  Building wheel for transformers (setup.py) ... [?25l[?25hdone

首先,我們將沒有分塊前饋層的默認(rèn) google/reformer-enwik8 模型與有分塊前饋層的模型進(jìn)行比較。

config_no_chunk = ReformerConfig.from_pretrained("google/reformer-enwik8") # no chunk
config_chunk = ReformerConfig.from_pretrained("google/reformer-enwik8", chunk_size_feed_forward=1) # feed forward chunk
benchmark_args = PyTorchBenchmarkArguments(sequence_lengths=[1024, 2048, 4096], batch_sizes=[8], models=["Reformer-No-Chunk", "Reformer-Chunk"], no_speed=True, no_env_print=True)
benchmark = PyTorchBenchmark(configs=[config_no_chunk, config_chunk], args=benchmark_args)
result = benchmark.run()
1 / 2
Doesn't fit on GPU. CUDA out of memory. Tried to allocate 2.00 GiB (GPU 0; 11.17 GiB total capacity; 7.85 GiB already allocated; 1.74 GiB free; 9.06 GiB reserved in total by PyTorch)
2 / 2
Doesn't fit on GPU. CUDA out of memory. Tried to allocate 2.00 GiB (GPU 0; 11.17 GiB total capacity; 7.85 GiB already allocated; 1.24 GiB free; 9.56 GiB reserved in total by PyTorch)

====================      INFERENCE - MEMORY - RESULT       ====================
--------------------------------------------------------------------------------
          Model Name             Batch Size     Seq Length    Memory in MB 
--------------------------------------------------------------------------------
      Reformer-No-Chunk              8              1024            4281     
      Reformer-No-Chunk              8              2048            7607     
      Reformer-No-Chunk              8              4096            N/A      
        Reformer-Chunk               8              1024            4309     
        Reformer-Chunk               8              2048            7669     
        Reformer-Chunk               8              4096            N/A      
--------------------------------------------------------------------------------

有趣的是,分塊前饋層似乎在這里根本沒有幫助。原因是 config.feed_forward_size 不夠大,所以效果不明顯。僅當(dāng)序列長度較長 (4096) 時,才能看到內(nèi)存使用量略有下降。

我們再看看如果將前饋層的大小增加 4 倍,并將注意力頭的數(shù)量同時減少 4 倍,從而使前饋層成為內(nèi)存瓶頸,此時峰值內(nèi)存情形如何。

config_no_chunk = ReformerConfig.from_pretrained("google/reformer-enwik8", chunk_size_feed_forward=0, num_attention_{h}eads=2, feed_forward_size=16384) # no chuck
config_chunk = ReformerConfig.from_pretrained("google/reformer-enwik8", chunk_size_feed_forward=1, num_attention_{h}eads=2, feed_forward_size=16384) # feed forward chunk
benchmark_args = PyTorchBenchmarkArguments(sequence_lengths=[1024, 2048, 4096], batch_sizes=[8], models=["Reformer-No-Chunk", "Reformer-Chunk"], no_speed=True, no_env_print=True)
benchmark = PyTorchBenchmark(configs=[config_no_chunk, config_chunk], args=benchmark_args)
result = benchmark.run()
1 / 2
2 / 2

====================      INFERENCE - MEMORY - RESULT       ====================
--------------------------------------------------------------------------------
          Model Name             Batch Size     Seq Length    Memory in MB 
--------------------------------------------------------------------------------
      Reformer-No-Chunk              8              1024            3743     
      Reformer-No-Chunk              8              2048            5539     
      Reformer-No-Chunk              8              4096            9087     
        Reformer-Chunk               8              1024            2973     
        Reformer-Chunk               8              2048            3999     
        Reformer-Chunk               8              4096            6011     
--------------------------------------------------------------------------------

現(xiàn)在,對于較長的輸入序列,可以看到峰值內(nèi)存使用量明顯減少。總之,應(yīng)該注意的是,分塊前饋層僅對于具有很少注意力頭和較大前饋層的模型才有意義。

3. 可逆殘差層

可逆殘差層由 N. Gomez 等人 首先提出并應(yīng)用在 ResNet 模型的訓(xùn)練上以減少內(nèi)存消耗。從數(shù)學(xué)上講,可逆殘差層與 真正的 殘差層略有不同,其不需要在前向傳播期間保存激活,因此可以大大減少訓(xùn)練的內(nèi)存消耗。

Reformer 中的可逆殘差層

我們首先研究為什么模型訓(xùn)練比推理需要更多的內(nèi)存。

在模型推理時,所需的內(nèi)存差不多等于計算模型中 單個 最大張量所需的內(nèi)存。而在訓(xùn)練模型時,所需的內(nèi)存差不多等于所有可微張量的 總和

如果讀者已經(jīng)理解了深度學(xué)習(xí)框架中的自動微分的工作原理,對此就比較容易理解了。多倫多大學(xué) Roger Grosse 的這些 幻燈片 對大家理解自動微分很有幫助。

簡而言之,為了計算可微函數(shù) ( 一層) 的梯度,自動微分需要函數(shù)輸出的梯度以及函數(shù)的輸入、輸出張量。雖然梯度是可以動態(tài)計算并隨后丟棄的,但函數(shù)的輸入和輸出張量 ( 又名 激活) 需要在前向傳播過程中被保存下來,以供反向傳播時使用。

我們具體看下 transformer 模型中的情況。Transformer 模型是由多個 transformer 層堆疊起來的。每多一個 transformer 層都會迫使模型在前向傳播過程中保存更多的激活,從而增加訓(xùn)練所需的內(nèi)存。
我們細(xì)看一下 transformer 層。Transformer 層本質(zhì)上由兩個殘差層組成。第一個殘差層是第 1) 節(jié)中解釋的 自注意力 機制,第二個殘差層是第 2) 節(jié)中解釋的 線性層 (或前饋層)。

使用與之前相同的符號,transformer 層的輸入 \(\mathbf{X}\) 首先被歸一化 \(^{1}\),然后經(jīng)過自注意力層獲得輸出 \(\mathbf{Z} = \text{SelfAttn}(\text{LayerNorm}(\mathbf{X}))\)。為方便討論,我們將這兩層縮寫為 \(G\),即 \(\mathbf{Z} = G(\mathbf{X})\)
接下來,將殘差 \(\mathbf{Z}\) 與輸入相加 \(\mathbf{\overline{Z}} = \mathbf{Z} + \mathbf{X}\),得到張量輸入到第二個殘差層 —— 兩個線性層。\(\mathbf{\overline{Z}}\) 經(jīng)過第二個歸一化層處理后,再經(jīng)過兩個線性層,得到 \(\mathbf{Y} = \text{Linear}(\text{LayerNorm}(\mathbf{Z} + \mathbf{X}))\)。我們將第二個歸一化層和兩個線性層縮寫為 \(F\) ,得到 \(\mathbf{Y} = F(\mathbf{\overline{Z}})\)。最后,將殘差 \(\mathbf{Y}\) 加到 \(\mathbf{\overline{Z}}\) 上得到 transformer 層的輸出 \(\mathbf{\overline{Y}} = \mathbf{Y} + \mathbf{\overline{Z}}\)

我們?nèi)砸?\(\mathbf{x}_1, \ldots, \mathbf{x}_{16}\) 為例對完整的 transformer 層進(jìn)行圖解。

比如 ,要計算自注意力塊 \(G\) 的梯度,必須事先知道三個張量: 梯度 \(\partial \mathbf{Z}\)、輸出 \(\mathbf{Z}\) 以及輸入 \(\mathbf{X}\)。雖然 \(\partial \mathbf{Z}\) 可以即時計算并隨后丟棄,但 \(\mathbf{Z}\)\(\mathbf{X}\) 必須在前向傳播期間計算并保存下來,因為在反向傳播期間比較難輕松地即時重新計算它們。因此,在前向傳播過程中,大張量輸出 (如查詢 - 鍵點積矩陣 \(\mathbf{Q}\mathbf{K}^T\) 或線性層的中間輸出 \(\mathbf{Y}^{\text{int}}\)) 必須保存在內(nèi)存中 \(^{2}\)

此時,可逆殘差層就有用了。它的想法相對簡單: 殘差塊的設(shè)計方式使得不必保存函數(shù)的輸入和輸出張量,而在反向傳播期間就輕松地對二者進(jìn)行重新計算,這樣的話在前向傳播期間就無需將這些張量保存在內(nèi)存中了。

這是通過兩個輸入流 \(\mathbf{X}^{(1)}、\mathbf{X}^{(2)}\) 及兩個輸出流 \(\mathbf{\overline {Y}}^{(1)}、\mathbf{\overline{Y}}^{(2)}\) 來實現(xiàn)的。第一個殘差 \(\mathbf{Z}\) 由第一個輸出流 \(\mathbf{Z} = G(\mathbf{X}^{(1)})\) 算得,然后其加到第二個輸入流的輸入上,即 \(\mathbf{\overline{Z}} = \mathbf{Z} + \mathbf{X}^{(2)}\)。類似地,再將殘差 \(\mathbf{Y} = F(\mathbf{\overline{Z}})\) 與第一個輸入流相加。最終,兩個輸出流即為 \(\mathbf{Y}^{(1)} = \mathbf{Y} + \mathbf{X}^{(1)}\)\(\mathbf{Y}^{(2)} = \mathbf{ X}^{(2)} + \mathbf{Z} = \mathbf{\overline{Z}}\)

\(\mathbf{x}_1, \ldots, \mathbf{x}_{16}\) 為例來圖示可逆 transformer 層,如下:

可以看出,輸出 \(\mathbf{\overline{Y}}^{(1)}、\mathbf{\overline{Y}}^{(2)}\) 的計算方式與不可逆層 \(\mathbf{\overline{Y}}\) 的計算方式非常相似,但在數(shù)學(xué)上又不同。Reformer 的作者在一些初步實驗中觀察到,可逆 transformer 模型的性能與標(biāo)準(zhǔn) transformer 模型的性能相當(dāng)。與標(biāo)準(zhǔn) transformer 層的一個明顯區(qū)別是有兩個輸入流和輸出流 \(^{3}\),這一開始反而稍微增加了前向傳播所需的內(nèi)存。但即使如此,我們還是強調(diào)雙流架構(gòu)至關(guān)重要,因為其在前向傳播過程中無需保存任何激活。我們解釋一下: 對于反向傳播,可逆 treansformer 層必須計算梯度 \(\partial G\)\(\partial F\)。除了可即時計算的梯度 \(\partial \mathbf{Y}\)\(\partial \mathbf{Z}\) 之外,為了計算 \(\partial F\) 必須已知張量值 \(\mathbf{Y}\)\(\mathbf{\overline{Z}}\),為了計算 \(\partial G\) 必須已知 \(\mathbf{Z}\)\(\mathbf{X}^{(1)}\)

假設(shè)我們知道 \(\mathbf{\overline{Y}}^{(1)},\mathbf{\overline{Y}}^{(2)}\),則從圖中可以很容易看出,我們可以如下計算出 \(\mathbf{X}^{(1)},\mathbf{X}^{(2)}\)\(\mathbf{X}^{(1)} = F(\mathbf{\overline{Y}}^{(1)}) - \mathbf{\overline{Y}}^{(1)}\)\(\mathbf{X}^{(1)}\) 計算出來了!然后,\(\mathbf{X}^{(2)}\) 可以通過 \(\mathbf {X}^{(2)} = \mathbf{\overline{Y}}^{(1)} - G(\mathbf{X}^{(1)})\) 算出。之后,\(\mathbf{Z}\)\(\mathbf{Y}\) 的計算就簡單了,可以通過 \(\mathbf{Y} = \mathbf{\overline{Y}}^{(1)} - \mathbf{X}^{(1)}\)\(\mathbf{Z} = \mathbf{\overline{Y}}^{(2)} - \mathbf{X }^{(2)} 算出\)。總結(jié)一下,僅需在前向傳播期間存儲 最后一個 可逆 transformer 層的輸出 \(\mathbf{\overline{Y}}^{(1)},\mathbf{\overline{Y}}^{(2)}\),所有其他層的激活就可以通過在反向傳播期間使用 \(G\)\(F\) 以及 \(\mathbf {X}^{(1)}\)\(\mathbf{X}^{(2)}\) 推導(dǎo)而得。在反向傳播期間,每個可逆 transformer 層用兩次前向傳播 \(G\)\(F\) 的計算開銷換取前向傳播時不必保存任何激活。好買賣!

注意: 最近,主要的深度學(xué)習(xí)框架都支持了梯度檢查點技術(shù),以允許僅保存某些激活并在反向傳播期間重計算尺寸較大的激活 (Tensoflow 代碼見 此處,PyTorch 代碼見 此處)。對于標(biāo)準(zhǔn)可逆層,這仍然意味著必須為每個 transformer 層保存至少一個激活,但通過定義哪些激活可以動態(tài)重新計算,能夠節(jié)省大量內(nèi)存。


\(^{1}\) 在前兩節(jié)中,我們省略了自注意力層和線性層之前的層歸一化操作。讀者應(yīng)該知道 \(\mathbf{X}\)\(\mathbf{\overline{Z}}\) 在輸入自注意力層和線性層之前都分別經(jīng)過層歸一化處理。

\(^{2}\) 在原始自注意力中,\(\mathbf{Q}\mathbf{K}\) 的維度為 \(n \times n\); 而在 LSH 自注意力局部自注意力 層的維度為 \(n \times l_{c} \times n_{h}\)\(n \times l_{c}\) 其中 \(l_{c}\) 為塊長度,\(n_{h}\) 為哈希數(shù)。

\(^{3}\) 第一個可逆 transformer 層的 \(\mathbf{X}^{(2)}\) 等于 \(\mathbf{X}^{(1)}\)

測試基準(zhǔn)

為了測量可逆殘差層的效果,我們將增加模型層數(shù)的同時比較 BERT 和 Reformer 的內(nèi)存消耗。

#@title Installs and Imports
# pip installs
!pip -qq install git+https://github.com/huggingface/transformers.git
!pip install -qq py3nvml

from transformers import ReformerConfig, BertConfig, PyTorchBenchmark, PyTorchBenchmarkArguments

我們把標(biāo)準(zhǔn) bert-base-uncased BERT 模型的層數(shù)從 4 增加到 12 ,同時測量其所需內(nèi)存。

config_4_layers_bert = BertConfig.from_pretrained("bert-base-uncased", num_hidden_layers=4)
config_8_layers_bert = BertConfig.from_pretrained("bert-base-uncased", num_hidden_layers=8)
config_12_layers_bert = BertConfig.from_pretrained("bert-base-uncased", num_hidden_layers=12)
benchmark_args = PyTorchBenchmarkArguments(sequence_lengths=[512], batch_sizes=[8], models=["Bert-4-Layers", "Bert-8-Layers", "Bert-12-Layers"], training=True, no_inference=True, no_speed=True, no_env_print=True)
benchmark = PyTorchBenchmark(configs=[config_4_layers_bert, config_8_layers_bert, config_12_layers_bert], args=benchmark_args)
result = benchmark.run()
HBox(children=(FloatProgress(value=0.0, description='Downloading', max=433.0, style=ProgressStyle(description_…



1 / 3
2 / 3
3 / 3

====================        TRAIN - MEMORY - RESULTS        ====================
--------------------------------------------------------------------------------
          Model Name             Batch Size     Seq Length    Memory in MB 
--------------------------------------------------------------------------------
        Bert-4-Layers                8              512             4103     
        Bert-8-Layers                8              512             5759     
        Bert-12-Layers               8              512             7415     
--------------------------------------------------------------------------------

可以看出,BERT 層數(shù)每增加 1,其所需內(nèi)存就會有超 400MB 的線性增長。

config_4_layers_reformer = ReformerConfig.from_pretrained("google/reformer-enwik8", num_hidden_layers=4, num_hashes=1)
config_8_layers_reformer = ReformerConfig.from_pretrained("google/reformer-enwik8", num_hidden_layers=8, num_hashes=1)
config_12_layers_reformer = ReformerConfig.from_pretrained("google/reformer-enwik8", num_hidden_layers=12, num_hashes=1)
benchmark_args = PyTorchBenchmarkArguments(sequence_lengths=[512], batch_sizes=[8], models=["Reformer-4-Layers", "Reformer-8-Layers", "Reformer-12-Layers"], training=True, no_inference=True, no_speed=True, no_env_print=True)
benchmark = PyTorchBenchmark(configs=[config_4_layers_reformer, config_8_layers_reformer, config_12_layers_reformer], args=benchmark_args)
result = benchmark.run()
1 / 3
2 / 3
3 / 3

====================        TRAIN - MEMORY - RESULTS        ====================
--------------------------------------------------------------------------------
          Model Name             Batch Size     Seq Length    Memory in MB 
--------------------------------------------------------------------------------
      Reformer-4-Layers              8              512             4607     
      Reformer-8-Layers              8              512             4987     
      Reformer-12-Layers             8              512             5367     
--------------------------------------------------------------------------------

另一方面,對于 Reformer 而言,每增加一層所帶來的內(nèi)存增量會顯著減少,平均不到 100MB。因此 12 層的 reformer-enwik8 模型比 12 層的 bert-base-uncased 模型的內(nèi)存需求更少。

4. 軸向位置編碼

Reformer 使得處理超長輸入序列成為可能。然而,對于如此長的輸入序列,僅存儲標(biāo)準(zhǔn)位置編碼權(quán)重矩陣就需要超過 1GB 內(nèi)存。為了避免如此大的位置編碼矩陣,官方 Reformer 代碼引入了 軸向位置編碼

重要: 官方論文中沒有解釋軸向位置編碼,但通過閱讀代碼以及與作者討論我們很好地理解了它。

Reformer 中的軸向位置編碼

Transformer 需要位置編碼來對輸入序列中的單詞順序進(jìn)行編碼,因為自注意力層 沒有順序的概念 。位置編碼通常由一個簡單的查找矩陣 \(\mathbf{E} = \left[\mathbf{e}_1, \ldots, \mathbf{e}_{n_\text{max}}\right]\) 來定義,然后將位置編碼向量 \(\mathbf{e}_{i}\) 簡單地加到 第 i 個 輸入向量上,即 \(\mathbf{x}_{i} + \mathbf{e}_{i}\),以便模型可以區(qū)分輸入向量 ( 詞元) 位于位置 \(i\) 還是位置\(j\)。對于每個輸入位置,模型需要能夠查找到相應(yīng)的位置編碼向量,因此 \(\mathbf{E}\) 的維度由模型可以處理的最大輸入序列長度 config.max_position_embeddings ( \(n_\text{max}\)) 以及輸入向量的維度 config.hidden_??size ( \(d_{h}\)) 共同決定。

假設(shè) \(d_{h}=4\)\(n_\text{max}=49\),其位置編碼矩陣如下圖所示:

此處,我們僅展示位置編碼 \(\mathbf{e}_{1}\)\(\mathbf{e}_{2}\)\(\mathbf{e}_{49}\),其維度 ( 高度) 為 4。

想象一下,我們想要在長度最長為 0.5M 個詞元,輸入向量維度 config.hidden_??size 為 1024 的序列上訓(xùn)練 Reformer 模型 (請參閱 此筆記本)。其對應(yīng)的位置嵌入的參數(shù)量為 \(0.5M \times 1024 \sim 512M\),大小為 2GB。

在將模型加載到內(nèi)存中或?qū)⑵浔4嬖谟脖P上時,所需要的內(nèi)存是很大且很沒必要的。

Reformer 作者通過將 config.hidden_??size 維度一分為二,并巧妙地對 \(n_\text{max}\) 維進(jìn)行分解,從而成功地大幅縮小了位置編碼的大小。在 transformers 中,用戶可以將 config.axis_pos_shape 設(shè)置為一個含有兩個值的列表: \(n_\text{max}^ 1\)\(n_\text{max}^2\),其中 \(n_\text{max}^1 \times n_\text{max}^2 = n_\text{max}\),從而對 \(n_\text{max}\) 維度進(jìn)行分解。同時,用戶可以把 config.axis_pos_embds_dim 設(shè)置為一個含有兩個值 \(d_{h}^{1}\)\(d_{h}^2\) 的列表,其中 \(d_{h} ^1 + d_{h}^2 = d_{h}\),從而決定隱藏維度應(yīng)該如何切割。下面用圖示來直觀解釋一下。

大家可以將對 \(n_{\text{max}}\) 的分解視為將其維度折疊到第三個軸,下圖所示為 config.axis_pos_shape = [7, 7] 分解:

三個直立矩形棱柱分別對應(yīng)于編碼向量 \(\mathbf{e}_{1}, \mathbf{e}_{2}, \mathbf{e}_{49}\),我們可以看到 49 個編碼向量被分為 7 行,每行 7 個向量。現(xiàn)在的想法是僅使用 7 個編碼向量中的一行,并將這些向量擴展到其他 6 行。本質(zhì)上是想讓七行重用一行的值,但是又不能讓不同位置的編碼向量的值相同,所以要將每個維度 ( 或稱 高度) 為 config.hidden_size=4 的向量切割成兩個部分: 大小為 \(1\) 的低區(qū)編碼向量 \(\mathbf{e}_\text{down}\) 以及大小為 \(3\) 的高區(qū)編碼向量 \(\mathbf{e}_\text{up}\),這樣低區(qū)就可以沿行擴展而高區(qū)可以沿列擴展。為了講清楚,我們還是畫個圖。

可以看到,我們已將嵌入向量切為 \(\mathbf{e}_\text{down}\) ( 藍(lán)色 ) 和 \(\mathbf{e}_\text{up}\) ( 黃色 ) 兩個部分。現(xiàn)在對 向量 \(\mathbf{E} _\text{down} = \left[\mathbf{e}_ {\text{down},1}, \ldots, \mathbf{e} _{\text{down},49}\right]\) 僅保留第一行的 7 個子向量, 圖中寬度,并將其沿列 ( 又名 深度) 擴展。相反,對 向量 \(\mathbf{E}_\text{up} = \left[\mathbf{e}_{\text{up},1}, \ldots, \mathbf{e }_{\text{up},49}\right]\) 僅保留第一列的 \(7\) 個子向量并沿行擴展。此時,得到的嵌入向量 \(\mathbf{e'}_{i}\) 如下:

\[\mathbf{e'}_{i} = \left[ \left[\mathbf{e}_{\text{down, } i \% n_\text{max}^1}\right]^T, \left[\mathbf{e}_{\text{up, } \left \lfloor{\frac{i}{{n}^2_{\text{max}}}}\right \rfloor} \right]^T \right]^T \]

本例中,\(n_\text{max}^1 = 7\)\(n_\text{max}^2 = 7\) 。這些新編碼 \(\mathbf{E'} = \left[\mathbf{e'}_{1}, \ldots, \mathbf{e'}_{n_\text{max}}\right]\) 稱為 軸向位置編碼

下圖針對我們的例子對軸向位置編碼進(jìn)行了更詳細(xì)的說明。

現(xiàn)在應(yīng)該很清楚如何僅根據(jù)維度為 \(d_{h}^1 \times n_{\text{max}^1}\)\(\mathbf{E}_{\text{down}}\) 及維度為 \(d_{h}^2 \times n_{\text{max}}^2\)\(\mathbf{E}_{\text{up}}\) 計算最終位置編碼向量 \(\mathbf{E'}\) 了。

這里的關(guān)鍵是,軸向位置編碼能夠從設(shè)計上確保向量 \(\left[\mathbf{e'}_1, \ldots, \mathbf{e'}_{n_{\text{max} }}\right]\) 之間各不相等,并且使編碼矩陣的大小從 \(n_{\text{max}} \times d_{h}\) 減小到 \(n_{\text{max}}^1 \times d_{h}^1 + n_\text{max}^2 \times d_{h}^2\)。因為設(shè)計上允許每個軸向位置編碼向量不同,所以一旦模型中的軸向位置編碼訓(xùn)出來后,模型就可以靈活高效地獲取位置編碼。

為了證明位置編碼矩陣的尺寸得到了大幅減小,假設(shè)我們?yōu)?Reformer 模型設(shè)置了參數(shù) config.axis_pos_shape = [1024, 512] 以及 config.axis_pos_embds_dim = [512, 512] ,且該模型支持的最長輸入序列長度為 0.5M 詞元。此時,生成的軸向位置編碼矩陣的參數(shù)量僅為 \(1024 \times 512 + 512 \times 512 \sim 800K\),即大約 3MB。這個數(shù)字與標(biāo)準(zhǔn)位置編碼矩陣所需的 2GB 相比,簡直是小巫見大巫。

如需更簡潔、更數(shù)學(xué)化的解釋,請參閱 此處 的 ??Transformers 文檔。

基準(zhǔn)測試

最后,我們對傳統(tǒng)位置嵌入與 軸向位置嵌入 的峰值內(nèi)存消耗進(jìn)行比較。

#@title Installs and Imports
# pip installs
!pip -qq install git+https://github.com/huggingface/transformers.git
!pip install -qq py3nvml

from transformers import ReformerConfig, PyTorchBenchmark, PyTorchBenchmarkArguments, ReformerModel

位置嵌入僅取決于兩個配置參數(shù): 輸入序列允許的最大長度 config.max_position_embeddings 以及 config.hidden_??size 。我們使用一個模型,其支持的輸入序列的最大允許長度為 50 萬個詞元,即 google/reformer-crime-and-punishment ,來看看使用軸向位置嵌入后的效果。

首先,我們比較軸向位置編碼與標(biāo)準(zhǔn)位置編碼的參數(shù)形狀,及其相應(yīng)模型的總參數(shù)量。

config_no_pos_axial_embeds = ReformerConfig.from_pretrained("google/reformer-crime-and-punishment", axial_pos_embds=False) # disable axial positional embeddings
config_pos_axial_embeds = ReformerConfig.from_pretrained("google/reformer-crime-and-punishment", axial_pos_embds=True, axial_pos_embds_dim=(64, 192), axial_pos_shape=(512, 1024)) # enable axial positional embeddings

print("Default Positional Encodings")
print(20 *'-')
model = ReformerModel(config_no_pos_axial_embeds)
print(f"Positional embeddings shape: {model.embeddings.position_embeddings}")
print(f"Num parameters of model: {model.num_parameters()}")
print(20 *'-' + '\n\n')

print("Axial Positional Encodings")
print(20 *'-')
model = ReformerModel(config_pos_axial_embeds)
print(f"Positional embeddings shape: {model.embeddings.position_embeddings}")
print(f"Num parameters of model: {model.num_parameters()}")
print(20 *'-' + '\n\n')
HBox(children=(FloatProgress(value=0.0, description='Downloading', max=1151.0, style=ProgressStyle(description…



Default Positional Encodings
--------------------
Positional embeddings shape: PositionEmbeddings(
  (embedding): Embedding(524288, 256)
)
Num parameters of model: 136572416
--------------------


Axial Positional Encodings
--------------------
Positional embeddings shape: AxialPositionEmbeddings(
  (weights): ParameterList(
      (0): Parameter containing: [torch.FloatTensor of size 512x1x64]
      (1): Parameter containing: [torch.FloatTensor of size 1x1024x192]
  )
)
Num parameters of model: 2584064
--------------------

理解了相應(yīng)的理論后,讀者應(yīng)該不會對軸向位置編碼權(quán)重的形狀感到驚訝。

從結(jié)果中可以看出,對于需要處理如此長輸入序列的模型,使用標(biāo)準(zhǔn)位置編碼是不切實際的。以 google/reformer-crime-and-punishment 為例,僅標(biāo)準(zhǔn)位置編碼自身參數(shù)量就超過 100M。軸向位置編碼可以將這個數(shù)字減少到略高于 200K。

最后,我們比較一下推理所需內(nèi)存。

benchmark_args = PyTorchBenchmarkArguments(sequence_lengths=[512], batch_sizes=[8], models=["Reformer-No-Axial-Pos-Embeddings", "Reformer-Axial-Pos-Embeddings"], no_speed=True, no_env_print=True)
benchmark = PyTorchBenchmark(configs=[config_no_pos_axial_embeds, config_pos_axial_embeds], args=benchmark_args)
result = benchmark.run()
1 / 2
2 / 2

====================      INFERENCE - MEMORY - RESULT       ====================
--------------------------------------------------------------------------------
          Model Name             Batch Size     Seq Length    Memory in MB 
--------------------------------------------------------------------------------
Reformer-No-Axial-Pos-Embeddin       8              512             959      
Reformer-Axial-Pos-Embeddings        8              512             447      
--------------------------------------------------------------------------------

可以看出,在 google/reformer-crime-and-punishment 模型上,使用軸向位置嵌入可減少大約一半的內(nèi)存需求。


英文原文: https://hf.co/blog/reformer

原文作者: Patrick von Platen

譯者: Matrix Yao (姚偉峰),英特爾深度學(xué)習(xí)工程師,工作方向為 transformer-family 模型在各模態(tài)數(shù)據(jù)上的應(yīng)用及大規(guī)模模型的訓(xùn)練推理。

總結(jié)

以上是生活随笔為你收集整理的Reformer 模型 - 突破语言建模的极限的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

又大又硬又黄的免费视频 | 丰满少妇女裸体bbw | 国产亚洲美女精品久久久2020 | 日韩欧美中文字幕公布 | 国产成人一区二区三区在线观看 | 欧美 日韩 亚洲 在线 | 欧美freesex黑人又粗又大 | 99精品国产综合久久久久五月天 | 精品欧美一区二区三区久久久 | 久久国产精品二国产精品 | 国产精品美女久久久网av | 激情五月综合色婷婷一区二区 | 丰满妇女强制高潮18xxxx | 图片区 小说区 区 亚洲五月 | 国产乱码精品一品二品 | 国产乱人无码伦av在线a | 大肉大捧一进一出视频出来呀 | 偷窥村妇洗澡毛毛多 | 六月丁香婷婷色狠狠久久 | 天天拍夜夜添久久精品 | 日本乱人伦片中文三区 | 东京热一精品无码av | aⅴ在线视频男人的天堂 | 久久久亚洲欧洲日产国码αv | 最新版天堂资源中文官网 | 1000部啪啪未满十八勿入下载 | 小鲜肉自慰网站xnxx | 亚洲国产精品久久久天堂 | 日韩精品乱码av一区二区 | 天天做天天爱天天爽综合网 | 丰满人妻翻云覆雨呻吟视频 | 国产成人无码av片在线观看不卡 | 国产精品久久久午夜夜伦鲁鲁 | 国产午夜福利亚洲第一 | 无码人妻丰满熟妇区五十路百度 | 99精品久久毛片a片 | 欧美zoozzooz性欧美 | 久精品国产欧美亚洲色aⅴ大片 | 亚洲日本va午夜在线电影 | 中文字幕av无码一区二区三区电影 | 天堂а√在线地址中文在线 | 婷婷色婷婷开心五月四房播播 | 一本久久a久久精品亚洲 | 亚洲精品国偷拍自产在线麻豆 | 久久久久免费看成人影片 | 色一情一乱一伦一区二区三欧美 | 色综合久久久久综合一本到桃花网 | 全黄性性激高免费视频 | 欧美野外疯狂做受xxxx高潮 | 大地资源网第二页免费观看 | 欧美乱妇无乱码大黄a片 | 乌克兰少妇xxxx做受 | 国产69精品久久久久app下载 | 成 人影片 免费观看 | 中文亚洲成a人片在线观看 | 女人被爽到呻吟gif动态图视看 | 精品无码国产自产拍在线观看蜜 | 欧美精品免费观看二区 | 亚洲精品中文字幕 | 国产av人人夜夜澡人人爽麻豆 | 欧美乱妇无乱码大黄a片 | 亚洲啪av永久无码精品放毛片 | 欧美xxxxx精品 | 97资源共享在线视频 | 九月婷婷人人澡人人添人人爽 | 鲁一鲁av2019在线 | 欧美成人高清在线播放 | 日本xxxx色视频在线观看免费 | 欧美老人巨大xxxx做受 | 在线观看国产午夜福利片 | 亚洲阿v天堂在线 | 成人片黄网站色大片免费观看 | 午夜男女很黄的视频 | 午夜性刺激在线视频免费 | 狠狠色噜噜狠狠狠狠7777米奇 | 少妇一晚三次一区二区三区 | 国产精品亚洲综合色区韩国 | 日本www一道久久久免费榴莲 | 曰本女人与公拘交酡免费视频 | 伊人久久大香线蕉午夜 | 亚洲自偷自拍另类第1页 | 两性色午夜视频免费播放 | 国产熟妇高潮叫床视频播放 | 亚洲精品久久久久久久久久久 | 欧美精品一区二区精品久久 | 亚洲va欧美va天堂v国产综合 | 国产乱人无码伦av在线a | 久久精品国产大片免费观看 | 欧美性色19p | 永久免费观看国产裸体美女 | 亚洲国产成人av在线观看 | 国产精品久久国产三级国 | 特大黑人娇小亚洲女 | 中文字幕无码av波多野吉衣 | 国产精品久久国产三级国 | 欧美亚洲国产一区二区三区 | 精品国产麻豆免费人成网站 | 成人免费无码大片a毛片 | 欧美日韩一区二区综合 | ass日本丰满熟妇pics | 黑人巨大精品欧美一区二区 | 麻豆国产人妻欲求不满谁演的 | 久久久久久久人妻无码中文字幕爆 | 亚洲人成网站在线播放942 | 久久午夜夜伦鲁鲁片无码免费 | 无码午夜成人1000部免费视频 | 少妇的肉体aa片免费 | 熟女俱乐部五十路六十路av | 国産精品久久久久久久 | 国产人妻精品午夜福利免费 | 久久久精品欧美一区二区免费 | 国产午夜福利亚洲第一 | 国产特级毛片aaaaaa高潮流水 | 国内精品久久毛片一区二区 | 中文字幕无码乱人伦 | 一个人看的www免费视频在线观看 | 国内老熟妇对白xxxxhd | 女人被爽到呻吟gif动态图视看 | 成 人影片 免费观看 | 久久99精品久久久久婷婷 | 成熟人妻av无码专区 | 麻豆国产人妻欲求不满谁演的 | 亚洲午夜无码久久 | 久久无码专区国产精品s | 久久久久久久人妻无码中文字幕爆 | 国产精品视频免费播放 | 人人妻人人澡人人爽欧美精品 | 日本免费一区二区三区最新 | 久久久中文字幕日本无吗 | 久久久精品456亚洲影院 | 久久久久久av无码免费看大片 | 国产熟妇高潮叫床视频播放 | 玩弄少妇高潮ⅹxxxyw | 爱做久久久久久 | 免费看少妇作爱视频 | 无码av岛国片在线播放 | 双乳奶水饱满少妇呻吟 | 夜先锋av资源网站 | 中文字幕日产无线码一区 | 久久人妻内射无码一区三区 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 国产手机在线αⅴ片无码观看 | 亚洲精品国产a久久久久久 | 国产人妻久久精品二区三区老狼 | 久久久久人妻一区精品色欧美 | 久久久国产一区二区三区 | 日韩av无码一区二区三区 | 疯狂三人交性欧美 | 亚洲爆乳精品无码一区二区三区 | 久久午夜无码鲁丝片秋霞 | 亚洲色偷偷偷综合网 | 亚洲中文字幕在线无码一区二区 | 国产av一区二区三区最新精品 | 中文字幕乱码人妻二区三区 | 中国女人内谢69xxxx | 粉嫩少妇内射浓精videos | 日本熟妇人妻xxxxx人hd | 欧美喷潮久久久xxxxx | 国产办公室秘书无码精品99 | 午夜肉伦伦影院 | 内射白嫩少妇超碰 | 亚洲熟女一区二区三区 | 色一情一乱一伦一视频免费看 | 无码吃奶揉捏奶头高潮视频 | 久久婷婷五月综合色国产香蕉 | 国产香蕉尹人视频在线 | 天干天干啦夜天干天2017 | 精品久久久中文字幕人妻 | 狠狠色噜噜狠狠狠7777奇米 | 国产精品二区一区二区aⅴ污介绍 | 水蜜桃色314在线观看 | 亚洲色大成网站www | 天天爽夜夜爽夜夜爽 | 人妻体内射精一区二区三四 | 国产极品视觉盛宴 | 少妇高潮一区二区三区99 | 国产精品久免费的黄网站 | 成人精品天堂一区二区三区 | 国产九九九九九九九a片 | 精品久久久久久人妻无码中文字幕 | 亚洲国产精品美女久久久久 | 97资源共享在线视频 | 国语精品一区二区三区 | 天天综合网天天综合色 | 波多野结衣 黑人 | 国产精品视频免费播放 | 亚洲一区二区三区四区 | 我要看www免费看插插视频 | 一本一道久久综合久久 | 国产精品久久久久久久9999 | 玩弄人妻少妇500系列视频 | 亚洲中文字幕成人无码 | 国产综合久久久久鬼色 | 亚洲精品一区二区三区大桥未久 | 日本精品高清一区二区 | а√天堂www在线天堂小说 | 欧美成人家庭影院 | 国产手机在线αⅴ片无码观看 | 精品国产一区二区三区四区在线看 | 久久婷婷五月综合色国产香蕉 | 亚洲日韩av一区二区三区四区 | 亲嘴扒胸摸屁股激烈网站 | 人人妻人人澡人人爽人人精品 | 色一情一乱一伦一视频免费看 | 十八禁真人啪啪免费网站 | 国产午夜精品一区二区三区嫩草 | 狠狠色噜噜狠狠狠7777奇米 | 国产成人无码av片在线观看不卡 | 性啪啪chinese东北女人 | 麻豆md0077饥渴少妇 | 国产成人午夜福利在线播放 | 国产午夜无码精品免费看 | 四虎永久在线精品免费网址 | 久久精品成人欧美大片 | 久久午夜无码鲁丝片午夜精品 | 荫蒂添的好舒服视频囗交 | 亚洲国产一区二区三区在线观看 | 国产精品永久免费视频 | 免费观看激色视频网站 | 精品国产一区二区三区四区在线看 | 久久综合久久自在自线精品自 | 国产色xx群视频射精 | 亚洲国产av美女网站 | 欧美精品免费观看二区 | 亚洲熟悉妇女xxx妇女av | 老太婆性杂交欧美肥老太 | 激情亚洲一区国产精品 | 理论片87福利理论电影 | 欧美人与物videos另类 | 人人妻人人澡人人爽人人精品 | 欧洲精品码一区二区三区免费看 | 一二三四社区在线中文视频 | 日本免费一区二区三区最新 | 亚洲色无码一区二区三区 | 伊人久久大香线焦av综合影院 | 国产两女互慰高潮视频在线观看 | 乱码av麻豆丝袜熟女系列 | 成人无码影片精品久久久 | 高潮毛片无遮挡高清免费 | 人妻与老人中文字幕 | 少妇无套内谢久久久久 | 中文字幕亚洲情99在线 | 免费无码肉片在线观看 | 免费无码肉片在线观看 | 午夜精品久久久久久久久 | 色婷婷综合中文久久一本 | 亚洲一区二区三区 | 在线精品亚洲一区二区 | 男人扒开女人内裤强吻桶进去 | av无码不卡在线观看免费 | 午夜成人1000部免费视频 | 狠狠色噜噜狠狠狠7777奇米 | 国产亚洲精品久久久久久国模美 | 国产凸凹视频一区二区 | 国产乡下妇女做爰 | 亚洲熟悉妇女xxx妇女av | 亚洲色成人中文字幕网站 | 久久午夜无码鲁丝片 | 亚洲精品一区二区三区大桥未久 | 一个人免费观看的www视频 | 国产热a欧美热a在线视频 | 久久综合久久自在自线精品自 | 美女极度色诱视频国产 | 欧美三级不卡在线观看 | 清纯唯美经典一区二区 | 国内精品久久久久久中文字幕 | 色 综合 欧美 亚洲 国产 | 日日躁夜夜躁狠狠躁 | 最近中文2019字幕第二页 | 婷婷五月综合激情中文字幕 | 特级做a爰片毛片免费69 | 欧美性生交xxxxx久久久 | 国产午夜亚洲精品不卡下载 | 久久精品人妻少妇一区二区三区 | 波多野结衣高清一区二区三区 | 老子影院午夜精品无码 | a国产一区二区免费入口 | 亚洲精品一区二区三区四区五区 | 搡女人真爽免费视频大全 | 国产成人精品优优av | 综合激情五月综合激情五月激情1 | 色综合视频一区二区三区 | 国产亚洲精品久久久久久久久动漫 | 亚洲精品综合一区二区三区在线 | 色情久久久av熟女人妻网站 | 亚洲 a v无 码免 费 成 人 a v | 中文字幕无码av波多野吉衣 | 精品国产一区二区三区av 性色 | 午夜免费福利小电影 | 2020久久超碰国产精品最新 | 无码乱肉视频免费大全合集 | 国产成人午夜福利在线播放 | 性色av无码免费一区二区三区 | 图片区 小说区 区 亚洲五月 | 日本肉体xxxx裸交 | 粉嫩少妇内射浓精videos | 亚洲一区二区三区国产精华液 | 少妇一晚三次一区二区三区 | 美女张开腿让人桶 | 亲嘴扒胸摸屁股激烈网站 | 人妻少妇被猛烈进入中文字幕 | 国产熟妇高潮叫床视频播放 | 少妇人妻偷人精品无码视频 | 免费无码av一区二区 | 丁香花在线影院观看在线播放 | 精品水蜜桃久久久久久久 | 美女毛片一区二区三区四区 | 国产亚洲精品久久久久久久久动漫 | 人妻无码αv中文字幕久久琪琪布 | 国产高清不卡无码视频 | 欧洲欧美人成视频在线 | 性欧美videos高清精品 | 香蕉久久久久久av成人 | 欧美真人作爱免费视频 | 亚洲精品中文字幕久久久久 | 久久精品无码一区二区三区 | 一本精品99久久精品77 | 色情久久久av熟女人妻网站 | 18精品久久久无码午夜福利 | 男女猛烈xx00免费视频试看 | 婷婷丁香五月天综合东京热 | 亚洲日本在线电影 | 久久久精品国产sm最大网站 | 国产成人人人97超碰超爽8 | 97久久精品无码一区二区 | 亚洲午夜福利在线观看 | 久久久久亚洲精品中文字幕 | 国内少妇偷人精品视频 | 亚洲欧美精品aaaaaa片 | 国内精品一区二区三区不卡 | 亚洲精品久久久久久一区二区 | 人人爽人人爽人人片av亚洲 | 中文字幕无线码免费人妻 | 强伦人妻一区二区三区视频18 | 亚洲 另类 在线 欧美 制服 | 婷婷色婷婷开心五月四房播播 | 国产高潮视频在线观看 | 日本又色又爽又黄的a片18禁 | 中文字幕av伊人av无码av | 丰满少妇高潮惨叫视频 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 黑人玩弄人妻中文在线 | 色妞www精品免费视频 | 特黄特色大片免费播放器图片 | 麻豆精品国产精华精华液好用吗 | 领导边摸边吃奶边做爽在线观看 | 兔费看少妇性l交大片免费 | 伊人久久大香线蕉午夜 | 免费视频欧美无人区码 | 全黄性性激高免费视频 | 成人无码视频在线观看网站 | 国产69精品久久久久app下载 | 乱中年女人伦av三区 | 久久综合九色综合97网 | 亚洲色大成网站www国产 | 色综合视频一区二区三区 | 色综合久久久无码中文字幕 | 99久久久国产精品无码免费 | 亚洲男女内射在线播放 | 两性色午夜免费视频 | 狂野欧美性猛交免费视频 | 国产人妖乱国产精品人妖 | 欧洲极品少妇 | 性啪啪chinese东北女人 | 给我免费的视频在线观看 | 97se亚洲精品一区 | 亚洲午夜无码久久 | 粗大的内捧猛烈进出视频 | a在线亚洲男人的天堂 | 亚洲国产精品一区二区美利坚 | www国产亚洲精品久久久日本 | 日本丰满护士爆乳xxxx | 巨爆乳无码视频在线观看 | 欧美丰满老熟妇xxxxx性 | 曰韩少妇内射免费播放 | 图片区 小说区 区 亚洲五月 | 久久精品国产一区二区三区肥胖 | 久久久婷婷五月亚洲97号色 | 最新国产乱人伦偷精品免费网站 | 在线看片无码永久免费视频 | 亚洲国产一区二区三区在线观看 | 97色伦图片97综合影院 | 人妻无码久久精品人妻 | 日本精品高清一区二区 | 国内精品人妻无码久久久影院蜜桃 | 国产va免费精品观看 | 丰满人妻一区二区三区免费视频 | 午夜熟女插插xx免费视频 | 999久久久国产精品消防器材 | 人人妻人人澡人人爽欧美精品 | 午夜性刺激在线视频免费 | 一本大道久久东京热无码av | 精品一二三区久久aaa片 | 亚洲日韩精品欧美一区二区 | 日本xxxx色视频在线观看免费 | 国产亚洲精品久久久闺蜜 | 亚洲熟妇色xxxxx欧美老妇y | 成人免费视频在线观看 | 成熟人妻av无码专区 | 熟妇人妻激情偷爽文 | 久久国产精品_国产精品 | 女人被爽到呻吟gif动态图视看 | 欧美激情综合亚洲一二区 | 成熟女人特级毛片www免费 | 国产超碰人人爽人人做人人添 | 国产精品无码一区二区桃花视频 | 欧美 日韩 人妻 高清 中文 | 一本久久伊人热热精品中文字幕 | 久久久久久a亚洲欧洲av冫 | 女人被男人爽到呻吟的视频 | 97人妻精品一区二区三区 | 精品国产一区二区三区av 性色 | 久久国产精品偷任你爽任你 | 成人无码精品一区二区三区 | 男人的天堂2018无码 | av无码电影一区二区三区 | 色婷婷欧美在线播放内射 | 2020久久超碰国产精品最新 | 天堂无码人妻精品一区二区三区 | 亚洲 激情 小说 另类 欧美 | 无遮挡国产高潮视频免费观看 | 国产特级毛片aaaaaa高潮流水 | 国产精品va在线观看无码 | 日欧一片内射va在线影院 | 99久久久无码国产aaa精品 | 自拍偷自拍亚洲精品10p | 性欧美疯狂xxxxbbbb | 国产高清不卡无码视频 | 99精品国产综合久久久久五月天 | 精品水蜜桃久久久久久久 | 老熟妇仑乱视频一区二区 | 成人性做爰aaa片免费看 | 国产精品成人av在线观看 | 亚洲色成人中文字幕网站 | 精品亚洲韩国一区二区三区 | 无码成人精品区在线观看 | 99er热精品视频 | 亚洲精品午夜国产va久久成人 | 国产猛烈高潮尖叫视频免费 | 麻豆精品国产精华精华液好用吗 | 国产三级久久久精品麻豆三级 | 久久国产劲爆∧v内射 | 国产成人综合在线女婷五月99播放 | 天天爽夜夜爽夜夜爽 | 国产精品无码永久免费888 | 日日噜噜噜噜夜夜爽亚洲精品 | 5858s亚洲色大成网站www | 久久久无码中文字幕久... | 草草网站影院白丝内射 | 久久久久国色av免费观看性色 | 欧美激情内射喷水高潮 | 久久亚洲中文字幕精品一区 | 色 综合 欧美 亚洲 国产 | 欧美喷潮久久久xxxxx | 精品国产av色一区二区深夜久久 | 色欲av亚洲一区无码少妇 | 久久久久久亚洲精品a片成人 | 国产精品亚洲一区二区三区喷水 | 爆乳一区二区三区无码 | 亚洲欧美日韩成人高清在线一区 | 亚洲一区二区三区含羞草 | √天堂中文官网8在线 | 精品夜夜澡人妻无码av蜜桃 | 欧美 日韩 人妻 高清 中文 | 日本一本二本三区免费 | 99国产精品白浆在线观看免费 | 亚洲成av人综合在线观看 | 啦啦啦www在线观看免费视频 | 免费看少妇作爱视频 | 国产电影无码午夜在线播放 | 久久久无码中文字幕久... | 国内少妇偷人精品视频 | 日韩精品无码一区二区中文字幕 | 乱人伦人妻中文字幕无码 | 青青青爽视频在线观看 | 天天拍夜夜添久久精品 | 成人免费无码大片a毛片 | 久久久久久亚洲精品a片成人 | 久久99精品久久久久久动态图 | 国产69精品久久久久app下载 | 影音先锋中文字幕无码 | 亚洲欧洲日本无在线码 | 三上悠亚人妻中文字幕在线 | 国产无av码在线观看 | 亚洲成a人片在线观看无码3d | 欧美人与牲动交xxxx | 亚洲欧美日韩国产精品一区二区 | 欧美激情综合亚洲一二区 | 婷婷综合久久中文字幕蜜桃三电影 | 最新国产麻豆aⅴ精品无码 | 免费人成在线观看网站 | 久久国产精品萌白酱免费 | 亚洲成av人片天堂网无码】 | 亚洲精品成人av在线 | 97精品人妻一区二区三区香蕉 | 日本乱偷人妻中文字幕 | 中文字幕精品av一区二区五区 | 日日干夜夜干 | 波多野结衣高清一区二区三区 | 国产成人无码a区在线观看视频app | 丰满护士巨好爽好大乳 | 国产无av码在线观看 | 久久熟妇人妻午夜寂寞影院 | 精品无人区无码乱码毛片国产 | 欧美人与禽猛交狂配 | 秋霞成人午夜鲁丝一区二区三区 | 少妇厨房愉情理9仑片视频 | 亚洲国产高清在线观看视频 | 野外少妇愉情中文字幕 | 亚洲一区二区三区香蕉 | 欧美日韩在线亚洲综合国产人 | 成年美女黄网站色大免费全看 | 国产亚洲精品久久久久久国模美 | 秋霞特色aa大片 | 无码人妻精品一区二区三区下载 | 日韩视频 中文字幕 视频一区 | 自拍偷自拍亚洲精品被多人伦好爽 | 全黄性性激高免费视频 | 99久久亚洲精品无码毛片 | 国产尤物精品视频 | 久久精品国产一区二区三区肥胖 | 人人妻人人澡人人爽欧美一区 | 男人扒开女人内裤强吻桶进去 | 中国大陆精品视频xxxx | 日韩精品乱码av一区二区 | 久久久久久av无码免费看大片 | 亚洲第一网站男人都懂 | 女人被爽到呻吟gif动态图视看 | 少妇无套内谢久久久久 | 牛和人交xxxx欧美 | 亚洲中文字幕无码中文字在线 | 麻花豆传媒剧国产免费mv在线 | 亚洲欧美色中文字幕在线 | 天堂а√在线地址中文在线 | 国产激情无码一区二区 | 亚洲熟女一区二区三区 | 久久无码专区国产精品s | 亚洲va中文字幕无码久久不卡 | 麻豆精品国产精华精华液好用吗 | 亚洲中文字幕久久无码 | 1000部啪啪未满十八勿入下载 | 无码av岛国片在线播放 | 国产成人一区二区三区在线观看 | 日韩成人一区二区三区在线观看 | 日韩 欧美 动漫 国产 制服 | 久久综合九色综合97网 | 青青久在线视频免费观看 | 欧美变态另类xxxx | 欧美喷潮久久久xxxxx | 小鲜肉自慰网站xnxx | 中文精品久久久久人妻不卡 | a在线亚洲男人的天堂 | 国产精品视频免费播放 | 久久久久成人片免费观看蜜芽 | 日本在线高清不卡免费播放 | 国产精品理论片在线观看 | 色婷婷综合激情综在线播放 | 未满小14洗澡无码视频网站 | 久久99精品国产.久久久久 | 国产又爽又猛又粗的视频a片 | 日本精品高清一区二区 | 理论片87福利理论电影 | 黑人巨大精品欧美一区二区 | 免费网站看v片在线18禁无码 | 精品亚洲成av人在线观看 | 国产黑色丝袜在线播放 | 秋霞成人午夜鲁丝一区二区三区 | 欧美日本免费一区二区三区 | 妺妺窝人体色www在线小说 | 妺妺窝人体色www婷婷 | 国产香蕉97碰碰久久人人 | 欧美自拍另类欧美综合图片区 | 水蜜桃av无码 | 亚洲国产精品成人久久蜜臀 | 亚洲综合久久一区二区 | 在线天堂新版最新版在线8 | 亚洲欧洲日本综合aⅴ在线 | 国产99久久精品一区二区 | 亚洲精品中文字幕 | 欧美 日韩 人妻 高清 中文 | 欧美日本日韩 | 中文精品久久久久人妻不卡 | 国产97色在线 | 免 | 亚洲日韩乱码中文无码蜜桃臀网站 | 蜜桃视频韩日免费播放 | 国内精品久久久久久中文字幕 | 中文字幕久久久久人妻 | 亚洲国产欧美国产综合一区 | 东京无码熟妇人妻av在线网址 | 精品人妻av区 | 国产精品18久久久久久麻辣 | 欧美性猛交xxxx富婆 | 国产国语老龄妇女a片 | 九月婷婷人人澡人人添人人爽 | 国产口爆吞精在线视频 | 中文字幕亚洲情99在线 | 激情综合激情五月俺也去 | 成在人线av无码免费 | 精品国精品国产自在久国产87 | 国产精品久久精品三级 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 熟妇人妻激情偷爽文 | 久热国产vs视频在线观看 | 国产精品对白交换视频 | 中文字幕无码乱人伦 | 国产精品二区一区二区aⅴ污介绍 | 国产精品亚洲综合色区韩国 | 日本一区二区更新不卡 | 狠狠亚洲超碰狼人久久 | 免费人成网站视频在线观看 | 午夜精品一区二区三区在线观看 | 中文精品无码中文字幕无码专区 | 久久久久久久久蜜桃 | 999久久久国产精品消防器材 | 一本久道高清无码视频 | 国内少妇偷人精品视频免费 | 国产成人无码专区 | 国产精品igao视频网 | 亚洲国产欧美日韩精品一区二区三区 | 亚洲国产一区二区三区在线观看 | 亚洲日韩av一区二区三区中文 | 精品人妻人人做人人爽夜夜爽 | 成人无码视频免费播放 | 国产精品.xx视频.xxtv | 色综合久久久无码中文字幕 | 中文字幕精品av一区二区五区 | 内射后入在线观看一区 | 久久国产36精品色熟妇 | 丰满人妻翻云覆雨呻吟视频 | 婷婷色婷婷开心五月四房播播 | 色 综合 欧美 亚洲 国产 | 日产国产精品亚洲系列 | 日本精品人妻无码免费大全 | 久久久久99精品国产片 | 久久久久人妻一区精品色欧美 | 高清无码午夜福利视频 | 久久久久se色偷偷亚洲精品av | 国产精品亚洲一区二区三区喷水 | 在线 国产 欧美 亚洲 天堂 | 国产农村乱对白刺激视频 | 曰本女人与公拘交酡免费视频 | 亚洲男女内射在线播放 | 精品无人国产偷自产在线 | 一本色道久久综合亚洲精品不卡 | v一区无码内射国产 | 婷婷丁香六月激情综合啪 | 国产精品a成v人在线播放 | 在教室伦流澡到高潮hnp视频 | 综合激情五月综合激情五月激情1 | 扒开双腿吃奶呻吟做受视频 | 国产无遮挡又黄又爽又色 | 蜜桃av抽搐高潮一区二区 | 国产特级毛片aaaaaa高潮流水 | 少妇愉情理伦片bd | 国产成人精品一区二区在线小狼 | 初尝人妻少妇中文字幕 | 久久久久久久女国产乱让韩 | 亚洲一区二区观看播放 | 欧美乱妇无乱码大黄a片 | 蜜桃无码一区二区三区 | 国产偷自视频区视频 | 中文久久乱码一区二区 | 激情亚洲一区国产精品 | 人人妻人人澡人人爽欧美精品 | 精品久久久无码人妻字幂 | 黑人粗大猛烈进出高潮视频 | 国内少妇偷人精品视频免费 | 久久无码中文字幕免费影院蜜桃 | 亚洲精品国产精品乱码不卡 | 色情久久久av熟女人妻网站 | 亚洲色偷偷偷综合网 | 日韩无码专区 | 中文字幕无码免费久久9一区9 | 日产国产精品亚洲系列 | 欧美xxxx黑人又粗又长 | 亚洲欧洲日本综合aⅴ在线 | 亚洲精品综合五月久久小说 | 亚洲一区二区三区 | 欧美日韩人成综合在线播放 | 狠狠色色综合网站 | 亚洲精品国偷拍自产在线观看蜜桃 | 在线 国产 欧美 亚洲 天堂 | 欧洲美熟女乱又伦 | 男女猛烈xx00免费视频试看 | 久久久精品成人免费观看 | 日日躁夜夜躁狠狠躁 | 十八禁视频网站在线观看 | 日日夜夜撸啊撸 | 久久精品成人欧美大片 | 无码毛片视频一区二区本码 | 欧美35页视频在线观看 | 99精品国产综合久久久久五月天 | 国产片av国语在线观看 | 水蜜桃亚洲一二三四在线 | 高潮毛片无遮挡高清免费 | 人人妻人人藻人人爽欧美一区 | 日韩少妇内射免费播放 | 国产精华av午夜在线观看 | 亚洲国产精品无码久久久久高潮 | 亚洲精品国偷拍自产在线观看蜜桃 | 无码av中文字幕免费放 | 人妻少妇被猛烈进入中文字幕 | 国产成人无码一二三区视频 | 我要看www免费看插插视频 | 日本熟妇大屁股人妻 | 亚洲综合另类小说色区 | 亚洲中文字幕成人无码 | 国产色精品久久人妻 | 欧美精品无码一区二区三区 | 欧美熟妇另类久久久久久多毛 | 亚洲中文字幕av在天堂 | 人人澡人摸人人添 | 国产亚洲精品久久久久久久久动漫 | 国产又爽又黄又刺激的视频 | 国产成人精品优优av | 久久伊人色av天堂九九小黄鸭 | 18禁止看的免费污网站 | 亚洲中文字幕久久无码 | 一本久道久久综合狠狠爱 | 性开放的女人aaa片 | 18黄暴禁片在线观看 | 国产午夜无码精品免费看 | a在线观看免费网站大全 | 色情久久久av熟女人妻网站 | 99久久精品国产一区二区蜜芽 | 中文字幕无码免费久久9一区9 | 一个人看的www免费视频在线观看 | 亚洲欧洲日本无在线码 | 亚洲a无码综合a国产av中文 | 激情国产av做激情国产爱 | 精品久久久无码人妻字幂 | 国产精品爱久久久久久久 | 无遮挡啪啪摇乳动态图 | 丝袜人妻一区二区三区 | 亚洲国产一区二区三区在线观看 | 日本肉体xxxx裸交 | 中文精品久久久久人妻不卡 | 欧美freesex黑人又粗又大 | 成年美女黄网站色大免费视频 | 综合人妻久久一区二区精品 | 性做久久久久久久免费看 | 久久综合九色综合欧美狠狠 | 成人性做爰aaa片免费看不忠 | 性欧美牲交xxxxx视频 | 日韩精品无码免费一区二区三区 | 成人无码精品一区二区三区 | 风流少妇按摩来高潮 | 国产精品美女久久久 | 国产乱码精品一品二品 | 人妻aⅴ无码一区二区三区 | 亚洲国产欧美日韩精品一区二区三区 | 99久久婷婷国产综合精品青草免费 | 亚洲s色大片在线观看 | 国产精品久久精品三级 | 小鲜肉自慰网站xnxx | 欧美一区二区三区视频在线观看 | 一本色道久久综合亚洲精品不卡 | 亚洲综合无码一区二区三区 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 51国偷自产一区二区三区 | 中文字幕无码视频专区 | 我要看www免费看插插视频 | 欧美丰满熟妇xxxx | 性啪啪chinese东北女人 | 欧美一区二区三区视频在线观看 | 波多野结衣乳巨码无在线观看 | 久久久国产一区二区三区 | 久久久久se色偷偷亚洲精品av | 成人精品视频一区二区 | v一区无码内射国产 | 色婷婷综合激情综在线播放 | 亚洲精品国产a久久久久久 | 国产成人精品久久亚洲高清不卡 | 日本一卡2卡3卡四卡精品网站 | 在教室伦流澡到高潮hnp视频 | 精品国产麻豆免费人成网站 | 亚洲中文字幕在线无码一区二区 | 日韩欧美中文字幕在线三区 | 色五月五月丁香亚洲综合网 | 大色综合色综合网站 | 日韩亚洲欧美中文高清在线 | 午夜精品久久久内射近拍高清 | 少妇被黑人到高潮喷出白浆 | 丰腴饱满的极品熟妇 | 午夜精品久久久内射近拍高清 | 精品久久久无码人妻字幂 | 国产国语老龄妇女a片 | 少妇人妻偷人精品无码视频 | 强开小婷嫩苞又嫩又紧视频 | 亚洲经典千人经典日产 | 精品久久综合1区2区3区激情 | 亚洲日韩一区二区三区 | 精品人妻人人做人人爽夜夜爽 | 亚洲国产午夜精品理论片 | 免费观看激色视频网站 | 国产99久久精品一区二区 | 久久99国产综合精品 | 免费男性肉肉影院 | 丰满妇女强制高潮18xxxx | 日日摸天天摸爽爽狠狠97 | 久久综合给合久久狠狠狠97色 | 亚洲国产精品无码久久久久高潮 | 精品人妻人人做人人爽 | 亚洲s码欧洲m码国产av | 婷婷五月综合缴情在线视频 | 老子影院午夜精品无码 | 亚洲精品一区二区三区四区五区 | 精品一区二区三区波多野结衣 | 青草视频在线播放 | 荡女精品导航 | 无码人妻久久一区二区三区不卡 | 亚洲精品国偷拍自产在线观看蜜桃 | 欧美精品一区二区精品久久 | 动漫av一区二区在线观看 | 久久久久se色偷偷亚洲精品av | 正在播放老肥熟妇露脸 | 国产精品久久久午夜夜伦鲁鲁 | 国产亚洲美女精品久久久2020 | 亚洲中文字幕无码一久久区 | 国产免费久久精品国产传媒 | 狠狠色噜噜狠狠狠狠7777米奇 | 国产麻豆精品一区二区三区v视界 | 国产成人一区二区三区别 | 97无码免费人妻超级碰碰夜夜 | 欧美猛少妇色xxxxx | 国产精品成人av在线观看 | 亚洲码国产精品高潮在线 | 小鲜肉自慰网站xnxx | 国产人妻大战黑人第1集 | 日韩欧美群交p片內射中文 | 亚洲欧美中文字幕5发布 | 亚无码乱人伦一区二区 | 午夜无码人妻av大片色欲 | 亚洲欧美中文字幕5发布 | 国产亚av手机在线观看 | 激情五月综合色婷婷一区二区 | 三级4级全黄60分钟 | 亚洲一区二区三区国产精华液 | 啦啦啦www在线观看免费视频 | 亚洲欧美综合区丁香五月小说 | 国产人妻久久精品二区三区老狼 | 青草青草久热国产精品 | 激情五月综合色婷婷一区二区 | 久久精品中文闷骚内射 | 欧美人与禽zoz0性伦交 | 人人妻人人澡人人爽欧美一区 | 天堂亚洲2017在线观看 | 日韩人妻少妇一区二区三区 | 成年美女黄网站色大免费视频 | 久久国产精品萌白酱免费 | 久热国产vs视频在线观看 | 国产情侣作爱视频免费观看 | 国产免费观看黄av片 | 18禁黄网站男男禁片免费观看 | 暴力强奷在线播放无码 | 丰满肥臀大屁股熟妇激情视频 | 夜夜影院未满十八勿进 | 无遮挡啪啪摇乳动态图 | 国产乱人伦偷精品视频 | 狠狠色欧美亚洲狠狠色www | 精品一区二区不卡无码av | 日本精品人妻无码77777 天堂一区人妻无码 | 免费人成网站视频在线观看 | 超碰97人人做人人爱少妇 | 人妻少妇精品无码专区动漫 | 精品久久久无码人妻字幂 | 亚洲小说春色综合另类 | 台湾无码一区二区 | 亚洲va中文字幕无码久久不卡 | 色欲综合久久中文字幕网 | 国产黑色丝袜在线播放 | 久久婷婷五月综合色国产香蕉 | 波多野结衣高清一区二区三区 | 国产舌乚八伦偷品w中 | 亚洲乱亚洲乱妇50p | 久久久久久久女国产乱让韩 | 2019nv天堂香蕉在线观看 | 18无码粉嫩小泬无套在线观看 | 亚洲中文字幕在线无码一区二区 | 中文字幕 亚洲精品 第1页 | 欧美三级a做爰在线观看 | 麻豆av传媒蜜桃天美传媒 | 伊人久久大香线焦av综合影院 | 综合网日日天干夜夜久久 | 性开放的女人aaa片 | 成熟人妻av无码专区 | 国产农村乱对白刺激视频 | 国产精品办公室沙发 | 国产乱子伦视频在线播放 | 国产特级毛片aaaaaaa高清 | 少妇高潮一区二区三区99 | 六月丁香婷婷色狠狠久久 | 国产人妻精品一区二区三区 | 麻豆国产丝袜白领秘书在线观看 | 亚洲a无码综合a国产av中文 | 欧美老熟妇乱xxxxx | 欧美刺激性大交 | 国产精品无码mv在线观看 | 国产精品人人爽人人做我的可爱 | 乱人伦人妻中文字幕无码 | 国产成人一区二区三区在线观看 | 亚洲欧美国产精品专区久久 | 日日摸日日碰夜夜爽av | 亚洲理论电影在线观看 | 亚洲综合在线一区二区三区 | 国产后入清纯学生妹 | 欧洲精品码一区二区三区免费看 | 18无码粉嫩小泬无套在线观看 | 人人爽人人澡人人人妻 | 一区二区传媒有限公司 | 狠狠噜狠狠狠狠丁香五月 | 亚洲人亚洲人成电影网站色 | 欧美日本日韩 | 国产绳艺sm调教室论坛 | a在线观看免费网站大全 | 国产av久久久久精东av | 四虎国产精品免费久久 | 亚洲中文字幕成人无码 | 亚洲日本一区二区三区在线 | 亚洲精品国产品国语在线观看 | 日韩 欧美 动漫 国产 制服 | 欧美亚洲日韩国产人成在线播放 | 精品无码国产自产拍在线观看蜜 | 欧美人与牲动交xxxx | 少妇厨房愉情理9仑片视频 | 精品亚洲韩国一区二区三区 | 熟妇人妻无乱码中文字幕 | 性做久久久久久久免费看 | 亚洲の无码国产の无码影院 | 伦伦影院午夜理论片 | 国产热a欧美热a在线视频 | 夜夜躁日日躁狠狠久久av | 黑人巨大精品欧美一区二区 | 国产精品多人p群无码 | av在线亚洲欧洲日产一区二区 | 色欲人妻aaaaaaa无码 | аⅴ资源天堂资源库在线 | 四虎国产精品一区二区 | 综合激情五月综合激情五月激情1 | 久久精品女人的天堂av | aⅴ亚洲 日韩 色 图网站 播放 | 国产成人综合色在线观看网站 | 色窝窝无码一区二区三区色欲 | 麻豆精品国产精华精华液好用吗 | 亚洲精品一区国产 | 国产人成高清在线视频99最全资源 | 日本精品人妻无码免费大全 | 性欧美videos高清精品 | 国产人妻久久精品二区三区老狼 | 精品国产成人一区二区三区 | 精品国产一区二区三区av 性色 | 久久久久av无码免费网 | 无码精品国产va在线观看dvd | 97精品国产97久久久久久免费 | 久久久久99精品国产片 | 一本久久a久久精品vr综合 | 欧美午夜特黄aaaaaa片 | 欧美熟妇另类久久久久久不卡 | 亚洲乱码中文字幕在线 | 波多野结衣aⅴ在线 | 丝袜足控一区二区三区 | 久久久av男人的天堂 | 午夜免费福利小电影 | 亚洲 a v无 码免 费 成 人 a v | 精品厕所偷拍各类美女tp嘘嘘 | 亚洲自偷自拍另类第1页 | 蜜臀aⅴ国产精品久久久国产老师 | 亚洲自偷自偷在线制服 | 狠狠噜狠狠狠狠丁香五月 | 久久无码专区国产精品s | 色综合久久久无码中文字幕 | 亚洲国产精品无码一区二区三区 | 中文无码成人免费视频在线观看 | 精品欧洲av无码一区二区三区 | 国产精品亚洲专区无码不卡 | 中国女人内谢69xxxx | aⅴ亚洲 日韩 色 图网站 播放 | 欧美日韩视频无码一区二区三 | 性色欲网站人妻丰满中文久久不卡 | 377p欧洲日本亚洲大胆 | 日日碰狠狠丁香久燥 | 精品国产aⅴ无码一区二区 | 九九综合va免费看 | 亚洲s色大片在线观看 | 亚洲国产一区二区三区在线观看 | 色婷婷香蕉在线一区二区 | 宝宝好涨水快流出来免费视频 | 国产亚洲人成a在线v网站 | 97久久精品无码一区二区 | 男人扒开女人内裤强吻桶进去 | 亚洲色在线无码国产精品不卡 | 中文字幕乱码亚洲无线三区 | 精品久久久久久人妻无码中文字幕 | 色一情一乱一伦一区二区三欧美 | 欧美亚洲日韩国产人成在线播放 | 无套内射视频囯产 | 欧美性猛交xxxx富婆 | 国产亲子乱弄免费视频 | 人妻体内射精一区二区三四 | 国产午夜福利100集发布 | 久在线观看福利视频 | 天堂а√在线中文在线 | 国产亚洲人成a在线v网站 | 东京热男人av天堂 | 亚洲国产精品久久久久久 | 女人高潮内射99精品 | 少妇一晚三次一区二区三区 | 高清不卡一区二区三区 | 国产精品丝袜黑色高跟鞋 | 国精产品一区二区三区 | 亚洲区小说区激情区图片区 | 中文无码精品a∨在线观看不卡 | 亚洲一区av无码专区在线观看 | 亚洲精品综合一区二区三区在线 | 国产成人无码av在线影院 | 3d动漫精品啪啪一区二区中 | 亚洲国产高清在线观看视频 | 色综合久久久无码中文字幕 | 永久黄网站色视频免费直播 | 国产成人精品视频ⅴa片软件竹菊 | 亚洲国产精品成人久久蜜臀 | 欧美丰满熟妇xxxx性ppx人交 | 天堂在线观看www | 无码纯肉视频在线观看 | 国产69精品久久久久app下载 | 日产精品99久久久久久 | 亚洲中文无码av永久不收费 | 亚洲欧美中文字幕5发布 | 亚洲日韩av一区二区三区四区 | 55夜色66夜色国产精品视频 | 乱人伦人妻中文字幕无码 | 亚洲 欧美 激情 小说 另类 | 国产成人精品一区二区在线小狼 | 在线精品国产一区二区三区 | 国产精品99爱免费视频 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 狠狠色欧美亚洲狠狠色www | 精品国产av色一区二区深夜久久 | 亚洲日韩av片在线观看 | 东京无码熟妇人妻av在线网址 | 人人妻人人澡人人爽人人精品浪潮 | 中国女人内谢69xxxx | 无码av中文字幕免费放 | av无码电影一区二区三区 | 在线观看国产一区二区三区 | 性色欲网站人妻丰满中文久久不卡 | 精品国产国产综合精品 | 综合激情五月综合激情五月激情1 | 欧美放荡的少妇 | 亚洲熟妇自偷自拍另类 | 亚洲七七久久桃花影院 | 国内精品久久毛片一区二区 | 国产欧美熟妇另类久久久 | 97se亚洲精品一区 | 精品午夜福利在线观看 | 午夜福利一区二区三区在线观看 | 亚洲国产精品一区二区美利坚 | 精品人人妻人人澡人人爽人人 | 国产激情精品一区二区三区 | 秋霞成人午夜鲁丝一区二区三区 | 熟女体下毛毛黑森林 | 最新国产麻豆aⅴ精品无码 | 精品一二三区久久aaa片 | 领导边摸边吃奶边做爽在线观看 | 色婷婷综合中文久久一本 | 任你躁在线精品免费 | 东京热一精品无码av | 女人高潮内射99精品 | 国产成人无码av片在线观看不卡 | 青春草在线视频免费观看 | 国产午夜福利100集发布 | 久久国产劲爆∧v内射 | 青青草原综合久久大伊人精品 | aⅴ亚洲 日韩 色 图网站 播放 | 国产偷国产偷精品高清尤物 | 精品少妇爆乳无码av无码专区 | 久久精品无码一区二区三区 | 国产激情精品一区二区三区 | 亚洲精品午夜国产va久久成人 | 动漫av一区二区在线观看 | 国产精品亚洲а∨无码播放麻豆 | 无码任你躁久久久久久久 | 国产午夜无码视频在线观看 | 欧美黑人性暴力猛交喷水 | 国产精品人人妻人人爽 | 国产精品-区区久久久狼 | 性欧美牲交在线视频 | 激情爆乳一区二区三区 | 水蜜桃色314在线观看 | 熟妇人妻无乱码中文字幕 | 久激情内射婷内射蜜桃人妖 | 草草网站影院白丝内射 | 久久精品国产一区二区三区 | 国产精品久久久久无码av色戒 | 久久久久久九九精品久 | 国产无遮挡又黄又爽又色 | 国产色精品久久人妻 | 97无码免费人妻超级碰碰夜夜 | 中文字幕无码视频专区 | 18禁黄网站男男禁片免费观看 | 日韩精品乱码av一区二区 | 夜精品a片一区二区三区无码白浆 | 欧美日本精品一区二区三区 | 国产免费久久精品国产传媒 | 国产特级毛片aaaaaaa高清 | 99精品久久毛片a片 | 麻豆果冻传媒2021精品传媒一区下载 | 成人欧美一区二区三区黑人免费 | 色婷婷香蕉在线一区二区 | 人妻有码中文字幕在线 | 亚洲欧美精品aaaaaa片 | 女人高潮内射99精品 | 清纯唯美经典一区二区 | 久久精品国产大片免费观看 | 人人妻人人澡人人爽欧美一区 | 国产精品美女久久久 | 亚洲色大成网站www | 一个人看的www免费视频在线观看 | 亚洲中文无码av永久不收费 | 亚洲精品鲁一鲁一区二区三区 | 久久综合色之久久综合 | 精品偷拍一区二区三区在线看 | 久久久精品成人免费观看 | 国产黄在线观看免费观看不卡 | 久久综合给久久狠狠97色 | 久久人人爽人人爽人人片ⅴ | 国产精品亚洲一区二区三区喷水 | 任你躁国产自任一区二区三区 | 亚洲国产精品无码一区二区三区 | 久久综合狠狠综合久久综合88 | 无码乱肉视频免费大全合集 | 扒开双腿吃奶呻吟做受视频 | 国产成人精品一区二区在线小狼 | 在线观看国产一区二区三区 | 亚洲の无码国产の无码步美 | 大肉大捧一进一出视频出来呀 | 麻豆人妻少妇精品无码专区 | 国产免费观看黄av片 | 欧美老妇交乱视频在线观看 | 老熟女乱子伦 | 好屌草这里只有精品 | v一区无码内射国产 | 精品午夜福利在线观看 | 色狠狠av一区二区三区 | 亚洲欧美日韩国产精品一区二区 | 18黄暴禁片在线观看 | 学生妹亚洲一区二区 | 久久无码中文字幕免费影院蜜桃 | 好男人社区资源 | 亚洲欧洲日本综合aⅴ在线 | 97夜夜澡人人双人人人喊 | 久久99热只有频精品8 | 精品一区二区三区无码免费视频 | 麻豆国产人妻欲求不满谁演的 | 欧洲vodafone精品性 | 丰满人妻翻云覆雨呻吟视频 | a在线观看免费网站大全 | 中文字幕av伊人av无码av | 激情爆乳一区二区三区 | 国产另类ts人妖一区二区 | 国内精品久久久久久中文字幕 | 高清不卡一区二区三区 | 国产av无码专区亚洲awww | 欧美 日韩 人妻 高清 中文 | 久久99精品国产麻豆蜜芽 | 2019nv天堂香蕉在线观看 | 久久久久av无码免费网 | 99在线 | 亚洲 | 亚洲 a v无 码免 费 成 人 a v | 中文亚洲成a人片在线观看 | 国色天香社区在线视频 | 97精品人妻一区二区三区香蕉 | 国内揄拍国内精品人妻 | yw尤物av无码国产在线观看 | 久久99精品久久久久久动态图 | 亚洲中文字幕在线无码一区二区 | 国产精品久久国产三级国 | 在教室伦流澡到高潮hnp视频 | 无码人妻av免费一区二区三区 | 国产精品无套呻吟在线 | 天堂а√在线地址中文在线 | 99国产欧美久久久精品 | 国内少妇偷人精品视频免费 | 免费观看黄网站 | 人妻少妇精品无码专区二区 | 欧美freesex黑人又粗又大 | 人妻少妇被猛烈进入中文字幕 | 久久天天躁狠狠躁夜夜免费观看 | 天堂亚洲免费视频 | 久久精品国产99久久6动漫 | 欧美人与物videos另类 | 国产午夜无码视频在线观看 | 久久综合给久久狠狠97色 | 国产亚洲欧美日韩亚洲中文色 | 国产一精品一av一免费 | 久久久久久久人妻无码中文字幕爆 | 亚洲欧洲中文日韩av乱码 | 中文字幕中文有码在线 | 中文久久乱码一区二区 | 国产av无码专区亚洲awww | 精品厕所偷拍各类美女tp嘘嘘 | 国产精品国产三级国产专播 | 欧美乱妇无乱码大黄a片 | 精品aⅴ一区二区三区 | 久精品国产欧美亚洲色aⅴ大片 | 人妻中文无码久热丝袜 | 亚洲中文字幕无码一久久区 | 少妇被黑人到高潮喷出白浆 | 亚洲精品中文字幕 | 国产亚洲美女精品久久久2020 | 色一情一乱一伦一视频免费看 | 风流少妇按摩来高潮 | 网友自拍区视频精品 | 日本一卡二卡不卡视频查询 | av无码不卡在线观看免费 | 色婷婷av一区二区三区之红樱桃 | 国产sm调教视频在线观看 | 300部国产真实乱 | 中文字幕人妻丝袜二区 | 国产9 9在线 | 中文 | 激情国产av做激情国产爱 | 天堂久久天堂av色综合 | 2020久久香蕉国产线看观看 | 一二三四在线观看免费视频 | 国产精品对白交换视频 | 国产精品va在线播放 | 国产成人人人97超碰超爽8 | 鲁鲁鲁爽爽爽在线视频观看 | 日本在线高清不卡免费播放 | 97色伦图片97综合影院 | 天干天干啦夜天干天2017 | 丰满护士巨好爽好大乳 | 亚洲伊人久久精品影院 | 色综合天天综合狠狠爱 | 伊人久久婷婷五月综合97色 | 久久精品女人天堂av免费观看 | 国产成人无码av一区二区 | 亚洲男人av香蕉爽爽爽爽 | 兔费看少妇性l交大片免费 | 亚洲a无码综合a国产av中文 | 色婷婷av一区二区三区之红樱桃 | 一区二区传媒有限公司 | 成人欧美一区二区三区黑人免费 | 樱花草在线播放免费中文 | 精品国产精品久久一区免费式 | 老熟妇仑乱视频一区二区 | 中文字幕久久久久人妻 | 熟妇人妻无乱码中文字幕 | 色综合久久中文娱乐网 | 欧美人与禽zoz0性伦交 | 国产av一区二区精品久久凹凸 | 精品国产一区二区三区四区在线看 | 又粗又大又硬又长又爽 | 亚洲无人区午夜福利码高清完整版 | 中文字幕人妻丝袜二区 | 国产情侣作爱视频免费观看 | 亚洲欧美色中文字幕在线 | 天海翼激烈高潮到腰振不止 | 国产人妻人伦精品1国产丝袜 | 无码国产色欲xxxxx视频 | 亚洲区欧美区综合区自拍区 | 亚洲区小说区激情区图片区 | a国产一区二区免费入口 | 2020最新国产自产精品 | 中文字幕色婷婷在线视频 | 亚洲欧洲中文日韩av乱码 | 中文字幕av伊人av无码av | 人人妻人人澡人人爽欧美一区 | 亚洲中文字幕无码中文字在线 | 国产色精品久久人妻 | 中文无码成人免费视频在线观看 | 中文字幕av无码一区二区三区电影 | 麻豆国产人妻欲求不满谁演的 | 曰韩无码二三区中文字幕 | 国产手机在线αⅴ片无码观看 | 亚洲精品午夜国产va久久成人 | av人摸人人人澡人人超碰下载 | 丁香花在线影院观看在线播放 | 国产人妻精品午夜福利免费 | 国产乱子伦视频在线播放 | 精品久久久久久人妻无码中文字幕 | 国产激情无码一区二区 | 亚洲一区二区观看播放 | 日本xxxx色视频在线观看免费 | 色爱情人网站 | 97夜夜澡人人双人人人喊 | 久久精品国产大片免费观看 | 亚洲精品无码国产 | 无码av最新清无码专区吞精 | 成 人影片 免费观看 | 女人高潮内射99精品 | 国产无遮挡又黄又爽免费视频 | 国语自产偷拍精品视频偷 | 欧美日韩综合一区二区三区 | 中文字幕乱码中文乱码51精品 | 少妇邻居内射在线 | 亚洲一区av无码专区在线观看 | 久久综合狠狠综合久久综合88 | 天天av天天av天天透 | 国产绳艺sm调教室论坛 | 曰韩无码二三区中文字幕 | 亚洲色欲色欲天天天www | 九九在线中文字幕无码 | 三上悠亚人妻中文字幕在线 | 国产美女精品一区二区三区 | 精品亚洲成av人在线观看 | 沈阳熟女露脸对白视频 | 亚洲中文字幕乱码av波多ji | 亚洲综合无码一区二区三区 | 久久无码中文字幕免费影院蜜桃 | 久久人妻内射无码一区三区 | 丰满少妇人妻久久久久久 | 中文字幕av日韩精品一区二区 | 4hu四虎永久在线观看 | 波多野42部无码喷潮在线 | 亚洲热妇无码av在线播放 | 噜噜噜亚洲色成人网站 | 欧美老妇交乱视频在线观看 | 日韩精品无码免费一区二区三区 | 国产一区二区三区四区五区加勒比 | 国产情侣作爱视频免费观看 | 国产电影无码午夜在线播放 | 国语精品一区二区三区 | 无码一区二区三区在线观看 | 日日天干夜夜狠狠爱 | av无码电影一区二区三区 | 丰满人妻一区二区三区免费视频 | 亚洲色大成网站www国产 | 人妻少妇精品无码专区动漫 | 国产亚洲欧美日韩亚洲中文色 | 亚洲爆乳精品无码一区二区三区 | 少妇高潮喷潮久久久影院 | av香港经典三级级 在线 | 中文字幕无线码免费人妻 | 久久无码中文字幕免费影院蜜桃 | 亚洲精品午夜国产va久久成人 | 蜜臀av在线播放 久久综合激激的五月天 | 国产成人精品优优av | 国产精品va在线观看无码 | 国产精品a成v人在线播放 | 欧美熟妇另类久久久久久不卡 | 帮老师解开蕾丝奶罩吸乳网站 | 少妇厨房愉情理9仑片视频 | 国产激情无码一区二区 | 精品无码一区二区三区的天堂 | 国产亚洲视频中文字幕97精品 | 欧美人与禽zoz0性伦交 | 偷窥村妇洗澡毛毛多 | 国产成人综合美国十次 | 亚洲精品中文字幕 | 久久综合给久久狠狠97色 | av无码电影一区二区三区 | 久久久久免费看成人影片 | 人人妻人人澡人人爽人人精品 | 日本成熟视频免费视频 | 国产亚洲精品久久久久久久久动漫 | 婷婷丁香六月激情综合啪 | 久久久www成人免费毛片 | 欧美激情内射喷水高潮 | 东京热男人av天堂 | 强开小婷嫩苞又嫩又紧视频 | 欧美精品免费观看二区 | 波多野结衣一区二区三区av免费 | 少妇的肉体aa片免费 | 久久亚洲a片com人成 | 欧美日韩视频无码一区二区三 | 麻豆国产97在线 | 欧洲 | 老子影院午夜伦不卡 | 色老头在线一区二区三区 | 国产黑色丝袜在线播放 | 九九久久精品国产免费看小说 | 熟妇激情内射com | 亚洲日本一区二区三区在线 | 国产人妻久久精品二区三区老狼 | 久久人人爽人人爽人人片av高清 | 亚洲国产精品一区二区第一页 | 亚洲中文字幕无码中字 | 欧美国产日韩久久mv | 国产亚洲视频中文字幕97精品 | 国产人妖乱国产精品人妖 | 男人的天堂2018无码 | 日本丰满熟妇videos | 国产精品99久久精品爆乳 | 婷婷色婷婷开心五月四房播播 | 无码人妻精品一区二区三区下载 | 在线 国产 欧美 亚洲 天堂 | 真人与拘做受免费视频一 | 亚洲一区二区观看播放 | 欧美 丝袜 自拍 制服 另类 | 亚洲人成网站色7799 | 最近中文2019字幕第二页 | 亚洲人成影院在线观看 | 久久天天躁夜夜躁狠狠 | 女人色极品影院 | 久久精品国产99精品亚洲 | 中文字幕av日韩精品一区二区 | 老司机亚洲精品影院无码 | 久久精品人妻少妇一区二区三区 | 特黄特色大片免费播放器图片 | 乱码av麻豆丝袜熟女系列 | 色综合久久久无码中文字幕 | 国产69精品久久久久app下载 | 内射老妇bbwx0c0ck | 色婷婷香蕉在线一区二区 | 鲁大师影院在线观看 | 曰韩无码二三区中文字幕 | 中文字幕乱码人妻二区三区 | 亚洲精品国产精品乱码视色 | 国产精品永久免费视频 | 欧美日韩久久久精品a片 | 久久久精品成人免费观看 | 精品亚洲韩国一区二区三区 | 伦伦影院午夜理论片 | 强辱丰满人妻hd中文字幕 | 中文字幕乱码亚洲无线三区 | 国产熟女一区二区三区四区五区 | 欧美阿v高清资源不卡在线播放 | 久久天天躁夜夜躁狠狠 | 无码福利日韩神码福利片 | 丰满人妻翻云覆雨呻吟视频 | 亚洲小说图区综合在线 | 又湿又紧又大又爽a视频国产 | 国产国产精品人在线视 | 蜜桃av抽搐高潮一区二区 | v一区无码内射国产 | 国产精品第一区揄拍无码 | 色欲久久久天天天综合网精品 | 中文字幕无码热在线视频 | 综合网日日天干夜夜久久 | 亚洲男人av香蕉爽爽爽爽 | 粉嫩少妇内射浓精videos | 免费观看激色视频网站 | 日日碰狠狠躁久久躁蜜桃 | 久久久久久久女国产乱让韩 | 欧美性生交活xxxxxdddd | 日本一区二区三区免费高清 | 99久久精品无码一区二区毛片 | 特大黑人娇小亚洲女 | 日本乱人伦片中文三区 | 欧美色就是色 | 国产欧美熟妇另类久久久 | 99久久人妻精品免费二区 | а√天堂www在线天堂小说 | 99久久人妻精品免费一区 | 无套内射视频囯产 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 亚洲国产欧美在线成人 | 亚洲一区二区三区偷拍女厕 | 东京热无码av男人的天堂 | 男人扒开女人内裤强吻桶进去 | 国产成人无码av片在线观看不卡 | 狠狠cao日日穞夜夜穞av | 国产精品久久久久9999小说 | 丁香啪啪综合成人亚洲 | 日本一区二区更新不卡 | 国产女主播喷水视频在线观看 | 熟妇人妻激情偷爽文 | 久久人妻内射无码一区三区 | 人妻无码久久精品人妻 | 两性色午夜视频免费播放 | 国产农村妇女高潮大叫 | 精品国产aⅴ无码一区二区 | 丰满少妇熟乱xxxxx视频 | 亚洲最大成人网站 | 国产亚洲精品久久久久久大师 | 内射老妇bbwx0c0ck | 亚洲色欲色欲天天天www | 亚洲成av人片天堂网无码】 | 内射巨臀欧美在线视频 | 久久99国产综合精品 | 波多野结衣一区二区三区av免费 | 国产精品无码一区二区三区不卡 | 人妻尝试又大又粗久久 | 无码一区二区三区在线 | 午夜熟女插插xx免费视频 | 亚洲精品成a人在线观看 | 亚洲综合色区中文字幕 | 国产莉萝无码av在线播放 | 亚洲人成网站在线播放942 | 永久免费观看美女裸体的网站 | 亚洲呦女专区 | 青草青草久热国产精品 | 伦伦影院午夜理论片 | 宝宝好涨水快流出来免费视频 | 亚洲成av人片天堂网无码】 | 亚洲精品久久久久久一区二区 | 国产 浪潮av性色四虎 | 人人超人人超碰超国产 | 中文字幕无码乱人伦 | 国产福利视频一区二区 | 成人精品天堂一区二区三区 | 婷婷综合久久中文字幕蜜桃三电影 | 领导边摸边吃奶边做爽在线观看 | 精品偷拍一区二区三区在线看 | 免费无码午夜福利片69 | 久久精品无码一区二区三区 | 日本高清一区免费中文视频 | 国产av一区二区精品久久凹凸 | 欧美日韩视频无码一区二区三 | 人人妻人人澡人人爽欧美一区 | 露脸叫床粗话东北少妇 | 亚洲国产精品成人久久蜜臀 | 久久精品国产一区二区三区肥胖 | 午夜精品一区二区三区的区别 | 亚洲午夜无码久久 | 无码精品人妻一区二区三区av | 国产真人无遮挡作爱免费视频 | 国产特级毛片aaaaaa高潮流水 | 国产人妻精品一区二区三区 | 伊人久久婷婷五月综合97色 | 亚洲色偷偷男人的天堂 | av无码电影一区二区三区 | 亚洲精品综合一区二区三区在线 | 亚洲精品国产第一综合99久久 | 中文字幕av日韩精品一区二区 | 成人无码视频在线观看网站 | 国产亚洲视频中文字幕97精品 | 中文字幕av伊人av无码av | 欧美人妻一区二区三区 | 成人免费视频视频在线观看 免费 | 国产sm调教视频在线观看 | 人妻aⅴ无码一区二区三区 | 中文精品久久久久人妻不卡 | 高潮毛片无遮挡高清免费 | 高清国产亚洲精品自在久久 | 亚洲国产欧美在线成人 | 伊人久久大香线蕉av一区二区 | 欧美日韩一区二区三区自拍 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 中文字幕无码免费久久9一区9 | 波多野结衣av在线观看 | 亚洲成a人一区二区三区 | 免费观看的无遮挡av | 88国产精品欧美一区二区三区 | 亚洲午夜久久久影院 | 国产一精品一av一免费 | 中文字幕无线码 | 99精品国产综合久久久久五月天 | 精品国产福利一区二区 | 欧美性猛交xxxx富婆 | 国产精品人妻一区二区三区四 | 丰满少妇人妻久久久久久 | 麻豆成人精品国产免费 | 久久久精品456亚洲影院 | 少妇人妻av毛片在线看 | 日本一卡2卡3卡四卡精品网站 | 免费人成在线视频无码 | 少妇人妻av毛片在线看 | 日韩精品a片一区二区三区妖精 | 亚洲伊人久久精品影院 | 小泽玛莉亚一区二区视频在线 | 亚洲午夜无码久久 | 人妻人人添人妻人人爱 | 丰满少妇女裸体bbw | 国产精品无码一区二区三区不卡 | 在线成人www免费观看视频 | 7777奇米四色成人眼影 | 永久免费精品精品永久-夜色 | 免费男性肉肉影院 | 男人的天堂2018无码 | 国产一区二区三区四区五区加勒比 | 国产无套内射久久久国产 | 狠狠色噜噜狠狠狠狠7777米奇 | 老熟女重囗味hdxx69 | 亚洲の无码国产の无码影院 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 久久国产精品精品国产色婷婷 | 亚洲一区二区三区香蕉 | 性生交大片免费看l | 99久久久无码国产精品免费 | 国产精品久久精品三级 | 青青青手机频在线观看 | 国产内射老熟女aaaa | 久久精品人人做人人综合试看 | 人妻有码中文字幕在线 | 玩弄中年熟妇正在播放 | 无码人妻丰满熟妇区五十路百度 | 久久精品国产大片免费观看 | 欧美变态另类xxxx | 国产精品免费大片 | 国产精品永久免费视频 | 亚欧洲精品在线视频免费观看 | 国产午夜亚洲精品不卡下载 | 亚洲人成无码网www | 欧洲熟妇精品视频 | 亚洲精品久久久久avwww潮水 | 亚洲成av人综合在线观看 | 欧美一区二区三区 | 免费视频欧美无人区码 | 精品国产一区二区三区四区 | 久久zyz资源站无码中文动漫 | 久久 国产 尿 小便 嘘嘘 | 亚洲第一网站男人都懂 | 精品一区二区三区波多野结衣 | 久久国产精品二国产精品 | 亚洲国产成人a精品不卡在线 | 国产手机在线αⅴ片无码观看 | 亚洲中文无码av永久不收费 | 精品无码国产自产拍在线观看蜜 | 国产精品18久久久久久麻辣 | 麻花豆传媒剧国产免费mv在线 | 久久综合给久久狠狠97色 | 婷婷六月久久综合丁香 | 午夜精品久久久内射近拍高清 | 国产区女主播在线观看 | 在线观看国产午夜福利片 | 精品无码国产自产拍在线观看蜜 | 国产亚洲人成在线播放 | 性欧美大战久久久久久久 | 国产综合久久久久鬼色 | 中文字幕无码免费久久9一区9 | 特大黑人娇小亚洲女 | 日日鲁鲁鲁夜夜爽爽狠狠 | 亚洲爆乳精品无码一区二区三区 | 色老头在线一区二区三区 | 日本一卡二卡不卡视频查询 | 日本精品久久久久中文字幕 | 中文字幕乱妇无码av在线 | 小鲜肉自慰网站xnxx | 人妻少妇被猛烈进入中文字幕 | 麻豆蜜桃av蜜臀av色欲av | 西西人体www44rt大胆高清 | 亚洲一区二区三区 | 精品欧美一区二区三区久久久 | 最新国产乱人伦偷精品免费网站 | 日韩亚洲欧美中文高清在线 | 国产亚洲美女精品久久久2020 | 日本乱偷人妻中文字幕 | 中文无码精品a∨在线观看不卡 | 少妇久久久久久人妻无码 | 亚洲s码欧洲m码国产av | 又黄又爽又色的视频 | 亚洲精品无码国产 | 国产精品亚洲一区二区三区喷水 | 88国产精品欧美一区二区三区 | 久久精品人人做人人综合 | 国产精品99久久精品爆乳 | 曰本女人与公拘交酡免费视频 | a片在线免费观看 | 亚洲乱码中文字幕在线 | a国产一区二区免费入口 | 老太婆性杂交欧美肥老太 | 特黄特色大片免费播放器图片 | 麻豆人妻少妇精品无码专区 | 成人av无码一区二区三区 | aⅴ亚洲 日韩 色 图网站 播放 | 日韩成人一区二区三区在线观看 | 欧美一区二区三区视频在线观看 | 亚洲综合无码一区二区三区 | 亚洲精品美女久久久久久久 | 久久 国产 尿 小便 嘘嘘 | 国产av久久久久精东av | 无码成人精品区在线观看 | 亚洲国产精品久久久天堂 | 乌克兰少妇xxxx做受 | 久久亚洲a片com人成 | 欧美性黑人极品hd | 在线观看免费人成视频 | 欧美35页视频在线观看 | 亚洲中文无码av永久不收费 | 国产精品美女久久久久av爽李琼 | 老子影院午夜精品无码 | 日本大乳高潮视频在线观看 | 激情五月综合色婷婷一区二区 | 亚洲中文无码av永久不收费 | 日韩精品乱码av一区二区 | 青草青草久热国产精品 | 亚洲乱码国产乱码精品精 | 午夜性刺激在线视频免费 | 久久精品女人的天堂av | 国产偷自视频区视频 | 久久99久久99精品中文字幕 | 亚洲中文字幕在线观看 | 日韩欧美成人免费观看 | 国产绳艺sm调教室论坛 | 国产卡一卡二卡三 |