久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

一本读懂BERT

發布時間:2023/12/15 编程问答 45 豆豆
生活随笔 收集整理的這篇文章主要介紹了 一本读懂BERT 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

目錄

一、什么是BERT?

二、BERT安裝

三、預訓練模型

四、運行Fine-Tuning

五、數據讀取源碼閱讀

(一) DataProcessor

(二) MrpcProcessor

六、分詞源碼閱讀

(一)FullTokenizer

(二) WordpieceTokenizer

七、run_classifier.py的main函數

八、BertModel類

九、自己進行Pretraining

十、性能測試

(一)關于max_seq_len對速度的影響

(二)client_batch_size對速度的影響

(三)num_client?對并發性和速度的影響


一、什么是BERT?

首先我們先看官方的介紹:

BERT is a method of pre-training language representations, meaning that we train a general-purpose "language understanding" model on a large text corpus (like Wikipedia), and then use that model for downstream NLP tasks that we care about (like question answering). BERT outperforms previous methods because it is the first?unsupervised,?deeply bidirectional?system for pre-training NLP.

劃重點:the first?unsupervised,?deeply bidirectional?system for pre-training NLP.

無監督意味著BERT可以僅使用純文本語料庫進行訓練,這是非常重要的特性,因為大量純文本數據在網絡上以多種語言公開。

(上面左圖,紅色的是ELMo,右二是BERT)

預訓練方法可以粗略分為不聯系上下文的詞袋模型等和聯系上下文的方法。其中聯系上下文的方法可以進一步分為單向和雙向聯系上下文兩種。諸如NNLM、Skip-Gram、 Glove等詞袋模型,是一種單層Shallow模型,無法聯系上下文;而LSTM、Transformer為典型的可以聯系上下文的深層次網絡模型。

BERT是在現有預訓練工作的基礎上對現有的技術的良好整合與一定的創新。現有的這些模型都是單向或淺雙向的。每個單詞僅使用左側(或右側)的單詞進行語境化。例如,在句子中

I ?have?fallen?in?love with a girl.

單向表示love僅基于I ?have?fallen?in?但不 基于with a girl。之前有一些模型也有可以聯系上下文的,但僅以單層"shallow"的方式。BERT能聯系上下文來表示“love” ----- I ?have?fallen?in ...?with a girl。是一種深層次、雙向的深度神經網絡模型。

使用BERT有兩個階段:預訓練和微調。

Pre-training?硬件成本相當昂貴(4--16個云TPU需4天),但是每種語言都只需要訓練一次(目前的模型主要為英語)。為節省計算資源,谷歌正在發布一些預先培訓的模型。?

Fine-tuning 硬件成本相對較低。文中的實踐可以在單個云TPU上(最多1小時)或者在GPU(幾小時)復現出來。BERT的另一個重要方面是它可以適應許多類型的NLP任務:

  • 句子級別(例如,SST-2)
  • 句子對級別(例如,MultiNLI)
  • 單詞級別(例如,NER)
  • 文本閱讀(例如,SQuAD)

二、BERT安裝

Google提供的BERT代碼在這里,可以直接git clone下來。注意運行它需要Tensorflow 1.11及其以上的版本,低版本的Tensorflow不能運行。

三、預訓練模型

由于從頭開始(from scratch)訓練需要巨大的計算資源,因此Google提供了預訓練的模型(的checkpoint),目前包括英語、漢語和多語言3類模型:

  • BERT-Base, Uncased:12層,768隱藏,12頭,110M參數
  • BERT-Large, Uncased:24層,1024個隱藏,16個頭,340M參數
  • BERT-Base, Cased:12層,768隱藏,12頭,110M參數
  • BERT-Large, Cased:24層,1024個隱藏,16個頭,340M參數
  • BERT-Base, Multilingual Cased (New, recommended):104種語言,12層,768隱藏,12頭,110M參數
  • BERT-Base, Multilingual Uncased (Orig, not recommended)?(不推薦使用,Multilingual Cased代替使用):102種語言,12層,768隱藏,12頭,110M參數
  • BERT-Base, Chinese:中文簡體和繁體,12層,768隱藏,12頭,110M參數

Uncased的意思是在預處理的時候都變成了小寫,而cased是保留大小寫。

這么多版本應該如何選擇呢?

如果我們處理的問題只包含英文,那么我們應該選擇英語的版本(模型大效果好但是參數多訓練慢而且需要更多內存/顯存)。如果我們只處理中文,那么應該使用中文的版本。如果是其他語言就使用多語言的版本。

四、運行Fine-Tuning

對于大部分情況,不需要重新Pretraining。我們要做的只是根據具體的任務進行Fine-Tuning,因此我們首先介紹Fine-Tuning。這里我們已GLUE的MRPC為例子,我們首先需要下載預訓練的模型然后解壓,比如作者解壓后的位置是:

  • /home/chai/data/chinese_L-12_H-768_A-12
  • # 為了方便我們需要定義環境變量
  • export BERT_BASE_DIR=/home/chai/data/chinese_L-12_H-768_A-12
  • 環境變量BERT_BASE_DIR是BERT Pretraining的目錄,它包含如下內容:

  • ~/data/chinese_L-12_H-768_A-12$ ls -1
  • bert_config.json
  • bert_model.ckpt.data-00000-of-00001
  • bert_model.ckpt.index
  • bert_model.ckpt.meta
  • vocab.txt
  • vocab.txt是模型的詞典,這個文件會經常要用到,后面會講到。

    bert_config.json是BERT的配置(超參數),比如網絡的層數,通常我們不需要修改,但是也會經常用到。

    bert_model.ckpt*,這是預訓練好的模型的checkpoint

    Fine-Tuning模型的初始值就是來自于這些文件,然后根據不同的任務進行Fine-Tuning。

    接下來我們需要下載GLUE數據,這可以使用這個腳本下載,可能需要代理才能下載。

    但是大概率下載不下來,能下載的步驟也很麻煩,建議下載網盤的備份版本:
    鏈接:https://pan.baidu.com/s/1-b4I3ocYhiuhu3bpSmCJ_Q
    提取碼:z6mk

    假設下載后的位置是:

  • /home/chai/data/glue_data
  • # 同樣為了方便,我們定義如下的環境變量
  • export GLUE_DIR=/home/chai/data/glue_data
  • GLUE有很多任務,我們來看其中的MRPC任務。

  • chai:~/data/glue_data/MRPC$ head test.tsv
  • index #1 ID #2 ID #1 String #2 String
  • 0 1089874 1089925 PCCW 's chief operating officer , Mike Butcher , and Alex Arena , the chief financial officer , will report directly to Mr So . Current Chief Operating Officer Mike Butcher and Group Chief Financial Officer Alex Arena will report to So .
  • 1 3019446 3019327 The world 's two largest automakers said their U.S. sales declined more than predicted last month as a late summer sales frenzy caused more of an industry backlash than expected . Domestic sales at both GM and No. 2 Ford Motor Co. declined more than predicted as a late summer sales frenzy prompted a larger-than-expected industry backlash .
  • 數據是tsv(tab分割)文件,每行有4個用Tab分割的字段,分別表示index,第一個句子的id,第二個句子的id,第一個句子,第二個句子。也就是輸入兩個句子,模型判斷它們是否同一個意思(Paraphrase)。如果是測試數據,那么第一列就是index(無意義),如果是訓練數據,那么第一列就是0或者1,其中0代表不同的意思而1代表相同意思。接下來就可以運行如下命令來進行Fine-Tuning了:

  • python run_classifier.py \
  • --task_name=MRPC \
  • --do_train=true \
  • --do_eval=true \
  • --data_dir=$GLUE_DIR/MRPC \
  • --vocab_file=$BERT_BASE_DIR/vocab.txt \
  • --bert_config_file=$BERT_BASE_DIR/bert_config.json \
  • --init_checkpoint=$BERT_BASE_DIR/bert_model.ckpt \
  • --max_seq_length=128 \
  • --train_batch_size=8 \
  • --learning_rate=2e-5 \
  • --num_train_epochs=3.0 \
  • --output_dir=/tmp/mrpc_output/
  • 這里簡單的解釋一下參數的含義,在后面的代碼閱讀里讀者可以更加詳細的了解其意義。

    • task_name 任務的名字,這里我們Fine-Tuning MRPC任務
    • do_train 是否訓練,這里為True
    • do_eval 是否在訓練結束后驗證,這里為True
    • data_dir 訓練數據目錄,配置了環境變量后不需要修改,否則填入絕對路徑
    • vocab_file BERT模型的詞典
    • bert_config_file BERT模型的配置文件
    • init_checkpoint Fine-Tuning的初始化參數
    • max_seq_length Token序列的最大長度,這里是128
    • train_batch_size batch大小,對于普通8GB的GPU,最大batch大小只能是8,再大就會OOM
    • learning_rate
    • num_train_epochs 訓練的epoch次數,根據任務進行調整
    • output_dir 訓練得到的模型的存放目錄

    這里最常見的問題就是內存不夠,通常我們的GPU只有8G作用的顯存,因此對于小的模型(bert-base),我們最多使用batchsize=8,而如果要使用bert-large,那么batchsize只能設置成1。運行結束后可能得到類似如下的結果:

  • ***** Eval results *****
  • eval_accuracy = 0.845588
  • eval_loss = 0.505248
  • global_step = 343
  • loss = 0.505248
  • 這說明在驗證集上的準確率是0.84左右。

    五、數據讀取源碼閱讀

    (一) DataProcessor

    我們首先來看數據是怎么讀入的。這是一個抽象基類,定義了get_train_examples、get_dev_examples、get_test_examples和get_labels等4個需要子類實現的方法,另外提供了一個_read_tsv函數用于讀取tsv文件。下面我們通過一個實現類MrpcProcessor來了解怎么實現這個抽象基類,如果讀者想使用自己的數據,那么就需要自己實現一個新的子類。

    (二) MrpcProcessor

    對于MRPC任務,這里定義了MrpcProcessor來基礎DataProcessor。我們來看其中的get_labels和get_train_examples,其余兩個抽象方法是類似的。首先是get_labels,它非常簡單,這任務只有兩個label。

  • def get_labels(self):
  • return ["0", "1"]
  • 接下來是get_train_examples:

  • def get_train_examples(self, data_dir):
  • return self._create_examples(
  • self._read_tsv(os.path.join(data_dir, "train.tsv")), "train")
  • 這個函數首先使用_read_tsv讀入訓練文件train.tsv,然后使用_create_examples函數把每一行變成一個InputExample對象。

  • def _create_examples(self, lines, set_type):
  • examples = []
  • for (i, line) in enumerate(lines):
  • if i == 0:
  • continue
  • guid = "%s-%s" % (set_type, i)
  • text_a = tokenization.convert_to_unicode(line[3])
  • text_b = tokenization.convert_to_unicode(line[4])
  • if set_type == "test":
  • label = "0"
  • else:
  • label = tokenization.convert_to_unicode(line[0])
  • examples.append(
  • InputExample(guid=guid, text_a=text_a, text_b=text_b, label=label))
  • return examples
  • 代碼非常簡單,line是一個list,line[3]和line[4]分別代表兩個句子,如果是訓練集合和驗證集合,那么第一列line[0]就是真正的label,而如果是測試集合,label就沒有意義,隨便賦值成”0”。然后對于所有的字符串都使用tokenization.convert_to_unicode把字符串變成unicode的字符串。這是為了兼容Python2和Python3,因為Python3的str就是unicode,而Python2的str其實是bytearray,Python2卻有一個專門的unicode類型。感興趣的讀者可以參考其實現,不感興趣的可以忽略。

    最終構造出一個InputExample對象來,它有4個屬性:guid、text_a、text_b和label,guid只是個唯一的id而已。text_a代表第一個句子,text_b代表第二個句子,第二個句子可以為None,label代表分類標簽。

    六、分詞源碼閱讀

    分詞是我們需要重點關注的代碼,因為如果想要把BERT產品化,我們需要使用Tensorflow Serving,Tensorflow Serving的輸入是Tensor,把原始輸入變成Tensor一般需要在Client端完成。BERT的分詞是Python的代碼,如果我們使用其它語言的gRPC Client,那么需要用其它語言實現同樣的分詞算法,否則預測時會出現問題。

    這部分代碼需要讀者有Unicode的基礎知識,了解什么是CodePoint,什么是Unicode Block。Python2和Python3的str有什么區別,Python2的unicode類等價于Python3的str等等。不熟悉的讀者可以參考一些資料。

    (一)FullTokenizer

    BERT里分詞主要是由FullTokenizer類來實現的。

  • class FullTokenizer(object):
  • def __init__(self, vocab_file, do_lower_case=True):
  • self.vocab = load_vocab(vocab_file)
  • self.basic_tokenizer = BasicTokenizer(do_lower_case=do_lower_case)
  • self.wordpiece_tokenizer = WordpieceTokenizer(vocab=self.vocab)
  • def tokenize(self, text):
  • split_tokens = []
  • for token in self.basic_tokenizer.tokenize(text):
  • for sub_token in self.wordpiece_tokenizer.tokenize(token):
  • split_tokens.append(sub_token)
  • return split_tokens
  • def convert_tokens_to_ids(self, tokens):
  • return convert_tokens_to_ids(self.vocab, tokens)
  • FullTokenizer的構造函數需要傳入參數詞典vocab_file和do_lower_case。如果我們自己從頭開始訓練模型(后面會介紹),那么do_lower_case決定了我們的某些是否區分大小寫。如果我們只是Fine-Tuning,那么這個參數需要與模型一致,比如模型是chinese_L-12_H-768_A-12,那么do_lower_case就必須為True。

    函數首先調用load_vocab加載詞典,建立詞到id的映射關系。下面是文件chinese_L-12_H-768_A-12/vocab.txt的部分內容

  • ?
  • ?
  • ?
  • the
  • of
  • and
  • in
  • to
  • 接下來是構造BasicTokenizer和WordpieceTokenizer。前者是根據空格等進行普通的分詞,而后者會把前者的結果再細粒度的切分為WordPiece。

    tokenize函數實現分詞,它先調用BasicTokenizer進行分詞,接著調用WordpieceTokenizer把前者的結果再做細粒度切分。下面我們來詳細閱讀這兩個類的代碼。我們首先來看BasicTokenizer的tokenize方法。

  • def tokenize(self, text):
  • text = convert_to_unicode(text)
  • text = self._clean_text(text)
  • # 這是2018年11月1日為了支持多語言和中文增加的代碼。這個代碼也可以用于英語模型,因為在
  • # 英語的訓練數據中基本不會出現中文字符(但是某些wiki里偶爾也可能出現中文)。
  • text = self._tokenize_chinese_chars(text)
  • orig_tokens = whitespace_tokenize(text)
  • split_tokens = []
  • for token in orig_tokens:
  • if self.do_lower_case:
  • token = token.lower()
  • token = self._run_strip_accents(token)
  • split_tokens.extend(self._run_split_on_punc(token))
  • output_tokens = whitespace_tokenize(" ".join(split_tokens))
  • return output_tokens
  • 首先是用convert_to_unicode把輸入變成unicode,這個函數前面也介紹過了。接下來是_clean_text函數,它的作用是去除一些無意義的字符。

  • def _clean_text(self, text):
  • """去除一些無意義的字符以及whitespace"""
  • output = []
  • for char in text:
  • cp = ord(char)
  • if cp == 0 or cp == 0xfffd or _is_control(char):
  • continue
  • if _is_whitespace(char):
  • output.append(" ")
  • else:
  • output.append(char)
  • return "".join(output)
  • codepoint為0的是無意義的字符,0xfffd(U+FFFD)顯示為�,通常用于替換未知的字符。_is_control用于判斷一個字符是否是控制字符(control character),所謂的控制字符就是用于控制屏幕的顯示,比如\n告訴(控制)屏幕把光標移到下一行的開始。讀者可以參考這里。

  • def _is_control(char):
  • """檢查字符char是否是控制字符"""
  • # 回車換行和tab理論上是控制字符,但是這里我們把它認為是whitespace而不是控制字符
  • if char == "\t" or char == "\n" or char == "\r":
  • return False
  • cat = unicodedata.category(char)
  • if cat.startswith("C"):
  • return True
  • return False
  • 這里使用了unicodedata.category這個函數,它返回這個Unicode字符的Category,這里C開頭的都被認為是控制字符,讀者可以參考這里。

    接下來是調用_is_whitespace函數,把whitespace變成空格。

  • def _is_whitespace(char):
  • """Checks whether `chars` is a whitespace character."""
  • # \t, \n, and \r are technically contorl characters but we treat them
  • # as whitespace since they are generally considered as such.
  • if char == " " or char == "\t" or char == "\n" or char == "\r":
  • return True
  • cat = unicodedata.category(char)
  • if cat == "Zs":
  • return True
  • return False
  • 這里把category為Zs的字符以及空格、tab、換行和回車當成whitespace。然后是_tokenize_chinese_chars,用于切分中文,這里的中文分詞很簡單,就是切分成一個一個的漢字。也就是在中文字符的前后加上空格,這樣后續的分詞流程會把沒一個字符當成一個詞。

  • def _tokenize_chinese_chars(self, text):
  • output = []
  • for char in text:
  • cp = ord(char)
  • if self._is_chinese_char(cp):
  • output.append(" ")
  • output.append(char)
  • output.append(" ")
  • else:
  • output.append(char)
  • return "".join(output)
  • 這里的關鍵是調用_is_chinese_char函數,這個函數用于判斷一個unicode字符是否中文字符。

  • def _is_chinese_char(self, cp):
  • if ((cp >= 0x4E00 and cp <= 0x9FFF) or #
  • (cp >= 0x3400 and cp <= 0x4DBF) or #
  • (cp >= 0x20000 and cp <= 0x2A6DF) or #
  • (cp >= 0x2A700 and cp <= 0x2B73F) or #
  • (cp >= 0x2B740 and cp <= 0x2B81F) or #
  • (cp >= 0x2B820 and cp <= 0x2CEAF) or
  • (cp >= 0xF900 and cp <= 0xFAFF) or #
  • (cp >= 0x2F800 and cp <= 0x2FA1F)): #
  • return True
  • return False
  • 很多網上的判斷漢字的正則表達式都只包括4E00-9FA5,但這是不全的,比如???就不再這個范圍內。讀者可以參考這里。

    接下來是使用whitespace進行分詞,這是通過函數whitespace_tokenize來實現的。它直接調用split函數來實現分詞。Python里whitespace包括’\t\n\x0b\x0c\r ‘。然后遍歷每一個詞,如果需要變成小寫,那么先用lower()函數變成小寫,接著調用_run_strip_accents函數去除accent。它的代碼為:

  • def _run_strip_accents(self, text):
  • text = unicodedata.normalize("NFD", text)
  • output = []
  • for char in text:
  • cat = unicodedata.category(char)
  • if cat == "Mn":
  • continue
  • output.append(char)
  • return "".join(output)
  • 它首先調用unicodedata.normalize(“NFD”, text)對text進行歸一化。這個函數有什么作用呢?我們先看一下下面的代碼:

  • >>> s1 = 'café'
  • >>> s2 = 'cafe\u0301'
  • >>> s1, s2
  • ('café', 'café')
  • >>> len(s1), len(s2)
  • (4, 5)
  • >>> s1 == s2
  • False
  • 我們”看到”的é其實可以有兩種表示方法,一是用一個codepoint直接表示”é”,另外一種是用”e”再加上特殊的codepoint U+0301兩個字符來表示。U+0301是COMBINING ACUTE ACCENT,它跟在e之后就變成了”é”。類似的”a\u0301”顯示出來就是”á”。注意:這只是打印出來一模一樣而已,但是在計算機內部的表示它們完全不同的,前者é是一個codepoint,值為0xe9,而后者是兩個codepoint,分別是0x65和0x301。unicodedata.normalize(“NFD”, text)就會把0xe9變成0x65和0x301,比如下面的測試代碼。

    接下來遍歷每一個codepoint,把category為Mn的去掉,比如前面的U+0301,COMBINING ACUTE ACCENT就會被去掉。category為Mn的所有Unicode字符完整列表在這里。

  • s = unicodedata.normalize("NFD", "é")
  • for c in s:
  • print("%#x" %(ord(c)))
  • # 輸出為:
  • 0x65
  • 0x301
  • 處理完大小寫和accent之后得到的Token通過函數_run_split_on_punc再次用標點切分。這個函數會對輸入字符串用標點進行切分,返回一個list,list的每一個元素都是一個char。比如輸入he’s,則輸出是[[h,e], [’],[s]]。代碼很簡單,這里就不贅述。里面它會調用函數_is_punctuation來判斷一個字符是否標點。

  • def _is_punctuation(char):
  • cp = ord(char)
  • # 我們把ASCII里非字母數字都當成標點。
  • # 在Unicode的category定義里, "^", "$", and "`" 等都不是標點,但是我們這里都認為是標點。
  • if ((cp >= 33 and cp <= 47) or (cp >= 58 and cp <= 64) or
  • (cp >= 91 and cp <= 96) or (cp >= 123 and cp <= 126)):
  • return True
  • cat = unicodedata.category(char)
  • # category是P開頭的都是標點,參考https://en.wikipedia.org/wiki/Unicode_character_property
  • if cat.startswith("P"):
  • return True
  • return False
  • (二) WordpieceTokenizer

    WordpieceTokenizer的作用是把詞再切分成更細粒度的WordPiece。關于WordPiece(Byte Pair Encoding)我們之前在機器翻譯部分已經介紹過了,它是一種解決OOV問題的方法,如果不管細節,我們把它看成比詞更小的基本單位就行。對于中文來說,WordpieceTokenizer什么也不干,因為之前的分詞已經是基于字符的了。有興趣的讀者可以參考這個開源項目。一般情況我們不需要自己重新生成WordPiece,使用BERT模型里自帶的就行。

    WordpieceTokenizer的代碼為:

  • def tokenize(self, text):
  • # 把一段文字切分成word piece。這其實是貪心的最大正向匹配算法。
  • # 比如:
  • # input = "unaffable"
  • # output = ["un", "##aff", "##able"]
  • text = convert_to_unicode(text)
  • output_tokens = []
  • for token in whitespace_tokenize(text):
  • chars = list(token)
  • if len(chars) > self.max_input_chars_per_word:
  • output_tokens.append(self.unk_token)
  • continue
  • is_bad = False
  • start = 0
  • sub_tokens = []
  • while start < len(chars):
  • end = len(chars)
  • cur_substr = None
  • while start < end:
  • substr = "".join(chars[start:end])
  • if start > 0:
  • substr = "##" + substr
  • if substr in self.vocab:
  • cur_substr = substr
  • break
  • end -= 1
  • if cur_substr is None:
  • is_bad = True
  • break
  • sub_tokens.append(cur_substr)
  • start = end
  • if is_bad:
  • output_tokens.append(self.unk_token)
  • else:
  • output_tokens.extend(sub_tokens)
  • return output_tokens
  • 代碼有點長,但是很簡單,就是貪心的最大正向匹配。其實為了加速,是可以把詞典加載到一個Double Array Trie里的。我們用一個例子來看代碼的執行過程。比如假設輸入是”unaffable”。我們跳到while循環部分,這是start=0,end=len(chars)=9,也就是先看看unaffable在不在詞典里,如果在,那么直接作為一個WordPiece,如果不再,那么end-=1,也就是看unaffabl在不在詞典里,最終發現”un”在詞典里,把un加到結果里。

    接著start=2,看affable在不在,不在再看affabl,…,最后發現?##aff?在詞典里。注意:##表示這個詞是接著前面的,這樣使得WordPiece切分是可逆的——我們可以恢復出“真正”的詞。

    七、run_classifier.py的main函數

    main函數的主要代碼為:

  • main()
  • bert_config = modeling.BertConfig.from_json_file(FLAGS.bert_config_file)
  • task_name = FLAGS.task_name.lower()
  • processor = processors[task_name]()
  • label_list = processor.get_labels()
  • tokenizer = tokenization.FullTokenizer(
  • vocab_file=FLAGS.vocab_file, do_lower_case=FLAGS.do_lower_case)
  • run_config = tf.contrib.tpu.RunConfig(
  • cluster=tpu_cluster_resolver,
  • master=FLAGS.master,
  • model_dir=FLAGS.output_dir,
  • save_checkpoints_steps=FLAGS.save_checkpoints_steps,
  • tpu_config=tf.contrib.tpu.TPUConfig(
  • iterations_per_loop=FLAGS.iterations_per_loop,
  • num_shards=FLAGS.num_tpu_cores,
  • per_host_input_for_training=is_per_host))
  • train_examples = None
  • num_train_steps = None
  • num_warmup_steps = None
  • if FLAGS.do_train:
  • train_examples = processor.get_train_examples(FLAGS.data_dir)
  • num_train_steps = int(
  • len(train_examples) / FLAGS.train_batch_size * FLAGS.num_train_epochs)
  • num_warmup_steps = int(num_train_steps * FLAGS.warmup_proportion)
  • model_fn = model_fn_builder(
  • bert_config=bert_config,
  • num_labels=len(label_list),
  • init_checkpoint=FLAGS.init_checkpoint,
  • learning_rate=FLAGS.learning_rate,
  • num_train_steps=num_train_steps,
  • num_warmup_steps=num_warmup_steps,
  • use_tpu=FLAGS.use_tpu,
  • use_one_hot_embeddings=FLAGS.use_tpu)
  • # 如果沒有TPU,那么會使用GPU或者CPU
  • estimator = tf.contrib.tpu.TPUEstimator(
  • use_tpu=FLAGS.use_tpu,
  • model_fn=model_fn,
  • config=run_config,
  • train_batch_size=FLAGS.train_batch_size,
  • eval_batch_size=FLAGS.eval_batch_size,
  • predict_batch_size=FLAGS.predict_batch_size)
  • if FLAGS.do_train:
  • train_file = os.path.join(FLAGS.output_dir, "train.tf_record")
  • file_based_convert_examples_to_features(
  • train_examples, label_list, FLAGS.max_seq_length, tokenizer, train_file)
  • train_input_fn = file_based_input_fn_builder(
  • input_file=train_file,
  • seq_length=FLAGS.max_seq_length,
  • is_training=True,
  • drop_remainder=True)
  • estimator.train(input_fn=train_input_fn, max_steps=num_train_steps)
  • if FLAGS.do_eval:
  • eval_examples = processor.get_dev_examples(FLAGS.data_dir)
  • eval_file = os.path.join(FLAGS.output_dir, "eval.tf_record")
  • file_based_convert_examples_to_features(
  • eval_examples, label_list, FLAGS.max_seq_length, tokenizer, eval_file)
  • # This tells the estimator to run through the entire set.
  • eval_steps = None
  • eval_drop_remainder = True if FLAGS.use_tpu else False
  • eval_input_fn = file_based_input_fn_builder(
  • input_file=eval_file,
  • seq_length=FLAGS.max_seq_length,
  • is_training=False,
  • drop_remainder=eval_drop_remainder)
  • result = estimator.evaluate(input_fn=eval_input_fn, steps=eval_steps)
  • if FLAGS.do_predict:
  • predict_examples = processor.get_test_examples(FLAGS.data_dir)
  • predict_file = os.path.join(FLAGS.output_dir, "predict.tf_record")
  • file_based_convert_examples_to_features(predict_examples, label_list,
  • FLAGS.max_seq_length, tokenizer, predict_file)
  • predict_drop_remainder = True if FLAGS.use_tpu else False
  • predict_input_fn = file_based_input_fn_builder(
  • input_file=predict_file,
  • seq_length=FLAGS.max_seq_length,
  • is_training=False,
  • drop_remainder=predict_drop_remainder)
  • result = estimator.predict(input_fn=predict_input_fn)
  • 這里使用的是Tensorflow的Estimator API,這里只介紹訓練部分的代碼。

    首先是通過file_based_convert_examples_to_features函數把輸入的tsv文件變成TFRecord文件,便于Tensorflow處理。

  • train_file = os.path.join(FLAGS.output_dir, "train.tf_record")
  • file_based_convert_examples_to_features(
  • train_examples, label_list, FLAGS.max_seq_length, tokenizer, train_file)
  • def file_based_convert_examples_to_features(
  • examples, label_list, max_seq_length, tokenizer, output_file):
  • writer = tf.python_io.TFRecordWriter(output_file)
  • for (ex_index, example) in enumerate(examples):
  • feature = convert_single_example(ex_index, example, label_list,
  • max_seq_length, tokenizer)
  • def create_int_feature(values):
  • f = tf.train.Feature(int64_list=tf.train.Int64List(value=list(values)))
  • return f
  • features = collections.OrderedDict()
  • features["input_ids"] = create_int_feature(feature.input_ids)
  • features["input_mask"] = create_int_feature(feature.input_mask)
  • features["segment_ids"] = create_int_feature(feature.segment_ids)
  • features["label_ids"] = create_int_feature([feature.label_id])
  • tf_example = tf.train.Example(features=tf.train.Features(feature=features))
  • writer.write(tf_example.SerializeToString())
  • file_based_convert_examples_to_features函數遍歷每一個example(InputExample類的對象)。然后使用convert_single_example函數把每個InputExample對象變成InputFeature。InputFeature就是一個存放特征的對象,它包括input_ids、input_mask、segment_ids和label_id,這4個屬性除了label_id是一個int之外,其它都是int的列表,因此使用create_int_feature函數把它變成tf.train.Feature,而label_id需要構造一個只有一個元素的列表,最后構造tf.train.Example對象,然后寫到TFRecord文件里。后面Estimator的input_fn會用到它。

    這里的最關鍵是convert_single_example函數,讀懂了它就真正明白BERT把輸入表示成向量的過程,所以請讀者仔細閱讀代碼和其中的注釋。

  • def convert_single_example(ex_index, example, label_list, max_seq_length,
  • tokenizer):
  • """把一個`InputExample`對象變成`InputFeatures`."""
  • # label_map把label變成id,這個函數每個example都需要執行一次,其實是可以優化的。
  • # 只需要在可以再外面執行一次傳入即可。
  • label_map = {}
  • for (i, label) in enumerate(label_list):
  • label_map[label] = i
  • tokens_a = tokenizer.tokenize(example.text_a)
  • tokens_b = None
  • if example.text_b:
  • tokens_b = tokenizer.tokenize(example.text_b)
  • if tokens_b:
  • # 如果有b,那么需要保留3個特殊Token[CLS], [SEP]和[SEP]
  • # 如果兩個序列加起來太長,就需要去掉一些。
  • _truncate_seq_pair(tokens_a, tokens_b, max_seq_length - 3)
  • else:
  • # 沒有b則只需要保留[CLS]和[SEP]兩個特殊字符
  • # 如果Token太多,就直接截取掉后面的部分。
  • if len(tokens_a) > max_seq_length - 2:
  • tokens_a = tokens_a[0:(max_seq_length - 2)]
  • # BERT的約定是:
  • # (a) 對于兩個序列:
  • # tokens: [CLS] is this jack ##son ##ville ? [SEP] no it is not . [SEP]
  • # type_ids: 0 0 0 0 0 0 0 0 1 1 1 1 1 1
  • # (b) 對于一個序列:
  • # tokens: [CLS] the dog is hairy . [SEP]
  • # type_ids: 0 0 0 0 0 0 0
  • #
  • # 這里"type_ids"用于區分一個Token是來自第一個還是第二個序列
  • # 對于type=0和type=1,模型會學習出兩個Embedding向量。
  • # 雖然理論上這是不必要的,因為[SEP]隱式的確定了它們的邊界。
  • # 但是實際加上type后,模型能夠更加容易的知道這個詞屬于那個序列。
  • #
  • # 對于分類任務,[CLS]對應的向量可以被看成 "sentence vector"
  • # 注意:一定需要Fine-Tuning之后才有意義
  • tokens = []
  • segment_ids = []
  • tokens.append("[CLS]")
  • segment_ids.append(0)
  • for token in tokens_a:
  • tokens.append(token)
  • segment_ids.append(0)
  • tokens.append("[SEP]")
  • segment_ids.append(0)
  • if tokens_b:
  • for token in tokens_b:
  • tokens.append(token)
  • segment_ids.append(1)
  • tokens.append("[SEP]")
  • segment_ids.append(1)
  • input_ids = tokenizer.convert_tokens_to_ids(tokens)
  • # mask是1表示是"真正"的Token,0則是Padding出來的。在后面的Attention時會通過tricky的技巧讓
  • # 模型不能attend to這些padding出來的Token上。
  • input_mask = [1] * len(input_ids)
  • # padding使得序列長度正好等于max_seq_length
  • while len(input_ids) < max_seq_length:
  • input_ids.append(0)
  • input_mask.append(0)
  • segment_ids.append(0)
  • label_id = label_map[example.label]
  • feature = InputFeatures(
  • input_ids=input_ids,
  • input_mask=input_mask,
  • segment_ids=segment_ids,
  • label_id=label_id)
  • return feature
  • 如果兩個Token序列的長度太長,那么需要去掉一些,這會用到_truncate_seq_pair函數:

  • def _truncate_seq_pair(tokens_a, tokens_b, max_length):
  • while True:
  • total_length = len(tokens_a) + len(tokens_b)
  • if total_length <= max_length:
  • break
  • if len(tokens_a) > len(tokens_b):
  • tokens_a.pop()
  • else:
  • tokens_b.pop()
  • 這個函數很簡單,如果兩個序列的長度小于max_length,那么不用truncate,否則在tokens_a和tokens_b中選擇長的那個序列來pop掉最后面的那個Token,這樣的結果是使得兩個Token序列一樣長(或者最多a比b多一個Token)。對于Estimator API來說,最重要的是實現model_fn和input_fn。我們先看input_fn,它是由file_based_input_fn_builder構造出來的。代碼如下:

  • def file_based_input_fn_builder(input_file, seq_length, is_training,
  • drop_remainder):
  • name_to_features = {
  • "input_ids": tf.FixedLenFeature([seq_length], tf.int64),
  • "input_mask": tf.FixedLenFeature([seq_length], tf.int64),
  • "segment_ids": tf.FixedLenFeature([seq_length], tf.int64),
  • "label_ids": tf.FixedLenFeature([], tf.int64),
  • }
  • def _decode_record(record, name_to_features):
  • # 把record decode成TensorFlow example.
  • example = tf.parse_single_example(record, name_to_features)
  • # tf.Example只支持tf.int64,但是TPU只支持tf.int32.
  • # 因此我們把所有的int64變成int32.
  • for name in list(example.keys()):
  • t = example[name]
  • if t.dtype == tf.int64:
  • t = tf.to_int32(t)
  • example[name] = t
  • return example
  • def input_fn(params):
  • batch_size = params["batch_size"]
  • # 對于訓練來說,我們會重復的讀取和shuffling
  • # 對于驗證和測試,我們不需要shuffling和并行讀取。
  • d = tf.data.TFRecordDataset(input_file)
  • if is_training:
  • d = d.repeat()
  • d = d.shuffle(buffer_size=100)
  • d = d.apply(
  • tf.contrib.data.map_and_batch(
  • lambda record: _decode_record(record, name_to_features),
  • batch_size=batch_size,
  • drop_remainder=drop_remainder))
  • return d
  • return input_fn
  • 這個函數返回一個函數input_fn。這個input_fn函數首先從文件得到TFRecordDataset,然后根據是否訓練來shuffle和重復讀取。然后用applay函數對每一個TFRecord進行map_and_batch,調用_decode_record函數對record進行parsing。從而把TFRecord的一條Record變成tf.Example對象,這個對象包括了input_ids等4個用于訓練的Tensor。

    接下來是model_fn_builder,它用于構造Estimator使用的model_fn。下面是它的主要代碼(一些無關的log和TPU相關代碼去掉了):

  • def model_fn_builder(bert_config, num_labels, init_checkpoint, learning_rate,
  • num_train_steps, num_warmup_steps, use_tpu,
  • use_one_hot_embeddings):
  • # 注意:在model_fn的設計里,features表示輸入(特征),而labels表示輸出
  • # 但是這里的實現有點不好,把label也放到了features里。
  • def model_fn(features, labels, mode, params):
  • input_ids = features["input_ids"]
  • input_mask = features["input_mask"]
  • segment_ids = features["segment_ids"]
  • label_ids = features["label_ids"]
  • is_training = (mode == tf.estimator.ModeKeys.TRAIN)
  • # 創建Transformer模型,這是最主要的代碼。
  • (total_loss, per_example_loss, logits, probabilities) = create_model(
  • bert_config, is_training, input_ids, input_mask, segment_ids, label_ids,
  • num_labels, use_one_hot_embeddings)
  • tvars = tf.trainable_variables()
  • # 從checkpoint恢復參數
  • if init_checkpoint:
  • (assignment_map, initialized_variable_names) =
  • modeling.get_assignment_map_from_checkpoint(tvars, init_checkpoint)
  • tf.train.init_from_checkpoint(init_checkpoint, assignment_map)
  • output_spec = None
  • # 構造訓練的spec
  • if mode == tf.estimator.ModeKeys.TRAIN:
  • train_op = optimization.create_optimizer(total_loss, learning_rate,
  • num_train_steps, num_warmup_steps, use_tpu)
  • output_spec = tf.contrib.tpu.TPUEstimatorSpec(
  • mode=mode,
  • loss=total_loss,
  • train_op=train_op,
  • scaffold_fn=scaffold_fn)
  • # 構造eval的spec
  • elif mode == tf.estimator.ModeKeys.EVAL:
  • def metric_fn(per_example_loss, label_ids, logits):
  • predictions = tf.argmax(logits, axis=-1, output_type=tf.int32)
  • accuracy = tf.metrics.accuracy(label_ids, predictions)
  • loss = tf.metrics.mean(per_example_loss)
  • return {
  • "eval_accuracy": accuracy,
  • "eval_loss": loss,
  • }
  • eval_metrics = (metric_fn, [per_example_loss, label_ids, logits])
  • output_spec = tf.contrib.tpu.TPUEstimatorSpec(
  • mode=mode,
  • loss=total_loss,
  • eval_metrics=eval_metrics,
  • scaffold_fn=scaffold_fn)
  • # 預測的spec
  • else:
  • output_spec = tf.contrib.tpu.TPUEstimatorSpec(
  • mode=mode,
  • predictions=probabilities,
  • scaffold_fn=scaffold_fn)
  • return output_spec
  • return model_fn
  • 這里的代碼都是一些boilerplate代碼,沒什么可說的,最重要的是調用create_model”真正”的創建Transformer模型。下面我們來看這個函數的代碼:

  • def create_model(bert_config, is_training, input_ids, input_mask, segment_ids,
  • labels, num_labels, use_one_hot_embeddings):
  • model = modeling.BertModel(
  • config=bert_config,
  • is_training=is_training,
  • input_ids=input_ids,
  • input_mask=input_mask,
  • token_type_ids=segment_ids,
  • use_one_hot_embeddings=use_one_hot_embeddings)
  • # 在這里,我們是用來做分類,因此我們只需要得到[CLS]最后一層的輸出。
  • # 如果需要做序列標注,那么可以使用model.get_sequence_output()
  • # 默認參數下它返回的output_layer是[8, 768]
  • output_layer = model.get_pooled_output()
  • # 默認是768
  • hidden_size = output_layer.shape[-1].value
  • output_weights = tf.get_variable(
  • "output_weights", [num_labels, hidden_size],
  • initializer=tf.truncated_normal_initializer(stddev=0.02))
  • output_bias = tf.get_variable(
  • "output_bias", [num_labels], initializer=tf.zeros_initializer())
  • with tf.variable_scope("loss"):
  • if is_training:
  • # 0.1的概率會dropout
  • output_layer = tf.nn.dropout(output_layer, keep_prob=0.9)
  • # 對[CLS]輸出的768的向量再做一個線性變換,輸出為label的個數。得到logits
  • logits = tf.matmul(output_layer, output_weights, transpose_b=True)
  • logits = tf.nn.bias_add(logits, output_bias)
  • probabilities = tf.nn.softmax(logits, axis=-1)
  • log_probs = tf.nn.log_softmax(logits, axis=-1)
  • one_hot_labels = tf.one_hot(labels, depth=num_labels, dtype=tf.float32)
  • per_example_loss = -tf.reduce_sum(one_hot_labels * log_probs, axis=-1)
  • loss = tf.reduce_mean(per_example_loss)
  • return (loss, per_example_loss, logits, probabilities)
  • 上面代碼調用modeling.BertModel得到BERT模型,然后使用它的get_pooled_output方法得到[CLS]最后一層的輸出,這是一個768(默認參數下)的向量,然后就是常規的接一個全連接層得到logits,然后softmax得到概率,之后就可以根據真實的分類標簽計算loss。我們這時候發現關鍵的代碼是modeling.BertModel。

    八、BertModel類

    這個類是最終定義模型的地方,代碼比較多,我們會按照執行和調用的順序逐個閱讀。因為文字只能線性描述,但是函數的調用關系很復雜,所以建議讀者對照源代碼來閱讀。

    我們首先來看這個類的用法,把它當成黑盒。前面的create_model也用到了BertModel,這里我們在詳細的介紹一下。下面的代碼演示了BertModel的使用方法:

  • # 假設輸入已經分詞并且變成WordPiece的id了?
  • # 輸入是[2, 3],表示batch=2,max_seq_length=3
  • input_ids = tf.constant([[31, 51, 99], [15, 5, 0]])
  • # 第一個例子實際長度為3,第二個例子長度為2
  • input_mask = tf.constant([[1, 1, 1], [1, 1, 0]])
  • # 第一個例子的3個Token中前兩個屬于句子1,第三個屬于句子2
  • # 而第二個例子的第一個Token屬于句子1,第二個屬于句子2(第三個是padding)
  • token_type_ids = tf.constant([[0, 0, 1], [0, 1, 0]])
  • # 創建一個BertConfig,詞典大小是32000,Transformer的隱單元個數是512
  • # 8個Transformer block,每個block有6個Attention Head,全連接層的隱單元是1024
  • config = modeling.BertConfig(vocab_size=32000, hidden_size=512,
  • num_hidden_layers=8, num_attention_heads=6, intermediate_size=1024)
  • # 創建BertModel
  • model = modeling.BertModel(config=config, is_training=True,
  • input_ids=input_ids, input_mask=input_mask, token_type_ids=token_type_ids)
  • # label_embeddings用于把512的隱單元變換成logits
  • label_embeddings = tf.get_variable(...)
  • # 得到[CLS]最后一層輸出,把它看成句子的Embedding(Encoding)
  • pooled_output = model.get_pooled_output()
  • # 計算logits
  • logits = tf.matmul(pooled_output, label_embeddings)
  • 接下來我們看一下BertModel的構造函數:

  • def __init__(self,
  • config,
  • is_training,
  • input_ids,
  • input_mask=None,
  • token_type_ids=None,
  • use_one_hot_embeddings=True,
  • scope=None):
  • # Args:
  • # config: `BertConfig` 對象
  • # is_training: bool 表示訓練還是eval,是會影響dropout
  • # input_ids: int32 Tensor shape是[batch_size, seq_length]
  • # input_mask: (可選) int32 Tensor shape是[batch_size, seq_length]
  • # token_type_ids: (可選) int32 Tensor shape是[batch_size, seq_length]
  • # use_one_hot_embeddings: (可選) bool
  • # 如果True,使用矩陣乘法實現提取詞的Embedding;否則用tf.embedding_lookup()
  • # 對于TPU,使用前者更快,對于GPU和CPU,后者更快。
  • # scope: (可選) 變量的scope。默認是"bert"
  • # Raises:
  • # ValueError: 如果config或者輸入tensor的shape有問題就會拋出這個異常
  • config = copy.deepcopy(config)
  • if not is_training:
  • config.hidden_dropout_prob = 0.0
  • config.attention_probs_dropout_prob = 0.0
  • input_shape = get_shape_list(input_ids, expected_rank=2)
  • batch_size = input_shape[0]
  • seq_length = input_shape[1]
  • if input_mask is None:
  • input_mask = tf.ones(shape=[batch_size, seq_length], dtype=tf.int32)
  • if token_type_ids is None:
  • token_type_ids = tf.zeros(shape=[batch_size, seq_length], dtype=tf.int32)
  • with tf.variable_scope(scope, default_name="bert"):
  • with tf.variable_scope("embeddings"):
  • # 詞的Embedding lookup
  • (self.embedding_output, self.embedding_table) = embedding_lookup(
  • input_ids=input_ids,
  • vocab_size=config.vocab_size,
  • embedding_size=config.hidden_size,
  • initializer_range=config.initializer_range,
  • word_embedding_name="word_embeddings",
  • use_one_hot_embeddings=use_one_hot_embeddings)
  • # 增加位置embeddings和token type的embeddings,然后是
  • # layer normalize和dropout。
  • self.embedding_output = embedding_postprocessor(
  • input_tensor=self.embedding_output,
  • use_token_type=True,
  • token_type_ids=token_type_ids,
  • token_type_vocab_size=config.type_vocab_size,
  • token_type_embedding_name="token_type_embeddings",
  • use_position_embeddings=True,
  • position_embedding_name="position_embeddings",
  • initializer_range=config.initializer_range,
  • max_position_embeddings=config.max_position_embeddings,
  • dropout_prob=config.hidden_dropout_prob)
  • with tf.variable_scope("encoder"):
  • # 把shape為[batch_size, seq_length]的2D mask變成
  • # shape為[batch_size, seq_length, seq_length]的3D mask
  • # 以便后向的attention計算,讀者可以對比之前的Transformer的代碼。
  • attention_mask = create_attention_mask_from_input_mask(
  • input_ids, input_mask)
  • # 多個Transformer模型stack起來。
  • # all_encoder_layers是一個list,長度為num_hidden_layers(默認12),每一層對應一個值。
  • # 每一個值都是一個shape為[batch_size, seq_length, hidden_size]的tensor。
  • self.all_encoder_layers = transformer_model(
  • input_tensor=self.embedding_output,
  • attention_mask=attention_mask,
  • hidden_size=config.hidden_size,
  • num_hidden_layers=config.num_hidden_layers,
  • num_attention_heads=config.num_attention_heads,
  • intermediate_size=config.intermediate_size,
  • intermediate_act_fn=get_activation(config.hidden_act),
  • hidden_dropout_prob=config.hidden_dropout_prob,
  • attention_probs_dropout_prob=config.attention_probs_dropout_prob,
  • initializer_range=config.initializer_range,
  • do_return_all_layers=True)
  • # `sequence_output` 是最后一層的輸出,shape是[batch_size, seq_length, hidden_size]
  • self.sequence_output = self.all_encoder_layers[-1]
  • with tf.variable_scope("pooler"):
  • # 取最后一層的第一個時刻[CLS]對應的tensor
  • # 從[batch_size, seq_length, hidden_size]變成[batch_size, hidden_size]
  • # sequence_output[:, 0:1, :]得到的是[batch_size, 1, hidden_size]
  • # 我們需要用squeeze把第二維去掉。
  • first_token_tensor = tf.squeeze(self.sequence_output[:, 0:1, :], axis=1)
  • # 然后再加一個全連接層,輸出仍然是[batch_size, hidden_size]
  • self.pooled_output = tf.layers.dense(
  • first_token_tensor,
  • config.hidden_size,
  • activation=tf.tanh,
  • kernel_initializer=create_initializer(config.initializer_range))
  • 代碼很長,但是其實很簡單。首先是對config(BertConfig對象)深度拷貝一份,如果不是訓練,那么把dropout都置為零。如果輸入的input_mask為None,那么構造一個shape合適值全為1的input_mask,這表示輸入都是”真實”的輸入,沒有padding的內容。如果token_type_ids為None,那么構造一個shape合適并且值全為0的tensor,表示所有Token都屬于第一個句子。

    然后使用embedding_lookup函數構造詞的Embedding,用embedding_postprocessor函數增加位置embeddings和token type的embeddings,然后是layer normalize和dropout。

    接著用transformer_model函數構造多個Transformer SubLayer然后stack在一起。得到的all_encoder_layers是一個list,長度為num_hidden_layers(默認12),每一層對應一個值。 每一個值都是一個shape為[batch_size, seq_length, hidden_size]的tensor。

    self.sequence_output是最后一層的輸出,shape是[batch_size, seq_length, hidden_size]。first_token_tensor是第一個Token([CLS])最后一層的輸出,shape是[batch_size, hidden_size]。最后對self.sequence_output再加一個線性變換,得到的tensor仍然是[batch_size, hidden_size]。

    embedding_lookup函數用于實現Embedding,它有兩種方式:使用tf.nn.embedding_lookup和矩陣乘法(one_hot_embedding=True)。前者適合于CPU與GPU,后者適合于TPU。所謂的one-hot方法是把輸入id表示成one-hot的向量,當然輸入id序列就變成了one-hot的矩陣,然后乘以Embedding矩陣。而tf.nn.embedding_lookup是直接用id當下標提取Embedding矩陣對應的向量。一般認為tf.nn.embedding_lookup更快一點,但是TPU上似乎不是這樣,作者也不太了解原因是什么,猜測可能是TPU的沒有快捷的辦法提取矩陣的某一行/列?

  • def embedding_lookup(input_ids,
  • vocab_size,
  • embedding_size=128,
  • initializer_range=0.02,
  • word_embedding_name="word_embeddings",
  • use_one_hot_embeddings=False):
  • """word embedding
  • Args:
  • input_ids: int32 Tensor shape為[batch_size, seq_length],表示WordPiece的id
  • vocab_size: int 詞典大小,需要于vocab.txt一致
  • embedding_size: int embedding后向量的大小
  • initializer_range: float 隨機初始化的范圍
  • word_embedding_name: string 名字,默認是"word_embeddings"
  • use_one_hot_embeddings: bool 如果True,使用one-hot方法實現embedding;否則使用
  • `tf.nn.embedding_lookup()`. TPU適合用One hot方法。
  • Returns:
  • float Tensor shape為[batch_size, seq_length, embedding_size]
  • """
  • # 這個函數假設輸入的shape是[batch_size, seq_length, num_inputs]
  • # 普通的Embeding一般假設輸入是[batch_size, seq_length],
  • # 增加num_inputs這一維度的目的是為了一次計算更多的Embedding
  • # 但目前的代碼并沒有用到,傳入的input_ids都是2D的,這增加了代碼的閱讀難度。
  • # 如果輸入是[batch_size, seq_length],
  • # 那么我們把它 reshape成[batch_size, seq_length, 1]
  • if input_ids.shape.ndims == 2:
  • input_ids = tf.expand_dims(input_ids, axis=[-1])
  • # 構造Embedding矩陣,shape是[vocab_size, embedding_size]
  • embedding_table = tf.get_variable(
  • name=word_embedding_name,
  • shape=[vocab_size, embedding_size],
  • initializer=create_initializer(initializer_range))
  • if use_one_hot_embeddings:
  • flat_input_ids = tf.reshape(input_ids, [-1])
  • one_hot_input_ids = tf.one_hot(flat_input_ids, depth=vocab_size)
  • output = tf.matmul(one_hot_input_ids, embedding_table)
  • else:
  • output = tf.nn.embedding_lookup(embedding_table, input_ids)
  • input_shape = get_shape_list(input_ids)
  • # 把輸出從[batch_size, seq_length, num_inputs(這里總是1), embedding_size]
  • # 變成[batch_size, seq_length, num_inputs*embedding_size]
  • output = tf.reshape(output,
  • input_shape[0:-1] + [input_shape[-1] * embedding_size])
  • return (output, embedding_table)
  • Embedding本來很簡單,使用tf.nn.embedding_lookup就行了。但是為了優化TPU,它還支持使用矩陣乘法來提取詞向量。另外為了提高效率,輸入的shape除了[batch_size, seq_length]外,它還增加了一個維度變成[batch_size, seq_length, num_inputs]。如果不關心細節,我們把這個函數當成黑盒,那么我們只需要知道它的輸入input_ids(可能)是[8, 128],輸出是[8, 128, 768]就可以了。

    函數embedding_postprocessor的代碼如下,需要注意的部分都有注釋。

  • def embedding_postprocessor(input_tensor,
  • use_token_type=False,
  • token_type_ids=None,
  • token_type_vocab_size=16,
  • token_type_embedding_name="token_type_embeddings",
  • use_position_embeddings=True,
  • position_embedding_name="position_embeddings",
  • initializer_range=0.02,
  • max_position_embeddings=512,
  • dropout_prob=0.1):
  • """對word embedding之后的tensor進行后處理
  • Args:
  • input_tensor: float Tensor shape為[batch_size, seq_length, embedding_size]
  • use_token_type: bool 是否增加`token_type_ids`的Embedding
  • token_type_ids: (可選) int32 Tensor shape為[batch_size, seq_length]
  • 如果`use_token_type`為True則必須有值
  • token_type_vocab_size: int Token Type的個數,通常是2
  • token_type_embedding_name: string Token type Embedding的名字
  • use_position_embeddings: bool 是否使用位置Embedding
  • position_embedding_name: string,位置embedding的名字
  • initializer_range: float,初始化范圍
  • max_position_embeddings: int,位置編碼的最大長度,可以比最大序列長度大,但是不能比它小。
  • dropout_prob: float. Dropout 概率
  • Returns:
  • float tensor shape和`input_tensor`相同。
  • """
  • input_shape = get_shape_list(input_tensor, expected_rank=3)
  • batch_size = input_shape[0]
  • seq_length = input_shape[1]
  • width = input_shape[2]
  • if seq_length > max_position_embeddings:
  • raise ValueError("The seq length (%d) cannot be greater than "
  • "`max_position_embeddings` (%d)" %
  • (seq_length, max_position_embeddings))
  • output = input_tensor
  • if use_token_type:
  • if token_type_ids is None:
  • raise ValueError("`token_type_ids` must be specified if"
  • "`use_token_type` is True.")
  • token_type_table = tf.get_variable(
  • name=token_type_embedding_name,
  • shape=[token_type_vocab_size, width],
  • initializer=create_initializer(initializer_range))
  • # 因為Token Type通常很小(2),所以直接用矩陣乘法(one-hot)更快
  • flat_token_type_ids = tf.reshape(token_type_ids, [-1])
  • one_hot_ids = tf.one_hot(flat_token_type_ids, depth=token_type_vocab_size)
  • token_type_embeddings = tf.matmul(one_hot_ids, token_type_table)
  • token_type_embeddings = tf.reshape(token_type_embeddings,
  • [batch_size, seq_length, width])
  • output += token_type_embeddings
  • if use_position_embeddings:
  • full_position_embeddings = tf.get_variable(
  • name=position_embedding_name,
  • shape=[max_position_embeddings, width],
  • initializer=create_initializer(initializer_range))
  • # 位置Embedding是可以學習的參數,因此我們創建一個[max_position_embeddings, width]的矩陣
  • # 但實際輸入的序列可能并不會到max_position_embeddings(512),為了提高訓練速度,
  • # 我們通過tf.slice取出[0, 1, 2, ..., seq_length-1]的部分,。
  • if seq_length < max_position_embeddings:
  • position_embeddings = tf.slice(full_position_embeddings, [0, 0],
  • [seq_length, -1])
  • else:
  • position_embeddings = full_position_embeddings
  • num_dims = len(output.shape.as_list())
  • # word embedding之后的tensor是[batch_size, seq_length, width]
  • # 因為位置編碼是與輸入內容無關,它的shape總是[seq_length, width]
  • # 我們無法把位置Embedding加到word embedding上
  • # 因此我們需要擴展位置編碼為[1, seq_length, width]
  • # 然后就能通過broadcasting加上去了。
  • position_broadcast_shape = []
  • for _ in range(num_dims - 2):
  • position_broadcast_shape.append(1)
  • position_broadcast_shape.extend([seq_length, width])
  • # 默認情況下position_broadcast_shape為[1, 128, 768]
  • position_embeddings = tf.reshape(position_embeddings,
  • position_broadcast_shape)
  • # output是[8, 128, 768], position_embeddings是[1, 128, 768]
  • # 因此可以通過broadcasting相加。
  • output += position_embeddings
  • output = layer_norm_and_dropout(output, dropout_prob)
  • return output
  • create_attention_mask_from_input_mask函數用于構造Mask矩陣。我們先了解一下它的作用然后再閱讀其代碼。比如調用它時的兩個參數是是:

  • input_ids=[
  • [1,2,3,0,0],
  • [1,3,5,6,1]
  • ]
  • input_mask=[
  • [1,1,1,0,0],
  • [1,1,1,1,1]
  • ]
  • 表示這個batch有兩個樣本,第一個樣本長度為3(padding了2個0),第二個樣本長度為5。在計算Self-Attention的時候每一個樣本都需要一個Attention Mask矩陣,表示每一個時刻可以attend to的范圍,1表示可以attend,0表示是padding的(或者在機器翻譯的Decoder中不能attend to未來的詞)。對于上面的輸入,這個函數返回一個shape是[2, 5, 5]的tensor,分別代表兩個Attention Mask矩陣。

  • [
  • [1, 1, 1, 0, 0], #它表示第1個詞可以attend to 3個詞
  • [1, 1, 1, 0, 0], #它表示第2個詞可以attend to 3個詞
  • [1, 1, 1, 0, 0], #它表示第3個詞可以attend to 3個詞
  • [1, 1, 1, 0, 0], #無意義,因為輸入第4個詞是padding的0
  • [1, 1, 1, 0, 0] #無意義,因為輸入第5個詞是padding的0
  • ]
  • [
  • [1, 1, 1, 1, 1], # 它表示第1個詞可以attend to 5個詞
  • [1, 1, 1, 1, 1], # 它表示第2個詞可以attend to 5個詞
  • [1, 1, 1, 1, 1], # 它表示第3個詞可以attend to 5個詞
  • [1, 1, 1, 1, 1], # 它表示第4個詞可以attend to 5個詞
  • [1, 1, 1, 1, 1] # 它表示第5個詞可以attend to 5個詞
  • ]
  • 了解了它的用途之后下面的代碼就很好理解了。

  • def create_attention_mask_from_input_mask(from_tensor, to_mask):
  • """Create 3D attention mask from a 2D tensor mask.
  • Args:
  • from_tensor: 2D or 3D Tensor,shape為[batch_size, from_seq_length, ...].
  • to_mask: int32 Tensor, shape為[batch_size, to_seq_length].
  • Returns:
  • float Tensor,shape為[batch_size, from_seq_length, to_seq_length].
  • """
  • from_shape = get_shape_list(from_tensor, expected_rank=[2, 3])
  • batch_size = from_shape[0]
  • from_seq_length = from_shape[1]
  • to_shape = get_shape_list(to_mask, expected_rank=2)
  • to_seq_length = to_shape[1]
  • to_mask = tf.cast(
  • tf.reshape(to_mask, [batch_size, 1, to_seq_length]), tf.float32)
  • # `broadcast_ones` = [batch_size, from_seq_length, 1]
  • broadcast_ones = tf.ones(
  • shape=[batch_size, from_seq_length, 1], dtype=tf.float32)
  • # Here we broadcast along two dimensions to create the mask.
  • mask = broadcast_ones * to_mask
  • return mask
  • 比如前面舉的例子,broadcast_ones的shape是[2, 5, 1],值全是1,而to_mask是

  • to_mask=[
  • [1,1,1,0,0],
  • [1,1,1,1,1]
  • ]
  • shape是[2, 5],reshape為[2, 1, 5]。然后broadcast_ones * to_mask就得到[2, 5, 5],正是我們需要的兩個Mask矩陣,讀者可以驗證。注意[batch, A, B]*[batch, B, C]=[batch, A, C],我們可以認為是batch個[A, B]的矩陣乘以batch個[B, C]的矩陣。接下來就是transformer_model函數了,它就是構造Transformer的核心代碼。

  • def transformer_model(input_tensor,
  • attention_mask=None,
  • hidden_size=768,
  • num_hidden_layers=12,
  • num_attention_heads=12,
  • intermediate_size=3072,
  • intermediate_act_fn=gelu,
  • hidden_dropout_prob=0.1,
  • attention_probs_dropout_prob=0.1,
  • initializer_range=0.02,
  • do_return_all_layers=False):
  • """Multi-headed, multi-layer的Transformer,參考"Attention is All You Need".
  • 這基本上是和原始Transformer encoder相同的代碼。
  • 原始論文為:
  • https://arxiv.org/abs/1706.03762
  • Also see:
  • https://github.com/tensorflow/tensor2tensor/blob/master/tensor2tensor/models/transformer.py
  • Args:
  • input_tensor: float Tensor,shape為[batch_size, seq_length, hidden_size]
  • attention_mask: (可選) int32 Tensor,shape [batch_size, seq_length,
  • seq_length], 1表示可以attend to,0表示不能。
  • hidden_size: int. Transformer隱單元個數
  • num_hidden_layers: int. 有多少個SubLayer
  • num_attention_heads: int. Transformer Attention Head個數。
  • intermediate_size: int. 全連接層的隱單元個數
  • 總結

    以上是生活随笔為你收集整理的一本读懂BERT的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    日本一区二区三区免费高清 | 久久国语露脸国产精品电影 | 无码精品国产va在线观看dvd | 一二三四在线观看免费视频 | 美女黄网站人色视频免费国产 | 扒开双腿疯狂进出爽爽爽视频 | 国产亚洲精品久久久久久 | 小泽玛莉亚一区二区视频在线 | 伊人久久大香线蕉午夜 | 亚洲色大成网站www国产 | 性欧美熟妇videofreesex | 亚洲成a人一区二区三区 | 久久99热只有频精品8 | 性啪啪chinese东北女人 | 日产精品99久久久久久 | 人人妻人人澡人人爽精品欧美 | 巨爆乳无码视频在线观看 | 国产区女主播在线观看 | 国产香蕉尹人综合在线观看 | 人妻少妇精品无码专区二区 | 欧美第一黄网免费网站 | 18禁止看的免费污网站 | 东京一本一道一二三区 | 人妻无码久久精品人妻 | 夜精品a片一区二区三区无码白浆 | 77777熟女视频在线观看 а天堂中文在线官网 | 亚洲第一网站男人都懂 | 精品夜夜澡人妻无码av蜜桃 | 国产一区二区三区四区五区加勒比 | 学生妹亚洲一区二区 | 成人片黄网站色大片免费观看 | 18精品久久久无码午夜福利 | 少妇性l交大片欧洲热妇乱xxx | 精品无码一区二区三区爱欲 | 激情五月综合色婷婷一区二区 | 亚洲性无码av中文字幕 | 丝袜足控一区二区三区 | 久久天天躁夜夜躁狠狠 | 高潮毛片无遮挡高清免费 | av无码久久久久不卡免费网站 | av在线亚洲欧洲日产一区二区 | 国产精品亚洲一区二区三区喷水 | 亚洲人成网站在线播放942 | 日产精品高潮呻吟av久久 | 伊人久久大香线蕉午夜 | 欧美变态另类xxxx | 波多野42部无码喷潮在线 | 无人区乱码一区二区三区 | 国产亚洲人成在线播放 | 日韩欧美中文字幕公布 | 自拍偷自拍亚洲精品10p | 成人欧美一区二区三区黑人免费 | 国模大胆一区二区三区 | 国产亲子乱弄免费视频 | 狠狠亚洲超碰狼人久久 | 熟妇人妻无码xxx视频 | 久久五月精品中文字幕 | 久久久久久av无码免费看大片 | 国产人妻久久精品二区三区老狼 | 久久婷婷五月综合色国产香蕉 | 少妇一晚三次一区二区三区 | 国产精品亚洲а∨无码播放麻豆 | www国产亚洲精品久久久日本 | 99久久婷婷国产综合精品青草免费 | 亚洲国产成人a精品不卡在线 | 国产欧美熟妇另类久久久 | 兔费看少妇性l交大片免费 | 日本大乳高潮视频在线观看 | 玩弄人妻少妇500系列视频 | 亚无码乱人伦一区二区 | 97人妻精品一区二区三区 | 少妇高潮喷潮久久久影院 | 国产 浪潮av性色四虎 | 四虎国产精品一区二区 | 在线观看免费人成视频 | 十八禁真人啪啪免费网站 | 国产成人无码区免费内射一片色欲 | 玩弄中年熟妇正在播放 | 激情内射亚州一区二区三区爱妻 | 中文字幕亚洲情99在线 | 精品国精品国产自在久国产87 | 国产欧美精品一区二区三区 | av无码电影一区二区三区 | 99久久99久久免费精品蜜桃 | 扒开双腿吃奶呻吟做受视频 | 久久视频在线观看精品 | 性欧美大战久久久久久久 | 国产激情无码一区二区app | 久久国产精品_国产精品 | 无码人妻黑人中文字幕 | 精品国产精品久久一区免费式 | 1000部啪啪未满十八勿入下载 | 亚洲精品鲁一鲁一区二区三区 | 午夜福利一区二区三区在线观看 | 特级做a爰片毛片免费69 | 最新国产麻豆aⅴ精品无码 | 中文字幕 亚洲精品 第1页 | 樱花草在线播放免费中文 | 一本久久a久久精品vr综合 | 国产凸凹视频一区二区 | 国色天香社区在线视频 | 99久久精品日本一区二区免费 | 国产亚洲美女精品久久久2020 | yw尤物av无码国产在线观看 | 国产偷国产偷精品高清尤物 | 人人妻人人澡人人爽欧美精品 | 亚洲日韩一区二区三区 | 国产精品国产自线拍免费软件 | 久久99精品久久久久久动态图 | 又紧又大又爽精品一区二区 | 男女超爽视频免费播放 | 在线播放亚洲第一字幕 | 亚洲一区二区三区播放 | 国产欧美熟妇另类久久久 | 亚洲国产综合无码一区 | 麻豆国产人妻欲求不满谁演的 | 久久精品成人欧美大片 | 日本乱偷人妻中文字幕 | 欧美人与禽猛交狂配 | 正在播放东北夫妻内射 | 亚洲一区二区三区无码久久 | 亚洲爆乳精品无码一区二区三区 | 亚洲天堂2017无码 | 精品久久久久香蕉网 | 波多野结衣av在线观看 | 精品熟女少妇av免费观看 | 日韩人妻无码一区二区三区久久99 | 亚洲爆乳无码专区 | 麻豆精品国产精华精华液好用吗 | 一本大道伊人av久久综合 | 疯狂三人交性欧美 | 奇米影视7777久久精品人人爽 | 亚洲国产成人a精品不卡在线 | 亚洲中文字幕在线无码一区二区 | 久久久久久a亚洲欧洲av冫 | 亚洲国产日韩a在线播放 | 无码任你躁久久久久久久 | 奇米影视888欧美在线观看 | 久久www免费人成人片 | 人人妻人人澡人人爽人人精品浪潮 | 人妻体内射精一区二区三四 | 日韩 欧美 动漫 国产 制服 | 午夜熟女插插xx免费视频 | 2020久久香蕉国产线看观看 | 色一情一乱一伦一区二区三欧美 | 亚洲国产av美女网站 | 丝袜美腿亚洲一区二区 | 51国偷自产一区二区三区 | 国产av剧情md精品麻豆 | 亚洲日韩av一区二区三区四区 | 亚洲综合在线一区二区三区 | 香蕉久久久久久av成人 | 无码av中文字幕免费放 | 久久国产精品精品国产色婷婷 | 久久久久久a亚洲欧洲av冫 | 亚洲色欲色欲欲www在线 | 色婷婷久久一区二区三区麻豆 | 亚洲国产高清在线观看视频 | 亚洲欧洲日本综合aⅴ在线 | 国产又爽又黄又刺激的视频 | 999久久久国产精品消防器材 | 欧美人与善在线com | 中文字幕无码热在线视频 | 黑人巨大精品欧美黑寡妇 | 啦啦啦www在线观看免费视频 | 在线天堂新版最新版在线8 | 欧美色就是色 | 国产电影无码午夜在线播放 | 欧美一区二区三区视频在线观看 | 亚洲成av人影院在线观看 | 无遮挡国产高潮视频免费观看 | 中文字幕+乱码+中文字幕一区 | 亚洲精品一区二区三区四区五区 | 成人精品视频一区二区三区尤物 | 亚洲一区二区三区国产精华液 | 国产性生大片免费观看性 | 欧美国产日产一区二区 | 国产精品久久久久无码av色戒 | 久久精品国产99精品亚洲 | 东京热一精品无码av | 国产情侣作爱视频免费观看 | 亚洲啪av永久无码精品放毛片 | 国产精品无码mv在线观看 | 国产suv精品一区二区五 | 无码精品人妻一区二区三区av | 亚洲精品一区二区三区在线观看 | 乌克兰少妇xxxx做受 | 色婷婷久久一区二区三区麻豆 | 国产成人无码av片在线观看不卡 | 日本护士xxxxhd少妇 | 性色av无码免费一区二区三区 | 国产亚洲精品久久久ai换 | 久久无码中文字幕免费影院蜜桃 | 国产乱人伦偷精品视频 | 日韩无套无码精品 | 中国女人内谢69xxxx | 亚洲欧洲日本综合aⅴ在线 | 色诱久久久久综合网ywww | 国产国产精品人在线视 | 国产在线aaa片一区二区99 | av小次郎收藏 | 久久久久亚洲精品男人的天堂 | 亚洲爆乳精品无码一区二区三区 | 亚洲国产精品一区二区美利坚 | 亚洲精品国偷拍自产在线麻豆 | 国产成人无码av一区二区 | a国产一区二区免费入口 | 人人澡人人妻人人爽人人蜜桃 | 波多野结衣 黑人 | 国产一精品一av一免费 | 奇米影视7777久久精品 | 狠狠色丁香久久婷婷综合五月 | 国产人妻精品一区二区三区 | 十八禁视频网站在线观看 | 最新国产乱人伦偷精品免费网站 | 久久zyz资源站无码中文动漫 | 欧美 丝袜 自拍 制服 另类 | 亚洲中文字幕在线观看 | 精品成在人线av无码免费看 | 国内揄拍国内精品少妇国语 | 麻豆精产国品 | 国内揄拍国内精品少妇国语 | 亚洲精品一区二区三区大桥未久 | 国产精品福利视频导航 | 色 综合 欧美 亚洲 国产 | 欧美日韩亚洲国产精品 | 在线播放无码字幕亚洲 | 国产片av国语在线观看 | 国产av剧情md精品麻豆 | 全黄性性激高免费视频 | 国产乱人伦偷精品视频 | 欧美色就是色 | 色一情一乱一伦 | 日日碰狠狠丁香久燥 | 日本一区二区更新不卡 | 国产乱码精品一品二品 | 国产激情无码一区二区 | 牲欲强的熟妇农村老妇女 | 亚洲国产欧美在线成人 | 一区二区传媒有限公司 | 久久综合久久自在自线精品自 | 人妻中文无码久热丝袜 | 亚洲成色www久久网站 | 亚洲色偷偷男人的天堂 | 99久久人妻精品免费一区 | 无码人妻精品一区二区三区下载 | 亚洲综合色区中文字幕 | 免费国产黄网站在线观看 | 久久精品国产一区二区三区肥胖 | 国产精品va在线观看无码 | 亚洲精品一区二区三区四区五区 | 亚洲乱码中文字幕在线 | 中文字幕乱妇无码av在线 | 亚洲精品中文字幕久久久久 | 国产性生大片免费观看性 | 国产另类ts人妖一区二区 | 国产真人无遮挡作爱免费视频 | 帮老师解开蕾丝奶罩吸乳网站 | 亚洲色欲色欲天天天www | 熟女俱乐部五十路六十路av | 精品亚洲成av人在线观看 | 国产午夜视频在线观看 | 亚洲一区二区三区国产精华液 | 亚洲中文字幕乱码av波多ji | 人妻少妇精品视频专区 | 国产精品丝袜黑色高跟鞋 | 少妇久久久久久人妻无码 | 国产精品美女久久久 | 日日麻批免费40分钟无码 | 丰满人妻一区二区三区免费视频 | 亚洲精品中文字幕久久久久 | 狠狠色丁香久久婷婷综合五月 | 精品久久综合1区2区3区激情 | 少妇性俱乐部纵欲狂欢电影 | 色婷婷久久一区二区三区麻豆 | 色综合视频一区二区三区 | 国产精品无套呻吟在线 | 欧美精品无码一区二区三区 | 日本大乳高潮视频在线观看 | 国产精品国产自线拍免费软件 | 国产精品高潮呻吟av久久4虎 | 中文字幕乱码人妻无码久久 | 粉嫩少妇内射浓精videos | 日本精品高清一区二区 | √8天堂资源地址中文在线 | 久久国产36精品色熟妇 | 99久久婷婷国产综合精品青草免费 | 98国产精品综合一区二区三区 | 国内精品久久久久久中文字幕 | 99久久亚洲精品无码毛片 | 在线观看国产一区二区三区 | 亚洲精品一区国产 | 狠狠色噜噜狠狠狠7777奇米 | 98国产精品综合一区二区三区 | 欧美熟妇另类久久久久久多毛 | 成 人 免费观看网站 | 强辱丰满人妻hd中文字幕 | 国产人妻精品一区二区三区 | 老熟女重囗味hdxx69 | 亚洲熟妇色xxxxx欧美老妇 | 国产在线一区二区三区四区五区 | 日本肉体xxxx裸交 | 亚洲一区二区三区四区 | 好男人社区资源 | 成熟人妻av无码专区 | 99久久久国产精品无码免费 | 老熟妇乱子伦牲交视频 | 中文字幕人成乱码熟女app | 麻豆果冻传媒2021精品传媒一区下载 | 无码精品国产va在线观看dvd | 亚洲精品综合一区二区三区在线 | 亚洲中文字幕成人无码 | 中文字幕日产无线码一区 | 欧美猛少妇色xxxxx | 最新版天堂资源中文官网 | 亚洲人成网站免费播放 | 亚洲中文字幕在线无码一区二区 | 亚洲 欧美 激情 小说 另类 | 国产精品久免费的黄网站 | 国产莉萝无码av在线播放 | 国产精品无码久久av | 亚洲精品一区二区三区大桥未久 | 国产成人一区二区三区在线观看 | 久久99精品久久久久久动态图 | 99久久精品午夜一区二区 | 午夜肉伦伦影院 | 无码一区二区三区在线 | 亚洲 日韩 欧美 成人 在线观看 | 久久久久久久女国产乱让韩 | 亚洲男人av香蕉爽爽爽爽 | 欧美人与禽猛交狂配 | 久久国产劲爆∧v内射 | 蜜臀aⅴ国产精品久久久国产老师 | 成年美女黄网站色大免费视频 | 麻花豆传媒剧国产免费mv在线 | 久久精品国产日本波多野结衣 | 兔费看少妇性l交大片免费 | 麻豆国产丝袜白领秘书在线观看 | 亚洲 a v无 码免 费 成 人 a v | 日韩人妻系列无码专区 | 爆乳一区二区三区无码 | 国产色视频一区二区三区 | 国产成人久久精品流白浆 | 人人澡人人妻人人爽人人蜜桃 | 久久亚洲中文字幕无码 | 偷窥日本少妇撒尿chinese | 国产亚洲欧美日韩亚洲中文色 | 欧美老人巨大xxxx做受 | 国内精品久久久久久中文字幕 | 国产精品亚洲lv粉色 | 日本免费一区二区三区最新 | 亚洲日本va中文字幕 | 久久99精品国产麻豆 | 国精品人妻无码一区二区三区蜜柚 | 国产精品久久久久久亚洲影视内衣 | 欧美日韩一区二区免费视频 | 十八禁视频网站在线观看 | 国产亚洲精品精品国产亚洲综合 | 国产特级毛片aaaaaaa高清 | 天天躁夜夜躁狠狠是什么心态 | 久久久国产精品无码免费专区 | 国产黑色丝袜在线播放 | 婷婷丁香五月天综合东京热 | 男女下面进入的视频免费午夜 | 久久久久免费精品国产 | 国产亚洲精品久久久久久久久动漫 | 97精品国产97久久久久久免费 | 欧美丰满熟妇xxxx性ppx人交 | 久久综合给合久久狠狠狠97色 | 动漫av一区二区在线观看 | 国产卡一卡二卡三 | 久久综合给合久久狠狠狠97色 | 国产xxx69麻豆国语对白 | 国产日产欧产精品精品app | 国模大胆一区二区三区 | 久久午夜夜伦鲁鲁片无码免费 | 国产va免费精品观看 | 国产亚洲日韩欧美另类第八页 | 久久久无码中文字幕久... | 亚洲成av人在线观看网址 | 免费中文字幕日韩欧美 | 精品久久久无码中文字幕 | 亚洲a无码综合a国产av中文 | 亚洲色欲久久久综合网东京热 | 国产九九九九九九九a片 | 麻豆精品国产精华精华液好用吗 | 88国产精品欧美一区二区三区 | 无码乱肉视频免费大全合集 | 国产亚av手机在线观看 | 成 人 网 站国产免费观看 | 亚洲熟熟妇xxxx | 欧美激情综合亚洲一二区 | 在线播放无码字幕亚洲 | 思思久久99热只有频精品66 | 国产一区二区三区四区五区加勒比 | 日韩精品乱码av一区二区 | 欧美野外疯狂做受xxxx高潮 | 99re在线播放 | 精品欧美一区二区三区久久久 | 波多野结衣一区二区三区av免费 | 免费国产黄网站在线观看 | 岛国片人妻三上悠亚 | 丰满人妻翻云覆雨呻吟视频 | 欧美性色19p | 国产免费无码一区二区视频 | 久久久精品欧美一区二区免费 | 欧美老妇交乱视频在线观看 | 蜜臀aⅴ国产精品久久久国产老师 | 国产在线一区二区三区四区五区 | 三级4级全黄60分钟 | 国产亚洲欧美日韩亚洲中文色 | 国产综合在线观看 | 国产精品自产拍在线观看 | 国产特级毛片aaaaaaa高清 | av无码久久久久不卡免费网站 | 亚洲成色www久久网站 | 欧美人妻一区二区三区 | 帮老师解开蕾丝奶罩吸乳网站 | 国色天香社区在线视频 | 正在播放东北夫妻内射 | 久久久婷婷五月亚洲97号色 | 男人的天堂av网站 | 蜜臀aⅴ国产精品久久久国产老师 | 偷窥日本少妇撒尿chinese | 久久人妻内射无码一区三区 | 亚洲熟妇色xxxxx欧美老妇y | 无码成人精品区在线观看 | 红桃av一区二区三区在线无码av | 亚洲一区二区三区国产精华液 | 搡女人真爽免费视频大全 | 亚洲成a人片在线观看无码3d | 亚洲色www成人永久网址 | 爱做久久久久久 | 未满成年国产在线观看 | 亚洲无人区一区二区三区 | 高清无码午夜福利视频 | 精品无码av一区二区三区 | 最近免费中文字幕中文高清百度 | 小鲜肉自慰网站xnxx | 日本爽爽爽爽爽爽在线观看免 | 日韩少妇内射免费播放 | 国产精品久久久久久久9999 | 无码人妻丰满熟妇区五十路百度 | 风流少妇按摩来高潮 | 国产精品丝袜黑色高跟鞋 | 55夜色66夜色国产精品视频 | 少妇无码一区二区二三区 | 人人爽人人澡人人高潮 | 色一情一乱一伦 | 欧美丰满少妇xxxx性 | 国产性生交xxxxx无码 | 久久 国产 尿 小便 嘘嘘 | 麻豆精品国产精华精华液好用吗 | 国产av久久久久精东av | 亚洲中文无码av永久不收费 | 国产精品a成v人在线播放 | 亚洲 激情 小说 另类 欧美 | 图片小说视频一区二区 | 国产成人无码区免费内射一片色欲 | 欧美性生交xxxxx久久久 | √天堂中文官网8在线 | 人人妻人人澡人人爽人人精品 | 麻豆国产丝袜白领秘书在线观看 | 夜夜影院未满十八勿进 | 亚洲呦女专区 | 亚洲男女内射在线播放 | 亚洲成在人网站无码天堂 | 成人片黄网站色大片免费观看 | 99国产精品白浆在线观看免费 | 欧美精品国产综合久久 | 十八禁真人啪啪免费网站 | 人人超人人超碰超国产 | 亚洲人亚洲人成电影网站色 | 免费乱码人妻系列无码专区 | 欧美日韩一区二区综合 | 亚洲 激情 小说 另类 欧美 | 俺去俺来也www色官网 | 国产精品va在线观看无码 | a国产一区二区免费入口 | 露脸叫床粗话东北少妇 | 人人爽人人澡人人高潮 | 精品一区二区不卡无码av | 天天爽夜夜爽夜夜爽 | 国产莉萝无码av在线播放 | 中文毛片无遮挡高清免费 | 少妇激情av一区二区 | 久久久久久九九精品久 | 狠狠色噜噜狠狠狠狠7777米奇 | 精品国产精品久久一区免费式 | 国产激情艳情在线看视频 | 国产熟妇另类久久久久 | 国产手机在线αⅴ片无码观看 | 婷婷六月久久综合丁香 | 中文字幕无码免费久久9一区9 | 国产国语老龄妇女a片 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 午夜精品久久久久久久 | 国产av人人夜夜澡人人爽麻豆 | 99re在线播放 | 国内老熟妇对白xxxxhd | 亚洲自偷自拍另类第1页 | 日日摸天天摸爽爽狠狠97 | 亚洲国产精品毛片av不卡在线 | 日韩精品乱码av一区二区 | 少妇人妻av毛片在线看 | 97久久国产亚洲精品超碰热 | 无码人妻精品一区二区三区下载 | 日本丰满熟妇videos | 亚洲高清偷拍一区二区三区 | 又色又爽又黄的美女裸体网站 | av人摸人人人澡人人超碰下载 | 国产欧美精品一区二区三区 | 欧美日韩一区二区免费视频 | 在线观看国产午夜福利片 | 国产网红无码精品视频 | 特黄特色大片免费播放器图片 | 人人妻人人藻人人爽欧美一区 | a片在线免费观看 | 国产69精品久久久久app下载 | 大肉大捧一进一出视频出来呀 | 日本高清一区免费中文视频 | 色情久久久av熟女人妻网站 | 51国偷自产一区二区三区 | 中国女人内谢69xxxxxa片 | 亚洲一区二区三区在线观看网站 | 亚洲精品综合五月久久小说 | 久久久精品成人免费观看 | 黑人粗大猛烈进出高潮视频 | 天天av天天av天天透 | 精品少妇爆乳无码av无码专区 | 日本丰满护士爆乳xxxx | 亚洲经典千人经典日产 | 国产精品嫩草久久久久 | 婷婷六月久久综合丁香 | 中文字幕乱码人妻二区三区 | 亚洲中文字幕在线无码一区二区 | 97久久精品无码一区二区 | 高潮毛片无遮挡高清免费视频 | 水蜜桃色314在线观看 | 天堂亚洲2017在线观看 | 内射巨臀欧美在线视频 | 波多野结衣 黑人 | 精品偷拍一区二区三区在线看 | 久久综合色之久久综合 | 久久久精品成人免费观看 | 天天爽夜夜爽夜夜爽 | 狠狠亚洲超碰狼人久久 | 欧美性生交xxxxx久久久 | 永久免费精品精品永久-夜色 | 久久综合九色综合欧美狠狠 | 国产婷婷色一区二区三区在线 | 亚洲中文字幕无码中文字在线 | 沈阳熟女露脸对白视频 | 国产激情一区二区三区 | 国产麻豆精品精东影业av网站 | 久久综合给合久久狠狠狠97色 | 亚洲 高清 成人 动漫 | 久久精品国产99精品亚洲 | 55夜色66夜色国产精品视频 | 欧美性猛交xxxx富婆 | 人妻尝试又大又粗久久 | 美女毛片一区二区三区四区 | 欧美激情内射喷水高潮 | 亚洲精品无码人妻无码 | 日本精品人妻无码77777 天堂一区人妻无码 | 国产综合在线观看 | 日韩亚洲欧美精品综合 | 性生交大片免费看女人按摩摩 | 在线观看欧美一区二区三区 | 日日鲁鲁鲁夜夜爽爽狠狠 | 精品久久久中文字幕人妻 | 国产一区二区三区四区五区加勒比 | 成人影院yy111111在线观看 | 宝宝好涨水快流出来免费视频 | 美女张开腿让人桶 | 欧美国产日韩亚洲中文 | 高中生自慰www网站 | 最新国产麻豆aⅴ精品无码 | 内射后入在线观看一区 | 亚欧洲精品在线视频免费观看 | 丰满少妇弄高潮了www | 丰满诱人的人妻3 | 国产精品99久久精品爆乳 | 亚洲日本va午夜在线电影 | 无码人中文字幕 | 国产成人精品无码播放 | 亚洲色成人中文字幕网站 | 国产成人一区二区三区别 | 国产电影无码午夜在线播放 | 波多野结衣aⅴ在线 | 中国女人内谢69xxxx | 国产亚洲tv在线观看 | 成人精品天堂一区二区三区 | 中文字幕人成乱码熟女app | 国产精品高潮呻吟av久久4虎 | 水蜜桃亚洲一二三四在线 | 精品国产成人一区二区三区 | 精品国偷自产在线视频 | 欧美成人高清在线播放 | 亚洲欧美精品aaaaaa片 | 亚洲国产av美女网站 | 欧美精品一区二区精品久久 | 国产精品99爱免费视频 | 少妇无套内谢久久久久 | 天天av天天av天天透 | 国产av一区二区精品久久凹凸 | 国产精品嫩草久久久久 | 精品成在人线av无码免费看 | 午夜精品久久久久久久久 | 精品国产av色一区二区深夜久久 | 日本乱人伦片中文三区 | 国产精品无码mv在线观看 | 日韩 欧美 动漫 国产 制服 | 麻豆蜜桃av蜜臀av色欲av | 日本精品久久久久中文字幕 | 日韩人妻无码中文字幕视频 | 未满成年国产在线观看 | 亚洲性无码av中文字幕 | 999久久久国产精品消防器材 | 少妇人妻av毛片在线看 | 人妻夜夜爽天天爽三区 | 国产午夜亚洲精品不卡 | 欧美日韩一区二区综合 | 免费无码肉片在线观看 | 最近的中文字幕在线看视频 | 精品国产一区二区三区av 性色 | 亚洲精品午夜无码电影网 | 无码乱肉视频免费大全合集 | 中文亚洲成a人片在线观看 | 成人一区二区免费视频 | 日本在线高清不卡免费播放 | 国产av一区二区三区最新精品 | 在线观看国产一区二区三区 | 久久综合九色综合97网 | 国内少妇偷人精品视频免费 | 一本久久a久久精品vr综合 | 久久99久久99精品中文字幕 | 狂野欧美性猛xxxx乱大交 | 亚洲中文字幕乱码av波多ji | 在线а√天堂中文官网 | 亚洲综合无码一区二区三区 | 日韩av无码一区二区三区不卡 | 亚洲自偷自偷在线制服 | 色爱情人网站 | 婷婷综合久久中文字幕蜜桃三电影 | 在线观看欧美一区二区三区 | 日日鲁鲁鲁夜夜爽爽狠狠 | 一本加勒比波多野结衣 | 成人一在线视频日韩国产 | 熟妇激情内射com | 中文字幕乱码人妻二区三区 | 在线天堂新版最新版在线8 | 国产va免费精品观看 | 国产国产精品人在线视 | 窝窝午夜理论片影院 | 97久久超碰中文字幕 | 亚洲性无码av中文字幕 | 日产精品高潮呻吟av久久 | 女人被爽到呻吟gif动态图视看 | 久久综合网欧美色妞网 | 亚洲欧洲中文日韩av乱码 | 亚洲国产综合无码一区 | 久久这里只有精品视频9 | 综合网日日天干夜夜久久 | 无码av岛国片在线播放 | 亚洲国产精品一区二区第一页 | 久久国产劲爆∧v内射 | 玩弄人妻少妇500系列视频 | 夜夜高潮次次欢爽av女 | 国产香蕉尹人综合在线观看 | 国产精品第一国产精品 | 国产午夜视频在线观看 | 亚洲国产精品成人久久蜜臀 | 欧美自拍另类欧美综合图片区 | 免费国产成人高清在线观看网站 | 精品无码一区二区三区爱欲 | 丰满少妇高潮惨叫视频 | 国产乱人伦av在线无码 | 欧美 日韩 亚洲 在线 | 欧美国产亚洲日韩在线二区 | 久久午夜夜伦鲁鲁片无码免费 | 人人妻人人澡人人爽人人精品浪潮 | 亚洲日本一区二区三区在线 | 久久亚洲精品成人无码 | 荫蒂添的好舒服视频囗交 | 亚洲一区二区三区在线观看网站 | 一二三四社区在线中文视频 | 老熟妇乱子伦牲交视频 | 亚洲第一无码av无码专区 | 四虎国产精品免费久久 | 亚洲人成网站在线播放942 | 日韩视频 中文字幕 视频一区 | 青青草原综合久久大伊人精品 | 无码人妻出轨黑人中文字幕 | 国产在线精品一区二区三区直播 | 国产无遮挡又黄又爽免费视频 | 丝袜美腿亚洲一区二区 | 欧美zoozzooz性欧美 | 成 人 网 站国产免费观看 | 国产精品a成v人在线播放 | 18禁止看的免费污网站 | 久久精品视频在线看15 | 久久精品人妻少妇一区二区三区 | 麻花豆传媒剧国产免费mv在线 | 天天躁夜夜躁狠狠是什么心态 | 欧美色就是色 | 老司机亚洲精品影院 | 欧美老妇交乱视频在线观看 | 最新版天堂资源中文官网 | 亚洲の无码国产の无码影院 | 亚洲精品国产第一综合99久久 | 99久久亚洲精品无码毛片 | 亚洲色大成网站www | 人妻与老人中文字幕 | 欧美大屁股xxxxhd黑色 | 曰韩无码二三区中文字幕 | 日本精品高清一区二区 | 国产精品亚洲一区二区三区喷水 | 色欲av亚洲一区无码少妇 | 少妇厨房愉情理9仑片视频 | 无码一区二区三区在线 | 亚洲欧美日韩综合久久久 | 97夜夜澡人人爽人人喊中国片 | 国产在线无码精品电影网 | 免费观看黄网站 | 国产成人无码午夜视频在线观看 | 天天做天天爱天天爽综合网 | 欧美丰满熟妇xxxx | 国产超碰人人爽人人做人人添 | 九九热爱视频精品 | 亚洲国产精品久久久天堂 | 黑人粗大猛烈进出高潮视频 | 欧美人与动性行为视频 | 亚洲精品一区三区三区在线观看 | 亚洲国产日韩a在线播放 | 撕开奶罩揉吮奶头视频 | а√资源新版在线天堂 | 中文字幕中文有码在线 | 成 人 免费观看网站 | 超碰97人人做人人爱少妇 | 久激情内射婷内射蜜桃人妖 | 熟妇女人妻丰满少妇中文字幕 | 国内精品九九久久久精品 | 成人无码精品一区二区三区 | 国产成人无码av一区二区 | 人人妻在人人 | 久久国产精品_国产精品 | 老熟女乱子伦 | 女人高潮内射99精品 | 久久人人97超碰a片精品 | 国产成人无码av在线影院 | www成人国产高清内射 | 久久99精品久久久久久动态图 | 亚洲欧美色中文字幕在线 | 欧美日韩人成综合在线播放 | 亚洲精品一区二区三区婷婷月 | 亚洲国产成人av在线观看 | 波多野结衣乳巨码无在线观看 | 中文字幕 人妻熟女 | 久久无码中文字幕免费影院蜜桃 | 国产小呦泬泬99精品 | 欧美日本精品一区二区三区 | 永久黄网站色视频免费直播 | 午夜熟女插插xx免费视频 | 国产肉丝袜在线观看 | 精品久久久无码中文字幕 | 久久久中文久久久无码 | 久久精品国产一区二区三区 | 久久久国产一区二区三区 | 亚欧洲精品在线视频免费观看 | 天天躁日日躁狠狠躁免费麻豆 | 亚洲成a人片在线观看无码 | 久久99精品国产麻豆蜜芽 | 久久熟妇人妻午夜寂寞影院 | 老司机亚洲精品影院无码 | 欧美人与禽猛交狂配 | 亚洲 欧美 激情 小说 另类 | 老太婆性杂交欧美肥老太 | 特级做a爰片毛片免费69 | 亚洲aⅴ无码成人网站国产app | 漂亮人妻洗澡被公强 日日躁 | 精品夜夜澡人妻无码av蜜桃 | 无码人妻丰满熟妇区五十路百度 | 粉嫩少妇内射浓精videos | av人摸人人人澡人人超碰下载 | 久久久www成人免费毛片 | 麻豆蜜桃av蜜臀av色欲av | 国产在线精品一区二区高清不卡 | 国产真实乱对白精彩久久 | 亚洲熟妇色xxxxx欧美老妇y | 欧美性色19p | 国产福利视频一区二区 | 色噜噜亚洲男人的天堂 | 午夜福利一区二区三区在线观看 | www国产精品内射老师 | 岛国片人妻三上悠亚 | 激情五月综合色婷婷一区二区 | 国产欧美精品一区二区三区 | 亚洲欧美国产精品专区久久 | 人人澡人摸人人添 | 大肉大捧一进一出好爽视频 | 国产亚洲精品久久久闺蜜 | 国产一区二区三区精品视频 | 欧美成人免费全部网站 | 最新国产麻豆aⅴ精品无码 | 国产在线无码精品电影网 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 国产口爆吞精在线视频 | 秋霞成人午夜鲁丝一区二区三区 | 久久精品99久久香蕉国产色戒 | 国产综合色产在线精品 | 荫蒂被男人添的好舒服爽免费视频 | 久久99精品久久久久婷婷 | 爆乳一区二区三区无码 | 久久久精品人妻久久影视 | av香港经典三级级 在线 | 欧美色就是色 | 亚洲狠狠色丁香婷婷综合 | 国产农村妇女高潮大叫 | 人妻少妇精品久久 | а√资源新版在线天堂 | 精品亚洲韩国一区二区三区 | 女人和拘做爰正片视频 | 久久亚洲日韩精品一区二区三区 | 色综合视频一区二区三区 | 国产xxx69麻豆国语对白 | 丝袜 中出 制服 人妻 美腿 | 国产猛烈高潮尖叫视频免费 | 捆绑白丝粉色jk震动捧喷白浆 | 国产免费无码一区二区视频 | √8天堂资源地址中文在线 | 乱人伦中文视频在线观看 | 亚洲gv猛男gv无码男同 | 日日天日日夜日日摸 | 国产三级久久久精品麻豆三级 | 一本加勒比波多野结衣 | 97精品国产97久久久久久免费 | 又粗又大又硬又长又爽 | 亚洲熟女一区二区三区 | 九九综合va免费看 | aⅴ亚洲 日韩 色 图网站 播放 | 国产成人无码午夜视频在线观看 | 国产精品理论片在线观看 | 国产亚av手机在线观看 | 精品亚洲成av人在线观看 | 欧美熟妇另类久久久久久不卡 | 国产精品久久久久久久9999 | 在线看片无码永久免费视频 | 性欧美疯狂xxxxbbbb | 精品成人av一区二区三区 | 全黄性性激高免费视频 | 亚洲成a人片在线观看日本 | 在线 国产 欧美 亚洲 天堂 | 黑人巨大精品欧美黑寡妇 | 国产精品内射视频免费 | аⅴ资源天堂资源库在线 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 日韩精品乱码av一区二区 | 国产超碰人人爽人人做人人添 | 亚洲精品成a人在线观看 | 国产香蕉尹人视频在线 | 国产无套内射久久久国产 | 日本护士xxxxhd少妇 | 国产农村妇女高潮大叫 | 成人av无码一区二区三区 | 18无码粉嫩小泬无套在线观看 | 国产精品va在线观看无码 | 国产午夜无码精品免费看 | 亚洲区小说区激情区图片区 | 丝袜足控一区二区三区 | 日本又色又爽又黄的a片18禁 | 人妻中文无码久热丝袜 | 亚洲中文字幕久久无码 | 国产 精品 自在自线 | 国产精品久久国产精品99 | 免费播放一区二区三区 | 国产精品久久久久久亚洲毛片 | 乱人伦人妻中文字幕无码 | 日日橹狠狠爱欧美视频 | 亚洲乱码国产乱码精品精 | 国产精品-区区久久久狼 | 黑人粗大猛烈进出高潮视频 | 国产精品久久久久影院嫩草 | 国产成人无码av片在线观看不卡 | 国精产品一品二品国精品69xx | 国产精品无码一区二区三区不卡 | 亚洲日韩一区二区 | 亚洲日韩精品欧美一区二区 | 色婷婷香蕉在线一区二区 | 精品无人国产偷自产在线 | 亚洲中文字幕无码一久久区 | 欧美人与牲动交xxxx | 国产成人久久精品流白浆 | 久久精品国产99久久6动漫 | 国产精品亚洲五月天高清 | 夜先锋av资源网站 | 呦交小u女精品视频 | 麻豆av传媒蜜桃天美传媒 | 少妇愉情理伦片bd | 中文字幕av日韩精品一区二区 | 国产av一区二区精品久久凹凸 | 欧美人与物videos另类 | 久久国产精品偷任你爽任你 | а√资源新版在线天堂 | 老熟妇仑乱视频一区二区 | 欧美性猛交内射兽交老熟妇 | 性欧美牲交在线视频 | 久久综合色之久久综合 | 噜噜噜亚洲色成人网站 | 高潮毛片无遮挡高清免费视频 | 亚洲熟妇色xxxxx欧美老妇y | 国产日产欧产精品精品app | 久久精品成人欧美大片 | 任你躁在线精品免费 | 强辱丰满人妻hd中文字幕 | 午夜免费福利小电影 | 午夜丰满少妇性开放视频 | 女人被爽到呻吟gif动态图视看 | 成 人 网 站国产免费观看 | 国产激情无码一区二区app | 久久精品人妻少妇一区二区三区 | 久久亚洲中文字幕无码 | 又黄又爽又色的视频 | 男人的天堂av网站 | 少妇性荡欲午夜性开放视频剧场 | 亚洲日本va中文字幕 | 国产极品视觉盛宴 | 九九久久精品国产免费看小说 | 对白脏话肉麻粗话av | 色婷婷综合激情综在线播放 | 丝袜 中出 制服 人妻 美腿 | 国产内射老熟女aaaa | 亚洲成在人网站无码天堂 | 国产69精品久久久久app下载 | 300部国产真实乱 | 欧美日韩一区二区免费视频 | 亚洲精品国偷拍自产在线麻豆 | 丰满少妇弄高潮了www | 水蜜桃亚洲一二三四在线 | 老头边吃奶边弄进去呻吟 | 无码人妻av免费一区二区三区 | 亚洲成a人片在线观看日本 | 天堂无码人妻精品一区二区三区 | 久久国产精品二国产精品 | 玩弄人妻少妇500系列视频 | 国产亚洲视频中文字幕97精品 | 亚洲成a人片在线观看无码 | 97夜夜澡人人爽人人喊中国片 | 亚无码乱人伦一区二区 | 捆绑白丝粉色jk震动捧喷白浆 | 亚洲性无码av中文字幕 | 在线精品亚洲一区二区 | 亚洲国产精品美女久久久久 | 色诱久久久久综合网ywww | 国产精品高潮呻吟av久久4虎 | 波多野结衣一区二区三区av免费 | 亚洲熟妇自偷自拍另类 | 狠狠躁日日躁夜夜躁2020 | 亚洲欧美日韩成人高清在线一区 | 久久久久免费看成人影片 | 亚洲国产精品一区二区第一页 | 婷婷五月综合激情中文字幕 | 国产两女互慰高潮视频在线观看 | 亚洲va欧美va天堂v国产综合 | 国产精品丝袜黑色高跟鞋 | 青春草在线视频免费观看 | 高潮毛片无遮挡高清免费 | 人人妻人人澡人人爽欧美一区 | 久久久精品456亚洲影院 | 亚洲中文字幕在线无码一区二区 | 亚洲成色www久久网站 | 少妇人妻av毛片在线看 | аⅴ资源天堂资源库在线 | 国产精品理论片在线观看 | 中文字幕乱码人妻无码久久 | 性欧美疯狂xxxxbbbb | 女高中生第一次破苞av | 国产成人一区二区三区在线观看 | 少妇性l交大片欧洲热妇乱xxx | 国产69精品久久久久app下载 | 中文字幕日产无线码一区 | 男人的天堂2018无码 | 少妇无码吹潮 | 欧美精品国产综合久久 | 日韩人妻无码一区二区三区久久99 | 77777熟女视频在线观看 а天堂中文在线官网 | 亚洲综合精品香蕉久久网 | 鲁一鲁av2019在线 | 亚洲va欧美va天堂v国产综合 | 国内丰满熟女出轨videos | 久久精品国产一区二区三区肥胖 | 国产精品国产自线拍免费软件 | 久精品国产欧美亚洲色aⅴ大片 | 日本一卡2卡3卡四卡精品网站 | 久久人人爽人人爽人人片av高清 | 中文字幕av日韩精品一区二区 | 国产麻豆精品一区二区三区v视界 | 亚洲色大成网站www国产 | 日产精品高潮呻吟av久久 | 牲交欧美兽交欧美 | 亚洲日本va午夜在线电影 | 天天av天天av天天透 | 国色天香社区在线视频 | 成人免费视频一区二区 | 国产后入清纯学生妹 | 美女张开腿让人桶 | 欧美日韩视频无码一区二区三 | 日日麻批免费40分钟无码 | 亚洲春色在线视频 | 九九综合va免费看 | 精品无码国产一区二区三区av | 成 人 网 站国产免费观看 | 久激情内射婷内射蜜桃人妖 | 国产精品.xx视频.xxtv | 亚洲国精产品一二二线 | 亚洲精品一区三区三区在线观看 | 亚洲狠狠色丁香婷婷综合 | 国产色视频一区二区三区 | 亚洲精品国产精品乱码不卡 | 国产精品亚洲专区无码不卡 | 伊人久久大香线蕉午夜 | 成人精品天堂一区二区三区 | 中文字幕乱码人妻无码久久 | 性生交大片免费看女人按摩摩 | 欧美日韩亚洲国产精品 | 小鲜肉自慰网站xnxx | 国产精品久久久久9999小说 | 亚洲无人区一区二区三区 | 51国偷自产一区二区三区 | 俺去俺来也在线www色官网 | 久久99精品国产麻豆蜜芽 | 乌克兰少妇xxxx做受 | 丰满少妇熟乱xxxxx视频 | 亚洲爆乳无码专区 | 在线亚洲高清揄拍自拍一品区 | 国产人妻人伦精品1国产丝袜 | 人妻少妇被猛烈进入中文字幕 | 精品无人区无码乱码毛片国产 | 日韩少妇内射免费播放 | 日本熟妇乱子伦xxxx | 天天躁夜夜躁狠狠是什么心态 | 中文字幕无码免费久久99 | 中文字幕乱码亚洲无线三区 | 丝袜 中出 制服 人妻 美腿 | 久久久精品成人免费观看 | 精品 日韩 国产 欧美 视频 | 荫蒂被男人添的好舒服爽免费视频 | 欧美日韩精品 | 无套内谢老熟女 | 日韩精品a片一区二区三区妖精 | 97色伦图片97综合影院 | 扒开双腿吃奶呻吟做受视频 | 男女下面进入的视频免费午夜 | 日本在线高清不卡免费播放 | 欧美人与牲动交xxxx | 亚洲熟女一区二区三区 | 国产超碰人人爽人人做人人添 | 久久久精品国产sm最大网站 | 亚洲日韩av片在线观看 | 无码播放一区二区三区 | 亚洲精品鲁一鲁一区二区三区 | 久久人人爽人人爽人人片av高清 | 亚洲中文字幕va福利 | 丁香啪啪综合成人亚洲 | 国产精品久久久 | 无码毛片视频一区二区本码 | 久久综合激激的五月天 | 亚洲综合在线一区二区三区 | ass日本丰满熟妇pics | 成人免费无码大片a毛片 | 亚洲熟女一区二区三区 | 久久精品国产大片免费观看 | 久久亚洲中文字幕无码 | 性色av无码免费一区二区三区 | 亚洲国产精品一区二区第一页 | 天堂亚洲免费视频 | 99精品国产综合久久久久五月天 | 成在人线av无码免费 | 亚洲男人av天堂午夜在 | 久久久久se色偷偷亚洲精品av | 亚洲日韩av片在线观看 | 中文字幕乱码亚洲无线三区 | 亚洲综合久久一区二区 | 亚洲无人区一区二区三区 | 色婷婷久久一区二区三区麻豆 | 色欲综合久久中文字幕网 | 三上悠亚人妻中文字幕在线 | 亚洲日韩av一区二区三区中文 | 欧美人妻一区二区三区 | 波多野结衣高清一区二区三区 | 中文字幕人妻无码一区二区三区 | 亚洲无人区一区二区三区 | 亚洲国产高清在线观看视频 | 亚洲va中文字幕无码久久不卡 | 性欧美牲交xxxxx视频 | 国产高潮视频在线观看 | 国产艳妇av在线观看果冻传媒 | 精品国产一区二区三区四区在线看 | 精品一区二区三区无码免费视频 | 激情内射日本一区二区三区 | 亚洲精品一区二区三区在线 | 国产熟妇另类久久久久 | 国产女主播喷水视频在线观看 | 亚洲中文字幕在线无码一区二区 | 好爽又高潮了毛片免费下载 | 亚洲aⅴ无码成人网站国产app | 丰满诱人的人妻3 | 荡女精品导航 | 麻豆av传媒蜜桃天美传媒 | 国产三级精品三级男人的天堂 | 欧美丰满熟妇xxxx性ppx人交 | 成 人影片 免费观看 | 亚洲综合精品香蕉久久网 | 色综合视频一区二区三区 | 丰满少妇高潮惨叫视频 | 丰满护士巨好爽好大乳 | 国产精品无码一区二区三区不卡 | 欧美成人家庭影院 | 成熟妇人a片免费看网站 | 国产69精品久久久久app下载 | 人妻插b视频一区二区三区 | 欧美人与动性行为视频 | 国产性生大片免费观看性 | 成人免费视频视频在线观看 免费 | 欧美国产日韩亚洲中文 | 国产成人精品久久亚洲高清不卡 | 红桃av一区二区三区在线无码av | 成人免费视频视频在线观看 免费 | 国产真实乱对白精彩久久 | 精品成人av一区二区三区 | 欧美精品国产综合久久 | 波多野结衣一区二区三区av免费 | 老子影院午夜精品无码 | 高潮喷水的毛片 | 人人爽人人澡人人人妻 | 曰韩无码二三区中文字幕 | 国产超级va在线观看视频 | 国产猛烈高潮尖叫视频免费 | 无码人妻精品一区二区三区不卡 | 漂亮人妻洗澡被公强 日日躁 | 欧美精品免费观看二区 | 成人av无码一区二区三区 | 精品无码国产自产拍在线观看蜜 | 人妻少妇精品无码专区二区 | 99麻豆久久久国产精品免费 | 无码av免费一区二区三区试看 | 中文字幕乱妇无码av在线 | 亚洲国产精品一区二区美利坚 | 免费人成在线观看网站 | 日本肉体xxxx裸交 | 亚洲熟妇色xxxxx亚洲 | 国产无遮挡又黄又爽又色 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 久久精品女人的天堂av | 亚洲精品国产精品乱码不卡 | 偷窥日本少妇撒尿chinese | 国产xxx69麻豆国语对白 | 亚洲国产精品久久久天堂 | 无码人妻丰满熟妇区毛片18 | 国产精品无套呻吟在线 | 国产精华av午夜在线观看 | 人人妻人人澡人人爽欧美精品 | 青草青草久热国产精品 | 无码一区二区三区在线 | √天堂资源地址中文在线 | 色诱久久久久综合网ywww | 日韩av激情在线观看 | 亚洲国产精品久久久天堂 | 在线欧美精品一区二区三区 | 久久亚洲精品中文字幕无男同 | 自拍偷自拍亚洲精品被多人伦好爽 | 男人的天堂2018无码 | 精品一区二区三区波多野结衣 | 国产精品美女久久久网av | 女人被爽到呻吟gif动态图视看 | 亚洲国产精品久久久久久 | 国产精品亚洲lv粉色 | 少妇性俱乐部纵欲狂欢电影 | 国产一精品一av一免费 | 荡女精品导航 | 欧美激情内射喷水高潮 | 成人免费视频一区二区 | 国产特级毛片aaaaaaa高清 | 中文久久乱码一区二区 | 3d动漫精品啪啪一区二区中 | 成人精品视频一区二区 | 亚洲码国产精品高潮在线 | 欧美真人作爱免费视频 | 国产片av国语在线观看 | 亚洲欧美国产精品专区久久 | 97夜夜澡人人爽人人喊中国片 | 久9re热视频这里只有精品 | 中文字幕无码热在线视频 | 久精品国产欧美亚洲色aⅴ大片 | 内射爽无广熟女亚洲 | 日韩亚洲欧美中文高清在线 | 强辱丰满人妻hd中文字幕 | 好男人社区资源 | 亚洲а∨天堂久久精品2021 | 麻豆果冻传媒2021精品传媒一区下载 | 精品久久久久久人妻无码中文字幕 | 午夜理论片yy44880影院 | 色五月丁香五月综合五月 | 少妇无套内谢久久久久 | av无码不卡在线观看免费 | 免费中文字幕日韩欧美 | 亚洲精品国偷拍自产在线麻豆 | 成人欧美一区二区三区黑人免费 | 免费播放一区二区三区 | 1000部啪啪未满十八勿入下载 | 永久黄网站色视频免费直播 | 亚洲精品美女久久久久久久 | 无码人妻丰满熟妇区五十路百度 | 鲁鲁鲁爽爽爽在线视频观看 | 亚洲精品久久久久avwww潮水 | 无码纯肉视频在线观看 | 亚欧洲精品在线视频免费观看 | 99er热精品视频 | 在线成人www免费观看视频 | 久久精品一区二区三区四区 | 久久久精品国产sm最大网站 | 高潮毛片无遮挡高清免费视频 | 大肉大捧一进一出好爽视频 | 国产超级va在线观看视频 | 欧美日韩综合一区二区三区 | 国产人妻精品一区二区三区不卡 | 国产熟妇高潮叫床视频播放 | 九九综合va免费看 | 亚洲成色www久久网站 | 欧美 日韩 亚洲 在线 | 香蕉久久久久久av成人 | 高潮毛片无遮挡高清免费 | 亚拍精品一区二区三区探花 | 欧美熟妇另类久久久久久多毛 | 国内揄拍国内精品人妻 | 老熟妇乱子伦牲交视频 | 国产精品无码mv在线观看 | www成人国产高清内射 | 亚洲精品午夜国产va久久成人 | 久久精品99久久香蕉国产色戒 | 精品一区二区不卡无码av | 亚洲精品国产精品乱码不卡 | 午夜熟女插插xx免费视频 | 波多野结衣av一区二区全免费观看 | 亚洲 日韩 欧美 成人 在线观看 | 久久五月精品中文字幕 | 亚洲国产精品成人久久蜜臀 | 国产精品无码一区二区三区不卡 | 丰满妇女强制高潮18xxxx | 欧美成人免费全部网站 | 4hu四虎永久在线观看 | 未满小14洗澡无码视频网站 | 欧美日韩人成综合在线播放 | 十八禁视频网站在线观看 | 午夜精品久久久内射近拍高清 | 无码人妻少妇伦在线电影 | 成 人 网 站国产免费观看 | 88国产精品欧美一区二区三区 | 亚洲日本va中文字幕 | 精品乱子伦一区二区三区 | 无码毛片视频一区二区本码 | 亚洲国产成人av在线观看 | 高清不卡一区二区三区 | 性欧美牲交xxxxx视频 | 激情内射亚州一区二区三区爱妻 | 亚洲色在线无码国产精品不卡 | 欧美激情内射喷水高潮 | 2019nv天堂香蕉在线观看 | 人妻人人添人妻人人爱 | 天天躁日日躁狠狠躁免费麻豆 | 久久久精品人妻久久影视 | 亚洲国产欧美在线成人 | 欧美老熟妇乱xxxxx | 乱人伦人妻中文字幕无码 | 无码任你躁久久久久久久 | 综合网日日天干夜夜久久 | 又粗又大又硬毛片免费看 | 国产精品欧美成人 | 97资源共享在线视频 | 亚洲精品一区二区三区大桥未久 | 天天躁夜夜躁狠狠是什么心态 | 久久久久免费看成人影片 | 久久综合久久自在自线精品自 | 曰韩少妇内射免费播放 | 国产亲子乱弄免费视频 | 又黄又爽又色的视频 | 国产莉萝无码av在线播放 | а√天堂www在线天堂小说 | 久久亚洲精品中文字幕无男同 | 亚洲自偷自偷在线制服 | 丰满妇女强制高潮18xxxx | 少妇人妻偷人精品无码视频 | 99久久久无码国产精品免费 | 日韩无码专区 | 国产精品毛多多水多 | 国内丰满熟女出轨videos | 噜噜噜亚洲色成人网站 | 在线观看国产午夜福利片 | 国产极品视觉盛宴 | 扒开双腿吃奶呻吟做受视频 | 国产精品久久久久久亚洲毛片 | 亚洲 a v无 码免 费 成 人 a v | 日本一卡二卡不卡视频查询 | 日本饥渴人妻欲求不满 | 亚洲日韩av一区二区三区中文 | 亚洲色在线无码国产精品不卡 | 亚洲 欧美 激情 小说 另类 | 国产sm调教视频在线观看 | 女人和拘做爰正片视频 | 欧美日本日韩 | 76少妇精品导航 | 亚洲国产午夜精品理论片 | 国产精品无码成人午夜电影 | av无码久久久久不卡免费网站 | 自拍偷自拍亚洲精品被多人伦好爽 | 久久人人97超碰a片精品 | 天海翼激烈高潮到腰振不止 | 精品欧洲av无码一区二区三区 | 久久久精品欧美一区二区免费 | 蜜桃臀无码内射一区二区三区 | 秋霞成人午夜鲁丝一区二区三区 | 人人妻人人澡人人爽人人精品浪潮 | 精品厕所偷拍各类美女tp嘘嘘 | 国产精品福利视频导航 | 性欧美牲交xxxxx视频 | 丰满人妻被黑人猛烈进入 | 久久久精品欧美一区二区免费 | 老子影院午夜精品无码 | 欧美激情综合亚洲一二区 | 久久综合给久久狠狠97色 | 国产成人无码区免费内射一片色欲 | 美女毛片一区二区三区四区 | 久久久久国色av免费观看性色 | 欧美日本免费一区二区三区 | 在线观看国产一区二区三区 | 精品无码一区二区三区的天堂 | 丰满少妇弄高潮了www | 中文字幕久久久久人妻 | 成人片黄网站色大片免费观看 | 中文字幕日韩精品一区二区三区 | 正在播放老肥熟妇露脸 | 性欧美牲交xxxxx视频 | 岛国片人妻三上悠亚 | 国产无遮挡又黄又爽又色 | 性色欲网站人妻丰满中文久久不卡 | 在线 国产 欧美 亚洲 天堂 | 亚洲人成人无码网www国产 | 久久熟妇人妻午夜寂寞影院 | 性色欲网站人妻丰满中文久久不卡 | 国内丰满熟女出轨videos | 中文字幕无码乱人伦 | 美女毛片一区二区三区四区 | 牲欲强的熟妇农村老妇女视频 | 婷婷五月综合激情中文字幕 | 特级做a爰片毛片免费69 | 国内少妇偷人精品视频 | 国内丰满熟女出轨videos | 国产三级久久久精品麻豆三级 | 亚洲最大成人网站 | 国产在线aaa片一区二区99 | 无码一区二区三区在线 | 四虎国产精品一区二区 | 中国女人内谢69xxxxxa片 | 熟女少妇在线视频播放 | 大地资源网第二页免费观看 | 无码人妻出轨黑人中文字幕 | 少妇高潮喷潮久久久影院 | 日韩少妇白浆无码系列 | 内射后入在线观看一区 | 澳门永久av免费网站 | 十八禁视频网站在线观看 | 免费乱码人妻系列无码专区 | 欧美人与禽zoz0性伦交 | 色婷婷欧美在线播放内射 | 色偷偷人人澡人人爽人人模 | 国产精品久免费的黄网站 | 大乳丰满人妻中文字幕日本 | 国内精品九九久久久精品 | 国产精品igao视频网 | 欧美精品国产综合久久 | 99在线 | 亚洲 | 久久精品人妻少妇一区二区三区 | 欧美一区二区三区 | 麻豆国产人妻欲求不满谁演的 | 人妻少妇被猛烈进入中文字幕 | 激情人妻另类人妻伦 | 久久人人爽人人爽人人片ⅴ | 熟妇激情内射com | 日本熟妇人妻xxxxx人hd | 国产精品理论片在线观看 | 爱做久久久久久 | 日韩人妻无码中文字幕视频 | 人妻少妇精品视频专区 | 日本大乳高潮视频在线观看 | 中文字幕无码av激情不卡 | 一本一道久久综合久久 | 欧美 日韩 亚洲 在线 | 男人的天堂av网站 | a国产一区二区免费入口 | 欧美丰满少妇xxxx性 | 小sao货水好多真紧h无码视频 | 国产精品怡红院永久免费 | 全球成人中文在线 | 熟妇激情内射com | 亚洲午夜久久久影院 | 国产精品久久久 | 88国产精品欧美一区二区三区 | 宝宝好涨水快流出来免费视频 | 麻豆果冻传媒2021精品传媒一区下载 | 性生交大片免费看女人按摩摩 | 无套内射视频囯产 | 亚洲爆乳大丰满无码专区 | 粗大的内捧猛烈进出视频 | 少妇太爽了在线观看 | 99久久精品无码一区二区毛片 | 狠狠噜狠狠狠狠丁香五月 | 欧美日本日韩 | 免费乱码人妻系列无码专区 | 无遮挡啪啪摇乳动态图 | 亚洲精品综合五月久久小说 | 亚洲精品一区二区三区大桥未久 | 亚洲午夜久久久影院 | 成人av无码一区二区三区 | 思思久久99热只有频精品66 | 老熟女重囗味hdxx69 | 3d动漫精品啪啪一区二区中 | 成人无码视频免费播放 | 国产人妻精品午夜福利免费 | 麻豆国产人妻欲求不满 | 精品人妻人人做人人爽夜夜爽 | 中文字幕乱妇无码av在线 | 亚洲精品一区二区三区大桥未久 | 四虎永久在线精品免费网址 | 亚洲人成网站在线播放942 | 亚洲一区二区三区含羞草 | 狠狠噜狠狠狠狠丁香五月 | 领导边摸边吃奶边做爽在线观看 | 久久视频在线观看精品 | 无码一区二区三区在线观看 | 国产在线精品一区二区高清不卡 | 啦啦啦www在线观看免费视频 | 日本精品久久久久中文字幕 | 亚洲综合伊人久久大杳蕉 | 久精品国产欧美亚洲色aⅴ大片 | 久久久久久a亚洲欧洲av冫 | 亚洲另类伦春色综合小说 | 国产乱人无码伦av在线a | 久久精品无码一区二区三区 | 成人一区二区免费视频 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 国产精品国产自线拍免费软件 | 日韩在线不卡免费视频一区 | 西西人体www44rt大胆高清 | 六十路熟妇乱子伦 | 国产高清不卡无码视频 | 色诱久久久久综合网ywww | 国产在线精品一区二区高清不卡 | 国产色精品久久人妻 | 中文字幕乱码中文乱码51精品 | 国产成人无码一二三区视频 | 亚洲欧洲日本无在线码 | 人妻少妇精品无码专区二区 | 日韩少妇白浆无码系列 | 麻豆国产丝袜白领秘书在线观看 | 一本色道婷婷久久欧美 | 性啪啪chinese东北女人 | 呦交小u女精品视频 | 在线天堂新版最新版在线8 | 亚洲中文字幕无码一久久区 | √8天堂资源地址中文在线 | 国产免费久久久久久无码 | 亚洲一区av无码专区在线观看 | 日韩精品乱码av一区二区 | 国产手机在线αⅴ片无码观看 | 98国产精品综合一区二区三区 | аⅴ资源天堂资源库在线 | 欧美丰满熟妇xxxx性ppx人交 | 色一情一乱一伦一视频免费看 | 精品 日韩 国产 欧美 视频 | 18禁黄网站男男禁片免费观看 | 久久久久免费看成人影片 | 婷婷综合久久中文字幕蜜桃三电影 | 国内精品人妻无码久久久影院蜜桃 | 久久精品99久久香蕉国产色戒 | 少妇邻居内射在线 | 日日天干夜夜狠狠爱 | 欧美老妇交乱视频在线观看 | 亚洲经典千人经典日产 | 波多野结衣av在线观看 | 色婷婷综合中文久久一本 | 任你躁国产自任一区二区三区 | 国产精品久久国产精品99 | 中文字幕无线码免费人妻 | 久久国产精品萌白酱免费 | 国产激情艳情在线看视频 | 蜜桃无码一区二区三区 | 大地资源网第二页免费观看 | 少女韩国电视剧在线观看完整 | 国产精品成人av在线观看 | 青春草在线视频免费观看 | 免费无码一区二区三区蜜桃大 | 国产日产欧产精品精品app | 国产黄在线观看免费观看不卡 | www国产亚洲精品久久网站 | 亚洲精品综合一区二区三区在线 | 午夜男女很黄的视频 | 中文字幕无码视频专区 | 色偷偷人人澡人人爽人人模 | 欧美一区二区三区视频在线观看 | 四虎永久在线精品免费网址 | 久久人人爽人人爽人人片ⅴ | 亚洲欧美精品伊人久久 | 精品无码国产自产拍在线观看蜜 | av无码久久久久不卡免费网站 | 国产人妻久久精品二区三区老狼 | 亚洲日韩一区二区三区 | 丰满人妻翻云覆雨呻吟视频 | 国产亚洲欧美日韩亚洲中文色 | 性欧美牲交在线视频 | 色婷婷久久一区二区三区麻豆 | 红桃av一区二区三区在线无码av | 国产精品高潮呻吟av久久4虎 | 98国产精品综合一区二区三区 | 一本色道婷婷久久欧美 | 亚洲综合无码一区二区三区 | 国产又爽又黄又刺激的视频 | 日日摸日日碰夜夜爽av | 亚洲人成网站在线播放942 | 亚洲色欲色欲欲www在线 | 荫蒂被男人添的好舒服爽免费视频 | 亚洲毛片av日韩av无码 | a片免费视频在线观看 | 欧美人与物videos另类 | 久久久精品456亚洲影院 | 九九在线中文字幕无码 | 综合网日日天干夜夜久久 | 人妻无码αv中文字幕久久琪琪布 | 伊人久久婷婷五月综合97色 | 少妇无套内谢久久久久 | 日韩在线不卡免费视频一区 | 亚洲爆乳无码专区 | www国产亚洲精品久久久日本 | 又粗又大又硬毛片免费看 | 亚洲一区二区三区无码久久 | 欧美日韩在线亚洲综合国产人 | 亚洲精品一区二区三区婷婷月 | 欧美丰满熟妇xxxx | 亚洲精品久久久久avwww潮水 | 国产精品美女久久久久av爽李琼 | 秋霞特色aa大片 | 最近的中文字幕在线看视频 | 无码国模国产在线观看 | 国产精品久久国产精品99 | 成人性做爰aaa片免费看 | 动漫av一区二区在线观看 | 亚无码乱人伦一区二区 | 人人澡人人透人人爽 | 国产精品久久久午夜夜伦鲁鲁 | 免费国产黄网站在线观看 | 少妇一晚三次一区二区三区 | 少妇被黑人到高潮喷出白浆 | 国色天香社区在线视频 | 亚洲精品一区二区三区在线 | 国产特级毛片aaaaaa高潮流水 | 亚洲乱亚洲乱妇50p | 荫蒂被男人添的好舒服爽免费视频 | 天天av天天av天天透 | 最新国产乱人伦偷精品免费网站 | 久久综合色之久久综合 | 欧美日韩人成综合在线播放 | 久久精品成人欧美大片 | 狠狠色噜噜狠狠狠狠7777米奇 | 学生妹亚洲一区二区 | 国产成人无码一二三区视频 | 无遮挡国产高潮视频免费观看 | 成人综合网亚洲伊人 | 熟女少妇在线视频播放 | 55夜色66夜色国产精品视频 | 日韩视频 中文字幕 视频一区 | 97se亚洲精品一区 | 亚洲欧美国产精品专区久久 | 精品无码一区二区三区的天堂 | 三上悠亚人妻中文字幕在线 | 欧美三级a做爰在线观看 | 免费看男女做好爽好硬视频 | 亚洲乱码国产乱码精品精 | 国产精品人人妻人人爽 | 欧美丰满熟妇xxxx | 成人影院yy111111在线观看 | 无码成人精品区在线观看 | 亚洲精品一区三区三区在线观看 | 狠狠色丁香久久婷婷综合五月 | 亚洲中文字幕在线观看 | 日本一区二区三区免费高清 | 丰满妇女强制高潮18xxxx | 天天av天天av天天透 | 我要看www免费看插插视频 | 欧美怡红院免费全部视频 | 久久久久久国产精品无码下载 | 国色天香社区在线视频 | 国产精品亚洲专区无码不卡 | 欧美激情内射喷水高潮 | 久久成人a毛片免费观看网站 | 内射欧美老妇wbb | 蜜臀av在线播放 久久综合激激的五月天 | 真人与拘做受免费视频 | 欧美激情内射喷水高潮 | 亚洲自偷精品视频自拍 | 欧美人与善在线com | 国产综合在线观看 | 秋霞特色aa大片 | 夜夜夜高潮夜夜爽夜夜爰爰 | 久久久久久久女国产乱让韩 | 少妇无码一区二区二三区 | 无遮无挡爽爽免费视频 | 国内揄拍国内精品少妇国语 | 在线欧美精品一区二区三区 | 欧美性猛交xxxx富婆 | 欧美午夜特黄aaaaaa片 | 大地资源网第二页免费观看 | 国产精品久久久久久无码 | www国产亚洲精品久久久日本 | 成人免费视频一区二区 | 国产精品美女久久久 | 亚洲色大成网站www国产 | 成年女人永久免费看片 | 欧美 日韩 亚洲 在线 | 亚洲午夜久久久影院 | 国产另类ts人妖一区二区 | 亚洲欧美色中文字幕在线 | 国产av久久久久精东av | 久久久av男人的天堂 | 国产精品18久久久久久麻辣 | 久久综合久久自在自线精品自 | 国产人成高清在线视频99最全资源 | 国产成人精品视频ⅴa片软件竹菊 | 高潮喷水的毛片 | 在线观看国产一区二区三区 | 国产av无码专区亚洲awww | 九月婷婷人人澡人人添人人爽 | 999久久久国产精品消防器材 | 亚洲日韩乱码中文无码蜜桃臀网站 | 久久aⅴ免费观看 | av无码久久久久不卡免费网站 | 97夜夜澡人人双人人人喊 | 在线视频网站www色 | 国产精品无码久久av | 欧美人与物videos另类 | 两性色午夜免费视频 | 99久久久无码国产精品免费 | 午夜成人1000部免费视频 | 领导边摸边吃奶边做爽在线观看 | www一区二区www免费 | 国产97人人超碰caoprom | 免费观看激色视频网站 | 欧美精品国产综合久久 | 曰韩少妇内射免费播放 | 国产无遮挡又黄又爽又色 | 中文字幕乱妇无码av在线 | 啦啦啦www在线观看免费视频 | 一二三四在线观看免费视频 | 久热国产vs视频在线观看 | 无码成人精品区在线观看 | 人妻少妇精品久久 | 成人综合网亚洲伊人 | 精品人妻av区 | 欧美国产亚洲日韩在线二区 | 97资源共享在线视频 | 色欲久久久天天天综合网精品 | 伊人久久婷婷五月综合97色 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 亚洲欧美综合区丁香五月小说 | 又湿又紧又大又爽a视频国产 | 国产成人综合在线女婷五月99播放 | 欧美人与牲动交xxxx | 一本久道久久综合婷婷五月 |