久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

pytorch 实现transformer

發布時間:2025/4/5 编程问答 46 豆豆
生活随笔 收集整理的這篇文章主要介紹了 pytorch 实现transformer 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

transformer理論部分見機器學習筆記:Transformer_劉文巾的博客-CSDN博客

1 導入庫

import math import torch import numpy as np import torch.nn as nn import torch.optim as optim import torch.utils.data as Data

2?數據集處理

?S: decoder輸入的起始符號
?E: decoder輸出的終止符號
?P: 出現不等長的sequence的時候,用來補長

# S: Symbol that shows starting of decoding input # E: Symbol that shows endng of decoding output# P: Symbol that will fill in blank sequence # if current batch data size is short than time stepssentences = [# enc_input dec_input dec_output['ich mochte ein bier', 'S i want a beer .', 'i want a beer . E'],['ich mochte ein cola', 'S i want a coke .', 'i want a coke . E'] ]#encoder input和decoder input就不用說了,分別是transformer中encoder和decoder的輸入 #decoder output就是我們理論上需要輸出的東西(ground truth)(預測的句子和這個進行比對,算loss)#這里的輸入數據集只是兩對英德句子,每個字的索引(vocab)也是手動編碼上去的 src_vocab = {'P' : 0, 'ich' : 1, 'mochte' : 2, 'ein' : 3, 'bier' : 4, 'cola' : 5} # Padding Should be Zero #每一個batch里面的句子長度是一樣的,那么不足的部分就需要補Paddingsrc_vocab_size = len(src_vocab)tgt_vocab = {'P' : 0, 'i' : 1, 'want' : 2, 'a' : 3, 'beer' : 4, 'coke' : 5, 'S' : 6, 'E' : 7, '.' : 8}idx2word = {i: w for i, w in enumerate(tgt_vocab)} #idx2word 鍵值是數字,value是對應的英文單詞tgt_vocab_size = len(tgt_vocab)src_len = 5 # enc_input max sequence length #encoder 輸入的句子的長度(不足的部分補padding)tgt_len = 6 # dec_input(=dec_output) max sequence length #decoder輸出的目標句子的長度(算上起始符S和終止符E之后)

3?transformer的參數

# Transformer Parameters d_model = 512 #每一個詞的 word embedding 用多少維表示 #(包括positional encoding應該用多少維表示,因為這兩個要維度相加,應該是一樣的維度)d_ff = 2048 # FeedForward dimension #forward線性層變成多少維 #(d_model->d_ff->d_model)d_k = d_v = 64 # dimension of K(=Q), V #K,Q,V矩陣的維度 #K和Q一定是一樣的,因為要K乘Q的轉置 #V不一定,這里我們認為是一樣的''' 換一種說法,就是我在進行self-attention的時候, 從input(加了位置編碼之后的input)線性變換之后的三個向量 K,Q,V的維度 '''n_layers = 6 #encoder和decoder各有多少層n_heads = 8 #multi-head attention有幾個頭

4?數據預處理

將encoder_input、decoder_input和decoder_output進行id化

def make_data(sentences):enc_inputs, dec_inputs, dec_outputs = [], [], []for i in range(len(sentences)):#對于輸入的每一句話enc_input = [src_vocab[n] for n in sentences[i][0].split()]# 每一次生成這一行sentence中encoder_input對應的id編碼for _ in range(src_len-len(enc_input)):enc_input.append(0)#encoder_input 補長dec_input = [tgt_vocab[n] for n in sentences[i][1].split()]# 每一次生成這一行sentence中decoder_input對應的id編碼for _ in range(tgt_len-len(dec_input)):dec_input.append(0)#decoder_input補長dec_output = [tgt_vocab[n] for n in sentences[i][2].split()]# 每一次生成這一行sentence中decoder_output對應的id編碼for _ in range(tgt_len-len(dec_output)):dec_output.append(0)#decoder_output補長#分別對encoder-input、decoder-input、decoder-output進行處理,分別放到一個list里面enc_inputs.extend(enc_input)dec_inputs.extend(dec_input)dec_outputs.extend(dec_output)return torch.LongTensor(enc_inputs), torch.LongTensor(dec_inputs), torch.LongTensor(dec_outputs) #一定要是LongTensorenc_inputs, dec_inputs, dec_outputs = make_data(sentences)print(enc_inputs,'\n', dec_inputs,'\n', dec_outputs) ''' tensor([[1, 2, 3, 4, 0],[1, 2, 3, 5, 0]]) tensor([[6, 1, 2, 3, 4, 8],[6, 1, 2, 3, 5, 8]]) tensor([[1, 2, 3, 4, 8, 7],[1, 2, 3, 5, 8, 7]]) '''

5 構建dataloader

要使用pytorch的dataloader,有以下兩種構造方法
? ? 第一種方法——構造MyDataSet類,我們需要自己實現__len__方法和__getitem__方法
? ? 第二種方法 使用TensorDateset

具體可見?pytorch筆記:Dataloader_劉文巾的博客-CSDN博客

5.1 MyDataSet

class MyDataSet(Data.Dataset):def __init__(self, enc_inputs, dec_inputs, dec_outputs):super(MyDataSet, self).__init__()self.enc_inputs = enc_inputsself.dec_inputs = dec_inputsself.dec_outputs = dec_outputsdef __len__(self):return self.enc_inputs.shape[0]#有幾個sentencedef __getitem__(self, idx):return self.enc_inputs[idx], self.dec_inputs[idx], self.dec_outputs[idx]#根據索引找encoder_input,decoder_input,decoder_outputloader = Data.DataLoader(MyDataSet(enc_inputs, dec_inputs, dec_outputs), batch_size=2, shuffle=True)for step,(b_e_i,b_d_i,b_d_o) in enumerate(loader):print(b_e_i,'\n',b_d_i,'\n',b_d_o) ''' tensor([[1, 2, 3, 4, 0],[1, 2, 3, 5, 0]]) tensor([[6, 1, 2, 3, 4, 8],[6, 1, 2, 3, 5, 8]]) tensor([[1, 2, 3, 4, 8, 7],[1, 2, 3, 5, 8, 7]]) '''

5.2 TensorDataset

torch_dataset=Data.TensorDataset(enc_inputs, dec_inputs, dec_outputs)loader2=Data.DataLoader(dataset=torch_dataset,batch_size=2,shuffle=True)for step,(b_e_i,b_d_i,b_d_o) in enumerate(loader2):print(b_e_i,'\n',b_d_i,'\n',b_d_o) ''' tensor([[1, 2, 3, 5, 0],[1, 2, 3, 4, 0]]) tensor([[6, 1, 2, 3, 5, 8],[6, 1, 2, 3, 4, 8]]) tensor([[1, 2, 3, 5, 8, 7],[1, 2, 3, 4, 8, 7]]) '''

6 Transformer結構 (總體)

我改變一下順序,先看一下總體的Transformer框架

class Transformer(nn.Module):def __init__(self):super(Transformer, self).__init__()self.encoder = Encoder().cuda()self.decoder = Decoder().cuda()self.projection = nn.Linear(d_model, tgt_vocab_size, bias=False).cuda() #對decoder的輸出轉換維度, #從隱藏層維數->輸出詞典大小(選取概率最大的那一個,作為我們的預測結果)def forward(self, enc_inputs, dec_inputs):''' enc_inputs維度:[batch_size, src_len] 對encoder-input,我一個batch中有batch_size個sequence,一個sequence有src_len個字dec_inputs: [batch_size, tgt_len] 對decoder-input,我一個batch中有batch_size個sequence,一個sequence有tgt_len個字'''enc_outputs, enc_self_attns = self.encoder(enc_inputs) # enc_outputs: [batch_size, src_len, d_model], # d_model是每一個字的word embedding長度"""enc_self_attns: [n_layers, batch_size, n_heads, src_len, src_len] 注意力矩陣,對encoder和decoder,每一層,每一句話,每一個頭,每兩個字之間都有一個權重系數, 這些權重系數組成了注意力矩陣 之后的dec_self_attns同理,當然decoder還有一個decoder-encoder的注意力矩陣"""dec_outputs, dec_self_attns, dec_enc_attns = self.decoder(dec_inputs, enc_inputs, enc_outputs) # dec_outpus: [batch_size, tgt_len, d_model], #dec_self_attns: [n_layers, batch_size, n_heads, tgt_len, tgt_len], #dec_enc_attn: [n_layers, batch_size, tgt_len, src_len]dec_logits = self.projection(dec_outputs) #將輸出的維度,從 [batch_size, tgt_len, d_model]變成[batch_size, tgt_len, tgt_vocab_size] # dec_logits: [batch_size, tgt_len, tgt_vocab_size]return dec_logits.view(-1, dec_logits.size(-1)), enc_self_attns, dec_self_attns, dec_enc_attns ''' dec_logits view了之后的維度是 [batch_size * tgt_len, tgt_vocab_size],可以理解為, 一個長句子,這個句子有 batch_size*tgt_len 個單詞. 每個單詞用 tgt_vocab_size 維表示,表示這個單詞為目標語言各個單詞的概率,取概率最大者為這個單詞的翻譯 '''#Transformer 主要就是調用 Encoder 和 Decoder。最后返回

7 Encoder 結構

7.1 Encoder結構整體

nn.Embedding原理可見?pytorch 筆記: torch.nn.Embedding_劉文巾的博客-CSDN博客

class Encoder(nn.Module):def __init__(self):super(Encoder, self).__init__()self.src_emb = nn.Embedding(src_vocab_size, d_model) #對encoder的輸入的每個單詞進行詞向量計算(src_vocab_size個詞,每個詞d_model的維度)self.pos_emb = PositionalEncoding(d_model)#計算位置向量self.layers = nn.ModuleList([EncoderLayer() for _ in range(n_layers)])#將6個EncoderLayer組成一個moduledef forward(self, enc_inputs):'''enc_inputs: [batch_size, src_len]'''enc_outputs = self.src_emb(enc_inputs) #對每個單詞進行詞向量計算#enc_outputs [batch_size, src_len, d_model]enc_outputs = self.pos_emb(enc_outputs.transpose(0, 1)).transpose(0, 1) #添加位置編碼# enc_outputs [batch_size, src_len, d_model]enc_self_attn_mask = get_attn_pad_mask(enc_inputs, enc_inputs) # enc_self_attn: [batch_size, src_len, src_len]#計算得到encoder-attention的pad martixenc_self_attns = []#創建一個列表,保存接下來要返回的字-字attention的值,不參與任何計算,供可視化用for layer in self.layers:# enc_outputs: [batch_size, src_len, d_model]# enc_self_attn: [batch_size, n_heads, src_len, src_len]enc_outputs, enc_self_attn = layer(enc_outputs, enc_self_attn_mask)enc_self_attns.append(enc_self_attn)#再傳進來就不用positional decoding#記錄下每一次的attentionreturn enc_outputs, enc_self_attns#使用 nn.ModuleList() 里面的參數是列表,列表里面存了 n_layers 個 Encoder Layer#由于我們控制好了 Encoder Layer 的輸入和輸出維度相同,所以可以直接用個 for 循環以嵌套的方式, #將上一次 Encoder Layer 的輸出作為下一次 Encoder Layer 的輸入

7.2?positional encoding

buffer和parameter部分可見pytorch筆記 pytorch模型中的parameter與buffer_劉文巾的博客-CSDN博客

class PositionalEncoding(nn.Module):def __init__(self, d_model, dropout=0.1, max_len=5000):super(PositionalEncoding, self).__init__()self.dropout = nn.Dropout(p=dropout)#max_len (一個sequence的最大長度)pe = torch.zeros(max_len, d_model) #pe [max_len,d_model]position = torch.arange(0, max_len, dtype=torch.float).unsqueeze(1) #position [max_len,1]div_term = torch.exp(torch.arange(0, d_model, 2).float() * (-math.log(10000.0) / d_model)) div_term:[d_model/2] #e^(-i*log10000/d_model)=10000^(-i/d_model) #d_model為embedding_dimension#兩個相乘的維度為[max_len,d_model/2] pe[:, 0::2] = torch.sin(position * div_term)pe[:, 1::2] = torch.cos(position * div_term) #計算position encoding #pe的維度為[max_len,d_model],每一行的奇數偶數分別取sin和cos(position * div_term)里面的值pe = pe.unsqueeze(0).transpose(0, 1) #維度變成(max_len,1,d_model), #所以直接用pe=pe.unsqueeze(1)也可以self.register_buffer('pe', pe) #放入buffer中,參數不會訓練 #因為無論是encoder還是decoder,他每一個字的維度都是d_model #同時他們的位置編碼原理是一樣的 #所以一個sequence中所需要加上的positional encoding是一樣的。 #所以只需要存一個pe就可以了 #同時pe是固定的參數,不需要訓練 #后續代碼中,如果要使用位置編碼,只需要self.pe即可,因為pe已經注冊在buffer里面了def forward(self, x):'''x: [seq_len, batch_size, d_model]'''x = x + self.pe[:x.size(0), :,:] #選取和x一樣維度的seq_length,將pe加到x上return self.dropout(x)

7.3?get-attention-pad-mask

#由于在 Encoder 和 Decoder 中都需要進行 mask 操作, #因此就無法確定這個函數的參數中 seq_len 的值, #如果是在 Encoder 中調用的,seq_len 就等于 src_len #如果是在 Decoder 中調用的,seq_len 就有可能等于 src_len, #也有可能等于 tgt_len(因為 Decoder 有兩個attention模塊,兩次 mask) #src_len 是在encoder-decoder中的mask #tgt_len是decoder中的maskdef get_attn_pad_mask(seq_q, seq_k): #對于seq_q中的每一個元素,它都會和seq_k中的每一個元素有著一個相關聯系數,這個系數組成一個矩陣: #但是因為pad的存在,pad的這些地方是不參與我們attention的計算的 #那么就是我們這里要返回的東西就是輔助得到哪些位是需要pad的 #pad的位置標記上True'''seq_q: [batch_size, seq_len]seq_k: [batch_size, seq_len]seq_len could be src_len or it could be tgt_lenseq_len in seq_q and seq_len in seq_k maybe not equal'''batch_size, len_q = seq_q.size()batch_size, len_k = seq_k.size()pad_attn_mask = seq_k.data.eq(0).unsqueeze(1) #擴展一個維度,因為attention_matrix是三維的 # pad_attn_mask [batch_size, 1, len_k] #seq_q:[[1,2,3,4,0],[1,2,4,5,0]] ->pad_attn_mask [[F,F,F,F,T],[F,F,F,F,T]]#通過seq_k.data.eq(0),判斷哪些位是pad(pad的編碼為0) #舉個例子,輸入為 seq_data = [1, 2, 3, 4, 0],seq_data.data.eq(0) #就會返回 [False, False, False, False, True]return pad_attn_mask.expand(batch_size, len_q, len_k) #對于每一個batch_size對應的一行,都擴充為len_q行 # [batch_size, len_q, len_k]''' seq_q=torch.Tensor([[1,2,3,4,0],[1,2,4,5,0]] ) print(seq_q.data.eq(0).unsqueeze(1)) print(seq_q.data.eq(0).unsqueeze(1).expand(2,5,5) ) '''

解釋一下這里expand之后矩陣的意思,以及為什么每一行是一樣的

?1amChinesepadding
FALSEFALSEFALSETRUE
FALSEFALSEFALSETRUE
FALSEFALSEFALSETRUE
FALSEFALSEFALSETRUE
FALSEFALSEFALSETRUE

假設我們用英文翻譯中文。那么我們預測每一個中文字的時候,需要每個英文單詞的權重。

這個權重就是之后attention matrix每一個元素里面的東西。

所以矩陣的大小是(len_q,len_k)

而我們這個函數做的是輔助attention matrix,知道哪些位是需要padding的,哪些是不需要的。所以維度需要和attention matrix一致。

7.4 Encoder Layer(整體)

class EncoderLayer(nn.Module):def __init__(self):super(EncoderLayer, self).__init__()self.enc_self_attn = MultiHeadAttention() #多頭注意力機制self.pos_ffn = PoswiseFeedForwardNet() #提取特征def forward(self, enc_inputs, enc_self_attn_mask):'''enc_inputs: [batch_size, src_len, d_model]enc_self_attn_mask: [batch_size, src_len, src_len]'''enc_outputs, attn = self.enc_self_attn(enc_inputs, enc_inputs, enc_inputs, enc_self_attn_mask) # enc_outputs: [batch_size, src_len, d_model], #attn: [batch_size, n_heads, src_len, src_len] 每一個頭一個注意力矩陣# enc_inputs to same Q,K,V # enc_inputs乘以WQ,WK,WV生成QKV矩陣 ''' 為什么傳三個? 因為這里傳的是一樣的 但在decoder-encoder的mulit-head里面 我們需要的decoder input ,encoder output, encoder output 所以為了使用方便,我們在定義enc_self_atten函數的時候就定義的是有三個形參的 '''enc_outputs = self.pos_ffn(enc_outputs) # enc_outputs: [batch_size, src_len, d_model] #輸入和輸出的維度是一樣的return enc_outputs, attn #將上述組件拼起來,就是一個完整的 Encoder Layer

7.4.1?Multihead attention

class MultiHeadAttention(nn.Module):def __init__(self):super(MultiHeadAttention, self).__init__()self.W_Q = nn.Linear(d_model, d_k * n_heads, bias=False)self.W_K = nn.Linear(d_model, d_k * n_heads, bias=False)self.W_V = nn.Linear(d_model, d_v * n_heads, bias=False) #三個矩陣,分別對輸入進行三次線性變化self.fc = nn.Linear(n_heads * d_v, d_model, bias=False)#變換維度def forward(self, input_Q, input_K, input_V, attn_mask):'''input_Q: [batch_size, len_q, d_model]input_K: [batch_size, len_k, d_model]input_V: [batch_size, len_v(=len_k), d_model]attn_mask: [batch_size, seq_len, seq_len]'''residual, batch_size = input_Q, input_Q.size(0)Q = self.W_Q(input_Q).view(batch_size, -1, n_heads, d_k).transpose(1,2) K = self.W_K(input_K).view(batch_size, -1, n_heads, d_k).transpose(1,2) V = self.W_V(input_V).view(batch_size, -1, n_heads, d_v).transpose(1,2) #生成Q,K,V矩陣''' input_Q: [batch_size, len_q, d_model] (W)-> [batch_size, len_q,d_k * n_heads] (view)->[batch_size, len_q,n_heads,d_k] (transpose)-> [batch_size,n_heads, len_q,d_k ] '''attn_mask = attn_mask.unsqueeze(1).repeat(1, n_heads, 1, 1) ''' attn_mask: [batch_size, seq_len, seq_len] (unsqueeze)->[batch_size, 1, seq_len, seq_len] (repeat)->[batch_size, n_heads, seq_len, seq_len] '''context, attn = ScaledDotProductAttention()(Q, K, V, attn_mask) # context: [batch_size, n_heads, len_q, d_v], #attn: [batch_size, n_heads, len_q, len_k]context = context.transpose(1, 2).reshape(batch_size, -1, n_heads * d_v) # context: [batch_size, len_q, n_heads * d_v]output = self.fc(context) # [batch_size, len_q, d_model]return nn.LayerNorm(d_model).cuda()(output + residual), attn #Add & Norm ''' 完整代碼中一定會有三處地方調用 MultiHeadAttention(),Encoder Layer 調用一次, 傳入的 input_Q、input_K、input_V 全部都是 enc_inputs; Decoder Layer 中兩次調用,第一次都是decoder_inputs;第二次是兩個encoder_outputs和一個decoder——input '''

7.4.2?Scaled-Dot-Product-Attention

class ScaledDotProductAttention(nn.Module):def __init__(self):super(ScaledDotProductAttention, self).__init__()def forward(self, Q, K, V, attn_mask):'''Q: [batch_size, n_heads, len_q, d_k]K: [batch_size, n_heads, len_k, d_k]V: [batch_size, n_heads, len_v(=len_k), d_v]attn_mask: [batch_size, n_heads, seq_len, seq_len]'''scores = torch.matmul(Q, K.transpose(-1, -2)) / np.sqrt(d_k) # scores : [batch_size, n_heads, len_q, len_k]scores.masked_fill_(attn_mask, -1e9) #attn_mask所有為True的部分(即有pad的部分),scores填充為負無窮,也就是這個位置的值對于softmax沒有影響attn = nn.Softmax(dim=-1)(scores) #attn: [batch_size, n_heads, len_q, len_k] #對每一行進行softmaxcontext = torch.matmul(attn, V) # [batch_size, n_heads, len_q, d_v]return context, attn ''' 這里要做的是,通過 Q 和 K 計算出 scores,然后將 scores 和 V 相乘,得到每個單詞的 context vector第一步是將 Q 和 K 的轉置相乘沒什么好說的,相乘之后得到的 scores 還不能立刻進行 softmax, 需要和 attn_mask 相加,把一些需要屏蔽的信息屏蔽掉, attn_mask 是一個僅由 True 和 False 組成的 tensor,并且一定會保證 attn_mask 和 scores 的維度四個值相同(不然無法做對應位置相加)mask 完了之后,就可以對 scores 進行 softmax 了。然后再與 V 相乘,得到 context '''

7.4.3?PoswiseFeedForwardNet

用來提取特征的

class PoswiseFeedForwardNet(nn.Module):def __init__(self):super(PoswiseFeedForwardNet, self).__init__()self.fc = nn.Sequential(nn.Linear(d_model, d_ff, bias=False),nn.ReLU(),nn.Linear(d_ff, d_model, bias=False))def forward(self, inputs):'''inputs: [batch_size, seq_len, d_model]'''residual = inputsoutput = self.fc(inputs)return nn.LayerNorm(d_model).cuda()(output + residual) # [batch_size, seq_len, d_model]#也有殘差連接和layer normalization#這段代碼非常簡單,就是做兩次線性變換,殘差連接后再跟一個 Layer Norm

8?decoder結構

8.1 decoder 結構(整體)

class Decoder(nn.Module):def __init__(self):super(Decoder, self).__init__()self.tgt_emb = nn.Embedding(tgt_vocab_size, d_model)self.pos_emb = PositionalEncoding(d_model)self.layers = nn.ModuleList([DecoderLayer() for _ in range(n_layers)])def forward(self, dec_inputs, enc_inputs, enc_outputs):''' dec_inputs: [batch_size, tgt_len] enc_intpus: [batch_size, src_len] enc_outputs: [batsh_size, src_len, d_model] 經過六次encoder之后得到的東西'''dec_outputs = self.tgt_emb(dec_inputs) # [batch_size, tgt_len, d_model] #同樣地,對decoder_layer進行詞向量的生成dec_outputs = self.pos_emb(dec_outputs.transpose(0, 1)).transpose(0, 1).cuda() #計算他的位置向量 # [batch_size, tgt_len, d_model]dec_self_attn_pad_mask = get_attn_pad_mask(dec_inputs, dec_inputs).cuda() # [batch_size, tgt_len, tgt_len] #decoder的multi-head attention的mask(padding部分為True,其他為False)dec_self_attn_subsequence_mask = get_attn_subsequence_mask(dec_inputs).cuda() # [batch_size, tgt_len, tgt_len] #當前時刻我是看不到未來時刻的東西的,要把之后的部門mask掉( #看不到的部分為True,看得到的部分為Falsedec_self_attn_mask = torch.gt((dec_self_attn_pad_mask + dec_self_attn_subsequence_mask), 0).cuda() # [batch_size, tgt_len, tgt_len]#布爾+int false 0 true 1,gt 大于 True #這樣把dec_self_attn_pad_mask和dec_self_attn_subsequence_mask里面為True的部分都剔除掉了 #也就是說,結果是所有需要被mask掉位置為True,不需要被mask掉的為Falsedec_enc_attn_mask = get_attn_pad_mask(dec_inputs, enc_inputs) # [batc_size, tgt_len, src_len] #在decoder的第二個attention里面使用dec_self_attns, dec_enc_attns = [], [] #decoder的兩個attention模塊for layer in self.layers:# dec_outputs: [batch_size, tgt_len, d_model], #dec_self_attn: [batch_size, n_heads, tgt_len, tgt_len], #dec_enc_attn: [batch_size, h_heads, tgt_len, src_len]dec_outputs, dec_self_attn, dec_enc_attn = \layer(dec_outputs, enc_outputs, dec_self_attn_mask, dec_enc_attn_mask)dec_self_attns.append(dec_self_attn)dec_enc_attns.append(dec_enc_attn)return dec_outputs, dec_self_attns, dec_enc_attns

8.2 DecoderLayer

class DecoderLayer(nn.Module):def __init__(self):super(DecoderLayer, self).__init__()self.dec_self_attn = MultiHeadAttention()self.dec_enc_attn = MultiHeadAttention()self.pos_ffn = PoswiseFeedForwardNet()def forward(self, dec_inputs, enc_outputs, dec_self_attn_mask, dec_enc_attn_mask):''' dec_inputs: [batch_size, tgt_len, d_model] enc_outputs: [batch_size, src_len, d_model] dec_self_attn_mask: [batch_size, tgt_len, tgt_len] dec_enc_attn_mask: [batch_size, tgt_len, src_len]'''dec_outputs, dec_self_attn = self.dec_self_attn(dec_inputs, dec_inputs, dec_inputs, dec_self_attn_mask) # dec_outputs: [batch_size, tgt_len, d_model], #dec_self_attn: [batch_size, n_heads, tgt_len, tgt_len] #先是decoder的self-attentiondec_outputs, dec_enc_attn = self.dec_enc_attn(dec_outputs, enc_outputs, enc_outputs, dec_enc_attn_mask) # dec_outputs: [batch_size, tgt_len, d_model] # dec_enc_attn: [batch_size, h_heads, tgt_len, src_len] #再是encoder-decoder attention部分dec_outputs = self.pos_ffn(dec_outputs) # [batch_size, tgt_len, d_model] #特征提取return dec_outputs, dec_self_attn, dec_enc_attn #在 Decoder Layer 中會調用兩次 MultiHeadAttention,第一次是計算 Decoder Input 的 self-attention,得到輸出 dec_outputs。 #然后將 dec_outputs 作為生成 Q 的元素,enc_outputs 作為生成 K 和 V 的元素,再調用一次

8.2.1?get_attn_subsequence_mask

def get_attn_subsequence_mask(seq): #Subsequence Mask 只有 Decoder的self-attention會用到,主要作用是屏蔽未來時刻單詞的信息。'''seq: [batch_size, tgt_len] '''attn_shape = [seq.size(0), seq.size(1), seq.size(1)] #[batch_size, tgt_len, tgt_len]subsequence_mask = np.triu(np.ones(attn_shape), k=1) # Upper triangular matrix #首先通過 np.ones() 生成一個全 1 的方陣 #然后通過 np.triu() 生成一個上三角矩陣(對角線元素及其左下方全為0)subsequence_mask = torch.from_numpy(subsequence_mask).byte()#轉化成byte類型的tensorreturn subsequence_mask # [batch_size, tgt_len, tgt_len]''' s=torch.Tensor([[1,1,1],[3,5,1]]) get_attn_subsequence_mask(s)tensor([[[0, 1, 1],[0, 0, 1],[0, 0, 0]],[[0, 1, 1],[0, 0, 1],[0, 0, 0]]], dtype=torch.uint8) '''

9 定義模型,損失函數和優化函數

model = Transformer().cuda() criterion = nn.CrossEntropyLoss(ignore_index=0) optimizer = optim.SGD(model.parameters(), lr=1e-3, momentum=0.99)

10?進行訓練

for epoch in range(30):for enc_inputs, dec_inputs, dec_outputs in loader:'''enc_inputs: [batch_size, src_len]dec_inputs: [batch_size, tgt_len]dec_outputs: [batch_size, tgt_len]'''enc_inputs, dec_inputs, dec_outputs = enc_inputs.cuda(), dec_inputs.cuda(), dec_outputs.cuda()outputs, enc_self_attns, dec_self_attns, dec_enc_attns = model(enc_inputs, dec_inputs) # outputs: [batch_size * tgt_len, tgt_vocab_size] loss = criterion(outputs, dec_outputs.view(-1))print('Epoch:', '%04d' % (epoch + 1), 'loss =', '{:.6f}'.format(loss))optimizer.zero_grad()loss.backward()optimizer.step()''' Epoch: 0001 loss = 2.399018 Epoch: 0002 loss = 2.190828 Epoch: 0003 loss = 2.072805 Epoch: 0004 loss = 1.816573 Epoch: 0005 loss = 1.629891 Epoch: 0006 loss = 1.342404 Epoch: 0007 loss = 1.120496 Epoch: 0008 loss = 0.945255 Epoch: 0009 loss = 0.765375 Epoch: 0010 loss = 0.597852 Epoch: 0011 loss = 0.504108 Epoch: 0012 loss = 0.368425 Epoch: 0013 loss = 0.273608 Epoch: 0014 loss = 0.239933 Epoch: 0015 loss = 0.187699 Epoch: 0016 loss = 0.161942 Epoch: 0017 loss = 0.151922 Epoch: 0018 loss = 0.103952 Epoch: 0019 loss = 0.072388 Epoch: 0020 loss = 0.080190 Epoch: 0021 loss = 0.070481 Epoch: 0022 loss = 0.054710 Epoch: 0023 loss = 0.053659 Epoch: 0024 loss = 0.047746 Epoch: 0025 loss = 0.029473 Epoch: 0026 loss = 0.039323 Epoch: 0027 loss = 0.036756 Epoch: 0028 loss = 0.014491 Epoch: 0029 loss = 0.020453 Epoch: 0030 loss = 0.024998 '''

11 測試結果

enc_inputs, dec_inputs,dec_outputs = next(iter(loader))predict, e_attn, d1_attn, d2_attn = model(enc_inputs[0].view(1, -1).cuda(), dec_inputs[0].view(1, -1).cuda())predict = predict.data.max(1, keepdim=True)[1]print(enc_inputs[0], '->', [idx2word[n.item()] for n in predict.squeeze()]) #tensor([1, 2, 3, 5, 0]) -> ['i', 'want', 'a', 'coke', '.', 'E']''' e_attn的形狀[6,8,5,5] 六層 8頭 5*5 d1_attn的形狀[6,8,6,6] 六層 8頭 6*6(decoder自己的attention) d2_attn的形狀[6,8,6,5] 六層 8頭 6*5'''

12 可視化attention

我們以encoder 最后一層的attention為例:

x=e_attn[-1].view(8,5,5) import seaborn import matplotlib.pyplot as plt for i in range(8):plt.title('head'+str(i))seaborn.heatmap(x[i].data.cpu(),cmap='Blues')plt.show()

13 整體代碼

#導入庫 import math import torch import numpy as np import torch.nn as nn import torch.optim as optim import torch.utils.data as Data#***********************************************# #數據集處理 # S: Symbol that shows starting of decoding input # E: Symbol that shows endng of decoding output # P: Symbol that will fill in blank sequence if current batch data size is short than time steps sentences = [# enc_input dec_input dec_output['ich mochte ein bier', 'S i want a beer .', 'i want a beer . E'],['ich mochte ein cola', 'S i want a coke .', 'i want a coke . E'] ] #encoder input和decoder input就不用說了,分別是transformer中encoder和decoder的輸入 #decoder output就是我們理論上需要輸出的東西(ground truth)(預測的句子和這個進行比對,算loss) #這里的輸入數據集只是兩對英德句子,每個字的索引(vocab)也是手動編碼上去的 src_vocab = {'P' : 0, 'ich' : 1, 'mochte' : 2, 'ein' : 3, 'bier' : 4, 'cola' : 5} # Padding Should be Zero #每一個batch里面的句子長度是一樣的,那么不足的部分就需要補Padding src_vocab_size = len(src_vocab)tgt_vocab = {'P' : 0, 'i' : 1, 'want' : 2, 'a' : 3, 'beer' : 4, 'coke' : 5, 'S' : 6, 'E' : 7, '.' : 8} idx2word = {i: w for i, w in enumerate(tgt_vocab)}tgt_vocab_size = len(tgt_vocab)#***********************************************# #參數定義4 src_len = 5 # enc_input max sequence length #encoder 輸入的句子的長度(不足的部分補padding) tgt_len = 6 # dec_input(=dec_output) max sequence length #decoder輸出的目標句子的長度(算上起始符S和終止符E之后)#***********************************************# #transformer的參數 # Transformer Parameters d_model = 512 #每一個詞的 word embedding 用多少位表示 #(包括positional encoding應該用多少位表示,因為這兩個要維度相加,應該是一樣的維度) d_ff = 2048 # FeedForward dimension #forward線性層變成多少位(d_model->d_ff->d_model) d_k = d_v = 64 # dimension of K(=Q), V #K,Q,V矩陣的維度(K和Q一定是一樣的,因為要K乘Q的轉置),V不一定 ''' 換一種說法,就是我在進行self-attention的時候, 從input(當然是加了位置編碼之后的input)線性變換之后的三個向量 K,Q,V的維度 ''' n_layers = 6 #encoder和decoder各有多少層 n_heads = 8 #multi-head attention有幾個頭 #***********************************************##數據預處理 # 將encoder_input、decoder_input和decoder_output進行id化def make_data(sentences):enc_inputs, dec_inputs, dec_outputs = [], [], []for i in range(len(sentences)):#對于輸入的每一句話enc_input = [src_vocab[n] for n in sentences[i][0].split()]# 每一次生成這一行sentence中encoder_input對應的id編碼for _ in range(src_len-len(enc_input)):enc_input.append(0)dec_input = [tgt_vocab[n] for n in sentences[i][1].split()]# 每一次生成這一行sentence中decoder_input對應的id編碼for _ in range(tgt_len-len(dec_input)):dec_input.append(0)dec_output = [tgt_vocab[n] for n in sentences[i][2].split()]# 每一次生成這一行sentence中decoder_output對應的id編碼for _ in range(tgt_len-len(dec_output)):dec_output.append(0)#分別對encoder-input、decoder-input、decoder-output進行處理,分別放到一個list里面enc_inputs.append(enc_input)dec_inputs.append(dec_input)dec_outputs.append(dec_output)return torch.LongTensor(enc_inputs), torch.LongTensor(dec_inputs), torch.LongTensor(dec_outputs)enc_inputs, dec_inputs, dec_outputs = make_data(sentences) #***********************************************#class MyDataSet(Data.Dataset):def __init__(self, enc_inputs, dec_inputs, dec_outputs):super(MyDataSet, self).__init__()self.enc_inputs = enc_inputsself.dec_inputs = dec_inputsself.dec_outputs = dec_outputsdef __len__(self):return self.enc_inputs.shape[0]#有幾個sentencedef __getitem__(self, idx):return self.enc_inputs[idx], self.dec_inputs[idx], self.dec_outputs[idx]#根據索引找encoder_input,decoder_input,decoder_outputloader = Data.DataLoader(MyDataSet(enc_inputs, dec_inputs, dec_outputs), batch_size=2, shuffle=True)#***********************************************# class PositionalEncoding(nn.Module):def __init__(self, d_model, dropout=0.1, max_len=5000):super(PositionalEncoding, self).__init__()self.dropout = nn.Dropout(p=dropout)#max_length_(一個sequence的最大長度)pe = torch.zeros(max_len, d_model)#pe [max_len,d_model]position = torch.arange(0, max_len, dtype=torch.float).unsqueeze(1)#position [max_len,1]div_term = torch.exp(torch.arange(0, d_model, 2).float() * (-math.log(10000.0) / d_model))#div_term:[d_model/2]#e^(-i*log10000/d_model)=10000^(-i/d_model)#d_model為embedding_dimension#兩個相乘的維度為[max_len,d_model/2] pe[:, 0::2] = torch.sin(position * div_term)pe[:, 1::2] = torch.cos(position * div_term)#計算position encoding#pe的維度為[max_len,d_model],每一行的奇數偶數分別取sin和cos(position * div_term)里面的值pe = pe.unsqueeze(0).transpose(0, 1)#維度變成(max_len,1,d_model)#所以直接用pe=pe.unsqueeze(1)也可以self.register_buffer('pe', pe)#放入buffer中,參數不會訓練def forward(self, x):'''x: [seq_len, batch_size, d_model]'''x = x + self.pe[:x.size(0), :,:]#選取和x一樣維度的seq_length,將pe加到x上return self.dropout(x) #***********************************************# #由于在 Encoder 和 Decoder 中都需要進行 mask 操作, #因此就無法確定這個函數的參數中 seq_len 的值, #如果是在 Encoder 中調用的,seq_len 就等于 src_len #如果是在 Decoder 中調用的,seq_len 就有可能等于 src_len, #也有可能等于 tgt_len(因為 Decoder 有兩次 mask) #src_len 是在encoder-decoder中的mask #tgt_len是decdoer maskdef get_attn_pad_mask(seq_q, seq_k):#對于seq_q中的每一個元素,它都會和seq_k中的每一個元素有著一個相關聯系數,這個系數組成一個矩陣:#但是因為pad的存在,pad的這些地方是不參與我們attention的計算的,那么就是我們這里要返回的東西就是輔助得到哪些位是pad'''seq_q: [batch_size, seq_len]seq_k: [batch_size, seq_len]seq_len could be src_len or it could be tgt_lenseq_len in seq_q and seq_len in seq_k maybe not equal'''#pad的位置標記上Truebatch_size, len_q = seq_q.size()batch_size, len_k = seq_k.size()#seq_q:[[1,2,3,4,0],[1,2,4,5,0]] ->pad_attn_mask [[F,F,F,F,T],[F,F,F,F,T]]#擴展一個維度,因為word embedding是三維的pad_attn_mask = seq_k.data.eq(0).unsqueeze(1) # pad_attn_mask [batch_size, 1, len_k], False is masked#通過seq_k.data.eq(0),判斷哪些位是pad(pad的編碼為0)#舉個例子,輸入為 seq_data = [1, 2, 3, 4, 0],seq_data.data.eq(0) 就會返回 [False, False, False, False, True]return pad_attn_mask.expand(batch_size, len_q, len_k) #對于每一個batch_size對應的一行,都擴充為len_q行# [batch_size, len_q, len_k] #***********************************************# def get_attn_subsequence_mask(seq): #Subsequence Mask 只有 Decoder的self-attention會用到,主要作用是屏蔽未來時刻單詞的信息。'''seq: [batch_size, tgt_len]'''attn_shape = [seq.size(0), seq.size(1), seq.size(1)]#[batch_size, tgt_len, tgt_len]subsequence_mask = np.triu(np.ones(attn_shape), k=1) # Upper triangular matrix#首先通過 np.ones() 生成一個全 1 的方陣,然后通過 np.triu() 生成一個上三角矩陣(對角線元素及其左下方全為0)subsequence_mask = torch.from_numpy(subsequence_mask).byte()#轉化成byte類型的tensorreturn subsequence_mask # [batch_size, tgt_len, tgt_len] #***********************************************# class ScaledDotProductAttention(nn.Module):def __init__(self):super(ScaledDotProductAttention, self).__init__()def forward(self, Q, K, V, attn_mask):'''Q: [batch_size, n_heads, len_q, d_k]K: [batch_size, n_heads, len_k, d_k]V: [batch_size, n_heads, len_v(=len_k), d_v]attn_mask: [batch_size, n_heads, seq_len, seq_len]'''scores = torch.matmul(Q, K.transpose(-1, -2)) / np.sqrt(d_k) # scores : [batch_size, n_heads, len_q, len_k]scores.masked_fill_(attn_mask, -1e9) #attn_mask所有為True的部分(即有pad的部分),scores填充為負無窮,也就是這個位置的值對于softmax沒有影響attn = nn.Softmax(dim=-1)(scores) #attn: [batch_size, n_heads, len_q, len_k]#對每一行進行softmaxcontext = torch.matmul(attn, V) # [batch_size, n_heads, len_q, d_v]return context, attn ''' 這里要做的是,通過 Q 和 K 計算出 scores,然后將 scores 和 V 相乘,得到每個單詞的 context vector第一步是將 Q 和 K 的轉置相乘沒什么好說的,相乘之后得到的 scores 還不能立刻進行 softmax, 需要和 attn_mask 相加,把一些需要屏蔽的信息屏蔽掉, attn_mask 是一個僅由 True 和 False 組成的 tensor,并且一定會保證 attn_mask 和 scores 的維度四個值相同(不然無法做對應位置相加)mask 完了之后,就可以對 scores 進行 softmax 了。然后再與 V 相乘,得到 context ''' #***********************************************# class MultiHeadAttention(nn.Module):def __init__(self):super(MultiHeadAttention, self).__init__()self.W_Q = nn.Linear(d_model, d_k * n_heads, bias=False)self.W_K = nn.Linear(d_model, d_k * n_heads, bias=False)self.W_V = nn.Linear(d_model, d_v * n_heads, bias=False)#三個矩陣,分別對輸入進行三次線性變化self.fc = nn.Linear(n_heads * d_v, d_model, bias=False)#變換維度def forward(self, input_Q, input_K, input_V, attn_mask):'''input_Q: [batch_size, len_q, d_model]input_K: [batch_size, len_k, d_model]input_V: [batch_size, len_v(=len_k), d_model]attn_mask: [batch_size, seq_len, seq_len]'''residual, batch_size = input_Q, input_Q.size(0)# [batch_size, len_q, d_model]#(W)-> [batch_size, len_q,d_k * n_heads]#(view)->[batch_size, len_q,n_heads,d_k]#(transpose)-> [batch_size,n_heads, len_q,d_k ]Q = self.W_Q(input_Q).view(batch_size, -1, n_heads, d_k).transpose(1,2) K = self.W_K(input_K).view(batch_size, -1, n_heads, d_k).transpose(1,2) V = self.W_V(input_V).view(batch_size, -1, n_heads, d_v).transpose(1,2) #生成Q,K,V矩陣attn_mask = attn_mask.unsqueeze(1).repeat(1, n_heads, 1, 1) # attn_mask : [batch_size, n_heads, seq_len, seq_len]context, attn = ScaledDotProductAttention()(Q, K, V, attn_mask)# context: [batch_size, n_heads, len_q, d_v],#attn: [batch_size, n_heads, len_q, len_k]context = context.transpose(1, 2).reshape(batch_size, -1, n_heads * d_v) # context: [batch_size, len_q, n_heads * d_v]output = self.fc(context) # [batch_size, len_q, d_model]return nn.LayerNorm(d_model).cuda()(output + residual), attn ''' 完整代碼中一定會有三處地方調用 MultiHeadAttention(),Encoder Layer 調用一次, 傳入的 input_Q、input_K、input_V 全部都是 enc_inputs; Decoder Layer 中兩次調用,第一次都是decoder_inputs;第二次是兩個encoder_outputs和一個decoder——input ''' #***********************************************# class PoswiseFeedForwardNet(nn.Module):def __init__(self):super(PoswiseFeedForwardNet, self).__init__()self.fc = nn.Sequential(nn.Linear(d_model, d_ff, bias=False),nn.ReLU(),nn.Linear(d_ff, d_model, bias=False))def forward(self, inputs):'''inputs: [batch_size, seq_len, d_model]'''residual = inputsoutput = self.fc(inputs)return nn.LayerNorm(d_model).cuda()(output + residual) # [batch_size, seq_len, d_model]#也有殘差連接和layer normalization#這段代碼非常簡單,就是做兩次線性變換,殘差連接后再跟一個 Layer Norm #***********************************************# class EncoderLayer(nn.Module):def __init__(self):super(EncoderLayer, self).__init__()self.enc_self_attn = MultiHeadAttention()#多頭注意力機制self.pos_ffn = PoswiseFeedForwardNet()#提取特征def forward(self, enc_inputs, enc_self_attn_mask):'''enc_inputs: [batch_size, src_len, d_model]enc_self_attn_mask: [batch_size, src_len, src_len]'''# enc_outputs: [batch_size, src_len, d_model], #attn: [batch_size, n_heads, src_len, src_len] 每一個投一個注意力矩陣enc_outputs, attn = self.enc_self_attn(enc_inputs, enc_inputs, enc_inputs, enc_self_attn_mask) # enc_inputs to same Q,K,V#乘以WQ,WK,WV生成QKV矩陣(為什么傳三個?因為這里傳的是一樣的#但在decoder-encoder的mulit-head里面,我們需要的decoder input encoder output encoder output#所以為了使用方便,我們在定義enc_self_atten函數的時候就定義的使有三個形參的enc_outputs = self.pos_ffn(enc_outputs) # enc_outputs: [batch_size, src_len, d_model]#輸入和輸出的維度是一樣的return enc_outputs, attn #將上述組件拼起來,就是一個完整的 Encoder Layer #***********************************************# class DecoderLayer(nn.Module):def __init__(self):super(DecoderLayer, self).__init__()self.dec_self_attn = MultiHeadAttention()self.dec_enc_attn = MultiHeadAttention()self.pos_ffn = PoswiseFeedForwardNet()def forward(self, dec_inputs, enc_outputs, dec_self_attn_mask, dec_enc_attn_mask):'''dec_inputs: [batch_size, tgt_len, d_model]enc_outputs: [batch_size, src_len, d_model]dec_self_attn_mask: [batch_size, tgt_len, tgt_len]dec_enc_attn_mask: [batch_size, tgt_len, src_len]'''# dec_outputs: [batch_size, tgt_len, d_model], dec_self_attn: [batch_size, n_heads, tgt_len, tgt_len]dec_outputs, dec_self_attn = self.dec_self_attn(dec_inputs, dec_inputs, dec_inputs, dec_self_attn_mask)# dec_outputs: [batch_size, tgt_len, d_model], dec_enc_attn: [batch_size, h_heads, tgt_len, src_len]#先是decoder的self-attentiondec_outputs, dec_enc_attn = self.dec_enc_attn(dec_outputs, enc_outputs, enc_outputs, dec_enc_attn_mask)#再是encoder-decoder attention部分dec_outputs = self.pos_ffn(dec_outputs) # [batch_size, tgt_len, d_model]#特征提取return dec_outputs, dec_self_attn, dec_enc_attn #在 Decoder Layer 中會調用兩次 MultiHeadAttention,第一次是計算 Decoder Input 的 self-attention,得到輸出 dec_outputs。 #然后將 dec_outputs 作為生成 Q 的元素,enc_outputs 作為生成 K 和 V 的元素,再調用一次 MultiHeadAttention,得到的是 Encoder 和 Decoder Layer 之間的 context vector。最后將 dec_outptus 做一次維度變換,然后返回 #***********************************************# class Encoder(nn.Module):def __init__(self):super(Encoder, self).__init__()self.src_emb = nn.Embedding(src_vocab_size, d_model)#對encoder的輸入的每個單詞進行詞向量計算詞向量/字向量(src——vocab_size個詞,每個詞d_model的維度)self.pos_emb = PositionalEncoding(d_model)#計算位置向量self.layers = nn.ModuleList([EncoderLayer() for _ in range(n_layers)])#將6個EncoderLayer組成一個moduledef forward(self, enc_inputs):'''enc_inputs: [batch_size, src_len]'''enc_outputs = self.src_emb(enc_inputs) #對每個單詞進行詞向量計算#enc_outputs [batch_size, src_len, d_model]enc_outputs = self.pos_emb(enc_outputs.transpose(0, 1)).transpose(0, 1) #添加位置編碼# enc_outputs [batch_size, src_len, d_model]enc_self_attn_mask = get_attn_pad_mask(enc_inputs, enc_inputs) # enc_self_attn: [batch_size, src_len, src_len]#計算得到encoder-attention的pad martixenc_self_attns = []#創建一個列表,保存接下來要返回的字-字attention的值,不參與任何計算,供可視化用for layer in self.layers:# enc_outputs: [batch_size, src_len, d_model]# enc_self_attn: [batch_size, n_heads, src_len, src_len]enc_outputs, enc_self_attn = layer(enc_outputs, enc_self_attn_mask)enc_self_attns.append(enc_self_attn)#再傳進來就不用positional decoding#記錄下每一次的attentionreturn enc_outputs, enc_self_attns#使用 nn.ModuleList() 里面的參數是列表,列表里面存了 n_layers 個 Encoder Layer#由于我們控制好了 Encoder Layer 的輸入和輸出維度相同,所以可以直接用個 for 循環以嵌套的方式, #將上一次 Encoder Layer 的輸出作為下一次 Encoder Layer 的輸入#***********************************************# class Decoder(nn.Module):def __init__(self):super(Decoder, self).__init__()self.tgt_emb = nn.Embedding(tgt_vocab_size, d_model)self.pos_emb = PositionalEncoding(d_model)self.layers = nn.ModuleList([DecoderLayer() for _ in range(n_layers)])def forward(self, dec_inputs, enc_inputs, enc_outputs):'''dec_inputs: [batch_size, tgt_len]enc_intpus: [batch_size, src_len]enc_outputs: [batsh_size, src_len, d_model] 經過六次encoder之后得到的東西'''dec_outputs = self.tgt_emb(dec_inputs) # [batch_size, tgt_len, d_model]#同樣地,對decoder_layer進行詞向量的生成dec_outputs = self.pos_emb(dec_outputs.transpose(0, 1)).transpose(0, 1).cuda() #計算他的位置向量# [batch_size, tgt_len, d_model]dec_self_attn_pad_mask = get_attn_pad_mask(dec_inputs, dec_inputs).cuda() # [batch_size, tgt_len, tgt_len]dec_self_attn_subsequence_mask = get_attn_subsequence_mask(dec_inputs).cuda() # [batch_size, tgt_len, tgt_len]#當前時刻我是看不到未來時刻的東西的dec_self_attn_mask = torch.gt((dec_self_attn_pad_mask + dec_self_attn_subsequence_mask), 0).cuda() # [batch_size, tgt_len, tgt_len]#布爾+int false 0 true 1,gt 大于 True#這樣把dec_self_attn_pad_mask和dec_self_attn_subsequence_mask里面為True的部分都剔除掉了#也就是說,即屏蔽掉了pad也屏蔽掉了maskdec_enc_attn_mask = get_attn_pad_mask(dec_inputs, enc_inputs) # [batc_size, tgt_len, src_len]#在decoder的第二個attention里面使用dec_self_attns, dec_enc_attns = [], []for layer in self.layers:# dec_outputs: [batch_size, tgt_len, d_model], #dec_self_attn: [batch_size, n_heads, tgt_len, tgt_len], #dec_enc_attn: [batch_size, h_heads, tgt_len, src_len]dec_outputs, dec_self_attn, dec_enc_attn = \layer(dec_outputs, enc_outputs, dec_self_attn_mask, dec_enc_attn_mask)dec_self_attns.append(dec_self_attn)dec_enc_attns.append(dec_enc_attn)return dec_outputs, dec_self_attns, dec_enc_attns #***********************************************# class Transformer(nn.Module):def __init__(self):super(Transformer, self).__init__()self.encoder = Encoder().cuda()self.decoder = Decoder().cuda()self.projection = nn.Linear(d_model, tgt_vocab_size, bias=False).cuda()#對decoder的輸出轉換維度,#從隱藏層維數->英語單詞詞典大小(選取概率最大的那一個,作為我們的預測結果)def forward(self, enc_inputs, dec_inputs):'''enc_inputs維度:[batch_size, src_len] 對encoder-input,我一個batch中有幾個sequence,一個sequence有幾個字dec_inputs: [batch_size, tgt_len] 對decoder-input,我一個batch中有幾個sequence,一個sequence有幾個字'''# enc_outputs: [batch_size, src_len, d_model],# d_model是每一個字的word embedding長度"""enc_self_attns: [n_layers, batch_size, n_heads, src_len, src_len]注意力矩陣,對encoder和decoder,每一層,每一句話,每一個頭,每兩個字之間都有一個權重系數,這些權重系數組成了注意力矩陣(之后的dec_self_attns同理,當然decoder還有一個decoder-encoder的矩陣)"""enc_outputs, enc_self_attns = self.encoder(enc_inputs)# dec_outpus: [batch_size, tgt_len, d_model],#dec_self_attns: [n_layers, batch_size, n_heads, tgt_len, tgt_len], #dec_enc_attn: [n_layers, batch_size, tgt_len, src_len]dec_outputs, dec_self_attns, dec_enc_attns = self.decoder(dec_inputs, enc_inputs, enc_outputs)dec_logits = self.projection(dec_outputs) #將輸出的維度,從 [batch_size, tgt_len, d_model]變成[batch_size, tgt_len, tgt_vocab_size]# dec_logits: [batch_size, tgt_len, tgt_vocab_size]return dec_logits.view(-1, dec_logits.size(-1)), enc_self_attns, dec_self_attns, dec_enc_attns #dec_logits 的維度是 [batch_size * tgt_len, tgt_vocab_size],可以理解為, #一個句子,這個句子有 batch_size*tgt_len 個單詞,每個單詞有 tgt_vocab_size 種情況,取概率最大者#Transformer 主要就是調用 Encoder 和 Decoder。最后返回 #***********************************************# model = Transformer().cuda() criterion = nn.CrossEntropyLoss(ignore_index=0) optimizer = optim.SGD(model.parameters(), lr=1e-3, momentum=0.99) #***********************************************# for epoch in range(30):for enc_inputs, dec_inputs, dec_outputs in loader:'''enc_inputs: [batch_size, src_len]dec_inputs: [batch_size, tgt_len]dec_outputs: [batch_size, tgt_len]'''enc_inputs, dec_inputs, dec_outputs = enc_inputs.cuda(), dec_inputs.cuda(), dec_outputs.cuda()# outputs: [batch_size * tgt_len, tgt_vocab_size]outputs, enc_self_attns, dec_self_attns, dec_enc_attns = model(enc_inputs, dec_inputs)loss = criterion(outputs, dec_outputs.view(-1))print('Epoch:', '%04d' % (epoch + 1), 'loss =', '{:.6f}'.format(loss))optimizer.zero_grad()loss.backward()optimizer.step()enc_inputs, dec_inputs,dec_outputs = next(iter(loader)) predict, e_attn, d1_attn, d2_attn = model(enc_inputs[0].view(1, -1).cuda(), dec_inputs[0].view(1, -1).cuda()) predict = predict.data.max(1, keepdim=True)[1] print(enc_inputs[0], '->', [idx2word[n.item()] for n in predict.squeeze()])

?

總結

以上是生活随笔為你收集整理的pytorch 实现transformer的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

精品 日韩 国产 欧美 视频 | 六十路熟妇乱子伦 | 亚洲精品一区二区三区大桥未久 | 亚洲国精产品一二二线 | 国产 浪潮av性色四虎 | 成人免费视频一区二区 | 国产美女精品一区二区三区 | 久久99精品久久久久婷婷 | 玩弄中年熟妇正在播放 | 香港三级日本三级妇三级 | 亚洲欧洲日本综合aⅴ在线 | 三上悠亚人妻中文字幕在线 | 日韩av无码中文无码电影 | 免费观看激色视频网站 | 精品国产一区二区三区四区在线看 | 野外少妇愉情中文字幕 | 乱码午夜-极国产极内射 | 亚洲成色在线综合网站 | 精品偷自拍另类在线观看 | 色综合久久久无码中文字幕 | 亚洲人成人无码网www国产 | 国色天香社区在线视频 | 成人aaa片一区国产精品 | 中文字幕无码免费久久99 | 99国产欧美久久久精品 | 成人三级无码视频在线观看 | 久久精品国产精品国产精品污 | 日本熟妇乱子伦xxxx | 东北女人啪啪对白 | 又大又硬又黄的免费视频 | 久久久久久九九精品久 | 国产精品99爱免费视频 | 18精品久久久无码午夜福利 | 麻豆人妻少妇精品无码专区 | 国产莉萝无码av在线播放 | 国产97色在线 | 免 | 色婷婷欧美在线播放内射 | 精品夜夜澡人妻无码av蜜桃 | 日韩av无码一区二区三区不卡 | 亚洲精品久久久久avwww潮水 | 成人精品视频一区二区三区尤物 | 亚洲阿v天堂在线 | 久久久久成人精品免费播放动漫 | 国产亚洲精品久久久ai换 | 国色天香社区在线视频 | 国产香蕉尹人综合在线观看 | 天下第一社区视频www日本 | 女人被男人爽到呻吟的视频 | 国内揄拍国内精品人妻 | 国产精品无码一区二区三区不卡 | 中文字幕乱码人妻无码久久 | 狠狠cao日日穞夜夜穞av | 狂野欧美性猛xxxx乱大交 | 亚洲欧洲日本综合aⅴ在线 | 久久久久久a亚洲欧洲av冫 | 一本久久a久久精品亚洲 | 女人被男人爽到呻吟的视频 | 国产精品久久久久久久影院 | 国产极品美女高潮无套在线观看 | 久久亚洲日韩精品一区二区三区 | 久久国产精品二国产精品 | 奇米影视7777久久精品人人爽 | 亚洲欧美国产精品专区久久 | 天海翼激烈高潮到腰振不止 | 欧美日韩人成综合在线播放 | 丰满人妻一区二区三区免费视频 | 极品嫩模高潮叫床 | 老太婆性杂交欧美肥老太 | 成年美女黄网站色大免费视频 | 国产9 9在线 | 中文 | 欧美丰满熟妇xxxx | www国产精品内射老师 | 青青青手机频在线观看 | 偷窥日本少妇撒尿chinese | 亚洲国产成人a精品不卡在线 | 国产激情无码一区二区 | 少妇一晚三次一区二区三区 | 日韩无套无码精品 | 超碰97人人射妻 | 沈阳熟女露脸对白视频 | 少妇厨房愉情理9仑片视频 | 奇米影视7777久久精品人人爽 | 欧美性色19p | 色婷婷综合激情综在线播放 | 亚洲毛片av日韩av无码 | 欧美熟妇另类久久久久久多毛 | 玩弄少妇高潮ⅹxxxyw | 丰满人妻一区二区三区免费视频 | 久久亚洲a片com人成 | 国产真人无遮挡作爱免费视频 | 欧洲欧美人成视频在线 | 狠狠色色综合网站 | 国产精品99爱免费视频 | 亚洲欧美日韩成人高清在线一区 | 18无码粉嫩小泬无套在线观看 | 捆绑白丝粉色jk震动捧喷白浆 | 欧美大屁股xxxxhd黑色 | 极品尤物被啪到呻吟喷水 | 亚洲成a人片在线观看无码3d | 日本丰满熟妇videos | 亚洲欧美色中文字幕在线 | 欧美黑人性暴力猛交喷水 | 两性色午夜视频免费播放 | 国产另类ts人妖一区二区 | 激情人妻另类人妻伦 | 男人的天堂2018无码 | 亚洲精品www久久久 | 亚洲欧美中文字幕5发布 | 十八禁视频网站在线观看 | 最近免费中文字幕中文高清百度 | 少女韩国电视剧在线观看完整 | 欧美自拍另类欧美综合图片区 | 大色综合色综合网站 | 娇妻被黑人粗大高潮白浆 | 人人澡人人透人人爽 | 亚洲七七久久桃花影院 | 国内丰满熟女出轨videos | 亚洲成a人片在线观看无码 | 国产精品美女久久久久av爽李琼 | 香港三级日本三级妇三级 | 精品成人av一区二区三区 | 欧美日韩视频无码一区二区三 | 久久精品国产日本波多野结衣 | 日日麻批免费40分钟无码 | 少妇久久久久久人妻无码 | 扒开双腿吃奶呻吟做受视频 | 久久人人爽人人爽人人片av高清 | 亚欧洲精品在线视频免费观看 | 亚洲欧美国产精品久久 | 国产凸凹视频一区二区 | 久久国产精品萌白酱免费 | 国产性生交xxxxx无码 | 国产亚洲精品久久久ai换 | 最近免费中文字幕中文高清百度 | 国产高清不卡无码视频 | 小sao货水好多真紧h无码视频 | 亚洲伊人久久精品影院 | 精品夜夜澡人妻无码av蜜桃 | 性生交大片免费看l | 双乳奶水饱满少妇呻吟 | 中文字幕 人妻熟女 | 波多野42部无码喷潮在线 | 在教室伦流澡到高潮hnp视频 | 亚洲一区av无码专区在线观看 | 无码帝国www无码专区色综合 | 国产av一区二区三区最新精品 | 天下第一社区视频www日本 | 亚洲色在线无码国产精品不卡 | 久久国内精品自在自线 | 国产艳妇av在线观看果冻传媒 | 日韩视频 中文字幕 视频一区 | 亚洲爆乳大丰满无码专区 | 草草网站影院白丝内射 | 久久99精品国产.久久久久 | 亚洲熟女一区二区三区 | 一个人看的www免费视频在线观看 | 欧美兽交xxxx×视频 | 国产色精品久久人妻 | 乱人伦人妻中文字幕无码 | 欧美老妇与禽交 | 久久人人爽人人爽人人片ⅴ | 美女黄网站人色视频免费国产 | 精品夜夜澡人妻无码av蜜桃 | 亚洲男人av天堂午夜在 | 乱中年女人伦av三区 | 国产乱人偷精品人妻a片 | 亚洲精品欧美二区三区中文字幕 | 55夜色66夜色国产精品视频 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 欧美xxxxx精品 | 国内精品人妻无码久久久影院 | 亚洲精品久久久久avwww潮水 | 国产午夜手机精彩视频 | 牲欲强的熟妇农村老妇女视频 | 99精品视频在线观看免费 | 国产乱人偷精品人妻a片 | 51国偷自产一区二区三区 | 亚洲一区二区观看播放 | 免费无码一区二区三区蜜桃大 | 人人妻人人澡人人爽欧美一区 | 婷婷五月综合缴情在线视频 | 亚洲中文无码av永久不收费 | 曰本女人与公拘交酡免费视频 | 亚洲精品国产精品乱码不卡 | 欧美性生交活xxxxxdddd | 老子影院午夜伦不卡 | 久久人人爽人人爽人人片av高清 | 日本熟妇乱子伦xxxx | 亚洲一区二区三区在线观看网站 | 欧美性猛交xxxx富婆 | 国产后入清纯学生妹 | 久久精品国产一区二区三区 | 国产午夜亚洲精品不卡下载 | 国产在线精品一区二区高清不卡 | 国产精华av午夜在线观看 | 天堂无码人妻精品一区二区三区 | 久久人人爽人人爽人人片av高清 | 国产成人人人97超碰超爽8 | 亚洲va中文字幕无码久久不卡 | 国产在热线精品视频 | 精品成人av一区二区三区 | 亚洲欧美国产精品久久 | 无码人妻久久一区二区三区不卡 | 一本无码人妻在中文字幕免费 | 久久久久人妻一区精品色欧美 | 纯爱无遮挡h肉动漫在线播放 | 国产精品久久久久7777 | 帮老师解开蕾丝奶罩吸乳网站 | 欧洲美熟女乱又伦 | 亚洲一区二区三区国产精华液 | 免费观看黄网站 | 骚片av蜜桃精品一区 | 一本色道婷婷久久欧美 | 76少妇精品导航 | 性欧美牲交xxxxx视频 | 色诱久久久久综合网ywww | 一区二区三区高清视频一 | 狂野欧美性猛交免费视频 | 久久99精品久久久久久动态图 | 国产精品对白交换视频 | 成人精品天堂一区二区三区 | 欧美成人免费全部网站 | 国产成人无码a区在线观看视频app | 人妻有码中文字幕在线 | 国产性生交xxxxx无码 | 国产午夜福利亚洲第一 | 精品无码成人片一区二区98 | 亚洲成色在线综合网站 | 大肉大捧一进一出视频出来呀 | 最新国产乱人伦偷精品免费网站 | 日日橹狠狠爱欧美视频 | 俺去俺来也在线www色官网 | 国产亚洲精品久久久久久大师 | 丰满人妻翻云覆雨呻吟视频 | 国産精品久久久久久久 | 免费中文字幕日韩欧美 | 久久精品人人做人人综合试看 | 成人三级无码视频在线观看 | 波多野结衣高清一区二区三区 | 欧美激情一区二区三区成人 | 久久久精品欧美一区二区免费 | 国产精品资源一区二区 | 精品乱码久久久久久久 | 成人精品天堂一区二区三区 | 亚洲欧美日韩综合久久久 | 亚洲日本va午夜在线电影 | 国产精品美女久久久久av爽李琼 | 亚洲国精产品一二二线 | 爽爽影院免费观看 | 丰满少妇人妻久久久久久 | 久久国产自偷自偷免费一区调 | 55夜色66夜色国产精品视频 | 我要看www免费看插插视频 | 亚洲国产精品无码久久久久高潮 | 国内精品一区二区三区不卡 | 九月婷婷人人澡人人添人人爽 | 老子影院午夜伦不卡 | 天海翼激烈高潮到腰振不止 | 熟妇人妻无乱码中文字幕 | 欧美人与禽zoz0性伦交 | av无码久久久久不卡免费网站 | 精品人人妻人人澡人人爽人人 | 欧美日韩综合一区二区三区 | 国产美女极度色诱视频www | 久久久中文久久久无码 | 又黄又爽又色的视频 | 久久99久久99精品中文字幕 | 免费看少妇作爱视频 | 国产黑色丝袜在线播放 | 国产激情无码一区二区 | 国产亚洲精品久久久久久久久动漫 | 亚洲成av人片在线观看无码不卡 | 99精品国产综合久久久久五月天 | 国产亚洲人成在线播放 | 沈阳熟女露脸对白视频 | 我要看www免费看插插视频 | 大胆欧美熟妇xx | 婷婷五月综合激情中文字幕 | 国产女主播喷水视频在线观看 | 又大又紧又粉嫩18p少妇 | 人妻人人添人妻人人爱 | 水蜜桃亚洲一二三四在线 | 国产精品免费大片 | 欧美老人巨大xxxx做受 | 欧美人与动性行为视频 | 欧美自拍另类欧美综合图片区 | 国内精品久久久久久中文字幕 | 亚洲精品国偷拍自产在线观看蜜桃 | 人人妻人人藻人人爽欧美一区 | 无套内谢的新婚少妇国语播放 | 亚洲七七久久桃花影院 | 夜夜躁日日躁狠狠久久av | 亚洲国产综合无码一区 | 国产 精品 自在自线 | 欧美 亚洲 国产 另类 | 日本精品少妇一区二区三区 | 国产无遮挡又黄又爽免费视频 | 久久精品人妻少妇一区二区三区 | 1000部啪啪未满十八勿入下载 | 性啪啪chinese东北女人 | 精品无码一区二区三区爱欲 | 国产精品a成v人在线播放 | 暴力强奷在线播放无码 | www成人国产高清内射 | 高清无码午夜福利视频 | 亚洲s色大片在线观看 | 97精品国产97久久久久久免费 | 国产午夜亚洲精品不卡下载 | 国产精品美女久久久网av | 伦伦影院午夜理论片 | 狠狠亚洲超碰狼人久久 | 丝袜人妻一区二区三区 | 亚洲另类伦春色综合小说 | 亚拍精品一区二区三区探花 | 国产成人无码av在线影院 | 男女爱爱好爽视频免费看 | 日产国产精品亚洲系列 | 亚洲无人区一区二区三区 | 久久人人爽人人爽人人片av高清 | 精品一区二区三区无码免费视频 | 人人妻人人澡人人爽人人精品 | 亚洲大尺度无码无码专区 | 午夜精品久久久久久久 | 国产在线精品一区二区高清不卡 | 免费国产成人高清在线观看网站 | 亚洲天堂2017无码 | 国产真实乱对白精彩久久 | 午夜不卡av免费 一本久久a久久精品vr综合 | 亚洲a无码综合a国产av中文 | 成人无码精品1区2区3区免费看 | 国产精品久久久久久亚洲毛片 | 久久精品人人做人人综合 | 精品偷自拍另类在线观看 | 又粗又大又硬毛片免费看 | aⅴ亚洲 日韩 色 图网站 播放 | 亚洲日韩av一区二区三区四区 | 日本爽爽爽爽爽爽在线观看免 | 激情内射亚州一区二区三区爱妻 | 亚洲熟妇色xxxxx亚洲 | 精品国产麻豆免费人成网站 | 国产性生交xxxxx无码 | 国产亚洲精品久久久久久久久动漫 | 成人影院yy111111在线观看 | 四虎永久在线精品免费网址 | 亚洲综合伊人久久大杳蕉 | √8天堂资源地址中文在线 | 美女极度色诱视频国产 | a国产一区二区免费入口 | 狂野欧美性猛交免费视频 | 中文字幕无码热在线视频 | 男女超爽视频免费播放 | 激情五月综合色婷婷一区二区 | 中文字幕av无码一区二区三区电影 | 国产莉萝无码av在线播放 | 亚洲一区av无码专区在线观看 | 午夜精品一区二区三区的区别 | 无码国内精品人妻少妇 | 激情国产av做激情国产爱 | 午夜免费福利小电影 | 精品无码av一区二区三区 | 领导边摸边吃奶边做爽在线观看 | 欧美大屁股xxxxhd黑色 | 双乳奶水饱满少妇呻吟 | 亚洲熟悉妇女xxx妇女av | 亚洲色无码一区二区三区 | 特黄特色大片免费播放器图片 | 未满小14洗澡无码视频网站 | 爽爽影院免费观看 | 午夜福利不卡在线视频 | 中文字幕 人妻熟女 | 国产成人精品久久亚洲高清不卡 | 欧美真人作爱免费视频 | 纯爱无遮挡h肉动漫在线播放 | 国产精品理论片在线观看 | 麻豆国产丝袜白领秘书在线观看 | 呦交小u女精品视频 | 国产乱子伦视频在线播放 | 国产精品igao视频网 | 中文字幕无码日韩欧毛 | 99麻豆久久久国产精品免费 | 亚洲欧美日韩成人高清在线一区 | 97久久国产亚洲精品超碰热 | 久久久中文字幕日本无吗 | 欧美黑人巨大xxxxx | av香港经典三级级 在线 | 久久99精品久久久久久 | 2020久久香蕉国产线看观看 | 亚洲精品国偷拍自产在线麻豆 | 亚洲欧美色中文字幕在线 | 国产精品久久久久久亚洲毛片 | 丰满少妇高潮惨叫视频 | 极品嫩模高潮叫床 | 初尝人妻少妇中文字幕 | 永久黄网站色视频免费直播 | 荫蒂被男人添的好舒服爽免费视频 | 久久精品国产日本波多野结衣 | 中文毛片无遮挡高清免费 | 国产亚洲欧美日韩亚洲中文色 | 国产婷婷色一区二区三区在线 | 人人妻人人澡人人爽精品欧美 | 国产午夜福利亚洲第一 | 婷婷六月久久综合丁香 | 一二三四社区在线中文视频 | 性做久久久久久久免费看 | 中文字幕人妻无码一区二区三区 | 四虎国产精品一区二区 | 一个人免费观看的www视频 | 三级4级全黄60分钟 | 欧美国产日韩久久mv | 日韩在线不卡免费视频一区 | 亚洲中文字幕成人无码 | 2020久久超碰国产精品最新 | 俄罗斯老熟妇色xxxx | 欧洲熟妇精品视频 | 超碰97人人做人人爱少妇 | 欧美freesex黑人又粗又大 | 天堂亚洲2017在线观看 | 国产精品人人妻人人爽 | 欧美成人家庭影院 | 亚洲综合无码一区二区三区 | 少妇性荡欲午夜性开放视频剧场 | 中文字幕无线码 | 午夜精品久久久内射近拍高清 | 亚洲 日韩 欧美 成人 在线观看 | 国产熟妇另类久久久久 | 内射老妇bbwx0c0ck | 疯狂三人交性欧美 | 日本免费一区二区三区最新 | 欧美日本精品一区二区三区 | 扒开双腿疯狂进出爽爽爽视频 | 少妇被黑人到高潮喷出白浆 | 色窝窝无码一区二区三区色欲 | 波多野结衣 黑人 | 国精品人妻无码一区二区三区蜜柚 | 99麻豆久久久国产精品免费 | 久久精品女人天堂av免费观看 | 国产精品亚洲综合色区韩国 | 中文字幕乱妇无码av在线 | 无码精品国产va在线观看dvd | 国产精品美女久久久久av爽李琼 | 偷窥日本少妇撒尿chinese | 狠狠色噜噜狠狠狠狠7777米奇 | 欧美人与禽猛交狂配 | 亚洲 另类 在线 欧美 制服 | 久久久久99精品成人片 | 国产精品亚洲专区无码不卡 | 亚洲第一无码av无码专区 | 亚洲七七久久桃花影院 | 色妞www精品免费视频 | 久久久精品456亚洲影院 | 97久久精品无码一区二区 | 国产 精品 自在自线 | 国色天香社区在线视频 | 小泽玛莉亚一区二区视频在线 | 精品人妻中文字幕有码在线 | 久久99国产综合精品 | 67194成是人免费无码 | 亚洲人亚洲人成电影网站色 | 久久久亚洲欧洲日产国码αv | 午夜福利一区二区三区在线观看 | 亚洲日韩乱码中文无码蜜桃臀网站 | 99久久精品午夜一区二区 | 亚洲国产一区二区三区在线观看 | 亚洲综合色区中文字幕 | 国产精品多人p群无码 | 一本色道久久综合亚洲精品不卡 | 正在播放东北夫妻内射 | 粉嫩少妇内射浓精videos | 色一情一乱一伦一视频免费看 | 日日躁夜夜躁狠狠躁 | 鲁大师影院在线观看 | 日本xxxx色视频在线观看免费 | 成人亚洲精品久久久久 | 国产精品无码mv在线观看 | 精品一区二区三区波多野结衣 | 99er热精品视频 | 人妻中文无码久热丝袜 | 欧美午夜特黄aaaaaa片 | 性欧美牲交在线视频 | 乱人伦人妻中文字幕无码 | 亚洲日本在线电影 | 日韩精品无码免费一区二区三区 | 人人澡人人妻人人爽人人蜜桃 | 日本精品人妻无码免费大全 | 亚洲熟女一区二区三区 | 免费观看的无遮挡av | 九月婷婷人人澡人人添人人爽 | 中文字幕色婷婷在线视频 | 国内精品人妻无码久久久影院蜜桃 | 国产办公室秘书无码精品99 | 国产激情精品一区二区三区 | 99视频精品全部免费免费观看 | 亚洲男人av天堂午夜在 | 成年美女黄网站色大免费全看 | 欧美成人午夜精品久久久 | 免费网站看v片在线18禁无码 | 蜜桃臀无码内射一区二区三区 | 国产午夜福利亚洲第一 | www成人国产高清内射 | 美女黄网站人色视频免费国产 | 国产乱人伦偷精品视频 | 4hu四虎永久在线观看 | 日本熟妇大屁股人妻 | 国产高清av在线播放 | 日本一卡2卡3卡四卡精品网站 | 亚洲中文字幕在线无码一区二区 | 女人高潮内射99精品 | 图片区 小说区 区 亚洲五月 | 无码精品国产va在线观看dvd | 亚洲日韩一区二区三区 | 久久久久久a亚洲欧洲av冫 | 免费观看又污又黄的网站 | 国产精品久久久久久无码 | 少妇性俱乐部纵欲狂欢电影 | 国产精品.xx视频.xxtv | 狠狠躁日日躁夜夜躁2020 | 国产情侣作爱视频免费观看 | 亚洲 高清 成人 动漫 | 亚洲综合伊人久久大杳蕉 | 亚洲成a人片在线观看无码 | 亚洲人成网站在线播放942 | 在线观看欧美一区二区三区 | 老熟女乱子伦 | 亚洲成在人网站无码天堂 | 亚洲成色www久久网站 | 国产色在线 | 国产 | 久久久久久a亚洲欧洲av冫 | 色噜噜亚洲男人的天堂 | 大地资源网第二页免费观看 | 国产av一区二区精品久久凹凸 | 人妻体内射精一区二区三四 | 久久久久99精品成人片 | 人妻少妇精品无码专区二区 | 国产人妻精品一区二区三区不卡 | 午夜福利不卡在线视频 | 亚洲人成网站免费播放 | 国产成人综合在线女婷五月99播放 | 国产亚洲美女精品久久久2020 | 99riav国产精品视频 | 人妻天天爽夜夜爽一区二区 | 精品国偷自产在线视频 | 中文字幕乱妇无码av在线 | 少妇被黑人到高潮喷出白浆 | 日韩人妻少妇一区二区三区 | 成人精品天堂一区二区三区 | 综合网日日天干夜夜久久 | 亚洲成av人综合在线观看 | 日本免费一区二区三区最新 | 波多野结衣一区二区三区av免费 | 无码一区二区三区在线观看 | 红桃av一区二区三区在线无码av | 亚洲精品久久久久久久久久久 | 色 综合 欧美 亚洲 国产 | 国产福利视频一区二区 | 内射爽无广熟女亚洲 | 日本乱偷人妻中文字幕 | 成熟女人特级毛片www免费 | 99麻豆久久久国产精品免费 | 亚洲自偷自拍另类第1页 | 欧美三级a做爰在线观看 | 中文字幕日产无线码一区 | 国产精品无码一区二区三区不卡 | 久久久久人妻一区精品色欧美 | 午夜丰满少妇性开放视频 | 亚洲成av人片天堂网无码】 | 精品无码成人片一区二区98 | 网友自拍区视频精品 | 国产人妻人伦精品 | 久久精品成人欧美大片 | 国产精品国产自线拍免费软件 | 天下第一社区视频www日本 | 日本熟妇乱子伦xxxx | 天堂а√在线中文在线 | 曰本女人与公拘交酡免费视频 | 国语自产偷拍精品视频偷 | 精品成人av一区二区三区 | 天堂在线观看www | 国产农村乱对白刺激视频 | 亚洲中文字幕在线无码一区二区 | 中文字幕日产无线码一区 | 成人欧美一区二区三区 | 牲交欧美兽交欧美 | 四虎4hu永久免费 | 亚洲精品久久久久久一区二区 | 少妇人妻偷人精品无码视频 | 国产乱码精品一品二品 | 性欧美疯狂xxxxbbbb | www国产亚洲精品久久久日本 | 久久久久免费精品国产 | 国产又粗又硬又大爽黄老大爷视 | 无码福利日韩神码福利片 | 蜜臀av在线播放 久久综合激激的五月天 | 亚洲精品一区二区三区四区五区 | 最新国产乱人伦偷精品免费网站 | 亚洲 欧美 激情 小说 另类 | 乱人伦人妻中文字幕无码 | 四虎国产精品免费久久 | 99久久精品无码一区二区毛片 | 国产熟妇高潮叫床视频播放 | 男女下面进入的视频免费午夜 | 又黄又爽又色的视频 | 欧美第一黄网免费网站 | 99久久精品国产一区二区蜜芽 | 国产精品亚洲а∨无码播放麻豆 | 国产一区二区三区精品视频 | 国产精品人人爽人人做我的可爱 | 国产av剧情md精品麻豆 | 男女下面进入的视频免费午夜 | 奇米影视888欧美在线观看 | 亚洲色欲色欲欲www在线 | 日本精品人妻无码免费大全 | 欧美 日韩 亚洲 在线 | 精品人妻中文字幕有码在线 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 欧美性色19p | v一区无码内射国产 | 丰满妇女强制高潮18xxxx | 色妞www精品免费视频 | 亚洲一区二区三区在线观看网站 | 亚洲国产欧美国产综合一区 | 丰满岳乱妇在线观看中字无码 | 久久精品一区二区三区四区 | 国产精品二区一区二区aⅴ污介绍 | 国产亚洲精品精品国产亚洲综合 | 无码午夜成人1000部免费视频 | 又大又硬又黄的免费视频 | 狠狠cao日日穞夜夜穞av | 亚洲区小说区激情区图片区 | 国产精品第一国产精品 | 国产亚洲美女精品久久久2020 | 亚洲欧洲日本无在线码 | 少妇一晚三次一区二区三区 | 国产片av国语在线观看 | 成人性做爰aaa片免费看 | 亚洲s色大片在线观看 | 77777熟女视频在线观看 а天堂中文在线官网 | 久久www免费人成人片 | 无码av免费一区二区三区试看 | 久久久成人毛片无码 | 国产乱人伦偷精品视频 | 久久99久久99精品中文字幕 | 免费看男女做好爽好硬视频 | 国产精品亚洲一区二区三区喷水 | 亚洲一区二区三区香蕉 | 夜夜夜高潮夜夜爽夜夜爰爰 | 免费国产成人高清在线观看网站 | 综合激情五月综合激情五月激情1 | 一个人免费观看的www视频 | 美女毛片一区二区三区四区 | 鲁一鲁av2019在线 | 无码福利日韩神码福利片 | 成人免费视频视频在线观看 免费 | 人人爽人人爽人人片av亚洲 | 国产 浪潮av性色四虎 | 牲交欧美兽交欧美 | 国产精品人人妻人人爽 | www国产精品内射老师 | 亚洲一区二区观看播放 | 极品尤物被啪到呻吟喷水 | 欧美人与牲动交xxxx | 日韩成人一区二区三区在线观看 | 日日鲁鲁鲁夜夜爽爽狠狠 | 美女黄网站人色视频免费国产 | 无码人妻出轨黑人中文字幕 | 久久亚洲精品中文字幕无男同 | 色综合视频一区二区三区 | 久久久精品成人免费观看 | 亚洲阿v天堂在线 | 福利一区二区三区视频在线观看 | 亚洲成色www久久网站 | 玩弄中年熟妇正在播放 | 精品国产一区二区三区四区 | 国产熟女一区二区三区四区五区 | 激情五月综合色婷婷一区二区 | 国产成人精品视频ⅴa片软件竹菊 | 台湾无码一区二区 | 欧美人与牲动交xxxx | 欧美日韩一区二区三区自拍 | 成人一区二区免费视频 | 成人精品一区二区三区中文字幕 | 一区二区三区高清视频一 | 极品嫩模高潮叫床 | 爱做久久久久久 | 久久亚洲中文字幕无码 | 玩弄人妻少妇500系列视频 | 亚洲性无码av中文字幕 | 欧美成人午夜精品久久久 | 鲁一鲁av2019在线 | 久久精品人人做人人综合 | 麻豆av传媒蜜桃天美传媒 | а√资源新版在线天堂 | 午夜无码人妻av大片色欲 | 色婷婷综合中文久久一本 | 曰韩少妇内射免费播放 | a国产一区二区免费入口 | 日韩精品无码免费一区二区三区 | 久久精品国产日本波多野结衣 | 人妻少妇精品久久 | 日本欧美一区二区三区乱码 | 亚洲 另类 在线 欧美 制服 | 中文字幕无码日韩专区 | 成人试看120秒体验区 | 亚洲欧洲日本无在线码 | 国产精品久久久久久亚洲毛片 | 麻豆国产人妻欲求不满 | 久久国语露脸国产精品电影 | 曰本女人与公拘交酡免费视频 | 樱花草在线社区www | 国产乱码精品一品二品 | 少妇性俱乐部纵欲狂欢电影 | 亚洲成a人片在线观看无码3d | 亚洲精品国偷拍自产在线麻豆 | 亚洲精品鲁一鲁一区二区三区 | 国产成人无码区免费内射一片色欲 | 亚洲色偷偷偷综合网 | 性啪啪chinese东北女人 | 黑人粗大猛烈进出高潮视频 | 7777奇米四色成人眼影 | 久久久久亚洲精品男人的天堂 | 亚洲欧洲无卡二区视頻 | 55夜色66夜色国产精品视频 | 97精品国产97久久久久久免费 | 少妇性俱乐部纵欲狂欢电影 | 国产97在线 | 亚洲 | 性欧美videos高清精品 | 荫蒂被男人添的好舒服爽免费视频 | 中文字幕无码av波多野吉衣 | 国产偷抇久久精品a片69 | 亚洲熟妇色xxxxx欧美老妇y | 国产精品a成v人在线播放 | 中文字幕无码热在线视频 | 日本一卡2卡3卡四卡精品网站 | 亚洲中文字幕无码中字 | 一本色道久久综合狠狠躁 | 爽爽影院免费观看 | av无码不卡在线观看免费 | 日本高清一区免费中文视频 | 美女扒开屁股让男人桶 | 国产综合色产在线精品 | 亚洲 欧美 激情 小说 另类 | 久久精品99久久香蕉国产色戒 | 国产又爽又猛又粗的视频a片 | 精品人人妻人人澡人人爽人人 | 亚洲精品一区二区三区婷婷月 | 国色天香社区在线视频 | 性啪啪chinese东北女人 | 久久精品无码一区二区三区 | 亚洲欧洲无卡二区视頻 | 国产午夜精品一区二区三区嫩草 | 日本精品人妻无码免费大全 | 精品欧洲av无码一区二区三区 | 久久精品女人的天堂av | 国产亚洲精品精品国产亚洲综合 | 亚洲精品一区二区三区四区五区 | 午夜理论片yy44880影院 | 丰满少妇人妻久久久久久 | 亚洲成av人在线观看网址 | 亚洲另类伦春色综合小说 | 亚洲色成人中文字幕网站 | 国产亚洲美女精品久久久2020 | 又大又紧又粉嫩18p少妇 | 沈阳熟女露脸对白视频 | 少妇高潮喷潮久久久影院 | 亚洲阿v天堂在线 | 精品无人国产偷自产在线 | 无码av岛国片在线播放 | 免费观看的无遮挡av | 亚洲一区二区观看播放 | 国产精品亚洲综合色区韩国 | 亚洲一区二区三区偷拍女厕 | 亚洲人成人无码网www国产 | 久久国语露脸国产精品电影 | 特级做a爰片毛片免费69 | 国产午夜手机精彩视频 | 激情国产av做激情国产爱 | 97人妻精品一区二区三区 | 综合网日日天干夜夜久久 | 亚洲精品午夜无码电影网 | 国产成人无码av一区二区 | 熟女体下毛毛黑森林 | 国产精品久久久久久亚洲影视内衣 | 波多野结衣乳巨码无在线观看 | 久久久久久久女国产乱让韩 | 未满小14洗澡无码视频网站 | 熟女少妇人妻中文字幕 | 白嫩日本少妇做爰 | 成在人线av无码免观看麻豆 | 国产婷婷色一区二区三区在线 | 欧美性黑人极品hd | 国产激情综合五月久久 | 国产精品视频免费播放 | 老熟女乱子伦 | 亚洲狠狠色丁香婷婷综合 | 免费国产成人高清在线观看网站 | 亚洲人亚洲人成电影网站色 | 婷婷色婷婷开心五月四房播播 | 国产成人一区二区三区在线观看 | 又大又紧又粉嫩18p少妇 | 成人无码视频免费播放 | 国产网红无码精品视频 | 亚洲成a人片在线观看日本 | 亚洲国产精品无码久久久久高潮 | 亚洲春色在线视频 | 国产精品99爱免费视频 | 无码人妻精品一区二区三区不卡 | 国产精品-区区久久久狼 | 国产精品视频免费播放 | 老熟妇乱子伦牲交视频 | av无码电影一区二区三区 | 亚洲s码欧洲m码国产av | 成人精品一区二区三区中文字幕 | 亚洲欧美国产精品专区久久 | 熟女少妇在线视频播放 | 日本xxxx色视频在线观看免费 | 荫蒂被男人添的好舒服爽免费视频 | 性色欲网站人妻丰满中文久久不卡 | 九九综合va免费看 | 少女韩国电视剧在线观看完整 | 国产激情艳情在线看视频 | 欧美精品一区二区精品久久 | 狠狠亚洲超碰狼人久久 | 久久久国产精品无码免费专区 | 精品一区二区三区无码免费视频 | 少妇厨房愉情理9仑片视频 | 十八禁真人啪啪免费网站 | 国产人妻精品一区二区三区 | 国精品人妻无码一区二区三区蜜柚 | 一区二区三区高清视频一 | 亚洲熟熟妇xxxx | 午夜性刺激在线视频免费 | 日韩精品无码一区二区中文字幕 | 少妇人妻av毛片在线看 | 亚洲日韩av一区二区三区中文 | 国产又粗又硬又大爽黄老大爷视 | 亚洲一区二区三区在线观看网站 | 亚洲色欲久久久综合网东京热 | 亚洲精品久久久久久久久久久 | 国产精品-区区久久久狼 | 国产莉萝无码av在线播放 | 亚洲国产精品一区二区美利坚 | 精品人妻av区 | 精品一区二区三区无码免费视频 | 少妇无码一区二区二三区 | 亚洲综合另类小说色区 | 男女作爱免费网站 | 久久熟妇人妻午夜寂寞影院 | 欧美日本日韩 | 亚洲高清偷拍一区二区三区 | 亚洲精品久久久久久久久久久 | 97无码免费人妻超级碰碰夜夜 | 亚洲色偷偷男人的天堂 | 国内老熟妇对白xxxxhd | 欧美第一黄网免费网站 | 亚洲精品久久久久久久久久久 | 国产精品高潮呻吟av久久 | 国产精品办公室沙发 | 在线精品国产一区二区三区 | 国内少妇偷人精品视频免费 | 国产欧美精品一区二区三区 | 九一九色国产 | 最新版天堂资源中文官网 | 97资源共享在线视频 | 国产99久久精品一区二区 | 日本免费一区二区三区最新 | 久久精品国产一区二区三区肥胖 | 女人被爽到呻吟gif动态图视看 | 又大又硬又黄的免费视频 | 国产激情综合五月久久 | 99精品无人区乱码1区2区3区 | 免费无码av一区二区 | 欧美日韩久久久精品a片 | 天天躁日日躁狠狠躁免费麻豆 | av在线亚洲欧洲日产一区二区 | 国产高清不卡无码视频 | 日韩人妻无码一区二区三区久久99 | 国产激情综合五月久久 | 国产精华av午夜在线观看 | 牲欲强的熟妇农村老妇女视频 | 大肉大捧一进一出视频出来呀 | 97无码免费人妻超级碰碰夜夜 | 国产极品视觉盛宴 | 久久久久久亚洲精品a片成人 | 亚洲人成影院在线无码按摩店 | 亚洲成a人片在线观看无码 | 狠狠综合久久久久综合网 | 性欧美videos高清精品 | 噜噜噜亚洲色成人网站 | 国产片av国语在线观看 | 国内精品久久久久久中文字幕 | 国产精品久久久久7777 | 好爽又高潮了毛片免费下载 | 国产成人精品视频ⅴa片软件竹菊 | 男女下面进入的视频免费午夜 | 国语精品一区二区三区 | 成 人 免费观看网站 | 欧美 丝袜 自拍 制服 另类 | 国产高清av在线播放 | 国产真人无遮挡作爱免费视频 | 国内丰满熟女出轨videos | √8天堂资源地址中文在线 | 真人与拘做受免费视频 | 亚洲日韩av片在线观看 | 亚洲欧洲中文日韩av乱码 | 蜜臀av无码人妻精品 | 国产精品igao视频网 | av无码久久久久不卡免费网站 | 国产香蕉97碰碰久久人人 | 日韩精品无码免费一区二区三区 | 宝宝好涨水快流出来免费视频 | 小sao货水好多真紧h无码视频 | 乱中年女人伦av三区 | 国产农村妇女高潮大叫 | 国产激情综合五月久久 | 欧美黑人性暴力猛交喷水 | 5858s亚洲色大成网站www | 精品少妇爆乳无码av无码专区 | 激情人妻另类人妻伦 | 成人三级无码视频在线观看 | 国产精品理论片在线观看 | 一本久道久久综合狠狠爱 | 亚洲精品一区二区三区在线 | 中文字幕乱妇无码av在线 | 国产高清不卡无码视频 | 纯爱无遮挡h肉动漫在线播放 | 精品日本一区二区三区在线观看 | 麻豆成人精品国产免费 | 蜜桃av抽搐高潮一区二区 | 高清不卡一区二区三区 | 欧美阿v高清资源不卡在线播放 | 夜夜高潮次次欢爽av女 | 高潮毛片无遮挡高清免费 | 国产成人无码午夜视频在线观看 | 欧洲欧美人成视频在线 | 久久国产自偷自偷免费一区调 | 大胆欧美熟妇xx | 国产极品视觉盛宴 | 国产另类ts人妖一区二区 | 亚洲区小说区激情区图片区 | 男人的天堂2018无码 | 日韩少妇内射免费播放 | 亚洲无人区午夜福利码高清完整版 | 国内老熟妇对白xxxxhd | 九九久久精品国产免费看小说 | 国产成人无码专区 | 色诱久久久久综合网ywww | 色综合久久久久综合一本到桃花网 | 亚洲欧美国产精品久久 | 中文字幕无码av激情不卡 | 曰韩无码二三区中文字幕 | 日日碰狠狠躁久久躁蜜桃 | 成人无码精品1区2区3区免费看 | 久久精品国产大片免费观看 | 人妻有码中文字幕在线 | 国产精品内射视频免费 | 亚洲精品中文字幕乱码 | 久久这里只有精品视频9 | 兔费看少妇性l交大片免费 | 久久久久久国产精品无码下载 | 亚洲精品一区二区三区大桥未久 | 色综合久久久久综合一本到桃花网 | 国产精品99爱免费视频 | 一区二区三区乱码在线 | 欧洲 | 红桃av一区二区三区在线无码av | 精品国偷自产在线视频 | 午夜性刺激在线视频免费 | 国内精品人妻无码久久久影院 | 人人妻人人藻人人爽欧美一区 | 2019nv天堂香蕉在线观看 | 两性色午夜视频免费播放 | 大乳丰满人妻中文字幕日本 | 熟女俱乐部五十路六十路av | 中文字幕无码av波多野吉衣 | 在线精品国产一区二区三区 | 人人澡人人妻人人爽人人蜜桃 | 大地资源中文第3页 | 在线观看国产一区二区三区 | 国产精品第一区揄拍无码 | 久久天天躁夜夜躁狠狠 | 欧美日韩人成综合在线播放 | 国产激情一区二区三区 | 熟妇人妻无乱码中文字幕 | 欧美日本精品一区二区三区 | 天堂а√在线地址中文在线 | 好爽又高潮了毛片免费下载 | 一二三四社区在线中文视频 | 亚洲日本va午夜在线电影 | 色综合久久中文娱乐网 | 国产三级精品三级男人的天堂 | 精品无码国产自产拍在线观看蜜 | 欧洲熟妇精品视频 | 少妇高潮喷潮久久久影院 | 久久综合给久久狠狠97色 | 欧美日韩色另类综合 | 99久久精品国产一区二区蜜芽 | 极品尤物被啪到呻吟喷水 | 激情综合激情五月俺也去 | 国产精品沙发午睡系列 | 久青草影院在线观看国产 | 色欲av亚洲一区无码少妇 | 久久国产36精品色熟妇 | 两性色午夜免费视频 | 国产人妻大战黑人第1集 | 久久午夜夜伦鲁鲁片无码免费 | 免费视频欧美无人区码 | 亚洲午夜久久久影院 | 久久精品成人欧美大片 | 欧美色就是色 | 精品乱码久久久久久久 | 国产精品免费大片 | 日韩无套无码精品 | 亚洲狠狠色丁香婷婷综合 | 性欧美大战久久久久久久 | 疯狂三人交性欧美 | 国产区女主播在线观看 | 久久久久久亚洲精品a片成人 | 亚洲a无码综合a国产av中文 | 亚洲国产精品无码一区二区三区 | 51国偷自产一区二区三区 | 久久久精品人妻久久影视 | 欧美激情内射喷水高潮 | 无码人妻精品一区二区三区不卡 | 成熟女人特级毛片www免费 | 国产精品va在线观看无码 | 国产精品久久久久久亚洲毛片 | 中文字幕中文有码在线 | 国产激情艳情在线看视频 | 日韩亚洲欧美中文高清在线 | 天天拍夜夜添久久精品 | 国产三级久久久精品麻豆三级 | 伊人色综合久久天天小片 | 黑森林福利视频导航 | 成人免费视频在线观看 | 国产一区二区三区四区五区加勒比 | 久久zyz资源站无码中文动漫 | 国产精品久久久一区二区三区 | 亚洲乱码中文字幕在线 | 草草网站影院白丝内射 | 中文无码伦av中文字幕 | 老司机亚洲精品影院 | 久久久精品人妻久久影视 | 女人色极品影院 | 欧美人与物videos另类 | 漂亮人妻洗澡被公强 日日躁 | 成在人线av无码免观看麻豆 | 性欧美疯狂xxxxbbbb | 一本色道久久综合狠狠躁 | 娇妻被黑人粗大高潮白浆 | а√天堂www在线天堂小说 | 曰韩少妇内射免费播放 | 国产激情无码一区二区app | 国产莉萝无码av在线播放 | 少妇人妻大乳在线视频 | yw尤物av无码国产在线观看 | 大肉大捧一进一出好爽视频 | 无码吃奶揉捏奶头高潮视频 | 亚洲 激情 小说 另类 欧美 | 国产高潮视频在线观看 | 人妻aⅴ无码一区二区三区 | 久久久中文字幕日本无吗 | 国产免费观看黄av片 | 1000部夫妻午夜免费 | 中文字幕av无码一区二区三区电影 | 亚洲精品一区二区三区在线观看 | 我要看www免费看插插视频 | 51国偷自产一区二区三区 | 最新国产麻豆aⅴ精品无码 | 98国产精品综合一区二区三区 | 久久综合色之久久综合 | 无码国产激情在线观看 | 国产精品无码一区二区三区不卡 | 国产综合色产在线精品 | 日本乱偷人妻中文字幕 | 日韩av无码一区二区三区 | 亚洲精品一区二区三区大桥未久 | a在线观看免费网站大全 | 国产精品丝袜黑色高跟鞋 | 鲁鲁鲁爽爽爽在线视频观看 | 人妻尝试又大又粗久久 | 秋霞成人午夜鲁丝一区二区三区 | 亚洲男女内射在线播放 | 久久人人爽人人爽人人片ⅴ | 中文字幕 亚洲精品 第1页 | 精品熟女少妇av免费观看 | 性色欲情网站iwww九文堂 | 玩弄中年熟妇正在播放 | 日日天干夜夜狠狠爱 | 国精产品一品二品国精品69xx | 中文字幕乱码人妻无码久久 | 久久伊人色av天堂九九小黄鸭 | 国产亚洲人成a在线v网站 | 欧美野外疯狂做受xxxx高潮 | 高清国产亚洲精品自在久久 | 狠狠亚洲超碰狼人久久 | 中文字幕日韩精品一区二区三区 | 亚洲午夜久久久影院 | 精品乱码久久久久久久 | 97精品国产97久久久久久免费 | 女人和拘做爰正片视频 | 国产成人人人97超碰超爽8 | 精品一区二区三区波多野结衣 | 亚洲综合无码一区二区三区 | 中文字幕无码免费久久9一区9 | 思思久久99热只有频精品66 | 中文字幕无线码免费人妻 | 亚洲日韩av一区二区三区中文 | 国产熟女一区二区三区四区五区 | 亚洲精品一区二区三区大桥未久 | 亚洲中文字幕无码中文字在线 | 一区二区传媒有限公司 | 鲁鲁鲁爽爽爽在线视频观看 | 欧美一区二区三区视频在线观看 | 好男人社区资源 | 日韩人妻系列无码专区 | 97夜夜澡人人爽人人喊中国片 | 无码乱肉视频免费大全合集 | 98国产精品综合一区二区三区 | 精品国精品国产自在久国产87 | 国产偷国产偷精品高清尤物 | 无码福利日韩神码福利片 | 中文精品久久久久人妻不卡 | 久久久久久久人妻无码中文字幕爆 | 色窝窝无码一区二区三区色欲 | 纯爱无遮挡h肉动漫在线播放 | 秋霞成人午夜鲁丝一区二区三区 | 青春草在线视频免费观看 | 麻豆果冻传媒2021精品传媒一区下载 | 双乳奶水饱满少妇呻吟 | 午夜时刻免费入口 | 国产成人精品视频ⅴa片软件竹菊 | 99视频精品全部免费免费观看 | 欧美人与动性行为视频 | 欧美人与动性行为视频 | 熟妇人妻无乱码中文字幕 | a片在线免费观看 | 成人片黄网站色大片免费观看 | 无码一区二区三区在线观看 | 色婷婷久久一区二区三区麻豆 | 亚洲区小说区激情区图片区 | 好男人社区资源 | 国产偷抇久久精品a片69 | 天堂亚洲2017在线观看 | 亚洲s色大片在线观看 | 国产农村妇女高潮大叫 | 永久免费精品精品永久-夜色 | 久久久久成人精品免费播放动漫 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 激情亚洲一区国产精品 | 亚洲精品无码国产 | 中文精品无码中文字幕无码专区 | 亚洲欧美日韩国产精品一区二区 | 久9re热视频这里只有精品 | 国产农村乱对白刺激视频 | 亚洲中文字幕成人无码 | 国产亚洲人成在线播放 | 黑人粗大猛烈进出高潮视频 | 欧美精品国产综合久久 | 无遮无挡爽爽免费视频 | √天堂资源地址中文在线 | 性啪啪chinese东北女人 | 久久国产精品偷任你爽任你 | 狠狠色丁香久久婷婷综合五月 | 国产成人无码av在线影院 | 啦啦啦www在线观看免费视频 | 熟女体下毛毛黑森林 | 又大又紧又粉嫩18p少妇 | www一区二区www免费 | 99久久精品日本一区二区免费 | 午夜成人1000部免费视频 | 在线播放无码字幕亚洲 | 99久久久无码国产精品免费 | 国产情侣作爱视频免费观看 | 亚洲国产欧美在线成人 | 国产午夜无码视频在线观看 | 狠狠色噜噜狠狠狠狠7777米奇 | 骚片av蜜桃精品一区 | 国产精品亚洲一区二区三区喷水 | 日本va欧美va欧美va精品 | 国产午夜福利100集发布 | 无遮挡国产高潮视频免费观看 | 成人一区二区免费视频 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 日本大乳高潮视频在线观看 | 一本色道久久综合亚洲精品不卡 | 国产精品美女久久久久av爽李琼 | 日韩亚洲欧美精品综合 | 精品人人妻人人澡人人爽人人 | 精品人妻中文字幕有码在线 | 少妇高潮一区二区三区99 | a国产一区二区免费入口 | 正在播放东北夫妻内射 | 国产国产精品人在线视 | 国产日产欧产精品精品app | 两性色午夜视频免费播放 | 99精品无人区乱码1区2区3区 | 国内精品九九久久久精品 | 性做久久久久久久免费看 | 日韩精品久久久肉伦网站 | 中文字幕无码av激情不卡 | 日日夜夜撸啊撸 | 亚洲毛片av日韩av无码 | 无码国内精品人妻少妇 | 少妇被粗大的猛进出69影院 | 小泽玛莉亚一区二区视频在线 | 国产在线精品一区二区三区直播 | 男女超爽视频免费播放 | 丝袜 中出 制服 人妻 美腿 | 国产午夜精品一区二区三区嫩草 | 娇妻被黑人粗大高潮白浆 | 18禁黄网站男男禁片免费观看 | 欧美性生交活xxxxxdddd | 久久久久久久人妻无码中文字幕爆 | 亚洲毛片av日韩av无码 | 色五月丁香五月综合五月 | 色一情一乱一伦一视频免费看 | 黑人巨大精品欧美一区二区 | 蜜桃av抽搐高潮一区二区 | 伊人久久大香线蕉亚洲 | 中文字幕无码日韩欧毛 | 中文亚洲成a人片在线观看 | 国产色视频一区二区三区 | 台湾无码一区二区 | 日本护士xxxxhd少妇 | 我要看www免费看插插视频 | 国产精品福利视频导航 | 精品久久综合1区2区3区激情 | 日韩精品无码一本二本三本色 | 在教室伦流澡到高潮hnp视频 | 色五月丁香五月综合五月 | 啦啦啦www在线观看免费视频 | 久久久久亚洲精品中文字幕 | 国产乱人无码伦av在线a | 激情五月综合色婷婷一区二区 | 久久久久免费看成人影片 | 亚洲精品午夜国产va久久成人 | 亚洲精品久久久久久一区二区 | 精品久久久中文字幕人妻 | 免费无码午夜福利片69 | 日本一区二区三区免费播放 | 亚洲色欲色欲欲www在线 | 久久成人a毛片免费观看网站 | 久久zyz资源站无码中文动漫 | 久久人人97超碰a片精品 | 天天做天天爱天天爽综合网 | 东北女人啪啪对白 | 2019午夜福利不卡片在线 | 成熟女人特级毛片www免费 | аⅴ资源天堂资源库在线 | 婷婷五月综合缴情在线视频 | 亚洲 a v无 码免 费 成 人 a v | 人妻与老人中文字幕 | 亚洲の无码国产の无码步美 | 精品成在人线av无码免费看 | 300部国产真实乱 | 成 人影片 免费观看 | 日本爽爽爽爽爽爽在线观看免 | 狠狠亚洲超碰狼人久久 | 国产乱人无码伦av在线a | 亚洲国产精品久久人人爱 | 中文字幕日产无线码一区 | 97久久国产亚洲精品超碰热 | 久久无码专区国产精品s | 99麻豆久久久国产精品免费 | 性色av无码免费一区二区三区 | 一本久久a久久精品亚洲 | 欧洲vodafone精品性 | 麻豆果冻传媒2021精品传媒一区下载 | 噜噜噜亚洲色成人网站 | 少妇性俱乐部纵欲狂欢电影 | 久精品国产欧美亚洲色aⅴ大片 | 高清不卡一区二区三区 | 国产av久久久久精东av | 国产熟妇高潮叫床视频播放 | 国产xxx69麻豆国语对白 | 国产高清不卡无码视频 | 久久人妻内射无码一区三区 | 中文字幕无线码免费人妻 | 亚洲日韩中文字幕在线播放 | 亚洲国产综合无码一区 | 久久国产自偷自偷免费一区调 | 东京一本一道一二三区 | 色综合天天综合狠狠爱 | 波多野结衣aⅴ在线 | 亚洲熟妇色xxxxx亚洲 | 少妇性l交大片 | 国产精品怡红院永久免费 | 偷窥日本少妇撒尿chinese | 亚洲区欧美区综合区自拍区 | www成人国产高清内射 | 九月婷婷人人澡人人添人人爽 | 久激情内射婷内射蜜桃人妖 | 亚洲a无码综合a国产av中文 | 无码人妻丰满熟妇区五十路百度 | 久久久久国色av免费观看性色 | 国产精品无套呻吟在线 | 1000部夫妻午夜免费 | 国产黄在线观看免费观看不卡 | 一本久久a久久精品亚洲 | 丰满少妇弄高潮了www | 国产成人精品必看 | 99re在线播放 | 成人av无码一区二区三区 | 天天综合网天天综合色 | 一本久道高清无码视频 | 国产在线精品一区二区三区直播 | 国产精品久久久久无码av色戒 | 欧美成人免费全部网站 | 成年美女黄网站色大免费全看 | 一区二区传媒有限公司 | 欧洲精品码一区二区三区免费看 | 亚洲第一网站男人都懂 | 国产成人无码av片在线观看不卡 | 澳门永久av免费网站 | 国产乱人伦偷精品视频 | 久久精品无码一区二区三区 | 久久久久99精品国产片 | 牲欲强的熟妇农村老妇女视频 | 国产人妻精品一区二区三区 | 四虎影视成人永久免费观看视频 | 奇米影视7777久久精品人人爽 | 欧美精品国产综合久久 | 在线a亚洲视频播放在线观看 | 少妇无码一区二区二三区 | 老熟女重囗味hdxx69 | av小次郎收藏 | 强开小婷嫩苞又嫩又紧视频 | 国产高潮视频在线观看 | 亚洲精品国产a久久久久久 | 国产精品久久久午夜夜伦鲁鲁 | 无码人妻av免费一区二区三区 | 国产av无码专区亚洲awww | 国产精品国产自线拍免费软件 | 欧美国产日韩久久mv | 2020久久香蕉国产线看观看 | 久久久久免费精品国产 | 露脸叫床粗话东北少妇 | 欧美性生交活xxxxxdddd | 国精产品一区二区三区 | 国产一区二区三区日韩精品 | 国产麻豆精品一区二区三区v视界 | 人人妻人人澡人人爽欧美一区九九 | 在线天堂新版最新版在线8 | 日本精品高清一区二区 | 少妇性荡欲午夜性开放视频剧场 | 亚洲精品国偷拍自产在线麻豆 | 熟妇人妻无乱码中文字幕 | 亚洲成av人片在线观看无码不卡 | 亚洲欧美日韩综合久久久 | 性色av无码免费一区二区三区 | 久久99精品国产麻豆 | 亚洲综合无码一区二区三区 | 亚洲大尺度无码无码专区 | 成人无码视频在线观看网站 | 福利一区二区三区视频在线观看 | 精品国产麻豆免费人成网站 | 久久97精品久久久久久久不卡 | 国产高清av在线播放 | 无码纯肉视频在线观看 | 亚洲熟妇色xxxxx欧美老妇 | 亚洲 a v无 码免 费 成 人 a v | 自拍偷自拍亚洲精品被多人伦好爽 | 国产真实伦对白全集 | 青青青爽视频在线观看 | 久久精品99久久香蕉国产色戒 | 综合激情五月综合激情五月激情1 | 97精品人妻一区二区三区香蕉 | 成人性做爰aaa片免费看不忠 | 国产精品亚洲一区二区三区喷水 | 国产偷抇久久精品a片69 | 亚洲狠狠婷婷综合久久 | 一本无码人妻在中文字幕免费 | 久久精品无码一区二区三区 | 男女下面进入的视频免费午夜 | 亚洲自偷自偷在线制服 | yw尤物av无码国产在线观看 | 久久久久久久久蜜桃 | 亚洲国产午夜精品理论片 | 国产人妻人伦精品1国产丝袜 | 国产成人精品久久亚洲高清不卡 | 99久久精品午夜一区二区 | 中文字幕av伊人av无码av | 精品无码一区二区三区爱欲 | 欧美成人家庭影院 | 精品国产一区二区三区av 性色 | 爽爽影院免费观看 | 国产偷抇久久精品a片69 | 中文字幕av无码一区二区三区电影 | 国产又爽又黄又刺激的视频 | 日日天干夜夜狠狠爱 | 丰腴饱满的极品熟妇 | 国产av久久久久精东av | 久久久亚洲欧洲日产国码αv | 国产人妻精品一区二区三区不卡 | 国产成人精品久久亚洲高清不卡 | 乌克兰少妇xxxx做受 | 4hu四虎永久在线观看 | 成熟妇人a片免费看网站 | 国产人妻精品一区二区三区不卡 | 亚洲一区二区三区四区 | 成人无码视频免费播放 | 永久免费观看国产裸体美女 | 亚洲综合伊人久久大杳蕉 | 狠狠色色综合网站 | 内射爽无广熟女亚洲 | 无码人妻精品一区二区三区下载 | 久久久久se色偷偷亚洲精品av | 国产精品第一国产精品 | 玩弄少妇高潮ⅹxxxyw | 国产在线精品一区二区三区直播 | 精品一区二区三区无码免费视频 | 久久久久久久女国产乱让韩 | 无遮挡国产高潮视频免费观看 | 日本护士xxxxhd少妇 | 国产9 9在线 | 中文 | 亚洲无人区午夜福利码高清完整版 | 无码av中文字幕免费放 | 四十如虎的丰满熟妇啪啪 | 亚洲aⅴ无码成人网站国产app | 日本www一道久久久免费榴莲 | 成熟人妻av无码专区 | 亚洲精品国产a久久久久久 | 狠狠色丁香久久婷婷综合五月 | 中文字幕乱码人妻无码久久 | 欧美人与禽zoz0性伦交 | 国内精品人妻无码久久久影院 | 亚洲区欧美区综合区自拍区 | 国产口爆吞精在线视频 | 麻豆国产人妻欲求不满谁演的 | 国产无套粉嫩白浆在线 | 少妇邻居内射在线 | 国产精品人人爽人人做我的可爱 | 无遮无挡爽爽免费视频 | 国产乱人伦av在线无码 | 国产suv精品一区二区五 | 综合网日日天干夜夜久久 | 日本精品高清一区二区 | 亚洲大尺度无码无码专区 | 老熟妇乱子伦牲交视频 | 欧美色就是色 | 女人被男人爽到呻吟的视频 | 国产成人精品视频ⅴa片软件竹菊 | 久青草影院在线观看国产 | 免费无码av一区二区 | 国产美女精品一区二区三区 | www国产亚洲精品久久久日本 | 欧美熟妇另类久久久久久不卡 | 亚洲s色大片在线观看 | 久久久中文字幕日本无吗 | 免费人成在线视频无码 | 亚洲欧美色中文字幕在线 | 波多野结衣乳巨码无在线观看 | 97精品人妻一区二区三区香蕉 | 乱码av麻豆丝袜熟女系列 | aⅴ亚洲 日韩 色 图网站 播放 | 亚洲va中文字幕无码久久不卡 | 精品aⅴ一区二区三区 | 人妻无码αv中文字幕久久琪琪布 | 亚洲 a v无 码免 费 成 人 a v | 久久精品人人做人人综合 | 国产熟妇高潮叫床视频播放 | 国产三级久久久精品麻豆三级 | 97精品人妻一区二区三区香蕉 | 日本一卡二卡不卡视频查询 | 日韩欧美群交p片內射中文 | 中文字幕色婷婷在线视频 | 亚洲一区av无码专区在线观看 | 狠狠色噜噜狠狠狠狠7777米奇 | 久久久国产精品无码免费专区 | 久久亚洲a片com人成 | 亚洲精品综合五月久久小说 | 麻豆md0077饥渴少妇 | 天堂无码人妻精品一区二区三区 | 扒开双腿吃奶呻吟做受视频 | 中文字幕日韩精品一区二区三区 | 强奷人妻日本中文字幕 | 国产激情艳情在线看视频 | 伊人色综合久久天天小片 | 欧美激情综合亚洲一二区 | 亚洲色大成网站www | av小次郎收藏 | 国产区女主播在线观看 | 久久精品人妻少妇一区二区三区 | 欧美zoozzooz性欧美 | 国产av无码专区亚洲a∨毛片 | 秋霞特色aa大片 | 色婷婷久久一区二区三区麻豆 | 久久精品国产99精品亚洲 | 无码人妻久久一区二区三区不卡 | 久久久久久九九精品久 | 亚洲精品中文字幕 | 国产黑色丝袜在线播放 | 人妻体内射精一区二区三四 | 色综合久久中文娱乐网 | 99久久人妻精品免费二区 | 精品亚洲韩国一区二区三区 | 国产又爽又猛又粗的视频a片 | 亚洲熟妇自偷自拍另类 | 人人澡人人透人人爽 | 鲁大师影院在线观看 | 青青青手机频在线观看 | 香港三级日本三级妇三级 | 日韩视频 中文字幕 视频一区 | 亚洲色欲色欲天天天www | 国产人妻人伦精品1国产丝袜 | 精品国精品国产自在久国产87 | 国产农村妇女高潮大叫 | 久久伊人色av天堂九九小黄鸭 | 成年美女黄网站色大免费全看 | 亚洲日韩精品欧美一区二区 | 色综合天天综合狠狠爱 | 美女毛片一区二区三区四区 | 亚洲乱码国产乱码精品精 | 婷婷丁香六月激情综合啪 | 中文无码成人免费视频在线观看 | 日韩欧美成人免费观看 | 日韩精品无码一本二本三本色 | yw尤物av无码国产在线观看 | 性欧美熟妇videofreesex | 99麻豆久久久国产精品免费 | 2020久久超碰国产精品最新 | 少妇无码一区二区二三区 | 欧美乱妇无乱码大黄a片 | 真人与拘做受免费视频一 | 狠狠躁日日躁夜夜躁2020 | 久久久久av无码免费网 | 欧洲欧美人成视频在线 | 人妻少妇精品无码专区二区 | 亚洲码国产精品高潮在线 | 午夜福利电影 | 色情久久久av熟女人妻网站 | 人人澡人人妻人人爽人人蜜桃 | 久久成人a毛片免费观看网站 | 亚洲精品一区二区三区婷婷月 | 国产三级久久久精品麻豆三级 | 日韩精品无码一区二区中文字幕 | 99re在线播放 | 动漫av一区二区在线观看 | 久青草影院在线观看国产 | 领导边摸边吃奶边做爽在线观看 | 欧美日韩视频无码一区二区三 | 国产av人人夜夜澡人人爽麻豆 | 亚洲成在人网站无码天堂 | 国产色在线 | 国产 | 欧美野外疯狂做受xxxx高潮 | 亚洲欧美日韩国产精品一区二区 | 樱花草在线社区www | 西西人体www44rt大胆高清 | 日日摸天天摸爽爽狠狠97 | 日本爽爽爽爽爽爽在线观看免 | 国产熟妇高潮叫床视频播放 | 亚洲色在线无码国产精品不卡 | 黑森林福利视频导航 | 伊在人天堂亚洲香蕉精品区 | 亚洲无人区一区二区三区 | 国产亚洲精品久久久久久久久动漫 | 国内揄拍国内精品少妇国语 | 在线播放免费人成毛片乱码 | 日韩亚洲欧美中文高清在线 | 任你躁国产自任一区二区三区 | 亚洲中文无码av永久不收费 | 丰满少妇弄高潮了www | 国产超级va在线观看视频 | 亚欧洲精品在线视频免费观看 | 免费播放一区二区三区 | 国产乱人无码伦av在线a | 国产精品爱久久久久久久 | 夜夜夜高潮夜夜爽夜夜爰爰 | 中文无码伦av中文字幕 | 色综合久久久久综合一本到桃花网 | 4hu四虎永久在线观看 | 俄罗斯老熟妇色xxxx | 黑森林福利视频导航 | 无码av岛国片在线播放 | 中文亚洲成a人片在线观看 | 青青久在线视频免费观看 | 无码人中文字幕 | 国产精品理论片在线观看 | 国产精品久久久久久无码 | 中文字幕 人妻熟女 | 国精产品一区二区三区 | 色欲av亚洲一区无码少妇 | 乱人伦人妻中文字幕无码久久网 | 久久无码人妻影院 | 激情人妻另类人妻伦 | 色婷婷香蕉在线一区二区 | 午夜不卡av免费 一本久久a久久精品vr综合 | 人人妻人人澡人人爽人人精品浪潮 | 人妻少妇被猛烈进入中文字幕 | 亚洲欧洲日本无在线码 | 国产97在线 | 亚洲 | 牲欲强的熟妇农村老妇女视频 | 欧美精品国产综合久久 | 亚洲国产精品久久久天堂 | 久久综合狠狠综合久久综合88 | 少妇被黑人到高潮喷出白浆 | 亚洲国产欧美日韩精品一区二区三区 | 99久久精品日本一区二区免费 | 青春草在线视频免费观看 | 日韩亚洲欧美中文高清在线 | 国产真实乱对白精彩久久 | 欧美午夜特黄aaaaaa片 | 1000部啪啪未满十八勿入下载 | 又紧又大又爽精品一区二区 | 激情五月综合色婷婷一区二区 | 亚洲国产欧美在线成人 | 日日摸夜夜摸狠狠摸婷婷 | 一本加勒比波多野结衣 | 国产超级va在线观看视频 | 一本久久a久久精品亚洲 | 国产乱人无码伦av在线a | 日韩av无码一区二区三区不卡 | 无码免费一区二区三区 | 欧美成人免费全部网站 | 宝宝好涨水快流出来免费视频 | 午夜福利试看120秒体验区 | 九九久久精品国产免费看小说 | 四虎4hu永久免费 | 纯爱无遮挡h肉动漫在线播放 | 成人欧美一区二区三区黑人免费 | 福利一区二区三区视频在线观看 | 夜夜夜高潮夜夜爽夜夜爰爰 | 99久久精品日本一区二区免费 | 成人免费视频视频在线观看 免费 | 色诱久久久久综合网ywww | 国产又粗又硬又大爽黄老大爷视 | 一本久道久久综合婷婷五月 | 日本一区二区三区免费高清 | 中文字幕乱码中文乱码51精品 | 久久久久亚洲精品中文字幕 | 亚洲日本va午夜在线电影 | 无码国内精品人妻少妇 | 欧美兽交xxxx×视频 | 窝窝午夜理论片影院 | 中文字幕无码视频专区 | 国产女主播喷水视频在线观看 | 精品国产麻豆免费人成网站 | 亚洲成av人在线观看网址 | 1000部啪啪未满十八勿入下载 | 亚洲性无码av中文字幕 | 女人被男人躁得好爽免费视频 | 亚洲男人av香蕉爽爽爽爽 | 97精品人妻一区二区三区香蕉 | 欧美黑人性暴力猛交喷水 | 夜夜夜高潮夜夜爽夜夜爰爰 | 国产两女互慰高潮视频在线观看 | 亚洲国产高清在线观看视频 | 亚洲va中文字幕无码久久不卡 | 女人和拘做爰正片视频 | 久久国产劲爆∧v内射 | 国产精品人妻一区二区三区四 | 无遮挡啪啪摇乳动态图 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 亚洲国产精品无码久久久久高潮 | 国产凸凹视频一区二区 | 色妞www精品免费视频 | 男人和女人高潮免费网站 | av小次郎收藏 | 中文久久乱码一区二区 | 在线成人www免费观看视频 | 久久午夜无码鲁丝片秋霞 | 自拍偷自拍亚洲精品被多人伦好爽 | 成人欧美一区二区三区黑人 | 欧美日本精品一区二区三区 | 国产精品国产自线拍免费软件 | 人人妻在人人 | 国产肉丝袜在线观看 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 国产精品爱久久久久久久 | 欧美三级不卡在线观看 | 5858s亚洲色大成网站www | 中文字幕无线码 | 色综合久久久久综合一本到桃花网 | 日本一卡二卡不卡视频查询 | 亚洲欧洲无卡二区视頻 | 午夜福利不卡在线视频 | 中文字幕+乱码+中文字幕一区 | 国产精品a成v人在线播放 |