久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

莫烦-强化学习

發(fā)布時間:2023/12/20 编程问答 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 莫烦-强化学习 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

強(qiáng)化學(xué)習(xí)

Q-Learning

簡單流程
''' # T 就是寶藏的位置, o 是探索者的位置(主循環(huán))偽代碼: Initalize Q(s, a) arbitrarily #Q(s, a):Q表 每個狀態(tài)對應(yīng)的動作的Q值 Repeat (for each episode):Initialize SRepeat (for each step of episode): Choose a from s using policy derived from Q (e.g.,E-greedy)Take action a, observe r, s'Q(s,a)←Q(s,a) +a[r + gamma*maxa' Q(s',a')- Q(s,a)]s←s';until S is terminalQ-learning 是一種記錄行為值 (Q value) 的方法, 每種在一定狀態(tài)的行為都會有一個值 Q(s, a), 就是說 行為 a 在 s 狀態(tài)的值是 Q(s, a). s 在上面的探索者游戲中, 就是 o 所在的地點了. 而每一個地點探索者都能做出兩個行為 left/right, 這就是探索者的所有可行的 a 啦.如果在某個地點 s1, 探索者計算了他能有的兩個行為, a1/a2=left/right, 計算結(jié)果是 Q(s1, a1) > Q(s1, a2), 那么探索者就會選擇 left 這個行為. 這就是 Q learning 的行為選擇簡單規(guī)則.''' import numpy as np from numpy.testing._private.utils import jiffies import pandas as pd import time#預(yù)設(shè)值 參數(shù) np.random.seed(2) #reproducible 產(chǎn)生一組偽隨機(jī)數(shù)列 N_STATES = 6 #一維世界的寬度 (起始點到目標(biāo)點的距離) ACTIONS = ['left','right'] #探索者的可用動作 EPSILON = 0.9 #貪婪度 ALPHA = 0.1 # 學(xué)習(xí)率 GAMMA = 0.9 # 衰減率(獎勵遞減值) MAX_EPISODES = 13 # 最大迭代數(shù) FRESH_TIME = 0.01 # 移動時間間隔#建立Q表 def build_q_table(n_states, actions):table = pd.DataFrame(np.zeros((n_states, len(actions))), #初始化為 0 表大小為 N_STATES * ACTIONScolumns = actions, #對應(yīng)的是行為名稱)return table """ Q-table:left right 0 0.0 0.0 1 0.0 0.0 2 0.0 0.0 3 0.0 0.0 4 0.0 0.0 5 0.0 0.0 """''' 定義探索者是如何挑選行為的.epsilon greedy:因為在初始階段, 隨機(jī)的探索環(huán)境, 往往比固定的行為模式要好, 所以這也是累積經(jīng)驗的階段, 我們希望探索者不會那么貪婪(greedy). 所以 EPSILON 就是用來控制貪婪程度的值.EPSILON 可以隨著探索時間不斷提升(越來越貪婪), 這個例子中, 固定成 EPSILON = 0.9: 90% 的時間是選擇最優(yōu)策略, 10% 的時間來探索. ''' #選動作 :根據(jù)所在狀態(tài)和Q-table中的值選擇動作 即在某個 state 地點, 選擇行為 def choose_action(state, q_table):state_actions = q_table.iloc[state, :] # 選出這個 state 的所有 action 值if np.random.uniform() > EPSILON or state_actions.all() == 0: # 非貪婪 or 或者這個 state 還沒有探索過action_name = np.random.choice(ACTIONS) #隨機(jī)選取一個行動else:action_name = state_actions.argmax() #貪婪模式 選擇Q值最大的行動return action_name''' 創(chuàng)建環(huán)境:探索者具體怎么探索 做出行為后, 環(huán)境也要給我們的行為一個反饋, 反饋出下個 state (S_) 和 在上個 state (S) 做出 action (A) 所得到的 reward (R). 這里定義的規(guī)則就是, 只有當(dāng) o 移動到了 T, 探索者才會得到唯一的一個獎勵, 獎勵值 R=1, 其他情況都沒有獎勵. ''' def get_env_feedback(S, A):if A == 'right':if S == N_STATES - 2:S_ = 'terminal' #終止R = 1 # 獎勵為1else:S_ = S + 1 #當(dāng)前狀態(tài)+1R = 0else: #向左移動 R = 0 #獎勵為0 if S == 0:S_ = Selse: S_ = S - 1return S_, R#環(huán)境更新 def update_env(S, episode, step_counter):# This is how environment be updatedenv_list = ['-']*(N_STATES-1) + ['T'] # '---------T' our environmentif S == 'terminal':interaction = 'Episode %s: total_steps = %s' % (episode+1, step_counter)print('\r{}'.format(interaction), end='')time.sleep(2)print('\r ', end='')else:env_list[S] = 'o'interaction = ''.join(env_list)print('\r{}'.format(interaction), end='')time.sleep(FRESH_TIME)# 主循環(huán) ''' Initialize Q(s, a) arbitrarily #Q(s, a):Q表 每個狀態(tài)對應(yīng)的動作的Q值 Repeat (for each episode):Initialize SRepeat (for each step of episode): Choose a from s using policy derived from Q (e.g.,E-greedy)Take action a, observe r, s'Q(s,a)←Q(s,a) +a[r + gamma*max a' Q(s',a')- Q(s,a)]s←s';until S is terminal ''' def RL():q_table = build_q_table(N_STATES, ACTIONS) # 初始 q tablefor episode in range(MAX_EPISODES):step_counter = 0 S = 0 # 回合初始位置is_terminated = False # 是否回合結(jié)束update_env(S, episode, step_counter) # 環(huán)境更新while not is_terminated:A = choose_action(S, q_table) # 選行為S_, R = get_env_feedback(S, A) # 實施行為并得到環(huán)境的反饋q_predict = q_table.loc[S, A] # 估算的(狀態(tài)-行為)值if S_ != 'terminal': #如果沒有終止q_target = R + GAMMA * q_table.loc[S_, :].max() #q_target 為真實值else:q_target - R # # 實際的(狀態(tài)-行為)值 (回合結(jié)束)is_terminated = Trueq_table.loc[S, A] += ALPHA * (q_target - q_predict) # q_table 更新S = S_ # 探索者移動到下一個 stateupdate_env(S, episode, step_counter + 1) # 環(huán)境更新step_counter += 1return q_tableif __name__ == '__main__':q_table = RL()print('\r\nQ-table:\n')print(q_table)
運行環(huán)境
""" Reinforcement learning maze example. Red rectangle: explorer. Black rectangles: hells [reward = -1]. Yellow bin circle: paradise [reward = +1]. All other states: ground [reward = 0]. This script is the environment part of this example. The RL is in RL_brain.py. View more on my tutorial page: https://morvanzhou.github.io/tutorials/ """import numpy as np import time import sys if sys.version_info.major == 2:import Tkinter as tk else:import tkinter as tkUNIT = 100 # pixels MAZE_H = 5 # grid height MAZE_W = 5 # grid widthclass Maze(tk.Tk, object):def __init__(self):super(Maze, self).__init__()self.action_space = ['u', 'd', 'l', 'r']self.n_actions = len(self.action_space)self.title('maze')self.geometry('{0}x{1}'.format(MAZE_H * UNIT, MAZE_H * UNIT))self._build_maze()def _build_maze(self):self.canvas = tk.Canvas(self, bg='green',height=MAZE_H * UNIT,width=MAZE_W * UNIT)# create gridsfor c in range(0, MAZE_W * UNIT, UNIT):x0, y0, x1, y1 = c, 0, c, MAZE_H * UNITself.canvas.create_line(x0, y0, x1, y1)for r in range(0, MAZE_H * UNIT, UNIT):x0, y0, x1, y1 = 0, r, MAZE_W * UNIT, rself.canvas.create_line(x0, y0, x1, y1)# create originorigin = np.array([20, 20])# hellhell1_center = origin + np.array([UNIT * 2, UNIT])self.hell1 = self.canvas.create_rectangle(hell1_center[0] - 15, hell1_center[1] - 15,hell1_center[0] + 15, hell1_center[1] + 15,fill='black')# hellhell2_center = origin + np.array([UNIT, UNIT * 2])self.hell2 = self.canvas.create_rectangle(hell2_center[0] - 15, hell2_center[1] - 15,hell2_center[0] + 15, hell2_center[1] + 15,fill='black')# create ovaloval_center = origin + UNIT * 2self.oval = self.canvas.create_oval(oval_center[0] - 15, oval_center[1] - 15,oval_center[0] + 15, oval_center[1] + 15,fill='yellow')# create red rectself.rect = self.canvas.create_rectangle(origin[0] - 15, origin[1] - 15,origin[0] + 15, origin[1] + 15,fill='red')# pack allself.canvas.pack()def reset(self):self.update()time.sleep(0.5)self.canvas.delete(self.rect)origin = np.array([20, 20])self.rect = self.canvas.create_rectangle(origin[0] - 15, origin[1] - 15,origin[0] + 15, origin[1] + 15,fill='red')# return observationreturn self.canvas.coords(self.rect)def step(self, action):s = self.canvas.coords(self.rect)base_action = np.array([0, 0])if action == 0: # upif s[1] > UNIT:base_action[1] -= UNITelif action == 1: # downif s[1] < (MAZE_H - 1) * UNIT:base_action[1] += UNITelif action == 2: # rightif s[0] < (MAZE_W - 1) * UNIT:base_action[0] += UNITelif action == 3: # leftif s[0] > UNIT:base_action[0] -= UNITself.canvas.move(self.rect, base_action[0], base_action[1]) # move agents_ = self.canvas.coords(self.rect) # next state# reward functionif s_ == self.canvas.coords(self.oval):reward = 1done = Trues_ = 'terminal'elif s_ in [self.canvas.coords(self.hell1), self.canvas.coords(self.hell2)]:reward = -1done = Trues_ = 'terminal'else:reward = 0done = Falsereturn s_, reward, donedef render(self):time.sleep(0.1)self.update()def update():for t in range(10):s = env.reset()while True:env.render()a = 1s, r, done = env.step(a)if done:breakif __name__ == '__main__':env = Maze()env.after(100, update)env.mainloop()
構(gòu)建Q-Learning類
""" Reinforcement learning maze example. Red rectangle: explorer. Black rectangles: hells [reward = -1]. Yellow bin circle: paradise [reward = +1]. All other states: ground [reward = 0]. This script is the environment part of this example. The RL is in RL_brain.py. View more on my tutorial page: https://morvanzhou.github.io/tutorials/ """import numpy as np import time import sys if sys.version_info.major == 2:import Tkinter as tk else:import tkinter as tkUNIT = 100 # pixels MAZE_H = 5 # grid height MAZE_W = 5 # grid widthclass Maze(tk.Tk, object):def __init__(self):super(Maze, self).__init__()self.action_space = ['u', 'd', 'l', 'r']self.n_actions = len(self.action_space)self.title('maze')self.geometry('{0}x{1}'.format(MAZE_H * UNIT, MAZE_H * UNIT))self._build_maze()def _build_maze(self):self.canvas = tk.Canvas(self, bg='green',height=MAZE_H * UNIT,width=MAZE_W * UNIT)# create gridsfor c in range(0, MAZE_W * UNIT, UNIT):x0, y0, x1, y1 = c, 0, c, MAZE_H * UNITself.canvas.create_line(x0, y0, x1, y1)for r in range(0, MAZE_H * UNIT, UNIT):x0, y0, x1, y1 = 0, r, MAZE_W * UNIT, rself.canvas.create_line(x0, y0, x1, y1)# create originorigin = np.array([20, 20])# hellhell1_center = origin + np.array([UNIT * 2, UNIT])self.hell1 = self.canvas.create_rectangle(hell1_center[0] - 15, hell1_center[1] - 15,hell1_center[0] + 15, hell1_center[1] + 15,fill='black')# hellhell2_center = origin + np.array([UNIT, UNIT * 2])self.hell2 = self.canvas.create_rectangle(hell2_center[0] - 15, hell2_center[1] - 15,hell2_center[0] + 15, hell2_center[1] + 15,fill='black')# create ovaloval_center = origin + UNIT * 2self.oval = self.canvas.create_oval(oval_center[0] - 15, oval_center[1] - 15,oval_center[0] + 15, oval_center[1] + 15,fill='yellow')# create red rectself.rect = self.canvas.create_rectangle(origin[0] - 15, origin[1] - 15,origin[0] + 15, origin[1] + 15,fill='red')# pack allself.canvas.pack()def reset(self):self.update()time.sleep(0.5)self.canvas.delete(self.rect)origin = np.array([20, 20])self.rect = self.canvas.create_rectangle(origin[0] - 15, origin[1] - 15,origin[0] + 15, origin[1] + 15,fill='red')# return observationreturn self.canvas.coords(self.rect)def step(self, action):s = self.canvas.coords(self.rect)base_action = np.array([0, 0])if action == 0: # upif s[1] > UNIT:base_action[1] -= UNITelif action == 1: # downif s[1] < (MAZE_H - 1) * UNIT:base_action[1] += UNITelif action == 2: # rightif s[0] < (MAZE_W - 1) * UNIT:base_action[0] += UNITelif action == 3: # leftif s[0] > UNIT:base_action[0] -= UNITself.canvas.move(self.rect, base_action[0], base_action[1]) # move agents_ = self.canvas.coords(self.rect) # next state# reward functionif s_ == self.canvas.coords(self.oval):reward = 1done = Trues_ = 'terminal'elif s_ in [self.canvas.coords(self.hell1), self.canvas.coords(self.hell2)]:reward = -1done = Trues_ = 'terminal'else:reward = 0done = Falsereturn s_, reward, donedef render(self):time.sleep(0.1)self.update()def update():for t in range(10):s = env.reset()while True:env.render()a = 1s, r, done = env.step(a)if done:breakif __name__ == '__main__':env = Maze()env.after(100, update)env.mainloop()
運行Q-Learning
''' 讓探索者學(xué)會走迷宮. 黃色的是天堂 (reward 1), 黑色的地獄 (reward -1). 大多數(shù) RL 是由 reward 導(dǎo)向的, 所以定義 reward 是 RL 中比較重要的一點.Reinforcement learning maze example. Red rectangle: explorer. Black rectangles: hells [reward = -1]. Yellow bin circle: paradise [reward = +1]. All other states: ground [reward = 0]. This script is the main part which controls the update method of this example. The RL is in RL_brain.py. View more on my tutorial page: https://morvanzhou.github.io/tutorials/ '''from maze_env import Maze from RL_brain import QLearningTable#Updata def update():for episode in range(100):#初始化 觀察值 observation = env.reset()while True:#刷新環(huán)境env.render()#RL 大腦根據(jù) state 的觀測值挑選 actionaction = RL.choose_action(str(observation))#探索者在環(huán)境中實施這個 action, 并得到環(huán)境返回的下一個 state 觀測值, reward 和done (是否是掉下地獄或者升上天堂)observation_next, reward, done = env.step(action)#RL 從這個序列 (state, action, reward, state_) 中學(xué)習(xí)RL.learn(str(observation), action, reward, str(observation_next))# 將下一個 state 的值傳到下一次循環(huán)observation = observation_next#如果掉下地獄或者升上天堂, 這回合就結(jié)束了if done:break# 結(jié)束游戲并關(guān)閉窗口print('game over')env.destroy() if __name__ == '__main__':env = Maze()RL = QLearningTable(actions=list(range(env.n_actions)))env.after(100, update)env.mainloop()

Sarsa

簡單流程
''' # T 就是寶藏的位置, o 是探索者的位置(主循環(huán))偽代碼: Initialize Q(s, a) arbitrarily #Q(s, a):Q表 每個狀態(tài)對應(yīng)的動作的Q值 Repeat (for each episode):Initialize SChoose a from s using policy derived from Q (e.g.,E-greedy)Repeat (for each step of episode): Take action a, observe r, s'Choose a' from s' using policy derived from Q (e.g.,E-greedy)Q(s,a)←Q(s,a) +alpha[r + gamma*Q(s',a')- Q(s,a)]s←s',a←a';until S is terminalSarsa 相對于 Q-learning, 更加的膽小. 因為 Q-learning 永遠(yuǎn)都是想著 maxQ 最大化, 因為這個 maxQ 而變得貪婪, 不考慮其他非 maxQ 的結(jié)果. 我們可以理解成 Q-learning 是一種貪婪, 大膽, 勇敢的算法, 對于錯誤, 死亡并不在乎. 而 Sarsa 是一種保守的算法, 他在乎每一步?jīng)Q策, 對于錯誤和死亡比較銘感. 這一點我們會在可視化的部分看出他們的不同. 兩種算法都有他們的好處, 比如在實際中, 你比較在乎機(jī)器的損害, 用一種保守的算法, 在訓(xùn)練時就能減少損壞的次數(shù).''' import numpy as np from numpy.testing._private.utils import jiffies import pandas as pd import time#預(yù)設(shè)值 參數(shù) np.random.seed(2) #reproducible 產(chǎn)生一組偽隨機(jī)數(shù)列 N_STATES = 6 #一維世界的寬度 (起始點到目標(biāo)點的距離) ACTIONS = ['left','right'] #探索者的可用動作 EPSILON = 0.9 #貪婪度 ALPHA = 0.1 # 學(xué)習(xí)率 GAMMA = 0.9 # 衰減率(獎勵遞減值) MAX_EPISODES = 13 # 最大迭代數(shù) FRESH_TIME = 0.01 # 移動時間間隔#建立Q表 def build_s_table(n_states, actions):table = pd.DataFrame(np.zeros((n_states, len(actions))), #初始化為 0 表大小為 N_STATES * ACTIONScolumns = actions, #對應(yīng)的是行為名稱)return table """ Q-table:left right 0 0.0 0.0 1 0.0 0.0 2 0.0 0.0 3 0.0 0.0 4 0.0 0.0 5 0.0 0.0 """''' 定義探索者是如何挑選行為的.epsilon greedy:因為在初始階段, 隨機(jī)的探索環(huán)境, 往往比固定的行為模式要好, 所以這也是累積經(jīng)驗的階段, 我們希望探索者不會那么貪婪(greedy). 所以 EPSILON 就是用來控制貪婪程度的值.EPSILON 可以隨著探索時間不斷提升(越來越貪婪), 這個例子中, 固定成 EPSILON = 0.9: 90% 的時間是選擇最優(yōu)策略, 10% 的時間來探索. ''' #選動作 :根據(jù)所在狀態(tài)和Q-table中的值選擇動作 即在某個 state 地點, 選擇行為 def choose_action(state, q_table):state_actions = q_table.iloc[state, :] # 選出這個 state 的所有 action 值if np.random.uniform() > EPSILON or state_actions.all() == 0: # 非貪婪 or 或者這個 state 還沒有探索過action_name = np.random.choice(ACTIONS) #隨機(jī)選取一個行動else:action_name = state_actions.argmax() #貪婪模式 選擇Q值最大的行動return action_name''' 創(chuàng)建環(huán)境:探索者具體怎么探索 做出行為后, 環(huán)境也要給我們的行為一個反饋, 反饋出下個 state (S_) 和 在上個 state (S) 做出 action (A) 所得到的 reward (R). 這里定義的規(guī)則就是, 只有當(dāng) o 移動到了 T, 探索者才會得到唯一的一個獎勵, 獎勵值 R=1, 其他情況都沒有獎勵. ''' def get_env_feedback(S, A):if A == 'right':if S == N_STATES - 2:S_ = 'terminal' #終止R = 1 # 獎勵為1else:S_ = S + 1 #當(dāng)前狀態(tài)+1R = 0else: #向左移動 R = 0 #獎勵為0 if S == 0:S_ = Selse: S_ = S - 1return S_, R#環(huán)境更新 def update_env(S, episode, step_counter):# This is how environment be updatedenv_list = ['-']*(N_STATES-1) + ['T'] # '---------T' our environmentif S == 'terminal':interaction = 'Episode %s: total_steps = %s' % (episode+1, step_counter)print('\r{}'.format(interaction), end='')time.sleep(2)print('\r ', end='')else:env_list[S] = 'o'interaction = ''.join(env_list)print('\r{}'.format(interaction), end='')time.sleep(FRESH_TIME)# 主循環(huán) ''' Initialize Q(s, a) arbitrarily #Q(s, a):Q表 每個狀態(tài)對應(yīng)的動作的Q值 Repeat (for each episode):Initialize SRepeat (for each step of episode): Choose a from s using policy derived from Q (e.g.,E-greedy)Take action a, observe r, s'Q(s,a)←Q(s,a) +a[r + gamma*max a' Q(s',a')- Q(s,a)]s←s';until S is terminal ''' def RL():q_table = build_q_table(N_STATES, ACTIONS) # 初始 q tablefor episode in range(MAX_EPISODES):step_counter = 0 S = 0 # 回合初始位置is_terminated = False # 是否回合結(jié)束update_env(S, episode, step_counter) # 環(huán)境更新while not is_terminated:A = choose_action(S, q_table) # 選行為S_, R = get_env_feedback(S, A) # 實施行為并得到環(huán)境的反饋q_predict = q_table.loc[S, A] # 估算的(狀態(tài)-行為)值if S_ != 'terminal': #如果沒有終止q_target = R + GAMMA * q_table.loc[S_, :].max() #q_target 為真實值else:q_target - R # # 實際的(狀態(tài)-行為)值 (回合結(jié)束)is_terminated = Trueq_table.loc[S, A] += ALPHA * (q_target - q_predict) # q_table 更新S = S_ # 探索者移動到下一個 stateupdate_env(S, episode, step_counter + 1) # 環(huán)境更新step_counter += 1return q_tableif __name__ == '__main__':q_table = RL()print('\r\nQ-table:\n')print(q_table)
構(gòu)建Sarsa類
""" This part of code is the Q learning brain, which is a brain of the agent. All decisions are made in here.View more on my tutorial page: https://morvanzhou.github.io/tutorials/ """''' Sarsa: Initialize Q(s, a) arbitrarily #Q(s, a):Q表 每個狀態(tài)對應(yīng)的動作的Q值 Repeat (for each episode):Initialize SChoose a from s using policy derived from Q (e.g.,E-greedy)Repeat (for each step of episode): Take action a, observe r, s'Choose a' from s' using policy derived from Q (e.g.,E-greedy)Q(s,a)←Q(s,a) +alpha[r + gamma*Q(s',a')- Q(s,a)]s←s',a←a';until S is terminal'''import numpy as np import pandas as pdclass RL(object):def __init__(self, action_space, learning_rate=0.01, reward_decay=0.9, e_greedy=0.9):self.actions = action_space # a listself.lr = learning_rateself.gamma = reward_decayself.epsilon = e_greedyself.q_table = pd.DataFrame(columns=self.actions, dtype=np.float64)def check_state_exist(self, state):if state not in self.q_table.index:# append new state to q tableself.q_table = self.q_table.append(pd.Series([0]*len(self.actions),index=self.q_table.columns,name=state,))def check_state_exist2(self,state):if state not in self.q_table.index:to_be_append = pd.Series([0] * len(self.actions),index = self.q_table.columns,name = state,)self.q_table = self.q_table.append(to_be_append)def choose_action(self, observation):self.check_state_exist(observation)# action selectionif np.random.rand() < self.epsilon:# choose best actionstate_action = self.q_table.loc[observation, :]# some actions may have the same value, randomly choose on in these actionsaction = np.random.choice(state_action[state_action == np.max(state_action)].index)else:# choose random actionaction = np.random.choice(self.actions)return actiondef learn(self, *args):pass# off-policy class QLearningTable(RL):def __init__(self, actions, learning_rate=0.01, reward_decay=0.9, e_greedy=0.9):super(QLearningTable, self).__init__(actions, learning_rate, reward_decay, e_greedy)def learn(self, s, a, r, s_):self.check_state_exist(s_)q_predict = self.q_table.loc[s, a]if s_ != 'terminal':q_target = r + self.gamma * self.q_table.loc[s_, :].max() # next state is not terminalelse:q_target = r # next state is terminalself.q_table.loc[s, a] += self.lr * (q_target - q_predict) # update# on-policy class SarsaTable(RL):def __init__(self, actions, learning_rate=0.01, reward_decay=0.9, e_greedy=0.9):super(SarsaTable, self).__init__(actions, learning_rate, reward_decay, e_greedy)def learn(self, s, a, r, s_, a_):self.check_state_exist(s_)q_predict = self.q_table.loc[s, a]if s_ != 'terminal':q_target = r + self.gamma * self.q_table.loc[s_, a_] # next state is not terminalelse:q_target = r # next state is terminalself.q_table.loc[s, a] += self.lr * (q_target - q_predict) # updateclass SarsaLambdaTable(RL):def __init__(self, actions, learning_rate=0.01, reward_decay=0.9, e_greedy=0.9, trace_decay=0.9):super(SarsaLambdaTable, self).__init__(actions, learning_rate, reward_decay, e_greedy)# 后向觀測算法, eligibility trace.self.lambda_ = trace_decayself.eligibility_trace = self.q_table.copy() # 空的 eligibility trace 表def learn(self, s, a, r, s_, a_):# 這部分和 Sarsa 一樣self.check_state_exist2(s_)q_predict = self.q_table.loc[s, a]if s_ != 'terminal':q_target = r + self.gamma * self.q_table.loc[s_, a_] # next state is not terminalelse:q_target = r # next state is terminalerror = q_target - q_predict# 這里開始不同:# 對于經(jīng)歷過的 state-action, 我們讓他+1, 證明他是得到 reward 路途中不可或缺的一環(huán)self.eligibility_trace.loc[s, a] += 1 # 更有效的方式:self.eligibility_trace.loc[s, :] *= 0self.eligibility_trace.loc[s, a] = 1# Q table 更新self.q_table += self.lr * error * self.eligibility_trace# 隨著時間衰減 eligibility trace 的值, 離獲取 reward 越遠(yuǎn)的步, 他的"不可或缺性"越小self.eligibility_trace *= self.gamma*self.lambda_
運行Sarsa
from maze_env import Maze from RL_brain import SarsaTabledef update():for episode in range(100):observation = env.reset()action = RL.choose_action(str(observation))while True:env.render()observation_, reward, done = env.step(action)# RL choose action based on next observationaction_ = RL.choose_action(str(observation_))# RL learn from this transition (s, a, r, s, a) ==> SarsaRL.learn(str(observation), action, reward, str(observation_), action_)# swap observation and actionobservation = observation_action = action_# break while loop when end of this episodeif done:break# end of gameprint('game over')env.destroy()if __name__ == '__main__':env = Maze()RL = SarsaTable(actions=list(range(env.n_actions)))env.after(100, update)env.mainloop()

Deep-Q-Learning-Network(DQN)

環(huán)境配置
""" Reinforcement learning maze example. Red rectangle: explorer. Black rectangles: hells [reward = -1]. Yellow bin circle: paradise [reward = +1]. All other states: ground [reward = 0]. This script is the environment part of this example. The RL is in RL_brain.py. View more on my tutorial page: https://morvanzhou.github.io/tutorials/ """ import numpy as np import time import sys if sys.version_info.major == 2:import Tkinter as tk else:import tkinter as tkUNIT = 40 # pixels MAZE_H = 4 # grid height MAZE_W = 4 # grid widthclass Maze(tk.Tk, object):def __init__(self):super(Maze, self).__init__()self.action_space = ['u', 'd', 'l', 'r']self.n_actions = len(self.action_space)self.n_features = 2self.title('maze')self.geometry('{0}x{1}'.format(MAZE_H * UNIT, MAZE_H * UNIT))self._build_maze()def _build_maze(self):self.canvas = tk.Canvas(self, bg='white',height=MAZE_H * UNIT,width=MAZE_W * UNIT)# create gridsfor c in range(0, MAZE_W * UNIT, UNIT):x0, y0, x1, y1 = c, 0, c, MAZE_H * UNITself.canvas.create_line(x0, y0, x1, y1)for r in range(0, MAZE_H * UNIT, UNIT):x0, y0, x1, y1 = 0, r, MAZE_W * UNIT, rself.canvas.create_line(x0, y0, x1, y1)# create originorigin = np.array([20, 20])# hellhell1_center = origin + np.array([UNIT * 2, UNIT])self.hell1 = self.canvas.create_rectangle(hell1_center[0] - 15, hell1_center[1] - 15,hell1_center[0] + 15, hell1_center[1] + 15,fill='black')# hell# hell2_center = origin + np.array([UNIT, UNIT * 2])# self.hell2 = self.canvas.create_rectangle(# hell2_center[0] - 15, hell2_center[1] - 15,# hell2_center[0] + 15, hell2_center[1] + 15,# fill='black')# create ovaloval_center = origin + UNIT * 2self.oval = self.canvas.create_oval(oval_center[0] - 15, oval_center[1] - 15,oval_center[0] + 15, oval_center[1] + 15,fill='yellow')# create red rectself.rect = self.canvas.create_rectangle(origin[0] - 15, origin[1] - 15,origin[0] + 15, origin[1] + 15,fill='red')# pack allself.canvas.pack()def reset(self):self.update()time.sleep(0.1)self.canvas.delete(self.rect)origin = np.array([20, 20])self.rect = self.canvas.create_rectangle(origin[0] - 15, origin[1] - 15,origin[0] + 15, origin[1] + 15,fill='red')# return observationreturn (np.array(self.canvas.coords(self.rect)[:2]) - np.array(self.canvas.coords(self.oval)[:2]))/(MAZE_H*UNIT)def step(self, action):s = self.canvas.coords(self.rect)base_action = np.array([0, 0])if action == 0: # upif s[1] > UNIT:base_action[1] -= UNITelif action == 1: # downif s[1] < (MAZE_H - 1) * UNIT:base_action[1] += UNITelif action == 2: # rightif s[0] < (MAZE_W - 1) * UNIT:base_action[0] += UNITelif action == 3: # leftif s[0] > UNIT:base_action[0] -= UNITself.canvas.move(self.rect, base_action[0], base_action[1]) # move agentnext_coords = self.canvas.coords(self.rect) # next state# reward functionif next_coords == self.canvas.coords(self.oval):reward = 1done = Trueelif next_coords in [self.canvas.coords(self.hell1)]:reward = -1done = Trueelse:reward = 0done = Falses_ = (np.array(next_coords[:2]) - np.array(self.canvas.coords(self.oval)[:2]))/(MAZE_H*UNIT)return s_, reward, donedef render(self):# time.sleep(0.01)self.update()
構(gòu)建DQN類
''' 搭建神經(jīng)網(wǎng)絡(luò) 為了使用 Tensorflow 來實現(xiàn) DQN, 比較推薦的方式是搭建兩個神經(jīng)網(wǎng)絡(luò), target_net 用于預(yù)測q_target 值, 他不會及時更新參數(shù). eval_net 用于預(yù)測 q_eval, 這個神經(jīng)網(wǎng)絡(luò)擁有最新的神經(jīng)網(wǎng)絡(luò)參數(shù). 不過這兩個神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu)是完全一樣的, '''import numpy as np import pandas as pd # import tensorflow as tf import tensorflow.compat.v1 as tf tf.compat.v1.disable_eager_execution() tf.compat.v1.disable_eager_execution() np.random.seed(1) tf.random.set_seed(1)class DeepQNetwork:'''n_actions:神經(jīng)網(wǎng)絡(luò)輸出actions的q值的個數(shù)n_features:接收observation個數(shù) 例如 長寬高learning_rate = 0.01: 學(xué)習(xí)率reward_decay = 0.9: gamma值e_greedy = 0.9:replace_target_iter = 300:隔多少步更新target參數(shù)memory_size = 500:記憶庫容量 可以記多少數(shù)據(jù)batch_size = 32:神經(jīng)網(wǎng)絡(luò)提升 梯度下降e_greey_increment = None: 不斷縮小學(xué)習(xí)范圍output_graph = False: 輸出神經(jīng)網(wǎng)絡(luò)圖'''def __init__(self,n_actions,n_features,learning_rate = 0.01,reward_decay = 0.9,e_greedy = 0.9,replace_target_iter = 300,memory_size = 500,batch_size = 32,e_greedy_increment = None,output_graph = False,):self.n_actions = n_actionsself.n_features = n_featuresself.lr = learning_rateself.gamma = reward_decayself.epsilon_max = e_greedyself.replace_target_iter = replace_target_iterself.memory_size = memory_sizeself.batch_size = batch_sizeself.epsilon_increment = e_greedy_incrementself.epsilon = 0 if e_greedy_increment is not None else self.epsilon_max#學(xué)習(xí)總步數(shù) epsilon根據(jù)步數(shù)提高 # 記錄學(xué)習(xí)次數(shù) (用于判斷是否更換 target_net 參數(shù))self.learn_step_counter = 0#初始化記憶庫 ??? # 初始化全 0 記憶 [s, a, r, s_]self.memory = np.zeros((self.memory_size, n_features*2+2)) #建立神經(jīng)網(wǎng)絡(luò)self._build_net()# 替換 target net 的參數(shù)t_params = tf.get_collection('target_net_params') # 提取 target_net 的參數(shù)e_params = tf.get_collection('eval_net_params') # 提取 eval_net 的參數(shù)self.replace_target_op = [tf.assign(t, e) for t, e in zip(t_params, e_params)] # 更新 target_net 參數(shù)self.sess = tf.compat.v1.Session()#輸出 tensorboard 文件if output_graph:# $ tensorboard --logdir=logs# tf.train.SummaryWriter soon be deprecated, use followingtf.compat.v1.summary.FileWriter("logs/", self.sess.graph)self.sess.run(tf.compat.v1.global_variables_initializer()) #激活self.cost_his = [] #記錄誤差 記錄所有 cost 變化, 用于最后 plot 出來觀看def _build_net(self):# -------------- 創(chuàng)建 eval 神經(jīng)網(wǎng)絡(luò), 及時提升參數(shù) --------------self.s = tf.compat.v1.placeholder(tf.float32, [None, self.n_features], name='s') #用來接收 observationself.q_target = tf.compat.v1.placeholder(tf.float32, [None, self.n_actions], name='Q_target') # 用來接收 q_target 的值, 這個之后會通過計算得到with tf.compat.v1.variable_scope('eval_net'):#c_names(collections_names) 是在更新target_net 參數(shù)時用到#每一層的默認(rèn)參數(shù)c_names, n_l1, w_initializer, b_initializer = ['eval_net_params',tf.compat.v1.GraphKeys.GLOBAL_VARIABLES],10,tf.compat.v1.random_normal_initializer(0., 0.3), tf.compat.v1.constant_initializer(0.1) # config of layers'''c_names: 集合形式,通過該變量調(diào)用參數(shù)n_l1:第一層的神經(jīng)元數(shù)w_initializer、b_initializer:生成隨機(jī)參數(shù)'''# eval_net 的第一層. collections 是在更新 target_net 參數(shù)時會用到with tf.compat.v1.variable_scope('l1'):w1 = tf.compat.v1.get_variable('w1', [self.n_features, n_l1], initializer=w_initializer,collections=c_names)b1 = tf.compat.v1.get_variable('b1', initializer=b_initializer, collections=c_names)l1 = tf.nn.relu(tf.matmul(self.s, w1) + b1)# eval_net 的第二層. collections 是在更新 target_net 參數(shù)時會用到with tf.compat.v1.variable_scope('l2'):w2 = tf.compat.v1.get_variable('w2', [n_l1, self.n_actions], initializer=w_initializer,collections=c_names)b2 = tf.compat.v1.get_variable('b2',[1, self.n_actions], initializer=b_initializer, collections=c_names)self.q_eval = tf.matmul(l1, w2) + b2 # matmul 相乘 q_eval:為q值 有多少行為就有多少q值 為q估計with tf.name_scope('loss'): #求誤差self.loss = tf.reduce_sum(tf.compat.v1.squared_difference(self.q_target, self.q_eval)) with tf.name_scope('train'):# 梯度下降self._train_op = tf.compat.v1.train.RMSPropOptimizer(self.lr).minimize(self.loss)# ---------------- 創(chuàng)建 target 神經(jīng)網(wǎng)絡(luò), 提供 target Q ---------------------self.s_ = tf.compat.v1.placeholder(tf.float32, [None, self.n_features], name='s_') # 接收下個 observationwith tf.compat.v1.variable_scope('target_net'):# c_names(collections_names) 是在更新 target_net 參數(shù)時會用到c_names = ['targe_net_params', tf.compat.v1.GraphKeys.GLOBAL_VARIABLES]# target_net 的第一層. collections 是在更新 target_net 參數(shù)時會用到with tf.compat.v1.variable_scope('l1'):w1 = tf.compat.v1.get_variable('w1', [self.n_features, n_l1], initializer=w_initializer,collections=c_names)b1 = tf.compat.v1.get_variable('b1',[1, n_l1], initializer=b_initializer, collections=c_names)l1 = tf.nn.relu(tf.matmul(self.s_, w1) + b1)# target_net 的第二層. collections 是在更新 target_net 參數(shù)時會用到with tf.compat.v1.variable_scope('l2'):w2 = tf.compat.v1.get_variable('w2', [n_l1, self.n_actions], initializer=w_initializer,collections=c_names)b2 = tf.compat.v1.get_variable('b2',[1, self.n_actions], initializer=b_initializer, collections=c_names)self.q_next = tf.matmul(l1, w2) + b2 #存儲 transition 存儲記憶def store_transition(self, s, a, r, s_):'''s:當(dāng)前的observationa: actionsr: reward s_: 下一步的observation'''if not hasattr(self, 'memory_counter'):self.memory_counter = 0# 記錄一條 [s, a, r, s_] 記錄transition = np.hstack((s, [a, r], s_))# 總 memory 大小是固定的, 如果超出總大小, 舊 memory 就被新 memory 替換index = self.memory_counter % self.memory_size self.memory[index, :] = transition #替換過程self.memory_counter += 1#選取q值最大的動作def choose_action(self, observation):observation = observation[np.newaxis, :] #增加維度if np.random.uniform() < self.epsilon:# 讓 eval_net 神經(jīng)網(wǎng)絡(luò)生成所有 action 的值, 并選擇值最大的 actionactins_value = self.sess.run(self.q_eval, feed_dict = {self.s: observation})action = np.argmax(actins_value)else:action = np.random.randint(0, self.n_actions) #隨機(jī)選擇return action#換參數(shù)def _replace_target_params(self):t_params = tf.compat.v1.get_collection('target_net_params')e_params = tf.compat.v1.get_collection('eval_net_params')self.sess.run([tf.compat.v1.assign(t, 3) for t, e in zip(t_params, e_params)])#學(xué)習(xí)并更新參數(shù)def learn(self):# 檢查是否替換 target_net 參數(shù)if self.learn_step_counter % self.replace_target_iter == 0:self._replace_target_params()print('\ntarget_params_replaced\n') # 從記憶庫memory 中隨機(jī)抽取 batch_size 個記憶if self.memory_counter > self.memory_size:sample_index = np.random.choice(self.memory_size, size = self.batch_size)else:sample_index = np.random.choice(self.memory_counter, size = self.batch_size)batch_memory = self.memory[sample_index, :]#獲取 q_next(target_net 產(chǎn)生的q) 和 q_eval(eval_net 產(chǎn)生的q)'''q_next:接收后x個n_featuresq_eval:接收前x個n_features'''q_next, q_eval = self.sess.run([self.q_next, self.q_eval],feed_dict = {self.s_:batch_memory[:, -self.n_features:], self.s: batch_memory[:, :self.n_features]})# 下面這幾步十分重要. q_next, q_eval 包含所有 action 的值,# 而我們需要的只是已經(jīng)選擇好的 action 的值, 其他的并不需要.# 所以我們將其他的 action 值全變成 0, 將用到的 action 誤差值 反向傳遞回去, 作為更新憑據(jù).# 這是我們最終要達(dá)到的樣子, 比如 q_target - q_eval = [1, 0, 0] - [-1, 0, 0] = [2, 0, 0]# q_eval = [-1, 0, 0] 表示這一個記憶中有我選用過 action 0, 而 action 0 帶來的 Q(s, a0) = -1, 所以其他的 Q(s, a1) = Q(s, a2) = 0.# q_target = [1, 0, 0] 表示這個記憶中的 r+gamma*maxQ(s_) = 1, 而且不管在 s_ 上我們?nèi)×四膫€ action,# 我們都需要對應(yīng)上 q_eval 中的 action 位置, 所以就將 1 放在了 action 0 的位置.# 下面也是為了達(dá)到上面說的目的, 不過為了更方面讓程序運算, 達(dá)到目的的過程有點不同.# 是將 q_eval 全部賦值給 q_target, 這時 q_target-q_eval 全為 0,# 不過 我們再根據(jù) batch_memory 當(dāng)中的 action 這個 column 來給 q_target 中的對應(yīng)的 memory-action 位置來修改賦值.# 使新的賦值為 reward + gamma * maxQ(s_), 這樣 q_target-q_eval 就可以變成我們所需的樣子.# 具體在下面還有一個舉例說明."""假如在這個 batch 中, 我們有2個提取的記憶, 根據(jù)每個記憶可以生產(chǎn)3個 action 的值:q_eval =[[1, 2, 3],[4, 5, 6]]q_target = q_eval =[[1, 2, 3],[4, 5, 6]]然后根據(jù) memory 當(dāng)中的具體 action 位置來修改 q_target 對應(yīng) action 上的值:比如在:記憶 0 的 q_target 計算值是 -1, 而且我用了 action 0;記憶 1 的 q_target 計算值是 -2, 而且我用了 action 2:q_target =[[-1, 2, 3],[4, 5, -2]]所以 (q_target - q_eval) 就變成了:[[(-1)-(1), 0, 0],[0, 0, (-2)-(6)]]最后我們將這個 (q_target - q_eval) 當(dāng)成誤差, 反向傳遞會神經(jīng)網(wǎng)絡(luò).所有為 0 的 action 值是當(dāng)時沒有選擇的 action, 之前有選擇的 action 才有不為0的值.我們只反向傳遞之前選擇的 action 的值,"""q_target = q_eval.copy()batch_index = np.arange(self.bath_size, dtype = np.int32)eval_act_index = batch_memory[:, self.n_features].astype(int)reward = batch_memory[:, self.n_features + 1]q_target[batch_index, eval_act_index] = reward + self.gamma * np.max(q_next, axis=1)# 訓(xùn)練 eval_net_, self.cost = self.sess.run([self._train_op, self.loss],feed_dict = {self.s: batch_memory[:, self.n_features],self.q_target: q_target})self.cost_his.append(self.cost)# 逐漸增加 epsilon, 降低行為的隨機(jī)性self.epsilon = self.epsilon + self.epsilon_increment if self.epsilon < self.epsilon_max else self.epsilon_maxself.learn_step_counter += 1#打印cost變化曲線def plot_cost(self):import matplotlib.pyplot as pltplt.plot(np.arange(len(self.cost_his)), self.cost_his)plt.ylabel('Cost')plt.xlabel('training steps')plt.show()
運行DQN
from maze_env import Maze from RL_brain import DeepQNetworkdef run_maze():step = 0 # 用來控制什么時候?qū)W習(xí)for episode in range(300):#初始化環(huán)境observation = env.reset()while True:# 刷新環(huán)境env.render()# DQN 根據(jù)觀測值選擇行為action = RL.choose_action(observation)# 環(huán)境根據(jù)行為給出下一個 state, reward, 是否終止observation_, reward, done = env.step(action)# DQN 存儲記憶RL.store_transition(observation, action, reward, observation_)# 控制學(xué)習(xí)起始時間和頻率 (先累積一些記憶再開始學(xué)習(xí))if (step > 200) and (step % 5 == 0):RL.learn()# 將下一個 state_ 變?yōu)?下次循環(huán)的 stateobservation = observation_# 如果終止, 就跳出循環(huán)if done:breakstep += 1 # 總步數(shù)# end of gameprint('game over')env.destroy()if __name__ == "__main__":env = Maze()RL = DeepQNetwork(env.n_actions, env.n_features,learning_rate = 0.01,reward_decay=0.9,e_greedy=0.9,replace_target_iter=200, # 每 200 步替換一次 target_net 的參數(shù)memory_size=2000, # 記憶上限# output_graph=True # 是否輸出 tensorboard 文件)env.after(100, run_maze)env.mainloop()RL.plot_cost() # 觀看神經(jīng)網(wǎng)絡(luò)的誤差曲線

Gym模擬

CartPole-v0
import gym from RL_brain import DeepQNetworkenv = gym.make('CartPole-v0') # 定義使用 gym 庫中的那一個環(huán)境 env = env.unwrapped # 不做這個會有很多限制print(env.action_space) # 查看這個環(huán)境中可用的 action 有多少個 print(env.observation_space) # 查看這個環(huán)境中可用的 state 的 observation 有多少個 print(env.observation_space.high) # 查看 observation 最高取值 print(env.observation_space.low) # 查看 observation 最低取值# 定義使用 DQN 的算法 RL = DeepQNetwork(n_actions = env.action_space.n,n_features = env.observation_space.shape[0],learning_rate = 0.01,e_greedy = 0.9,replace_target_iter = 100,memory_size = 2000,e_greedy_increment = 0.0008,)total_steps = 0 # 記錄步數(shù)for i_episode in range(100):#初始化環(huán)境observation = env.reset()ep_r = 0while True:env.render() # 刷新環(huán)境action = RL.choose_action(observation) # 選行為observation_, reward, done, info = env.step(action) # 獲取下一個 statex, x_dot, theta, theta_dot = observation_ # 細(xì)分開, 為了修改原配的 reward# x 是車的水平位移, 所以 r1 是車越偏離中心, 分越少# theta 是棒子離垂直的角度, 角度越大, 越不垂直. 所以 r2 是棒越垂直, 分越高x, x_dot, theta, theta_dot = observation_r1 = (env.x_threshold - abs(x))/env.x_threshold - 0.8r2 = (env.theta_threshold_radians - abs(theta))/env.theta_threshold_radians - 0.5reward = r1 + r2 # 總 reward 是 r1 和 r2 的結(jié)合, 既考慮位置, 也考慮角度, 這樣 DQN 學(xué)習(xí)更有效率# DQN 存儲記憶RL.store_transition(observation, action, reward, observation_)# 控制學(xué)習(xí)起始時間和頻率 (先累積一些記憶再開始學(xué)習(xí))if total_steps > 1000 :RL.learn()ep_r += rewardif done:print('episode: ', i_episode,'ep_r: ', round(ep_r, 2),' epsilon: ', round(RL.epsilon, 2))breakobservation = observation_total_steps += 1 RL.plot_cost()
MountainCar-v0
import gym from RL_brain import DeepQNetworkenv = gym.make('MountainCar-v0') env = env.unwrappedprint(env.action_space) print(env.observation_space) print(env.observation_space.high) print(env.observation_space.low)RL = DeepQNetwork(n_actions=3,n_features=2,learning_rate=0.01,e_greedy=0.9,replace_target_iter=300,memory_size=3000,e_greedy_increment=0.0001)total_step = 0for i_episode in range(10):observation = env.reset()ep_r = 0while True:env.render()action = RL.choose_action(observation)observation_, reward, done, info = env.step(action)position, velocity = observation_reward = abs(position - (0.5))RL.store_transition(observation, action, reward, observation_)if total_step > 1000:RL.learn()ep_r += rewardif done:get = '| Get' if observation_[0] >= env.unwrapped.goal_position else '| ----'print('Epi:',i_episode,get,'| Ep_r:',round(ep_r, 4),'|Epsilon:',round(RL.epsilon,2))breakobservation = observation_total_step += 1 RL.plot_cost()
Taxi-v3
import gym from RL_brain import QLearningTable import matplotlib.pyplot as plt import numpy as npenv = gym.make('Taxi-v3') state = env.reset() taxirow, taxicol, passloc, destidx = env.unwrapped.decode(state) print('出租車位置 = {}'.format((taxirow, taxicol))) print('乘客位置 = {}'.format((env.unwrapped.locs[passloc]))) print('目標(biāo)位置 = {}'.format((env.unwrapped.locs[destidx])))RL = QLearningTable(actions=list(range(env.action_space.n))) total_reward = 0 episode_rewards = [] for episode in range(100):observation = env.reset()while True:env.render()action = RL.choose_action(str(observation))observation_next, reward, done, info = env.step(action)total_reward += rewardepisode_rewards.append(total_reward)RL.learn(str(observation),action, reward, str(observation_next))observation = observation_nextif done:break plt.plot(episode_rewards) plt.show() # print('平均回合獎勵 = {} / {} = {}'.format(sum(episode_rewards)),len(episode_rewards), np.mean(episode_rewards))

Policy Gradients

強(qiáng)化學(xué)習(xí)是一個通過獎懲來學(xué)習(xí)正確行為的機(jī)制. 家族中有很多種不一樣的成員, 有學(xué)習(xí)獎懲值, 根據(jù)自己認(rèn)為的高價值選行為, 比如 Q-learning, Deep Q Network。

也有不通過分析獎勵值, 直接輸出行為的方法, 即Policy Gradients,簡單而言就是PG加上一個神經(jīng)網(wǎng)絡(luò)來輸出預(yù)測的動作,可以在一個連區(qū)間內(nèi)挑選動作。但是例如Q-learning, 它如果在無窮多的動作中計算價值, 從而選擇行為, 會很慢。

總之,Policy gradient 是 RL 中另外一個大家族, 他不像 Value-based 方法 (Q learning, Sarsa), 但他也要接受環(huán)境信息 (observation), 不同的是他要輸出不是 action 的 value, 而是具體的那一個 action, 這樣 policy gradient 就跳過了 value 這個階段. Policy gradient 最大的一個優(yōu)勢是: 輸出的這個 action 可以是一個連續(xù)的值, 之前我們說到的 value-based 方法輸出的都是不連續(xù)的值, 然后再選擇值最大的 action. 而 policy gradient 可以在一個連續(xù)分布上選取 action。

更新過程,如圖,通過觀察信息選擇了左側(cè)的動作,網(wǎng)絡(luò)想要進(jìn)行反向傳遞,以便于下次被選中的可能性增加,但是由于獎懲機(jī)制的存在,會提示該行為是不好的,那么該動作的選擇可能性降低。如果選擇的動作是右側(cè)的,神經(jīng)網(wǎng)絡(luò)想要進(jìn)行反向傳遞, 使右邊的行為下次被多選一點, 這時, 獎懲信息也來了, 告訴我們這是好行為, 那我們就在這次反向傳遞的時候加大力度, 讓它下次被多選的幅度更大。

算法:

delta(log(Policy(s,a))V) 表示在 狀態(tài) s 對所選動作 a* 的吃驚度, 如果 Policy(s,a) 概率越小, 反向的 log(Policy(s,a)) (即 -log§) 反而越大. 如果在 Policy(s,a) 很小的情況下, 拿到了一個 大的 R, 也就是 大的 V, 那 -delta(log(Policy(s, a))*V) 就更大, 表示更吃驚, (我選了一個不常選的動作, 卻發(fā)現(xiàn)原來它能得到了一個好的 reward, 那我就得對我這次的參數(shù)進(jìn)行一個大幅修改)。

代碼:

主循環(huán)代碼:

import gym from RL_brain import PolicyGradient import matplotlib.pyplot as pltRENDER = False # 在屏幕上顯示模擬窗口會拖慢運行速度, 我們等計算機(jī)學(xué)得差不多了再顯示模擬 DISPLAY_REWARD_THRESHOLD = 400 # 當(dāng) 回合總 reward 大于 400 時顯示模擬窗口env = gym.make('CartPole-v0') env = env.unwrapped # 取消限制 env.seed(1)# 普通的 Policy gradient 方法, 使得回合的 variance 比較大, 所以我們選了一個好點的隨機(jī)種子print(env.action_space) # 顯示可用 action print(env.observation_space) # 顯示可用 state 的 observation print(env.observation_space.high) # 顯示 observation 最高值 print(env.observation_space.low) # 顯示 observation 最低值#定義神經(jīng)網(wǎng)絡(luò) RL = PolicyGradient(n_actions = env.action_space.n,n_features = env.observation_space.shape[0],learning_rate = 0.02,reward_decay = 0.99, #gammaoutput_graph=True, )#主循環(huán) for i_episode in range(3000):observation = env.reset()while True:if RENDER: env.render()action = RL.choose_action(observation)observation_, reward, done, info = env.step(action)RL.store_transition(observation, action, reward)if done:ep_rs_sum = sum(RL.ep_rs)if 'running_reward' not in globals():running_reward = ep_rs_sumelse:running_reward = running_reward * 0.99 + ep_rs_sum * 0.01if running_reward > DISPLAY_REWARD_THRESHOLD:RENDER = True # 判斷是否顯示模擬print("episode:", i_episode, " reward:", int(running_reward))vt = RL.learn() # 學(xué)習(xí), 輸出 vtif i_episode == 0:plt.plot(vt)plt.xlabel('episode steps')plt.ylabel('normalized state-action value')plt.show()breakobservation = observation_

PL決策代碼:

''' 搭建 Policy Gradient神經(jīng)網(wǎng)絡(luò) ''' # import tensorflow.compat.v1 as tf import numpy as np import tensorflow as tf tf.compat.v1.disable_eager_execution()class PolicyGradient:def __init__(self, n_actions, n_features, learning_rate=0.01, reward_decay=0.95,output_graph=False):self.n_actions = n_actionsself.n_features = n_featuresself.lr = learning_rateself.gamma = reward_decay #reward 的遞減率self.ep_obs, self.ep_as, self.ep_rs = [], [], [] # 這是我們存儲 回合信息的 list obs:觀測值 as:使用的行動 rs:獲得的獎勵self._build_net() #建立policy 網(wǎng)絡(luò)# self.sess = tf.Session()self.sess = tf.compat.v1.Session()if output_graph:tf.compat.v1.summary.FileWriter("logs/",self.sess.graph)self.sess.run(tf.compat.v1.global_variables_initializer())def _build_net(self):with tf.name_scope('inputs'):self.tf_obs = tf.compat.v1.placeholder(tf.float32, [None,self.n_features], name='observation') #接收Observation# 接收我們在這個回合中選過的 actionsself.tf_acts = tf.compat.v1.placeholder(tf.int32, [None, ], name='actions_num')# 接收每個 state-action 所對應(yīng)的 value (通過 reward 計算)self.tf_vt = tf.compat.v1.placeholder(tf.float32, [None, ], name='actions_value')#建立全連接層layer = tf.compat.v1.layers.dense(inputs = self.tf_obs,units = 10, #神經(jīng)元個數(shù)activation = tf.nn.tanh, #激勵函數(shù)kernel_initializer = tf.random_normal_initializer(mean=0, stddev=0.3),bias_initializer = tf.constant_initializer(0.1),name = 'fc1')#第二層 輸出所有action的值all_act = tf.compat.v1.layers.dense(inputs = layer,units = self.n_actions, #輸出個數(shù) 神經(jīng)元activation = None,# 之后再加 Softmaxkernel_initializer = tf.random_normal_initializer(mean=0, stddev=0.3),bias_initializer = tf.constant_initializer(0.1),name = 'fc2')self.all_act_prob = tf.nn.softmax(all_act, name='act_prob') #激勵函數(shù)Softmax#損失函數(shù)with tf.name_scope('loss'):# 最大化 總體 reward (log_p * R) 就是在最小化 -(log_p * R), 而 tf 的功能里只有最小化 loss# neg_log_prob = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=all_act, labels=self.tf_acts)# 下面的方式是一樣的 更能表示公式: 如果沒有選的動作,one_hot為0 neg_log_prob = tf.reduce_sum(-tf.compat.v1.log(self.all_act_prob) * tf.one_hot(self.tf_acts, self.n_actions), axis=1) #記憶庫中存放的是每個action 的值loss = tf.reduce_mean(neg_log_prob * self.tf_vt )# (vt = 本reward + 衰減的未來reward) 引導(dǎo)參數(shù)的梯度下降'''tf.reduce_mean 函數(shù)用于計算張量tensor沿著指定的數(shù)軸(tensor的某一維度)上的的平均值,主要用作降維或者計算tensor(圖像)的平均值reduce_mean(input_tensor,axis=None,keep_dims=False,name=None,reduction_indices=None)第一個參數(shù)input_tensor: 輸入的待降維的tensor;第二個參數(shù)axis: 指定的軸,如果不指定,則計算所有元素的均值;第三個參數(shù)keep_dims:是否降維度,設(shè)置為True,輸出的結(jié)果保持輸入tensor的形狀,設(shè)置為False,輸出結(jié)果會降低維度;第四個參數(shù)name: 操作的名稱;'''#利用AdamOptimizer 進(jìn)行自適應(yīng)學(xué)習(xí)優(yōu)化with tf.name_scope('train'):#因為Adam算法中只有minimize 所以要將 tf.log加負(fù)號,才能得最大值self.train_op = tf.compat.v1.train.AdamOptimizer(self.lr).minimize(loss)'''行為不再是用 Q value 來選定的, 而是用概率來選定. 即使不用 epsilon-greedy, 也具有一定的隨機(jī)性.'''def choose_action(self, observation): prob_weights = self.sess.run(self.all_act_prob, feed_dict={self.tf_obs:observation[np.newaxis, :]}) # 所有 action 的概率action = np.random.choice(range(prob_weights.shape[1]), p=prob_weights.ravel()) # 根據(jù)概率來選 actionreturn action#存儲回合 transition'''將這一步的 observation, action, reward 加到列表中去. 因為本回合完畢之后要清空列表, 然后存儲下一回合的數(shù)據(jù), 所以我們會在 learn() 當(dāng)中進(jìn)行清空列表的動作.'''def store_transition(self, s, a, r):#清空init中的三個列表self.ep_obs.append(s)self.ep_as.append(a)self.ep_rs.append(r)#學(xué)習(xí)更新參數(shù)'''對這回合的所有 reward 動動手腳, 使他變得更適合被學(xué)習(xí). 第一就是隨著時間推進(jìn), 用 gamma 衰減未來的 reward, 然后為了一定程度上減小 policy gradient 回合 variance, 我們標(biāo)準(zhǔn)化回合的 state-action value 依據(jù)在 Andrej Karpathy 的 blog.'''def learn(self):#衰減,并標(biāo)準(zhǔn)化該回合的rewarddiscounted_ep_rs_norm = self._discount_and_norm_rewards() # 功能再面#在episode下訓(xùn)練self.sess.run(self.train_op, feed_dict={self.tf_obs : np.vstack(self.ep_obs), # shape=[None, n_obs]self.tf_acts : np.array(self.ep_as), # shape=[None, ]self.tf_vt : discounted_ep_rs_norm, # shape=[None,]})self.ep_obs, self.ep_as, self.ep_rs = [], [], [] # 清空回合 datareturn discounted_ep_rs_norm # 返回這一回合的 state-action value#實現(xiàn)對未來 reward 的衰減def _discount_and_norm_rewards(self):discounted_ep_rs = np.zeros_like(self.ep_rs)running_add = 0for t in reversed(range(0, len(self.ep_rs))):running_add = running_add * self.gamma + self.ep_rs[t]discounted_ep_rs[t] = running_adddiscounted_ep_rs -= np.mean(discounted_ep_rs)return discounted_ep_rs

:]}) # 所有 action 的概率
action = np.random.choice(range(prob_weights.shape[1]), p=prob_weights.ravel()) # 根據(jù)概率來選 action
return action

#存儲回合 transition ''' 將這一步的 observation, action, reward 加到列表中去. 因為本回合完畢之后要清空列表, 然后存儲下一回合的數(shù)據(jù), 所以我們會在 learn() 當(dāng)中進(jìn)行清空列表的動作. ''' def store_transition(self, s, a, r):#清空init中的三個列表self.ep_obs.append(s)self.ep_as.append(a)self.ep_rs.append(r)#學(xué)習(xí)更新參數(shù) ''' 對這回合的所有 reward 動動手腳, 使他變得更適合被學(xué)習(xí). 第一就是隨著時間推進(jìn), 用 gamma 衰減未來的 reward, 然后為了一定程度上減小 policy gradient 回合 variance, 我們標(biāo)準(zhǔn)化回合的 state-action value 依據(jù)在 Andrej Karpathy 的 blog. ''' def learn(self):#衰減,并標(biāo)準(zhǔn)化該回合的rewarddiscounted_ep_rs_norm = self._discount_and_norm_rewards() # 功能再面#在episode下訓(xùn)練self.sess.run(self.train_op, feed_dict={self.tf_obs : np.vstack(self.ep_obs), # shape=[None, n_obs]self.tf_acts : np.array(self.ep_as), # shape=[None, ]self.tf_vt : discounted_ep_rs_norm, # shape=[None,]})self.ep_obs, self.ep_as, self.ep_rs = [], [], [] # 清空回合 datareturn discounted_ep_rs_norm # 返回這一回合的 state-action value #實現(xiàn)對未來 reward 的衰減 def _discount_and_norm_rewards(self):discounted_ep_rs = np.zeros_like(self.ep_rs)running_add = 0for t in reversed(range(0, len(self.ep_rs))):running_add = running_add * self.gamma + self.ep_rs[t]discounted_ep_rs[t] = running_adddiscounted_ep_rs -= np.mean(discounted_ep_rs)return discounted_ep_rs

總結(jié)

以上是生活随笔為你收集整理的莫烦-强化学习的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

4hu四虎永久在线观看 | 人妻夜夜爽天天爽三区 | 国产成人人人97超碰超爽8 | 久久久久se色偷偷亚洲精品av | 欧美自拍另类欧美综合图片区 | 色综合久久久无码中文字幕 | 在线天堂新版最新版在线8 | 亚洲男女内射在线播放 | 中文字幕av伊人av无码av | 青春草在线视频免费观看 | 色五月丁香五月综合五月 | 国产成人精品三级麻豆 | 欧美肥老太牲交大战 | 乱人伦人妻中文字幕无码久久网 | 国产97人人超碰caoprom | 欧美性猛交xxxx富婆 | 国产欧美熟妇另类久久久 | 国产精品99久久精品爆乳 | 熟妇女人妻丰满少妇中文字幕 | 日本熟妇浓毛 | 99精品无人区乱码1区2区3区 | 欧美日韩精品 | 麻豆精产国品 | 爽爽影院免费观看 | 99riav国产精品视频 | 亚洲欧美日韩国产精品一区二区 | 天堂无码人妻精品一区二区三区 | 97精品国产97久久久久久免费 | 一本久久伊人热热精品中文字幕 | 免费乱码人妻系列无码专区 | 久久国产精品精品国产色婷婷 | 激情综合激情五月俺也去 | 天天拍夜夜添久久精品大 | 欧美怡红院免费全部视频 | 色欲久久久天天天综合网精品 | 精品人妻人人做人人爽夜夜爽 | 任你躁在线精品免费 | 久久精品成人欧美大片 | 丰满人妻一区二区三区免费视频 | 人妻aⅴ无码一区二区三区 | 樱花草在线社区www | 国产欧美亚洲精品a | 国产三级久久久精品麻豆三级 | 国产精品va在线观看无码 | 国内丰满熟女出轨videos | 十八禁真人啪啪免费网站 | 国产亚洲精品久久久久久国模美 | 久久99精品国产麻豆 | 男人和女人高潮免费网站 | 少妇太爽了在线观看 | 日韩精品a片一区二区三区妖精 | 国产精品igao视频网 | 日欧一片内射va在线影院 | 特大黑人娇小亚洲女 | 国产精品久久精品三级 | 国内少妇偷人精品视频免费 | 亚洲精品一区二区三区大桥未久 | 久久人人爽人人爽人人片av高清 | 国产人妖乱国产精品人妖 | 国产黑色丝袜在线播放 | 熟妇人妻无码xxx视频 | 天天燥日日燥 | 少妇高潮一区二区三区99 | 亚洲国产av美女网站 | а√天堂www在线天堂小说 | 国产精品美女久久久久av爽李琼 | 图片小说视频一区二区 | 老熟妇仑乱视频一区二区 | 久久久精品国产sm最大网站 | 中文字幕无码av激情不卡 | 亚洲欧美日韩综合久久久 | 久久综合香蕉国产蜜臀av | 一本无码人妻在中文字幕免费 | 日韩无码专区 | 性色欲情网站iwww九文堂 | 国产极品视觉盛宴 | 色五月五月丁香亚洲综合网 | 久久精品国产精品国产精品污 | 人人妻人人澡人人爽精品欧美 | 亚洲第一无码av无码专区 | 少妇久久久久久人妻无码 | 99riav国产精品视频 | 国产内射爽爽大片视频社区在线 | 亚洲国产一区二区三区在线观看 | 一个人免费观看的www视频 | 中文字幕乱妇无码av在线 | 少妇久久久久久人妻无码 | 中文字幕无码视频专区 | 丝袜 中出 制服 人妻 美腿 | 东北女人啪啪对白 | 久久综合色之久久综合 | 久久综合九色综合欧美狠狠 | 亚洲码国产精品高潮在线 | 草草网站影院白丝内射 | 波多野结衣 黑人 | 国产在线无码精品电影网 | 荫蒂被男人添的好舒服爽免费视频 | 亚洲精品一区二区三区婷婷月 | 成人精品一区二区三区中文字幕 | 久精品国产欧美亚洲色aⅴ大片 | 亚洲国产精品无码一区二区三区 | 四虎影视成人永久免费观看视频 | 精品国产乱码久久久久乱码 | 亚洲精品国偷拍自产在线观看蜜桃 | 天天躁夜夜躁狠狠是什么心态 | 国产 浪潮av性色四虎 | 亚洲欧美日韩国产精品一区二区 | 亚洲 另类 在线 欧美 制服 | 久久久久久av无码免费看大片 | 99久久精品午夜一区二区 | 久久综合网欧美色妞网 | 国产精品久久国产精品99 | 久久婷婷五月综合色国产香蕉 | 国产成人无码av一区二区 | 日日天干夜夜狠狠爱 | 中文字幕无码av激情不卡 | 亚洲人成网站色7799 | 2020久久香蕉国产线看观看 | 亚洲精品成人av在线 | 九月婷婷人人澡人人添人人爽 | 国产乱人偷精品人妻a片 | 熟女少妇在线视频播放 | 波多野结衣一区二区三区av免费 | 精品一区二区三区无码免费视频 | 亚洲狠狠婷婷综合久久 | 国内揄拍国内精品少妇国语 | 风流少妇按摩来高潮 | 久久99精品久久久久久动态图 | 成 人 网 站国产免费观看 | 婷婷色婷婷开心五月四房播播 | 色偷偷人人澡人人爽人人模 | 久久综合激激的五月天 | 性史性农村dvd毛片 | 乱码av麻豆丝袜熟女系列 | 天海翼激烈高潮到腰振不止 | 国产网红无码精品视频 | 亚洲熟妇自偷自拍另类 | 亚洲а∨天堂久久精品2021 | 精品久久综合1区2区3区激情 | 国产九九九九九九九a片 | 国产亚洲欧美在线专区 | 桃花色综合影院 | 人妻互换免费中文字幕 | 亚洲日韩av片在线观看 | 日韩 欧美 动漫 国产 制服 | 亚洲日韩一区二区三区 | 久久久久亚洲精品男人的天堂 | 99久久精品国产一区二区蜜芽 | av人摸人人人澡人人超碰下载 | 国产人妻精品一区二区三区不卡 | 亚洲 激情 小说 另类 欧美 | 国产女主播喷水视频在线观看 | 熟妇女人妻丰满少妇中文字幕 | 久久精品中文闷骚内射 | 永久黄网站色视频免费直播 | 日韩精品无码一区二区中文字幕 | 精品无码国产自产拍在线观看蜜 | 7777奇米四色成人眼影 | 亚洲a无码综合a国产av中文 | а天堂中文在线官网 | 国产午夜福利100集发布 | 久久亚洲国产成人精品性色 | 性色欲情网站iwww九文堂 | 欧美日韩人成综合在线播放 | 久久精品国产亚洲精品 | 久久99国产综合精品 | 99久久久无码国产aaa精品 | 亚洲熟妇色xxxxx欧美老妇 | 装睡被陌生人摸出水好爽 | 中文字幕无码av激情不卡 | 永久黄网站色视频免费直播 | 国产成人无码av在线影院 | 精品人妻人人做人人爽夜夜爽 | 婷婷丁香五月天综合东京热 | 日本护士毛茸茸高潮 | 欧美人与禽zoz0性伦交 | 日本www一道久久久免费榴莲 | 久久亚洲a片com人成 | 樱花草在线社区www | 亚洲精品综合五月久久小说 | 中文字幕色婷婷在线视频 | 色偷偷人人澡人人爽人人模 | 中文字幕色婷婷在线视频 | 精品偷拍一区二区三区在线看 | 午夜精品久久久久久久久 | 国产精品亚洲一区二区三区喷水 | 天堂无码人妻精品一区二区三区 | 国产精品理论片在线观看 | 性啪啪chinese东北女人 | 两性色午夜免费视频 | 特黄特色大片免费播放器图片 | 久久国产36精品色熟妇 | 性色欲网站人妻丰满中文久久不卡 | 国产欧美亚洲精品a | 亚洲欧美精品aaaaaa片 | 露脸叫床粗话东北少妇 | 狠狠色欧美亚洲狠狠色www | 亚洲午夜福利在线观看 | 国产一区二区三区四区五区加勒比 | 丝袜足控一区二区三区 | 国产成人无码av一区二区 | 欧美国产日韩久久mv | 理论片87福利理论电影 | 丁香啪啪综合成人亚洲 | 伊在人天堂亚洲香蕉精品区 | 东北女人啪啪对白 | 无码国模国产在线观看 | 国产舌乚八伦偷品w中 | 国产一区二区不卡老阿姨 | 国产sm调教视频在线观看 | 国内少妇偷人精品视频 | 国产婷婷色一区二区三区在线 | 久久精品女人的天堂av | 日韩精品无码一本二本三本色 | 美女毛片一区二区三区四区 | 啦啦啦www在线观看免费视频 | 亚洲色无码一区二区三区 | 久久精品国产亚洲精品 | 鲁一鲁av2019在线 | 西西人体www44rt大胆高清 | 爱做久久久久久 | 日本精品少妇一区二区三区 | 精品久久久久香蕉网 | 中文字幕av伊人av无码av | 欧美肥老太牲交大战 | 国产精品二区一区二区aⅴ污介绍 | 国产真人无遮挡作爱免费视频 | 久久综合九色综合97网 | 亚洲中文字幕无码一久久区 | 骚片av蜜桃精品一区 | 麻豆精品国产精华精华液好用吗 | 任你躁国产自任一区二区三区 | 日本一卡2卡3卡四卡精品网站 | 麻花豆传媒剧国产免费mv在线 | 亚洲欧美日韩成人高清在线一区 | 国产真实夫妇视频 | 精品国产青草久久久久福利 | 亚洲精品国偷拍自产在线观看蜜桃 | 欧美激情综合亚洲一二区 | 久久伊人色av天堂九九小黄鸭 | 国产精品-区区久久久狼 | 综合激情五月综合激情五月激情1 | 亚洲精品国产精品乱码视色 | 国产97在线 | 亚洲 | 欧美性生交xxxxx久久久 | 无码午夜成人1000部免费视频 | 网友自拍区视频精品 | 日韩无码专区 | 两性色午夜视频免费播放 | 亚洲色偷偷男人的天堂 | 丰满人妻翻云覆雨呻吟视频 | 亚洲春色在线视频 | 高潮喷水的毛片 | 色婷婷欧美在线播放内射 | 四虎国产精品免费久久 | 中文亚洲成a人片在线观看 | 亚洲中文字幕va福利 | 乌克兰少妇性做爰 | 午夜理论片yy44880影院 | 奇米影视7777久久精品 | 兔费看少妇性l交大片免费 | 永久黄网站色视频免费直播 | 国产成人精品久久亚洲高清不卡 | 国产av剧情md精品麻豆 | 亚洲成在人网站无码天堂 | 99久久精品无码一区二区毛片 | www成人国产高清内射 | 色一情一乱一伦一区二区三欧美 | 377p欧洲日本亚洲大胆 | 日韩精品乱码av一区二区 | 欧美xxxx黑人又粗又长 | 国产乱人无码伦av在线a | 久久99精品久久久久久动态图 | 日本高清一区免费中文视频 | 国产成人一区二区三区在线观看 | 少妇高潮一区二区三区99 | 亚洲乱码中文字幕在线 | 激情亚洲一区国产精品 | 老司机亚洲精品影院 | 亚洲精品国偷拍自产在线观看蜜桃 | 亚洲狠狠婷婷综合久久 | 中国大陆精品视频xxxx | 特黄特色大片免费播放器图片 | 欧美国产日产一区二区 | 欧美阿v高清资源不卡在线播放 | 99久久精品日本一区二区免费 | 国产乱人偷精品人妻a片 | 国产精品成人av在线观看 | 丰满少妇熟乱xxxxx视频 | 一本久道久久综合狠狠爱 | 午夜精品久久久久久久久 | 亚洲国产欧美日韩精品一区二区三区 | 清纯唯美经典一区二区 | 狠狠色色综合网站 | 国产黑色丝袜在线播放 | 国产午夜亚洲精品不卡下载 | 一本大道久久东京热无码av | 99久久久无码国产aaa精品 | 亚洲日韩av一区二区三区四区 | 最近中文2019字幕第二页 | 欧美日韩一区二区综合 | 欧洲极品少妇 | 搡女人真爽免费视频大全 | 中文字幕无码免费久久9一区9 | v一区无码内射国产 | 欧美成人免费全部网站 | 曰韩少妇内射免费播放 | 欧美三级不卡在线观看 | 久久国产精品二国产精品 | 精品国偷自产在线视频 | 久久亚洲国产成人精品性色 | 在线精品国产一区二区三区 | 久久综合狠狠综合久久综合88 | 久久精品人妻少妇一区二区三区 | 亚洲の无码国产の无码步美 | 精品成人av一区二区三区 | 人人妻人人澡人人爽人人精品 | 97人妻精品一区二区三区 | 日日鲁鲁鲁夜夜爽爽狠狠 | 蜜臀av无码人妻精品 | 亚洲日韩av一区二区三区四区 | 亚洲天堂2017无码 | 久久精品国产大片免费观看 | 自拍偷自拍亚洲精品被多人伦好爽 | 久久综合色之久久综合 | 国产精品免费大片 | 国产一区二区三区影院 | 无码一区二区三区在线 | 亚洲 日韩 欧美 成人 在线观看 | 无码av免费一区二区三区试看 | 国产精品亚洲一区二区三区喷水 | 高清国产亚洲精品自在久久 | 国产办公室秘书无码精品99 | 久久精品人人做人人综合 | 无码任你躁久久久久久久 | 女人和拘做爰正片视频 | 正在播放老肥熟妇露脸 | 国产一区二区不卡老阿姨 | 日本一卡2卡3卡四卡精品网站 | 久久久精品欧美一区二区免费 | 国产精品欧美成人 | 国产精品资源一区二区 | 97资源共享在线视频 | 亚洲gv猛男gv无码男同 | 亚洲中文字幕成人无码 | 女人被爽到呻吟gif动态图视看 | 色婷婷久久一区二区三区麻豆 | 丰满护士巨好爽好大乳 | 在线观看免费人成视频 | 国产成人久久精品流白浆 | 久久精品国产99久久6动漫 | 中文字幕 人妻熟女 | 国产sm调教视频在线观看 | 嫩b人妻精品一区二区三区 | 99久久久无码国产aaa精品 | 亚洲人成人无码网www国产 | 亚洲精品一区二区三区在线 | 六月丁香婷婷色狠狠久久 | 欧美大屁股xxxxhd黑色 | 在线观看国产午夜福利片 | 男人和女人高潮免费网站 | 久久综合给合久久狠狠狠97色 | 国色天香社区在线视频 | 波多野结衣 黑人 | 欧美精品免费观看二区 | 思思久久99热只有频精品66 | 麻豆果冻传媒2021精品传媒一区下载 | 99久久精品无码一区二区毛片 | 国产做国产爱免费视频 | 精品久久8x国产免费观看 | 好屌草这里只有精品 | 国产成人精品必看 | 久久97精品久久久久久久不卡 | 少妇无码吹潮 | 国产口爆吞精在线视频 | 牛和人交xxxx欧美 | 丰满少妇熟乱xxxxx视频 | 久久久久久亚洲精品a片成人 | 亚洲精品www久久久 | www国产精品内射老师 | 人妻少妇被猛烈进入中文字幕 | 无码任你躁久久久久久久 | 人人澡人人妻人人爽人人蜜桃 | 女人被爽到呻吟gif动态图视看 | 日韩少妇内射免费播放 | 国产特级毛片aaaaaaa高清 | 国产亚洲人成a在线v网站 | 自拍偷自拍亚洲精品10p | 国产美女极度色诱视频www | 人人妻人人澡人人爽欧美一区九九 | 久久亚洲国产成人精品性色 | 久久人妻内射无码一区三区 | 亚洲小说图区综合在线 | 久久婷婷五月综合色国产香蕉 | 波多野结衣av在线观看 | 国产激情精品一区二区三区 | 4hu四虎永久在线观看 | 成人无码影片精品久久久 | 国产精品久久精品三级 | 麻豆精品国产精华精华液好用吗 | 国产国语老龄妇女a片 | 日韩av激情在线观看 | 18无码粉嫩小泬无套在线观看 | 久久综合狠狠综合久久综合88 | 少妇人妻大乳在线视频 | 国产一区二区不卡老阿姨 | 青青久在线视频免费观看 | 中文字幕乱妇无码av在线 | 亚洲国产高清在线观看视频 | 国产精品国产三级国产专播 | 亚洲娇小与黑人巨大交 | 亚洲精品午夜国产va久久成人 | 久久久国产精品无码免费专区 | 少妇久久久久久人妻无码 | 风流少妇按摩来高潮 | 国产又粗又硬又大爽黄老大爷视 | 亚洲熟妇色xxxxx亚洲 | 国产精品人妻一区二区三区四 | 亚洲国产欧美国产综合一区 | 精品国产精品久久一区免费式 | 人妻无码αv中文字幕久久琪琪布 | 99视频精品全部免费免费观看 | 强辱丰满人妻hd中文字幕 | 国产口爆吞精在线视频 | 一本久久伊人热热精品中文字幕 | 性欧美牲交xxxxx视频 | 麻豆国产人妻欲求不满 | 久久国产36精品色熟妇 | 日韩av无码一区二区三区不卡 | 天天躁夜夜躁狠狠是什么心态 | 久久精品中文闷骚内射 | 久久亚洲精品中文字幕无男同 | 亚洲经典千人经典日产 | 国产热a欧美热a在线视频 | 少女韩国电视剧在线观看完整 | 亚洲成a人片在线观看无码3d | 国产精品毛多多水多 | 女人被爽到呻吟gif动态图视看 | 色一情一乱一伦一区二区三欧美 | 欧美日韩一区二区免费视频 | 亚洲色无码一区二区三区 | 亚洲最大成人网站 | 国产亚洲欧美日韩亚洲中文色 | 国产电影无码午夜在线播放 | 亚洲伊人久久精品影院 | 国产suv精品一区二区五 | 国产真实乱对白精彩久久 | 欧洲vodafone精品性 | 久久综合狠狠综合久久综合88 | 青青青手机频在线观看 | 日日橹狠狠爱欧美视频 | 一区二区传媒有限公司 | 国产精品久久久av久久久 | 亚洲高清偷拍一区二区三区 | 亚洲乱码中文字幕在线 | 人人妻人人藻人人爽欧美一区 | 国产精品亚洲lv粉色 | 老太婆性杂交欧美肥老太 | 亚洲欧美中文字幕5发布 | 久久精品国产日本波多野结衣 | 曰本女人与公拘交酡免费视频 | 在线欧美精品一区二区三区 | 欧美激情一区二区三区成人 | 国产va免费精品观看 | 国产手机在线αⅴ片无码观看 | 无码国产激情在线观看 | 国产精品久久久av久久久 | 国产成人无码av片在线观看不卡 | 亚洲精品一区二区三区婷婷月 | 色欲人妻aaaaaaa无码 | 波多野结衣av在线观看 | 国产精品久久国产精品99 | 日本肉体xxxx裸交 | 又大又硬又爽免费视频 | 欧美 亚洲 国产 另类 | 成人性做爰aaa片免费看不忠 | 国产小呦泬泬99精品 | 国产人妻久久精品二区三区老狼 | 国产av一区二区精品久久凹凸 | 久久亚洲中文字幕精品一区 | 国产69精品久久久久app下载 | 国产精品亚洲五月天高清 | 日本熟妇浓毛 | 99久久婷婷国产综合精品青草免费 | 久久久久av无码免费网 | 日韩精品久久久肉伦网站 | 久久国产36精品色熟妇 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 99riav国产精品视频 | 欧美性黑人极品hd | 中文字幕中文有码在线 | 亚洲精品中文字幕久久久久 | 精品国产一区av天美传媒 | 日本熟妇乱子伦xxxx | 成熟人妻av无码专区 | 人人妻人人澡人人爽精品欧美 | 人妻夜夜爽天天爽三区 | 日日天日日夜日日摸 | 51国偷自产一区二区三区 | 熟女体下毛毛黑森林 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 亚洲成a人片在线观看无码 | 久久精品中文字幕一区 | 成人试看120秒体验区 | 日日躁夜夜躁狠狠躁 | 77777熟女视频在线观看 а天堂中文在线官网 | 国产无遮挡又黄又爽又色 | 亚洲欧美中文字幕5发布 | 亚洲欧美综合区丁香五月小说 | 国产精品久久国产三级国 | 老熟妇乱子伦牲交视频 | 成人欧美一区二区三区黑人免费 | 秋霞特色aa大片 | 欧美性生交xxxxx久久久 | 美女毛片一区二区三区四区 | 日韩亚洲欧美精品综合 | 国产精品永久免费视频 | 在线精品亚洲一区二区 | 中文字幕无码人妻少妇免费 | 国产性生大片免费观看性 | 国产在线aaa片一区二区99 | 国产亚洲tv在线观看 | 成在人线av无码免观看麻豆 | 久久www免费人成人片 | 欧美黑人乱大交 | 99精品国产综合久久久久五月天 | 人人爽人人澡人人人妻 | 久久精品99久久香蕉国产色戒 | 最新国产麻豆aⅴ精品无码 | 四虎国产精品免费久久 | 中文字幕无码日韩专区 | 无套内谢的新婚少妇国语播放 | 成人精品一区二区三区中文字幕 | 图片小说视频一区二区 | 国产精品亚洲综合色区韩国 | 午夜福利不卡在线视频 | 娇妻被黑人粗大高潮白浆 | 亚洲综合色区中文字幕 | 亚洲 激情 小说 另类 欧美 | 亚洲中文字幕无码中文字在线 | 国产精品无码永久免费888 | 精品一区二区三区无码免费视频 | 久久综合香蕉国产蜜臀av | 日本xxxx色视频在线观看免费 | 国产人妻精品一区二区三区 | 国产精品99久久精品爆乳 | 亚洲一区二区三区香蕉 | 国产精品视频免费播放 | 老太婆性杂交欧美肥老太 | 天干天干啦夜天干天2017 | 国产精品18久久久久久麻辣 | av在线亚洲欧洲日产一区二区 | 2019午夜福利不卡片在线 | 亚洲高清偷拍一区二区三区 | 亚洲国产精品无码一区二区三区 | 草草网站影院白丝内射 | 蜜桃无码一区二区三区 | 人人澡人人透人人爽 | 玩弄中年熟妇正在播放 | 国产亚洲tv在线观看 | 久久久久久av无码免费看大片 | 大地资源中文第3页 | 九月婷婷人人澡人人添人人爽 | 亚洲中文字幕va福利 | 日产精品高潮呻吟av久久 | 久久久久久a亚洲欧洲av冫 | 精品人妻人人做人人爽 | 亚洲日韩av一区二区三区四区 | 欧美 日韩 亚洲 在线 | 永久黄网站色视频免费直播 | 国产真实乱对白精彩久久 | 国产黄在线观看免费观看不卡 | 亚洲午夜福利在线观看 | 九九综合va免费看 | 欧美亚洲国产一区二区三区 | 无码av最新清无码专区吞精 | 国产成人无码av片在线观看不卡 | 无码av最新清无码专区吞精 | 女人和拘做爰正片视频 | ass日本丰满熟妇pics | 国产亚洲精品久久久闺蜜 | 国产女主播喷水视频在线观看 | 亚洲欧美精品伊人久久 | 天天做天天爱天天爽综合网 | 无码人妻精品一区二区三区不卡 | 妺妺窝人体色www在线小说 | 亚洲区小说区激情区图片区 | 欧美日韩亚洲国产精品 | 国产综合在线观看 | 国产精品.xx视频.xxtv | 久久人人爽人人爽人人片ⅴ | 黑人粗大猛烈进出高潮视频 | 久久婷婷五月综合色国产香蕉 | 成人三级无码视频在线观看 | 国产亚洲精品久久久久久大师 | 综合网日日天干夜夜久久 | 免费国产成人高清在线观看网站 | 一本一道久久综合久久 | 亚洲七七久久桃花影院 | 精品aⅴ一区二区三区 | 成在人线av无码免观看麻豆 | 久久久久久亚洲精品a片成人 | 久久久精品456亚洲影院 | 日产精品高潮呻吟av久久 | 欧美日韩精品 | 一本色道久久综合亚洲精品不卡 | 青青青手机频在线观看 | 永久免费观看美女裸体的网站 | 国产超碰人人爽人人做人人添 | 成人女人看片免费视频放人 | 日本精品少妇一区二区三区 | 青青久在线视频免费观看 | 日本熟妇人妻xxxxx人hd | 国产亚洲精品久久久久久久久动漫 | 日韩人妻系列无码专区 | 无码国产乱人伦偷精品视频 | 精品国产av色一区二区深夜久久 | av无码不卡在线观看免费 | 国产人妻精品午夜福利免费 | 精品人妻中文字幕有码在线 | 自拍偷自拍亚洲精品10p | 日韩精品一区二区av在线 | 国产艳妇av在线观看果冻传媒 | 国内精品一区二区三区不卡 | 波多野结衣乳巨码无在线观看 | 强辱丰满人妻hd中文字幕 | 999久久久国产精品消防器材 | 中文字幕无码av波多野吉衣 | 日本xxxx色视频在线观看免费 | 国产高清av在线播放 | 国产suv精品一区二区五 | 强伦人妻一区二区三区视频18 | 国产农村妇女高潮大叫 | √天堂资源地址中文在线 | 图片小说视频一区二区 | 亚洲狠狠婷婷综合久久 | 成人欧美一区二区三区黑人免费 | 狠狠色欧美亚洲狠狠色www | 人妻aⅴ无码一区二区三区 | 99riav国产精品视频 | 久9re热视频这里只有精品 | 国产精品毛多多水多 | 老头边吃奶边弄进去呻吟 | 国产成人无码av在线影院 | 少妇一晚三次一区二区三区 | 亚洲日本va午夜在线电影 | 色爱情人网站 | 色偷偷人人澡人人爽人人模 | 日韩在线不卡免费视频一区 | 一本色道久久综合狠狠躁 | 久久精品人人做人人综合试看 | √8天堂资源地址中文在线 | 露脸叫床粗话东北少妇 | 无码毛片视频一区二区本码 | a片在线免费观看 | 无码毛片视频一区二区本码 | 亚洲性无码av中文字幕 | 亚洲区小说区激情区图片区 | 亚洲成a人片在线观看无码 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 初尝人妻少妇中文字幕 | 中文亚洲成a人片在线观看 | 久久综合九色综合欧美狠狠 | 自拍偷自拍亚洲精品被多人伦好爽 | 亚洲熟妇色xxxxx亚洲 | 精品一区二区三区无码免费视频 | 国产热a欧美热a在线视频 | 亚洲午夜福利在线观看 | 免费无码的av片在线观看 | 国产高潮视频在线观看 | 国产午夜精品一区二区三区嫩草 | 国产av剧情md精品麻豆 | 亚洲天堂2017无码中文 | 国产亚洲tv在线观看 | 两性色午夜免费视频 | 中文字幕无码免费久久99 | 纯爱无遮挡h肉动漫在线播放 | 国产成人av免费观看 | 丰满护士巨好爽好大乳 | 欧美zoozzooz性欧美 | 狠狠cao日日穞夜夜穞av | 欧美xxxxx精品 | 国产尤物精品视频 | 夜夜影院未满十八勿进 | 中文字幕久久久久人妻 | 成人精品天堂一区二区三区 | 内射巨臀欧美在线视频 | 亚洲综合伊人久久大杳蕉 | 国产情侣作爱视频免费观看 | 草草网站影院白丝内射 | 亚洲第一网站男人都懂 | 人妻尝试又大又粗久久 | 伊人久久婷婷五月综合97色 | 国产色在线 | 国产 | 亚洲国产成人av在线观看 | 久久99国产综合精品 | 丁香花在线影院观看在线播放 | 欧美精品在线观看 | 欧美日韩色另类综合 | 国产做国产爱免费视频 | 亚洲aⅴ无码成人网站国产app | 亚洲中文字幕乱码av波多ji | 天堂无码人妻精品一区二区三区 | 狠狠色欧美亚洲狠狠色www | 国产成人无码专区 | 国产麻豆精品精东影业av网站 | 国产成人无码午夜视频在线观看 | 亚洲日本va午夜在线电影 | 在线视频网站www色 | 国产精品亚洲lv粉色 | 国产精品第一国产精品 | 天天摸天天碰天天添 | 色爱情人网站 | 丰满肥臀大屁股熟妇激情视频 | 无码国产激情在线观看 | 国产免费无码一区二区视频 | 全黄性性激高免费视频 | 四虎国产精品一区二区 | 女人和拘做爰正片视频 | 亚洲人成无码网www | 中国女人内谢69xxxxxa片 | 国产艳妇av在线观看果冻传媒 | 曰韩无码二三区中文字幕 | 欧美精品国产综合久久 | 大乳丰满人妻中文字幕日本 | 欧美高清在线精品一区 | 乱码av麻豆丝袜熟女系列 | 激情爆乳一区二区三区 | а√资源新版在线天堂 | 欧美精品无码一区二区三区 | 成人无码精品一区二区三区 | 国产精品亚洲五月天高清 | 偷窥日本少妇撒尿chinese | 国产精品免费大片 | 无码精品人妻一区二区三区av | 色一情一乱一伦一视频免费看 | 中文字幕 人妻熟女 | 国产人妻精品一区二区三区不卡 | 在线精品国产一区二区三区 | а√天堂www在线天堂小说 | 国产精品美女久久久久av爽李琼 | 伊人色综合久久天天小片 | 日本护士xxxxhd少妇 | 少妇无码一区二区二三区 | 宝宝好涨水快流出来免费视频 | 亚洲日韩一区二区三区 | 99久久人妻精品免费二区 | 小泽玛莉亚一区二区视频在线 | 亚洲熟妇自偷自拍另类 | 中国女人内谢69xxxxxa片 | 日本一区二区三区免费播放 | 美女极度色诱视频国产 | 人妻少妇被猛烈进入中文字幕 | 国产成人无码a区在线观看视频app | 人人超人人超碰超国产 | 精品无码av一区二区三区 | 国语自产偷拍精品视频偷 | 2019午夜福利不卡片在线 | 久久国语露脸国产精品电影 | 色狠狠av一区二区三区 | 丝袜足控一区二区三区 | 日本精品少妇一区二区三区 | 婷婷综合久久中文字幕蜜桃三电影 | 黑森林福利视频导航 | 奇米影视888欧美在线观看 | 2019nv天堂香蕉在线观看 | 在线观看国产午夜福利片 | 国产精品va在线播放 | 激情综合激情五月俺也去 | 国产精品无码一区二区三区不卡 | 一本久久伊人热热精品中文字幕 | 久久久精品人妻久久影视 | 欧美熟妇另类久久久久久不卡 | 日日摸日日碰夜夜爽av | 成在人线av无码免观看麻豆 | 在线观看欧美一区二区三区 | 国内精品九九久久久精品 | 国产精品久久久久久久9999 | 女人被爽到呻吟gif动态图视看 | 丰满少妇高潮惨叫视频 | 精品偷拍一区二区三区在线看 | 午夜福利电影 | 精品国产aⅴ无码一区二区 | 在线播放亚洲第一字幕 | 久久久www成人免费毛片 | 欧美 日韩 人妻 高清 中文 | 国产精品二区一区二区aⅴ污介绍 | 成 人影片 免费观看 | 高潮毛片无遮挡高清免费视频 | 亚洲欧美综合区丁香五月小说 | 中文字幕av伊人av无码av | 少妇性俱乐部纵欲狂欢电影 | 色欲av亚洲一区无码少妇 | 亚洲国产精品久久人人爱 | 久久精品一区二区三区四区 | 男人的天堂2018无码 | 国产亚洲精品久久久久久久 | 无码乱肉视频免费大全合集 | 在线成人www免费观看视频 | 亚欧洲精品在线视频免费观看 | 午夜丰满少妇性开放视频 | 亚洲一区二区三区国产精华液 | 无码吃奶揉捏奶头高潮视频 | 亚洲天堂2017无码中文 | 国产精品多人p群无码 | 久久午夜无码鲁丝片秋霞 | 日本在线高清不卡免费播放 | 牲交欧美兽交欧美 | 荫蒂被男人添的好舒服爽免费视频 | 国产精品毛多多水多 | 精品夜夜澡人妻无码av蜜桃 | 国产精品igao视频网 | 免费观看又污又黄的网站 | 国产人妻精品一区二区三区 | 久久zyz资源站无码中文动漫 | 99久久精品日本一区二区免费 | 亚洲成av人在线观看网址 | 午夜福利不卡在线视频 | 人人澡人人妻人人爽人人蜜桃 | 婷婷五月综合缴情在线视频 | 夜精品a片一区二区三区无码白浆 | 高清国产亚洲精品自在久久 | 蜜臀av在线播放 久久综合激激的五月天 | av无码不卡在线观看免费 | 狠狠综合久久久久综合网 | 暴力强奷在线播放无码 | 成人一在线视频日韩国产 | 99er热精品视频 | 呦交小u女精品视频 | 国产人妻精品一区二区三区不卡 | 久久久中文字幕日本无吗 | 丰满妇女强制高潮18xxxx | 国产精品欧美成人 | 欧美日韩一区二区综合 | 国产两女互慰高潮视频在线观看 | 狠狠亚洲超碰狼人久久 | 久久精品无码一区二区三区 | 免费无码的av片在线观看 | 中文久久乱码一区二区 | 人妻少妇精品无码专区动漫 | 国产精品亚洲а∨无码播放麻豆 | 蜜桃av抽搐高潮一区二区 | 成人性做爰aaa片免费看 | 宝宝好涨水快流出来免费视频 | 在线观看国产午夜福利片 | 亚洲国产午夜精品理论片 | 亚洲精品久久久久久一区二区 | 人妻中文无码久热丝袜 | 免费视频欧美无人区码 | 国产色xx群视频射精 | 亚洲综合伊人久久大杳蕉 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 亚洲日韩精品欧美一区二区 | 99久久久无码国产aaa精品 | 乱中年女人伦av三区 | 久久亚洲a片com人成 | 波多野结衣av一区二区全免费观看 | 亚洲色大成网站www | 男女作爱免费网站 | 少妇愉情理伦片bd | 99久久人妻精品免费一区 | 野外少妇愉情中文字幕 | 国产成人亚洲综合无码 | 人妻aⅴ无码一区二区三区 | 丝袜足控一区二区三区 | 天天摸天天碰天天添 | 夜夜高潮次次欢爽av女 | 亚洲精品一区三区三区在线观看 | 九九综合va免费看 | www国产亚洲精品久久久日本 | 国产欧美亚洲精品a | 国产在线精品一区二区高清不卡 | 国产疯狂伦交大片 | 日韩欧美中文字幕公布 | 思思久久99热只有频精品66 | 99久久无码一区人妻 | 99精品国产综合久久久久五月天 | 十八禁真人啪啪免费网站 | 国产精品久久久久久久9999 | 亚洲色成人中文字幕网站 | 亚洲七七久久桃花影院 | 日本精品人妻无码77777 天堂一区人妻无码 | 搡女人真爽免费视频大全 | 蜜臀av在线播放 久久综合激激的五月天 | 久久久久免费看成人影片 | 久久亚洲中文字幕无码 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 55夜色66夜色国产精品视频 | 性做久久久久久久免费看 | 99riav国产精品视频 | 玩弄少妇高潮ⅹxxxyw | 色偷偷人人澡人人爽人人模 | 国产精品a成v人在线播放 | 给我免费的视频在线观看 | 熟女俱乐部五十路六十路av | 成人精品一区二区三区中文字幕 | 无码精品国产va在线观看dvd | 久热国产vs视频在线观看 | 国产精品亚洲а∨无码播放麻豆 | 国产成人精品一区二区在线小狼 | 久久久婷婷五月亚洲97号色 | 精品一区二区不卡无码av | 精品一区二区三区波多野结衣 | 精品国偷自产在线视频 | 久久综合久久自在自线精品自 | 国产高清av在线播放 | 亚洲成av人在线观看网址 | a片免费视频在线观看 | 狠狠亚洲超碰狼人久久 | 国产精品成人av在线观看 | 熟妇人妻中文av无码 | 狠狠色噜噜狠狠狠7777奇米 | 双乳奶水饱满少妇呻吟 | 四虎永久在线精品免费网址 | 国产无遮挡吃胸膜奶免费看 | 特级做a爰片毛片免费69 | 国产超级va在线观看视频 | 国产精品办公室沙发 | 67194成是人免费无码 | 国产欧美精品一区二区三区 | 亚洲精品一区三区三区在线观看 | av无码不卡在线观看免费 | 亚洲高清偷拍一区二区三区 | 欧美人与牲动交xxxx | 娇妻被黑人粗大高潮白浆 | 亚洲欧美日韩成人高清在线一区 | v一区无码内射国产 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 亚洲欧美精品伊人久久 | 中文字幕无码视频专区 | 精品成人av一区二区三区 | 97无码免费人妻超级碰碰夜夜 | 国产在线精品一区二区高清不卡 | 动漫av网站免费观看 | 美女极度色诱视频国产 | 西西人体www44rt大胆高清 | 扒开双腿疯狂进出爽爽爽视频 | 久久久婷婷五月亚洲97号色 | 国产国产精品人在线视 | 亚洲欧洲日本无在线码 | 性史性农村dvd毛片 | 精品一区二区三区波多野结衣 | 国产香蕉97碰碰久久人人 | 大色综合色综合网站 | 国产色在线 | 国产 | 97久久精品无码一区二区 | 国产亚洲人成a在线v网站 | 色 综合 欧美 亚洲 国产 | 精品少妇爆乳无码av无码专区 | 在线天堂新版最新版在线8 | 人妻无码αv中文字幕久久琪琪布 | 自拍偷自拍亚洲精品被多人伦好爽 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 99久久亚洲精品无码毛片 | 暴力强奷在线播放无码 | 精品久久久久久亚洲精品 | 婷婷色婷婷开心五月四房播播 | 欧美国产日产一区二区 | 亚洲精品一区二区三区大桥未久 | 亚洲gv猛男gv无码男同 | 国产在线aaa片一区二区99 | 亚洲熟女一区二区三区 | 亚洲欧洲日本综合aⅴ在线 | 国产精品va在线观看无码 | 图片区 小说区 区 亚洲五月 | 久久精品成人欧美大片 | 国产激情精品一区二区三区 | 亚洲精品中文字幕久久久久 | 国产精品igao视频网 | a片免费视频在线观看 | 强奷人妻日本中文字幕 | 国产成人精品久久亚洲高清不卡 | 色婷婷av一区二区三区之红樱桃 | 欧美三级不卡在线观看 | 人妻aⅴ无码一区二区三区 | 99久久人妻精品免费一区 | 波多野42部无码喷潮在线 | 欧美freesex黑人又粗又大 | 麻豆md0077饥渴少妇 | 99久久99久久免费精品蜜桃 | 日韩精品一区二区av在线 | 99精品国产综合久久久久五月天 | 55夜色66夜色国产精品视频 | 黑森林福利视频导航 | 免费无码av一区二区 | 国产精品久久久午夜夜伦鲁鲁 | 国产亚洲精品久久久久久久 | 亚洲狠狠色丁香婷婷综合 | 亚洲中文字幕av在天堂 | 国产亚洲视频中文字幕97精品 | 成人动漫在线观看 | 亚洲娇小与黑人巨大交 | 大肉大捧一进一出好爽视频 | 免费看男女做好爽好硬视频 | 亚洲欧美综合区丁香五月小说 | 国产黄在线观看免费观看不卡 | 99国产欧美久久久精品 | 久久综合给合久久狠狠狠97色 | 国产疯狂伦交大片 | 99久久婷婷国产综合精品青草免费 | 狠狠色噜噜狠狠狠7777奇米 | 99麻豆久久久国产精品免费 | 免费无码的av片在线观看 | 亚洲欧美中文字幕5发布 | 久9re热视频这里只有精品 | 久久综合给久久狠狠97色 | 午夜无码人妻av大片色欲 | 中文字幕日产无线码一区 | 亚洲精品国偷拍自产在线观看蜜桃 | 蜜桃av抽搐高潮一区二区 | 中文字幕av日韩精品一区二区 | 亚洲精品一区二区三区婷婷月 | 亚洲日韩av片在线观看 | 日韩亚洲欧美中文高清在线 | 2019nv天堂香蕉在线观看 | 强伦人妻一区二区三区视频18 | 欧美日韩亚洲国产精品 | 国产激情精品一区二区三区 | 天天拍夜夜添久久精品 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 久久精品国产亚洲精品 | 久久精品中文字幕大胸 | 久久成人a毛片免费观看网站 | 青青久在线视频免费观看 | 午夜精品久久久内射近拍高清 | 欧美日韩久久久精品a片 | 欧美日本免费一区二区三区 | 2020久久超碰国产精品最新 | 无码一区二区三区在线观看 | 亚洲色无码一区二区三区 | 成人一区二区免费视频 | 人妻有码中文字幕在线 | 国产成人精品优优av | 亚洲精品一区三区三区在线观看 | 亚洲日韩av一区二区三区中文 | 国产美女精品一区二区三区 | 妺妺窝人体色www在线小说 | 99精品国产综合久久久久五月天 | 九九久久精品国产免费看小说 | 国精产品一品二品国精品69xx | 大地资源中文第3页 | 国产凸凹视频一区二区 | 丰满诱人的人妻3 | 亚洲中文字幕在线观看 | 最新国产乱人伦偷精品免费网站 | 欧美精品国产综合久久 | 噜噜噜亚洲色成人网站 | 特大黑人娇小亚洲女 | 欧美变态另类xxxx | 色综合久久久无码中文字幕 | 娇妻被黑人粗大高潮白浆 | 啦啦啦www在线观看免费视频 | 一个人免费观看的www视频 | 蜜桃av抽搐高潮一区二区 | 色情久久久av熟女人妻网站 | 成人精品一区二区三区中文字幕 | 色噜噜亚洲男人的天堂 | 日韩人妻无码一区二区三区久久99 | 男女作爱免费网站 | 人妻插b视频一区二区三区 | 亚洲色偷偷男人的天堂 | 国产欧美精品一区二区三区 | 久久综合给久久狠狠97色 | 日本丰满护士爆乳xxxx | 欧美成人家庭影院 | 久久国语露脸国产精品电影 | 国产精品va在线观看无码 | 国产精品嫩草久久久久 | 国产乱人偷精品人妻a片 | 色窝窝无码一区二区三区色欲 | 欧美老熟妇乱xxxxx | 成人精品天堂一区二区三区 | 性欧美videos高清精品 | 亚洲の无码国产の无码影院 | 婷婷色婷婷开心五月四房播播 | 九九综合va免费看 | 久久久精品欧美一区二区免费 | 亚洲第一网站男人都懂 | 国产香蕉尹人综合在线观看 | 精品一区二区三区无码免费视频 | 久久99精品久久久久久 | 香港三级日本三级妇三级 | 一本无码人妻在中文字幕免费 | 国精产品一品二品国精品69xx | 国产精品va在线播放 | 波多野结衣 黑人 | 国产精品无码一区二区桃花视频 | 麻豆国产97在线 | 欧洲 | 一本久久a久久精品vr综合 | 亚洲国产欧美日韩精品一区二区三区 | 久久亚洲中文字幕精品一区 | 日韩亚洲欧美中文高清在线 | 中文字幕无码av波多野吉衣 | 久久99久久99精品中文字幕 | 成人欧美一区二区三区黑人免费 | 国产av一区二区精品久久凹凸 | 亚洲国产综合无码一区 | 久久久av男人的天堂 | 午夜时刻免费入口 | 日韩人妻系列无码专区 | 又湿又紧又大又爽a视频国产 | 国产精品国产自线拍免费软件 | 欧美阿v高清资源不卡在线播放 | 成熟女人特级毛片www免费 | 欧美激情内射喷水高潮 | 国产成人午夜福利在线播放 | 人妻互换免费中文字幕 | 国产午夜无码精品免费看 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 国产成人无码一二三区视频 | 亚洲乱码国产乱码精品精 | 久精品国产欧美亚洲色aⅴ大片 | 精品国偷自产在线 | 综合人妻久久一区二区精品 | 亚洲色大成网站www国产 | 人人妻人人澡人人爽欧美精品 | 黄网在线观看免费网站 | 色综合久久久无码网中文 | 国产免费观看黄av片 | 日韩成人一区二区三区在线观看 | 55夜色66夜色国产精品视频 | 国产乱人偷精品人妻a片 | 亚洲成a人片在线观看无码3d | 国产又粗又硬又大爽黄老大爷视 | 樱花草在线社区www | 久久久精品成人免费观看 | 丰满人妻精品国产99aⅴ | 精品久久久中文字幕人妻 | 久久午夜无码鲁丝片午夜精品 | 亚洲日本在线电影 | 精品无人国产偷自产在线 | 中文字幕日产无线码一区 | 性生交大片免费看l | 久久久久国色av免费观看性色 | 2020最新国产自产精品 | 亚洲成av人影院在线观看 | 亚洲成熟女人毛毛耸耸多 | 国产 精品 自在自线 | 成人动漫在线观看 | 狠狠噜狠狠狠狠丁香五月 | a在线观看免费网站大全 | 高清不卡一区二区三区 | аⅴ资源天堂资源库在线 | 好爽又高潮了毛片免费下载 | 18禁黄网站男男禁片免费观看 | 中文精品无码中文字幕无码专区 | 国产午夜精品一区二区三区嫩草 | 午夜性刺激在线视频免费 | 国产成人精品无码播放 | 亚洲国产av精品一区二区蜜芽 | 亚洲成av人综合在线观看 | 亚洲爆乳大丰满无码专区 | 国产精品久久久久久久9999 | 国产在热线精品视频 | 夜先锋av资源网站 | 亚洲日韩一区二区三区 | 一区二区三区高清视频一 | 国产色xx群视频射精 | av无码不卡在线观看免费 | 中文字幕人妻无码一夲道 | 国产成人精品三级麻豆 | 亚洲精品一区二区三区大桥未久 | 无码国产色欲xxxxx视频 | 荫蒂被男人添的好舒服爽免费视频 | 国产va免费精品观看 | 日韩无码专区 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 好男人www社区 | 亚洲欧美综合区丁香五月小说 | 人人妻人人澡人人爽人人精品浪潮 | 国产美女精品一区二区三区 | 中文字幕乱码人妻二区三区 | 永久免费精品精品永久-夜色 | 国产激情艳情在线看视频 | 国产美女极度色诱视频www | 欧美人与牲动交xxxx | 丰满人妻被黑人猛烈进入 | 国产精品久久久久久久9999 | 亚洲一区二区三区 | 2020久久香蕉国产线看观看 | a在线观看免费网站大全 | 强伦人妻一区二区三区视频18 | 亚洲一区二区三区国产精华液 | 国产色精品久久人妻 | 麻豆果冻传媒2021精品传媒一区下载 | 人妻插b视频一区二区三区 | 日韩精品一区二区av在线 | 永久免费精品精品永久-夜色 | 最近中文2019字幕第二页 | 一二三四在线观看免费视频 | 国产无av码在线观看 | 无码人妻丰满熟妇区五十路百度 | 亚洲欧美国产精品久久 | 国产真人无遮挡作爱免费视频 | 欧美日韩在线亚洲综合国产人 | 夜夜夜高潮夜夜爽夜夜爰爰 | 无码av最新清无码专区吞精 | av香港经典三级级 在线 | 午夜精品久久久久久久久 | 亚洲 另类 在线 欧美 制服 | 55夜色66夜色国产精品视频 | 一二三四社区在线中文视频 | 成人影院yy111111在线观看 | 免费无码的av片在线观看 | 久久久久久av无码免费看大片 | 国产69精品久久久久app下载 | 又湿又紧又大又爽a视频国产 | 我要看www免费看插插视频 | 熟妇人妻中文av无码 | 99久久精品国产一区二区蜜芽 | 88国产精品欧美一区二区三区 | 国内丰满熟女出轨videos | 伊人色综合久久天天小片 | 亚洲精品国偷拍自产在线麻豆 | 亚洲国产欧美在线成人 | 兔费看少妇性l交大片免费 | 无码av免费一区二区三区试看 | 欧美精品免费观看二区 | 熟妇人妻无乱码中文字幕 | 久久精品成人欧美大片 | 55夜色66夜色国产精品视频 | 亚洲色在线无码国产精品不卡 | 黑人玩弄人妻中文在线 | 久久国产精品_国产精品 | 日韩少妇内射免费播放 | 国产精品久久久久9999小说 | 国产另类ts人妖一区二区 | 色婷婷综合激情综在线播放 | 99re在线播放 | 风流少妇按摩来高潮 | 日本熟妇乱子伦xxxx | 东京热无码av男人的天堂 | 久久久www成人免费毛片 | 麻豆蜜桃av蜜臀av色欲av | 国产乡下妇女做爰 | 青青草原综合久久大伊人精品 | 日本熟妇人妻xxxxx人hd | 国产熟女一区二区三区四区五区 | 无人区乱码一区二区三区 | 亚洲天堂2017无码 | 丰满肥臀大屁股熟妇激情视频 | 在线播放免费人成毛片乱码 | 日韩人妻无码中文字幕视频 | 青草青草久热国产精品 | 国产人妖乱国产精品人妖 | 日韩欧美群交p片內射中文 | 麻豆av传媒蜜桃天美传媒 | 日本又色又爽又黄的a片18禁 | 亚洲一区av无码专区在线观看 | 亚洲中文字幕无码一久久区 | 亚洲日本va中文字幕 | 欧美日韩视频无码一区二区三 | 在教室伦流澡到高潮hnp视频 | 捆绑白丝粉色jk震动捧喷白浆 | 亚洲区欧美区综合区自拍区 | 精品无码国产一区二区三区av | 日韩精品久久久肉伦网站 | 午夜熟女插插xx免费视频 | 国产麻豆精品精东影业av网站 | 亚拍精品一区二区三区探花 | 日本xxxx色视频在线观看免费 | 无码av免费一区二区三区试看 | 日本一区二区三区免费高清 | 99久久精品日本一区二区免费 | 久久综合给久久狠狠97色 | 欧美激情一区二区三区成人 | 久久国产精品二国产精品 | 男女猛烈xx00免费视频试看 | 国产熟女一区二区三区四区五区 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | av小次郎收藏 | 久久久婷婷五月亚洲97号色 | 娇妻被黑人粗大高潮白浆 | 国产口爆吞精在线视频 | 蜜桃视频插满18在线观看 | 午夜熟女插插xx免费视频 | 日日天日日夜日日摸 | 久久午夜无码鲁丝片午夜精品 | 国产办公室秘书无码精品99 | 国产一区二区三区四区五区加勒比 | 亚洲精品成人福利网站 | 久在线观看福利视频 | 少妇激情av一区二区 | 亚洲精品欧美二区三区中文字幕 | 免费观看的无遮挡av | 国产9 9在线 | 中文 | 久久午夜无码鲁丝片秋霞 | 十八禁视频网站在线观看 | 欧美人妻一区二区三区 | 曰本女人与公拘交酡免费视频 | 又粗又大又硬又长又爽 | 人妻少妇被猛烈进入中文字幕 | 日产精品高潮呻吟av久久 | 国内精品九九久久久精品 | 欧美真人作爱免费视频 | 小泽玛莉亚一区二区视频在线 | 亚欧洲精品在线视频免费观看 | 少妇人妻偷人精品无码视频 | 久久久久99精品成人片 | 亚洲精品久久久久久一区二区 | 超碰97人人射妻 | 青青草原综合久久大伊人精品 | 狠狠亚洲超碰狼人久久 | 东京热无码av男人的天堂 | 欧美性猛交xxxx富婆 | 日韩精品一区二区av在线 | 欧美亚洲日韩国产人成在线播放 | 欧美刺激性大交 | 熟妇女人妻丰满少妇中文字幕 | 亚洲精品中文字幕久久久久 | √天堂资源地址中文在线 | 日韩人妻少妇一区二区三区 | 国产一精品一av一免费 | 国产人妻人伦精品1国产丝袜 | 国产精品va在线播放 | 久久人人爽人人爽人人片ⅴ | www国产精品内射老师 | 狂野欧美激情性xxxx | 18禁止看的免费污网站 | 久久97精品久久久久久久不卡 | 久久午夜无码鲁丝片午夜精品 | 欧美人与牲动交xxxx | 西西人体www44rt大胆高清 | 国产两女互慰高潮视频在线观看 | 国产综合久久久久鬼色 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 久久久www成人免费毛片 | 特大黑人娇小亚洲女 | 日日干夜夜干 | 色情久久久av熟女人妻网站 | 国产sm调教视频在线观看 | 成人精品视频一区二区三区尤物 | 一二三四在线观看免费视频 | 性做久久久久久久久 | 两性色午夜视频免费播放 | 亚洲国产高清在线观看视频 | 国产69精品久久久久app下载 | 激情爆乳一区二区三区 | 九月婷婷人人澡人人添人人爽 | 久久精品中文字幕一区 | 天天av天天av天天透 | 亚洲日韩av一区二区三区四区 | 欧美 亚洲 国产 另类 | 丰满少妇女裸体bbw | 国产片av国语在线观看 | 3d动漫精品啪啪一区二区中 | 中文字幕av无码一区二区三区电影 | 国产97在线 | 亚洲 | 四虎国产精品免费久久 | 亚洲精品国产a久久久久久 | 成人影院yy111111在线观看 | 女人被爽到呻吟gif动态图视看 | 亚洲中文字幕av在天堂 | 丰满少妇人妻久久久久久 | 国产亚洲精品久久久闺蜜 | www一区二区www免费 | 精品久久久久香蕉网 | 国产精品美女久久久 | 任你躁在线精品免费 | 香港三级日本三级妇三级 | 国产成人精品优优av | 欧美人与禽猛交狂配 | 在线观看国产午夜福利片 | 男人的天堂av网站 | 国产无遮挡又黄又爽又色 | 国产乱人偷精品人妻a片 | 国产成人人人97超碰超爽8 | 中文字幕人成乱码熟女app | 妺妺窝人体色www婷婷 | 亚洲熟熟妇xxxx | 亚洲国产精品一区二区美利坚 | 中文久久乱码一区二区 | 九月婷婷人人澡人人添人人爽 | 久久综合网欧美色妞网 | 国产色视频一区二区三区 | 国产精品亚洲五月天高清 | 亚洲爆乳精品无码一区二区三区 | 少妇无码av无码专区在线观看 | 成人精品天堂一区二区三区 | 亚洲精品中文字幕乱码 | 97人妻精品一区二区三区 | 色综合久久久无码中文字幕 | 精品日本一区二区三区在线观看 | 亚洲国产日韩a在线播放 | 亚洲国产欧美在线成人 | 中文字幕无码免费久久99 | 日本精品人妻无码77777 天堂一区人妻无码 | а√资源新版在线天堂 | 中文字幕色婷婷在线视频 | 少妇愉情理伦片bd | 一本无码人妻在中文字幕免费 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 少妇久久久久久人妻无码 | 性生交大片免费看l | 亚洲天堂2017无码 | 日日天日日夜日日摸 | 色五月五月丁香亚洲综合网 | 久久精品中文闷骚内射 | 亚洲一区二区三区无码久久 | 白嫩日本少妇做爰 | 欧美兽交xxxx×视频 | 熟妇人妻无码xxx视频 | 国产亲子乱弄免费视频 | 婷婷丁香五月天综合东京热 | 精品无码av一区二区三区 | 国产精品福利视频导航 | 欧美猛少妇色xxxxx | 亚洲男人av香蕉爽爽爽爽 | 无遮挡国产高潮视频免费观看 | 国产在线aaa片一区二区99 | 精品无人区无码乱码毛片国产 | 亚洲无人区一区二区三区 | 亚洲一区二区三区香蕉 | 无码免费一区二区三区 | 久久伊人色av天堂九九小黄鸭 | 久久国产精品偷任你爽任你 | 国产av剧情md精品麻豆 | 精品人妻中文字幕有码在线 | 国产精品18久久久久久麻辣 | 亚洲色偷偷偷综合网 | 亚洲日韩av一区二区三区中文 | 亚洲中文字幕无码一久久区 | 亚拍精品一区二区三区探花 | 国模大胆一区二区三区 | 国产av人人夜夜澡人人爽麻豆 | 67194成是人免费无码 | 国产成人无码a区在线观看视频app | 中文无码伦av中文字幕 | 大乳丰满人妻中文字幕日本 | 丰满少妇人妻久久久久久 | 又粗又大又硬毛片免费看 | 国产国产精品人在线视 | 丰满人妻精品国产99aⅴ | 激情五月综合色婷婷一区二区 | 一二三四在线观看免费视频 | 亚洲一区二区三区在线观看网站 | 宝宝好涨水快流出来免费视频 | 欧美日本日韩 | 久久99久久99精品中文字幕 | 天堂久久天堂av色综合 | 麻豆蜜桃av蜜臀av色欲av | 1000部啪啪未满十八勿入下载 | 国产无遮挡吃胸膜奶免费看 | 老熟女重囗味hdxx69 | 人人妻人人澡人人爽欧美一区九九 | 国产亚洲欧美日韩亚洲中文色 | 精品日本一区二区三区在线观看 | 午夜精品一区二区三区的区别 | 精品一区二区不卡无码av | 撕开奶罩揉吮奶头视频 | 人人超人人超碰超国产 | 国产精品视频免费播放 | 男人的天堂2018无码 | 男女下面进入的视频免费午夜 | 欧美精品在线观看 | 少妇性l交大片 | 亚洲欧洲无卡二区视頻 | 国产精品亚洲а∨无码播放麻豆 | 一本久道久久综合婷婷五月 | 人人爽人人爽人人片av亚洲 | 成人女人看片免费视频放人 | 老熟妇仑乱视频一区二区 | 牲欲强的熟妇农村老妇女视频 | 又紧又大又爽精品一区二区 | 人妻无码αv中文字幕久久琪琪布 | 人妻无码αv中文字幕久久琪琪布 | 亚洲国产精品一区二区第一页 | 国语精品一区二区三区 | 精品人妻av区 | aa片在线观看视频在线播放 | 极品嫩模高潮叫床 | 亚洲自偷自拍另类第1页 | 好爽又高潮了毛片免费下载 | 成人性做爰aaa片免费看不忠 | 少妇性l交大片欧洲热妇乱xxx | 欧美阿v高清资源不卡在线播放 | 天天躁夜夜躁狠狠是什么心态 | 粉嫩少妇内射浓精videos | 真人与拘做受免费视频一 | 久久亚洲a片com人成 | 国产高潮视频在线观看 | 亚洲爆乳无码专区 | 麻豆精品国产精华精华液好用吗 | 亚洲欧美国产精品专区久久 | 国产精品久久久久无码av色戒 | 麻豆蜜桃av蜜臀av色欲av | 国内丰满熟女出轨videos | 又黄又爽又色的视频 | 在线成人www免费观看视频 | 高中生自慰www网站 | 国产sm调教视频在线观看 | 日本xxxx色视频在线观看免费 | 乱人伦人妻中文字幕无码 | 最近中文2019字幕第二页 | 丰满人妻翻云覆雨呻吟视频 | 少妇性l交大片欧洲热妇乱xxx | 午夜免费福利小电影 | 扒开双腿吃奶呻吟做受视频 | 在线精品亚洲一区二区 | 色婷婷综合中文久久一本 | 精品人人妻人人澡人人爽人人 | 国产午夜手机精彩视频 | 国产sm调教视频在线观看 | 乱人伦中文视频在线观看 | 亚洲天堂2017无码中文 | 亚洲欧洲日本无在线码 | 97久久国产亚洲精品超碰热 | 欧美日韩色另类综合 | 国产人妻大战黑人第1集 | 少女韩国电视剧在线观看完整 | 亚洲a无码综合a国产av中文 | 中文字幕无码乱人伦 | 国产精品久久久久久无码 | 亚洲日本一区二区三区在线 | 最近免费中文字幕中文高清百度 | 国内精品人妻无码久久久影院蜜桃 | 国产无av码在线观看 | 天堂无码人妻精品一区二区三区 | 鲁大师影院在线观看 | 久久国产精品萌白酱免费 | 又粗又大又硬又长又爽 | 精品国偷自产在线视频 | 日本护士xxxxhd少妇 | 国产精品福利视频导航 | 国产成人综合在线女婷五月99播放 | 中文久久乱码一区二区 | 亚洲精品无码人妻无码 | 无码毛片视频一区二区本码 | 亚洲欧洲日本无在线码 | 国产又爽又猛又粗的视频a片 | 中文字幕人妻无码一区二区三区 | 人人爽人人澡人人人妻 | 精品国偷自产在线 | 伊人色综合久久天天小片 | 九九热爱视频精品 | 人妻少妇精品无码专区动漫 | 九九久久精品国产免费看小说 | 国产午夜精品一区二区三区嫩草 | 久久久无码中文字幕久... | 久久精品国产99精品亚洲 | 久久亚洲a片com人成 | 真人与拘做受免费视频 | 久久zyz资源站无码中文动漫 | 国产激情精品一区二区三区 | 狠狠亚洲超碰狼人久久 | 亚洲精品一区二区三区在线 | 久久天天躁狠狠躁夜夜免费观看 | 在线a亚洲视频播放在线观看 | 红桃av一区二区三区在线无码av | 无码福利日韩神码福利片 | 波多野结衣av在线观看 | 亚洲精品国产第一综合99久久 | 亚洲欧美日韩综合久久久 | 成人无码影片精品久久久 | 亚洲综合无码一区二区三区 | 中文精品无码中文字幕无码专区 | 波多野结衣 黑人 | 荫蒂被男人添的好舒服爽免费视频 | 日产国产精品亚洲系列 | 日韩av激情在线观看 | 国产真实乱对白精彩久久 | 精品成人av一区二区三区 | 国产精品无码成人午夜电影 | 精品乱码久久久久久久 | 少妇被粗大的猛进出69影院 | 亚洲色偷偷偷综合网 | 日韩精品一区二区av在线 | 亚洲精品国产精品乱码不卡 | 国产农村乱对白刺激视频 | 中文字幕人成乱码熟女app | 成熟妇人a片免费看网站 | 亚洲精品成人av在线 | 中文字幕无码免费久久99 | 亚洲一区二区三区四区 | 国产午夜精品一区二区三区嫩草 | 荫蒂添的好舒服视频囗交 | 久久午夜夜伦鲁鲁片无码免费 | 夜精品a片一区二区三区无码白浆 | 久久综合九色综合97网 | 麻豆国产丝袜白领秘书在线观看 | 黑人巨大精品欧美黑寡妇 | 扒开双腿疯狂进出爽爽爽视频 | 少妇无码一区二区二三区 | 亚洲色成人中文字幕网站 | 人妻尝试又大又粗久久 | 老太婆性杂交欧美肥老太 | 国产真实夫妇视频 | 人人妻在人人 | 在线精品国产一区二区三区 | 国产精华av午夜在线观看 | 国产片av国语在线观看 | 老子影院午夜精品无码 | 四虎永久在线精品免费网址 | 亚洲熟熟妇xxxx | 97夜夜澡人人双人人人喊 | 一区二区三区高清视频一 | 亚洲精品国产第一综合99久久 | 大胆欧美熟妇xx | 水蜜桃亚洲一二三四在线 | 色婷婷av一区二区三区之红樱桃 | 99国产精品白浆在线观看免费 | 夫妻免费无码v看片 | 成人无码精品一区二区三区 | 国产热a欧美热a在线视频 | 国产va免费精品观看 | 亚洲欧美精品伊人久久 | 天海翼激烈高潮到腰振不止 | 国产亚洲欧美在线专区 | 少妇太爽了在线观看 | 久久久婷婷五月亚洲97号色 | 亚洲中文字幕乱码av波多ji | 久久久久成人精品免费播放动漫 | 亚洲人成人无码网www国产 | 国产av人人夜夜澡人人爽麻豆 | 成人无码精品一区二区三区 | 99久久亚洲精品无码毛片 | 日韩在线不卡免费视频一区 | 欧美成人午夜精品久久久 | 亚洲乱码中文字幕在线 | 无码一区二区三区在线观看 | 久久久久免费精品国产 | 久久精品丝袜高跟鞋 | 亚洲va中文字幕无码久久不卡 | 狠狠亚洲超碰狼人久久 | 欧美猛少妇色xxxxx | 中文字幕无码av激情不卡 | 国产精品爱久久久久久久 | 国产精品久久久久7777 | 亚洲精品久久久久中文第一幕 | 色综合久久久久综合一本到桃花网 | 亚洲成a人片在线观看无码3d | 国产精品无码mv在线观看 | 综合激情五月综合激情五月激情1 | 亚洲狠狠色丁香婷婷综合 | 亚洲欧美色中文字幕在线 | 黑人玩弄人妻中文在线 | 精品人妻人人做人人爽 | 久久 国产 尿 小便 嘘嘘 | 学生妹亚洲一区二区 | 成人女人看片免费视频放人 | 一区二区三区高清视频一 | 亚洲中文字幕在线观看 | 日本精品人妻无码免费大全 | 四虎永久在线精品免费网址 | 欧洲vodafone精品性 | 国产午夜无码视频在线观看 | 国内少妇偷人精品视频 | 国产午夜精品一区二区三区嫩草 | 国产黄在线观看免费观看不卡 | 一二三四在线观看免费视频 | 三上悠亚人妻中文字幕在线 | 国产熟女一区二区三区四区五区 | 国产在线一区二区三区四区五区 | 在线成人www免费观看视频 | 国产手机在线αⅴ片无码观看 | 中文字幕无码人妻少妇免费 | 日韩av无码一区二区三区 | 国产亚洲欧美日韩亚洲中文色 | 亚洲狠狠色丁香婷婷综合 | 亚洲精品一区二区三区大桥未久 | 国产网红无码精品视频 | √8天堂资源地址中文在线 | 国产精品久久国产精品99 | 色情久久久av熟女人妻网站 | 无码人妻黑人中文字幕 | 欧美熟妇另类久久久久久多毛 | 国产精品久久久一区二区三区 | 亚洲精品成人福利网站 | 性做久久久久久久久 | 国产成人无码专区 | 国产精品爱久久久久久久 | av无码不卡在线观看免费 | 国产亚洲精品久久久久久久 | 国产色视频一区二区三区 | 亚洲一区二区三区香蕉 | 丰满少妇人妻久久久久久 |