久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

基于YOLOV5动态检测19种类别

發(fā)布時間:2023/12/29 编程问答 25 豆豆
生活随笔 收集整理的這篇文章主要介紹了 基于YOLOV5动态检测19种类别 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.

#1 makeTxt.py(將訓練數(shù)據(jù)自動劃分為訓練集、驗證集和測試集)... 2

#2 voc_label.py(將VOC格式數(shù)據(jù)集轉(zhuǎn)換成yolo數(shù)據(jù)集)... 3

#3 tube.yaml 6

#4 yolov5s.yaml 7

#5 train.py. 9

#6 detect.py. 28

#7 Video.py(每間隔3秒對應的幀數(shù)采集照片并yolov5檢測最后保存) 36

#1 makeTxt.py(將訓練數(shù)據(jù)自動劃分為訓練集、驗證集和測試集)

import os
import random


trainval_percent =
0.9
train_percent = 0.9
xmlfilepath = 'data/Annotations'
txtsavepath = 'data/ImageSet'
total_xml = os.listdir(xmlfilepath)

num =
len(total_xml)
list =
range(num)
tv =
int(num * trainval_percent)
tr =
int(tv * train_percent)
trainval = random.sample(list
, tv)
train = random.sample(trainval
, tr)

ftrainval =
open('data/ImageSet/trainval.txt', 'w')
ftest =
open('data/ImageSet/test.txt', 'w')
ftrain =
open('data/ImageSet/train.txt', 'w')
fval =
open('data/ImageSet/val.txt', 'w')

for i in list:
??? name = total_xml[i][:-
4] + '\n'
???
if i in trainval:
??????? ftrainval.write(name)
???????
if i in train:
??????????? ftrain.write(name)
???????
else:
??????????? fval.write(name)
???
else:
??????? ftest.write(name)

ftrainval.close()
ftrain.close()
fval.close()
ftest.close()

#2 voc_label.py(將VOC格式數(shù)據(jù)集轉(zhuǎn)換成yolo數(shù)據(jù)集)

#xml解析包import xml.etree.ElementTree as ETimport pickleimport os# os.listdir() 方法用于返回指定的文件夾包含的文件或文件夾的名字的列表from os import listdir, getcwdfrom os.path import joinsets = ['train', 'test', 'val']classes = ['01', '02', '03', '04', '05', '06', '07', '08', '09']# 進行歸一化操作def convert(size, box): # size:(原圖w,原圖h) , box:(xmin,xmax,ymin,ymax)dw = 1./size[0]???? # 1/wdh = 1./size[1]???? # 1/hx = (box[0] + box[1])/2.0?? # 物體在圖中的中心點x坐標y = (box[2] + box[3])/2.0?? # 物體在圖中的中心點y坐標w = box[1] - box[0]???????? # 物體實際像素寬度h = box[3] - box[2]???????? # 物體實際像素高度x = x*dw??? # 物體中心點x的坐標比(相當于 x/原圖w)w = w*dw??? # 物體寬度的寬度比(相當于 w/原圖w)y = y*dh??? # 物體中心點y的坐標比(相當于 y/原圖h)h = h*dh??? # 物體寬度的寬度比(相當于 h/原圖h)return (x, y, w, h)??? # 返回 相對于原圖的物體中心點的x坐標比,y坐標比,寬度比,高度比,取值范圍[0-1]# year ='2012', 對應圖片的id(文件名)def convert_annotation(image_id):'''將對應文件名的xml文件轉(zhuǎn)化為label文件,xml文件包含了對應的bunding框以及圖片長款大小等信息,通過對其解析,然后進行歸一化最終讀到label文件中去,也就是說一張圖片文件對應一個xml文件,然后通過解析和歸一化,能夠?qū)男畔⒈4娴轿ㄒ灰粋€label文件中去labal文件中的格式:calss x y w h  同時,一張圖片對應的類別有多個,所以對應的bunding的信息也有多個'''# 對應的通過year 找到相應的文件夾,并且打開相應image_id的xml文件,其對應bund文件in_file = open('data/Annotations/%s.xml' % (image_id), encoding='utf-8')# 準備在對應的image_id 中寫入對應的label,分別為# <object-class> <x> <y> <width> <height>out_file = open('data/labels/%s.txt' % (image_id), 'w', encoding='utf-8')# 解析xml文件tree = ET.parse(in_file)# 獲得對應的鍵值對root = tree.getroot()# 獲得圖片的尺寸大小size = root.find('size')# 如果xml內(nèi)的標記為空,增加判斷條件if size != None:# 獲得寬w = int(size.find('width').text)# 獲得高h = int(size.find('height').text)# 遍歷目標objfor obj in root.iter('object'):# 獲得difficult ??difficult = obj.find('difficult').text# 獲得類別 =string 類型cls = obj.find('name').text# 如果類別不是對應在我們預定好的class文件中,或difficult==1則跳過if cls not in classes or int(difficult) == 1:continue# 通過類別名稱找到idcls_id = classes.index(cls)# 找到bndbox 對象xmlbox = obj.find('bndbox')# 獲取對應的bndbox的數(shù)組 = ['xmin','xmax','ymin','ymax']b = (float(xmlbox.find('xmin').text), float(xmlbox.find('xmax').text), float(xmlbox.find('ymin').text),float(xmlbox.find('ymax').text))print(image_id, cls, b)# 帶入進行歸一化操作# w = 寬, h = 高, b= bndbox的數(shù)組 = ['xmin','xmax','ymin','ymax']bb = convert((w, h), b)# bb 對應的是歸一化后的(x,y,w,h)# 生成 calss x y w h 在label文件中out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')# 返回當前工作目錄wd = getcwd()print(wd)for image_set in sets:'''對所有的文件數(shù)據(jù)集進行遍歷做了兩個工作:1.將所有圖片文件都遍歷一遍,并且將其所有的全路徑都寫在對應的txt文件中去,方便定位2.同時對所有的圖片文件進行解析和轉(zhuǎn)化,將其對應的bundingbox 以及類別的信息全部解析寫到label 文件中去最后再通過直接讀取文件,就能找到對應的label 信息'''# 先找labels文件夾如果不存在則創(chuàng)建if not os.path.exists('data/labels/'):os.makedirs('data/labels/')# 讀取在ImageSets/Main 中的train、test..等文件的內(nèi)容# 包含對應的文件名稱image_ids = open('data/ImageSet/%s.txt' % (image_set)).read().strip().split()# 打開對應的2012_train.txt 文件對其進行寫入準備list_file = open('data/%s.txt' % (image_set), 'w')# 將對應的文件_id以及全路徑寫進去并換行for image_id in image_ids:list_file.write('data/images/%s.jpg\n' % (image_id))# 調(diào)用? year = 年份? image_id = 對應的文件名_idconvert_annotation(image_id)# 關閉文件list_file.close()# os.system(‘comand’) 會執(zhí)行括號中的命令,如果命令成功執(zhí)行,這條語句返回0,否則返回1# os.system("cat 2007_train.txt 2007_val.txt 2012_train.txt 2012_val.txt > train.txt")# os.system("cat 2007_train.txt 2007_val.txt 2007_test.txt 2012_train.txt 2012_val.txt > train.all.txt")

#3 tube.yaml

train: ../mydata3/train/images # train images (relative to 'path') 118287 imagesval: ../mydata3/val/images # train images (relative to 'path') 5000 imagesnc: 19? # number of classesnames: ['module1', '0001', '0010', '0011', '0100', '0101', '0110', '0111', '1000', '1001', 'Open', 'Tube body', 'module2', 'Bar 1', 'Bar 2', 'Bar 3', 'module3', '1010', '1011']? # class names

#4 yolov5s.yaml

# parametersnc: 19? # number of classesdepth_multiple: 0.33? # model depth multiplewidth_multiple: 0.50? # layer channel multiple# anchorsanchors:- [10,13, 16,30, 33,23]? # P3/8- [30,61, 62,45, 59,119]? # P4/16- [116,90, 156,198, 373,326]? # P5/32# YOLOv5 backbonebackbone:# [from, number, module, args][[-1, 1, Focus, [64, 3]],? # 0-P1/2[-1, 1, Conv, [128, 3, 2]],? # 1-P2/4[-1, 3, C3, [128]],[-1, 1, Conv, [256, 3, 2]],? # 3-P3/8[-1, 9, C3, [256]],[-1, 1, Conv, [512, 3, 2]],? # 5-P4/16[-1, 9, C3, [512]],[-1, 1, Conv, [1024, 3, 2]],? # 7-P5/32[-1, 1, SPP, [1024, [5, 9, 13]]],[-1, 3, C3, [1024, False]],? # 9]# YOLOv5 headhead:[[-1, 1, Conv, [512, 1, 1]],[-1, 1, nn.Upsample, [None, 2, 'nearest']],[[-1, 6], 1, Concat, [1]],? # cat backbone P4[-1, 3, C3, [512, False]],? # 13[-1, 1, Conv, [256, 1, 1]],[-1, 1, nn.Upsample, [None, 2, 'nearest']],[[-1, 4], 1, Concat, [1]],? # cat backbone P3[-1, 3, C3, [256, False]],? # 17 (P3/8-small)[-1, 1, Conv, [256, 3, 2]],[[-1, 14], 1, Concat, [1]],? # cat head P4[-1, 3, C3, [512, False]],? # 20 (P4/16-medium)[-1, 1, Conv, [512, 3, 2]],[[-1, 10], 1, Concat, [1]],? # cat head P5[-1, 3, C3, [1024, False]],? # 23 (P5/32-large)[[17, 20, 23], 1, Detect, [nc, anchors]],? # Detect(P3, P4, P5)]

#5 train.py

import argparse
import logging
import math
import os

os.environ[
'KMP_DUPLICATE_LIB_OK'] = 'TRUE'
import random
import time
from pathlib import Path
from threading import Thread

import numpy as np
import torch.distributed as dist
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
import torch.optim.lr_scheduler as lr_scheduler
import torch.utils.data
import yaml
from torch.cuda import amp
from torch.nn.parallel import DistributedDataParallel as DDP
from torch.utils.tensorboard import SummaryWriter
from tqdm import tqdm

import test? # import test.py to get mAP after each epoch
from models.experimental import attempt_load
from models.yolo import Model
from utils.autoanchor import check_anchors
from utils.datasets import create_dataloader
from utils.general import labels_to_class_weights, increment_path, labels_to_image_weights, init_seeds, \
??? fitness
, strip_optimizer, get_latest_run, check_dataset, check_file, check_git_status, check_img_size, \
??? check_requirements
, print_mutation, set_logging, one_cycle, colorstr
from utils.google_utils import attempt_download
from utils.loss import ComputeLoss
from utils.plots import plot_images, plot_labels, plot_results, plot_evolution
from utils.torch_utils import ModelEMA, select_device, intersect_dicts, torch_distributed_zero_first

logger = logging.getLogger(__name__)



def train(hyp, opt, device, tb_writer=None, wandb=None):
??? logger.info(colorstr(
'hyperparameters: ') + ', '.join(f'{k}={v}' for k, v in hyp.items()))
??? save_dir
, epochs, batch_size, total_batch_size, weights, rank = \
??????? Path(opt.save_dir)
, opt.epochs, opt.batch_size, opt.total_batch_size, opt.weights, opt.global_rank

???
# Directories
???
wdir = save_dir / 'weights'
???
wdir.mkdir(parents=True, exist_ok=True)? # make dir
???
last = wdir / 'last.pt'
???
best = wdir / 'best.pt'
???
results_file = save_dir / 'results.txt'

???
# Save run settings
???
with open(save_dir / 'hyp.yaml', 'w') as f:
??????? yaml.dump(hyp
, f, sort_keys=False)
???
with open(save_dir / 'opt.yaml', 'w') as f:
??????? yaml.dump(
vars(opt), f, sort_keys=False)

???
# Configure
???
plots = not opt.evolve? # create plots
???
cuda = device.type != 'cpu'
???
init_seeds(2 + rank)
???
with open(opt.data) as f:
??????? data_dict = yaml.load(f
, Loader=yaml.SafeLoader)? # data dict
???
with torch_distributed_zero_first(rank):
??????? check_dataset(data_dict)?
# check
???
train_path = data_dict['train']
??? test_path = data_dict[
'val']
??? nc =
1 if opt.single_cls else int(data_dict['nc'])? # number of classes
???
names = ['item'] if opt.single_cls and len(data_dict['names']) != 1 else data_dict['names']? # class names
???
assert len(names) == nc, '%g names found for nc=%g dataset in %s' % (len(names), nc, opt.data)? # check

??? # Model
???
pretrained = weights.endswith('.pt')
???
if pretrained:
???????
with torch_distributed_zero_first(rank):
??????????? attempt_download(weights)?
# download if not found locally
???????
ckpt = torch.load(weights, map_location=device)? # load checkpoint
???????
if hyp.get('anchors'):
??????????? ckpt[
'model'].yaml['anchors'] = round(hyp['anchors'])? # force autoanchor
???????
model = Model(opt.cfg or ckpt['model'].yaml, ch=3, nc=nc).to(device)? # create
???????
exclude = ['anchor'] if opt.cfg or hyp.get('anchors') else []? # exclude keys
???????
state_dict = ckpt['model'].float().state_dict()? # to FP32
???????
state_dict = intersect_dicts(state_dict, model.state_dict(), exclude=exclude)? # intersect
???????
model.load_state_dict(state_dict, strict=False)? # load
???????
logger.info('Transferred %g/%g items from %s' % (len(state_dict), len(model.state_dict()), weights))? # report
???
else:
??????? model = Model(opt.cfg
, ch=3, nc=nc).to(device)? # create

??? # Freeze
???
freeze = []? # parameter names to freeze (full or partial)
???
for k, v in model.named_parameters():
??????? v.requires_grad =
True? # train all layers
???????
if any(x in k for x in freeze):
???????????
print('freezing %s' % k)
??????????? v.requires_grad =
False

???
# Optimizer
???
nbs = 64? # nominal batch size
???
accumulate = max(round(nbs / total_batch_size), 1)? # accumulate loss before optimizing
???
hyp['weight_decay'] *= total_batch_size * accumulate / nbs? # scale weight_decay
???
logger.info(f"Scaled weight_decay = {hyp['weight_decay']}")

??? pg0
, pg1, pg2 = [], [], []? # optimizer parameter groups
???
for k, v in model.named_modules():
???????
if hasattr(v, 'bias') and isinstance(v.bias, nn.Parameter):
??????????? pg2.append(v.bias)?
# biases
???????
if isinstance(v, nn.BatchNorm2d):
??????????? pg0.append(v.weight)?
# no decay
???????
elif hasattr(v, 'weight') and isinstance(v.weight, nn.Parameter):
??????????? pg1.append(v.weight)?
# apply decay

???
if opt.adam:
??????? optimizer = optim.Adam(pg0
, lr=hyp['lr0'], betas=(hyp['momentum'], 0.999))? # adjust beta1 to momentum
???
else:
??????? optimizer = optim.SGD(pg0
, lr=hyp['lr0'], momentum=hyp['momentum'], nesterov=True)

??? optimizer.add_param_group({
'params': pg1, 'weight_decay': hyp['weight_decay']})? # add pg1 with weight_decay
???
optimizer.add_param_group({'params': pg2})? # add pg2 (biases)
???
logger.info('Optimizer groups: %g .bias, %g conv.weight, %g other' % (len(pg2), len(pg1), len(pg0)))
???
del pg0, pg1, pg2

???
# Scheduler https://arxiv.org/pdf/1812.01187.pdf
??? # https://pytorch.org/docs/stable/_modules/torch/optim/lr_scheduler.html#OneCycleLR
???
lf = one_cycle(1, hyp['lrf'], epochs)? # cosine 1->hyp['lrf']
???
scheduler = lr_scheduler.LambdaLR(optimizer, lr_lambda=lf)
? ??
# plot_lr_scheduler(optimizer, scheduler, epochs)

??? # Logging
???
if rank in [-1, 0] and wandb and wandb.run is None:
??????? opt.hyp = hyp?
# add hyperparameters
???????
wandb_run = wandb.init(config=opt, resume="allow",
??????????????????????????????
project='YOLOv5' if opt.project == 'runs/train' else Path(opt.project).stem,
??????????????????????????????
name=save_dir.stem,
??????????????????????????????
id=ckpt.get('wandb_id') if 'ckpt' in locals() else None)
??? loggers = {
'wandb': wandb}? # loggers dict

??? # Resume
???
start_epoch, best_fitness = 0, 0.0
???
if pretrained:
???????
# Optimizer
???????
if ckpt['optimizer'] is not None:
??????????? optimizer.load_state_dict(ckpt[
'optimizer'])
??????????? best_fitness = ckpt[
'best_fitness']

???????
# Results
???????
if ckpt.get('training_results') is not None:
???????????
with open(results_file, 'w') as file:
??????????????? file.write(ckpt[
'training_results'])? # write results.txt

??????? # Epochs
????? ??
start_epoch = ckpt['epoch'] + 1
???????
if opt.resume:
???????????
assert start_epoch > 0, '%s training to %g epochs is finished, nothing to resume.' % (weights, epochs)
???????
if epochs < start_epoch:
??????????? logger.info(
'%s has been trained for %g epochs. Fine-tuning for %g additional epochs.' %
??????????????????????? (weights
, ckpt['epoch'], epochs))
??????????? epochs += ckpt[
'epoch']? # finetune additional epochs

???????
del ckpt, state_dict

???
# Image sizes
???
gs = int(model.stride.max())? # grid size (max stride)
???
nl = model.model[-1].nl? # number of detection layers (used for scaling hyp['obj'])
???
imgsz, imgsz_test = [check_img_size(x, gs) for x in opt.img_size]? # verify imgsz are gs-multiples

??? # DP mode
???
if cuda and rank == -1 and torch.cuda.device_count() > 1:
??????? model = torch.nn.DataParallel(model)

???
# SyncBatchNorm
???
if opt.sync_bn and cuda and rank != -1:
??????? model = torch.nn.SyncBatchNorm.convert_sync_batchnorm(model).to(device)
??????? logger.info(
'Using SyncBatchNorm()')

???
# EMA
???
ema = ModelEMA(model) if rank in [-1, 0] else None

???
# DDP mode
???
if cuda and rank != -1:
??????? model = DDP(model
, device_ids=[opt.local_rank], output_device=opt.local_rank)

???
# Trainloader
???
dataloader, dataset = create_dataloader(train_path, imgsz, batch_size, gs, opt,
???????????????????????????????????????????
hyp=hyp, augment=True, cache=opt.cache_images, rect=opt.rect, rank=rank,
??????????????????? ????????????????????????
world_size=opt.world_size, workers=opt.workers,
???????????????????????????????????????????
image_weights=opt.image_weights, quad=opt.quad, prefix=colorstr('train: '))
??? mlc = np.concatenate(dataset.labels
, 0)[:, 0].max()? # max label class
???
nb = len(dataloader)? # number of batches
???
assert mlc < nc, 'Label class %g exceeds nc=%g in %s. Possible class labels are 0-%g' % (mlc, nc, opt.data, nc - 1)

???
# Process 0
???
if rank in [-1, 0]:
??????? ema.updates = start_epoch * nb // accumulate?
# set EMA updates
???????
testloader = create_dataloader(test_path, imgsz_test, total_batch_size, gs, opt,? # testloader
??????????????????????????????????????
hyp=hyp, cache=opt.cache_images and not opt.notest, rect=True, rank=-1,
??????????????????????????????????????
world_size=opt.world_size, workers=opt.workers,
??????????????????????????????????????
pad=0.5, prefix=colorstr('val: '))[0]

???????
if not opt.resume:
??????????? labels = np.concatenate(dataset.labels
, 0)
??????????? c = torch.tensor(labels[:
, 0])? # classes
??????????? # cf = torch.bincount(c.long(), minlength=nc) + 1.? # frequency
??????????? # model._initialize_biases(cf.to(device))
???????????
if plots:
??????????????? plot_labels(labels
, save_dir, loggers)
???????????????
if tb_writer:
??????????????????? tb_writer.add_histogram(
'classes', c, 0)

???????????
# Anchors
???????????
if not opt.noautoanchor:
??????????????? check_anchors(dataset
, model=model, thr=hyp['anchor_t'], imgsz=imgsz)

???
# Model parameters
???
hyp['box'] *= 3. / nl? # scale to layers
???
hyp['cls'] *= nc / 80. * 3. / nl? # scale to classes and layers
???
hyp['obj'] *= (imgsz / 640) ** 2 * 3. / nl? # scale to image size and layers
???
model.nc = nc? # attach number of classes to model
???
model.hyp = hyp? # attach hyperparameters to model
???
model.gr = 1.0? # iou loss ratio (obj_loss = 1.0 or iou)
???
model.class_weights = labels_to_class_weights(dataset.labels, nc).to(device) * nc? # attach class weights
???
model.names = names

???
# Start training
???
t0 = time.time()
??? nw =
max(round(hyp['warmup_epochs'] * nb), 1000)? # number of warmup iterations, max(3 epochs, 1k iterations)
??? # nw = min(nw, (epochs - start_epoch) / 2 * nb)? # limit warmup to < 1/2 of training
???
maps = np.zeros(nc)? # mAP per class
???
results = (0, 0, 0, 0, 0, 0, 0)? # P, R, mAP@.5, mAP@.5-.95, val_loss(box, obj, cls)
???
scheduler.last_epoch = start_epoch - 1? # do not move
???
scaler = amp.GradScaler(enabled=cuda)
??? compute_loss = ComputeLoss(model)?
# init loss class
???
logger.info(f'Image sizes {imgsz} train, {imgsz_test} test\n'
??????????????? f'Using
{dataloader.num_workers} dataloader workers\n'
??????????????? f'Logging results to
{save_dir}\n'
??????????????? f'Starting training for
{epochs} epochs...')
???
for epoch in range(start_epoch, epochs):? # epoch ------------------------------------------------------------------
???????
model.train()

???????
# Update image weights (optional)
???????
if opt.image_weights:
???????????
# Generate indices
???????????
if rank in [-1, 0]:
??????????????? cw = model.class_weights.cpu().numpy() * (
1 - maps) ** 2 / nc? # class weights
???????????????
iw = labels_to_image_weights(dataset.labels, nc=nc, class_weights=cw)? # image weights
???????????????
dataset.indices = random.choices(range(dataset.n), weights=iw, k=dataset.n)? # rand weighted idx
??????????? # Broadcast if DDP
???????????
if rank != -1:
??????????????? indices = (torch.tensor(dataset.indices)
if rank == 0 else torch.zeros(dataset.n)).int()
??????????????? dist.broadcast(indices
, 0)
???????????????
if rank != 0:
??????????????????? dataset.indices = indices.cpu().numpy()

???????
# Update mosaic border
??????? # b = int(random.uniform(0.25 * imgsz, 0.75 * imgsz + gs) // gs * gs)
??????? # dataset.mosaic_border = [b - imgsz, -b]? # height, width borders

???????
mloss = torch.zeros(4, device=device)? # mean losses
???????
if rank != -1:
??????????? dataloader.sampler.set_epoch(epoch)
??????? pbar =
enumerate(dataloader)
??????? logger.info((
'\n' + '%10s' * 8) % ('Epoch', 'gpu_mem', 'box', 'obj', 'cls', 'total', 'targets', 'img_size'))
???????
if rank in [-1, 0]:
??????????? pbar = tqdm(pbar
, total=nb)? # progress bar
???????
optimizer.zero_grad()
???????
for i, (imgs, targets, paths, _) in pbar:? # batch -------------------------------------------------------------
???????????
ni = i + nb * epoch? # number integrated batches (since train start)
???????????
imgs = imgs.to(device, non_blocking=True).float() / 255.0? # uint8 to float32, 0-255 to 0.0-1.0

??????????? # Warmup
???????????
if ni <= nw:
??????????????? xi = [
0, nw]? # x interp
??????????????? # model.gr = np.interp(ni, xi, [0.0, 1.0])? # iou loss ratio (obj_loss = 1.0 or iou)
???????????????
accumulate = max(1, np.interp(ni, xi, [1, nbs / total_batch_size]).round())
???????????????
for j, x in enumerate(optimizer.param_groups):
???????????????????
# bias lr falls from 0.1 to lr0, all other lrs rise from 0.0 to lr0
???????????????????
x['lr'] = np.interp(ni, xi, [hyp['warmup_bias_lr'] if j == 2 else 0.0, x['initial_lr'] * lf(epoch)])
???????????????????
if 'momentum' in x:
??????????????????????? x[
'momentum'] = np.interp(ni, xi, [hyp['warmup_momentum'], hyp['momentum']])

???????????
# Multi-scale
???????????
if opt.multi_scale:
??????????????? sz = random.randrange(imgsz *
0.5, imgsz * 1.5 + gs) // gs * gs? # size
???????????????
sf = sz / max(imgs.shape[2:])? # scale factor
???????????????
if sf != 1:
??????????????????? ns = [math.ceil(x * sf / gs) * gs
for x in imgs.shape[2:]]? # new shape (stretched to gs-multiple)
???????????????????
imgs = F.interpolate(imgs, size=ns, mode='bilinear', align_corners=False)

???????????
# Forward
???????????
with amp.autocast(enabled=cuda):
??????????????? pred = model(imgs)?
# forward
???????????????
loss, loss_items = compute_loss(pred, targets.to(device))? # loss scaled by batch_size
???????????????
if rank != -1:
??????????????????? loss *= opt.world_size?
# gradient averaged between devices in DDP mode
???????????????
if opt.quad:
??????????????????? loss *=
4.

???????????
# Backward
???????????
scaler.scale(loss).backward()

???????????
# Optimize
???????????
if ni % accumulate == 0:
??????????????? scaler.step(optimizer)?
# optimizer.step
???????????????
scaler.update()
??????????????? optimizer.zero_grad()
???????????????
if ema:
??????????????????? ema.update(model)

???????????
# Print
???????????
if rank in [-1, 0]:
??????????????? mloss = (mloss * i + loss_items) / (i +
1)? # update mean losses
???????????????
mem = '%.3gG' % (torch.cuda.memory_reserved() / 1E9 if torch.cuda.is_available() else 0)? # (GB)
???????????????
s = ('%10s' * 2 + '%10.4g' * 6) % (
???????????????????
'%g/%g' % (epoch, epochs - 1), mem, *mloss, targets.shape[0], imgs.shape[-1])
??????????????? pbar.set_description(s)

???????????????
# Plot
???????????????
if plots and ni < 3:
??????????????????? f = save_dir /
f'train_batch{ni}.jpg'? # filename
???????????????????
Thread(target=plot_images, args=(imgs, targets, paths, f), daemon=True).start()
???????????????????
# if tb_writer:
??????????????????? #???? tb_writer.add_image(f, result, dataformats='HWC', global_step=epoch)
??????????????????? #???? tb_writer.add_graph(model, imgs)? # add model to tensorboard
???????????????
elif plots and ni == 10 and wandb:
??????????????????? wandb.log({
"Mosaics": [wandb.Image(str(x), caption=x.name) for x in save_dir.glob('train*.jpg')
??????????????????????????????????????????
if x.exists()]}, commit=False)

???????????
# end batch ------------------------------------------------------------------------------------------------
??????? # end epoch ----------------------------------------------------------------------------------------------------

??????? # Scheduler
???????
lr = [x['lr'] for x in optimizer.param_groups]? # for tensorboard
???????
scheduler.step()

???????
# DDP process 0 or single-GPU
???????
if rank in [-1, 0]:
???????????
# mAP
???????????
if ema:
??????????????? ema.update_attr(model
, include=['yaml', 'nc', 'hyp', 'gr', 'names', 'stride', 'class_weights'])
??????????? final_epoch = epoch +
1 == epochs
???????????
if not opt.notest or final_epoch:? # Calculate mAP
???????????????
results, maps, times = test.test(opt.data,
?????????????????????????????????????????? ??????
batch_size=total_batch_size,
????????????????????????????????????????????????
imgsz=imgsz_test,
????????????????????????????????????????????????
model=ema.ema,
????????????????????????????????????????????????
single_cls=opt.single_cls,
????????????????????????????????????????????????
dataloader=testloader,
????????????????????????????????????????????????
save_dir=save_dir,
??????????????????????????????????????? ?????????
verbose=nc < 50 and final_epoch,
????????????????????????????????????????????????
plots=plots and final_epoch,
????????????????????????????????????????????????
log_imgs=opt.log_imgs if wandb else 0,
??????????????????????????????????????????????? ?
compute_loss=compute_loss)

???????????
# Write
???????????
with open(results_file, 'a') as f:
??????????????? f.write(s +
'%10.4g' * 7 % results + '\n')? # P, R, mAP@.5, mAP@.5-.95, val_loss(box, obj, cls)
???????????
if len(opt.name) and opt.bucket:
??????????????? os.system(
'gsutil cp %s gs://%s/results/results%s.txt' % (results_file, opt.bucket, opt.name))

???????????
# Log
???????????
tags = ['train/box_loss', 'train/obj_loss', 'train/cls_loss',? # train loss
???????????????????
'metrics/precision', 'metrics/recall', 'metrics/mAP_0.5', 'metrics/mAP_0.5:0.95',
???????????????????
'val/box_loss', 'val/obj_loss', 'val/cls_loss',? # val loss
???????????????????
'x/lr0', 'x/lr1', 'x/lr2']? # params
???????????
for x, tag in zip(list(mloss[:-1]) + list(results) + lr, tags):
???????????????
if tb_writer:
??????????????????? tb_writer.add_scalar(tag
, x, epoch)? # tensorboard
???????????????
if wandb:
??????????????????? wandb.log({tag: x}
, step=epoch, commit=tag == tags[-1])? # W&B

??????????? # Update best mAP
???????????
fi = fitness(np.array(results).reshape(1, -1))? # weighted combination of [P, R, mAP@.5, mAP@.5-.95]
???????????
if fi > best_fitness:
??????????????? best_fitness = fi

???????????
# Save model
???????????
save = (not opt.nosave) or (final_epoch and not opt.evolve)
???????????
if save:
???????????????
with open(results_file, 'r') as f:? # create checkpoint
???????????????????
ckpt = {'epoch': epoch,
???????????????????????????
'best_fitness': best_fitness,
???????????????????????????
'training_results': f.read(),
???????????????????????????
'model': ema.ema,
???????????????????????????
'optimizer': None if final_epoch else optimizer.state_dict(),
???????????????????????????
'wandb_id': wandb_run.id if wandb else None}

???????????????
# Save last, best and delete
???????????????
torch.save(ckpt, last)
???????????????
if best_fitness == fi:
??????????????????? torch.save(ckpt
, best)
???????????????
del ckpt
???????
# end epoch ----------------------------------------------------------------------------------------------------
??? # end training

???
if rank in [-1, 0]:
???????
# Strip optimizers
???????
final = best if best.exists() else last? # final model
???????
for f in [last, best]:
???????????
if f.exists():
??????????????? strip_optimizer(f)?
# strip optimizers
???????
if opt.bucket:
??????????? os.system(
f'gsutil cp {final} gs://{opt.bucket}/weights')? # upload

??????? # Plots
???????
if plots:
??????????? plot_results(
save_dir=save_dir)? # save as results.png
???????????
if wandb:
??????????????? files = [
'results.png', 'confusion_matrix.png', *[f'{x}_curve.png' for x in ('F1', 'PR', 'P', 'R')]]
??????????????? wandb.log({
"Results": [wandb.Image(str(save_dir / f), caption=f) for f in files
??????????????????????????????????????
if (save_dir / f).exists()]})
???????????????
if opt.log_artifacts:
??????????????????? wandb.log_artifact(
artifact_or_path=str(final), type='model', name=save_dir.stem)

???????
# Test best.pt
???????
logger.info('%g epochs completed in %.3f hours.\n' % (epoch - start_epoch + 1, (time.time() - t0) / 3600))
???????
if opt.data.endswith('coco.yaml') and nc == 80:? # if COCO
???????????
for conf, iou, save_json in ([0.25, 0.45, False], [0.001, 0.65, True]):? # speed, mAP tests
???????????????
results, _, _ = test.test(opt.data,
?????????????????????????????????????????
batch_size=total_batch_size,
?????????????????????????????????????????
imgsz=imgsz_test,
?????????????????????????????????????????
conf_thres=conf,
?????????????????????????????????????????
iou_thres=iou,
?????????????????????????????????????????
model=attempt_load(final, device).half(),
?????????????????????????????????????????
single_cls=opt.single_cls,
?????????????????????????????????????????
dataloader=testloader,
?????????????????????????????????????????
save_dir=save_dir,
?????????????????????????????????????????
save_json=save_json,
?????????????????????????????????????????
plots=False)

???
else:
??????? dist.destroy_process_group()

??? wandb.run.finish()
if wandb and wandb.run else None
???
torch.cuda.empty_cache()
???
return results


if __name__ == '__main__':
??? parser = argparse.ArgumentParser()
??? parser.add_argument(
'--weights', type=str, default='yolov5s.pt', help='initial weights path')
??? parser.add_argument(
'--cfg', type=str, default='', help='model.yaml path')
??? parser.add_argument(
'--data', type=str, default='data/tube.yaml', help='data.yaml path')
??? parser.add_argument(
'--hyp', type=str, default='data/hyp.scratch.yaml', help='hyperparameters path')
??? parser.add_argument(
'--epochs', type=int, default=100)
??? parser.add_argument(
'--batch-size', type=int, default=8, help='total batch size for all GPUs')
??? parser.add_argument(
'--img-size', nargs='+', type=int, default=[640, 640], help='[train, test] image sizes')
??? parser.add_argument(
'--rect', action='store_true', help='rectangular training')
??? parser.add_argument(
'--resume', nargs='?', const=True, default=False, help='resume most recent training')
??? parser.add_argument(
'--nosave', action='store_true', help='only save final checkpoint')
??? parser.add_argument(
'--notest', action='store_true', help='only test final epoch')
??? parser.add_argument(
'--noautoanchor', action='store_true', help='disable autoanchor check')
??? parser.add_argument(
'--evolve', action='store_true', help='evolve hyperparameters')
??? parser.add_argument(
'--bucket', type=str, default='', help='gsutil bucket')
??? parser.add_argument(
'--cache-images', action='store_true', help='cache images for faster training')
??? parser.add_argument(
'--image-weights', action='store_true', help='use weighted image selection for training')
??? parser.add_argument(
'--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
??? parser.add_argument(
'--multi-scale', action='store_true', help='vary img-size +/- 50%%')
??? parser.add_argument(
'--single-cls', action='store_true', help='train multi-class data as single-class')
??? parser.add_argument(
'--adam', action='store_true', help='use torch.optim.Adam() optimizer')
??? parser.add_argument(
'--sync-bn', action='store_true', help='use SyncBatchNorm, only available in DDP mode')
??? parser.add_argument(
'--local_rank', type=int, default=-1, help='DDP parameter, do not modify')
??? parser.add_argument(
'--log-imgs', type=int, default=16, help='number of images for W&B logging, max 100')
??? parser.add_argument(
'--log-artifacts', action='store_true', help='log artifacts, i.e. final trained model')
??? parser.add_argument(
'--workers', type=int, default=0, help='maximum number of dataloader workers')
??? parser.add_argument(
'--project', default='runs/train', help='save to project/name')
??? parser.add_argument(
'--name', default='exp', help='save to project/name')
??? parser.add_argument(
'--exist-ok', action='store_true', help='existing project/name ok, do not increment')
??? parser.add_argument(
'--quad', action='store_true', help='quad dataloader')
??? opt = parser.parse_args()

???
# Set DDP variables
???
opt.world_size = int(os.environ['WORLD_SIZE']) if 'WORLD_SIZE' in os.environ else 1
???
opt.global_rank = int(os.environ['RANK']) if 'RANK' in os.environ else -1
???
set_logging(opt.global_rank)
???
if opt.global_rank in [-1, 0]:
??????? check_git_status()
??????? check_requirements()

???
# Resume
???
if opt.resume:? # resume an interrupted run
???????
ckpt = opt.resume if isinstance(opt.resume, str) else get_latest_run()? # specified or most recent path
???????
assert os.path.isfile(ckpt), 'ERROR: --resume checkpoint does not exist'
???????
apriori = opt.global_rank, opt.local_rank
???????
with open(Path(ckpt).parent.parent / 'opt.yaml') as f:
??????????? opt = argparse.Namespace(**yaml.load(f
, Loader=yaml.SafeLoader))? # replace
???????
opt.cfg, opt.weights, opt.resume, opt.batch_size, opt.global_rank, opt.local_rank = '', ckpt, True, opt.total_batch_size, *apriori? # reinstate
???????
logger.info('Resuming training from %s' % ckpt)
???
else:
???????
# opt.hyp = opt.hyp or ('hyp.finetune.yaml' if opt.weights else 'hyp.scratch.yaml')
???????
opt.data, opt.cfg, opt.hyp = check_file(opt.data), check_file(opt.cfg), check_file(opt.hyp)? # check files
???????
assert len(opt.cfg) or len(opt.weights), 'either --cfg or --weights must be specified'
???????
opt.img_size.extend([opt.img_size[-1]] * (2 - len(opt.img_size)))? # extend to 2 sizes (train, test)
???????
opt.name = 'evolve' if opt.evolve else opt.name
??????? opt.save_dir = increment_path(Path(opt.project) / opt.name
, exist_ok=opt.exist_ok | opt.evolve)? # increment run

??? # DDP mode
???
opt.total_batch_size = opt.batch_size
??? device = select_device(opt.device
, batch_size=opt.batch_size)
???
if opt.local_rank != -1:
???????
assert torch.cuda.device_count() > opt.local_rank
??????? torch.cuda.set_device(opt.local_rank)
??????? device = torch.device(
'cuda', opt.local_rank)
??????? dist.init_process_group(
backend='nccl', init_method='env://')? # distributed backend
???????
assert opt.batch_size % opt.world_size == 0, '--batch-size must be multiple of CUDA device count'
???????
opt.batch_size = opt.total_batch_size // opt.world_size

???
# Hyperparameters
???
with open(opt.hyp) as f:
??????? hyp = yaml.load(f
, Loader=yaml.SafeLoader)? # load hyps

??? # Train
???
logger.info(opt)
???
# try:
??? #???? #import wandb
??? # except ImportError:
???
wandb = None
???
prefix = colorstr('wandb: ')
??? logger.info(
f"{prefix}Install Weights & Biases for YOLOv5 logging with 'pip install wandb' (recommended)")
???
if not opt.evolve:
??????? tb_writer =
None? # init loggers
???????
if opt.global_rank in [-1, 0]:
??????????? logger.info(
f'Start Tensorboard with "tensorboard --logdir {opt.project}", view at http://localhost:6006/')
??????????? tb_writer = SummaryWriter(opt.save_dir)?
# Tensorboard
???????
train(hyp, opt, device, tb_writer, wandb)

???
# Evolve hyperparameters (optional)
???
else:
???????
# Hyperparameter evolution metadata (mutation scale 0-1, lower_limit, upper_limit)
???????
meta = {'lr0': (1, 1e-5, 1e-1),? # initial learning rate (SGD=1E-2, Adam=1E-3)
???????????????
'lrf': (1, 0.01, 1.0),? # final OneCycleLR learning rate (lr0 * lrf)
???????????????
'momentum': (0.3, 0.6, 0.98),? # SGD momentum/Adam beta1
???????????????
'weight_decay': (1, 0.0, 0.001),? # optimizer weight decay
???????????????
'warmup_epochs': (1, 0.0, 5.0),? # warmup epochs (fractions ok)
???????????????
'warmup_momentum': (1, 0.0, 0.95),? # warmup initial momentum
???????????????
'warmup_bias_lr': (1, 0.0, 0.2),? # warmup initial bias lr
???????????????
'box': (1, 0.02, 0.2),? # box loss gain
???????????????
'cls': (1, 0.2, 4.0),? # cls loss gain
???????????????
'cls_pw': (1, 0.5, 2.0),? # cls BCELoss positive_weight
???????????????
'obj': (1, 0.2, 4.0),? # obj loss gain (scale with pixels)
???????????????
'obj_pw': (1, 0.5, 2.0),? # obj BCELoss positive_weight
???????????????
'iou_t': (0, 0.1, 0.7),? # IoU training threshold
???????????????
'anchor_t': (1, 2.0, 8.0),? # anchor-multiple threshold
???????????????
'anchors': (2, 2.0, 10.0),? # anchors per output grid (0 to ignore)
???????????????
'fl_gamma': (0, 0.0, 2.0),? # focal loss gamma (efficientDet default gamma=1.5)
???????????????
'hsv_h': (1, 0.0, 0.1),? # image HSV-Hue augmentation (fraction)
???????????????
'hsv_s': (1, 0.0, 0.9),? # image HSV-Saturation augmentation (fraction)
???????????????
'hsv_v': (1, 0.0, 0.9),? # image HSV-Value augmentation (fraction)
???????????????
'degrees': (1, 0.0, 45.0),? # image rotation (+/- deg)
???????????????
'translate': (1, 0.0, 0.9),? # image translation (+/- fraction)
???????????????
'scale': (1, 0.0, 0.9),? # image scale (+/- gain)
???????????????
'shear': (1, 0.0, 10.0),? # image shear (+/- deg)
???????????????
'perspective': (0, 0.0, 0.001),? # image perspective (+/- fraction), range 0-0.001
???????????????
'flipud': (1, 0.0, 1.0),? # image flip up-down (probability)
???????????????
'fliplr': (0, 0.0, 1.0),? # image flip left-right (probability)
???????????????
'mosaic': (1, 0.0, 1.0),? # image mixup (probability)
???????????????
'mixup': (1, 0.0, 1.0)}? # image mixup (probability)

???????
assert opt.local_rank == -1, 'DDP mode not implemented for --evolve'
???????
opt.notest, opt.nosave = True, True? # only test/save final epoch
??????? # ei = [isinstance(x, (int, float)) for x in hyp.values()]? # evolvable indices
???????
yaml_file = Path(opt.save_dir) / 'hyp_evolved.yaml'? # save best result here
???????
if opt.bucket:
??????????? os.system(
'gsutil cp gs://%s/evolve.txt .' % opt.bucket)? # download evolve.txt if exists

???????
for _ in range(300):? # generations to evolve
???????????
if Path('evolve.txt').exists():? # if evolve.txt exists: select best hyps and mutate
??????????????? # Select parent(s)
???????????????
parent = 'single'? # parent selection method: 'single' or 'weighted'
???????????????
x = np.loadtxt('evolve.txt', ndmin=2)
???? ???????????n =
min(5, len(x))? # number of previous results to consider
???????????????
x = x[np.argsort(-fitness(x))][:n]? # top n mutations
???????????????
w = fitness(x) - fitness(x).min()? # weights
???????????????
if parent == 'single' or len(x) == 1:
???????????????????
# x = x[random.randint(0, n - 1)]? # random selection
???????????????????
x = x[random.choices(range(n), weights=w)[0]]? # weighted selection
???????????????
elif parent == 'weighted':
??????????????????? x = (x * w.reshape(n
, 1)).sum(0) / w.sum()? # weighted combination

??????????????? # Mutate
???????????????
mp, s = 0.8, 0.2? # mutation probability, sigma
???????????????
npr = np.random
??????????????? npr.seed(
int(time.time()))
??????????????? g = np.array([x[
0] for x in meta.values()])? # gains 0-1
???????????????
ng = len(meta)
??????????????? v = np.ones(ng)
???????????????
while all(v == 1):? # mutate until a change occurs (prevent duplicates)
???????????????????
v = (g * (npr.random(ng) < mp) * npr.randn(ng) * npr.random() * s + 1).clip(0.3, 3.0)
???????????????
for i, k in enumerate(hyp.keys()):? # plt.hist(v.ravel(), 300)
???????????????????
hyp[k] = float(x[i + 7] * v[i])? # mutate

??????????? # Constrain to limits
???????????
for k, v in meta.items():
??????????????? hyp[k] =
max(hyp[k], v[1])? # lower limit
???????????????
hyp[k] = min(hyp[k], v[2])? # upper limit
???????????????
hyp[k] = round(hyp[k], 5)? # significant digits

??????????? # Train mutation
???????????
results = train(hyp.copy(), opt, device, wandb=wandb)

???????????
# Write mutation results
???????????
print_mutation(hyp.copy(), results, yaml_file, opt.bucket)

???????
# Plot results
???????
plot_evolution(yaml_file)
???????
print(f'Hyperparameter evolution complete. Best results saved as: {yaml_file}\n'
????????????? f'Command to train a new model with these hyperparameters: $ python train.py --hyp
{yaml_file}')

#6 detect.py

"""Run inference with a YOLOv5 model on images, videos, directories, streamsUsage:$ python path/to/detect.py --source path/to/img.jpg --weights yolov5s.pt --img 640"""import argparseimport sysimport timefrom pathlib import Pathimport cv2import torchimport torch.backends.cudnn as cudnnFILE = Path(__file__).absolute()sys.path.append(FILE.parents[0].as_posix())? # add yolov5/ to pathfrom models.experimental import attempt_loadfrom utils.datasets import LoadStreams, LoadImagesfrom utils.general import check_img_size, check_requirements, check_imshow, colorstr, non_max_suppression, \apply_classifier, scale_coords, xyxy2xywh, strip_optimizer, set_logging, increment_path, save_one_boxfrom utils.plots import colors, plot_one_boxfrom utils.torch_utils import select_device, load_classifier, time_sync@torch.no_grad()def run(weights='E:/555/555/yolov5-master/runs/train/exp24/weights/best.pt',? # model.pt path(s),E:/555/555/yolov5-master/runs/train/exp24/weights/best.pt? 默認: yolov5s.ptsource='data/images',? # file/dir/URL/glob, 0 for webcamimgsz=640,? # inference size (pixels)conf_thres=0.25,? # confidence thresholdiou_thres=0.45,? # NMS IOU thresholdmax_det=1000,? # maximum detections per imagedevice='',? # cuda device, i.e. 0 or 0,1,2,3 or cpu 默認使用GPU,選擇CPU時那么會在CPU設備檢測view_img=True,? # show results 顯示檢測的結果save_txt=False,? # save results to *.txtsave_conf=False,? # save confidences in --save-txt labelssave_crop=False,? # save cropped prediction boxesnosave=False,? # do not save images/videosclasses=None,? # filter by class: --class 0, or --class 0 2 3agnostic_nms=False,? # class-agnostic NMSaugment=False,? # augmented inferencevisualize=False,? # visualize featuresupdate=False,? # update all modelsproject='runs/detect',? # save results to project/namename='exp',? # save results to project/nameexist_ok=False,? # existing project/name ok, do not incrementline_thickness=3,? # bounding box thickness (pixels)hide_labels=False,? # hide labelshide_conf=False,? # hide confidenceshalf=False,? # use FP16 half-precision inference):"""opt參數(shù)詳解weights:測試的模型權重文件data:數(shù)據(jù)集配置文件,數(shù)據(jù)集路徑,類名等batch-size:前向傳播時的批次, 默認32img-size:輸入圖片分辨率大小, 默認640conf-thres:篩選框的時候的置信度閾值, 默認0.001iou-thres:進行NMS的時候的IOU閾值, 默認0.65save-json:是否按照coco的json格式保存預測框,并且使用cocoapi做評估(需要同樣coco的json格式的標簽), 默認Falsetask:設置測試形式, 默認val, 具體可看下面代碼解析注釋device:測試的設備,cpu;0(表示一個gpu設備cuda:0);0,1,2,3(多個gpu設備)single-cls:數(shù)據(jù)集是否只有一個類別,默認Falseaugment:測試時是否使用TTA(test time augmentation), 默認Falsemerge:在進行NMS時,是否通過合并方式獲得預測框, 默認Falseverbose:是否打印出每個類別的mAP, 默認Falsesave-txt:是否以txt文件的形式保存模型預測的框坐標, 默認False"""save_img = not nosave and not source.endswith('.txt')? # save inference imageswebcam = source.isnumeric() or source.endswith('.txt') or source.lower().startswith(('rtsp://', 'rtmp://', 'http://', 'https://'))# Directoriessave_dir = increment_path(Path(project) / name, exist_ok=exist_ok)? # increment run(save_dir / 'labels' if save_txt else save_dir).mkdir(parents=True, exist_ok=True)? # make dir# Initializeset_logging()device = select_device(device)half &= device.type != 'cpu'? # half precision only supported on CUDA# Load modelw = weights[0] if isinstance(weights, list) else weightsclassify, pt, onnx = False, w.endswith('.pt'), w.endswith('.onnx')? # inference typestride, names = 64, [f'class{i}' for i in range(1000)]? # assign defaultsif pt:model = attempt_load(weights, map_location=device)? # load FP32 modelstride = int(model.stride.max())? # model stridenames = model.module.names if hasattr(model, 'module') else model.names? # get class namesif half:model.half()? # to FP16if classify:? # second-stage classifiermodelc = load_classifier(name='resnet50', n=2)? # initializemodelc.load_state_dict(torch.load('resnet50.pt', map_location=device)['model']).to(device).eval()elif onnx:check_requirements(('onnx', 'onnxruntime'))import onnxruntimesession = onnxruntime.InferenceSession(w, None)imgsz = check_img_size(imgsz, s=stride)? # check image size# Dataloaderif webcam:view_img = check_imshow()cudnn.benchmark = True? # set True to speed up constant image size inferencedataset = LoadStreams(source, img_size=imgsz, stride=stride)bs = len(dataset)? # batch_sizeelse:dataset = LoadImages(source, img_size=imgsz, stride=stride)bs = 1? # batch_sizevid_path, vid_writer = [None] * bs, [None] * bs# Run inferenceif pt and device.type != 'cpu':model(torch.zeros(1, 3, imgsz, imgsz).to(device).type_as(next(model.parameters())))? # run oncet0 = time.time()for path, img, im0s, vid_cap in dataset:if pt:img = torch.from_numpy(img).to(device)img = img.half() if half else img.float()? # uint8 to fp16/32elif onnx:img = img.astype('float32')img /= 255.0? # 0 - 255 to 0.0 - 1.0if len(img.shape) == 3:img = img[None]? # expand for batch dim# Inferencet1 = time_sync()if pt:visualize = increment_path(save_dir / Path(path).stem, mkdir=True) if visualize else Falsepred = model(img, augment=augment, visualize=visualize)[0]elif onnx:pred = torch.tensor(session.run([session.get_outputs()[0].name], {session.get_inputs()[0].name: img}))# NMSpred = non_max_suppression(pred, conf_thres, iou_thres, classes, agnostic_nms, max_det=max_det)t2 = time_sync()# Second-stage classifier (optional)if classify:pred = apply_classifier(pred, modelc, img, im0s)# Process predictionsfor i, det in enumerate(pred):? # detections per imageif webcam:? # batch_size >= 1p, s, im0, frame = path[i], f'{i}: ', im0s[i].copy(), dataset.countelse:p, s, im0, frame = path, '', im0s.copy(), getattr(dataset, 'frame', 0)p = Path(p)? # to Pathsave_path = str(save_dir / p.name)? # img.jpgtxt_path = str(save_dir / 'labels' / p.stem) + ('' if dataset.mode == 'image' else f'_{frame}')? # img.txts += '%gx%g ' % img.shape[2:]? # print stringgn = torch.tensor(im0.shape)[[1, 0, 1, 0]]? # normalization gain whwhimc = im0.copy() if save_crop else im0? # for save_cropif len(det):# Rescale boxes from img_size to im0 sizedet[:, :4] = scale_coords(img.shape[2:], det[:, :4], im0.shape).round()# Print resultsfor c in det[:, -1].unique():n = (det[:, -1] == c).sum()? # detections per classs += f"{n} {names[int(c)]}{'s' * (n > 1)}, "? # add to string# Write resultsfor *xyxy, conf, cls in reversed(det):if save_txt:? # Write to filexywh = (xyxy2xywh(torch.tensor(xyxy).view(1, 4)) / gn).view(-1).tolist()? # normalized xywhline = (cls, *xywh, conf) if save_conf else (cls, *xywh)? # label formatwith open(txt_path + '.txt', 'a') as f:f.write(('%g ' * len(line)).rstrip() % line + '\n')if save_img or save_crop or view_img:? # Add bbox to imagec = int(cls)? # integer classlabel = None if hide_labels else (names[c] if hide_conf else f'{names[c]} {conf:.2f}')plot_one_box(xyxy, im0, label=label, color=colors(c, True), line_thickness=line_thickness)if save_crop:save_one_box(xyxy, imc, file=save_dir / 'crops' / names[c] / f'{p.stem}.jpg', BGR=True)# Print time (inference + NMS)print(f'{s}Done. ({t2 - t1:.3f}s)')# Stream resultsif view_img:cv2.imshow(str(p), im0)cv2.waitKey(1)? # 1 millisecond# Save results (image with detections)if save_img:if dataset.mode == 'image':cv2.imwrite(save_path, im0)else:? # 'video' or 'stream'if vid_path[i] != save_path:? # new videovid_path[i] = save_pathif isinstance(vid_writer[i], cv2.VideoWriter):vid_writer[i].release()? # release previous video writerif vid_cap:? # videofps = vid_cap.get(cv2.CAP_PROP_FPS)w = int(vid_cap.get(cv2.CAP_PROP_FRAME_WIDTH))h = int(vid_cap.get(cv2.CAP_PROP_FRAME_HEIGHT))else:? # streamfps, w, h = 30, im0.shape[1], im0.shape[0]save_path += '.mp4'vid_writer[i] = cv2.VideoWriter(save_path, cv2.VideoWriter_fourcc(*'mp4v'), fps, (w, h))vid_writer[i].write(im0)if save_txt or save_img:s = f"\n{len(list(save_dir.glob('labels/*.txt')))} labels saved to {save_dir / 'labels'}" if save_txt else ''print(f"Results saved to {colorstr('bold', save_dir)}{s}")if update:strip_optimizer(weights)? # update model (to fix SourceChangeWarning)print(f'Done. ({time.time() - t0:.3f}s)')def parse_opt():#這里參數(shù)可以修改parser = argparse.ArgumentParser()parser.add_argument('--weights', nargs='+', type=str, default='E:/555/555/yolov5-master/runs/train/exp24/weights/best.pt', help='model.pt path(s)') #打開訓練完的自己數(shù)據(jù)集(best.pt)路徑: E:/555/555/yolov5-master/runs/train/exp14/weights/best.ptparser.add_argument('--source', type=str, default='0', help='file/dir/URL/glob, 0 for webcam')#data/images,打開普通照片路徑:E:/555/555/mydata3/test,打開攝像頭:0parser.add_argument('--imgsz', '--img', '--img-size', type=int, default=640, help='inference size (pixels)')parser.add_argument('--conf-thres', type=float, default=0.25, help='confidence threshold')parser.add_argument('--iou-thres', type=float, default=0.45, help='NMS IoU threshold')parser.add_argument('--max-det', type=int, default=1000, help='maximum detections per image')parser.add_argument('--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')parser.add_argument('--view-img', action='store_true', help='show results')parser.add_argument('--save-txt', action='store_true', help='save results to *.txt')parser.add_argument('--save-conf', action='store_true', help='save confidences in --save-txt labels')parser.add_argument('--save-crop', action='store_true', help='save cropped prediction boxes')parser.add_argument('--nosave', action='store_true', help='do not save images/videos')parser.add_argument('--classes', nargs='+', type=int, help='filter by class: --class 0, or --class 0 2 3')parser.add_argument('--agnostic-nms', action='store_true', help='class-agnostic NMS')parser.add_argument('--augment', action='store_true', help='augmented inference')parser.add_argument('--visualize', action='store_true', help='visualize features')parser.add_argument('--update', action='store_true', help='update all models')parser.add_argument('--project', default='runs/detect', help='save results to project/name')parser.add_argument('--name', default='exp', help='save results to project/name')parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')parser.add_argument('--line-thickness', default=3, type=int, help='bounding box thickness (pixels)')parser.add_argument('--hide-labels', default=False, action='store_true', help='hide labels')parser.add_argument('--hide-conf', default=False, action='store_true', help='hide confidences')parser.add_argument('--half', action='store_true', help='use FP16 half-precision inference')opt = parser.parse_args()return optdef main(opt):print(colorstr('detect: ') + ', '.join(f'{k}={v}' for k, v in vars(opt).items()))check_requirements(exclude=('tensorboard', 'thop'))run(**vars(opt))if __name__ == "__main__":opt = parse_opt()main(opt)

#7 Video.py(每間隔3秒對應的幀數(shù)采集照片并yolov5檢測最后保存)

import timeimport cv2import numpy as npfrom PIL import Imageimport detect# from detect import parse_opt #這里的detect是detect.py(yolov5的檢測)文件,parse_opt表示檢測參數(shù)的設置# detect = parse_optcapture = cv2.VideoCapture(0)# capture=cv2.VideoCapture("D:/1.mp4")if capture.isOpened():ref, frame = capture.read()else:ref = Falsefps = 0.0timeF = 420?? #yolov5每秒140幀(FPS)c = 1while ref:t1 = time.time()# 讀取某一幀ref, frame = capture.read()# 此處保存圖片無檢測結果,用于采集訓練數(shù)據(jù)和測試攝像頭是否清晰穩(wěn)定if (c % timeF == 0):fps = (fps + (1. / (time.time() - t1))) / 2print("fps= %.2f" % (fps))frame = cv2.putText(frame, "fps= %.2f" % (fps), (0, 40), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 255, 0), 2)# 采集到每隔420幀的圖像,保存到/runs/img./in/cv2.imwrite("./runs/img/in/" + str(c) + '.jpg', frame)# 將采集到的/runs/img./in/圖像輸入detect檢測,結果保存在/runs/img/outdetect.run(source="./runs/img/in/" + str(c) + '.jpg', name='../img/out/photo')c += 1# print(frame)## # 格式轉(zhuǎn)變,BGRtoRGB# frame = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB)# # 轉(zhuǎn)變成Image# frame = Image.fromarray(np.uint8(frame))# # 進行檢測# frame = np.array(detect.run(source=frame))# # RGBtoBGR滿足opencv顯示格式# frame = cv2.cvtColor(frame, cv2.COLOR_RGB2BGR)## # 此處保存的圖片有檢測結果,用于保留檢測結果# if (c % timeF == 0):#???? cv2.imwrite("./runs/" + str(c) + '.jpg', frame)# c += 1## fps = (fps + (1. / (time.time() - t1))) / 2# print("fps= %.2f" % (fps))# frame = cv2.putText(frame, "fps= %.2f" % (fps), (0, 40), cv2.FONT_HERSHEY_SIMPLEX, 1, (0, 255, 0), 2)# 此處保存的圖片上既有檢測結果,也有fps值,用于監(jiān)測不同fps下的檢測結果# if (c % timeF == 0):#??? cv2.imwrite("D:/photo/" + str(c) + '.jpg', frame)# c += 1# 顯示攝像頭cv2.imshow("video", frame)k = cv2.waitKey(1)# 按q退出if k == ord('q'):capture.release()break# 按ESC退出k = cv2.waitKey(1)if k == 27:capture.release()break

總結

以上是生活随笔為你收集整理的基于YOLOV5动态检测19种类别的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。

久久国产自偷自偷免费一区调 | 丰腴饱满的极品熟妇 | 日韩欧美群交p片內射中文 | 国产精品嫩草久久久久 | 窝窝午夜理论片影院 | 久久人人爽人人爽人人片ⅴ | 无码免费一区二区三区 | 99精品视频在线观看免费 | 婷婷丁香六月激情综合啪 | 婷婷丁香六月激情综合啪 | 无码人妻精品一区二区三区下载 | 日韩精品成人一区二区三区 | 日本欧美一区二区三区乱码 | 久久人妻内射无码一区三区 | 老熟女乱子伦 | 在线精品亚洲一区二区 | 亚洲综合色区中文字幕 | aⅴ在线视频男人的天堂 | 国产超碰人人爽人人做人人添 | 在线а√天堂中文官网 | 成人免费视频视频在线观看 免费 | 麻花豆传媒剧国产免费mv在线 | 国产精品香蕉在线观看 | 日本熟妇大屁股人妻 | 性色欲网站人妻丰满中文久久不卡 | 亚洲色欲久久久综合网东京热 | 成人三级无码视频在线观看 | 黑人巨大精品欧美一区二区 | 国产无av码在线观看 | 午夜福利不卡在线视频 | 熟妇人妻中文av无码 | 97久久精品无码一区二区 | 中文字幕无码人妻少妇免费 | 国产亚洲人成在线播放 | 国产亚洲视频中文字幕97精品 | 国产va免费精品观看 | 风流少妇按摩来高潮 | 欧美日本日韩 | 又大又硬又黄的免费视频 | 亚洲 另类 在线 欧美 制服 | 久久午夜夜伦鲁鲁片无码免费 | 色综合久久久无码中文字幕 | 国产一区二区三区四区五区加勒比 | 88国产精品欧美一区二区三区 | 国产精品国产自线拍免费软件 | 扒开双腿吃奶呻吟做受视频 | 性色av无码免费一区二区三区 | 国产亚洲精品久久久久久久久动漫 | 2020久久香蕉国产线看观看 | 日韩精品久久久肉伦网站 | 亚洲人亚洲人成电影网站色 | 免费无码午夜福利片69 | 无码人妻少妇伦在线电影 | 一本精品99久久精品77 | 久久精品国产一区二区三区肥胖 | 亚洲s码欧洲m码国产av | 亚洲成熟女人毛毛耸耸多 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 国产美女精品一区二区三区 | 精品国产福利一区二区 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 狠狠综合久久久久综合网 | 久久综合给合久久狠狠狠97色 | 国产精品人人爽人人做我的可爱 | 久久午夜无码鲁丝片午夜精品 | av人摸人人人澡人人超碰下载 | 亚洲成a人片在线观看无码3d | 欧美国产日韩久久mv | 国产精品免费大片 | 国产亚洲精品精品国产亚洲综合 | 疯狂三人交性欧美 | 波多野结衣乳巨码无在线观看 | 在线а√天堂中文官网 | 欧美黑人巨大xxxxx | 国产午夜亚洲精品不卡下载 | 国产精品香蕉在线观看 | 久久国产精品精品国产色婷婷 | 国产精品第一国产精品 | 亚洲无人区一区二区三区 | 国内精品人妻无码久久久影院 | 狂野欧美性猛交免费视频 | 午夜精品一区二区三区的区别 | 国产片av国语在线观看 | 在线观看国产午夜福利片 | 久久久久久av无码免费看大片 | 丝袜足控一区二区三区 | 婷婷六月久久综合丁香 | 久久伊人色av天堂九九小黄鸭 | 日韩欧美中文字幕在线三区 | 日日噜噜噜噜夜夜爽亚洲精品 | 美女极度色诱视频国产 | 久久午夜无码鲁丝片 | 亚洲 日韩 欧美 成人 在线观看 | 午夜福利不卡在线视频 | 欧美freesex黑人又粗又大 | 亚洲中文字幕在线观看 | 国产人妻精品一区二区三区 | 好男人www社区 | 国产亚洲tv在线观看 | 亚洲精品国偷拍自产在线观看蜜桃 | 黑森林福利视频导航 | 精品欧美一区二区三区久久久 | 成人免费视频一区二区 | 国产成人无码a区在线观看视频app | 久久久久免费精品国产 | 久久精品中文字幕一区 | 欧美熟妇另类久久久久久多毛 | 撕开奶罩揉吮奶头视频 | 久久国产36精品色熟妇 | 亚洲aⅴ无码成人网站国产app | 免费人成在线视频无码 | 亚洲综合久久一区二区 | 久久久精品欧美一区二区免费 | а√天堂www在线天堂小说 | 三上悠亚人妻中文字幕在线 | 亚洲精品久久久久久久久久久 | 99国产欧美久久久精品 | 熟妇人妻激情偷爽文 | 亚洲精品国产品国语在线观看 | 成人精品一区二区三区中文字幕 | 无码福利日韩神码福利片 | 人人妻人人澡人人爽精品欧美 | 国产69精品久久久久app下载 | 国产又粗又硬又大爽黄老大爷视 | 熟妇激情内射com | 一本久久伊人热热精品中文字幕 | 天堂一区人妻无码 | 日本精品久久久久中文字幕 | 国产激情一区二区三区 | 亚洲精品一区二区三区大桥未久 | 久久综合久久自在自线精品自 | 国产热a欧美热a在线视频 | 男女超爽视频免费播放 | 久久久久亚洲精品男人的天堂 | 一本久久伊人热热精品中文字幕 | 国产精品人妻一区二区三区四 | 国产网红无码精品视频 | 初尝人妻少妇中文字幕 | 免费国产成人高清在线观看网站 | 国产成人久久精品流白浆 | 免费人成网站视频在线观看 | 亚洲国产精品无码久久久久高潮 | 激情五月综合色婷婷一区二区 | 天堂在线观看www | 精品无码一区二区三区爱欲 | 在线天堂新版最新版在线8 | 色欲综合久久中文字幕网 | 亚洲熟妇色xxxxx欧美老妇y | 久久精品国产精品国产精品污 | 国产手机在线αⅴ片无码观看 | 99精品久久毛片a片 | 日本精品人妻无码77777 天堂一区人妻无码 | 久久国语露脸国产精品电影 | 97人妻精品一区二区三区 | 国精产品一区二区三区 | 欧美35页视频在线观看 | 国产香蕉尹人视频在线 | 午夜福利试看120秒体验区 | 蜜桃视频韩日免费播放 | 日本乱偷人妻中文字幕 | 5858s亚洲色大成网站www | 蜜桃视频插满18在线观看 | 亚洲精品无码国产 | а天堂中文在线官网 | 无码人妻出轨黑人中文字幕 | 亚洲小说图区综合在线 | 一本久道高清无码视频 | 一个人免费观看的www视频 | 亚洲国产日韩a在线播放 | 无码人中文字幕 | 国产av无码专区亚洲a∨毛片 | 国产成人无码av一区二区 | 乱人伦人妻中文字幕无码 | 99久久婷婷国产综合精品青草免费 | 人妻天天爽夜夜爽一区二区 | 精品国产福利一区二区 | 强奷人妻日本中文字幕 | 国产精品久久久av久久久 | 精品无码一区二区三区的天堂 | 中文字幕无码免费久久99 | 国产色在线 | 国产 | 亚洲春色在线视频 | 人妻有码中文字幕在线 | 中文久久乱码一区二区 | 久久精品视频在线看15 | 亚洲自偷自偷在线制服 | 亚洲熟女一区二区三区 | 熟妇人妻无码xxx视频 | 国产精品久久久 | 欧美freesex黑人又粗又大 | 一本久道久久综合婷婷五月 | √天堂中文官网8在线 | 国产农村乱对白刺激视频 | 人人澡人摸人人添 | 少妇性俱乐部纵欲狂欢电影 | 亚洲小说图区综合在线 | 国产成人无码av片在线观看不卡 | 成人女人看片免费视频放人 | 强辱丰满人妻hd中文字幕 | 亚洲中文字幕在线无码一区二区 | 久久久久成人精品免费播放动漫 | 自拍偷自拍亚洲精品10p | 中文字幕人妻无码一夲道 | 蜜桃av抽搐高潮一区二区 | 久久久久久久久888 | 狠狠色丁香久久婷婷综合五月 | 国产高清不卡无码视频 | 一本久道高清无码视频 | 久久久久久久人妻无码中文字幕爆 | 青青青手机频在线观看 | 麻豆国产丝袜白领秘书在线观看 | 日韩欧美中文字幕在线三区 | 狠狠色色综合网站 | 国产热a欧美热a在线视频 | 九月婷婷人人澡人人添人人爽 | 久青草影院在线观看国产 | 国产乱码精品一品二品 | 国产肉丝袜在线观看 | 久久久精品国产sm最大网站 | 爽爽影院免费观看 | 久久人人97超碰a片精品 | 久久久久亚洲精品男人的天堂 | 2020久久超碰国产精品最新 | 亚洲日韩乱码中文无码蜜桃臀网站 | 国产在线一区二区三区四区五区 | 欧美精品国产综合久久 | 亚洲日本一区二区三区在线 | 亚洲色在线无码国产精品不卡 | 精品国产一区二区三区av 性色 | 99精品无人区乱码1区2区3区 | 国产精品自产拍在线观看 | 欧美丰满熟妇xxxx | 自拍偷自拍亚洲精品被多人伦好爽 | 欧美黑人乱大交 | 国产特级毛片aaaaaaa高清 | 天堂一区人妻无码 | 狂野欧美性猛xxxx乱大交 | 亚洲人成无码网www | 波多野结衣一区二区三区av免费 | 国产精品免费大片 | 国产精品人人妻人人爽 | 成人无码精品一区二区三区 | 精品人妻av区 | 麻豆果冻传媒2021精品传媒一区下载 | 无码午夜成人1000部免费视频 | 曰韩无码二三区中文字幕 | 亚洲爆乳无码专区 | 国产色xx群视频射精 | 久久国产精品二国产精品 | 东京热无码av男人的天堂 | 一本一道久久综合久久 | 日韩人妻少妇一区二区三区 | 免费国产成人高清在线观看网站 | 精品无码av一区二区三区 | 久久综合给合久久狠狠狠97色 | 18禁黄网站男男禁片免费观看 | 欧美三级不卡在线观看 | 97久久超碰中文字幕 | 国产激情无码一区二区app | 男女作爱免费网站 | 无码人妻少妇伦在线电影 | 久久久久久久人妻无码中文字幕爆 | 久久无码中文字幕免费影院蜜桃 | 大肉大捧一进一出好爽视频 | 国产电影无码午夜在线播放 | 波多野结衣一区二区三区av免费 | 日本乱偷人妻中文字幕 | 日韩精品无码免费一区二区三区 | 中文精品无码中文字幕无码专区 | 国产一区二区不卡老阿姨 | 天海翼激烈高潮到腰振不止 | 国产成人无码一二三区视频 | 四十如虎的丰满熟妇啪啪 | 男人和女人高潮免费网站 | 免费国产成人高清在线观看网站 | 丰满少妇女裸体bbw | 无码av免费一区二区三区试看 | 欧美日韩一区二区免费视频 | 国产97人人超碰caoprom | 午夜理论片yy44880影院 | 在线看片无码永久免费视频 | 亚洲成av人片天堂网无码】 | 波多野结衣av一区二区全免费观看 | 国产午夜福利100集发布 | 精品 日韩 国产 欧美 视频 | 黑人粗大猛烈进出高潮视频 | 亚洲自偷自偷在线制服 | 欧美性猛交内射兽交老熟妇 | 超碰97人人做人人爱少妇 | аⅴ资源天堂资源库在线 | 领导边摸边吃奶边做爽在线观看 | 九九在线中文字幕无码 | 人人妻人人澡人人爽精品欧美 | 国产一区二区三区精品视频 | 曰韩少妇内射免费播放 | 亚洲国产精品成人久久蜜臀 | 澳门永久av免费网站 | 亚洲综合久久一区二区 | 欧美xxxx黑人又粗又长 | 精品久久久无码人妻字幂 | 国产av久久久久精东av | 无码人中文字幕 | 又紧又大又爽精品一区二区 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 国产精品欧美成人 | 亚洲va中文字幕无码久久不卡 | 日本精品少妇一区二区三区 | 婷婷色婷婷开心五月四房播播 | 国产免费观看黄av片 | 国产午夜亚洲精品不卡 | 亚洲乱亚洲乱妇50p | 国产在线精品一区二区高清不卡 | 高潮喷水的毛片 | 中文字幕无线码免费人妻 | 日本熟妇乱子伦xxxx | 亚洲精品无码人妻无码 | 人人妻人人澡人人爽欧美一区九九 | 色 综合 欧美 亚洲 国产 | 蜜臀aⅴ国产精品久久久国产老师 | 7777奇米四色成人眼影 | 国产一区二区三区影院 | 影音先锋中文字幕无码 | 久久久久亚洲精品男人的天堂 | 精品久久综合1区2区3区激情 | 欧美一区二区三区视频在线观看 | 永久免费精品精品永久-夜色 | 欧美老妇交乱视频在线观看 | 无码人妻出轨黑人中文字幕 | 久久久久久久女国产乱让韩 | 欧美国产亚洲日韩在线二区 | 久久天天躁狠狠躁夜夜免费观看 | 日日干夜夜干 | 乱中年女人伦av三区 | 夜精品a片一区二区三区无码白浆 | 久久综合网欧美色妞网 | 啦啦啦www在线观看免费视频 | 牲欲强的熟妇农村老妇女 | 国产亚av手机在线观看 | 日韩精品成人一区二区三区 | 国产明星裸体无码xxxx视频 | 国产人妻精品午夜福利免费 | 亚洲精品午夜无码电影网 | 亚洲人成网站在线播放942 | 久久国产精品_国产精品 | 丰满岳乱妇在线观看中字无码 | 性啪啪chinese东北女人 | 亚洲日韩av一区二区三区中文 | 97人妻精品一区二区三区 | 国产精品久久久久久亚洲毛片 | 欧美精品在线观看 | 人妻少妇精品无码专区动漫 | 日本爽爽爽爽爽爽在线观看免 | 欧美一区二区三区视频在线观看 | 日日鲁鲁鲁夜夜爽爽狠狠 | 日本肉体xxxx裸交 | 澳门永久av免费网站 | 中文无码成人免费视频在线观看 | 漂亮人妻洗澡被公强 日日躁 | 福利一区二区三区视频在线观看 | 久久精品国产精品国产精品污 | 亚洲精品久久久久久一区二区 | 小sao货水好多真紧h无码视频 | 免费观看又污又黄的网站 | 中文字幕无线码免费人妻 | 丁香花在线影院观看在线播放 | 欧美zoozzooz性欧美 | 精品国产aⅴ无码一区二区 | 亚洲综合无码一区二区三区 | 国产一区二区三区精品视频 | 精品亚洲成av人在线观看 | 亚洲一区av无码专区在线观看 | 免费无码午夜福利片69 | 熟女少妇在线视频播放 | 无码中文字幕色专区 | 国产成人无码一二三区视频 | 成人无码精品一区二区三区 | 色综合久久久久综合一本到桃花网 | 蜜臀aⅴ国产精品久久久国产老师 | 国产精品久久久午夜夜伦鲁鲁 | 欧美成人家庭影院 | 亚洲の无码国产の无码步美 | 男女猛烈xx00免费视频试看 | 日本精品人妻无码77777 天堂一区人妻无码 | 亚洲成色在线综合网站 | 日本一卡二卡不卡视频查询 | 国产成人精品无码播放 | 扒开双腿吃奶呻吟做受视频 | 一本无码人妻在中文字幕免费 | 一本久久伊人热热精品中文字幕 | 亚洲欧洲日本综合aⅴ在线 | 99国产欧美久久久精品 | 无码毛片视频一区二区本码 | 久久国产劲爆∧v内射 | 少妇性俱乐部纵欲狂欢电影 | 亚洲人成人无码网www国产 | 老司机亚洲精品影院无码 | 天天躁夜夜躁狠狠是什么心态 | 亚洲gv猛男gv无码男同 | 日本护士xxxxhd少妇 | 国产精品99久久精品爆乳 | 色窝窝无码一区二区三区色欲 | 国产午夜无码视频在线观看 | 欧美xxxxx精品 | 白嫩日本少妇做爰 | 免费人成在线视频无码 | 女人被爽到呻吟gif动态图视看 | 久久99精品久久久久婷婷 | 国产艳妇av在线观看果冻传媒 | 天天摸天天透天天添 | 亚洲综合精品香蕉久久网 | 国产精品对白交换视频 | 少妇久久久久久人妻无码 | 中文久久乱码一区二区 | 久久国产精品精品国产色婷婷 | 性欧美牲交xxxxx视频 | 女高中生第一次破苞av | 无码国产色欲xxxxx视频 | 性欧美牲交在线视频 | 无码av岛国片在线播放 | 成人aaa片一区国产精品 | 骚片av蜜桃精品一区 | 国产精品亚洲а∨无码播放麻豆 | 久久综合狠狠综合久久综合88 | 天天做天天爱天天爽综合网 | 国产乱人偷精品人妻a片 | 丰满人妻翻云覆雨呻吟视频 | 帮老师解开蕾丝奶罩吸乳网站 | 亚洲成色在线综合网站 | 中国大陆精品视频xxxx | 丰满少妇弄高潮了www | 中文字幕亚洲情99在线 | 久久99精品国产.久久久久 | 亚洲综合在线一区二区三区 | 国产真人无遮挡作爱免费视频 | 爆乳一区二区三区无码 | 日本精品高清一区二区 | 老司机亚洲精品影院无码 | 丰满诱人的人妻3 | 水蜜桃av无码 | 欧美freesex黑人又粗又大 | 免费视频欧美无人区码 | 激情爆乳一区二区三区 | 亚洲成a人一区二区三区 | 乱码av麻豆丝袜熟女系列 | 久久99精品国产麻豆蜜芽 | 久久久国产精品无码免费专区 | 中文字幕+乱码+中文字幕一区 | 波多野结衣aⅴ在线 | 久久天天躁夜夜躁狠狠 | 最近免费中文字幕中文高清百度 | 久久精品99久久香蕉国产色戒 | 天天拍夜夜添久久精品 | 亚洲欧美日韩国产精品一区二区 | 国产香蕉尹人综合在线观看 | 风流少妇按摩来高潮 | 免费视频欧美无人区码 | 精品一区二区三区无码免费视频 | 久久国语露脸国产精品电影 | 无码吃奶揉捏奶头高潮视频 | 色综合久久中文娱乐网 | 免费看少妇作爱视频 | 成熟人妻av无码专区 | 欧美熟妇另类久久久久久多毛 | 亚洲日本一区二区三区在线 | 精品夜夜澡人妻无码av蜜桃 | 亚洲国产高清在线观看视频 | 又黄又爽又色的视频 | 77777熟女视频在线观看 а天堂中文在线官网 | 人妻少妇精品视频专区 | 精品国精品国产自在久国产87 | 亚洲精品欧美二区三区中文字幕 | 鲁大师影院在线观看 | 国产偷国产偷精品高清尤物 | 国产九九九九九九九a片 | 国内精品久久久久久中文字幕 | 国产精品高潮呻吟av久久 | 国产精品久久久久久亚洲影视内衣 | 亚洲成a人片在线观看无码 | 国产亚洲人成a在线v网站 | 久久精品国产大片免费观看 | 亚拍精品一区二区三区探花 | 大色综合色综合网站 | 久久99精品久久久久久动态图 | 国产人妻人伦精品1国产丝袜 | 久久亚洲国产成人精品性色 | 亚洲 高清 成人 动漫 | 免费人成网站视频在线观看 | 丰满人妻一区二区三区免费视频 | 日本乱人伦片中文三区 | 1000部啪啪未满十八勿入下载 | 精品久久久无码人妻字幂 | 亚洲色www成人永久网址 | 精品国精品国产自在久国产87 | 蜜桃视频插满18在线观看 | 麻豆国产人妻欲求不满谁演的 | 欧美性猛交内射兽交老熟妇 | 久9re热视频这里只有精品 | 蜜桃视频插满18在线观看 | 熟妇人妻无码xxx视频 | 欧美一区二区三区 | 欧美怡红院免费全部视频 | aⅴ在线视频男人的天堂 | 国产欧美精品一区二区三区 | 亚洲大尺度无码无码专区 | 成人性做爰aaa片免费看 | 日韩无码专区 | 欧美精品国产综合久久 | 日本在线高清不卡免费播放 | 麻豆果冻传媒2021精品传媒一区下载 | 日本一区二区三区免费高清 | 麻豆国产人妻欲求不满谁演的 | 国产精品内射视频免费 | 国产黑色丝袜在线播放 | 无码国产激情在线观看 | 疯狂三人交性欧美 | 国产亚洲精品久久久闺蜜 | 国产电影无码午夜在线播放 | 日日摸夜夜摸狠狠摸婷婷 | www国产精品内射老师 | 伊人久久大香线焦av综合影院 | 亚洲国产欧美在线成人 | аⅴ资源天堂资源库在线 | 丰满人妻一区二区三区免费视频 | 乱人伦人妻中文字幕无码久久网 | 亚洲中文字幕久久无码 | 乱中年女人伦av三区 | 性色欲情网站iwww九文堂 | 无码人妻精品一区二区三区不卡 | 最近的中文字幕在线看视频 | 亚洲人成无码网www | 色综合久久中文娱乐网 | 国产成人无码午夜视频在线观看 | 人妻互换免费中文字幕 | 中文字幕无码视频专区 | 5858s亚洲色大成网站www | 最近的中文字幕在线看视频 | 精品无码一区二区三区的天堂 | 日韩无套无码精品 | 性做久久久久久久久 | 人人澡人人妻人人爽人人蜜桃 | 久久久久亚洲精品中文字幕 | 色老头在线一区二区三区 | 东京热男人av天堂 | 亚洲天堂2017无码中文 | 一本大道久久东京热无码av | 国产无套内射久久久国产 | 人妻夜夜爽天天爽三区 | 久久精品国产大片免费观看 | 人人妻人人澡人人爽欧美一区九九 | 性色欲情网站iwww九文堂 | 精品无码成人片一区二区98 | 国产精品欧美成人 | 亚洲小说图区综合在线 | 国产欧美熟妇另类久久久 | 2020久久超碰国产精品最新 | 国产区女主播在线观看 | 久9re热视频这里只有精品 | 亚洲综合色区中文字幕 | 香蕉久久久久久av成人 | 欧美zoozzooz性欧美 | 日本大香伊一区二区三区 | 久久久成人毛片无码 | 中文精品久久久久人妻不卡 | 三上悠亚人妻中文字幕在线 | 亚洲欧美国产精品专区久久 | 人人澡人摸人人添 | 中文字幕无线码免费人妻 | 香蕉久久久久久av成人 | 成年美女黄网站色大免费视频 | 婷婷色婷婷开心五月四房播播 | 男女性色大片免费网站 | 色五月五月丁香亚洲综合网 | 天下第一社区视频www日本 | 又粗又大又硬又长又爽 | 国产精品久久久久无码av色戒 | 波多野42部无码喷潮在线 | 曰韩无码二三区中文字幕 | 日韩在线不卡免费视频一区 | 成熟人妻av无码专区 | 亚洲一区二区三区偷拍女厕 | 亚洲国产综合无码一区 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 无码人妻出轨黑人中文字幕 | 日本饥渴人妻欲求不满 | 国产精华av午夜在线观看 | 国产精品国产三级国产专播 | 亚洲熟妇色xxxxx欧美老妇y | 精品夜夜澡人妻无码av蜜桃 | 国内综合精品午夜久久资源 | 国产精品va在线观看无码 | 国产精品-区区久久久狼 | 亚洲色偷偷偷综合网 | 久久久久久a亚洲欧洲av冫 | 中文字幕av无码一区二区三区电影 | 丰满岳乱妇在线观看中字无码 | 中文字幕无码热在线视频 | 熟妇人妻中文av无码 | 亚洲精品成a人在线观看 | 丰满诱人的人妻3 | 国产香蕉尹人视频在线 | 夫妻免费无码v看片 | 国产精品香蕉在线观看 | 国产热a欧美热a在线视频 | 成人免费无码大片a毛片 | 成人欧美一区二区三区 | 一个人免费观看的www视频 | 中文字幕无码免费久久99 | 国产一区二区三区四区五区加勒比 | 日日天日日夜日日摸 | 丰满护士巨好爽好大乳 | 无码人妻av免费一区二区三区 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 嫩b人妻精品一区二区三区 | 老子影院午夜精品无码 | 国产av一区二区三区最新精品 | 在线a亚洲视频播放在线观看 | 人人妻人人澡人人爽人人精品浪潮 | 欧洲精品码一区二区三区免费看 | 国产精品亚洲专区无码不卡 | 久久久久免费精品国产 | 国产舌乚八伦偷品w中 | 无人区乱码一区二区三区 | 波多野结衣 黑人 | 无码一区二区三区在线观看 | 鲁一鲁av2019在线 | 国产明星裸体无码xxxx视频 | 久久亚洲中文字幕无码 | 久久伊人色av天堂九九小黄鸭 | 天干天干啦夜天干天2017 | 国内揄拍国内精品少妇国语 | 日本欧美一区二区三区乱码 | 无码国模国产在线观看 | 日日天干夜夜狠狠爱 | 日本欧美一区二区三区乱码 | 亚洲爆乳精品无码一区二区三区 | 国产国语老龄妇女a片 | 97无码免费人妻超级碰碰夜夜 | 精品国产av色一区二区深夜久久 | 亚洲 a v无 码免 费 成 人 a v | 7777奇米四色成人眼影 | 免费看少妇作爱视频 | 成年美女黄网站色大免费视频 | 欧美35页视频在线观看 | 黄网在线观看免费网站 | 黑人巨大精品欧美一区二区 | 无码中文字幕色专区 | 免费乱码人妻系列无码专区 | 强奷人妻日本中文字幕 | 国内少妇偷人精品视频 | 国产亲子乱弄免费视频 | 丰满护士巨好爽好大乳 | 又黄又爽又色的视频 | 免费无码一区二区三区蜜桃大 | 一本无码人妻在中文字幕免费 | 丰满少妇人妻久久久久久 | 少妇一晚三次一区二区三区 | 天海翼激烈高潮到腰振不止 | 小sao货水好多真紧h无码视频 | 久久久久久久久蜜桃 | 99久久婷婷国产综合精品青草免费 | 欧美人与禽zoz0性伦交 | 国产精品手机免费 | 精品久久久久久人妻无码中文字幕 | 国产av一区二区三区最新精品 | 永久免费观看美女裸体的网站 | 亚洲乱码国产乱码精品精 | 啦啦啦www在线观看免费视频 | 久久久亚洲欧洲日产国码αv | 精品日本一区二区三区在线观看 | 人妻互换免费中文字幕 | 天天躁夜夜躁狠狠是什么心态 | 日本一卡二卡不卡视频查询 | 人妻aⅴ无码一区二区三区 | 亚洲欧美精品伊人久久 | 久久99精品久久久久婷婷 | 欧美三级a做爰在线观看 | 一个人看的视频www在线 | 亚洲中文字幕无码中文字在线 | 日韩 欧美 动漫 国产 制服 | 正在播放东北夫妻内射 | 图片区 小说区 区 亚洲五月 | 伊人久久大香线焦av综合影院 | 扒开双腿疯狂进出爽爽爽视频 | 人人妻人人澡人人爽欧美一区 | 特大黑人娇小亚洲女 | 精品厕所偷拍各类美女tp嘘嘘 | 久久久久成人精品免费播放动漫 | 免费乱码人妻系列无码专区 | 国产性生交xxxxx无码 | 偷窥村妇洗澡毛毛多 | 日韩亚洲欧美中文高清在线 | 宝宝好涨水快流出来免费视频 | 久久精品国产亚洲精品 | 亚洲欧美日韩成人高清在线一区 | 清纯唯美经典一区二区 | 亚洲人亚洲人成电影网站色 | 亚洲欧美国产精品专区久久 | 夜夜高潮次次欢爽av女 | 久久国语露脸国产精品电影 | 精品国产av色一区二区深夜久久 | 日本精品久久久久中文字幕 | 欧美 丝袜 自拍 制服 另类 | 国产熟女一区二区三区四区五区 | 岛国片人妻三上悠亚 | 亚洲 欧美 激情 小说 另类 | 性欧美熟妇videofreesex | 领导边摸边吃奶边做爽在线观看 | 狠狠亚洲超碰狼人久久 | 亚洲区小说区激情区图片区 | 成 人影片 免费观看 | 欧美激情内射喷水高潮 | 美女黄网站人色视频免费国产 | 久久人人爽人人爽人人片ⅴ | 内射后入在线观看一区 | 亚洲精品国偷拍自产在线麻豆 | 玩弄中年熟妇正在播放 | 大肉大捧一进一出视频出来呀 | 中文字幕 亚洲精品 第1页 | 少妇一晚三次一区二区三区 | 亚洲天堂2017无码中文 | 久久人人爽人人人人片 | 精品国产一区二区三区四区 | 六月丁香婷婷色狠狠久久 | 日本爽爽爽爽爽爽在线观看免 | 丰满岳乱妇在线观看中字无码 | 国产又粗又硬又大爽黄老大爷视 | 亚洲人成影院在线观看 | 18精品久久久无码午夜福利 | 少妇被黑人到高潮喷出白浆 | 无套内谢老熟女 | 窝窝午夜理论片影院 | 黑人玩弄人妻中文在线 | 爽爽影院免费观看 | 日本丰满护士爆乳xxxx | 曰本女人与公拘交酡免费视频 | 精品夜夜澡人妻无码av蜜桃 | 亚洲中文字幕无码一久久区 | 思思久久99热只有频精品66 | 18无码粉嫩小泬无套在线观看 | 中文无码精品a∨在线观看不卡 | 女高中生第一次破苞av | 丰腴饱满的极品熟妇 | 无遮挡国产高潮视频免费观看 | 高潮喷水的毛片 | 一本久道高清无码视频 | 极品尤物被啪到呻吟喷水 | 少妇一晚三次一区二区三区 | 国产极品美女高潮无套在线观看 | 国产乱人伦偷精品视频 | 亚洲乱码中文字幕在线 | 2019nv天堂香蕉在线观看 | 麻花豆传媒剧国产免费mv在线 | 奇米影视7777久久精品 | 牲欲强的熟妇农村老妇女视频 | av人摸人人人澡人人超碰下载 | 中文亚洲成a人片在线观看 | 亚洲国产一区二区三区在线观看 | 亚无码乱人伦一区二区 | 国产亚洲人成在线播放 | 麻豆国产人妻欲求不满 | 久久久久se色偷偷亚洲精品av | 亚洲色欲色欲天天天www | 高清国产亚洲精品自在久久 | 成人免费视频一区二区 | 亚洲精品国产第一综合99久久 | 99精品视频在线观看免费 | 少妇性l交大片欧洲热妇乱xxx | 亚洲精品午夜无码电影网 | 国产成人人人97超碰超爽8 | 美女毛片一区二区三区四区 | 精品aⅴ一区二区三区 | 97色伦图片97综合影院 | 偷窥日本少妇撒尿chinese | 少妇无码一区二区二三区 | 日本熟妇乱子伦xxxx | 亚洲一区二区三区 | 国产亚av手机在线观看 | 人人爽人人爽人人片av亚洲 | 国产女主播喷水视频在线观看 | 亚洲色大成网站www | 美女黄网站人色视频免费国产 | 国产成人无码av片在线观看不卡 | 噜噜噜亚洲色成人网站 | 国产精品成人av在线观看 | 午夜熟女插插xx免费视频 | 亚洲中文字幕无码中字 | 无码人妻精品一区二区三区不卡 | 香港三级日本三级妇三级 | 人人妻人人澡人人爽欧美精品 | 综合人妻久久一区二区精品 | 国产精品爱久久久久久久 | 亚洲s色大片在线观看 | 人妻少妇精品视频专区 | 久久zyz资源站无码中文动漫 | 波多野42部无码喷潮在线 | 国产精品人妻一区二区三区四 | 久久国产精品萌白酱免费 | 3d动漫精品啪啪一区二区中 | 日本精品久久久久中文字幕 | 精品久久8x国产免费观看 | 久久伊人色av天堂九九小黄鸭 | 国产精品亚洲专区无码不卡 | 亚洲大尺度无码无码专区 | 玩弄中年熟妇正在播放 | 久久99国产综合精品 | 亚洲人成无码网www | 一个人看的www免费视频在线观看 | 中国女人内谢69xxxxxa片 | 国产在热线精品视频 | 日本熟妇人妻xxxxx人hd | 亚洲中文无码av永久不收费 | 精品国偷自产在线 | 国产成人无码av一区二区 | 亚洲s码欧洲m码国产av | 毛片内射-百度 | 日韩人妻系列无码专区 | 国产成人精品视频ⅴa片软件竹菊 | 国产福利视频一区二区 | 色综合久久中文娱乐网 | aa片在线观看视频在线播放 | 国产sm调教视频在线观看 | 午夜理论片yy44880影院 | 日日摸夜夜摸狠狠摸婷婷 | 色噜噜亚洲男人的天堂 | 国产高清不卡无码视频 | 国产极品美女高潮无套在线观看 | 国产精品沙发午睡系列 | 亚洲国产精品久久久天堂 | 亚洲а∨天堂久久精品2021 | 亚洲中文字幕在线观看 | 成人欧美一区二区三区 | 性欧美videos高清精品 | 对白脏话肉麻粗话av | 久久人人爽人人爽人人片av高清 | 精品久久久久香蕉网 | 国内精品久久毛片一区二区 | 国产激情一区二区三区 | 国产成人亚洲综合无码 | 一本色道久久综合亚洲精品不卡 | 99久久99久久免费精品蜜桃 | 人妻少妇精品无码专区动漫 | 图片小说视频一区二区 | 午夜精品久久久久久久 | 激情内射日本一区二区三区 | 中文字幕精品av一区二区五区 | 亚洲熟熟妇xxxx | 亚洲精品综合一区二区三区在线 | 色婷婷av一区二区三区之红樱桃 | 国产猛烈高潮尖叫视频免费 | 亚洲色欲久久久综合网东京热 | 国产精品va在线观看无码 | 国产成人无码av在线影院 | 久久精品无码一区二区三区 | 欧美精品一区二区精品久久 | 无遮无挡爽爽免费视频 | 国产美女精品一区二区三区 | 黑人巨大精品欧美黑寡妇 | 天堂无码人妻精品一区二区三区 | 国产精品高潮呻吟av久久4虎 | 男女作爱免费网站 | 国产午夜福利100集发布 | 国产精品高潮呻吟av久久4虎 | 无码av中文字幕免费放 | 国产精品成人av在线观看 | 亚洲综合在线一区二区三区 | 国产精品欧美成人 | 特级做a爰片毛片免费69 | 在线视频网站www色 | 国产精品亚洲专区无码不卡 | 国产亚洲日韩欧美另类第八页 | 粗大的内捧猛烈进出视频 | 色婷婷综合激情综在线播放 | 人妻少妇被猛烈进入中文字幕 | а√资源新版在线天堂 | 兔费看少妇性l交大片免费 | 捆绑白丝粉色jk震动捧喷白浆 | 国产性生大片免费观看性 | 中国女人内谢69xxxxxa片 | 国产精品99爱免费视频 | 国产手机在线αⅴ片无码观看 | 日本一卡二卡不卡视频查询 | 欧美人与动性行为视频 | 亚洲另类伦春色综合小说 | 麻豆蜜桃av蜜臀av色欲av | 日韩精品无码一区二区中文字幕 | 图片小说视频一区二区 | 高潮毛片无遮挡高清免费视频 | 日日碰狠狠丁香久燥 | 国产明星裸体无码xxxx视频 | 久久久国产精品无码免费专区 | 国产美女极度色诱视频www | 久久久久久亚洲精品a片成人 | 亚洲精品久久久久久一区二区 | 初尝人妻少妇中文字幕 | 国产香蕉97碰碰久久人人 | 漂亮人妻洗澡被公强 日日躁 | 国产午夜精品一区二区三区嫩草 | 亚洲国产欧美日韩精品一区二区三区 | 亚洲热妇无码av在线播放 | 亚洲国产精品久久人人爱 | 又大又紧又粉嫩18p少妇 | 野外少妇愉情中文字幕 | 最新版天堂资源中文官网 | 国产农村乱对白刺激视频 | 波多野结衣乳巨码无在线观看 | 欧美猛少妇色xxxxx | 亚洲色成人中文字幕网站 | 国产亚洲欧美日韩亚洲中文色 | 亚洲国产欧美日韩精品一区二区三区 | 国产精品无套呻吟在线 | 免费观看激色视频网站 | 色婷婷av一区二区三区之红樱桃 | 国产精品久久久久7777 | 日日摸夜夜摸狠狠摸婷婷 | 一本一道久久综合久久 | 特黄特色大片免费播放器图片 | 无码av免费一区二区三区试看 | 久久99久久99精品中文字幕 | 精品国产精品久久一区免费式 | 国产精品久久久久久亚洲毛片 | a在线观看免费网站大全 | 乱码午夜-极国产极内射 | 亚洲a无码综合a国产av中文 | 国产精华av午夜在线观看 | 国产精品va在线观看无码 | 99久久无码一区人妻 | 欧美精品免费观看二区 | 久久无码中文字幕免费影院蜜桃 | 无码av免费一区二区三区试看 | 亚洲国产精品毛片av不卡在线 | 人人爽人人澡人人人妻 | 帮老师解开蕾丝奶罩吸乳网站 | 强开小婷嫩苞又嫩又紧视频 | 成人无码精品1区2区3区免费看 | 国产无遮挡又黄又爽又色 | 成 人影片 免费观看 | 亚洲高清偷拍一区二区三区 | 婷婷丁香六月激情综合啪 | 国产av剧情md精品麻豆 | 精品熟女少妇av免费观看 | 国产精品igao视频网 | 国产精品免费大片 | 99久久亚洲精品无码毛片 | 成人试看120秒体验区 | 久久aⅴ免费观看 | 欧美三级不卡在线观看 | 亚洲天堂2017无码中文 | 中文字幕色婷婷在线视频 | 三级4级全黄60分钟 | 国产一区二区三区四区五区加勒比 | 亚洲a无码综合a国产av中文 | 蜜臀av无码人妻精品 | 日日夜夜撸啊撸 | 图片区 小说区 区 亚洲五月 | 国产农村妇女高潮大叫 | 无遮无挡爽爽免费视频 | 综合人妻久久一区二区精品 | 亚洲国产一区二区三区在线观看 | aⅴ亚洲 日韩 色 图网站 播放 | 无码福利日韩神码福利片 | 波多野结衣高清一区二区三区 | 国内精品久久久久久中文字幕 | 精品无码一区二区三区的天堂 | 欧美喷潮久久久xxxxx | 午夜成人1000部免费视频 | 成人影院yy111111在线观看 | 国产区女主播在线观看 | 男女猛烈xx00免费视频试看 | 国产熟女一区二区三区四区五区 | 婷婷五月综合缴情在线视频 | 亚洲 日韩 欧美 成人 在线观看 | 丰满护士巨好爽好大乳 | 亚洲日韩乱码中文无码蜜桃臀网站 | 无码人妻精品一区二区三区下载 | 55夜色66夜色国产精品视频 | 伊人久久大香线焦av综合影院 | 麻豆果冻传媒2021精品传媒一区下载 | 丝袜人妻一区二区三区 | 高清国产亚洲精品自在久久 | 国产精品va在线观看无码 | 久久精品国产精品国产精品污 | 大地资源网第二页免费观看 | 少妇无码av无码专区在线观看 | 国产又爽又黄又刺激的视频 | av在线亚洲欧洲日产一区二区 | 欧美老人巨大xxxx做受 | 在线成人www免费观看视频 | 国产亚洲tv在线观看 | 蜜臀av在线播放 久久综合激激的五月天 | 亚洲中文字幕va福利 | 少妇性俱乐部纵欲狂欢电影 | 99视频精品全部免费免费观看 | 欧美人与物videos另类 | 国产激情一区二区三区 | 国产亚洲美女精品久久久2020 | 国产av无码专区亚洲awww | 少妇的肉体aa片免费 | 鲁鲁鲁爽爽爽在线视频观看 | 国产精品人人爽人人做我的可爱 | 久久国产劲爆∧v内射 | 亚洲 另类 在线 欧美 制服 | 亚洲无人区午夜福利码高清完整版 | 熟妇人妻中文av无码 | 国产精品高潮呻吟av久久 | 偷窥村妇洗澡毛毛多 | 激情国产av做激情国产爱 | 国产成人人人97超碰超爽8 | 日产精品99久久久久久 | 久久精品人妻少妇一区二区三区 | 妺妺窝人体色www在线小说 | 疯狂三人交性欧美 | 老熟妇乱子伦牲交视频 | 欧美日韩色另类综合 | 丰满少妇弄高潮了www | 老熟妇仑乱视频一区二区 | 少妇激情av一区二区 | 国产成人精品无码播放 | 99精品国产综合久久久久五月天 | 国产午夜福利亚洲第一 | 狂野欧美性猛xxxx乱大交 | 国产午夜视频在线观看 | а√资源新版在线天堂 | 国产精品无码mv在线观看 | 亲嘴扒胸摸屁股激烈网站 | 性欧美videos高清精品 | 国产在线精品一区二区高清不卡 | 欧美三级a做爰在线观看 | 熟妇女人妻丰满少妇中文字幕 | 欧美人与牲动交xxxx | 国产女主播喷水视频在线观看 | 精品久久久久久亚洲精品 | 色诱久久久久综合网ywww | 大肉大捧一进一出视频出来呀 | 成 人 免费观看网站 | 老太婆性杂交欧美肥老太 | 妺妺窝人体色www婷婷 | 国内综合精品午夜久久资源 | 色五月五月丁香亚洲综合网 | 99久久久无码国产aaa精品 | 精品一二三区久久aaa片 | 精品日本一区二区三区在线观看 | 久久综合久久自在自线精品自 | 午夜熟女插插xx免费视频 | 精品人妻人人做人人爽夜夜爽 | 久久 国产 尿 小便 嘘嘘 | 内射欧美老妇wbb | 丝袜美腿亚洲一区二区 | 精品日本一区二区三区在线观看 | 亚洲中文字幕无码中字 | 久久久久久九九精品久 | 欧美人与禽zoz0性伦交 | 无码乱肉视频免费大全合集 | 国产精品久久久av久久久 | 伊人久久大香线焦av综合影院 | 欧美老妇交乱视频在线观看 | 亚洲热妇无码av在线播放 | 成人三级无码视频在线观看 | 欧美成人家庭影院 | 亚洲成色在线综合网站 | 日本大香伊一区二区三区 | 国产午夜视频在线观看 | 国产激情精品一区二区三区 | 精品成人av一区二区三区 | av人摸人人人澡人人超碰下载 | 女人高潮内射99精品 | 狠狠色色综合网站 | 午夜福利试看120秒体验区 | 扒开双腿疯狂进出爽爽爽视频 | 亚洲区小说区激情区图片区 | 国内精品久久毛片一区二区 | 国产麻豆精品一区二区三区v视界 | 国产亚洲人成在线播放 | 图片小说视频一区二区 | 国产成人久久精品流白浆 | 成人一在线视频日韩国产 | 俺去俺来也www色官网 | а√天堂www在线天堂小说 | 亚洲区小说区激情区图片区 | 久久视频在线观看精品 | 宝宝好涨水快流出来免费视频 | 精品国产一区二区三区av 性色 | 东京热一精品无码av | 亚洲午夜久久久影院 | 人人妻人人澡人人爽欧美精品 | 久久久亚洲欧洲日产国码αv | 中文字幕+乱码+中文字幕一区 | 中文字幕乱码人妻无码久久 | 玩弄人妻少妇500系列视频 | 丰满少妇弄高潮了www | 国产福利视频一区二区 | 少妇邻居内射在线 | 少妇性荡欲午夜性开放视频剧场 | 久久久无码中文字幕久... | 亲嘴扒胸摸屁股激烈网站 | 学生妹亚洲一区二区 | 波多野结衣av在线观看 | 亚洲 a v无 码免 费 成 人 a v | 一本色道婷婷久久欧美 | 麻豆蜜桃av蜜臀av色欲av | 久久久精品人妻久久影视 | 国产又粗又硬又大爽黄老大爷视 | 麻豆国产97在线 | 欧洲 | 国产成人精品三级麻豆 | 激情内射日本一区二区三区 | 18精品久久久无码午夜福利 | 美女毛片一区二区三区四区 | 亚洲 另类 在线 欧美 制服 | 精品无码国产一区二区三区av | 中文字幕无线码 | 老熟妇仑乱视频一区二区 | 久久人人爽人人人人片 | 亚洲综合无码久久精品综合 | 国产乱人伦av在线无码 | 久久久久久九九精品久 | 99久久精品日本一区二区免费 | 香蕉久久久久久av成人 | 澳门永久av免费网站 | 亚洲人亚洲人成电影网站色 | 国产精品手机免费 | 欧美怡红院免费全部视频 | 99久久99久久免费精品蜜桃 | 亚洲va中文字幕无码久久不卡 | 精品国产一区二区三区av 性色 | 大肉大捧一进一出视频出来呀 | 水蜜桃av无码 | 沈阳熟女露脸对白视频 | 国产真人无遮挡作爱免费视频 | 国产精品久久久久久久9999 | 国产成人无码av一区二区 | 久久亚洲精品中文字幕无男同 | аⅴ资源天堂资源库在线 | 欧美一区二区三区 | 99精品久久毛片a片 | 麻豆人妻少妇精品无码专区 | 西西人体www44rt大胆高清 | 沈阳熟女露脸对白视频 | 动漫av网站免费观看 | 日日摸夜夜摸狠狠摸婷婷 | 丰满少妇熟乱xxxxx视频 | 一二三四在线观看免费视频 | 亚洲爆乳无码专区 | 天天av天天av天天透 | 国内少妇偷人精品视频免费 | 亚洲一区二区三区在线观看网站 | 国产莉萝无码av在线播放 | 国产午夜无码精品免费看 | 国产精品内射视频免费 | 久久精品国产精品国产精品污 | 国产亚洲精品久久久久久国模美 | 国产精品久久久久久久影院 | 欧美三级不卡在线观看 | 久久久久人妻一区精品色欧美 | 欧美成人家庭影院 | 日韩成人一区二区三区在线观看 | 又紧又大又爽精品一区二区 | 中文精品久久久久人妻不卡 | 欧美老妇与禽交 | 国产精品美女久久久网av | 日本一卡2卡3卡四卡精品网站 | 永久黄网站色视频免费直播 | 扒开双腿吃奶呻吟做受视频 | 亚洲综合久久一区二区 | 中文字幕人妻无码一夲道 | 色婷婷久久一区二区三区麻豆 | 在线欧美精品一区二区三区 | 中文字幕无码免费久久99 | 国产成人精品一区二区在线小狼 | 久久天天躁狠狠躁夜夜免费观看 | 欧洲熟妇精品视频 | 亚洲乱亚洲乱妇50p | 色窝窝无码一区二区三区色欲 | 日韩av激情在线观看 | 亚洲熟妇色xxxxx欧美老妇 | 77777熟女视频在线观看 а天堂中文在线官网 | 亚洲狠狠婷婷综合久久 | 夜夜高潮次次欢爽av女 | 乱人伦人妻中文字幕无码久久网 | 日韩精品无码免费一区二区三区 | 亚洲国产综合无码一区 | 激情综合激情五月俺也去 | 欧美国产日韩久久mv | 久久天天躁狠狠躁夜夜免费观看 | 国产精品怡红院永久免费 | 国产偷国产偷精品高清尤物 | 亚洲人成影院在线无码按摩店 | 国产成人精品视频ⅴa片软件竹菊 | 麻豆md0077饥渴少妇 | 内射白嫩少妇超碰 | 国产婷婷色一区二区三区在线 | 在线精品亚洲一区二区 | 骚片av蜜桃精品一区 | 丰满人妻精品国产99aⅴ | 性欧美牲交在线视频 | 成人精品视频一区二区 | 日韩人妻少妇一区二区三区 | 国产精品亚洲专区无码不卡 | 99久久久无码国产aaa精品 | 伊人久久大香线蕉午夜 | 欧美肥老太牲交大战 | 国产精品.xx视频.xxtv | 国产亚洲精品久久久久久久 | 青青草原综合久久大伊人精品 | 婷婷丁香六月激情综合啪 | 国产精品久久福利网站 | 欧美猛少妇色xxxxx | 国产成人无码午夜视频在线观看 | 久久久久亚洲精品男人的天堂 | av香港经典三级级 在线 | 国产精品亚洲综合色区韩国 | 无码人中文字幕 | 澳门永久av免费网站 | 东京一本一道一二三区 | 国产猛烈高潮尖叫视频免费 | 国产av剧情md精品麻豆 | 日本饥渴人妻欲求不满 | 老头边吃奶边弄进去呻吟 | 国产精品久久久久久久影院 | av小次郎收藏 | 国产精品无码一区二区三区不卡 | 亚洲熟熟妇xxxx | 性生交大片免费看女人按摩摩 | 无码国内精品人妻少妇 | 国产精品-区区久久久狼 | 天堂а√在线中文在线 | 熟女俱乐部五十路六十路av | 亚洲最大成人网站 | 久久国产精品二国产精品 | 无码人中文字幕 | 精品亚洲成av人在线观看 | 2019nv天堂香蕉在线观看 | 久久国产精品二国产精品 | 亚洲色欲色欲欲www在线 | 亲嘴扒胸摸屁股激烈网站 | 午夜精品一区二区三区的区别 | 欧美放荡的少妇 | 欧美老熟妇乱xxxxx | 亚洲日韩一区二区三区 | 强伦人妻一区二区三区视频18 | 夜先锋av资源网站 | 成年美女黄网站色大免费视频 | 日产精品高潮呻吟av久久 | 人妻少妇精品久久 | 在线天堂新版最新版在线8 | 国产麻豆精品一区二区三区v视界 | 国产亚洲精品久久久闺蜜 | 久久精品中文闷骚内射 | 久久人人97超碰a片精品 | 欧美日韩亚洲国产精品 | 日本又色又爽又黄的a片18禁 | 波多野结衣乳巨码无在线观看 | 国产深夜福利视频在线 | 国产小呦泬泬99精品 | 精品一区二区三区波多野结衣 | 国产精品对白交换视频 | 精品日本一区二区三区在线观看 | 色老头在线一区二区三区 | 久久 国产 尿 小便 嘘嘘 | 55夜色66夜色国产精品视频 | 亚洲精品一区二区三区婷婷月 | 丰满诱人的人妻3 | 精品国产一区二区三区av 性色 | 中文字幕无码视频专区 | 国产熟妇高潮叫床视频播放 | 成年女人永久免费看片 | 欧美猛少妇色xxxxx | av香港经典三级级 在线 | 色婷婷香蕉在线一区二区 | 波多野结衣av在线观看 | 亚洲精品久久久久中文第一幕 | 一个人免费观看的www视频 | 黑人玩弄人妻中文在线 | 国产av无码专区亚洲a∨毛片 | 亚洲区欧美区综合区自拍区 | 亚洲一区二区三区香蕉 | 人人爽人人澡人人高潮 | 亚洲春色在线视频 | 久久综合九色综合欧美狠狠 | 婷婷五月综合激情中文字幕 | 成人一区二区免费视频 | 免费观看激色视频网站 | 天堂亚洲2017在线观看 | 55夜色66夜色国产精品视频 | 欧美兽交xxxx×视频 | 人妻无码久久精品人妻 | 亚洲综合伊人久久大杳蕉 | 超碰97人人做人人爱少妇 | 免费人成在线视频无码 | 久久国产精品精品国产色婷婷 | 性做久久久久久久免费看 | 黑人玩弄人妻中文在线 | 国产卡一卡二卡三 | 亚洲人成网站色7799 | 伊人久久大香线焦av综合影院 | 国语精品一区二区三区 | a国产一区二区免费入口 | 乌克兰少妇xxxx做受 | 亚洲熟妇色xxxxx亚洲 | 99国产精品白浆在线观看免费 | 欧美放荡的少妇 | 日本熟妇大屁股人妻 | 男人的天堂2018无码 | 蜜臀aⅴ国产精品久久久国产老师 | 中文字幕乱码人妻二区三区 | 女人被男人爽到呻吟的视频 | 久久久精品国产sm最大网站 | 国产精品.xx视频.xxtv | 日日摸夜夜摸狠狠摸婷婷 | 97夜夜澡人人双人人人喊 | 大地资源网第二页免费观看 | www国产亚洲精品久久久日本 | 在线看片无码永久免费视频 | 动漫av网站免费观看 | 国产性生大片免费观看性 | 性色av无码免费一区二区三区 | 亚洲精品美女久久久久久久 | 无码人妻精品一区二区三区不卡 | 美女极度色诱视频国产 | 丰满人妻一区二区三区免费视频 | 国产精品毛片一区二区 | 97精品国产97久久久久久免费 | 国内综合精品午夜久久资源 | 亚洲日韩乱码中文无码蜜桃臀网站 | 久久久婷婷五月亚洲97号色 | 国产亚洲精品精品国产亚洲综合 | 国产超碰人人爽人人做人人添 | 欧美日韩人成综合在线播放 | 国产精品久久久午夜夜伦鲁鲁 | 扒开双腿疯狂进出爽爽爽视频 | 亚洲中文字幕无码中文字在线 | 亚洲日本一区二区三区在线 | 九九久久精品国产免费看小说 | 扒开双腿吃奶呻吟做受视频 | 国产综合久久久久鬼色 | 粉嫩少妇内射浓精videos | 亚洲 高清 成人 动漫 | 亚洲精品一区二区三区在线 | 奇米影视7777久久精品 | 午夜嘿嘿嘿影院 | 在线欧美精品一区二区三区 | 国产性生交xxxxx无码 | 国产精品多人p群无码 | 无遮挡国产高潮视频免费观看 | 中文字幕无码热在线视频 | 免费无码午夜福利片69 | 国内综合精品午夜久久资源 | 7777奇米四色成人眼影 | 成人欧美一区二区三区 | 日韩 欧美 动漫 国产 制服 | 久久 国产 尿 小便 嘘嘘 | 成 人 网 站国产免费观看 | 亚洲の无码国产の无码步美 | 少妇人妻大乳在线视频 | 高潮毛片无遮挡高清免费视频 | 人妻少妇精品久久 | 377p欧洲日本亚洲大胆 | 精品aⅴ一区二区三区 | 人人妻人人澡人人爽人人精品浪潮 | 天天躁日日躁狠狠躁免费麻豆 | 人妻少妇精品无码专区二区 | 人妻aⅴ无码一区二区三区 | 综合网日日天干夜夜久久 | 一本大道伊人av久久综合 | 未满小14洗澡无码视频网站 | 亚洲国产欧美国产综合一区 | 日韩 欧美 动漫 国产 制服 | 亚洲色偷偷男人的天堂 | 亚洲性无码av中文字幕 | 天天综合网天天综合色 | 国产精品久久国产精品99 | √天堂中文官网8在线 | 蜜桃视频插满18在线观看 | 丰满肥臀大屁股熟妇激情视频 | 在线播放亚洲第一字幕 | 一本色道婷婷久久欧美 | 无码毛片视频一区二区本码 | 久久久久久国产精品无码下载 | 无码中文字幕色专区 | 亚洲精品久久久久久久久久久 | 香港三级日本三级妇三级 | 国产高清不卡无码视频 | 亚洲欧美日韩综合久久久 | 欧美国产日韩亚洲中文 | 日日碰狠狠躁久久躁蜜桃 | 亚洲精品一区二区三区在线 | 无码免费一区二区三区 | 激情综合激情五月俺也去 | 国产激情一区二区三区 | 久久久久久九九精品久 | 欧美人与善在线com | 精品欧美一区二区三区久久久 | 亚洲成a人片在线观看日本 | 欧美zoozzooz性欧美 | 国产一区二区三区四区五区加勒比 | 亚洲一区二区三区含羞草 | 国产熟妇高潮叫床视频播放 | 亚洲va中文字幕无码久久不卡 | 国产办公室秘书无码精品99 | 国产精品毛片一区二区 | 国产一区二区三区日韩精品 | 日本精品久久久久中文字幕 | 日本熟妇人妻xxxxx人hd | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 高潮毛片无遮挡高清免费 | 欧美成人午夜精品久久久 | 亚洲欧美日韩成人高清在线一区 | 精品夜夜澡人妻无码av蜜桃 | 日韩亚洲欧美精品综合 | 伊人久久大香线蕉av一区二区 | 日产精品高潮呻吟av久久 | 精品国产一区av天美传媒 | 亚洲小说春色综合另类 | 免费网站看v片在线18禁无码 | 欧美国产日韩亚洲中文 | 久久久精品欧美一区二区免费 | 131美女爱做视频 | 大地资源网第二页免费观看 | 日本丰满护士爆乳xxxx | 国产莉萝无码av在线播放 | 国产 浪潮av性色四虎 | 婷婷丁香六月激情综合啪 | 欧美日本免费一区二区三区 | 夜精品a片一区二区三区无码白浆 | 无遮挡国产高潮视频免费观看 | 曰韩少妇内射免费播放 | 麻豆国产97在线 | 欧洲 | 日本一区二区更新不卡 | 亚洲の无码国产の无码影院 | 欧美黑人乱大交 | 国产精品亚洲专区无码不卡 | 香港三级日本三级妇三级 | 4hu四虎永久在线观看 | 国产精品久久久久久久影院 | 天天摸天天碰天天添 | 国产无遮挡又黄又爽免费视频 | 精品国产青草久久久久福利 | 国产熟女一区二区三区四区五区 | 日本精品高清一区二区 | 国产一区二区三区四区五区加勒比 | 国产精品内射视频免费 | 国产精品久久久久久亚洲毛片 | 中文字幕无码免费久久9一区9 | 国产精品国产自线拍免费软件 | 久久久久久av无码免费看大片 | 九九综合va免费看 | 狠狠色噜噜狠狠狠7777奇米 | 日日天日日夜日日摸 | 日本丰满熟妇videos | 日本熟妇人妻xxxxx人hd | 老子影院午夜精品无码 | 99久久人妻精品免费二区 | 欧美日韩人成综合在线播放 | 国产精品久久久久久无码 | 国内少妇偷人精品视频免费 | 鲁鲁鲁爽爽爽在线视频观看 | av无码不卡在线观看免费 | 少妇的肉体aa片免费 | 国产人妻精品一区二区三区不卡 | 国产在线aaa片一区二区99 | 免费观看的无遮挡av | 亚洲色大成网站www | 国产高清不卡无码视频 | 漂亮人妻洗澡被公强 日日躁 | 丁香花在线影院观看在线播放 | 宝宝好涨水快流出来免费视频 | 午夜福利不卡在线视频 | 国产乱人偷精品人妻a片 | 久久综合狠狠综合久久综合88 | 色综合天天综合狠狠爱 | 国产后入清纯学生妹 | 性欧美疯狂xxxxbbbb | 又粗又大又硬又长又爽 | 国产精品国产自线拍免费软件 | 任你躁在线精品免费 | 99在线 | 亚洲 | 在线成人www免费观看视频 | 久久综合网欧美色妞网 | 欧美三级a做爰在线观看 | 中文精品久久久久人妻不卡 | 日本欧美一区二区三区乱码 | 久久精品无码一区二区三区 | 对白脏话肉麻粗话av | 亚洲 另类 在线 欧美 制服 | 免费观看黄网站 | 久久久久av无码免费网 | 亚洲va欧美va天堂v国产综合 | 久久精品国产大片免费观看 | 疯狂三人交性欧美 | 无套内谢的新婚少妇国语播放 | 人人爽人人澡人人人妻 | 人人妻人人澡人人爽欧美精品 | 中文无码精品a∨在线观看不卡 | 中文久久乱码一区二区 | 又大又硬又黄的免费视频 | 99麻豆久久久国产精品免费 | 激情爆乳一区二区三区 | 中文无码成人免费视频在线观看 | 亚洲日韩乱码中文无码蜜桃臀网站 | 国产精品18久久久久久麻辣 | 樱花草在线社区www | 熟妇女人妻丰满少妇中文字幕 | 夜夜躁日日躁狠狠久久av | 乱码午夜-极国产极内射 | 久久人人爽人人爽人人片av高清 | 成人动漫在线观看 | 国产成人一区二区三区别 | 日本一卡2卡3卡四卡精品网站 | 熟妇人妻无乱码中文字幕 | 久久婷婷五月综合色国产香蕉 | 美女扒开屁股让男人桶 | 大肉大捧一进一出视频出来呀 | 亚洲精品国产精品乱码视色 | 久久亚洲日韩精品一区二区三区 | 亚洲色成人中文字幕网站 | 婷婷丁香五月天综合东京热 | 国产人妻人伦精品1国产丝袜 | 亚洲春色在线视频 | 欧美日韩一区二区综合 | 老子影院午夜伦不卡 | 性色欲网站人妻丰满中文久久不卡 | 国产精品久久久久影院嫩草 | 欧美兽交xxxx×视频 | 日本成熟视频免费视频 | 国产综合色产在线精品 | 国内精品久久毛片一区二区 | 久久久精品456亚洲影院 | 亚洲 a v无 码免 费 成 人 a v | 领导边摸边吃奶边做爽在线观看 | 麻花豆传媒剧国产免费mv在线 | 亚洲熟妇色xxxxx欧美老妇y | 日本一卡2卡3卡四卡精品网站 | 麻豆国产丝袜白领秘书在线观看 | 久久久中文久久久无码 | 久久亚洲精品成人无码 | 成人精品天堂一区二区三区 | 国产亚洲精品久久久久久久 | 无码精品国产va在线观看dvd | 又黄又爽又色的视频 | 久久午夜夜伦鲁鲁片无码免费 | 高清国产亚洲精品自在久久 | 大胆欧美熟妇xx | 精品国偷自产在线视频 | 性生交片免费无码看人 | 国产农村乱对白刺激视频 | 国产人妻精品一区二区三区 | 天堂亚洲免费视频 | 扒开双腿吃奶呻吟做受视频 | 国产色视频一区二区三区 | 国产精品亚洲综合色区韩国 | 少妇被粗大的猛进出69影院 | 国产精品99爱免费视频 | 少妇被粗大的猛进出69影院 | 欧美精品在线观看 | 白嫩日本少妇做爰 | 四虎国产精品免费久久 | 300部国产真实乱 | 娇妻被黑人粗大高潮白浆 | 少妇无套内谢久久久久 | 日本欧美一区二区三区乱码 | 欧美日韩综合一区二区三区 | 午夜嘿嘿嘿影院 | 日日麻批免费40分钟无码 | a在线亚洲男人的天堂 | 久久综合久久自在自线精品自 | 色综合视频一区二区三区 | 爽爽影院免费观看 | 欧美性猛交xxxx富婆 | 正在播放老肥熟妇露脸 | 少妇无套内谢久久久久 | 黑人粗大猛烈进出高潮视频 | 帮老师解开蕾丝奶罩吸乳网站 | 成人精品视频一区二区 | 四虎影视成人永久免费观看视频 | 日日碰狠狠丁香久燥 | 久久人人爽人人爽人人片av高清 | av在线亚洲欧洲日产一区二区 | 麻豆精品国产精华精华液好用吗 | 色一情一乱一伦一视频免费看 | 欧美精品无码一区二区三区 | 黄网在线观看免费网站 | 日韩精品无码免费一区二区三区 | 国产乱码精品一品二品 | 性做久久久久久久免费看 | 久久人人爽人人爽人人片av高清 | 无码精品人妻一区二区三区av | 国产特级毛片aaaaaaa高清 | 女人被男人躁得好爽免费视频 | 特黄特色大片免费播放器图片 | 无码人妻av免费一区二区三区 | 成人欧美一区二区三区黑人 | 精品无码国产自产拍在线观看蜜 | 噜噜噜亚洲色成人网站 | 国产人妻大战黑人第1集 | 最近免费中文字幕中文高清百度 | 久在线观看福利视频 | 国产午夜亚洲精品不卡 | 天天拍夜夜添久久精品大 | 少妇邻居内射在线 | 国产精品久免费的黄网站 | 精品无人区无码乱码毛片国产 | 国产精品成人av在线观看 | 国产精品va在线播放 | 成人免费无码大片a毛片 | 精品国精品国产自在久国产87 | 亚洲日韩av片在线观看 | 日韩av无码一区二区三区 | 国产美女极度色诱视频www | 免费国产成人高清在线观看网站 | 老子影院午夜精品无码 | 国产疯狂伦交大片 | 人妻少妇精品无码专区动漫 | 国产亚洲日韩欧美另类第八页 | 99国产欧美久久久精品 | 久久精品中文字幕一区 | 免费观看的无遮挡av | 亚洲熟妇色xxxxx欧美老妇 | 日本爽爽爽爽爽爽在线观看免 | 亚洲自偷自偷在线制服 | 久久精品女人天堂av免费观看 | 精品国产国产综合精品 | 偷窥村妇洗澡毛毛多 | 午夜不卡av免费 一本久久a久久精品vr综合 | 欧美高清在线精品一区 | 牛和人交xxxx欧美 | 亚洲第一无码av无码专区 | 99久久无码一区人妻 | 99麻豆久久久国产精品免费 | 中文字幕乱码中文乱码51精品 | 国产精品二区一区二区aⅴ污介绍 | 国产成人精品久久亚洲高清不卡 | 久久精品人人做人人综合 | 人人妻人人澡人人爽人人精品浪潮 | 99久久精品国产一区二区蜜芽 | 亚洲国产精品久久久天堂 | 国产精品久久精品三级 | 精品久久久无码中文字幕 | 国产av一区二区三区最新精品 | 成人精品视频一区二区 | 亚洲无人区午夜福利码高清完整版 | 国产成人精品一区二区在线小狼 | 老熟妇仑乱视频一区二区 | 最近的中文字幕在线看视频 | 国产精品久久久午夜夜伦鲁鲁 | 国产午夜福利100集发布 | 日日碰狠狠躁久久躁蜜桃 | 老熟女乱子伦 | 欧美三级a做爰在线观看 | 精品无码一区二区三区爱欲 | 国产精品亚洲一区二区三区喷水 | 动漫av一区二区在线观看 | √天堂中文官网8在线 | 国产成人无码a区在线观看视频app | 久久精品中文字幕一区 | 精品人妻人人做人人爽夜夜爽 | 国产凸凹视频一区二区 | 中文字幕无码免费久久99 | 精品国产一区二区三区四区在线看 | 中文字幕+乱码+中文字幕一区 | 久久久精品人妻久久影视 | 国产在线一区二区三区四区五区 | 日韩av无码一区二区三区 | 亚洲国产精品一区二区第一页 | 中文字幕日韩精品一区二区三区 | 日本一区二区更新不卡 | 天天爽夜夜爽夜夜爽 | 一本加勒比波多野结衣 | 天天拍夜夜添久久精品 | 激情爆乳一区二区三区 | 色综合天天综合狠狠爱 | 亚洲一区二区三区播放 | 国产在热线精品视频 | 色婷婷久久一区二区三区麻豆 | 九九综合va免费看 | 色欲久久久天天天综合网精品 | 成人无码视频在线观看网站 | 国产午夜亚洲精品不卡 | 国产农村妇女高潮大叫 |