久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 运维知识 > windows >内容正文

windows

训练一个目标检测模型

發(fā)布時(shí)間:2023/12/24 windows 28 coder
生活随笔 收集整理的這篇文章主要介紹了 训练一个目标检测模型 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

博客地址:https://www.cnblogs.com/zylyehuo/

(一)識(shí)別背景/目的

第十八屆全國(guó)大學(xué)生智能汽車競(jìng)賽室外 ROS 無(wú)人車賽(高教組)

無(wú)人車在室外運(yùn)行中, 需要探索未知環(huán)境, 識(shí)別障礙物, 停車標(biāo)志牌、紅綠燈等標(biāo)志物。

比賽場(chǎng)地為不規(guī)則環(huán)形場(chǎng)地, 由紅藍(lán)兩色錐桶搭建而成, 整體賽道由直線區(qū)域、 "S"彎、 直角區(qū)域、 圓形區(qū)域等部分元素或全部元素構(gòu)成

(二)識(shí)別/運(yùn)行場(chǎng)地

① 一食堂二樓

② 室外網(wǎng)球場(chǎng)地

(三)實(shí)現(xiàn)效果

(四)技術(shù)棧

  • 識(shí)別模型:yolov5
  • 標(biāo)注工具:labelmaster
  • 運(yùn)行環(huán)境:Ubuntu20.04
  • 加速方式:使用onnx及tensorrt將模型進(jìn)行推理加速

(五)識(shí)別類別

  • 0: red 紅色錐桶
  • 1: blue 藍(lán)色錐桶
  • 2: stop 紅綠燈(紅燈)
  • 3: wait 停車牌

(六)yolov5目標(biāo)檢測(cè)模型及其環(huán)境配置過(guò)程

第一步:下載yolov5源碼

https://github.com/ultralytics/yolov5

第二步:解壓源碼壓縮包

第三步:在代碼編輯器 pycharm/vscode 中打開(kāi)源碼文件夾(配置完成)

(七)訓(xùn)練數(shù)據(jù)、測(cè)試數(shù)據(jù)采集

第一步:打開(kāi) ROS 智能車攝像頭

終端輸入 cheese

第二步:點(diǎn)擊拍攝按鍵,采集數(shù)據(jù)集圖片

第三步:將無(wú)人車上的照片拷貝到電腦上,為數(shù)據(jù)標(biāo)注做準(zhǔn)備

(八)訓(xùn)練數(shù)據(jù)、測(cè)試數(shù)據(jù)標(biāo)注、整理

第一步:安裝 labelmaster 庫(kù)

pip install labelImg

第二步:?jiǎn)?dòng) labelmaster

labelImg

第三步:打開(kāi)采集圖片的保存路徑

第四步:鼠標(biāo)右鍵圖片,創(chuàng)建區(qū)塊標(biāo)注

左側(cè)選擇創(chuàng)建區(qū)塊

鼠標(biāo)移至目標(biāo)的左上角

點(diǎn)擊鼠標(biāo)并拉直右下角

在出現(xiàn)的框里面選擇自己標(biāo)注目標(biāo)的分類

鍵入新的分類,則會(huì)自動(dòng)生成一個(gè)新的分類

這邊選擇wait的紅綠燈分類

左鍵單擊 ok 鍵

完成單個(gè)目標(biāo)的標(biāo)注

其他類別同樣操作,只是分類時(shí)選擇不同分類

依次按照識(shí)別類別對(duì)其余區(qū)塊進(jìn)行標(biāo)注

例如下圖選擇red的紅色錐桶分類

全部完成后左上角點(diǎn)擊“改變保存目錄

選擇保存的目標(biāo)文件夾

第五步:保存標(biāo)注參數(shù),保存為 .txt 文件后綴

點(diǎn)擊保存下方的按鍵,改變保存的文件格式,保存為 .txt 文件后綴

yolo”對(duì)應(yīng)的是“txt”文件

PascalVOC”對(duì)應(yīng)的是“xml”文件

CreatelML”對(duì)應(yīng)的是“json”文件

最后單擊保存完成標(biāo)注

此時(shí),保存的文件夾中會(huì)自動(dòng)生成一個(gè) class.txt 文件

(九)模型訓(xùn)練過(guò)程

為了減小最終模型保存的大小,保證無(wú)人車整體運(yùn)行的流程性,我們選用 yolov5n.yaml 的參數(shù)作為樣本

源碼:yolov5n.yaml

# Parameters
nc: 80  # number of classes
depth_multiple: 0.33  # model depth multiple
width_multiple: 0.25  # layer channel multiple
anchors:
  - [10,13, 16,30, 33,23]  # P3/8
  - [30,61, 62,45, 59,119]  # P4/16
  - [116,90, 156,198, 373,326]  # P5/32

# YOLOv5 v6.0 backbone
backbone:
  # [from, number, module, args]
  [[-1, 1, Conv, [64, 6, 2, 2]],  # 0-P1/2
   [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
   [-1, 3, C3, [128]],
   [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
   [-1, 6, C3, [256]],
   [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
   [-1, 9, C3, [512]],
   [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
   [-1, 3, C3, [1024]],
   [-1, 1, SPPF, [1024, 5]],  # 9
  ]

# YOLOv5 v6.0 head
head:
  [[-1, 1, Conv, [512, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4
   [-1, 3, C3, [512, False]],  # 13

   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 3, C3, [256, False]],  # 17 (P3/8-small)

   [-1, 1, Conv, [256, 3, 2]],
   [[-1, 14], 1, Concat, [1]],  # cat head P4
   [-1, 3, C3, [512, False]],  # 20 (P4/16-medium)

   [-1, 1, Conv, [512, 3, 2]],
   [[-1, 10], 1, Concat, [1]],  # cat head P5
   [-1, 3, C3, [1024, False]],  # 23 (P5/32-large)

   [[17, 20, 23], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
  ]

第一步:配置識(shí)別模型參數(shù)

① IP_model.yaml(在 yolov5n.yaml 基礎(chǔ)上進(jìn)行修改)

# Parameters
nc: 4  # number of classes
depth_multiple: 0.33  # model depth multiple
width_multiple: 0.25  # layer channel multiple
anchors:
  - [10,13, 16,30, 33,23]  # P3/8
  - [30,61, 62,45, 59,119]  # P4/16
  - [116,90, 156,198, 373,326]  # P5/32

# YOLOv5 v6.0 backbone
backbone:
  # [from, number, module, args]
  [[-1, 1, Conv, [64, 6, 2, 2]],  # 0-P1/2
   [-1, 1, Conv, [128, 3, 2]],  # 1-P2/4
   [-1, 3, C3, [128]],
   [-1, 1, Conv, [256, 3, 2]],  # 3-P3/8
   [-1, 6, C3, [256]],
   [-1, 1, Conv, [512, 3, 2]],  # 5-P4/16
   [-1, 9, C3, [512]],
   [-1, 1, Conv, [1024, 3, 2]],  # 7-P5/32
   [-1, 3, C3, [1024]],
   [-1, 1, SPPF, [1024, 5]],  # 9
  ]

# YOLOv5 v6.0 head
head:
  [[-1, 1, Conv, [512, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 6], 1, Concat, [1]],  # cat backbone P4
   [-1, 3, C3, [512, False]],  # 13

   [-1, 1, Conv, [256, 1, 1]],
   [-1, 1, nn.Upsample, [None, 2, 'nearest']],
   [[-1, 4], 1, Concat, [1]],  # cat backbone P3
   [-1, 3, C3, [256, False]],  # 17 (P3/8-small)

   [-1, 1, Conv, [256, 3, 2]],
   [[-1, 14], 1, Concat, [1]],  # cat head P4
   [-1, 3, C3, [512, False]],  # 20 (P4/16-medium)

   [-1, 1, Conv, [512, 3, 2]],
   [[-1, 10], 1, Concat, [1]],  # cat head P5
   [-1, 3, C3, [1024, False]],  # 23 (P5/32-large)

   [[17, 20, 23], 1, Detect, [nc, anchors]],  # Detect(P3, P4, P5)
  ]

② IP_parameter.yaml(模型訓(xùn)練以及模型保存路徑等參數(shù)設(shè)置)

path: D:\BaiduNetdiskWorkspace\licenses\machine_learning\yolov5\yolov5-master\V2\datasets  # dataset root dir
train: images/train  # train images (relative to 'path') 128 images
val: images/train  # val images (relative to 'path') 128 images
test:  # test images (optional)

# Classes
names:
  0: red
  1: blue
  2: stop
  3: wait


# Download script/URL (optional)
download: https://ultralytics.com/assets/coco128.zip

第二步:編寫(xiě)模型訓(xùn)練代碼

train.py

import argparse
import math
import os
os.environ["GIT_PYTHON_REFRESH"] = "quiet"
import random
import subprocess
import sys
import time
from copy import deepcopy
from datetime import datetime
from pathlib import Path

import numpy as np
import torch
import torch.distributed as dist
import torch.nn as nn
import yaml
from torch.optim import lr_scheduler
from tqdm import tqdm

FILE = Path(__file__).resolve()
ROOT = FILE.parents[0]  # YOLOv5 root directory
if str(ROOT) not in sys.path:
    sys.path.append(str(ROOT))  # add ROOT to PATH
ROOT = Path(os.path.relpath(ROOT, Path.cwd()))  # relative

import val as validate  # for end-of-epoch mAP
from models.experimental import attempt_load
from models.yolo import Model
from utils.autoanchor import check_anchors
from utils.autobatch import check_train_batch_size
from utils.callbacks import Callbacks
from utils.dataloaders import create_dataloader
from utils.downloads import attempt_download, is_url
from utils.general import (LOGGER, TQDM_BAR_FORMAT, check_amp, check_dataset, check_file, check_git_info,
                           check_git_status, check_img_size, check_requirements, check_suffix, check_yaml, colorstr,
                           get_latest_run, increment_path, init_seeds, intersect_dicts, labels_to_class_weights,
                           labels_to_image_weights, methods, one_cycle, print_args, print_mutation, strip_optimizer,
                           yaml_save)
from utils.loggers import Loggers
from utils.loggers.comet.comet_utils import check_comet_resume
from utils.loss import ComputeLoss
from utils.metrics import fitness
from utils.plots import plot_evolve
from utils.torch_utils import (EarlyStopping, ModelEMA, de_parallel, select_device, smart_DDP, smart_optimizer,
                               smart_resume, torch_distributed_zero_first)

LOCAL_RANK = int(os.getenv('LOCAL_RANK', -1))  # https://pytorch.org/docs/stable/elastic/run.html
RANK = int(os.getenv('RANK', -1))
WORLD_SIZE = int(os.getenv('WORLD_SIZE', 1))
GIT_INFO = check_git_info()


def train(hyp, opt, device, callbacks):  # hyp is path/to/hyp.yaml or hyp dictionary
    save_dir, epochs, batch_size, weights, single_cls, evolve, data, cfg, resume, noval, nosave, workers, freeze = \
        Path(opt.save_dir), opt.epochs, opt.batch_size, opt.weights, opt.single_cls, opt.evolve, opt.data, opt.cfg, \
        opt.resume, opt.noval, opt.nosave, opt.workers, opt.freeze
    callbacks.run('on_pretrain_routine_start')

    # Directories
    w = save_dir / 'weights'  # weights dir
    (w.parent if evolve else w).mkdir(parents=True, exist_ok=True)  # make dir
    last, best = w / 'last.pt', w / 'best.pt'

    # Hyperparameters
    if isinstance(hyp, str):
        with open(hyp, errors='ignore') as f:
            hyp = yaml.safe_load(f)  # load hyps dict
    LOGGER.info(colorstr('hyperparameters: ') + ', '.join(f'{k}={v}' for k, v in hyp.items()))
    opt.hyp = hyp.copy()  # for saving hyps to checkpoints

    # Save run settings
    if not evolve:
        yaml_save(save_dir / 'hyp.yaml', hyp)
        yaml_save(save_dir / 'opt.yaml', vars(opt))

    # Loggers
    data_dict = None
    if RANK in {-1, 0}:
        loggers = Loggers(save_dir, weights, opt, hyp, LOGGER)  # loggers instance

        # Register actions
        for k in methods(loggers):
            callbacks.register_action(k, callback=getattr(loggers, k))

        # Process custom dataset artifact link
        data_dict = loggers.remote_dataset
        if resume:  # If resuming runs from remote artifact
            weights, epochs, hyp, batch_size = opt.weights, opt.epochs, opt.hyp, opt.batch_size

    # Config
    plots = not evolve and not opt.noplots  # create plots
    cuda = device.type != 'cpu'
    init_seeds(opt.seed + 1 + RANK, deterministic=True)
    with torch_distributed_zero_first(LOCAL_RANK):
        data_dict = data_dict or check_dataset(data)  # check if None
    train_path, val_path = data_dict['train'], data_dict['val']
    nc = 1 if single_cls else int(data_dict['nc'])  # number of classes
    names = {0: 'item'} if single_cls and len(data_dict['names']) != 1 else data_dict['names']  # class names
    is_coco = isinstance(val_path, str) and val_path.endswith('coco/val2017.txt')  # COCO dataset

    # Model
    check_suffix(weights, '.pt')  # check weights
    pretrained = weights.endswith('.pt')
    if pretrained:
        with torch_distributed_zero_first(LOCAL_RANK):
            weights = attempt_download(weights)  # download if not found locally
        ckpt = torch.load(weights, map_location='cpu')  # load checkpoint to CPU to avoid CUDA memory leak
        model = Model(cfg or ckpt['model'].yaml, ch=3, nc=nc, anchors=hyp.get('anchors')).to(device)  # create
        exclude = ['anchor'] if (cfg or hyp.get('anchors')) and not resume else []  # exclude keys
        csd = ckpt['model'].float().state_dict()  # checkpoint state_dict as FP32
        csd = intersect_dicts(csd, model.state_dict(), exclude=exclude)  # intersect
        model.load_state_dict(csd, strict=False)  # load
        LOGGER.info(f'Transferred {len(csd)}/{len(model.state_dict())} items from {weights}')  # report
    else:
        model = Model(cfg, ch=3, nc=nc, anchors=hyp.get('anchors')).to(device)  # create
    amp = check_amp(model)  # check AMP

    # Freeze
    freeze = [f'model.{x}.' for x in (freeze if len(freeze) > 1 else range(freeze[0]))]  # layers to freeze
    for k, v in model.named_parameters():
        v.requires_grad = True  # train all layers
        # v.register_hook(lambda x: torch.nan_to_num(x))  # NaN to 0 (commented for erratic training results)
        if any(x in k for x in freeze):
            LOGGER.info(f'freezing {k}')
            v.requires_grad = False

    # Image size
    gs = max(int(model.stride.max()), 32)  # grid size (max stride)
    imgsz = check_img_size(opt.imgsz, gs, floor=gs * 2)  # verify imgsz is gs-multiple

    # Batch size
    if RANK == -1 and batch_size == -1:  # single-GPU only, estimate best batch size
        batch_size = check_train_batch_size(model, imgsz, amp)
        loggers.on_params_update({'batch_size': batch_size})

    # Optimizer
    nbs = 64  # nominal batch size
    accumulate = max(round(nbs / batch_size), 1)  # accumulate loss before optimizing
    hyp['weight_decay'] *= batch_size * accumulate / nbs  # scale weight_decay
    optimizer = smart_optimizer(model, opt.optimizer, hyp['lr0'], hyp['momentum'], hyp['weight_decay'])

    # Scheduler
    if opt.cos_lr:
        lf = one_cycle(1, hyp['lrf'], epochs)  # cosine 1->hyp['lrf']
    else:
        lf = lambda x: (1 - x / epochs) * (1.0 - hyp['lrf']) + hyp['lrf']  # linear
    scheduler = lr_scheduler.LambdaLR(optimizer, lr_lambda=lf)  # plot_lr_scheduler(optimizer, scheduler, epochs)

    # EMA
    ema = ModelEMA(model) if RANK in {-1, 0} else None

    # Resume
    best_fitness, start_epoch = 0.0, 0
    if pretrained:
        if resume:
            best_fitness, start_epoch, epochs = smart_resume(ckpt, optimizer, ema, weights, epochs, resume)
        del ckpt, csd

    # DP mode
    if cuda and RANK == -1 and torch.cuda.device_count() > 1:
        LOGGER.warning(
            'WARNING ?? DP not recommended, use torch.distributed.run for best DDP Multi-GPU results.\n'
            'See Multi-GPU Tutorial at https://docs.ultralytics.com/yolov5/tutorials/multi_gpu_training to get started.'
        )
        model = torch.nn.DataParallel(model)

    # SyncBatchNorm
    if opt.sync_bn and cuda and RANK != -1:
        model = torch.nn.SyncBatchNorm.convert_sync_batchnorm(model).to(device)
        LOGGER.info('Using SyncBatchNorm()')

    # Trainloader
    train_loader, dataset = create_dataloader(train_path,
                                              imgsz,
                                              batch_size // WORLD_SIZE,
                                              gs,
                                              single_cls,
                                              hyp=hyp,
                                              augment=True,
                                              cache=None if opt.cache == 'val' else opt.cache,
                                              rect=opt.rect,
                                              rank=LOCAL_RANK,
                                              workers=workers,
                                              image_weights=opt.image_weights,
                                              quad=opt.quad,
                                              prefix=colorstr('train: '),
                                              shuffle=True,
                                              seed=opt.seed)
    labels = np.concatenate(dataset.labels, 0)
    mlc = int(labels[:, 0].max())  # max label class
    assert mlc < nc, f'Label class {mlc} exceeds nc={nc} in {data}. Possible class labels are 0-{nc - 1}'

    # Process 0
    if RANK in {-1, 0}:
        val_loader = create_dataloader(val_path,
                                       imgsz,
                                       batch_size // WORLD_SIZE * 2,
                                       gs,
                                       single_cls,
                                       hyp=hyp,
                                       cache=None if noval else opt.cache,
                                       rect=True,
                                       rank=-1,
                                       workers=workers * 2,
                                       pad=0.5,
                                       prefix=colorstr('val: '))[0]

        if not resume:
            if not opt.noautoanchor:
                check_anchors(dataset, model=model, thr=hyp['anchor_t'], imgsz=imgsz)  # run AutoAnchor
            model.half().float()  # pre-reduce anchor precision

        callbacks.run('on_pretrain_routine_end', labels, names)

    # DDP mode
    if cuda and RANK != -1:
        model = smart_DDP(model)

    # Model attributes
    nl = de_parallel(model).model[-1].nl  # number of detection layers (to scale hyps)
    hyp['box'] *= 3 / nl  # scale to layers
    hyp['cls'] *= nc / 80 * 3 / nl  # scale to classes and layers
    hyp['obj'] *= (imgsz / 640) ** 2 * 3 / nl  # scale to image size and layers
    hyp['label_smoothing'] = opt.label_smoothing
    model.nc = nc  # attach number of classes to model
    model.hyp = hyp  # attach hyperparameters to model
    model.class_weights = labels_to_class_weights(dataset.labels, nc).to(device) * nc  # attach class weights
    model.names = names

    # Start training
    t0 = time.time()
    nb = len(train_loader)  # number of batches
    nw = max(round(hyp['warmup_epochs'] * nb), 100)  # number of warmup iterations, max(3 epochs, 100 iterations)
    # nw = min(nw, (epochs - start_epoch) / 2 * nb)  # limit warmup to < 1/2 of training
    last_opt_step = -1
    maps = np.zeros(nc)  # mAP per class
    results = (0, 0, 0, 0, 0, 0, 0)  # P, R, mAP@.5, mAP@.5-.95, val_loss(box, obj, cls)
    scheduler.last_epoch = start_epoch - 1  # do not move
    scaler = torch.cuda.amp.GradScaler(enabled=amp)
    stopper, stop = EarlyStopping(patience=opt.patience), False
    compute_loss = ComputeLoss(model)  # init loss class
    callbacks.run('on_train_start')
    LOGGER.info(f'Image sizes {imgsz} train, {imgsz} val\n'
                f'Using {train_loader.num_workers * WORLD_SIZE} dataloader workers\n'
                f"Logging results to {colorstr('bold', save_dir)}\n"
                f'Starting training for {epochs} epochs...')
    for epoch in range(start_epoch, epochs):  # epoch ------------------------------------------------------------------
        callbacks.run('on_train_epoch_start')
        model.train()

        # Update image weights (optional, single-GPU only)
        if opt.image_weights:
            cw = model.class_weights.cpu().numpy() * (1 - maps) ** 2 / nc  # class weights
            iw = labels_to_image_weights(dataset.labels, nc=nc, class_weights=cw)  # image weights
            dataset.indices = random.choices(range(dataset.n), weights=iw, k=dataset.n)  # rand weighted idx

        # Update mosaic border (optional)
        # b = int(random.uniform(0.25 * imgsz, 0.75 * imgsz + gs) // gs * gs)
        # dataset.mosaic_border = [b - imgsz, -b]  # height, width borders

        mloss = torch.zeros(3, device=device)  # mean losses
        if RANK != -1:
            train_loader.sampler.set_epoch(epoch)
        pbar = enumerate(train_loader)
        LOGGER.info(('\n' + '%11s' * 7) % ('Epoch', 'GPU_mem', 'box_loss', 'obj_loss', 'cls_loss', 'Instances', 'Size'))
        if RANK in {-1, 0}:
            pbar = tqdm(pbar, total=nb, bar_format=TQDM_BAR_FORMAT)  # progress bar
        optimizer.zero_grad()
        for i, (imgs, targets, paths, _) in pbar:  # batch -------------------------------------------------------------
            callbacks.run('on_train_batch_start')
            ni = i + nb * epoch  # number integrated batches (since train start)
            imgs = imgs.to(device, non_blocking=True).float() / 255  # uint8 to float32, 0-255 to 0.0-1.0

            # Warmup
            if ni <= nw:
                xi = [0, nw]  # x interp
                # compute_loss.gr = np.interp(ni, xi, [0.0, 1.0])  # iou loss ratio (obj_loss = 1.0 or iou)
                accumulate = max(1, np.interp(ni, xi, [1, nbs / batch_size]).round())
                for j, x in enumerate(optimizer.param_groups):
                    # bias lr falls from 0.1 to lr0, all other lrs rise from 0.0 to lr0
                    x['lr'] = np.interp(ni, xi, [hyp['warmup_bias_lr'] if j == 0 else 0.0, x['initial_lr'] * lf(epoch)])
                    if 'momentum' in x:
                        x['momentum'] = np.interp(ni, xi, [hyp['warmup_momentum'], hyp['momentum']])

            # Multi-scale
            if opt.multi_scale:
                sz = random.randrange(int(imgsz * 0.5), int(imgsz * 1.5) + gs) // gs * gs  # size
                sf = sz / max(imgs.shape[2:])  # scale factor
                if sf != 1:
                    ns = [math.ceil(x * sf / gs) * gs for x in imgs.shape[2:]]  # new shape (stretched to gs-multiple)
                    imgs = nn.functional.interpolate(imgs, size=ns, mode='bilinear', align_corners=False)

            # Forward
            with torch.cuda.amp.autocast(amp):
                pred = model(imgs)  # forward
                loss, loss_items = compute_loss(pred, targets.to(device))  # loss scaled by batch_size
                if RANK != -1:
                    loss *= WORLD_SIZE  # gradient averaged between devices in DDP mode
                if opt.quad:
                    loss *= 4.

            # Backward
            scaler.scale(loss).backward()

            # Optimize - https://pytorch.org/docs/master/notes/amp_examples.html
            if ni - last_opt_step >= accumulate:
                scaler.unscale_(optimizer)  # unscale gradients
                torch.nn.utils.clip_grad_norm_(model.parameters(), max_norm=10.0)  # clip gradients
                scaler.step(optimizer)  # optimizer.step
                scaler.update()
                optimizer.zero_grad()
                if ema:
                    ema.update(model)
                last_opt_step = ni

            # Log
            if RANK in {-1, 0}:
                mloss = (mloss * i + loss_items) / (i + 1)  # update mean losses
                mem = f'{torch.cuda.memory_reserved() / 1E9 if torch.cuda.is_available() else 0:.3g}G'  # (GB)
                pbar.set_description(('%11s' * 2 + '%11.4g' * 5) %
                                     (f'{epoch}/{epochs - 1}', mem, *mloss, targets.shape[0], imgs.shape[-1]))
                callbacks.run('on_train_batch_end', model, ni, imgs, targets, paths, list(mloss))
                if callbacks.stop_training:
                    return
            # end batch ------------------------------------------------------------------------------------------------

        # Scheduler
        lr = [x['lr'] for x in optimizer.param_groups]  # for loggers
        scheduler.step()

        if RANK in {-1, 0}:
            # mAP
            callbacks.run('on_train_epoch_end', epoch=epoch)
            ema.update_attr(model, include=['yaml', 'nc', 'hyp', 'names', 'stride', 'class_weights'])
            final_epoch = (epoch + 1 == epochs) or stopper.possible_stop
            if not noval or final_epoch:  # Calculate mAP
                results, maps, _ = validate.run(data_dict,
                                                batch_size=batch_size // WORLD_SIZE * 2,
                                                imgsz=imgsz,
                                                half=amp,
                                                model=ema.ema,
                                                single_cls=single_cls,
                                                dataloader=val_loader,
                                                save_dir=save_dir,
                                                plots=False,
                                                callbacks=callbacks,
                                                compute_loss=compute_loss)

            # Update best mAP
            fi = fitness(np.array(results).reshape(1, -1))  # weighted combination of [P, R, mAP@.5, mAP@.5-.95]
            stop = stopper(epoch=epoch, fitness=fi)  # early stop check
            if fi > best_fitness:
                best_fitness = fi
            log_vals = list(mloss) + list(results) + lr
            callbacks.run('on_fit_epoch_end', log_vals, epoch, best_fitness, fi)

            # Save model
            if (not nosave) or (final_epoch and not evolve):  # if save
                ckpt = {
                    'epoch': epoch,
                    'best_fitness': best_fitness,
                    'model': deepcopy(de_parallel(model)).half(),
                    'ema': deepcopy(ema.ema).half(),
                    'updates': ema.updates,
                    'optimizer': optimizer.state_dict(),
                    'opt': vars(opt),
                    'git': GIT_INFO,  # {remote, branch, commit} if a git repo
                    'date': datetime.now().isoformat()}

                # Save last, best and delete
                torch.save(ckpt, last)
                if best_fitness == fi:
                    torch.save(ckpt, best)
                if opt.save_period > 0 and epoch % opt.save_period == 0:
                    torch.save(ckpt, w / f'epoch{epoch}.pt')
                del ckpt
                callbacks.run('on_model_save', last, epoch, final_epoch, best_fitness, fi)

        # EarlyStopping
        if RANK != -1:  # if DDP training
            broadcast_list = [stop if RANK == 0 else None]
            dist.broadcast_object_list(broadcast_list, 0)  # broadcast 'stop' to all ranks
            if RANK != 0:
                stop = broadcast_list[0]
        if stop:
            break  # must break all DDP ranks

        # end epoch ----------------------------------------------------------------------------------------------------
    # end training -----------------------------------------------------------------------------------------------------
    if RANK in {-1, 0}:
        LOGGER.info(f'\n{epoch - start_epoch + 1} epochs completed in {(time.time() - t0) / 3600:.3f} hours.')
        for f in last, best:
            if f.exists():
                strip_optimizer(f)  # strip optimizers
                if f is best:
                    LOGGER.info(f'\nValidating {f}...')
                    results, _, _ = validate.run(
                        data_dict,
                        batch_size=batch_size // WORLD_SIZE * 2,
                        imgsz=imgsz,
                        model=attempt_load(f, device).half(),
                        iou_thres=0.65 if is_coco else 0.60,  # best pycocotools at iou 0.65
                        single_cls=single_cls,
                        dataloader=val_loader,
                        save_dir=save_dir,
                        save_json=is_coco,
                        verbose=True,
                        plots=plots,
                        callbacks=callbacks,
                        compute_loss=compute_loss)  # val best model with plots
                    if is_coco:
                        callbacks.run('on_fit_epoch_end', list(mloss) + list(results) + lr, epoch, best_fitness, fi)

        callbacks.run('on_train_end', last, best, epoch, results)

    torch.cuda.empty_cache()
    return results


def parse_opt(known=False):
    parser = argparse.ArgumentParser()
    parser.add_argument('--weights', type=str, default=ROOT / r'yolov5n.pt', help='initial weights path')
    parser.add_argument('--cfg', type=str, default=ROOT / 'D:/BaiduNetdiskWorkspace/licenses/machine_learning/yolov5/yolov5-master/V2/IP_model.yaml', help='model.yaml path')
    parser.add_argument('--data', type=str, default=ROOT / 'D:/BaiduNetdiskWorkspace/licenses/machine_learning/yolov5/yolov5-master/V2/IP_parameter.yaml', help='dataset.yaml path')
    parser.add_argument('--hyp', type=str, default=ROOT / 'data/hyps/hyp.scratch-low.yaml', help='hyperparameters path')
    parser.add_argument('--epochs', type=int, default=300, help='total training epochs')
    parser.add_argument('--batch-size', type=int, default=-1, help='total batch size for all GPUs, -1 for autobatch')
    parser.add_argument('--imgsz', '--img', '--img-size', type=int, default=256, help='train, val image size (pixels)')
    parser.add_argument('--rect', action='store_true', help='rectangular training')
    parser.add_argument('--resume', nargs='?', const=True, default=False, help='resume most recent training')
    parser.add_argument('--nosave', action='store_true', help='only save final checkpoint')
    parser.add_argument('--noval', action='store_true', help='only validate final epoch')
    parser.add_argument('--noautoanchor', action='store_true', help='disable AutoAnchor')
    parser.add_argument('--noplots', action='store_true', help='save no plot files')
    parser.add_argument('--evolve', type=int, nargs='?', const=300, help='evolve hyperparameters for x generations')
    parser.add_argument('--bucket', type=str, default='', help='gsutil bucket')
    parser.add_argument('--cache', type=str, nargs='?', const='ram', help='image --cache ram/disk')
    parser.add_argument('--image-weights', action='store_true', help='use weighted image selection for training')
    parser.add_argument('--device', default='0', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
    parser.add_argument('--multi-scale', action='store_true', help='vary img-size +/- 50%%')
    parser.add_argument('--single-cls', action='store_true', help='train multi-class data as single-class')
    parser.add_argument('--optimizer', type=str, choices=['SGD', 'Adam', 'AdamW'], default='SGD', help='optimizer')
    parser.add_argument('--sync-bn', action='store_true', help='use SyncBatchNorm, only available in DDP mode')
    parser.add_argument('--workers', type=int, default=6, help='max dataloader workers (per RANK in DDP mode)')
    parser.add_argument('--project', default=ROOT / 'runs/train', help='save to project/name')
    parser.add_argument('--name', default='exp', help='save to project/name')
    parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')
    parser.add_argument('--quad', action='store_true', help='quad dataloader')
    parser.add_argument('--cos-lr', action='store_true', help='cosine LR scheduler')
    parser.add_argument('--label-smoothing', type=float, default=0.0, help='Label smoothing epsilon')
    parser.add_argument('--patience', type=int, default=100, help='EarlyStopping patience (epochs without improvement)')
    parser.add_argument('--freeze', nargs='+', type=int, default=[0], help='Freeze layers: backbone=10, first3=0 1 2')
    parser.add_argument('--save-period', type=int, default=-1, help='Save checkpoint every x epochs (disabled if < 1)')
    parser.add_argument('--seed', type=int, default=0, help='Global training seed')
    parser.add_argument('--local_rank', type=int, default=-1, help='Automatic DDP Multi-GPU argument, do not modify')

    # Logger arguments
    parser.add_argument('--entity', default=None, help='Entity')
    parser.add_argument('--upload_dataset', nargs='?', const=True, default=False, help='Upload data, "val" option')
    parser.add_argument('--bbox_interval', type=int, default=-1, help='Set bounding-box image logging interval')
    parser.add_argument('--artifact_alias', type=str, default='latest', help='Version of dataset artifact to use')

    return parser.parse_known_args()[0] if known else parser.parse_args()


def main(opt, callbacks=Callbacks()):
    # Checks
    if RANK in {-1, 0}:
        print_args(vars(opt))
        check_git_status()
        check_requirements()

    # Resume (from specified or most recent last.pt)
    if opt.resume and not check_comet_resume(opt) and not opt.evolve:
        last = Path(check_file(opt.resume) if isinstance(opt.resume, str) else get_latest_run())
        opt_yaml = last.parent.parent / 'opt.yaml'  # train options yaml
        opt_data = opt.data  # original dataset
        if opt_yaml.is_file():
            with open(opt_yaml, errors='ignore') as f:
                d = yaml.safe_load(f)
        else:
            d = torch.load(last, map_location='cpu')['opt']
        opt = argparse.Namespace(**d)  # replace
        opt.cfg, opt.weights, opt.resume = '', str(last), True  # reinstate
        if is_url(opt_data):
            opt.data = check_file(opt_data)  # avoid HUB resume auth timeout
    else:
        opt.data, opt.cfg, opt.hyp, opt.weights, opt.project = \
            check_file(opt.data), check_yaml(opt.cfg), check_yaml(opt.hyp), str(opt.weights), str(opt.project)  # checks
        assert len(opt.cfg) or len(opt.weights), 'either --cfg or --weights must be specified'
        if opt.evolve:
            if opt.project == str(ROOT / 'runs/train'):  # if default project name, rename to runs/evolve
                opt.project = str(ROOT / 'runs/evolve')
            opt.exist_ok, opt.resume = opt.resume, False  # pass resume to exist_ok and disable resume
        if opt.name == 'cfg':
            opt.name = Path(opt.cfg).stem  # use model.yaml as name
        opt.save_dir = str(increment_path(Path(opt.project) / opt.name, exist_ok=opt.exist_ok))

    # DDP mode
    device = select_device(opt.device, batch_size=opt.batch_size)
    if LOCAL_RANK != -1:
        msg = 'is not compatible with YOLOv5 Multi-GPU DDP training'
        assert not opt.image_weights, f'--image-weights {msg}'
        assert not opt.evolve, f'--evolve {msg}'
        assert opt.batch_size != -1, f'AutoBatch with --batch-size -1 {msg}, please pass a valid --batch-size'
        assert opt.batch_size % WORLD_SIZE == 0, f'--batch-size {opt.batch_size} must be multiple of WORLD_SIZE'
        assert torch.cuda.device_count() > LOCAL_RANK, 'insufficient CUDA devices for DDP command'
        torch.cuda.set_device(LOCAL_RANK)
        device = torch.device('cuda', LOCAL_RANK)
        dist.init_process_group(backend='nccl' if dist.is_nccl_available() else 'gloo')

    # Train
    if not opt.evolve:
        train(opt.hyp, opt, device, callbacks)

    # Evolve hyperparameters (optional)
    else:
        # Hyperparameter evolution metadata (mutation scale 0-1, lower_limit, upper_limit)
        meta = {
            'lr0': (1, 1e-5, 1e-1),  # initial learning rate (SGD=1E-2, Adam=1E-3)
            'lrf': (1, 0.01, 1.0),  # final OneCycleLR learning rate (lr0 * lrf)
            'momentum': (0.3, 0.6, 0.98),  # SGD momentum/Adam beta1
            'weight_decay': (1, 0.0, 0.001),  # optimizer weight decay
            'warmup_epochs': (1, 0.0, 5.0),  # warmup epochs (fractions ok)
            'warmup_momentum': (1, 0.0, 0.95),  # warmup initial momentum
            'warmup_bias_lr': (1, 0.0, 0.2),  # warmup initial bias lr
            'box': (1, 0.02, 0.2),  # box loss gain
            'cls': (1, 0.2, 4.0),  # cls loss gain
            'cls_pw': (1, 0.5, 2.0),  # cls BCELoss positive_weight
            'obj': (1, 0.2, 4.0),  # obj loss gain (scale with pixels)
            'obj_pw': (1, 0.5, 2.0),  # obj BCELoss positive_weight
            'iou_t': (0, 0.1, 0.7),  # IoU training threshold
            'anchor_t': (1, 2.0, 8.0),  # anchor-multiple threshold
            'anchors': (2, 2.0, 10.0),  # anchors per output grid (0 to ignore)
            'fl_gamma': (0, 0.0, 2.0),  # focal loss gamma (efficientDet default gamma=1.5)
            'hsv_h': (1, 0.0, 0.1),  # image HSV-Hue augmentation (fraction)
            'hsv_s': (1, 0.0, 0.9),  # image HSV-Saturation augmentation (fraction)
            'hsv_v': (1, 0.0, 0.9),  # image HSV-Value augmentation (fraction)
            'degrees': (1, 0.0, 45.0),  # image rotation (+/- deg)
            'translate': (1, 0.0, 0.9),  # image translation (+/- fraction)
            'scale': (1, 0.0, 0.9),  # image scale (+/- gain)
            'shear': (1, 0.0, 10.0),  # image shear (+/- deg)
            'perspective': (0, 0.0, 0.001),  # image perspective (+/- fraction), range 0-0.001
            'flipud': (1, 0.0, 1.0),  # image flip up-down (probability)
            'fliplr': (0, 0.0, 1.0),  # image flip left-right (probability)
            'mosaic': (1, 0.0, 1.0),  # image mixup (probability)
            'mixup': (1, 0.0, 1.0),  # image mixup (probability)
            'copy_paste': (1, 0.0, 1.0)}  # segment copy-paste (probability)

        with open(opt.hyp, errors='ignore') as f:
            hyp = yaml.safe_load(f)  # load hyps dict
            if 'anchors' not in hyp:  # anchors commented in hyp.yaml
                hyp['anchors'] = 3
        if opt.noautoanchor:
            del hyp['anchors'], meta['anchors']
        opt.noval, opt.nosave, save_dir = True, True, Path(opt.save_dir)  # only val/save final epoch
        # ei = [isinstance(x, (int, float)) for x in hyp.values()]  # evolvable indices
        evolve_yaml, evolve_csv = save_dir / 'hyp_evolve.yaml', save_dir / 'evolve.csv'
        if opt.bucket:
            # download evolve.csv if exists
            subprocess.run([
                'gsutil',
                'cp',
                f'gs://{opt.bucket}/evolve.csv',
                str(evolve_csv),])

        for _ in range(opt.evolve):  # generations to evolve
            if evolve_csv.exists():  # if evolve.csv exists: select best hyps and mutate
                # Select parent(s)
                parent = 'single'  # parent selection method: 'single' or 'weighted'
                x = np.loadtxt(evolve_csv, ndmin=2, delimiter=',', skiprows=1)
                n = min(5, len(x))  # number of previous results to consider
                x = x[np.argsort(-fitness(x))][:n]  # top n mutations
                w = fitness(x) - fitness(x).min() + 1E-6  # weights (sum > 0)
                if parent == 'single' or len(x) == 1:
                    # x = x[random.randint(0, n - 1)]  # random selection
                    x = x[random.choices(range(n), weights=w)[0]]  # weighted selection
                elif parent == 'weighted':
                    x = (x * w.reshape(n, 1)).sum(0) / w.sum()  # weighted combination

                # Mutate
                mp, s = 0.8, 0.2  # mutation probability, sigma
                npr = np.random
                npr.seed(int(time.time()))
                g = np.array([meta[k][0] for k in hyp.keys()])  # gains 0-1
                ng = len(meta)
                v = np.ones(ng)
                while all(v == 1):  # mutate until a change occurs (prevent duplicates)
                    v = (g * (npr.random(ng) < mp) * npr.randn(ng) * npr.random() * s + 1).clip(0.3, 3.0)
                for i, k in enumerate(hyp.keys()):  # plt.hist(v.ravel(), 300)
                    hyp[k] = float(x[i + 7] * v[i])  # mutate

            # Constrain to limits
            for k, v in meta.items():
                hyp[k] = max(hyp[k], v[1])  # lower limit
                hyp[k] = min(hyp[k], v[2])  # upper limit
                hyp[k] = round(hyp[k], 5)  # significant digits

            # Train mutation
            results = train(hyp.copy(), opt, device, callbacks)
            callbacks = Callbacks()
            # Write mutation results
            keys = ('metrics/precision', 'metrics/recall', 'metrics/mAP_0.5', 'metrics/mAP_0.5:0.95', 'val/box_loss',
                    'val/obj_loss', 'val/cls_loss')
            print_mutation(keys, results, hyp.copy(), save_dir, opt.bucket)

        # Plot results
        plot_evolve(evolve_csv)
        LOGGER.info(f'Hyperparameter evolution finished {opt.evolve} generations\n'
                    f"Results saved to {colorstr('bold', save_dir)}\n"
                    f'Usage example: $ python train.py --hyp {evolve_yaml}')


def run(**kwargs):
    # Usage: import train; train.run(data='coco128.yaml', imgsz=320, weights='yolov5m.pt')
    opt = parse_opt(True)
    for k, v in kwargs.items():
        setattr(opt, k, v)
    main(opt)
    return opt


if __name__ == '__main__':
    opt = parse_opt()
    main(opt)

(十)模型推斷過(guò)程的程序編寫(xiě)

第一部分:編寫(xiě) detect.py

import argparse
import os
import platform
import sys
from pathlib import Path

import torch

FILE = Path(__file__).resolve()
ROOT = FILE.parents[0]  # YOLOv5 root directory
if str(ROOT) not in sys.path:
    sys.path.append(str(ROOT))  # add ROOT to PATH
ROOT = Path(os.path.relpath(ROOT, Path.cwd()))  # relative

from models.common import DetectMultiBackend
from utils.dataloaders import IMG_FORMATS, VID_FORMATS, LoadImages, LoadScreenshots, LoadStreams
from utils.general import (LOGGER, Profile, check_file, check_img_size, check_imshow, check_requirements, colorstr, cv2,
                           increment_path, non_max_suppression, print_args, scale_boxes, strip_optimizer, xyxy2xywh)
from utils.plots import Annotator, colors, save_one_box
from utils.torch_utils import select_device, smart_inference_mode


@smart_inference_mode()
def run(
        weights=ROOT / r'D:\BaiduNetdiskWorkspace\licenses\machine_learning\yolov5\yolov5-master\runs\train\exp15\weights\best.pt',
        # model path or triton URL
        # source=ROOT / 'data/images',  # file/dir/URL/glob/screen/0(webcam)
        source=ROOT / '0',  # file/dir/URL/glob/screen/0(webcam)
        data=ROOT / 'car-parts/IP_parameter.yaml',  # dataset.yaml path
        imgsz=(640, 640),  # inference size (height, width)
        conf_thres=0.25,  # confidence threshold
        iou_thres=0.45,  # NMS IOU threshold
        max_det=1000,  # maximum detections per image
        device='',  # cuda device, i.e. 0 or 0,1,2,3 or cpu
        view_img=False,  # show results
        save_txt=False,  # save results to *.txt
        save_conf=False,  # save confidences in --save-txt labels
        save_crop=False,  # save cropped prediction boxes
        nosave=False,  # do not save images/videos
        classes=None,  # filter by class: --class 0, or --class 0 2 3
        agnostic_nms=False,  # class-agnostic NMS
        augment=False,  # augmented inference
        visualize=False,  # visualize features
        update=False,  # update all models
        project=ROOT / 'runs/detect',  # save results to project/name
        name='exp',  # save results to project/name
        exist_ok=False,  # existing project/name ok, do not increment
        line_thickness=3,  # bounding box thickness (pixels)
        hide_labels=False,  # hide labels
        hide_conf=False,  # hide confidences
        half=False,  # use FP16 half-precision inference
        dnn=False,  # use OpenCV DNN for ONNX inference
        vid_stride=1,  # video frame-rate stride
):
    source = str(source)
    save_img = not nosave and not source.endswith('.txt')  # save inference images
    is_file = Path(source).suffix[1:] in (IMG_FORMATS + VID_FORMATS)
    is_url = source.lower().startswith(('rtsp://', 'rtmp://', 'http://', 'https://'))
    webcam = source.isnumeric() or source.endswith('.streams') or (is_url and not is_file)
    screenshot = source.lower().startswith('screen')
    if is_url and is_file:
        source = check_file(source)  # download

    # Directories
    save_dir = increment_path(Path(project) / name, exist_ok=exist_ok)  # increment run
    (save_dir / 'labels' if save_txt else save_dir).mkdir(parents=True, exist_ok=True)  # make dir

    # Load model
    device = select_device(device)
    model = DetectMultiBackend(weights, device=device, dnn=dnn, data=data, fp16=half)
    stride, names, pt = model.stride, model.names, model.pt
    imgsz = check_img_size(imgsz, s=stride)  # check image size

    # Dataloader
    bs = 1  # batch_size
    if webcam:
        view_img = check_imshow(warn=True)
        dataset = LoadStreams(source, img_size=imgsz, stride=stride, auto=pt, vid_stride=vid_stride)
        bs = len(dataset)
    elif screenshot:
        dataset = LoadScreenshots(source, img_size=imgsz, stride=stride, auto=pt)
    else:
        dataset = LoadImages(source, img_size=imgsz, stride=stride, auto=pt, vid_stride=vid_stride)
    vid_path, vid_writer = [None] * bs, [None] * bs

    # Run inference
    model.warmup(imgsz=(1 if pt or model.triton else bs, 3, *imgsz))  # warmup
    seen, windows, dt = 0, [], (Profile(), Profile(), Profile())
    for path, im, im0s, vid_cap, s in dataset:
        with dt[0]:
            im = torch.from_numpy(im).to(model.device)
            im = im.half() if model.fp16 else im.float()  # uint8 to fp16/32
            im /= 255  # 0 - 255 to 0.0 - 1.0
            if len(im.shape) == 3:
                im = im[None]  # expand for batch dim

        # Inference
        with dt[1]:
            visualize = increment_path(save_dir / Path(path).stem, mkdir=True) if visualize else False
            pred = model(im, augment=augment, visualize=visualize)

        # NMS
        with dt[2]:
            pred = non_max_suppression(pred, conf_thres, iou_thres, classes, agnostic_nms, max_det=max_det)

        # Second-stage classifier (optional)
        # pred = utils.general.apply_classifier(pred, classifier_model, im, im0s)

        # Process predictions
        for i, det in enumerate(pred):  # per image
            seen += 1
            if webcam:  # batch_size >= 1
                p, im0, frame = path[i], im0s[i].copy(), dataset.count
                s += f'{i}: '
            else:
                p, im0, frame = path, im0s.copy(), getattr(dataset, 'frame', 0)

            p = Path(p)  # to Path
            save_path = str(save_dir / p.name)  # im.jpg
            txt_path = str(save_dir / 'labels' / p.stem) + ('' if dataset.mode == 'image' else f'_{frame}')  # im.txt
            s += '%gx%g ' % im.shape[2:]  # print string

            #####################################################################################################

            location_center_dir = str(save_dir) + '/location_center'
            if not os.path.exists(location_center_dir):
                os.makedirs(location_center_dir)
            location_center_path = location_center_dir + '\\' + str(p.stem) + (
                '' if dataset.mode == 'image' else f'_{frame}')  # location_center.txt
            flocation = open(location_center_path + '.txt', 'w')  # 保存檢測(cè)框中點(diǎn)

            #####################################################################################################

            gn = torch.tensor(im0.shape)[[1, 0, 1, 0]]  # normalization gain whwh
            imc = im0.copy() if save_crop else im0  # for save_crop
            annotator = Annotator(im0, line_width=line_thickness, example=str(names))
            if len(det):
                # Rescale boxes from img_size to im0 size
                det[:, :4] = scale_boxes(im.shape[2:], det[:, :4], im0.shape).round()

                # Print results
                for c in det[:, 5].unique():
                    n = (det[:, 5] == c).sum()  # detections per class
                    s += f"{n} {names[int(c)]}{'s' * (n > 1)}, "  # add to string

                # Write results
                for *xyxy, conf, cls in reversed(det):

                    #####################################################################################################

                    x0 = (int(xyxy[0].item()) + int(xyxy[2].item())) / 2
                    y0 = (int(xyxy[1].item()) + int(xyxy[3].item())) / 2  # 中心點(diǎn)坐標(biāo)(x0, y0)
                    class_index = cls  # 獲取屬性
                    object_name = names[int(cls)]  # 獲取標(biāo)簽名
                    flocation.write(object_name + ': ' + str(x0) + ', ' + str(y0) + '\n')

                    #####################################################################################################

                    if save_txt:  # Write to file
                        xywh = (xyxy2xywh(torch.tensor(xyxy).view(1, 4)) / gn).view(-1).tolist()  # normalized xywh
                        line = (cls, *xywh, conf) if save_conf else (cls, *xywh)  # label format
                        with open(f'{txt_path}.txt', 'a') as f:
                            f.write(('%g ' * len(line)).rstrip() % line + '\n')

                    if save_img or save_crop or view_img:  # Add bbox to image
                        c = int(cls)  # integer class
                        label = None if hide_labels else (names[c] if hide_conf else f'{names[c]} {conf:.2f}')
                        annotator.box_label(xyxy, label, color=colors(c, True))
                    if save_crop:
                        save_one_box(xyxy, imc, file=save_dir / 'crops' / names[c] / f'{p.stem}.jpg', BGR=True)
            #####################################################################################################
            flocation.close()
            #####################################################################################################
            # Stream results
            im0 = annotator.result()
            if view_img:
                if platform.system() == 'Linux' and p not in windows:
                    windows.append(p)
                    cv2.namedWindow(str(p), cv2.WINDOW_NORMAL | cv2.WINDOW_KEEPRATIO)  # allow window resize (Linux)
                    cv2.resizeWindow(str(p), im0.shape[1], im0.shape[0])
                cv2.imshow(str(p), im0)
                cv2.waitKey(1)  # 1 millisecond

            # Save results (image with detections)
            if save_img:
                if dataset.mode == 'image':
                    cv2.imwrite(save_path, im0)
                else:  # 'video' or 'stream'
                    if vid_path[i] != save_path:  # new video
                        vid_path[i] = save_path
                        if isinstance(vid_writer[i], cv2.VideoWriter):
                            vid_writer[i].release()  # release previous video writer
                        if vid_cap:  # video
                            fps = vid_cap.get(cv2.CAP_PROP_FPS)
                            w = int(vid_cap.get(cv2.CAP_PROP_FRAME_WIDTH))
                            h = int(vid_cap.get(cv2.CAP_PROP_FRAME_HEIGHT))
                        else:  # stream
                            fps, w, h = 30, im0.shape[1], im0.shape[0]
                        save_path = str(Path(save_path).with_suffix('.mp4'))  # force *.mp4 suffix on results videos
                        vid_writer[i] = cv2.VideoWriter(save_path, cv2.VideoWriter_fourcc(*'mp4v'), fps, (w, h))
                    vid_writer[i].write(im0)

        # Print time (inference-only)
        LOGGER.info(f"{s}{'' if len(det) else '(no detections), '}{dt[1].dt * 1E3:.1f}ms")

    # Print results
    t = tuple(x.t / seen * 1E3 for x in dt)  # speeds per image
    LOGGER.info(f'Speed: %.1fms pre-process, %.1fms inference, %.1fms NMS per image at shape {(1, 3, *imgsz)}' % t)
    if save_txt or save_img:
        s = f"\n{len(list(save_dir.glob('labels/*.txt')))} labels saved to {save_dir / 'labels'}" if save_txt else ''
        LOGGER.info(f"Results saved to {colorstr('bold', save_dir)}{s}")
    if update:
        strip_optimizer(weights[0])  # update model (to fix SourceChangeWarning)


def parse_opt():
    parser = argparse.ArgumentParser()
    # parser.add_argument('--weights', nargs='+', type=str, default=ROOT / 'yolov5s.pt', help='model path or triton URL')
    parser.add_argument('--weights', nargs='+', type=str,
                        default=ROOT / r'D:\BaiduNetdiskWorkspace\licenses\machine_learning\yolov5\yolov5-master\runs\train\exp3\weights\best.pt',
                        help='model path or triton URL')
    # parser.add_argument('--source', type=str, default=ROOT / 'data/images', help='file/dir/URL/glob/screen/0(webcam)')
    parser.add_argument('--source', type=str,
                        default=ROOT / r'D:\BaiduNetdiskWorkspace\licenses\machine_learning\yolov5\yolov5-master\V2\datasets\images\train',
                        help='file/dir/URL/glob/screen/0(webcam)')
    parser.add_argument('--data', type=str, default=ROOT / 'data/coco128.yaml', help='(optional) dataset.yaml path')
    parser.add_argument('--imgsz', '--img', '--img-size', nargs='+', type=int, default=[640], help='inference size h,w')
    parser.add_argument('--conf-thres', type=float, default=0.25, help='confidence threshold')
    parser.add_argument('--iou-thres', type=float, default=0, help='NMS IoU threshold')
    parser.add_argument('--max-det', type=int, default=10, help='maximum detections per image')
    parser.add_argument('--device', default='', help='cuda device, i.e. 0 or 0,1,2,3 or cpu')
    parser.add_argument('--view-img', action='store_true', help='show results')
    parser.add_argument('--save-txt', action='store_true', help='save results to *.txt')
    parser.add_argument('--save-conf', action='store_true', help='save confidences in --save-txt labels')
    parser.add_argument('--save-crop', action='store_true', help='save cropped prediction boxes')
    parser.add_argument('--nosave', action='store_true', help='do not save images/videos')
    parser.add_argument('--classes', nargs='+', type=int, help='filter by class: --classes 0, or --classes 0 2 3')
    parser.add_argument('--agnostic-nms', action='store_true', help='class-agnostic NMS')
    parser.add_argument('--augment', action='store_true', help='augmented inference')
    parser.add_argument('--visualize', action='store_true', help='visualize features')
    parser.add_argument('--update', action='store_true', help='update all models')
    parser.add_argument('--project', default=ROOT / 'runs/detect', help='save results to project/name')
    parser.add_argument('--name', default='exp', help='save results to project/name')
    parser.add_argument('--exist-ok', action='store_true', help='existing project/name ok, do not increment')
    parser.add_argument('--line-thickness', default=3, type=int, help='bounding box thickness (pixels)')
    parser.add_argument('--hide-labels', default=False, action='store_true', help='hide labels')
    parser.add_argument('--hide-conf', default=False, action='store_true', help='hide confidences')
    parser.add_argument('--half', action='store_true', help='use FP16 half-precision inference')
    parser.add_argument('--dnn', action='store_true', help='use OpenCV DNN for ONNX inference')
    parser.add_argument('--vid-stride', type=int, default=1, help='video frame-rate stride')
    opt = parser.parse_args()
    opt.imgsz *= 2 if len(opt.imgsz) == 1 else 1  # expand
    print_args(vars(opt))
    return opt


def main(opt):
    check_requirements(exclude=('tensorboard', 'thop'))
    run(**vars(opt))


if __name__ == '__main__':
    opt = parse_opt()
    main(opt)

第二部分:在無(wú)人車終端運(yùn)行代碼,調(diào)用物理攝像頭,查看具體效果

(十一)使用onnx及TensorRT將模型進(jìn)行推理加速

第一步:將pt模型轉(zhuǎn)化為onnx模型

① 安裝onnx

pip install onnx
pip install onnxruntime

② 使用 export.py 導(dǎo)出模型為ONNX

python export.py --weights D:\BaiduNetdiskWorkspace\licenses\machine_learning\yolov5\yolov5-master\runs\train\exp3\weights\best.pt --img-size 640 --batch-size 1 --include onnx

第二步:TensorRT環(huán)境安裝及配置

① 下載對(duì)應(yīng)TensorRT版本

https://developer.nvidia.com/nvidia-tensorrt-8x-download

② 解壓 TensorRT

③ 配置環(huán)境變量

將TensorRT解壓位置\lib 加入系統(tǒng)環(huán)境變量

將TensorRT解壓位置\lib下的dll文件復(fù)制到C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.7\bin目錄下

④ 測(cè)試示例代碼

用VS2019打開(kāi)sampleOnnxMNIST示例(D:\TensorRT\TensorRT-8.6.1.6.Windows10.x86_64.cuda-11.8\TensorRT-8.6.1.6\samples\sampleOnnxMNIST)

將D:\TensorRT\TensorRT-8.6.1.6.Windows10.x86_64.cuda-11.8\TensorRT-8.6.1.6\lib加入 VC++目錄–>可執(zhí)行文件目錄

將D:\TensorRT\TensorRT-8.6.1.6.Windows10.x86_64.cuda-11.8\TensorRT-8.6.1.6\include加入C/C++ --> 常規(guī) --> 附加包含目錄

將D:\TensorRT\TensorRT-8.6.1.6.Windows10.x86_64.cuda-11.8\TensorRT-8.6.1.6\lib加入 VC++目錄–>庫(kù)目錄

將nvinfer.lib、nvinfer_plugin.lib、nvonnxparser.lib和nvparsers.lib加入鏈接器–>輸入–>附加依賴項(xiàng)

⑤ 安裝 pycuda

https://www.lfd.uci.edu/~gohlke/pythonlibs/?cm_mc_uid=08085305845514542921829&cm_mc_sid_50200000=1456395916&cm_mc_uid=08085305845514542921829&cm_mc_sid_50200000=1456395916#pycuda

pip install "D:\pycuda\pycuda-2022.1+cuda116-cp38-cp38-win_amd64.whl"

⑥ python 環(huán)境配置 TensorRT

pip install "D:\TensorRT\TensorRT-8.6.1.6.Windows10.x86_64.cuda-11.8\TensorRT-8.6.1.6\python\tensorrt-8.6.1-cp38-none-win_amd64.whl"

⑦ python 環(huán)境測(cè)試

python "D:\TensorRT\TensorRT-8.6.1.6.Windows10.x86_64.cuda-11.8\TensorRT-8.6.1.6\samples\python\network_api_pytorch_mnist\sample.py"

第三步:使用 TensorRT 編譯 onnx 文件,轉(zhuǎn)換成 .trt 后綴文件

D:\TensorRT\TensorRT-8.6.1.6.Windows10.x86_64.cuda-11.8\TensorRT-8.6.1.6\bin\trtexec.exe --onnx=D:\BaiduNetdiskWorkspace\licenses\machine_learning\yolov5\yolov5-master\runs\train\exp3\weights\best.onnx --saveEngine=D:\BaiduNetdiskWorkspace\licenses\machine_learning\yolov5\yolov5-master\runs\train\exp3\weights\best.trt --buildOnly

第四步:查看訓(xùn)練圖片的維度

check_picture.py

import cv2

# 讀取圖像
image_path = r'D:\BaiduNetdiskWorkspace\licenses\machine_learning\yolov5\yolov5-master\V2\datasets\images\train\2023-09-18-160239.jpg '
image = cv2.imread(image_path)

# 檢查圖像形狀
image_shape = image.shape

# 打印圖像形狀
print("圖像形狀:", image_shape)

# 如果您只關(guān)心圖像的高度,寬度和通道數(shù),可以使用以下方式獲取
height, width, channels = image_shape
print("高度:", height)
print("寬度:", width)
print("通道數(shù):", channels)

第五步:編寫(xiě)加速推理腳本

compare.py

import numpy as np
import pycuda.driver as cuda
import pycuda.autoinit
import tensorrt as trt
import cv2
import time

# 加載.trt文件
trt_file_path = r'D:\BaiduNetdiskWorkspace\licenses\machine_learning\yolov5\yolov5-master\runs\train\exp3\weights\best.trt'
with open(trt_file_path, 'rb') as f, trt.Runtime(trt.Logger(trt.Logger.WARNING)) as runtime:
    engine = runtime.deserialize_cuda_engine(f.read())

# 創(chuàng)建執(zhí)行上下文
context = engine.create_execution_context()

# 分配輸入和輸出內(nèi)存
input_size = trt.volume(context.get_binding_shape(0))
output_size = trt.volume(context.get_binding_shape(1))

# 在GPU上分配內(nèi)存
input_host = cuda.pagelocked_empty(input_size, dtype=np.float32)
output_host = cuda.pagelocked_empty(output_size, dtype=np.float32)
input_device = cuda.mem_alloc(input_host.nbytes)
output_device = cuda.mem_alloc(output_host.nbytes)

# 準(zhǔn)備輸入數(shù)據(jù)
# 讀取彩色圖像
image_path = r'D:\BaiduNetdiskWorkspace\licenses\machine_learning\yolov5\yolov5-master\V2\datasets\images\train\2023-09-18-160239.jpg '
image = cv2.imread(image_path)

# 調(diào)整數(shù)據(jù)形狀以匹配模型期望的輸入形狀
input_data = image.astype(np.float32) / 255.0  # 歸一化(假設(shè)模型期望的輸入范圍是 [0, 1])

# 使用cv2.resize調(diào)整圖像大小
resized_image = cv2.resize(input_data, (640, 640))

input_data = np.transpose(resized_image, (2, 0, 1))  # 將通道移到正確的位置
input_data = np.expand_dims(input_data, axis=0)  # 添加批處理維度

# 確保輸入數(shù)據(jù)的長(zhǎng)度與模型期望的輸入大小一致
if input_data.size != input_size:
    raise ValueError(f"Input data size ({input_data.size}) does not match the expected input size ({input_size})")

np.copyto(input_host, input_data.ravel())
cuda.memcpy_htod(input_device, input_host)

# 計(jì)時(shí)開(kāi)始
start_time = time.time()

# 執(zhí)行推理
context.execute_v2(bindings=[int(input_device), int(output_device)])

# 計(jì)時(shí)結(jié)束
end_time = time.time()

# 獲取輸出
cuda.memcpy_dtoh(output_host, output_device)

# 處理輸出數(shù)據(jù)
result = output_host.reshape(context.get_binding_shape(1))

# 打印結(jié)果
print(result)

# 打印推理時(shí)間
inference_time = end_time - start_time
print(f"Inference time: {inference_time} seconds")

第六步:對(duì)比測(cè)試

加速前

加速后

(十二)問(wèn)題匯總

(1)error MSB8036:找不到 Windows SDK 版本......

參考鏈接

error MSB8036:找不到 Windows SDK 版本···_microsoft.cpp.windowssdk.targe ts(46,5): error msb-CSDN博客

(2)too many values to unpack

參考鏈接

too many values to unpack (expected 4)_UC_Gundam的博客-CSDN博客

(3)運(yùn)行示例時(shí),提示找不到 MNIST數(shù)據(jù)

參考鏈接

TensorRT之安裝與測(cè)試(Windows和Linux環(huán)境下安裝TensorRT)_判斷tensorrt是否可以正常使用-CSDN博客

(4)加載 libnvinfer.so.7報(bào)錯(cuò)

參考鏈接

TensorRT之安裝與測(cè)試(Windows和Linux環(huán)境下安裝TensorRT)_判斷tensorrt是否可以正常使用-CSDN博客

總結(jié)

以上是生活随笔為你收集整理的训练一个目标检测模型的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

狂野欧美激情性xxxx | 精品成人av一区二区三区 | 色综合视频一区二区三区 | 人人妻人人藻人人爽欧美一区 | 久久精品国产精品国产精品污 | 日本精品人妻无码免费大全 | 国产国语老龄妇女a片 | 国产卡一卡二卡三 | 中文字幕日产无线码一区 | 亚洲爆乳无码专区 | 午夜福利不卡在线视频 | 真人与拘做受免费视频 | 国产精品亚洲综合色区韩国 | 人人妻人人藻人人爽欧美一区 | 中国大陆精品视频xxxx | 色情久久久av熟女人妻网站 | 亚洲成色www久久网站 | 99久久久无码国产精品免费 | 老司机亚洲精品影院 | 国产精品久久久一区二区三区 | 亚洲一区二区观看播放 | 亚洲最大成人网站 | 国产另类ts人妖一区二区 | 乱人伦人妻中文字幕无码久久网 | 伊人久久大香线焦av综合影院 | 奇米影视888欧美在线观看 | 欧美人与动性行为视频 | 国产成人综合在线女婷五月99播放 | 少妇高潮喷潮久久久影院 | 综合网日日天干夜夜久久 | 国产偷自视频区视频 | 啦啦啦www在线观看免费视频 | 欧美野外疯狂做受xxxx高潮 | 亚洲中文字幕av在天堂 | 亚洲成熟女人毛毛耸耸多 | 久久精品视频在线看15 | 色婷婷av一区二区三区之红樱桃 | 波多野结衣av在线观看 | 国产精品久久久久无码av色戒 | 国产成人午夜福利在线播放 | 国产精品自产拍在线观看 | 欧美日韩视频无码一区二区三 | 东京无码熟妇人妻av在线网址 | 麻豆av传媒蜜桃天美传媒 | 丰满人妻被黑人猛烈进入 | 网友自拍区视频精品 | 久久综合色之久久综合 | 久久久久久九九精品久 | 97精品国产97久久久久久免费 | 5858s亚洲色大成网站www | 久久zyz资源站无码中文动漫 | 成人精品视频一区二区三区尤物 | 久久zyz资源站无码中文动漫 | 无码人妻av免费一区二区三区 | 国产超碰人人爽人人做人人添 | 国产又爽又黄又刺激的视频 | 四虎国产精品一区二区 | 一本久久a久久精品vr综合 | 久久综合九色综合欧美狠狠 | 大地资源网第二页免费观看 | 国产美女极度色诱视频www | 无套内谢老熟女 | 爱做久久久久久 | 在线 国产 欧美 亚洲 天堂 | av无码电影一区二区三区 | 国产香蕉尹人综合在线观看 | 日本丰满熟妇videos | 国产精品对白交换视频 | 午夜精品一区二区三区的区别 | 国产舌乚八伦偷品w中 | 强开小婷嫩苞又嫩又紧视频 | 精品成在人线av无码免费看 | 亚洲精品一区三区三区在线观看 | 日本丰满护士爆乳xxxx | 中文字幕乱码中文乱码51精品 | 色综合视频一区二区三区 | 国产麻豆精品一区二区三区v视界 | 国产精品久久久一区二区三区 | 国产性生交xxxxx无码 | 黑人巨大精品欧美黑寡妇 | 大屁股大乳丰满人妻 | 婷婷综合久久中文字幕蜜桃三电影 | 帮老师解开蕾丝奶罩吸乳网站 | 给我免费的视频在线观看 | 国产成人久久精品流白浆 | 国产精品久久国产精品99 | 帮老师解开蕾丝奶罩吸乳网站 | 好爽又高潮了毛片免费下载 | 亚无码乱人伦一区二区 | 久久精品人妻少妇一区二区三区 | 国产网红无码精品视频 | 亚洲欧美日韩成人高清在线一区 | 中文久久乱码一区二区 | 在线观看欧美一区二区三区 | 熟妇人妻激情偷爽文 | 日日噜噜噜噜夜夜爽亚洲精品 | 美女毛片一区二区三区四区 | 97夜夜澡人人双人人人喊 | 亚洲色www成人永久网址 | 国产凸凹视频一区二区 | 精品国产乱码久久久久乱码 | 亚洲色在线无码国产精品不卡 | 久久久精品人妻久久影视 | 亚洲精品一区二区三区大桥未久 | 丝袜美腿亚洲一区二区 | 99久久精品午夜一区二区 | 性啪啪chinese东北女人 | 国产99久久精品一区二区 | 在线视频网站www色 | 国产 浪潮av性色四虎 | 亚洲国产精品久久人人爱 | 无码人妻久久一区二区三区不卡 | 国内精品久久毛片一区二区 | 色五月丁香五月综合五月 | 久久国产精品精品国产色婷婷 | 西西人体www44rt大胆高清 | 麻豆av传媒蜜桃天美传媒 | 亚洲人成人无码网www国产 | 久久精品国产亚洲精品 | 亚洲中文字幕在线无码一区二区 | 中文字幕精品av一区二区五区 | 欧美日韩在线亚洲综合国产人 | 亚洲爆乳大丰满无码专区 | 人人妻人人澡人人爽人人精品 | 四十如虎的丰满熟妇啪啪 | 精品成在人线av无码免费看 | 高清无码午夜福利视频 | 亚洲 另类 在线 欧美 制服 | 欧美日韩亚洲国产精品 | 国产成人av免费观看 | 麻豆国产人妻欲求不满 | 一本久久a久久精品亚洲 | 欧美丰满少妇xxxx性 | 国产 浪潮av性色四虎 | 成人亚洲精品久久久久软件 | 秋霞成人午夜鲁丝一区二区三区 | 国产精品无码久久av | 亚洲综合在线一区二区三区 | 九一九色国产 | 国产无av码在线观看 | 人妻熟女一区 | 成在人线av无码免观看麻豆 | 内射巨臀欧美在线视频 | 日日碰狠狠丁香久燥 | 高清无码午夜福利视频 | 亚洲国产精品一区二区美利坚 | 色 综合 欧美 亚洲 国产 | 亚洲熟妇色xxxxx欧美老妇 | 国产艳妇av在线观看果冻传媒 | 欧美 日韩 亚洲 在线 | 日本熟妇乱子伦xxxx | 午夜成人1000部免费视频 | 蜜桃臀无码内射一区二区三区 | 国产无遮挡又黄又爽又色 | 久久久精品国产sm最大网站 | 俺去俺来也www色官网 | 秋霞特色aa大片 | 日本丰满熟妇videos | 天天拍夜夜添久久精品大 | 97se亚洲精品一区 | 成人精品视频一区二区三区尤物 | 日本一卡二卡不卡视频查询 | 久久久精品成人免费观看 | 乱码午夜-极国产极内射 | 九一九色国产 | 日本丰满护士爆乳xxxx | 亚洲国产精品美女久久久久 | 国产凸凹视频一区二区 | 成人亚洲精品久久久久 | 在教室伦流澡到高潮hnp视频 | 欧美阿v高清资源不卡在线播放 | 亚洲中文字幕va福利 | 亚洲国精产品一二二线 | 亚洲精品国产品国语在线观看 | 亚洲中文字幕在线无码一区二区 | 丝袜 中出 制服 人妻 美腿 | 国产舌乚八伦偷品w中 | 成人试看120秒体验区 | 国产亚洲人成a在线v网站 | 国产人妻精品一区二区三区 | 亚洲 a v无 码免 费 成 人 a v | 国产精品久久久久久久9999 | 亚洲日韩一区二区 | 久激情内射婷内射蜜桃人妖 | 精品日本一区二区三区在线观看 | 国内精品久久毛片一区二区 | 国产精品久久国产三级国 | 我要看www免费看插插视频 | 欧美喷潮久久久xxxxx | 青青草原综合久久大伊人精品 | а√资源新版在线天堂 | 久久99热只有频精品8 | 无码精品人妻一区二区三区av | 亚洲成a人片在线观看无码 | 欧美 日韩 人妻 高清 中文 | 国产电影无码午夜在线播放 | 麻豆国产97在线 | 欧洲 | 久久国语露脸国产精品电影 | 国产亚洲欧美在线专区 | 久久综合网欧美色妞网 | 亚洲精品久久久久久久久久久 | 久久久久免费看成人影片 | 久久精品国产一区二区三区肥胖 | 少妇被黑人到高潮喷出白浆 | 综合网日日天干夜夜久久 | 18禁黄网站男男禁片免费观看 | 高清国产亚洲精品自在久久 | 自拍偷自拍亚洲精品被多人伦好爽 | 欧美日韩一区二区三区自拍 | 精品久久久久香蕉网 | 国产色xx群视频射精 | 亚洲一区二区三区四区 | 欧美一区二区三区视频在线观看 | 欧美激情内射喷水高潮 | 亚洲天堂2017无码中文 | 波多野结衣一区二区三区av免费 | 色一情一乱一伦 | 国产成人无码a区在线观看视频app | 久久久精品国产sm最大网站 | 精品久久8x国产免费观看 | 亚洲精品中文字幕久久久久 | 超碰97人人做人人爱少妇 | 欧美喷潮久久久xxxxx | 国产人成高清在线视频99最全资源 | 日本爽爽爽爽爽爽在线观看免 | 亚洲欧美综合区丁香五月小说 | 99久久精品日本一区二区免费 | 在线精品亚洲一区二区 | а√天堂www在线天堂小说 | 国产精品理论片在线观看 | 国产精品久久久午夜夜伦鲁鲁 | 搡女人真爽免费视频大全 | 日本精品人妻无码免费大全 | 黑人粗大猛烈进出高潮视频 | 欧美野外疯狂做受xxxx高潮 | 亚洲中文字幕av在天堂 | 青青青手机频在线观看 | 性欧美熟妇videofreesex | 精品无码成人片一区二区98 | 无码吃奶揉捏奶头高潮视频 | 国产精品无码mv在线观看 | 377p欧洲日本亚洲大胆 | 久久久久国色av免费观看性色 | 久久99精品久久久久久动态图 | 欧洲精品码一区二区三区免费看 | 国产精品内射视频免费 | 性色欲网站人妻丰满中文久久不卡 | 久久久久se色偷偷亚洲精品av | 牲欲强的熟妇农村老妇女 | 97无码免费人妻超级碰碰夜夜 | 99久久精品无码一区二区毛片 | 国产色视频一区二区三区 | 久久精品国产99久久6动漫 | 久久久精品人妻久久影视 | 青青久在线视频免费观看 | 国产精品美女久久久 | 久久精品无码一区二区三区 | 中文字幕无码免费久久99 | 国产国产精品人在线视 | 精品欧洲av无码一区二区三区 | 色妞www精品免费视频 | 欧美丰满少妇xxxx性 | 亚洲综合在线一区二区三区 | 精品国产国产综合精品 | 无码人妻久久一区二区三区不卡 | 亚洲国产欧美日韩精品一区二区三区 | 国产成人精品视频ⅴa片软件竹菊 | 人妻少妇精品久久 | 性色av无码免费一区二区三区 | 亚洲色偷偷偷综合网 | 少妇高潮喷潮久久久影院 | 丰满护士巨好爽好大乳 | 亚洲精品一区二区三区在线 | 亚洲熟妇色xxxxx亚洲 | 亚洲中文字幕成人无码 | 日本精品少妇一区二区三区 | 狠狠色噜噜狠狠狠7777奇米 | 国产精品美女久久久网av | 国产精品-区区久久久狼 | 亚洲国产欧美日韩精品一区二区三区 | 久久精品国产日本波多野结衣 | 亚洲一区二区三区国产精华液 | 日韩精品乱码av一区二区 | 久久99国产综合精品 | 色 综合 欧美 亚洲 国产 | 欧美老妇交乱视频在线观看 | 亚洲精品午夜国产va久久成人 | 男女下面进入的视频免费午夜 | 强开小婷嫩苞又嫩又紧视频 | 亚洲欧美精品aaaaaa片 | 人妻互换免费中文字幕 | 日本高清一区免费中文视频 | 老熟女乱子伦 | 久久久亚洲欧洲日产国码αv | 久久人人爽人人人人片 | 成人免费视频一区二区 | 性欧美videos高清精品 | 免费网站看v片在线18禁无码 | 正在播放老肥熟妇露脸 | 精品一二三区久久aaa片 | 成人免费视频视频在线观看 免费 | 色噜噜亚洲男人的天堂 | 奇米影视7777久久精品人人爽 | 久久97精品久久久久久久不卡 | 精品国产av色一区二区深夜久久 | 中文久久乱码一区二区 | 男女超爽视频免费播放 | 亚洲の无码国产の无码步美 | 国产又粗又硬又大爽黄老大爷视 | 午夜福利一区二区三区在线观看 | 国产亚洲精品精品国产亚洲综合 | 日日碰狠狠丁香久燥 | 高潮毛片无遮挡高清免费视频 | 2020最新国产自产精品 | 久久久亚洲欧洲日产国码αv | 兔费看少妇性l交大片免费 | 日本丰满护士爆乳xxxx | 欧美激情综合亚洲一二区 | 国产成人无码a区在线观看视频app | 国产 浪潮av性色四虎 | 又黄又爽又色的视频 | 亚洲国产精品一区二区第一页 | 久久亚洲a片com人成 | 久久久www成人免费毛片 | 在线亚洲高清揄拍自拍一品区 | 强辱丰满人妻hd中文字幕 | 亚洲精品欧美二区三区中文字幕 | 精品无码一区二区三区爱欲 | 国产亚洲美女精品久久久2020 | 九九久久精品国产免费看小说 | 性欧美videos高清精品 | 国产农村乱对白刺激视频 | 国产后入清纯学生妹 | 亚洲 欧美 激情 小说 另类 | 成人免费视频在线观看 | 蜜桃视频插满18在线观看 | 国产极品美女高潮无套在线观看 | 亚拍精品一区二区三区探花 | 国产精品久久精品三级 | 久久人人爽人人人人片 | 99久久婷婷国产综合精品青草免费 | 国产亚洲欧美日韩亚洲中文色 | 鲁一鲁av2019在线 | 国产极品美女高潮无套在线观看 | 麻豆国产人妻欲求不满谁演的 | 日日噜噜噜噜夜夜爽亚洲精品 | 99麻豆久久久国产精品免费 | 亚洲人成影院在线无码按摩店 | 55夜色66夜色国产精品视频 | 久久精品国产日本波多野结衣 | 亚洲成a人片在线观看无码3d | 漂亮人妻洗澡被公强 日日躁 | 性生交片免费无码看人 | 久久无码中文字幕免费影院蜜桃 | 丝袜 中出 制服 人妻 美腿 | 久久综合久久自在自线精品自 | 成在人线av无码免观看麻豆 | 亚洲午夜久久久影院 | 精品无码国产一区二区三区av | 国产又爽又猛又粗的视频a片 | 久久国产自偷自偷免费一区调 | 2019nv天堂香蕉在线观看 | 午夜精品久久久内射近拍高清 | 久久综合给合久久狠狠狠97色 | 无码人妻出轨黑人中文字幕 | 强开小婷嫩苞又嫩又紧视频 | 久久久亚洲欧洲日产国码αv | 国产精品丝袜黑色高跟鞋 | 久久99热只有频精品8 | аⅴ资源天堂资源库在线 | 无码国模国产在线观看 | 国产女主播喷水视频在线观看 | 国产精品无码久久av | 国产精品久久久久无码av色戒 | 九九在线中文字幕无码 | 九九热爱视频精品 | 男女性色大片免费网站 | 狠狠色丁香久久婷婷综合五月 | 欧美第一黄网免费网站 | 无码吃奶揉捏奶头高潮视频 | 好男人www社区 | 成人动漫在线观看 | 国产69精品久久久久app下载 | 亚洲啪av永久无码精品放毛片 | 人人爽人人爽人人片av亚洲 | 黑人巨大精品欧美黑寡妇 | 小sao货水好多真紧h无码视频 | 伊人色综合久久天天小片 | a片免费视频在线观看 | 国产成人午夜福利在线播放 | 久久精品人人做人人综合 | 高潮毛片无遮挡高清免费视频 | 亚洲无人区午夜福利码高清完整版 | 性欧美牲交在线视频 | 在线观看国产午夜福利片 | 波多野42部无码喷潮在线 | 免费无码av一区二区 | 四虎影视成人永久免费观看视频 | 亚洲欧洲中文日韩av乱码 | 国产xxx69麻豆国语对白 | 精品无码国产自产拍在线观看蜜 | 久激情内射婷内射蜜桃人妖 | 久久久久久久久888 | a在线观看免费网站大全 | 亚洲色无码一区二区三区 | 亚洲人成无码网www | 精品国产成人一区二区三区 | 激情综合激情五月俺也去 | 扒开双腿吃奶呻吟做受视频 | 精品国产一区二区三区四区 | 无码国模国产在线观看 | 亚洲精品国产a久久久久久 | 中文字幕av无码一区二区三区电影 | 中文无码伦av中文字幕 | 高潮毛片无遮挡高清免费 | 久久久中文字幕日本无吗 | 精品一区二区三区无码免费视频 | 亚洲七七久久桃花影院 | 娇妻被黑人粗大高潮白浆 | 人妻尝试又大又粗久久 | 国产亚洲精品久久久久久国模美 | 最新国产麻豆aⅴ精品无码 | 亚洲精品成人福利网站 | 日本免费一区二区三区最新 | 精品乱子伦一区二区三区 | 日产国产精品亚洲系列 | 国产一区二区不卡老阿姨 | 成在人线av无码免费 | 一本一道久久综合久久 | 日韩少妇白浆无码系列 | 欧美人与善在线com | 亚洲成熟女人毛毛耸耸多 | 搡女人真爽免费视频大全 | 国产极品视觉盛宴 | 婷婷综合久久中文字幕蜜桃三电影 | 99久久99久久免费精品蜜桃 | 亚洲精品久久久久久一区二区 | 亚洲欧美日韩成人高清在线一区 | 日本饥渴人妻欲求不满 | 少女韩国电视剧在线观看完整 | 大肉大捧一进一出视频出来呀 | а√天堂www在线天堂小说 | 在线看片无码永久免费视频 | 在线 国产 欧美 亚洲 天堂 | 又大又紧又粉嫩18p少妇 | 人妻少妇被猛烈进入中文字幕 | 又大又黄又粗又爽的免费视频 | 麻豆人妻少妇精品无码专区 | 激情内射亚州一区二区三区爱妻 | 精品夜夜澡人妻无码av蜜桃 | a在线观看免费网站大全 | 东京一本一道一二三区 | 亚洲经典千人经典日产 | 国产精品怡红院永久免费 | 美女极度色诱视频国产 | 青春草在线视频免费观看 | 99国产精品白浆在线观看免费 | 国产色xx群视频射精 | 久久人人爽人人人人片 | 日本精品人妻无码免费大全 | 亚洲午夜久久久影院 | 亚欧洲精品在线视频免费观看 | 99国产欧美久久久精品 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 少妇人妻大乳在线视频 | 欧洲美熟女乱又伦 | 97资源共享在线视频 | 精品国产一区二区三区四区 | 夜先锋av资源网站 | 中文精品久久久久人妻不卡 | 日本乱偷人妻中文字幕 | 国产精品久久久午夜夜伦鲁鲁 | 人妻少妇精品视频专区 | 国产极品美女高潮无套在线观看 | 东京无码熟妇人妻av在线网址 | 人妻aⅴ无码一区二区三区 | yw尤物av无码国产在线观看 | 久热国产vs视频在线观看 | 亚洲一区二区三区 | 国产女主播喷水视频在线观看 | 亚洲一区二区三区偷拍女厕 | 麻豆蜜桃av蜜臀av色欲av | 欧美丰满熟妇xxxx | 野外少妇愉情中文字幕 | 欧美熟妇另类久久久久久多毛 | 九九久久精品国产免费看小说 | 色窝窝无码一区二区三区色欲 | 又色又爽又黄的美女裸体网站 | 蜜桃无码一区二区三区 | 精品人人妻人人澡人人爽人人 | 人妻少妇精品无码专区二区 | 国产激情综合五月久久 | aⅴ在线视频男人的天堂 | 欧美人与禽zoz0性伦交 | 国产日产欧产精品精品app | 日韩人妻无码中文字幕视频 | 成 人 网 站国产免费观看 | 香港三级日本三级妇三级 | 国产精品亚洲一区二区三区喷水 | 久久97精品久久久久久久不卡 | 四虎国产精品免费久久 | 精品 日韩 国产 欧美 视频 | 久久伊人色av天堂九九小黄鸭 | 又湿又紧又大又爽a视频国产 | 欧美午夜特黄aaaaaa片 | 亚洲精品久久久久中文第一幕 | 久精品国产欧美亚洲色aⅴ大片 | 亚洲性无码av中文字幕 | 亚洲人成影院在线无码按摩店 | 狠狠色噜噜狠狠狠7777奇米 | 日韩人妻少妇一区二区三区 | 丰满人妻翻云覆雨呻吟视频 | 色婷婷综合激情综在线播放 | 久久亚洲中文字幕无码 | 亚洲成av人综合在线观看 | 特黄特色大片免费播放器图片 | 亚洲精品久久久久久久久久久 | 久久精品国产99久久6动漫 | 日韩人妻少妇一区二区三区 | 欧美精品免费观看二区 | 乌克兰少妇xxxx做受 | 精品一区二区不卡无码av | 亚洲精品成人av在线 | 在线亚洲高清揄拍自拍一品区 | 国产福利视频一区二区 | 香蕉久久久久久av成人 | 中文久久乱码一区二区 | 亚洲区欧美区综合区自拍区 | 成人影院yy111111在线观看 | 欧美喷潮久久久xxxxx | 少妇被粗大的猛进出69影院 | 风流少妇按摩来高潮 | 久久综合九色综合97网 | 国产精品成人av在线观看 | 亚洲国产欧美日韩精品一区二区三区 | 国产精品亚洲综合色区韩国 | 自拍偷自拍亚洲精品10p | 国产精品爱久久久久久久 | 亚洲精品国产精品乱码视色 | 无码av岛国片在线播放 | 最近的中文字幕在线看视频 | 久久99精品国产.久久久久 | 乱码av麻豆丝袜熟女系列 | 漂亮人妻洗澡被公强 日日躁 | 人人爽人人爽人人片av亚洲 | 亚洲高清偷拍一区二区三区 | 老熟妇仑乱视频一区二区 | 十八禁真人啪啪免费网站 | 久久亚洲中文字幕精品一区 | 黑森林福利视频导航 | 国产乱人伦av在线无码 | 国产精品久久久久9999小说 | 人人妻人人澡人人爽人人精品浪潮 | 国产区女主播在线观看 | 免费看男女做好爽好硬视频 | 中文字幕人成乱码熟女app | 在线观看国产一区二区三区 | 又湿又紧又大又爽a视频国产 | 理论片87福利理论电影 | 高中生自慰www网站 | 九月婷婷人人澡人人添人人爽 | 300部国产真实乱 | 夜夜高潮次次欢爽av女 | 色妞www精品免费视频 | 色五月五月丁香亚洲综合网 | 一本加勒比波多野结衣 | 午夜肉伦伦影院 | 思思久久99热只有频精品66 | 午夜无码区在线观看 | 国产午夜亚洲精品不卡下载 | 欧美 日韩 人妻 高清 中文 | 77777熟女视频在线观看 а天堂中文在线官网 | 一本色道久久综合亚洲精品不卡 | 99国产欧美久久久精品 | 夜夜夜高潮夜夜爽夜夜爰爰 | 免费人成在线视频无码 | 图片小说视频一区二区 | 亚洲成av人在线观看网址 | 秋霞特色aa大片 | 国产精品成人av在线观看 | 亚洲一区二区三区无码久久 | 久久亚洲中文字幕精品一区 | 国产人妻人伦精品1国产丝袜 | 人妻体内射精一区二区三四 | 亚洲精品www久久久 | 久久天天躁狠狠躁夜夜免费观看 | 亚洲国产精品无码一区二区三区 | 粗大的内捧猛烈进出视频 | 六月丁香婷婷色狠狠久久 | 免费乱码人妻系列无码专区 | 色综合久久久无码中文字幕 | 国产午夜无码精品免费看 | 成人无码精品一区二区三区 | 亚洲国产精品无码久久久久高潮 | 久久97精品久久久久久久不卡 | 国产精品久久久久9999小说 | 欧美日本免费一区二区三区 | 亚洲精品中文字幕久久久久 | 亚洲国精产品一二二线 | 国产无遮挡又黄又爽免费视频 | 无遮挡啪啪摇乳动态图 | 国产又粗又硬又大爽黄老大爷视 | 无码一区二区三区在线观看 | 午夜精品一区二区三区的区别 | 国产精品久久久久久亚洲毛片 | 丰满肥臀大屁股熟妇激情视频 | 无码人妻久久一区二区三区不卡 | 国内精品人妻无码久久久影院蜜桃 | 麻豆果冻传媒2021精品传媒一区下载 | 人妻插b视频一区二区三区 | 97夜夜澡人人爽人人喊中国片 | 99久久精品国产一区二区蜜芽 | 搡女人真爽免费视频大全 | 日韩av无码中文无码电影 | 一本无码人妻在中文字幕免费 | 一本久道高清无码视频 | 欧美国产日韩亚洲中文 | 国产在线aaa片一区二区99 | 色欲综合久久中文字幕网 | 精品久久综合1区2区3区激情 | 亚洲中文字幕成人无码 | 99久久亚洲精品无码毛片 | 成熟女人特级毛片www免费 | 夜夜夜高潮夜夜爽夜夜爰爰 | 嫩b人妻精品一区二区三区 | 亚洲狠狠色丁香婷婷综合 | 少妇无套内谢久久久久 | 久久久久se色偷偷亚洲精品av | 久久综合九色综合97网 | 荡女精品导航 | 亚洲精品www久久久 | 西西人体www44rt大胆高清 | 国产精品人人妻人人爽 | 最新国产乱人伦偷精品免费网站 | 无码福利日韩神码福利片 | 丰满少妇女裸体bbw | 亚洲а∨天堂久久精品2021 | 国产无套内射久久久国产 | 亚洲成色www久久网站 | 激情人妻另类人妻伦 | 少妇无码吹潮 | 欧美兽交xxxx×视频 | 精品一区二区三区无码免费视频 | 国产疯狂伦交大片 | 日本丰满熟妇videos | 日本成熟视频免费视频 | 国产精品99爱免费视频 | 免费看少妇作爱视频 | 久久久av男人的天堂 | 人人妻人人澡人人爽人人精品 | 天堂一区人妻无码 | 美女极度色诱视频国产 | 中文精品无码中文字幕无码专区 | 国产另类ts人妖一区二区 | 中文字幕+乱码+中文字幕一区 | 一本加勒比波多野结衣 | 亚洲日韩乱码中文无码蜜桃臀网站 | 日韩精品无码免费一区二区三区 | 四十如虎的丰满熟妇啪啪 | 欧美性猛交xxxx富婆 | 成 人 免费观看网站 | 狠狠综合久久久久综合网 | 国产激情综合五月久久 | 性生交片免费无码看人 | 中文字幕乱码中文乱码51精品 | 国产成人人人97超碰超爽8 | 久久无码中文字幕免费影院蜜桃 | 夜夜夜高潮夜夜爽夜夜爰爰 | 内射欧美老妇wbb | 无码午夜成人1000部免费视频 | 漂亮人妻洗澡被公强 日日躁 | 亚洲va欧美va天堂v国产综合 | 九九在线中文字幕无码 | 黑人巨大精品欧美一区二区 | 天堂а√在线中文在线 | 精品国产成人一区二区三区 | 亲嘴扒胸摸屁股激烈网站 | 丰满人妻精品国产99aⅴ | 亚洲の无码国产の无码影院 | ass日本丰满熟妇pics | 亚洲精品一区三区三区在线观看 | 内射爽无广熟女亚洲 | 亚洲精品综合一区二区三区在线 | 亲嘴扒胸摸屁股激烈网站 | 国产香蕉97碰碰久久人人 | 免费人成在线观看网站 | 无码任你躁久久久久久久 | 3d动漫精品啪啪一区二区中 | 色综合久久久无码中文字幕 | 亚洲天堂2017无码 | 国产精品久久国产精品99 | 伊人久久婷婷五月综合97色 | 国产两女互慰高潮视频在线观看 | 4hu四虎永久在线观看 | 国产精品久久福利网站 | 国产97人人超碰caoprom | 亚洲一区二区三区四区 | 日本精品久久久久中文字幕 | 欧美自拍另类欧美综合图片区 | 国产乱人偷精品人妻a片 | 国产综合在线观看 | 国产成人综合在线女婷五月99播放 | 真人与拘做受免费视频一 | 巨爆乳无码视频在线观看 | 给我免费的视频在线观看 | 欧美熟妇另类久久久久久不卡 | 乱人伦中文视频在线观看 | 麻豆精品国产精华精华液好用吗 | 午夜精品久久久久久久 | 老司机亚洲精品影院 | 国产成人精品优优av | 中文字幕无码av波多野吉衣 | 午夜成人1000部免费视频 | 亚洲成av人在线观看网址 | 日欧一片内射va在线影院 | 亚洲欧美中文字幕5发布 | 51国偷自产一区二区三区 | 久久精品国产99久久6动漫 | 久久久久久久人妻无码中文字幕爆 | 亚洲成av人综合在线观看 | 久久久久国色av免费观看性色 | 亚洲另类伦春色综合小说 | 国产免费久久久久久无码 | 人妻与老人中文字幕 | 国产色精品久久人妻 | 在线播放免费人成毛片乱码 | 日本一卡2卡3卡四卡精品网站 | 国产精品亚洲综合色区韩国 | 影音先锋中文字幕无码 | 成人精品天堂一区二区三区 | 99精品视频在线观看免费 | 精品无码一区二区三区爱欲 | √天堂中文官网8在线 | 成人免费视频一区二区 | 国产一区二区三区四区五区加勒比 | 国产亚av手机在线观看 | 亚洲熟悉妇女xxx妇女av | 国产电影无码午夜在线播放 | 日日碰狠狠躁久久躁蜜桃 | 国产办公室秘书无码精品99 | 国产亚av手机在线观看 | 久在线观看福利视频 | 2020久久超碰国产精品最新 | 真人与拘做受免费视频一 | 少妇无码av无码专区在线观看 | 日本乱人伦片中文三区 | 国内精品久久毛片一区二区 | 国产两女互慰高潮视频在线观看 | 日韩亚洲欧美中文高清在线 | 色欲av亚洲一区无码少妇 | 色综合久久久久综合一本到桃花网 | 国产精品成人av在线观看 | 中文字幕av伊人av无码av | 久久午夜无码鲁丝片午夜精品 | 九九在线中文字幕无码 | 俺去俺来也www色官网 | 国产成人综合色在线观看网站 | 国产在线aaa片一区二区99 | 国产免费久久久久久无码 | 中文无码成人免费视频在线观看 | 小泽玛莉亚一区二区视频在线 | 丰满妇女强制高潮18xxxx | 免费观看激色视频网站 | 男女性色大片免费网站 | 99久久无码一区人妻 | 捆绑白丝粉色jk震动捧喷白浆 | 国产成人综合美国十次 | 日本大香伊一区二区三区 | 国产艳妇av在线观看果冻传媒 | 亚洲精品一区国产 | 久久国产自偷自偷免费一区调 | 丰满少妇女裸体bbw | 熟妇人妻激情偷爽文 | 成人欧美一区二区三区 | 日本www一道久久久免费榴莲 | 亚洲精品美女久久久久久久 | 免费看男女做好爽好硬视频 | 精品人妻中文字幕有码在线 | 风流少妇按摩来高潮 | 亚洲国产精品久久人人爱 | 成人亚洲精品久久久久 | 欧美 日韩 人妻 高清 中文 | 免费观看的无遮挡av | 97精品国产97久久久久久免费 | а√天堂www在线天堂小说 | 77777熟女视频在线观看 а天堂中文在线官网 | 欧美第一黄网免费网站 | 国精产品一品二品国精品69xx | 国产精品无码mv在线观看 | 狠狠综合久久久久综合网 | 又粗又大又硬又长又爽 | 国产无遮挡又黄又爽免费视频 | 乱人伦人妻中文字幕无码 | 无码午夜成人1000部免费视频 | 亚洲熟熟妇xxxx | 欧美刺激性大交 | 4hu四虎永久在线观看 | 成人一区二区免费视频 | 又湿又紧又大又爽a视频国产 | 国产午夜精品一区二区三区嫩草 | 丰满少妇弄高潮了www | 亚洲欧美国产精品专区久久 | 最近的中文字幕在线看视频 | 欧美日韩综合一区二区三区 | 国内精品人妻无码久久久影院 | 成人欧美一区二区三区黑人免费 | 欧美激情内射喷水高潮 | 88国产精品欧美一区二区三区 | 亚拍精品一区二区三区探花 | 久久午夜无码鲁丝片 | 久久亚洲日韩精品一区二区三区 | 日韩人妻无码一区二区三区久久99 | 午夜福利一区二区三区在线观看 | 久久99精品国产.久久久久 | 午夜男女很黄的视频 | 欧美日韩一区二区三区自拍 | 欧美性猛交内射兽交老熟妇 | 伊人久久大香线蕉亚洲 | 成 人 网 站国产免费观看 | 九九在线中文字幕无码 | 欧美性生交活xxxxxdddd | 四虎国产精品一区二区 | 中文字幕色婷婷在线视频 | √天堂资源地址中文在线 | 麻豆成人精品国产免费 | 影音先锋中文字幕无码 | 日本一区二区三区免费高清 | 内射爽无广熟女亚洲 | 激情综合激情五月俺也去 | 亚洲人亚洲人成电影网站色 | 乱人伦人妻中文字幕无码久久网 | 欧美日韩色另类综合 | 少妇厨房愉情理9仑片视频 | 国产美女精品一区二区三区 | 久久国产36精品色熟妇 | 少女韩国电视剧在线观看完整 | 丰满岳乱妇在线观看中字无码 | 国产精品久久国产精品99 | 欧美精品一区二区精品久久 | a片免费视频在线观看 | 蜜桃臀无码内射一区二区三区 | 日欧一片内射va在线影院 | 4hu四虎永久在线观看 | 国产精品美女久久久网av | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 乌克兰少妇xxxx做受 | 欧美熟妇另类久久久久久多毛 | 精品国产青草久久久久福利 | 成人无码视频免费播放 | 成人性做爰aaa片免费看不忠 | 国产乱人伦av在线无码 | 亚洲成色在线综合网站 | 欧美日韩一区二区三区自拍 | 久久午夜无码鲁丝片秋霞 | 成 人影片 免费观看 | 无码av最新清无码专区吞精 | 国产成人无码专区 | 国产av无码专区亚洲awww | 欧美激情综合亚洲一二区 | 久久精品人妻少妇一区二区三区 | 亚洲日韩av一区二区三区四区 | 久久久久国色av免费观看性色 | 永久免费观看国产裸体美女 | 欧美成人免费全部网站 | 国产美女精品一区二区三区 | 玩弄中年熟妇正在播放 | 中文精品久久久久人妻不卡 | 精品夜夜澡人妻无码av蜜桃 | 老司机亚洲精品影院无码 | 亚洲精品国偷拍自产在线观看蜜桃 | 丰满人妻翻云覆雨呻吟视频 | 67194成是人免费无码 | 欧美黑人巨大xxxxx | 免费无码一区二区三区蜜桃大 | 欧美 日韩 亚洲 在线 | 久久久久久久人妻无码中文字幕爆 | 国产高清不卡无码视频 | 国产精品无码一区二区三区不卡 | 国产美女精品一区二区三区 | 日韩精品成人一区二区三区 | 日日摸天天摸爽爽狠狠97 | 国产熟女一区二区三区四区五区 | 日韩精品a片一区二区三区妖精 | 夜先锋av资源网站 | 麻豆果冻传媒2021精品传媒一区下载 | 日韩精品无码免费一区二区三区 | 国产真实夫妇视频 | 狠狠cao日日穞夜夜穞av | 免费无码一区二区三区蜜桃大 | 国产精品香蕉在线观看 | 精品国产一区二区三区四区在线看 | 激情亚洲一区国产精品 | 国产片av国语在线观看 | 中文无码成人免费视频在线观看 | 成人欧美一区二区三区黑人 | 牛和人交xxxx欧美 | aa片在线观看视频在线播放 | 亚洲国产午夜精品理论片 | 国产亚洲精品久久久久久 | 日韩亚洲欧美中文高清在线 | 亚洲成熟女人毛毛耸耸多 | 色一情一乱一伦一视频免费看 | 无码人妻久久一区二区三区不卡 | 精品一区二区不卡无码av | 无码成人精品区在线观看 | 国产精品无码久久av | 欧美人与善在线com | 呦交小u女精品视频 | 黄网在线观看免费网站 | 久久无码专区国产精品s | 亚洲成色www久久网站 | 麻豆精产国品 | 国产精品久久久久影院嫩草 | 久久亚洲国产成人精品性色 | 在线亚洲高清揄拍自拍一品区 | 性生交大片免费看女人按摩摩 | 荫蒂添的好舒服视频囗交 | 亚洲精品午夜无码电影网 | 亚洲熟妇色xxxxx欧美老妇y | 国产成人无码午夜视频在线观看 | 亚洲精品一区二区三区大桥未久 | 精品午夜福利在线观看 | 妺妺窝人体色www婷婷 | 国内揄拍国内精品少妇国语 | 免费国产黄网站在线观看 | 久久久久成人片免费观看蜜芽 | 欧美日韩综合一区二区三区 | 丰满肥臀大屁股熟妇激情视频 | 国产在线无码精品电影网 | 国内精品久久久久久中文字幕 | 精品水蜜桃久久久久久久 | 精品久久8x国产免费观看 | 亚洲色成人中文字幕网站 | 嫩b人妻精品一区二区三区 | 撕开奶罩揉吮奶头视频 | 精品国精品国产自在久国产87 | 97久久精品无码一区二区 | 中文无码精品a∨在线观看不卡 | 妺妺窝人体色www在线小说 | 国产无套粉嫩白浆在线 | 国产超碰人人爽人人做人人添 | 欧美变态另类xxxx | 亚洲日韩乱码中文无码蜜桃臀网站 | 性色av无码免费一区二区三区 | 无码人妻丰满熟妇区毛片18 | 4hu四虎永久在线观看 | 亚洲精品国偷拍自产在线观看蜜桃 | 亚洲一区二区三区国产精华液 | 乱码午夜-极国产极内射 | 国产后入清纯学生妹 | 激情内射亚州一区二区三区爱妻 | 国产午夜精品一区二区三区嫩草 | 中文字幕无码免费久久9一区9 | 成人动漫在线观看 | 国产人妻精品一区二区三区不卡 | 欧美乱妇无乱码大黄a片 | 少妇无码av无码专区在线观看 | 99国产欧美久久久精品 | 欧美日韩亚洲国产精品 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 九月婷婷人人澡人人添人人爽 | 无码一区二区三区在线观看 | 丰满护士巨好爽好大乳 | aⅴ亚洲 日韩 色 图网站 播放 | 狠狠亚洲超碰狼人久久 | 亚拍精品一区二区三区探花 | 亚洲乱码中文字幕在线 | 377p欧洲日本亚洲大胆 | 亚洲春色在线视频 | 亚洲va中文字幕无码久久不卡 | 国产精品丝袜黑色高跟鞋 | 55夜色66夜色国产精品视频 | 国产精品鲁鲁鲁 | 亚洲乱码国产乱码精品精 | 国产疯狂伦交大片 | 欧美国产日韩亚洲中文 | 国产在热线精品视频 | 亚洲精品成人av在线 | 亚洲一区av无码专区在线观看 | 无遮挡国产高潮视频免费观看 | 少妇无码一区二区二三区 | 综合人妻久久一区二区精品 | 久久精品无码一区二区三区 | 精品一区二区三区无码免费视频 | 亚洲日韩乱码中文无码蜜桃臀网站 | 又大又紧又粉嫩18p少妇 | 精品无人国产偷自产在线 | 国产精品毛多多水多 | 国产精品怡红院永久免费 | 久久久久久九九精品久 | 一本加勒比波多野结衣 | 日本一本二本三区免费 | 在线观看欧美一区二区三区 | 中文字幕无码乱人伦 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 熟女少妇在线视频播放 | 一区二区传媒有限公司 | 成人一区二区免费视频 | 亚洲色欲久久久综合网东京热 | 日日夜夜撸啊撸 | 国产人成高清在线视频99最全资源 | 久久久成人毛片无码 | 人妻少妇精品久久 | 人妻少妇精品无码专区二区 | 亚洲中文无码av永久不收费 | 日产精品高潮呻吟av久久 | 亚洲第一无码av无码专区 | 国产亚洲精品久久久久久国模美 | 国产人成高清在线视频99最全资源 | 在线亚洲高清揄拍自拍一品区 | 全球成人中文在线 | 搡女人真爽免费视频大全 | 国产在线一区二区三区四区五区 | 无码av最新清无码专区吞精 | 综合人妻久久一区二区精品 | 日韩在线不卡免费视频一区 | 亚洲精品一区三区三区在线观看 | 国产舌乚八伦偷品w中 | 久久久久成人精品免费播放动漫 | 一本无码人妻在中文字幕免费 | 97无码免费人妻超级碰碰夜夜 | 亚洲成av人片天堂网无码】 | 亚洲精品一区二区三区在线 | 男女爱爱好爽视频免费看 | 亚洲精品www久久久 | 久精品国产欧美亚洲色aⅴ大片 | 未满小14洗澡无码视频网站 | 东京热无码av男人的天堂 | 成人女人看片免费视频放人 | 熟妇女人妻丰满少妇中文字幕 | 久久久久国色av免费观看性色 | 国产精品自产拍在线观看 | 亚洲精品久久久久久久久久久 | 国产午夜亚洲精品不卡下载 | 在线看片无码永久免费视频 | 亚洲色大成网站www | 日本一区二区更新不卡 | 十八禁真人啪啪免费网站 | 久久国产精品偷任你爽任你 | 国内少妇偷人精品视频免费 | 亚无码乱人伦一区二区 | 国产97色在线 | 免 | 真人与拘做受免费视频一 | 色偷偷人人澡人人爽人人模 | 久9re热视频这里只有精品 | 亚洲精品久久久久久久久久久 | 亚洲春色在线视频 | 久久久久久九九精品久 | 国产成人一区二区三区在线观看 | 丰满人妻被黑人猛烈进入 | 国产午夜福利亚洲第一 | 蜜桃臀无码内射一区二区三区 | 精品熟女少妇av免费观看 | 狠狠色欧美亚洲狠狠色www | 久久久中文久久久无码 | 黑人巨大精品欧美一区二区 | 精品无人国产偷自产在线 | 亚洲区欧美区综合区自拍区 | 97久久国产亚洲精品超碰热 | 偷窥日本少妇撒尿chinese | 国产人妻精品一区二区三区 | 久久久av男人的天堂 | 久久综合给合久久狠狠狠97色 | 国产精品无码久久av | 帮老师解开蕾丝奶罩吸乳网站 | 亚洲国产高清在线观看视频 | 久久99精品久久久久久 | 亚洲熟妇色xxxxx亚洲 | 少妇久久久久久人妻无码 | 日日噜噜噜噜夜夜爽亚洲精品 | 成人性做爰aaa片免费看不忠 | 精品欧美一区二区三区久久久 | 欧美日韩一区二区免费视频 | 内射老妇bbwx0c0ck | 欧美激情综合亚洲一二区 | 曰韩无码二三区中文字幕 | 色 综合 欧美 亚洲 国产 | 久久精品无码一区二区三区 | 初尝人妻少妇中文字幕 | 欧美肥老太牲交大战 | 激情爆乳一区二区三区 | 色情久久久av熟女人妻网站 | 成人免费视频在线观看 | 欧美 日韩 亚洲 在线 | 激情人妻另类人妻伦 | 日本大香伊一区二区三区 | 欧美丰满熟妇xxxx性ppx人交 | 国产成人无码一二三区视频 | yw尤物av无码国产在线观看 | аⅴ资源天堂资源库在线 | 欧美性生交xxxxx久久久 | 亚洲精品午夜国产va久久成人 | 日本精品人妻无码免费大全 | 激情亚洲一区国产精品 | 无码国产激情在线观看 | 亚洲gv猛男gv无码男同 | 色 综合 欧美 亚洲 国产 | 国产美女极度色诱视频www | 波多野结衣一区二区三区av免费 | 99久久婷婷国产综合精品青草免费 | 国产精品99久久精品爆乳 | 久久伊人色av天堂九九小黄鸭 | 少妇性荡欲午夜性开放视频剧场 | 国产一区二区三区四区五区加勒比 | 国产精品久久久久9999小说 | 日日摸天天摸爽爽狠狠97 | 麻豆av传媒蜜桃天美传媒 | 男人和女人高潮免费网站 | 人妻无码久久精品人妻 | 性欧美熟妇videofreesex | 国产精品久久久久久无码 | 国内少妇偷人精品视频免费 | 国产亚洲精品精品国产亚洲综合 | 日韩 欧美 动漫 国产 制服 | 亚洲国产成人av在线观看 | 55夜色66夜色国产精品视频 | 好男人社区资源 | 少妇人妻偷人精品无码视频 | 77777熟女视频在线观看 а天堂中文在线官网 | 四虎影视成人永久免费观看视频 | 蜜桃av抽搐高潮一区二区 | 熟女俱乐部五十路六十路av | 四虎国产精品一区二区 | 国内精品一区二区三区不卡 | 无码精品国产va在线观看dvd | 亚洲s色大片在线观看 | 少妇愉情理伦片bd | 亚洲精品欧美二区三区中文字幕 | 人妻无码久久精品人妻 | 在线 国产 欧美 亚洲 天堂 | 色欲综合久久中文字幕网 | 欧美丰满熟妇xxxx性ppx人交 | 熟女俱乐部五十路六十路av | 九九在线中文字幕无码 | 国产av剧情md精品麻豆 | 欧美 亚洲 国产 另类 | 国产一区二区三区日韩精品 | 成人精品天堂一区二区三区 | 丝袜人妻一区二区三区 | 人妻少妇精品视频专区 | 国产艳妇av在线观看果冻传媒 | 熟妇人妻中文av无码 | 亚洲大尺度无码无码专区 | 又紧又大又爽精品一区二区 | 国产亚洲欧美在线专区 | 精品日本一区二区三区在线观看 | 日本成熟视频免费视频 | 欧美性色19p | 欧美日韩亚洲国产精品 | 99久久婷婷国产综合精品青草免费 | 欧美精品免费观看二区 | 日欧一片内射va在线影院 | 国产精品久久久久7777 | 欧美日韩综合一区二区三区 | 亚洲日韩精品欧美一区二区 | 精品日本一区二区三区在线观看 | 5858s亚洲色大成网站www | 少妇被黑人到高潮喷出白浆 | 国产精品igao视频网 | 鲁鲁鲁爽爽爽在线视频观看 | 狠狠噜狠狠狠狠丁香五月 | 丰满人妻精品国产99aⅴ | 国产人成高清在线视频99最全资源 | 77777熟女视频在线观看 а天堂中文在线官网 | 成人精品天堂一区二区三区 | 精品无码av一区二区三区 | 国产97在线 | 亚洲 | 少妇无码一区二区二三区 | 欧美日韩视频无码一区二区三 | 麻豆国产人妻欲求不满谁演的 | 国产99久久精品一区二区 | 天堂а√在线地址中文在线 | 精品无人区无码乱码毛片国产 | 欧洲欧美人成视频在线 | 成人性做爰aaa片免费看不忠 | 精品日本一区二区三区在线观看 | 亚洲国产午夜精品理论片 | 国产精品第一国产精品 | 亚洲精品美女久久久久久久 | 日本肉体xxxx裸交 | 国产无遮挡又黄又爽又色 | 欧美国产日产一区二区 | 欧美亚洲日韩国产人成在线播放 | 国产办公室秘书无码精品99 | 精品久久久中文字幕人妻 | 国产精品久久久午夜夜伦鲁鲁 | 成人片黄网站色大片免费观看 | 亚洲七七久久桃花影院 | 秋霞特色aa大片 | 久久天天躁狠狠躁夜夜免费观看 | 狠狠色噜噜狠狠狠7777奇米 | 妺妺窝人体色www在线小说 | 荫蒂添的好舒服视频囗交 | 亚洲小说春色综合另类 | 一二三四社区在线中文视频 | 色欲av亚洲一区无码少妇 | 激情国产av做激情国产爱 | 亚洲午夜久久久影院 | 色 综合 欧美 亚洲 国产 | 无人区乱码一区二区三区 | 永久免费观看国产裸体美女 | 中国女人内谢69xxxxxa片 | 亚洲精品中文字幕 | 在线播放无码字幕亚洲 | 97夜夜澡人人双人人人喊 | 成人aaa片一区国产精品 | 啦啦啦www在线观看免费视频 | 免费看男女做好爽好硬视频 | 国产精品第一区揄拍无码 | 久久精品视频在线看15 | 国产电影无码午夜在线播放 | 久久久无码中文字幕久... | 婷婷综合久久中文字幕蜜桃三电影 | 国产精品资源一区二区 | 亚无码乱人伦一区二区 | 欧美freesex黑人又粗又大 | 亚洲中文字幕乱码av波多ji | 亚洲呦女专区 | 国产精品亚洲五月天高清 | av人摸人人人澡人人超碰下载 | 日本精品高清一区二区 | 国产片av国语在线观看 | 国产精品人人爽人人做我的可爱 | 久久久国产精品无码免费专区 | 露脸叫床粗话东北少妇 | 免费网站看v片在线18禁无码 | 久久久久av无码免费网 | 国内精品久久久久久中文字幕 | 国产福利视频一区二区 | 国产精品永久免费视频 | 性欧美牲交在线视频 | 最新国产乱人伦偷精品免费网站 | 图片区 小说区 区 亚洲五月 | 老熟女重囗味hdxx69 | 国产超碰人人爽人人做人人添 | 国内揄拍国内精品人妻 | 乱码午夜-极国产极内射 | 97夜夜澡人人双人人人喊 | 四虎国产精品免费久久 | 初尝人妻少妇中文字幕 | 东京无码熟妇人妻av在线网址 | 秋霞成人午夜鲁丝一区二区三区 | 日日摸天天摸爽爽狠狠97 | 日本高清一区免费中文视频 | 大乳丰满人妻中文字幕日本 | 久久久久成人片免费观看蜜芽 | 成人一区二区免费视频 | 欧美日韩视频无码一区二区三 | 真人与拘做受免费视频一 | 国产精品毛多多水多 | 玩弄少妇高潮ⅹxxxyw | 亚洲精品久久久久久久久久久 | 99久久精品无码一区二区毛片 | 俺去俺来也www色官网 | 最新国产乱人伦偷精品免费网站 | 亚洲国产精品美女久久久久 | 欧美 日韩 人妻 高清 中文 | 日日摸夜夜摸狠狠摸婷婷 | 国产精品人人爽人人做我的可爱 | 久久国语露脸国产精品电影 | 夜夜高潮次次欢爽av女 | 波多野结衣 黑人 | 亚洲中文字幕乱码av波多ji | 在线亚洲高清揄拍自拍一品区 | 久久99精品国产.久久久久 | 国产精品无码mv在线观看 | 色老头在线一区二区三区 | 久久精品视频在线看15 | 亚洲日韩一区二区 | 最新国产乱人伦偷精品免费网站 | 麻豆国产人妻欲求不满谁演的 | 在线a亚洲视频播放在线观看 | 黑森林福利视频导航 | 亚洲の无码国产の无码影院 | 一本色道久久综合亚洲精品不卡 | 欧美一区二区三区 | 自拍偷自拍亚洲精品被多人伦好爽 | 97久久精品无码一区二区 | 亚洲小说图区综合在线 | 国産精品久久久久久久 | 色欲综合久久中文字幕网 | 无码人中文字幕 | 熟妇人妻中文av无码 | 成年美女黄网站色大免费全看 | 在线天堂新版最新版在线8 | 国产高清不卡无码视频 | 中文字幕无码视频专区 | 精品人妻av区 | 18精品久久久无码午夜福利 | 九九热爱视频精品 | 国产三级精品三级男人的天堂 | 人妻少妇被猛烈进入中文字幕 | 国产精品久久久久7777 | 欧美精品在线观看 | 国产精品久久精品三级 | 人妻人人添人妻人人爱 | 夜精品a片一区二区三区无码白浆 | 久久久国产一区二区三区 | 欧美 日韩 人妻 高清 中文 | 国产黄在线观看免费观看不卡 | 国产av无码专区亚洲awww | 国产成人精品一区二区在线小狼 | 少妇性俱乐部纵欲狂欢电影 | 久久精品国产一区二区三区 | 色一情一乱一伦一视频免费看 | 亚洲人交乣女bbw | 国产热a欧美热a在线视频 | 日韩少妇内射免费播放 | 黑森林福利视频导航 | 亚洲一区二区三区含羞草 | 麻豆国产人妻欲求不满 | 国产精品a成v人在线播放 | 成人三级无码视频在线观看 | 国产色xx群视频射精 | 日日天干夜夜狠狠爱 | 亚洲欧美精品伊人久久 | 精品久久久中文字幕人妻 | 噜噜噜亚洲色成人网站 | 国产精品va在线播放 | 捆绑白丝粉色jk震动捧喷白浆 | 国产一区二区三区精品视频 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 国产后入清纯学生妹 | 狠狠躁日日躁夜夜躁2020 | 性欧美熟妇videofreesex | 久久精品国产99精品亚洲 | 亚洲一区av无码专区在线观看 | 真人与拘做受免费视频一 | 熟妇女人妻丰满少妇中文字幕 | 国产成人无码区免费内射一片色欲 | √8天堂资源地址中文在线 | 国产后入清纯学生妹 | 少女韩国电视剧在线观看完整 | 午夜成人1000部免费视频 | √天堂中文官网8在线 | 国语自产偷拍精品视频偷 | 荫蒂添的好舒服视频囗交 | 日本又色又爽又黄的a片18禁 | 婷婷五月综合缴情在线视频 | 中文字幕无码日韩欧毛 | 免费国产黄网站在线观看 | 亚洲日韩av一区二区三区四区 | 欧洲熟妇色 欧美 | 亚洲欧美综合区丁香五月小说 | 丰满肥臀大屁股熟妇激情视频 | 中文字幕乱码人妻二区三区 | 荫蒂被男人添的好舒服爽免费视频 | 亚洲熟妇色xxxxx欧美老妇y | 国産精品久久久久久久 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 领导边摸边吃奶边做爽在线观看 | 中文字幕无码人妻少妇免费 | 好爽又高潮了毛片免费下载 | 午夜时刻免费入口 | 人妻插b视频一区二区三区 | 国色天香社区在线视频 | 欧美 丝袜 自拍 制服 另类 | 两性色午夜视频免费播放 | 奇米影视7777久久精品人人爽 | 成人女人看片免费视频放人 | 久久久久久久久888 | 国产精品久久久久久亚洲毛片 | 久久人人97超碰a片精品 | 大地资源网第二页免费观看 | 精品乱子伦一区二区三区 | 欧美兽交xxxx×视频 | 色综合久久中文娱乐网 | 中文字幕无线码免费人妻 | 久久精品国产亚洲精品 | 亚洲精品一区二区三区四区五区 | 亚洲乱码中文字幕在线 | 亚洲精品一区国产 | 色老头在线一区二区三区 | 国产免费久久久久久无码 | 精品国产一区二区三区四区在线看 | 欧美色就是色 | 日韩精品无码一本二本三本色 | 亚洲综合伊人久久大杳蕉 | 欧美国产日韩久久mv | 中文字幕人成乱码熟女app | 中文亚洲成a人片在线观看 | 欧美freesex黑人又粗又大 | 国产欧美亚洲精品a | 国产熟妇另类久久久久 | 国产无遮挡吃胸膜奶免费看 | 免费网站看v片在线18禁无码 | 黑人大群体交免费视频 | 人人澡人人妻人人爽人人蜜桃 | 国产精华av午夜在线观看 | 国产精品人人爽人人做我的可爱 | 色婷婷av一区二区三区之红樱桃 | 久久精品国产99精品亚洲 | 亚拍精品一区二区三区探花 | 亚洲精品午夜无码电影网 | 欧美亚洲日韩国产人成在线播放 | 国产性生大片免费观看性 | 国产色视频一区二区三区 | 久久精品无码一区二区三区 | 无码av最新清无码专区吞精 | 2019午夜福利不卡片在线 | 精品亚洲成av人在线观看 | 无码人妻丰满熟妇区五十路百度 | 国产国语老龄妇女a片 | 亚洲色偷偷偷综合网 | 国产亚洲欧美日韩亚洲中文色 | 伊人久久大香线蕉av一区二区 | 西西人体www44rt大胆高清 | 成人影院yy111111在线观看 | 久久久精品国产sm最大网站 | 天堂亚洲2017在线观看 | 久久亚洲中文字幕精品一区 | 国产精品免费大片 | 精品国产一区二区三区四区在线看 | 亚洲国产欧美在线成人 | 成人精品视频一区二区三区尤物 | 少妇性荡欲午夜性开放视频剧场 | 久久久久成人精品免费播放动漫 | 久久久久久九九精品久 | 欧洲vodafone精品性 | 国产精品亚洲专区无码不卡 | 国产婷婷色一区二区三区在线 | 日韩精品无码一本二本三本色 | 人妻无码αv中文字幕久久琪琪布 | 亚洲第一网站男人都懂 | 国产精品亚洲专区无码不卡 | 精品国产麻豆免费人成网站 | 久久综合给久久狠狠97色 | 亚洲精品久久久久久久久久久 | 极品嫩模高潮叫床 | 国产成人综合在线女婷五月99播放 | 88国产精品欧美一区二区三区 | 波多野42部无码喷潮在线 | 国内精品久久毛片一区二区 | 久久久中文字幕日本无吗 | 色婷婷综合中文久久一本 | 国产无遮挡又黄又爽免费视频 | 国产成人亚洲综合无码 | 亚洲s码欧洲m码国产av | 六月丁香婷婷色狠狠久久 | 国产网红无码精品视频 | 乱码av麻豆丝袜熟女系列 | 噜噜噜亚洲色成人网站 | 人人妻人人澡人人爽人人精品浪潮 | 丰满人妻被黑人猛烈进入 | 黄网在线观看免费网站 | 激情五月综合色婷婷一区二区 | 午夜无码人妻av大片色欲 | 国产成人精品优优av | 欧美日韩人成综合在线播放 | 51国偷自产一区二区三区 | 国产疯狂伦交大片 | 中文字幕无码免费久久99 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 亚洲色偷偷男人的天堂 | 国产精品久久久久7777 | 一本加勒比波多野结衣 | 在线播放无码字幕亚洲 | 亚洲自偷自拍另类第1页 | 国产电影无码午夜在线播放 | 日本一卡二卡不卡视频查询 | 国产口爆吞精在线视频 | 久久精品国产一区二区三区 | 中文字幕久久久久人妻 | 国产精品-区区久久久狼 | 国产精品人人妻人人爽 | 国产在线一区二区三区四区五区 | 久久99国产综合精品 | 小鲜肉自慰网站xnxx | 强奷人妻日本中文字幕 | 日本www一道久久久免费榴莲 | 亚洲人成网站在线播放942 | 青春草在线视频免费观看 | 亚洲中文字幕无码中字 | 无码人妻av免费一区二区三区 | 性开放的女人aaa片 | 色综合视频一区二区三区 | 色欲av亚洲一区无码少妇 | 国产尤物精品视频 | 久久国语露脸国产精品电影 | 一本久道久久综合狠狠爱 | 精品国产一区二区三区av 性色 | 国产精品对白交换视频 | 亚洲人成网站色7799 | 亚洲中文字幕av在天堂 | 久久精品国产99久久6动漫 | 亚洲人亚洲人成电影网站色 | 国产av无码专区亚洲awww | 99久久99久久免费精品蜜桃 | 亚洲中文字幕乱码av波多ji | 久久无码中文字幕免费影院蜜桃 | 亚洲成a人一区二区三区 | 5858s亚洲色大成网站www | 无码任你躁久久久久久久 | 欧美变态另类xxxx | 亚洲国产成人av在线观看 | 大色综合色综合网站 | 天天躁夜夜躁狠狠是什么心态 | 九九热爱视频精品 | 天天做天天爱天天爽综合网 | 偷窥日本少妇撒尿chinese | 在线精品亚洲一区二区 | 国产精品永久免费视频 | 亚洲伊人久久精品影院 | 欧美老妇交乱视频在线观看 | 亚洲人成影院在线无码按摩店 | 无码人妻丰满熟妇区五十路百度 | 亚洲一区av无码专区在线观看 | 国产成人精品视频ⅴa片软件竹菊 | 欧美丰满熟妇xxxx性ppx人交 | 日本一卡二卡不卡视频查询 | 中文亚洲成a人片在线观看 | 99在线 | 亚洲 | 一本色道久久综合亚洲精品不卡 | 内射老妇bbwx0c0ck | 无码人妻黑人中文字幕 | 国产精品igao视频网 | 婷婷综合久久中文字幕蜜桃三电影 | 天下第一社区视频www日本 | 最近免费中文字幕中文高清百度 | 久久久久久a亚洲欧洲av冫 | 国产电影无码午夜在线播放 | 中文字幕中文有码在线 | 乌克兰少妇性做爰 | 日本熟妇乱子伦xxxx | 亚洲爆乳精品无码一区二区三区 | 亚洲欧美中文字幕5发布 | 国产一区二区三区四区五区加勒比 | 国产乱子伦视频在线播放 | 三上悠亚人妻中文字幕在线 | 亚洲成a人片在线观看无码 | 天天摸天天透天天添 | 亚洲色成人中文字幕网站 | 久久久av男人的天堂 | 亚洲人亚洲人成电影网站色 | 国产区女主播在线观看 | 又色又爽又黄的美女裸体网站 | 无码人妻精品一区二区三区下载 | 久久国产精品二国产精品 | 99精品视频在线观看免费 | 四虎永久在线精品免费网址 | 大色综合色综合网站 | 色 综合 欧美 亚洲 国产 | 丰腴饱满的极品熟妇 | 久久综合九色综合欧美狠狠 | 99国产精品白浆在线观看免费 | 无码人妻出轨黑人中文字幕 | 曰韩少妇内射免费播放 | 亚洲中文字幕在线无码一区二区 | 少妇性荡欲午夜性开放视频剧场 | 亚洲午夜福利在线观看 | 夫妻免费无码v看片 | 久久综合激激的五月天 | 狂野欧美性猛xxxx乱大交 | 亚洲精品久久久久中文第一幕 | 国产一精品一av一免费 | 国产莉萝无码av在线播放 | 四虎国产精品一区二区 | 人人妻人人澡人人爽欧美一区九九 | 无码人妻久久一区二区三区不卡 | 丰腴饱满的极品熟妇 | 美女毛片一区二区三区四区 | 蜜臀aⅴ国产精品久久久国产老师 | 女人被爽到呻吟gif动态图视看 | 亚洲天堂2017无码中文 | 大地资源网第二页免费观看 | 巨爆乳无码视频在线观看 | 久久综合给久久狠狠97色 | 日本爽爽爽爽爽爽在线观看免 | 欧美猛少妇色xxxxx | 免费无码午夜福利片69 | 国产精品igao视频网 | 免费观看的无遮挡av | 77777熟女视频在线观看 а天堂中文在线官网 | 国产亚洲精品久久久久久久 | 国产人妻精品一区二区三区 | 无人区乱码一区二区三区 | 丰满人妻被黑人猛烈进入 | 波多野结衣av在线观看 | 国产午夜无码视频在线观看 | 少妇无码av无码专区在线观看 | 色五月五月丁香亚洲综合网 | 四虎影视成人永久免费观看视频 | 成人一在线视频日韩国产 | 亚洲成av人影院在线观看 | 国产精品igao视频网 | 天堂在线观看www | 日本在线高清不卡免费播放 | 国产精品高潮呻吟av久久4虎 | 国产性生大片免费观看性 | 国产一区二区三区精品视频 | 狠狠亚洲超碰狼人久久 | 青春草在线视频免费观看 | 久久久久99精品国产片 | 国产成人亚洲综合无码 | 久久亚洲日韩精品一区二区三区 | 国产精品资源一区二区 | 久久精品国产99精品亚洲 | 国产在线aaa片一区二区99 | 中文字幕无线码免费人妻 | 日本肉体xxxx裸交 | 娇妻被黑人粗大高潮白浆 | 精品少妇爆乳无码av无码专区 | 国产精品无码一区二区三区不卡 | 未满成年国产在线观看 | 高潮毛片无遮挡高清免费视频 | 一本加勒比波多野结衣 | 欧美色就是色 | av在线亚洲欧洲日产一区二区 | 欧美zoozzooz性欧美 | 高潮毛片无遮挡高清免费视频 | 欧美阿v高清资源不卡在线播放 | 无码午夜成人1000部免费视频 | 无码人妻精品一区二区三区下载 | 国产无遮挡吃胸膜奶免费看 | 亚洲午夜无码久久 | 国产精品二区一区二区aⅴ污介绍 | 一个人看的www免费视频在线观看 | 亚洲精品无码人妻无码 | 欧美色就是色 | 成人免费视频一区二区 | 国产亚洲tv在线观看 | 四虎永久在线精品免费网址 | 日日麻批免费40分钟无码 | 无码国产色欲xxxxx视频 | 国产精品久久久久久亚洲影视内衣 | 精品厕所偷拍各类美女tp嘘嘘 | 亚洲国产欧美国产综合一区 | 久久综合给合久久狠狠狠97色 | 国产亚洲精品久久久ai换 | 日本饥渴人妻欲求不满 | 国产成人精品优优av | 一本精品99久久精品77 | 日韩少妇白浆无码系列 | 九九在线中文字幕无码 | 成在人线av无码免观看麻豆 | 久久国产精品萌白酱免费 | 色诱久久久久综合网ywww | 荫蒂添的好舒服视频囗交 | 领导边摸边吃奶边做爽在线观看 | 中文字幕无码热在线视频 | 老熟妇乱子伦牲交视频 | 正在播放东北夫妻内射 | 欧美日韩在线亚洲综合国产人 | 内射老妇bbwx0c0ck | 精品久久综合1区2区3区激情 | 波多野结衣高清一区二区三区 | 日本护士xxxxhd少妇 | 久久午夜无码鲁丝片午夜精品 | 国产成人无码午夜视频在线观看 | 久久久久久九九精品久 | 欧美性生交xxxxx久久久 | 精品国产一区二区三区av 性色 | 99久久人妻精品免费一区 | 2019nv天堂香蕉在线观看 | 亚洲日本一区二区三区在线 | 久久精品国产99精品亚洲 | 国产尤物精品视频 | 国产色xx群视频射精 | 亚洲а∨天堂久久精品2021 | 久久久精品欧美一区二区免费 | 色妞www精品免费视频 | 熟女体下毛毛黑森林 | 秋霞特色aa大片 | 久久精品国产一区二区三区 | 夜夜影院未满十八勿进 | 亚洲国产精品毛片av不卡在线 | 美女张开腿让人桶 | 久久午夜无码鲁丝片午夜精品 | 妺妺窝人体色www在线小说 | 亚洲国产高清在线观看视频 | 夜夜躁日日躁狠狠久久av | 精品偷拍一区二区三区在线看 | 一本色道婷婷久久欧美 | 午夜无码区在线观看 | 老太婆性杂交欧美肥老太 | 性做久久久久久久免费看 |