久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > python >内容正文

python

Python 大规模异步新闻爬虫、google翻译、百度翻译、有道翻译、百度指数

發布時間:2024/7/23 python 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Python 大规模异步新闻爬虫、google翻译、百度翻译、有道翻译、百度指数 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

參考:https://www.yuanrenxue.com/crawler/news-crawler-urlpool.html

url_pool.py

# -*- coding: utf-8 -*- # @Author : 佛祖保佑, 永無 bug # @Date : # @File : url_pool.py # @Software: PyCharm # @description : XXXimport time import redis import pickle import urllib.parse as urlparseclass UrlDB(object):"""使用 redis 來存儲 URL"""status_failure = b'0'status_success = b'1'def __init__(self, db_name):# self.name = db_name + '.urldb'# self.db = leveldb.LevelDB(self.name)self.name = db_name if db_name else 'redis_hashmap'self.db = redis.StrictRedis()def set_success(self, url=None):if isinstance(url, str):url = url.encode('utf8')try:self.db.hset(self.name, url, self.status_success)status = Trueexcept BaseException as be:status = Falsereturn statusdef set_failure(self, url):if isinstance(url, str):url = url.encode('utf8')try:self.db.hset(self.name, url, self.status_failure)status = Trueexcept BaseException as be:status = Falsereturn statusdef has(self, url):if isinstance(url, str):url = url.encode('utf8')try:attr = self.db.hget(self.name, url)return attrexcept BaseException as be:passreturn Falseclass UrlPool(object):""" 使用 UrlPool 來抓取和管理URLs"""def __init__(self, pool_name):self.name = pool_nameself.db = UrlDB(pool_name)self.waiting = dict() # {host: set([urls]), } 按host分組,記錄等待下載的URLself.pending = dict() # {url: pended_time, } 記錄已被取出(self.pop())但還未被更新狀態(正在下載)的URLself.failure = dict() # {url: times,} 記錄失敗的URL的次數self.failure_threshold = 3self.pending_threshold = 10 # pending的最大時間,過期要重新下載self.waiting_count = 0 # self.waiting 字典里面的url的個數self.max_hosts = ['', 0] # [host: url_count] 目前pool中url最多的host及其url數量self.hub_pool = dict() # {url: last_query_time, } 存放hub urlself.hub_refresh_span = 0self.load_cache()passdef __del__(self):self.dump_cache()def load_cache(self,):path = self.name + '.pkl'try:with open(path, 'rb') as f:self.waiting = pickle.load(f)cc = [len(v) for k, v in self.waiting.items()]print('saved pool loaded! urls:', sum(cc))except BaseException as be:passdef dump_cache(self):path = self.name + '.pkl'try:with open(path, 'wb') as f:pickle.dump(self.waiting, f)print('self.waiting saved!')except BaseException as be:passdef set_hubs(self, urls, hub_refresh_span):self.hub_refresh_span = hub_refresh_spanself.hub_pool = dict()for url in urls:self.hub_pool[url] = 0def set_status(self, url, status_code):if url in self.pending:self.pending.pop(url)if status_code == 200:self.db.set_success(url)returnif status_code == 404:self.db.set_failure(url)returnif url in self.failure:self.failure[url] += 1if self.failure[url] > self.failure_threshold:self.db.set_failure(url)self.failure.pop(url)else:self.add(url)else:self.failure[url] = 1self.add(url)def push_to_pool(self, url=None):host = urlparse.urlparse(url).netlocif not host or '.' not in host:print('try to push_to_pool with bad url:', url, ', len of ur:', len(url))return Falseif host in self.waiting:if url in self.waiting[host]:return Trueself.waiting[host].add(url)if len(self.waiting[host]) > self.max_hosts[1]:self.max_hosts[1] = len(self.waiting[host])self.max_hosts[0] = hostelse:self.waiting[host] = set([url])self.waiting_count += 1return Truedef add(self, url=None, always=False):if always:return self.push_to_pool(url)pended_time = self.pending.get(url, 0)if time.time() - pended_time < self.pending_threshold:print('being downloading:', url)returnif self.db.has(url):returnif pended_time:self.pending.pop(url)return self.push_to_pool(url)def add_many(self, url_list=None, always=False):if isinstance(url_list, str):print('urls is a str !!!!', url_list)self.add(url_list, always)else:for url in url_list:self.add(url, always)def pop(self, count=None, hub_percent=50):print('\n\tmax of host:', self.max_hosts)# 取出的url有兩種類型:hub=1, 普通=0url_attr_url = 0url_attr_hub = 1# 1. 首先取出hub,保證獲取hub里面的最新url.hubs = dict()hub_count = count * hub_percent // 100for hub in self.hub_pool:span = time.time() - self.hub_pool[hub]if span < self.hub_refresh_span:continuehubs[hub] = url_attr_hub # 1 means hub-urlself.hub_pool[hub] = time.time()if len(hubs) >= hub_count:break# 2. 再取出普通urlleft_count = count - len(hubs)urls = dict()for host in self.waiting:if not self.waiting[host]:continueurl = self.waiting[host].pop()urls[url] = url_attr_urlself.pending[url] = time.time()if self.max_hosts[0] == host:self.max_hosts[1] -= 1if len(urls) >= left_count:breakself.waiting_count -= len(urls)print('To pop:%s, hubs: %s, urls: %s, hosts:%s' % (count, len(hubs), len(urls), len(self.waiting)))urls.update(hubs)return urlsdef size(self,):return self.waiting_countdef empty(self,):return self.waiting_count == 0def test():pool = UrlPool('crawl_url_pool')urls = ['http://1.a.cn/xyz','http://2.a.cn/xyz','http://3.a.cn/xyz','http://1.b.cn/xyz-1','http://1.b.cn/xyz-2','http://1.b.cn/xyz-3','http://1.b.cn/xyz-4',]pool.add_many(urls)# del pool# pool = UrlPool('crawl_url_pool')urls = pool.pop(5)urls = list(urls.keys())print('pop:', urls)print('pending:', pool.pending)pool.set_status(urls[0], 200)print('pending:', pool.pending)pool.set_status(urls[1], 404)print('pending:', pool.pending)if __name__ == '__main__':test()

ezpymysql.py

:大規模異步新聞爬蟲: 讓MySQL 數據庫操作更方便 - 猿人學

# file: ezpymysql.py # Author: veelion"""A lightweight wrapper around PyMySQL. only for python3"""import time import logging import traceback import pymysql import pymysql.cursorsversion = "0.7" version_info = (0, 7, 0, 0)class Connection(object):"""A lightweight wrapper around PyMySQL."""def __init__(self, host, database, user=None, password=None,port=0, max_idle_time=7 * 3600, connect_timeout=10,time_zone="+0:00", charset="utf8mb4", sql_mode="TRADITIONAL"):self.host = hostself.database = databaseself.max_idle_time = float(max_idle_time)args = dict(use_unicode=True, charset=charset, database=database,init_command=('SET time_zone = "%s"' % time_zone),cursorclass=pymysql.cursors.DictCursor,connect_timeout=connect_timeout, sql_mode=sql_mode)if user is not None:args["user"] = userif password is not None:args["passwd"] = password# We accept a path to a MySQL socket file or a host(:port) stringif "/" in host:args["unix_socket"] = hostelse:self.socket = Nonepair = host.split(":")if len(pair) == 2:args["host"] = pair[0]args["port"] = int(pair[1])else:args["host"] = hostargs["port"] = 3306if port:args['port'] = portself._db = Noneself._db_args = argsself._last_use_time = time.time()try:self.reconnect()except BaseException as be:logging.error("Cannot connect to MySQL on %s", self.host, exc_info=True)def _ensure_connected(self):# Mysql by default closes client connections that are idle for# 8 hours, but the client library does not report this fact until# you try to perform a query and it fails. Protect against this# case by preemptively closing and reopening the connection# if it has been idle for too long (7 hours by default).if self._db is None or (time.time() - self._last_use_time > self.max_idle_time):self.reconnect()self._last_use_time = time.time()def _cursor(self):self._ensure_connected()return self._db.cursor()def __del__(self):self.close()def close(self):"""Closes this database connection."""if getattr(self, "_db", None) is not None:self._db.close()self._db = Nonedef reconnect(self):"""Closes the existing database connection and re-opens it."""self.close()self._db = pymysql.connect(**self._db_args)self._db.autocommit(True)def query(self, query, *parameters, **kwparameters):"""Returns a row list for the given query and parameters."""cursor = self._cursor()try:cursor.execute(query, kwparameters or parameters)result = cursor.fetchall()return resultfinally:cursor.close()def get(self, query, *parameters, **kwparameters):"""Returns the (singular) row returned by the given query."""cursor = self._cursor()try:cursor.execute(query, kwparameters or parameters)return cursor.fetchone()finally:cursor.close()def execute(self, query, *parameters, **kwparameters):"""Executes the given query, returning the lastrowid from the query."""cursor = self._cursor()try:cursor.execute(query, kwparameters or parameters)return cursor.lastrowidexcept Exception as e:if e.args[0] == 1062:passelse:traceback.print_exc()raise efinally:cursor.close()insert = execute# =============== high level method for table ===================def table_has(self, table_name, field, value):if isinstance(value, str):value = value.encode('utf8')sql_str = f'SELECT {field} FROM {table_name} WHERE {field}="{value}"'d = self.get(sql_str)return ddef table_insert(self, table_name, item):"""item is a dict : key is mysql table field"""fields = list(item.keys())values = list(item.values())field_str = ','.join(fields)val_str = ','.join(['%s'] * len(item))for i in range(len(values)):if isinstance(values[i], str):values[i] = values[i].encode('utf8')sql_str = f'INSERT INTO {table_name} ({field_str}) VALUES({val_str})'try:last_id = self.execute(sql_str, *values)return last_idexcept Exception as e:if e.args[0] == 1062:# just skip duplicated itempasselse:traceback.print_exc()print('sql:', sql)print('item:')for i in range(len(fields)):vs = str(values[i])if len(vs) > 300:print(fields[i], ' : ', len(vs), type(values[i]))else:print(fields[i], ' : ', vs, type(values[i]))raise edef table_update(self, table_name, updates, field_where, value_where):"""updates is a dict of {field_update:value_update}"""upsets = []values = []for k, v in updates.items():s = '%s=%%s' % kupsets.append(s)values.append(v)upsets = ','.join(upsets)sql_str = f'UPDATE {table_name} SET {upsets} WHERE {field_where}="{value_where}"'self.execute(sql_str, *values)if __name__ == '__main__':db = Connection('localhost','db_name','user','password')# 獲取一條記錄sql = 'select * from test_table where id=%s'data = db.get(sql, 2)# 獲取多天記錄sql = 'select * from test_table where id>%s'data = db.query(sql, 2)# 插入一條數據sql = 'insert into test_table(title, url) values(%s, %s)'last_id = db.execute(sql, 'test', 'http://a.com/')# 或者last_id = db.insert(sql, 'test', 'http://a.com/')# 使用更高級的方法插入一條數據item = {'title': 'test','url': 'http://a.com/',}last_id = db.table_insert('test_table', item)

functions.py

# -*- coding: utf-8 -*- # @Author : 佛祖保佑, 永無 bug # @Date : # @File : functions.py # @Software: PyCharm # @description : XXXimport re import requests import cchardet import traceback import urllib.parse as urlparseasync def fetch(session=None, url=None, headers=None, timeout=9, binary=False):_headers = {'User-Agent': ('Mozilla/5.0 (compatible; MSIE 9.0; ''Windows NT 6.1; Win64; x64; Trident/5.0)'),}_headers = headers if headers else _headerstry:async with session.get(url, headers=_headers, timeout=timeout) as response:status_code = response.statushtml_bin_or_text = ''html_content = await response.read()if not binary:encoding = cchardet.detect(html_content)['encoding']html_bin_or_text = html_content.decode(encoding, errors='ignore')request_url = str(response.url)except Exception as e:msg = 'Failed download: {} | exception: {}, {}'.format(url, str(type(e)), str(e))print(msg)html_bin_or_text = ''status_code = -1request_url = urlreturn status_code, html_bin_or_text, request_urldef downloader(url=None, timeout=10, headers=None, debug=False, binary=False):_headers = {'User-Agent': ('Mozilla/5.0 (compatible; MSIE 9.0; ''Windows NT 6.1; Win64; x64; Trident/5.0)'),}_headers = headers if headers else _headersrequest_url = urltry:r = requests.get(url, headers=_headers, timeout=timeout)if binary:html_bin_or_text = r.contentelse:encoding = cchardet.detect(r.content)['encoding']html_bin_or_text = r.content.decode(encoding, errors='ignore')status_code = r.status_coderequest_url = r.urlexcept BaseException as be:if debug:traceback.print_exc()msg = 'failed download: {}'.format(url)print(msg)html_bin_or_text = b'' if binary else ''status_code = -1return status_code, html_bin_or_text, request_urlg_bin_postfix = {'exe', 'doc', 'docx', 'xls', 'xlsx', 'ppt', 'pptx', 'pdf','jpg', 'png', 'bmp', 'jpeg', 'gif', 'zip', 'rar', 'tar','bz2', '7z', 'gz', 'flv', 'mp4', 'avi', 'wmv', 'mkv', 'apk' } g_news_postfix = ['.html?', '.htm?', '.shtml?', '.shtm?']def clean_url(url=None):# 1. 是否為合法的http urlif not url.startswith('http'):return ''# 2. 去掉靜態化url后面的參數for np in g_news_postfix:p = url.find(np)if p > -1:p = url.find('?')url = url[:p]return url# 3. 不下載二進制類內容的鏈接up = urlparse.urlparse(url)path = up.pathif not path:path = '/'postfix = path.split('.')[-1].lower()if postfix in g_bin_postfix:return ''# 4. 去掉標識流量來源的參數# badquery = ['spm', 'utm_source', 'utm_source', 'utm_medium', 'utm_campaign']good_queries = []for query in up.query.split('&'):qv = query.split('=')if qv[0].startswith('spm') or qv[0].startswith('utm_'):continueif len(qv) == 1:continuegood_queries.append(query)query = '&'.join(good_queries)url = urlparse.urlunparse((up.scheme,up.netloc,path,up.params,query,'' # crawler do not care fragment))return urlg_pattern_tag_a = re.compile(r'<a[^>]*?href=[\'"]?([^> \'"]+)[^>]*?>(.*?)</a>', re.I | re.S | re.M)def extract_links_re(url=None, html=None):"""use re module to extract links from html"""news_links = set()tag_a_list = g_pattern_tag_a.findall(html)for tag_a in tag_a_list:link = tag_a[0].strip()if not link:continuelink = urlparse.urljoin(url, link)link = clean_url(link)if not link:continuenews_links.add(link)return news_linksdef init_file_logger(f_name=None):# config loggingimport loggingfrom logging.handlers import TimedRotatingFileHandlerch = TimedRotatingFileHandler(f_name, when="midnight")ch.setLevel(logging.INFO)# create formatterfmt = '%(asctime)s - %(name)s - %(levelname)s - %(message)s'formatter = logging.Formatter(fmt)# add formatter to chch.setFormatter(formatter)logger = logging.getLogger(f_name)# add ch to loggerlogger.addHandler(ch)return loggerif __name__ == '__main__':temp_url = 'http://news.baidu.com/'t_status_code, t_html, t_url = downloader(url=temp_url)print(f'[{t_status_code}, {t_url}]:{len(t_html)}')

config.py

db_host = 'localhost' db_db = 'crawler' db_user = 'your-user' db_password = 'your-password'

新聞爬蟲 (?同步 )

news_sync.py

# -*- coding: utf-8 -*- # @Author : 佛祖保佑, 永無 bug # @Date : # @File : news_sync.py # @Software: PyCharm # @description : XXXimport urllib.parse as urlparse import lzma import farmhash import tracebackfrom ezpymysql import Connection from url_pool import UrlPool import functions as fn import configclass NewsCrawlerSync:def __init__(self, name):self.db = Connection(config.db_host,config.db_db,config.db_user,config.db_password)self.logger = fn.init_file_logger(name + '.log')self.url_pool = UrlPool(name)self.hub_hosts = Noneself.load_hubs()def load_hubs(self,):sql = 'select url from crawler_hub'data = self.db.query(sql)self.hub_hosts = set()hubs = []for d in data:host = urlparse.urlparse(d['url']).netlocself.hub_hosts.add(host)hubs.append(d['url'])self.url_pool.set_hubs(hubs, 300)def save_to_db(self, url, html):url_hash = farmhash.hash64(url)sql = f'select url from crawler_html where urlhash={url_hash}'d = self.db.get(sql, url_hash)if d:if d['url'] != url:msg = 'farm_hash collision: %s <=> %s' % (url, d['url'])self.logger.error(msg)return Trueif isinstance(html, str):html = html.encode('utf8')html_lzma = lzma.compress(html)sql = 'insert into crawler_html(urlhash, url, html_lzma) values(%s, %s, %s)'good = Falsetry:self.db.execute(sql, url_hash, url, html_lzma)good = Trueexcept Exception as e:if e.args[0] == 1062:# Duplicate entrygood = Truepasselse:traceback.print_exc()raise ereturn gooddef filter_good(self, urls):good_links = []for url in urls:host = urlparse.urlparse(url).netlocif host in self.hub_hosts:good_links.append(url)return good_linksdef process(self, url, is_hub):status, html, redirected_url = fn.downloader(url)self.url_pool.set_status(url, status)if redirected_url != url:self.url_pool.set_status(redirected_url, status)# 提取hub網頁中的鏈接, 新聞網頁中也有“相關新聞”的鏈接,按需提取if status != 200:returnif is_hub:new_links = fn.extract_links_re(redirected_url, html)good_links = self.filter_good(new_links)print(f"{len(good_links)} / {len(new_links)}, good_links/new_links")self.url_pool.add_many(good_links)else:self.save_to_db(redirected_url, html)def run(self,):while 1:urls = self.url_pool.pop(5)for url, is_hub in urls.items():self.process(url, is_hub)if __name__ == '__main__':crawler = NewsCrawlerSync('sync_spider')crawler.run()

新聞爬蟲 (?異步 )

news_async.py

# -*- coding: utf-8 -*- # @Author : 佛祖保佑, 永無 bug # @Date : # @File : news_async.py # @Software: PyCharm # @description : XXXimport traceback import time import asyncio import aiohttp import urllib.parse as urlparse import farmhash import lzma# import uvloop # asyncio.set_event_loop_policy(uvloop.EventLoopPolicy())import sanicdbfrom url_pool import UrlPool import functions as fn import configclass NewsCrawlerAsync:def __init__(self, name):self.hub_hosts = set()self._workers = 0self._workers_max = 30self.logger = fn.init_file_logger(name + '.log')self.url_pool = UrlPool(name)self.loop = asyncio.get_event_loop()self.session = aiohttp.ClientSession(loop=self.loop)self.db = sanicdb.SanicDB(config.db_host,config.db_db,config.db_user,config.db_password,loop=self.loop)async def load_hubs(self, ):sql = 'select url from crawler_hub'data = await self.db.query(sql)hubs = []for d in data:host = urlparse.urlparse(d['url']).netlocself.hub_hosts.add(host)hubs.append(d['url'])self.url_pool.set_hubs(hubs, 300)async def save_to_db(self, url, html):url_hash = farmhash.hash64(url)sql = 'select url from crawler_html where urlhash=%s'd = await self.db.get(sql, url_hash)if d:if d['url'] != url:msg = 'farmhash collision: %s <=> %s' % (url, d['url'])self.logger.error(msg)return Trueif isinstance(html, str):html = html.encode('utf8')html_lzma = lzma.compress(html)sql = 'insert into crawler_html(urlhash, url, html_lzma) values(%s, %s, %s)'good = Falsetry:await self.db.execute(sql, url_hash, url, html_lzma)good = Trueexcept Exception as e:if e.args[0] == 1062:# Duplicate entrygood = Truepasselse:traceback.print_exc()raise ereturn gooddef filter_good(self, urls):good_links = []for url in urls:host = urlparse.urlparse(url).netlocif host in self.hub_hosts:good_links.append(url)return good_linksasync def process(self, url, is_hub):status, html, redirected_url = await fn.fetch(self.session, url)self.url_pool.set_status(url, status)if redirected_url != url:self.url_pool.set_status(redirected_url, status)# 提取hub網頁中的鏈接, 新聞網頁中也有“相關新聞”的鏈接,按需提取if status != 200:self._workers -= 1returnif is_hub:new_links = fn.extract_links_re(redirected_url, html)good_links = self.filter_good(new_links)print(f"{len(good_links)} / {len(new_links)}, good_links / new_links")self.url_pool.add_many(good_links)else:await self.save_to_db(redirected_url, html)self._workers -= 1async def loop_crawl(self):await self.load_hubs()last_rating_time = time.time()counter = 0while 1:to_pop = self._workers_max - self._workerstasks = self.url_pool.pop(to_pop)if not tasks:print('no url to crawl, sleep')await asyncio.sleep(3)continuefor url, is_hub in tasks.items():self._workers += 1counter += 1print('crawl:', url)asyncio.ensure_future(self.process(url, is_hub))gap = time.time() - last_rating_timeif gap > 5:rate = counter / gapprint(f'\tloop_crawl() rate:{round(rate, 2)}, counter: {counter}, workers: {self._workers}')last_rating_time = time.time()counter = 0if self._workers > self._workers_max:print('====== got workers_max, sleep 3 sec to next worker =====')await asyncio.sleep(3)def run(self):try:self.loop.run_until_complete(self.loop_crawl())except KeyboardInterrupt:print('stopped by yourself!')del self.url_poolpassif __name__ == '__main__':nc = NewsCrawlerAsync('async_spider')nc.run()

分布式爬蟲 ( CS 模型?)

server.py

# -*- coding: utf-8 -*- # @Author : 佛祖保佑, 永無 bug # @Date : # @File : server.py # @Software: PyCharm # @description : XXXfrom sanic import Sanic from sanic import responsefrom my_url_pool import UrlPoolurl_pool = UrlPool(__file__)# 初始化 url_pool,根據你的需要進行修改 hub_urls = [] url_pool.set_hubs(hub_urls, 300) url_pool.add('https://news.sina.com.cn/')# init main_app = Sanic(__name__)@main_app.listener('after_server_stop') async def cache_url_pool(app=None, loop=None):global url_poolprint('caching url_pool after_server_stop')del url_poolprint('bye!')@main_app.route('/task') async def task_get(request=None):count = request.args.get('count', 10)try:count = int(count)except BaseException as be:count = 10urls = url_pool.pop(count)return response.json(urls)@main_app.route('/task', methods=['POST', ]) async def task_post(request=None):result = request.jsonurl_pool.set_status(result['url'], result['status'])if result['url_real'] != result['url']:url_pool.set_status(result['url_real'], result['status'])if result['new_urls']:print('receive URLs:', len(result['new_urls']))for url in result['new_urls']:url_pool.add(url)return response.text('ok')if __name__ == '__main__':main_app.run(host='0.0.0.0', port=8080, debug=False, access_log=False, workers=1)pass

client.py

# -*- coding: utf-8 -*- # @Author : 佛祖保佑, 永無 bug # @Date : # @File : client.py # @Software: PyCharm # @description : XXXimport re import cchardet import traceback import time import json import asyncio import urllib.parse as urlparse import aiohttp# import uvloop # asyncio.set_event_loop_policy(uvloop.EventLoopPolicy())p_tag_a = re.compile(r'<a[^>]*?href=[\'"]?([^> \'"]+)[^>]*?>(.*?)</a>', re.I | re.S | re.M)def extract_links_re(url, html):new_links = set()aa = p_tag_a.findall(html)for a in aa:link = a[0].strip()if not link:continuelink = urlparse.urljoin(url, link)if not link.startswith('http'):continuenew_links.add(link)return new_linksclass CrawlerClient:def __init__(self, ):self._workers = 0self.workers_max = 20self.server_host = 'localhost'self.server_port = 8080self.headers = {'User-Agent': ('Mozilla/5.0 (compatible; MSIE 9.0; ''Windows NT 6.1; Win64; x64; Trident/5.0)')}self.loop = asyncio.get_event_loop()self.queue = asyncio.Queue(loop=self.loop)self.session = aiohttp.ClientSession(loop=self.loop)async def download(self, url, timeout=25):status_code = 900html = ''url_now = urltry:async with self.session.get(url_now, headers=self.headers, timeout=timeout) as response:status_code = response.statushtml = await response.read()encoding = cchardet.detect(html)['encoding']html = html.decode(encoding, errors='ignore')url_now = str(response.url)except BaseException as be:# traceback.print_exc()print('=== exception: ', be, type(be), str(be))msg = 'Failed download: {} | exception: {}, {}'.format(url, str(type(be)), str(be))print(msg)return status_code, html, url_nowasync def get_urls(self, ):count = self.workers_max - self.queue.qsize()if count <= 0:print('no need to get urls this time')return Noneurl = f'http://{self.server_host}:{self.server_port}/task?count={count}'try:async with self.session.get(url, timeout=3) as response:if response.status not in [200, 201]:returnjsn = await response.text()urls = json.loads(jsn)msg = f'get_urls() to get [{count}] but got[{len(urls)}], @{time.strftime("%Y-%m-%d %H:%M:%S")}'print(msg)for kv in urls.items():await self.queue.put(kv)print('queue size:', self.queue.qsize(), ', _workers:', self._workers)except BaseException as be:traceback.print_exc()returnasync def send_result(self, result):url = f'http://{self.server_host}:{self.server_port}/task'try:async with self.session.post(url, json=result, timeout=3) as response:return response.statusexcept BaseException as be:traceback.print_exc()pass@staticmethoddef save_html(url, html):print('saved:', url, len(html))@staticmethoddef filter_good(urls):"""根據抓取目的過濾提取的URLs,只要你想要的"""good = []for url in urls:if url.startswith('http'):good.append(url)return goodasync def process(self, url, is_hub):status, html, url_now = await self.download(url)self._workers -= 1print('downloaded:', url, ', html:', len(html))if html:new_urls = extract_links_re(url, html)new_urls = self.filter_good(new_urls)self.save_html(url, html)else:new_urls = []result = {'url': url,'url_real': url_now,'status': status,'new_urls': new_urls,}await self.send_result(result)async def loop_get_urls(self, ):print('loop_get_urls() start')while 1:await self.get_urls()await asyncio.sleep(1)async def loop_crawl(self, ):print('loop_crawl() start')asyncio.ensure_future(self.loop_get_urls())counter = 0while 1:item = await self.queue.get()url, url_level = itemself._workers += 1counter += 1asyncio.ensure_future(self.process(url, url_level))if self._workers > self.workers_max:print('====== got workers_max, sleep 3 sec to next worker =====')await asyncio.sleep(3)def start(self):try:self.loop.run_until_complete(self.loop_crawl())except KeyboardInterrupt:print('stopped by yourself!')passdef run():ant = CrawlerClient()ant.start()if __name__ == '__main__':run()

google 翻譯

google 翻譯:Google 翻譯

# -*- coding: utf-8 -*- # @Author : 佛祖保佑, 永無 bug # @Date : # @File : translate_google.py # @Software: PyCharm # @description : XXXimport requests import urllib3 urllib3.disable_warnings()def google_translate(kw=None):url = 'https://translate.google.cn/_/TranslateWebserverUi/data/batchexecute?rpcids=MkEWBc&hl=zh-CN'custom_headers = {'Content-Type': 'application/x-www-form-urlencoded;charset=UTF-8'}# kw = 'this is a test'payload = f"f.req=[[[\"MkEWBc\",\"[[\\\"{kw}\\\",\\\"auto\\\",\\\"zh-CN\\\",true],[null]]\",null,\"generic\"]]]&"resp = requests.post(url, data=payload, headers=custom_headers)print(resp.status_code)print(resp.text)passif __name__ == '__main__':kw_list = ['I love u', 'hello, baby', 'king','this is a test']for item in kw_list:google_translate(kw=item)pass

百度 翻譯

百度翻譯:https://fanyi.baidu.com/

查看 basetrans 請求。

( 多請求幾次,可以發現 sign 每次都不一樣,所以需要 逆向 sign??)

使用 postman 來精簡請求參數,看那些參數是必須的,那些參數是可以直接刪除的。精簡后參數

  • 請求URL:https://fanyi.baidu.com/basetrans
  • 請求頭:Content-Type: application/x-www-form-urlencoded
    Cookie: BAIDUID=AF87393A8DB7C8FED7859A909FF081A3:SL=0:NR=50:FG=1;?
    User-Agent: Mozilla/5.0 (Linux; Android 8.0; Pixel 2 Build/OPD3.170816.012) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Mobile Safari/537.36
  • 請求 body:query=king&from=en&to=zh&token=94c55bca8b920035077b58d58ba32bea&sign=612765.899756

postman 生成的 Python 代碼:

import requestsurl = "https://fanyi.baidu.com/basetrans"payload = "query=king&from=en&to=zh&token=94c55bca8b920035077b58d58ba32bea&sign=612765.899756" headers = {'Content-Type': 'application/x-www-form-urlencoded','Cookie': 'BAIDUID=AF87393A8DB7C8FED7859A909FF081A3:SL=0:NR=50:FG=1;','User-Agent': 'Mozilla/5.0 (Linux; Android 8.0; Pixel 2 Build/OPD3.170816.012) ''AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Mobile Safari/537.36' }response = requests.request("POST", url, headers=headers, data=payload)print(response.text)

JS 斷點調試

打斷點,然后通過調用堆棧追蹤 sign 是怎么生成的。。。

因為 多個 ajax 請求都會走 b.send(e.data ? e.data:null)?這個函數,所以需要點擊好幾次 "跳轉到下一個斷點" 才能看到 sign 值。

如果想直接斷點就能看到 sign 值,則可以添加 "URL包含" 斷點。

這里使用 "跳轉到下一個斷點" 來追蹤?sign 值。

生成 sign 的函數

點擊 P(e) 函數,查看函數實現

方法 1:直接使用 Python 實現這個函數的邏輯

方法 2:把 js 代碼扣出來,直接 Python 執行

代碼太多,這里直接 扣 js 代碼

function n(r, o) {for (var t = 0; t < o.length - 2; t += 3) {var e = o.charAt(t + 2);e = e >= "a" ? e.charCodeAt(0) - 87 : Number(e),e = "+" === o.charAt(t + 1) ? r >>> e : r << e,r = "+" === o.charAt(t) ? r + e & 4294967295 : r ^ e}return r }function sign(r) {var t = r.match(/[\uD800-\uDBFF][\uDC00-\uDFFF]/g);if (null === t) {var a = r.length;a > 30 && (r = "" + r.substr(0, 10) + r.substr(Math.floor(a / 2) - 5, 10) + r.substr(-10, 10))} else {for (var C = r.split(/[\uD800-\uDBFF][\uDC00-\uDFFF]/), h = 0, f = C.length, u = []; f > h; h++)"" !== C[h] && u.push.apply(u, e(C[h].split(""))),h !== f - 1 && u.push(t[h]);var g = u.length;g > 30 && (r = u.slice(0, 10).join("") + u.slice(Math.floor(g / 2) - 5, Math.floor(g / 2) + 5).join("") + u.slice(-10).join(""))}var l = void 0, d = "" + String.fromCharCode(103) + String.fromCharCode(116) + String.fromCharCode(107);// l = null !== i ? i : (i = o.common[d] || "") || "";l = "320305.131321201";for (var m = l.split("."), S = Number(m[0]) || 0, s = Number(m[1]) || 0, c = [], v = 0, F = 0; F < r.length; F++) {var p = r.charCodeAt(F);128 > p ? c[v++] = p : (2048 > p ? c[v++] = p >> 6 | 192 : (55296 === (64512 & p) && F + 1 < r.length && 56320 === (64512 & r.charCodeAt(F + 1)) ? (p = 65536 + ((1023 & p) << 10) + (1023 & r.charCodeAt(++F)),c[v++] = p >> 18 | 240,c[v++] = p >> 12 & 63 | 128) : c[v++] = p >> 12 | 224,c[v++] = p >> 6 & 63 | 128),c[v++] = 63 & p | 128)}for (var w = S, A = "" + String.fromCharCode(43) + String.fromCharCode(45) + String.fromCharCode(97) + ("" + String.fromCharCode(94) + String.fromCharCode(43) + String.fromCharCode(54)), b = "" + String.fromCharCode(43) + String.fromCharCode(45) + String.fromCharCode(51) + ("" + String.fromCharCode(94) + String.fromCharCode(43) + String.fromCharCode(98)) + ("" + String.fromCharCode(43) + String.fromCharCode(45) + String.fromCharCode(102)), D = 0; D < c.length; D++)w += c[D], w = n(w, A);return w = n(w, b),w ^= s,0 > w && (w = (2147483647 & w) + 2147483648),w %= 1e6,w.toString() + "." + (w ^ S) }console.log(sign('king'))

執行結果:

也可以直接在 Chrome 上的 console 中執行 js

Python 直接調用 JS 代碼( js_code = r"""js代碼"""? 中 r 不能少?)

// l = null !== i ? i : (i = o.common[d] || "") || "";? ? //? l 的值 等于 gkt,通過調試可知,這是個固定值
l = "320305.131321201";? ? // 直接 令 l =?"320305.131321201";

# @Author : 佛祖保佑, 永無 bug # @Date : # @File : translate_baidu.py # @Software: PyCharm # @description : XXXimport execjs import requestsjs_code = r""" function n(r, o) {for (var t = 0; t < o.length - 2; t += 3) {var e = o.charAt(t + 2);e = e >= "a" ? e.charCodeAt(0) - 87 : Number(e),e = "+" === o.charAt(t + 1) ? r >>> e : r << e,r = "+" === o.charAt(t) ? r + e & 4294967295 : r ^ e}return r } function sign(r) {var t = r.match(/[\uD800-\uDBFF][\uDC00-\uDFFF]/g);if (null === t) {var a = r.length;a > 30 && (r = "" + r.substr(0, 10) + r.substr(Math.floor(a / 2) - 5, 10) + r.substr(-10, 10))} else {for (var C = r.split(/[\uD800-\uDBFF][\uDC00-\uDFFF]/), h = 0, f = C.length, u = []; f > h; h++)"" !== C[h] && u.push.apply(u, e(C[h].split(""))),h !== f - 1 && u.push(t[h]);var g = u.length;g > 30 && (r = u.slice(0, 10).join("") + u.slice(Math.floor(g / 2) - 5, Math.floor(g / 2) + 5).join("") + u.slice(-10).join(""))}var l = void 0, d = "" + String.fromCharCode(103) + String.fromCharCode(116) + String.fromCharCode(107);// l = null !== i ? i : (i = o.common[d] || "") || "";l = "320305.131321201";for (var m = l.split("."), S = Number(m[0]) || 0, s = Number(m[1]) || 0, c = [], v = 0, F = 0; F < r.length; F++) {var p = r.charCodeAt(F);128 > p ? c[v++] = p : (2048 > p ? c[v++] = p >> 6 | 192 : (55296 === (64512 & p) && F + 1 < r.length && 56320 === (64512 & r.charCodeAt(F + 1)) ? (p = 65536 + ((1023 & p) << 10) + (1023 & r.charCodeAt(++F)),c[v++] = p >> 18 | 240,c[v++] = p >> 12 & 63 | 128) : c[v++] = p >> 12 | 224,c[v++] = p >> 6 & 63 | 128),c[v++] = 63 & p | 128)}for (var w = S, A = "" + String.fromCharCode(43) + String.fromCharCode(45) + String.fromCharCode(97) + ("" + String.fromCharCode(94) + String.fromCharCode(43) + String.fromCharCode(54)), b = "" + String.fromCharCode(43) + String.fromCharCode(45) + String.fromCharCode(51) + ("" + String.fromCharCode(94) + String.fromCharCode(43) + String.fromCharCode(98)) + ("" + String.fromCharCode(43) + String.fromCharCode(45) + String.fromCharCode(102)), D = 0; D < c.length; D++)w += c[D], w = n(w, A);return w = n(w, b),w ^= s,0 > w && (w = (2147483647 & w) + 2147483648),w %= 1e6,w.toString() + "." + (w ^ S) } console.log(sign('king')) """js_func = execjs.compile(js_code)def bd_translate(kw=None):url = "https://fanyi.baidu.com/basetrans"sign = js_func.call('sign', kw)payload = f"query={kw}&from=en&to=zh&token=94c55bca8b920035077b58d58ba32bea&sign={sign}"headers = {'Content-Type': 'application/x-www-form-urlencoded','Cookie': 'BAIDUID=AF87393A8DB7C8FED7859A909FF081A3:SL=0:NR=50:FG=1;','User-Agent': 'Mozilla/5.0 (Linux; Android 8.0; Pixel 2 Build/OPD3.170816.012) ''AppleWebKit/537.36 (KHTML, like Gecko) Chrome/89.0.4389.82 Mobile Safari/537.36'}response = requests.request("POST", url, headers=headers, data=payload)# print(response.text)print(response.json()['trans'][0]['dst'])if __name__ == '__main__':kw_list = ['hello baby', 'I love u','king']for item in kw_list:bd_translate(kw=item)pass

執行結果:

有道 翻譯

參考:https://www.cnblogs.com/xuchunlin/p/10412505.html

JS逆向 ——? 百度翻譯參數(sign)爬蟲 超級詳細:https://blog.csdn.net/qq_38534107/article/details/90440403

Python 執行 js 代碼

關于 Python 執行 js 代碼

  • 1. 通過 python 模塊?execjs 來解析 js 文件 (安裝:?pip install PyExecJS
  • 2.?python 調用 node.js(需要先安裝 node.js)
  • 3. 使用 PyV8 在 Python 爬蟲中執行 js 代碼:https://www.baidu.com/s?wd=python%20pyv8
  • 4. 使用 瀏覽器( selenium、PhantomJS) 執行 js:https://www.cnblogs.com/chenhuabin/p/10946085.html

PyV8、PyExecJS、js2py 區別:https://www.jianshu.com/p/2da6f6ad01f0

PyV8 github 地址:https://github.com/emmetio/pyv8-binaries

Python 使用 execjs 示例:

python 的 execjs 只支持一些常規的 js 代碼 :https://blog.csdn.net/weixin_42081389/article/details/99984352

import execjs js_str = ''' function add(x, y){return x + y; } ''' test = execjs.compile(js_str)# call 即調用js函數,add 為 js_str 中的函數名,1,2 為所需要的參數。 result = test.call('add', 1, 2) print(result)

有道詞典 js 加密參數 sign破解

分析:

然后轉到 Headers,查看 請求體,可以看到有請求驗證字段,如:salt,sign 等?:

Ctrl + Shift? + F : 全局搜索 sign 這個關鍵字,搜索所有 包含 sign 的 js 文件,發現只搜索出一個,雙擊這個 js 文件:

在 js 文件內容中 搜索 sign ,分析 sign 怎么產生的:

提取 js 的 加密函數( 這里是 md5 );

通過 js 調試,可以找到 md5 函數:

把 md5 函數提取出來,放到一個單獨的 js 文件里面,然后,再通過 js調試 把 md5 函數所依賴的 js 函數全部 提取出來。

目錄結構:

提取 的? 所有 js 函數如下( yd_js.js)

function n(e, t) {return e << t | e >>> 32 - t }function r(e, t) {var n, r, i, o, a;return i = 2147483648 & e,o = 2147483648 & t,n = 1073741824 & e,r = 1073741824 & t,a = (1073741823 & e) + (1073741823 & t),n & r ? 2147483648 ^ a ^ i ^ o : n | r ? 1073741824 & a ? 3221225472 ^ a ^ i ^ o : 1073741824 ^ a ^ i ^ o : a ^ i ^ o }function i(e, t, n) {return e & t | ~e & n }function o(e, t, n) {return e & n | t & ~n }function a(e, t, n) {return e ^ t ^ n }function s(e, t, n) {return t ^ (e | ~n) }function l(e, t, o, a, s, l, c) {return e = r(e, r(r(i(t, o, a), s), c)),r(n(e, l), t) }function c(e, t, i, a, s, l, c) {return e = r(e, r(r(o(t, i, a), s), c)),r(n(e, l), t) }function u(e, t, i, o, s, l, c) {return e = r(e, r(r(a(t, i, o), s), c)),r(n(e, l), t) }function f(e, t, i, o, a, l, c) {return e = r(e, r(r(s(t, i, o), a), c)),r(n(e, l), t) }function d(e) {for (var t, n = e.length, r = n + 8, i = 16 * ((r - r % 64) / 64 + 1), o = Array(i - 1), a = 0, s = 0; s < n;)a = s % 4 * 8,o[t = (s - s % 4) / 4] = o[t] | e.charCodeAt(s) << a,s++;return t = (s - s % 4) / 4,a = s % 4 * 8,o[t] = o[t] | 128 << a,o[i - 2] = n << 3,o[i - 1] = n >>> 29,o }function p(e) {var t, n = "", r = "";for (t = 0; t <= 3; t++)n += (r = "0" + (e >>> 8 * t & 255).toString(16)).substr(r.length - 2, 2);return n }function h(e) {e = e.replace(/\x0d\x0a/g, "\n");for (var t = "", n = 0; n < e.length; n++) {var r = e.charCodeAt(n);if (r < 128)t += String.fromCharCode(r);else if (r > 127 && r < 2048)t += String.fromCharCode(r >> 6 | 192),t += String.fromCharCode(63 & r | 128);else if (r >= 55296 && r <= 56319) {if (n + 1 < e.length) {var i = e.charCodeAt(n + 1);if (i >= 56320 && i <= 57343) {var o = 1024 * (r - 55296) + (i - 56320) + 65536;t += String.fromCharCode(240 | o >> 18 & 7),t += String.fromCharCode(128 | o >> 12 & 63),t += String.fromCharCode(128 | o >> 6 & 63),t += String.fromCharCode(128 | 63 & o),n++}}} elset += String.fromCharCode(r >> 12 | 224),t += String.fromCharCode(r >> 6 & 63 | 128),t += String.fromCharCode(63 & r | 128)}return t; }function md5(e) {var t, n, i, o, a, s, m, g, v, y = Array();for (e = h(e),y = d(e),s = 1732584193,m = 4023233417,g = 2562383102,v = 271733878,t = 0; t < y.length; t += 16)n = s,i = m,o = g,a = v,s = l(s, m, g, v, y[t + 0], 7, 3614090360),v = l(v, s, m, g, y[t + 1], 12, 3905402710),g = l(g, v, s, m, y[t + 2], 17, 606105819),m = l(m, g, v, s, y[t + 3], 22, 3250441966),s = l(s, m, g, v, y[t + 4], 7, 4118548399),v = l(v, s, m, g, y[t + 5], 12, 1200080426),g = l(g, v, s, m, y[t + 6], 17, 2821735955),m = l(m, g, v, s, y[t + 7], 22, 4249261313),s = l(s, m, g, v, y[t + 8], 7, 1770035416),v = l(v, s, m, g, y[t + 9], 12, 2336552879),g = l(g, v, s, m, y[t + 10], 17, 4294925233),m = l(m, g, v, s, y[t + 11], 22, 2304563134),s = l(s, m, g, v, y[t + 12], 7, 1804603682),v = l(v, s, m, g, y[t + 13], 12, 4254626195),g = l(g, v, s, m, y[t + 14], 17, 2792965006),m = l(m, g, v, s, y[t + 15], 22, 1236535329),s = c(s, m, g, v, y[t + 1], 5, 4129170786),v = c(v, s, m, g, y[t + 6], 9, 3225465664),g = c(g, v, s, m, y[t + 11], 14, 643717713),m = c(m, g, v, s, y[t + 0], 20, 3921069994),s = c(s, m, g, v, y[t + 5], 5, 3593408605),v = c(v, s, m, g, y[t + 10], 9, 38016083),g = c(g, v, s, m, y[t + 15], 14, 3634488961),m = c(m, g, v, s, y[t + 4], 20, 3889429448),s = c(s, m, g, v, y[t + 9], 5, 568446438),v = c(v, s, m, g, y[t + 14], 9, 3275163606),g = c(g, v, s, m, y[t + 3], 14, 4107603335),m = c(m, g, v, s, y[t + 8], 20, 1163531501),s = c(s, m, g, v, y[t + 13], 5, 2850285829),v = c(v, s, m, g, y[t + 2], 9, 4243563512),g = c(g, v, s, m, y[t + 7], 14, 1735328473),m = c(m, g, v, s, y[t + 12], 20, 2368359562),s = u(s, m, g, v, y[t + 5], 4, 4294588738),v = u(v, s, m, g, y[t + 8], 11, 2272392833),g = u(g, v, s, m, y[t + 11], 16, 1839030562),m = u(m, g, v, s, y[t + 14], 23, 4259657740),s = u(s, m, g, v, y[t + 1], 4, 2763975236),v = u(v, s, m, g, y[t + 4], 11, 1272893353),g = u(g, v, s, m, y[t + 7], 16, 4139469664),m = u(m, g, v, s, y[t + 10], 23, 3200236656),s = u(s, m, g, v, y[t + 13], 4, 681279174),v = u(v, s, m, g, y[t + 0], 11, 3936430074),g = u(g, v, s, m, y[t + 3], 16, 3572445317),m = u(m, g, v, s, y[t + 6], 23, 76029189),s = u(s, m, g, v, y[t + 9], 4, 3654602809),v = u(v, s, m, g, y[t + 12], 11, 3873151461),g = u(g, v, s, m, y[t + 15], 16, 530742520),m = u(m, g, v, s, y[t + 2], 23, 3299628645),s = f(s, m, g, v, y[t + 0], 6, 4096336452),v = f(v, s, m, g, y[t + 7], 10, 1126891415),g = f(g, v, s, m, y[t + 14], 15, 2878612391),m = f(m, g, v, s, y[t + 5], 21, 4237533241),s = f(s, m, g, v, y[t + 12], 6, 1700485571),v = f(v, s, m, g, y[t + 3], 10, 2399980690),g = f(g, v, s, m, y[t + 10], 15, 4293915773),m = f(m, g, v, s, y[t + 1], 21, 2240044497),s = f(s, m, g, v, y[t + 8], 6, 1873313359),v = f(v, s, m, g, y[t + 15], 10, 4264355552),g = f(g, v, s, m, y[t + 6], 15, 2734768916),m = f(m, g, v, s, y[t + 13], 21, 1309151649),s = f(s, m, g, v, y[t + 4], 6, 4149444226),v = f(v, s, m, g, y[t + 11], 10, 3174756917),g = f(g, v, s, m, y[t + 2], 15, 718787259),m = f(m, g, v, s, y[t + 9], 21, 3951481745),s = r(s, n),m = r(m, i),g = r(g, o),v = r(v, a);return (p(s) + p(m) + p(g) + p(v)).toLowerCase() }// t = (new Date).getTime() + parseInt(10 * Math.random(), 10); // console.log((new Date).getTime()); // console.log(t);

python 代碼 ( yd.py ):

import execjs import time import random import requests import json""" 通過在js文件中查找salt或者sign,可以找到 1.可以找到這個計算salt的公式 r = "" + ((new Date).getTime() + parseInt(10 * Math.random(), 10)) 2.sign:n.md5("fanyideskweb" + t + r + "p09@Bn{h02_BIEe]$P^nG"); md5 一共需要四個參數,第一個和第四個都是固定值得字符串,第三個是所謂的salt, 第二個參數是輸入的需要翻譯的單詞 """def get_md5(v):# 讀取js文件with open('yd_js.js', encoding='utf-8') as f:js = f.read()# 通過compile命令轉成一個js對象js_obj = execjs.compile(js)res = js_obj.call('md5', v)return resdef get_sign(key, salt):sign = "fanyideskweb" + str(key) + str(salt) + "n%A-rKaT5fb[Gy?;N5@Tj"sign = get_md5(sign)return signdef you_dao(key):url = "http://fanyi.youdao.com/translate_o?smartresult=dict&smartresult=rule"ts = str(int((time.time() * 1000)))salt = str(ts) + str(random.randint(0, 10))data = {"i": key,"from": "AUTO","to": "AUTO","smartresult": "dict","client": "fanyideskweb","salt": str(salt),"sign": get_sign(key, salt),"ts": ts,"bv": "5872543b025b19167cde3785ecf1e925","doctype": "json","version": "2.1","keyfrom": "fanyi.web","action": "FY_BY_REALTIME","typoResult": "false",}headers = {"Host": "fanyi.youdao.com",# "Proxy-Connection":"keep-alive","Content-Length": str(len(data)),"Accept": "application/json, text/javascript, */*; q=0.01","Origin": "http://fanyi.youdao.com","X-Requested-With": "XMLHttpRequest","User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) ""Chrome/75.0.3770.90 Safari/537.36","Content-Type": "application/x-www-form-urlencoded; charset=UTF-8","Referer": "http://fanyi.youdao.com/","Accept-Encoding": "gzip, deflate","Accept-Language": "zh-CN,zh;q=0.9","Cookie": "OUTFOX_SEARCH_USER_ID=-803834638@61.149.7.46; ""JSESSIONID=aaa2KqSwX9shJdA5Mk9Ww; OUTFOX_SEARCH_USER_ID_NCOO=1481235354.231604; ""___rl__test__cookies=1564486753731",}r = requests.post(url=url, data=data, headers=headers)if r.status_code == 200:data = json.loads(r.text)src = data.get('translateResult')[0][0]['src']tgt = data.get('translateResult')[0][0]['tgt']print(f'翻譯前 :{src}')print(f'翻譯后 :{tgt}')else:print(f'請求失敗 status code {r.status_code}')if __name__ == '__main__':you_dao("hello, baby")you_dao("I love you")you_dao("thank you very much")you_dao("天王蓋地虎,寶塔鎮河妖")

運行結果截圖:

百度指數 js 破解

分析過程參考:https://blog.csdn.net/wang785994599/article/details/97135979

Python爬蟲 - 簡單抓取百度指數:https://zhuanlan.zhihu.com/p/78634149

Python 代碼實現(?直接從瀏覽器拿到登錄后的Cookie復制粘貼到代碼中 ):

# -*- coding: utf-8 -*-import requests import execjs import urllib3# 禁用警告 urllib3.disable_warnings(urllib3.exceptions.InsecureRequestWarning)js_string = ''' function decrypt(t, e) {for (var n = t.split(""), i = e.split(""), a = {}, r = [], o = 0; o < n.length / 2; o++)a[n[o]] = n[n.length / 2 + o];for (var s = 0; s < e.length; s++)r.push(a[i[s]]);return r.join("") } '''headers = {"Cookie": "直接從瀏覽器拿到登錄后的Cookie復制粘貼","User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) ""Chrome/75.0.3770.142 Safari/537.36" }data_url = 'https://index.baidu.com/api/SearchApi/index?word={}&area=0&days=7' uniq_id_url = 'https://index.baidu.com/Interface/ptbk?uniqid={}' keys = ["all", "pc", "wise"]class BDIndex(object):def __init__(self):self.session = self.get_session()pass@staticmethoddef get_session():"""初始化 session 會話:return:"""session = requests.session()session.headers = headerssession.verify = Falsereturn session@staticmethoddef decrypt(key, data):"""得到解密后的數據:param key: key:param data: key 對應的 value:return:"""js_handler = execjs.compile(js_string)return js_handler.call('decrypt', key, data)def get_bd_index(self, key_word):"""得到百度指數:param key_word::return:"""response = self.session.get(data_url.format(key_word)).json()uniq_id = self.session.get(uniq_id_url.format(response.get("data").get("uniqid"))).json().get("data")result = []data_dict = response.get("data").get("userIndexes")[0]for key in keys:decrypt_data = self.decrypt(uniq_id, data_dict.get(key).get("data"))result.append({key: decrypt_data})return resultif __name__ == '__main__':bd = BDIndex()d = bd.get_bd_index("楊冪")print(d)

運行結果:

總結

以上是生活随笔為你收集整理的Python 大规模异步新闻爬虫、google翻译、百度翻译、有道翻译、百度指数的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

99久久精品午夜一区二区 | 亚洲成a人一区二区三区 | 性欧美熟妇videofreesex | 兔费看少妇性l交大片免费 | 2020最新国产自产精品 | 激情五月综合色婷婷一区二区 | 男人扒开女人内裤强吻桶进去 | 国产香蕉尹人视频在线 | 日产精品高潮呻吟av久久 | 国产特级毛片aaaaaaa高清 | 成熟女人特级毛片www免费 | 欧美性猛交内射兽交老熟妇 | 四虎国产精品一区二区 | 婷婷综合久久中文字幕蜜桃三电影 | 久久无码人妻影院 | a片免费视频在线观看 | 久青草影院在线观看国产 | 亚洲日韩一区二区三区 | 日日碰狠狠丁香久燥 | 99久久精品国产一区二区蜜芽 | 亚洲精品国偷拍自产在线观看蜜桃 | 波多野结衣乳巨码无在线观看 | 精品国精品国产自在久国产87 | 丁香花在线影院观看在线播放 | 国产办公室秘书无码精品99 | 人人妻人人澡人人爽欧美一区 | 日韩精品无码一本二本三本色 | 377p欧洲日本亚洲大胆 | 亚洲精品国产精品乱码视色 | 无码人妻精品一区二区三区下载 | 国产一区二区不卡老阿姨 | 极品尤物被啪到呻吟喷水 | 精品厕所偷拍各类美女tp嘘嘘 | 日本一本二本三区免费 | 综合网日日天干夜夜久久 | 日本高清一区免费中文视频 | 少妇高潮一区二区三区99 | 无码av最新清无码专区吞精 | 久久亚洲国产成人精品性色 | 人妻少妇精品无码专区动漫 | 亚洲成在人网站无码天堂 | 水蜜桃色314在线观看 | 国产偷国产偷精品高清尤物 | 国产疯狂伦交大片 | 久久人人爽人人爽人人片av高清 | 国产成人人人97超碰超爽8 | 全黄性性激高免费视频 | 内射爽无广熟女亚洲 | 成人综合网亚洲伊人 | 99久久婷婷国产综合精品青草免费 | 精品一区二区不卡无码av | 樱花草在线社区www | 欧美日韩在线亚洲综合国产人 | 亚洲第一无码av无码专区 | 国产舌乚八伦偷品w中 | 婷婷丁香五月天综合东京热 | 国产色视频一区二区三区 | 色狠狠av一区二区三区 | 国产无套粉嫩白浆在线 | 欧美人与牲动交xxxx | 俺去俺来也www色官网 | 国产艳妇av在线观看果冻传媒 | 亚洲男女内射在线播放 | 中文字幕精品av一区二区五区 | 欧美一区二区三区 | 人妻夜夜爽天天爽三区 | 国产精品亚洲一区二区三区喷水 | 97无码免费人妻超级碰碰夜夜 | 日本熟妇人妻xxxxx人hd | 成人免费无码大片a毛片 | 300部国产真实乱 | 男女猛烈xx00免费视频试看 | 久久视频在线观看精品 | 日本熟妇乱子伦xxxx | 国产suv精品一区二区五 | 国产香蕉97碰碰久久人人 | 亚洲精品综合一区二区三区在线 | 国产精品人人妻人人爽 | 精品乱码久久久久久久 | 无码人妻av免费一区二区三区 | 日日夜夜撸啊撸 | 国产成人一区二区三区别 | 成人亚洲精品久久久久软件 | 白嫩日本少妇做爰 | 一本久道高清无码视频 | 十八禁真人啪啪免费网站 | 精品欧洲av无码一区二区三区 | 人妻插b视频一区二区三区 | 午夜精品久久久内射近拍高清 | 国产在线一区二区三区四区五区 | 无码国产乱人伦偷精品视频 | 婷婷综合久久中文字幕蜜桃三电影 | 日本va欧美va欧美va精品 | 亚洲成a人一区二区三区 | 亚洲中文字幕无码中字 | 亚洲欧美日韩国产精品一区二区 | 1000部夫妻午夜免费 | 国产亚洲日韩欧美另类第八页 | 在线观看免费人成视频 | 久久久婷婷五月亚洲97号色 | 永久免费精品精品永久-夜色 | 秋霞成人午夜鲁丝一区二区三区 | 色欲av亚洲一区无码少妇 | 国产97在线 | 亚洲 | 中文字幕av无码一区二区三区电影 | 亚洲大尺度无码无码专区 | 中文字幕av伊人av无码av | 色 综合 欧美 亚洲 国产 | 久久99精品久久久久久动态图 | 中文字幕人妻无码一区二区三区 | 成人无码精品一区二区三区 | 高清无码午夜福利视频 | 内射后入在线观看一区 | 久久天天躁夜夜躁狠狠 | 野狼第一精品社区 | 亚洲а∨天堂久久精品2021 | 日本一卡二卡不卡视频查询 | 国产精品亚洲综合色区韩国 | 伊人久久婷婷五月综合97色 | 国产精品无码一区二区三区不卡 | 波多野结衣乳巨码无在线观看 | 精品国产青草久久久久福利 | 乱码午夜-极国产极内射 | 亚洲人交乣女bbw | 理论片87福利理论电影 | 亚洲国精产品一二二线 | 久久国产精品偷任你爽任你 | 美女毛片一区二区三区四区 | a国产一区二区免费入口 | www成人国产高清内射 | 国内揄拍国内精品少妇国语 | 激情综合激情五月俺也去 | 在线欧美精品一区二区三区 | 天天燥日日燥 | 国产精品亚洲综合色区韩国 | 国产成人无码a区在线观看视频app | a国产一区二区免费入口 | 自拍偷自拍亚洲精品被多人伦好爽 | 国产在线aaa片一区二区99 | 少妇无码一区二区二三区 | 无码人妻少妇伦在线电影 | 国产两女互慰高潮视频在线观看 | 亚洲国产综合无码一区 | 99国产精品白浆在线观看免费 | 欧美人与物videos另类 | 一本色道婷婷久久欧美 | 久久99久久99精品中文字幕 | 扒开双腿吃奶呻吟做受视频 | 国产97人人超碰caoprom | 午夜无码人妻av大片色欲 | 99视频精品全部免费免费观看 | 久久99久久99精品中文字幕 | 亚洲另类伦春色综合小说 | 欧美人与禽猛交狂配 | av人摸人人人澡人人超碰下载 | 夜夜高潮次次欢爽av女 | 日韩精品无码免费一区二区三区 | 97夜夜澡人人爽人人喊中国片 | 亚洲另类伦春色综合小说 | 国产一区二区不卡老阿姨 | 高潮毛片无遮挡高清免费视频 | 国产又粗又硬又大爽黄老大爷视 | 久久精品人人做人人综合试看 | 蜜臀aⅴ国产精品久久久国产老师 | 激情内射日本一区二区三区 | 国产精品高潮呻吟av久久4虎 | 最新国产麻豆aⅴ精品无码 | 无码纯肉视频在线观看 | 国产va免费精品观看 | 国产美女极度色诱视频www | 亚洲 a v无 码免 费 成 人 a v | 精品久久综合1区2区3区激情 | 乱人伦中文视频在线观看 | 四虎4hu永久免费 | 亚洲日韩av一区二区三区四区 | 亚洲第一无码av无码专区 | 亚洲国产精品成人久久蜜臀 | 蜜桃视频插满18在线观看 | 暴力强奷在线播放无码 | 欧美日韩一区二区免费视频 | 啦啦啦www在线观看免费视频 | 精品午夜福利在线观看 | 色欲综合久久中文字幕网 | 国产精品第一区揄拍无码 | 欧美性猛交xxxx富婆 | 亚洲一区二区三区四区 | 精品一区二区三区波多野结衣 | 日产精品高潮呻吟av久久 | 亚洲欧美日韩综合久久久 | 在线播放亚洲第一字幕 | 亚洲熟妇色xxxxx欧美老妇y | 国产区女主播在线观看 | 四十如虎的丰满熟妇啪啪 | 色一情一乱一伦 | 亚洲欧美国产精品久久 | 欧美激情综合亚洲一二区 | 国产亚洲日韩欧美另类第八页 | 欧美熟妇另类久久久久久不卡 | 亚洲男人av香蕉爽爽爽爽 | 欧美日本精品一区二区三区 | 国产精品人妻一区二区三区四 | 天天摸天天碰天天添 | 国语自产偷拍精品视频偷 | 欧美成人午夜精品久久久 | 欧美人与物videos另类 | ass日本丰满熟妇pics | 国产成人无码一二三区视频 | 男女超爽视频免费播放 | 无码精品人妻一区二区三区av | 青春草在线视频免费观看 | 日本熟妇人妻xxxxx人hd | 国产亚洲精品久久久久久国模美 | 亚洲精品国产精品乱码视色 | 国产性生交xxxxx无码 | 日日麻批免费40分钟无码 | 国产av一区二区三区最新精品 | 亚洲精品中文字幕乱码 | 国产一精品一av一免费 | 国产精品香蕉在线观看 | 露脸叫床粗话东北少妇 | 老熟妇仑乱视频一区二区 | 人人爽人人澡人人高潮 | 性生交大片免费看l | 午夜嘿嘿嘿影院 | 日日摸夜夜摸狠狠摸婷婷 | av无码不卡在线观看免费 | 男女性色大片免费网站 | 人妻少妇精品视频专区 | 亚洲毛片av日韩av无码 | 999久久久国产精品消防器材 | 国产无遮挡又黄又爽免费视频 | 国产精品高潮呻吟av久久4虎 | 少妇性l交大片欧洲热妇乱xxx | 丰满人妻一区二区三区免费视频 | 亚洲色欲久久久综合网东京热 | 玩弄少妇高潮ⅹxxxyw | 日本精品高清一区二区 | 一本一道久久综合久久 | 在线欧美精品一区二区三区 | 又大又硬又黄的免费视频 | 国产成人精品视频ⅴa片软件竹菊 | 九九在线中文字幕无码 | 强辱丰满人妻hd中文字幕 | 熟妇人妻激情偷爽文 | 无码人妻少妇伦在线电影 | 漂亮人妻洗澡被公强 日日躁 | 装睡被陌生人摸出水好爽 | 午夜精品久久久久久久久 | 中文字幕无码热在线视频 | 人人妻在人人 | 天堂无码人妻精品一区二区三区 | 鲁鲁鲁爽爽爽在线视频观看 | 精品 日韩 国产 欧美 视频 | 帮老师解开蕾丝奶罩吸乳网站 | 国产又爽又黄又刺激的视频 | 黑人粗大猛烈进出高潮视频 | 熟妇人妻无乱码中文字幕 | 亚洲精品无码人妻无码 | 亚洲国产午夜精品理论片 | 日日摸夜夜摸狠狠摸婷婷 | 女高中生第一次破苞av | 免费中文字幕日韩欧美 | 久久成人a毛片免费观看网站 | 久久久无码中文字幕久... | 无码吃奶揉捏奶头高潮视频 | 国产亚洲精品久久久久久国模美 | а√资源新版在线天堂 | 黑人玩弄人妻中文在线 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 中文字幕+乱码+中文字幕一区 | 欧美日韩视频无码一区二区三 | 无码人妻丰满熟妇区五十路百度 | 国产激情一区二区三区 | 国产成人一区二区三区在线观看 | 九九在线中文字幕无码 | 久久综合狠狠综合久久综合88 | 精品少妇爆乳无码av无码专区 | 国产成人综合美国十次 | 久久熟妇人妻午夜寂寞影院 | 国产av人人夜夜澡人人爽麻豆 | 久久精品中文字幕大胸 | 7777奇米四色成人眼影 | 午夜成人1000部免费视频 | 成人一在线视频日韩国产 | 欧美老人巨大xxxx做受 | 午夜精品一区二区三区在线观看 | 极品嫩模高潮叫床 | 日本熟妇乱子伦xxxx | 日本乱人伦片中文三区 | 小鲜肉自慰网站xnxx | 亚洲狠狠婷婷综合久久 | 久久综合九色综合欧美狠狠 | 未满小14洗澡无码视频网站 | 亚洲aⅴ无码成人网站国产app | 亚洲国产精品无码久久久久高潮 | 性做久久久久久久久 | 日日噜噜噜噜夜夜爽亚洲精品 | 激情内射日本一区二区三区 | 天下第一社区视频www日本 | 成在人线av无码免费 | 窝窝午夜理论片影院 | 纯爱无遮挡h肉动漫在线播放 | 男女猛烈xx00免费视频试看 | 扒开双腿吃奶呻吟做受视频 | 伊人久久大香线焦av综合影院 | 日产精品99久久久久久 | 小sao货水好多真紧h无码视频 | 无码人妻丰满熟妇区毛片18 | 樱花草在线播放免费中文 | 亚洲综合无码久久精品综合 | 久久五月精品中文字幕 | 亚洲码国产精品高潮在线 | 亚洲日韩av一区二区三区四区 | 国产av剧情md精品麻豆 | 伊人久久大香线焦av综合影院 | 成人欧美一区二区三区黑人免费 | 久久99热只有频精品8 | 国产在线精品一区二区三区直播 | 高清无码午夜福利视频 | 思思久久99热只有频精品66 | 欧美日韩人成综合在线播放 | 亚洲狠狠色丁香婷婷综合 | 欧美野外疯狂做受xxxx高潮 | 久久成人a毛片免费观看网站 | 蜜桃视频韩日免费播放 | 老熟妇仑乱视频一区二区 | 久久久精品欧美一区二区免费 | 国产精品无码成人午夜电影 | 麻豆国产97在线 | 欧洲 | 人人澡人人透人人爽 | 色情久久久av熟女人妻网站 | 国产亚洲欧美在线专区 | 亚洲日本一区二区三区在线 | 美女黄网站人色视频免费国产 | 在线观看国产一区二区三区 | 国产舌乚八伦偷品w中 | 少妇被黑人到高潮喷出白浆 | a在线观看免费网站大全 | 无码国产激情在线观看 | 亚洲精品久久久久久一区二区 | 免费男性肉肉影院 | 熟妇女人妻丰满少妇中文字幕 | 色老头在线一区二区三区 | 天干天干啦夜天干天2017 | 四虎国产精品一区二区 | 鲁一鲁av2019在线 | 色欲av亚洲一区无码少妇 | 欧美人妻一区二区三区 | 九九综合va免费看 | 国产在线精品一区二区三区直播 | 大色综合色综合网站 | 粉嫩少妇内射浓精videos | 国产在线精品一区二区三区直播 | 综合网日日天干夜夜久久 | 欧美激情综合亚洲一二区 | 亚洲啪av永久无码精品放毛片 | 少妇被粗大的猛进出69影院 | 亚洲成av人片天堂网无码】 | 无码免费一区二区三区 | 精品熟女少妇av免费观看 | 成年美女黄网站色大免费视频 | 波多野结衣 黑人 | 亚洲中文字幕久久无码 | 特级做a爰片毛片免费69 | 国产亚洲精品久久久久久 | 在线观看国产一区二区三区 | 日本www一道久久久免费榴莲 | 免费无码肉片在线观看 | 性色av无码免费一区二区三区 | 欧美日韩一区二区综合 | 装睡被陌生人摸出水好爽 | 天天躁夜夜躁狠狠是什么心态 | 亚洲精品久久久久avwww潮水 | 麻花豆传媒剧国产免费mv在线 | 奇米影视888欧美在线观看 | 成人性做爰aaa片免费看 | 亚洲乱码中文字幕在线 | 天天av天天av天天透 | 久久久亚洲欧洲日产国码αv | 亚洲爆乳无码专区 | 色五月丁香五月综合五月 | 5858s亚洲色大成网站www | 国产精品久久久一区二区三区 | 久久99精品国产麻豆 | 乱人伦人妻中文字幕无码 | 午夜福利一区二区三区在线观看 | 荫蒂被男人添的好舒服爽免费视频 | 久在线观看福利视频 | 欧美怡红院免费全部视频 | 亚洲国产午夜精品理论片 | 婷婷色婷婷开心五月四房播播 | 纯爱无遮挡h肉动漫在线播放 | 女人高潮内射99精品 | 国产无遮挡吃胸膜奶免费看 | 国产精品亚洲专区无码不卡 | 亚洲中文字幕在线无码一区二区 | 亚洲欧洲无卡二区视頻 | 亚洲中文字幕av在天堂 | aⅴ在线视频男人的天堂 | 清纯唯美经典一区二区 | 欧美日韩一区二区免费视频 | 国产成人精品一区二区在线小狼 | 午夜男女很黄的视频 | 亚洲日本va中文字幕 | 欧美国产日韩亚洲中文 | 国产av久久久久精东av | 风流少妇按摩来高潮 | 精品厕所偷拍各类美女tp嘘嘘 | 妺妺窝人体色www婷婷 | 精品厕所偷拍各类美女tp嘘嘘 | 色老头在线一区二区三区 | 丰满少妇弄高潮了www | 黑人粗大猛烈进出高潮视频 | 亚洲一区二区三区含羞草 | 熟女少妇在线视频播放 | 久久久www成人免费毛片 | 国产亚洲精品久久久久久久 | 国产高清不卡无码视频 | 无码国产激情在线观看 | 亲嘴扒胸摸屁股激烈网站 | 亚洲欧美国产精品专区久久 | 4hu四虎永久在线观看 | 最新国产乱人伦偷精品免费网站 | 精品无码成人片一区二区98 | 97久久国产亚洲精品超碰热 | 少妇性俱乐部纵欲狂欢电影 | 亚洲综合在线一区二区三区 | 少妇无码一区二区二三区 | 亚洲人成影院在线观看 | 日韩无套无码精品 | 成人无码视频在线观看网站 | 无码人妻丰满熟妇区五十路百度 | 日韩亚洲欧美精品综合 | 国产口爆吞精在线视频 | 色一情一乱一伦一视频免费看 | 久久精品人人做人人综合试看 | 免费人成网站视频在线观看 | 麻豆国产97在线 | 欧洲 | 国产真实夫妇视频 | 高清不卡一区二区三区 | 丰满护士巨好爽好大乳 | 免费看少妇作爱视频 | 欧美精品一区二区精品久久 | 国产日产欧产精品精品app | 国产精品高潮呻吟av久久4虎 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 国产精品亚洲综合色区韩国 | 少妇人妻av毛片在线看 | 粉嫩少妇内射浓精videos | 国产亚洲精品精品国产亚洲综合 | 精品国产一区二区三区四区在线看 | 欧美 日韩 亚洲 在线 | 国产精品美女久久久网av | 亚洲国精产品一二二线 | 亚洲一区二区观看播放 | 成年美女黄网站色大免费全看 | 狠狠综合久久久久综合网 | yw尤物av无码国产在线观看 | 丰满肥臀大屁股熟妇激情视频 | 人妻与老人中文字幕 | 亚洲国产精品毛片av不卡在线 | 国产精品内射视频免费 | 亚洲 激情 小说 另类 欧美 | 色五月五月丁香亚洲综合网 | 日本欧美一区二区三区乱码 | 欧美xxxxx精品 | 亚洲午夜福利在线观看 | 免费播放一区二区三区 | 精品无码av一区二区三区 | 人妻中文无码久热丝袜 | 久久伊人色av天堂九九小黄鸭 | 国产亚洲精品久久久久久 | 性欧美videos高清精品 | 久久视频在线观看精品 | 精品国产一区二区三区四区在线看 | 真人与拘做受免费视频一 | 色情久久久av熟女人妻网站 | 中文字幕中文有码在线 | 国产97人人超碰caoprom | 97夜夜澡人人双人人人喊 | 成人精品天堂一区二区三区 | 在线成人www免费观看视频 | 性色欲网站人妻丰满中文久久不卡 | 色综合视频一区二区三区 | 亚洲精品国产a久久久久久 | 在线 国产 欧美 亚洲 天堂 | 久久精品中文字幕一区 | 成人影院yy111111在线观看 | 国产av无码专区亚洲awww | 国产精品免费大片 | 国产亚洲精品久久久久久久久动漫 | 精品一区二区不卡无码av | 欧美怡红院免费全部视频 | 亚洲综合色区中文字幕 | 一个人看的www免费视频在线观看 | 国产亚洲精品精品国产亚洲综合 | 午夜理论片yy44880影院 | 亚洲熟熟妇xxxx | 欧美日韩色另类综合 | 成年美女黄网站色大免费视频 | 午夜精品久久久内射近拍高清 | 2019午夜福利不卡片在线 | 内射欧美老妇wbb | 一二三四社区在线中文视频 | 成人亚洲精品久久久久软件 | 亚洲国产精品一区二区第一页 | 国产成人久久精品流白浆 | 亚洲精品欧美二区三区中文字幕 | 国产内射爽爽大片视频社区在线 | 亚洲精品一区国产 | 丰腴饱满的极品熟妇 | 99久久精品无码一区二区毛片 | 天天拍夜夜添久久精品大 | 无码吃奶揉捏奶头高潮视频 | 好男人www社区 | 中文精品无码中文字幕无码专区 | 日本www一道久久久免费榴莲 | 国产色xx群视频射精 | 少妇厨房愉情理9仑片视频 | 久久久久久九九精品久 | 国产精品资源一区二区 | 亚洲精品www久久久 | 久久久亚洲欧洲日产国码αv | 国产一区二区三区四区五区加勒比 | 精品无人区无码乱码毛片国产 | 中文字幕人妻无码一区二区三区 | 日本精品人妻无码免费大全 | 国产精品久久久久久久影院 | 久久久www成人免费毛片 | 亚洲一区二区三区在线观看网站 | 国产xxx69麻豆国语对白 | 正在播放东北夫妻内射 | 精品欧洲av无码一区二区三区 | 国产精品亚洲lv粉色 | 国产成人久久精品流白浆 | 久久久亚洲欧洲日产国码αv | 成人精品视频一区二区三区尤物 | 日韩少妇内射免费播放 | 国产精品久久久久久久影院 | 人人妻人人澡人人爽人人精品浪潮 | 亚洲 欧美 激情 小说 另类 | 99riav国产精品视频 | 欧美成人高清在线播放 | 亚洲日本在线电影 | 国产午夜视频在线观看 | 日日麻批免费40分钟无码 | 中文无码伦av中文字幕 | 人妻aⅴ无码一区二区三区 | 日本免费一区二区三区最新 | 免费无码的av片在线观看 | 亚洲精品国产精品乱码不卡 | 欧美高清在线精品一区 | 日日噜噜噜噜夜夜爽亚洲精品 | 国内少妇偷人精品视频免费 | 亚洲成熟女人毛毛耸耸多 | 无码人妻av免费一区二区三区 | 欧美日韩在线亚洲综合国产人 | 亚洲精品鲁一鲁一区二区三区 | 无码av免费一区二区三区试看 | 桃花色综合影院 | 无码av中文字幕免费放 | 久久午夜夜伦鲁鲁片无码免费 | 亚洲阿v天堂在线 | 伦伦影院午夜理论片 | 99久久亚洲精品无码毛片 | 麻豆国产人妻欲求不满谁演的 | 中文久久乱码一区二区 | 精品国精品国产自在久国产87 | 无码一区二区三区在线 | 精品久久综合1区2区3区激情 | 天天拍夜夜添久久精品 | 樱花草在线社区www | 午夜精品久久久久久久久 | 亚洲日本一区二区三区在线 | www成人国产高清内射 | 97久久精品无码一区二区 | 欧美性黑人极品hd | 亚洲国产精品一区二区美利坚 | 色综合久久中文娱乐网 | 妺妺窝人体色www婷婷 | 无码人妻精品一区二区三区不卡 | 久久午夜无码鲁丝片秋霞 | 国产成人精品一区二区在线小狼 | 日韩在线不卡免费视频一区 | 国产精品久久久久久久9999 | 国产办公室秘书无码精品99 | 国语自产偷拍精品视频偷 | 色欲综合久久中文字幕网 | 亚洲国产精品久久久天堂 | 色一情一乱一伦 | 少妇久久久久久人妻无码 | 中文字幕 人妻熟女 | 狠狠噜狠狠狠狠丁香五月 | 免费无码肉片在线观看 | 国产亚洲精品久久久久久久 | 国产美女极度色诱视频www | 少妇一晚三次一区二区三区 | 久久久久免费看成人影片 | 国产suv精品一区二区五 | 亚洲精品午夜无码电影网 | 亚洲熟妇色xxxxx欧美老妇y | 性生交大片免费看l | 99久久久国产精品无码免费 | 精品日本一区二区三区在线观看 | 少妇邻居内射在线 | 色一情一乱一伦一视频免费看 | 精品一区二区不卡无码av | 国产极品美女高潮无套在线观看 | 国内精品久久毛片一区二区 | а√天堂www在线天堂小说 | 天堂一区人妻无码 | av小次郎收藏 | 自拍偷自拍亚洲精品被多人伦好爽 | 免费男性肉肉影院 | 少妇愉情理伦片bd | 国产麻豆精品精东影业av网站 | 成人无码影片精品久久久 | 性做久久久久久久免费看 | 国产熟妇另类久久久久 | 成人综合网亚洲伊人 | 国产成人精品优优av | а天堂中文在线官网 | 无码中文字幕色专区 | 亚洲综合精品香蕉久久网 | 久久久精品国产sm最大网站 | 天堂а√在线中文在线 | 久久视频在线观看精品 | 久久亚洲日韩精品一区二区三区 | 欧美变态另类xxxx | 国内精品久久久久久中文字幕 | 欧美成人午夜精品久久久 | 丰满妇女强制高潮18xxxx | 欧美国产日韩久久mv | 欧洲精品码一区二区三区免费看 | 成人亚洲精品久久久久 | 亚洲第一无码av无码专区 | 亚洲男人av天堂午夜在 | 国产色视频一区二区三区 | 亚洲日韩一区二区三区 | 欧美精品免费观看二区 | 国产成人久久精品流白浆 | 大肉大捧一进一出好爽视频 | 蜜桃av抽搐高潮一区二区 | 18禁黄网站男男禁片免费观看 | 午夜福利不卡在线视频 | 国产亚洲精品久久久久久久 | 国产午夜无码精品免费看 | 日韩人妻系列无码专区 | 亚洲中文字幕无码中字 | 亚洲人成人无码网www国产 | 乱中年女人伦av三区 | 精品一区二区三区无码免费视频 | 免费看男女做好爽好硬视频 | 国产精品资源一区二区 | 久久99精品久久久久婷婷 | 国产亚洲精品久久久久久 | 成人欧美一区二区三区 | 在线观看国产一区二区三区 | 久久综合久久自在自线精品自 | 久久精品中文字幕大胸 | 少妇性l交大片 | 天天拍夜夜添久久精品大 | 国产乱人伦av在线无码 | 日本熟妇人妻xxxxx人hd | 少妇被黑人到高潮喷出白浆 | 国内精品九九久久久精品 | 国产电影无码午夜在线播放 | 98国产精品综合一区二区三区 | 久久熟妇人妻午夜寂寞影院 | 粉嫩少妇内射浓精videos | 国产乱人偷精品人妻a片 | 久久人人爽人人人人片 | 国产婷婷色一区二区三区在线 | 色婷婷av一区二区三区之红樱桃 | 丰满少妇熟乱xxxxx视频 | 亚洲精品中文字幕乱码 | 婷婷五月综合激情中文字幕 | 国产人妻精品一区二区三区不卡 | 内射巨臀欧美在线视频 | 日本丰满熟妇videos | 特级做a爰片毛片免费69 | 亚洲高清偷拍一区二区三区 | 狠狠色色综合网站 | 狠狠噜狠狠狠狠丁香五月 | 国产精品久久久久久亚洲影视内衣 | 国产精品免费大片 | 国产精品久免费的黄网站 | 男女猛烈xx00免费视频试看 | 2019午夜福利不卡片在线 | 久久 国产 尿 小便 嘘嘘 | 免费无码午夜福利片69 | 国产精品毛多多水多 | 男人的天堂2018无码 | 国内老熟妇对白xxxxhd | 午夜肉伦伦影院 | 亚洲a无码综合a国产av中文 | 国产成人无码午夜视频在线观看 | 国产精品无码永久免费888 | 久久 国产 尿 小便 嘘嘘 | 国产农村妇女aaaaa视频 撕开奶罩揉吮奶头视频 | 国产午夜福利100集发布 | 乱中年女人伦av三区 | 男女爱爱好爽视频免费看 | 男女超爽视频免费播放 | 亚洲精品成人福利网站 | 久久久久亚洲精品中文字幕 | 国产精品嫩草久久久久 | 无码午夜成人1000部免费视频 | 曰韩无码二三区中文字幕 | 精品偷自拍另类在线观看 | 少妇太爽了在线观看 | 国产亚洲美女精品久久久2020 | 亚洲国产精品无码久久久久高潮 | 国产又粗又硬又大爽黄老大爷视 | 清纯唯美经典一区二区 | 久久精品国产亚洲精品 | 日韩精品乱码av一区二区 | 国产无遮挡又黄又爽免费视频 | 丰满少妇人妻久久久久久 | 九月婷婷人人澡人人添人人爽 | 少妇无套内谢久久久久 | 亚洲精品一区二区三区在线 | 国产真人无遮挡作爱免费视频 | 玩弄少妇高潮ⅹxxxyw | 成人亚洲精品久久久久软件 | 日产精品高潮呻吟av久久 | 大地资源网第二页免费观看 | 伊人久久婷婷五月综合97色 | 国产成人午夜福利在线播放 | 国语精品一区二区三区 | 性欧美疯狂xxxxbbbb | 99视频精品全部免费免费观看 | 国产人妻精品午夜福利免费 | 人妻天天爽夜夜爽一区二区 | 两性色午夜免费视频 | 熟女体下毛毛黑森林 | 亚洲精品综合一区二区三区在线 | 久久国产精品偷任你爽任你 | 亚洲熟妇色xxxxx亚洲 | 国产av人人夜夜澡人人爽麻豆 | 日日碰狠狠丁香久燥 | 色欲人妻aaaaaaa无码 | 动漫av一区二区在线观看 | 奇米影视7777久久精品人人爽 | 国产日产欧产精品精品app | 亚洲大尺度无码无码专区 | 无码精品人妻一区二区三区av | 麻豆成人精品国产免费 | 国产网红无码精品视频 | 黄网在线观看免费网站 | 六月丁香婷婷色狠狠久久 | 免费无码av一区二区 | 成人精品一区二区三区中文字幕 | 99国产欧美久久久精品 | 国产热a欧美热a在线视频 | 精品一区二区三区无码免费视频 | 牲交欧美兽交欧美 | 欧美第一黄网免费网站 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 国内综合精品午夜久久资源 | 乌克兰少妇xxxx做受 | 国产午夜福利亚洲第一 | 欧美人妻一区二区三区 | 亚洲aⅴ无码成人网站国产app | 亚洲色无码一区二区三区 | 日日碰狠狠躁久久躁蜜桃 | 97色伦图片97综合影院 | 国产人妻精品一区二区三区 | 女人被爽到呻吟gif动态图视看 | 日本欧美一区二区三区乱码 | 人妻天天爽夜夜爽一区二区 | 欧美黑人性暴力猛交喷水 | 夫妻免费无码v看片 | 亚洲国产精品一区二区美利坚 | 中文字幕人成乱码熟女app | 妺妺窝人体色www在线小说 | 亚洲中文字幕乱码av波多ji | 精品国产一区二区三区av 性色 | 亚洲成a人一区二区三区 | 人人妻人人藻人人爽欧美一区 | 欧美人与善在线com | 久久97精品久久久久久久不卡 | 国产成人精品视频ⅴa片软件竹菊 | 国产美女精品一区二区三区 | 国产特级毛片aaaaaaa高清 | 精品国产青草久久久久福利 | 亚洲欧洲日本综合aⅴ在线 | 亚洲国产精华液网站w | 丰满人妻精品国产99aⅴ | 免费无码一区二区三区蜜桃大 | 亚洲欧美中文字幕5发布 | 欧美肥老太牲交大战 | 久久精品成人欧美大片 | 精品乱子伦一区二区三区 | 日本爽爽爽爽爽爽在线观看免 | 18禁止看的免费污网站 | 少妇性俱乐部纵欲狂欢电影 | 精品无人区无码乱码毛片国产 | 国内少妇偷人精品视频 | 亚洲 另类 在线 欧美 制服 | 精品夜夜澡人妻无码av蜜桃 | 亚洲精品一区二区三区在线观看 | 午夜精品一区二区三区在线观看 | 国产无遮挡吃胸膜奶免费看 | 香蕉久久久久久av成人 | 国产精品无码永久免费888 | 国产免费久久精品国产传媒 | 夜夜高潮次次欢爽av女 | 国产精品高潮呻吟av久久4虎 | 国产莉萝无码av在线播放 | 性色av无码免费一区二区三区 | 亚洲热妇无码av在线播放 | 久久熟妇人妻午夜寂寞影院 | 国产女主播喷水视频在线观看 | 毛片内射-百度 | 国产绳艺sm调教室论坛 | 精品久久久久久亚洲精品 | 在线播放无码字幕亚洲 | 特黄特色大片免费播放器图片 | 色综合天天综合狠狠爱 | 久久久www成人免费毛片 | 成人动漫在线观看 | 俺去俺来也www色官网 | 色五月五月丁香亚洲综合网 | 日产精品高潮呻吟av久久 | 又大又紧又粉嫩18p少妇 | 亚洲精品欧美二区三区中文字幕 | 国产免费久久久久久无码 | 久激情内射婷内射蜜桃人妖 | 亚洲日韩av一区二区三区四区 | 国产欧美亚洲精品a | 国产热a欧美热a在线视频 | 久久99精品国产麻豆蜜芽 | 少妇被粗大的猛进出69影院 | 伦伦影院午夜理论片 | 蜜桃臀无码内射一区二区三区 | 三上悠亚人妻中文字幕在线 | 天天拍夜夜添久久精品 | 日韩精品久久久肉伦网站 | 欧美国产日产一区二区 | 成人综合网亚洲伊人 | 77777熟女视频在线观看 а天堂中文在线官网 | 一本久道久久综合狠狠爱 | 兔费看少妇性l交大片免费 | 欧美日韩人成综合在线播放 | 亚洲精品欧美二区三区中文字幕 | 中文字幕无线码免费人妻 | 欧美喷潮久久久xxxxx | 18禁止看的免费污网站 | 国产成人午夜福利在线播放 | 久久综合网欧美色妞网 | 娇妻被黑人粗大高潮白浆 | 亚洲成av人综合在线观看 | 中文字幕av日韩精品一区二区 | 亚洲色在线无码国产精品不卡 | 欧美xxxxx精品 | 国产无遮挡又黄又爽又色 | 亚洲aⅴ无码成人网站国产app | 少妇的肉体aa片免费 | 老子影院午夜精品无码 | 国产精品va在线观看无码 | 西西人体www44rt大胆高清 | www国产亚洲精品久久久日本 | 国产精品视频免费播放 | 久久久久亚洲精品中文字幕 | 曰本女人与公拘交酡免费视频 | 熟女少妇在线视频播放 | 少妇一晚三次一区二区三区 | 少妇无码一区二区二三区 | 人妻少妇精品久久 | 水蜜桃色314在线观看 | 中文精品久久久久人妻不卡 | 激情爆乳一区二区三区 | 丝袜人妻一区二区三区 | 中文无码成人免费视频在线观看 | 偷窥村妇洗澡毛毛多 | 特级做a爰片毛片免费69 | 老熟妇乱子伦牲交视频 | 午夜男女很黄的视频 | 人人妻人人澡人人爽欧美精品 | 亚洲熟妇色xxxxx欧美老妇y | 又大又紧又粉嫩18p少妇 | 内射爽无广熟女亚洲 | 美女扒开屁股让男人桶 | 台湾无码一区二区 | 丝袜足控一区二区三区 | www成人国产高清内射 | 图片区 小说区 区 亚洲五月 | 日本丰满熟妇videos | 美女黄网站人色视频免费国产 | 亚洲狠狠色丁香婷婷综合 | 国产小呦泬泬99精品 | 色一情一乱一伦 | 动漫av网站免费观看 | 人人爽人人澡人人高潮 | 亚洲日韩精品欧美一区二区 | 国产人妻精品一区二区三区不卡 | 男女爱爱好爽视频免费看 | 亚洲成av人影院在线观看 | 欧美国产日韩亚洲中文 | 永久免费观看国产裸体美女 | 狠狠色色综合网站 | 波多野结衣一区二区三区av免费 | 丰满人妻一区二区三区免费视频 | 亚洲中文字幕av在天堂 | 少妇人妻av毛片在线看 | 久久亚洲中文字幕无码 | 人妻aⅴ无码一区二区三区 | 欧美老妇与禽交 | 欧美高清在线精品一区 | 无套内射视频囯产 | 99久久人妻精品免费二区 | 永久黄网站色视频免费直播 | 色综合久久久久综合一本到桃花网 | 男人的天堂av网站 | 77777熟女视频在线观看 а天堂中文在线官网 | 四虎影视成人永久免费观看视频 | 在线天堂新版最新版在线8 | 国产香蕉尹人视频在线 | 天天av天天av天天透 | 国产亚洲精品久久久久久大师 | 欧美性猛交内射兽交老熟妇 | 一区二区三区乱码在线 | 欧洲 | 狠狠色噜噜狠狠狠7777奇米 | 久久久久久a亚洲欧洲av冫 | 久精品国产欧美亚洲色aⅴ大片 | 成人av无码一区二区三区 | av小次郎收藏 | 久久人人爽人人爽人人片av高清 | 精品一二三区久久aaa片 | 欧美阿v高清资源不卡在线播放 | 中国大陆精品视频xxxx | 亚洲精品久久久久avwww潮水 | 久久97精品久久久久久久不卡 | 中文字幕 亚洲精品 第1页 | 国产乡下妇女做爰 | 亚洲精品午夜无码电影网 | 美女扒开屁股让男人桶 | 亚洲a无码综合a国产av中文 | 中文字幕无码av激情不卡 | 蜜桃av抽搐高潮一区二区 | 精品偷自拍另类在线观看 | 午夜福利一区二区三区在线观看 | 欧美性色19p | 狠狠综合久久久久综合网 | 中文字幕人成乱码熟女app | 日本va欧美va欧美va精品 | 国产麻豆精品一区二区三区v视界 | 久久国产精品偷任你爽任你 | 国产精品无码成人午夜电影 | 国产超碰人人爽人人做人人添 | 国产97人人超碰caoprom | 亚洲人成人无码网www国产 | 国产精品久久国产精品99 | 四十如虎的丰满熟妇啪啪 | 久久精品女人的天堂av | 亚洲国产欧美国产综合一区 | 精品无人国产偷自产在线 | 久久久久人妻一区精品色欧美 | 国产sm调教视频在线观看 | 性生交片免费无码看人 | 欧美人与动性行为视频 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 国产精品自产拍在线观看 | 97久久超碰中文字幕 | 正在播放老肥熟妇露脸 | 人妻夜夜爽天天爽三区 | 色婷婷欧美在线播放内射 | 国产成人综合色在线观看网站 | 少妇愉情理伦片bd | 国产精品久久久久影院嫩草 | 久久zyz资源站无码中文动漫 | 青青久在线视频免费观看 | 特黄特色大片免费播放器图片 | 女人被爽到呻吟gif动态图视看 | 国产人成高清在线视频99最全资源 | 又大又硬又爽免费视频 | 日韩人妻无码一区二区三区久久99 | 午夜无码人妻av大片色欲 | 51国偷自产一区二区三区 | 国产精品久久久久久久9999 | 久久精品99久久香蕉国产色戒 | 亚洲综合色区中文字幕 | 1000部夫妻午夜免费 | 高潮喷水的毛片 | 人妻少妇精品久久 | 国产精品久久国产三级国 | 无码国产乱人伦偷精品视频 | 99久久婷婷国产综合精品青草免费 | 国产精品亚洲一区二区三区喷水 | 无遮挡国产高潮视频免费观看 | 2019午夜福利不卡片在线 | 最近免费中文字幕中文高清百度 | 55夜色66夜色国产精品视频 | 人人澡人人妻人人爽人人蜜桃 | 国产九九九九九九九a片 | 少妇无码av无码专区在线观看 | 水蜜桃色314在线观看 | 成人免费视频视频在线观看 免费 | 欧美色就是色 | 玩弄少妇高潮ⅹxxxyw | 国产精品高潮呻吟av久久4虎 | 国内精品人妻无码久久久影院蜜桃 | 国产一区二区三区四区五区加勒比 | 亚洲综合久久一区二区 | 国内综合精品午夜久久资源 | 日日摸日日碰夜夜爽av | 欧美三级不卡在线观看 | 亚洲综合在线一区二区三区 | 国内丰满熟女出轨videos | 国内少妇偷人精品视频 | 中文字幕无码人妻少妇免费 | 一本大道伊人av久久综合 | 午夜成人1000部免费视频 | 亚洲精品鲁一鲁一区二区三区 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 成人一区二区免费视频 | 熟妇人妻无乱码中文字幕 | 欧美zoozzooz性欧美 | 99久久亚洲精品无码毛片 | 亚洲熟悉妇女xxx妇女av | 成 人影片 免费观看 | 国产又爽又猛又粗的视频a片 | 亚洲日韩av一区二区三区四区 | 欧美日韩一区二区三区自拍 | 精品欧洲av无码一区二区三区 | 亚洲一区二区三区播放 | 国产精品无码mv在线观看 | 日本精品久久久久中文字幕 | 国产国产精品人在线视 | 国产亚洲精品久久久久久 | 亚洲日本在线电影 | 精品久久久久久亚洲精品 | 精品久久8x国产免费观看 | 久久精品国产精品国产精品污 | 欧美人与动性行为视频 | 成人av无码一区二区三区 | 国产精品久久久久影院嫩草 | 成人毛片一区二区 | 久久久av男人的天堂 | 欧美黑人性暴力猛交喷水 | 精品欧洲av无码一区二区三区 | 99久久人妻精品免费一区 | 99国产欧美久久久精品 | 久久zyz资源站无码中文动漫 | 未满小14洗澡无码视频网站 | 5858s亚洲色大成网站www | 国产精品办公室沙发 | 国产内射爽爽大片视频社区在线 | 午夜丰满少妇性开放视频 | 特黄特色大片免费播放器图片 | 国产网红无码精品视频 | 久久久久久亚洲精品a片成人 | 精品国产青草久久久久福利 | 欧美丰满熟妇xxxx性ppx人交 | 在线天堂新版最新版在线8 | 午夜精品久久久久久久久 | 亚洲国产成人av在线观看 | 日本熟妇人妻xxxxx人hd | 人妻夜夜爽天天爽三区 | 国产手机在线αⅴ片无码观看 | 中文字幕精品av一区二区五区 | 色欲av亚洲一区无码少妇 | 亚洲精品久久久久中文第一幕 | 中文字幕乱码亚洲无线三区 | 人妻尝试又大又粗久久 | 国产成人精品三级麻豆 | 国产综合在线观看 | 日日摸夜夜摸狠狠摸婷婷 | 国产成人无码一二三区视频 | 国产激情无码一区二区 | 久久天天躁狠狠躁夜夜免费观看 | 永久黄网站色视频免费直播 | 国产免费无码一区二区视频 | 天天综合网天天综合色 | 亚洲日韩一区二区三区 | 丰腴饱满的极品熟妇 | 亚洲精品国产第一综合99久久 | 久久国产精品偷任你爽任你 | aⅴ亚洲 日韩 色 图网站 播放 | 国产肉丝袜在线观看 | 精品无码av一区二区三区 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 内射巨臀欧美在线视频 | 欧美大屁股xxxxhd黑色 | 疯狂三人交性欧美 | 在线亚洲高清揄拍自拍一品区 | 东京无码熟妇人妻av在线网址 | 18禁止看的免费污网站 | 免费人成网站视频在线观看 | 国产免费久久久久久无码 | 亚洲人成影院在线观看 | 国产精品99久久精品爆乳 | 日韩 欧美 动漫 国产 制服 | 国产内射老熟女aaaa | 性欧美牲交xxxxx视频 | 76少妇精品导航 | 日韩欧美群交p片內射中文 | 动漫av网站免费观看 | 十八禁真人啪啪免费网站 | 一个人看的www免费视频在线观看 | 亚洲va中文字幕无码久久不卡 | 丁香啪啪综合成人亚洲 | 少妇的肉体aa片免费 | 伊人久久大香线蕉av一区二区 | 久久天天躁夜夜躁狠狠 | 亚洲阿v天堂在线 | www国产亚洲精品久久久日本 | 久久99精品国产.久久久久 | 波多野结衣aⅴ在线 | 成熟人妻av无码专区 | 丝袜足控一区二区三区 | 成熟妇人a片免费看网站 | 亚洲精品一区国产 | 亚洲色在线无码国产精品不卡 | 免费网站看v片在线18禁无码 | 国产熟女一区二区三区四区五区 | 国内少妇偷人精品视频 | 欧美人与牲动交xxxx | 草草网站影院白丝内射 | 99精品无人区乱码1区2区3区 | 人妻天天爽夜夜爽一区二区 | 天海翼激烈高潮到腰振不止 | 国产午夜无码视频在线观看 | 一区二区传媒有限公司 | 最近中文2019字幕第二页 | 欧美日本精品一区二区三区 | 精品成人av一区二区三区 | 中文字幕无码av波多野吉衣 | 亚洲成a人片在线观看无码3d | 亚洲综合另类小说色区 | 亚洲色无码一区二区三区 | 久久精品女人天堂av免费观看 | 学生妹亚洲一区二区 | 欧美国产日韩久久mv | 无码精品人妻一区二区三区av | 东京热男人av天堂 | 99久久精品日本一区二区免费 | 亚洲精品国偷拍自产在线麻豆 | 国产精华av午夜在线观看 | 波多野42部无码喷潮在线 | 中文无码精品a∨在线观看不卡 | 无套内谢老熟女 | 亚洲精品无码人妻无码 | 特级做a爰片毛片免费69 | 国产免费久久精品国产传媒 | 青青草原综合久久大伊人精品 | 亚洲熟妇色xxxxx欧美老妇y | 欧美性猛交xxxx富婆 | 亚洲日韩一区二区三区 | 成人精品一区二区三区中文字幕 | 国产亚洲欧美日韩亚洲中文色 | 久青草影院在线观看国产 | 亚洲国产午夜精品理论片 | 欧美zoozzooz性欧美 | 娇妻被黑人粗大高潮白浆 | 少妇被黑人到高潮喷出白浆 | 强辱丰满人妻hd中文字幕 | 色欲久久久天天天综合网精品 | 亚洲区欧美区综合区自拍区 | 人人妻人人澡人人爽精品欧美 | 国精产品一品二品国精品69xx | 狂野欧美激情性xxxx | 欧美激情内射喷水高潮 | 日本饥渴人妻欲求不满 | 青春草在线视频免费观看 | 日韩av无码一区二区三区 | 超碰97人人射妻 | 国产口爆吞精在线视频 | 亚洲精品国产精品乱码不卡 | 67194成是人免费无码 | 欧美丰满熟妇xxxx性ppx人交 | 欧美精品免费观看二区 | 日韩av无码一区二区三区不卡 | 国产人妻精品一区二区三区不卡 | 亚洲乱亚洲乱妇50p | 强伦人妻一区二区三区视频18 | 国产人妻人伦精品 | 中文久久乱码一区二区 | 亚洲成av人片天堂网无码】 | 天天燥日日燥 | 少妇久久久久久人妻无码 | 亚洲中文字幕在线观看 | 亚洲精品一区三区三区在线观看 | 亚洲精品美女久久久久久久 | 99久久精品日本一区二区免费 | 色综合久久网 | 中文字幕久久久久人妻 | 国产色视频一区二区三区 | 国产av人人夜夜澡人人爽麻豆 | 国产成人精品视频ⅴa片软件竹菊 | 欧美精品国产综合久久 | 国内少妇偷人精品视频 | 欧美日韩色另类综合 | 色婷婷av一区二区三区之红樱桃 | 亚洲中文字幕无码一久久区 | 在线a亚洲视频播放在线观看 | 免费无码的av片在线观看 | 激情爆乳一区二区三区 | 国产无套粉嫩白浆在线 | 国产办公室秘书无码精品99 | 日韩成人一区二区三区在线观看 | 99精品视频在线观看免费 | 免费人成在线观看网站 | 国产精品无码成人午夜电影 | 日本精品人妻无码免费大全 | 欧美日韩一区二区免费视频 | 久久人人爽人人爽人人片av高清 | 国产亚洲人成a在线v网站 | 少妇人妻av毛片在线看 | 亚洲乱码中文字幕在线 | 日本一卡2卡3卡四卡精品网站 | 国产精品美女久久久久av爽李琼 | 国产精品丝袜黑色高跟鞋 | 欧美国产亚洲日韩在线二区 | 久久精品国产99久久6动漫 | 国产精品久久久久久无码 | 久久精品女人的天堂av | 天天做天天爱天天爽综合网 | 一区二区传媒有限公司 | 日韩在线不卡免费视频一区 | 内射巨臀欧美在线视频 | 啦啦啦www在线观看免费视频 | 人妻插b视频一区二区三区 | 四虎永久在线精品免费网址 | 天天拍夜夜添久久精品 | 樱花草在线播放免费中文 | 性色欲网站人妻丰满中文久久不卡 | 玩弄少妇高潮ⅹxxxyw | 牛和人交xxxx欧美 | 狠狠色噜噜狠狠狠狠7777米奇 | 3d动漫精品啪啪一区二区中 | 久久精品国产一区二区三区肥胖 | 噜噜噜亚洲色成人网站 | 精品国产一区二区三区四区 | 亚洲色欲色欲欲www在线 | 国产成人无码av一区二区 | 成人欧美一区二区三区黑人免费 | 欧美 丝袜 自拍 制服 另类 | 国产香蕉尹人综合在线观看 | 日韩av无码一区二区三区不卡 | 狠狠综合久久久久综合网 | 强奷人妻日本中文字幕 | 色婷婷香蕉在线一区二区 | 久久精品人人做人人综合试看 | 一本大道久久东京热无码av | 欧美野外疯狂做受xxxx高潮 | 国产精品第一区揄拍无码 | 自拍偷自拍亚洲精品被多人伦好爽 | 国产人成高清在线视频99最全资源 | 麻花豆传媒剧国产免费mv在线 | 久久婷婷五月综合色国产香蕉 | 国产麻豆精品一区二区三区v视界 | 成熟妇人a片免费看网站 | 国产成人午夜福利在线播放 | 亚洲国产成人a精品不卡在线 | 中文亚洲成a人片在线观看 | 又粗又大又硬又长又爽 | 国精产品一品二品国精品69xx | 免费人成在线视频无码 | 麻豆果冻传媒2021精品传媒一区下载 | 131美女爱做视频 | 精品偷拍一区二区三区在线看 | 欧美 亚洲 国产 另类 | 国产精品久久久久无码av色戒 | 国内老熟妇对白xxxxhd | 成熟人妻av无码专区 | 国产精品久久久久久久9999 | 国产熟妇另类久久久久 | 国产莉萝无码av在线播放 | 久久精品国产日本波多野结衣 | 野外少妇愉情中文字幕 | 3d动漫精品啪啪一区二区中 | 亚洲人成无码网www | 日本精品人妻无码免费大全 | 在线看片无码永久免费视频 | 久久久久国色av免费观看性色 | 国产激情一区二区三区 | 国产无遮挡吃胸膜奶免费看 | 无码人妻精品一区二区三区不卡 | 亚洲区欧美区综合区自拍区 | 红桃av一区二区三区在线无码av | 曰韩少妇内射免费播放 | 一区二区三区乱码在线 | 欧洲 | 欧美性色19p | 久精品国产欧美亚洲色aⅴ大片 | 国产真实伦对白全集 | 久久久av男人的天堂 | 丁香啪啪综合成人亚洲 | 国产 精品 自在自线 | 天堂а√在线地址中文在线 | 久久综合香蕉国产蜜臀av | www一区二区www免费 | 嫩b人妻精品一区二区三区 | 亚洲精品鲁一鲁一区二区三区 | 久久精品人人做人人综合试看 | 久久婷婷五月综合色国产香蕉 | 亚洲国产精品久久人人爱 | 国产在线一区二区三区四区五区 | 国产偷抇久久精品a片69 | 亚洲中文字幕乱码av波多ji | 亚洲精品久久久久久一区二区 | 东京无码熟妇人妻av在线网址 | 秋霞成人午夜鲁丝一区二区三区 | 成人动漫在线观看 | 大地资源网第二页免费观看 | 性开放的女人aaa片 | 精品久久综合1区2区3区激情 | 久久亚洲精品中文字幕无男同 | 国产午夜福利亚洲第一 | 国产亲子乱弄免费视频 | 亚洲精品久久久久avwww潮水 | 亚洲另类伦春色综合小说 | 国产熟女一区二区三区四区五区 | 亚洲色欲色欲欲www在线 | 人妻少妇精品久久 | 扒开双腿吃奶呻吟做受视频 | 少妇无码av无码专区在线观看 | 午夜成人1000部免费视频 | 国产高清不卡无码视频 | 中文无码伦av中文字幕 | 中文亚洲成a人片在线观看 | 野外少妇愉情中文字幕 | 亚洲国产精品久久久天堂 | 国产精品丝袜黑色高跟鞋 | 久久天天躁狠狠躁夜夜免费观看 | 亚洲欧美国产精品专区久久 | 欧美 日韩 亚洲 在线 | 国产精品久久久久7777 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 日本一区二区三区免费高清 | 成人精品视频一区二区三区尤物 | 亚洲日本一区二区三区在线 | 日韩少妇白浆无码系列 | 国产口爆吞精在线视频 | 无码人妻久久一区二区三区不卡 | 亚洲色大成网站www国产 | 亚洲精品综合五月久久小说 | 欧美成人家庭影院 | 精品人妻人人做人人爽 | 国产精品福利视频导航 | 亚洲s色大片在线观看 | 国产真实夫妇视频 | 欧美日韩色另类综合 | 亚洲精品国产a久久久久久 | 熟妇人妻中文av无码 | 1000部啪啪未满十八勿入下载 | 国产另类ts人妖一区二区 | 国产精品亚洲lv粉色 | www国产亚洲精品久久网站 | 少妇无套内谢久久久久 | 男女猛烈xx00免费视频试看 | 亚洲欧洲日本综合aⅴ在线 | 蜜桃臀无码内射一区二区三区 | 中文字幕无码av波多野吉衣 | 国产激情无码一区二区app | 国产亚洲视频中文字幕97精品 | 精品无码国产一区二区三区av | 精品国产精品久久一区免费式 | 久久视频在线观看精品 | 1000部夫妻午夜免费 | 色欲av亚洲一区无码少妇 | 国产成人一区二区三区在线观看 | 国内精品人妻无码久久久影院蜜桃 | 中文字幕亚洲情99在线 | 国产精华av午夜在线观看 | 国产真实乱对白精彩久久 | 97精品国产97久久久久久免费 | 激情人妻另类人妻伦 | 久久99国产综合精品 | 熟妇人妻无码xxx视频 | 精品久久久无码中文字幕 | 少妇性荡欲午夜性开放视频剧场 | 曰韩少妇内射免费播放 | 久久久久av无码免费网 | 国产农村乱对白刺激视频 | 又大又硬又爽免费视频 | 噜噜噜亚洲色成人网站 | 无码av岛国片在线播放 | 欧美freesex黑人又粗又大 | www国产亚洲精品久久久日本 | 日韩精品久久久肉伦网站 | 国产一精品一av一免费 | 国产精品亚洲专区无码不卡 | 国产福利视频一区二区 | 成人欧美一区二区三区 | 67194成是人免费无码 | 1000部啪啪未满十八勿入下载 | 精品成在人线av无码免费看 | 青青青手机频在线观看 | 激情人妻另类人妻伦 | 欧美日韩久久久精品a片 | 人人爽人人爽人人片av亚洲 | 国产乱人偷精品人妻a片 | 国产国语老龄妇女a片 | 成人一区二区免费视频 | 国产亚洲精品久久久久久久久动漫 | 老子影院午夜精品无码 | 亚洲爆乳精品无码一区二区三区 | 夜夜高潮次次欢爽av女 | 乌克兰少妇xxxx做受 | 免费看少妇作爱视频 | 性做久久久久久久免费看 | 久久久精品成人免费观看 | 久久人人爽人人爽人人片av高清 | 装睡被陌生人摸出水好爽 | 国产激情综合五月久久 | 少妇被粗大的猛进出69影院 | 少妇人妻偷人精品无码视频 | 免费无码肉片在线观看 | 国产欧美精品一区二区三区 | 狠狠色色综合网站 | 精品厕所偷拍各类美女tp嘘嘘 | 99在线 | 亚洲 | 精品国产一区av天美传媒 | 又粗又大又硬又长又爽 | 伊人久久婷婷五月综合97色 | 粗大的内捧猛烈进出视频 | 欧美xxxx黑人又粗又长 | 日韩av无码一区二区三区 | 午夜免费福利小电影 | 狠狠色噜噜狠狠狠7777奇米 | 中文字幕 亚洲精品 第1页 | 最新国产乱人伦偷精品免费网站 | 女人被男人爽到呻吟的视频 | 一本久久伊人热热精品中文字幕 | 天堂无码人妻精品一区二区三区 | 日欧一片内射va在线影院 | av无码久久久久不卡免费网站 | 疯狂三人交性欧美 | 无码av最新清无码专区吞精 | 大肉大捧一进一出好爽视频 | 樱花草在线播放免费中文 | 国产一区二区三区四区五区加勒比 | 欧美怡红院免费全部视频 | 亚洲精品综合一区二区三区在线 | 久久久av男人的天堂 | 国产热a欧美热a在线视频 | 亚洲日韩精品欧美一区二区 | 精品日本一区二区三区在线观看 | 水蜜桃色314在线观看 | 成人精品一区二区三区中文字幕 | 亚洲精品一区二区三区在线 | 国产精品无套呻吟在线 | 无码帝国www无码专区色综合 | 午夜男女很黄的视频 | 成人片黄网站色大片免费观看 | 麻豆av传媒蜜桃天美传媒 | 2020最新国产自产精品 | 久久99久久99精品中文字幕 | 日日橹狠狠爱欧美视频 | 宝宝好涨水快流出来免费视频 | 国产精品无码久久av | 亚洲区欧美区综合区自拍区 | 成年美女黄网站色大免费视频 | 综合网日日天干夜夜久久 | 国产两女互慰高潮视频在线观看 | 亚洲人成网站免费播放 | 夜先锋av资源网站 | 六月丁香婷婷色狠狠久久 | 人人爽人人爽人人片av亚洲 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 少妇性荡欲午夜性开放视频剧场 | 久久aⅴ免费观看 | 欧美日本日韩 | 精品欧洲av无码一区二区三区 | 国产精品久久久久久亚洲毛片 | 久久国产36精品色熟妇 | 又湿又紧又大又爽a视频国产 | 女人高潮内射99精品 | 一本大道久久东京热无码av | 曰韩无码二三区中文字幕 | 欧美性生交xxxxx久久久 | 九九久久精品国产免费看小说 | 永久免费观看美女裸体的网站 | 国产精品-区区久久久狼 | 又紧又大又爽精品一区二区 | 国产麻豆精品一区二区三区v视界 | 久久无码中文字幕免费影院蜜桃 | 永久免费精品精品永久-夜色 | 亚洲色偷偷偷综合网 | 国产精品久久精品三级 | 国产人成高清在线视频99最全资源 | 亚洲精品欧美二区三区中文字幕 | 天堂无码人妻精品一区二区三区 | 欧美丰满熟妇xxxx | 亚洲无人区一区二区三区 | 狠狠色丁香久久婷婷综合五月 | 亚洲s码欧洲m码国产av | 撕开奶罩揉吮奶头视频 | 久久久国产精品无码免费专区 | 大地资源网第二页免费观看 | 又大又黄又粗又爽的免费视频 | 亚洲精品久久久久久久久久久 | 国内丰满熟女出轨videos | aa片在线观看视频在线播放 | 国产成人精品三级麻豆 | 久久伊人色av天堂九九小黄鸭 | 性欧美牲交xxxxx视频 | 樱花草在线社区www | 国产一区二区三区日韩精品 | 老太婆性杂交欧美肥老太 | 内射后入在线观看一区 | 性欧美熟妇videofreesex | 欧美精品免费观看二区 | 蜜臀aⅴ国产精品久久久国产老师 | 国产午夜无码精品免费看 | 麻豆成人精品国产免费 | 人人澡人人透人人爽 | 国产成人精品久久亚洲高清不卡 | 久久 国产 尿 小便 嘘嘘 | 蜜桃av抽搐高潮一区二区 | 欧美性色19p | 国产极品视觉盛宴 | 高清国产亚洲精品自在久久 | 亚洲 日韩 欧美 成人 在线观看 | 亚洲 高清 成人 动漫 | 欧美日韩色另类综合 | 久久亚洲精品成人无码 | 熟妇人妻无码xxx视频 | 亚洲最大成人网站 | 亚洲综合无码一区二区三区 | 麻豆精产国品 | 日本一区二区三区免费高清 | 九九综合va免费看 | 亚洲精品成a人在线观看 | 九九在线中文字幕无码 | 丰满人妻被黑人猛烈进入 | 国产口爆吞精在线视频 | 国产精品久免费的黄网站 | 国内揄拍国内精品人妻 | 丰满人妻一区二区三区免费视频 | 色综合天天综合狠狠爱 | 人妻aⅴ无码一区二区三区 | 国产疯狂伦交大片 | 18无码粉嫩小泬无套在线观看 | 天堂久久天堂av色综合 | 国产欧美精品一区二区三区 | 亚洲人亚洲人成电影网站色 | 99国产精品白浆在线观看免费 | 中文字幕乱码中文乱码51精品 | 乱人伦人妻中文字幕无码久久网 | 波多野结衣一区二区三区av免费 | 色综合久久久久综合一本到桃花网 | 乌克兰少妇xxxx做受 | 久久99热只有频精品8 | 亚洲国产精品无码一区二区三区 | 久久婷婷五月综合色国产香蕉 | 欧美精品一区二区精品久久 | 国产综合久久久久鬼色 | 国产三级精品三级男人的天堂 | 大地资源网第二页免费观看 | 久久五月精品中文字幕 | 亚洲欧美中文字幕5发布 | 久久综合九色综合97网 | 狠狠噜狠狠狠狠丁香五月 | 波多野结衣高清一区二区三区 | 青青草原综合久久大伊人精品 | 青春草在线视频免费观看 | 国产日产欧产精品精品app | 欧美熟妇另类久久久久久不卡 | 亚洲国产欧美在线成人 | 少妇被粗大的猛进出69影院 | 又色又爽又黄的美女裸体网站 | 国产美女极度色诱视频www | 国产精品美女久久久 | 国产无遮挡又黄又爽免费视频 | 国产成人午夜福利在线播放 | 国产乱码精品一品二品 | 亚洲va中文字幕无码久久不卡 | 网友自拍区视频精品 | 亚洲第一无码av无码专区 | 欧美怡红院免费全部视频 | 亚洲欧美国产精品专区久久 | 中文字幕无线码 | 国产三级久久久精品麻豆三级 | 偷窥日本少妇撒尿chinese | 精品厕所偷拍各类美女tp嘘嘘 | 亚洲欧美日韩国产精品一区二区 | 久久亚洲国产成人精品性色 | 3d动漫精品啪啪一区二区中 | 亚洲午夜无码久久 | 久久成人a毛片免费观看网站 | 初尝人妻少妇中文字幕 | 婷婷综合久久中文字幕蜜桃三电影 | 亚洲а∨天堂久久精品2021 | 久久99精品国产麻豆蜜芽 | 精品国产一区二区三区四区 | 国产猛烈高潮尖叫视频免费 | 欧美国产日韩久久mv | 日本熟妇大屁股人妻 | 欧美老熟妇乱xxxxx | 秋霞成人午夜鲁丝一区二区三区 | 人人妻人人澡人人爽欧美精品 | 色一情一乱一伦一视频免费看 | 成熟妇人a片免费看网站 | 色婷婷综合中文久久一本 | 99精品视频在线观看免费 | 香港三级日本三级妇三级 | 成人试看120秒体验区 | 精品一区二区不卡无码av | 亚洲一区二区三区在线观看网站 | 欧美人与禽zoz0性伦交 | 人妻插b视频一区二区三区 | 国产精品怡红院永久免费 | 免费观看又污又黄的网站 | 久久久久亚洲精品中文字幕 | 精品乱码久久久久久久 | 日韩av无码中文无码电影 | 亚洲最大成人网站 | 日日摸日日碰夜夜爽av | 精品无码成人片一区二区98 | 欧美人与禽猛交狂配 | 久久熟妇人妻午夜寂寞影院 | 成熟人妻av无码专区 | 思思久久99热只有频精品66 | 日本xxxx色视频在线观看免费 | 天海翼激烈高潮到腰振不止 | 免费观看又污又黄的网站 | 亚洲精品久久久久avwww潮水 | 久久国产自偷自偷免费一区调 | 欧美老人巨大xxxx做受 | 丰满人妻翻云覆雨呻吟视频 | 精品无码av一区二区三区 | 国产69精品久久久久app下载 | 国产办公室秘书无码精品99 | 成年美女黄网站色大免费全看 | 激情内射亚州一区二区三区爱妻 | 永久免费观看国产裸体美女 | 国内精品人妻无码久久久影院蜜桃 | 日韩欧美群交p片內射中文 | 婷婷五月综合激情中文字幕 | 无码人妻少妇伦在线电影 | 色婷婷香蕉在线一区二区 | 给我免费的视频在线观看 | 国产97在线 | 亚洲 | 中文字幕乱妇无码av在线 | 成熟女人特级毛片www免费 | 亚洲国产欧美日韩精品一区二区三区 | 国产成人无码午夜视频在线观看 | 精品午夜福利在线观看 | 特黄特色大片免费播放器图片 | 天天爽夜夜爽夜夜爽 | 亚洲精品久久久久中文第一幕 | 人妻插b视频一区二区三区 | 欧洲熟妇色 欧美 | 色婷婷久久一区二区三区麻豆 | 狂野欧美性猛交免费视频 | 天天摸天天透天天添 | 免费无码一区二区三区蜜桃大 | 久久精品无码一区二区三区 | 亚洲精品国产精品乱码视色 | 日本一本二本三区免费 | 无码国产乱人伦偷精品视频 | 狂野欧美性猛xxxx乱大交 | 国产精品美女久久久网av | 日韩精品a片一区二区三区妖精 | aⅴ亚洲 日韩 色 图网站 播放 | 国产后入清纯学生妹 | 亚洲精品美女久久久久久久 | 国产综合在线观看 | 成人三级无码视频在线观看 | 东北女人啪啪对白 | 自拍偷自拍亚洲精品10p | 在线观看国产一区二区三区 | 亚洲中文无码av永久不收费 | 天天摸天天透天天添 | 无码av岛国片在线播放 | 99re在线播放 | 精品久久久无码人妻字幂 | 精品乱码久久久久久久 | 国产口爆吞精在线视频 | 成人综合网亚洲伊人 | 亚洲色成人中文字幕网站 | 美女毛片一区二区三区四区 | 小sao货水好多真紧h无码视频 |