久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

DSS部署-完整版

發布時間:2023/12/10 编程问答 41 豆豆
生活随笔 收集整理的這篇文章主要介紹了 DSS部署-完整版 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

文章目錄

  • DSS部署流程
    • 第一部分、 背景
    • 第二部分、準備虛擬機、環境初始化
      • 1、準備虛擬機
      • 2、環境初始化
          • 關閉防火墻
          • 關閉selinux
          • 關閉swap
          • 根據規劃設置主機名
          • 在master添加hosts
          • 將橋接的IPv4流量傳遞到iptables的鏈
          • 時間同步
          • 安裝如下軟件
      • 3、準備備如下軟件包
    • 第三部分、創建hadoop用戶
    • 第四部分、配置JDK
      • 卸載原JDK
        • 步驟一:查詢系統是否以安裝jdk
        • 步驟二:卸載已安裝的jdk
        • 步驟三:驗證一下是還有jdk
        • 實際操作記錄如下
      • 安裝新JDK
        • (1) 去下載Oracle版本Java JDK:jdk-8u261-linux-x64.tar.gz
        • (2) 將jdk-7u67-linux-x64.tar.gz解壓到/opt/modules目錄下
        • (3) 添加環境變量
        • (4)安裝后再次執行 java –version,可以看見已經安裝完成。
    • 第五部分 Scala部署
    • 第六部分、安裝MySQL5.7.25
    • 第七部分、安裝python3
      • 安裝依賴環境
    • 第八部分、nginx【dss會自動安裝】
      • 安裝所需環境
      • 官網下載
      • 解壓
      • 配置
      • 編譯安裝
      • 啟動、停止nginx
      • 重啟 nginx
      • ==設置nginx的服務(dss所需)==
      • ==增加conf.d文件夾(dss所需)==
      • 開機自啟動
      • 徹底刪除nginx
    • 第九部分、安裝hadoop(偽分布式)
      • 解壓Hadoop目錄文件
      • 配置Hadoop
        • 1、 配置Hadoop環境變量
        • 2、 配置 hadoop-env.sh、mapred-env.sh、yarn-env.sh文件的JAVA_HOME參數
        • 3、 配置core-site.xml
      • 配置、格式化、啟動HDFS
        • 1、 配置hdfs-site.xml
        • 2、 格式化HDFS
        • 3、 啟動NameNode
        • 4、 啟動DataNode
        • 5、 啟動SecondaryNameNode
        • 6、 JPS命令查看是否已經啟動成功,有結果就是啟動成功了。
        • 7、 HDFS上測試創建目錄、上傳、下載文件
      • 配置、啟動YARN
        • 1、 配置mapred-site.xml
        • 2、 配置yarn-site.xml
        • 3、 啟動Resourcemanager
        • 4、 啟動nodemanager
        • 5、 查看是否啟動成功
        • 6、 YARN的Web頁面
      • 運行MapReduce Job
        • 1、 創建測試用的Input文件
        • 2、 運行WordCount MapReduce Job
        • 3、 查看輸出結果目錄
      • Hadoop各個功能模塊的理解
        • 1、 HDFS模塊
        • 2、 YARN模塊
        • 3、 MapReduce模塊
      • 開啟歷史服務
      • 歷史服務介紹
      • Web查看job執行歷史
        • 1、 運行一個mapreduce任務
        • 2、 job執行中
        • 3、 查看job歷史
        • 4、 日志聚集介紹
        • 5、 開啟日志聚集
        • 6、 測試日志聚集
    • 第十部分、Hive安裝部署
      • 安裝部署Hive
      • 配置hive-site.xml
      • 配置hive-log4j2.properties錯誤日志
      • 修改hive-env.sh
      • 初始化hive元數據
      • 處理Driver異常
      • 啟動hive
    • 第十一部分、Spark on Yarn部署
      • 相關配置
      • 操作記錄如下
      • spark-sql -e "show databases"
    • 第十二部分、DSS一鍵安裝
      • 一、使用前環境準備
        • a. 基礎軟件安裝
        • b. 創建用戶
        • c.安裝準備
        • d. 修改配置
        • e. 修改數據庫配置
        • f. 修改wedatasphere-dss-web-1.0.1-dist配置
      • 二、安裝和使用
        • 1. 執行安裝腳本:
        • 2. 安裝步驟
        • 3. 是否安裝成功:
        • 4. 啟動服務
          • (1) 啟動服務:
          • (2) 查看是否啟動成功
          • (3) 谷歌瀏覽器訪問:
          • (4) 停止服務:
          • (5) 安裝成功后,有6個DSS服務,8個Linkis服務
        • 5.安裝日志 install.sh
        • 6.啟動腳本 start-all.sh
        • 7.日志說明
      • 三、相關訪問地址
    • 第十三部分、幫助
      • 一、軟連接的創建、刪除、修改
        • 1、軟鏈接創建
        • 2、刪除
        • 3、修改
      • 二、sudo指令和/etc/sudoers文件說明

  • 準備kvm虛擬機
  • 環境準備:基礎軟件安裝[telnet,tar,sed,dos2unix,yum,zip,unzip,expect,net-tools,ping,curl,]
  • 創建用戶
  • 配置JDK:JDK (1.8.0_141以上)
  • 配置Scala:scala
  • 安裝MySQL:MySQL (5.5+)
  • 安裝Python:phthon2(如果用python3需要修改dss中的相關配置,建議使用python2)
  • 安裝nginx:nginx
  • 安裝hadoop2.7.2
  • 安裝hive2.3.3
  • 安裝spark2.0
  • 安裝準備[linkis,dss,dss-web],修改配置,修改數據庫配置
  • 執行安裝腳本,安裝步驟,是否安裝成功,啟動服務

DSS部署流程

GitHub :linjie_830914

本文主要用于指導用戶進行 DataSphereStudio 的安裝、部署,以便用戶可以快速入手 和認識其核心功能。

第一部分、 背景

自主研發的大數據中臺產品,用以幫助用戶快速收集數據、整理數據、構建數倉、數據服務以及數據資產管理。其中涉及很多大數據組件,各個組件都有各自的API,導致開發者學習成本較高,也不易于維護。

故考慮部署學習DSS,基于DSS為客戶提供服務。

第二部分、準備虛擬機、環境初始化

1、準備虛擬機

首先通過 qemu-img 創建虛擬磁盤文件

#qemu-img create -f qcow2 -o size=50G,preallocation=metadata CentOS7.qcow2

安裝虛擬機命令:

#virt-install --name=kvmdss --virt-type=kvm --vcpus=4 --ram=10240 --location=/home/kvm/iso/CentOS-7.2-x86_64-Minimal-1511.iso --disk path=/home/kvm/img/kvmdss.img,size=50,format=qcow2 --network bridge=virbr0 --graphics=none --extra-args='console=ttyS0' --force

–name 虛擬機名

–memory 內存(默認單位: MB)

–disk 指定虛擬磁盤文件,format指定虛擬磁盤格式,bus 指定半虛擬化(virtio) cache 指定磁盤緩存(回寫)

–network 執行網絡,不指定網絡是無法啟動的。bridge 執行網橋設備 model 指定虛擬網卡為半虛擬化,優化性能

–graphics 通過什么方式訪問界面,這里使用 vnc ,否則無法輸入。

–noautoconsole 不用在界面直接彈出安裝界面,后面可以通過 virt-view centos 喚出圖形界面

查看此機器是否支持虛擬化:grep -i 'vmx\|svm' /proc/cpuinfo

vmx是英特爾CPU,svm是AMD的CPU

虛擬機操作

  • 進入 virsh console kvmdss

  • 查看 virsh list --all

  • 啟動 virsh start kvmdss

  • 重啟 virsh reboot kvmdss

  • 暫停 virsh suspend kvmdss

  • 恢復暫停 virsh resume kvmdss

  • 關閉 virsh shutdown kvmdss

  • 強制停止 virsh destroy kvmdss

  • 開機啟動指定的虛擬機:virsh autostart feng01

  • 取消開機啟動:virsh autostart --disable feng01

  • 掛起虛擬機(相當于windows睡眠):virsh suspend feng01

  • 恢復掛起的虛擬機:virsh resume feng01

克隆虛擬機:
克隆虛擬機前需要先關機,按feng01機器克隆feng02機器:

virt-clone --original feng01 --name feng02 --file /kvm_data/feng02.img

– original feng01 :克隆源

–name feng02 ;克隆機器的名字

–file /kvm_data/feng02.img : 文件放在那里

鏡像操作

  • 創建鏡像 virsh snapshot-create-as kvmdss kvmdss-image
  • 查看鏡像 virsh snapshot-lisk kvmdss
  • 刪除鏡像 virsh snapshot-delete kvmdss kvmdss-image
  • 恢復鏡像 virsh snapshot-revert kvmdss-image
  • 查看當前快照版本:virsh snapshot-current kvmdss

2、環境初始化

關閉防火墻
systemctl stop firewalld && systemctl disable firewalld
關閉selinux
sed -i 's/enforcing/disabled/' /etc/selinux/config # 永久 setenforce 0 # 臨時
關閉swap
swapoff -a # 臨時 sed -ri 's/.*swap.*/#&/' /etc/fstab # 永久
根據規劃設置主機名
hostnamectl set-hostname <hostname>
在master添加hosts
cat >> /etc/hosts << EOF 192.168.100.61 k8s-master1 192.168.100.62 k8s-node1 192.168.100.63 k8s-node2 192.168.100.64 k8s-master2 EOF
將橋接的IPv4流量傳遞到iptables的鏈
cat > /etc/sysctl.d/k8s.conf << EOF net.bridge.bridge-nf-call-ip6tables = 1 net.bridge.bridge-nf-call-iptables = 1 EOF sysctl --system # 生效
時間同步
yum install ntpdate -y && ntpdate time.windows.com
安裝如下軟件

需要zip,官網少一個zip包

yum install -y wget vim telnet tar sed dos2unix zip unzip expect net-tools ping curl

3、準備備如下軟件包

jdk\sscala\mysql\python2\nginx\hadoop2.7.2\hive2.3.3\spark2.0

下載鏈接:https://pan.baidu.com/s/1ydHvk3jc_hAozbbQvBT2Wg,提取碼:ojn9

https://blog.csdn.net/weixin_33955681/article/details/92958527)

第三部分、創建hadoop用戶

1、創建一個名字為hadoop的普通用戶

[root@bigdata-senior01 ~]# useradd hadoop [root@bigdata-senior01 ~]# passwd hadoop

2、 給hadoop用戶sudo權限
注意:如果root用戶無權修改sudoers文件,先手動為root用戶添加寫權限。

[root@bigdata-senior01 ~]# chmod u+w /etc/sudoers

給hadoop用戶sudo授權

[root@bigdata-senior01 ~]# vim /etc/sudoers

設置權限,學習環境可以將hadoop用戶的權限設置的大一些,但是生產環境一定要注意普通用戶的權限限制。

root ALL=(ALL) ALL hadoop ALL=(root) NOPASSWD:ALL

3、 切換到hadoop用戶

[root@bigdata-senior01 ~]# su - hadoop [hadoop@bigdata-senior01 ~]$

4、 創建存放hadoop文件的目錄

[hadoop@bigdata-senior01 ~]$ sudo mkdir /opt/{modules,data}

5、 將hadoop文件夾的所有者指定為hadoop用戶
如果存放hadoop的目錄的所有者不是hadoop,之后hadoop運行中可能會有權限問題,那么就講所有者改為hadoop。

[hadoop@bigdata-senior01 ~]# sudo chown -R hadoop:hadoop /opt/modules

第四部分、配置JDK

參考資料
注意:Hadoop機器上的JDK,最好是Oracle的JavaJDK,不然會有一些問題,比如可能沒有JPS命令。
如果安裝了其他版本的JDK,卸載掉。

卸載原JDK

步驟一:查詢系統是否以安裝jdk

#rpm -qa|grep java

#rpm -qa|grep jdk

#rpm -qa|grep gcj

步驟二:卸載已安裝的jdk

#rpm -e --nodeps java-1.8.0-openjdk-1.8.0.131-11.b12.el7.x86_64 #rpm -e --nodeps java-1.7.0-openjdk-1.7.0.141-2.6.10.5.el7.x86_64 #rpm -e --nodeps java-1.8.0-openjdk-headless-1.8.0.131-11.b12.el7.x86_64 #rpm -e --nodeps java-1.7.0-openjdk-headless-1.8.0.131-11.b12.el7.x86_64

步驟三:驗證一下是還有jdk

#rpm -qa|grep java #java -version

沒有內容證明已經卸載干凈了

實際操作記錄如下

[root@localhost ~]# java -version openjdk version "1.8.0_262" OpenJDK Runtime Environment (build 1.8.0_262-b10) OpenJDK 64-Bit Server VM (build 25.262-b10, mixed mode) [root@localhost ~]# rpm -qa|grep jdk java-1.8.0-openjdk-headless-1.8.0.262.b10-1.el7.x86_64 copy-jdk-configs-3.3-10.el7_5.noarch java-1.7.0-openjdk-headless-1.7.0.261-2.6.22.2.el7_8.x86_64 java-1.8.0-openjdk-1.8.0.262.b10-1.el7.x86_64 java-1.7.0-openjdk-1.7.0.261-2.6.22.2.el7_8.x86_64 [root@localhost ~]# [root@localhost ~]# rpm -e --nodeps java-1.8.0-openjdk-headless-1.8.0.262.b10-1.el7.x86_64 copy-jdk-configs-3.3-10.el7_5.noarch java-1.7.0-openjdk-headless-1.7.0.261-2.6.22.2.el7_8.x86_64 java-1.8.0-openjdk-1.8.0.262.b10-1.el7.x86_64 java-1.7.0-openjdk-1.7.0.261-2.6.22.2.el7_8.x86_64 [root@localhost ~]# rpm -qa|grep jdk [root@localhost ~]#

安裝新JDK

(1) 去下載Oracle版本Java JDK:jdk-8u261-linux-x64.tar.gz

Java Archive Downloads - Java SE 7 (oracle.com)

(2) 將jdk-7u67-linux-x64.tar.gz解壓到/opt/modules目錄下

mkdir -p /opt/modules sudo tar -zxvf jdk-8u261-linux-x64.tar.gz -C /opt/modules

(3) 添加環境變量

設置JDK的環境變量 JAVA_HOME。需要修改配置文件/etc/profile,追加

sudo vim /etc/profile export JAVA_HOME="/opt/modules/jdk1.8.0_261" export PATH=$JAVA_HOME/bin:$PATH

修改完畢后,執行 source /etc/profile

(4)安裝后再次執行 java –version,可以看見已經安裝完成。

[root@localhost jdk1.8.0_261]# java -version java version "1.8.0_261" Java(TM) SE Runtime Environment (build 1.8.0_261-b12) Java HotSpot(TM) 64-Bit Server VM (build 25.261-b12, mixed mode) [root@localhost hadoop]#

第五部分 Scala部署

[hadoop@bigdata-senior01 modules]$ pwd /opt/modules [hadoop@bigdata-senior01 modules]$ tar xf scala-2.12.7.tgz [hadoop@bigdata-senior01 modules]$ ll total 1478576 drwxrwxr-x 10 hadoop hadoop 184 Jan 4 22:41 apache-hive-2.3.3 -rw-r--r-- 1 hadoop hadoop 232229830 Jan 4 21:41 apache-hive-2.3.3-bin.tar.gz drwxr-xr-x 10 hadoop hadoop 182 Jan 4 22:14 hadoop-2.8.5 -rw-r--r-- 1 hadoop hadoop 246543928 Jan 4 21:41 hadoop-2.8.5.tar.gz drwxr-xr-x 8 hadoop hadoop 273 Jun 17 2020 jdk1.8.0_261 -rw-r--r-- 1 hadoop hadoop 143111803 Jan 4 21:41 jdk-8u261-linux-x64.tar.gz drwxr-xr-x 2 root root 6 Jan 4 22:29 mysql-5.7.25-linux-glibc2.12-x86_64 -rw-r--r-- 1 root root 644862820 Jan 4 22:27 mysql-5.7.25-linux-glibc2.12-x86_64.tar.gz -rw-r--r-- 1 hadoop hadoop 1006904 Jan 4 21:41 mysql-connector-java-5.1.49.jar drwxrwxr-x 6 hadoop hadoop 50 Sep 27 2018 scala-2.12.7 -rw-r--r-- 1 hadoop hadoop 20415505 Jan 4 21:41 scala-2.12.7.tgz -rw-r--r-- 1 hadoop hadoop 225875602 Jan 4 21:41 spark-2.3.2-bin-hadoop2.7.tgz [hadoop@bigdata-senior01 scala-2.12.7]$ pwd /opt/modules/scala-2.12.7 [hadoop@bigdata-senior01 scala-2.12.7]$ [hadoop@bigdata-senior01 modules]$vim /etc/profile export SCALA_HOME="/opt/modules/scala-2.12.7" export PATH=$SCALA_HOME/bin:$PATH [hadoop@bigdata-senior01 scala-2.12.7]$ sudo vim /etc/profile [hadoop@bigdata-senior01 scala-2.12.7]$ source /etc/profile [hadoop@bigdata-senior01 scala-2.12.7]$ echo $SCALA_HOME /opt/modules/scala-2.12.7 [hadoop@bigdata-senior01 scala-2.12.7]$ scala Welcome to Scala 2.12.7 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_261). Type in expressions for evaluation. Or try :help.scala>

參考
linux CentOS7 安裝scala

https://blog.csdn.net/weixin_33955681/article/details/92958527)

第六部分、安裝MySQL5.7.25

1、刪除centos系統自帶的mariadb數據庫防止發生沖突

rpm -qa|grep mariadb rpm -e mariadb-libs --nodeps

2、安裝libaio庫
yum -y install libaio

3、下載并解壓mysql-5.7.25

cd /opt/modules/ wget https://dev.mysql.com/get/Downloads/MySQL-5.7/mysql-5.7.25-linux-glibc2.12-x86_64.tar.gz tar xzvf mysql-5.7.25-linux-glibc2.12-x86_64.tar.gz

4、查看是否有mysql用戶和mysql用戶組

cat /etc/passwd|grep mysql cat /etc/group|grep mysql# 如果存在,則刪除用戶和用戶組userdel -r mysql

5、創建mysql用戶及其用戶組

groupadd mysql useradd -r -g mysql mysql

6、設置mysql用戶為非登陸用戶
usermod -s /sbin/nologin mysql

7、創建basedir、datadir目錄、pid文件

mkdir /opt/mysql mkdir /opt/mysql/data mv mysql-5.7.25-linux-glibc2.12-x86_64/* /opt/mysql/ touch /opt/mysql/mysqld.pid chown -R mysql:mysql /opt/mysql

8、創建日志

touch /var/log/mysqld.log chown mysql:mysql /var/log/mysqld.log

9、創建socket文件

touch /tmp/mysql.sock chown mysql:mysql /tmp/mysql.sock

10、創建配置文件vim /etc/my.cnf并加入如下內容

[mysqld] character-set-server=utf8 user=mysql port=3306 basedir=/opt/mysql datadir=/opt/mysql/data socket=/tmp/mysql.sock[mysqld_safe] log-error=/var/log/mysqld.log pid-file=/opt/mysql/mysqld.pid[client] port=3306 socket=/tmp/mysql.sock

11、安裝初始化

cd /opt/mysql/bin/ ./mysqld --defaults-file=/etc/my.cnf --initialize --user=mysql

成功即為如下圖所示,記錄臨時密碼。

[root@bigdata-senior01 modules]# mv mysql-5.7.25-linux-glibc2.12-x86_64/* /opt/mysql/ [root@bigdata-senior01 modules]# touch /opt/mysql/mysqld.pid [root@bigdata-senior01 modules]# chown -R mysql:mysql /opt/mysql [root@bigdata-senior01 modules]# touch /var/log/mysqld.log [root@bigdata-senior01 modules]# chown mysql:mysql /var/log/mysqld.log [root@bigdata-senior01 modules]# touch /tmp/mysql.sock [root@bigdata-senior01 modules]# chown mysql:mysql /tmp/mysql.sock [root@bigdata-senior01 modules]# vim /etc/my.cnf [root@bigdata-senior01 modules]# cd /opt/mysql/bin/ [root@bigdata-senior01 bin]# ./mysqld --defaults-file=/etc/my.cnf --initialize --user=mysql 2022-01-05T06:30:34.747800Z 0 [Warning] TIMESTAMP with implicit DEFAULT value is deprecated. Please use --explicit_defaults_for_timestamp server option (see documentation for more details). 2022-01-05T06:30:35.045935Z 0 [Warning] InnoDB: New log files created, LSN=45790 2022-01-05T06:30:35.085211Z 0 [Warning] InnoDB: Creating foreign key constraint system tables. 2022-01-05T06:30:35.167573Z 0 [Warning] No existing UUID has been found, so we assume that this is the first time that this server has been started. Generating a new UUID: fd58c915-6df0-11ec-96b4-000c297b38d9. 2022-01-05T06:30:35.179666Z 0 [Warning] Gtid table is not ready to be used. Table 'mysql.gtid_executed' cannot be opened. 2022-01-05T06:30:35.185087Z 1 [Note] A temporary password is generated for root@localhost: &:yE0ZgoexP1 [root@bigdata-senior01 bin]#

臨時密碼:&:yE0ZgoexP1

kvm的虛擬機密碼:

Lkp>amgj>3Ys

12、設置開機啟動
復制啟動腳本到資源目錄:
cp ../support-files/mysql.server /etc/rc.d/init.d/mysqld
增加mysqld控制腳本權限:
chmod +x /etc/rc.d/init.d/mysqld
將mysqld加入到系統服務:
chkconfig --add mysqld
檢查mysqld服務是否生效:
chkconfig --list mysqld
命令輸出類似如下:

[root@hadoop bin]# ll ../support-files/mysql.server -rwxr-xr-x 1 mysql mysql 10576 Dec 21 2018 ../support-files/mysql.server [root@hadoop bin]# cp ../support-files/mysql.server /etc/rc.d/init.d/mysqld [root@hadoop bin]# chmod +x /etc/rc.d/init.d/mysqld [root@hadoop bin]# chkconfig --add mysqld [root@hadoop bin]# chkconfig --list mysqldNote: This output shows SysV services only and does not include nativesystemd services. SysV configuration data might be overridden by nativesystemd configuration.If you want to list systemd services use 'systemctl list-unit-files'.To see services enabled on particular target use'systemctl list-dependencies [target]'.mysqld 0:off 1:off 2:on 3:on 4:on 5:on 6:off [root@hadoop bin]#

現在即可使用service命令控制mysql啟動、停止。

PS:刪除啟動命令:
chkconfig --del mysqld

13、啟動mysqld服務
service mysqld start

[root@hadoop bin]# chkconfig --del mysqld [root@hadoop bin]# service mysqld start Starting MySQL. SUCCESS! [root@hadoop bin]#

14、環境變量配置
編輯/etc/profile,加入如下內容:
export PATH=$PATH:/opt/mysql/bin
執行命令使其生效:

source /etc/profile

15、登錄mysql(使用隨機生成的那個密碼)
mysql -uroot -p'Lkp>amgj>3Ys'
修改root密碼:
mysql> alter user "root"@"localhost" identified by "abcd123";
刷新權限:
mysql> flush privileges;
退出mysql,使用新密碼登錄mysql。

[root@hadoop bin]# vim /etc/profile [root@hadoop bin]# source /etc/profile [root@hadoop bin]# mysql -uroot -p Enter password: Welcome to the MySQL monitor. Commands end with ; or \g. Your MySQL connection id is 5 Server version: 5.7.25Copyright (c) 2000, 2019, Oracle and/or its affiliates. All rights reserved.Oracle is a registered trademark of Oracle Corporation and/or its affiliates. Other names may be trademarks of their respective owners.Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.mysql> alter user "root"@"localhost" identified by "abcd123"; Query OK, 0 rows affected (0.00 sec)mysql> flush privileges; Query OK, 0 rows affected (0.00 sec) mysql> exit Bye [root@hadoop bin]# mysql -uroot -pabcd123 mysql: [Warning] Using a password on the command line interface can be insecure. Welcome to the MySQL monitor. Commands end with ; or \g. Your MySQL connection id is 6 Server version: 5.7.25 MySQL Community Server (GPL)Copyright (c) 2000, 2019, Oracle and/or its affiliates. All rights reserved.Oracle is a registered trademark of Oracle Corporation and/or its affiliates. Other names may be trademarks of their respective owners.Type 'help;' or '\h' for help. Type '\c' to clear the current input statement.mysql>

16、添加遠程登錄用戶

默認只允許 root 帳戶在本地登錄mysql,如果要在其它機器上連接MySQL,必須修改 root 允許遠程連接,或者添加一個允許遠程連接的帳戶,為了安全起見,可以添加一個新的帳戶。

mysql> grant all privileges on *.* to "root"@"%" identified by "abcd123" with grant option;

17、開啟防火墻mysql3306端口的外部訪問

firewall-cmd --zone=public --add-port=3306/tcp --permanent firewall-cmd --reload

參數說明:

–zone:作用域,網絡區域定義了網絡連接的可信等級。
–add-port:添加端口與通信協議,格式:端口/通信協議,協議為tcp或udp。
–permanent:永久生效,沒有此參數系統重啟后端口訪問失敗。
18、重新啟動mysql
[root@test ~]# systemctl restart mysqld.service
19、常見錯誤
1 mysql5.7初始化密碼報錯 ERROR 1820 (HY000): You must reset your password using ALTER USER statement before
2 修改mysql密碼出現報錯:ERROR 1064 (42000): You have an error in your SQL syntax; check the manual that corres
3 ERROR 1820 (HY000): You must reset your password using ALTER USER statement before executing this st
4 centos mysql 端口_Linux CentOS Mysql修改默認端口
5 mysql 5.7安全策略設置 報錯ERROR 1193 (HY000): Unknown system variable 'validate_password
6 CentOS 7下啟動、關閉、重啟、查看MySQL服務
7 centos7 安裝MySQL7 并更改初始化密碼

在Linux上安裝Python3 - lemon鋒 - 博客園 (cnblogs.com)

第七部分、安裝python3

dss默認使用python2,如果用python3需要該配置,建議默認使用python3,安裝方法與python3類似

下載pip(適用于python3)curl https://bootstrap.pypa.io/get-pip.py -o get-pip.py下載pip(適用于python2)curl https://bootstrap.pypa.io/pip/2.7/get-pip.py -o get-pip.py安裝pippython get-pip.py升級pippip install --upgrade pip安裝matplotlibpython -m pip install -i https://pypi.tuna.tsinghua.edu.cn/simple matplotlibpip install matplotlib

安裝依賴環境

輸入命令:

# 安裝依賴環境 yum -y install zlib-devel bzip2-devel openssl-devel ncurses-devel sqlite-devel readline-devel tk-devel gdbm-devel db4-devel libpcap-devel xz-devel# 下載python包 wget https://www.python.org/ftp/python/3.7.1/Python-3.7.1.tgztar -zxvf Python-3.7.1.tgzyum install gcc# 3.7版本之后需要一個新的包libffi-devel yum install libffi-devel -ycd Python-3.7.1./configure --prefix=/usr/local/python3 編譯: make編譯成功后,編譯安裝: make install檢查python3.7的編譯器: /usr/local/python3/bin/python3.7建立Python3和pip3的軟鏈: ln -s /usr/local/python3/bin/python3 /usr/bin/python3 ln -s /usr/local/python3/bin/pip3 /usr/bin/pip3# 會導致yum報錯,詳見本文最后并將/usr/local/python3/bin加入PATH(1)vim /etc/profile (2)按“I”,然后貼上下面內容:# vim ~/.bash_profile # .bash_profile # Get the aliases and functions if [ -f ~/.bashrc ]; then . ~/.bashrc fi # User specific environment and startup programs PATH=$PATH:$HOME/bin:/usr/local/python3/bin export PATHsource ~/.bash_profile檢查Python3及pip3是否正??捎?#xff1a; python3 -V pip3 -V

python2的處理

yum -y install epel-release yum -y install python-pip

第八部分、nginx【dss會自動安裝】

CentOS7安裝Nginx

文章轉自:https://www.cnblogs.com/liujuncm5/p/6713784.html

安裝所需環境

Nginx 是 C語言 開發,建議在 Linux 上運行,當然,也可以安裝 Windows 版本,本篇則使用 CentOS 7 作為安裝環境。

一. gcc 安裝
安裝 nginx 需要先將官網下載的源碼進行編譯,編譯依賴 gcc 環境,如果沒有 gcc 環境,則需要安裝:

yum install -y gcc-c++

二. PCRE pcre-devel 安裝
PCRE(Perl Compatible Regular Expressions) 是一個Perl庫,包括 perl 兼容的正則表達式庫。nginx 的 http 模塊使用 pcre 來解析正則表達式,所以需要在 linux 上安裝 pcre 庫,pcre-devel 是使用 pcre 開發的一個二次開發庫。nginx也需要此庫。命令:

yum install -y pcre pcre-devel

三. zlib 安裝
zlib 庫提供了很多種壓縮和解壓縮的方式, nginx 使用 zlib 對 http 包的內容進行 gzip ,所以需要在 Centos 上安裝 zlib 庫。

yum install -y zlib zlib-devel

四. OpenSSL 安裝
OpenSSL 是一個強大的安全套接字層密碼庫,囊括主要的密碼算法、常用的密鑰和證書封裝管理功能及 SSL 協議,并提供豐富的應用程序供測試或其它目的使用。
nginx 不僅支持 http 協議,還支持 https(即在ssl協議上傳輸http),所以需要在 Centos 安裝 OpenSSL 庫。

yum install -y openssl openssl-devel

官網下載

1.直接下載.tar.gz安裝包,地址:https://nginx.org/en/download.html

2.使用wget命令下載(推薦)。確保系統已經安裝了wget,如果沒有安裝,執行 yum install wget 安裝。

wget -c https://nginx.org/download/nginx-1.21.6.tar.gz

我下載的是1.12.0版本,這個是目前的穩定版。

解壓

依然是直接命令:

tar -zxvf nginx-1.21.6.tar.gz cd /opt/modules/nginx-1.21.6

配置

其實在 nginx-1.12.0 版本中你就不需要去配置相關東西,默認就可以了。當然,如果你要自己配置目錄也是可以的。
1.使用默認配置

./configure

2.自定義配置(不推薦)

./configure \ --prefix=/usr/local/nginx \ --conf-path=/usr/local/nginx/conf/nginx.conf \ --pid-path=/usr/local/nginx/conf/nginx.pid \ --lock-path=/var/lock/nginx.lock \ --error-log-path=/var/log/nginx/error.log \ --http-log-path=/var/log/nginx/access.log \ --with-http_gzip_static_module \ --http-client-body-temp-path=/var/temp/nginx/client \ --http-proxy-temp-path=/var/temp/nginx/proxy \ --http-fastcgi-temp-path=/var/temp/nginx/fastcgi \ --http-uwsgi-temp-path=/var/temp/nginx/uwsgi \ --http-scgi-temp-path=/var/temp/nginx/scgi

注:將臨時文件目錄指定為/var/temp/nginx,需要在/var下創建temp及nginx目錄

編譯安裝

make make install

查找安裝路徑:

whereis nginx

啟動、停止nginx

cd /usr/local/nginx/sbin/ ./nginx ./nginx -s stop ./nginx -s quit ./nginx -s reload 啟動時報80端口被占用: nginx: [emerg] bind() to 0.0.0.0:80 failed (98: Address already in use)

解決辦法:1、安裝net-tool 包:

yum install net-tools

./nginx -s quit:此方式停止步驟是待nginx進程處理任務完畢進行停止。
./nginx -s stop:此方式相當于先查出nginx進程id再使用kill命令強制殺掉進程。

查詢nginx進程:

ps aux|grep nginx

重啟 nginx

1.先停止再啟動(推薦):
對 nginx 進行重啟相當于先停止再啟動,即先執行停止命令再執行啟動命令。如下:

./nginx -s quit ./nginx

2.重新加載配置文件:
當 ngin x的配置文件 nginx.conf 修改后,要想讓配置生效需要重啟 nginx,使用-s reload不用先停止 ngin x再啟動 nginx 即可將配置信息在 nginx 中生效,如下:
./nginx -s reload

啟動成功后,在瀏覽器可以看到這樣的頁面:

設置nginx的服務(dss所需)

vim /usr/lib/systemd/system/nginx.servicevim /usr/local/nginx/logs/nginx.pidmkdir -p /etc/nginx/conf.d

nginx.service腳本如下:

[Unit] Description=nginx - high performance web server Documentation=http://nginx.org/en/docs/ After=network.target remote-fs.target nss-lookup.target[Service] Type=forking PIDFile=/usr/local/nginx/logs/nginx.pid ExecStartPre=/usr/local/nginx/sbin/nginx -t -c /usr/local/nginx/conf/nginx.conf ExecStart=/usr/local/nginx/sbin/nginx -c /usr/local/nginx/conf/nginx.conf ExecReload=/bin/kill -s HUP $MAINPID ExecStop=/bin/kill -s QUIT $MAINPID PrivateTmp=true[Install] WantedBy=multi-user.target

開始開機啟動腳本如下:

systemctl enable nginx.service systemctl start nginx.service

增加conf.d文件夾(dss所需)

創建 /etc/nginx/conf.d 文件夾

在原來文件/etc/nginx/nginx.conf 的http 塊下加一句話就可以了:

include /etc/nginx/conf.d/*.conf;

增加nginx虛擬主機配置文件(conf.d) - 與f - 博客園 (cnblogs.com)

開機自啟動

即在rc.local增加啟動代碼就可以了。

vi /etc/rc.local

增加一行 /usr/local/nginx/sbin/nginx

設置鏈接(安裝dss用到):

ln -s /usr/local/nginx /etc/nginx

設置執行權限:

chmod 755 rc.local

到這里,nginx就安裝完畢了,啟動、停止、重啟操作也都完成了,當然,你也可以添加為系統服務,我這里就不在演示了。

CentOS7安裝Nginx - boonya - 博客園 (cnblogs.com)

--------------------------------------分割線 --------------------------------------

Nginx負載均衡配置實戰 http://www.linuxidc.com/Linux/2014-12/110036.htm

CentOS 6.2實戰部署Nginx+MySQL+PHP http://www.linuxidc.com/Linux/2013-09/90020.htm

使用Nginx搭建WEB服務器 http://www.linuxidc.com/Linux/2013-09/89768.htm

搭建基于Linux6.3+Nginx1.2+PHP5+MySQL5.5的Web服務器全過程 http://www.linuxidc.com/Linux/2013-09/89692.htm

CentOS 6.3下Nginx性能調優 http://www.linuxidc.com/Linux/2013-09/89656.htm

CentOS 6.3下配置Nginx加載ngx_pagespeed模塊 http://www.linuxidc.com/Linux/2013-09/89657.htm

CentOS 6.4安裝配置Nginx+Pcre+php-fpm http://www.linuxidc.com/Linux/2013-08/88984.htm

Nginx安裝配置使用詳細筆記 http://www.linuxidc.com/Linux/2014-07/104499.htm

Nginx日志過濾 使用ngx_log_if不記錄特定日志 http://www.linuxidc.com/Linux/2014-07/104686.htm

--------------------------------------分割線 --------------------------------------

Nginx 的詳細介紹:請點這里
Nginx 的下載地址:請點這里

徹底刪除nginx

在開局配置Nginx時有可能會配置錯誤,報各種錯誤代碼??床欢蛘邞械萌タ催@個報錯時,其實最簡單的方式是卸載并重裝咯。今天就帶大家一起學習下,如何徹底卸載nginx程序。

卸載nginx程序的詳細步驟

1、停止Nginx軟件

/usr/local/nginx/sbin/nginx -s stop
如果不知道nginx安裝路徑,可以通過執行ps命令找到nginx程序的PID,然后kill其PID

2、查找根下所有名字包含nginx的文件

find / -name nginx

3、執行命令 rm -rf *刪除nignx安裝的相關文件

說明:全局查找往往會查出很多相關文件,但是前綴基本都是相同,后面不同的部分可以用*代替,以便快速刪除~

[root@qll251 ~]# rm -rf /usr/local/sbin/nginx
[root@qll251 ~]# rm -rf /usr/local/nginx
[root@qll251 ~]# rm -rf /usr/src/nginx-1.11.1
[root@qll251 ~]# rm -rf /var/spool/mail/nginx
4、其他設置

如果設置了Nginx開機自啟動的話,可能還需要下面兩步

chkconfig nginx off
rm -rf /etc/init.d/nginx
刪除之后,便可重新安裝nginx了
————————————————
版權聲明:本文為CSDN博主「開源Linux」的原創文章,遵循CC 4.0 BY-SA版權協議,轉載請附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/weixin_38889300/article/details/106682750

第九部分、安裝hadoop(偽分布式)

解壓Hadoop目錄文件

1、 復制hadoop-2.7.2.tar.gz到/opt/modules目錄下。
2、 解壓hadoop-2.7.2.tar.gz

[hadoop@bigdata-senior01 ~]# cd /opt/modules [hadoop@bigdata-senior01 hadoop]# tar -zxvf hadoop-2.7.2.tar.gz

配置Hadoop

1、 配置Hadoop環境變量

[hadoop@bigdata-senior01 hadoop]# vim /etc/profile

追加配置:

export HADOOP_HOME="/opt/modules/hadoop-2.7.2" export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

執行:source /etc/profile 使得配置生效
驗證HADOOP_HOME參數:

[hadoop@bigdata-senior01 /]$ echo $HADOOP_HOME /opt/modules/hadoop-2.7.2

2、 配置 hadoop-env.sh、mapred-env.sh、yarn-env.sh文件的JAVA_HOME參數

[hadoop@bigdata-senior01 ~]$ sudo vim ${HADOOP_HOME}/etc/hadoop/hadoop-env.sh

需要先配置jdk

cd /opt/modules tar -zxvf jdk-7u67-linux-x64.tar.gz

修改JAVA_HOME參數為:

export JAVA_HOME="/opt/modules/jdk1.8.0_261" export JAVA_HOME="/opt/modules/jdk1.7.0_79"# The java implementation to use. export JAVA_HOME=/opt/modules/jdk1.7.0_79 # Location of Hadoop. export HADOOP_HOME=/opt/modules/hadoop-2.7.2

3、 配置core-site.xml

sudo vim ${HADOOP_HOME}/etc/hadoop/core-site.xml

(1)先永久修改hostname
想永久修改,應該修改配置文件 /etc/sysconfig/network。
命令:[root@bigdata-senior01 ~] vim /etc/sysconfig/network

打開文件后,

NETWORKING=yes #使用網絡 HOSTNAME=dss #設置主機名

然后配置Host
命令:[root@bigdata-senior01 ~] vim /etc/hosts
添加hosts: 192.168.100.20 bigdata-senior01.chybinmy.com
再進行fs.defaultFS參數配置的是HDFS的地址。

<property> <name>fs.defaultFS</name> <value>hdfs://dss:8020</value> </property>

(2) hadoop.tmp.dir配置的是Hadoop臨時目錄,比如HDFS的NameNode數據默認都存放這個目錄下,查看*-default.xml等默認配置文件,就可以看到很多依賴hadoop.tmp.dir的配置。默認的hadoop.tmp.dir是/tmp/hadoop?{hadoop.tmp.dir}的配置。 默認的hadoop.tmp.dir是/tmp/hadoop-hadoop.tmp.dir。hadoop.tmp.dir/tmp/hadoop?{user.name},此時有個問題就是NameNode會將HDFS的元數據存儲在這個/tmp目錄下,如果操作系統重啟了,系統會清空/tmp目錄下的東西,導致NameNode元數據丟失,是個非常嚴重的問題,所有我們應該修改這個路徑。
創建臨時目錄:

[hadoop@bigdata-senior01 hadoop-2.7.2]$ sudo mkdir -p /opt/data/tmp

將臨時目錄的所有者修改為hadoop

[hadoop@bigdata-senior01 hadoop-2.7.2]$ sudo chown hadoop:hadoop -R /opt/data/tmp

修改hadoop.tmp.dir

<property> <name>hadoop.tmp.dir</name> <value>/opt/data/tmp</value> </property>

配置、格式化、啟動HDFS

1、 配置hdfs-site.xml

[hadoop@bigdata-senior01 hadoop-2.7.2]$ vim ${HADOOP_HOME}/etc/hadoop/hdfs-site.xml<property> <name>dfs.replication</name> <value>1</value> </property>

dfs.replication配置的是HDFS存儲時的備份數量,因為這里是偽分布式環境只有一個節點,所以這里設置為1。

2、 格式化HDFS

先編輯 ~/.bash_profile 配置文件,增加 Hadoop 相關用戶環境變量,配置后就不需要到hadoop的路徑下執行相關hdfs命令了
添加后bash_profile文件完整內容如下:

sudo vi ~/.bash_profileexport JAVA_HOME=/opt/modules/jdk1.8.0_261/ export JAVA_BIN=$JAVA_HOME/bin export JAVA_LIB=$JAVA_HOME/lib export CLASSPATH=.:$JAVA_LIB/tools.jar:$JAVA_LIB/dt.jarexport HADOOP_HOME=/opt/modules/hadoop-2.7.2/PATH=$PATH:$HOME/.local/bin:$HOME/bin:$JAVA_BIN:$HADOOP_HOME/bin:$HADOOP_HOME/sbinexport PATH

同樣地,環境變量配置完之后,記得執行 source ~/.bash_profile 命令使環境變量生效。

[hadoop@bigdata-senior01 ~]$ hdfs namenode –format -force

格式化是對HDFS這個分布式文件系統中的DataNode進行分塊,統計所有分塊后的初始元數據的存儲在NameNode中。
格式化后,查看core-site.xml里hadoop.tmp.dir(本例是/opt/data目錄)指定的目錄下是否有了dfs目錄,如果有,說明格式化成功。
注意:
1.格式化時,這里注意hadoop.tmp.dir目錄的權限問題,應該hadoop普通用戶有讀寫權限才行,可以將/opt/data的所有者改為hadoop。

[hadoop@bigdata-senior01 hadoop-2.7.2]$ sudo chown -R hadoop:hadoop /opt/data

2.查看NameNode格式化后的目錄。

[hadoop@bigdata-senior01 ~]$ ll /opt/data/tmp/dfs/name/current


fsimage是NameNode元數據在內存滿了后,持久化保存到的文件。
fsimage*.md5 是校驗文件,用于校驗fsimage的完整性。
seen_txid 是hadoop的版本
vession文件里保存:
namespaceID:NameNode的唯一ID。
clusterID:集群ID,NameNode和DataNode的集群ID應該一致,表明是一個集群。

#Mon Jul 04 17:25:50 CST 2016 namespaceID=2101579007 clusterID=CID-205277e6-493b-4601-8e33-c09d1d23ece4 cTime=0 storageType=NAME_NODE blockpoolID=BP-1641019026-127.0.0.1-1467624350057 layoutVersion=-57

3、 啟動NameNode

[hadoop@bigdata-senior01 hadoop-2.7.2]$ ${HADOOP_HOME}/sbin/hadoop-daemon.sh start namenode starting namenode, logging to /opt/modules/hadoop-2.7.2/logs/hadoop-hadoop-namenode-bigdata-senior01.chybinmy.com.out

4、 啟動DataNode

[hadoop@bigdata-senior01 hadoop-2.7.2]$ ${HADOOP_HOME}/sbin/hadoop-daemon.sh start datanode starting datanode, logging to /opt/modules/hadoop-2.7.2/logs/hadoop-hadoop-datanode-bigdata-senior01.chybinmy.com.out

5、 啟動SecondaryNameNode

[hadoop@bigdata-senior01 hadoop-2.7.2]$ ${HADOOP_HOME}/sbin/hadoop-daemon.sh start secondarynamenode starting secondarynamenode, logging to /opt/modules/hadoop-2.7.2/logs/hadoop-hadoop-secondarynamenode-bigdata-senior01.chybinmy.com.out

6、 JPS命令查看是否已經啟動成功,有結果就是啟動成功了。

[hadoop@bigdata-senior01 hadoop-2.7.2]$ jps 3034 NameNode 3233 Jps 3193 SecondaryNameNode 3110 DataNode

現在可以打開:localhost:50070,但是需要關閉selinux才能在本機打開vmware workstation中的服務

7、 HDFS上測試創建目錄、上傳、下載文件

HDFS上創建目錄

[hadoop@bigdata-senior01 hadoop-2.7.2]$ ${HADOOP_HOME}/bin/hdfs dfs -mkdir /demo1

上傳本地文件到HDFS上

[hadoop@bigdata-senior01 hadoop-2.7.2]$ ${HADOOP_HOME}/bin/hdfs dfs -put ${HADOOP_HOME}/etc/hadoop/core-site.xml /demo1

讀取HDFS上的文件內容

[hadoop@bigdata-senior01 hadoop-2.7.2]$ ${HADOOP_HOME}/bin/hdfs dfs -cat /demo1/core-site.xml


從HDFS上下載文件到本地

[hadoop@bigdata-senior01 hadoop-2.7.2]$ bin/hdfs dfs -get /demo1/core-site.xml

配置、啟動YARN

1、 配置mapred-site.xml

默認沒有mapred-site.xml文件,但是有個mapred-site.xml.template配置模板文件。復制模板生成mapred-site.xml。

cd /opt/modules/hadoop-2.7.2 cp etc/hadoop/mapred-site.xml.template etc/hadoop/mapred-site.xml

添加配置如下:

<property> <name>mapreduce.framework.name</name> <value>yarn</value> </property>

指定mapreduce運行在yarn框架上。

2、 配置yarn-site.xml

添加配置如下:

<property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.hostname</name> <value>dss</value> </property>

yarn.nodemanager.aux-services配置了yarn的默認混洗方式,選擇為mapreduce的默認混洗算法。
yarn.resourcemanager.hostname指定了Resourcemanager運行在哪個節點上。

3、 啟動Resourcemanager

[hadoop@bigdata-senior01 hadoop-2.7.2]$ ${HADOOP_HOME}/sbin/yarn-daemon.sh start resourcemanager

4、 啟動nodemanager

[hadoop@bigdata-senior01 hadoop-2.7.2]$ ${HADOOP_HOME}/sbin/yarn-daemon.sh start nodemanager

5、 查看是否啟動成功

[hadoop@bigdata-senior01 hadoop-2.7.2]$ jps 3034 NameNode 4439 NodeManager 4197 ResourceManager 4543 Jps 3193 SecondaryNameNode 3110 DataNode

可以看到ResourceManager、NodeManager已經啟動成功了。

6、 YARN的Web頁面

現在可以打開:localhost:8088,但是需要關閉selinux才能在本機打開vmware workstation中的服務
YARN的Web客戶端端口號是8088,通過http://192.168.100.10:8088/可以查看。

運行MapReduce Job

在Hadoop的share目錄里,自帶了一些jar包,里面帶有一些mapreduce實例小例子,位置在share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar,可以運行這些例子體驗剛搭建好的Hadoop平臺,我們這里來運行最經典的WordCount實例。

1、 創建測試用的Input文件

創建輸入目錄:

[hadoop@bigdata-senior01 hadoop-2.7.2]$ bin/hdfs dfs -mkdir -p /wordcountdemo/input

創建原始文件:
在本地/opt/data目錄創建一個文件wc.input,內容如下。

將wc.input文件上傳到HDFS的/wordcountdemo/input目錄中:

[hadoop@bigdata-senior01 hadoop-2.7.2]$ bin/hdfs dfs -put /opt/data/wc.input /wordcountdemo/input

2、 運行WordCount MapReduce Job

[hadoop@bigdata-senior01 hadoop-2.7.2]$ bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /wordcountdemo/input /wordcountdemo/output

[hadoop@localhost hadoop-2.7.2]$ bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /wordcountdemo/input /wordcountdemo/output 22/01/04 22:20:05 INFO client.RMProxy: Connecting to ResourceManager at bigdata-senior01.chybinmy.com/192.168.100.20:8032 22/01/04 22:20:06 INFO input.FileInputFormat: Total input files to process : 1 22/01/04 22:20:07 INFO mapreduce.JobSubmitter: number of splits:1 22/01/04 22:20:07 INFO mapreduce.JobSubmitter: Submitting tokens for job: job_1641363392087_0001 22/01/04 22:20:08 INFO impl.YarnClientImpl: Submitted application application_1641363392087_0001 22/01/04 22:20:08 INFO mapreduce.Job: The url to track the job: http://bigdata-senior01.chybinmy.com:8088/proxy/application_1641363392087_0001/ 22/01/04 22:20:08 INFO mapreduce.Job: Running job: job_1641363392087_0001 22/01/04 22:20:14 INFO mapreduce.Job: Job job_1641363392087_0001 running in uber mode : false 22/01/04 22:20:14 INFO mapreduce.Job: map 0% reduce 0% 22/01/04 22:20:19 INFO mapreduce.Job: map 100% reduce 0% 22/01/04 22:20:24 INFO mapreduce.Job: map 100% reduce 100% 22/01/04 22:20:25 INFO mapreduce.Job: Job job_1641363392087_0001 completed successfully 22/01/04 22:20:25 INFO mapreduce.Job: Counters: 49File System CountersFILE: Number of bytes read=94FILE: Number of bytes written=316115FILE: Number of read operations=0FILE: Number of large read operations=0FILE: Number of write operations=0HDFS: Number of bytes read=206HDFS: Number of bytes written=60HDFS: Number of read operations=6HDFS: Number of large read operations=0HDFS: Number of write operations=2Job CountersLaunched map tasks=1Launched reduce tasks=1Data-local map tasks=1Total time spent by all maps in occupied slots (ms)=2534Total time spent by all reduces in occupied slots (ms)=2356Total time spent by all map tasks (ms)=2534Total time spent by all reduce tasks (ms)=2356Total vcore-milliseconds taken by all map tasks=2534Total vcore-milliseconds taken by all reduce tasks=2356Total megabyte-milliseconds taken by all map tasks=2594816Total megabyte-milliseconds taken by all reduce tasks=2412544Map-Reduce FrameworkMap input records=4Map output records=11Map output bytes=115Map output materialized bytes=94Input split bytes=135Combine input records=11Combine output records=7Reduce input groups=7Reduce shuffle bytes=94Reduce input records=7Reduce output records=7Spilled Records=14Shuffled Maps =1Failed Shuffles=0Merged Map outputs=1GC time elapsed (ms)=121CPU time spent (ms)=1100Physical memory (bytes) snapshot=426364928Virtual memory (bytes) snapshot=4207398912Total committed heap usage (bytes)=298844160Shuffle ErrorsBAD_ID=0CONNECTION=0IO_ERROR=0WRONG_LENGTH=0WRONG_MAP=0WRONG_REDUCE=0File Input Format CountersBytes Read=71File Output Format CountersBytes Written=60 [hadoop@localhost hadoop-2.7.2]$ bin/hdfs dfs -ls /wordcountdemo/output Found 2 items -rw-r--r-- 1 hadoop supergroup 0 2022-01-04 22:20 /wordcountdemo/output/_SUCCESS -rw-r--r-- 1 hadoop supergroup 60 2022-01-04 22:20 /wordcountdemo/output/part-r-00000 [hadoop@localhost hadoop-2.7.2]$

3、 查看輸出結果目錄

[hadoop@bigdata-senior01 hadoop-2.7.2]$ bin/hdfs dfs -ls /wordcountdemo/output -rw-r--r-- 1 hadoop supergroup 0 2016-07-05 05:12 /wordcountdemo/output/_SUCCESS -rw-r--r-- 1 hadoop supergroup 60 2016-07-05 05:12 /wordcountdemo/output/part-r-00000

output目錄中有兩個文件,_SUCCESS文件是空文件,有這個文件說明Job執行成功。
part-r-00000文件是結果文件,其中-r-說明這個文件是Reduce階段產生的結果,mapreduce程序執行時,可以沒有reduce階段,但是肯定會有map階段,如果沒有reduce階段這個地方有是-m-。
一個reduce會產生一個part-r-開頭的文件。
查看輸出文件內容。

[hadoop@bigdata-senior01 hadoop-2.7.2]$ bin/hdfs dfs -cat /wordcountdemo/output/part-r-00000 hadoop 3 hbase 1 hive 2 mapreduce 1 spark 2 sqoop 1 storm 1

結果是按照鍵值排好序的。
停止Hadoop

[hadoop@bigdata-senior01 hadoop-2.7.2]$ sbin/hadoop-daemon.sh stop namenode stopping namenode [hadoop@bigdata-senior01 hadoop-2.7.2]$ sbin/hadoop-daemon.sh stop datanode stopping datanode [hadoop@bigdata-senior01 hadoop-2.7.2]$ sbin/yarn-daemon.sh stop resourcemanager stopping resourcemanager [hadoop@bigdata-senior01 hadoop-2.7.2]$ sbin/yarn-daemon.sh stop nodemanager stopping nodemanager

Hadoop各個功能模塊的理解

1、 HDFS模塊

HDFS負責大數據的存儲,通過將大文件分塊后進行分布式存儲方式,突破了服務器硬盤大小的限制,解決了單臺機器無法存儲大文件的問題,HDFS是個相對獨立的模塊,可以為YARN提供服務,也可以為HBase等其他模塊提供服務。

2、 YARN模塊

YARN是一個通用的資源協同和任務調度框架,是為了解決Hadoop1.x中MapReduce里NameNode負載太大和其他問題而創建的一個框架。
YARN是個通用框架,不止可以運行MapReduce,還可以運行Spark、Storm等其他計算框架。

3、 MapReduce模塊

MapReduce是一個計算框架,它給出了一種數據處理的方式,即通過Map階段、Reduce階段來分布式地流式處理數據。它只適用于大數據的離線處理,對實時性要求很高的應用不適用。

開啟歷史服務

歷史服務介紹

Hadoop開啟歷史服務可以在web頁面上查看Yarn上執行job情況的詳細信息??梢酝ㄟ^歷史服務器查看已經運行完的Mapreduce作業記錄,比如用了多少個Map、用了多少個Reduce、作業提交時間、作業啟動時間、作業完成時間等信息。
開啟歷史服務
[hadoop@bigdata-senior01 hadoop-2.7.2]$ sbin/mr-jobhistory-daemon.sh start historyserver

開啟后,可以通過Web頁面查看歷史服務器:
http://bigdata-senior01.chybinmy.com:19888/

Web查看job執行歷史

1、 運行一個mapreduce任務

[hadoop@bigdata-senior01 hadoop-2.7.2]$ bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /wordcountdemo/input /wordcountdemo/output1

2、 job執行中

3、 查看job歷史


歷史服務器的Web端口默認是19888,可以查看Web界面。
但是在上面所顯示的某一個Job任務頁面的最下面,Map和Reduce個數的鏈接上,點擊進入Map的詳細信息頁面,再查看某一個Map或者Reduce的詳細日志是看不到的,是因為沒有開啟日志聚集服務。
開啟日志聚集

4、 日志聚集介紹

MapReduce是在各個機器上運行的,在運行過程中產生的日志存在于各個機器上,為了能夠統一查看各個機器的運行日志,將日志集中存放在HDFS上,這個過程就是日志聚集。

5、 開啟日志聚集

配置日志聚集功能:
Hadoop默認是不啟用日志聚集的。在yarn-site.xml文件里配置啟用日志聚集。

<property> <name>yarn.log-aggregation-enable</name> <value>true</value> </property> <property> <name>yarn.log-aggregation.retain-seconds</name> <value>106800</value> </property>

yarn.log-aggregation-enable:是否啟用日志聚集功能。
yarn.log-aggregation.retain-seconds:設置日志保留時間,單位是秒。
將配置文件分發到其他節點:

[hadoop@bigdata-senior01 hadoop]$ scp /opt/modules/hadoop-2.7.2/etc/hadoop/yarn-site.xml bigdata-senior02.chybinmy.com:/opt/modules/hadoop-2.7.2/etc/hadoop/ [hadoop@bigdata-senior01 hadoop]$ scp /opt/modules/hadoop-2.7.2/etc/hadoop/yarn-site.xml bigdata-senior03.chybinmy.com:/opt/modules/hadoop-2.7.2/etc/hadoop/

重啟Yarn進程:

[hadoop@bigdata-senior01 hadoop-2.7.2]$ sbin/stop-yarn.sh [hadoop@bigdata-senior01 hadoop-2.7.2]$ sbin/start-yarn.sh

重啟HistoryServer進程:

[hadoop@bigdata-senior01 hadoop-2.7.2]$ sbin/mr-jobhistory-daemon.sh stop historyserver [hadoop@bigdata-senior01 hadoop-2.7.2]$ sbin/mr-jobhistory-daemon.sh start historyserver

6、 測試日志聚集

運行一個demo MapReduce,使之產生日志:

bin/yarn jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount /input /output1

查看日志:
運行Job后,就可以在歷史服務器Web頁面查看各個Map和Reduce的日志了。

Hadoop(2.7.2,Hadoop其他版本需自行編譯Linkis) ,安裝的機器必須支持執行 hdfs dfs -ls / 命令

[hadoop@bigdata-senior01 ~]$ hdfs dfs -ls / Found 3 items drwxr-xr-x - hadoop supergroup 0 2022-01-04 22:14 /demo1 drwx------ - hadoop supergroup 0 2022-01-04 22:58 /tmp drwxr-xr-x - hadoop supergroup 0 2022-01-04 22:22 /wordcountdemo

https://blog.csdn.net/weixin_33955681/article/details/92958527)

第十部分、Hive安裝部署

安裝部署Hive

安裝Apache Hive-2.3.3

下載地址

wget http://archive.apache.org/dist/hive/hive-2.3.3/apache-hive-2.3.3-bin.tar.gz tar -zxvf apache-hive-2.3.3-bin.tar.gz -C /opt/modules //修改包名 $ mv apache-hive-2.3.3-bin apache-hive-2.3.3==配置hive的環境變量(root用戶)== vi /etc/profileexport HIVE_HOME="/opt/modules/apache-hive-2.3.3" export HIVE_CONF_DIR="/opt/modules/apache-hive-2.3.3/conf"

在 export PATH后面添加 HIVEHOME/bin:‘‘‘exportPATH=HIVE_HOME/bin: ```export PATH=HIVEH?OME/bin:exportPATH=HIVE_HOME/bin:$PATH```

————————————————
版權聲明:本文為CSDN博主「數據的星辰大?!沟脑瓌撐恼?#xff0c;遵循CC 4.0 BY-SA版權協議,轉載請附上原文出處鏈接及本聲明。
原文鏈接:https://blog.csdn.net/qq_37554565/article/details/90477492

配置hive-site.xml

  • 使用hive-default.xml.template,創建hive-site.xml
  • //進入hive/conf文件夾下
    $ cd apache-hive-2.3.3/conf/

    //拷貝hive-default.xml.template ,重命名為 hive-site.xml
    $ cp hive-default.xml.template hive-site.xml
    ————————————————

  • 修改元數據數據庫地址, javax.jdo.option.ConnectionURL;
  • //修改hive-site.xml配置 $ vi hive-site.xml//1. 按 i 鍵,進入編輯狀態 //2. 按 / 鍵,查找 javax.jdo.option.ConnectionURL//修改如下 <property><name>javax.jdo.option.ConnectionURL</name><value>jdbc:mysql://localhost:3306/hive?autoReconnect=true&amp;useUnicode=true&amp;createDatabaseIfNotExist=true&amp;characterEncoding=utf8&amp;useSSL=false&amp;serverTimezone=UTC</value> </property>

    ————————————————
    3. 修改元數據數據庫驅動,javax.jdo.option.ConnectionDriverName;

    // 按 / 鍵,查找 javax.jdo.option.ConnectionDriverName//修改如下 <property><name>javax.jdo.option.ConnectionDriverName</name><value>com.mysql.jdbc.Driver</value> </property>

    ————————————————
    4. 修改元數據數據庫用戶名,javax.jdo.option.ConnectionUserName;

    //按 / 鍵,查找 javax.jdo.option.ConnectionUserName//修改如下 <property><name>javax.jdo.option.ConnectionUserName</name><value>root</value> </property>

    ————————————————
    5. 元數據數據庫登陸密碼,javax.jdo.option.ConnectionPassword;

    //按 / 鍵, 查找 javax.jdo.option.ConnectionPassword//修改如下 <property><name>javax.jdo.option.ConnectionPassword</name><value>abcd123</value> </property>

    ————————————————
    6. 修改hive數據倉庫存儲地址(在hdfs上具體存儲地址),hive.metastore.warehouse.dir;

    //按 / 鍵,查找 hive.metastore.warehouse.dir//默認 /user/hive/warehouse ,這里不進行調整 //修改如下 <property><name>hive.metastore.warehouse.dir</name><value>/user/hive/warehouse</value> </property>

    ————————————————
    7. 配置其他路徑;

    //1. 配置 hive.querylog.location//修改如下 <property><name>hive.querylog.location</name><value>/opt/tmp/hive</value> </property>//2. 配置 hive.server2.logging.operation.log.location//修改如下 <property><name>hive.server2.logging.operation.log.location</name><value>/opt/tmp/hive/operation_logs</value> </property>//3. 配置 hive.exec.local.scratchdir????//修改如下 <property><name>hive.exec.local.scratchdir</name><value>/opt/tmp/hive</value> </property>//4. 配置 hive.downloaded.resources.dir//修改如下 <property><name>hive.downloaded.resources.dir</name><value>/opt/tmp/_resources</value> </property>

    ————————————————

    配置hive-log4j2.properties錯誤日志

    拷貝 hive-log4j2.properties.template ,并命名為 hive-log4j2.properties

    //按 esc 鍵,退出編輯; //按 wq 鍵,保存編輯;//查看 /conf $ ll //拷貝 hive-log4j2.properties.template ,并命名為 hive-log4j2.properties $ cp hive-log4j2.properties.template hive-log4j2.properties//編輯 hive-log4j2.properties $ vi hive-log4j2.properties//按 i 鍵,進入編輯狀態 //配置輸出log文件 property.hive.log.dir = /opt/tmp/hive/operation_logs

    ————————————————
    修改hive-log4j2.properties,配置hive的log
    配置下面的參數(如果沒有logs目錄,在hive根目錄下創建它

    修改hive-env.sh

    cp hive-env.sh.template hive-env.sh
    因為Hive使用了 Hadoop, 需要在 hive-env.sh 文件中指定 Hadoop 安裝路徑:

    vim hive-env.sh

    在打開的配置文件中,添加如下幾行:

    export JAVA_HOME=/opt/modules/jdk1.8.0_261/ export HADOOP_HOME=/opt/modules/hadoop-2.7.2/ export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop export HIVE_HOME=/opt/modules/apache-hive-2.3.3 export HIVE_CONF_DIR=$HIVE_HOME/conf export HIVE_AUX_JARS_PATH=$HIVE_HOME/lib

    初始化hive元數據

  • 初始化schema,schematool -dbType mysql -initSchema;
  • //使用 schematool, 初始化 schema [hadoop@bigdata-senior01 apache-hive-2.3.3]$ pwd /opt/modules/apache-hive-2.3.3 [hadoop@bigdata-senior01 modules]$ cp mysql-connector-java-5.1.49.jar apache-hive-2.3.3/lib/[hadoop@bigdata-senior01 modules]$ ll apache-hive-2.3.3/lib/mysql* -rw-r--r-- 1 hadoop hadoop 1006904 Jan 4 22:53 apache-hive-2.3.3/lib/mysql-connector-java-5.1.49.jar -rw-r--r-- 1 hadoop hadoop 7954 Dec 19 2016 apache-hive-2.3.3/lib/mysql-metadata-storage-0.9.2.jar [hadoop@bigdata-senior01 modules]$[hadoop@bigdata-senior01 apache-hive-2.3.3]$ bin/schematool -dbType mysql -initSchema SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/modules/apache-hive-2.3.3/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/modules/hadoop-2.8.5/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory] Metastore connection URL: jdbc:mysql://localhost:3306/hive?autoReconnect=true&useUnicode=true&createDatabaseIfNotExist=true&characterEncoding=utf8&useSSL=false&serverTimezone=UTC Metastore Connection Driver : com.mysql.jdbc.Driver Metastore connection User: root Starting metastore schema initialization to 2.3.0 Initialization script hive-schema-2.3.0.mysql.sql Initialization script completed schemaTool completed [hadoop@bigdata-senior01 apache-hive-2.3.3]$[hadoop@hadoop000 apache-hive-2.3.3]$

    處理Driver異常

  • 補充初始化 schema 時,會出現Underlying cause: java.lang.ClassNotFoundException: com.mysql.jdbc.Driver異常,這里是因為缺少mysql連接驅動,這里使用 mysql-connector-java 5.1.38;
  • //下載mysql-connector的jar包 cd /opt/modules/apache-hive-2.3.3/lib wget [hadoop@hadoop000 lib]$ wget http://central.maven.org/maven2/mysql/mysql-connector-java/5.1.38/mysql-connector-java-5.1.38.//檢查mysql驅動是否下載完成 [hadoop@localhost lib]$ ll | grep mysql -rw-rw-r--. 1 hadoop hadoop 983911 Dec 16 2015 mysql-connector-java-5.1.38.jar -rw-r--r--. 1 hadoop hadoop 7954 Dec 20 2016 mysql-metadata-storage-0.9.2.jar

    再次執行初始化,出現 schemaTool completed ,說明初始化成功;
    ————————————————
    3. 登錄mysql,查看初始化后的hive庫

    //登錄mysql # mysql -uroot -pabcd123//查看數據庫 mysql> show databases; +--------------------+ | Database | +--------------------+ | information_schema | | hive | | mysql | | performance_schema | | sys | +--------------------+ 5 rows in set (0.00 sec)//使用 hive mysql> use hive; Reading table information for completion of table and column names You can turn off this feature to get a quicker startup with -ADatabase changed//查看hive下,所有表,發現是 57 張,說明初始化成功 mysql> show tables; +---------------------------+ | Tables_in_hive | +---------------------------+ | AUX_TABLE | | BUCKETING_COLS | | CDS | | COLUMNS_V2 | | COMPACTION_QUEUE | | COMPLETED_COMPACTIONS | | COMPLETED_TXN_COMPONENTS | | DATABASE_PARAMS | | DBS | | DB_PRIVS | | DELEGATION_TOKENS | | FUNCS | | FUNC_RU | | GLOBAL_PRIVS | | HIVE_LOCKS | | IDXS | | INDEX_PARAMS | | KEY_CONSTRAINTS | | MASTER_KEYS | | NEXT_COMPACTION_QUEUE_ID | | NEXT_LOCK_ID | | NEXT_TXN_ID | | NOTIFICATION_LOG | | NOTIFICATION_SEQUENCE | | NUCLEUS_TABLES | | PARTITIONS | | PARTITION_EVENTS | | PARTITION_KEYS | | PARTITION_KEY_VALS | | PARTITION_PARAMS | | PART_COL_PRIVS | | PART_COL_STATS | | PART_PRIVS | | ROLES | | ROLE_MAP | | SDS | | SD_PARAMS | | SEQUENCE_TABLE | | SERDES | | SERDE_PARAMS | | SKEWED_COL_NAMES | | SKEWED_COL_VALUE_LOC_MAP | | SKEWED_STRING_LIST | | SKEWED_STRING_LIST_VALUES | | SKEWED_VALUES | | SORT_COLS | | TABLE_PARAMS | | TAB_COL_STATS | | TBLS | | TBL_COL_PRIVS | | TBL_PRIVS | | TXNS | | TXN_COMPONENTS | | TYPES | | TYPE_FIELDS | | VERSION | | WRITE_SET | +---------------------------+ 57 rows in set (0.00 sec)

    ————————————————

    啟動hive

  • 使用hiveserver2啟動hive,啟動前需要修改hadoop代理訪問權限:
  • 找到hadoop的core-site.xml,添加如下配置:

    [hadoop@bigdata-senior01 hadoop]$ pwd /opt/modules/hadoop-2.8.5/etc/hadoop [hadoop@bigdata-senior01 hadoop]$ vim core-site.xml<property><name>hadoop.proxyuser.hadoop.hosts</name><value>*</value> </property> <property><name>hadoop.proxyuser.hadoop.groups</name><value>*</value> </property>

    ————————————————
    2. hive的訪問方式分為兩種:

    1). beeline,該方式僅支持本地機器進行操作;

    啟動方式如下:$ bin/beeline -u jdbc:hive2://127.0.0.1:10000 -n hadoop-n : 代理用戶-u : 請求地址

    2). hiveserver2,該方式可提供不同的機器進行調用;

    啟動方式如下:$ bin/hiveservice2查看是否已開放端口:netstat -ant | grep 10000 [hadoop@bigdata-senior01 apache-hive-2.3.3]$ pwd /opt/modules/apache-hive-2.3.3 [hadoop@bigdata-senior01 apache-hive-2.3.3]$ bin/hiveserver2 which: no hbase in (/opt/modules/hadoop-2.8.5/bin:/opt/modules/hadoop-2.8.5/sbin:/opt/modules/jdk1.8.0_261/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/opt/mysql/bin:/home/hadoop/.local/bin:/home/hadoop/bin:/opt/modules/jdk1.8.0_261//bin:/opt/modules/hadoop-2.8.5//bin:/opt/modules/hadoop-2.8.5//sbin) 2022-01-04 22:58:41: Starting HiveServer2 SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/modules/apache-hive-2.3.3/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/modules/hadoop-2.8.5/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]

    ————————————————
    Hive(2.3.3,Hive其他版本需自行編譯Linkis),安裝的機器必須支持執行hive -e "show databases"命令

    [hadoop@bigdata-senior01 apache-hive-2.3.3]$ hive -e "show databases" which: no hbase in (/opt/modules/apache-hive-2.3.3/bin:/opt/modules/hadoop-2.8.5/bin:/opt/modules/hadoop-2.8.5/sbin:/opt/modules/jdk1.8.0_261/bin:/opt/modules/hadoop-2.8.5/bin:/opt/modules/hadoop-2.8.5/sbin:/opt/modules/jdk1.8.0_261/bin:/usr/local/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/opt/mysql/bin:/home/hadoop/.local/bin:/home/hadoop/bin:/opt/modules/jdk1.8.0_261//bin:/opt/modules/hadoop-2.8.5//bin:/opt/modules/hadoop-2.8.5//sbin:/opt/mysql/bin) SLF4J: Class path contains multiple SLF4J bindings. SLF4J: Found binding in [jar:file:/opt/modules/apache-hive-2.3.3/lib/log4j-slf4j-impl-2.6.2.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: Found binding in [jar:file:/opt/modules/hadoop-2.8.5/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class] SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation. SLF4J: Actual binding is of type [org.apache.logging.slf4j.Log4jLoggerFactory]Logging initialized using configuration in file:/opt/modules/apache-hive-2.3.3/conf/hive-log4j2.properties Async: true

    參考
    集群搭建–安裝apache-hive-2.3.4
    裝Apache Hive-2.3.3

    https://blog.csdn.net/weixin_33955681/article/details/92958527)

    文章目錄

    • DSS部署流程
      • 第一部分、 背景
      • 第二部分、準備虛擬機、環境初始化
        • 1、準備虛擬機
        • 2、環境初始化
            • 關閉防火墻
            • 關閉selinux
            • 關閉swap
            • 根據規劃設置主機名
            • 在master添加hosts
            • 將橋接的IPv4流量傳遞到iptables的鏈
            • 時間同步
            • 安裝如下軟件
        • 3、準備備如下軟件包
      • 第三部分、創建hadoop用戶
      • 第四部分、配置JDK
        • 卸載原JDK
          • 步驟一:查詢系統是否以安裝jdk
          • 步驟二:卸載已安裝的jdk
          • 步驟三:驗證一下是還有jdk
          • 實際操作記錄如下
        • 安裝新JDK
          • (1) 去下載Oracle版本Java JDK:jdk-8u261-linux-x64.tar.gz
          • (2) 將jdk-7u67-linux-x64.tar.gz解壓到/opt/modules目錄下
          • (3) 添加環境變量
          • (4)安裝后再次執行 java –version,可以看見已經安裝完成。
      • 第五部分 Scala部署
      • 第六部分、安裝MySQL5.7.25
      • 第七部分、安裝python3
        • 安裝依賴環境
      • 第八部分、nginx【dss會自動安裝】
        • 安裝所需環境
        • 官網下載
        • 解壓
        • 配置
        • 編譯安裝
        • 啟動、停止nginx
        • 重啟 nginx
        • ==設置nginx的服務(dss所需)==
        • ==增加conf.d文件夾(dss所需)==
        • 開機自啟動
        • 徹底刪除nginx
      • 第九部分、安裝hadoop(偽分布式)
        • 解壓Hadoop目錄文件
        • 配置Hadoop
          • 1、 配置Hadoop環境變量
          • 2、 配置 hadoop-env.sh、mapred-env.sh、yarn-env.sh文件的JAVA_HOME參數
          • 3、 配置core-site.xml
        • 配置、格式化、啟動HDFS
          • 1、 配置hdfs-site.xml
          • 2、 格式化HDFS
          • 3、 啟動NameNode
          • 4、 啟動DataNode
          • 5、 啟動SecondaryNameNode
          • 6、 JPS命令查看是否已經啟動成功,有結果就是啟動成功了。
          • 7、 HDFS上測試創建目錄、上傳、下載文件
        • 配置、啟動YARN
          • 1、 配置mapred-site.xml
          • 2、 配置yarn-site.xml
          • 3、 啟動Resourcemanager
          • 4、 啟動nodemanager
          • 5、 查看是否啟動成功
          • 6、 YARN的Web頁面
        • 運行MapReduce Job
          • 1、 創建測試用的Input文件
          • 2、 運行WordCount MapReduce Job
          • 3、 查看輸出結果目錄
        • Hadoop各個功能模塊的理解
          • 1、 HDFS模塊
          • 2、 YARN模塊
          • 3、 MapReduce模塊
        • 開啟歷史服務
        • 歷史服務介紹
        • Web查看job執行歷史
          • 1、 運行一個mapreduce任務
          • 2、 job執行中
          • 3、 查看job歷史
          • 4、 日志聚集介紹
          • 5、 開啟日志聚集
          • 6、 測試日志聚集
      • 第十部分、Hive安裝部署
        • 安裝部署Hive
        • 配置hive-site.xml
        • 配置hive-log4j2.properties錯誤日志
        • 修改hive-env.sh
        • 初始化hive元數據
        • 處理Driver異常
        • 啟動hive
      • 第十一部分、Spark on Yarn部署
        • 相關配置
        • 操作記錄如下
        • spark-sql -e "show databases"
      • 第十二部分、DSS一鍵安裝
        • 一、使用前環境準備
          • a. 基礎軟件安裝
          • b. 創建用戶
          • c.安裝準備
          • d. 修改配置
          • e. 修改數據庫配置
          • f. 修改wedatasphere-dss-web-1.0.1-dist配置
        • 二、安裝和使用
          • 1. 執行安裝腳本:
          • 2. 安裝步驟
          • 3. 是否安裝成功:
          • 4. 啟動服務
            • (1) 啟動服務:
            • (2) 查看是否啟動成功
            • (3) 谷歌瀏覽器訪問:
            • (4) 停止服務:
            • (5) 安裝成功后,有6個DSS服務,8個Linkis服務
          • 5.安裝日志 install.sh
          • 6.啟動腳本 start-all.sh
          • 7.日志說明
        • 三、相關訪問地址
      • 第十三部分、幫助
        • 一、軟連接的創建、刪除、修改
          • 1、軟鏈接創建
          • 2、刪除
          • 3、修改
        • 二、sudo指令和/etc/sudoers文件說明

    第十一部分、Spark on Yarn部署

    相關配置

    tar xf spark-2.3.2-bin-hadoop2.7.tgz cd /opt/modules/spark-2.3.2-bin-hadoop2.7/conf 更改配置文件 cp spark-env.sh.template spark-env.sh cp slaves.template slavesvi slaves 加入localhostvi spark-env.sh export JAVA_HOME=/opt/modules/jdk1.8.0_261 export SPARK_HOME=/opt/modules/spark-2.3.2-bin-hadoop2.7 #Spark主節點的IP export SPARK_MASTER_IP=hadoop #Spark主節點的端口號 export SPARK_MASTER_PORT=7077啟動: cd /opt/modules/spark-2.3.2-bin-hadoop2.7/sbin ./start-all.sh #vim /etc/profile #添加spark的環境變量,加如PATH下、export出來 #source /etc/profileexport SPARK_HOME="/opt/modules/spark-2.3.2-bin-hadoop2.7" export SPARK_MASTER_IP=master export SPARK_EXECUTOR_MEMORY=1G export PATH=$SPARK_HOME/bin:$PATH

    操作記錄如下

    [hadoop@bigdata-senior01 ~]$ cd /opt/modules/ [hadoop@bigdata-senior01 modules]$ ll total 1478576 drwxrwxr-x 10 hadoop hadoop 184 Jan 4 22:41 apache-hive-2.3.3 -rw-r--r-- 1 hadoop hadoop 232229830 Jan 4 21:41 apache-hive-2.3.3-bin.tar.gz drwxr-xr-x 10 hadoop hadoop 182 Jan 4 22:14 hadoop-2.8.5 -rw-r--r-- 1 hadoop hadoop 246543928 Jan 4 21:41 hadoop-2.8.5.tar.gz drwxr-xr-x 8 hadoop hadoop 273 Jun 17 2020 jdk1.8.0_261 -rw-r--r-- 1 hadoop hadoop 143111803 Jan 4 21:41 jdk-8u261-linux-x64.tar.gz drwxr-xr-x 2 root root 6 Jan 4 22:29 mysql-5.7.25-linux-glibc2.12-x86_64 -rw-r--r-- 1 root root 644862820 Jan 4 22:27 mysql-5.7.25-linux-glibc2.12-x86_64.tar.gz -rw-r--r-- 1 hadoop hadoop 1006904 Jan 4 21:41 mysql-connector-java-5.1.49.jar -rw-r--r-- 1 hadoop hadoop 20415505 Jan 4 21:41 scala-2.12.7.tgz -rw-r--r-- 1 hadoop hadoop 225875602 Jan 4 21:41 spark-2.3.2-bin-hadoop2.7.tgz [hadoop@bigdata-senior01 modules]$ pwd /opt/modules [hadoop@bigdata-senior01 modules]$ tar xf scala-2.12.7.tgz [hadoop@bigdata-senior01 modules]$ ll total 1478576 drwxrwxr-x 10 hadoop hadoop 184 Jan 4 22:41 apache-hive-2.3.3 -rw-r--r-- 1 hadoop hadoop 232229830 Jan 4 21:41 apache-hive-2.3.3-bin.tar.gz drwxr-xr-x 10 hadoop hadoop 182 Jan 4 22:14 hadoop-2.8.5 -rw-r--r-- 1 hadoop hadoop 246543928 Jan 4 21:41 hadoop-2.8.5.tar.gz drwxr-xr-x 8 hadoop hadoop 273 Jun 17 2020 jdk1.8.0_261 -rw-r--r-- 1 hadoop hadoop 143111803 Jan 4 21:41 jdk-8u261-linux-x64.tar.gz drwxr-xr-x 2 root root 6 Jan 4 22:29 mysql-5.7.25-linux-glibc2.12-x86_64 -rw-r--r-- 1 root root 644862820 Jan 4 22:27 mysql-5.7.25-linux-glibc2.12-x86_64.tar.gz -rw-r--r-- 1 hadoop hadoop 1006904 Jan 4 21:41 mysql-connector-java-5.1.49.jar drwxrwxr-x 6 hadoop hadoop 50 Sep 27 2018 scala-2.12.7 -rw-r--r-- 1 hadoop hadoop 20415505 Jan 4 21:41 scala-2.12.7.tgz -rw-r--r-- 1 hadoop hadoop 225875602 Jan 4 21:41 spark-2.3.2-bin-hadoop2.7.tgz [hadoop@bigdata-senior01 modules]$ [hadoop@bigdata-senior01 modules]$ cd scala-2.12.7/ [hadoop@bigdata-senior01 scala-2.12.7]$ ll total 0 drwxrwxr-x 2 hadoop hadoop 162 Sep 27 2018 bin drwxrwxr-x 4 hadoop hadoop 86 Sep 27 2018 doc drwxrwxr-x 2 hadoop hadoop 244 Sep 27 2018 lib drwxrwxr-x 3 hadoop hadoop 18 Sep 27 2018 man [hadoop@bigdata-senior01 scala-2.12.7]$ pwd /opt/modules/scala-2.12.7 [hadoop@bigdata-senior01 scala-2.12.7]$ [hadoop@bigdata-senior01 scala-2.12.7]$ vim /etc/profile [hadoop@bigdata-senior01 scala-2.12.7]$ sudo vim /etc/profile [hadoop@bigdata-senior01 scala-2.12.7]$ source /etc/profile [hadoop@bigdata-senior01 scala-2.12.7]$ echo $SCALA_HOME /opt/modules/scala-2.12.7 [hadoop@bigdata-senior01 scala-2.12.7]$ scala Welcome to Scala 2.12.7 (Java HotSpot(TM) 64-Bit Server VM, Java 1.8.0_261). Type in expressions for evaluation. Or try :help.scala>scala> [hadoop@bigdata-senior01 scala-2.12.7]$ [hadoop@bigdata-senior01 scala-2.12.7]$ [hadoop@bigdata-senior01 scala-2.12.7]$ [hadoop@bigdata-senior01 scala-2.12.7]$ [hadoop@bigdata-senior01 scala-2.12.7]$ [hadoop@bigdata-senior01 scala-2.12.7]$ cd ../ [hadoop@bigdata-senior01 modules]$ ll total 1478576 drwxrwxr-x 10 hadoop hadoop 184 Jan 4 22:41 apache-hive-2.3.3 -rw-r--r-- 1 hadoop hadoop 232229830 Jan 4 21:41 apache-hive-2.3.3-bin.tar.gz drwxr-xr-x 10 hadoop hadoop 182 Jan 4 22:14 hadoop-2.8.5 -rw-r--r-- 1 hadoop hadoop 246543928 Jan 4 21:41 hadoop-2.8.5.tar.gz drwxr-xr-x 8 hadoop hadoop 273 Jun 17 2020 jdk1.8.0_261 -rw-r--r-- 1 hadoop hadoop 143111803 Jan 4 21:41 jdk-8u261-linux-x64.tar.gz drwxr-xr-x 2 root root 6 Jan 4 22:29 mysql-5.7.25-linux-glibc2.12-x86_64 -rw-r--r-- 1 root root 644862820 Jan 4 22:27 mysql-5.7.25-linux-glibc2.12-x86_64.tar.gz -rw-r--r-- 1 hadoop hadoop 1006904 Jan 4 21:41 mysql-connector-java-5.1.49.jar drwxrwxr-x 6 hadoop hadoop 50 Sep 27 2018 scala-2.12.7 -rw-r--r-- 1 hadoop hadoop 20415505 Jan 4 21:41 scala-2.12.7.tgz -rw-r--r-- 1 hadoop hadoop 225875602 Jan 4 21:41 spark-2.3.2-bin-hadoop2.7.tgz [hadoop@bigdata-senior01 modules]$ tar xf spark-2.3.2-bin-hadoop2.7.tgz [hadoop@bigdata-senior01 modules]$ ll total 1478576 drwxrwxr-x 10 hadoop hadoop 184 Jan 4 22:41 apache-hive-2.3.3 -rw-r--r-- 1 hadoop hadoop 232229830 Jan 4 21:41 apache-hive-2.3.3-bin.tar.gz drwxr-xr-x 10 hadoop hadoop 182 Jan 4 22:14 hadoop-2.8.5 -rw-r--r-- 1 hadoop hadoop 246543928 Jan 4 21:41 hadoop-2.8.5.tar.gz drwxr-xr-x 8 hadoop hadoop 273 Jun 17 2020 jdk1.8.0_261 -rw-r--r-- 1 hadoop hadoop 143111803 Jan 4 21:41 jdk-8u261-linux-x64.tar.gz drwxr-xr-x 2 root root 6 Jan 4 22:29 mysql-5.7.25-linux-glibc2.12-x86_64 -rw-r--r-- 1 root root 644862820 Jan 4 22:27 mysql-5.7.25-linux-glibc2.12-x86_64.tar.gz -rw-r--r-- 1 hadoop hadoop 1006904 Jan 4 21:41 mysql-connector-java-5.1.49.jar drwxrwxr-x 6 hadoop hadoop 50 Sep 27 2018 scala-2.12.7 -rw-r--r-- 1 hadoop hadoop 20415505 Jan 4 21:41 scala-2.12.7.tgz drwxrwxr-x 13 hadoop hadoop 211 Sep 16 2018 spark-2.3.2-bin-hadoop2.7 -rw-r--r-- 1 hadoop hadoop 225875602 Jan 4 21:41 spark-2.3.2-bin-hadoop2.7.tgz [hadoop@bigdata-senior01 modules]$ cd spark-2.3.2-bin-hadoop2.7/ [hadoop@bigdata-senior01 spark-2.3.2-bin-hadoop2.7]$ pwd /opt/modules/spark-2.3.2-bin-hadoop2.7 [hadoop@bigdata-senior01 spark-2.3.2-bin-hadoop2.7]$ [hadoop@bigdata-senior01 spark-2.3.2-bin-hadoop2.7]$ cd /opt/modules/spark-2.3.2-bin-hadoop2.7/conf [hadoop@bigdata-senior01 conf]$ cp spark-env.sh.template spark-env.sh [hadoop@bigdata-senior01 conf]$ cp slaves.template slaves [hadoop@bigdata-senior01 conf]$ vim slaves [hadoop@bigdata-senior01 conf]$ vi spark-env.sh [hadoop@bigdata-senior01 conf]$ cd ../ [hadoop@bigdata-senior01 spark-2.3.2-bin-hadoop2.7]$ ll total 84 drwxrwxr-x 2 hadoop hadoop 4096 Sep 16 2018 bin drwxrwxr-x 2 hadoop hadoop 264 Jan 4 23:33 conf drwxrwxr-x 5 hadoop hadoop 50 Sep 16 2018 data drwxrwxr-x 4 hadoop hadoop 29 Sep 16 2018 examples drwxrwxr-x 2 hadoop hadoop 12288 Sep 16 2018 jars drwxrwxr-x 3 hadoop hadoop 25 Sep 16 2018 kubernetes -rw-rw-r-- 1 hadoop hadoop 18045 Sep 16 2018 LICENSE drwxrwxr-x 2 hadoop hadoop 4096 Sep 16 2018 licenses -rw-rw-r-- 1 hadoop hadoop 26366 Sep 16 2018 NOTICE drwxrwxr-x 8 hadoop hadoop 240 Sep 16 2018 python drwxrwxr-x 3 hadoop hadoop 17 Sep 16 2018 R -rw-rw-r-- 1 hadoop hadoop 3809 Sep 16 2018 README.md -rw-rw-r-- 1 hadoop hadoop 164 Sep 16 2018 RELEASE drwxrwxr-x 2 hadoop hadoop 4096 Sep 16 2018 sbin drwxrwxr-x 2 hadoop hadoop 42 Sep 16 2018 yarn [hadoop@bigdata-senior01 spark-2.3.2-bin-hadoop2.7]$ cd conf [hadoop@bigdata-senior01 conf]$ echo ${JAVA_HOME} /opt/modules/jdk1.8.0_261 [hadoop@bigdata-senior01 conf]$ [hadoop@bigdata-senior01 conf]$ pwd /opt/modules/spark-2.3.2-bin-hadoop2.7/conf [hadoop@bigdata-senior01 conf]$ [hadoop@bigdata-senior01 conf]$ vim spark-env.sh [hadoop@bigdata-senior01 conf]$ cd ../ [hadoop@bigdata-senior01 spark-2.3.2-bin-hadoop2.7]$ ll total 84 drwxrwxr-x 2 hadoop hadoop 4096 Sep 16 2018 bin drwxrwxr-x 2 hadoop hadoop 264 Jan 4 23:35 conf drwxrwxr-x 5 hadoop hadoop 50 Sep 16 2018 data drwxrwxr-x 4 hadoop hadoop 29 Sep 16 2018 examples drwxrwxr-x 2 hadoop hadoop 12288 Sep 16 2018 jars drwxrwxr-x 3 hadoop hadoop 25 Sep 16 2018 kubernetes -rw-rw-r-- 1 hadoop hadoop 18045 Sep 16 2018 LICENSE drwxrwxr-x 2 hadoop hadoop 4096 Sep 16 2018 licenses -rw-rw-r-- 1 hadoop hadoop 26366 Sep 16 2018 NOTICE drwxrwxr-x 8 hadoop hadoop 240 Sep 16 2018 python drwxrwxr-x 3 hadoop hadoop 17 Sep 16 2018 R -rw-rw-r-- 1 hadoop hadoop 3809 Sep 16 2018 README.md -rw-rw-r-- 1 hadoop hadoop 164 Sep 16 2018 RELEASE drwxrwxr-x 2 hadoop hadoop 4096 Sep 16 2018 sbin drwxrwxr-x 2 hadoop hadoop 42 Sep 16 2018 yarn [hadoop@bigdata-senior01 spark-2.3.2-bin-hadoop2.7]$ cd sbin [hadoop@bigdata-senior01 sbin]$ ./start-all.sh starting org.apache.spark.deploy.master.Master, logging to /opt/modules/spark-2.3.2-bin-hadoop2.7/logs/spark-hadoop- org.apache.spark.deploy.master.Master-1-bigdata-senior01.chybinmy.com.out localhost: Warning: Permanently added 'localhost' (ECDSA) to the list of known hosts. hadoop@localhost's password: hadoop@localhost's password: localhost: Permission denied, please try again.hadoop@localhost's password: localhost: Permission denied, please try again.localhost: Permission denied (publickey,gssapi-keyex,gssapi-with-mic,password). [hadoop@bigdata-senior01 sbin]$ [hadoop@bigdata-senior01 sbin]$ [hadoop@bigdata-senior01 sbin]$ jps 18898 NodeManager 96757 Jps 17144 DataNode 18600 ResourceManager 16939 NameNode 21277 JobHistoryServer 17342 SecondaryNameNode 95983 Master [hadoop@bigdata-senior01 sbin]$ vim /etc/profile [hadoop@bigdata-senior01 sbin]$ sudo vim /etc/profile [hadoop@bigdata-senior01 sbin]$ source /etc/profile [hadoop@bigdata-senior01 sbin]$ ./start-all.sh org.apache.spark.deploy.master.Master running as process 95983. Stop it first. hadoop@localhost's password: localhost: starting org.apache.spark.deploy.worker.Worker, logging to /opt/modules/spark-2.3.2-bin-hadoop2.7/logs/sp ark-hadoop-org.apache.spark.deploy.worker.Worker-1-bigdata-senior01.chybinmy.com.out [hadoop@bigdata-senior01 sbin]$ cat /opt/modules/spark-2.3.2-bin-hadoop2.7/logs/spark-hadoop-org.apache.spark.deploy .worker.Worker-1-bigdata-senior01.chybinmy.com.out Spark Command: /opt/modules/jdk1.8.0_261/bin/java -cp /opt/modules/spark-2.3.2-bin-hadoop2.7/conf/:/opt/modules/spar k-2.3.2-bin-hadoop2.7/jars/* -Xmx1g org.apache.spark.deploy.worker.Worker --webui-port 8081 spark://bigdata-senior01 .chybinmy.com:7077 ======================================== 2022-01-04 23:42:32 INFO Worker:2612 - Started daemon with process name: 98596@bigdata-senior01.chybinmy.com 2022-01-04 23:42:32 INFO SignalUtils:54 - Registered signal handler for TERM 2022-01-04 23:42:32 INFO SignalUtils:54 - Registered signal handler for HUP 2022-01-04 23:42:32 INFO SignalUtils:54 - Registered signal handler for INT 2022-01-04 23:42:33 WARN NativeCodeLoader:62 - Unable to load native-hadoop library for your platform... using buil tin-java classes where applicable 2022-01-04 23:42:33 INFO SecurityManager:54 - Changing view acls to: hadoop 2022-01-04 23:42:33 INFO SecurityManager:54 - Changing modify acls to: hadoop 2022-01-04 23:42:33 INFO SecurityManager:54 - Changing view acls groups to: 2022-01-04 23:42:33 INFO SecurityManager:54 - Changing modify acls groups to: 2022-01-04 23:42:33 INFO SecurityManager:54 - SecurityManager: authentication disabled; ui acls disabled; users wi th view permissions: Set(hadoop); groups with view permissions: Set(); users with modify permissions: Set(hadoop); groups with modify permissions: Set() 2022-01-04 23:42:34 INFO Utils:54 - Successfully started service 'sparkWorker' on port 46351. 2022-01-04 23:42:34 INFO Worker:54 - Starting Spark worker 192.168.100.20:46351 with 2 cores, 2.7 GB RAM 2022-01-04 23:42:34 INFO Worker:54 - Running Spark version 2.3.2 2022-01-04 23:42:34 INFO Worker:54 - Spark home: /opt/modules/spark-2.3.2-bin-hadoop2.7 2022-01-04 23:42:35 INFO log:192 - Logging initialized @4458ms 2022-01-04 23:42:35 INFO Server:351 - jetty-9.3.z-SNAPSHOT, build timestamp: unknown, git hash: unknown 2022-01-04 23:42:35 INFO Server:419 - Started @4642ms 2022-01-04 23:42:35 INFO AbstractConnector:278 - Started ServerConnector@6de6ec17{HTTP/1.1,[http/1.1]}{0.0.0.0:8081 } 2022-01-04 23:42:35 INFO Utils:54 - Successfully started service 'WorkerUI' on port 8081. 2022-01-04 23:42:35 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@6cd8d218{/logPage,null,AVAILABL E,@Spark} 2022-01-04 23:42:35 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@265b9144{/logPage/json,null,AVA ILABLE,@Spark} 2022-01-04 23:42:35 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@460a8f36{/,null,AVAILABLE,@Spar k} 2022-01-04 23:42:35 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@732d2fc5{/json,null,AVAILABLE,@ Spark} 2022-01-04 23:42:35 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@9864155{/static,null,AVAILABLE, @Spark} 2022-01-04 23:42:35 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@a5fd0ba{/log,null,AVAILABLE,@Sp ark} 2022-01-04 23:42:35 INFO WorkerWebUI:54 - Bound WorkerWebUI to 0.0.0.0, and started at http://bigdata-senior01.chyb inmy.com:8081 2022-01-04 23:42:35 INFO Worker:54 - Connecting to master bigdata-senior01.chybinmy.com:7077... 2022-01-04 23:42:35 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@1c2b0b0e{/metrics/json,null,AVA ILABLE,@Spark} 2022-01-04 23:42:35 INFO TransportClientFactory:267 - Successfully created connection to bigdata-senior01.chybinmy. com/192.168.100.20:7077 after 156 ms (0 ms spent in bootstraps) 2022-01-04 23:42:36 INFO Worker:54 - Successfully registered with master spark://bigdata-senior01.chybinmy.com:7077 [hadoop@bigdata-senior01 sbin]$ [hadoop@bigdata-senior01 sbin]$ [hadoop@bigdata-senior01 sbin]$

    訪問地址:
    http://192.168.100.20:8080/

    http://192.168.100.20:8081/

    Spark(支持2.0以上所有版本) ,安裝的機器必須支持執行spark-sql -e “show databases” 命令

    $ [hadoop@bigdata-senior01 sbin]$ spark-sql -e "show databases" 2022-01-04 23:49:13 WARN NativeCodeLoader:62 - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 2022-01-04 23:49:14 INFO HiveMetaStore:589 - 0: Opening raw store with implemenation class:org.apache.hadoop.hive.metastore.ObjectStore 2022-01-04 23:49:14 INFO ObjectStore:289 - ObjectStore, initialize called 2022-01-04 23:49:15 INFO Persistence:77 - Property hive.metastore.integral.jdo.pushdown unknown - will be ignored 2022-01-04 23:49:15 INFO Persistence:77 - Property datanucleus.cache.level2 unknown - will be ignored 2022-01-04 23:49:18 INFO ObjectStore:370 - Setting MetaStore object pin classes with hive.metastore.cache.pinobjtypes="Table,StorageDescriptor,SerDeInfo,Partition,Database,Type,FieldSchema,Order" 2022-01-04 23:49:20 INFO Datastore:77 - The class "org.apache.hadoop.hive.metastore.model.MFieldSchema" is tagged as "embedded-only" so does not have its own datastore table. 2022-01-04 23:49:20 INFO Datastore:77 - The class "org.apache.hadoop.hive.metastore.model.MOrder" is tagged as "embedded-only" so does not have its own datastore table. 2022-01-04 23:49:21 INFO Datastore:77 - The class "org.apache.hadoop.hive.metastore.model.MFieldSchema" is tagged as "embedded-only" so does not have its own datastore table. 2022-01-04 23:49:21 INFO Datastore:77 - The class "org.apache.hadoop.hive.metastore.model.MOrder" is tagged as "embedded-only" so does not have its own datastore table. 2022-01-04 23:49:21 INFO MetaStoreDirectSql:139 - Using direct SQL, underlying DB is DERBY 2022-01-04 23:49:21 INFO ObjectStore:272 - Initialized ObjectStore 2022-01-04 23:49:21 WARN ObjectStore:6666 - Version information not found in metastore. hive.metastore.schema.verification is not enabled so recording the schema version 1.2.0 2022-01-04 23:49:21 WARN ObjectStore:568 - Failed to get database default, returning NoSuchObjectException 2022-01-04 23:49:22 INFO HiveMetaStore:663 - Added admin role in metastore 2022-01-04 23:49:22 INFO HiveMetaStore:672 - Added public role in metastore 2022-01-04 23:49:22 INFO HiveMetaStore:712 - No user is added in admin role, since config is empty 2022-01-04 23:49:22 INFO HiveMetaStore:746 - 0: get_all_databases 2022-01-04 23:49:22 INFO audit:371 - ugi=hadoop ip=unknown-ip-addr cmd=get_all_databases 2022-01-04 23:49:22 INFO HiveMetaStore:746 - 0: get_functions: db=default pat=* 2022-01-04 23:49:22 INFO audit:371 - ugi=hadoop ip=unknown-ip-addr cmd=get_functions: db=default pat=* 2022-01-04 23:49:22 INFO Datastore:77 - The class "org.apache.hadoop.hive.metastore.model.MResourceUri" is tagged as "embedded-only" so does not have its own datastore table. 2022-01-04 23:49:23 INFO SessionState:641 - Created HDFS directory: /tmp/hive/hadoop 2022-01-04 23:49:23 INFO SessionState:641 - Created local directory: /tmp/17c2283a-5ee4-41a0-88b7-54b3ec12cd9f_resources 2022-01-04 23:49:23 INFO SessionState:641 - Created HDFS directory: /tmp/hive/hadoop/17c2283a-5ee4-41a0-88b7-54b3ec12cd9f 2022-01-04 23:49:23 INFO SessionState:641 - Created local directory: /tmp/hadoop/17c2283a-5ee4-41a0-88b7-54b3ec12cd9f 2022-01-04 23:49:23 INFO SessionState:641 - Created HDFS directory: /tmp/hive/hadoop/17c2283a-5ee4-41a0-88b7-54b3ec12cd9f/_tmp_space.db 2022-01-04 23:49:23 INFO SparkContext:54 - Running Spark version 2.3.2 2022-01-04 23:49:23 INFO SparkContext:54 - Submitted application: SparkSQL::192.168.100.20 2022-01-04 23:49:23 INFO SecurityManager:54 - Changing view acls to: hadoop 2022-01-04 23:49:23 INFO SecurityManager:54 - Changing modify acls to: hadoop 2022-01-04 23:49:23 INFO SecurityManager:54 - Changing view acls groups to: 2022-01-04 23:49:23 INFO SecurityManager:54 - Changing modify acls groups to: 2022-01-04 23:49:23 INFO SecurityManager:54 - SecurityManager: authentication disabled; ui acls disabled; users with view permissions: Set(hadoop); groups with view permissions: Set(); users with modify permissions: Set(hadoop); groups with modify permissions: Set() 2022-01-04 23:49:24 INFO Utils:54 - Successfully started service 'sparkDriver' on port 37135. 2022-01-04 23:49:24 INFO SparkEnv:54 - Registering MapOutputTracker 2022-01-04 23:49:24 INFO SparkEnv:54 - Registering BlockManagerMaster 2022-01-04 23:49:24 INFO BlockManagerMasterEndpoint:54 - Using org.apache.spark.storage.DefaultTopologyMapper for getting topology information 2022-01-04 23:49:24 INFO BlockManagerMasterEndpoint:54 - BlockManagerMasterEndpoint up 2022-01-04 23:49:24 INFO DiskBlockManager:54 - Created local directory at /tmp/blockmgr-e68cfdc9-adda-400b-beac-f4441481481c 2022-01-04 23:49:24 INFO MemoryStore:54 - MemoryStore started with capacity 366.3 MB 2022-01-04 23:49:24 INFO SparkEnv:54 - Registering OutputCommitCoordinator 2022-01-04 23:49:24 INFO log:192 - Logging initialized @14831ms 2022-01-04 23:49:25 INFO Server:351 - jetty-9.3.z-SNAPSHOT, build timestamp: unknown, git hash: unknown 2022-01-04 23:49:25 INFO Server:419 - Started @15163ms 2022-01-04 23:49:25 INFO AbstractConnector:278 - Started ServerConnector@7d0cd23c{HTTP/1.1,[http/1.1]}{0.0.0.0:4040} 2022-01-04 23:49:25 INFO Utils:54 - Successfully started service 'SparkUI' on port 4040. 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@130cfc47{/jobs,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@4584304{/jobs/json,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@51888019{/jobs/job,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@19b5214b{/jobs/job/json,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@5fb3111a{/stages,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@4aaecabd{/stages/json,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@23bd0c81{/stages/stage,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@6889f56f{/stages/stage/json,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@231b35fb{/stages/pool,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@26da1ba2{/stages/pool/json,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@3820cfe{/storage,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@2407a36c{/storage/json,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@5ec9eefa{/storage/rdd,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@28b8f98a{/storage/rdd/json,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@3b4ef59f{/environment,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@22cb3d59{/environment/json,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@33e4b9c4{/executors,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@5cff729b{/executors/json,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@10d18696{/executors/threadDump,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@6b8b5020{/executors/threadDump/json,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@7d37ee0c{/static,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@67f946c3{/,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@21b51e59{/api,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@4f664bee{/jobs/job/kill,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@76563ae7{/stages/stage/kill,null,AVAILABLE,@Spark} 2022-01-04 23:49:25 INFO SparkUI:54 - Bound SparkUI to 0.0.0.0, and started at http://bigdata-senior01.chybinmy.com:4040 2022-01-04 23:49:25 INFO Executor:54 - Starting executor ID driver on host localhost 2022-01-04 23:49:25 INFO Utils:54 - Successfully started service 'org.apache.spark.network.netty.NettyBlockTransferService' on port 43887. 2022-01-04 23:49:25 INFO NettyBlockTransferService:54 - Server created on bigdata-senior01.chybinmy.com:43887 2022-01-04 23:49:25 INFO BlockManager:54 - Using org.apache.spark.storage.RandomBlockReplicationPolicy for block replication policy 2022-01-04 23:49:25 INFO BlockManagerMaster:54 - Registering BlockManager BlockManagerId(driver, bigdata-senior01.chybinmy.com, 43887, None) 2022-01-04 23:49:25 INFO BlockManagerMasterEndpoint:54 - Registering block manager bigdata-senior01.chybinmy.com:43887 with 366.3 MB RAM, BlockManagerId(driver, bigdata-senior01.chybinmy.com, 43887, None) 2022-01-04 23:49:25 INFO BlockManagerMaster:54 - Registered BlockManager BlockManagerId(driver, bigdata-senior01.chybinmy.com, 43887, None) 2022-01-04 23:49:25 INFO BlockManager:54 - Initialized BlockManager: BlockManagerId(driver, bigdata-senior01.chybinmy.com, 43887, None) 2022-01-04 23:49:26 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@35ac9ebd{/metrics/json,null,AVAILABLE,@Spark} 2022-01-04 23:49:26 INFO SharedState:54 - Setting hive.metastore.warehouse.dir ('null') to the value of spark.sql.warehouse.dir ('file:/opt/modules/spark-2.3.2-bin-hadoop2.7/sbin/spark-warehouse'). 2022-01-04 23:49:26 INFO SharedState:54 - Warehouse path is 'file:/opt/modules/spark-2.3.2-bin-hadoop2.7/sbin/spark-warehouse'. 2022-01-04 23:49:26 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@120350eb{/SQL,null,AVAILABLE,@Spark} 2022-01-04 23:49:26 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@2ccc9681{/SQL/json,null,AVAILABLE,@Spark} 2022-01-04 23:49:26 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@aa752bb{/SQL/execution,null,AVAILABLE,@Spark} 2022-01-04 23:49:26 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@77fc19cf{/SQL/execution/json,null,AVAILABLE,@Spark} 2022-01-04 23:49:26 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@2e45a357{/static/sql,null,AVAILABLE,@Spark} 2022-01-04 23:49:26 INFO HiveUtils:54 - Initializing HiveMetastoreConnection version 1.2.1 using Spark classes. 2022-01-04 23:49:26 INFO HiveClientImpl:54 - Warehouse location for Hive client (version 1.2.2) is file:/opt/modules/spark-2.3.2-bin-hadoop2.7/sbin/spark-warehouse 2022-01-04 23:49:26 INFO metastore:291 - Mestastore configuration hive.metastore.warehouse.dir changed from /user/hive/warehouse to file:/opt/modules/spark-2.3.2-bin-hadoop2.7/sbin/spark-warehouse 2022-01-04 23:49:26 INFO HiveMetaStore:746 - 0: Shutting down the object store... 2022-01-04 23:49:26 INFO audit:371 - ugi=hadoop ip=unknown-ip-addr cmd=Shutting down the object store... 2022-01-04 23:49:26 INFO HiveMetaStore:746 - 0: Metastore shutdown complete. 2022-01-04 23:49:26 INFO audit:371 - ugi=hadoop ip=unknown-ip-addr cmd=Metastore shutdown complete. 2022-01-04 23:49:26 INFO HiveMetaStore:746 - 0: get_database: default 2022-01-04 23:49:26 INFO audit:371 - ugi=hadoop ip=unknown-ip-addr cmd=get_database: default 2022-01-04 23:49:26 INFO HiveMetaStore:589 - 0: Opening raw store with implemenation class:org.apache.hadoop.hive.metastore.ObjectStore 2022-01-04 23:49:26 INFO ObjectStore:289 - ObjectStore, initialize called 2022-01-04 23:49:26 INFO Query:77 - Reading in results for query "org.datanucleus.store.rdbms.query.SQLQuery@0" since the connection used is closing 2022-01-04 23:49:26 INFO MetaStoreDirectSql:139 - Using direct SQL, underlying DB is DERBY 2022-01-04 23:49:26 INFO ObjectStore:272 - Initialized ObjectStore 2022-01-04 23:49:28 INFO StateStoreCoordinatorRef:54 - Registered StateStoreCoordinator endpoint 2022-01-04 23:49:28 INFO HiveMetaStore:746 - 0: get_database: global_temp 2022-01-04 23:49:28 INFO audit:371 - ugi=hadoop ip=unknown-ip-addr cmd=get_database: global_temp 2022-01-04 23:49:28 WARN ObjectStore:568 - Failed to get database global_temp, returning NoSuchObjectException 2022-01-04 23:49:32 INFO HiveMetaStore:746 - 0: get_databases: * 2022-01-04 23:49:32 INFO audit:371 - ugi=hadoop ip=unknown-ip-addr cmd=get_databases: * 2022-01-04 23:49:33 INFO CodeGenerator:54 - Code generated in 524.895015 ms default Time taken: 5.645 seconds, Fetched 1 row(s) 2022-01-04 23:49:33 INFO SparkSQLCLIDriver:951 - Time taken: 5.645 seconds, Fetched 1 row(s) 2022-01-04 23:49:33 INFO AbstractConnector:318 - Stopped Spark@7d0cd23c{HTTP/1.1,[http/1.1]}{0.0.0.0:4040} 2022-01-04 23:49:33 INFO SparkUI:54 - Stopped Spark web UI at http://bigdata-senior01.chybinmy.com:4040 2022-01-04 23:49:33 INFO MapOutputTrackerMasterEndpoint:54 - MapOutputTrackerMasterEndpoint stopped! 2022-01-04 23:49:33 INFO MemoryStore:54 - MemoryStore cleared 2022-01-04 23:49:33 INFO BlockManager:54 - BlockManager stopped 2022-01-04 23:49:33 INFO BlockManagerMaster:54 - BlockManagerMaster stopped 2022-01-04 23:49:33 INFO OutputCommitCoordinator$OutputCommitCoordinatorEndpoint:54 - OutputCommitCoordinator stopped! 2022-01-04 23:49:33 INFO SparkContext:54 - Successfully stopped SparkContext 2022-01-04 23:49:33 INFO ShutdownHookManager:54 - Shutdown hook called 2022-01-04 23:49:33 INFO ShutdownHookManager:54 - Deleting directory /tmp/spark-437b36ba-6b7b-4a31-be54-d724731cca35 2022-01-04 23:49:33 INFO ShutdownHookManager:54 - Deleting directory /tmp/spark-ef9ab382-9d00-4c59-a73f-f565e761bb45 [hadoop@bigdata-senior01 sbin]$

    參考
    centOS7下Spark安裝配置

    spark-sql -e “show databases”

    [hadoop@dss sbin]$ spark-sql -e "show databases" 2022-03-03 06:29:44 WARN Utils:66 - Your hostname, dss resolves to a loopback address: 127.0.0.1; using 192.168.122.67 instead (on interface eth0) 2022-03-03 06:29:44 WARN Utils:66 - Set SPARK_LOCAL_IP if you need to bind to another address 2022-03-03 06:29:45 WARN NativeCodeLoader:62 - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable 2022-03-03 06:29:46 INFO HiveMetaStore:589 - 0: Opening raw store with implemenation class:org.apache.hadoop.hive.metastore.ObjectStore 2022-03-03 06:29:46 INFO ObjectStore:289 - ObjectStore, initialize called 2022-03-03 06:29:46 INFO Persistence:77 - Property hive.metastore.integral.jdo.pushdown unknown - will be ignored 2022-03-03 06:29:46 INFO Persistence:77 - Property datanucleus.cache.level2 unknown - will be ignored 2022-03-03 06:29:55 INFO ObjectStore:370 - Setting MetaStore object pin classes with hive.metastore.cache.pinobjtypes="Table,StorageDescriptor,SerDeInfo,Partition,Database,Type,FieldSchema,Order" 2022-03-03 06:29:57 INFO Datastore:77 - The class "org.apache.hadoop.hive.metastore.model.MFieldSchema" is tagged as "embedded-only" so does not have its own datastore table. 2022-03-03 06:29:57 INFO Datastore:77 - The class "org.apache.hadoop.hive.metastore.model.MOrder" is tagged as "embedded-only" so does not have its own datastore table. 2022-03-03 06:30:03 INFO Datastore:77 - The class "org.apache.hadoop.hive.metastore.model.MFieldSchema" is tagged as "embedded-only" so does not have its own datastore table. 2022-03-03 06:30:03 INFO Datastore:77 - The class "org.apache.hadoop.hive.metastore.model.MOrder" is tagged as "embedded-only" so does not have its own datastore table. 2022-03-03 06:30:05 INFO MetaStoreDirectSql:139 - Using direct SQL, underlying DB is DERBY 2022-03-03 06:30:05 INFO ObjectStore:272 - Initialized ObjectStore 2022-03-03 06:30:06 WARN ObjectStore:6666 - Version information not found in metastore. hive.metastore.schema.verification is not enabled so recording the schema version 1.2.0 2022-03-03 06:30:06 WARN ObjectStore:568 - Failed to get database default, returning NoSuchObjectException 2022-03-03 06:30:07 INFO HiveMetaStore:663 - Added admin role in metastore 2022-03-03 06:30:07 INFO HiveMetaStore:672 - Added public role in metastore 2022-03-03 06:30:07 INFO HiveMetaStore:712 - No user is added in admin role, since config is empty 2022-03-03 06:30:07 INFO HiveMetaStore:746 - 0: get_all_databases 2022-03-03 06:30:07 INFO audit:371 - ugi=hadoop ip=unknown-ip-addr cmd=get_all_databases 2022-03-03 06:30:07 INFO HiveMetaStore:746 - 0: get_functions: db=default pat=* 2022-03-03 06:30:07 INFO audit:371 - ugi=hadoop ip=unknown-ip-addr cmd=get_functions: db=default pat=* 2022-03-03 06:30:07 INFO Datastore:77 - The class "org.apache.hadoop.hive.metastore.model.MResourceUri" is tagged as "embedded-only" so does not have its own datastore table. 2022-03-03 06:30:08 INFO SessionState:641 - Created HDFS directory: /tmp/hive/hadoop 2022-03-03 06:30:08 INFO SessionState:641 - Created local directory: /tmp/d26dff0e-0e55-4623-af6a-a189a8d13689_resources 2022-03-03 06:30:08 INFO SessionState:641 - Created HDFS directory: /tmp/hive/hadoop/d26dff0e-0e55-4623-af6a-a189a8d13689 2022-03-03 06:30:08 INFO SessionState:641 - Created local directory: /tmp/hadoop/d26dff0e-0e55-4623-af6a-a189a8d13689 2022-03-03 06:30:08 INFO SessionState:641 - Created HDFS directory: /tmp/hive/hadoop/d26dff0e-0e55-4623-af6a-a189a8d13689/_tmp_space.db 2022-03-03 06:30:08 INFO SparkContext:54 - Running Spark version 2.3.2 2022-03-03 06:30:08 INFO SparkContext:54 - Submitted application: SparkSQL::192.168.122.67 2022-03-03 06:30:09 INFO SecurityManager:54 - Changing view acls to: hadoop 2022-03-03 06:30:09 INFO SecurityManager:54 - Changing modify acls to: hadoop 2022-03-03 06:30:09 INFO SecurityManager:54 - Changing view acls groups to: 2022-03-03 06:30:09 INFO SecurityManager:54 - Changing modify acls groups to: 2022-03-03 06:30:09 INFO SecurityManager:54 - SecurityManager: authentication disabled; ui acls disabled; users with view permissions: Set(hadoop); groups with view permissions: Set(); users with modify permissions: Set(hadoop); groups with modify permissions: Set() 2022-03-03 06:30:09 INFO Utils:54 - Successfully started service 'sparkDriver' on port 37582. 2022-03-03 06:30:09 INFO SparkEnv:54 - Registering MapOutputTracker 2022-03-03 06:30:09 INFO SparkEnv:54 - Registering BlockManagerMaster 2022-03-03 06:30:09 INFO BlockManagerMasterEndpoint:54 - Using org.apache.spark.storage.DefaultTopologyMapper for getting topology information 2022-03-03 06:30:09 INFO BlockManagerMasterEndpoint:54 - BlockManagerMasterEndpoint up 2022-03-03 06:30:09 INFO DiskBlockManager:54 - Created local directory at /tmp/blockmgr-56268e6d-f9da-4ba0-813d-8a9f0396a3ed 2022-03-03 06:30:09 INFO MemoryStore:54 - MemoryStore started with capacity 366.3 MB 2022-03-03 06:30:09 INFO SparkEnv:54 - Registering OutputCommitCoordinator 2022-03-03 06:30:09 INFO log:192 - Logging initialized @26333ms 2022-03-03 06:30:09 INFO Server:351 - jetty-9.3.z-SNAPSHOT, build timestamp: unknown, git hash: unknown 2022-03-03 06:30:09 INFO Server:419 - Started @26464ms 2022-03-03 06:30:09 INFO AbstractConnector:278 - Started ServerConnector@231cdda8{HTTP/1.1,[http/1.1]}{0.0.0.0:4040} 2022-03-03 06:30:09 INFO Utils:54 - Successfully started service 'SparkUI' on port 4040. 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@544e3679{/jobs,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@3e14d390{/jobs/json,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@5eb87338{/jobs/job,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@31ab1e67{/jobs/job/json,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@29bbc391{/stages,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@3487442d{/stages/json,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@530ee28b{/stages/stage,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@43c7fe8a{/stages/stage/json,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@67f946c3{/stages/pool,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@21b51e59{/stages/pool/json,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@1785d194{/storage,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@6b4a4e40{/storage/json,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@46a8c2b4{/storage/rdd,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@4f664bee{/storage/rdd/json,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@76563ae7{/environment,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@4fd74223{/environment/json,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@4fea840f{/executors,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@32ae8f27{/executors/json,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@75e80a97{/executors/threadDump,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@5b8853{/executors/threadDump/json,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@1b8aaeab{/static,null,AVAILABLE,@Spark} 2022-03-03 06:30:09 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@5bfc79cb{/,null,AVAILABLE,@Spark} 2022-03-03 06:30:10 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@27ec8754{/api,null,AVAILABLE,@Spark} 2022-03-03 06:30:10 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@62f9c790{/jobs/job/kill,null,AVAILABLE,@Spark} 2022-03-03 06:30:10 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@21e5f0b6{/stages/stage/kill,null,AVAILABLE,@Spark} 2022-03-03 06:30:10 INFO SparkUI:54 - Bound SparkUI to 0.0.0.0, and started at http://192.168.122.67:4040 2022-03-03 06:30:10 INFO Executor:54 - Starting executor ID driver on host localhost 2022-03-03 06:30:10 INFO Utils:54 - Successfully started service 'org.apache.spark.network.netty.NettyBlockTransferService' on port 49364. 2022-03-03 06:30:10 INFO NettyBlockTransferService:54 - Server created on 192.168.122.67:49364 2022-03-03 06:30:10 INFO BlockManager:54 - Using org.apache.spark.storage.RandomBlockReplicationPolicy for block replication policy 2022-03-03 06:30:10 INFO BlockManagerMaster:54 - Registering BlockManager BlockManagerId(driver, 192.168.122.67, 49364, None) 2022-03-03 06:30:10 INFO BlockManagerMasterEndpoint:54 - Registering block manager 192.168.122.67:49364 with 366.3 MB RAM, BlockManagerId(driver, 192.168.122.67, 49364, None) 2022-03-03 06:30:10 INFO BlockManagerMaster:54 - Registered BlockManager BlockManagerId(driver, 192.168.122.67, 49364, None) 2022-03-03 06:30:10 INFO BlockManager:54 - Initialized BlockManager: BlockManagerId(driver, 192.168.122.67, 49364, None) 2022-03-03 06:30:10 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@537b3b2e{/metrics/json,null,AVAILABLE,@Spark} 2022-03-03 06:30:10 INFO SharedState:54 - Setting hive.metastore.warehouse.dir ('null') to the value of spark.sql.warehouse.dir ('file:/opt/modules/spark-2.3.2-bin-hadoop2.7/sbin/spark-warehouse'). 2022-03-03 06:30:10 INFO SharedState:54 - Warehouse path is 'file:/opt/modules/spark-2.3.2-bin-hadoop2.7/sbin/spark-warehouse'. 2022-03-03 06:30:10 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@27bc1d44{/SQL,null,AVAILABLE,@Spark} 2022-03-03 06:30:10 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@1af677f8{/SQL/json,null,AVAILABLE,@Spark} 2022-03-03 06:30:10 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@34cd65ac{/SQL/execution,null,AVAILABLE,@Spark} 2022-03-03 06:30:10 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@61911947{/SQL/execution/json,null,AVAILABLE,@Spark} 2022-03-03 06:30:10 INFO ContextHandler:781 - Started o.s.j.s.ServletContextHandler@5940b14e{/static/sql,null,AVAILABLE,@Spark} 2022-03-03 06:30:10 INFO HiveUtils:54 - Initializing HiveMetastoreConnection version 1.2.1 using Spark classes. 2022-03-03 06:30:10 INFO HiveClientImpl:54 - Warehouse location for Hive client (version 1.2.2) is file:/opt/modules/spark-2.3.2-bin-hadoop2.7/sbin/spark-warehouse 2022-03-03 06:30:10 INFO metastore:291 - Mestastore configuration hive.metastore.warehouse.dir changed from /user/hive/warehouse to file:/opt/modules/spark-2.3.2-bin-hadoop2.7/sbin/spark-warehouse 2022-03-03 06:30:10 INFO HiveMetaStore:746 - 0: Shutting down the object store... 2022-03-03 06:30:10 INFO audit:371 - ugi=hadoop ip=unknown-ip-addr cmd=Shutting down the object store... 2022-03-03 06:30:10 INFO HiveMetaStore:746 - 0: Metastore shutdown complete. 2022-03-03 06:30:10 INFO audit:371 - ugi=hadoop ip=unknown-ip-addr cmd=Metastore shutdown complete. 2022-03-03 06:30:10 INFO HiveMetaStore:746 - 0: get_database: default 2022-03-03 06:30:10 INFO audit:371 - ugi=hadoop ip=unknown-ip-addr cmd=get_database: default 2022-03-03 06:30:10 INFO HiveMetaStore:589 - 0: Opening raw store with implemenation class:org.apache.hadoop.hive.metastore.ObjectStore 2022-03-03 06:30:10 INFO ObjectStore:289 - ObjectStore, initialize called 2022-03-03 06:30:10 INFO Query:77 - Reading in results for query "org.datanucleus.store.rdbms.query.SQLQuery@0" since the connection used is closing 2022-03-03 06:30:10 INFO MetaStoreDirectSql:139 - Using direct SQL, underlying DB is DERBY 2022-03-03 06:30:10 INFO ObjectStore:272 - Initialized ObjectStore 2022-03-03 06:30:11 INFO StateStoreCoordinatorRef:54 - Registered StateStoreCoordinator endpoint 2022-03-03 06:30:11 INFO HiveMetaStore:746 - 0: get_database: global_temp 2022-03-03 06:30:11 INFO audit:371 - ugi=hadoop ip=unknown-ip-addr cmd=get_database: global_temp 2022-03-03 06:30:11 WARN ObjectStore:568 - Failed to get database global_temp, returning NoSuchObjectException 2022-03-03 06:30:14 INFO HiveMetaStore:746 - 0: get_databases: * 2022-03-03 06:30:14 INFO audit:371 - ugi=hadoop ip=unknown-ip-addr cmd=get_databases: * 2022-03-03 06:30:14 INFO CodeGenerator:54 - Code generated in 271.767143 ms default Time taken: 2.991 seconds, Fetched 1 row(s) 2022-03-03 06:30:14 INFO SparkSQLCLIDriver:951 - Time taken: 2.991 seconds, Fetched 1 row(s) 2022-03-03 06:30:14 INFO AbstractConnector:318 - Stopped Spark@231cdda8{HTTP/1.1,[http/1.1]}{0.0.0.0:4040} 2022-03-03 06:30:14 INFO SparkUI:54 - Stopped Spark web UI at http://192.168.122.67:4040 2022-03-03 06:30:14 INFO MapOutputTrackerMasterEndpoint:54 - MapOutputTrackerMasterEndpoint stopped! 2022-03-03 06:30:14 INFO MemoryStore:54 - MemoryStore cleared 2022-03-03 06:30:14 INFO BlockManager:54 - BlockManager stopped 2022-03-03 06:30:14 INFO BlockManagerMaster:54 - BlockManagerMaster stopped 2022-03-03 06:30:14 INFO OutputCommitCoordinator$OutputCommitCoordinatorEndpoint:54 - OutputCommitCoordinator stopped! 2022-03-03 06:30:14 INFO SparkContext:54 - Successfully stopped SparkContext 2022-03-03 06:30:14 INFO ShutdownHookManager:54 - Shutdown hook called 2022-03-03 06:30:14 INFO ShutdownHookManager:54 - Deleting directory /tmp/spark-f46e0008-5a10-405d-8a2a-c5406427ef4d 2022-03-03 06:30:14 INFO ShutdownHookManager:54 - Deleting directory /tmp/spark-5d80c67d-8631-4340-ad2d-e112802b93a2 [hadoop@dss sbin]$

    第十二部分、DSS一鍵安裝

    補充nginx配置,測試yum是否好用,準備配置文件

    links默認使用python,建議安裝python2

    web的install.sh中,需要本地安裝后,然后去掉nginx的安裝,及防火墻的處理部分腳本

    修改全家中中conf的config.sh中的nginx端口為非8088 ,不能與yarn沖突

    一、使用前環境準備

    a. 基礎軟件安裝

    Linkix需要的命令工具(在正式安裝前,腳本會自動檢測這些命令是否可用,如果不存在會嘗試自動安裝,安裝失敗則需用戶手動安裝以下基礎shell命令工具):

    • telnet tar sed dos2unix mysql yum unzip expect
    • MySQL (5.5+)
    • JDK (1.8.0_141以上)
    • Python(2.7)
    • Nginx
    • Hadoop(2.7.2,Hadoop其他版本需自行編譯Linkis) ,安裝的機器必須支持執行 hdfs dfs -ls / 命令
    • Hive(2.3.3,Hive其他版本需自行編譯Linkis),安裝的機器必須支持執行hive -e "show databases"命令
    • Spark(支持2.0以上所有版本) ,安裝的機器必須支持執行spark-sql -e "show databases"命令

    Tips:

    如您是第一次安裝Hadoop,單機部署Hadoop可參考:Hadoop單機部署 ;分布式部署Hadoop可參考:Hadoop分布式部署。

    如您是第一次安裝Hive,可參考:Hive快速安裝部署。

    如您是第一次安裝Spark,On Yarn模式可參考:Spark on Yarn部署。

    b. 創建用戶

    ? 例如: 部署用戶是hadoop賬號(可以不是hadoop用戶,但是推薦使用Hadoop的超級用戶進行部署,這里只是一個示例)

  • 在所有需要部署的機器上創建部署用戶,用于安裝
  • sudo useradd hadoop
  • 因為Linkis的服務是以 sudo -u ${linux-user} 方式來切換引擎,從而執行作業,所以部署用戶需要有 sudo 權限,而且是免密的。
  • vim /etc/sudoers hadoop ALL=(ALL) NOPASSWD: NOPASSWD: ALL
  • 確保部署 DSS 和 Linkis 的服務器可正常執行 hdfs 、hive -e 和 spark-sql -e 等命令。在一鍵安裝腳本中,會對組件進行檢查。
  • 如果您的Pyspark想擁有畫圖功能,則還需在所有安裝節點,安裝畫圖模塊。命令如下:
  • 下載pip(適用于python3)curl https://bootstrap.pypa.io/get-pip.py -o get-pip.py下載pip(適用于python2)curl https://bootstrap.pypa.io/pip/2.7/get-pip.py -o get-pip.py安裝pippython get-pip.py升級pippip install --upgrade pip安裝matplotlibpython -m pip install -i https://pypi.tuna.tsinghua.edu.cn/simple matplotlibpip install matplotlib

    c.安裝準備

    自行編譯或者去組件release頁面下載安裝包:

  • 下載安裝包
    • wedatasphere-linkis-x.x.x-dist.tar.gz
    • wedatasphere-dss-x.x.x-dist.tar.gz
    • wedatasphere-dss-web-x.x.x-dist.zip
  • 下載 DSS & LINKIS 一鍵安裝部署包,并解壓。以下是一鍵安裝部署包的層級目錄結構:
  • ├── dss_linkis # 一鍵部署主目錄├── bin # 用于一鍵安裝,以及一鍵啟動 DSS + Linkis├── conf # 一鍵部署的參數配置目錄├── wedatasphere-dss-x.x.x-dist.tar.gz # DSS后臺安裝包├── wedatasphere-dss-web-x.x.x-dist.zip # DSS前端安裝包├── wedatasphere-linkis-x.x.x-dist.tar.gz # Linkis安裝包

    d. 修改配置

    ? 打開conf/config.sh,按需修改相關配置參數:

    vim conf/config.sh

    參數說明如下:

    說明,DSS_WEB_PORT端口需要保證不能 與YARN REST URL端口沖突,可以改為8099或其他可用端口

    #################### 一鍵安裝部署的基本配置 ##################### 部署用戶,默認為當前登錄用戶,非必須不建議修改 # deployUser=hadoop# 非必須不建議修改 # LINKIS_VERSION=1.0.2### DSS Web,本機安裝無需修改 #DSS_NGINX_IP=127.0.0.1 #DSS_WEB_PORT=8099# 非必須不建議修改 #DSS_VERSION=1.0.0## Java應用的堆棧大小。如果部署機器的內存少于8G,推薦128M;達到16G時,推薦至少256M;如果想擁有非常良好的用戶使用體驗,推薦部署機器的內存至少達到32G。 export SERVER_HEAP_SIZE="128M"############################################################ ##################### Linkis 的配置開始 ##################### ########### 非注釋的參數必須配置,注釋掉的參數可按需修改 ########## ############################################################### DSS工作空間目錄 WORKSPACE_USER_ROOT_PATH=file:///tmp/linkis/ ### 用戶 HDFS 根路徑 HDFS_USER_ROOT_PATH=hdfs:///tmp/linkis ### 結果集路徑: file 或者 hdfs path RESULT_SET_ROOT_PATH=hdfs:///tmp/linkis### Path to store started engines and engine logs, must be local ENGINECONN_ROOT_PATH=/appcom/tmp#ENTRANCE_CONFIG_LOG_PATH=hdfs:///tmp/linkis/### ==HADOOP配置文件路徑,必須配置== HADOOP_CONF_DIR=/appcom/config/hadoop-config ### HIVE CONF DIR HIVE_CONF_DIR=/appcom/config/hive-config ### SPARK CONF DIR SPARK_CONF_DIR=/appcom/config/spark-config# for install #LINKIS_PUBLIC_MODULE=lib/linkis-commons/public-module## YARN REST URL YARN_RESTFUL_URL=http://127.0.0.1:8088## Engine版本配置,不配置則采用默認配置 #SPARK_VERSION #SPARK_VERSION=2.4.3 ##HIVE_VERSION #HIVE_VERSION=1.2.1 #PYTHON_VERSION=python2## LDAP is for enterprise authorization, if you just want to have a try, ignore it. #LDAP_URL=ldap://localhost:1389/ #LDAP_BASEDN=dc=webank,dc=com #LDAP_USER_NAME_FORMAT=cn=%s@xxx.com,OU=xxx,DC=xxx,DC=com# Microservices Service Registration Discovery Center #LINKIS_EUREKA_INSTALL_IP=127.0.0.1 #LINKIS_EUREKA_PORT=20303 #LINKIS_EUREKA_PREFER_IP=true### Gateway install information #LINKIS_GATEWAY_PORT =127.0.0.1 #LINKIS_GATEWAY_PORT=9001### ApplicationManager #LINKIS_MANAGER_INSTALL_IP=127.0.0.1 #LINKIS_MANAGER_PORT=9101### EngineManager #LINKIS_ENGINECONNMANAGER_INSTALL_IP=127.0.0.1 #LINKIS_ENGINECONNMANAGER_PORT=9102### EnginePluginServer #LINKIS_ENGINECONN_PLUGIN_SERVER_INSTALL_IP=127.0.0.1 #LINKIS_ENGINECONN_PLUGIN_SERVER_PORT=9103### LinkisEntrance #LINKIS_ENTRANCE_INSTALL_IP=127.0.0.1 #LINKIS_ENTRANCE_PORT=9104### publicservice #LINKIS_PUBLICSERVICE_INSTALL_IP=127.0.0.1 #LINKIS_PUBLICSERVICE_PORT=9105### cs #LINKIS_CS_INSTALL_IP=127.0.0.1 #LINKIS_CS_PORT=9108##################### Linkis 的配置完畢 ################################################################################# ####################### DSS 的配置開始 ####################### ########### 非注釋的參數必須配置,注釋掉的參數可按需修改 ########## ############################################################# 用于存儲發布到 Schedulis 的臨時ZIP包文件 WDS_SCHEDULER_PATH=file:///appcom/tmp/wds/scheduler### This service is used to provide dss-framework-project-server capability. #DSS_FRAMEWORK_PROJECT_SERVER_INSTALL_IP=127.0.0.1 #DSS_FRAMEWORK_PROJECT_SERVER_PORT=9002### This service is used to provide dss-framework-orchestrator-server capability. #DSS_FRAMEWORK_ORCHESTRATOR_SERVER_INSTALL_IP=127.0.0.1 #DSS_FRAMEWORK_ORCHESTRATOR_SERVER_PORT=9003### This service is used to provide dss-apiservice-server capability. #DSS_APISERVICE_SERVER_INSTALL_IP=127.0.0.1 #DSS_APISERVICE_SERVER_PORT=9004### This service is used to provide dss-workflow-server capability. #DSS_WORKFLOW_SERVER_INSTALL_IP=127.0.0.1 #DSS_WORKFLOW_SERVER_PORT=9005### dss-flow-Execution-Entrance ### This service is used to provide flow execution capability. #DSS_FLOW_EXECUTION_SERVER_INSTALL_IP=127.0.0.1 #DSS_FLOW_EXECUTION_SERVER_PORT=9006### This service is used to provide dss-datapipe-server capability. #DSS_DATAPIPE_SERVER_INSTALL_IP=127.0.0.1 #DSS_DATAPIPE_SERVER_PORT=9008##sendemail配置,只影響DSS工作流中發郵件功能 EMAIL_HOST=smtp.163.com EMAIL_PORT=25 EMAIL_USERNAME=xxx@163.com EMAIL_PASSWORD=xxxxx EMAIL_PROTOCOL=smtp ####################### DSS 的配置結束 #######################

    如下地址需要配置

    ###HADOOP CONF DIR #/appcom/config/hadoop-config
    HADOOP_CONF_DIR=/opt/modules/hadoop-2.7.2/etc/hadoop/
    ###HIVE CONF DIR #/appcom/config/hive-config
    HIVE_CONF_DIR=/opt/modules/apache-hive-2.3.3/conf
    ###SPARK CONF DIR #/appcom/config/spark-config
    SPARK_CONF_DIR=/opt/modules/spark-2.3.2-bin-hadoop2.7/conf

    e. 修改數據庫配置

    請確保配置的數據庫,安裝機器可以正常訪問,否則將會出現DDL和DML導入失敗的錯誤。

    vi conf/db.sh ### 配置DSS數據庫 MYSQL_HOST=127.0.0.1 MYSQL_PORT=3306 MYSQL_DB=dss MYSQL_USER=root MYSQL_PASSWORD=asdf1234## Hive metastore的數據庫配置,用于Linkis訪問Hive的元數據信息 HIVE_HOST=127.0.0.1 HIVE_PORT=3306 HIVE_DB=hive HIVE_USER=root HIVE_PASSWORD=asdf1234

    f. 修改wedatasphere-dss-web-1.0.1-dist配置

    install.sh中的如下部分需要處理

    centos7(){# nginx是否安裝#sudo rpm -Uvh http://nginx.org/packages/centos/7/noarch/RPMS/nginx-release-centos-7-0.el7.ngx.noarch.rpm#調整點:1# yum安裝的部分nginx,缺少“/etc/nginx/conf.d/文件夾”,所以nginx手動安裝,詳見第8部分#sudo yum install -y nginx #echo "Nginx installed successfully"# 配置nginxdssConf# 解決 0.0.0.0:8888 問題yum -y install policycoreutils-pythonsemanage port -a -t http_port_t -p tcp $dss_port# 開放前端訪問端口#調整點2#【如果用于測試,本地已關閉防火墻,不需要執行】#firewall-cmd --zone=public --add-port=$dss_port/tcp --permanent#調整點3#重啟防火墻# 【如果用于測試,本地已關閉防火墻,不需要執行】#firewall-cmd --reload# 啟動nginxsystemctl restart nginx# 調整SELinux的參數sed -i "s/SELINUX=enforcing/SELINUX=disabled/g" /etc/selinux/config# 臨時生效setenforce 0}

    二、安裝和使用

    1. 執行安裝腳本:

    sh bin/install.sh # 看具體執行到哪一步 sh -v bin/install.sh

    2. 安裝步驟

    • 該安裝腳本會檢查各項集成環境命令,如果沒有請按照提示進行安裝,以下命令為必須項【環境準備時已經安裝】

      yum java mysql zip unzip expect telnet tar sed dos2unix nginx

    • 安裝時,腳本會詢問您是否需要初始化數據庫并導入元數據,Linkis 和 DSS 均會詢問。

      第一次安裝必須選是。

    3. 是否安裝成功:

    通過查看控制臺打印的日志信息查看是否安裝成功。

    如果有錯誤信息,可以查看具體報錯原因。

    4. 啟動服務

    (1) 啟動服務:

    在安裝目錄執行以下命令,啟動所有服務:

    sh bin/start-all.sh

    如果啟動產生了錯誤信息,可以查看具體報錯原因。啟動后,各項微服務都會進行通信檢測,如果有異常則可以幫助用戶定位異常日志和原因。

    (2) 查看是否啟動成功

    可以在Eureka界面查看 Linkis & DSS 后臺各微服務的啟動情況。 [外鏈圖片轉存失敗,源站可能有防盜鏈機制,建議將圖片保存下來直接上傳(img-2g42t5Fv-1646916641903)(https://github.com/WeBankFinTech/DataSphereStudio-Doc/raw/main/zh_CN/Images/%E5%AE%89%E8%A3%85%E9%83%A8%E7%BD%B2/DSS%E5%8D%95%E6%9C%BA%E9%83%A8%E7%BD%B2%E6%96%87%E6%A1%A3/eureka.png)]

    (3) 谷歌瀏覽器訪問:

    請使用谷歌瀏覽器訪問以下前端地址:

    http://DSS_NGINX_IP:DSS_WEB_PORT 啟動日志會打印此訪問地址。登陸時管理員的用戶名和密碼均為部署用戶名,如部署用戶為hadoop,則管理員的用戶名/密碼為:hadoop/hadoop。

    (4) 停止服務:

    在安裝目錄執行以下命令,停止所有服務:

    sh bin/stop-all.sh

    通過如下腳本判斷是否停止成功,如果停止失敗可以通過kill結束進程

    ps -ef|grep DSS ps -ef|grep Linkis ps -ef|grep eureka
    (5) 安裝成功后,有6個DSS服務,8個Linkis服務

    LINKIS-CG-ENGINECONNMANAGER
    LINKIS-CG-ENGINEPLUGIN
    LINKIS-CG-ENTRANCE
    LINKIS-CG-LINKISMANAGER
    LINKIS-MG-EUREKA
    LINKIS-MG-GATEWAY
    LINKIS-PS-CS
    LINKIS-PS-PUBLICSERVICE

    5.安裝日志 install.sh

    [hadoop@dss dssLinksFamilyMeals]$ sh bin/install.sh######################################################################################## ######################################################################################## Welcome to DSS & Linkis Deployment Service! Suitable for Linkis and DSS first installation, please be sure the environment is ready. ######################################################################################## ########################################################################################It is recommended to use 5G memory. Each service is set to 256M, with a minimum of 128M. The default configuration is 256M. If you need to modify it, please modify conf/config.shAre you sure you have installed the database? If installed, enter 1, otherwise enter 0Please input the choice:1Do you need to check the installation environment? Enter 1 if necessary, otherwise enter 0Please input the choice:0######################################################################## ###################### Start to install Linkis ######################### ######################################################################## Start to unzip linkis package. Succeed to + Unzip linkis package to /opt/modules/dssLinksFamilyMeals/linkis-pre-install. Start to replace linkis field value. End to replace linkis field value. <-----start to check used cmd----> <-----end to check used cmd----> Succeed to + check env step1:load config Succeed to + load config Do you want to clear Linkis table information in the database?1: Do not execute table-building statements2: Dangerous! Clear all data and rebuild the tablesother: exitPlease input the choice:2 You chose Rebuild the table create hdfs directory and local directory Succeed to + create file:///tmp/linkis/ directory Succeed to + create hdfs:///tmp/linkis directory Succeed to + create hdfs:///tmp/linkis directory rm: cannot remove ‘/opt/modules/dssLinksFamilyMeals/linkis-bak’: No such file or directory mv /opt/modules/dssLinksFamilyMeals/linkis /opt/modules/dssLinksFamilyMeals/linkis-bak create dir LINKIS_HOME: /opt/modules/dssLinksFamilyMeals/linkis Succeed to + Create the dir of /opt/modules/dssLinksFamilyMeals/linkis Start to cp /opt/modules/dssLinksFamilyMeals/linkis-pre-install/linkis-package to /opt/modules/dssLinksFamilyMeals/linkis. Succeed to + cp /opt/modules/dssLinksFamilyMeals/linkis-pre-install/linkis-package to /opt/modules/dssLinksFamilyMeals/linkis mysql: [Warning] Using a password on the command line interface can be insecure. mysql: [Warning] Using a password on the command line interface can be insecure. Succeed to + source linkis_ddl.sql mysql: [Warning] Using a password on the command line interface can be insecure. +-----------------+ | @label_id := id | +-----------------+ | 1 | +-----------------+ +-----------------+ | @label_id := id | +-----------------+ | 2 | +-----------------+ +-----------------+ | @label_id := id | +-----------------+ | 3 | +-----------------+ +-----------------+ | @label_id := id | +-----------------+ | 4 | +-----------------+ +-----------------+ | @label_id := id | +-----------------+ | 11 | +-----------------+ +-----------------+ | @label_id := id | +-----------------+ | 12 | +-----------------+ +-----------------+ | @label_id := id | +-----------------+ | 13 | +-----------------+ +-----------------+ | @label_id := id | +-----------------+ | 14 | +-----------------+ +-----------------+ | @label_id := id | +-----------------+ | 15 | +-----------------+ +-----------------+ | @label_id := id | +-----------------+ | 16 | +-----------------+ +-----------------+ | @label_id := id | +-----------------+ | 17 | +-----------------+ +-----------------+ | @label_id := id | +-----------------+ | 18 | +-----------------+ +-----------------+ | @label_id := id | +-----------------+ | 19 | +-----------------+ Succeed to + source linkis_dml.sql Rebuild the table Update config... update conf /opt/modules/dssLinksFamilyMeals/linkis/conf/linkis.properties update conf /opt/modules/dssLinksFamilyMeals/linkis/conf/linkis-mg-gateway.properties update conf /opt/modules/dssLinksFamilyMeals/linkis/conf/linkis-ps-publicservice.properties Congratulations! You have installed Linkis 1.0.3 successfully, please use sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-start-all.sh to start it! Your default account password ishadoop/a61035488 Succeed to + install Linkis######################################################################### ###################### Start to install DSS Service ##################### ######################################################################### Succeed to + Create the dir of /opt/modules/dssLinksFamilyMeals/dss-pre-install Start to unzip dss server package. Succeed to + Unzip dss server package to /opt/modules/dssLinksFamilyMeals/dss-pre-install Start to replace dss field value. End to replace dss field value. java version "1.8.0_261" Java(TM) SE Runtime Environment (build 1.8.0_261-b12) Java HotSpot(TM) 64-Bit Server VM (build 25.261-b12, mixed mode) Succeed to + execute java --version step1:load config Do you want to clear Dss table information in the database?1: Do not execute table-building statements2: Dangerous! Clear all data and rebuild the tables.Please input the choice:2 You chose Rebuild the table Simple installation mode java version "1.8.0_261" Java(TM) SE Runtime Environment (build 1.8.0_261-b12) Java HotSpot(TM) 64-Bit Server VM (build 25.261-b12, mixed mode) Succeed to + execute java --version telnet check for your MYSQL, if you wait for a long time,may be your MYSQL does not prepared MYSQL is OK. mysql: [Warning] Using a password on the command line interface can be insecure. Succeed to + source dss_ddl.sql mysql: [Warning] Using a password on the command line interface can be insecure. +---------------------------------+ | @dss_appconn_orchestratorId:=id | +---------------------------------+ | 2 | +---------------------------------+ +-----------------------------+ | @dss_appconn_workflowId:=id | +-----------------------------+ | 3 | +-----------------------------+ +---------------------------------+ | @dss_appconn_eventcheckerId:=id | +---------------------------------+ | 5 | +---------------------------------+ +--------------------------------+ | @dss_appconn_datacheckerId:=id | +--------------------------------+ | 6 | +--------------------------------+ Succeed to + source dss_dml_real.sql Rebuild the table step2:update config rm: cannot remove ‘/opt/modules/dssLinksFamilyMeals/dss-bak’: No such file or directory mv /opt/modules/dssLinksFamilyMeals/dss /opt/modules/dssLinksFamilyMeals/dss-bak create dir SERVER_HOME: /opt/modules/dssLinksFamilyMeals/dss Succeed to + Create the dir of /opt/modules/dssLinksFamilyMeals/dss Succeed to + subsitution /opt/modules/dssLinksFamilyMeals/dss/conf/dss-framework-project-server.properties Succeed to + subsitution /opt/modules/dssLinksFamilyMeals/dss/conf/dss-framework-orchestrator-server.properties Succeed to + subsitution /opt/modules/dssLinksFamilyMeals/dss/conf/dss-apiservice-server.properties Succeed to + subsitution /opt/modules/dssLinksFamilyMeals/dss/conf/dss-datapipe-server.properties Succeed to + subsitution /opt/modules/dssLinksFamilyMeals/dss/conf/dss-flow-execution-server.properties Succeed to + subsitution /opt/modules/dssLinksFamilyMeals/dss/conf/dss-workflow-server.properties Congratulations! You have installed DSS 1.0.1 successfully, please use sbin/dss-start-all.sh to start it! Succeed to + install DSS Service########################################################################### ###################### Start to install DSS & Linkis Web ################## ########################################################################### Succeed to + Create the dir of /opt/modules/dssLinksFamilyMeals/web Start to unzip dss web package. Succeed to + Unzip dss web package to /opt/modules/dssLinksFamilyMeals/web Start to replace dss web field value. End to replace dss web field value. dss front-end deployment script linux Loaded plugins: fastestmirror Loading mirror speeds from cached hostfile* base: mirrors.bupt.edu.cn* epel: mirror.earthlink.iq* extras: mirrors.cn99.com* updates: mirrors.cn99.com Package policycoreutils-python-2.5-34.el7.x86_64 already installed and latest version Nothing to do ValueError: Port tcp/8088 already defined Succeed to + install DSS & Linkis WebEureka configuration path of Linkis: linkis/conf/application-linkis.yml Eureka configuration path of DSS : dss/conf/application-dss.ymlCongratulations! You have installed DSS & Linkis successfully, please use bin/start-all.sh to start it!

    6.啟動腳本 start-all.sh

    [hadoop@dss dssLinksFamilyMeals]$ [hadoop@dss dssLinksFamilyMeals]$ bin/start-all.sh ######################################################################## ###################### Begin to start Linkis ########################### ######################################################################## We will start all linkis applications, it will take some time, please wait <--------------------------------> Begin to start mg-eureka Is local execution:sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-daemon.sh restart mg-eureka server mg-eureka is not running Start to check whether the mg-eureka is running Start server, startup script: /opt/modules/dssLinksFamilyMeals/linkis/sbin/ext/linkis-mg-eureka nohup: redirecting stderr to stdout server linkis-mg-eureka start succeeded! Succeed to + End to start mg-eureka <--------------------------------> <--------------------------------> Begin to start mg-gateway Is local execution:sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-daemon.sh restart mg-gateway server mg-gateway is not running Start to check whether the mg-gateway is running Start server, startup script: /opt/modules/dssLinksFamilyMeals/linkis/sbin/ext/linkis-mg-gateway nohup: redirecting stderr to stdout server linkis-mg-gateway start succeeded! Succeed to + End to start mg-gateway <--------------------------------> <--------------------------------> Begin to start ps-publicservice Is local execution:sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-daemon.sh restart ps-publicservice server ps-publicservice is not running Start to check whether the ps-publicservice is running Start server, startup script: /opt/modules/dssLinksFamilyMeals/linkis/sbin/ext/linkis-ps-publicservice nohup: redirecting stderr to stdout server linkis-ps-publicservice start succeeded! Succeed to + End to start ps-publicservice <--------------------------------> <--------------------------------> Begin to start cg-linkismanager Is local execution:sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-daemon.sh restart cg-linkismanager server cg-linkismanager is not running Start to check whether the cg-linkismanager is running Start server, startup script: /opt/modules/dssLinksFamilyMeals/linkis/sbin/ext/linkis-cg-linkismanager nohup: redirecting stderr to stdout server linkis-cg-linkismanager start succeeded! Succeed to + End to start cg-linkismanager <--------------------------------> <--------------------------------> Begin to start ps-cs Is local execution:sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-daemon.sh restart ps-cs server ps-cs is not running Start to check whether the ps-cs is running Start server, startup script: /opt/modules/dssLinksFamilyMeals/linkis/sbin/ext/linkis-ps-cs nohup: redirecting stderr to stdout server linkis-ps-cs start succeeded! Succeed to + End to start ps-cs <--------------------------------> <--------------------------------> Begin to start cg-entrance Is local execution:sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-daemon.sh restart cg-entrance server cg-entrance is not running Start to check whether the cg-entrance is running Start server, startup script: /opt/modules/dssLinksFamilyMeals/linkis/sbin/ext/linkis-cg-entrance nohup: redirecting stderr to stdout server linkis-cg-entrance start succeeded! Succeed to + End to start cg-entrance <--------------------------------> <--------------------------------> Begin to start cg-engineconnmanager Is local execution:sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-daemon.sh restart cg-engineconnmanager server cg-engineconnmanager is not running Start to check whether the cg-engineconnmanager is running Start server, startup script: /opt/modules/dssLinksFamilyMeals/linkis/sbin/ext/linkis-cg-engineconnmanager nohup: redirecting stderr to stdout server linkis-cg-engineconnmanager start succeeded! Succeed to + End to start cg-engineconnmanager <--------------------------------> <--------------------------------> Begin to start cg-engineplugin Is local execution:sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-daemon.sh restart cg-engineplugin server cg-engineplugin is not running Start to check whether the cg-engineplugin is running Start server, startup script: /opt/modules/dssLinksFamilyMeals/linkis/sbin/ext/linkis-cg-engineplugin nohup: redirecting stderr to stdout server linkis-cg-engineplugin start succeeded! Succeed to + End to start cg-engineplugin <--------------------------------> start-all shell script executed completely Start to check all linkis microservice <--------------------------------> Begin to check mg-eureka Is local execution:sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-daemon.sh status mg-eureka 12210 server mg-eureka is running. <--------------------------------> <--------------------------------> Begin to check mg-gateway Is local execution:sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-daemon.sh status mg-gateway 12248 server mg-gateway is running. <--------------------------------> <--------------------------------> Begin to check ps-publicservice Is local execution:sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-daemon.sh status ps-publicservice 12317 server ps-publicservice is running. <--------------------------------> <--------------------------------> Begin to check ps-cs Is local execution:sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-daemon.sh status ps-cs 12465 server ps-cs is running. <--------------------------------> <--------------------------------> Begin to check cg-linkismanager Is local execution:sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-daemon.sh status cg-linkismanager 12363 server cg-linkismanager is running. <--------------------------------> <--------------------------------> Begin to check cg-entrance Is local execution:sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-daemon.sh status cg-entrance 12519 server cg-entrance is running. <--------------------------------> <--------------------------------> Begin to check cg-engineconnmanager Is local execution:sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-daemon.sh status cg-engineconnmanager 12575 server cg-engineconnmanager is running. <--------------------------------> <--------------------------------> Begin to check cg-engineplugin Is local execution:sh /opt/modules/dssLinksFamilyMeals/linkis/sbin/linkis-daemon.sh status cg-engineplugin 12631 server cg-engineplugin is running. <--------------------------------> Linkis started successfully Succeed to + start Linkis######################################################################## ###################### Begin to start DSS Service ###################### ######################################################################## We will start all dss applications, it will take some time, please wait <--------------------------------> Begin to start dss-framework-project-server Is local execution:sh /opt/modules/dssLinksFamilyMeals/dss/sbin/dss-daemon.sh restart dss-framework-project-server server dss-framework-project-server is not running Start to check whether the dss-framework-project-server is running Start to start server, startup script: /opt/modules/dssLinksFamilyMeals/dss/sbin/ext/dss-framework-project-server nohup: redirecting stderr to stdout server dss-framework-project-server start succeeded! End to start dss-framework-project-server <--------------------------------> <--------------------------------> Begin to start dss-framework-orchestrator-server Is local execution:sh /opt/modules/dssLinksFamilyMeals/dss/sbin/dss-daemon.sh restart dss-framework-orchestrator-server server dss-framework-orchestrator-server is not running Start to check whether the dss-framework-orchestrator-server is running Start to start server, startup script: /opt/modules/dssLinksFamilyMeals/dss/sbin/ext/dss-framework-orchestrator-server nohup: redirecting stderr to stdout server dss-framework-orchestrator-server start succeeded! End to start dss-framework-orchestrator-server <--------------------------------> <--------------------------------> Begin to start dss-apiservice-server Is local execution:sh /opt/modules/dssLinksFamilyMeals/dss/sbin/dss-daemon.sh restart dss-apiservice-server server dss-apiservice-server is not running Start to check whether the dss-apiservice-server is running Start to start server, startup script: /opt/modules/dssLinksFamilyMeals/dss/sbin/ext/dss-apiservice-server nohup: redirecting stderr to stdout server dss-apiservice-server start succeeded! End to start dss-apiservice-server <--------------------------------> <--------------------------------> Begin to start dss-datapipe-server Is local execution:sh /opt/modules/dssLinksFamilyMeals/dss/sbin/dss-daemon.sh restart dss-datapipe-server server dss-datapipe-server is not running Start to check whether the dss-datapipe-server is running Start to start server, startup script: /opt/modules/dssLinksFamilyMeals/dss/sbin/ext/dss-datapipe-server nohup: redirecting stderr to stdout server dss-datapipe-server start succeeded! End to start dss-datapipe-server <--------------------------------> <--------------------------------> Begin to start dss-workflow-server Is local execution:sh /opt/modules/dssLinksFamilyMeals/dss/sbin/dss-daemon.sh restart dss-workflow-server server dss-workflow-server is not running Start to check whether the dss-workflow-server is running Start to start server, startup script: /opt/modules/dssLinksFamilyMeals/dss/sbin/ext/dss-workflow-server nohup: redirecting stderr to stdout server dss-workflow-server start succeeded! End to start dss-workflow-server <--------------------------------> <--------------------------------> Begin to start dss-flow-execution-server Is local execution:sh /opt/modules/dssLinksFamilyMeals/dss/sbin/dss-daemon.sh restart dss-flow-execution-server server dss-flow-execution-server is not running Start to check whether the dss-flow-execution-server is running Start to start server, startup script: /opt/modules/dssLinksFamilyMeals/dss/sbin/ext/dss-flow-execution-server nohup: redirecting stderr to stdout server dss-flow-execution-server start succeeded! End to start dss-flow-execution-server <--------------------------------> <--------------------------------> Begin to check dss-framework-project-server Is local execution:sh /opt/modules/dssLinksFamilyMeals/dss/sbin/dss-daemon.sh status dss-framework-project-server server dss-framework-project-server is running. <--------------------------------> <--------------------------------> Begin to check dss-framework-orchestrator-server Is local execution:sh /opt/modules/dssLinksFamilyMeals/dss/sbin/dss-daemon.sh status dss-framework-orchestrator-server server dss-framework-orchestrator-server is running. <--------------------------------> <--------------------------------> Begin to check dss-apiservice-server Is local execution:sh /opt/modules/dssLinksFamilyMeals/dss/sbin/dss-daemon.sh status dss-apiservice-server server dss-apiservice-server is running. <--------------------------------> <--------------------------------> Begin to check dss-datapipe-server Is local execution:sh /opt/modules/dssLinksFamilyMeals/dss/sbin/dss-daemon.sh status dss-datapipe-server server dss-datapipe-server is running. <--------------------------------> <--------------------------------> Begin to check dss-workflow-server Is local execution:sh /opt/modules/dssLinksFamilyMeals/dss/sbin/dss-daemon.sh status dss-workflow-server server dss-workflow-server is running. <--------------------------------> <--------------------------------> Begin to check dss-flow-execution-server Is local execution:sh /opt/modules/dssLinksFamilyMeals/dss/sbin/dss-daemon.sh status dss-flow-execution-server server dss-flow-execution-server is running. <--------------------------------> Succeed to + start DSS Service######################################################################## ###################### Begin to start DSS & Linkis web ########################## ######################################################################## Succeed to + start DSS & Linkis Web=============================================== There are eight micro services in Linkis: linkis-cg-engineconnmanager linkis-cg-engineplugin linkis-cg-entrance linkis-cg-linkismanager linkis-mg-eureka linkis-mg-gateway linkis-ps-cs linkis-ps-publicservice ----------------------------------------------- There are six micro services in DSS: dss-framework-project-server dss-framework-orchestrator-server-dev dss-workflow-server-dev dss-flow-entrance dss-datapipe-server dss-apiservice-server ===============================================Log path of Linkis: linkis/logs Log path of DSS : dss/logsYou can check DSS & Linkis by acessing eureka URL: http://192.168.122.67:20303 You can acess DSS & Linkis Web by http://192.168.122.67:8088[hadoop@dss dssLinksFamilyMeals]$

    7.日志說明

    dss路徑下(/opt/modules/dssLinksFamilyMeals/dss/logs)
    dss-apiservice-server.out
    dss-datapipe-server.out
    dss-flow-execution-server.out
    dss-framework-orchestrator-server.out
    dss-framework-project-server.out
    dss-workflow-server.out

    linkis路徑下(/opt/modules/dssLinksFamilyMeals/linkis/logs)
    linkis-cg-engineconnmanager.out
    linkis-cg-engineplugin.out
    linkis-cg-entrance.out
    linkis-cg-linkismanager.out
    linkis-mg-eureka.out
    linkis-mg-gateway.out
    linkis-ps-cs.out
    linkis-ps-publicservice.out

    三、相關訪問地址

    nginx http://192.168.122.67/

    hadoop http://192.168.122.67:50070/dfshealth.html

    spark http://192.168.122.67:8080/

    spark http://192.168.122.67:8081/

    eureka URL: http://192.168.122.67:20303

    DSS & Linkis Web by http://192.168.122.67:8088

    登錄密碼可以從日志中查到,參考如下信息

    Your default account password is hadoop/5f8a94fae

    第十三部分、幫助

    一、軟連接的創建、刪除、修改

    1、軟鏈接創建

    ln -s 【目標目錄】 【軟鏈接地址】
    【目標目錄】指軟連接指向的目標目錄下,【軟鏈接地址】指“快捷鍵”文件名稱,該文件是被指令創建的。如下示例,public文件本來在data文件下是不存在的,執行指令后才存在的。
    軟鏈接創建需要同級目錄下沒有同名的文件。就像你在windows系統桌面創建快捷鍵時,不能有同名的文件。
    當同級目錄下,有同名的文件存在時,會報錯誤。

    2、刪除

    rm -rf 【軟鏈接地址】
    上述指令中,軟鏈接地址最后不能含有“/”,當含有“/”時,刪除的是軟鏈接目標目錄下的資源,而不是軟鏈接本身。

    3、修改

    #ln -snf 【新目標目錄】 【軟鏈接地址】
    這里修改是指修改軟鏈接的目標目錄 。
    ————————————————
    版權聲明:本文為CSDN博主「主主主主公」的原創文章,遵循CC 4.0 BY-SA版權協議,轉載請附上原文出處鏈接及本聲明。
    原文鏈接:https://blog.csdn.net/xhx94/article/details/98865598

    二、sudo指令和/etc/sudoers文件說明

    sudo 命令

    -l 顯示當前用戶的sudo權限
    -l username 顯示username的sudo權限
    -u username 以username的權限執行
    -k 強迫用戶下一次執行sudo時問密碼(不論有無超過n分鐘)
    -b 后臺執行
    -p 修改提示符,%u,%h
    -H 將HOME環境變量設為新身份的HOME環境變量
    -s 執行指定的shell
    -v 延長密碼有效期限5分鐘

    ## Sudoers 允許特定用戶在不需要root密碼的情況下,運行各種需要root權限的指令
    ## 相關命令的集合的文件底部提供了示例,然后可以將它們委托給特定的用戶或組。
    ## 該文件必須使用visudo指令編輯

    格式:

    root ALL=(ALL) ALL
    User Aliases Host Aliases = (Runas Aliases) Command Aliases
    誰 通過 哪些主機 可以通過 哪個身份 運行 哪些命令

    User Aliases和Runas Aliases可取值:
    username
    #uid
    %gropname
    %#gid
    User_Alias/Runas_Alias

    Host Aliases可取值:
    hostname
    ip
    172.16.8.6/16
    netgroup
    Host_Alias

    Command Aliases可取值:
    commandname
    directory
    sudoedit
    Cmnd_Alias

    ## Runas Aliases
    # 以什么樣的身份運行后面的指令
    Runas_Alias USER1 = root

    ## Host Aliases
    ## 主機組,您可能更愿意使用主機名(也可使用通配符匹配整個域)或IP地址。
    # Host_Alias FILESERVERS = fs1, fs2
    # Host_Alias MAILSERVERS = smtp, smtp2

    ## User Aliases
    ## 用戶,這些通常不是必需的,因為您可以在此文件中使用常規組(即來自文件,LDAP,NIS等) - 只需使用%groupname,而不是USERALIAS
    # User_Alias ADMINS = jsmith, mikem

    ## Command Aliases
    ## 相關命令的集合

    ## 網絡相關的指令
    # Cmnd_Alias NETWORKING = /sbin/route, /sbin/ifconfig, /bin/ping, /sbin/dhclient, /usr/bin/net, /sbin/iptables, /usr/bin/rfcomm, /usr/bin/wvdial, /sbin/iwconfig, /sbin/mii-tool

    ## 軟件安裝和管理使用的指令
    # Cmnd_Alias SOFTWARE = /bin/rpm, /usr/bin/up2date, /usr/bin/yum

    ## 服務相關的指令
    # Cmnd_Alias SERVICES = /sbin/service, /sbin/chkconfig

    ## 升級locate數據庫的指令
    # Cmnd_Alias LOCATE = /usr/bin/updatedb

    ## 存儲相關的指令
    # Cmnd_Alias STORAGE = /sbin/fdisk, /sbin/sfdisk, /sbin/parted, /sbin/partprobe, /bin/mount, /bin/umount

    ## 委派權限相關的指令
    # Cmnd_Alias DELEGATING = /usr/sbin/visudo, /bin/chown, /bin/chmod, /bin/chgrp

    ## 進程相關的指令
    # Cmnd_Alias PROCESSES = /bin/nice, /bin/kill, /usr/bin/kill, /usr/bin/killall

    ## 驅動模塊的相關的指令
    # Cmnd_Alias DRIVERS = /sbin/modprobe

    ##開發常用指令
    Cmnd_Alias DEVELOP = /usr/bin/cd, /usr/bin/pwd, /usr/bin/mkdir, /usr/bin/rmdir, /usr/bin/basename, /usr/bin/dirname, /usr/bin/vi, /usr/bin/diff, /usr/bin/find, /usr/bin/cat, /usr/bin/ta
    c, /usr/bin/rev, /usr/bin/head, /usr/bin/tail, /usr/bin/tailf, /usr/bin/echo, /usr/bin/wc, /usr/bin/chown, /usr/bin/chmod, /usr/bin/chgrp, /usr/bin/gzip, /usr/bin/zcat, /usr/bin/gunzip,/
    usr/bin/tar, /usr/sbin/ifconfig, /usr/bin/ping, /usr/bin/telnet, /usr/bin/netstat, /usr/bin/wget, /usr/bin/top, /usr/bin/cal, /usr/bin/date, /usr/bin/who, /usr/bin/ps, /usr/bin/clear, /u
    sr/bin/df, /usr/bin/du, /usr/bin/free, /usr/bin/crontab, /usr/bin/yum,/usr/bin/make,/usr/bin/rm,/usr/sbin/ldconfig

    # 默認規范
    #
    # 如果無法禁用tty上的回顯(echo),拒絕運行,即輸入密碼時禁止顯示
    Defaults !visiblepw

    #
    #由于許多程序在搜索配置文件時使用它,因此保留HOME會帶來安全隱患。請注意,當啟用env_reset選項時,就已經設置了HOME,因此此選項僅適用于env_keep列表中,禁用了env_reset或HOME存在的配置。
    Defaults always_set_home

    #
    Defaults env_reset,passwd_timeout=2.5,timestampe_timeout=4
    Defaults env_keep = “COLORS DISPLAY HOSTNAME HISTSIZE INPUTRC KDEDIR LS_COLORS”
    Defaults env_keep += “MAIL PS1 PS2 QTDIR USERNAME LANG LC_ADDRESS LC_CTYPE”
    Defaults env_keep += “LC_COLLATE LC_IDENTIFICATION LC_MEASUREMENT LC_MESSAGES”
    Defaults env_keep += “LC_MONETARY LC_NAME LC_NUMERIC LC_PAPER LC_TELEPHONE”
    Defaults env_keep += “LC_TIME LC_ALL LANGUAGE LINGUAS _XKB_CHARSET XAUTHORITY”

    #
    # 將HOME添加到env_keep可以使用戶通過sudo運行不受限制的命令。
    # Defaults env_keep += “HOME”

    Defaults secure_path = /sbin:/bin:/usr/sbin:/usr/bin

    ## 接下來是重要部分:哪些用戶可以在哪些機器上運行哪些軟件(sudoers文件可以在多個系統之間共享)。
    ## 語法:
    ## user MACHINE=COMMANDS
    ##
    ## COMMANDS部分可能會添加其他選項
    ##
    ## 允許root在任何地方運行任何命令
    root ALL=(ALL) ALL

    ## 允許’sys’用戶組的所有用戶運行"NETWORKING",“SOFTWARE”,“SERVICES”,“STORAGE”,“DELEGATING”,“PROCESSES”,“LOCATE”,"DRIVERS"命令組的指令
    # %sys ALL = NETWORKING, SOFTWARE, SERVICES, STORAGE, DELEGATING, PROCESSES, LOCATE, DRIVERS

    ## 允許wheel組中的所有成員運行系統上的所有指令
    # %wheel ALL=(ALL) ALL

    ## 允許wheel組中的所有成員運行系統上的所有指令,不需要密碼
    # %wheel ALL=(ALL) NOPASSWD: ALL

    ## 允許users用戶組中的所有成員以root用戶身份mount和umount cdrom
    # %users ALL=/sbin/mount /mnt/cdrom, /sbin/umount /mnt/cdrom

    ## 允許users用戶組中的所有成員關閉系統
    # %users localhost=/sbin/shutdown -h now

    ## 讀取/etc/sudoers.d目錄下的所有配置文件 (這里的 # 號并不是表示注釋,是固定寫法)
    #includedir /etc/sudoers.d

    ## 為sudo添加日志審計功能,這樣的話,只要使用使用sudo執行指令的用戶,執行指令的詳細信息都會記錄在指定的日志文件中
    Defaults logfile=/var/log/sudo.log

    Aliases
    ## 主機組,您可能更愿意使用主機名(也可使用通配符匹配整個域)或IP地址。
    # Host_Alias FILESERVERS = fs1, fs2
    # Host_Alias MAILSERVERS = smtp, smtp2

    ## User Aliases
    ## 用戶,這些通常不是必需的,因為您可以在此文件中使用常規組(即來自文件,LDAP,NIS等) - 只需使用%groupname,而不是USERALIAS
    # User_Alias ADMINS = jsmith, mikem

    ## Command Aliases
    ## 相關命令的集合

    ## 網絡相關的指令
    # Cmnd_Alias NETWORKING = /sbin/route, /sbin/ifconfig, /bin/ping, /sbin/dhclient, /usr/bin/net, /sbin/iptables, /usr/bin/rfcomm, /usr/bin/wvdial, /sbin/iwconfig, /sbin/mii-tool

    ## 軟件安裝和管理使用的指令
    # Cmnd_Alias SOFTWARE = /bin/rpm, /usr/bin/up2date, /usr/bin/yum

    ## 服務相關的指令
    # Cmnd_Alias SERVICES = /sbin/service, /sbin/chkconfig

    ## 升級locate數據庫的指令
    # Cmnd_Alias LOCATE = /usr/bin/updatedb

    ## 存儲相關的指令
    # Cmnd_Alias STORAGE = /sbin/fdisk, /sbin/sfdisk, /sbin/parted, /sbin/partprobe, /bin/mount, /bin/umount

    ## 委派權限相關的指令
    # Cmnd_Alias DELEGATING = /usr/sbin/visudo, /bin/chown, /bin/chmod, /bin/chgrp

    ## 進程相關的指令
    # Cmnd_Alias PROCESSES = /bin/nice, /bin/kill, /usr/bin/kill, /usr/bin/killall

    ## 驅動模塊的相關的指令
    # Cmnd_Alias DRIVERS = /sbin/modprobe

    ##開發常用指令
    Cmnd_Alias DEVELOP = /usr/bin/cd, /usr/bin/pwd, /usr/bin/mkdir, /usr/bin/rmdir, /usr/bin/basename, /usr/bin/dirname, /usr/bin/vi, /usr/bin/diff, /usr/bin/find, /usr/bin/cat, /usr/bin/ta
    c, /usr/bin/rev, /usr/bin/head, /usr/bin/tail, /usr/bin/tailf, /usr/bin/echo, /usr/bin/wc, /usr/bin/chown, /usr/bin/chmod, /usr/bin/chgrp, /usr/bin/gzip, /usr/bin/zcat, /usr/bin/gunzip,/
    usr/bin/tar, /usr/sbin/ifconfig, /usr/bin/ping, /usr/bin/telnet, /usr/bin/netstat, /usr/bin/wget, /usr/bin/top, /usr/bin/cal, /usr/bin/date, /usr/bin/who, /usr/bin/ps, /usr/bin/clear, /u
    sr/bin/df, /usr/bin/du, /usr/bin/free, /usr/bin/crontab, /usr/bin/yum,/usr/bin/make,/usr/bin/rm,/usr/sbin/ldconfig

    # 默認規范
    #
    # 如果無法禁用tty上的回顯(echo),拒絕運行,即輸入密碼時禁止顯示
    Defaults !visiblepw

    #
    #由于許多程序在搜索配置文件時使用它,因此保留HOME會帶來安全隱患。請注意,當啟用env_reset選項時,就已經設置了HOME,因此此選項僅適用于env_keep列表中,禁用了env_reset或HOME存在的配置。
    Defaults always_set_home

    #
    Defaults env_reset,passwd_timeout=2.5,timestampe_timeout=4
    Defaults env_keep = “COLORS DISPLAY HOSTNAME HISTSIZE INPUTRC KDEDIR LS_COLORS”
    Defaults env_keep += “MAIL PS1 PS2 QTDIR USERNAME LANG LC_ADDRESS LC_CTYPE”
    Defaults env_keep += “LC_COLLATE LC_IDENTIFICATION LC_MEASUREMENT LC_MESSAGES”
    Defaults env_keep += “LC_MONETARY LC_NAME LC_NUMERIC LC_PAPER LC_TELEPHONE”
    Defaults env_keep += “LC_TIME LC_ALL LANGUAGE LINGUAS _XKB_CHARSET XAUTHORITY”

    #
    # 將HOME添加到env_keep可以使用戶通過sudo運行不受限制的命令。
    # Defaults env_keep += “HOME”

    Defaults secure_path = /sbin:/bin:/usr/sbin:/usr/bin

    ## 接下來是重要部分:哪些用戶可以在哪些機器上運行哪些軟件(sudoers文件可以在多個系統之間共享)。
    ## 語法:
    ## user MACHINE=COMMANDS
    ##
    ## COMMANDS部分可能會添加其他選項
    ##
    ## 允許root在任何地方運行任何命令
    root ALL=(ALL) ALL

    ## 允許’sys’用戶組的所有用戶運行"NETWORKING",“SOFTWARE”,“SERVICES”,“STORAGE”,“DELEGATING”,“PROCESSES”,“LOCATE”,"DRIVERS"命令組的指令
    # %sys ALL = NETWORKING, SOFTWARE, SERVICES, STORAGE, DELEGATING, PROCESSES, LOCATE, DRIVERS

    ## 允許wheel組中的所有成員運行系統上的所有指令
    # %wheel ALL=(ALL) ALL

    ## 允許wheel組中的所有成員運行系統上的所有指令,不需要密碼
    # %wheel ALL=(ALL) NOPASSWD: ALL

    ## 允許users用戶組中的所有成員以root用戶身份mount和umount cdrom
    # %users ALL=/sbin/mount /mnt/cdrom, /sbin/umount /mnt/cdrom

    ## 允許users用戶組中的所有成員關閉系統
    # %users localhost=/sbin/shutdown -h now

    ## 讀取/etc/sudoers.d目錄下的所有配置文件 (這里的 # 號并不是表示注釋,是固定寫法)
    #includedir /etc/sudoers.d

    ## 為sudo添加日志審計功能,這樣的話,只要使用使用sudo執行指令的用戶,執行指令的詳細信息都會記錄在指定的日志文件中
    Defaults logfile=/var/log/sudo.log

    轉載于:https://www.cnblogs.com/wyzhou/p/10527535.html

    總結

    以上是生活随笔為你收集整理的DSS部署-完整版的全部內容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

    亚洲人成网站色7799 | 综合人妻久久一区二区精品 | 国产亚洲tv在线观看 | 丝袜美腿亚洲一区二区 | 国内丰满熟女出轨videos | 精品国精品国产自在久国产87 | 亚洲成a人片在线观看无码 | 亚洲中文字幕av在天堂 | 亚洲精品综合五月久久小说 | 一区二区三区乱码在线 | 欧洲 | 无码人妻精品一区二区三区下载 | 亚洲精品中文字幕乱码 | 亚洲精品国产品国语在线观看 | 天天做天天爱天天爽综合网 | 精品一区二区不卡无码av | 国产性生大片免费观看性 | 中文字幕乱码中文乱码51精品 | 老熟妇乱子伦牲交视频 | 国产口爆吞精在线视频 | 日韩欧美中文字幕在线三区 | 精品国产一区二区三区av 性色 | yw尤物av无码国产在线观看 | 蜜桃视频插满18在线观看 | 天天av天天av天天透 | 男人和女人高潮免费网站 | 无码人妻黑人中文字幕 | 亚洲精品一区二区三区婷婷月 | 成人女人看片免费视频放人 | 欧美日韩久久久精品a片 | 亚洲一区二区观看播放 | 日韩成人一区二区三区在线观看 | 人人妻人人澡人人爽欧美一区九九 | 亚洲爆乳大丰满无码专区 | 未满小14洗澡无码视频网站 | 亲嘴扒胸摸屁股激烈网站 | 成人欧美一区二区三区黑人免费 | √8天堂资源地址中文在线 | 女人被男人躁得好爽免费视频 | 亚洲欧美日韩国产精品一区二区 | 国产三级久久久精品麻豆三级 | 丰满肥臀大屁股熟妇激情视频 | 亚洲一区二区三区无码久久 | 亚洲无人区午夜福利码高清完整版 | 欧美阿v高清资源不卡在线播放 | 又紧又大又爽精品一区二区 | 天堂а√在线中文在线 | 国产小呦泬泬99精品 | 熟女少妇在线视频播放 | 性色欲情网站iwww九文堂 | 鲁大师影院在线观看 | 噜噜噜亚洲色成人网站 | 麻豆精产国品 | 免费观看激色视频网站 | 国产精品久久久午夜夜伦鲁鲁 | 成人精品一区二区三区中文字幕 | 国产亚洲欧美在线专区 | 亚洲爆乳精品无码一区二区三区 | 国产精品内射视频免费 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | 欧美国产日韩久久mv | 久久久国产精品无码免费专区 | 欧美兽交xxxx×视频 | 成人无码精品1区2区3区免费看 | 国产成人一区二区三区别 | 国产午夜亚洲精品不卡 | 成人精品视频一区二区三区尤物 | 亚洲の无码国产の无码步美 | 国精产品一品二品国精品69xx | 女人高潮内射99精品 | 97无码免费人妻超级碰碰夜夜 | 国产亚洲精品久久久ai换 | 人妻少妇精品无码专区动漫 | 亚洲成在人网站无码天堂 | 久久精品国产精品国产精品污 | 成人动漫在线观看 | 欧美高清在线精品一区 | 久久亚洲国产成人精品性色 | 97精品人妻一区二区三区香蕉 | 18禁黄网站男男禁片免费观看 | 久久国产自偷自偷免费一区调 | 国产精品久免费的黄网站 | 国产另类ts人妖一区二区 | 国产xxx69麻豆国语对白 | 妺妺窝人体色www婷婷 | 久久99精品国产.久久久久 | 色噜噜亚洲男人的天堂 | 丰满少妇人妻久久久久久 | 久久久久亚洲精品男人的天堂 | 国产卡一卡二卡三 | 成熟女人特级毛片www免费 | 日本又色又爽又黄的a片18禁 | 色欲av亚洲一区无码少妇 | 免费视频欧美无人区码 | 东京无码熟妇人妻av在线网址 | 一区二区三区乱码在线 | 欧洲 | 久久国内精品自在自线 | 东京热无码av男人的天堂 | 亚洲欧洲无卡二区视頻 | 大地资源网第二页免费观看 | 亚洲成a人一区二区三区 | 免费人成在线观看网站 | 国产精品第一区揄拍无码 | 日本大香伊一区二区三区 | 国产真实伦对白全集 | 久久天天躁狠狠躁夜夜免费观看 | 欧洲熟妇精品视频 | 中文字幕人妻无码一区二区三区 | 欧美xxxxx精品 | 自拍偷自拍亚洲精品10p | 欧美丰满熟妇xxxx性ppx人交 | 亚洲国产av精品一区二区蜜芽 | 亚洲精品无码国产 | 日本高清一区免费中文视频 | 日韩人妻无码一区二区三区久久99 | 天堂久久天堂av色综合 | 国产精品美女久久久久av爽李琼 | 亚洲第一无码av无码专区 | 一本无码人妻在中文字幕免费 | 老司机亚洲精品影院 | 爆乳一区二区三区无码 | 无码国产色欲xxxxx视频 | 国产福利视频一区二区 | 又大又硬又黄的免费视频 | 99久久久国产精品无码免费 | 久久久久久九九精品久 | 波多野结衣高清一区二区三区 | 精品国精品国产自在久国产87 | 麻豆精产国品 | 一本久久a久久精品vr综合 | 国产成人精品视频ⅴa片软件竹菊 | 免费国产成人高清在线观看网站 | 乱人伦人妻中文字幕无码 | 精品欧美一区二区三区久久久 | 99国产精品白浆在线观看免费 | 国产精品久久福利网站 | 亚洲综合另类小说色区 | 狠狠综合久久久久综合网 | 少妇性俱乐部纵欲狂欢电影 | 国产成人无码a区在线观看视频app | 久久 国产 尿 小便 嘘嘘 | 天天摸天天碰天天添 | 亚洲区欧美区综合区自拍区 | 九月婷婷人人澡人人添人人爽 | 99精品无人区乱码1区2区3区 | 又大又硬又爽免费视频 | 国内揄拍国内精品人妻 | 一本大道伊人av久久综合 | 99麻豆久久久国产精品免费 | 无码人妻黑人中文字幕 | 99久久99久久免费精品蜜桃 | 清纯唯美经典一区二区 | 久久人妻内射无码一区三区 | 亚洲综合在线一区二区三区 | 搡女人真爽免费视频大全 | 日日碰狠狠躁久久躁蜜桃 | √天堂资源地址中文在线 | 国产成人无码a区在线观看视频app | 亚洲国产成人av在线观看 | 亚洲精品www久久久 | 免费观看激色视频网站 | 99国产精品白浆在线观看免费 | 欧美黑人巨大xxxxx | 亚洲国产欧美日韩精品一区二区三区 | 欧美大屁股xxxxhd黑色 | 狠狠亚洲超碰狼人久久 | 欧美国产日韩久久mv | 久久亚洲日韩精品一区二区三区 | 免费国产成人高清在线观看网站 | 一区二区三区高清视频一 | 精品乱码久久久久久久 | 国产成人久久精品流白浆 | 国产成人久久精品流白浆 | 内射爽无广熟女亚洲 | 久久国产36精品色熟妇 | 国产精品二区一区二区aⅴ污介绍 | 欧美 日韩 亚洲 在线 | 国产美女极度色诱视频www | 国产精品免费大片 | 无遮无挡爽爽免费视频 | 久久久久久av无码免费看大片 | 爱做久久久久久 | 2020久久超碰国产精品最新 | 国产av人人夜夜澡人人爽麻豆 | 国产精品丝袜黑色高跟鞋 | 野外少妇愉情中文字幕 | av香港经典三级级 在线 | 中文字幕色婷婷在线视频 | av小次郎收藏 | 老太婆性杂交欧美肥老太 | 国内揄拍国内精品人妻 | 日韩精品成人一区二区三区 | 国产情侣作爱视频免费观看 | 偷窥日本少妇撒尿chinese | 国产精品爱久久久久久久 | 欧美亚洲国产一区二区三区 | 无码乱肉视频免费大全合集 | 亚洲欧美精品伊人久久 | 奇米影视7777久久精品 | 精品乱子伦一区二区三区 | 亚洲精品久久久久中文第一幕 | 亚洲精品国偷拍自产在线麻豆 | 亚洲狠狠色丁香婷婷综合 | 国语自产偷拍精品视频偷 | 西西人体www44rt大胆高清 | 国产精品久久久久久无码 | 亚洲成av人片在线观看无码不卡 | 日韩少妇内射免费播放 | 国产精品第一区揄拍无码 | 在线看片无码永久免费视频 | 久久www免费人成人片 | 高潮毛片无遮挡高清免费 | av无码电影一区二区三区 | 大肉大捧一进一出视频出来呀 | 亚洲色偷偷偷综合网 | 正在播放东北夫妻内射 | 国产精品沙发午睡系列 | 无人区乱码一区二区三区 | 国产熟妇高潮叫床视频播放 | 亚洲国产av美女网站 | 无码纯肉视频在线观看 | 国产又粗又硬又大爽黄老大爷视 | 免费播放一区二区三区 | 亚洲欧美日韩国产精品一区二区 | 亚无码乱人伦一区二区 | 亚洲精品一区三区三区在线观看 | 麻花豆传媒剧国产免费mv在线 | 亚洲日本在线电影 | 影音先锋中文字幕无码 | 久久精品一区二区三区四区 | 久久久精品成人免费观看 | 色妞www精品免费视频 | 国产色xx群视频射精 | 欧美性黑人极品hd | 俺去俺来也www色官网 | 国产精品久久久久无码av色戒 | 中文字幕av日韩精品一区二区 | 狂野欧美性猛交免费视频 | 日日碰狠狠丁香久燥 | 欧美放荡的少妇 | 欧美日韩精品 | 日日摸夜夜摸狠狠摸婷婷 | 97人妻精品一区二区三区 | 国产内射老熟女aaaa | 国产精品第一区揄拍无码 | 少妇激情av一区二区 | 久久久精品国产sm最大网站 | 在线播放亚洲第一字幕 | 牛和人交xxxx欧美 | 国产人妻精品一区二区三区 | 日本丰满护士爆乳xxxx | 亚洲娇小与黑人巨大交 | 久久久久国色av免费观看性色 | 色综合久久久无码网中文 | 性生交大片免费看女人按摩摩 | 久久精品国产大片免费观看 | 亚洲精品综合一区二区三区在线 | 成人精品一区二区三区中文字幕 | 精品国产一区二区三区四区在线看 | 国产在线aaa片一区二区99 | 日韩精品a片一区二区三区妖精 | 99精品无人区乱码1区2区3区 | 亚洲欧美国产精品专区久久 | 国产婷婷色一区二区三区在线 | 人人爽人人爽人人片av亚洲 | 99精品久久毛片a片 | 亚洲色欲久久久综合网东京热 | 97夜夜澡人人双人人人喊 | 暴力强奷在线播放无码 | yw尤物av无码国产在线观看 | 性色欲情网站iwww九文堂 | 亚洲综合久久一区二区 | 少女韩国电视剧在线观看完整 | 亚洲国产欧美国产综合一区 | 亚洲日本va午夜在线电影 | 国产国语老龄妇女a片 | 天堂а√在线地址中文在线 | 亚洲日本一区二区三区在线 | 男女爱爱好爽视频免费看 | 精品一区二区三区无码免费视频 | 高潮毛片无遮挡高清免费 | 国内精品人妻无码久久久影院 | 噜噜噜亚洲色成人网站 | 久久久国产精品无码免费专区 | 久久综合网欧美色妞网 | 亚洲a无码综合a国产av中文 | 国产高潮视频在线观看 | 婷婷五月综合缴情在线视频 | 中文无码成人免费视频在线观看 | 久久国产精品偷任你爽任你 | 人人妻在人人 | 在线а√天堂中文官网 | 人人妻人人澡人人爽欧美一区九九 | 亚洲国产成人a精品不卡在线 | 爆乳一区二区三区无码 | 久久久久久a亚洲欧洲av冫 | 国产超碰人人爽人人做人人添 | 麻豆人妻少妇精品无码专区 | 国产做国产爱免费视频 | 日韩欧美成人免费观看 | 曰韩无码二三区中文字幕 | 成人性做爰aaa片免费看不忠 | 99久久精品无码一区二区毛片 | 97久久国产亚洲精品超碰热 | 久久亚洲中文字幕无码 | 久久精品国产一区二区三区肥胖 | 女人被男人爽到呻吟的视频 | 久久 国产 尿 小便 嘘嘘 | 十八禁真人啪啪免费网站 | 精品国产成人一区二区三区 | 少妇性l交大片欧洲热妇乱xxx | 亚洲精品国产第一综合99久久 | 国产精品久久久久久亚洲毛片 | 婷婷色婷婷开心五月四房播播 | 老子影院午夜精品无码 | 亚洲一区二区三区偷拍女厕 | 国产亚洲精品久久久久久大师 | 久久精品中文字幕大胸 | 精品厕所偷拍各类美女tp嘘嘘 | 色综合视频一区二区三区 | 中文字幕无码人妻少妇免费 | 国产在线无码精品电影网 | 国产黑色丝袜在线播放 | 真人与拘做受免费视频一 | 国内丰满熟女出轨videos | 亚洲色欲久久久综合网东京热 | а√天堂www在线天堂小说 | 日韩av无码中文无码电影 | yw尤物av无码国产在线观看 | 亚洲中文字幕久久无码 | 任你躁国产自任一区二区三区 | 国产一区二区三区精品视频 | 波多野结衣一区二区三区av免费 | 亚洲日本在线电影 | 三级4级全黄60分钟 | 亚洲国产精品美女久久久久 | 亚洲人成网站色7799 | 日本成熟视频免费视频 | 成人动漫在线观看 | 女人被男人躁得好爽免费视频 | 亚洲码国产精品高潮在线 | 两性色午夜免费视频 | 性欧美videos高清精品 | 国产精品美女久久久网av | 青草青草久热国产精品 | 亚洲最大成人网站 | 亚洲自偷自拍另类第1页 | а√天堂www在线天堂小说 | 欧美人与动性行为视频 | 久久亚洲日韩精品一区二区三区 | 亚洲欧美色中文字幕在线 | 国产av人人夜夜澡人人爽麻豆 | 狠狠综合久久久久综合网 | 大肉大捧一进一出好爽视频 | 天干天干啦夜天干天2017 | 国产精品亚洲а∨无码播放麻豆 | 国产精品美女久久久网av | 国产网红无码精品视频 | 亚洲精品国偷拍自产在线麻豆 | 亚洲国产精品久久久久久 | 欧美丰满老熟妇xxxxx性 | 国产高潮视频在线观看 | 亚洲狠狠色丁香婷婷综合 | 欧美三级a做爰在线观看 | 成人精品天堂一区二区三区 | 天堂在线观看www | 全球成人中文在线 | 福利一区二区三区视频在线观看 | 欧洲熟妇精品视频 | 国产三级精品三级男人的天堂 | 久9re热视频这里只有精品 | 97久久超碰中文字幕 | 亚洲精品综合五月久久小说 | 国产热a欧美热a在线视频 | 永久黄网站色视频免费直播 | 久久久国产一区二区三区 | 久久久av男人的天堂 | 97久久国产亚洲精品超碰热 | 国产乱人偷精品人妻a片 | 国产香蕉尹人视频在线 | 久久精品一区二区三区四区 | 女人和拘做爰正片视频 | 熟女俱乐部五十路六十路av | 国产xxx69麻豆国语对白 | 精品人人妻人人澡人人爽人人 | 国产麻豆精品一区二区三区v视界 | 日韩精品无码免费一区二区三区 | 中文字幕日韩精品一区二区三区 | 亚洲乱码日产精品bd | 人人爽人人澡人人高潮 | 日韩在线不卡免费视频一区 | 精品久久久久久亚洲精品 | 97夜夜澡人人双人人人喊 | 激情五月综合色婷婷一区二区 | 草草网站影院白丝内射 | 国产9 9在线 | 中文 | 久青草影院在线观看国产 | 亚洲欧美日韩成人高清在线一区 | 色婷婷久久一区二区三区麻豆 | 色婷婷香蕉在线一区二区 | 国产日产欧产精品精品app | 国产艳妇av在线观看果冻传媒 | 又色又爽又黄的美女裸体网站 | 欧美激情一区二区三区成人 | 国产熟妇高潮叫床视频播放 | 国产精品久久福利网站 | 免费无码一区二区三区蜜桃大 | 久久人人97超碰a片精品 | 国产无遮挡又黄又爽又色 | 日韩精品a片一区二区三区妖精 | 久久精品99久久香蕉国产色戒 | 日产精品99久久久久久 | 亚洲自偷自拍另类第1页 | 97久久超碰中文字幕 | 久久久婷婷五月亚洲97号色 | 无码成人精品区在线观看 | 精品一二三区久久aaa片 | 久久精品国产亚洲精品 | 久在线观看福利视频 | 亚洲国产精品一区二区美利坚 | 麻豆国产人妻欲求不满 | 青青草原综合久久大伊人精品 | 性啪啪chinese东北女人 | 久久国产精品_国产精品 | 日韩视频 中文字幕 视频一区 | 一本加勒比波多野结衣 | 久久综合狠狠综合久久综合88 | 无码乱肉视频免费大全合集 | 亚洲 欧美 激情 小说 另类 | 国产激情无码一区二区 | 性欧美熟妇videofreesex | 天干天干啦夜天干天2017 | 在线视频网站www色 | 4hu四虎永久在线观看 | 国产精品人人爽人人做我的可爱 | 国产小呦泬泬99精品 | 99视频精品全部免费免费观看 | 青春草在线视频免费观看 | 欧美人妻一区二区三区 | 亚洲国产精品一区二区美利坚 | 国产精品久久久久久无码 | 久激情内射婷内射蜜桃人妖 | 午夜成人1000部免费视频 | 色综合视频一区二区三区 | 欧美野外疯狂做受xxxx高潮 | 久久精品中文闷骚内射 | 久久 国产 尿 小便 嘘嘘 | 欧美成人免费全部网站 | 扒开双腿疯狂进出爽爽爽视频 | 激情内射亚州一区二区三区爱妻 | 国产成人亚洲综合无码 | 国产成人无码区免费内射一片色欲 | 日韩 欧美 动漫 国产 制服 | 少妇性l交大片 | 国产成人人人97超碰超爽8 | 精品无码国产自产拍在线观看蜜 | 精品午夜福利在线观看 | 人妻互换免费中文字幕 | 99精品无人区乱码1区2区3区 | 久久无码中文字幕免费影院蜜桃 | 精品人人妻人人澡人人爽人人 | 伊人色综合久久天天小片 | 88国产精品欧美一区二区三区 | 欧美 丝袜 自拍 制服 另类 | 无套内射视频囯产 | 99久久久无码国产aaa精品 | 蜜桃av抽搐高潮一区二区 | 97人妻精品一区二区三区 | 日韩精品一区二区av在线 | 99久久久无码国产精品免费 | 欧美黑人乱大交 | 人人超人人超碰超国产 | 国产人妻精品一区二区三区 | 久久久久免费看成人影片 | 亚洲の无码国产の无码影院 | 超碰97人人射妻 | 扒开双腿疯狂进出爽爽爽视频 | 亚洲 高清 成人 动漫 | 精品乱子伦一区二区三区 | 搡女人真爽免费视频大全 | 青春草在线视频免费观看 | 黑人巨大精品欧美黑寡妇 | 中文字幕日韩精品一区二区三区 | 亚洲国产精品久久久久久 | 欧美黑人性暴力猛交喷水 | 久久精品人人做人人综合 | 好男人www社区 | 四十如虎的丰满熟妇啪啪 | 国产精品多人p群无码 | 亚洲熟妇色xxxxx亚洲 | 国产艳妇av在线观看果冻传媒 | 99re在线播放 | 欧美丰满老熟妇xxxxx性 | 好屌草这里只有精品 | 国产精品a成v人在线播放 | 无码一区二区三区在线观看 | 捆绑白丝粉色jk震动捧喷白浆 | 无码av免费一区二区三区试看 | 成人亚洲精品久久久久 | 国产色xx群视频射精 | 国产午夜亚洲精品不卡下载 | 99久久久无码国产精品免费 | 久久精品女人的天堂av | 在线а√天堂中文官网 | 在线亚洲高清揄拍自拍一品区 | 国产激情综合五月久久 | aⅴ在线视频男人的天堂 | 亚洲综合久久一区二区 | 精品欧洲av无码一区二区三区 | 男女超爽视频免费播放 | 日韩人妻无码中文字幕视频 | 欧美日韩一区二区三区自拍 | 欧洲熟妇精品视频 | 99er热精品视频 | 欧美人与禽zoz0性伦交 | 亚洲va欧美va天堂v国产综合 | 国内丰满熟女出轨videos | 成人片黄网站色大片免费观看 | 欧美日韩人成综合在线播放 | 精品国产aⅴ无码一区二区 | 免费看男女做好爽好硬视频 | 色一情一乱一伦一区二区三欧美 | 精品无码国产自产拍在线观看蜜 | 亚洲欧美国产精品久久 | 国产成人精品一区二区在线小狼 | 国产成人综合在线女婷五月99播放 | 老头边吃奶边弄进去呻吟 | 久久www免费人成人片 | 欧美成人免费全部网站 | 色 综合 欧美 亚洲 国产 | 中文字幕 人妻熟女 | 香蕉久久久久久av成人 | 精品国偷自产在线视频 | 小sao货水好多真紧h无码视频 | 99久久精品国产一区二区蜜芽 | 高潮毛片无遮挡高清免费视频 | 日本大乳高潮视频在线观看 | 四十如虎的丰满熟妇啪啪 | 少妇性荡欲午夜性开放视频剧场 | 夜夜躁日日躁狠狠久久av | 无码免费一区二区三区 | 精品国产麻豆免费人成网站 | 久久这里只有精品视频9 | 国语精品一区二区三区 | 丰满人妻一区二区三区免费视频 | 久久zyz资源站无码中文动漫 | 久久久久久久女国产乱让韩 | 国产乱子伦视频在线播放 | 亚洲精品无码国产 | 伦伦影院午夜理论片 | av无码电影一区二区三区 | 亚洲の无码国产の无码步美 | 人人妻人人澡人人爽精品欧美 | 色婷婷欧美在线播放内射 | 综合激情五月综合激情五月激情1 | 欧美成人午夜精品久久久 | 捆绑白丝粉色jk震动捧喷白浆 | 亚洲人成网站免费播放 | 国产性生交xxxxx无码 | 久久无码中文字幕免费影院蜜桃 | 精品欧美一区二区三区久久久 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 大胆欧美熟妇xx | 亚洲精品国产精品乱码不卡 | 亚洲成av人片天堂网无码】 | 国内揄拍国内精品人妻 | 亚洲啪av永久无码精品放毛片 | 成人无码影片精品久久久 | 中文字幕乱码亚洲无线三区 | 国产三级久久久精品麻豆三级 | 九九久久精品国产免费看小说 | 人人妻人人澡人人爽欧美一区 | 亚洲色大成网站www | 亚洲成熟女人毛毛耸耸多 | 国内精品久久毛片一区二区 | 精品久久久久久亚洲精品 | 少妇高潮喷潮久久久影院 | 国精产品一品二品国精品69xx | 亚洲中文无码av永久不收费 | 久久zyz资源站无码中文动漫 | 亚洲欧美精品伊人久久 | 妺妺窝人体色www在线小说 | 国产无遮挡吃胸膜奶免费看 | 久久亚洲国产成人精品性色 | www成人国产高清内射 | 成人亚洲精品久久久久软件 | 思思久久99热只有频精品66 | 国产午夜福利100集发布 | 国产精品对白交换视频 | 熟妇人妻激情偷爽文 | 亚洲成av人影院在线观看 | 自拍偷自拍亚洲精品10p | 亚洲无人区午夜福利码高清完整版 | 永久免费观看美女裸体的网站 | 波多野42部无码喷潮在线 | 一本精品99久久精品77 | 久久熟妇人妻午夜寂寞影院 | 天下第一社区视频www日本 | 亚洲va中文字幕无码久久不卡 | 久久天天躁夜夜躁狠狠 | 亚洲精品综合五月久久小说 | 婷婷色婷婷开心五月四房播播 | 四虎国产精品免费久久 | 欧美放荡的少妇 | 成在人线av无码免费 | 久久无码中文字幕免费影院蜜桃 | 青青青手机频在线观看 | 国产精品久久久久影院嫩草 | 欧美freesex黑人又粗又大 | 丰满少妇人妻久久久久久 | 99re在线播放 | 久久综合给合久久狠狠狠97色 | 精品久久综合1区2区3区激情 | 中文字幕+乱码+中文字幕一区 | 久久亚洲精品成人无码 | 亚洲乱码中文字幕在线 | 国产另类ts人妖一区二区 | 爽爽影院免费观看 | 西西人体www44rt大胆高清 | 国产超级va在线观看视频 | 国产一区二区三区精品视频 | 97精品国产97久久久久久免费 | 日韩少妇白浆无码系列 | 最近免费中文字幕中文高清百度 | 2020久久香蕉国产线看观看 | 欧美一区二区三区视频在线观看 | 亚洲欧美中文字幕5发布 | 国产午夜亚洲精品不卡下载 | 奇米影视7777久久精品人人爽 | 亚洲色欲色欲天天天www | 少妇厨房愉情理9仑片视频 | 婷婷五月综合激情中文字幕 | 成人性做爰aaa片免费看不忠 | 丁香啪啪综合成人亚洲 | 99精品视频在线观看免费 | 亚洲欧洲中文日韩av乱码 | 成人欧美一区二区三区黑人免费 | 中文字幕人妻无码一夲道 | 国产在线一区二区三区四区五区 | 午夜丰满少妇性开放视频 | 超碰97人人做人人爱少妇 | 色欲人妻aaaaaaa无码 | 无码帝国www无码专区色综合 | 九一九色国产 | 强辱丰满人妻hd中文字幕 | 好爽又高潮了毛片免费下载 | 色婷婷香蕉在线一区二区 | 亚洲欧美精品aaaaaa片 | 国产成人综合色在线观看网站 | 在线欧美精品一区二区三区 | 亚洲gv猛男gv无码男同 | 国产亚洲精品久久久久久 | 亚洲色欲色欲欲www在线 | 成 人 免费观看网站 | 精品人妻人人做人人爽夜夜爽 | 黑人巨大精品欧美黑寡妇 | 亚洲国产午夜精品理论片 | 六十路熟妇乱子伦 | 18禁止看的免费污网站 | 中文字幕无线码 | 美女张开腿让人桶 | 精品亚洲成av人在线观看 | 一本大道伊人av久久综合 | 国产福利视频一区二区 | 人妻少妇被猛烈进入中文字幕 | 无码人妻精品一区二区三区不卡 | 婷婷综合久久中文字幕蜜桃三电影 | 无码人妻丰满熟妇区五十路百度 | 天天躁夜夜躁狠狠是什么心态 | 日韩精品一区二区av在线 | 中文字幕无码视频专区 | 国产又爽又黄又刺激的视频 | 纯爱无遮挡h肉动漫在线播放 | 人人妻人人澡人人爽欧美一区 | 好屌草这里只有精品 | 国产精品a成v人在线播放 | 欧美亚洲国产一区二区三区 | 精品国产av色一区二区深夜久久 | 狠狠噜狠狠狠狠丁香五月 | 一个人看的www免费视频在线观看 | 中文字幕无码免费久久99 | 精品熟女少妇av免费观看 | 国产精品嫩草久久久久 | 老司机亚洲精品影院无码 | 天堂一区人妻无码 | 久久亚洲日韩精品一区二区三区 | 免费乱码人妻系列无码专区 | 亚洲中文字幕无码一久久区 | 又湿又紧又大又爽a视频国产 | 久久天天躁狠狠躁夜夜免费观看 | 精品国产麻豆免费人成网站 | 中文字幕中文有码在线 | 亚洲人成影院在线无码按摩店 | 亚洲国产精品久久久天堂 | 久久久国产一区二区三区 | 青青草原综合久久大伊人精品 | 久久无码中文字幕免费影院蜜桃 | 久久午夜夜伦鲁鲁片无码免费 | 国产一区二区三区四区五区加勒比 | 狠狠色噜噜狠狠狠7777奇米 | 亚洲精品中文字幕久久久久 | 亚洲日韩一区二区三区 | 无码人妻久久一区二区三区不卡 | 熟女少妇人妻中文字幕 | 欧美自拍另类欧美综合图片区 | 国产小呦泬泬99精品 | 久久国产自偷自偷免费一区调 | av在线亚洲欧洲日产一区二区 | 日产国产精品亚洲系列 | 国产农村乱对白刺激视频 | 999久久久国产精品消防器材 | 欧美一区二区三区 | 在线a亚洲视频播放在线观看 | 麻豆md0077饥渴少妇 | 国产av人人夜夜澡人人爽麻豆 | 亚洲国产精品久久人人爱 | 亚洲国产精品久久人人爱 | 一本精品99久久精品77 | 国产精品手机免费 | 东京热男人av天堂 | 少妇厨房愉情理9仑片视频 | 日韩在线不卡免费视频一区 | 人人超人人超碰超国产 | 在线a亚洲视频播放在线观看 | 国产成人av免费观看 | 中文字幕无码热在线视频 | 亚洲精品久久久久avwww潮水 | 日韩成人一区二区三区在线观看 | 天堂无码人妻精品一区二区三区 | 国产三级精品三级男人的天堂 | 偷窥日本少妇撒尿chinese | 少妇激情av一区二区 | 高潮毛片无遮挡高清免费 | 久久99精品久久久久婷婷 | 成人精品天堂一区二区三区 | 亚洲娇小与黑人巨大交 | 色欲久久久天天天综合网精品 | 精品夜夜澡人妻无码av蜜桃 | 色狠狠av一区二区三区 | 国产精品igao视频网 | 野外少妇愉情中文字幕 | 精品久久久无码人妻字幂 | 在线播放无码字幕亚洲 | 国内精品久久毛片一区二区 | 搡女人真爽免费视频大全 | 亚洲成av人片在线观看无码不卡 | 麻豆国产丝袜白领秘书在线观看 | 97夜夜澡人人双人人人喊 | 亚洲中文字幕无码一久久区 | aa片在线观看视频在线播放 | 国精品人妻无码一区二区三区蜜柚 | 又紧又大又爽精品一区二区 | 狠狠综合久久久久综合网 | 精品国产一区二区三区四区 | 日日麻批免费40分钟无码 | 中文字幕无线码 | 强辱丰满人妻hd中文字幕 | 亚洲欧美国产精品专区久久 | 一本加勒比波多野结衣 | 国产两女互慰高潮视频在线观看 | 亚洲乱码国产乱码精品精 | 成 人 网 站国产免费观看 | 夜先锋av资源网站 | 伊人久久大香线蕉午夜 | 亚洲人成网站免费播放 | 日本成熟视频免费视频 | 中文字幕无码av波多野吉衣 | 亚洲色无码一区二区三区 | 97精品国产97久久久久久免费 | 久久伊人色av天堂九九小黄鸭 | 色妞www精品免费视频 | 国产人妻久久精品二区三区老狼 | 99久久精品日本一区二区免费 | 午夜精品久久久久久久 | 4hu四虎永久在线观看 | аⅴ资源天堂资源库在线 | 无码国产色欲xxxxx视频 | 国产亚洲精品久久久ai换 | 亚洲人成网站色7799 | 特黄特色大片免费播放器图片 | 亚洲乱码中文字幕在线 | 人人爽人人澡人人高潮 | 欧洲熟妇色 欧美 | 国产精品久久久久久亚洲影视内衣 | 亚洲国产精品久久久久久 | 5858s亚洲色大成网站www | 中文字幕乱码人妻无码久久 | 亚洲国产精品久久久天堂 | 亚洲国产成人av在线观看 | 久久 国产 尿 小便 嘘嘘 | 麻豆国产丝袜白领秘书在线观看 | 丝袜足控一区二区三区 | 亚洲精品国产精品乱码不卡 | 人妻aⅴ无码一区二区三区 | 人妻无码αv中文字幕久久琪琪布 | 九九综合va免费看 | 日韩无套无码精品 | 日日麻批免费40分钟无码 | 四虎4hu永久免费 | 欧洲熟妇精品视频 | 国产一区二区三区影院 | 国产精品久久久久久久影院 | 国产情侣作爱视频免费观看 | 夜夜夜高潮夜夜爽夜夜爰爰 | 国产两女互慰高潮视频在线观看 | 日日天日日夜日日摸 | 亚洲精品久久久久中文第一幕 | 国产精品沙发午睡系列 | 免费国产黄网站在线观看 | 18禁止看的免费污网站 | 国产精品自产拍在线观看 | 无码国模国产在线观看 | 妺妺窝人体色www婷婷 | 亚洲gv猛男gv无码男同 | 97精品国产97久久久久久免费 | 一二三四在线观看免费视频 | 荫蒂被男人添的好舒服爽免费视频 | 国产精品亚洲lv粉色 | 亚洲精品中文字幕久久久久 | 无码av免费一区二区三区试看 | 男女超爽视频免费播放 | 亚洲一区二区三区无码久久 | 久久久无码中文字幕久... | 色五月丁香五月综合五月 | 国内综合精品午夜久久资源 | 国产美女极度色诱视频www | 亚洲人成网站在线播放942 | 亚洲乱码国产乱码精品精 | 日韩人妻少妇一区二区三区 | 午夜理论片yy44880影院 | 久久熟妇人妻午夜寂寞影院 | 大肉大捧一进一出好爽视频 | aa片在线观看视频在线播放 | 国产成人无码午夜视频在线观看 | 日本大香伊一区二区三区 | 婷婷六月久久综合丁香 | 台湾无码一区二区 | 免费观看黄网站 | 免费无码肉片在线观看 | 亚洲精品国产第一综合99久久 | 亚洲欧美日韩国产精品一区二区 | 日本一区二区三区免费高清 | 荡女精品导航 | 日本丰满熟妇videos | 国产精品久久久久9999小说 | 少妇性l交大片欧洲热妇乱xxx | 青青久在线视频免费观看 | 东京无码熟妇人妻av在线网址 | 久久综合九色综合欧美狠狠 | 18禁止看的免费污网站 | 久久综合九色综合97网 | 国产成人综合色在线观看网站 | 精品少妇爆乳无码av无码专区 | 国产精品内射视频免费 | 成人女人看片免费视频放人 | 国产精品嫩草久久久久 | 国产真实乱对白精彩久久 | 色妞www精品免费视频 | 超碰97人人做人人爱少妇 | 亚洲 高清 成人 动漫 | 中文字幕无码免费久久9一区9 | 国产亚洲精品久久久久久久久动漫 | 网友自拍区视频精品 | 久久亚洲a片com人成 | 中文字幕无码视频专区 | 国产97人人超碰caoprom | 国产亚洲视频中文字幕97精品 | aⅴ亚洲 日韩 色 图网站 播放 | 国产情侣作爱视频免费观看 | 在线亚洲高清揄拍自拍一品区 | 免费观看黄网站 | 亚洲精品国偷拍自产在线麻豆 | 亚洲综合另类小说色区 | 亚洲一区二区三区香蕉 | 免费无码一区二区三区蜜桃大 | 亚洲区欧美区综合区自拍区 | 人妻无码久久精品人妻 | 天天拍夜夜添久久精品 | www国产精品内射老师 | 欧美成人午夜精品久久久 | 精品国偷自产在线 | 成人精品视频一区二区三区尤物 | 真人与拘做受免费视频 | 波多野结衣乳巨码无在线观看 | 又大又硬又黄的免费视频 | 大肉大捧一进一出好爽视频 | 日本熟妇乱子伦xxxx | 久久精品国产99精品亚洲 | 中国大陆精品视频xxxx | 亚洲小说图区综合在线 | 日本成熟视频免费视频 | 国产精品久久精品三级 | 久久久久av无码免费网 | 欧美精品无码一区二区三区 | 香港三级日本三级妇三级 | 欧美人妻一区二区三区 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 精品一区二区不卡无码av | 国产成人午夜福利在线播放 | 日韩 欧美 动漫 国产 制服 | 成人免费无码大片a毛片 | 一本久久a久久精品vr综合 | 国产人成高清在线视频99最全资源 | 亚洲日韩av片在线观看 | 蜜桃视频插满18在线观看 | 国模大胆一区二区三区 | 亚洲欧美国产精品专区久久 | 亚洲国产精品美女久久久久 | 亚洲国产精品一区二区第一页 | 免费人成网站视频在线观看 | 国内综合精品午夜久久资源 | 伦伦影院午夜理论片 | 性欧美大战久久久久久久 | 麻豆国产丝袜白领秘书在线观看 | 中文字幕av伊人av无码av | 日韩视频 中文字幕 视频一区 | 亚洲狠狠婷婷综合久久 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 四虎国产精品一区二区 | 色欲av亚洲一区无码少妇 | 亚洲爆乳精品无码一区二区三区 | 婷婷色婷婷开心五月四房播播 | 日产国产精品亚洲系列 | 久久 国产 尿 小便 嘘嘘 | 免费国产成人高清在线观看网站 | 国产人妻人伦精品1国产丝袜 | 久久无码中文字幕免费影院蜜桃 | 亚洲精品欧美二区三区中文字幕 | 久久精品中文闷骚内射 | 免费视频欧美无人区码 | 东京一本一道一二三区 | 国产无套内射久久久国产 | 永久免费观看国产裸体美女 | 国产色xx群视频射精 | www国产精品内射老师 | 国产国产精品人在线视 | 性色欲情网站iwww九文堂 | 成人无码影片精品久久久 | 性做久久久久久久免费看 | 亚洲精品成人福利网站 | 国精产品一品二品国精品69xx | 亚洲国产综合无码一区 | 疯狂三人交性欧美 | 亚洲综合另类小说色区 | www成人国产高清内射 | 日本欧美一区二区三区乱码 | 无遮挡啪啪摇乳动态图 | 久久久久亚洲精品中文字幕 | 丰满少妇熟乱xxxxx视频 | 亚洲小说春色综合另类 | 日本精品高清一区二区 | 欧美日韩综合一区二区三区 | 人人爽人人澡人人高潮 | 色一情一乱一伦一区二区三欧美 | 亚洲毛片av日韩av无码 | 精品国产一区av天美传媒 | 午夜精品一区二区三区在线观看 | 激情内射亚州一区二区三区爱妻 | 国产精品久久久久久亚洲影视内衣 | 又湿又紧又大又爽a视频国产 | 日韩精品a片一区二区三区妖精 | 国产精品久久久久久亚洲毛片 | 色偷偷av老熟女 久久精品人妻少妇一区二区三区 | av无码电影一区二区三区 | 久久国产精品二国产精品 | 亚洲国产综合无码一区 | 久久综合九色综合欧美狠狠 | 国产成人精品三级麻豆 | 亚洲国产欧美日韩精品一区二区三区 | 国产精品亚洲一区二区三区喷水 | 久久精品中文字幕大胸 | 狠狠亚洲超碰狼人久久 | 欧美乱妇无乱码大黄a片 | 日本又色又爽又黄的a片18禁 | 免费乱码人妻系列无码专区 | 人妻夜夜爽天天爽三区 | 7777奇米四色成人眼影 | 一区二区传媒有限公司 | 中文字幕无码人妻少妇免费 | 最新国产乱人伦偷精品免费网站 | 久久精品人人做人人综合 | 夜精品a片一区二区三区无码白浆 | 小泽玛莉亚一区二区视频在线 | 日韩精品成人一区二区三区 | 亚洲精品中文字幕 | 国产黄在线观看免费观看不卡 | 激情五月综合色婷婷一区二区 | 亚洲欧美色中文字幕在线 | 亚洲精品一区二区三区婷婷月 | 四虎4hu永久免费 | 欧美精品一区二区精品久久 | 国产精品高潮呻吟av久久 | 精品亚洲成av人在线观看 | 久久精品国产一区二区三区肥胖 | 亚洲精品国产第一综合99久久 | 国产激情无码一区二区app | 精品人妻中文字幕有码在线 | 九九久久精品国产免费看小说 | 男女猛烈xx00免费视频试看 | 久久久久久亚洲精品a片成人 | 亚洲色大成网站www | 成 人影片 免费观看 | 精品一区二区三区无码免费视频 | 亚洲熟熟妇xxxx | 99久久人妻精品免费一区 | 亚洲爆乳大丰满无码专区 | 中文字幕人妻无码一区二区三区 | 国产精品人人妻人人爽 | 欧洲熟妇精品视频 | 最新版天堂资源中文官网 | 性生交大片免费看女人按摩摩 | 牲交欧美兽交欧美 | 男人扒开女人内裤强吻桶进去 | 老熟女乱子伦 | www国产亚洲精品久久网站 | 漂亮人妻洗澡被公强 日日躁 | 午夜无码区在线观看 | 亚洲色无码一区二区三区 | 性欧美videos高清精品 | 国产在线aaa片一区二区99 | 亚洲人亚洲人成电影网站色 | 亚洲日本一区二区三区在线 | 久久久久久久久蜜桃 | 一本色道婷婷久久欧美 | 日本一卡二卡不卡视频查询 | 成人性做爰aaa片免费看不忠 | 午夜嘿嘿嘿影院 | 娇妻被黑人粗大高潮白浆 | 国产精品视频免费播放 | 日本成熟视频免费视频 | 少妇太爽了在线观看 | 国产美女精品一区二区三区 | 九九久久精品国产免费看小说 | 亚洲熟女一区二区三区 | 午夜福利电影 | 久久www免费人成人片 | 亚洲欧洲无卡二区视頻 | 久久久久久亚洲精品a片成人 | 狠狠色丁香久久婷婷综合五月 | 无码人妻精品一区二区三区下载 | 中文字幕色婷婷在线视频 | 鲁鲁鲁爽爽爽在线视频观看 | 99久久精品日本一区二区免费 | 精品国产福利一区二区 | 九九综合va免费看 | 在线亚洲高清揄拍自拍一品区 | 色窝窝无码一区二区三区色欲 | 久久国内精品自在自线 | 欧美老妇交乱视频在线观看 | 欧美精品国产综合久久 | 亚洲色www成人永久网址 | 亚洲色偷偷男人的天堂 | 国产精品久久久久久亚洲毛片 | 爆乳一区二区三区无码 | 久久久久久久久蜜桃 | 精品国产一区二区三区av 性色 | 日日碰狠狠丁香久燥 | 亚洲а∨天堂久久精品2021 | 色偷偷人人澡人人爽人人模 | 久久久久99精品成人片 | 男人的天堂2018无码 | 成人aaa片一区国产精品 | 亚洲天堂2017无码中文 | 高清无码午夜福利视频 | 一本无码人妻在中文字幕免费 | 扒开双腿疯狂进出爽爽爽视频 | 亚洲中文字幕成人无码 | 天海翼激烈高潮到腰振不止 | 欧美人与物videos另类 | 国产无av码在线观看 | 国产精品毛多多水多 | 少妇厨房愉情理9仑片视频 | 在线天堂新版最新版在线8 | 亚洲日韩av一区二区三区中文 | 欧美国产亚洲日韩在线二区 | 4hu四虎永久在线观看 | 扒开双腿吃奶呻吟做受视频 | 最新国产乱人伦偷精品免费网站 | 99久久久国产精品无码免费 | 国产成人久久精品流白浆 | 中文字幕久久久久人妻 | 日本丰满护士爆乳xxxx | 国产特级毛片aaaaaa高潮流水 | 人人澡人人透人人爽 | 久久久久免费精品国产 | 女人高潮内射99精品 | 少妇人妻大乳在线视频 | 欧美人与物videos另类 | 蜜桃无码一区二区三区 | 午夜嘿嘿嘿影院 | 樱花草在线社区www | 樱花草在线社区www | 国产xxx69麻豆国语对白 | 国产成人综合美国十次 | 最新国产麻豆aⅴ精品无码 | 一个人看的视频www在线 | 曰韩无码二三区中文字幕 | 丰满少妇高潮惨叫视频 | 麻豆国产97在线 | 欧洲 | 亚洲综合无码一区二区三区 | 欧美成人午夜精品久久久 | 夜夜高潮次次欢爽av女 | 秋霞特色aa大片 | 久久精品视频在线看15 | 日日摸日日碰夜夜爽av | 久久亚洲精品成人无码 | 无码av中文字幕免费放 | 无码国产激情在线观看 | 激情五月综合色婷婷一区二区 | 国产成人人人97超碰超爽8 | 中文字幕日韩精品一区二区三区 | 亚洲精品一区二区三区在线 | 日产精品高潮呻吟av久久 | 中文亚洲成a人片在线观看 | 国产免费无码一区二区视频 | 成人性做爰aaa片免费看 | a片免费视频在线观看 | 又粗又大又硬毛片免费看 | 乱人伦人妻中文字幕无码久久网 | 无码人妻久久一区二区三区不卡 | 青青草原综合久久大伊人精品 | 色综合久久88色综合天天 | 亚洲色无码一区二区三区 | 久久久久99精品成人片 | 欧洲美熟女乱又伦 | 精品无人国产偷自产在线 | 午夜无码人妻av大片色欲 | 日本在线高清不卡免费播放 | 欧美真人作爱免费视频 | 精品一区二区不卡无码av | 清纯唯美经典一区二区 | 亚洲成a人片在线观看无码 | 巨爆乳无码视频在线观看 | 国产成人精品优优av | 欧美成人家庭影院 | 亚拍精品一区二区三区探花 | 色婷婷av一区二区三区之红樱桃 | 暴力强奷在线播放无码 | 久久午夜夜伦鲁鲁片无码免费 | 亚洲欧洲日本无在线码 | 成人亚洲精品久久久久 | 一本加勒比波多野结衣 | 爆乳一区二区三区无码 | 午夜丰满少妇性开放视频 | 欧美xxxx黑人又粗又长 | 荫蒂添的好舒服视频囗交 | 亚洲精品一区二区三区四区五区 | 成熟人妻av无码专区 | 亚洲va欧美va天堂v国产综合 | 欧洲vodafone精品性 | 亚洲日韩一区二区三区 | 无码纯肉视频在线观看 | 国产精品久久久久久亚洲毛片 | 成人毛片一区二区 | 久久精品国产一区二区三区肥胖 | 亚洲国产午夜精品理论片 | 久久zyz资源站无码中文动漫 | 精品国产aⅴ无码一区二区 | 国产精品多人p群无码 | 俺去俺来也在线www色官网 | 高清不卡一区二区三区 | 久久久久免费看成人影片 | 思思久久99热只有频精品66 | 亚洲日韩乱码中文无码蜜桃臀网站 | 欧美人与禽zoz0性伦交 | 又湿又紧又大又爽a视频国产 | 四虎国产精品一区二区 | 久久久中文字幕日本无吗 | 西西人体www44rt大胆高清 | 亚洲精品成人av在线 | 亚洲色www成人永久网址 | 77777熟女视频在线观看 а天堂中文在线官网 | 人人爽人人爽人人片av亚洲 | 丰满人妻一区二区三区免费视频 | 精品国偷自产在线 | 国产综合久久久久鬼色 | 99精品国产综合久久久久五月天 | 中文字幕无码乱人伦 | 男女性色大片免费网站 | 久久99精品国产麻豆 | 日本肉体xxxx裸交 | 麻豆精品国产精华精华液好用吗 | 无套内谢老熟女 | 图片区 小说区 区 亚洲五月 | 荫蒂被男人添的好舒服爽免费视频 | 自拍偷自拍亚洲精品10p | 日本欧美一区二区三区乱码 | 免费无码的av片在线观看 | 丰满少妇女裸体bbw | 亚洲精品午夜国产va久久成人 | 狂野欧美性猛交免费视频 | 一本无码人妻在中文字幕免费 | 亚洲国产成人av在线观看 | 日韩欧美成人免费观看 | 亚洲欧美综合区丁香五月小说 | 久青草影院在线观看国产 | 欧美亚洲日韩国产人成在线播放 | 97夜夜澡人人双人人人喊 | 国产特级毛片aaaaaa高潮流水 | 又紧又大又爽精品一区二区 | 欧美日韩一区二区综合 | 久久久成人毛片无码 | 欧美国产日韩久久mv | 1000部夫妻午夜免费 | 又紧又大又爽精品一区二区 | 精品国产一区二区三区四区 | 人妻无码久久精品人妻 | 国产成人无码一二三区视频 | 色狠狠av一区二区三区 | 未满成年国产在线观看 | 日本大香伊一区二区三区 | 国产精品久久久久久亚洲毛片 | 2020最新国产自产精品 | 亚洲 欧美 激情 小说 另类 | 亚洲欧美国产精品专区久久 | 国产精品美女久久久久av爽李琼 | 丰腴饱满的极品熟妇 | 大肉大捧一进一出视频出来呀 | 97久久超碰中文字幕 | 久久五月精品中文字幕 | 亚洲国产精华液网站w | 夜夜夜高潮夜夜爽夜夜爰爰 | 久久久国产一区二区三区 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | av无码电影一区二区三区 | 亚洲国产精品一区二区美利坚 | 丰满人妻一区二区三区免费视频 | 小泽玛莉亚一区二区视频在线 | 亚洲中文字幕无码中文字在线 | 亚洲码国产精品高潮在线 | 无码人妻精品一区二区三区下载 | 国产 精品 自在自线 | 国产熟妇高潮叫床视频播放 | 日韩亚洲欧美精品综合 | 老熟妇乱子伦牲交视频 | 国产激情精品一区二区三区 | 国产人妻久久精品二区三区老狼 | 日本一区二区更新不卡 | 樱花草在线播放免费中文 | 午夜精品一区二区三区的区别 | 久久综合香蕉国产蜜臀av | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 国产精品毛片一区二区 | 国产成人无码av片在线观看不卡 | 婷婷综合久久中文字幕蜜桃三电影 | 久久久久成人精品免费播放动漫 | 亚洲国产精品久久久久久 | 欧美高清在线精品一区 | 日本一区二区三区免费播放 | 日本www一道久久久免费榴莲 | 久久人人爽人人爽人人片av高清 | 亚洲の无码国产の无码步美 | 日欧一片内射va在线影院 | 一本无码人妻在中文字幕免费 | 国精产品一区二区三区 | 青草青草久热国产精品 | 色婷婷久久一区二区三区麻豆 | 人人超人人超碰超国产 | 青草青草久热国产精品 | 玩弄少妇高潮ⅹxxxyw | 欧美成人免费全部网站 | 国产黑色丝袜在线播放 | 永久黄网站色视频免费直播 | 99久久人妻精品免费二区 | 久久午夜夜伦鲁鲁片无码免费 | 欧美性生交活xxxxxdddd | 少妇一晚三次一区二区三区 | 色婷婷综合中文久久一本 | 麻豆国产人妻欲求不满谁演的 | 色欲综合久久中文字幕网 | 国产无遮挡吃胸膜奶免费看 | 久久久久久亚洲精品a片成人 | 中文字幕乱码中文乱码51精品 | 国产精品亚洲一区二区三区喷水 | 国产亚洲精品久久久闺蜜 | 四虎永久在线精品免费网址 | 国产欧美精品一区二区三区 | 性啪啪chinese东北女人 | 在线播放无码字幕亚洲 | 成人精品一区二区三区中文字幕 | 少妇太爽了在线观看 | 天堂久久天堂av色综合 | 成人免费视频视频在线观看 免费 | 东京一本一道一二三区 | 鲁鲁鲁爽爽爽在线视频观看 | 久9re热视频这里只有精品 | 国产午夜福利亚洲第一 | 久久久中文久久久无码 | 伊人久久大香线焦av综合影院 | 亚洲日本va午夜在线电影 | 亚洲日本一区二区三区在线 | 在教室伦流澡到高潮hnp视频 | 东京热无码av男人的天堂 | 国产成人无码区免费内射一片色欲 | 红桃av一区二区三区在线无码av | 成熟妇人a片免费看网站 | 欧美日韩一区二区免费视频 | 亚洲日韩av一区二区三区中文 | 亚洲色成人中文字幕网站 | 久久97精品久久久久久久不卡 | 国产亚洲欧美日韩亚洲中文色 | 小泽玛莉亚一区二区视频在线 | 久久综合给久久狠狠97色 | 国产精品久久久久久久影院 | 久久久久亚洲精品中文字幕 | 亚洲精品综合五月久久小说 | 99久久久国产精品无码免费 | 欧美日本免费一区二区三区 | 婷婷丁香五月天综合东京热 | 精品国产一区二区三区四区 | 久久综合色之久久综合 | 天天爽夜夜爽夜夜爽 | 国产亚洲精品久久久久久国模美 | 蜜臀aⅴ国产精品久久久国产老师 | 最近免费中文字幕中文高清百度 | 动漫av网站免费观看 | 欧美丰满熟妇xxxx性ppx人交 | 国产偷抇久久精品a片69 | 亚洲理论电影在线观看 | 伊人久久大香线焦av综合影院 | 99精品视频在线观看免费 | 国产乱人伦偷精品视频 | 少妇性l交大片欧洲热妇乱xxx | 女人和拘做爰正片视频 | 成在人线av无码免费 | 成 人 网 站国产免费观看 | 午夜熟女插插xx免费视频 | 久久精品99久久香蕉国产色戒 | 18精品久久久无码午夜福利 | 色一情一乱一伦一区二区三欧美 | 久青草影院在线观看国产 | 国产精品办公室沙发 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 精品国偷自产在线 | 欧美日韩综合一区二区三区 | 国产成人人人97超碰超爽8 | 国产精品国产三级国产专播 | 中文字幕无码免费久久99 | 欧美性猛交内射兽交老熟妇 | 夜夜躁日日躁狠狠久久av | 四十如虎的丰满熟妇啪啪 | 鲁大师影院在线观看 | 婷婷丁香六月激情综合啪 | 亚洲欧美日韩成人高清在线一区 | 日韩精品成人一区二区三区 | 国产免费观看黄av片 | 久久97精品久久久久久久不卡 | 国产明星裸体无码xxxx视频 | 成熟女人特级毛片www免费 | 老子影院午夜伦不卡 | 亚洲精品一区二区三区婷婷月 | 扒开双腿疯狂进出爽爽爽视频 | 亚洲爆乳大丰满无码专区 | 国产国语老龄妇女a片 | 女人色极品影院 | 成熟妇人a片免费看网站 | 色噜噜亚洲男人的天堂 | 帮老师解开蕾丝奶罩吸乳网站 | 亚洲а∨天堂久久精品2021 | 精品无码一区二区三区的天堂 | 国产精品无码永久免费888 | 亚洲一区二区三区含羞草 | 夜夜夜高潮夜夜爽夜夜爰爰 | 精品无码一区二区三区爱欲 | 377p欧洲日本亚洲大胆 | 无码av最新清无码专区吞精 | 日日天干夜夜狠狠爱 | √天堂资源地址中文在线 | aⅴ亚洲 日韩 色 图网站 播放 | 日本爽爽爽爽爽爽在线观看免 | 4hu四虎永久在线观看 | 少妇一晚三次一区二区三区 | 亚洲乱码日产精品bd | 狂野欧美性猛交免费视频 | 一本大道久久东京热无码av | 国产精品怡红院永久免费 | 无码纯肉视频在线观看 | 亚洲国产精品成人久久蜜臀 | 日日碰狠狠躁久久躁蜜桃 | 狠狠噜狠狠狠狠丁香五月 | 强奷人妻日本中文字幕 | 国内老熟妇对白xxxxhd | 成年女人永久免费看片 | 国产网红无码精品视频 | 性色欲情网站iwww九文堂 | 亚洲精品综合五月久久小说 | 任你躁国产自任一区二区三区 | 鲁鲁鲁爽爽爽在线视频观看 | 亚洲一区二区三区含羞草 | 兔费看少妇性l交大片免费 | 成 人 免费观看网站 | 国产又粗又硬又大爽黄老大爷视 | 俄罗斯老熟妇色xxxx | 国产麻豆精品一区二区三区v视界 | 初尝人妻少妇中文字幕 | 久久国产36精品色熟妇 | 老头边吃奶边弄进去呻吟 | 亚洲无人区一区二区三区 | 国产手机在线αⅴ片无码观看 | 熟妇人妻无乱码中文字幕 | 中文无码成人免费视频在线观看 | 国产av一区二区精品久久凹凸 | aa片在线观看视频在线播放 | 亚洲色偷偷男人的天堂 | 精品少妇爆乳无码av无码专区 | 久久综合色之久久综合 | 波多野结衣av一区二区全免费观看 | 日本熟妇人妻xxxxx人hd | 精品无码一区二区三区爱欲 | 国产卡一卡二卡三 | 亚洲狠狠婷婷综合久久 | 亚洲成av人片在线观看无码不卡 | 六十路熟妇乱子伦 | 国产真实乱对白精彩久久 | 中国女人内谢69xxxx | 国语精品一区二区三区 | 久久婷婷五月综合色国产香蕉 | 欧美日韩综合一区二区三区 | 377p欧洲日本亚洲大胆 | 狠狠躁日日躁夜夜躁2020 | 久久综合给久久狠狠97色 | 4hu四虎永久在线观看 | 中文字幕久久久久人妻 | 成人免费视频视频在线观看 免费 | 夜先锋av资源网站 | 色情久久久av熟女人妻网站 | 久久久久久九九精品久 | 国产免费无码一区二区视频 | av小次郎收藏 | 久久久亚洲欧洲日产国码αv | 东京无码熟妇人妻av在线网址 | 久久久精品人妻久久影视 | 成人片黄网站色大片免费观看 | 中文字幕人成乱码熟女app | 久久无码专区国产精品s | 午夜福利不卡在线视频 | 日本护士毛茸茸高潮 | 精品国产国产综合精品 | 性欧美牲交xxxxx视频 | 日日噜噜噜噜夜夜爽亚洲精品 | 欧美肥老太牲交大战 | 欧美国产亚洲日韩在线二区 | 色 综合 欧美 亚洲 国产 | 无码国内精品人妻少妇 | 亚洲春色在线视频 | 国产三级久久久精品麻豆三级 | 亚洲国产成人a精品不卡在线 | 露脸叫床粗话东北少妇 | 国产激情综合五月久久 | 亚洲 日韩 欧美 成人 在线观看 | 成人一在线视频日韩国产 | 乌克兰少妇xxxx做受 | 久久人人爽人人爽人人片av高清 | 色欲综合久久中文字幕网 | 欧美一区二区三区视频在线观看 | 国产美女精品一区二区三区 | 国产莉萝无码av在线播放 | 欧美成人免费全部网站 | 麻豆成人精品国产免费 | 天堂在线观看www | 午夜时刻免费入口 | 亚洲色欲色欲欲www在线 | 骚片av蜜桃精品一区 | 人妻无码久久精品人妻 | 激情亚洲一区国产精品 | 无码人妻丰满熟妇区五十路百度 | 亚洲国产精品久久久天堂 | 鲁一鲁av2019在线 | 天天做天天爱天天爽综合网 | 日日天干夜夜狠狠爱 | 成人精品天堂一区二区三区 | 俺去俺来也在线www色官网 | 一本色道久久综合狠狠躁 | 好爽又高潮了毛片免费下载 | 国产欧美精品一区二区三区 | 又大又硬又黄的免费视频 | 2020最新国产自产精品 | 精品国产成人一区二区三区 | 国产成人无码区免费内射一片色欲 | 亚洲理论电影在线观看 | 国产一区二区三区精品视频 | 亚洲成av人片天堂网无码】 | 女人被男人爽到呻吟的视频 | 欧美兽交xxxx×视频 | 中文毛片无遮挡高清免费 | 无码国产激情在线观看 | 永久免费精品精品永久-夜色 | 亚洲无人区一区二区三区 | 免费人成在线观看网站 | 精品偷自拍另类在线观看 | 国产麻豆精品一区二区三区v视界 | 成在人线av无码免观看麻豆 | 18精品久久久无码午夜福利 | 日本一区二区三区免费播放 | 亚洲成a人片在线观看日本 | 中文字幕无码免费久久9一区9 | 国产极品美女高潮无套在线观看 | 欧美第一黄网免费网站 | 初尝人妻少妇中文字幕 | 国产特级毛片aaaaaaa高清 | 精品人妻人人做人人爽夜夜爽 | 88国产精品欧美一区二区三区 | 久久久久se色偷偷亚洲精品av | 久9re热视频这里只有精品 | 免费观看又污又黄的网站 | 图片小说视频一区二区 | 伊在人天堂亚洲香蕉精品区 | 国产超级va在线观看视频 | 国产极品美女高潮无套在线观看 | 亚洲人成无码网www | 在线观看免费人成视频 | 免费观看又污又黄的网站 | 国产成人综合美国十次 | 一二三四在线观看免费视频 | 97色伦图片97综合影院 | 波多野结衣av一区二区全免费观看 | 国产精品无码一区二区桃花视频 | 大屁股大乳丰满人妻 | 无码纯肉视频在线观看 | 兔费看少妇性l交大片免费 | 国产一区二区三区日韩精品 | 亚洲一区二区三区四区 | 无码国产色欲xxxxx视频 | 久久久精品欧美一区二区免费 | 国产精品自产拍在线观看 | 亚洲伊人久久精品影院 | 国产色精品久久人妻 | 7777奇米四色成人眼影 | 精品久久久无码中文字幕 | 男女下面进入的视频免费午夜 | 中文字幕日韩精品一区二区三区 | 2020久久超碰国产精品最新 | 国内少妇偷人精品视频 | 水蜜桃亚洲一二三四在线 | 在线播放亚洲第一字幕 | 成 人 免费观看网站 | 精品偷自拍另类在线观看 | 红桃av一区二区三区在线无码av | 国产精品资源一区二区 | 久久99精品久久久久婷婷 | 亚洲国产精品美女久久久久 | 亚洲一区av无码专区在线观看 | 四虎4hu永久免费 | 成人综合网亚洲伊人 | 久久久久久国产精品无码下载 | 国产超碰人人爽人人做人人添 | 18精品久久久无码午夜福利 | 色欲人妻aaaaaaa无码 | 亚洲成av人影院在线观看 | 曰韩无码二三区中文字幕 | 久久熟妇人妻午夜寂寞影院 | 中国大陆精品视频xxxx | 综合人妻久久一区二区精品 | 九九久久精品国产免费看小说 | 偷窥村妇洗澡毛毛多 | 国产手机在线αⅴ片无码观看 | 亚洲乱码中文字幕在线 | 国产激情精品一区二区三区 | 国产成人午夜福利在线播放 | 久久久久久a亚洲欧洲av冫 | 免费无码午夜福利片69 | 亚洲色欲久久久综合网东京热 | 亚洲s码欧洲m码国产av | 青草青草久热国产精品 | 久久久精品成人免费观看 | 思思久久99热只有频精品66 | 亚洲成av人片天堂网无码】 | 久久97精品久久久久久久不卡 | 香港三级日本三级妇三级 | 98国产精品综合一区二区三区 | 国语精品一区二区三区 | 爆乳一区二区三区无码 | 在线 国产 欧美 亚洲 天堂 | 色欲人妻aaaaaaa无码 | 精品久久综合1区2区3区激情 | 99久久亚洲精品无码毛片 | 国产精品va在线播放 | 少妇高潮一区二区三区99 | 麻豆国产人妻欲求不满谁演的 | 亚洲一区二区三区含羞草 | 男女猛烈xx00免费视频试看 | 日本精品久久久久中文字幕 | 人人妻人人澡人人爽欧美精品 | 一个人看的视频www在线 | 亚洲精品美女久久久久久久 | 欧美精品免费观看二区 | 久久人人爽人人爽人人片av高清 | 天天拍夜夜添久久精品 | www国产亚洲精品久久久日本 | 久久精品国产精品国产精品污 | 国产偷国产偷精品高清尤物 | 高中生自慰www网站 | 国产亚洲tv在线观看 | 国产午夜视频在线观看 | 久久久久av无码免费网 | 亚洲精品久久久久avwww潮水 | 亚洲国产精品美女久久久久 | 欧美zoozzooz性欧美 | 欧美丰满老熟妇xxxxx性 | 色婷婷综合激情综在线播放 | 亚洲人成无码网www | 国产成人无码午夜视频在线观看 | 亚洲午夜福利在线观看 | 天天av天天av天天透 | 久久午夜无码鲁丝片 | 性色欲网站人妻丰满中文久久不卡 | 性欧美大战久久久久久久 | 国产 精品 自在自线 | 少妇无码一区二区二三区 | 影音先锋中文字幕无码 | 国产午夜无码视频在线观看 | 亚洲精品成a人在线观看 | 日本乱偷人妻中文字幕 | 国内少妇偷人精品视频免费 | 亚洲成熟女人毛毛耸耸多 | www国产亚洲精品久久网站 | 久久人人爽人人爽人人片ⅴ | 精品久久久无码人妻字幂 | 亚洲精品成人av在线 | 色情久久久av熟女人妻网站 | 婷婷六月久久综合丁香 | 老熟女重囗味hdxx69 | 又大又黄又粗又爽的免费视频 | 搡女人真爽免费视频大全 | 国产免费久久精品国产传媒 | 天堂а√在线地址中文在线 | 少妇性l交大片欧洲热妇乱xxx | 少妇久久久久久人妻无码 | 亚洲日韩乱码中文无码蜜桃臀网站 | 欧美日韩亚洲国产精品 | 国产在线精品一区二区三区直播 | 欧美成人高清在线播放 | 欧美日本免费一区二区三区 | 精品久久久久久亚洲精品 | 午夜无码人妻av大片色欲 | 给我免费的视频在线观看 | 欧美老妇交乱视频在线观看 | 一本色道久久综合亚洲精品不卡 | 人妻少妇精品久久 | 精品乱子伦一区二区三区 | 国产av无码专区亚洲awww | 性生交大片免费看l | 亚洲热妇无码av在线播放 | 中文字幕日产无线码一区 | 亚洲无人区午夜福利码高清完整版 | 一本精品99久久精品77 | 久久久亚洲欧洲日产国码αv | 成人无码视频免费播放 | 狠狠cao日日穞夜夜穞av | 麻豆av传媒蜜桃天美传媒 | 国产精品毛多多水多 | 国产suv精品一区二区五 | 国产激情一区二区三区 | 日本一本二本三区免费 | 亚洲精品国产第一综合99久久 | 丰满肥臀大屁股熟妇激情视频 | 麻豆国产丝袜白领秘书在线观看 | 欧美乱妇无乱码大黄a片 | 欧美精品免费观看二区 | 青青久在线视频免费观看 | 最新国产麻豆aⅴ精品无码 | 亚洲一区二区三区在线观看网站 | 精品亚洲韩国一区二区三区 | 欧美国产亚洲日韩在线二区 | 少妇被黑人到高潮喷出白浆 | 人妻无码αv中文字幕久久琪琪布 | 爽爽影院免费观看 | 亚洲一区二区三区偷拍女厕 | 西西人体www44rt大胆高清 | 精品无码av一区二区三区 | 欧美大屁股xxxxhd黑色 | 精品一区二区三区波多野结衣 | 亚洲色大成网站www | 成人精品天堂一区二区三区 | 99久久久国产精品无码免费 | 国产精品久久久久久亚洲影视内衣 | 国产人妖乱国产精品人妖 |