久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程语言 > c/c++ >内容正文

c/c++

hadoop-HA集群搭建,启动DataNode,检测启动状态,执行HDFS命令,启动YARN,HDFS权限配置,C++客户端编程,常见错误

發布時間:2024/9/27 c/c++ 16 豆豆
生活随笔 收集整理的這篇文章主要介紹了 hadoop-HA集群搭建,启动DataNode,检测启动状态,执行HDFS命令,启动YARN,HDFS权限配置,C++客户端编程,常见错误 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

本篇博文為整理網絡上Hadoop-HA搭建后出來的博客,參考網址為:http://blog.chinaunix.net/uid-196700-id-5751309.html

3.?部署

3.1.?機器列表

共5臺機器(zookeeper部署在這5臺機器上),部署如下表所示:

?

NameNode

JournalNode

DataNode

ZooKeeper

192.168.106.91

192.168.106.92

192.168.106.91

192.168.106.92

192.168.106.93

192.168.106.93

192.168.106.94

192.168.106.95

192.168.106.101

192.168.106.102

192.168.106.103

?

3.2.?主機名

?

?

?

機器IP

對應的主機名

192.168.106.91

hadoop1

192.168.106.92

hadoop2

192.168.106.93

hadoop3

192.168.106.94

hadoop4

192.168.106.95

hadoop5

192.168.106.101

hadoop11

192.168.106.102

hadoop12

192.168.106.103

hadoop13

?

?

?

?

?

注意主機名不能有下劃線,否則啟動時,SecondaryNameNode節點會報錯

3.2.2.?永久修改主機名(注意:這一步一定要做)

不同的Linux發行版本,對應的系統配置文件可能不同,Centos6.7通過/etc/hosts:

[root@hadoop1 hadoop]# hostname

hadoop1

?

查看主機配置信息cat /etc/hosts:

[root@hadoop1 hadoop]# cat /etc/hosts

192.168.106.91????? hadoop1

192.168.106.92????? hadoop2

192.168.106.93????? hadoop3

192.168.106.94????? hadoop4

192.168.106.95????? hadoop5

192.168.106.101????? hadoop11

192.168.106.102????? hadoop12

192.168.106.103????? hadoop13

關于虛擬機克隆,hostname修改,ip修改,參考博文:

http://blog.csdn.net/tototuzuoquan/article/details/53999173

?

win10下虛擬機聯網問題,參考:

http://blog.csdn.net/tototuzuoquan/article/details/53900836

?

3.3.?免密碼登錄范圍

要求能通過免登錄包括使用IP和主機名都能免密碼登錄:

1)?NameNode能免密碼登錄所有的DataNode

2)?各NameNode能免密碼登錄自己

3)?各NameNode間能免密碼互登錄

4)?DataNode能免密碼登錄自己

5)?DataNode不需要配置免密碼登錄NameNode和其它DataNode。

?

注:免密碼登錄不是必須的,如果不使用hadoop-daemons.sh等需要ssh、scp的腳本。

?

4.?免密碼ssh2登錄

?

以下的免密登錄方案是針對Centos6.7上情況:

?

hadoop1下:

ssh-keygen -t rsa? (直接打Enter,直到執行完畢)

然后執行:

ssh-copy-id hadoop1

ssh-copy-id hadoop2

ssh-copy-id hadoop3

ssh-copy-id hadoop4

ssh-copy-id hadoop5

通過上面的配置,可以在hadoop1上免密登錄hadoop1、hadoop2、hadoop3、hadoop4、hadoop5

?

hadoop2下:

ssh-keygen -t rsa? (直接打Enter,直到執行完畢)

然后執行:

ssh-copy-id hadoop1

ssh-copy-id hadoop2

ssh-copy-id hadoop3

ssh-copy-id hadoop4

ssh-copy-id hadoop5

通過上面的配置,可以在hadoop1上免密登錄hadoop1、hadoop2、hadoop3、hadoop4、hadoop5

?

hadoop3下:

ssh-keygen -t rsa? (直接打Enter,直到執行完畢)

然后執行:

?

ssh-copy-id hadoop1

ssh-copy-id hadoop2

ssh-copy-id hadoop3

ssh-copy-id hadoop4

ssh-copy-id hadoop5

?

hadoop4下:

ssh-keygen -t rsa? (直接打Enter,直到執行完畢)

然后執行:

?

ssh-copy-id hadoop1

ssh-copy-id hadoop2

ssh-copy-id hadoop3

ssh-copy-id hadoop4

ssh-copy-id hadoop5

?

hadoop5下:

ssh-keygen -t rsa? (直接打Enter,直到執行完畢)

然后執行:

?

ssh-copy-id hadoop1

ssh-copy-id hadoop2

ssh-copy-id hadoop3

ssh-copy-id hadoop4

ssh-copy-id hadoop5

?

?

?? 下面是其它關于免密登錄的資料

建議生成的私鑰和公鑰文件名都帶上自己的IP,否則會有些混亂。

按照中免密碼登錄范圍的說明,配置好所有的免密碼登錄。更多關于免密碼登錄說明,請瀏覽技術博客:

1)?http://blog.chinaunix.net/uid-20682147-id-4212099.html(兩個SSH2間免密碼登錄)

2)?http://blog.chinaunix.net/uid-20682147-id-4212097.html(SSH2免密碼登錄OpenSSH)

3)?http://blog.chinaunix.net/uid-20682147-id-4212094.html(OpenSSH免密碼登錄SSH2)

4)?http://blog.chinaunix.net/uid-20682147-id-5520240.html(兩個openssh間免密碼登錄)

?

?

?

?

5.?約定

5.1.?安裝目錄約定

為便于講解,本文約定Hadoop、JDK安裝目錄如下:

Jdk

/usr/local/jdk1.8.0_73

hadoop

/home/tuzq/software/hadoop-2.8.0

在實際安裝部署時,可以根據實際進行修改。

6.?工作詳單

為運行Hadoop(HDFS、YARN和MapReduce)需要完成的工作詳單:

JDK安裝

Hadoop是Java語言開發的,所以需要。

免密碼登錄

NameNode控制SecondaryNameNode和DataNode使用了ssh和scp命令,需要無密碼執行。

Hadoop安裝和配置

這里指的是HDFS、YARN和MapReduce,不包含HBase、Hive等的安裝。

7.?JDK安裝

本文安裝的JDK1.8.0_73版本。關于JDK的安裝,參考:http://blog.csdn.net/tototuzuoquan/article/details/18188109

7.1.?下載安裝包

此處略。

7.2.?安裝步驟

最后配置的java的環境變量是:

export?JAVA_HOME=/usr/local/jdk1.8.0_73

export?CLASSPATH=$JAVA_HOME/lib/tools.jar

export?PATH=$JAVA_HOME/bin:$PATH

?

完成這項操作之后,需要重新登錄,或source一下profile文件,以便環境變量生效,當然也可以手工運行一下,以即時生效。如果還不放心,可以運行下java或javac,看看命令是否可執行。如果在安裝JDK之前,已經可執行了,則表示不用安裝JDK。

?

?

?

?

8.?Hadoop安裝和配置

本部分僅包括HDFS、MapReduce和Yarn的安裝,不包括HBase、Hive等的安裝。

8.1.?下載安裝包

? ?此處略,直接進入官網,下載hadoop-2.8.0.tar.gz。關于源碼編譯的可以參考:

? 源碼編譯:

? http://blog.csdn.net/tototuzuoquan/article/details/72796632

?hadoop偽分布式集群安裝:

? http://blog.csdn.net/tototuzuoquan/article/details/72798435

?

8.2.?安裝和環境變量配置

1)?將下載好的hadoop安裝包hadoop-2.8.0.tar.gz上傳到/home/tuzq/software目錄下

2)?進入/home/tuzq/software目錄

3)?在/home/tuzq/software目錄下,解壓安裝包hadoop-2.8.0.tar.gz:tar?xzf?hadoop-2.8.0.tar.gz,將自己在Linux上編譯好的hadoop中的lib/native替換剛剛解壓好的hadoop-2.8.0/lib/native中的內容。

4)?修改用戶主目錄下的文件.profile(當然也可以是/etc/profile或其它同等效果的文件),設置Hadoop環境變量:

export?JAVA_HOME=/usr/local/jdk1.8.0_73

export?HADOOP_HOME=/home/tuzq/software/hadoop-2.8.0

export?HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

export?PATH=$PATH:$HADOOP_HOME/bin

?

需要重新登錄以生效,或者在終端上執行source /etc/profile,讓export?HADOOP_HOME=/home/tuzq/software/hadoop-2.8.0即時生效。

8.3.?修改hadoop-env.sh(hadoop1機器上為例)

修改所有節點上的$HADOOP_HOME/etc/hadoop/hadoop-env.sh文件,在靠近文件頭部分加入:export?JAVA_HOME=/usr/local/jdk1.8.0_73

?

特別說明一下:雖然在/etc/profile已經添加了JAVA_HOME,但仍然得修改所有節點上的hadoop-env.sh,否則啟動時,報如下所示的錯誤:

ip:?Error:?JAVA_HOME?is?not?set?and?could?not?be?found.

ip:?Error:?JAVA_HOME?is?not?set?and?could?not?be?found.

ip:?Error:?JAVA_HOME?is?not?set?and?could?not?be?found.

ip:?Error:?JAVA_HOME?is?not?set?and?could?not?be?found.

ip:?Error:?JAVA_HOME?is?not?set?and?could?not?be?found.

ip:?Error:?JAVA_HOME?is?not?set?and?could?not?be?found.

?

除JAVA_HOME之外,再添加:

export?HADOOP_HOME=/home/tuzq/software/hadoop-2.8.0

export?HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop

?

效果如下:

?

同時,建議將下列添加到/etc/profile或~/.profile中:

export?JAVA_HOME=/usr/local/jdk1.8.0_73

export?HADOOP_HOME=/home/tuzq/software/hadoop-2.8.0

export?HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

8.5.?修改slaves(hadoop1機器上為例)

slaves即為HDFS的DataNode節點。當使用腳本start-dfs.sh來啟動hdfs時,會使用到這個文件,以無密碼登錄方式到各slaves上啟動DataNode。

修改主NameNode和備NameNode上的$HADOOP_HOME/etc/hadoop/slaves文件,將slaves的節點IP(也可以是相應的主機名)一個個加進去,一行一個IP,如下所示:

>cat?slaves

hadoop3

hadoop4

hadoop5

8.6.?準備好各配置文件

配置文件放在$HADOOP_HOME/etc/hadoop目錄下,對于Hadoop?2.3.0、Hadoop?2.7.2和Hadoop?2.7.2版本,該目錄下的core-site.xml、yarn-site.xml、hdfs-site.xml和mapred-site.xml都是空的。如果不配置好就啟動,如執行start-dfs.sh,則會遇到各種錯誤。

可從$HADOOP_HOME/share/hadoop目錄下拷貝一份到/etc/hadoop目錄,然后在此基礎上進行修改(以下內容可以直接拷貝執行,2.3.0版本中各default.xml文件路徑不同于2.7.2版本):

#?進入$HADOOP_HOME目錄

cd?$HADOOP_HOME

cp?./share/doc/hadoop/hadoop-project-dist/hadoop-common/core-default.xml?./etc/hadoop/core-site.xml

cp?./share/doc/hadoop/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml?./etc/hadoop/hdfs-site.xml

cp?./share/doc/hadoop/hadoop-yarn/hadoop-yarn-common/yarn-default.xml?./etc/hadoop/yarn-site.xml

cp?./share/doc/hadoop/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml?./etc/hadoop/mapred-site.xml

?

接下來,需要對默認的core-site.xml、yarn-site.xml、hdfs-site.xml和mapred-site.xml進行適當的修改,否則仍然無法啟動成功。

?

QJM的配置參照的官方文檔:

http://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-hdfs/HDFSHighAvailabilityWithQJM.html

?

8.7.?修改core-site.xml

對core-site.xml文件的修改,涉及下表中的屬性:

?

屬性名

屬性值

說明

fs.defaultFS

hdfs://mycluster

?

fs.default.name

hdfs://mycluster

按理應當不用填寫這個參數,因為fs.defaultFS已取代它,但啟動時報錯:

fs.defaultFS?is?file:///

hadoop.tmp.dir

/home/tuzq/software/hadoop-2.8.0/tmp

?

ha.zookeeper.quorum

hadoop11:2181,hadoop12:2181,hadoop13:2181

?

ha.zookeeper.parent-znode

/mycluster/hadoop-ha

?

io.seqfile.local.dir

?

默認值為${hadoop.tmp.dir}/io/local

fs.s3.buffer.dir

?

默認值為${hadoop.tmp.dir}/s3

fs.s3a.buffer.dir

?

默認值為${hadoop.tmp.dir}/s3a

?

?

?

?? 實際部署的時候的一個參考配置文件如下:

<?xml version="1.0" encoding="UTF-8"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

?

<configuration>

??? <property>

??????? <name>fs.defaultFS</name>

??????? <value>hdfs://mycluster</value>

??? </property>

??? <property>

??????? <name>fs.default.name</name>

??????? <value>hdfs://mycluster</value>

??? </property>

??? <property>

??????? <name>hadoop.tmp.dir</name>

??????? <value>/home/tuzq/software/hadoop-2.8.0/tmp</value>

??? </property>

?

??? <property>

??????? <name>ha.zookeeper.quorum</name>

??????? <value>hadoop11:2181,hadoop12:2181,hadoop13:2181</value>

??? </property>

?

??? <property>

??????? <name>ha.zookeeper.parent-znode</name>

??????? <value>/mycluster/hadoop-ha</value>

??? </property>

</configuration>

?

注意啟動之前,需要將配置的目錄創建好,如創建好/home/tuzq/software/current/tmp目錄。詳細可參考:

http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/core-default.xm

8.7.1.?dfs.namenode.rpc-address

如果沒有配置,則啟動時報如下錯誤:

Incorrect?configuration:?namenode?address?dfs.namenode.servicerpc-address?or?dfs.namenode.rpc-address?is?not?configured.

?

這里需要指定IP和端口,如果只指定了IP,如192.168.106.91,則啟動時輸出如下:

Starting?namenodes?on?[]

?

改成“hadoop1:8020”后,則啟動時輸出為:

Starting?namenodes?on?[192.168.106.91]

?

8.8.?修改hdfs-site.xml

對hdfs-site.xml文件的修改,涉及下表中的屬性:

屬性名

屬性值

說明

dfs.nameservices

mycluster

?

dfs.ha.namenodes.mycluster

nn1,nn2

同一個nameservice下,只能配置一個或兩個,也就是說不能有nn3

dfs.namenode.rpc-address.mycluster.nn1

hadoop1:8020

?

dfs.namenode.rpc-address.mycluster.nn2

Hadoop2:8020

?

dfs.namenode.http-address.mycluster.nn1

hadoop1:50070

?

dfs.namenode.http-address.mycluster.nn2

hadoop2:50070

?

dfs.namenode.shared.edits.dir

qjournal://hadoop1:8485;hadoop2:8485;hadoop3:8485/mycluster

至少三臺Quorum?Journal節點配置

?

?

?

dfs.client.failover.proxy.provider.mycluster

org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider

客戶端通過它來找NameNode

?

?

?

dfs.ha.fencing.methods

sshfence

?

如果配置為sshfence,當主NameNode異常時,使用ssh登錄到主NameNode,然后使用fuser將主NameNode殺死,因此需要確保所有NameNode上可以使用fuser。

用來保證同一時刻只有一個主NameNode,以防止腦裂。可帶用戶名和端口參數,格式示例:sshfence([[username][:port]]);值還可以為shell腳本,格式示例:

shell(/path/to/my/script.sh?arg1?arg2?...),如:

shell(/bin/true)

dfs.ha.fencing.ssh.private-key-files

/root/.ssh/id_rsa

指定私鑰,如果是OpenSSL,則值為/root/.ssh/id_rsa

dfs.ha.fencing.ssh.connect-timeout

30000

可選的配置

dfs.journalnode.edits.dir

/home/tuzq/software/hadoop-2.8.0/journal

JournalNode存儲其本地狀態的位置,在JournalNode機器上的絕對路徑,JNs的edits和其它本地狀態被存儲在此處

dfs.datanode.data.dir

/home/tuzq/software/hadoop-2.8.0/data/data

?

dfs.namenode.name.dir

/home/tuzq/software/hadoop-2.8.0/data/name

NameNode元數據存放目錄,默認值為file://${hadoop.tmp.dir}/dfs/name,也就是在臨時目錄下,可以考慮放到數據目錄下

dfs.namenode.checkpoint.dir

?

默認值為file://${hadoop.tmp.dir}/dfs/namesecondary,但如果沒有啟用SecondaryNameNode,則不需要

dfs.ha.automatic-failover.enabled

true

自動主備切換

?

?

?

dfs.datanode.max.xcievers

4096

可選修改,類似于linux的最大可打開的文件個數,默認為256,建議設置成大一點。同時,需要保證系統可打開的文件個數足夠(可通過ulimit命令查看)。該錯誤會導致hbase報“notservingregionexception”。

dfs.journalnode.rpc-address

0.0.0.0:8485

配置JournalNode的RPC端口號,默認為0.0.0.0:8485,可以不用修改

?

詳細配置可參考:

http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-hdfs/hdfs-default.xml

?

實際部署的時候的一個參考配置文件:

<?xml version="1.0" encoding="UTF-8"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

?

<configuration>

??? <property>

??????? <name>dfs.nameservices</name>

??????? <value>mycluster</value>

??? </property>

??? <!--同一nameservice下,只能配置一或兩個NameNode,也就是說不能有nn3,分別是nn1,nn2-->

??? <property>

??????? <name>dfs.ha.namenodes.mycluster</name>

??????? <value>nn1,nn2</value>

??? </property>

??? <!-- nn1的RPC通信地址 -->

??? <property>

??????? <name>dfs.namenode.rpc-address.mycluster.nn1</name>

??????? <value>hadoop1:8020</value>

??? </property>

??? <!--nn1的http通信地址-->

??? <property>

??????? <name>dfs.namenode.http-address.mycluster.nn1</name>

??????? <value>hadoop1:50070</value>

??? </property>

??? <!--nn2的RPC通信地址-->

??? <property>

??????? <name>dfs.namenode.rpc-address.mycluster.nn2</name>

??????? <value>hadoop2:8020</value>

??? </property>

??? <!--nn2的http通信地址-->

??? <property>

??????? <name>dfs.namenode.http-address.mycluster.nn2</name>

??????? <value>hadoop2:50070</value>

??? </property>

???

??? <!--指定NameNode的edits元數據在JournalNode上的存放位置,這也是一個集群,至少3臺Quorum Journal節點配置-->

??? <property>

??????? <name>dfs.namenode.shared.edits.dir</name>

??????? <value>qjournal://hadoop1:8485;hadoop2:8485;hadoop3:8485/mycluster</value>

??? </property>

???

??? <!--

??????? JournalNode存儲其本地狀態的位置,在JournalNode機器上的絕對路徑,JNs的edits

??????? 和其他本地狀態將被存儲在此處

??? -->

??? <property>

??????? <name>dfs.journalnode.edits.dir</name>

??????? <value>/home/tuzq/software/hadoop-2.8.0/journal</value>

??? </property>

???

??? <!--配置JournalNode的RPC端口號,默認為0.0.0.0:8485,可以不用修改-->

??? <!--

??? <property>

??????? <name>dfs.journalnode.rpc-address</name>

??????? <property>0.0.0.0:8485</property>

??? </property>

??? -->

???

??? <!--開啟NameNode失敗自動切換,自動主備切換-->

??? <property>

??????? <name>dfs.ha.automatic-failover.enabled</name>

??????? <value>true</value>

??? </property>

???

??? <!--

???????? 配置失敗自動切換實現方式,切換的時候用哪種控制器,不同的名稱服務可以有不同的自動切換方式,

???????? 客戶端通過它來找主NameNode

??? -->

??? <property>

??????? <name>dfs.client.failover.proxy.provider.mycluster</name>

??????? <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>

??? </property>

???

??? <!--

?????? 配置隔離機制方法,多個機制用換行分割,即每個機制暫用一行

??????

?????? 如果配置為sshfence,當主NameNode異常時,使用ssh登錄到主NameNode,然后使用fuser將主NameNode殺死,因此需要確保所有NameNode

?????? 上可以使用fuser;

?

?????? 用來保證同一時刻只有一個主NameNode,以防止腦裂。可帶用戶名和端口參數,格式示例:sshfence([[username][:port]]);值

?????? 還可以為shell腳本,格式示例:shell(/bin/true),如果sshd不是默認的22端口時,就需要指定。

??? -->

??? <property>

??????? <name>dfs.ha.fencing.methods</name>

??????? <value>

????????????? sshfence

????????????? shell(/bin/true)

??????? </value>

??? </property>

???

??? <!-- 使用sshfence隔離機制時需要ssh免登陸,指定私鑰,下面是OpenSSL -->

??? <property>

??????? <name>dfs.ha.fencing.ssh.private-key-files</name>

??????? <value>/root/.ssh/id_rsa</value>

??? </property>

???

??? <!-- 配置sshfence隔離機制超時時間 -->

??? <property>

??????? <name>dfs.ha.fencing.ssh.connect-timeout</name>

??????? <value>30000</value>

??? </property>

?

??? <!--

???????? NameNode元數據存放目錄,默認值為file://${hadoop.tmp.dir}/dfs/name,

???????? 也就是在臨時目錄下,可以考慮放到數據目錄下

??? -->

??? <property>

??????? <name>dfs.datanode.data.dir</name>

??????? <value>/home/tuzq/software/hadoop-2.8.0/data/data</value>

??? </property>

?

??? <property>

??????? <name>dfs.namenode.name.dir</name>

??????? <value>/home/tuzq/software/hadoop-2.8.0/data/name</value>

??? </property>

?

??? <!--

?????? 可選修改,類似于Linux的最大可打開的文件個數,默認為256,建議設置成大一點。同時,

?????? 需要保證系統可打開的文件個數足夠(可通過ulimit命令查看),該錯誤會導致hbase報

?????? "notservingregionexception"

??? -->

??? <property>

??????? <name>dfs.datanode.max.xcievers</name>

??????? <value>4096</value>

??? </property>

???

</configuration>

?

8.9.?修改mapred-site.xml

對hdfs-site.xml文件的修改,涉及下表中的屬性:

屬性名

屬性值

涉及范圍

mapreduce.framework.name

yarn

所有mapreduce節點

?

實際部署中的一個參考配置如下:

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

?

<configuration>

??? <property>

??????? <name>mapreduce.framework.name</name>

??????? <value>yarn</value>

??? </property>

</configuration>

?

詳細配置可參考:

http://hadoop.apache.org/docs/current/hadoop-mapreduce-client/hadoop-mapreduce-client-core/mapred-default.xml

8.10.?修改yarn-site.xml

對yarn-site.xml文件的修改,涉及下表中的屬性:

屬性名

屬性值

涉及范圍

yarn.resourcemanager.hostname

0.0.0.0

ResourceManager

NodeManager

HA模式可不配置,但由于其它配置項可能有引用它,建議保持值為0.0.0.0,如果沒有被引用到,則可不配置。

yarn.nodemanager.hostname

0.0.0.0

?

yarn.nodemanager.aux-services

mapreduce_shuffle

?

以下為HA相關的配置,包括自動切換(可僅可在ResourceManager節點上配置

yarn.resourcemanager.ha.enabled

true

啟用HA

yarn.resourcemanager.cluster-id

yarn-cluster

可不同于HDFS

yarn.resourcemanager.ha.rm-ids

rm1,rm2

注意NodeManager要和ResourceManager一樣配置

yarn.resourcemanager.hostname.rm1

hadoop1

?

yarn.resourcemanager.hostname.rm2

hadoop2

?

yarn.resourcemanager.webapp.address.rm1

hadoop1:8088

在瀏覽器上訪問:http://hadoop1:8088,可以看到yarn的信息

yarn.resourcemanager.webapp.address.rm2

hadoop2:8088

在瀏覽器上訪問:http://hadoop2:8088,可以看到yarn的信息

yarn.resourcemanager.zk-address

hadoop11:2181,hadoop12:2182,hadoop13:2181

?

yarn.resourcemanager.ha.automatic-failover.enable

true

可不配置,因為當yarn.resourcemanager.ha.enabled為true時,它的默認值即為true

以下為NodeManager配置

yarn.nodemanager.vmem-pmem-ratio

?

每使用1MB物理內存,最多可用的虛擬內存數,默認值為2.1,在運行spark-sql時如果遇到“Yarn?application?has?already?exited?with?state?FINISHED”,則應當檢查NodeManager的日志,以查看是否該配置偏小原因

yarn.nodemanager.resource.cpu-vcores

?

NodeManager總的可用虛擬CPU個數,默認值為8

yarn.nodemanager.resource.memory-mb

?

該節點上YARN可使用的物理內存總量,默認是8192(MB)

yarn.nodemanager.pmem-check-enabled

?

是否啟動一個線程檢查每個任務正使用的物理內存量,如果任務超出分配值,則直接將其殺掉,默認是true

yarn.nodemanager.vmem-check-enabled

?

是否啟動一個線程檢查每個任務正使用的虛擬內存量,如果任務超出分配值,則直接將其殺掉,默認是true

以下為ResourceManager配置

yarn.scheduler.minimum-allocation-mb

?

單個容器可申請的最小內存

yarn.scheduler.maximum-allocation-mb

?

單個容器可申請的最大內存

?

?? 實際部署的時候一個參考配置:

<?xml version="1.0"?>

?

<configuration>

??? <!--啟用HA-->

??? <property>

??????? <name>yarn.resourcemanager.ha.enabled</name>

??????? <value>true</value>

??? </property>

???

??? <!--指定RM的cluster id-->

??? <property>

??????? <name>yarn.resourcemanager.cluster-id</name>

??????? <value>yarn-cluster</value>

??? </property>

???

??? <!-- 指定RM的名字 -->???

??? <property>

??????? <name>yarn.resourcemanager.ha.rm-ids</name>

??????? <value>rm1,rm2</value>

??? </property>??

???

??? <!--分別指定RM的地址-->

??? <property>

??????? <name>yarn.resourcemanager.hostname.rm1</name>

??????? <value>hadoop1</value>

??? </property>

??? <property>

??????? <name>yarn.resourcemanager.hostname.rm2</name>

??????? <value>hadoop2</value>

??? </property>

??? <property>

??????? <name>yarn.resourcemanager.webapp.address.rm1</name>

??????? <value>hadoop1:8088</value>

??? </property>

??? <property>

??????? <name>yarn.resourcemanager.webapp.address.rm2</name>

??????? <value>hadoop2:8088</value>

??? </property>

??? <!--指定zk集群地址-->???

??? <property>

??????? <name>yarn.resourcemanager.zk-address</name>

??????? <value>hadoop11:2181,hadoop12:2182,hadoop13:2181</value>

??? </property>

???

??? <!-- yarn中的nodemanager是否要提供一些輔助的服務 -->?

??? <property>

??? <name>yarn.nodemanager.aux-services</name>

??? <value>mapreduce_shuffle</value>

??? </property>

?

</configuration>

?

yarn.nodemanager.hostname如果配置成具體的IP,則會導致每個NodeManager的配置不同。詳細配置可參考:

http://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-common/yarn-default.xml

Yarn?HA的配置可以參考:

https://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-site/ResourceManagerHA.html

?

在hadoop1上配置完成后執行:

?

scp -r /home/toto/software/hadoop-2.8.0/etc/hadoop/* root@hadoop2:/home/tuzq/software/hadoop-2.8.0/etc/hadoop

scp -r /home/toto/software/hadoop-2.8.0/etc/hadoop/* root@hadoop3:/home/tuzq/software/hadoop-2.8.0/etc/hadoop

scp -r /home/toto/software/hadoop-2.8.0/etc/hadoop/* root@hadoop4:/home/tuzq/software/hadoop-2.8.0/etc/hadoop

scp -r /home/toto/software/hadoop-2.8.0/etc/hadoop/* root@hadoop5:/home/tuzq/software/hadoop-2.8.0/etc/hadoop

?

?

?

?

9.?啟動順序

Zookeeper?->?JournalNode?->?格式化NameNode?->?初始化JournalNode

->?創建命名空間(zkfc)?->?NameNode?->?DataNode?->?ResourceManager?->?NodeManager。

但請注意首次啟動NameNode之前,得先做format,也請注意備NameNode的啟動方法。

10.?啟動HDFS

在啟動HDFS之前,需要先完成對NameNode的格式化。

10.1.?創建好目錄

mkdir?-p?/home/tuzq/software/hadoop-2.8.0/tmp/dfs/name (可略去此步驟)

10.2.?啟動好zookeeper

./zkServer.sh?start

注意在啟動其它之前先啟動zookeeper

10.3.?創建命名空間

在其中一個namenodehadoop1)上執行:

cd $HADOOP_HOME

bin/hdfs?zkfc?-formatZK ? ?(第二次不用執行了)

?

10.4.?啟動所有JournalNode(hadoop1,hadoop2,hadoop3上執行)

NameNode將元數據操作日志記錄在JournalNode上,主備NameNode通過記錄在JouralNode上的日志完成元數據同步。

?

在所有JournalNode上執行:

cd $HADOOP_HOME

sbin/hadoop-daemon.sh?start?journalnode

?執行完成之后執行下面的命令進行查看:

[root@hadoop2 hadoop-2.8.0]# jps
3314 Jps
3267 JournalNode
[root@hadoop2 hadoop-2.8.0]#

?

注意,在執行“hdfs?namenode?-format”之前,必須先啟動好JournalNode,而format又必須在啟動namenode之前。

?

10.5初始化namenode

進入hadoop1接著執行下面的命令(初始化namenode,如果之前已經初始化過了,此時不需要再次重新初始化namenode):

hdfs?namenode?-format ? ?(第二次不用執行了)

?

10.6.初始化JournalNode

如果是非HA轉HA才需要這一步,在其中一個JournalNode(在hadoop1)上執行:

bin/hdfs?namenode?-initializeSharedEdits ??(第二次不用執行了):

此命令默認是交互式的,加上參數-force轉成非交互式。

?

在所有JournalNode創建如下目錄(第二次不用執行了):

mkdir?-p?/home/tuzq/software/hadoop-2.8.0/journal/mycluster/current

10.7.?啟動主NameNode

下面進入的是hadoop1這臺機器。關于啟動hadoop2上的namenode在下面的博文中有介紹

1)?進入$HADOOP_HOME目錄

2)?啟動主NameNode

sbin/hadoop-daemon.sh?start?namenode

?

啟動時,遇到如下所示的錯誤,則表示NameNode不能免密碼登錄自己。如果之前使用IP可以免密碼登錄自己,則原因一般是因為沒有使用主機名登錄過自己,因此解決辦法是使用主機名SSH一下

10.8.?啟動備NameNode

進入hadoop2,執行以下命令

bin/hdfs namenode -bootstrapStandby

出現:Re-format的都選擇N

sbin/hadoop-daemon.sh?start?namenode

?

如果沒有執行第1步,直接啟動會遇到如下錯誤:

No?valid?image?files?found

或者在該NameNode日志會發現如下錯誤:

2016-04-08?14:08:39,745?WARN?org.apache.hadoop.hdfs.server.namenode.FSNamesystem:?Encountered?exception?loading?fsimage

java.io.IOException:?NameNode?is?not?formatted.

10.9.?啟動主備切換進程

在所有NameNode(即hadoop1和hadoop2上都執行命令)上啟動主備切換進程:

sbin/hadoop-daemon.sh?start?zkfc

只有啟動了DFSZKFailoverController進程,HDFS才能自動切換主備。

?

注:zkfc是zookeeper?failover?controller的縮寫。

10.10.?啟動所有DataNode

在各個DataNode上分別執行(即hadoop3,hadoop4,hadoop5上)

sbin/hadoop-daemon.sh?start?datanode

?

如果有發現DataNode進程并沒有起來,可以試試刪除logs目錄下的DataNode日志,再得啟看看。

10.11.?檢查啟動是否成功

1)?使用JDK提供的jps命令,查看相應的進程是否已啟動

2)?檢查$HADOOP_HOME/logs目錄下的log和out文件,看看是否有異常信息。

?

啟動后nn1和nn2都處于備機狀態,將nn1切換為主機(下面的命令在hadoop1上執行):

bin/hdfs?haadmin?-transitionToActive?nn1

?

?

?

10.11.1.?DataNode

執行jps命令(注:jps是jdk中的一個命令,不是jre中的命令),可看到DataNode進程:

$?jps

18669?DataNode

24542?Jps

10.11.2.?NameNode

執行jps命令,可看到NameNode進程:

$?jps

18669?NameNode

24542?Jps

10.12.?執行HDFS命令

執行HDFS命令,以進一步檢驗是否已經安裝成功和配置好。關于HDFS命令的用法,直接運行命令hdfs或hdfs?dfs,即可看到相關的用法說明。

10.12.1.?查看DataNode是否正常啟動

hdfs?dfsadmin?-report

?

注意如果core-site.xml中的配置項fs.default.name的值為file:///,則會報:

report:?FileSystem?file:///?is?not?an?HDFS?file?system

Usage:?hdfs?dfsadmin?[-report]?[-live]?[-dead]?[-decommissioning]

?

解決這個問題,只需要將fs.default.name的值設置為和fs.defaultFS相同的值。

10.12.2啟動hdfs和yarn(在hadoop1,hadoop2上分別執行)

進入hadoop1機器,執行命令:

[root@hadoop1sbin]# sbin/start-dfs.sh

?cd $HADOOP_HOME

# sbin/start-yarn.sh ? ? ?(注意:hadoop1和hadoop2都啟動)

???

在瀏覽器上訪問:http://hadoop1:50070/,界面如下:

?? 上面顯示的是主的,是active狀態。

??

??? 再在瀏覽器上訪問:http://hadoop2:50070/

?? 通過上面,發現hadoop2是一種備用狀態。

?

訪問yarn(訪問地址可以在yarn-site.xml中查找到),訪問之后的效果如下http://hadoop1:8088/cluster:

?

10.12.2.?查看NameNode的主備狀態

如查看NameNode1和NameNode2分別是主還是備:

$?hdfs?haadmin?-getServiceState?nn1

standby

$?hdfs?haadmin?-getServiceState?nn2

active

?

?

10.12.3.?hdfs?dfs?ls

注意:下面的命令只有在啟動了yarn之后才會可用

?

“hdfs?dfs?-ls”帶一個參數,如果參數以“hdfs://URI”打頭表示訪問HDFS,否則相當于ls。其中URI為NameNode的IP或主機名,可以包含端口號,即hdfs-site.xml中“dfs.namenode.rpc-address”指定的值。

“hdfs?dfs?-ls”要求默認端口為8020,如果配置成9000,則需要指定端口號,否則不用指定端口,這一點類似于瀏覽器訪問一個URL。示例:

>?hdfs?dfs?-ls?hdfs://hadoop1:8020/

?

?

?

8020后面的斜杠/是和必須的,否則被當作文件。如果不指定端口號8020,則使用默認的8020,“hadoop1:8020”由hdfs-site.xml中“dfs.namenode.rpc-address”指定。

不難看出“hdfs?dfs?-ls”可以操作不同的HDFS集群,只需要指定不同的URI。

?

如果想通過hdfs協議查看文件列表或者文件,可以使用如下方式:

?

文件上傳后,被存儲在DataNode的data目錄下(由DataNode的hdfs-site.xml中的屬性“dfs.datanode.data.dir”指定),

如:$HADOOP_HOME/data/data/current/BP-472842913-192.168.106.91-1497065109036/current/finalized/subdir0/subdir0/blk_1073741825

文件名中的“blk”是block,即塊的意思,默認情況下blk_1073741825即為文件的一個完整塊,Hadoop未對它進額外處理。

10.12.4.?hdfs?dfs?-put

上傳文件命令,示例:

>?hdfs?dfs?-put?/etc/SuSE-release?hdfs://192.168.106.91/

10.12.5.?hdfs?dfs?-rm

刪除文件命令,示例:

>?hdfs?dfs?-rm?hdfs://192.168.106.91/SuSE-release

Deleted?hdfs://192.168.106.91/SuSE-release

10.12.6.?新NameNode如何加入?

當有NameNode機器損壞時,必然存在新NameNode來替代。把配置修改成指向新NameNode,然后以備機形式啟動新NameNode,這樣新的NameNode即加入到Cluster中:

1)?bin/hdfs?namenode?-bootstrapStandby

2)?sbin/hadoop-daemon.sh?start?namenode

?

10.12.7.?HDFS只允許有一主一備兩個NameNode

如果試圖配置三個NameNode,如:

??dfs.ha.namenodes.test

??nm1,nm2,nm3

??

????The?prefix?for?a?given?nameservice,?contains?a?comma-separated

????list?of?namenodes?for?a?given?nameservice?(eg?EXAMPLENAMESERVICE).

??

?

則運行“hdfs?namenode?-bootstrapStandby”時會報如下錯誤,表示在同一NameSpace內不能超過2個NameNode:

16/04/11?09:51:57?ERROR?namenode.NameNode:?Failed?to?start?namenode.

java.io.IOException:?java.lang.IllegalArgumentException:?Expected?exactly?2?NameNodes?in?namespace?'test'.?Instead,?got?only?3?(NN?ids?were?'nm1','nm2','nm3'

????????at?org.apache.hadoop.hdfs.server.namenode.ha.BootstrapStandby.run(BootstrapStandby.java:425)

????????at?org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1454)

????????at?org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1554)

Caused?by:?java.lang.IllegalArgumentException:?Expected?exactly?2?NameNodes?in?namespace?'test'.?Instead,?got?only?3?(NN?ids?were?'nm1','nm2','nm3'

????????at?com.google.common.base.Preconditions.checkArgument(Preconditions.java:115)

10.12.8.?存儲均衡start-balancer.sh

示例:start-balancer.sh?–t?10%

10%表示機器與機器之間磁盤使用率偏差小于10%時認為均衡,否則做均衡搬動。“start-balancer.sh”調用“hdfs?start?balancer”來做均衡,可以調用stop-balancer.sh停止均衡。

?

均衡過程非常慢,但是均衡過程中,仍能夠正常訪問HDFS,包括往HDFS上傳文件。

[VM2016@hadoop-030?/data4/hadoop/sbin]$?hdfs?balancer?#?可以改為調用start-balancer.sh

16/04/08?14:26:55?INFO?balancer.Balancer:?namenodes??=?[hdfs://test]?//?test為HDFS的cluster名

16/04/08?14:26:55?INFO?balancer.Balancer:?parameters?=?Balancer.Parameters[BalancingPolicy.Node,?threshold=10.0,?max?idle?iteration?=?5,?number?of?nodes?to?be?excluded?=?0,?number?of?nodes?to?be?included?=?0]

Time?Stamp???????????????Iteration#??Bytes?Already?Moved??Bytes?Left?To?Move??Bytes?Being?Moved

16/04/08?14:26:56?INFO?net.NetworkTopology:?Adding?a?new?node:?/default-rack/192.168.1.231:50010

16/04/08?14:26:56?INFO?net.NetworkTopology:?Adding?a?new?node:?/default-rack/192.168.1.229:50010

16/04/08?14:26:56?INFO?net.NetworkTopology:?Adding?a?new?node:?/default-rack/192.168.1.213:50010

16/04/08?14:26:56?INFO?net.NetworkTopology:?Adding?a?new?node:?/default-rack/192.168.1.208:50010

16/04/08?14:26:56?INFO?net.NetworkTopology:?Adding?a?new?node:?/default-rack/192.168.1.232:50010

16/04/08?14:26:56?INFO?net.NetworkTopology:?Adding?a?new?node:?/default-rack/192.168.1.207:50010

16/04/08?14:26:56?INFO?balancer.Balancer:?5?over-utilized:?[192.168.1.231:50010:DISK,?192.168.1.229:50010:DISK,?192.168.1.213:50010:DISK,?192.168.1.208:50010:DISK,?192.168.1.232:50010:DISK]

16/04/08?14:26:56?INFO?balancer.Balancer:?1?underutilized未充分利用的):?[192.168.1.207:50010:DISK]?#?數據將移向該節點

16/04/08?14:26:56?INFO?balancer.Balancer:?Need?to?move?816.01?GB?to?make?the?cluster?balanced.?#?需要移動816.01G數據達到平衡

16/04/08?14:26:56?INFO?balancer.Balancer:?Decided?to?move?10?GB?bytes?from?192.168.1.231:50010:DISK?to?192.168.1.207:50010:DISK?#?192.168.1.231移動10G數據到192.168.1.207

16/04/08?14:26:56?INFO?balancer.Balancer:?Will?move?10?GB?in?this?iteration

?

16/04/08?14:32:58?INFO?balancer.Dispatcher:?Successfully?moved?blk_1073749366_8542?with?size=77829046?from?192.168.1.231:50010:DISK?to?192.168.1.207:50010:DISK?through?192.168.1.213:50010

16/04/08?14:32:59?INFO?balancer.Dispatcher:?Successfully?moved?blk_1073749386_8562?with?size=77829046?from?192.168.1.231:50010:DISK?to?192.168.1.207:50010:DISK?through?192.168.1.231:50010

16/04/08?14:33:34?INFO?balancer.Dispatcher:?Successfully?moved?blk_1073749378_8554?with?size=77829046?from?192.168.1.231:50010:DISK?to?192.168.1.207:50010:DISK?through?192.168.1.231:50010

16/04/08?14:34:38?INFO?balancer.Dispatcher:?Successfully?moved?blk_1073749371_8547?with?size=134217728?from?192.168.1.231:50010:DISK?to?192.168.1.207:50010:DISK?through?192.168.1.213:50010

16/04/08?14:34:54?INFO?balancer.Dispatcher:?Successfully?moved?blk_1073749395_8571?with?size=134217728?from?192.168.1.231:50010:DISK?to?192.168.1.207:50010:DISK?through?192.168.1.231:50010

Apr?8,?2016?2:35:01?PM????????????0????????????478.67?MB???????????816.01?GB??????????????10?GB

16/04/08?14:35:10?INFO?net.NetworkTopology:?Adding?a?new?node:?/default-rack/192.168.1.213:50010

16/04/08?14:35:10?INFO?net.NetworkTopology:?Adding?a?new?node:?/default-rack/192.168.1.229:50010

16/04/08?14:35:10?INFO?net.NetworkTopology:?Adding?a?new?node:?/default-rack/192.168.1.232:50010

16/04/08?14:35:10?INFO?net.NetworkTopology:?Adding?a?new?node:?/default-rack/192.168.1.231:50010

16/04/08?14:35:10?INFO?net.NetworkTopology:?Adding?a?new?node:?/default-rack/192.168.1.208:50010

16/04/08?14:35:10?INFO?net.NetworkTopology:?Adding?a?new?node:?/default-rack/192.168.1.207:50010

16/04/08?14:35:10?INFO?balancer.Balancer:?5?over-utilized:?[192.168.1.213:50010:DISK,?192.168.1.229:50010:DISK,?192.168.1.232:50010:DISK,?192.168.1.231:50010:DISK,?192.168.1.208:50010:DISK]

16/04/08?14:35:10?INFO?balancer.Balancer:?1?underutilized未充分利用的):?[192.168.1.207:50010:DISK]

16/04/08?14:35:10?INFO?balancer.Balancer:?Need?to?move?815.45?GB?to?make?the?cluster?balanced.

16/04/08?14:35:10?INFO?balancer.Balancer:?Decided?to?move?10?GB?bytes?from?192.168.1.213:50010:DISK?to?192.168.1.207:50010:DISK

16/04/08?14:35:10?INFO?balancer.Balancer:?Will?move?10?GB?in?this?iteration

?

16/04/08?14:41:18?INFO?balancer.Dispatcher:?Successfully?moved?blk_1073760371_19547?with?size=77829046?from?192.168.1.213:50010:DISK?to?192.168.1.207:50010:DISK?through?192.168.1.213:50010

16/04/08?14:41:19?INFO?balancer.Dispatcher:?Successfully?moved?blk_1073760385_19561?with?size=77829046?from?192.168.1.213:50010:DISK?to?192.168.1.207:50010:DISK?through?192.168.1.213:50010

16/04/08?14:41:22?INFO?balancer.Dispatcher:?Successfully?moved?blk_1073760393_19569?with?size=77829046?from?192.168.1.213:50010:DISK?to?192.168.1.207:50010:DISK?through?192.168.1.213:50010

16/04/08?14:41:23?INFO?balancer.Dispatcher:?Successfully?moved?blk_1073760363_19539?with?size=77829046?from?192.168.1.213:50010:DISK?to?192.168.1.207:50010:DISK?through?192.168.1.213:50010

10.12.9.?新增JournalNode

找一臺已有JournalNode節點,修改它的hdfs-site.xml,將新增的Journal包含進來,如在

qjournal://hadoop1:8485;hadoop2:8485;hadoop3:8485/mycluster

?

的基礎上新增hadoop6和hadoop7兩個JournalNode:

qjournal://hadoop1:8485;hadoop2:8485;hadoop3:8485;hadoop6:8485;hadoop7:8485/mycluster

?

然后將安裝目錄和數據目錄(hdfs-site.xml中的dfs.journalnode.edits.dir指定的目錄)都復制到新的節點。

如果不復制JournalNode的數據目錄,則新節點上的JournalNode會報錯“Journal?Storage?Directory?/data/journal/test?not?formatted”,將來的版本可能會實現自動同步。

接下來,就可以在新節點上啟動好JournalNode(不需要做什么初始化),并重啟下NameNode。注意觀察JournalNode日志,查看是否啟動成功,當日志顯示為以下這樣的INFO級別日志則表示啟動成功:

2016-04-26?10:31:11,160?INFO?org.apache.hadoop.hdfs.server.namenode.FileJournalManager:?Finalizing?edits?file?/data/journal/test/current/edits_inprogress_0000000000000194269?->?/data/journal/test/current/edits_0000000000000194269-0000000000000194270

11.?啟動YARN

11.1.?啟動YARN

1)?進入$HADOOP_HOME/sbin目錄

2)?在主備兩臺都執行:start-yarn.sh,即開始啟動YARN

?

若啟動成功,則在Master節點執行jps,可以看到ResourceManager:

>?jps

24689?NameNode

30156?Jps

28861?ResourceManager

?

在Slaves節點執行jps,可以看到NodeManager:

$?jps

14019?NodeManager

23257?DataNode

15115?Jps

?

如果只需要單獨啟動指定節點上的ResourceManager,這樣:

sbin/yarn-daemon.sh?start?resourcemanager

?

對于NodeManager,則是這樣:

sbin/yarn-daemon.sh?start?nodemanager

11.2.?執行YARN命令

11.2.1.?yarn?node?-list

列舉YARN集群中的所有NodeManager,如(注意參數間的空格,直接執行yarn可以看到使用幫助):

[root@hadoop1sbin]# yarn node –list

?

11.2.2.?yarn?node?-status

查看指定NodeManager的狀態(通過上面查出來的結果進行查詢),如:

[root@hadoop1 hadoop]# yarn node -status hadoop5:59894

Node Report :

???? Node-Id : hadoop5:59894

???? Rack : /default-rack

???? Node-State : RUNNING

???? Node-Http-Address : hadoop5:8042

???? Last-Health-Update : 星期六 10/六月/17 12:30:38:20CST

???? Health-Report :

???? Containers : 0

???? Memory-Used : 0MB

???? Memory-Capacity : 8192MB

???? CPU-Used : 0 vcores

???? CPU-Capacity : 8 vcores

???? Node-Labels :

???? Resource Utilization by Node : PMem:733 MB, VMem:733 MB, VCores:0.0

???? Resource Utilization by Containers : PMem:0 MB, VMem:0 MB, VCores:0.0

?

[root@hadoop1 hadoop]#?

11.2.3.?yarn?rmadmin?-getServiceState?rm1

查看rm1的主備狀態,即查看它是主(active)還是備(standby)。

?

11.2.4.?yarn?rmadmin?-transitionToStandby?rm1

將rm1從主切為備。

更多的yarn命令可以參考:

https://hadoop.apache.org/docs/current/hadoop-yarn/hadoop-yarn-site/YarnCommands.html

12.?運行MapReduce程序

在安裝目錄的share/hadoop/mapreduce子目錄下,有現存的示例程序:

hadoop@VM-40-171-sles10-64:~/hadoop>?ls?share/hadoop/mapreduce

hadoop-mapreduce-client-app-2.7.2.jar?????????hadoop-mapreduce-client-jobclient-2.7.2-tests.jar

hadoop-mapreduce-client-common-2.7.2.jar??????hadoop-mapreduce-client-shuffle-2.7.2.jar

hadoop-mapreduce-client-core-2.7.2.jar????????hadoop-mapreduce-examples-2.7.2.jar

hadoop-mapreduce-client-hs-2.7.2.jar??????????lib

hadoop-mapreduce-client-hs-plugins-2.7.2.jar??lib-examples

hadoop-mapreduce-client-jobclient-2.7.2.jar???sources

?

跑一個示例程序試試:

hdfs?dfs?-put?/etc/hosts??hdfs://test/in/

hadoop?jar?./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar?wordcount?hdfs://test/in/?hdfs://test/out/

?

運行過程中,使用java的jps命令,可以看到yarn啟動了名為YarnChild的進程。

wordcount運行完成后,結果會保存在out目錄下,保存結果的文件名類似于“part-r-00000”。另外,跑這個示例程序有兩個需求注意的點:

1)?in目錄下要有文本文件,或in即為被統計的文本文件,可以為HDFS上的文件或目錄,也可以為本地文件或目錄

2)?out目錄不能存在,程序會自動去創建它,如果已經存在則會報錯。

?

包hadoop-mapreduce-examples-2.7.2.jar中含有多個示例程序,不帶參數運行,即可看到用法:

>?hadoop?jar?./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar?wordcount

Usage:?wordcount??

?

>?hadoop?jar?./share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar

An?example?program?must?be?given?as?the?first?argument.

Valid?program?names?are:

??aggregatewordcount:?An?Aggregate?based?map/reduce?program?that?counts?the?words?in?the?input?files.

??aggregatewordhist:?An?Aggregate?based?map/reduce?program?that?computes?the?histogram?of?the?words?in?the?input?files.

??bbp:?A?map/reduce?program?that?uses?Bailey-Borwein-Plouffe?to?compute?exact?digits?of?Pi.

??dbcount:?An?example?job?that?count?the?pageview?counts?from?a?database.

??distbbp:?A?map/reduce?program?that?uses?a?BBP-type?formula?to?compute?exact?bits?of?Pi.

??grep:?A?map/reduce?program?that?counts?the?matches?of?a?regex?in?the?input.

??join:?A?job?that?effects?a?join?over?sorted,?equally?partitioned?datasets

??multifilewc:?A?job?that?counts?words?from?several?files.

??pentomino:?A?map/reduce?tile?laying?program?to?find?solutions?to?pentomino?problems.

??pi:?A?map/reduce?program?that?estimates?Pi?using?a?quasi-Monte?Carlo?method.

??randomtextwriter:?A?map/reduce?program?that?writes?10GB?of?random?textual?data?per?node.

??randomwriter:?A?map/reduce?program?that?writes?10GB?of?random?data?per?node.

??secondarysort:?An?example?defining?a?secondary?sort?to?the?reduce.

??sort:?A?map/reduce?program?that?sorts?the?data?written?by?the?random?writer.

??sudoku:?A?sudoku?solver.

??teragen:?Generate?data?for?the?terasort

??terasort:?Run?the?terasort

??teravalidate:?Checking?results?of?terasort

??wordcount:?A?map/reduce?program?that?counts?the?words?in?the?input?files.

??wordmean:?A?map/reduce?program?that?counts?the?average?length?of?the?words?in?the?input?files.

??wordmedian:?A?map/reduce?program?that?counts?the?median?length?of?the?words?in?the?input?files.

??wordstandarddeviation:?A?map/reduce?program?that?counts?the?standard?deviation?of?the?length?of?the?words?in?the?input?files.

?

修改日志級別為DEBBUG,并打屏:

export?HADOOP_ROOT_LOGGER=DEBUG,console

?

?

?

?

13.?HDFS權限配置

13.1.?hdfs-site.xml

dfs.permissions.enabled?=?true

dfs.permissions.superusergroup?=?supergroup

dfs.cluster.administrators?=?ACL-for-admins

dfs.namenode.acls.enabled?=?true

dfs.web.ugi?=?webuser,webgroup

13.2.?core-site.xml

fs.permissions.umask-mode?=?022

hadoop.security.authentication?=?simple?安全驗證規則,可為simple或kerberos

14.?C++客戶端編程

14.1.?示例代碼

//?g++?-g?-o?x?x.cpp?-L$JAVA_HOME/lib/amd64/jli?-ljli?-L$JAVA_HOME/jre/lib/amd64/server?-ljvm?-I$HADOOP_HOME/include?$HADOOP_HOME/lib/native/libhdfs.a?-lpthread?-ldl

#include?"hdfs.h"

#include?

#include?

#include?

?

int?main(int?argc,?char?**argv)

{

#if?0

????hdfsFS?fs?=?hdfsConnect("default",?0);?//?HA方式

????const?char*?writePath?=?"hdfs://mycluster/tmp/testfile.txt";

????hdfsFile?writeFile?=?hdfsOpenFile(fs,?writePath,?O_WRONLY?|O_CREAT,?0,?0,?0);

????if(!writeFile)

????{

??????????fprintf(stderr,?"Failed?to?open?%s?for?writing!\n",?writePath);

??????????exit(-1);

????}

????const?char*?buffer?=?"Hello,?World!\n";

????tSize?num_written_bytes?=?hdfsWrite(fs,?writeFile,?(void*)buffer,?strlen(buffer)+1);

????if?(hdfsFlush(fs,?writeFile))

????{

???????????fprintf(stderr,?"Failed?to?'flush'?%s\n",?writePath);

??????????exit(-1);

????}

????hdfsCloseFile(fs,?writeFile);

#else

????struct?hdfsBuilder*?bld?=?hdfsNewBuilder();

????hdfsBuilderSetNameNode(bld,?"default");?//?HA方式

????hdfsFS?fs?=?hdfsBuilderConnect(bld);

????if?(NULL?==?fs)

????{

??????????fprintf(stderr,?"Failed?to?connect?hdfs\n");

??????????exit(-1);

????}

????int?num_entries?=?0;

????hdfsFileInfo*?entries;

????if?(argc?<?2)

????????entries?=?hdfsListDirectory(fs,?"/",?&num_entries);

????else

????????entries?=?hdfsListDirectory(fs,?argv[1],?&num_entries);

????fprintf(stdout,?"num_entries:?%d\n",?num_entries);

????for?(int?i=0;?i<num_entries;?++i)?</num_entries;?++i)<>

????{

????????fprintf(stdout,?"%s\n",?entries[i].mName);

????}?

????hdfsFreeFileInfo(entries,?num_entries);

????hdfsDisconnect(fs);

????//hdfsFreeBuilder(bld);?

#endif

????return?0;

}

14.2.?運行示例

運行之前需要設置好CLASSPATH,如果設置不當,可能會遇到不少困難,比如期望操作HDFS上的文件和目錄,卻變成了本地的文件和目錄,如者諸于“java.net.UnknownHostException”類的錯誤等。

為避免出現錯誤,強烈建議使用命令“hadoop?classpath?--glob”取得正確的CLASSPATH值。

另外還需要設置好libjli.so和libjvm.so兩個庫的LD_LIBRARY_PATH,如:

export?LD_LIBRARY_PATH=$JAVA_HOME/lib/amd64/jli:$JAVA_HOME/jre/lib/amd64/server:$LD_LIBRARY_PATH

15.?常見錯誤

15.1.?執行“hdfs?dfs?-ls”時報ConnectException

原因可能是指定的端口號9000不對,該端口號由hdfs-site.xml中的屬性“dfs.namenode.rpc-address”指定,即為NameNode的RPC服務端口號。

?

文件上傳后,被存儲在DataNode的data(由DataNode的hdfs-site.xml中的屬性“dfs.datanode.data.dir”指定)目錄下,如:

$HADOOP_HOME/data/current/BP-139798373-192.168.106.91-1397735615751/current/finalized/blk_1073741825

文件名中的“blk”是block,即塊的意思,默認情況下blk_1073741825即為文件的一個完整塊,Hadoop未對它進額外處理。

hdfs?dfs?-ls?hdfs://192.168.106.91:9000

14/04/17?12:04:02?WARN?conf.Configuration:?mapred-site.xml:an?attempt?to?override?final?parameter:?mapreduce.job.end-notification.max.attempts;??Ignoring.

14/04/17?12:04:02?WARN?conf.Configuration:?mapred-site.xml:an?attempt?to?override?final?parameter:?mapreduce.job.end-notification.max.retry.interval;??Ignoring.

14/04/17?12:04:02?WARN?conf.Configuration:?mapred-site.xml:an?attempt?to?override?final?parameter:?mapreduce.job.end-notification.max.attempts;??Ignoring.

14/04/17?12:04:02?WARN?conf.Configuration:?mapred-site.xml:an?attempt?to?override?final?parameter:?mapreduce.job.end-notification.max.retry.interval;??Ignoring.

14/04/17?12:04:02?WARN?conf.Configuration:?mapred-site.xml:an?attempt?to?override?final?parameter:?mapreduce.job.end-notification.max.attempts;??Ignoring.

14/04/17?12:04:02?WARN?conf.Configuration:?mapred-site.xml:an?attempt?to?override?final?parameter:?mapreduce.job.end-notification.max.retry.interval;??Ignoring.

Java?HotSpot(TM)?64-Bit?Server?VM?warning:?You?have?loaded?library?/home/tuzq/software/hadoop-2.8.0/lib/native/libhadoop.so.1.0.0?which?might?have?disabled?stack?guard.?The?VM?will?try?to?fix?the?stack?guard?now.

It's?highly?recommended?that?you?fix?the?library?with?'execstack?-c?',?or?link?it?with?'-z?noexecstack'.

14/04/17?12:04:02?WARN?util.NativeCodeLoader:?Unable?to?load?native-hadoop?library?for?your?platform...?using?builtin-java?classes?where?applicable

14/04/17?12:04:03?WARN?conf.Configuration:?mapred-site.xml:an?attempt?to?override?final?parameter:?mapreduce.job.end-notification.max.attempts;??Ignoring.

14/04/17?12:04:03?WARN?conf.Configuration:?mapred-site.xml:an?attempt?to?override?final?parameter:?mapreduce.job.end-notification.max.retry.interval;??Ignoring.

ls:?Call?From?VM-40-171-sles10-64/192.168.106.91?to?VM-40-171-sles10-64:9000?failed?on?connection?exception:?java.net.ConnectException:?拒絕連接;?For?more?details?see:??http://wiki.apache.org/hadoop/ConnectionRefused

15.2.?Initialization?failed?for?Block?pool

可能是因為對NameNode做format之前,沒有清空DataNode的data目錄。

15.3.?Incompatible?clusterIDs

?

“Incompatible?clusterIDs”的錯誤原因是在執行“hdfs?namenode?-format”之前,沒有清空DataNode節點的data目錄。

?

網上一些文章和帖子說是tmp目錄,它本身也是沒問題的,但Hadoop?2.7.2是data目錄,實際上這個信息已經由日志的“/home/tuzq/software/hadoop-2.8.0/data”指出,所以不能死死的參照網上的解決辦法,遇到問題時多仔細觀察。

?

從上述描述不難看出,解決辦法就是清空所有DataNode的data目錄,但注意不要將data目錄本身給刪除了。

data目錄由core-site.xml文件中的屬性“dfs.datanode.data.dir”指定。

?

2014-04-17?19:30:33,075?INFO?org.apache.hadoop.hdfs.server.common.Storage:?Lock?on?/home/tuzq/software/hadoop-2.8.0/data/in_use.lock?acquired?by?nodename?28326@localhost

2014-04-17?19:30:33,078?FATAL?org.apache.hadoop.hdfs.server.datanode.DataNode:?Initialization?failed?for?block?pool?Block?pool??(Datanode?Uuid?unassigned)?service?to?/192.168.106.91:9001

java.io.IOException:?Incompatible?clusterIDs?in?/home/tuzq/software/hadoop-2.8.0/data:?namenode?clusterID?=?CID-50401d89-a33e-47bf-9d14-914d8f1c4862;?datanode?clusterID?=?CID-153d6fcb-d037-4156-b63a-10d6be224091

????????at?org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:472)

????????at?org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:225)

????????at?org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:249)

????????at?org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:929)

????????at?org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:900)

????????at?org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:274)

????????at?org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:220)

????????at?org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:815)

????????at?java.lang.Thread.run(Thread.java:744)

2014-04-17?19:30:33,081?WARN?org.apache.hadoop.hdfs.server.datanode.DataNode:?Ending?block?pool?service?for:?Block?pool??(Datanode?Uuid?unassigned)?service?to?/192.168.106.91:9001

2014-04-17?19:30:33,184?WARN?org.apache.hadoop.hdfs.server.datanode.DataNode:?Block?pool?ID?needed,?but?service?not?yet?registered?with?NN

java.lang.Exception:?trace

????????at?org.apache.hadoop.hdfs.server.datanode.BPOfferService.getBlockPoolId(BPOfferService.java:143)

????????at?org.apache.hadoop.hdfs.server.datanode.BlockPoolManager.remove(BlockPoolManager.java:91)

????????at?org.apache.hadoop.hdfs.server.datanode.DataNode.shutdownBlockPool(DataNode.java:859)

????????at?org.apache.hadoop.hdfs.server.datanode.BPOfferService.shutdownActor(BPOfferService.java:350)

????????at?org.apache.hadoop.hdfs.server.datanode.BPServiceActor.cleanUp(BPServiceActor.java:619)

????????at?org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:837)

????????at?java.lang.Thread.run(Thread.java:744)

2014-04-17?19:30:33,184?INFO?org.apache.hadoop.hdfs.server.datanode.DataNode:?Removed?Block?pool??(Datanode?Uuid?unassigned)

2014-04-17?19:30:33,184?WARN?org.apache.hadoop.hdfs.server.datanode.DataNode:?Block?pool?ID?needed,?but?service?not?yet?registered?with?NN

java.lang.Exception:?trace

????????at?org.apache.hadoop.hdfs.server.datanode.BPOfferService.getBlockPoolId(BPOfferService.java:143)

????????at?org.apache.hadoop.hdfs.server.datanode.DataNode.shutdownBlockPool(DataNode.java:861)

????????at?org.apache.hadoop.hdfs.server.datanode.BPOfferService.shutdownActor(BPOfferService.java:350)

????????at?org.apache.hadoop.hdfs.server.datanode.BPServiceActor.cleanUp(BPServiceActor.java:619)

????????at?org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:837)

????????at?java.lang.Thread.run(Thread.java:744)

2014-04-17?19:30:35,185?WARN?org.apache.hadoop.hdfs.server.datanode.DataNode:?Exiting?Datanode

2014-04-17?19:30:35,187?INFO?org.apache.hadoop.util.ExitUtil:?Exiting?with?status?0

2014-04-17?19:30:35,189?INFO?org.apache.hadoop.hdfs.server.datanode.DataNode:?SHUTDOWN_MSG:

/************************************************************

SHUTDOWN_MSG:?Shutting?down?DataNode?at?localhost/127.0.0.1

************************************************************/

15.4.?Inconsistent?checkpoint?fields

SecondaryNameNode中的“Inconsistent?checkpoint?fields”錯誤原因,可能是因為沒有設置好SecondaryNameNode上core-site.xml文件中的“hadoop.tmp.dir”。

?

2014-04-17?11:42:18,189?INFO?org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode:?Log?Size?Trigger????:1000000?txns

2014-04-17?11:43:18,365?ERROR?org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode:?Exception?in?doCheckpoint

java.io.IOException:?Inconsistent?checkpoint?fields.

LV?=?-56?namespaceID?=?1384221685?cTime?=?0?;?clusterId?=?CID-319b9698-c88d-4fe2-8cb2-c4f440f690d4?;?blockpoolId?=?BP-1627258458-192.168.106.91-1397735061985.

Expecting?respectively:?-56;?476845826;?0;?CID-50401d89-a33e-47bf-9d14-914d8f1c4862;?BP-2131387753-192.168.106.91-1397730036484.

????????at?org.apache.hadoop.hdfs.server.namenode.CheckpointSignature.validateStorageInfo(CheckpointSignature.java:135)

????????at?org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.doCheckpoint(SecondaryNameNode.java:518)

????????at?org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.doWork(SecondaryNameNode.java:383)

????????at?org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode$1.run(SecondaryNameNode.java:349)

????????at?org.apache.hadoop.security.SecurityUtil.doAsLoginUserOrFatal(SecurityUtil.java:415)

????????at?org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.run(SecondaryNameNode.java:345)

????????at?java.lang.Thread.run(Thread.java:744)

?

另外,也請配置好SecondaryNameNodehdfs-site.xml中的“dfs.datanode.data.dir”為合適的值:

??hadoop.tmp.dir

??/home/tuzq/software/current/tmp

??A?base?for?other?temporary?directories.

15.5.?fs.defaultFS?is?file:///

在core-site.xml中,當只填寫了fs.defaultFS,而fs.default.name為默認的file:///時,會報此錯誤。解決方法是設置成相同的值。

15.6.?a?shared?edits?dir?must?not?be?specified?if?HA?is?not?enabled

該錯誤可能是因為hdfs-site.xml中沒有配置dfs.nameservices或dfs.ha.namenodes.mycluster。

15.7.?/tmp/dfs/name?is?in?an?inconsistent?state:?storage?directory?does?not?exist?or?is?not?accessible.

只需按日志中提示的,創建好相應的目錄。

15.8.?The?auxService:mapreduce_shuffle?does?not?exist

問題原因是沒有配置yarn-site.xml中的“yarn.nodemanager.aux-services”,將它的值配置為mapreduce_shuffle,然后重啟yarn問題即解決。記住所有yarn節點都需要修改,包括ResourceManager和NodeManager,如果NodeManager上的沒有修改,仍然會報這個錯誤。

15.9.?org.apache.hadoop.ipc.Client:?Retrying?connect?to?server

該問題,有可能是因為NodeManager中的yarn-site.xml和ResourceManager上的不一致,比如NodeManager沒有配置yarn.resourcemanager.ha.rm-ids。

15.10.?mapreduce.Job:?Running?job:?job_1445931397013_0001

Hadoop提交mapreduce任務時,卡在mapreduce.Job:?Running?job:?job_1445931397013_0001處。

問題原因可能是因為yarn的NodeManager沒起來,可以用jdk的jps確認下。

?

該問題也有可能是因為NodeManager中的yarn-site.xml和ResourceManager上的不一致,比如NodeManager沒有配置yarn.resourcemanager.ha.rm-ids。

15.11.?Could?not?format?one?or?more?JournalNodes

執行“./hdfs?namenode?-format”時報“Could?not?format?one?or?more?JournalNodes”。

可能是hdfs-site.xml中的dfs.namenode.shared.edits.dir配置錯誤,比如重復了,如:

?qjournal://hadoop-168-254:8485;hadoop-168-254:8485;hadoop-168-253:8485;hadoop-168-252:8485;hadoop-168-251:8485/mycluster

?

修復后,重啟JournalNode,問題可能就解決了。

15.12.?org.apache.hadoop.yarn.server.resourcemanager.ResourceManager:?Already?in?standby?state

遇到這個錯誤,可能是yarn-site.xml中的yarn.resourcemanager.webapp.address配置錯誤,比如配置成了兩個yarn.resourcemanager.webapp.address.rm1,實際應當是yarn.resourcemanager.webapp.address.rm1和yarn.resourcemanager.webapp.address.rm2。

15.13.?No?valid?image?files?found

如果是備NameNode,執行下“hdfs?namenode?-bootstrapStandby”再啟動。

2015-12-01?15:24:39,535?ERROR?org.apache.hadoop.hdfs.server.namenode.NameNode:?Failed?to?start?namenode.

java.io.FileNotFoundException:?No?valid?image?files?found

????????at?org.apache.hadoop.hdfs.server.namenode.FSImageTransactionalStorageInspector.getLatestImages(FSImageTransactionalStorageInspector.java:165)

????????at?org.apache.hadoop.hdfs.server.namenode.FSImage.loadFSImage(FSImage.java:623)

????????at?org.apache.hadoop.hdfs.server.namenode.FSImage.recoverTransitionRead(FSImage.java:294)

????????at?org.apache.hadoop.hdfs.server.namenode.FSNamesystem.loadFSImage(FSNamesystem.java:975)

????????at?org.apache.hadoop.hdfs.server.namenode.FSNamesystem.loadFromDisk(FSNamesystem.java:681)

????????at?org.apache.hadoop.hdfs.server.namenode.NameNode.loadNamesystem(NameNode.java:584)

????????at?org.apache.hadoop.hdfs.server.namenode.NameNode.initialize(NameNode.java:644)

????????at?org.apache.hadoop.hdfs.server.namenode.NameNode.(NameNode.java:811)

????????at?org.apache.hadoop.hdfs.server.namenode.NameNode.(NameNode.java:795)

????????at?org.apache.hadoop.hdfs.server.namenode.NameNode.createNameNode(NameNode.java:1488)

????????at?org.apache.hadoop.hdfs.server.namenode.NameNode.main(NameNode.java:1554)

2015-12-01?15:24:39,536?INFO?org.apache.hadoop.util.ExitUtil:?Exiting?with?status?1

2015-12-01?15:24:39,539?INFO?org.apache.hadoop.hdfs.server.namenode.NameNode:?SHUTDOWN_MSG:

15.14.?xceivercount?4097?exceeds?the?limit?of?concurrent?xcievers?4096

此錯誤的原因是hdfs-site.xml中的配置項“dfs.datanode.max.xcievers”值4096過小,需要改大一點。該錯誤會導致hbase報“notservingregionexception”。

16/04/06?14:30:34?ERROR?namenode.NameNode:?Failed?to?start?namenode.

15.15.?java.lang.IllegalArgumentException:?Unable?to?construct?journal,?qjournal://hadoop-030:8485;hadoop-031:8454;hadoop-032

執行“hdfs?namenode?-format”遇到上述錯誤時,是因為hdfs-site.xml中的配置dfs.namenode.shared.edits.dir配置錯誤,其中的hadoop-032省了“:8454”部分。

15.16.?Bad?URI?'qjournal://hadoop-030:8485;hadoop-031:8454;hadoop-032:8454':?must?identify?journal?in?path?component

是因為配置hdfs-site.xml中的“dfs.namenode.shared.edits.dir”時,路徑少帶了cluster名。

15.17.?16/04/06?14:48:19?INFO?ipc.Client:?Retrying?connect?to?server:?hadoop-032/10.143.136.211:8454.?Already?tried?0?time(s);?retry?policy?is?RetryUpToMaximumCountWithFixedSleep(maxRetries=10,?sleepTime=1000?MILLISECONDS)

檢查hdfs-site.xml中的“dfs.namenode.shared.edits.dir”值,JournalNode默認端口是8485,不是8454,確認是否有寫錯。JournalNode端口由hdfs-site.xml中的配置項dfs.journalnode.rpc-address決定。

15.18.?Exception?in?thread?"main"?org.apache.hadoop.HadoopIllegalArgumentException:?Could?not?get?the?namenode?ID?of?this?node.?You?may?run?zkfc?on?the?node?other?than?namenode.

執行“hdfs?zkfc?-formatZK”遇到上面這個錯誤,是因為還沒有執行“hdfs?namenode?-format”。NameNode?ID是在“hdfs?namenode?-format”時生成的。

15.19.?2016-04-06?17:08:07,690?INFO?org.apache.hadoop.hdfs.server.common.Storage:?Storage?directory?[DISK]file:/data3/datanode/data/?has?already?been?used.

以非root用戶啟動DataNode,但啟動不了,在它的日志文件中發現如下錯誤信息:

2016-04-06?17:08:07,707?INFO?org.apache.hadoop.hdfs.server.common.Storage:?Analyzing?storage?directories?for?bpid?BP-418073539-10.143.136.207-1459927327462

2016-04-06?17:08:07,707?WARN?org.apache.hadoop.hdfs.server.common.Storage:?Failed?to?analyze?storage?directories?for?block?pool?BP-418073539-10.143.136.207-1459927327462

java.io.IOException:?BlockPoolSliceStorage.recoverTransitionRead:?attempt?to?load?an?used?block?storage:?/data3/datanode/data/current/BP-418073539-10.143.136.207-1459927327462

繼續尋找,會發現還存在如何錯誤提示:

Invalid?dfs.datanode.data.dir?/data3/datanode/data:

EPERM:?Operation?not?permitted

使用命令“ls?-l”檢查目錄/data3/datanode/data的權限設置,發現owner為root,原因是因為之前使用root啟動過DataNode,將owner改過來即可解決此問題。

15.20.?2016-04-06?18:00:26,939?WARN?org.apache.hadoop.hdfs.server.datanode.DataNode:?Problem?connecting?to?server:?hadoop-031/10.143.136.208:8020

DataNode的日志文件不停地記錄如下日志,是因為DataNode將作為主NameNode,但實際上10.143.136.208并沒有啟動,主NameNode不是它。這個并不表示DataNode沒有起來,而是因為DataNode會同時和主NameNode和備NameNode建立心跳,當備NameNode沒有起來時,有這些日志是正常現象。

2016-04-06?18:00:32,940?INFO?org.apache.hadoop.ipc.Client:?Retrying?connect?to?server:?hadoop-031/10.143.136.208:8020.?Already?tried?0?time(s);?retry?policy?is?RetryUpToMaximumCountWithFixedSleep(maxRetries=10,?sleepTime=1000?MILLISECONDS)

2016-04-06?17:55:44,555?INFO?org.apache.hadoop.hdfs.server.datanode.DataNode:?Namenode?Block?pool?BP-418073539-10.143.136.207-1459927327462?(Datanode?Uuid?2d115d45-fd48-4e86-97b1-e74a1f87e1ca)?service?to?hadoop-030/10.143.136.207:8020?trying?to?claim?ACTIVE?state?with?txid=1

“trying?to?claim?ACTIVE?state”出自于hadoop/hdfs/server/datanode/BPOfferService.java中的updateActorStatesFromHeartbeat()。

?

2016-04-06?17:55:49,893?INFO?org.apache.hadoop.ipc.Client:?Retrying?connect?to?server:?hadoop-031/10.143.136.208:8020.?Already?tried?5?time(s);?retry?policy?is?RetryUpToMaximumCountWithFixedSleep(maxRetries=10,?sleepTime=1000?MILLISECONDS)

“Retrying?connect?to?server”出自于hadoop/ipc/Client.java中的handleConnectionTimeout()和handleConnectionFailure()。

15.21.?ERROR?cluster.YarnClientSchedulerBackend:?Yarn?application?has?already?exited?with?state?FINISHED!

如果遇到這個錯誤,請檢查NodeManager日志,如果發現有如下所示信息:

WARN?org.apache.hadoop.yarn.server.nodemanager.containermanager.monitor.ContainersMonitorImpl:?Container?[pid=26665,containerID=container_1461657380500_0020_02_000001]?is?running?beyond?virtual?memory?limits.?Current?usage:?345.0?MB?of?1?GB?physical?memory?used;?2.2?GB?of?2.1?GB?virtual?memory?used.?Killing?container.

?

則表示需要增大yarn-site.xmk的配置項yarn.nodemanager.vmem-pmem-ratio的值,該配置項默認值為2.1。

16/10/13?10:23:19?ERROR?client.TransportClient:?Failed?to?send?RPC?7614640087981520382?to?/10.143.136.231:34800:?java.nio.channels.ClosedChannelException

java.nio.channels.ClosedChannelException

16/10/13?10:23:19?ERROR?cluster.YarnSchedulerBackend$YarnSchedulerEndpoint:?Sending?RequestExecutors(0,0,Map())?to?AM?was?unsuccessful

java.io.IOException:?Failed?to?send?RPC?7614640087981520382?to?/10.143.136.231:34800:?java.nio.channels.ClosedChannelException

????????at?org.apache.spark.network.client.TransportClient$3.operationComplete(TransportClient.java:249)

????????at?org.apache.spark.network.client.TransportClient$3.operationComplete(TransportClient.java:233)

????????at?io.netty.util.concurrent.DefaultPromise.notifyListener0(DefaultPromise.java:680)

????????at?io.netty.util.concurrent.DefaultPromise$LateListeners.run(DefaultPromise.java:845)

????????at?io.netty.util.concurrent.DefaultPromise$LateListenerNotifier.run(DefaultPromise.java:873)

????????at?io.netty.util.concurrent.SingleThreadEventExecutor.runAllTasks(SingleThreadEventExecutor.java:357)

????????at?io.netty.channel.nio.NioEventLoop.run(NioEventLoop.java:357)

????????at?io.netty.util.concurrent.SingleThreadEventExecutor$2.run(SingleThreadEventExecutor.java:111)

????????at?java.lang.Thread.run(Thread.java:745)

16.?相關文檔

《HBase-0.98.0分布式安裝指南》

《Hive?0.12.0安裝指南》

《ZooKeeper-3.4.6分布式安裝指南》

《Hadoop?2.3.0源碼反向工程》

《在Linux上編譯Hadoop-2.7.2》

《Accumulo-1.5.1安裝指南》

《Drill?1.0.0安裝指南》

《Shark?0.9.1安裝指南》

?

?

?

與50位技術專家面對面20年技術見證,附贈技術全景圖

總結

以上是生活随笔為你收集整理的hadoop-HA集群搭建,启动DataNode,检测启动状态,执行HDFS命令,启动YARN,HDFS权限配置,C++客户端编程,常见错误的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

久久精品国产亚洲精品 | 东京热一精品无码av | 色一情一乱一伦一区二区三欧美 | 欧美日韩久久久精品a片 | 一本色道久久综合狠狠躁 | 婷婷色婷婷开心五月四房播播 | 亚洲一区二区三区偷拍女厕 | 55夜色66夜色国产精品视频 | 亚洲精品中文字幕久久久久 | 蜜桃无码一区二区三区 | 国产口爆吞精在线视频 | 成人女人看片免费视频放人 | 国产精品亚洲а∨无码播放麻豆 | 中文字幕av伊人av无码av | 日本欧美一区二区三区乱码 | 色一情一乱一伦一视频免费看 | 成人无码精品一区二区三区 | 欧美老妇与禽交 | 国产九九九九九九九a片 | 日韩 欧美 动漫 国产 制服 | 四虎永久在线精品免费网址 | 综合网日日天干夜夜久久 | 无码精品国产va在线观看dvd | 亚洲色偷偷偷综合网 | 日韩无套无码精品 | 亚洲自偷自拍另类第1页 | 久久精品国产一区二区三区肥胖 | 少妇性荡欲午夜性开放视频剧场 | 国产在线aaa片一区二区99 | 在线亚洲高清揄拍自拍一品区 | 国产精品久久久久久无码 | 亚洲性无码av中文字幕 | 纯爱无遮挡h肉动漫在线播放 | 久久久久久久人妻无码中文字幕爆 | 无遮挡国产高潮视频免费观看 | 日韩欧美中文字幕公布 | 性欧美牲交在线视频 | 国产精品美女久久久久av爽李琼 | 亚洲熟妇色xxxxx欧美老妇y | 亚洲日韩乱码中文无码蜜桃臀网站 | 夜夜影院未满十八勿进 | 欧美熟妇另类久久久久久多毛 | 性生交大片免费看女人按摩摩 | 免费无码午夜福利片69 | 国产日产欧产精品精品app | 天天躁日日躁狠狠躁免费麻豆 | 精品无人国产偷自产在线 | 水蜜桃亚洲一二三四在线 | 国内精品久久久久久中文字幕 | 精品水蜜桃久久久久久久 | 强奷人妻日本中文字幕 | 无套内谢的新婚少妇国语播放 | 欧美丰满少妇xxxx性 | aa片在线观看视频在线播放 | 亚洲欧美日韩综合久久久 | 啦啦啦www在线观看免费视频 | 日韩精品成人一区二区三区 | 午夜精品久久久内射近拍高清 | 国产精品爱久久久久久久 | 欧美精品免费观看二区 | 动漫av网站免费观看 | 东京一本一道一二三区 | 对白脏话肉麻粗话av | 久久久久久av无码免费看大片 | 一本久久a久久精品vr综合 | 久久久久久久人妻无码中文字幕爆 | 国产精品久久久一区二区三区 | 夜夜夜高潮夜夜爽夜夜爰爰 | 色一情一乱一伦一区二区三欧美 | 国产精品香蕉在线观看 | 久久综合给久久狠狠97色 | 伊在人天堂亚洲香蕉精品区 | 国产69精品久久久久app下载 | 久久伊人色av天堂九九小黄鸭 | 亚洲国产av美女网站 | www国产亚洲精品久久网站 | 无码人妻精品一区二区三区不卡 | 亚洲国产成人av在线观看 | 好爽又高潮了毛片免费下载 | 亚洲 另类 在线 欧美 制服 | 牲欲强的熟妇农村老妇女 | 国产香蕉尹人综合在线观看 | 久久99精品久久久久婷婷 | 国产精品亚洲一区二区三区喷水 | 少妇无码av无码专区在线观看 | 婷婷丁香五月天综合东京热 | 婷婷丁香五月天综合东京热 | 免费视频欧美无人区码 | 欧美三级不卡在线观看 | 中文无码成人免费视频在线观看 | 伊人久久婷婷五月综合97色 | 亚洲自偷精品视频自拍 | 中文字幕色婷婷在线视频 | 熟妇女人妻丰满少妇中文字幕 | 激情内射亚州一区二区三区爱妻 | 欧美日韩色另类综合 | 乱中年女人伦av三区 | 国产欧美熟妇另类久久久 | 夫妻免费无码v看片 | 99视频精品全部免费免费观看 | 永久免费观看美女裸体的网站 | 久久99国产综合精品 | 亚洲人亚洲人成电影网站色 | 中文字幕人妻丝袜二区 | 亚洲呦女专区 | 亚洲色偷偷男人的天堂 | 午夜时刻免费入口 | 樱花草在线播放免费中文 | 牲欲强的熟妇农村老妇女视频 | 综合激情五月综合激情五月激情1 | 成人无码精品一区二区三区 | 久久精品国产亚洲精品 | 亚洲s码欧洲m码国产av | 精品国产青草久久久久福利 | 少妇性l交大片欧洲热妇乱xxx | 欧美成人午夜精品久久久 | 久久99热只有频精品8 | 亚洲欧美日韩成人高清在线一区 | 亚洲一区二区观看播放 | 六十路熟妇乱子伦 | 欧美激情一区二区三区成人 | 成人动漫在线观看 | 久久久中文字幕日本无吗 | 亚洲午夜福利在线观看 | 国产精品高潮呻吟av久久4虎 | 国产人妻人伦精品 | 中文字幕色婷婷在线视频 | 国产一区二区三区日韩精品 | 国产综合在线观看 | 欧美猛少妇色xxxxx | 久久午夜无码鲁丝片秋霞 | 国内丰满熟女出轨videos | 爱做久久久久久 | 国产特级毛片aaaaaaa高清 | 人人妻人人澡人人爽欧美一区 | 亚洲自偷精品视频自拍 | 免费无码午夜福利片69 | 特大黑人娇小亚洲女 | 欧美丰满熟妇xxxx性ppx人交 | 免费观看黄网站 | 亚洲成a人片在线观看日本 | 高潮毛片无遮挡高清免费视频 | av小次郎收藏 | 鲁大师影院在线观看 | 亚洲综合另类小说色区 | 色爱情人网站 | 日日摸夜夜摸狠狠摸婷婷 | 青草青草久热国产精品 | 99久久久国产精品无码免费 | 日韩少妇白浆无码系列 | 亚洲男人av香蕉爽爽爽爽 | 午夜精品久久久久久久久 | 亚洲a无码综合a国产av中文 | 四虎国产精品免费久久 | 粉嫩少妇内射浓精videos | av在线亚洲欧洲日产一区二区 | 亚洲熟妇自偷自拍另类 | a在线亚洲男人的天堂 | 亚洲色偷偷男人的天堂 | 久久久无码中文字幕久... | 精品欧美一区二区三区久久久 | 日日橹狠狠爱欧美视频 | 嫩b人妻精品一区二区三区 | 亚洲一区二区三区无码久久 | 少妇被黑人到高潮喷出白浆 | 国内揄拍国内精品少妇国语 | 日本精品久久久久中文字幕 | 99麻豆久久久国产精品免费 | 少妇无码吹潮 | 国内精品人妻无码久久久影院蜜桃 | 亚洲а∨天堂久久精品2021 | 欧美大屁股xxxxhd黑色 | 国产片av国语在线观看 | 欧美性猛交内射兽交老熟妇 | 国产精品亚洲专区无码不卡 | 激情五月综合色婷婷一区二区 | 2019nv天堂香蕉在线观看 | 麻豆果冻传媒2021精品传媒一区下载 | 国内揄拍国内精品人妻 | 性欧美videos高清精品 | 久久久久久久人妻无码中文字幕爆 | 丰腴饱满的极品熟妇 | 国产舌乚八伦偷品w中 | а√天堂www在线天堂小说 | 中文字幕av无码一区二区三区电影 | 一本久久伊人热热精品中文字幕 | 成人精品天堂一区二区三区 | 日韩av无码一区二区三区不卡 | 女人和拘做爰正片视频 | 永久免费观看美女裸体的网站 | 午夜精品久久久久久久久 | 欧美丰满熟妇xxxx性ppx人交 | 中文字幕无码热在线视频 | 国产精品多人p群无码 | 乱码午夜-极国产极内射 | 国产口爆吞精在线视频 | 国产精品成人av在线观看 | 欧美性生交xxxxx久久久 | 性啪啪chinese东北女人 | 精品久久久无码中文字幕 | 草草网站影院白丝内射 | 久久综合给久久狠狠97色 | 天天综合网天天综合色 | 人妻少妇被猛烈进入中文字幕 | 欧美乱妇无乱码大黄a片 | 少妇无套内谢久久久久 | 波多野结衣av一区二区全免费观看 | 亚洲一区二区三区偷拍女厕 | 在线欧美精品一区二区三区 | 少妇被粗大的猛进出69影院 | 欧美人与牲动交xxxx | 国产午夜精品一区二区三区嫩草 | 99久久久无码国产aaa精品 | 亚洲欧美国产精品专区久久 | 六月丁香婷婷色狠狠久久 | 男人和女人高潮免费网站 | 国产亚洲tv在线观看 | 国产精品va在线播放 | 蜜桃av抽搐高潮一区二区 | 亚洲精品午夜无码电影网 | 青青青爽视频在线观看 | 国产无遮挡又黄又爽免费视频 | 色综合久久久久综合一本到桃花网 | 成人动漫在线观看 | 亚洲精品中文字幕久久久久 | 少妇无套内谢久久久久 | 99久久婷婷国产综合精品青草免费 | 又色又爽又黄的美女裸体网站 | 国产精品内射视频免费 | 国产精品久久久久9999小说 | 色婷婷香蕉在线一区二区 | 香港三级日本三级妇三级 | 日韩人妻无码一区二区三区久久99 | 人人妻人人澡人人爽欧美一区九九 | 在线播放亚洲第一字幕 | 国产麻豆精品一区二区三区v视界 | 宝宝好涨水快流出来免费视频 | 玩弄中年熟妇正在播放 | 国产乱人偷精品人妻a片 | 亚洲色欲色欲欲www在线 | 精品日本一区二区三区在线观看 | 少妇太爽了在线观看 | 国产农村乱对白刺激视频 | 无码国产激情在线观看 | 欧美人与禽猛交狂配 | 国产偷国产偷精品高清尤物 | 亚洲国产一区二区三区在线观看 | 99久久无码一区人妻 | 2020最新国产自产精品 | 国产成人av免费观看 | 欧美国产日韩久久mv | 男人的天堂2018无码 | 无遮挡啪啪摇乳动态图 | 天天摸天天透天天添 | 97久久超碰中文字幕 | 无码av免费一区二区三区试看 | 成人aaa片一区国产精品 | 欧洲vodafone精品性 | 国产高潮视频在线观看 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 无码精品人妻一区二区三区av | 女人高潮内射99精品 | 亚洲 另类 在线 欧美 制服 | 牛和人交xxxx欧美 | 久久天天躁狠狠躁夜夜免费观看 | 国产综合色产在线精品 | 久久久国产一区二区三区 | 亚洲综合另类小说色区 | 欧美精品国产综合久久 | 亚洲色欲久久久综合网东京热 | 在线观看国产一区二区三区 | 国产激情一区二区三区 | 免费观看又污又黄的网站 | 亚洲精品国产a久久久久久 | 成人精品天堂一区二区三区 | 午夜丰满少妇性开放视频 | 老太婆性杂交欧美肥老太 | 一个人看的www免费视频在线观看 | 亚洲成av人片在线观看无码不卡 | 国产极品视觉盛宴 | 人妻尝试又大又粗久久 | 俺去俺来也www色官网 | 国产麻豆精品精东影业av网站 | 人妻无码αv中文字幕久久琪琪布 | 人妻有码中文字幕在线 | 国内老熟妇对白xxxxhd | 中文字幕中文有码在线 | 久久国产精品偷任你爽任你 | 一本久久a久久精品vr综合 | 欧美国产日产一区二区 | 国产偷抇久久精品a片69 | 久久午夜无码鲁丝片秋霞 | 亚洲精品国产第一综合99久久 | 亚洲色大成网站www | 性色av无码免费一区二区三区 | 国产精品亚洲五月天高清 | 乱人伦人妻中文字幕无码久久网 | 亚洲色www成人永久网址 | 欧美真人作爱免费视频 | 国产精品理论片在线观看 | 国产成人无码av一区二区 | 少妇邻居内射在线 | 黑人巨大精品欧美黑寡妇 | 天堂无码人妻精品一区二区三区 | 一本久道久久综合狠狠爱 | 亚洲成a人一区二区三区 | 疯狂三人交性欧美 | 久热国产vs视频在线观看 | 丰满肥臀大屁股熟妇激情视频 | 国产精品久久福利网站 | 精品无人区无码乱码毛片国产 | 暴力强奷在线播放无码 | 亚洲精品一区国产 | 乱码av麻豆丝袜熟女系列 | 青草青草久热国产精品 | 又黄又爽又色的视频 | 国产真实伦对白全集 | 国产真实伦对白全集 | 鲁大师影院在线观看 | 女高中生第一次破苞av | 久久精品国产大片免费观看 | 亚洲日本一区二区三区在线 | 国产人妻久久精品二区三区老狼 | av人摸人人人澡人人超碰下载 | 欧美熟妇另类久久久久久多毛 | 亚洲爆乳精品无码一区二区三区 | 国产精品高潮呻吟av久久 | 日本护士毛茸茸高潮 | 在线观看国产午夜福利片 | 国产午夜视频在线观看 | 亚洲精品美女久久久久久久 | 亚洲区小说区激情区图片区 | 亚洲一区二区三区偷拍女厕 | 六月丁香婷婷色狠狠久久 | 亚洲午夜无码久久 | 扒开双腿疯狂进出爽爽爽视频 | 国产亚av手机在线观看 | 精品厕所偷拍各类美女tp嘘嘘 | 鲁大师影院在线观看 | 国产精品久久福利网站 | 日本高清一区免费中文视频 | 三上悠亚人妻中文字幕在线 | 久久精品国产一区二区三区肥胖 | 女高中生第一次破苞av | 国产精品久久精品三级 | 国产午夜手机精彩视频 | 亚洲天堂2017无码中文 | 夜夜夜高潮夜夜爽夜夜爰爰 | 国产九九九九九九九a片 | 亚洲日韩一区二区三区 | 久久国产36精品色熟妇 | 丰满肥臀大屁股熟妇激情视频 | 国产精品理论片在线观看 | 国产人妻精品一区二区三区不卡 | 自拍偷自拍亚洲精品10p | 亚洲成av人影院在线观看 | 无码成人精品区在线观看 | 成人免费无码大片a毛片 | 无码人妻精品一区二区三区下载 | 久久久精品国产sm最大网站 | 国产成人无码一二三区视频 | 亚洲成av人片天堂网无码】 | 无码人妻出轨黑人中文字幕 | 99re在线播放 | 无人区乱码一区二区三区 | 蜜臀aⅴ国产精品久久久国产老师 | 又大又硬又爽免费视频 | 麻豆精产国品 | 久久久久国色av免费观看性色 | 中文字幕无码人妻少妇免费 | 丰满人妻翻云覆雨呻吟视频 | 国产舌乚八伦偷品w中 | 亚洲人交乣女bbw | 欧美三级不卡在线观看 | 欧美性猛交xxxx富婆 | 免费人成在线观看网站 | 亚洲国产精品毛片av不卡在线 | 免费人成在线视频无码 | 99久久精品无码一区二区毛片 | 久久精品视频在线看15 | 久青草影院在线观看国产 | 无遮挡国产高潮视频免费观看 | 欧美三级a做爰在线观看 | 亚洲精品久久久久avwww潮水 | 亚洲熟妇色xxxxx亚洲 | 久久久精品成人免费观看 | 午夜成人1000部免费视频 | 精品国产成人一区二区三区 | 久久午夜夜伦鲁鲁片无码免费 | √天堂资源地址中文在线 | 精品国产青草久久久久福利 | 成人影院yy111111在线观看 | 福利一区二区三区视频在线观看 | 亚洲自偷自拍另类第1页 | 99精品视频在线观看免费 | 亚洲精品综合五月久久小说 | 成年美女黄网站色大免费全看 | 未满成年国产在线观看 | 国产av久久久久精东av | 国产免费久久精品国产传媒 | 中文字幕+乱码+中文字幕一区 | 成人精品视频一区二区 | 亚洲精品www久久久 | 精品日本一区二区三区在线观看 | 亚洲精品综合一区二区三区在线 | 国产午夜亚洲精品不卡 | 日本熟妇大屁股人妻 | 精品亚洲成av人在线观看 | 亚洲精品午夜无码电影网 | 免费无码午夜福利片69 | 国产婷婷色一区二区三区在线 | 久久综合九色综合欧美狠狠 | 久久伊人色av天堂九九小黄鸭 | 亚洲精品国产精品乱码视色 | 午夜精品一区二区三区在线观看 | v一区无码内射国产 | 午夜福利一区二区三区在线观看 | 一本久道久久综合婷婷五月 | 亚洲自偷精品视频自拍 | 中文字幕色婷婷在线视频 | 国产精品无码一区二区三区不卡 | 99久久人妻精品免费一区 | 亚洲人成人无码网www国产 | 色婷婷综合激情综在线播放 | 国产精品久久久久久久影院 | 领导边摸边吃奶边做爽在线观看 | 一个人看的视频www在线 | 性色欲网站人妻丰满中文久久不卡 | 免费无码的av片在线观看 | 亚洲自偷自拍另类第1页 | 一本久久伊人热热精品中文字幕 | 久久综合给合久久狠狠狠97色 | 精品无人国产偷自产在线 | 精品国产aⅴ无码一区二区 | 最新国产麻豆aⅴ精品无码 | 国产欧美亚洲精品a | 在线观看国产一区二区三区 | 国产成人精品优优av | 日韩成人一区二区三区在线观看 | 国产精品丝袜黑色高跟鞋 | 国精产品一区二区三区 | 成人无码影片精品久久久 | 98国产精品综合一区二区三区 | 国内精品久久久久久中文字幕 | 牛和人交xxxx欧美 | 午夜精品一区二区三区在线观看 | 欧美日韩人成综合在线播放 | 欧美第一黄网免费网站 | 日韩少妇内射免费播放 | 欧美成人家庭影院 | 亚洲第一无码av无码专区 | 国产精品鲁鲁鲁 | 亚洲人成影院在线观看 | 日韩av无码一区二区三区 | 亚洲综合伊人久久大杳蕉 | 国产成人精品必看 | 久久久久久亚洲精品a片成人 | 亚洲日韩乱码中文无码蜜桃臀网站 | 欧美人与牲动交xxxx | 丝袜足控一区二区三区 | 乱码av麻豆丝袜熟女系列 | 国产精品理论片在线观看 | 99久久婷婷国产综合精品青草免费 | 99久久婷婷国产综合精品青草免费 | 在线精品国产一区二区三区 | 狠狠色欧美亚洲狠狠色www | 成人动漫在线观看 | 学生妹亚洲一区二区 | 亚洲国产成人av在线观看 | 久久这里只有精品视频9 | 国模大胆一区二区三区 | 青春草在线视频免费观看 | 东京热无码av男人的天堂 | 亚洲国产综合无码一区 | 99久久精品日本一区二区免费 | 国产激情艳情在线看视频 | 黄网在线观看免费网站 | 131美女爱做视频 | 亚洲一区二区三区播放 | 樱花草在线社区www | 国产精品久久久久久久影院 | 日韩成人一区二区三区在线观看 | 亚洲自偷自拍另类第1页 | 久久人人爽人人爽人人片ⅴ | 久久无码中文字幕免费影院蜜桃 | 国产女主播喷水视频在线观看 | 成人女人看片免费视频放人 | 国产区女主播在线观看 | 成在人线av无码免费 | 国产 浪潮av性色四虎 | 性欧美大战久久久久久久 | 中文无码成人免费视频在线观看 | 精品厕所偷拍各类美女tp嘘嘘 | 亚洲中文字幕乱码av波多ji | 欧美性色19p | 狠狠亚洲超碰狼人久久 | 亚洲国产成人a精品不卡在线 | 中文字幕无码日韩欧毛 | a在线亚洲男人的天堂 | 狂野欧美性猛xxxx乱大交 | 欧美喷潮久久久xxxxx | 最近免费中文字幕中文高清百度 | 久久久久国色av免费观看性色 | 国产精品人人爽人人做我的可爱 | 亚洲国产精品毛片av不卡在线 | 性啪啪chinese东北女人 | 日本熟妇乱子伦xxxx | 国产精品99爱免费视频 | 无人区乱码一区二区三区 | 午夜不卡av免费 一本久久a久久精品vr综合 | 精品aⅴ一区二区三区 | 在线精品国产一区二区三区 | 欧美熟妇另类久久久久久多毛 | 亚洲人成网站在线播放942 | 麻豆国产丝袜白领秘书在线观看 | 久久午夜无码鲁丝片 | 激情综合激情五月俺也去 | 国产亚洲日韩欧美另类第八页 | 人人澡人人透人人爽 | 亚洲中文字幕在线观看 | 精品国产一区av天美传媒 | 东京热男人av天堂 | 精品久久综合1区2区3区激情 | 四虎永久在线精品免费网址 | 少妇无码一区二区二三区 | 午夜性刺激在线视频免费 | 久热国产vs视频在线观看 | 亚洲国产成人av在线观看 | 国产精品久久国产三级国 | 国产精品怡红院永久免费 | 青青久在线视频免费观看 | www一区二区www免费 | 国产熟女一区二区三区四区五区 | 中文字幕乱妇无码av在线 | 久久精品女人的天堂av | 国产精华av午夜在线观看 | 欧美成人免费全部网站 | 亚洲va欧美va天堂v国产综合 | 欧美精品在线观看 | 成人综合网亚洲伊人 | 国产色在线 | 国产 | 三级4级全黄60分钟 | 成人亚洲精品久久久久 | 日本欧美一区二区三区乱码 | 亚洲娇小与黑人巨大交 | 一本无码人妻在中文字幕免费 | 亚洲成a人片在线观看日本 | 国产疯狂伦交大片 | 国产特级毛片aaaaaa高潮流水 | 中文字幕乱码中文乱码51精品 | 牲欲强的熟妇农村老妇女视频 | 伊人久久婷婷五月综合97色 | 日本免费一区二区三区最新 | 久久无码中文字幕免费影院蜜桃 | 麻豆国产97在线 | 欧洲 | 国产在线精品一区二区高清不卡 | 成人av无码一区二区三区 | 国产亚洲精品久久久久久久久动漫 | 小sao货水好多真紧h无码视频 | 亚洲精品一区二区三区在线观看 | 亚洲中文字幕av在天堂 | 午夜福利不卡在线视频 | 国产精品亚洲综合色区韩国 | 国产精品沙发午睡系列 | 蜜臀av在线播放 久久综合激激的五月天 | 国产舌乚八伦偷品w中 | 精品久久久久香蕉网 | 欧美性猛交xxxx富婆 | 激情国产av做激情国产爱 | 亚洲熟妇色xxxxx亚洲 | 亚洲日韩av一区二区三区四区 | 日本大乳高潮视频在线观看 | 国产精品理论片在线观看 | 国产av一区二区精品久久凹凸 | 性欧美熟妇videofreesex | 日本熟妇大屁股人妻 | 在线天堂新版最新版在线8 | 日日躁夜夜躁狠狠躁 | 亚洲中文字幕无码一久久区 | 国产又爽又猛又粗的视频a片 | 午夜福利试看120秒体验区 | 狠狠综合久久久久综合网 | 日日躁夜夜躁狠狠躁 | 麻豆果冻传媒2021精品传媒一区下载 | 亚洲欧美日韩综合久久久 | 婷婷五月综合激情中文字幕 | 婷婷色婷婷开心五月四房播播 | 无套内射视频囯产 | 日韩av无码中文无码电影 | 精品一区二区三区无码免费视频 | 亚洲成a人一区二区三区 | 天堂在线观看www | 熟妇激情内射com | 亚洲国产精品毛片av不卡在线 | 精品少妇爆乳无码av无码专区 | 狂野欧美性猛xxxx乱大交 | 99久久无码一区人妻 | 久久国产劲爆∧v内射 | 久久亚洲精品成人无码 | 亚洲国精产品一二二线 | 日韩精品a片一区二区三区妖精 | 好屌草这里只有精品 | 大色综合色综合网站 | 国产精品亚洲а∨无码播放麻豆 | 黄网在线观看免费网站 | 精品人妻人人做人人爽 | 成人无码视频免费播放 | 99久久久无码国产精品免费 | 狠狠色丁香久久婷婷综合五月 | 成人无码精品一区二区三区 | 97夜夜澡人人双人人人喊 | 嫩b人妻精品一区二区三区 | 成在人线av无码免观看麻豆 | 色综合久久久久综合一本到桃花网 | 小鲜肉自慰网站xnxx | 日韩无套无码精品 | 东京热男人av天堂 | 日本欧美一区二区三区乱码 | 国产肉丝袜在线观看 | 欧美日本精品一区二区三区 | 人人妻人人澡人人爽欧美精品 | 日日天干夜夜狠狠爱 | 免费看男女做好爽好硬视频 | 欧美成人高清在线播放 | 中国女人内谢69xxxx | 图片区 小说区 区 亚洲五月 | 国产精品久久久久久亚洲毛片 | 久久久久久久女国产乱让韩 | 99久久精品日本一区二区免费 | 久久99精品久久久久婷婷 | 欧美喷潮久久久xxxxx | 久久精品国产精品国产精品污 | 爱做久久久久久 | 亚洲 日韩 欧美 成人 在线观看 | 亲嘴扒胸摸屁股激烈网站 | 亚洲综合在线一区二区三区 | 内射欧美老妇wbb | 男人扒开女人内裤强吻桶进去 | 午夜无码人妻av大片色欲 | 精品无码成人片一区二区98 | 扒开双腿疯狂进出爽爽爽视频 | 亚洲人交乣女bbw | 成人无码视频在线观看网站 | 狠狠cao日日穞夜夜穞av | 中文字幕人妻丝袜二区 | 久久久亚洲欧洲日产国码αv | 日日鲁鲁鲁夜夜爽爽狠狠 | 一区二区三区高清视频一 | 国精产品一区二区三区 | 2020最新国产自产精品 | 亚洲色欲色欲欲www在线 | 性啪啪chinese东北女人 | 久久综合九色综合欧美狠狠 | 亚洲国产精品久久久天堂 | 久久精品无码一区二区三区 | 亚洲精品无码国产 | 日本一区二区三区免费高清 | 精品一区二区不卡无码av | 国产精品久久久久久亚洲毛片 | 日本爽爽爽爽爽爽在线观看免 | 综合人妻久久一区二区精品 | 国产免费观看黄av片 | 精品 日韩 国产 欧美 视频 | 澳门永久av免费网站 | 久久人妻内射无码一区三区 | 久久久久se色偷偷亚洲精品av | 欧美三级不卡在线观看 | 亚洲综合伊人久久大杳蕉 | 亚洲欧美综合区丁香五月小说 | 国产绳艺sm调教室论坛 | 亚洲午夜福利在线观看 | 人妻无码久久精品人妻 | 国产香蕉尹人视频在线 | 亚洲成a人片在线观看无码3d | 亚洲成在人网站无码天堂 | 自拍偷自拍亚洲精品被多人伦好爽 | 国产精品igao视频网 | 久久久久免费精品国产 | 女人高潮内射99精品 | 永久免费精品精品永久-夜色 | 天天摸天天碰天天添 | 蜜臀av无码人妻精品 | 成人毛片一区二区 | 色五月丁香五月综合五月 | 国产又爽又黄又刺激的视频 | 国产超级va在线观看视频 | 国产精品爱久久久久久久 | 国产国语老龄妇女a片 | 高潮喷水的毛片 | 理论片87福利理论电影 | 无码午夜成人1000部免费视频 | 麻豆蜜桃av蜜臀av色欲av | av人摸人人人澡人人超碰下载 | 在线成人www免费观看视频 | 大地资源网第二页免费观看 | 中文字幕人妻无码一区二区三区 | 风流少妇按摩来高潮 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 精品aⅴ一区二区三区 | 一本一道久久综合久久 | 国产精品高潮呻吟av久久 | 欧美freesex黑人又粗又大 | 99久久99久久免费精品蜜桃 | 国产精品内射视频免费 | 在线a亚洲视频播放在线观看 | 丰满岳乱妇在线观看中字无码 | 久久97精品久久久久久久不卡 | 又大又硬又爽免费视频 | 帮老师解开蕾丝奶罩吸乳网站 | 无码人妻丰满熟妇区五十路百度 | 久热国产vs视频在线观看 | 国产97人人超碰caoprom | 黑人巨大精品欧美一区二区 | 永久免费精品精品永久-夜色 | 国内精品人妻无码久久久影院 | 亚洲乱亚洲乱妇50p | 久久国内精品自在自线 | 久久综合给合久久狠狠狠97色 | 四虎永久在线精品免费网址 | 国色天香社区在线视频 | 99久久婷婷国产综合精品青草免费 | 青青草原综合久久大伊人精品 | 久久精品国产一区二区三区肥胖 | 亚洲熟妇色xxxxx欧美老妇y | 国产无遮挡吃胸膜奶免费看 | 又大又硬又爽免费视频 | 高潮毛片无遮挡高清免费 | 亚洲成色在线综合网站 | 未满成年国产在线观看 | 欧洲vodafone精品性 | 精品水蜜桃久久久久久久 | 麻豆国产丝袜白领秘书在线观看 | 人妻互换免费中文字幕 | 草草网站影院白丝内射 | 荫蒂添的好舒服视频囗交 | 男女爱爱好爽视频免费看 | 国产精品亚洲一区二区三区喷水 | 亚洲欧洲中文日韩av乱码 | 久久精品99久久香蕉国产色戒 | 中文字幕无线码免费人妻 | 影音先锋中文字幕无码 | 野狼第一精品社区 | 亚洲一区二区三区四区 | 久久久久99精品成人片 | 中国大陆精品视频xxxx | 成人综合网亚洲伊人 | 成人免费视频视频在线观看 免费 | 丰满少妇人妻久久久久久 | 欧美日韩视频无码一区二区三 | 国产另类ts人妖一区二区 | 欧美性猛交xxxx富婆 | 我要看www免费看插插视频 | 性欧美大战久久久久久久 | 国产精品久久久久影院嫩草 | 精品无码一区二区三区的天堂 | 亚欧洲精品在线视频免费观看 | 少妇高潮一区二区三区99 | 曰本女人与公拘交酡免费视频 | 亚洲精品中文字幕久久久久 | 日日噜噜噜噜夜夜爽亚洲精品 | 人妻中文无码久热丝袜 | 精品国产福利一区二区 | 99久久精品国产一区二区蜜芽 | 综合人妻久久一区二区精品 | 国产精品对白交换视频 | 国模大胆一区二区三区 | 亚洲色欲色欲欲www在线 | 红桃av一区二区三区在线无码av | 日日夜夜撸啊撸 | 性啪啪chinese东北女人 | 亚洲国产欧美在线成人 | 1000部啪啪未满十八勿入下载 | 午夜成人1000部免费视频 | 国产性生大片免费观看性 | 欧美性猛交xxxx富婆 | 精品无码一区二区三区爱欲 | 国产又粗又硬又大爽黄老大爷视 | 大肉大捧一进一出好爽视频 | 中文精品久久久久人妻不卡 | 久久99久久99精品中文字幕 | 两性色午夜免费视频 | 大地资源网第二页免费观看 | 又大又硬又爽免费视频 | 成人av无码一区二区三区 | 久久精品女人天堂av免费观看 | 成人欧美一区二区三区黑人免费 | 亚洲中文字幕在线无码一区二区 | 国产人成高清在线视频99最全资源 | 日韩在线不卡免费视频一区 | 国产精品鲁鲁鲁 | 夜精品a片一区二区三区无码白浆 | 青青青手机频在线观看 | 1000部啪啪未满十八勿入下载 | 内射老妇bbwx0c0ck | 丰满少妇人妻久久久久久 | 久久精品女人天堂av免费观看 | 欧美性生交活xxxxxdddd | 十八禁真人啪啪免费网站 | 欧美黑人性暴力猛交喷水 | 亚洲中文字幕在线观看 | 精品欧美一区二区三区久久久 | 中文字幕亚洲情99在线 | 免费无码午夜福利片69 | 国产精品igao视频网 | 成人免费无码大片a毛片 | 国产精品久久久久久久9999 | 日本精品久久久久中文字幕 | 女人被男人躁得好爽免费视频 | www一区二区www免费 | 日本精品人妻无码免费大全 | 少妇愉情理伦片bd | 黑人巨大精品欧美一区二区 | 精品久久综合1区2区3区激情 | 精品国产av色一区二区深夜久久 | 亚洲区欧美区综合区自拍区 | 国内少妇偷人精品视频免费 | 在线观看国产午夜福利片 | 四虎国产精品一区二区 | 波多野结衣乳巨码无在线观看 | 国产乱人伦av在线无码 | 精品 日韩 国产 欧美 视频 | a片免费视频在线观看 | 亚洲欧美日韩国产精品一区二区 | 国产av人人夜夜澡人人爽麻豆 | 国产激情精品一区二区三区 | 乌克兰少妇xxxx做受 | 日本熟妇浓毛 | 国産精品久久久久久久 | 蜜桃无码一区二区三区 | 亚洲精品国偷拍自产在线观看蜜桃 | 亚洲综合色区中文字幕 | 伊人久久大香线蕉亚洲 | 亚洲欧美日韩国产精品一区二区 | 国产97人人超碰caoprom | 久久亚洲中文字幕无码 | 欧美三级不卡在线观看 | 国产莉萝无码av在线播放 | 国产超级va在线观看视频 | 欧美第一黄网免费网站 | www一区二区www免费 | 人人妻人人澡人人爽欧美一区 | 国产成人精品三级麻豆 | 天天综合网天天综合色 | 中文字幕无码免费久久9一区9 | 国产人妻精品午夜福利免费 | 欧美日韩一区二区三区自拍 | 亚洲一区二区三区偷拍女厕 | 国产午夜福利亚洲第一 | 丰满人妻翻云覆雨呻吟视频 | 粗大的内捧猛烈进出视频 | 欧美日韩亚洲国产精品 | 亚洲色欲色欲天天天www | 夫妻免费无码v看片 | 成人欧美一区二区三区黑人免费 | 日本大乳高潮视频在线观看 | 亚洲精品综合五月久久小说 | 奇米影视888欧美在线观看 | 亚洲色偷偷偷综合网 | 国产黑色丝袜在线播放 | 无码国模国产在线观看 | 好男人www社区 | 色妞www精品免费视频 | 欧美xxxx黑人又粗又长 | 日本熟妇大屁股人妻 | 强伦人妻一区二区三区视频18 | 免费国产黄网站在线观看 | 波多野结衣av一区二区全免费观看 | 天天躁夜夜躁狠狠是什么心态 | 思思久久99热只有频精品66 | 波多野结衣av一区二区全免费观看 | 国产乱人伦av在线无码 | 精品厕所偷拍各类美女tp嘘嘘 | 久久99精品久久久久久动态图 | 日日橹狠狠爱欧美视频 | 免费人成在线视频无码 | 国产特级毛片aaaaaaa高清 | 亚洲成av人片在线观看无码不卡 | 97精品国产97久久久久久免费 | 国产欧美精品一区二区三区 | 国产又爽又猛又粗的视频a片 | 亚洲国产欧美国产综合一区 | 久久精品无码一区二区三区 | 欧洲熟妇精品视频 | 好屌草这里只有精品 | 国产人成高清在线视频99最全资源 | 在线精品亚洲一区二区 | 欧美日韩在线亚洲综合国产人 | 亚洲国产成人a精品不卡在线 | 亚洲爆乳精品无码一区二区三区 | 国产亚洲日韩欧美另类第八页 | 中文字幕乱妇无码av在线 | 麻豆成人精品国产免费 | 55夜色66夜色国产精品视频 | 国产在线精品一区二区三区直播 | 色欲综合久久中文字幕网 | 亚洲一区二区三区国产精华液 | 中文无码精品a∨在线观看不卡 | 蜜桃臀无码内射一区二区三区 | 夜夜高潮次次欢爽av女 | 欧美怡红院免费全部视频 | 夜夜躁日日躁狠狠久久av | 国产精品无码永久免费888 | 无码一区二区三区在线观看 | 亚洲精品一区二区三区大桥未久 | 青春草在线视频免费观看 | 日韩视频 中文字幕 视频一区 | 天天躁夜夜躁狠狠是什么心态 | 日韩av无码一区二区三区 | 蜜桃av抽搐高潮一区二区 | 欧美兽交xxxx×视频 | av小次郎收藏 | 国产片av国语在线观看 | 中国大陆精品视频xxxx | 色综合久久88色综合天天 | 成 人 网 站国产免费观看 | av无码电影一区二区三区 | yw尤物av无码国产在线观看 | 中文字幕无码av波多野吉衣 | 亚洲爆乳精品无码一区二区三区 | 亚洲国产精品无码久久久久高潮 | 在线观看欧美一区二区三区 | 国产精品无码一区二区三区不卡 | 国产精品.xx视频.xxtv | 亚洲一区二区三区播放 | 亚洲乱亚洲乱妇50p | 成人欧美一区二区三区黑人免费 | 四虎永久在线精品免费网址 | 麻豆md0077饥渴少妇 | 国产精品久久久久久亚洲影视内衣 | 丰腴饱满的极品熟妇 | 亚洲精品www久久久 | 亚洲精品美女久久久久久久 | 欧美人与动性行为视频 | 日日鲁鲁鲁夜夜爽爽狠狠 | 久久综合九色综合97网 | 久久精品人妻少妇一区二区三区 | 两性色午夜免费视频 | 国语自产偷拍精品视频偷 | 国产莉萝无码av在线播放 | 特黄特色大片免费播放器图片 | 婷婷综合久久中文字幕蜜桃三电影 | 99麻豆久久久国产精品免费 | 中文无码精品a∨在线观看不卡 | 亚洲va欧美va天堂v国产综合 | 福利一区二区三区视频在线观看 | 人人超人人超碰超国产 | 亲嘴扒胸摸屁股激烈网站 | 中文字幕乱码中文乱码51精品 | 久久综合九色综合欧美狠狠 | 欧美刺激性大交 | 亚洲国产午夜精品理论片 | 亚洲男女内射在线播放 | 日日鲁鲁鲁夜夜爽爽狠狠 | 日日躁夜夜躁狠狠躁 | 日韩精品无码一本二本三本色 | 国产国产精品人在线视 | 久久久久久a亚洲欧洲av冫 | 美女扒开屁股让男人桶 | www国产精品内射老师 | 国产在线aaa片一区二区99 | 精品乱码久久久久久久 | 国产97在线 | 亚洲 | 亚洲欧美色中文字幕在线 | 四虎永久在线精品免费网址 | 久久视频在线观看精品 | 亚洲午夜久久久影院 | 丝袜 中出 制服 人妻 美腿 | 日日夜夜撸啊撸 | 亚洲七七久久桃花影院 | 日日麻批免费40分钟无码 | 欧美丰满熟妇xxxx性ppx人交 | 亚洲一区二区三区无码久久 | 亚洲国产精品毛片av不卡在线 | 少妇愉情理伦片bd | 亚洲中文字幕va福利 | 偷窥日本少妇撒尿chinese | 中文字幕+乱码+中文字幕一区 | 18禁止看的免费污网站 | 久久99精品久久久久久动态图 | 亚洲中文字幕va福利 | 国产精品多人p群无码 | 精品国精品国产自在久国产87 | 国产精品.xx视频.xxtv | 99精品视频在线观看免费 | 樱花草在线播放免费中文 | 亚洲日本一区二区三区在线 | 亚洲成a人片在线观看无码 | 日韩视频 中文字幕 视频一区 | 老子影院午夜伦不卡 | 免费乱码人妻系列无码专区 | 亚洲一区二区观看播放 | 一本加勒比波多野结衣 | 亚洲中文字幕成人无码 | 亚洲国产精品一区二区第一页 | 无码av岛国片在线播放 | 国产精品嫩草久久久久 | 国产性生交xxxxx无码 | 蜜臀aⅴ国产精品久久久国产老师 | 欧美熟妇另类久久久久久多毛 | 青青青手机频在线观看 | 300部国产真实乱 | 国精产品一品二品国精品69xx | 国产精品香蕉在线观看 | 麻豆精品国产精华精华液好用吗 | 丰满少妇弄高潮了www | 国产精品亚洲专区无码不卡 | 亚洲第一网站男人都懂 | 久久久久久a亚洲欧洲av冫 | 中文毛片无遮挡高清免费 | 麻豆国产人妻欲求不满谁演的 | 无码任你躁久久久久久久 | 亚洲一区二区三区无码久久 | 国产午夜福利亚洲第一 | 国产午夜福利100集发布 | 国产精品美女久久久久av爽李琼 | 中国女人内谢69xxxxxa片 | 99久久亚洲精品无码毛片 | 人人妻人人澡人人爽精品欧美 | 亚洲综合在线一区二区三区 | 亚洲中文字幕久久无码 | 亚洲精品国偷拍自产在线观看蜜桃 | 日本熟妇乱子伦xxxx | 中文无码精品a∨在线观看不卡 | 欧美成人免费全部网站 | 麻豆国产丝袜白领秘书在线观看 | 草草网站影院白丝内射 | 午夜男女很黄的视频 | 漂亮人妻洗澡被公强 日日躁 | 国内揄拍国内精品少妇国语 | 亚洲综合无码久久精品综合 | 色 综合 欧美 亚洲 国产 | 亚洲s色大片在线观看 | 成人影院yy111111在线观看 | 国产精品美女久久久网av | 日韩精品一区二区av在线 | 国产福利视频一区二区 | 天天躁夜夜躁狠狠是什么心态 | 日本大香伊一区二区三区 | 最近中文2019字幕第二页 | 国产精品亚洲а∨无码播放麻豆 | 国产人妻精品一区二区三区 | 狠狠噜狠狠狠狠丁香五月 | 国产午夜无码精品免费看 | 欧美成人免费全部网站 | 色综合久久久无码中文字幕 | 婷婷五月综合激情中文字幕 | 国产亚洲精品精品国产亚洲综合 | 嫩b人妻精品一区二区三区 | 国产免费观看黄av片 | 亚洲小说春色综合另类 | 亚洲а∨天堂久久精品2021 | 无码毛片视频一区二区本码 | 亚洲精品www久久久 | 亚洲欧美精品伊人久久 | 国产成人无码av一区二区 | 国产精品欧美成人 | 成人性做爰aaa片免费看 | 国产69精品久久久久app下载 | 97夜夜澡人人双人人人喊 | 久久99精品久久久久久 | 色综合久久88色综合天天 | 欧美午夜特黄aaaaaa片 | 国产女主播喷水视频在线观看 | 国产午夜亚洲精品不卡 | 国内精品一区二区三区不卡 | 欧美老熟妇乱xxxxx | 色综合久久88色综合天天 | 亚洲人成无码网www | 国产乱人偷精品人妻a片 | 日本免费一区二区三区最新 | 日本精品久久久久中文字幕 | 女人被男人爽到呻吟的视频 | 天堂а√在线地址中文在线 | 久久国产精品二国产精品 | v一区无码内射国产 | 麻豆国产人妻欲求不满 | 国产精品久久久一区二区三区 | 好男人www社区 | 色五月丁香五月综合五月 | 狂野欧美性猛交免费视频 | 国产人妻人伦精品1国产丝袜 | 亚洲va欧美va天堂v国产综合 | 久久久www成人免费毛片 | 色婷婷香蕉在线一区二区 | 综合激情五月综合激情五月激情1 | 精品成人av一区二区三区 | 麻豆蜜桃av蜜臀av色欲av | 麻豆国产丝袜白领秘书在线观看 | 特级做a爰片毛片免费69 | 一本色道久久综合狠狠躁 | 欧美性猛交xxxx富婆 | 青青青手机频在线观看 | 小sao货水好多真紧h无码视频 | 欧美喷潮久久久xxxxx | 曰本女人与公拘交酡免费视频 | 成在人线av无码免观看麻豆 | 久久国产自偷自偷免费一区调 | 欧美日本精品一区二区三区 | 麻豆人妻少妇精品无码专区 | 一区二区三区高清视频一 | 国产精品久久久久影院嫩草 | 久久99精品国产麻豆蜜芽 | 亚洲狠狠色丁香婷婷综合 | 成人女人看片免费视频放人 | 女人被男人躁得好爽免费视频 | 久久人妻内射无码一区三区 | 亚洲 高清 成人 动漫 | 麻豆人妻少妇精品无码专区 | 亚洲中文字幕乱码av波多ji | 精品亚洲成av人在线观看 | 午夜成人1000部免费视频 | 久久精品国产一区二区三区肥胖 | 极品尤物被啪到呻吟喷水 | 高潮毛片无遮挡高清免费视频 | 色五月丁香五月综合五月 | 成 人 网 站国产免费观看 | 无套内谢的新婚少妇国语播放 | 国产深夜福利视频在线 | 色老头在线一区二区三区 | а√资源新版在线天堂 | 国产精品高潮呻吟av久久 | 人妻体内射精一区二区三四 | 波多野结衣一区二区三区av免费 | 国产高清av在线播放 | 人妻无码久久精品人妻 | 蜜臀av在线播放 久久综合激激的五月天 | 人人超人人超碰超国产 | 精品水蜜桃久久久久久久 | 久久精品视频在线看15 | 久久久久成人精品免费播放动漫 | 永久免费观看美女裸体的网站 | 精品久久久久久亚洲精品 | 久久国产精品萌白酱免费 | 一二三四在线观看免费视频 | 在线播放无码字幕亚洲 | 伦伦影院午夜理论片 | 国产极品美女高潮无套在线观看 | 久久久精品欧美一区二区免费 | 性开放的女人aaa片 | 国产福利视频一区二区 | 国语自产偷拍精品视频偷 | 久久久久成人精品免费播放动漫 | 国内精品一区二区三区不卡 | 久久视频在线观看精品 | 高潮毛片无遮挡高清免费 | 日韩av无码一区二区三区不卡 | 国产成人一区二区三区在线观看 | 俺去俺来也在线www色官网 | 国产莉萝无码av在线播放 | 日产国产精品亚洲系列 | 97色伦图片97综合影院 | 亚洲日韩精品欧美一区二区 | 天天摸天天碰天天添 | 色综合视频一区二区三区 | 熟妇人妻无乱码中文字幕 | 7777奇米四色成人眼影 | 欧洲vodafone精品性 | 久久国产精品精品国产色婷婷 | 亚洲中文字幕乱码av波多ji | 97久久国产亚洲精品超碰热 | 亚洲国产av精品一区二区蜜芽 | 国产香蕉尹人综合在线观看 | 欧美丰满老熟妇xxxxx性 | 中文久久乱码一区二区 | 麻豆国产丝袜白领秘书在线观看 | 亚洲精品久久久久avwww潮水 | 牲欲强的熟妇农村老妇女视频 | 少妇无套内谢久久久久 | 国产片av国语在线观看 | 未满小14洗澡无码视频网站 | 亚洲 高清 成人 动漫 | 福利一区二区三区视频在线观看 | 真人与拘做受免费视频 | 成人免费视频在线观看 | 亚洲色欲久久久综合网东京热 | 狠狠色噜噜狠狠狠7777奇米 | 18精品久久久无码午夜福利 | 亚洲乱亚洲乱妇50p | 在线а√天堂中文官网 | www成人国产高清内射 | 日本一卡2卡3卡四卡精品网站 | 欧美一区二区三区视频在线观看 | 性色av无码免费一区二区三区 | 色欲av亚洲一区无码少妇 | 亚洲一区二区三区在线观看网站 | 欧美高清在线精品一区 | 亚洲国产精品无码一区二区三区 | 97夜夜澡人人爽人人喊中国片 | 国产精品亚洲专区无码不卡 | 精品无码成人片一区二区98 | 欧美一区二区三区视频在线观看 | 精品无码国产一区二区三区av | 一本色道久久综合狠狠躁 | 亚洲午夜无码久久 | 日本www一道久久久免费榴莲 | 蜜桃视频插满18在线观看 | 少妇的肉体aa片免费 | 日日天日日夜日日摸 | 国内少妇偷人精品视频免费 | v一区无码内射国产 | 国产av一区二区三区最新精品 | 人人妻人人藻人人爽欧美一区 | 亚洲日本va午夜在线电影 | 在线 国产 欧美 亚洲 天堂 | 在线亚洲高清揄拍自拍一品区 | 成年美女黄网站色大免费全看 | 国产超碰人人爽人人做人人添 | 国产色xx群视频射精 | 老司机亚洲精品影院 | 大乳丰满人妻中文字幕日本 | 亚洲 高清 成人 动漫 | 免费播放一区二区三区 | 无码av免费一区二区三区试看 | 日本护士毛茸茸高潮 | 亚洲一区二区三区无码久久 | 老熟女重囗味hdxx69 | 久久精品国产一区二区三区 | 欧美大屁股xxxxhd黑色 | 国产另类ts人妖一区二区 | 无码人妻黑人中文字幕 | 成人精品一区二区三区中文字幕 | 一本色道久久综合狠狠躁 | 人妻互换免费中文字幕 | 欧美人与善在线com | 中文字幕av日韩精品一区二区 | 中文字幕无码av波多野吉衣 | 欧美国产亚洲日韩在线二区 | 伊人久久大香线蕉av一区二区 | av无码电影一区二区三区 | 无码精品国产va在线观看dvd | 无码精品人妻一区二区三区av | 国产亚洲精品精品国产亚洲综合 | 中文字幕av无码一区二区三区电影 | 亚洲一区二区三区含羞草 | 波多野结衣一区二区三区av免费 | 国产亚洲美女精品久久久2020 | 亚洲色无码一区二区三区 | 亚洲色偷偷男人的天堂 | 久久久精品国产sm最大网站 | 日本肉体xxxx裸交 | 日本丰满熟妇videos | 国产精品毛多多水多 | 成人aaa片一区国产精品 | 国产成人无码午夜视频在线观看 | 亚洲欧美精品aaaaaa片 | 18精品久久久无码午夜福利 | 中文精品久久久久人妻不卡 | 乱人伦中文视频在线观看 | 欧美一区二区三区视频在线观看 | 亚洲色偷偷男人的天堂 | 久久97精品久久久久久久不卡 | 国产精品二区一区二区aⅴ污介绍 | 日本一区二区更新不卡 | 亚洲精品一区二区三区大桥未久 | 精品人妻中文字幕有码在线 | 中文字幕无码人妻少妇免费 | 日本护士毛茸茸高潮 | 粗大的内捧猛烈进出视频 | 99久久婷婷国产综合精品青草免费 | 玩弄人妻少妇500系列视频 | 波多野42部无码喷潮在线 | 久青草影院在线观看国产 | 丝袜人妻一区二区三区 | 国产在线无码精品电影网 | 成人免费无码大片a毛片 | 一本一道久久综合久久 | 日韩视频 中文字幕 视频一区 | 秋霞成人午夜鲁丝一区二区三区 | 少妇性l交大片欧洲热妇乱xxx | 夫妻免费无码v看片 | 性色av无码免费一区二区三区 | a片在线免费观看 | 欧美日韩一区二区免费视频 | 国产精品对白交换视频 | 日韩欧美成人免费观看 | 国产精品久久久久久亚洲影视内衣 | 麻豆精品国产精华精华液好用吗 | 国产麻豆精品精东影业av网站 | 人妻插b视频一区二区三区 | 国产人妻精品一区二区三区不卡 | 蜜桃av抽搐高潮一区二区 | 国产亚洲精品久久久久久大师 | 性生交大片免费看女人按摩摩 | 国产精品高潮呻吟av久久4虎 | 国产在线精品一区二区三区直播 | 兔费看少妇性l交大片免费 | 97夜夜澡人人爽人人喊中国片 | 人人爽人人澡人人高潮 | 亚洲性无码av中文字幕 | 国产偷自视频区视频 | 曰韩少妇内射免费播放 | 麻豆果冻传媒2021精品传媒一区下载 | 久久综合香蕉国产蜜臀av | 日韩 欧美 动漫 国产 制服 | 东北女人啪啪对白 | 76少妇精品导航 | 欧美日韩一区二区免费视频 | 亚洲午夜福利在线观看 | 精品久久久无码人妻字幂 | 久久亚洲中文字幕精品一区 | www一区二区www免费 | 亚洲熟妇色xxxxx亚洲 | 久久精品国产一区二区三区 | 亚洲 a v无 码免 费 成 人 a v | 好男人社区资源 | 中国女人内谢69xxxx | 亚洲毛片av日韩av无码 | 麻花豆传媒剧国产免费mv在线 | 午夜福利不卡在线视频 | 日产精品高潮呻吟av久久 | 熟女体下毛毛黑森林 | 一二三四社区在线中文视频 | 欧美精品无码一区二区三区 | 精品偷拍一区二区三区在线看 | 麻豆国产人妻欲求不满 | 兔费看少妇性l交大片免费 | 伊人久久大香线蕉av一区二区 | 亚洲国产精品美女久久久久 | 久久熟妇人妻午夜寂寞影院 | 日本饥渴人妻欲求不满 | 国产精品美女久久久网av | 亚洲大尺度无码无码专区 | 国产乱人伦偷精品视频 | 亚洲日本va午夜在线电影 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 最近免费中文字幕中文高清百度 | 久久精品人人做人人综合 | 帮老师解开蕾丝奶罩吸乳网站 | 国语自产偷拍精品视频偷 | 无码av最新清无码专区吞精 | 国产综合色产在线精品 | 67194成是人免费无码 | 日本精品少妇一区二区三区 | 窝窝午夜理论片影院 | 99国产欧美久久久精品 | 亚洲国产成人a精品不卡在线 | 99久久无码一区人妻 | 日本高清一区免费中文视频 | 欧美三级不卡在线观看 | 99久久无码一区人妻 | 98国产精品综合一区二区三区 | 纯爱无遮挡h肉动漫在线播放 | 日本肉体xxxx裸交 | 强伦人妻一区二区三区视频18 | 亚洲精品一区二区三区四区五区 | 日本护士xxxxhd少妇 | 无套内谢老熟女 | 亚洲の无码国产の无码影院 | 99久久精品午夜一区二区 | 久久久无码中文字幕久... | 丰满少妇人妻久久久久久 | 伊在人天堂亚洲香蕉精品区 | 久久天天躁狠狠躁夜夜免费观看 | 久久精品国产大片免费观看 | 青青青手机频在线观看 | 青青久在线视频免费观看 | 久青草影院在线观看国产 | 无码av岛国片在线播放 | 国产偷自视频区视频 | 国产精品a成v人在线播放 | 成人片黄网站色大片免费观看 | 少妇愉情理伦片bd | 天天av天天av天天透 | 国产午夜视频在线观看 | 天天摸天天碰天天添 | 精品水蜜桃久久久久久久 | 中文无码精品a∨在线观看不卡 | 无码av中文字幕免费放 | 久久国产精品二国产精品 | 国产精品成人av在线观看 | 欧洲欧美人成视频在线 | 丰满妇女强制高潮18xxxx | av香港经典三级级 在线 | 任你躁在线精品免费 | 我要看www免费看插插视频 | 精品一二三区久久aaa片 | 久久精品女人天堂av免费观看 | 亚洲天堂2017无码中文 | 蜜臀av在线观看 在线欧美精品一区二区三区 | 日韩欧美成人免费观看 | 精品国产国产综合精品 | 国产69精品久久久久app下载 | 国产av无码专区亚洲awww | 亚洲国产精品久久久久久 | 国产乱人无码伦av在线a | 荫蒂被男人添的好舒服爽免费视频 | 国产乱人偷精品人妻a片 | 欧美精品无码一区二区三区 | 国产人妻精品午夜福利免费 | 国产熟妇另类久久久久 | 色综合天天综合狠狠爱 | 亚洲国产午夜精品理论片 | 亚洲综合在线一区二区三区 | 在线观看欧美一区二区三区 | 无码人妻黑人中文字幕 | 免费乱码人妻系列无码专区 | 久久国产精品精品国产色婷婷 | 免费视频欧美无人区码 | 大地资源中文第3页 | 国产三级久久久精品麻豆三级 | 久久人人爽人人爽人人片av高清 | 中文字幕人妻无码一夲道 | 亚洲中文字幕乱码av波多ji | 内射爽无广熟女亚洲 | 亚洲精品美女久久久久久久 | 亚洲精品综合五月久久小说 | 最新国产乱人伦偷精品免费网站 | 无码av免费一区二区三区试看 | 波多野结衣av在线观看 | 天下第一社区视频www日本 | 国产9 9在线 | 中文 | 在线播放免费人成毛片乱码 | 久久精品一区二区三区四区 | 欧美 亚洲 国产 另类 | 国产精华av午夜在线观看 | 国产亚洲tv在线观看 | 香蕉久久久久久av成人 | 午夜精品久久久久久久久 | 亚洲国产精品久久人人爱 | 欧美 日韩 人妻 高清 中文 | 精品国产精品久久一区免费式 | 女高中生第一次破苞av | 国产av久久久久精东av | 国产精品美女久久久久av爽李琼 | 国产三级精品三级男人的天堂 | 国内精品一区二区三区不卡 | 男人的天堂2018无码 | 高清国产亚洲精品自在久久 | 给我免费的视频在线观看 | 18禁黄网站男男禁片免费观看 | 人人妻人人澡人人爽欧美精品 | 亚洲中文字幕va福利 | 少妇被黑人到高潮喷出白浆 | 亚洲另类伦春色综合小说 | 国产精品久久精品三级 | 一本一道久久综合久久 | 国产真实伦对白全集 | 伊人色综合久久天天小片 | 九九热爱视频精品 | 性欧美牲交xxxxx视频 | 在线观看国产午夜福利片 | a国产一区二区免费入口 | 亚洲 日韩 欧美 成人 在线观看 | 国产亚洲精品久久久ai换 | 亚洲大尺度无码无码专区 | 亚洲国产成人a精品不卡在线 | 免费人成在线视频无码 | 无码乱肉视频免费大全合集 | 中文字幕无码日韩欧毛 | 久激情内射婷内射蜜桃人妖 | 久久五月精品中文字幕 | 九九久久精品国产免费看小说 | 亚洲综合无码久久精品综合 | 中文字幕无码人妻少妇免费 | 久久综合色之久久综合 | 成人无码视频免费播放 | 成人性做爰aaa片免费看不忠 | 中国大陆精品视频xxxx | 日本丰满护士爆乳xxxx | 国产性生大片免费观看性 | 图片小说视频一区二区 | 国精产品一区二区三区 | 欧美日本免费一区二区三区 | 天海翼激烈高潮到腰振不止 | 日本欧美一区二区三区乱码 | 亚洲国产高清在线观看视频 | 国产成人综合色在线观看网站 | 亚洲精品一区二区三区大桥未久 | 色欲久久久天天天综合网精品 | 欧美猛少妇色xxxxx | 人人妻人人澡人人爽欧美精品 | 亚洲自偷精品视频自拍 | 老头边吃奶边弄进去呻吟 | 国产精品久久久av久久久 | 无码国产乱人伦偷精品视频 | 少女韩国电视剧在线观看完整 | 亚洲成a人片在线观看日本 | 日本熟妇乱子伦xxxx | 久久精品99久久香蕉国产色戒 | 国产特级毛片aaaaaa高潮流水 | 波多野结衣aⅴ在线 | 永久免费精品精品永久-夜色 | 久久精品成人欧美大片 | 国产av无码专区亚洲a∨毛片 | 国产艳妇av在线观看果冻传媒 | 成人免费视频在线观看 | www国产精品内射老师 | 99精品无人区乱码1区2区3区 | 欧洲熟妇精品视频 | 亚无码乱人伦一区二区 | 狠狠色噜噜狠狠狠狠7777米奇 | 国产口爆吞精在线视频 | 一本久道久久综合婷婷五月 | 伊人久久大香线蕉午夜 | 国产精品香蕉在线观看 | 亚洲国产精品久久久天堂 | 日韩av无码一区二区三区不卡 | 色 综合 欧美 亚洲 国产 | 国产成人精品一区二区在线小狼 | aa片在线观看视频在线播放 | 亚洲天堂2017无码 | 日日噜噜噜噜夜夜爽亚洲精品 | 亚洲 a v无 码免 费 成 人 a v | 大乳丰满人妻中文字幕日本 | 97夜夜澡人人双人人人喊 | 亚洲高清偷拍一区二区三区 | 扒开双腿吃奶呻吟做受视频 | а天堂中文在线官网 | www一区二区www免费 | 久久无码专区国产精品s | 狂野欧美激情性xxxx | 免费网站看v片在线18禁无码 | 亚洲啪av永久无码精品放毛片 | 性欧美熟妇videofreesex | 色综合天天综合狠狠爱 | 国产婷婷色一区二区三区在线 | 久久久久久av无码免费看大片 | 女人被男人爽到呻吟的视频 | 性生交大片免费看l | 国产97人人超碰caoprom | 天天拍夜夜添久久精品 | 黑人巨大精品欧美一区二区 | 久久久精品成人免费观看 | 精品人妻中文字幕有码在线 | 大地资源网第二页免费观看 | 久久久久国色av免费观看性色 | 精品国产aⅴ无码一区二区 | 呦交小u女精品视频 | 精品夜夜澡人妻无码av蜜桃 | 国产激情无码一区二区app | 亚洲成色www久久网站 | 九月婷婷人人澡人人添人人爽 | 日韩精品无码一本二本三本色 | 久久人人爽人人爽人人片av高清 | 亚洲日韩一区二区 | 国产精品-区区久久久狼 | 久久久中文字幕日本无吗 | 国产特级毛片aaaaaa高潮流水 | 亚洲国产成人a精品不卡在线 | 丝袜人妻一区二区三区 | 熟女少妇人妻中文字幕 | 国产区女主播在线观看 | 99精品久久毛片a片 | 国产亚洲精品精品国产亚洲综合 | 无码人妻丰满熟妇区毛片18 | 欧洲熟妇精品视频 | 在线观看免费人成视频 | 俄罗斯老熟妇色xxxx | 亚洲精品欧美二区三区中文字幕 | 97无码免费人妻超级碰碰夜夜 | 国产精品igao视频网 | 综合激情五月综合激情五月激情1 | 亚洲精品国产第一综合99久久 | 无码成人精品区在线观看 | 亚洲の无码国产の无码影院 | 日日噜噜噜噜夜夜爽亚洲精品 | 一本加勒比波多野结衣 | 久久99热只有频精品8 | 一区二区三区乱码在线 | 欧洲 | 久久午夜夜伦鲁鲁片无码免费 | 亚洲色大成网站www国产 | 无码国产乱人伦偷精品视频 | 亚洲中文字幕无码一久久区 | 麻豆av传媒蜜桃天美传媒 | 亚欧洲精品在线视频免费观看 | 精品国产福利一区二区 | 久久久久久久女国产乱让韩 | 免费男性肉肉影院 | 天堂久久天堂av色综合 | 久热国产vs视频在线观看 | 麻豆国产人妻欲求不满谁演的 | 国产欧美精品一区二区三区 | 亚洲成av人片天堂网无码】 | 国产人妻人伦精品1国产丝袜 | 亚洲综合色区中文字幕 | 麻花豆传媒剧国产免费mv在线 | 色噜噜亚洲男人的天堂 | 在线观看国产一区二区三区 | 在线观看国产午夜福利片 | 国产精品第一区揄拍无码 | 国产69精品久久久久app下载 | 国产内射爽爽大片视频社区在线 | 欧美猛少妇色xxxxx | 精品久久综合1区2区3区激情 | 青青草原综合久久大伊人精品 | 国产办公室秘书无码精品99 | 亚洲精品国产品国语在线观看 | 国产av剧情md精品麻豆 | 永久免费精品精品永久-夜色 | 性色欲情网站iwww九文堂 | 成人免费视频在线观看 | 亚洲成av人影院在线观看 | 少妇太爽了在线观看 | 领导边摸边吃奶边做爽在线观看 | 国内精品久久久久久中文字幕 | 天天综合网天天综合色 | 亚洲人成影院在线观看 | 亚洲综合无码一区二区三区 | 日韩av激情在线观看 | 日日干夜夜干 | 久久 国产 尿 小便 嘘嘘 | 亚洲天堂2017无码 | 天天av天天av天天透 | 99精品视频在线观看免费 | 天堂а√在线中文在线 | 免费视频欧美无人区码 | 少妇久久久久久人妻无码 | 亚洲综合无码久久精品综合 | 色五月五月丁香亚洲综合网 | 国产内射爽爽大片视频社区在线 | 亚洲精品久久久久久一区二区 | 噜噜噜亚洲色成人网站 | 少妇性荡欲午夜性开放视频剧场 | 日本免费一区二区三区最新 | 免费男性肉肉影院 | 亚洲国产av精品一区二区蜜芽 | 最近免费中文字幕中文高清百度 | 久久精品中文闷骚内射 | 久久伊人色av天堂九九小黄鸭 | 欧美喷潮久久久xxxxx | 国产美女精品一区二区三区 | 红桃av一区二区三区在线无码av | 性史性农村dvd毛片 | 日本饥渴人妻欲求不满 | 国産精品久久久久久久 | 亚洲精品无码人妻无码 | 黑森林福利视频导航 | 蜜桃视频插满18在线观看 | 欧美喷潮久久久xxxxx | 国产免费久久久久久无码 | 青草青草久热国产精品 | 欧美 日韩 亚洲 在线 | 午夜免费福利小电影 | 色情久久久av熟女人妻网站 | 久久精品国产精品国产精品污 | 国产亚洲精品久久久久久久 | 清纯唯美经典一区二区 | 少妇无套内谢久久久久 | 欧美亚洲日韩国产人成在线播放 | 久久五月精品中文字幕 | 欧美第一黄网免费网站 | 熟妇人妻无乱码中文字幕 | 丁香花在线影院观看在线播放 | 最近中文2019字幕第二页 | 又黄又爽又色的视频 | 国产一精品一av一免费 | 一本久久a久久精品vr综合 | 国模大胆一区二区三区 | 亚洲精品美女久久久久久久 | 免费看少妇作爱视频 | 国产莉萝无码av在线播放 | 国产熟妇高潮叫床视频播放 | 国产网红无码精品视频 | 久久午夜夜伦鲁鲁片无码免费 | 精品偷自拍另类在线观看 | 国产乡下妇女做爰 | yw尤物av无码国产在线观看 | 夜夜影院未满十八勿进 | 国产黑色丝袜在线播放 | 精品亚洲成av人在线观看 | 日韩精品无码一区二区中文字幕 | 我要看www免费看插插视频 | 亚洲色大成网站www国产 | 亚洲熟女一区二区三区 | 日韩少妇白浆无码系列 | 妺妺窝人体色www在线小说 | 少女韩国电视剧在线观看完整 | 毛片内射-百度 | 日韩欧美成人免费观看 | 精品国偷自产在线 | 鲁大师影院在线观看 | 成人三级无码视频在线观看 | 天天做天天爱天天爽综合网 | 久久久精品欧美一区二区免费 | 亚洲自偷自拍另类第1页 | 婷婷综合久久中文字幕蜜桃三电影 |