久久精品国产精品国产精品污,男人扒开添女人下部免费视频,一级国产69式性姿势免费视频,夜鲁夜鲁很鲁在线视频 视频,欧美丰满少妇一区二区三区,国产偷国产偷亚洲高清人乐享,中文 在线 日韩 亚洲 欧美,熟妇人妻无乱码中文字幕真矢织江,一区二区三区人妻制服国产

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

二进制安装部署 4 kubernetes集群---超详细教程

發布時間:2025/3/20 编程问答 34 豆豆
生活随笔 收集整理的這篇文章主要介紹了 二进制安装部署 4 kubernetes集群---超详细教程 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

二進制安裝部署kubernetes集群---超詳細教程

前言:本篇博客是博主踩過無數坑,反復查閱資料,一步步搭建完成后整理的個人心得,分享給大家~~~

本文所需的安裝包,都上傳在我的網盤中,需要的可以打賞博主一杯咖啡錢,然后私密博主,博主會很快答復呦~

00.組件版本和配置策略

00-01.組件版本

  • Kubernetes 1.10.4
  • Docker 18.03.1-ce
  • Etcd 3.3.7
  • Flanneld 0.10.0
  • 插件:
    • Coredns
    • Dashboard
    • Heapster (influxdb、grafana)
    • Metrics-Server
    • EFK (elasticsearch、fluentd、kibana)
  • 鏡像倉庫:
    • docker registry
    • harbor

?

00-02.主要配置策略

kube-apiserver:

  • 使用 keepalived 和 haproxy 實現 3 節點高可用;
  • 關閉非安全端口 8080 和匿名訪問;
  • 在安全端口 6443 接收 https 請求;
  • 嚴格的認證和授權策略 (x509、token、RBAC);
  • 開啟 bootstrap token 認證,支持 kubelet TLS bootstrapping;
  • 使用 https 訪問 kubelet、etcd,加密通信;

kube-controller-manager:

  • 3 節點高可用;
  • 關閉非安全端口,在安全端口 10252 接收 https 請求;
  • 使用 kubeconfig 訪問 apiserver 的安全端口;
  • 自動 approve kubelet 證書簽名請求 (CSR),證書過期后自動輪轉;
  • 各 controller 使用自己的 ServiceAccount 訪問 apiserver;

kube-scheduler:

  • 3 節點高可用;
  • 使用 kubeconfig 訪問 apiserver 的安全端口;

kubelet:

  • 使用 kubeadm 動態創建 bootstrap token,而不是在 apiserver 中靜態配置;
  • 使用 TLS bootstrap 機制自動生成 client 和 server 證書,過期后自動輪轉;
  • 在 KubeletConfiguration 類型的 JSON 文件配置主要參數;
  • 關閉只讀端口,在安全端口 10250 接收 https 請求,對請求進行認證和授權,拒絕匿名訪問和非授權訪問;
  • 使用 kubeconfig 訪問 apiserver 的安全端口;

kube-proxy:

  • 使用 kubeconfig 訪問 apiserver 的安全端口;
  • 在 KubeProxyConfiguration 類型的 JSON 文件配置主要參數;
  • 使用 ipvs 代理模式;

集群插件:

  • DNS:使用功能、性能更好的 coredns;
  • Dashboard:支持登錄認證;
  • Metric:heapster、metrics-server,使用 https 訪問 kubelet 安全端口;
  • Log:Elasticsearch、Fluend、Kibana;
  • Registry 鏡像庫:docker-registry、harbor;

?

01.系統初始化

01-01.集群機器

  • kube-master:192.168.10.108
  • kube-node1:192.168.10.109
  • kube-node2:192.168.10.110

本文檔中的 etcd 集群、master 節點、worker 節點均使用這三臺機器。

?

在每個服務器上都要執行以下全部操作,如果沒有特殊指明,本文檔的所有操作均在kube-master?節點上執行

01-02.主機名

1、設置永久主機名稱,然后重新登錄

$ sudo hostnamectl set-hostname kube-master

$ sudo hostnamectl set-hostname kube-node1

$ sudo hostnamectl set-hostname kube-node2

?

2、修改 /etc/hostname 文件,添加主機名和 IP 的對應關系:

$ vim /etc/hosts

192.168.10.108 kube-master

192.168.10.109 kube-node1

192.168.10.110 kube-node2

?

01-03.添加 k8s 和 docker 賬戶

1、在每臺機器上添加 k8s 賬戶

$ sudo useradd -m k8s

$ sudo sh -c 'echo along |passwd k8s --stdin' #為k8s 賬戶設置密碼

?

2、修改visudo權限

$ sudo visudo #去掉%wheel ALL=(ALL) NOPASSWD: ALL這行的注釋

$ sudo grep '%wheel.*NOPASSWD: ALL' /etc/sudoers

%wheel ALL=(ALL) NOPASSWD: ALL

?

3、將k8s用戶歸到wheel組

$ gpasswd -a k8s wheel

Adding user k8s to group wheel

$ id k8s

uid=1000(k8s) gid=1000(k8s) groups=1000(k8s),10(wheel)

?

4、在每臺機器上添加 docker 賬戶,將 k8s 賬戶添加到 docker 組中,同時配置 dockerd 參數(注:安裝完docker才有):

$ sudo useradd -m docker

$ sudo gpasswd -a k8s docker

$ sudo mkdir -p /opt/docker/

$ vim /opt/docker/daemon.json? ?#可以后續部署docker時在操作

{

  "registry-mirrors": ["https://hub-mirror.c.163.com", "https://docker.mirrors.ustc.edu.cn"],

  "max-concurrent-downloads": 20

}

?

01-04.無密碼 ssh 登錄其它節點

1、生成秘鑰對

[root@kube-master ~]# ssh-keygen #連續回車即可

?

2、將自己的公鑰發給其他服務器

[root@kube-master ~]# ssh-copy-id root@kube-master

[root@kube-master ~]# ssh-copy-id root@kube-node1

[root@kube-master ~]# ssh-copy-id root@kube-node2

?

[root@kube-master ~]# ssh-copy-id k8s@kube-master

[root@kube-master ~]# ssh-copy-id k8s@kube-node1

[root@kube-master ~]# ssh-copy-id k8s@kube-node2

?

01-05.將可執行文件路徑 /opt/k8s/bin 添加到 PATH 變量

在每臺機器上添加環境變量:

$ sudo sh -c "echo 'PATH=/opt/k8s/bin:$PATH:$HOME/bin:$JAVA_HOME/bin' >> /etc/profile.d/k8s.sh"

$ source /etc/profile.d/k8s.sh

?

01-06.安裝依賴包

在每臺機器上安裝依賴包:

CentOS:

$ sudo yum install -y epel-release

$ sudo yum install -y conntrack ipvsadm ipset jq sysstat curl iptables libseccomp

?

Ubuntu:

$ sudo apt-get install -y conntrack ipvsadm ipset jq sysstat curl iptables libseccomp

注:ipvs 依賴 ipset;

?

01-07.關閉防火墻

在每臺機器上關閉防火墻:

① 關閉服務,并設為開機不自啟

$ sudo systemctl stop firewalld

$ sudo systemctl disable firewalld

② 清空防火墻規則

$ sudo iptables -F && sudo iptables -X && sudo iptables -F -t nat && sudo iptables -X -t nat

$ sudo iptables -P FORWARD ACCEPT

?

01-08.關閉 swap 分區

1、如果開啟了 swap 分區,kubelet 會啟動失敗(可以通過將參數 --fail-swap-on 設置為false 來忽略 swap on),故需要在每臺機器上關閉 swap 分區:

$ sudo swapoff -a

?

2、為了防止開機自動掛載 swap 分區,可以注釋 /etc/fstab 中相應的條目:

$ sudo sed -i '/ swap / s/^\(.*\)$/#\1/g' /etc/fstab

?

01-09.關閉 SELinux

1、關閉 SELinux,否則后續 K8S 掛載目錄時可能報錯 Permission denied :

$ sudo setenforce 0

?

2、修改配置文件,永久生效;

$ grep SELINUX /etc/selinux/config

SELINUX=disabled

?

01-10.關閉 dnsmasq (可選)

linux 系統開啟了 dnsmasq 后(如 GUI 環境),將系統 DNS Server 設置為 127.0.0.1,這會導致 docker 容器無法解析域名,需要關閉它:

$ sudo service dnsmasq stop

$ sudo systemctl disable dnsmasq

?

01-11.加載內核模塊

$ sudo modprobe br_netfilter

$ sudo modprobe ip_vs

?

01-12.設置系統參數

$ cat > kubernetes.conf <<EOF

net.bridge.bridge-nf-call-iptables=1 net.bridge.bridge-nf-call-ip6tables=1 net.ipv4.ip_forward=1 net.ipv4.tcp_tw_recycle=0 vm.swappiness=0 vm.overcommit_memory=1 vm.panic_on_oom=0 fs.inotify.max_user_watches=89100 fs.file-max=52706963 fs.nr_open=52706963 net.ipv6.conf.all.disable_ipv6=1 net.netfilter.nf_conntrack_max=2310720

EOF

$ sudo cp kubernetes.conf /etc/sysctl.d/kubernetes.conf

$ sudo sysctl -p /etc/sysctl.d/kubernetes.conf

$ sudo mount -t cgroup -o cpu,cpuacct none /sys/fs/cgroup/cpu,cpuacct

?

注:

  • tcp_tw_recycle 和 Kubernetes 的 NAT 沖突,必須關閉 ,否則會導致服務不通;
  • 關閉不使用的 IPV6 協議棧,防止觸發 docker BUG;

?

01-13.設置系統時區

1、調整系統 TimeZone

$ sudo timedatectl set-timezone Asia/Shanghai

2、將當前的 UTC 時間寫入硬件時鐘

$ sudo timedatectl set-local-rtc 0

3、重啟依賴于系統時間的服務

$ sudo systemctl restart rsyslog

$ sudo systemctl restart crond

?

01-14.更新系統時間

$ yum -y install ntpdate

$ sudo ntpdate cn.pool.ntp.org

?

01-15.創建目錄

在每臺機器上創建目錄:

$ sudo mkdir -p /opt/k8s/bin

$ sudo mkdir -p /opt/k8s/cert

$ sudo mkdir -p /opt/etcd/cert

$ sudo mkdir -p /opt/lib/etcd

$ sudo mkdir -p /opt/k8s/script

$ chown -R k8s /opt/*

?

01-16.檢查系統內核和模塊是否適合運行 docker (僅適用于linux 系統)

$ curl https://raw.githubusercontent.com/docker/docker/master/contrib/check-config.sh > check-config.sh

$ chmod +x check-config.sh

$ bash ./check-config.sh

?

02.創建 CA 證書和秘鑰

  • 為確保安全, kubernetes 系統各組件需要使用 x509 證書對通信進行加密和認證。
  • CA (Certificate Authority) 是自簽名的根證書,用來簽名后續創建的其它證書。

本文檔使用 CloudFlare 的 PKI 工具集 cfssl 創建所有證書。

?

02-01.安裝 cfssl 工具集

mkdir -p /opt/k8s/cert && sudo chown -R k8s /opt/k8s && cd /opt/k8s

wget https://pkg.cfssl.org/R1.2/cfssl_linux-amd64

mv cfssl_linux-amd64 /opt/k8s/bin/cfssl

wget https://pkg.cfssl.org/R1.2/cfssljson_linux-amd64

mv cfssljson_linux-amd64 /opt/k8s/bin/cfssljson

wget https://pkg.cfssl.org/R1.2/cfssl-certinfo_linux-amd64

mv cfssl-certinfo_linux-amd64 /opt/k8s/bin/cfssl-certinfo

chmod +x /opt/k8s/bin/*

?

02-02.創建根證書 (CA)

CA 證書是集群所有節點共享的,只需要創建一個 CA 證書,后續創建的所有證書都由它簽名。

?

02-02-01 創建配置文件

CA 配置文件用于配置根證書的使用場景 (profile) 和具體參數 (usage,過期時間、服務端認證、客戶端認證、加密等),后續在簽名其它證書時需要指定特定場景。

[root@kube-master ~]# cd /opt/k8s/cert

[root@kube-master cert]# vim ca-config.json

{"signing": {"default": {"expiry": "87600h"},"profiles": {"kubernetes": {"usages": ["signing","key encipherment","server auth","client auth"],"expiry": "87600h"}}} }

注:

① signing :表示該證書可用于簽名其它證書,生成的 ca.pem 證書中CA=TRUE ;

② server auth :表示 client 可以用該該證書對 server 提供的證書進行驗證;

③ client auth :表示 server 可以用該該證書對 client 提供的證書進行驗證;

?

02-02-02 創建證書簽名請求文件

[root@kube-master cert]# vim ca-csr.json

{"CN": "kubernetes","key": {"algo": "rsa","size": 2048},"names": [{"C": "CN","ST": "BeiJing","L": "BeiJing","O": "k8s","OU": "4Paradigm"}] }

注:

① CN: Common Name ,kube-apiserver 從證書中提取該字段作為請求的用戶名(User Name),瀏覽器使用該字段驗證網站是否合法;

② O: Organization ,kube-apiserver 從證書中提取該字段作為請求用戶所屬的組(Group);

③ kube-apiserver 將提取的 User、Group 作為 RBAC 授權的用戶標識;

?

02-02-03 生成 CA 證書和私鑰

[root@kube-master cert]# cfssl gencert -initca ca-csr.json | cfssljson -bare ca

[root@kube-master cert]# ls

ca-config.json ca.csr ca-csr.json ca-key.pem ca.pem

?

02-02-04 分發證書文件

將生成的 CA 證書、秘鑰文件、配置文件拷貝到所有節點的/opt/k8s/cert 目錄下:

[root@kube-master ~]# vim /opt/k8s/script/scp_k8scert.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"ssh root@${node_ip} "mkdir -p /opt/k8s/cert && chown -R k8s /opt/k8s"scp /opt/k8s/cert/ca*.pem /opt/k8s/cert/ca-config.json k8s@${node_ip}:/opt/k8s/cert done

[root@kube-master ~]# chmod +x /opt/k8s/script/scp_k8scert.sh && /opt/k8s/script/scp_k8scert.sh

?

03.部署 kubectl 命令行工具

  kubectl 是 kubernetes 集群的命令行管理工具,本文檔介紹安裝和配置它的步驟。

  kubectl 默認從 ~/.kube/config 文件讀取 kube-apiserver 地址、證書、用戶名等信息,如果沒有配置,執行 kubectl 命令時可能會出錯:

$ kubectl get pods

The connection to the server localhost:8080 was refused - did you specify the right host or port?

本文檔只需要部署一次,生成的 kubeconfig 文件與機器無關。

?

03-01.下載kubectl 二進制文件

下載和解壓

kubectl二進制文件需要***下載,我已經下載到我的網盤,有需要的小伙伴聯系我~

[root@kube-master ~]# wget https://dl.k8s.io/v1.10.4/kubernetes-client-linux-amd64.tar.gz

[root@kube-master ~]# tar -xzvf kubernetes-client-linux-amd64.tar.gz

?

03-02.創建 admin 證書和私鑰

  • kubectl 與 apiserver https 安全端口通信,apiserver 對提供的證書進行認證和授權。
  • kubectl 作為集群的管理工具,需要被授予最高權限。這里創建具有最高權限的admin 證書。

03-02-01 創建證書簽名請求

[root@kube-master ~]# cd /opt/k8s/cert/

cat > admin-csr.json <<EOF

{"CN": "admin","hosts": [],"key": {"algo": "rsa","size": 2048},"names": [{"C": "CN","ST": "BeiJing","L": "BeiJing","O": "system:masters","OU": "4Paradigm"}] }

注:

① O 為 system:masters ,kube-apiserver 收到該證書后將請求的 Group 設置為system:masters;

② 預定義的 ClusterRoleBinding cluster-admin 將 Group system:masters 與Role cluster-admin 綁定,該 Role 授予所有 API的權限;

③ 該證書只會被 kubectl 當做 client 證書使用,所以 hosts 字段為空;

?

03-02-02 生成證書和私鑰

[root@kube-master cert]# cfssl gencert -ca=/opt/k8s/cert/ca.pem \

-ca-key=/opt/k8s/cert/ca-key.pem \

-config=/opt/k8s/cert/ca-config.json \

-profile=kubernetes admin-csr.json | cfssljson_linux-amd64 -bare admin

?

[root@kube-master cert]# ls admin*

admin.csr admin-csr.json admin-key.pem admin.pem

?

03-03.創建和分發 kubeconfig 文件

03-03-01 創建kubeconfig文件

kubeconfig 為 kubectl 的配置文件,包含訪問 apiserver 的所有信息,如 apiserver 地址、CA 證書和自身使用的證書;

① 設置集群參數,(--server=${KUBE_APISERVER} ,指定IP和端口;我使用的是haproxy的VIP和端口;如果沒有haproxy代理,就用實際服務的IP和端口;如:https://192.168.10.108:6443)

[root@kube-master ~]# kubectl config set-cluster kubernetes \

--certificate-authority=/opt/k8s/cert/ca.pem \

--embed-certs=true \

--server=https://192.168.10.10:8443 \

--kubeconfig=/root/.kube/kubectl.kubeconfig

② 設置客戶端認證參數

[root@kube-master ~]#?kubectl config set-credentials kube-admin \

--client-certificate=/opt/k8s/cert/admin.pem \

--client-key=/opt/k8s/cert/admin-key.pem \

--embed-certs=true \

--kubeconfig=/root/.kube/kubectl.kubeconfig

③ 設置上下文參數

[root@kube-master ~]# kubectl config set-context kube-admin@kubernetes \

--cluster=kubernetes \

--user=kube-admin \

--kubeconfig=/root/.kube/kubectl.kubeconfig

④ 設置默認上下文

[root@kube-master ~]# kubectl config use-context kube-admin@kubernetes --kubeconfig=/root/.kube/kubectl.kubeconfig

?

注:在后續kubernetes認證,文章中會詳細講解

  • --certificate-authority :驗證 kube-apiserver 證書的根證書;
  • --client-certificate 、 --client-key :剛生成的 admin 證書和私鑰,連接 kube-apiserver 時使用;
  • --embed-certs=true :將 ca.pem 和 admin.pem 證書內容嵌入到生成的kubectl.kubeconfig 文件中(不加時,寫入的是證書文件路徑);

[root@kube-master ~]# chmod +x /opt/k8s/script/kubectl_environment.sh && /opt/k8s/script/kubectl_environment.sh

?

03-03-01 驗證kubeconfig文件

[root@kube-master ~]# ls /root/.kube/kubectl.kubeconfig

/root/.kube/kubectl.kubeconfig

[root@kube-master ~]# kubectl config view --kubeconfig=/root/.kube/kubectl.kubeconfig

apiVersion: v1 clusters: - cluster:certificate-authority-data: REDACTEDserver: https://192.168.10.10:8443name: kubernetes contexts: - context:cluster: kubernetesuser: kube-adminname: kube-admin@kubernetes current-context: kube-admin@kubernetes kind: Config preferences: {} users: - name: kube-adminuser:client-certificate-data: REDACTEDclient-key-data: REDACTED

?

03-03-03 分發 kubeclt 和kubeconfig 文件,分發到所有使用kubectl 命令的節點

[root@kube-master ~]# vim /opt/k8s/script/scp_kubectl.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110")

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"scp /root/kubernetes/client/bin/kubectl k8s@${node_ip}:/opt/k8s/bin/ssh k8s@${node_ip} "chmod +x /opt/k8s/bin/*"ssh k8s@${node_ip} "mkdir -p ~/.kube"scp ~/.kube/config k8s@${node_ip}:~/.kube/configssh root@${node_ip} "mkdir -p ~/.kube"scp ~/.kube/config root@${node_ip}:~/.kube/config done

[root@kube-master ~]# chmod +x /opt/k8s/script/scp_kubectl.sh && /opt/k8s/script/scp_kubectl.sh

?

04.部署 etcd 集群

  etcd 是基于 Raft 的分布式 key-value 存儲系統,由 CoreOS 開發,常用于服務發現、共享配置以及并發控制(如 leader 選舉、分布式鎖等)。kubernetes 使用 etcd 存儲所有運行數據。

本文檔介紹部署一個三節點高可用 etcd 集群的步驟:

① 下載和分發 etcd 二進制文件

② 創建 etcd 集群各節點的 x509 證書,用于加密客戶端(如 etcdctl) 與 etcd 集群、etcd 集群之間的數據流;

③ 創建 etcd 的 systemd unit 文件,配置服務參數;

④ 檢查集群工作狀態;

?

04-01.下載etcd 二進制文件

到 https://github.com/coreos/etcd/releases 頁面下載最新版本的發布包:

[root@kube-master ~]# https://github.com/coreos/etcd/releases/download/v3.3.7/etcd-v3.3.7-linux-amd64.tar.gz

[root@kube-master ~]# tar -xvf etcd-v3.3.7-linux-amd64.tar.gz

?

04-02.創建 etcd 證書和私鑰

04-02-01 創建證書簽名請求

[root@kube-master ~]# cd /opt/etcd/cert

[root@kube-master cert]# cat > etcd-csr.json <<EOF

{"CN": "etcd","hosts": ["127.0.0.1","192.168.10.108","192.168.10.109","192.168.10.110"],"key": {"algo": "rsa","size": 2048},"names": [{"C": "CN","ST": "BeiJing","L": "BeiJing","O": "k8s","OU": "4Paradigm"}] }

EOF

注:hosts 字段指定授權使用該證書的 etcd 節點 IP 或域名列表,這里將 etcd 集群的三個節點 IP 都列在其中;

?

04-02-02 生成證書和私鑰

[root@kube-master cert]# cfssl gencert -ca=/opt/k8s/cert/ca.pem \

-ca-key=/opt/k8s/cert/ca-key.pem \

-config=/opt/k8s/cert/ca-config.json \

-profile=kubernetes etcd-csr.json | cfssljson_linux-amd64 -bare etcd

?

[root@kube-master cert]# ls etcd*

etcd.csr etcd-csr.json etcd-key.pem etcd.pem

?

04-02-03 分發生成的證書和私鑰到各 etcd 節點

[root@kube-master ~]# vim /opt/k8s/script/scp_etcd.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110")

for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"scp /root/etcd-v3.3.7-linux-amd64/etcd* k8s@${node_ip}:/opt/k8s/binssh k8s@${node_ip} "chmod +x /opt/k8s/bin/*"ssh root@${node_ip} "mkdir -p /opt/etcd/cert && chown -R k8s /opt/etcd/cert"scp /opt/etcd/cert/etcd*.pem k8s@${node_ip}:/opt/etcd/cert/ done

?

04-03.創建etcd 的systemd unit 模板及etcd 配置文件

04-03-01 創建etcd 的systemd unit 模板

[root@kube-master ~]# cat > /opt/etcd/etcd.service.template <<EOF

[Unit] Description=Etcd Server After=network.target After=network-online.target Wants=network-online.target Documentation=https://github.com/coreos [Service] User=k8s Type=notify WorkingDirectory=/opt/lib/etcd/ ExecStart=/opt/k8s/bin/etcd \--data-dir=/opt/lib/etcd \--name ##NODE_NAME## \--cert-file=/opt/etcd/cert/etcd.pem \--key-file=/opt/etcd/cert/etcd-key.pem \--trusted-ca-file=/opt/k8s/cert/ca.pem \--peer-cert-file=/opt/etcd/cert/etcd.pem \--peer-key-file=/opt/etcd/cert/etcd-key.pem \--peer-trusted-ca-file=/opt/k8s/cert/ca.pem \--peer-client-cert-auth \--client-cert-auth \--listen-peer-urls=https://##NODE_IP##:2380 \--initial-advertise-peer-urls=https://##NODE_IP##:2380 \--listen-client-urls=https://##NODE_IP##:2379,http://127.0.0.1:2379\--advertise-client-urls=https://##NODE_IP##:2379 \--initial-cluster-token=etcd-cluster-0 \--initial-cluster=etcd0=https://192.168.10.108:2380,etcd1=https://192.168.10.109:2380,etcd2=https://192.168.10.110:2380 \--initial-cluster-state=new Restart=on-failure RestartSec=5 LimitNOFILE=65536 [Install] WantedBy=multi-user.target

EOF

注:

  • User :指定以 k8s 賬戶運行;
  • WorkingDirectory 、 --data-dir :指定工作目錄和數據目錄為/opt/lib/etcd ,需在啟動服務前創建這個目錄;
  • --name :指定節點名稱,當 --initial-cluster-state 值為 new 時, --name 的參數值必須位于 --initial-cluster 列表中;
  • --cert-file 、 --key-file :etcd server 與 client 通信時使用的證書和私鑰;
  • --trusted-ca-file :簽名 client 證書的 CA 證書,用于驗證 client 證書;
  • --peer-cert-file 、 --peer-key-file :etcd 與 peer 通信使用的證書和私鑰;
  • --peer-trusted-ca-file :簽名 peer 證書的 CA 證書,用于驗證 peer 證書;

?

04-04.為各節點創建和分發 etcd systemd unit 文件

[root@kube-master ~]# cd /opt/k8s/script

[root@kube-master script]# vim etcd_service.sh

NODE_NAMES=("etcd0" "etcd1" "etcd2") NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") #替換模板文件中的變量,為各節點創建 systemd unit 文件 for (( i=0; i < 3; i++ ));dosed -e "s/##NODE_NAME##/${NODE_NAMES[i]}/g" -e "s/##NODE_IP##/${NODE_IPS[i]}/g" /opt/etcd/etcd.service.template > /opt/etcd/etcd-${NODE_IPS[i]}.service done #分發生成的 systemd unit 和etcd的配置文件: for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"ssh root@${node_ip} "mkdir -p /opt/lib/etcd && chown -R k8s /opt/lib/etcd"scp /opt/etcd/etcd-${node_ip}.service root@${node_ip}:/etc/systemd/system/etcd.service done

[root@kube-master script]# chmod +x /opt/k8s/script/etcd_service.sh && /opt/k8s/script/etcd_service.sh

[root@kube-master script]# ls /opt/etcd/*.service

/opt/etcd/etcd-192.168.10.108.service /opt/etcd/etcd-192.168.10.110.service

/opt/etcd/etcd-192.168.10.109.service

[root@kube-master script]# ls /etc/systemd/system/etcd.service

/etc/systemd/system/etcd.service

?

04-05.啟動 etcd 服務

[root@kube-master script]# vim /opt/k8s/script/etcd.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") #啟動 etcd 服務 for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"ssh root@${node_ip} "systemctl daemon-reload && systemctl enable etcd && systemctl start etcd" done #檢查啟動結果,確保狀態為 active (running) for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"ssh k8s@${node_ip} "systemctl status etcd|grep Active" done #驗證服務狀態,輸出均為healthy 時表示集群服務正常 for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"ETCDCTL_API=3 /opt/k8s/bin/etcdctl \ --endpoints=https://${node_ip}:2379 \ --cacert=/opt/k8s/cert/ca.pem \ --cert=/opt/etcd/cert/etcd.pem \ --key=/opt/etcd/cert/etcd-key.pem endpoint health done?

[root@kube-master script]# chmod +x etcd.sh && ./etcd.sh

>>> 192.168.10.108

Created symlink from /etc/systemd/system/multi-user.target.wants/etcd.service to /etc/systemd/system/etcd.service.

>>> 192.168.10.109

Created symlink from /etc/systemd/system/multi-user.target.wants/etcd.service to /etc/systemd/system/etcd.service.

>>> 192.168.10.110

Created symlink from /etc/systemd/system/multi-user.target.wants/etcd.service to /etc/systemd/system/etcd.service.

#確保狀態為 active (running),否則查看日志,確認原因:$ journalctl -u etcd

>>> 192.168.10.108

Active: active (running) since Mon 2018-11-26 17:41:00 CST; 12min ago

>>> 192.168.10.109

Active: active (running) since Mon 2018-11-26 17:41:00 CST; 12min ago

>>> 192.168.10.110

Active: active (running) since Mon 2018-11-26 17:41:01 CST; 12min ago

#輸出均為healthy 時表示集群服務正常

>>> 192.168.10.108

https://192.168.10.108:2379 is healthy: successfully committed proposal: took = 1.373318ms

>>> 192.168.10.109

https://192.168.10.109:2379 is healthy: successfully committed proposal: took = 2.371807ms

>>> 192.168.10.110

https://192.168.10.110:2379 is healthy: successfully committed proposal: took = 1.764309ms

?

05.部署 flannel 網絡

  • kubernetes 要求集群內各節點(包括 master 節點)能通過 Pod 網段互聯互通。flannel 使用 vxlan 技術為各節點創建一個可以互通的 Pod 網絡,使用的端口為 UDP 8472,需要開放該端口(如公有云 AWS 等)。
  • flannel 第一次啟動時,從 etcd 獲取 Pod 網段信息,為本節點分配一個未使用的 /24段地址,然后創建 flannel.1 (也可能是其它名稱,如 flannel1 等) 接口。
  • flannel 將分配的 Pod 網段信息寫入 /run/flannel/docker 文件,docker 后續使用這個文件中的環境變量設置 docker0 網橋。

?

05-01.下載flanneld 二進制文件

到 https://github.com/coreos/flannel/releases 頁面下載最新版本的發布包:

[root@kube-master ~]# wget https://github.com/coreos/flannel/releases/download/v0.10.0/flannel-v0.10.0-linux-amd64.tar.gz

[root@kube-master ~]# tar -xzvf flannel-v0.10.0-linux-amd64.tar.gz -C flannel

?

05-02.創建 flannel 證書和私鑰

flannel 從 etcd 集群存取網段分配信息,而 etcd 集群啟用了雙向 x509 證書認證,所以需要為 flanneld 生成證書和私鑰。

?

05-02-01 創建證書簽名請求:

[root@kube-master ~]# cd /opt/flannel/cert

cat > flanneld-csr.json <<EOF

{"CN": "flanneld","hosts": [],"key": {"algo": "rsa","size": 2048},"names": [{"C": "CN","ST": "BeiJing","L": "BeiJing","O": "k8s","OU": "4Paradigm"}] }

EOF

該證書只會被 kubectl 當做 client 證書使用,所以 hosts 字段為空;

?

05-02-02 生成證書和私鑰

[root@kube-master cert]# cfssl gencert -ca=/opt/k8s/cert/ca.pem \

-ca-key=/opt/k8s/cert/ca-key.pem \

-config=/opt/k8s/cert/ca-config.json \

-profile=kubernetes flanneld-csr.json | cfssljson -bare flanneld

[root@kube-master cert]# ls

flanneld.csr flanneld-csr.json flanneld-key.pem flanneld.pemls flanneld*pem

?

05-02-03 將flanneld 二進制文件he1生成的證書和私鑰分發到所有節點

cat > /opt/k8s/script/scp_flannel.sh <<EOF

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"scp /root/flannel/{flanneld,mk-docker-opts.sh} k8s@${node_ip}:/opt/k8s/bin/ssh k8s@${node_ip} "chmod +x /opt/k8s/bin/*"ssh root@${node_ip} "mkdir -p /opt/flannel/cert && chown -R k8s /opt/flannel"scp /opt/flannel/cert/flanneld*.pem k8s@${node_ip}:/opt/flannel/cert done

EOF

?

05-03.向etcd 寫入集群Pod 網段信息

注意:本步驟只需執行一次。

[root@kube-master ~]# etcdctl \

--endpoints="https://192.168.10.108:2379,https://192.168.10.109:2379,https://192.168.10.110:2379" \

--ca-file=/opt/k8s/cert/ca.pem \

--cert-file=/opt/flannel/cert/flanneld.pem \

--key-file=/opt/flannel/cert/flanneld-key.pem \

set /atomic.io/network/config '{"Network":"10.30.0.0/16","SubnetLen": 24, "Backend": {"Type": "vxlan"}}'

{"Network":"10.30.0.0/16","SubnetLen": 24, "Backend": {"Type": "vxlan"}}

注:

  • flanneld 當前版本 (v0.10.0) 不支持 etcd v3,故使用 etcd v2 API 寫入配置 key 和網段數據;
  • 寫入的 Pod 網段 "Network" 必須是 /16 段地址,必須與kube-controller-manager 的 --cluster-cidr 參數值一致;

?

05-04.創建 flanneld 的 systemd unit 文件

[root@kube-master ~]# cat > /opt/flannel/flanneld.service << EOF

[Unit] Description=Flanneld overlay address etcd agent After=network.target After=network-online.target Wants=network-online.target After=etcd.service Before=docker.service[Service] Type=notify ExecStart=/opt/k8s/bin/flanneld \ -etcd-cafile=/opt/k8s/cert/ca.pem \ -etcd-certfile=/opt/flannel/cert/flanneld.pem \ -etcd-keyfile=/opt/flannel/cert/flanneld-key.pem \ -etcd-endpoints=https://192.168.10.108:2379,https://192.168.10.109:2379,https://192.168.10.110:2379 \ -etcd-prefix=/atomic.io/network \ -iface=eth1 ExecStartPost=/opt/k8s/bin/mk-docker-opts.sh -k DOCKER_NETWORK_OPTIONS -d /run/flannel/docker Restart=on-failure[Install] WantedBy=multi-user.target RequiredBy=docker.service

?注:

  • mk-docker-opts.sh 腳本將分配給 flanneld 的 Pod 子網網段信息寫入/run/flannel/docker 文件,后續 docker 啟動時使用這個文件中的環境變量配置 docker0 網橋;
  • flanneld 使用系統缺省路由所在的接口與其它節點通信,對于有多個網絡接口(如內網和公網)的節點,可以用 -iface 參數指定通信接口,如上面的 eth1 接口;
  • flanneld 運行時需要 root 權限;

?

05-05.分發flanneld systemd unit 文件到所有節點,啟動并檢查flanneld 服務

[root@kube-master ~]# vim /opt/k8s/script/flanneld_service.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"#分發 flanneld systemd unit 文件到所有節點scp /opt/flannel/flanneld.service root@${node_ip}:/etc/systemd/system/#啟動 flanneld 服務ssh root@${node_ip} "systemctl daemon-reload && systemctl enable flanneld && systemctl restart flanneld"#檢查啟動結果ssh k8s@${node_ip} "systemctl status flanneld|grep Active" done

?[root@kube-master ~]# chmod +x /opt/k8s/script/flanneld_service.sh && /opt/k8s/script/flanneld_service.sh

注:確保狀態為 active (running) ,否則查看日志,確認原因:

$ journalctl -u flanneld

?

05-06.檢查分配給各 flanneld 的 Pod 網段信息

05-06-01 查看集群 Pod 網段(/16)

[root@kube-master ~]# etcdctl \

--endpoints="https://192.168.10.108:2379,https://192.168.10.109:2379,https://192.168.10.110:2379" \

--ca-file=/opt/k8s/cert/ca.pem \

--cert-file=/opt/flannel/cert/flanneld.pem \

--key-file=/opt/flannel/cert/flanneld-key.pem \

get /atomic.io/network/config

?

輸出:

{"Network":"10.30.0.0/16","SubnetLen": 24, "Backend": {"Type": "vxlan"}}

?

05-06-02 查看已分配的 Pod 子網段列表(/24)

[root@kube-master ~]# etcdctl \

--endpoints="https://192.168.10.108:2379,https://192.168.10.109:2379,https://192.168.10.110:2379" \

--ca-file=/opt/k8s/cert/ca.pem \

--cert-file=/opt/flannel/cert/flanneld.pem \

--key-file=/opt/flannel/cert/flanneld-key.pem \

ls /atomic.io/network/subnets

?

輸出:

/atomic.io/network/subnets/10.30.22.0-24

/atomic.io/network/subnets/10.30.33.0-24

/atomic.io/network/subnets/10.30.44.0-24

?

05-06-03 查看某一 Pod 網段對應的節點 IP 和 flannel 接口地址

[root@kube-master ~]# etcdctl \

--endpoints="https://192.168.10.108:2379,https://192.168.10.109:2379,https://192.168.10.110:2379" \

--ca-file=/opt/k8s/cert/ca.pem \

--cert-file=/opt/flannel/cert/flanneld.pem \

--key-file=/opt/flannel/cert/flanneld-key.pem \

get /atomic.io/network/subnets/10.30.22.0-24

?

輸出:

{"PublicIP":"192.168.10.108","BackendType":"vxlan","BackendData":{"VtepMAC":"fe:20:82:76:fc:25"}}

?

05-06-04 驗證各節點能通過 Pod 網段互通

[root@kube-master ~]# vim /opt/k8s/script/ping_flanneld.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"#在各節點上部署 flannel 后,檢查是否創建了 flannel 接口(名稱可能為 flannel0、flannel.0、flannel.1 等)ssh ${node_ip} "/usr/sbin/ip addr show flannel.1|grep -w inet"#在各節點上 ping 所有 flannel 接口 IP,確保能通ssh ${node_ip} "ping -c 1 10.30.22.0"ssh ${node_ip} "ping -c 1 10.30.33.0"ssh ${node_ip} "ping -c 1 10.30.44.0" done

[root@kube-master ~]# chmod +x /opt/k8s/script/ping_flanneld.sh && /opt/k8s/script/ping_flanneld.sh

?

06.部署 master 節點

① kubernetes master 節點運行如下組件:

  • kube-apiserver
  • kube-scheduler
  • kube-controller-manager

② kube-scheduler 和 kube-controller-manager 可以以集群模式運行,通過 leader 選舉產生一個工作進程,其它進程處于阻塞模式。

③ 對于 kube-apiserver,可以運行多個實例(本文檔是 3 實例),但對其它組件需要提供統一的訪問地址,該地址需要高可用。本文檔使用 keepalived 和 haproxy 實現 kube-apiserver VIP 高可用和負載均衡。

④ 因為對master做了keepalived高可用,所以3臺服務器都有可能會升成master服務器(主master宕機,會有從升級為主);因此所有的master操作,在3個服務器上都要進行。

?

1、下載最新版本的二進制文件

從CHANGELOG?頁面 下載 server tarball 文件。這2個包下載也需要***。

[root@kube-master ~]# wget https://dl.k8s.io/v1.10.4/kubernetes-server-linux-amd64.tar.gz

[root@kube-master ~]# tar -xzvf kubernetes-server-linux-amd64.tar.gz

[root@kube-master ~]# cd kubernetes/

[root@kube-master kubernetes]# tar -xzvf kubernetes-src.tar.gz

?

2、將二進制文件拷貝到所有 master 節點

[root@kube-master ~]# vim /opt/k8s/script/scp_master.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"scp /root/kubernetes/server/bin/* k8s@${node_ip}:/opt/k8s/bin/ssh k8s@${node_ip} "chmod +x /opt/k8s/bin/*" done

[root@kube-master ~]# chmod +x /opt/k8s/script/scp_master.sh && /opt/k8s/script/scp_master.sh

?

06-01.部署高可用組件

① 本文檔講解使用 keepalived 和 haproxy 實現 kube-apiserver 高可用的步驟:

  • keepalived 提供 kube-apiserver 對外服務的 VIP;
  • haproxy 監聽 VIP,后端連接所有 kube-apiserver 實例,提供健康檢查和負載均衡功能;

② 運行 keepalived 和 haproxy 的節點稱為 LB 節點。由于 keepalived 是一主多備運行模式,故至少兩個 LB 節點。

③ 本文檔復用 master 節點的三臺機器,haproxy 監聽的端口(8443) 需要與 kube-apiserver的端口 6443 不同,避免沖突。

④ keepalived 在運行過程中周期檢查本機的 haproxy 進程狀態,如果檢測到 haproxy 進程異常,則觸發重新選主的過程,VIP 將飄移到新選出來的主節點,從而實現 VIP 的高可用。

⑤ 所有組件(如 kubeclt、apiserver、controller-manager、scheduler 等)都通過 VIP 和haproxy 監聽的 8443 端口訪問 kube-apiserver 服務。

?

06-01-01 安裝軟件包,配置haproxy 配置文件

[root@kube-master ~]# yum install -y keepalived haproxy

[root@kube-master ~]# vim /etc/haproxy/haproxy.cfg

[root@kube-master ~]# cat /etc/haproxy/haproxy.cfg

globallog /dev/log local0log /dev/log local1 noticechroot /var/lib/haproxystats socket /var/run/haproxy-admin.sock mode 660 level adminstats timeout 30suser haproxygroup haproxydaemonnbproc 1 defaultslog globaltimeout connect 5000timeout client 10mtimeout server 10m listen admin_statsbind 0.0.0.0:10080mode httplog 127.0.0.1 local0 errstats refresh 30sstats uri /statusstats realm welcome login\ Haproxystats auth along:along123stats hide-versionstats admin if TRUE listen kube-masterbind 0.0.0.0:8443mode tcpoption tcplogbalance sourceserver 192.168.10.108 192.168.10.108:6443 check inter 2000 fall 2 rise 2 weight 1server 192.168.10.109 192.168.10.109:6443 check inter 2000 fall 2 rise 2 weight 1server 192.168.10.110 192.168.10.110:6443 check inter 2000 fall 2 rise 2 weight 1

注:

  • haproxy 在 10080 端口輸出 status 信息;
  • haproxy 監聽所有接口的 8443 端口,該端口與環境變量 ${KUBE_APISERVER} 指定的端口必須一致;
  • server 字段列出所有kube-apiserver監聽的 IP 和端口;

?

06-01-02 在其他服務器安裝、下發haproxy 配置文件;并啟動檢查haproxy服務

[root@kube-master ~]# vim /opt/k8s/script/haproxy.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"#安裝haproxyssh root@${node_ip} "yum install -y keepalived haproxy"#下發配置文件scp /etc/haproxy/haproxy.cfg root@${node_ip}:/etc/haproxy#啟動檢查haproxy服務ssh root@${node_ip} "systemctl restart haproxy"ssh root@${node_ip} "systemctl enable haproxy.service"ssh root@${node_ip} "systemctl status haproxy|grep Active"#檢查 haproxy 是否監聽6443 端口ssh root@${node_ip} "netstat -lnpt|grep haproxy" done

[root@kube-master ~]# chmod +x /opt/k8s/script/haproxy.sh && /opt/k8s/script/haproxy.sh

確保輸出類似于:

tcp 0 0 0.0.0.0:8443 0.0.0.0:* LISTEN 5351/haproxy

tcp 0 0 0.0.0.0:10080 0.0.0.0:* LISTEN 5351/haproxy

?

06-01-03 配置和啟動 keepalived 服務

keepalived 是一主(master)多備(backup)運行模式,故有兩種類型的配置文件。

master 配置文件只有一份,backup 配置文件視節點數目而定,對于本文檔而言,規劃如下:

  • master: 192.168.10.108
  • backup:192.168.10.109、192.168.10.110

?

(1)在192.168.10.108 master服務;配置文件:

[root@kube-master ~]# vim /etc/keepalived/keepalived.conf

global_defs {router_id keepalived_hap } vrrp_script check-haproxy {script "killall -0 haproxy"interval 5weight -30 } vrrp_instance VI-kube-master {state MASTERpriority 120dont_track_primaryinterface eth1virtual_router_id 68advert_int 3track_script {check-haproxy}virtual_ipaddress {192.168.10.10} }

注:

  • 我的VIP 所在的接口nterface 為 eth1;根據自己的情況改變
  • 使用 killall -0 haproxy 命令檢查所在節點的 haproxy 進程是否正常。如果異常則將權重減少(-30),從而觸發重新選主過程;
  • router_id、virtual_router_id 用于標識屬于該 HA 的 keepalived 實例,如果有多套keepalived HA,則必須各不相同;

?

(2)在兩臺backup 服務;配置文件:

[root@kube-node1 ~]# vim /etc/keepalived/keepalived.conf

global_defs {router_id keepalived_hap } vrrp_script check-haproxy {script "killall -0 haproxy"interval 5weight -30 } vrrp_instance VI-kube-master {state BACKUPpriority 110 #第2臺從為100dont_track_primaryinterface eth1virtual_router_id 68advert_int 3track_script {check-haproxy}virtual_ipaddress {192.168.10.10} }

?注:

  • 我的VIP 所在的接口nterface 為 eth1;根據自己的情況改變
  • 使用 killall -0 haproxy 命令檢查所在節點的 haproxy 進程是否正常。如果異常則將權重減少(-30),從而觸發重新選主過程;
  • router_id、virtual_router_id 用于標識屬于該 HA 的 keepalived 實例,如果有多套keepalived HA,則必須各不相同;
  • priority 的值必須小于 master 的值;兩個從的值也需要不一樣;

?

(3)開啟keepalived 服務

[root@kube-master ~]# vim /opt/k8s/script/keepalived.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") VIP="192.168.10.10" for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"ssh root@${node_ip} "systemctl restart keepalived && systemctl enable keepalived"ssh root@${node_ip} "systemctl status keepalived|grep Active"ssh ${node_ip} "ping -c 1 ${VIP}" done

[root@kube-master ~]# chmod +x /opt/k8s/script/keepalived.sh && /opt/k8s/script/keepalived.sh

?

(4)在master服務器上能看到eth1網卡上已經有192.168.10.10 VIP了

[root@kube-master ~]# ip a show eth1

3: eth1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1500 qdisc pfifo_fast state UP qlen 1000

????link/ether 00:50:56:22:1b:39 brd ff:ff:ff:ff:ff:ff

????inet 192.168.10.108/24 brd 192.168.10.255 scope global eth1

???????valid_lft forever preferred_lft forever

????inet 192.168.10.10/32 scope global eth1

???????valid_lft forever preferred_lft forever

?

06-01-04 查看 haproxy 狀態頁面

瀏覽器訪問192.168.10.10:10080/status 地址

① 輸入用戶名、密碼;在配置文件中自己定義的

② 查看 haproxy 狀態頁面

?

06-02.部署 kube-apiserver 組件

本文檔講解使用 keepalived 和 haproxy 部署一個 3 節點高可用 master 集群的步驟,對應的 LB VIP 為環境變量 ${MASTER_VIP}。

準備工作:下載最新版本的二進制文件、安裝和配置 flanneld

?

06-02-01 創建 kubernetes 證書和私鑰

(1)創建證書簽名請求:

[root@kube-master ~]# cd /opt/k8s/cert/

[root@kube-master cert]# cat > kubernetes-csr.json <<EOF

{"CN": "kubernetes","hosts": ["127.0.0.1","192.168.10.108","192.168.10.109","192.168.10.110","192.168.10.10","10.96.0.1","kubernetes","kubernetes.default","kubernetes.default.svc","kubernetes.default.svc.cluster","kubernetes.default.svc.cluster.local"],"key": {"algo": "rsa","size": 2048},"names": [{"C": "CN","ST": "BeiJing","L": "BeiJing","O": "k8s","OU": "4Paradigm"}] }

EOF

注:

  • hosts 字段指定授權使用該證書的 IP 或域名列表,這里列出了 VIP 、apiserver節點 IP、kubernetes 服務 IP 和域名;
  • 域名最后字符不能是 . (如不能為kubernetes.default.svc.cluster.local. ),否則解析時失敗,提示: x509:cannot parse dnsName "kubernetes.default.svc.cluster.local." ;
  • 如果使用非 cluster.local 域名,如 opsnull.com ,則需要修改域名列表中的最后兩個域名為: kubernetes.default.svc.opsnull 、 kubernetes.default.svc.opsnull.com
  • kubernetes 服務 IP 是 apiserver 自動創建的,一般是 --service-cluster-ip-range 參數指定的網段的第一個IP,后續可以通過如下命令獲取:

[root@kube-master ~]# kubectl get svc kubernetes

NAME? ? ? ? ? TYPE? ? ? ? ?CLUSTER-IP ??EXTERNAL-IP ??PORT(S) ??AGE

kubernetes ??ClusterIP ??10.96.0.1? ? ? ? ? <none>? ? ? ? ? ? ? 443/TCP ??4d

?

(2)生成證書和私鑰

[root@kube-master cert]# cfssl gencert -ca=/opt/k8s/cert/ca.pem \

-ca-key=/opt/k8s/cert/ca-key.pem \

-config=/opt/k8s/cert/ca-config.json \

-profile=kubernetes kubernetes-csr.json | cfssljson -bare kubernetes

?

[root@kube-master cert]# ls kubernetes*

kubernetes.csr kubernetes-csr.json kubernetes-key.pem kubernetes.pem

?

06-02-02 創建加密配置文件

① 產生一個用來加密Etcd 的 Key:

[root@kube-master ~]# head -c 32 /dev/urandom | base64

uS+YQXYoi1nxvI1pfSc2wRt64h/Iu5/4GxCuSvN+/jI=

注意:每臺master節點需要用一樣的 Key

?

② 使用這個加密的key,創建加密配置文件

[root@kube-master cert]# vim encryption-config.yaml

kind: EncryptionConfig apiVersion: v1 resources:- resources:- secretsproviders:- aescbc:keys:- name: key1secret: uS+YQXYoi1nxvI1pfSc2wRt64h/Iu5/4GxCuSvN+/jI=- identity: {}

?

06-02-03 將生成的證書和私鑰文件、加密配置文件拷貝到master 節點的/opt/k8s目錄下

[root@kube-master cert]# vim /opt/k8s/script/scp_apiserver.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"ssh root@${node_ip} "mkdir -p /opt/k8s/cert/ && sudo chown -R k8s /opt/k8s/cert/"scp /opt/k8s/cert/kubernetes*.pem k8s@${node_ip}:/opt/k8s/cert/scp /opt/k8s/cert/encryption-config.yaml root@${node_ip}:/opt/k8s/ done?

[root@kube-master cert]# chmod +x /opt/k8s/script/scp_apiserver.sh && /opt/k8s/script/scp_apiserver.sh

?

06-02-04 創建 kube-apiserver systemd unit 模板文件

cat > /opt/apiserver/kube-apiserver.service.template <<EOF

[Unit] Description=Kubernetes API Server Documentation=https://github.com/GoogleCloudPlatform/kubernetes After=network.target[Service] ExecStart=/opt/k8s/bin/kube-apiserver \ --enable-admission-plugins=Initializers,NamespaceLifecycle,NodeRestriction,LimitRanger,ServiceAccount,DefaultStorageClass,ResourceQuota \ --anonymous-auth=false \ --experimental-encryption-provider-config=/opt/k8s/encryption-config.yaml \ --advertise-address=##NODE_IP## \ --bind-address=##NODE_IP## \ --insecure-port=0 \ --authorization-mode=Node,RBAC \ --runtime-config=api/all \ --enable-bootstrap-token-auth \ --service-cluster-ip-range=10.96.0.0/16 \ --service-node-port-range=1-32767 \ --tls-cert-file=/opt/k8s/cert/kubernetes.pem \ --tls-private-key-file=/opt/k8s/cert/kubernetes-key.pem \ --client-ca-file=/opt/k8s/cert/ca.pem \ --kubelet-client-certificate=/opt/k8s/cert/kubernetes.pem \ --kubelet-client-key=/opt/k8s/cert/kubernetes-key.pem \ --service-account-key-file=/opt/k8s/cert/ca-key.pem \ --etcd-cafile=/opt/k8s/cert/ca.pem \ --etcd-certfile=/opt/k8s/cert/kubernetes.pem \ --etcd-keyfile=/opt/k8s/cert/kubernetes-key.pem \ --etcd-servers=https://192.168.10.108:2379,https://192.168.10.109:2379,https://192.168.10.110:2379 \ --enable-swagger-ui=true \ --allow-privileged=true \ --apiserver-count=3 \ --audit-log-maxage=30 \ --audit-log-maxbackup=3 \ --audit-log-maxsize=100 \ --audit-log-path=/var/log/kube-apiserver-audit.log \ --event-ttl=1h \ --alsologtostderr=true \ --logtostderr=false \ --log-dir=/opt/log/kubernetes \ --v=2 Restart=on-failure RestartSec=5 Type=notify User=k8s LimitNOFILE=65536[Install] WantedBy=multi-user.target

EOF

注:

  • --experimental-encryption-provider-config :啟用加密特性;
  • --authorization-mode=Node,RBAC : 開啟 Node 和 RBAC 授權模式,拒絕未授權的請求;
  • --enable-admission-plugins :啟用 ServiceAccount 和NodeRestriction ;
  • --service-account-key-file :簽名 ServiceAccount Token 的公鑰文件,kube-controller-manager 的 --service-account-private-key-file 指定私鑰文件,兩者配對使用;
  • --tls-*-file :指定 apiserver 使用的證書、私鑰和 CA 文件。 --client-ca-file 用于驗證 client (kue-controller-manager、kube-scheduler、kubelet、kube-proxy 等)請求所帶的證書;
  • --kubelet-client-certificate 、 --kubelet-client-key :如果指定,則使用 https 訪問 kubelet APIs;需要為證書對應的用戶(上面 kubernetes*.pem 證書的用戶為 kubernetes) 用戶定義 RBAC 規則,否則訪問 kubelet API 時提示未授權;
  • --bind-address : 不能為 127.0.0.1 ,否則外界不能訪問它的安全端口6443;
  • --insecure-port=0 :關閉監聽非安全端口(8080);
  • --service-cluster-ip-range : 指定 Service Cluster IP 地址段;
  • --service-node-port-range : 指定 NodePort 的端口范圍;
  • --runtime-config=api/all=true : 啟用所有版本的 APIs,如autoscaling/v2alpha1;
  • --enable-bootstrap-token-auth :啟用 kubelet bootstrap 的 token 認證;
  • --apiserver-count=3 :指定集群運行模式,多臺 kube-apiserver 會通過 leader選舉產生一個工作節點,其它節點處于阻塞狀態;
  • User=k8s :使用 k8s 賬戶運行;

?

06-02-05 為各節點創建和分發 kube-apiserver systemd unit文件;啟動檢查 kube-apiserver 服務

[root@kube-master ~]# vim /opt/k8s/script/apiserver_service.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") #替換模板文件中的變量,為各節點創建 systemd unit 文件 for (( i=0; i < 3; i++ ));dosed "s/##NODE_IP##/${NODE_IPS[i]}/" /opt/apiserver/kube-apiserver.service.template > /opt/apiserver/kube-apiserver-${NODE_IPS[i]}.service done #啟動并檢查 kube-apiserver 服務 for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"ssh root@${node_ip} "mkdir -p /opt/log/kubernetes && chown -R k8s /opt/log/kubernetes"scp /opt/apiserver/kube-apiserver-${node_ip}.service root@${node_ip}:/etc/systemd/system/kube-apiserver.servicessh root@${node_ip} "systemctl daemon-reload && systemctl enable kube-apiserver && systemctl restart kube-apiserver"ssh root@${node_ip} "systemctl status kube-apiserver |grep 'Active:'" done

[root@kube-master ~]# chmod +x /opt/k8s/script/apiserver_service.sh && /opt/k8s/script/apiserver_service.sh

確保狀態為 active (running) ,否則到 master 節點查看日志,確認原因:

journalctl -u kube-apiserver

?

06-02-06 打印 kube-apiserver 寫入 etcd 的數據

[root@kube-master ~]# ETCDCTL_API=3 etcdctl \

--endpoints="https://192.168.10.108:2379,https://192.168.10.109:2379,https://192.168.10.110:2379" \

--cacert=/opt/k8s/cert/ca.pem \

--cert=/opt/etcd/cert/etcd.pem \

--key=/opt/etcd/cert/etcd-key.pem \

get /registry/ --prefix --keys-only

?

06-02-07 檢查集群信息

[root@kube-master ~]# kubectl cluster-info

Kubernetes master is running at https://192.168.10.108:6443

To further debug and diagnose cluster problems, use 'kubectl cluster-info dump'.

?

[root@kube-master ~]# kubectl get all --all-namespaces

NAMESPACE  NAME       TYPE   CLUSTER-IP  EXTERNAL-IP? PORT(S)? AGE

default     service/kubernetes? ? ClusterIP? 10.96.0.1    <none>    ? 443/TCP? 16h

?

[root@kube-master ~]# kubectl get componentstatuses

NAME    ? ?STATUS? ? ? ? ? MESSAGE ERROR

scheduler   ?Unhealthy? ? ? ? Get http://127.0.0.1:10251/healthz: dial tcp 127.0.0.1:10251: getsockopt: connection refused

controller-manager Unhealthy? Get http://127.0.0.1:10252/healthz: dial tcp 127.0.0.1:10252: getsockopt: connection refused

etcd-1     Healthy {"health":"true"}

etcd-2     Healthy {"health":"true"}

etcd-0     Healthy {"health":"true"}

?

注意:

① 如果執行 kubectl 命令式時輸出如下錯誤信息,則說明使用的 ~/.kube/config文件不對,請切換到正確的賬戶后再執行該命令:

The connection to the server localhost:8080 was refused - did you specify the right host or port?

② 執行 kubectl get componentstatuses 命令時,apiserver 默認向 127.0.0.1 發送請求。當controller-manager、scheduler 以集群模式運行時,有可能和 kube-apiserver 不在一臺機器上,這時 controller-manager 或 scheduler 的狀態為Unhealthy,但實際上它們工作正常。

?

06-02-08 檢查 kube-apiserver 監聽的端口

[root@kube-master ~]# ss -nutlp |grep apiserver

tcp? ?LISTEN? ?0? ?128? ?192.168.10.108:6443? ?*:*? ?users:(("kubeapiserver",pid=929,fd=5))

  • 6443: 接收 https 請求的安全端口,對所有請求做認證和授權;
  • 由于關閉了非安全端口,故沒有監聽 8080;

?

06-02-09 授予 kubernetes 證書訪問 kubelet API 的權限

在執行 kubectl exec、run、logs 等命令時,apiserver 會轉發到 kubelet。這里定義RBAC 規則,授權 apiserver 調用 kubelet API。

[root@kube-master ~]# kubectl create clusterrolebinding kube-apiserver:kubelet-apis --clusterrole=system:kubelet-api-admin --user kubernetes

clusterrolebinding.rbac.authorization.k8s.io "kube-apiserver:kubelet-apis" created

?

06-03.部署高可用kube-controller-manager 集群

  本文檔介紹部署高可用 kube-controller-manager 集群的步驟。

  該集群包含 3 個節點,啟動后將通過競爭選舉機制產生一個 leader 節點,其它節點為阻塞狀態。當 leader 節點不可用后,剩余節點將再次進行選舉產生新的 leader 節點,從而保證服務的可用性。

  為保證通信安全,本文檔先生成 x509 證書和私鑰,kube-controller-manager 在如下兩種情況下使用該證書:

① 與 kube-apiserver 的安全端口通信時;

② 在安全端口(https,10252) 輸出 prometheus 格式的 metrics;

準備工作:下載最新版本的二進制文件、安裝和配置 flanneld

?

06-03-01 創建 kube-controller-manager 證書和私鑰

創建證書簽名請求:

[root@kube-master ~]# cd /opt/k8s/cert/

[root@kube-master cert]# cat > kube-controller-manager-csr.json <<EOF

{"CN": "system:kube-controller-manager","key": {"algo": "rsa","size": 2048},"hosts": ["127.0.0.1","192.168.10.108","192.168.10.109","192.168.10.110"],"names": [{"C": "CN","ST": "BeiJing","L": "BeiJing","O": "system:kube-controller-manager","OU": "4Paradigm"}] }

EOF

注:

  • hosts 列表包含所有 kube-controller-manager 節點 IP;
  • CN 為 system:kube-controller-manager、O 為 system:kube-controller-manager,kubernetes 內置的 ClusterRoleBindings system:kube-controller-manager 賦予kube-controller-manager 工作所需的權限。

?

06-03-02 生成證書和私鑰

[root@kube-master cert]# cfssl gencert -ca=/opt/k8s/cert/ca.pem \

-ca-key=/opt/k8s/cert/ca-key.pem \

-config=/opt/k8s/cert/ca-config.json \

-profile=kubernetes kube-controller-manager-csr.json | cfssljson_linux-amd64 -bare kube-controller-manager

?

[root@kube-master cert]# ls *controller-manager*

kube-controller-manager.csr   ? kube-controller-manager-key.pem

kube-controller-manager-csr.json? ?kube-controller-manager.pem

?

06-03-03 創建kubeconfig 文件

kubeconfig 文件包含訪問 apiserver 的所有信息,如 apiserver 地址、CA 證書和自身使用的證書;

① 執行命令,生產kube-controller-manager.kubeconfig文件

[root@kube-master ~]# kubectl config set-cluster kubernetes \

--certificate-authority=/opt/k8s/cert/ca.pem \

--embed-certs=true \

--server=https://192.168.10.10:8443 \

--kubeconfig=/root/.kube/kube-controller-manager.kubeconfig

?

[root@kube-master ~]# kubectl config set-credentials system:kube-controller-manager \

--client-certificate=/opt/k8s/cert/kube-controller-manager.pem \

--client-key=/opt/k8s/cert/kube-controller-manager-key.pem \

--embed-certs=true \

--kubeconfig=/root/.kube/kube-controller-manager.kubeconfig

?

[root@kube-master ~]# kubectl config set-context system:kube-controller-manager@kubernetes \

--cluster=kubernetes \

--user=system:kube-controller-manager \

--kubeconfig=/root/.kube/kube-controller-manager.kubeconfig

?

[root@kube-master ~]# kubectl config use-context system:kube-controller-manager@kubernetes --kubeconfig=/root/.kube/kube-controller-manager.kubeconfig

?

② 驗證kube-controller-manager.kubeconfig文件

[root@kube-master cert]# ls /root/.kube/kube-controller-manager.kubeconfig

/root/.kube/kube-controller-manager.kubeconfig

[root@kube-master ~]# kubectl config view --kubeconfig=/root/.kube/kube-controller-manager.kubeconfig

apiVersion: v1 clusters: - cluster:certificate-authority-data: REDACTEDserver: https://192.168.10.10:8443name: kubernetes contexts: - context:cluster: kubernetesuser: system:kube-controller-managername: system:kube-controller-manager@kubernetes current-context: system:kube-controller-manager@kubernetes kind: Config preferences: {} users: - name: system:kube-controller-manageruser:client-certificate-data: REDACTEDclient-key-data: REDACTED

?

06-03-04 分發生成的證書和私鑰、kubeconfig 到所有 master 節點

[root@kube-master ~]# vim /opt/k8s/script/scp_controller_manager.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"ssh root@${node_ip} "chown k8s /opt/k8s/cert/*"scp /opt/k8s/cert/kube-controller-manager*.pem k8s@${node_ip}:/opt/k8s/cert/scp /root/.kube/kube-controller-manager.kubeconfig k8s@${node_ip}:/opt/k8s/ done

[root@kube-master ~]# chmod +x /opt/k8s/script/scp_controller_manager.sh && /opt/k8s/script/scp_controller_manager.sh

?

06-03-05 創建和分發 kube-controller-manager systemd unit 文件

[root@kube-master ~]# mkdir /opt/controller_manager

[root@kube-master ~]# cd /opt/controller_manager

[root@kube-master controller_manager]# cat > kube-controller-manager.service <<EOF

[Unit] Description=Kubernetes Controller Manager Documentation=https://github.com/GoogleCloudPlatform/kubernetes[Service] ExecStart=/opt/k8s/bin/kube-controller-manager \ --port=0 \ --secure-port=10252 \ --bind-address=127.0.0.1 \ --kubeconfig=/opt/k8s/kube-controller-manager.kubeconfig \ --service-cluster-ip-range=10.96.0.0/16 \ --cluster-name=kubernetes \ --cluster-signing-cert-file=/opt/k8s/cert/ca.pem \ --cluster-signing-key-file=/opt/k8s/cert/ca-key.pem \ --experimental-cluster-signing-duration=8760h \ --root-ca-file=/opt/k8s/cert/ca.pem \ --service-account-private-key-file=/opt/k8s/cert/ca-key.pem \ --leader-elect=true \ --feature-gates=RotateKubeletServerCertificate=true \ --controllers=*,bootstrapsigner,tokencleaner \ --horizontal-pod-autoscaler-use-rest-clients=true \ --horizontal-pod-autoscaler-sync-period=10s \ --tls-cert-file=/opt/k8s/cert/kube-controller-manager.pem \ --tls-private-key-file=/opt/k8s/cert/kube-controller-manager-key.pem \ --use-service-account-credentials=true \ --alsologtostderr=true \ --logtostderr=false \ --log-dir=/var/log/kubernetes \ --v=2 Restart=on Restart=on-failure RestartSec=5 User=k8s[Install] WantedBy=multi-user.target

注:

  • --port=0:關閉監聽 http /metrics 的請求,同時?--address?參數無效,--bind-address?參數有效;
  • --secure-port=10252、--bind-address=0.0.0.0: 在所有網絡接口監聽 10252 端口的 https /metrics 請求;
  • --kubeconfig:指定 kubeconfig 文件路徑,kube-controller-manager 使用它連接和驗證 kube-apiserver;
  • --cluster-signing-*-file:簽名 TLS Bootstrap 創建的證書;
  • --experimental-cluster-signing-duration:指定 TLS Bootstrap 證書的有效期;
  • --root-ca-file:放置到容器 ServiceAccount 中的 CA 證書,用來對 kube-apiserver 的證書進行校驗;
  • --service-account-private-key-file:簽名 ServiceAccount 中 Token 的私鑰文件,必須和 kube-apiserver 的?--service-account-key-file?指定的公鑰文件配對使用;
  • --service-cluster-ip-range?:指定 Service Cluster IP 網段,必須和 kube-apiserver 中的同名參數一致;
  • --leader-elect=true:集群運行模式,啟用選舉功能;被選為 leader 的節點負責處理工作,其它節點為阻塞狀態;
  • --feature-gates=RotateKubeletServerCertificate=true:開啟 kublet server 證書的自動更新特性;
  • --controllers=*,bootstrapsigner,tokencleaner:啟用的控制器列表,tokencleaner 用于自動清理過期的 Bootstrap token;
  • --horizontal-pod-autoscaler-*:custom metrics 相關參數,支持 autoscaling/v2alpha1;
  • --tls-cert-file、--tls-private-key-file:使用 https 輸出 metrics 時使用的 Server 證書和秘鑰;
  • --use-service-account-credentials=true:
  • User=k8s:使用 k8s 賬戶運行;

kube-controller-manager 不對請求 https metrics 的 Client 證書進行校驗,故不需要指定?--tls-ca-file?參數,而且該參數已被淘汰。

?

06-03-06 kube-controller-manager 的權限

  ClusteRole: system:kube-controller-manager 的權限很小,只能創建 secret、serviceaccount 等資源對象,各 controller 的權限分散到 ClusterRole system:controller:XXX 中。

  需要在 kube-controller-manager 的啟動參數中添加?--use-service-account-credentials=true?參數,這樣 main controller 會為各 controller 創建對應的 ServiceAccount XXX-controller。

  內置的 ClusterRoleBinding system:controller:XXX 將賦予各 XXX-controller ServiceAccount 對應的 ClusterRole system:controller:XXX 權限。

?

06-03-07 分發systemd unit 文件到所有master 節點;啟動檢查 kube-controller-manager 服務

[root@kube-master ~]# vim /opt/k8s/script/controller_manager.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"scp /opt/controller_manager/kube-controller-manager.service root@${node_ip}:/etc/systemd/system/ssh root@${node_ip} "mkdir -p /opt/log/kubernetes && chown -R k8s /opt/log/kubernetes"ssh root@${node_ip} "systemctl daemon-reload && systemctl enable kube-controller-manager && systemctl start kube-controller-manager" donefor node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"ssh k8s@${node_ip} "systemctl status kube-controller-manager|grep Active" done

[root@kube-master ~]# chmod +x /opt/k8s/script/controller_manager.sh && /opt/k8s/script/controller_manager.sh

?

06-03-08 查看輸出的 metric

注意:以下命令在 kube-controller-manager 節點上執行。

[root@kube-master ~]# ss -nutlp |grep kube-controll

tcp LISTEN 0 128 127.0.0.1:10252 *:* users:(("kube-controller",pid=6532,fd=5))

?

[root@kube-master ~]# curl -s --cacert /opt/k8s/cert/ca.pem https://127.0.0.1:10252/metrics |head

# HELP ClusterRoleAggregator_adds Total number of adds handled by workqueue: ClusterRoleAggregator

# TYPE ClusterRoleAggregator_adds counter

ClusterRoleAggregator_adds 6

# HELP ClusterRoleAggregator_depth Current depth of workqueue: ClusterRoleAggregator

# TYPE ClusterRoleAggregator_depth gauge

ClusterRoleAggregator_depth 0

# HELP ClusterRoleAggregator_queue_latency How long an item stays in workqueueClusterRoleAggregator before being requested.

# TYPE ClusterRoleAggregator_queue_latency summary

ClusterRoleAggregator_queue_latency{quantile="0.5"} 431

ClusterRoleAggregator_queue_latency{quantile="0.9"} 85089

?

注:curl --cacert CA 證書用來驗證 kube-controller-manager https server 證書;

?

06-03-09 測試 kube-controller-manager 集群的高可用

1、停掉一個或兩個節點的 kube-controller-manager 服務,觀察其它節點的日志,看是否獲取了 leader 權限。

?

2、查看當前的 leader

[root@kube-master ~]# kubectl get endpoints kube-controller-manager --namespace=kube-system -o yaml

apiVersion: v1

kind: Endpoints

metadata:

??annotations:

????control-plane.alpha.kubernetes.io/leader: '{"holderIdentity":"kube-master_53bc08b7-f69d-11e8-9e79-0050563ab62b","leaseDurationSeconds":15,"acquireTime":"2018-12-03T01:48:18Z","renewTime":"2018-12-03T01:59:15Z","leaderTransitions":5}'

??creationTimestamp: 2018-11-29T03:12:14Z

??name: kube-controller-manager

??namespace: kube-system

??resourceVersion: "56075"

??selfLink: /api/v1/namespaces/kube-system/endpoints/kube-controller-manager

??uid: 91e64a51-f384-11e8-a392-0050563ab62b

可見,當前的 leader 為 kube-node1 節點。(本來是在kube-master節點)

?

06-04.部署高可用 kube-scheduler 集群

  本文檔介紹部署高可用 kube-scheduler 集群的步驟。

  該集群包含 3 個節點,啟動后將通過競爭選舉機制產生一個 leader 節點,其它節點為阻塞狀態。當 leader 節點不可用后,剩余節點將再次進行選舉產生新的 leader 節點,從而保證服務的可用性。

  為保證通信安全,本文檔先生成 x509 證書和私鑰,kube-scheduler 在如下兩種情況下使用該證書:

① 與 kube-apiserver 的安全端口通信;

② 在安全端口(https,10251) 輸出 prometheus 格式的 metrics;

準備工作:下載最新版本的二進制文件、安裝和配置 flanneld

?

06-04-01 創建 kube-scheduler 證書和私鑰

創建證書簽名請求:

[root@kube-master ~]# cd /opt/k8s/cert/

[root@kube-master cert]# cat > kube-scheduler-csr.json <<EOF

{"CN": "system:kube-scheduler","hosts": ["127.0.0.1","192.168.10.108","192.168.10.109","192.168.10.110"],"key": {"algo": "rsa","size": 2048},"names": [{"C": "CN","ST": "BeiJing","L": "BeiJing","O": "system:kube-scheduler","OU": "4Paradigm"}] }

EOF

注:

  • hosts 列表包含所有?kube-scheduler 節點 IP;
  • CN 為 system:kube-scheduler、O 為 system:kube-scheduler,kubernetes 內置的 ClusterRoleBindings system:kube-scheduler 將賦予 kube-scheduler 工作所需的權限。

?

06-04-02 生成證書和私鑰

[root@kube-master cert]# cfssl gencert -ca=/opt/k8s/cert/ca.pem \

-ca-key=/opt/k8s/cert/ca-key.pem \

-config=/opt/k8s/cert/ca-config.json \ -profile=kubernetes kube-scheduler-csr.json | cfssljson_linux-amd64 -bare kube-scheduler

[root@kube-master cert]# ls *scheduler*

kube-scheduler.csr kube-scheduler-csr.json kube-scheduler-key.pem kube-scheduler.pem

?

06-04-03 創建kubeconfig 文件

kubeconfig 文件包含訪問 apiserver 的所有信息,如 apiserver 地址、CA 證書和自身使用的證書;

① 執行命令,生產kube-scheduler.kubeconfig文件

[root@kube-master ~]# kubectl config set-cluster kubernetes \

--certificate-authority=/opt/k8s/cert/ca.pem \

--embed-certs=true \

--server=https://192.168.10.10:8443 \

--kubeconfig=/root/.kube/kube-scheduler.kubeconfig

?

[root@kube-master ~]# kubectl config set-credentials system:kube-scheduler \

--client-certificate=/opt/k8s/cert/kube-scheduler.pem \

--client-key=/opt/k8s/cert/kube-scheduler-key.pem \

--embed-certs=true \

--kubeconfig=/root/.kube/kube-scheduler.kubeconfig

?

[root@kube-master ~]# kubectl config set-context system:kube-scheduler@kubernetes \

--cluster=kubernetes \

--user=system:kube-scheduler \

--kubeconfig=/root/.kube/kube-scheduler.kubeconfig

?

[root@kube-master ~]# kubectl config use-context system:kube-scheduler@kubernetes --kubeconfig=/root/.kube/kube-scheduler.kubeconfig

?

② 驗證kube-controller-manager.kubeconfig文件

[root@kube-master cert]# ls /root/.kube/kube-scheduler.kubeconfig

/root/.kube/kube-scheduler.kubeconfig

[root@kube-master ~]# kubectl config view --kubeconfig=/root/.kube/kube-scheduler.kubeconfig

apiVersion: v1 clusters: - cluster:certificate-authority-data: REDACTEDserver: https://192.168.10.100:8443name: kubernetes contexts: - context:cluster: kubernetesuser: system:kube-schedulername: system:kube-scheduler@kubernetes current-context: system:kube-scheduler@kubernetes kind: Config preferences: {} users: - name: system:kube-scheduleruser:client-certificate-data: REDACTEDclient-key-data: REDACTED

?

06-04-04 分發生成的證書和私鑰、kubeconfig 到所有 master 節點

[root@kube-master ~]# vim /opt/k8s/script/scp_scheduler.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"ssh root@${node_ip} "chown k8s /opt/k8s/cert/*"scp /opt/k8s/cert/kube-scheduler*.pem k8s@${node_ip}:/opt/k8s/cert/scp /root/.kube/kube-scheduler.kubeconfig k8s@${node_ip}:/opt/k8s/ done

[root@kube-master ~]# chmod +x /opt/k8s/script/scp_scheduler.sh && /opt/k8s/script/scp_scheduler.sh

?

06-04-05 創建kube-scheduler systemd unit 文件

[root@kube-master ~]# mkdir /opt/scheduler

[root@kube-master ~]# cd /opt/scheduler

[root@kube-master scheduler]# cat > kube-scheduler.service <<EOF

[Unit] Description=Kubernetes Scheduler Documentation=https://github.com/GoogleCloudPlatform/kubernetes[Service] ExecStart=/opt/k8s/bin/kube-scheduler \\--address=127.0.0.1 \\--kubeconfig=/etc/kubernetes/kube-scheduler.kubeconfig \\--leader-elect=true \\--alsologtostderr=true \\--logtostderr=false \\--log-dir=/var/log/kubernetes \\--v=2 Restart=on-failure RestartSec=5 User=k8s[Install] WantedBy=multi-user.target

EOF

注:

  • --address:在 127.0.0.1:10251 端口接收 http /metrics 請求;kube-scheduler 目前還不支持接收 https 請求;
  • --kubeconfig:指定 kubeconfig 文件路徑,kube-scheduler 使用它連接和驗證 kube-apiserver;
  • --leader-elect=true:集群運行模式,啟用選舉功能;被選為 leader 的節點負責處理工作,其它節點為阻塞狀態;
  • User=k8s:使用 k8s 賬戶運行;

?

06-04-06 分發systemd unit 文件到所有master 節點;啟動檢查kube-scheduler 服務

[root@kube-master scheduler]# vim /opt/k8s/script/scheduler.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"scp /opt/scheduler/kube-scheduler.service root@${node_ip}:/etc/systemd/system/ssh root@${node_ip} "mkdir -p /opt/log/kubernetes && chown -R k8s /opt/log/kubernetes"ssh root@${node_ip} "systemctl daemon-reload && systemctl enable kube-scheduler && systemctl start kube-scheduler" donefor node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"ssh k8s@${node_ip} "systemctl status kube-scheduler|grep Active" done

[root@kube-master scheduler]# chmod +x /opt/k8s/script/scheduler.sh && /opt/k8s/script/scheduler.sh

確保狀態為?active (running),否則查看日志,確認原因:

journalctl -u kube-scheduler

?

06-04-07 查看輸出的 metric

注意:以下命令在 kube-scheduler 節點上執行。

kube-scheduler 監聽 10251 端口,接收 http 請求:

[root@kube-master ~]# ss -nutlp |grep kube-scheduler

tcp   LISTEN   0   128 127.0.0.1:10251   *:*   users:(("kube-scheduler",pid=14968,fd=8))

[root@kube-master ~]# curl -s http://127.0.0.1:10251/metrics |head

# HELP apiserver_audit_event_total Counter of audit events generated and sent to the audit backend.

# TYPE apiserver_audit_event_total counter

apiserver_audit_event_total 0

# HELP go_gc_duration_seconds A summary of the GC invocation durations.

# TYPE go_gc_duration_seconds summary

go_gc_duration_seconds{quantile="0"} 3.6554e-05

go_gc_duration_seconds{quantile="0.25"} 0.000133804

go_gc_duration_seconds{quantile="0.5"} 0.000203523

go_gc_duration_seconds{quantile="0.75"} 0.000683624

go_gc_duration_seconds{quantile="1"} 0.001188571

?

06-04-08 測試 kube-scheduler 集群的高可用

1、隨便找一個或兩個 master 節點,停掉 kube-scheduler 服務,看其它節點是否獲取了 leader 權限(systemd 日志)。

?

2、查看當前的 leader

[root@kube-master ~]# kubectl get endpoints kube-scheduler --namespace=kube-system -o yaml

apiVersion: v1

kind: Endpoints

metadata:

??annotations:

????control-plane.alpha.kubernetes.io/leader: '{"holderIdentity":"kube-node1_531fab4b-f69d-11e8-ba0a-00505631d257","leaseDurationSeconds":15,"acquireTime":"2018-12-03T01:48:23Z","renewTime":"2018-12-03T02:02:28Z","leaderTransitions":4}'

??creationTimestamp: 2018-11-29T05:50:35Z

??name: kube-scheduler

??namespace: kube-system

??resourceVersion: "56324"

??selfLink: /api/v1/namespaces/kube-system/endpoints/kube-scheduler

??uid: b1435e86-f39a-11e8-a392-0050563ab62b

可見,當前的 leader 為 kube-node2 節點。(本來是在kube-master節點)

?

07.部署 worker 節點

kubernetes work 節點運行如下組件:

  • docker
  • kubelet
  • kube-proxy

1、安裝和配置 flanneld

參考?05.部署 flannel 網絡

?

2、安裝依賴包

CentOS:

$ yum install -y epel-release

$ yum install -y conntrack ipvsadm ipset jq iptables curl sysstat libseccomp && /usr/sbin/modprobe ip_vs

?

Ubuntu:

$ apt-get install -y conntrack ipvsadm ipset jq iptables curl sysstat libseccomp && /usr/sbin/modprobe ip_vs

?

07-01.部署 docker 組件

docker 是容器的運行環境,管理它的生命周期。kubelet 通過 Container Runtime Interface (CRI) 與 docker 進行交互。

07-01-01 下載docker 二進制文件

到?https://download.docker.com/linux/static/stable/x86_64/?頁面下載最新發布包:

wget https://download.docker.com/linux/static/stable/x86_64/docker-18.03.1-ce.tgz tar -xvf docker-18.03.1-ce.tgz

?

07-01-02 創建和分發 systemd unit 文件

[root@kube-master ~]# mkdir /opt/docker

[root@kube-master ~]# cd /opt/

[root@kube-master docker]# cat > docker.service << "EOF"

[Unit] Description=Docker Application Container Engine Documentation=http://docs.docker.io[Service] Environment="PATH=/opt/k8s/bin:/bin:/sbin:/usr/bin:/usr/sbin" EnvironmentFile=-/run/flannel/docker ExecStart=/opt/k8s/bin/dockerd --log-level=error $DOCKER_NETWORK_OPTIONS ExecReload=/bin/kill -s HUP $MAINPID Restart=on-failure RestartSec=5 LimitNOFILE=infinity LimitNPROC=infinity LimitCORE=infinity Delegate=yes KillMode=process[Install] WantedBy=multi-user.target

EOF

  • EOF 前后有雙引號,這樣 bash 不會替換文檔中的變量,如 $DOCKER_NETWORK_OPTIONS;
  • dockerd 運行時會調用其它 docker 命令,如 docker-proxy,所以需要將 docker 命令所在的目錄加到 PATH 環境變量中;
  • flanneld 啟動時將網絡配置寫入?/run/flannel/docker?文件中,dockerd 啟動前讀取該文件中的環境變量?DOCKER_NETWORK_OPTIONS?,然后設置 docker0 網橋網段;
  • 如果指定了多個?EnvironmentFile?選項,則必須將?/run/flannel/docker?放在最后(確保 docker0 使用 flanneld 生成的 bip 參數);
  • docker 需要以 root 用于運行;
  • docker 從 1.13 版本開始,可能將?iptables FORWARD chain的默認策略設置為DROP,從而導致 ping 其它 Node 上的 Pod IP 失敗,遇到這種情況時,需要手動設置策略為?ACCEPT:$ sudo iptables -P FORWARD ACCEPT;并且把以下命令寫入?/etc/rc.local?文件中,防止節點重啟iptables FORWARD chain的默認策略又還原為DROP:$ /sbin/iptables -P FORWARD ACCEPT

?

07-01-03 配置docker 配置文件

使用國內的倉庫鏡像服務器以加快 pull image 的速度,同時增加下載的并發數 (需要重啟 dockerd 生效):

cat > docker-daemon.json <<EOF

{"registry-mirrors": ["https://hub-mirror.c.163.com", "https://docker.mirrors.ustc.edu.cn"],"max-concurrent-downloads": 20 }

EOF

?

07-01-04 分發docker 二進制文件、systemd unit 文件、docker 配置文件到所有 worker 機器

[root@kube-master ~]# vim /opt/k8s/script/scp_docker.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"scp /root/docker/docker* k8s@${node_ip}:/opt/k8s/bin/ssh k8s@${node_ip} "chmod +x /opt/k8s/bin/*"scp /opt/docker/docker.service root@${node_ip}:/etc/systemd/system/ssh root@${node_ip} "mkdir -p /opt/docker/"scp /opt/docker/docker-daemon.json root@${node_ip}:/opt/docker/daemon.json done

?

07-01-05 啟動并檢查 docker 服務

[root@kube-master ~]# vim /opt/k8s/script/docker.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") for node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"ssh root@${node_ip} "systemctl stop firewalld && systemctl disable firewalld"ssh root@${node_ip} "/usr/sbin/iptables -F && /usr/sbin/iptables -X && /usr/sbin/iptables -F -t nat && /usr/sbin/iptables -X -t nat"ssh root@${node_ip} "/usr/sbin/iptables -P FORWARD ACCEPT"ssh root@${node_ip} "systemctl daemon-reload && systemctl enable docker && systemctl restart docker"ssh root@${node_ip} 'for intf in /sys/devices/virtual/net/docker0/brif/*; do echo 1 > $intf/hairpin_mode; done'ssh root@${node_ip} "sudo sysctl -p /etc/sysctl.d/kubernetes.conf"#檢查服務運行狀態ssh k8s@${node_ip} "systemctl status docker|grep Active"#檢查 docker0 網橋ssh k8s@${node_ip} "/usr/sbin/ip addr show flannel.1 && /usr/sbin/ip addr show docker0" done

注:

  • 關閉 firewalld(centos7)/ufw(ubuntu16.04),否則可能會重復創建 iptables 規則;
  • 清理舊的 iptables rules 和 chains 規則;
  • 開啟 docker0 網橋下虛擬網卡的 hairpin 模式;

?

[root@kube-master ~]# chmod +x /opt/k8s/script/docker.sh && /opt/k8s/script/docker.sh

① 確保狀態為?active (running),否則查看日志,確認原因:

$ journalctl -u docker

② 確認各 work 節點的 docker0 網橋和 flannel.1 接口的 IP 處于同一個網段中(如下10.30.22.0和 10.30.22.1):

4: flannel.1: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue state UNKNOWN

????link/ether ea:b3:44:ab:36:16 brd ff:ff:ff:ff:ff:ff

????inet 10.30.89.0/32 scope global flannel.1

???????valid_lft forever preferred_lft forever

7: docker0: <BROADCAST,MULTICAST,UP,LOWER_UP> mtu 1450 qdisc noqueue state UP

????link/ether 02:42:8e:6e:ea:ef brd ff:ff:ff:ff:ff:ff

????inet 10.30.89.1/24 brd 10.30.89.255 scope global docker0

???????valid_lft forever preferred_lft forever

?

07-02.部署 kubelet 組件

  kublet 運行在每個 worker 節點上,接收 kube-apiserver 發送的請求,管理 Pod 容器,執行交互式命令,如 exec、run、logs 等。

  kublet 啟動時自動向 kube-apiserver 注冊節點信息,內置的 cadvisor 統計和監控節點的資源使用情況。

  為確保安全,本文檔只開啟接收 https 請求的安全端口,對請求進行認證和授權,拒絕未授權的訪問(如 apiserver、heapster)。

?

1、下載和分發 kubelet 二進制文件

參考?06.部署master節點.md

?

2、安裝依賴包

參考?07部署worker節點.md

?

07-02-01 創建 kubelet bootstrap kubeconfig 文件

[root@kube-master ~]# vim /opt/k8s/script/bootstrap_kubeconfig.sh

NODE_NAMES=("kube-master" "kube-node1" "kube-node2") for node_name in ${NODE_NAMES[@]};doecho ">>> ${node_name}"# 創建 tokenexport BOOTSTRAP_TOKEN=$(kubeadm token create \--description kubelet-bootstrap-token \--groups system:bootstrappers:${node_name} \--kubeconfig ~/.kube/config)# 設置集群參數kubectl config set-cluster kubernetes \--certificate-authority=/opt/k8s/cert/ca.pem \--embed-certs=true \--server=https://192.168.10.10:8443 \--kubeconfig=~/.kube/kubelet-bootstrap-${node_name}.kubeconfig# 設置客戶端認證參數kubectl config set-credentials kubelet-bootstrap \--token=${BOOTSTRAP_TOKEN} \--kubeconfig=~/.kube/kubelet-bootstrap-${node_name}.kubeconfig# 設置上下文參數kubectl config set-context default \--cluster=kubernetes \--user=kubelet-bootstrap \--kubeconfig=~/.kube/kubelet-bootstrap-${node_name}.kubeconfig# 設置默認上下文kubectl config use-context default --kubeconfig=~/.kube/kubelet-bootstrap-${node_name}.kubeconfig done

[root@kube-master ~]# chmod +x /opt/k8s/script/bootstrap_kubeconfig.sh && /opt/k8s/script/bootstrap_kubeconfig.sh

注:

① 證書中寫入 Token 而非證書,證書后續由 controller-manager 創建。

查看 kubeadm 為各節點創建的 token:

[root@kube-master ~]# kubeadm token list --kubeconfig ~/.kube/config

TOKEN          ? TTL? ?EXPIRES         ??USAGES       DESCRIPTION     EXTRA GROUPS

8hpvxm.w5uctmxzlphfh37l   23h? ?2018-11-30T16:03:27+08:00? authentication,signing? ?kubelet-bootstrap-token? system:bootstrappers:kube-node1

gktdpg.5x931bwfzf4z4hjt   23h? ?2018-11-30T16:03:27+08:00? authentication,signing? ?kubelet-bootstrap-token? system:bootstrappers:kube-node2

ttbgfq.19zeet23eohtdo65   23h? ?2018-11-30T16:03:26+08:00? authentication,signing? ?kubelet-bootstrap-token? system:bootstrappers:kube-master

?

② 創建的 token 有效期為 1 天,超期后將不能再被使用,且會被 kube-controller-manager 的 tokencleaner 清理(如果啟用該 controller 的話);

?

③ kube-apiserver 接收 kubelet 的 bootstrap token 后,將請求的 user 設置為 system:bootstrap:,group 設置為 system:bootstrappers;

各 token 關聯的 Secret:

[root@kube-master ~]# kubectl get secrets -n kube-system

NAME           TYPE               DATA? AGE

bootstrap-token-8hpvxm    bootstrap.kubernetes.io/token  ?   7   7m

bootstrap-token-gktdpg   ? ?bootstrap.kubernetes.io/token  ?   7   7m

bootstrap-token-ttbgfq     bootstrap.kubernetes.io/token  ? ?  7   7m

default-token-5lvn4     kubernetes.io/service-account-token? ? 3   4h

?

07-02-02 創建kubelet 參數配置文件

從 v1.10 開始,kubelet?部分參數需在配置文件中配置,kubelet --help?會提示:

DEPRECATED: This parameter should be set via the config file specified by the Kubelet's --config flag

[root@kube-master ~]# mkdir /opt/kubelet

[root@kube-master ~]# cd /opt/kubelet

[root@kube-master kubelet]# vim kubelet.config.json.template

{"kind": "KubeletConfiguration","apiVersion": "kubelet.config.k8s.io/v1beta1","authentication": {"x509": {"clientCAFile": "/opt/k8s/cert/ca.pem"},"webhook": {"enabled": true,"cacheTTL": "2m0s"},"anonymous": {"enabled": false}},"authorization": {"mode": "Webhook","webhook": {"cacheAuthorizedTTL": "5m0s","cacheUnauthorizedTTL": "30s"}},"address": "##NODE_IP##","port": 10250,"readOnlyPort": 0,"cgroupDriver": "cgroupfs","hairpinMode": "promiscuous-bridge","serializeImagePulls": false,"featureGates": {"RotateKubeletClientCertificate": true,"RotateKubeletServerCertificate": true},"clusterDomain": "cluster.local","clusterDNS": ["10.90.0.2"] }

?

07-02-03 分發 bootstrap kubeconfig 、kubelet 配置文件到所有 worker 節點

[root@kube-master ~]# vim /opt/k8s/script/scp_kubelet.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") NODE_NAMES=("kube-master" "kube-node1" "kube-node2") for node_name in ${NODE_NAMES[@]};doecho ">>> ${node_name}"scp ~/.kube/kubelet-bootstrap-${node_name}.kubeconfig k8s@${node_name}:/opt/k8s/kubelet-bootstrap.kubeconfig donefor node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"sed -e "s/##NODE_IP##/${node_ip}/" /opt/kubelet/kubelet.config.json.template > /opt/kubelet/kubelet.config-${node_ip}.jsonscp /opt/kubelet/kubelet.config-${node_ip}.json root@${node_ip}:/opt/k8s/kubelet.config.json done

[root@kube-master ~]# chmod +x /opt/k8s/script/scp_kubelet.sh && /opt/k8s/script/scp_kubelet.sh

?

07-02-04 創建kubelet systemd unit 文件

[root@kube-master ~]# vim /opt/kubelet/kubelet.service.template

[Unit] Description=Kubernetes Kubelet Documentation=https://github.com/GoogleCloudPlatform/kubernetes After=docker.service Requires=docker.service[Service] WorkingDirectory=/opt/lib/kubelet ExecStart=/opt/k8s/bin/kubelet \ --bootstrap-kubeconfig=/opt/k8s/kubelet-bootstrap.kubeconfig \ --cert-dir=/opt/k8s/cert \ --kubeconfig=/opt/k8s/kubelet.kubeconfig \ --config=/opt/k8s/kubelet.config.json \ --hostname-override=##NODE_NAME## \ --pod-infra-container-image=registry.access.redhat.com/rhel7/pod-infrastructure:latest \ --allow-privileged=true \ --alsologtostderr=true \ --logtostderr=false \ --log-dir=/opt/log/kubernetes \ --v=2 Restart=on-failure RestartSec=5[Install] WantedBy=multi-user.target

?

07-02-05 Bootstrap Token Auth 和授予權限

1、kublet 啟動時查找配置的 --kubeletconfig 文件是否存在,如果不存在則使用 --bootstrap-kubeconfig 向 kube-apiserver 發送證書簽名請求 (CSR)。

?

2、kube-apiserver 收到 CSR 請求后,對其中的 Token 進行認證(事先使用 kubeadm 創建的 token),認證通過后將請求的 user 設置為 system:bootstrap:,group 設置為 system:bootstrappers,這一過程稱為 Bootstrap Token Auth。

?

3、默認情況下,這個 user 和 group 沒有創建 CSR 的權限,kubelet 啟動失敗,錯誤日志如下:

$ sudo journalctl -u kubelet -a |grep -A 2 'certificatesigningrequests' May 06 06:42:36 kube-node1 kubelet[26986]: F0506 06:42:36.314378 26986 server.go:233] failed to run Kubelet: cannot create certificate signing request: certificatesigningrequests.certificates.k8s.io is forbidden: User "system:bootstrap:lemy40" cannot create certificatesigningrequests.certificates.k8s.io at the cluster scope May 06 06:42:36 kube-node1 systemd[1]: kubelet.service: Main process exited, code=exited, status=255/n/a May 06 06:42:36 kube-node1 systemd[1]: kubelet.service: Failed with result 'exit-code'.

?

4、解決辦法是:創建一個 clusterrolebinding,將 group system:bootstrappers 和 clusterrole system:node-bootstrapper 綁定:

[root@kube-master ~]# kubectl create clusterrolebinding kubelet-bootstrap --clusterrole=system:node-bootstrapper --group=system:bootstrappers

?

07-02-06 啟動 kubelet 服務

[root@kube-master ~]# vim /opt/k8s/script/kubelet.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") NODE_NAMES=("kube-master" "kube-node1" "kube-node2") #分發kubelet systemd unit 文件 for node_name in ${NODE_NAMES[@]};do echo ">>> ${node_name}"sed -e "s/##NODE_NAME##/${node_name}/" /opt/kubelet/kubelet.service.template > /opt/kubelet/kubelet-${node_name}.servicescp /opt/kubelet/kubelet-${node_name}.service root@${node_name}:/etc/systemd/system/kubelet.service done #開啟檢查kubelet 服務 for node_ip in ${NODE_IPS[@]};dossh root@${node_ip} "mkdir -p /opt/lib/kubelet"ssh root@${node_ip} "/usr/sbin/swapoff -a"ssh root@${node_ip} "mkdir -p /opt/log/kubernetes && chown -R k8s /opt/log/kubernetes"ssh root@${node_ip} "systemctl daemon-reload && systemctl enable kubelet && systemctl restart kubelet"ssh root@${node_ip} "systemctl status kubelet |grep active" done?

注:

  • 關閉 swap 分區,注意/etc/fstab 要設為開機不啟動swap分區,否則 kubelet 會啟動失敗;
  • 必須先創建工作和日志目錄;
  • kubelet 啟動后使用 --bootstrap-kubeconfig 向 kube-apiserver 發送 CSR 請求,當這個 CSR 被 approve 后,kube-controller-manager 為 kubelet 創建 TLS 客戶端證書、私鑰和 --kubeletconfig 文件。
  • kube-controller-manager 需要配置?--cluster-signing-cert-file?和?--cluster-signing-key-file?參數,才會為 TLS Bootstrap 創建證書和私鑰。

?

07-02-07 approve kubelet CSR 請求

可以手動或自動 approve CSR 請求。推薦使用自動的方式,因為從 v1.8 版本開始,可以自動輪轉approve csr 后生成的證書。

1、手動 approve CSR 請求

(1)查看 CSR 列表:

[root@kube-master ~]# kubectl get csr

NAME AGE REQUESTOR CONDITION

node-csr-SdkiSnAdFByBTIJDyFWTBSTIDMJKxwxQt9gEExFX5HU 4m system:bootstrap:8hpvxm Pending

node-csr-atMwF8GpKbDEcGjzCTXF1NYo9Jc1AzE2yQoxaU8NAkw 7m system:bootstrap:ttbgfq Pending

node-csr-qxa30a9GRg35iNEl3PYZOIICMo_82qPrqNu6PizEZXw 4m system:bootstrap:gktdpg Pending

三個 work 節點的 csr 均處于 pending 狀態;

?

(2)approve CSR:

[root@kube-master ~]# kubectl certificate approve node-csr-SdkiSnAdFByBTIJDyFWTBSTIDMJKxwxQt9gEExFX5HU

certificatesigningrequest.certificates.k8s.io "node-csr-SdkiSnAdFByBTIJDyFWTBSTIDMJKxwxQt9gEExFX5HU" approved

?

(3)查看 Approve 結果:

[root@kube-master ~]# kubectl describe csr node-csr-SdkiSnAdFByBTIJDyFWTBSTIDMJKxwxQt9gEExFX5HU

Name: node-csr-SdkiSnAdFByBTIJDyFWTBSTIDMJKxwxQt9gEExFX5HU

Labels: <none>

Annotations: <none>

CreationTimestamp: Thu, 29 Nov 2018 17:51:43 +0800

Requesting User: system:bootstrap:8hpvxm

Status: Approved,Issued

Subject:

Common Name: system:node:kube-node1

Serial Number:

Organization: system:nodes

Events: <none>

?

2、自動 approve CSR 請求

(1)創建三個 ClusterRoleBinding,分別用于自動 approve client、renew client、renew server 證書:

[root@kube-master ~]# cat > /opt/kubelet/csr-crb.yaml <<EOF

# Approve all CSRs for the group "system:bootstrappers" kind: ClusterRoleBinding apiVersion: rbac.authorization.k8s.io/v1 metadata: name: auto-approve-csrs-for-group subjects: - kind: Group name:

# Approve all CSRs for the group "system:bootstrappers"kind: ClusterRoleBindingapiVersion: rbac.authorization.k8s.io/v1metadata:name: auto-approve-csrs-for-groupsubjects:- kind: Groupname: system:bootstrappersapiGroup: rbac.authorization.k8s.ioroleRef:kind: ClusterRolename: system:certificates.k8s.io:certificatesigningrequests:nodeclientapiGroup: rbac.authorization.k8s.io ---# To let a node of the group "system:nodes" renew its own credentialskind: ClusterRoleBindingapiVersion: rbac.authorization.k8s.io/v1metadata:name: node-client-cert-renewalsubjects:- kind: Groupname: system:nodesapiGroup: rbac.authorization.k8s.ioroleRef:kind: ClusterRolename: system:certificates.k8s.io:certificatesigningrequests:selfnodeclientapiGroup: rbac.authorization.k8s.io --- # A ClusterRole which instructs the CSR approver to approve a node requesting a # serving cert matching its client cert. kind: ClusterRole apiVersion: rbac.authorization.k8s.io/v1 metadata:name: approve-node-server-renewal-csr rules: - apiGroups: ["certificates.k8s.io"]resources: ["certificatesigningrequests/selfnodeserver"]verbs: ["create"] ---# To let a node of the group "system:nodes" renew its own server credentialskind: ClusterRoleBindingapiVersion: rbac.authorization.k8s.io/v1metadata:name: node-server-cert-renewalsubjects:- kind: Groupname: system:nodesapiGroup: rbac.authorization.k8s.ioroleRef:kind: ClusterRolename: approve-node-server-renewal-csrapiGroup: rbac.authorization.k8s.io

EOF

注:

  • auto-approve-csrs-for-group:自動 approve node 的第一次 CSR; 注意第一次 CSR 時,請求的 Group 為 system:bootstrappers;
  • node-client-cert-renewal:自動 approve node 后續過期的 client 證書,自動生成的證書 Group 為 system:nodes;
  • node-server-cert-renewal:自動 approve node 后續過期的 server 證書,自動生成的證書 Group 為 system:nodes;

?

(2)生效配置:

[root@kube-master ~]# $ kubectl apply -f /opt/kubelet/csr-crb.yaml

?

07-02-08 查看 kublet 的情況

1、等待一段時間(1-10 分鐘),三個節點的 CSR 都被自動 approve:

[root@kube-master ~]# kubectl get csr

NAME AGE REQUESTOR CONDITION

csr-kvbtt 15h system:node:kube-node1 Approved,Issued

csr-p9b9s 15h system:node:kube-node2 Approved,Issued

csr-rjpr9 15h system:node:kube-master Approved,Issued

node-csr-8Sr42M0z_LzZeHU-RCbgOynJm3Z2TsSXHuAlohfJiIM 15h system:bootstrap:ttbgfq Approved,Issued

node-csr-SdkiSnAdFByBTIJDyFWTBSTIDMJKxwxQt9gEExFX5HU 15h system:bootstrap:8hpvxm Approved,Issued

node-csr-atMwF8GpKbDEcGjzCTXF1NYo9Jc1AzE2yQoxaU8NAkw 15h system:bootstrap:ttbgfq Approved,Issued

node-csr-elVB0jp36nOHuOYlITWDZx8LoO2Ly4aW0VqgYxw_Te0 15h system:bootstrap:gktdpg Approved,Issued

node-csr-muNcDteZINLZnSv8FkhOMaP2ob5uw82PGwIAynNNrco 15h system:bootstrap:ttbgfq Approved,Issued

node-csr-qxa30a9GRg35iNEl3PYZOIICMo_82qPrqNu6PizEZXw 15h system:bootstrap:gktdpg Approved,Issued

?

2、所有節點均 ready:

[root@kube-master ~]# kubectl get nodes

NAME STATUS ROLES AGE VERSION

kube-master Ready <none> 25s v1.10.4

kube-node1 Ready <none> 7m v1.10.4

kube-node2 Ready <none> 21s v1.10.4

?

3、kube-controller-manager 為各 node 生成了 kubeconfig 文件和公私鑰:

[root@kube-master ~]# ll /opt/k8s/kubelet.kubeconfig

-rw------- 1 root root 2280 Nov 29 18:05 /opt/k8s/kubelet.kubeconfig

[root@kube-master ~]# ll /opt/k8s/cert/ |grep kubelet

-rw-r--r-- 1 root root 1050 Nov 29 18:05 kubelet-client.crt

-rw------- 1 root root 227 Nov 29 18:01 kubelet-client.key

-rw------- 1 root root 1338 Nov 29 18:05 kubelet-server-2018-11-29-18-05-11.pem

lrwxrwxrwx 1 root root 52 Nov 29 18:05 kubelet-server-current.pem -> /opt/k8s/cert/kubelet-server-2018-11-29-18-05-11.pem

注:kubelet-server 證書會周期輪轉;

?

07-02-09 kubelet 提供的 API 接口

1、kublet 啟動后監聽多個端口,用于接收 kube-apiserver 或其它組件發送的請求:

[root@kube-master ~]# ss -nutlp |grep kubelet

tcp LISTEN 0 128 192.168.10.108:10250 *:* users:(("kubelet",pid=2797,fd=22))

tcp LISTEN 0 128 192.168.10.108:4194 *:* users:(("kubelet",pid=2797,fd=13))

tcp LISTEN 0 128 127.0.0.1:10248 *:* users:(("kubelet",pid=2797,fd=32))

注:

  • 4194: cadvisor http 服務;
  • 10248: healthz http 服務;
  • 10250: https API 服務;注意:未開啟只讀端口 10255;

?

2、例如執行?kubectl ec -it nginx-ds-5rmws -- sh?命令時,kube-apiserver 會向 kubelet 發送如下請求:

POST /exec/default/nginx-ds-5rmws/my-nginx?command=sh&input=1&output=1&tty=1

?

3、kubelet 接收 10250 端口的 https 請求:

  • /pods、/runningpods
  • /metrics、/metrics/cadvisor、/metrics/probes
  • /spec
  • /stats、/stats/container
  • /logs
  • /run/、"/exec/", "/attach/", "/portForward/", "/containerLogs/" 等管理;

?

4、由于關閉了匿名認證,同時開啟了 webhook 授權,所有訪問 10250 端口 https API 的請求都需要被認證和授權。

預定義的 ClusterRole system:kubelet-api-admin 授予訪問 kubelet 所有 API 的權限:

[root@kube-master ~]# kubectl describe clusterrole system:kubelet-api-admin

Name: system:kubelet-api-admin

Labels: kubernetes.io/bootstrapping=rbac-defaults

Annotations: rbac.authorization.kubernetes.io/autoupdate=true

PolicyRule:

Resources Non-Resource URLs Resource Names Verbs

--------- ----------------- -------------- -----

nodes [] [] [get list watch proxy]

nodes/log [] [] [*]

nodes/metrics [] [] [*]

nodes/proxy [] [] [*]

nodes/spec [] [] [*]

nodes/stats [] [] [*]

?

07-02-10 kublet api 認證和授權

1、kublet 配置了如下認證參數:

  • authentication.anonymous.enabled:設置為 false,不允許匿名訪問 10250 端口;
  • authentication.x509.clientCAFile:指定簽名客戶端證書的 CA 證書,開啟 HTTPs 證書認證;
  • authentication.webhook.enabled=true:開啟 HTTPs bearer token 認證;

同時配置了如下授權參數:

  • authroization.mode=Webhook:開啟 RBAC 授權;

?

2、kubelet 收到請求后,使用 clientCAFile 對證書簽名進行認證,或者查詢 bearer token 是否有效。如果兩者都沒通過,則拒絕請求,提示 Unauthorized:

[root@kube-master ~]# curl -s --cacert /opt/k8s/cert/ca.pem https://192.168.10.109:10250/metrics

Unauthorized

[root@kube-master ~]# curl -s --cacert /opt/k8s/cert/ca.pem -H "Authorization: Bearer 123456" https://192.168.10.109:10250/metrics

Unauthorized

?

3、通過認證后,kubelet 使用 SubjectAccessReview API 向 kube-apiserver 發送請求,查詢證書或 token 對應的 user、group 是否有操作資源的權限(RBAC);

證書認證和授權:

$ 權限不足的證書;

[root@kube-master ~]# curl -s --cacert /opt/k8s/cert/ca.pem --cert /opt/k8s/cert/kube-controller-manager.pem --key /opt/k8s/cert/kube-controller-manager-key.pem https://192.168.10.109:10250/metrics

Forbidden (user=system:kube-controller-manager, verb=get, resource=nodes, subresource=metrics)

$ 使用部署 kubectl 命令行工具時創建的、具有最高權限的 admin 證書;

[root@kube-master cert]# curl -s --cacert /opt/k8s/cert/ca.pem --cert /opt/k8s/cert/admin.pem --key /opt/k8s/cert/admin-key.pem https://192.168.10.109:10250/metrics|head

# HELP apiserver_client_certificate_expiration_seconds Distribution of the remaining lifetime on the certificate used to authenticate a request.

# TYPE apiserver_client_certificate_expiration_seconds histogram

apiserver_client_certificate_expiration_seconds_bucket{le="0"} 0

apiserver_client_certificate_expiration_seconds_bucket{le="21600"} 0

apiserver_client_certificate_expiration_seconds_bucket{le="43200"} 0

apiserver_client_certificate_expiration_seconds_bucket{le="86400"} 0

apiserver_client_certificate_expiration_seconds_bucket{le="172800"} 0

apiserver_client_certificate_expiration_seconds_bucket{le="345600"} 0

apiserver_client_certificate_expiration_seconds_bucket{le="604800"} 0

apiserver_client_certificate_expiration_seconds_bucket{le="2.592e+06"} 0

  • --cacert、--cert、--key?的參數值必須是文件路徑,如上面的/opt/k8s/cert/admin.pem?不能省略?./,否則返回?401 Unauthorized;

?

4、bear token 認證和授權:

  創建一個 ServiceAccount,將它和 ClusterRole system:kubelet-api-admin 綁定,從而具有調用 kubelet API 的權限:

[root@kube-master ~]# kubectl create sa kubelet-api-test

serviceaccount "kubelet-api-test" created

[root@kube-master ~]# kubectl create clusterrolebinding kubelet-api-test --clusterrole=system:kubelet-api-admin --serviceaccount=default:kubelet-api-test

clusterrolebinding.rbac.authorization.k8s.io "kubelet-api-test" created

[root@kube-master ~]# SECRET=$(kubectl get secrets | grep kubelet-api-test | awk '{print $1}')

[root@kube-master ~]# TOKEN=$(kubectl describe secret ${SECRET} | grep -E '^token' | awk '{print $2}')

[root@kube-master ~]# curl -s --cacert /opt/k8s/cert/ca.pem -H "Authorization: Bearer ${TOKEN}" https://192.168.10.109:10250/metrics|head

# HELP apiserver_client_certificate_expiration_seconds Distribution of the remaining lifetime on the certificate used to authenticate a request.

# TYPE apiserver_client_certificate_expiration_seconds histogram

apiserver_client_certificate_expiration_seconds_bucket{le="0"} 0

apiserver_client_certificate_expiration_seconds_bucket{le="21600"} 0

apiserver_client_certificate_expiration_seconds_bucket{le="43200"} 0

apiserver_client_certificate_expiration_seconds_bucket{le="86400"} 0

apiserver_client_certificate_expiration_seconds_bucket{le="172800"} 0

apiserver_client_certificate_expiration_seconds_bucket{le="345600"} 0

apiserver_client_certificate_expiration_seconds_bucket{le="604800"} 0

apiserver_client_certificate_expiration_seconds_bucket{le="2.592e+06"} 0

?

07-02-11 cadvisor 和 metrics

  cadvisor 統計所在節點各容器的資源(CPU、內存、磁盤、網卡)使用情況,分別在自己的 http web 頁面(4194 端口)和 10250 以 promehteus metrics 的形式輸出。

瀏覽器訪問?http://192.168.10.108:4194/containers/?可以查看到 cadvisor 的監控頁面:

?

07-02-12 獲取 kublet 的配置

從 kube-apiserver 獲取各 node 的配置:

使用部署 kubectl 命令行工具時創建的、具有最高權限的 admin 證書;

[root@kube-master ~]#?curl -sSL --cacert /opt/k8s/cert/ca.pem --cert /opt/k8s/cert/admin.pem --key /opt/k8s/cert/admin-key.pem https://192.168.10.10:8443/api/v1/nodes/kube-node1/proxy/configz | jq \

'.kubeletconfig|.kind="KubeletConfiguration"|.apiVersion="kubelet.config.k8s.io/v1beta1"'

{

??"syncFrequency": "1m0s",

??"fileCheckFrequency": "20s",

??"httpCheckFrequency": "20s",

??"address": "192.168.10.109",

??"port": 10250,

??"authentication": {

????"x509": {

??????"clientCAFile": "/opt/k8s/cert/ca.pem"

????},

????"webhook": {

??????"enabled": true,

??????"cacheTTL": "2m0s"

????},

????"anonymous": {

??????"enabled": false

????}

??},

??"authorization": {

????"mode": "Webhook",

????"webhook": {

??????"cacheAuthorizedTTL": "5m0s",

??????"cacheUnauthorizedTTL": "30s"

????}

??},

??"registryPullQPS": 5,

??"registryBurst": 10,

??"eventRecordQPS": 5,

??"eventBurst": 10,

??"enableDebuggingHandlers": true,

??"healthzPort": 10248,

??"healthzBindAddress": "127.0.0.1",

??"oomScoreAdj": -999,

??"clusterDomain": "cluster.local.",

??"clusterDNS": [

????"10.96.0.2"

??],

??"streamingConnectionIdleTimeout": "4h0m0s",

??"nodeStatusUpdateFrequency": "10s",

??"imageMinimumGCAge": "2m0s",

??"imageGCHighThresholdPercent": 85,

??"imageGCLowThresholdPercent": 80,

??"volumeStatsAggPeriod": "1m0s",

??"cgroupsPerQOS": true,

??"cgroupDriver": "cgroupfs",

??"cpuManagerPolicy": "none",

??"cpuManagerReconcilePeriod": "10s",

??"runtimeRequestTimeout": "2m0s",

??"hairpinMode": "promiscuous-bridge",

??"maxPods": 110,

??"podPidsLimit": -1,

??"resolvConf": "/etc/resolv.conf",

??"cpuCFSQuota": true,

??"maxOpenFiles": 1000000,

??"contentType": "application/vnd.kubernetes.protobuf",

??"kubeAPIQPS": 5,

??"kubeAPIBurst": 10,

??"serializeImagePulls": false,

??"evictionHard": {

????"imagefs.available": "15%",

????"memory.available": "100Mi",

????"nodefs.available": "10%",

????"nodefs.inodesFree": "5%"

??},

??"evictionPressureTransitionPeriod": "5m0s",

??"enableControllerAttachDetach": true,

??"makeIPTablesUtilChains": true,

??"iptablesMasqueradeBit": 14,

??"iptablesDropBit": 15,

??"featureGates": {

????"RotateKubeletClientCertificate": true,

????"RotateKubeletServerCertificate": true

??},

??"failSwapOn": true,

??"containerLogMaxSize": "10Mi",

??"containerLogMaxFiles": 5,

??"enforceNodeAllocatable": [

????"pods"

??],

??"kind": "KubeletConfiguration",

??"apiVersion": "kubelet.config.k8s.io/v1beta1"

}

?

07-03.部署 kube-proxy 組件

  kube-proxy 運行在所有 worker 節點上,,它監聽 apiserver 中 service 和 Endpoint 的變化情況,創建路由規則來進行服務負載均衡。

  本文檔講解部署 kube-proxy 的部署,使用 ipvs 模式。

?

1、下載和分發 kube-proxy 二進制文件

參考?06.部署master節點.md

?

2、安裝依賴包

各節點需要安裝?ipvsadm?和?ipset?命令,加載?ip_vs?內核模塊。

參考?07.部署worker節點.md

?

07-03-01 創建 kube-proxy 證書

創建證書簽名請求:

[root@kube-master ~]# cd /opt/k8s/cert/

[root@kube-master cert]# cat > kube-proxy-csr.json << EOF

{"CN": "system:kube-proxy","key": {"algo": "rsa","size": 2048},"names": [{"C": "CN","ST": "BeiJing","L": "BeiJing","O": "k8s","OU": "4Paradigm"}] }

EOF

注:

  • CN:指定該證書的 User 為?system:kube-proxy;
  • 預定義的 RoleBinding?system:node-proxier?將User?system:kube-proxy?與 Role?system:node-proxier?綁定,該 Role 授予了調用?kube-apiserver?Proxy 相關 API 的權限;
  • 該證書只會被 kube-proxy 當做 client 證書使用,所以 hosts 字段為空;

?

07-03-02 生成證書和私鑰

[root@kube-master cert]#? cfssl gencert -ca=/opt/k8s/cert/ca.pem \

-ca-key=/opt/k8s/cert/ca-key.pem \

-config=/opt/k8s/cert/ca-config.json \

-profile=kubernetes kube-proxy-csr.json | cfssljson_linux-amd64 -bare kube-proxy

?

?

[root@kube-master cert]# ls *kube-proxy*

kube-proxy.csr kube-proxy-csr.json kube-proxy-key.pem kube-proxy.pem

?

07-03-03 創建kubeconfig 文件

[root@kube-master ~]# kubectl config set-cluster kubernetes \

--certificate-authority=/opt/k8s/cert/ca.pem \

--embed-certs=true \

--server=https://192.168.10.10:8443 \

--kubeconfig=/root/.kube/kube-proxy.kubeconfig

?

[root@kube-master ~]# kubectl config set-credentials kube-proxy \

--client-certificate=/opt/k8s/cert/kube-proxy.pem \

--client-key=/opt/k8s/cert/kube-proxy-key.pem \

--embed-certs=true \

--kubeconfig=/root/.kube/kube-proxy.kubeconfig

?

[root@kube-master ~]# kubectl config set-context kube-proxy@kubernetes \

--cluster=kubernetes \

--user=kube-proxy \

--kubeconfig=/root/.kube/kube-proxy.kubeconfig

?

[root@kube-master ~]# kubectl config use-context kube-proxy@kubernetes --kubeconfig=/root/.kube/kube-proxy.kubeconfig

注:

  • --embed-certs=true:將 ca.pem 和 admin.pem 證書內容嵌入到生成的 kubectl-proxy.kubeconfig 文件中(不加時,寫入的是證書文件路徑);

?

[root@kube-master ~]# kubectl config view --kubeconfig=/root/.kube/kube-proxy.kubeconfig

apiVersion: v1 clusters: - cluster:certificate-authority-data: REDACTEDserver: https://192.168.10.10:8443name: kubernetes contexts: - context:cluster: kubernetesuser: kube-proxyname: kube-proxy@kubernetes current-context: kube-proxy@kubernetes kind: Config preferences: {} users: - name: kube-proxyuser:client-certificate-data: REDACTEDclient-key-data: REDACTED

?

07-03-04 創建 kube-proxy 配置文件

  從 v1.10 開始,kube-proxy?部分參數可以配置文件中配置。可以使用?--write-config-to?選項生成該配置文件,

創建 kube-proxy config 文件模板

[root@kube-master ~]# mkdir /opt/kube-proxy

[root@kube-master ~]# cd /opt/kube-proxy

[root@kube-master kube-proxy]# cat >kube-proxy.config.yaml.template <<EOF

apiVersion: kubeproxy.config.k8s.io/v1alpha1 bindAddress: ##NODE_IP## clientConnection:kubeconfig: /opt/k8s/kube-proxy.kubeconfig clusterCIDR: 10.96.0.0/16 healthzBindAddress: ##NODE_IP##:10256 hostnameOverride: ##NODE_NAME## kind: KubeProxyConfiguration metricsBindAddress: ##NODE_IP##:10249 mode: "ipvs"

EOF

注:

  • bindAddress: 監聽地址;
  • clientConnection.kubeconfig: 連接 apiserver 的 kubeconfig 文件;
  • clusterCIDR: kube-proxy 根據?--cluster-cidr?判斷集群內部和外部流量,指定?--cluster-cidr?或?--masquerade-all選項后 kube-proxy 才會對訪問 Service IP 的請求做 SNAT;
  • hostnameOverride: 參數值必須與 kubelet 的值一致,否則 kube-proxy 啟動后會找不到該 Node,從而不會創建任何 ipvs 規則;
  • mode: 使用 ipvs 模式;

?

07-03-05 分發 kubeconfig、kube-proxy systemd unit 文件;啟動并檢查kube-proxy 服務

[root@kube-master ~]# vim /opt/k8s/script/kube_proxy.sh

NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110") NODE_NAMES=("kube-master" "kube-node1" "kube-node2")for (( i=0; i < 3; i++ ));do echo ">>> ${NODE_NAMES[i]}"sed -e "s/##NODE_NAME##/${NODE_NAMES[i]}/" -e "s/##NODE_IP##/${NODE_IPS[i]}/" /opt/kube-proxy/kube-proxy.config.yaml.template > /opt/kube-proxy/kube-proxy-${NODE_NAMES[i]}.config.yamlscp /opt/kube-proxy/kube-proxy-${NODE_NAMES[i]}.config.yaml root@${NODE_NAMES[i]}:/opt/k8s/kube-proxy.config.yaml donefor node_ip in ${NODE_IPS[@]};doecho ">>> ${node_ip}"scp /root/.kube/kube-proxy.kubeconfig k8s@${node_ip}:/opt/k8s/scp /opt/kube-proxy/kube-proxy.service root@${node_ip}:/etc/systemd/system/ssh root@${node_ip} "mkdir -p /opt/lib/kube-proxy"ssh root@${node_ip} "mkdir -p /opt/log/kubernetes && chown -R k8s /var/log/kubernetes"ssh root@${node_ip} "systemctl daemon-reload && systemctl enable kube-proxy && systemctl restart kube-proxy"ssh k8s@${node_ip} "systemctl status kube-proxy|grep Active" done

[root@kube-master ~]# chmod +x /opt/k8s/script/kube_proxy.sh && /opt/k8s/script/kube_proxy.sh

?

07-03-06 查看監聽端口和 metrics

[root@kube-master ~]# ss -nutlp |grep kube-prox

tcp LISTEN 0 128 192.168.10.108:10256 *:* users:(("kube-proxy",pid=34230,fd=10))

tcp LISTEN 0 128 192.168.10.108:10249 *:* users:(("kube-proxy",pid=34230,fd=11))

  • 10249:http prometheus metrics port;
  • 10256:http healthz port;

?

07-03-07 查看 ipvs 路由規則

[root@kube-master ~]# /usr/sbin/ipvsadm -ln

IP Virtual Server version 1.2.1 (size=4096)

Prot LocalAddress:Port Scheduler Flags

-> RemoteAddress:Port Forward Weight ActiveConn InActConn

TCP 10.96.0.1:443 rr persistent 10800

-> 192.168.10.108:6443 Masq 1 0 0

-> 192.168.10.109:6443 Masq 1 0 0

-> 192.168.10.110:6443 Masq 1 0 0

可見將所有到 kubernetes cluster ip 443 端口的請求都轉發到 kube-apiserver 的 6443 端口;

?

08.驗證集群功能

本文檔使用 daemonset 驗證 master 和 worker 節點是否工作正常。

08-01 檢查節點狀態

[root@kube-master ~]# kubectl get nodes

NAME STATUS ROLES AGE VERSION

kube-master Ready <none> 21h v1.10.4

kube-node1 Ready <none> 21h v1.10.4

kube-node2 Ready <none> 21h v1.10.4

都為 Ready 時正常。

?

08-02 創建測試文件

[root@kube-master ~]# mkdir /opt/k8s/damo

[root@kube-master ~]# cat > nginx-ds.yml <<EOF

apiVersion: v1 kind: Service metadata:name: nginx-dslabels:app: nginx-ds spec:type: NodePortselector:app: nginx-dsports:- name: httpport: 80targetPort: 80 --- apiVersion: extensions/v1beta1 kind: DaemonSet metadata:name: nginx-dslabels:addonmanager.kubernetes.io/mode: Reconcile spec:template:metadata:labels:app: nginx-dsspec:containers:- name: my-nginximage: nginx:1.7.9ports:- containerPort: 80

EOF

?

執行定義文件

[root@kube-master ~]# kubectl create -f /opt/k8s/damo/nginx-ds.yml

service "nginx-ds" created

daemonset.extensions "nginx-ds" created

?

08-03 檢查各 Node 上的 Pod IP 連通性

因為需要拖拉鏡像、創建Pod,所以需要等一段時間

[root@kube-master ~]# kubectl get pods -o wide|grep nginx-ds

nginx-ds-7cz4p 1/1 Running 0 4m 10.30.22.2 kube-master

nginx-ds-lg585 1/1 Running 0 4m 10.30.44.2 kube-node2

nginx-ds-zc448 1/1 Running 0 4m 10.30.33.2 kube-node1

可見,nginx-ds 的 Pod IP 分別是?10.30.22.2、10.30.44.2、10.30.33.2,在所有 Node 上分別 ping 這三個 IP,看是否連通:

[root@kube-master ~]# NODE_IPS=("192.168.10.108" "192.168.10.109" "192.168.10.110");\

[root@kube-master ~]# for node_ip in ${NODE_IPS[@]};do \ echo ">>> ${node_ip}" ;\ ssh ${node_ip} "ping -c 1 10.30.22.2"; \ ssh ${node_ip} "ping -c 1 10.30.44.2"; \ ssh ${node_ip} "ping -c 1 10.30.33.2"; \ done

?

08-04 檢查服務 IP 和端口可達性

[root@kube-master ~]# kubectl get svc |grep nginx-ds

nginx-ds NodePort 10.96.192.157 <none> 80:15131/TCP 9m

可見:

  • Service Cluster IP:10.96.192.157
  • 服務端口:80
  • NodePort 端口:15131

在所有 Node 上 curl Service IP:

[root@kube-master ~]# curl 10.96.192.157

[root@kube-node1 ~]# curl 10.96.192.157

[root@kube-node2 ~]# curl 10.96.192.157

預期輸出 nginx 歡迎頁面內容。

?

08-05 檢查服務的 NodePort 可達性

在所有 Node 上執行:預期輸出 nginx 歡迎頁面內容。

[root@kube-master ~]# curl 192.168.10.108:15131

[root@kube-master ~]# curl 192.168.10.109:15131

[root@kube-master ~]# curl 192.168.10.110:15131

<!DOCTYPE html>

<html>

<head>

<title>Welcome to nginx!</title>

<style>

????body {

????????width: 35em;

????????margin: 0 auto;

????????font-family: Tahoma, Verdana, Arial, sans-serif;

????}

</style>

</head>

<body>

<h1>Welcome to nginx!</h1>

<p>If you see this page, the nginx web server is successfully installed and

working. Further configuration is required.</p>

?

<p>For online documentation and support please refer to

<a href="http://nginx.org/">nginx.org</a>.<br/>

Commercial support is available at

<a href="http://nginx.com/">nginx.com</a>.</p>

?

<p><em>Thank you for using nginx.</em></p>

</body>

</html>

?

轉載于:https://www.cnblogs.com/dengbingbing/p/10399217.html

總結

以上是生活随笔為你收集整理的二进制安装部署 4 kubernetes集群---超详细教程的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。

免费乱码人妻系列无码专区 | 无码吃奶揉捏奶头高潮视频 | 一本大道伊人av久久综合 | 亚洲а∨天堂久久精品2021 | 国产口爆吞精在线视频 | 亚洲色偷偷偷综合网 | 麻豆国产97在线 | 欧洲 | 亚洲人成网站在线播放942 | 精品偷自拍另类在线观看 | 国产激情精品一区二区三区 | 丝袜 中出 制服 人妻 美腿 | 桃花色综合影院 | 亚洲中文字幕无码中文字在线 | 久久精品国产大片免费观看 | 国产va免费精品观看 | 国产av人人夜夜澡人人爽麻豆 | 成人三级无码视频在线观看 | 亚洲国产精品一区二区美利坚 | 爆乳一区二区三区无码 | 久久成人a毛片免费观看网站 | 日本精品人妻无码免费大全 | 自拍偷自拍亚洲精品被多人伦好爽 | 中文精品久久久久人妻不卡 | 欧美自拍另类欧美综合图片区 | 国产午夜亚洲精品不卡 | 成人免费无码大片a毛片 | 国产 精品 自在自线 | 无码中文字幕色专区 | 欧美日韩色另类综合 | 欧美精品一区二区精品久久 | 国产成人精品视频ⅴa片软件竹菊 | 亚洲熟妇色xxxxx欧美老妇 | 丰满人妻一区二区三区免费视频 | 成年美女黄网站色大免费视频 | 国产福利视频一区二区 | 巨爆乳无码视频在线观看 | 乱中年女人伦av三区 | 久久久久成人片免费观看蜜芽 | 强辱丰满人妻hd中文字幕 | 六十路熟妇乱子伦 | 日本爽爽爽爽爽爽在线观看免 | 色一情一乱一伦一视频免费看 | 国产精品亚洲lv粉色 | 亚洲狠狠色丁香婷婷综合 | 最近的中文字幕在线看视频 | 亚洲伊人久久精品影院 | 国产热a欧美热a在线视频 | 99riav国产精品视频 | 欧美猛少妇色xxxxx | 国产深夜福利视频在线 | 亚洲中文字幕乱码av波多ji | 成人精品视频一区二区 | 国产高清av在线播放 | 亚洲自偷自偷在线制服 | 亚洲精品国产品国语在线观看 | 亚洲成熟女人毛毛耸耸多 | 无码人妻出轨黑人中文字幕 | 亚洲综合精品香蕉久久网 | 色欲av亚洲一区无码少妇 | 男女超爽视频免费播放 | 搡女人真爽免费视频大全 | 日本丰满护士爆乳xxxx | 内射后入在线观看一区 | 亚洲gv猛男gv无码男同 | 久久精品女人的天堂av | 亚洲 另类 在线 欧美 制服 | 天堂а√在线中文在线 | 曰韩无码二三区中文字幕 | 对白脏话肉麻粗话av | 日本熟妇人妻xxxxx人hd | 国产国语老龄妇女a片 | 少妇人妻大乳在线视频 | 玩弄人妻少妇500系列视频 | 无码午夜成人1000部免费视频 | 国産精品久久久久久久 | 日韩无码专区 | 精品国偷自产在线视频 | 一本久久伊人热热精品中文字幕 | 无遮挡啪啪摇乳动态图 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 亚洲男人av香蕉爽爽爽爽 | 久久久久久国产精品无码下载 | 精品国产一区二区三区av 性色 | 三上悠亚人妻中文字幕在线 | 久久久婷婷五月亚洲97号色 | 国产xxx69麻豆国语对白 | 午夜熟女插插xx免费视频 | 国产亚洲精品久久久久久久久动漫 | 日本大乳高潮视频在线观看 | 亚洲国产精品成人久久蜜臀 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 亚洲小说春色综合另类 | 久久99精品国产麻豆蜜芽 | 成年美女黄网站色大免费全看 | 在线观看欧美一区二区三区 | 天天摸天天透天天添 | 亚洲中文无码av永久不收费 | 少女韩国电视剧在线观看完整 | 99久久无码一区人妻 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 亚洲七七久久桃花影院 | 欧美日韩一区二区综合 | 无码人妻av免费一区二区三区 | 日韩精品成人一区二区三区 | 97久久超碰中文字幕 | 亚洲 激情 小说 另类 欧美 | 人人妻人人藻人人爽欧美一区 | 大肉大捧一进一出视频出来呀 | 亚洲精品一区二区三区在线观看 | 久久久婷婷五月亚洲97号色 | 97精品国产97久久久久久免费 | 亚洲 高清 成人 动漫 | 色诱久久久久综合网ywww | 中文字幕无码av激情不卡 | 一个人免费观看的www视频 | 国产成人精品优优av | 亚洲色欲色欲天天天www | 亚洲 欧美 激情 小说 另类 | av在线亚洲欧洲日产一区二区 | 国产一区二区三区四区五区加勒比 | 国产成人午夜福利在线播放 | 高中生自慰www网站 | 国产精品人妻一区二区三区四 | 成人一区二区免费视频 | 亚洲色www成人永久网址 | 男人和女人高潮免费网站 | 精品偷拍一区二区三区在线看 | 啦啦啦www在线观看免费视频 | 久久伊人色av天堂九九小黄鸭 | 国产人妻精品午夜福利免费 | 国产精品久久久久9999小说 | 国产三级久久久精品麻豆三级 | 亚洲经典千人经典日产 | 亚洲呦女专区 | 亚洲综合久久一区二区 | 国产美女精品一区二区三区 | 国产办公室秘书无码精品99 | 在线观看欧美一区二区三区 | 国产特级毛片aaaaaa高潮流水 | √8天堂资源地址中文在线 | 国产人成高清在线视频99最全资源 | 国产综合久久久久鬼色 | 久久久久成人精品免费播放动漫 | 精品无码国产自产拍在线观看蜜 | 国产97人人超碰caoprom | 捆绑白丝粉色jk震动捧喷白浆 | 99国产精品白浆在线观看免费 | 熟妇女人妻丰满少妇中文字幕 | 午夜时刻免费入口 | 亚洲国产精品久久久天堂 | 久久亚洲精品成人无码 | 久久久久99精品国产片 | 免费男性肉肉影院 | 成人免费无码大片a毛片 | 国产亚洲精品精品国产亚洲综合 | 免费乱码人妻系列无码专区 | 美女扒开屁股让男人桶 | 成 人 网 站国产免费观看 | 女人被爽到呻吟gif动态图视看 | 鲁一鲁av2019在线 | 久久人人爽人人爽人人片ⅴ | 国产成人亚洲综合无码 | 美女张开腿让人桶 | 中文字幕日产无线码一区 | 国产精品福利视频导航 | 无码人妻丰满熟妇区毛片18 | 宝宝好涨水快流出来免费视频 | 2020久久香蕉国产线看观看 | 成人一在线视频日韩国产 | 亚洲日韩乱码中文无码蜜桃臀网站 | 欧美怡红院免费全部视频 | 蜜桃av蜜臀av色欲av麻 999久久久国产精品消防器材 | 水蜜桃亚洲一二三四在线 | 日本va欧美va欧美va精品 | 国产特级毛片aaaaaaa高清 | 免费无码肉片在线观看 | 亚洲 高清 成人 动漫 | 欧美大屁股xxxxhd黑色 | 成 人 网 站国产免费观看 | 欧美亚洲日韩国产人成在线播放 | 国产女主播喷水视频在线观看 | 超碰97人人射妻 | 亚洲人亚洲人成电影网站色 | 国产精品久久久久久亚洲影视内衣 | 鲁鲁鲁爽爽爽在线视频观看 | 欧美成人高清在线播放 | 少妇久久久久久人妻无码 | 牲欲强的熟妇农村老妇女 | 夜夜高潮次次欢爽av女 | 精品人人妻人人澡人人爽人人 | 亚洲国产日韩a在线播放 | 亚洲欧洲日本综合aⅴ在线 | 国产精品资源一区二区 | 免费看少妇作爱视频 | 日本大乳高潮视频在线观看 | 图片区 小说区 区 亚洲五月 | 亚洲精品国产精品乱码视色 | 国产成人综合色在线观看网站 | 免费无码午夜福利片69 | 国产香蕉尹人视频在线 | 久久久精品456亚洲影院 | 日本成熟视频免费视频 | 亚洲人成网站色7799 | 亚洲码国产精品高潮在线 | 在线а√天堂中文官网 | 内射爽无广熟女亚洲 | 久在线观看福利视频 | 成人动漫在线观看 | 三上悠亚人妻中文字幕在线 | 欧美第一黄网免费网站 | 国产精品无码一区二区桃花视频 | 欧美肥老太牲交大战 | 色五月五月丁香亚洲综合网 | 国产精品资源一区二区 | 亚洲精品一区国产 | 久久人人爽人人人人片 | 无码福利日韩神码福利片 | 亚洲国产精华液网站w | 美女扒开屁股让男人桶 | 日本又色又爽又黄的a片18禁 | 国产精品亚洲一区二区三区喷水 | 无码精品人妻一区二区三区av | 久久精品中文闷骚内射 | 人人爽人人爽人人片av亚洲 | 黑人巨大精品欧美一区二区 | 国产成人无码一二三区视频 | 亚洲欧美综合区丁香五月小说 | 少妇邻居内射在线 | 色情久久久av熟女人妻网站 | 欧美猛少妇色xxxxx | 亚洲无人区午夜福利码高清完整版 | 撕开奶罩揉吮奶头视频 | 国产精品久久久久9999小说 | 亚洲精品一区二区三区四区五区 | 啦啦啦www在线观看免费视频 | 噜噜噜亚洲色成人网站 | a在线观看免费网站大全 | 人妻少妇精品无码专区动漫 | 亚洲人成网站色7799 | 亚洲国产精品无码一区二区三区 | 亚洲精品一区二区三区大桥未久 | 亚洲а∨天堂久久精品2021 | 久久久婷婷五月亚洲97号色 | 国产舌乚八伦偷品w中 | 无码人妻av免费一区二区三区 | 精品无人区无码乱码毛片国产 | 午夜丰满少妇性开放视频 | 乱人伦人妻中文字幕无码久久网 | 成人欧美一区二区三区黑人 | 精品国产福利一区二区 | 国产人妻人伦精品1国产丝袜 | 麻豆人妻少妇精品无码专区 | 久久精品人人做人人综合试看 | 永久免费精品精品永久-夜色 | 高潮毛片无遮挡高清免费 | 精品国偷自产在线视频 | 一本大道伊人av久久综合 | 人妻与老人中文字幕 | 欧美成人免费全部网站 | 国产在线无码精品电影网 | 免费无码av一区二区 | 精品国产av色一区二区深夜久久 | 国产人妖乱国产精品人妖 | 丁香啪啪综合成人亚洲 | 男女猛烈xx00免费视频试看 | 嫩b人妻精品一区二区三区 | 成人性做爰aaa片免费看不忠 | 欧美精品无码一区二区三区 | 色综合久久久久综合一本到桃花网 | 国内精品人妻无码久久久影院 | 久久久久亚洲精品男人的天堂 | 欧美怡红院免费全部视频 | 国产午夜手机精彩视频 | 色窝窝无码一区二区三区色欲 | 亚洲gv猛男gv无码男同 | 天堂无码人妻精品一区二区三区 | 国产性生大片免费观看性 | 欧美性色19p | 国产成人久久精品流白浆 | 麻豆国产人妻欲求不满 | 天天拍夜夜添久久精品大 | 任你躁在线精品免费 | 亚洲精品午夜无码电影网 | 中文无码成人免费视频在线观看 | 久久综合九色综合欧美狠狠 | 亚洲欧美日韩综合久久久 | 国产成人综合在线女婷五月99播放 | 国内精品久久毛片一区二区 | 亚洲国产精品成人久久蜜臀 | www国产亚洲精品久久网站 | 一区二区传媒有限公司 | 给我免费的视频在线观看 | 丰满肥臀大屁股熟妇激情视频 | 亚洲欧美日韩国产精品一区二区 | 欧美黑人性暴力猛交喷水 | 无码国模国产在线观看 | 98国产精品综合一区二区三区 | 图片区 小说区 区 亚洲五月 | 日本大香伊一区二区三区 | 日本免费一区二区三区最新 | 久久久精品欧美一区二区免费 | 日日鲁鲁鲁夜夜爽爽狠狠 | 欧美日本免费一区二区三区 | 国产无套内射久久久国产 | 亚洲中文字幕乱码av波多ji | 中文字幕无码免费久久9一区9 | 国产激情精品一区二区三区 | 亚洲成av人影院在线观看 | 欧美老妇交乱视频在线观看 | 曰韩少妇内射免费播放 | 国产成人无码区免费内射一片色欲 | 乱人伦中文视频在线观看 | 欧美老人巨大xxxx做受 | 久久 国产 尿 小便 嘘嘘 | a国产一区二区免费入口 | 亚洲精品一区二区三区四区五区 | 亚洲日本va中文字幕 | 爆乳一区二区三区无码 | 亚洲男女内射在线播放 | 十八禁视频网站在线观看 | 97se亚洲精品一区 | 国产激情精品一区二区三区 | 少妇人妻av毛片在线看 | 国产精品第一区揄拍无码 | 欧美猛少妇色xxxxx | 成在人线av无码免观看麻豆 | 网友自拍区视频精品 | 国产乱码精品一品二品 | 国产成人无码av一区二区 | 夜夜躁日日躁狠狠久久av | 亚洲成a人一区二区三区 | 日韩人妻系列无码专区 | 免费无码一区二区三区蜜桃大 | 女人被爽到呻吟gif动态图视看 | 女人被男人躁得好爽免费视频 | 日本一区二区三区免费高清 | 成人三级无码视频在线观看 | 伊人久久婷婷五月综合97色 | 欧美日韩人成综合在线播放 | 国产九九九九九九九a片 | 少妇高潮一区二区三区99 | 欧美精品免费观看二区 | 国内精品久久久久久中文字幕 | 亚洲精品午夜无码电影网 | 六十路熟妇乱子伦 | 国产精品嫩草久久久久 | √天堂中文官网8在线 | 久久久精品成人免费观看 | 自拍偷自拍亚洲精品10p | 高中生自慰www网站 | 无码毛片视频一区二区本码 | 国产成人无码av片在线观看不卡 | 欧美兽交xxxx×视频 | 亚洲男人av天堂午夜在 | 久久久无码中文字幕久... | 久久久久99精品国产片 | 亚洲精品国产品国语在线观看 | аⅴ资源天堂资源库在线 | 日本熟妇浓毛 | 无套内谢老熟女 | 日韩在线不卡免费视频一区 | 99久久婷婷国产综合精品青草免费 | 国产内射爽爽大片视频社区在线 | 欧美日韩综合一区二区三区 | a在线观看免费网站大全 | 思思久久99热只有频精品66 | 夜夜高潮次次欢爽av女 | 精品欧美一区二区三区久久久 | 欧美色就是色 | 久久久久久a亚洲欧洲av冫 | 国产亚洲精品精品国产亚洲综合 | 欧美 日韩 人妻 高清 中文 | 精品久久久中文字幕人妻 | 午夜精品一区二区三区在线观看 | 欧美freesex黑人又粗又大 | 国产做国产爱免费视频 | 亚洲午夜久久久影院 | 欧美成人午夜精品久久久 | 国产69精品久久久久app下载 | 三上悠亚人妻中文字幕在线 | 亚洲а∨天堂久久精品2021 | 亚洲中文字幕久久无码 | 亚洲人成无码网www | 亚洲中文字幕在线无码一区二区 | 黑森林福利视频导航 | 亚洲精品国产精品乱码不卡 | 高清国产亚洲精品自在久久 | 丰腴饱满的极品熟妇 | 少妇一晚三次一区二区三区 | 婷婷五月综合激情中文字幕 | 日本乱人伦片中文三区 | 免费人成在线视频无码 | 久久久久久a亚洲欧洲av冫 | 麻豆国产人妻欲求不满谁演的 | 又大又硬又爽免费视频 | 2020最新国产自产精品 | 55夜色66夜色国产精品视频 | 亚洲精品一区三区三区在线观看 | 俺去俺来也www色官网 | 亚洲人成人无码网www国产 | 美女极度色诱视频国产 | 一本精品99久久精品77 | 精品 日韩 国产 欧美 视频 | 久久伊人色av天堂九九小黄鸭 | 精品国偷自产在线 | 中文久久乱码一区二区 | 性欧美熟妇videofreesex | 成人免费视频在线观看 | 日本欧美一区二区三区乱码 | 青青青手机频在线观看 | а√资源新版在线天堂 | 久久人妻内射无码一区三区 | 色窝窝无码一区二区三区色欲 | 久久午夜夜伦鲁鲁片无码免费 | 午夜免费福利小电影 | 一本久道久久综合狠狠爱 | 亚洲日韩av一区二区三区四区 | 亚洲性无码av中文字幕 | 久久成人a毛片免费观看网站 | 国产女主播喷水视频在线观看 | 少妇被粗大的猛进出69影院 | 成人综合网亚洲伊人 | 日韩精品无码免费一区二区三区 | 国产亚洲精品久久久久久久 | 黑人大群体交免费视频 | 蜜臀aⅴ国产精品久久久国产老师 | 99精品久久毛片a片 | 大肉大捧一进一出视频出来呀 | 国产精品久久国产三级国 | 性欧美牲交在线视频 | 欧美xxxx黑人又粗又长 | 免费观看又污又黄的网站 | 欧美精品免费观看二区 | 中文字幕乱码中文乱码51精品 | 俺去俺来也在线www色官网 | 国产精品爱久久久久久久 | 亚洲一区二区三区 | ass日本丰满熟妇pics | 日日鲁鲁鲁夜夜爽爽狠狠 | 未满小14洗澡无码视频网站 | 在教室伦流澡到高潮hnp视频 | 国产午夜福利100集发布 | 国产美女精品一区二区三区 | 国精品人妻无码一区二区三区蜜柚 | 天堂а√在线地址中文在线 | 高清国产亚洲精品自在久久 | 久久综合香蕉国产蜜臀av | 在线天堂新版最新版在线8 | 中文字幕无线码免费人妻 | 欧美日韩色另类综合 | 亚洲国产av精品一区二区蜜芽 | 狠狠色噜噜狠狠狠7777奇米 | 377p欧洲日本亚洲大胆 | 欧洲精品码一区二区三区免费看 | 久久精品成人欧美大片 | 九一九色国产 | 一个人免费观看的www视频 | 精品久久久久香蕉网 | 国产人妻精品一区二区三区 | 国内综合精品午夜久久资源 | 国产超碰人人爽人人做人人添 | 色噜噜亚洲男人的天堂 | 人妻无码αv中文字幕久久琪琪布 | 丰满人妻精品国产99aⅴ | 2020久久香蕉国产线看观看 | 精品国产成人一区二区三区 | 欧美变态另类xxxx | 国产午夜精品一区二区三区嫩草 | 国产av人人夜夜澡人人爽麻豆 | 日本又色又爽又黄的a片18禁 | 精品久久久无码人妻字幂 | 人妻少妇精品视频专区 | 俄罗斯老熟妇色xxxx | 婷婷六月久久综合丁香 | 亚洲a无码综合a国产av中文 | 国产乱人无码伦av在线a | 精品偷拍一区二区三区在线看 | 玩弄少妇高潮ⅹxxxyw | 天天躁夜夜躁狠狠是什么心态 | 日本一区二区三区免费播放 | 少妇性俱乐部纵欲狂欢电影 | 色婷婷综合中文久久一本 | 最近免费中文字幕中文高清百度 | 永久黄网站色视频免费直播 | 亚洲精品美女久久久久久久 | 精品国产一区二区三区四区在线看 | 午夜肉伦伦影院 | 日本熟妇大屁股人妻 | 日本肉体xxxx裸交 | 97精品国产97久久久久久免费 | 又粗又大又硬毛片免费看 | 小鲜肉自慰网站xnxx | 国内精品人妻无码久久久影院蜜桃 | 亚洲精品国产品国语在线观看 | 无套内射视频囯产 | 女高中生第一次破苞av | 亚洲综合精品香蕉久久网 | 精品国产国产综合精品 | 日韩欧美中文字幕在线三区 | 成人综合网亚洲伊人 | 国产电影无码午夜在线播放 | av在线亚洲欧洲日产一区二区 | 成人欧美一区二区三区黑人免费 | 久久午夜夜伦鲁鲁片无码免费 | 亚洲国产高清在线观看视频 | 久久精品人人做人人综合 | 国产精品亚洲综合色区韩国 | 福利一区二区三区视频在线观看 | 永久免费观看国产裸体美女 | 国产一精品一av一免费 | 亚洲精品欧美二区三区中文字幕 | 亚洲阿v天堂在线 | 亚洲精品中文字幕久久久久 | 国产综合久久久久鬼色 | 日日鲁鲁鲁夜夜爽爽狠狠 | 丰满少妇弄高潮了www | 国产精品资源一区二区 | 成人免费无码大片a毛片 | 麻豆果冻传媒2021精品传媒一区下载 | 激情国产av做激情国产爱 | 亚洲а∨天堂久久精品2021 | 成人片黄网站色大片免费观看 | 日本xxxx色视频在线观看免费 | 午夜不卡av免费 一本久久a久久精品vr综合 | 丝袜人妻一区二区三区 | 未满小14洗澡无码视频网站 | 国产av久久久久精东av | 国产精品久久久一区二区三区 | 久久伊人色av天堂九九小黄鸭 | 国产精品国产三级国产专播 | 日本精品少妇一区二区三区 | 国产一区二区不卡老阿姨 | 亚洲精品午夜无码电影网 | 久久久久人妻一区精品色欧美 | 99麻豆久久久国产精品免费 | 亚洲中文字幕无码中文字在线 | 少妇无套内谢久久久久 | 国产精品久久精品三级 | 国内揄拍国内精品少妇国语 | 亚洲小说图区综合在线 | 久久久www成人免费毛片 | 中文毛片无遮挡高清免费 | 久久综合网欧美色妞网 | 国产熟女一区二区三区四区五区 | 熟妇人妻无码xxx视频 | 国产精品久久国产三级国 | 国产深夜福利视频在线 | 国产精品无码永久免费888 | 中文字幕亚洲情99在线 | 国产精品成人av在线观看 | 久久国产精品偷任你爽任你 | 午夜福利不卡在线视频 | 日日摸夜夜摸狠狠摸婷婷 | 欧洲vodafone精品性 | 国产精品自产拍在线观看 | 国产人妻大战黑人第1集 | 国产午夜亚洲精品不卡 | 久精品国产欧美亚洲色aⅴ大片 | 无遮挡啪啪摇乳动态图 | 日本大乳高潮视频在线观看 | 免费人成在线视频无码 | 图片小说视频一区二区 | 中文字幕亚洲情99在线 | 国产激情精品一区二区三区 | 中文字幕av日韩精品一区二区 | 国产精品无码久久av | 男人和女人高潮免费网站 | 水蜜桃色314在线观看 | 国内精品久久久久久中文字幕 | 国产亚洲精品久久久久久国模美 | 久久亚洲国产成人精品性色 | yw尤物av无码国产在线观看 | 黑人玩弄人妻中文在线 | 欧美35页视频在线观看 | 亚洲国产精品成人久久蜜臀 | 亚洲精品久久久久avwww潮水 | 中文字幕 人妻熟女 | 国产精品亚洲五月天高清 | 久久亚洲中文字幕精品一区 | 熟妇人妻无码xxx视频 | 国产精品亚洲а∨无码播放麻豆 | 久久精品女人的天堂av | 亚洲精品一区二区三区在线 | 亚洲精品综合一区二区三区在线 | 国内精品九九久久久精品 | 波多野结衣aⅴ在线 | 国产精品内射视频免费 | 中文精品久久久久人妻不卡 | 性做久久久久久久久 | a国产一区二区免费入口 | 成人aaa片一区国产精品 | 大肉大捧一进一出好爽视频 | 成人影院yy111111在线观看 | 国产激情一区二区三区 | 女人被男人爽到呻吟的视频 | av香港经典三级级 在线 | 性做久久久久久久免费看 | 色综合久久久无码网中文 | 乱人伦人妻中文字幕无码久久网 | 亚洲日本在线电影 | 大地资源网第二页免费观看 | 国产精品亚洲专区无码不卡 | 曰韩无码二三区中文字幕 | 青青久在线视频免费观看 | 帮老师解开蕾丝奶罩吸乳网站 | 蜜臀av无码人妻精品 | 牲欲强的熟妇农村老妇女视频 | 欧美人与禽zoz0性伦交 | 三级4级全黄60分钟 | 中文字幕无码av波多野吉衣 | 免费中文字幕日韩欧美 | 99视频精品全部免费免费观看 | 亚洲第一无码av无码专区 | 国产9 9在线 | 中文 | 乱人伦人妻中文字幕无码 | 亚洲精品国产精品乱码视色 | 亚洲の无码国产の无码影院 | 中文字幕色婷婷在线视频 | 扒开双腿疯狂进出爽爽爽视频 | www国产亚洲精品久久网站 | 三上悠亚人妻中文字幕在线 | 免费国产黄网站在线观看 | 国产性猛交╳xxx乱大交 国产精品久久久久久无码 欧洲欧美人成视频在线 | 亚洲自偷自偷在线制服 | 高清国产亚洲精品自在久久 | 美女毛片一区二区三区四区 | 国产熟妇另类久久久久 | 免费播放一区二区三区 | 人人妻在人人 | 精品久久久无码人妻字幂 | 亚洲精品一区二区三区在线 | 一本加勒比波多野结衣 | 欧美三级不卡在线观看 | 人妻少妇被猛烈进入中文字幕 | 亚洲精品欧美二区三区中文字幕 | 日韩av无码一区二区三区 | 久久久精品人妻久久影视 | 人人爽人人澡人人高潮 | www成人国产高清内射 | 成人女人看片免费视频放人 | 欧洲熟妇色 欧美 | 成人免费视频视频在线观看 免费 | 夫妻免费无码v看片 | 免费人成在线观看网站 | 人妻少妇被猛烈进入中文字幕 | 爽爽影院免费观看 | 18禁黄网站男男禁片免费观看 | 亚洲精品美女久久久久久久 | 国产女主播喷水视频在线观看 | 久久午夜无码鲁丝片 | 久久亚洲a片com人成 | 人妻无码αv中文字幕久久琪琪布 | 国产成人综合美国十次 | 欧美zoozzooz性欧美 | 男女猛烈xx00免费视频试看 | 又紧又大又爽精品一区二区 | 午夜理论片yy44880影院 | 国产猛烈高潮尖叫视频免费 | 日本一卡2卡3卡4卡无卡免费网站 国产一区二区三区影院 | 久久国产劲爆∧v内射 | 亚洲成av人在线观看网址 | 亚洲啪av永久无码精品放毛片 | 久久成人a毛片免费观看网站 | 亚洲码国产精品高潮在线 | 日本精品高清一区二区 | 无码中文字幕色专区 | 97精品人妻一区二区三区香蕉 | 女人被爽到呻吟gif动态图视看 | 国产精品久久久久久久9999 | 亚洲一区二区三区偷拍女厕 | 亚洲一区二区三区国产精华液 | 黑森林福利视频导航 | 亚洲人成无码网www | 成人一在线视频日韩国产 | 国产精品无码成人午夜电影 | 18禁黄网站男男禁片免费观看 | 99久久人妻精品免费一区 | 国产成人无码av一区二区 | 性啪啪chinese东北女人 | 久久zyz资源站无码中文动漫 | 日韩av无码一区二区三区 | 噜噜噜亚洲色成人网站 | 亚洲阿v天堂在线 | 鲁一鲁av2019在线 | 色综合久久中文娱乐网 | 久久精品国产一区二区三区肥胖 | 欧美日韩综合一区二区三区 | 粗大的内捧猛烈进出视频 | 国产午夜亚洲精品不卡 | 免费无码av一区二区 | 国产人成高清在线视频99最全资源 | 久久久婷婷五月亚洲97号色 | 精品aⅴ一区二区三区 | 婷婷六月久久综合丁香 | 亚洲精品www久久久 | 国产成人综合美国十次 | 国产成人无码av一区二区 | 中文无码精品a∨在线观看不卡 | 中文字幕乱码亚洲无线三区 | 在线播放免费人成毛片乱码 | 真人与拘做受免费视频一 | 麻豆成人精品国产免费 | 免费看少妇作爱视频 | 妺妺窝人体色www在线小说 | 亚洲最大成人网站 | 人妻少妇精品无码专区动漫 | 无码av岛国片在线播放 | 曰韩无码二三区中文字幕 | 亚洲一区二区三区四区 | 国内丰满熟女出轨videos | 亚洲欧洲日本无在线码 | 双乳奶水饱满少妇呻吟 | 久久99精品久久久久婷婷 | 夜夜夜高潮夜夜爽夜夜爰爰 | 国产精品久久久久久无码 | 日本一区二区三区免费播放 | 丝袜美腿亚洲一区二区 | 一本久久a久久精品亚洲 | 久久亚洲中文字幕精品一区 | 国产av久久久久精东av | 欧美三级不卡在线观看 | 欧美人与善在线com | 国产成人综合美国十次 | 人人妻人人澡人人爽精品欧美 | 台湾无码一区二区 | 色综合久久网 | 99精品视频在线观看免费 | 性生交大片免费看l | 久久亚洲国产成人精品性色 | 亚洲国产精品久久久久久 | 午夜时刻免费入口 | 亚洲一区av无码专区在线观看 | 丰满妇女强制高潮18xxxx | 精品国产av色一区二区深夜久久 | 国产精品久久久一区二区三区 | 日韩av无码一区二区三区不卡 | 精品亚洲韩国一区二区三区 | 国产又粗又硬又大爽黄老大爷视 | 国产精品丝袜黑色高跟鞋 | 国产熟妇另类久久久久 | 亚洲人亚洲人成电影网站色 | 色老头在线一区二区三区 | 亚洲色欲久久久综合网东京热 | 国产另类ts人妖一区二区 | 中文字幕 人妻熟女 | 日产精品高潮呻吟av久久 | 全球成人中文在线 | 小sao货水好多真紧h无码视频 | 亚洲自偷精品视频自拍 | 人人澡人人透人人爽 | av无码电影一区二区三区 | 精品国产精品久久一区免费式 | 熟妇人妻激情偷爽文 | 国产国语老龄妇女a片 | 久久99精品国产麻豆蜜芽 | 亚洲 日韩 欧美 成人 在线观看 | 久久久久久a亚洲欧洲av冫 | 98国产精品综合一区二区三区 | 天堂а√在线地址中文在线 | 亚洲理论电影在线观看 | 久久久久av无码免费网 | 久久人人爽人人爽人人片av高清 | 国模大胆一区二区三区 | 久久综合激激的五月天 | 国产成人精品视频ⅴa片软件竹菊 | 亚洲 日韩 欧美 成人 在线观看 | 欧美zoozzooz性欧美 | 精品国产精品久久一区免费式 | 欧美日韩人成综合在线播放 | 日本xxxx色视频在线观看免费 | 中文精品久久久久人妻不卡 | 樱花草在线社区www | 2020久久香蕉国产线看观看 | 国产精品无套呻吟在线 | 精品无人区无码乱码毛片国产 | 色综合天天综合狠狠爱 | 成在人线av无码免费 | 国产成人无码av在线影院 | 国产无遮挡又黄又爽又色 | 亚洲人成网站色7799 | 午夜性刺激在线视频免费 | 日本精品人妻无码77777 天堂一区人妻无码 | 亚洲乱码国产乱码精品精 | 久久久久久久久蜜桃 | 女人被爽到呻吟gif动态图视看 | 久久久中文久久久无码 | 麻豆果冻传媒2021精品传媒一区下载 | 免费看少妇作爱视频 | 日韩欧美群交p片內射中文 | 国产亚洲欧美在线专区 | 久久午夜夜伦鲁鲁片无码免费 | 激情人妻另类人妻伦 | 国产亚洲精品久久久久久久久动漫 | 在线 国产 欧美 亚洲 天堂 | 九九热爱视频精品 | 又色又爽又黄的美女裸体网站 | 亚洲成av人综合在线观看 | 日本高清一区免费中文视频 | 日韩 欧美 动漫 国产 制服 | 精品水蜜桃久久久久久久 | 人人妻人人澡人人爽精品欧美 | 国产午夜精品一区二区三区嫩草 | 国产97人人超碰caoprom | 日本精品久久久久中文字幕 | 蜜桃av抽搐高潮一区二区 | 国产精品香蕉在线观看 | 国产亚洲人成在线播放 | 国产亚洲精品久久久久久国模美 | 免费观看黄网站 | 国产猛烈高潮尖叫视频免费 | 伊人久久大香线蕉亚洲 | 亚洲无人区一区二区三区 | 国产性生大片免费观看性 | 久久无码人妻影院 | 亚洲成色www久久网站 | 熟妇女人妻丰满少妇中文字幕 | 成人欧美一区二区三区黑人免费 | 欧美freesex黑人又粗又大 | 狠狠色丁香久久婷婷综合五月 | 波多野结衣一区二区三区av免费 | 久久精品国产大片免费观看 | 成人欧美一区二区三区 | 亚洲国产精品毛片av不卡在线 | 中文字幕av日韩精品一区二区 | 亚洲综合无码久久精品综合 | 一本大道久久东京热无码av | 麻豆国产人妻欲求不满 | 婷婷丁香六月激情综合啪 | 99riav国产精品视频 | 一本久久a久久精品亚洲 | 亚洲小说图区综合在线 | 国产农村妇女高潮大叫 | 国产成人无码av一区二区 | 亚洲国产高清在线观看视频 | 精品熟女少妇av免费观看 | 四十如虎的丰满熟妇啪啪 | 国产激情无码一区二区 | 宝宝好涨水快流出来免费视频 | 狂野欧美激情性xxxx | 精品国产一区二区三区av 性色 | 中文字幕人妻无码一夲道 | 国产精品福利视频导航 | 精品熟女少妇av免费观看 | 熟女少妇人妻中文字幕 | 久久99热只有频精品8 | 日韩精品a片一区二区三区妖精 | 亚洲精品国产精品乱码不卡 | 国产三级久久久精品麻豆三级 | 在线播放免费人成毛片乱码 | 亚洲一区二区三区香蕉 | 一区二区三区乱码在线 | 欧洲 | 国产精品a成v人在线播放 | 中文字幕色婷婷在线视频 | 国模大胆一区二区三区 | 午夜理论片yy44880影院 | 少妇的肉体aa片免费 | 女人被爽到呻吟gif动态图视看 | 精品偷拍一区二区三区在线看 | 丰满少妇人妻久久久久久 | 精品国偷自产在线视频 | 小泽玛莉亚一区二区视频在线 | 欧美黑人性暴力猛交喷水 | 亚洲精品综合一区二区三区在线 | 日本一区二区更新不卡 | 伊人久久大香线焦av综合影院 | 国产av无码专区亚洲awww | 亚洲高清偷拍一区二区三区 | 男女超爽视频免费播放 | 中文字幕日韩精品一区二区三区 | 日本饥渴人妻欲求不满 | 中文字幕人妻无码一区二区三区 | 亚洲国产精品久久久久久 | 午夜精品一区二区三区的区别 | 激情亚洲一区国产精品 | 少妇性l交大片欧洲热妇乱xxx | 狂野欧美性猛xxxx乱大交 | 亚洲人交乣女bbw | 亚洲综合色区中文字幕 | 熟女俱乐部五十路六十路av | 无码人妻久久一区二区三区不卡 | 帮老师解开蕾丝奶罩吸乳网站 | 欧美国产日产一区二区 | 女高中生第一次破苞av | 亚洲成av人片在线观看无码不卡 | 亚洲欧美日韩综合久久久 | 亚洲一区二区三区国产精华液 | 欧洲vodafone精品性 | 亚洲日韩av一区二区三区四区 | 国产亚洲欧美日韩亚洲中文色 | 免费观看的无遮挡av | 亚洲 高清 成人 动漫 | 久久久精品成人免费观看 | 国产麻豆精品精东影业av网站 | 国产成人精品视频ⅴa片软件竹菊 | 国产精品无码一区二区桃花视频 | 久久天天躁夜夜躁狠狠 | 国产午夜精品一区二区三区嫩草 | 2020久久香蕉国产线看观看 | 日韩亚洲欧美中文高清在线 | 嫩b人妻精品一区二区三区 | 国产成人无码av一区二区 | 日本va欧美va欧美va精品 | 亚洲中文字幕在线无码一区二区 | 精品无码av一区二区三区 | 国产精品二区一区二区aⅴ污介绍 | 国产三级精品三级男人的天堂 | 成人影院yy111111在线观看 | 日韩无码专区 | 日本大香伊一区二区三区 | 狠狠综合久久久久综合网 | 波多野结衣av一区二区全免费观看 | 无码一区二区三区在线观看 | 一区二区三区乱码在线 | 欧洲 | 国产成人精品必看 | 粗大的内捧猛烈进出视频 | 四虎影视成人永久免费观看视频 | 色老头在线一区二区三区 | 亚洲另类伦春色综合小说 | 精品国产成人一区二区三区 | 日韩av无码一区二区三区不卡 | 久久精品国产一区二区三区 | 亚洲国产精品一区二区美利坚 | 人人澡人人妻人人爽人人蜜桃 | 波多野结衣av一区二区全免费观看 | 激情爆乳一区二区三区 | 无码人妻久久一区二区三区不卡 | 装睡被陌生人摸出水好爽 | 中文字幕乱码人妻无码久久 | 又粗又大又硬毛片免费看 | 99久久亚洲精品无码毛片 | 日本爽爽爽爽爽爽在线观看免 | 丰满少妇女裸体bbw | 日本一区二区更新不卡 | 中文无码伦av中文字幕 | 日韩视频 中文字幕 视频一区 | 国产乱码精品一品二品 | 人妻与老人中文字幕 | 亚洲熟妇色xxxxx亚洲 | 久久亚洲中文字幕精品一区 | 2019nv天堂香蕉在线观看 | 国产精品亚洲а∨无码播放麻豆 | 无码国产激情在线观看 | 日韩少妇内射免费播放 | 精品国偷自产在线 | 亚洲综合色区中文字幕 | 中文字幕亚洲情99在线 | 欧美激情一区二区三区成人 | 夜精品a片一区二区三区无码白浆 | av人摸人人人澡人人超碰下载 | 欧美性生交活xxxxxdddd | 亚洲色欲色欲天天天www | 成人欧美一区二区三区 | 一个人看的视频www在线 | 无码一区二区三区在线 | 99riav国产精品视频 | 一区二区三区乱码在线 | 欧洲 | 亚洲成av人影院在线观看 | 野外少妇愉情中文字幕 | 性欧美熟妇videofreesex | 暴力强奷在线播放无码 | 久久精品99久久香蕉国产色戒 | 久久精品国产精品国产精品污 | 久久久久免费看成人影片 | 风流少妇按摩来高潮 | 成人av无码一区二区三区 | 人人妻人人澡人人爽人人精品浪潮 | 亚洲综合无码一区二区三区 | 日韩人妻少妇一区二区三区 | 久久99精品久久久久久 | 丰满诱人的人妻3 | 男人和女人高潮免费网站 | 给我免费的视频在线观看 | 亚洲另类伦春色综合小说 | 成人精品视频一区二区三区尤物 | 午夜精品久久久内射近拍高清 | 2020最新国产自产精品 | 一本久久a久久精品vr综合 | 荡女精品导航 | 激情内射亚州一区二区三区爱妻 | 日本一区二区三区免费高清 | 国产在热线精品视频 | 亚洲小说图区综合在线 | 中国大陆精品视频xxxx | 天下第一社区视频www日本 | 国产又粗又硬又大爽黄老大爷视 | 波多野42部无码喷潮在线 | 亚洲精品一区二区三区在线 | 国产精品亚洲一区二区三区喷水 | 男女超爽视频免费播放 | 国产精品va在线观看无码 | 国产成人午夜福利在线播放 | 成人免费视频在线观看 | 西西人体www44rt大胆高清 | 亚洲国产精品美女久久久久 | 欧美三级a做爰在线观看 | 福利一区二区三区视频在线观看 | 国产精品无码永久免费888 | 2020久久超碰国产精品最新 | 欧美精品在线观看 | 国产香蕉尹人综合在线观看 | 久久精品一区二区三区四区 | 精品 日韩 国产 欧美 视频 | aⅴ亚洲 日韩 色 图网站 播放 | 国产色视频一区二区三区 | 中文字幕无码乱人伦 | 精品成在人线av无码免费看 | 国産精品久久久久久久 | 88国产精品欧美一区二区三区 | 2019nv天堂香蕉在线观看 | 水蜜桃av无码 | 日日麻批免费40分钟无码 | 亚洲国产欧美国产综合一区 | 老司机亚洲精品影院无码 | 曰韩少妇内射免费播放 | 黑人巨大精品欧美黑寡妇 | 日本大乳高潮视频在线观看 | 日本一本二本三区免费 | 国产舌乚八伦偷品w中 | 中文字幕人妻无码一区二区三区 | 国产另类ts人妖一区二区 | 天天拍夜夜添久久精品 | 麻豆果冻传媒2021精品传媒一区下载 | 久久熟妇人妻午夜寂寞影院 | 狠狠综合久久久久综合网 | √天堂资源地址中文在线 | 性欧美牲交xxxxx视频 | 秋霞特色aa大片 | 真人与拘做受免费视频一 | 国产精品第一国产精品 | 麻豆蜜桃av蜜臀av色欲av | 久久亚洲中文字幕无码 | 亚洲理论电影在线观看 | 免费人成在线视频无码 | 亚洲精品无码人妻无码 | 午夜无码人妻av大片色欲 | 成人精品视频一区二区 | 免费国产黄网站在线观看 | 国产亚洲精品久久久闺蜜 | 久久精品国产精品国产精品污 | 国产真实乱对白精彩久久 | 人妻少妇精品视频专区 | 国产高清av在线播放 | 性欧美熟妇videofreesex | 午夜精品久久久久久久久 | 亚洲日本va午夜在线电影 | 亚洲午夜福利在线观看 | 东京热一精品无码av | 中文字幕无码av激情不卡 | 国产av一区二区三区最新精品 | 国产乱人伦app精品久久 国产在线无码精品电影网 国产国产精品人在线视 | 亚洲精品国产品国语在线观看 | 亚洲欧美国产精品专区久久 | 日日摸夜夜摸狠狠摸婷婷 | 国产两女互慰高潮视频在线观看 | 久久99精品国产麻豆 | 久久99精品久久久久婷婷 | a在线观看免费网站大全 | 中文字幕 亚洲精品 第1页 | 欧美阿v高清资源不卡在线播放 | 亚洲日本在线电影 | 日本xxxx色视频在线观看免费 | 久热国产vs视频在线观看 | 永久免费观看美女裸体的网站 | 亚洲成熟女人毛毛耸耸多 | 欧美 丝袜 自拍 制服 另类 | 国产偷国产偷精品高清尤物 | 一本无码人妻在中文字幕免费 | 国产特级毛片aaaaaa高潮流水 | 噜噜噜亚洲色成人网站 | 狂野欧美激情性xxxx | 好爽又高潮了毛片免费下载 | 国产明星裸体无码xxxx视频 | 高清国产亚洲精品自在久久 | 国产成人无码av片在线观看不卡 | 欧美成人高清在线播放 | 欧美人与动性行为视频 | 纯爱无遮挡h肉动漫在线播放 | 成人免费视频在线观看 | 国产猛烈高潮尖叫视频免费 | 2019nv天堂香蕉在线观看 | 鲁鲁鲁爽爽爽在线视频观看 | 国产麻豆精品一区二区三区v视界 | 精品无人区无码乱码毛片国产 | 强奷人妻日本中文字幕 | 国产乱子伦视频在线播放 | 中文字幕乱妇无码av在线 | 国产成人一区二区三区别 | 激情爆乳一区二区三区 | 国产人妻人伦精品1国产丝袜 | 色五月五月丁香亚洲综合网 | 亚洲精品综合五月久久小说 | 欧美喷潮久久久xxxxx | 老头边吃奶边弄进去呻吟 | 久久国产精品偷任你爽任你 | 国产精品无码一区二区桃花视频 | 午夜福利不卡在线视频 | 亚洲国产精品久久久久久 | 亚洲 欧美 激情 小说 另类 | 亚洲一区二区三区播放 | 日韩欧美中文字幕在线三区 | 久久久www成人免费毛片 | 一本久久a久久精品vr综合 | 少妇性l交大片欧洲热妇乱xxx | 露脸叫床粗话东北少妇 | 亚洲 日韩 欧美 成人 在线观看 | 日韩av无码中文无码电影 | 精品国精品国产自在久国产87 | 狂野欧美性猛xxxx乱大交 | 亚洲国产精品一区二区美利坚 | 国产成人午夜福利在线播放 | 成 人 免费观看网站 | 夜精品a片一区二区三区无码白浆 | 国产亚洲视频中文字幕97精品 | 丰满人妻一区二区三区免费视频 | 在线播放免费人成毛片乱码 | 欧美阿v高清资源不卡在线播放 | 鲁鲁鲁爽爽爽在线视频观看 | 性色欲网站人妻丰满中文久久不卡 | 日本一卡2卡3卡四卡精品网站 | 九九热爱视频精品 | 婷婷五月综合缴情在线视频 | 国产精华av午夜在线观看 | 国产人妻大战黑人第1集 | 爱做久久久久久 | 亚洲a无码综合a国产av中文 | 亚洲精品国偷拍自产在线观看蜜桃 | 国产av一区二区三区最新精品 | 亚洲午夜无码久久 | 亚洲精品国产a久久久久久 | 麻豆人妻少妇精品无码专区 | 精品日本一区二区三区在线观看 | 亚洲欧洲日本综合aⅴ在线 | 永久免费观看国产裸体美女 | 成人动漫在线观看 | 日日麻批免费40分钟无码 | 又大又硬又爽免费视频 | 国产成人精品一区二区在线小狼 | 欧美放荡的少妇 | 377p欧洲日本亚洲大胆 | 国产偷自视频区视频 | 一本色道久久综合狠狠躁 | 扒开双腿疯狂进出爽爽爽视频 | 国产精品亚洲а∨无码播放麻豆 | 成 人 免费观看网站 | 无码人妻久久一区二区三区不卡 | 少妇性l交大片 | 国产av一区二区三区最新精品 | 久久精品中文字幕大胸 | 中文字幕无码视频专区 | 中文无码精品a∨在线观看不卡 | 国产精品久久久久7777 | 久久久久久久人妻无码中文字幕爆 | 99麻豆久久久国产精品免费 | 特级做a爰片毛片免费69 | 丰满肥臀大屁股熟妇激情视频 | 狠狠色欧美亚洲狠狠色www | 国产人妖乱国产精品人妖 | 久久精品女人天堂av免费观看 | 强开小婷嫩苞又嫩又紧视频 | 99久久久无码国产aaa精品 | 18黄暴禁片在线观看 | 99国产精品白浆在线观看免费 | √天堂资源地址中文在线 | 老子影院午夜伦不卡 | 国产午夜亚洲精品不卡 | 国产亚洲精品久久久久久国模美 | 中国女人内谢69xxxx | 波多野42部无码喷潮在线 | 国产无遮挡又黄又爽免费视频 | 成年美女黄网站色大免费全看 | 最近中文2019字幕第二页 | 亚洲国产av精品一区二区蜜芽 | 亚洲国精产品一二二线 | 999久久久国产精品消防器材 | 无遮无挡爽爽免费视频 | а天堂中文在线官网 | 日本护士毛茸茸高潮 | 欧美人与物videos另类 | 天天做天天爱天天爽综合网 | 国产内射爽爽大片视频社区在线 | 久久午夜无码鲁丝片午夜精品 | 日本精品少妇一区二区三区 | 无码毛片视频一区二区本码 | 亚洲自偷自拍另类第1页 | 国精产品一区二区三区 | 欧美性猛交内射兽交老熟妇 | 伦伦影院午夜理论片 | 亲嘴扒胸摸屁股激烈网站 | 精品偷自拍另类在线观看 | 国产精品久久精品三级 | 亚洲第一无码av无码专区 | 乌克兰少妇性做爰 | 在线 国产 欧美 亚洲 天堂 | 久久精品无码一区二区三区 | 内射白嫩少妇超碰 | 亚洲一区二区三区国产精华液 | 亚洲熟女一区二区三区 | 亚洲の无码国产の无码影院 | 人妻少妇精品无码专区动漫 | 免费无码的av片在线观看 | 国产精品欧美成人 | 免费无码一区二区三区蜜桃大 | 在线a亚洲视频播放在线观看 | 精品久久久中文字幕人妻 | 日韩人妻少妇一区二区三区 | 久久99精品久久久久婷婷 | 狠狠cao日日穞夜夜穞av | 爱做久久久久久 | 国产 浪潮av性色四虎 | 中文无码精品a∨在线观看不卡 | 亚洲国产精品一区二区第一页 | 无码播放一区二区三区 | 久久精品丝袜高跟鞋 | 中文字幕中文有码在线 | 国产莉萝无码av在线播放 | 国精产品一品二品国精品69xx | 超碰97人人做人人爱少妇 | 无码人妻出轨黑人中文字幕 | 欧美阿v高清资源不卡在线播放 | 国语精品一区二区三区 | 久久午夜无码鲁丝片 | 福利一区二区三区视频在线观看 | 欧美野外疯狂做受xxxx高潮 | 亚洲爆乳精品无码一区二区三区 | 67194成是人免费无码 | 亚洲毛片av日韩av无码 | 国产精品沙发午睡系列 | 少妇高潮一区二区三区99 | 夜夜夜高潮夜夜爽夜夜爰爰 | 日本熟妇乱子伦xxxx | 国产亚洲精品久久久久久久 | 亚洲区欧美区综合区自拍区 | 麻豆精品国产精华精华液好用吗 | 精品水蜜桃久久久久久久 | 又大又紧又粉嫩18p少妇 | 一二三四在线观看免费视频 | 日本熟妇人妻xxxxx人hd | 久久无码专区国产精品s | 四虎影视成人永久免费观看视频 | 狠狠噜狠狠狠狠丁香五月 | 丁香啪啪综合成人亚洲 | 日韩欧美群交p片內射中文 | 国产真实伦对白全集 | 国产精品亚洲а∨无码播放麻豆 | 男女爱爱好爽视频免费看 | 人妻熟女一区 | 亚洲国产精品久久久天堂 | 欧美 亚洲 国产 另类 | 麻豆国产人妻欲求不满谁演的 | 日韩少妇内射免费播放 | 十八禁真人啪啪免费网站 | 无遮挡国产高潮视频免费观看 | 成人无码精品1区2区3区免费看 | 永久免费观看国产裸体美女 | 一个人免费观看的www视频 | 国产成人亚洲综合无码 | 国产在线精品一区二区高清不卡 | 日本在线高清不卡免费播放 | 亚洲国产av精品一区二区蜜芽 | 亚洲国产午夜精品理论片 | 欧美老妇与禽交 | 俺去俺来也在线www色官网 | 六十路熟妇乱子伦 | 精品熟女少妇av免费观看 | 亚洲精品久久久久中文第一幕 | 无码一区二区三区在线观看 | 水蜜桃亚洲一二三四在线 | 精品国产aⅴ无码一区二区 | 国产亚洲人成在线播放 | 国精产品一品二品国精品69xx | a在线亚洲男人的天堂 | 99久久亚洲精品无码毛片 | 无码精品人妻一区二区三区av | 亚洲欧洲中文日韩av乱码 | 丰满诱人的人妻3 | 亚洲乱亚洲乱妇50p | 久久精品一区二区三区四区 | 国产真人无遮挡作爱免费视频 | 国产精品无码一区二区桃花视频 | 国产午夜福利亚洲第一 | 国产女主播喷水视频在线观看 | 国产精品香蕉在线观看 | 亚洲成av人片天堂网无码】 | 人妻少妇精品久久 | 国产深夜福利视频在线 | 一本久久伊人热热精品中文字幕 | 奇米影视7777久久精品人人爽 | 国产后入清纯学生妹 | 亚洲精品午夜国产va久久成人 | a在线亚洲男人的天堂 | 日本精品久久久久中文字幕 | 久久伊人色av天堂九九小黄鸭 | 白嫩日本少妇做爰 | 999久久久国产精品消防器材 | 亚洲春色在线视频 | 极品嫩模高潮叫床 | 成人一区二区免费视频 | 无码人妻久久一区二区三区不卡 | 青青草原综合久久大伊人精品 | 美女黄网站人色视频免费国产 | 亚洲人成网站色7799 | 亚洲精品午夜国产va久久成人 | 强伦人妻一区二区三区视频18 | 亚洲精品鲁一鲁一区二区三区 | a在线亚洲男人的天堂 | 精品午夜福利在线观看 | 99re在线播放 | 国产成人无码a区在线观看视频app | 玩弄少妇高潮ⅹxxxyw | 少妇激情av一区二区 | 国产美女精品一区二区三区 | 国产在线aaa片一区二区99 | 在线观看欧美一区二区三区 | 东京热一精品无码av | 色一情一乱一伦一区二区三欧美 | 亚洲伊人久久精品影院 | 男人扒开女人内裤强吻桶进去 | 成人无码精品一区二区三区 | 国产午夜精品一区二区三区嫩草 | 亚洲乱亚洲乱妇50p | 女人和拘做爰正片视频 | 国产成人av免费观看 | 蜜桃无码一区二区三区 | 国产成人无码av一区二区 | 国产精品99久久精品爆乳 | 青青久在线视频免费观看 | 国产xxx69麻豆国语对白 | а√天堂www在线天堂小说 | 狠狠色噜噜狠狠狠7777奇米 | 久久久久av无码免费网 | 99久久久无码国产aaa精品 | 亚洲乱亚洲乱妇50p | 日本大乳高潮视频在线观看 | 人妻与老人中文字幕 | 美女毛片一区二区三区四区 | 精品国产乱码久久久久乱码 | 激情综合激情五月俺也去 | 300部国产真实乱 | 网友自拍区视频精品 | 亲嘴扒胸摸屁股激烈网站 | 久久99国产综合精品 | 男女性色大片免费网站 | 一个人免费观看的www视频 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 国产精品自产拍在线观看 | 国产精品久久久久久亚洲影视内衣 | 51国偷自产一区二区三区 | 久久综合激激的五月天 | 水蜜桃色314在线观看 | 久激情内射婷内射蜜桃人妖 | 性欧美疯狂xxxxbbbb | 日本www一道久久久免费榴莲 | 日韩精品久久久肉伦网站 | 野狼第一精品社区 | 又湿又紧又大又爽a视频国产 | 国产精品国产自线拍免费软件 | 国精产品一区二区三区 | 乱码午夜-极国产极内射 | 国产一区二区不卡老阿姨 | 欧美激情综合亚洲一二区 | 成人精品天堂一区二区三区 | 在线播放免费人成毛片乱码 | 国产亚洲精品久久久久久久 | 国产国语老龄妇女a片 | 午夜福利试看120秒体验区 | 国产成人无码一二三区视频 | 色婷婷av一区二区三区之红樱桃 | 婷婷色婷婷开心五月四房播播 | 黄网在线观看免费网站 | 无码午夜成人1000部免费视频 | 久久亚洲日韩精品一区二区三区 | 日本大香伊一区二区三区 | 又色又爽又黄的美女裸体网站 | 精品欧美一区二区三区久久久 | 人妻体内射精一区二区三四 | 色婷婷久久一区二区三区麻豆 | 在线精品亚洲一区二区 | 在线观看国产午夜福利片 | 精品水蜜桃久久久久久久 | 国产真实乱对白精彩久久 | 无码人妻丰满熟妇区五十路百度 | 成人影院yy111111在线观看 | 中文字幕av伊人av无码av | 国产美女精品一区二区三区 | 在线看片无码永久免费视频 | 精品久久久久香蕉网 | 亚洲综合精品香蕉久久网 | 蜜臀aⅴ国产精品久久久国产老师 | 荫蒂添的好舒服视频囗交 | 国产午夜视频在线观看 | 精品人妻人人做人人爽夜夜爽 | 国产成人无码av片在线观看不卡 | 久久久av男人的天堂 | 亚洲理论电影在线观看 | 青草视频在线播放 | 国产美女精品一区二区三区 | 亚洲欧美国产精品久久 | 又大又黄又粗又爽的免费视频 | 国产成人无码av片在线观看不卡 | 中文字幕av日韩精品一区二区 | 国产熟女一区二区三区四区五区 | 亚洲色无码一区二区三区 | 99久久久无码国产精品免费 | 2020最新国产自产精品 | 中文字幕+乱码+中文字幕一区 | 少妇邻居内射在线 | 亚洲成色在线综合网站 | 国产内射爽爽大片视频社区在线 | 国产特级毛片aaaaaaa高清 | 欧美第一黄网免费网站 | 精品久久久久香蕉网 | 久久综合九色综合97网 | 国产免费久久久久久无码 | 亚洲阿v天堂在线 | 国产两女互慰高潮视频在线观看 | 国产精品亚洲а∨无码播放麻豆 | 色一情一乱一伦一区二区三欧美 | 我要看www免费看插插视频 | 欧美人与物videos另类 | 男女性色大片免费网站 | 国产成人精品必看 | 亚洲另类伦春色综合小说 | 国产免费久久久久久无码 | 亚洲精品国偷拍自产在线观看蜜桃 | av人摸人人人澡人人超碰下载 | 无码毛片视频一区二区本码 | 亚洲精品国偷拍自产在线麻豆 | 成人女人看片免费视频放人 | 亚洲综合在线一区二区三区 | 99久久精品日本一区二区免费 | 久久久精品成人免费观看 | 国产农村乱对白刺激视频 | 成人亚洲精品久久久久软件 | 久久无码人妻影院 | 久久午夜夜伦鲁鲁片无码免费 | 天天爽夜夜爽夜夜爽 | 免费观看激色视频网站 | 亚洲国产欧美国产综合一区 | 国产成人无码av片在线观看不卡 | 亚洲精品一区二区三区四区五区 | 少妇无码一区二区二三区 | 久久精品人妻少妇一区二区三区 | 久久综合激激的五月天 | 丝袜 中出 制服 人妻 美腿 | 久激情内射婷内射蜜桃人妖 | 少女韩国电视剧在线观看完整 | 婷婷色婷婷开心五月四房播播 | 永久黄网站色视频免费直播 | 中文字幕中文有码在线 | 亚洲国产精品久久久久久 | 少妇无套内谢久久久久 | 日本熟妇乱子伦xxxx | 亚洲成a人片在线观看日本 | 成人aaa片一区国产精品 | 丰满人妻一区二区三区免费视频 | 300部国产真实乱 | 在线亚洲高清揄拍自拍一品区 | 久久亚洲精品成人无码 | 国产精品-区区久久久狼 | 国产乱码精品一品二品 | 99久久精品午夜一区二区 | 九月婷婷人人澡人人添人人爽 | 少妇的肉体aa片免费 | 中文字幕av日韩精品一区二区 | 天干天干啦夜天干天2017 | 久久综合香蕉国产蜜臀av | 巨爆乳无码视频在线观看 | 日韩成人一区二区三区在线观看 | 国产乱人偷精品人妻a片 | 露脸叫床粗话东北少妇 | 东京无码熟妇人妻av在线网址 | 国产精品内射视频免费 | 国产精品亚洲五月天高清 | 日本精品人妻无码免费大全 | 亚洲乱码国产乱码精品精 | 国产精品久久国产精品99 | 麻豆国产丝袜白领秘书在线观看 | 久久综合香蕉国产蜜臀av | 无码精品国产va在线观看dvd | 亚洲色www成人永久网址 | 日本精品久久久久中文字幕 | 国产特级毛片aaaaaa高潮流水 | 国产成人亚洲综合无码 | 欧美人与物videos另类 | 国产明星裸体无码xxxx视频 | 丝袜足控一区二区三区 | 色综合久久中文娱乐网 | 久久午夜无码鲁丝片秋霞 | 久久久成人毛片无码 | 日韩成人一区二区三区在线观看 | 一本久道久久综合婷婷五月 | 欧美xxxxx精品 | 东京热男人av天堂 | 亚洲爆乳精品无码一区二区三区 | 国产suv精品一区二区五 | 丰满人妻一区二区三区免费视频 | 全球成人中文在线 | 人妻aⅴ无码一区二区三区 | 久久无码中文字幕免费影院蜜桃 | 人妻中文无码久热丝袜 | 成熟人妻av无码专区 | 国精产品一品二品国精品69xx | 久久精品中文闷骚内射 | av小次郎收藏 | 欧美猛少妇色xxxxx | 亚洲中文字幕在线观看 | 无码人妻精品一区二区三区不卡 | 熟女少妇在线视频播放 | 久久99精品国产麻豆 | 国产亚洲美女精品久久久2020 | 宝宝好涨水快流出来免费视频 | 国产成人精品三级麻豆 | 国产精品办公室沙发 | 国产午夜手机精彩视频 | 思思久久99热只有频精品66 | 国产极品美女高潮无套在线观看 | 国产 精品 自在自线 | 人妻天天爽夜夜爽一区二区 | 999久久久国产精品消防器材 | 国产亚洲精品久久久久久国模美 | 日韩精品a片一区二区三区妖精 | 国产97在线 | 亚洲 | 少妇被黑人到高潮喷出白浆 | 高中生自慰www网站 | 国产精品99久久精品爆乳 | 少妇性l交大片欧洲热妇乱xxx | 中文字幕色婷婷在线视频 | 中文字幕无码日韩欧毛 | 欧美熟妇另类久久久久久多毛 | 蜜桃无码一区二区三区 | 福利一区二区三区视频在线观看 | 狠狠色丁香久久婷婷综合五月 | 午夜福利试看120秒体验区 | 亚洲а∨天堂久久精品2021 | 成人一在线视频日韩国产 | 麻豆果冻传媒2021精品传媒一区下载 | 日韩亚洲欧美中文高清在线 | 色婷婷香蕉在线一区二区 | 久久精品国产一区二区三区肥胖 | 六十路熟妇乱子伦 | 人妻少妇被猛烈进入中文字幕 | 久9re热视频这里只有精品 | 国产香蕉尹人综合在线观看 | 澳门永久av免费网站 | 久久精品国产一区二区三区 | 亚洲国产欧美国产综合一区 | 97色伦图片97综合影院 | 国产精品欧美成人 | 伦伦影院午夜理论片 | 欧美日韩综合一区二区三区 | 色婷婷久久一区二区三区麻豆 | 无码福利日韩神码福利片 | 日本高清一区免费中文视频 | 国产精品久久久久久久影院 | 性欧美熟妇videofreesex | 人人妻人人澡人人爽欧美一区九九 | 日韩精品无码一本二本三本色 | 国精品人妻无码一区二区三区蜜柚 | 人妻天天爽夜夜爽一区二区 | 国产成人一区二区三区在线观看 | 国产无套粉嫩白浆在线 | 夜夜影院未满十八勿进 | 免费无码肉片在线观看 | 国产精品高潮呻吟av久久 | 久久无码专区国产精品s | 久青草影院在线观看国产 | 粉嫩少妇内射浓精videos | 亚洲毛片av日韩av无码 | 国产精华av午夜在线观看 | 国产成人精品一区二区在线小狼 | 九一九色国产 | 久久99热只有频精品8 | 精品无人区无码乱码毛片国产 | 最新国产麻豆aⅴ精品无码 | 老司机亚洲精品影院 | 国产亚洲视频中文字幕97精品 | 又粗又大又硬毛片免费看 | 捆绑白丝粉色jk震动捧喷白浆 | 熟妇女人妻丰满少妇中文字幕 | 成人女人看片免费视频放人 | 日本护士毛茸茸高潮 | 国产免费观看黄av片 | 国产极品视觉盛宴 | 55夜色66夜色国产精品视频 | 精品水蜜桃久久久久久久 | 日韩欧美中文字幕在线三区 | 欧美三级a做爰在线观看 | 奇米综合四色77777久久 东京无码熟妇人妻av在线网址 | 亚洲精品综合五月久久小说 | 久久精品国产一区二区三区 | 久久亚洲国产成人精品性色 | 国产婷婷色一区二区三区在线 | 特黄特色大片免费播放器图片 | 丝袜人妻一区二区三区 | 国产综合色产在线精品 | 人妻与老人中文字幕 | 天天摸天天碰天天添 | 欧美丰满老熟妇xxxxx性 | 国产高清av在线播放 | 国产成人精品三级麻豆 | 婷婷五月综合缴情在线视频 | 亚洲啪av永久无码精品放毛片 | 久久精品国产精品国产精品污 | 欧美午夜特黄aaaaaa片 | 日本精品久久久久中文字幕 | 国精品人妻无码一区二区三区蜜柚 | 久久99久久99精品中文字幕 | 在线a亚洲视频播放在线观看 | 久久久亚洲欧洲日产国码αv | 免费乱码人妻系列无码专区 | 色综合视频一区二区三区 | 77777熟女视频在线观看 а天堂中文在线官网 | 亚拍精品一区二区三区探花 | 九九热爱视频精品 | 国产成人综合在线女婷五月99播放 | 乱码av麻豆丝袜熟女系列 | 久久久中文久久久无码 | 国产午夜视频在线观看 | 成人欧美一区二区三区黑人 | 激情五月综合色婷婷一区二区 | 青青青手机频在线观看 | 久久精品国产一区二区三区肥胖 | 性色欲网站人妻丰满中文久久不卡 | 牲欲强的熟妇农村老妇女 | 国产真实夫妇视频 | 国产成人综合色在线观看网站 | 无码吃奶揉捏奶头高潮视频 | 日韩精品久久久肉伦网站 | 国产色在线 | 国产 | 丝袜美腿亚洲一区二区 | 亚洲一区二区三区香蕉 | 成在人线av无码免观看麻豆 | 欧美日韩一区二区免费视频 | 久久久无码中文字幕久... | 久久综合色之久久综合 | 丰满人妻被黑人猛烈进入 | 狠狠综合久久久久综合网 | 精品国产福利一区二区 | 亚洲成a人片在线观看无码3d | 97久久国产亚洲精品超碰热 | 国产69精品久久久久app下载 | 乱人伦人妻中文字幕无码久久网 | 亚洲一区二区三区在线观看网站 | 黑人巨大精品欧美一区二区 | 国产午夜手机精彩视频 | 国产深夜福利视频在线 | 高潮毛片无遮挡高清免费视频 | 狠狠色噜噜狠狠狠狠7777米奇 | 亚洲国产一区二区三区在线观看 | 一本久道久久综合婷婷五月 | 亚洲熟悉妇女xxx妇女av | 久久人人97超碰a片精品 | 成 人影片 免费观看 | 亚洲精品国产第一综合99久久 | 装睡被陌生人摸出水好爽 | 国产乱人无码伦av在线a | 精品成在人线av无码免费看 | 中文字幕亚洲情99在线 | 久久精品无码一区二区三区 | 漂亮人妻洗澡被公强 日日躁 | 欧美大屁股xxxxhd黑色 | 牲欲强的熟妇农村老妇女 | 无码国产色欲xxxxx视频 | 国产激情艳情在线看视频 | 免费乱码人妻系列无码专区 | 久久久久亚洲精品中文字幕 | 亚洲阿v天堂在线 | 国产电影无码午夜在线播放 | 伊人久久婷婷五月综合97色 | 色综合久久中文娱乐网 | 婷婷丁香五月天综合东京热 | 俄罗斯老熟妇色xxxx | 久久99精品国产麻豆蜜芽 | 国产亚av手机在线观看 | 少妇性荡欲午夜性开放视频剧场 | 大乳丰满人妻中文字幕日本 |