天天看點

使用kubeadm搭建kubernetes單機master,親測無異常

使用kubeadm搭建kubernetes單機master,親測無異常

本專欄記錄了樓主安裝k8s master的過程,耗時2周,原因是百度上的教程基本都不好用。樓主承諾本文章好用,建議收藏。

1.準備工作

1.确認環境

swapoff -a  //關閉swap
setenforce 0 //臨時關閉selinux      

每台機器的以下内容不能相同

sudo cat /sys/class/dmi/id/product_uuid        //每台機器的uuid不能相同
ifconfig -a   //ip不能相同      

2.開放端口

協定 方向 端口範圍 作用 使用者
TCP 入站 6443 Kubernetes API 伺服器 所有元件
2379-2380 etcd 伺服器用戶端 API kube-apiserver, etcd
10250 Kubelet API kubelet 自身、控制平面元件
10251 kube-scheduler kube-scheduler 自身
10252 kube-controller-manager kube-controller-manager 自身
8080 kubelet kubelet自身
30000-32767 NodePort 服務†
端口号一定要安排明白!!!!否者會出現類似dial tcp 10.96.0.1:443: connect: no route to host錯誤,如果測試環境一直弄不好,可以關閉防火牆。ps:及其不建議。

3.允許 iptables 檢查橋接流量

cat <<EOF | sudo tee /etc/modules-load.d/k8s.conf
br_netfilter
EOF
 
cat <<EOF | sudo tee /etc/sysctl.d/k8s.conf
net.bridge.bridge-nf-call-ip6tables = 1
net.bridge.bridge-nf-call-iptables = 1
EOF
sudo sysctl --system      

2.安裝

1.安裝kubeadm,kubectl,kubelet

添加鏡像
cat <<EOF | sudo tee /etc/yum.repos.d/kubernetes.repo
[kubernetes] 
name=Kubernetes 
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64 
enabled=1 
gpgcheck=0 
repo_gpgcheck=0 
EOF
 
# 将 SELinux 設定為 permissive 模式(相當于将其禁用)
sudo setenforce 0
sudo sed -i 's/^SELINUX=enforcing$/SELINUX=permissive/' /etc/selinux/config
sudo yum install -y kubelet kubeadm kubectl --disableexcludes=kubernetes  下載下傳鏡像
sudo systemctl enable --now kubelet 
//檢視是否安裝成功
kubeadm version
kubectl version --client
kubelet --version      

出現以下顯示證明安裝成功,且能看到安裝版本。

使用kubeadm搭建kubernetes單機master,親測無異常

2.安裝插件

yum -y install socat conntrack-tools      

3.修改docker組為systemd

需要提前安裝好docker

sudo mkdir /etc/docker
cat <<EOF | sudo tee /etc/docker/daemon.json
{
  "exec-opts": ["native.cgroupdriver=systemd"],
  "log-driver": "json-file",
  "log-opts": {
    "max-size": "100m"
  },
  "storage-driver": "overlay2"
}
EOF
 
sudo systemctl enable docker
sudo systemctl daemon-reload
sudo systemctl restart docker      

4.k8s拉取需要鏡像

可以通過kubeadm config images pull指令下載下傳鏡像,但是很大機率連接配接失效,是以使用阿裡鏡像指令!

如果使用v1.21.0版本,語句可以跟樓主相同,否則請根據以上指令需要的自行拉取。

docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager:v1.21.1
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver:v1.21.1
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler:v1.21.1
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy:v1.21.1
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.4.1
docker pull registry.cn-hangzhou.aliyuncs.com/google_containers/etcd:3.4.13-0
docker pull coredns/coredns:1.8.0      

在k8s安裝時會預設在鏡像中擷取k8s.gcr.io字首的鏡像,是以将上文下載下傳好的鏡像更改名稱。

docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-apiserver:v1.21.1 k8s.gcr.io/kube-apiserver:v1.21.1
docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-proxy:v1.21.1 k8s.gcr.io/kube-proxy:v1.21.1
docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-controller-manager:v1.21.1 k8s.gcr.io/kube-controller-manager:v1.21.1
docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/kube-scheduler:v1.21.1 k8s.gcr.io/kube-scheduler:v1.21.1
docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/pause:3.4.1 k8s.gcr.io/pause:3.4.1
docker tag coredns/coredns:1.8.0 k8s.gcr.io/coredns/coredns:v1.8.0
docker tag registry.cn-hangzhou.aliyuncs.com/google_containers/etcd:3.4.13-0 k8s.gcr.io/etcd:3.4.13-0      

5.安裝啟動

1.修改主機映射

vi /etc/hosts      
使用kubeadm搭建kubernetes單機master,親測無異常

2.初始化服務

kubeadm init --apiserver-advertise-address=192.168.44.15 --pod-network-cidr=10.244.0.0/16 --kubernetes-version=v1.21.1 |tee kubeadmin-init.log      

出現以下字樣初始化成功

使用kubeadm搭建kubernetes單機master,親測無異常

3.注意

要使非 root 使用者可以運作 kubectl,請運作以下指令, 它們也是

kubeadm init

輸出的一部分:

mkdir -p $HOME/.kube
sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
sudo chown $(id -u):$(id -g) $HOME/.kube/config      

或者,如果你是root 使用者,則可以運作:

export KUBECONFIG=/etc/kubernetes/admin.conf      
如果想重新初始化,可以執行 kubeadm reset。

6.安裝flannel

kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml      
如果出現Connecting to raw.githubusercontent.com refused,可以執行vi /etc/hosts 在後面添加199.232.96.133 raw.githubusercontent.com
使用kubeadm搭建kubernetes單機master,親測無異常

7.驗證

kubectl get nodes      
使用kubeadm搭建kubernetes單機master,親測無異常

如果出現ready則代表安裝完成,master節點已經注冊到了k8s。

8.異常處理

如果出現NotReady,可以執行以下語句判斷伺服器狀态。

kubectl get nodes -o yaml      

以下綠色部分沒有問題,紅色部分異常

message:docker: network plugin is not ready: cni config uninitialized

使用kubeadm搭建kubernetes單機master,親測無異常

如果出現以上問題 檢視日志。

journalctl -f -u kubelet.service      

如果出現以下日志。

"Error validating CNI config list" configList="{\n  \"name\": \"cbr0\",\n  \"cniVersion\": \"0.3.1\",\n  \"plugins\": [\n    {\n      \"type\": \"flannel\",\n      \"delegate\": {\n        \"hairpinMode\": true,\n        \"isDefaultGateway\": true\n      }\n    },\n    {\n      \"type\": \"portmap\",\n      \"capabilities\": {\n        \"portMappings\": true\n      }\n    }\n  ]\n}\n" err="[failed to find plugin \"flannel\" in path [/opt/cni/bin] failed to find plugin \"portmap\" in path [/opt/cni/bin]]"
      

執行以下指令即可

cat <<EOF > /etc/yum.repos.d/kubernetes.repo
[kubernetes]
name=Kubernetes
baseurl=https://mirrors.aliyun.com/kubernetes/yum/repos/kubernetes-el7-x86_64
enabled=1
gpgcheck=1
repo_gpgcheck=1
gpgkey=https://mirrors.aliyun.com/kubernetes/yum/doc/yum-key.gpg https://mirrors.aliyun.com/kubernetes/yum/doc/rpm-package-key.gpg
EOF
yum clean all
yum install kubernetes-cni -y      

繼續閱讀