天天看點

k8s容器雲架構之dubbo微服務—K8S(04)核心插件-coredns服務K8S核心插件-coredns服務

K8S核心插件-coredns服務

目錄

    • 1 coredns用途
      • 1.1 為什麼需要服務發現
    • 2 coredns的部署
      • 2.1 擷取coredns的docker鏡像
      • 2.2 建立coredns的資源配置清單
        • 2.2.1 rbac叢集權限清單
        • 2.2.2 configmap配置清單
        • 2.2.3 depoly控制器清單
      • 2.2.4 service資源清單
      • 2.3 建立資源并驗證
        • 2.3.1 驗證服務能夠通路`
        • 2.3.2 建立資源:
        • 2.3.3. 檢視建立情況:
        • 2.3.4 使用dig測試解析
        • 2.3.5 建立一個service資源來驗證

coredns github位址

coredns都做了什麼:

Kubernetes内部域名解析原理、弊端及優化方式

coredns在K8S中的用途,主要是用作服務發現,也就是服務(應用)之間互相定位的過程。

在K8S叢集中,POD有以下特性:

  1. 服務動态性強

    容器在k8s中遷移會導緻POD的IP位址變化

  2. 更新釋出頻繁

    版本疊代快,新舊POD的IP位址會不同

  3. 支援自動伸縮

    大促或流量高峰需要動态伸縮,IP位址會動态增減

service資源解決POD服務發現:

為了解決pod位址變化的問題,需要部署service資源,用service資源代理後端pod,通過暴露service資源的固定位址(叢集IP),來解決以上POD資源變化産生的IP變動問題

那service資源的服務發現呢?

service資源提供了一個不變的叢集IP供外部通路,但

  1. IP位址畢竟難以記憶
  2. service資源可能也會被銷毀和建立
  3. 能不能将service資源名稱和service暴露的叢集網絡IP對于
  4. 類似域名與IP關系,則隻需記服務名就能自動比對服務IP
  5. 豈不就達到了service服務的自動發現

在k8s中,coredns就是為了解決以上問題。

從coredns開始,我們使用聲明式向k8s中傳遞容器的方式,來部署服務

以下操作可以在任意節點上完成,推薦在

7.200

上做,因為接下來制作coredns的k8s配置清單也是在運維主機

7.200

上建立後,再到node節點上應用

docker pull docker.io/coredns/coredns:1.6.1
docker tag coredns:1.6.1 harbor.zq.com/public/coredns:v1.6.1
docker push harbor.zq.com/public/coredns:v1.6.1      

以下資源配置清單,都是參考官網改出來的

mkdir -p /data/k8s-yaml/coredns      

cat >/data/k8s-yaml/coredns/rbac.yaml <<EOF
apiVersion: v1
kind: ServiceAccount
metadata:
  name: coredns
  namespace: kube-system
  labels:
      kubernetes.io/cluster-service: "true"
      addonmanager.kubernetes.io/mode: Reconcile
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRole
metadata:
  labels:
    kubernetes.io/bootstrapping: rbac-defaults
    addonmanager.kubernetes.io/mode: Reconcile
  name: system:coredns
rules:
- apiGroups:
  - ""
  resources:
  - endpoints
  - services
  - pods
  - namespaces
  verbs:
  - list
  - watch
---
apiVersion: rbac.authorization.k8s.io/v1
kind: ClusterRoleBinding
metadata:
  annotations:
    rbac.authorization.kubernetes.io/autoupdate: "true"
  labels:
    kubernetes.io/bootstrapping: rbac-defaults
    addonmanager.kubernetes.io/mode: EnsureExists
  name: system:coredns
roleRef:
  apiGroup: rbac.authorization.k8s.io
  kind: ClusterRole
  name: system:coredns
subjects:
- kind: ServiceAccount
  name: coredns
  namespace: kube-system
EOF      

cat >/data/k8s-yaml/coredns/cm.yaml <<EOF
apiVersion: v1
kind: ConfigMap
metadata:
  name: coredns
  namespace: kube-system
data:
  Corefile: |
    .:53 {
        errors
        log
        health
        ready
        kubernetes cluster.local 192.168.0.0/16  #service資源cluster位址
        forward . 10.4.7.11   #上級DNS位址
        cache 30
        loop
        reload
        loadbalance
       }
EOF      

cat >/data/k8s-yaml/coredns/dp.yaml <<EOF
apiVersion: apps/v1
kind: Deployment
metadata:
  name: coredns
  namespace: kube-system
  labels:
    k8s-app: coredns
    kubernetes.io/name: "CoreDNS"
spec:
  replicas: 1
  selector:
    matchLabels:
      k8s-app: coredns
  template:
    metadata:
      labels:
        k8s-app: coredns
    spec:
      priorityClassName: system-cluster-critical
      serviceAccountName: coredns
      containers:
      - name: coredns
        image: harbor.zq.com/public/coredns:v1.6.1
        args:
        - -conf
        - /etc/coredns/Corefile
        volumeMounts:
        - name: config-volume
          mountPath: /etc/coredns
        ports:
        - containerPort: 53
          name: dns
          protocol: UDP
        - containerPort: 53
          name: dns-tcp
          protocol: TCP
        - containerPort: 9153
          name: metrics
          protocol: TCP
        livenessProbe:
          httpGet:
            path: /health
            port: 8080
            scheme: HTTP
          initialDelaySeconds: 60
          timeoutSeconds: 5
          successThreshold: 1
          failureThreshold: 5
      dnsPolicy: Default
      volumes:
        - name: config-volume
          configMap:
            name: coredns
            items:
            - key: Corefile
              path: Corefile
EOF      

cat >/data/k8s-yaml/coredns/svc.yaml <<EOF
apiVersion: v1
kind: Service
metadata:
  name: coredns
  namespace: kube-system
  labels:
    k8s-app: coredns
    kubernetes.io/cluster-service: "true"
    kubernetes.io/name: "CoreDNS"
spec:
  selector:
    k8s-app: coredns
  clusterIP: 192.168.0.2
  ports:
  - name: dns
    port: 53
    protocol: UDP
  - name: dns-tcp
    port: 53
  - name: metrics
    port: 9153
    protocol: TCP
EOF      

在任意NODE節點執行配置都可以,先

[root@hdss7-21 ~]# dig -t A harbor.zq.com  +short
10.4.7.200      

kubectl create -f http://k8s-yaml.zq.com/coredns/rbac.yaml
kubectl create -f http://k8s-yaml.zq.com/coredns/cm.yaml
kubectl create -f http://k8s-yaml.zq.com/coredns/dp.yaml
kubectl create -f http://k8s-yaml.zq.com/coredns/svc.yaml      
k8s容器雲架構之dubbo微服務—K8S(04)核心插件-coredns服務K8S核心插件-coredns服務

kubectl get all -n kube-system
kubectl get svc -o wide -n kube-system
dig -t A www.baidu.com @192.168.0.2 +short      
k8s容器雲架構之dubbo微服務—K8S(04)核心插件-coredns服務K8S核心插件-coredns服務

[root@hdss7-21 ~]# dig -t A www.baidu.com @192.168.0.2 +short
www.a.shifen.com.
39.156.66.18
39.156.66.14
[root@hdss7-21 ~]# dig -t A harbor.zq.com @192.168.0.2 +short
10.4.7.200      

coredns已經能解析外網域名了,因為coredns的配置中,寫了他的上級DNS為

10.4.7.11

,如果它自己解析不出來域名,會通過遞歸查詢一級級查找

但coredns我們不是用來做外網解析的,而是用來做service名和serviceIP的解析

先檢視

kube-public

名稱空間有沒有pod

~]#  kubectl get pod  -n kube-public
No resources found.
# 之前我調試問題已經清理了所有的POD,是以沒有      

如果沒有則先建立pod

kubectl create deployment nginx-dp --image=harbor.zq.com/public/nginx:v1.17.9 -n kube-public
~]# kubectl get deployments -n kube-public 
NAME       READY   UP-TO-DATE   AVAILABLE   AGE
nginx-dp   1/1     1            1           35s
~]#  kubectl get pod  -n kube-public
NAME                       READY   STATUS    RESTARTS   AGE
nginx-dp-568f8dc55-rxvx2   1/1     Running   0          56s      

給pod建立一個service

kubectl expose deployment nginx-dp --port=80 -n kube-public
~]# kubectl -n kube-public get service
NAME       TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)   AGE
nginx-dp   ClusterIP   192.168.63.255   <none>        80/TCP    11s      

驗證是否可以解析

~]# dig -t A nginx-dp @192.168.0.2 +short
# 發現無傳回資料,難道解析不了
# 其實是需要完整域名:服務名.名稱空間.svc.cluster.local.
~]# dig -t A nginx-dp.kube-public.svc.cluster.local. @192.168.0.2 +short
192.168.63.255      

可以看到我們沒有手動添加任何解析記錄,我們nginx-dp的service資源的IP,已經被解析了:

進入到pod内部再次驗證

~]# kubectl -n kube-public exec -it nginx-dp-568f8dc55-rxvx2 /bin/bash
-qjwmz:/# apt update && apt install curl
-qjwmz:/# ping nginx-dp
PING nginx-dp.kube-public.svc.cluster.local (192.168.191.232): 56 data bytes
64 bytes from 192.168.191.232: icmp_seq=0 ttl=64 time=0.184 ms
64 bytes from 192.168.191.232: icmp_seq=1 ttl=64 time=0.225 ms      

為什麼在容器中不用加全域名?

-qjwmz:/# cat /etc/resolv.conf 
nameserver 192.168.0.2
search kube-public.svc.cluster.local svc.cluster.local cluster.local host.com
options ndots:5      

當我進入到pod内部以後,會發現我們的dns位址是我們的coredns位址,以及搜尋域中已經添加了搜尋域:

kube-public.svc.cluster.local

我們解決了在叢集内部解析的問題,要想在叢集外部通路我們的服務還需要

igerss

服務暴露功能

現在,我們已經解決了在叢集内部解析的問題,但是我們怎麼做到在叢集外部通路我們的服務呢?

繼續閱讀