天天看點

提升 Prometheus 的可用性:一文讀懂Thanos 多叢集監控

作者:LinkSLA智能運維管家

介紹

在本文中,我們将看到Prometheus監控技術棧的局限性,以及為什麼移動到基于Thanos的技術棧可以提高名額留存率并降低總體基礎設施成本。

用于此示範的内容可以在下面連結中擷取,并送出到他們各自的許可證。

  • https://github.com/particuleio/teks/tree/main/terragrunt/live/thanos
  • https://github.com/particuleio/terraform-kubernetes-addons/tree/main/modules/aws

Kubernetes技術棧

在為我們的客戶部署Kubernetes基礎設施時,在每個叢集上部署監控技術棧是标準做法。這個堆棧通常由幾個元件組成:

  • Prometheus:收集度量标準
  • 告警管理器:根據名額查詢向各種提供者發送警報
  • Grafana:可視化豪華儀表闆

簡化架構如下:

提升 Prometheus 的可用性:一文讀懂Thanos 多叢集監控

注意事項

這種架構有一些注意事項,當你想從其中擷取名額的叢集數量增加時,它的伸縮性以及可擴充性不太好。

多個Grafana

在這種設定中,每個叢集都有自己的Grafana和自己的一組儀表闆,維護起來很麻煩。

存儲名額資料是昂貴的

Prometheus将名額資料存儲在磁盤上,你必須在存儲空間和名額保留時間之間做出選擇。如果你想長時間存儲資料并在雲提供商上運作,那麼如果存儲TB的資料,塊存儲的成本可能會很高。同樣,在生産環境中,Prometheus經常使用複制或分片或兩者同時運作,這可能會使存儲需求增加兩倍甚至四倍。

解決方案

多個Grafana資料源

可以在外部網絡上公開Prometheus的端點,并将它們作為資料源添加到單個Grafana中。你隻需要在Prometheus外部端點上使用TLS或TLS和基本認證來實作安全性。此解決方案的缺點是不能基于不同的資料源進行計算。

Prometheus聯邦

Prometheus聯邦允許從Prometheus中抓取Prometheus,當你不抓取很多名額資料時,這個解決方案可以很好地工作。在規模上,如果你所有的Prometheus目标的抓取持續時間都比抓取間隔長,可能會遇到一些嚴重的問題。

Prometheus遠端寫

雖然遠端寫入是一種解決方案(也由Thanos receiver實作),但我們将不在本文中讨論“推送名額”部分。你可以在這裡[1]閱讀關于推送名額的利弊。建議在不信任多個叢集或租戶的情況下(例如在将Prometheus建構為服務提供時),将名額作為最後的手段。無論如何,這可能是以後文章的主題,但我們将在這裡集中讨論抓取。

Thanos,它來了

Thanos是一個“開源的,高可用的Prometheus系統,具有長期存儲能力”。很多知名公司都在使用Thanos,也是CNCF孵化項目的一部分。

Thanos的一個主要特點就是允許“無限”存儲空間。通過使用對象存儲(比如S3),幾乎每個雲提供商都提供對象存儲。如果在前提環境下運作,對象存儲可以通過rook或minio這樣的解決方案提供。

它是如何工作的?

Thanos和Prometheus并肩作戰,從Prometheus開始更新到Thanos是很常見的。

Thanos被分成幾個元件,每個元件都有一個目标(每個服務都應該這樣:)),元件之間通過gRPC進行通信。

Thanos Sidecar

提升 Prometheus 的可用性:一文讀懂Thanos 多叢集監控

Thanos和Prometheus一起運作(有一個邊車),每2小時向一個對象存儲庫輸出Prometheus名額。這使得Prometheus幾乎是無狀态的。Prometheus仍然在記憶體中儲存着2個小時的路徑成本,是以在發生當機的情況下,你可能仍然會丢失2個小時的路徑成本(這個問題應該由你的Prometheus設定來處理,使用HA/分片,而不是Thanos)。

Thanos sidecar與Prometheus營運者和Kube Prometheus棧一起,可以輕松部署。這個元件充當Thanos查詢的存儲。

Thanos存儲

Thanos存儲充當一個網關,将查詢轉換為遠端對象存儲。它還可以在本地存儲上緩存一些資訊。基本上,這個元件允許你查詢對象存儲以擷取名額。這個元件充當Thanos查詢的存儲。

Thanos Compactor

Thanos Compactor是一個單例(它是不可擴充的),它負責壓縮和降低存儲在對象存儲中的名額。下采樣是随着時間的推移對名額粒度的寬松。例如,你可能想将你的名額保持2年或3年,但你不需要像昨天的名額那麼多資料點。這就是壓縮器的作用,它可以在對象存儲上節省位元組,進而節省成本。

Thanos Query

Thanos查詢是Thanos的主要元件,它是向其發送PromQL查詢的中心點。Thanos查詢暴露了一個與Prometheus相容的端點。然後它将查詢分派給所有的“stores”。記住,Store可能是任何其他提供名額的Thanos元件。Thanos查詢可以發送查詢到另一個Thanos查詢(他們可以堆疊)。

  • Thanos Store
  • Thanos Sidecar
  • Thanos Query

還負責對來自不同Store或Prometheus的相同名額進行重複資料删除。例如,如果你有一個路徑成本在Prometheus中,同時也在對象存儲中,Thanos Query可以對該名額值進行重複資料删除。在Prometheus HA設定的情況下,重複資料删除也基于Prometheus副本和分片。

Thanos Query Frontend

正如它的名字所暗示的,Thanos查詢前端是Thanos查詢的前端,它的目标是将大型查詢拆分為多個較小的查詢,并緩存查詢結果(在記憶體或memcached中)。

還有其他元件,比如在遠端寫的情況下接收Thanos,但這仍然不是本文的主題。

多叢集架構

有多種方法可以将這些元件部署到多個Kubernetes叢集中,根據用例的不同,有些方法比其他方法更好,在這裡我們不能給出詳細的介紹。

提升 Prometheus 的可用性:一文讀懂Thanos 多叢集監控

我們的例子是在AWS上運作,使用tEKS[2]部署了2個叢集,我們的all in one解決方案将生産就緒的EKS叢集部署在AWS上:

  • 一個觀察者叢集[3]
  • 一個被觀察叢集[4]

我們的部署使用了官方的kube-prometheus-stack和bitnami thanos圖表。

一切都是在我們的terraform-kubernetes-addons存儲庫中策劃的。

Thanos demo檔案夾中的目錄結構如下:

.
├──  env_tags.yaml
├──  eu-west-1
│  ├──  clusters
│  │  └──  observer
│  │     ├──  eks
│  │     │  ├──  kubeconfig
│  │     │  └──  terragrunt.hcl
│  │     ├──  eks-addons
│  │     │  └──  terragrunt.hcl
│  │     └──  vpc
│  │        └──  terragrunt.hcl
│  └──  region_values.yaml
└──  eu-west-3
   ├──  clusters
   │  └──  observee
   │     ├──  cluster_values.yaml
   │     ├──  eks
   │     │  ├──  kubeconfig
   │     │  └──  terragrunt.hcl
   │     ├──  eks-addons
   │     │  └──  terragrunt.hcl
   │     └──  vpc
   │        └──  terragrunt.hcl
   └──  region_values.yaml           

這允許DRY(Don 't Repeat Yourself)基礎設施,并可以輕松地擴充AWS帳戶、區域和叢集的數量。

觀察者叢集

觀察者叢集是我們的主叢集,我們将從它查詢其他叢集:

Prometheus正在運作:

  • Grafana啟用
  • Thanos邊車上傳到特定的桶
kube-prometheus-stack = {
  enabled                     = true
  allowed_cidrs               = dependency.vpc.outputs.private_subnets_cidr_blocks
  thanos_sidecar_enabled      = true
  thanos_bucket_force_destroy = true
  extra_values                = <<-EXTRA_VALUES
    grafana:
      deploymentStrategy:
        type: Recreate
      ingress:
        enabled: true
        annotations:
          kubernetes.io/ingress.class: nginx
          cert-manager.io/cluster-issuer: "letsencrypt"
        hosts:
          - grafana.${local.default_domain_suffix}
        tls:
          - secretName: grafana.${local.default_domain_suffix}
            hosts:
              - grafana.${local.default_domain_suffix}
      persistence:
        enabled: true
        storageClassName: ebs-sc
        accessModes:
          - ReadWriteOnce
        size: 1Gi
    prometheus:
      prometheusSpec:
        replicas: 1
        retention: 2d
        retentionSize: "10GB"
        ruleSelectorNilUsesHelmValues: false
        serviceMonitorSelectorNilUsesHelmValues: false
        podMonitorSelectorNilUsesHelmValues: false
        storageSpec:
          volumeClaimTemplate:
            spec:
              storageClassName: ebs-sc
              accessModes: ["ReadWriteOnce"]
              resources:
                requests:
                  storage: 10Gi
    EXTRA_VALUES           

為觀察者叢集生成一個CA憑證:

  • 這個CA将被進入sidecar的被觀察叢集所信任
  • 為Thanos querier元件生成TLS證書,這些元件将查詢被觀察叢集

Thanos元件部署:

  • Thanos元件全部部署完成
  • 查詢前端,作為Grafana的資料源端點
  • 存儲網關用于查詢觀察者桶
  • Query将對存儲網關和其他查詢器執行查詢

部署的額外Thanos元件:

  • 配置了TLS的Thanos查詢器對每個被觀察叢集進行查詢
thanos-tls-querier = {
  "observee" = {
    enabled                 = true
    default_global_requests = true
    default_global_limits   = false
    stores = [
      "thanos-sidecar.${local.default_domain_suffix}:443"
    ]
  }
}

thanos-storegateway = {
  "observee" = {
    enabled                 = true
    default_global_requests = true
    default_global_limits   = false
    bucket                  = "thanos-store-pio-thanos-observee"
    region                  = "eu-west-3"
  }
           

被觀測叢集

被觀測叢集是Kubernetes叢集,具有最小的Prometheus/Thanos安裝,将被觀測叢集查詢。

Prometheus operator正在運作:

  • Thanos這邊就是上傳給觀察者特定的桶
  • Thanos邊車與TLS用戶端認證的入口對象一起釋出,并信任觀察者叢集CA
kube-prometheus-stack = {
  enabled                     = true
  allowed_cidrs               = dependency.vpc.outputs.private_subnets_cidr_blocks
  thanos_sidecar_enabled      = true
  thanos_bucket_force_destroy = true
  extra_values                = <<-EXTRA_VALUES
    grafana:
      enabled: false
    prometheus:
      thanosIngress:
        enabled: true
        ingressClassName: nginx
        annotations:
          cert-manager.io/cluster-issuer: "letsencrypt"
          nginx.ingress.kubernetes.io/ssl-redirect: "true"
          nginx.ingress.kubernetes.io/backend-protocol: "GRPC"
          nginx.ingress.kubernetes.io/auth-tls-verify-client: "on"
          nginx.ingress.kubernetes.io/auth-tls-secret: "monitoring/thanos-ca"
        hosts:
        - thanos-sidecar.${local.default_domain_suffix}
        paths:
        - /
        tls:
        - secretName: thanos-sidecar.${local.default_domain_suffix}
          hosts:
          - thanos-sidecar.${local.default_domain_suffix}
      prometheusSpec:
        replicas: 1
        retention: 2d
        retentionSize: "6GB"
        ruleSelectorNilUsesHelmValues: false
        serviceMonitorSelectorNilUsesHelmValues: false
        podMonitorSelectorNilUsesHelmValues: false
        storageSpec:
          volumeClaimTemplate:
            spec:
              storageClassName: ebs-sc
              accessModes: ["ReadWriteOnce"]
              resources:
                requests:
                  storage: 10Gi
    EXTRA_VALUES           

Thanos元件部署:

  • Thanos壓縮器來管理這個特定叢集的下采樣
thanos = {
  enabled = true
  bucket_force_destroy = true
  trusted_ca_content      = dependency.thanos-ca.outputs.thanos_ca
  extra_values = <<-EXTRA_VALUES
    compactor:
      retentionResolution5m: 90d
    query:
      enabled: false
    queryFrontend:
      enabled: false
    storegateway:
      enabled: false
    EXTRA_VALUES
}           

再深入一點

讓我們檢查一下叢集上正在運作什麼。關于觀察員,我們有:

kubectl -n monitoring get pods
NAME                                                        READY   STATUS    RESTARTS   AGE
alertmanager-kube-prometheus-stack-alertmanager-0           2/2     Running   0          120m
kube-prometheus-stack-grafana-c8768466b-rd8wm               2/2     Running   0          120m
kube-prometheus-stack-kube-state-metrics-5cf575d8f8-x59rd   1/1     Running   0          120m
kube-prometheus-stack-operator-6856b9bb58-hdrb2             1/1     Running   0          119m
kube-prometheus-stack-prometheus-node-exporter-8hvmv        1/1     Running   0          117m
kube-prometheus-stack-prometheus-node-exporter-cwlfd        1/1     Running   0          120m
kube-prometheus-stack-prometheus-node-exporter-rsss5        1/1     Running   0          120m
kube-prometheus-stack-prometheus-node-exporter-rzgr9        1/1     Running   0          120m
prometheus-kube-prometheus-stack-prometheus-0               3/3     Running   1          120m
thanos-compactor-74784bd59d-vmvps                           1/1     Running   0          119m
thanos-query-7c74db546c-d7bp8                               1/1     Running   0          12m
thanos-query-7c74db546c-ndnx2                               1/1     Running   0          12m
thanos-query-frontend-5cbcb65b57-5sx8z                      1/1     Running   0          119m
thanos-query-frontend-5cbcb65b57-qjhxg                      1/1     Running   0          119m
thanos-storegateway-0                                       1/1     Running   0          119m
thanos-storegateway-1                                       1/1     Running   0          118m
thanos-storegateway-observee-storegateway-0                 1/1     Running   0          12m
thanos-storegateway-observee-storegateway-1                 1/1     Running   0          11m
thanos-tls-querier-observee-query-dfb9f79f9-4str8           1/1     Running   0          29m
thanos-tls-querier-observee-query-dfb9f79f9-xsq24           1/1     Running   0          29m

kubectl -n monitoring get ingress
NAME                            CLASS    HOSTS                                            ADDRESS                                                                         PORTS     AGE
kube-prometheus-stack-grafana   <none>   grafana.thanos.teks-tg.clusterfrak-dynamics.io   k8s-ingressn-ingressn-afa0a48374-f507283b6cd101c5.elb.eu-west-1.amazonaws.com   80, 443   123m           

被觀察者:

kubectl -n monitoring get pods
NAME                                                        READY   STATUS    RESTARTS   AGE
alertmanager-kube-prometheus-stack-alertmanager-0           2/2     Running   0          39m
kube-prometheus-stack-kube-state-metrics-5cf575d8f8-ct292   1/1     Running   0          39m
kube-prometheus-stack-operator-6856b9bb58-4cngc             1/1     Running   0          39m
kube-prometheus-stack-prometheus-node-exporter-bs4wp        1/1     Running   0          39m
kube-prometheus-stack-prometheus-node-exporter-c57ss        1/1     Running   0          39m
kube-prometheus-stack-prometheus-node-exporter-cp5ch        1/1     Running   0          39m
kube-prometheus-stack-prometheus-node-exporter-tnqvq        1/1     Running   0          39m
kube-prometheus-stack-prometheus-node-exporter-z2p49        1/1     Running   0          39m
kube-prometheus-stack-prometheus-node-exporter-zzqp7        1/1     Running   0          39m
prometheus-kube-prometheus-stack-prometheus-0               3/3     Running   1          39m
thanos-compactor-7576dcbcfc-6pd4v                           1/1     Running   0          38m

kubectl -n monitoring get ingress
NAME                                   CLASS   HOSTS                                                   ADDRESS                                                                         PORTS     AGE
kube-prometheus-stack-thanos-gateway   nginx   thanos-sidecar.thanos.teks-tg.clusterfrak-dynamics.io   k8s-ingressn-ingressn-95903f6102-d2ce9013ac068b9e.elb.eu-west-3.amazonaws.com   80, 443   40m           

我們的TLS查詢器應該能夠查詢被觀測叢集的度量标準。讓我們來看看它們的行為:

k -n monitoring logs -f thanos-tls-querier-observee-query-687dd88ff5-nzpdh

level=info ts=2021-02-23T15:37:35.692346206Z caller=storeset.go:387 component=storeset msg="adding new storeAPI to query storeset" address=thanos-sidecar.thanos.teks-tg.clusterfrak-dynamics.io:443 extLset="{cluster=\"pio-thanos-observee\", prometheus=\"monitoring/kube-prometheus-stack-prometheus\", prometheus_replica=\"prometheus-kube-prometheus-stack-prometheus-0\"}"           

是以這個查詢器pods可以查詢我的其他叢集,如果我們檢查Web,我們可以看到存儲:

kubectl -n monitoring port-forward thanos-tls-querier-observee-query-687dd88ff5-nzpdh 10902           
提升 Prometheus 的可用性:一文讀懂Thanos 多叢集監控

太棒了,但是我隻有一個存儲,還記得我們說過查詢器可以堆疊在一起嗎?在我們的觀察者叢集中,我們有标準的http查詢器,它可以查詢架構圖中的其他元件。

kubectl -n monitoring port-forward thanos-query-7c74db546c-d7bp8 10902           

這裡我們可以看到所有的存儲已經被添加到我們的中心查詢器:

提升 Prometheus 的可用性:一文讀懂Thanos 多叢集監控
  • 觀察者把本地Thanos聚集
  • 我們的存儲網關(一個用于遠端觀測者叢集,一個用于本地觀測者叢集)
  • 本地TLS查詢器,它可以查詢被觀察的sidecar

在Grafana可視化

最後,我們可以前往Grafana,看看預設的Kubernetes儀表闆是如何與多叢集相容的。

提升 Prometheus 的可用性:一文讀懂Thanos 多叢集監控

總結

Thanos是一個非常複雜的系統,有很多移動部件,我們沒有深入研究具體的自定義配置,因為它會花費太多的時間。

我們在tEKS存儲庫中提供了一個相當完整的AWS實作,它抽象了很多複雜性(主要是mTLS部分),并允許進行很多定制。你也可以使用terraform-kubernetes-addons子產品作為獨立的元件。我們計劃在未來支援其他雲提供商。不要猶豫,通過Github上的任何一個項目的問題聯系我們。

根據你的基礎設施和需求,有許多可能适合你的Thanos實作。

如果你想深入研究Thanos,可以檢視他們的官方kube-thanos存儲庫,以及他們關于跨叢集通信的建議[5]。

當然,我們很樂意幫助你設定你的雲原生監控堆棧,歡迎聯系我們[email protected]:)

你也可以每天通過CNCF/Kubernetes Slack頻道聯系我們。

相關連結:

  1. https://docs.google.com/document/d/1H47v7WfyKkSLMrR8_iku6u9VB73WrVzBHb2SB6dL9_g/edit#heading=h.2v27snv0lsur
  2. https://github.com/particuleio/teks
  3. https://github.com/particuleio/teks/tree/main/terragrunt/live/thanos/eu-west-1/clusters/observer
  4. https://github.com/particuleio/teks/tree/main/terragrunt/live/thanos/eu-west-3/clusters/observee
  5. https://thanos.io/tip/operating/cross-cluster-tls-communication.md/

原文連結:https://particule.io/en/blog/thanos-monitoring/

繼續閱讀