k8s 發布策略

在Kubernetes中有幾種不同的方式發布應用,所以為了讓應用在升級期間依然平穩提供服務,選擇一個正確的發布策略就非常重要了。選擇正確的部署策略是要依賴于我們的業務需求的,下面我們列出了一些可能會使用到的策略:

  • 重建(recreate):停止舊版本部署新版本
  • 滾動更新(rolling-update):一個接一個地以滾動更新方式發布新版本
  • 藍綠(blue/green):新版本與舊版本一起存在,然后切換流量
  • 金絲雀(canary):將新版本面向一部分用戶發布,然后繼續全量發布
  • A/B測(a/b testing):以精確的方式(HTTP 頭、cookie、權重等)向部分用戶發布新版本。A/B測實際上是一種基于數據統計做出業務決策的技術。在 Kubernetes 中并不原生支持,需要額外的一些高級組件來完成改設置(比如Istio、Linkerd、Traefik、或者自定義 Nginx/Haproxy 等)

重建(Recreate) - 最好在開發環境

策略定義為Recreate的Deployment,會終止所有正在運行的實例,然后用較新的版本來重新創建它們。

spec:
  replicas: 3
  strategy:
    type: Recreate

重新創建策略是一個虛擬部署,包括關閉版本A,然后在關閉版本A后部署版本B. 此技術意味著服務的停機時間取決于應用程序的關閉和啟動持續時間。

我們這里創建兩個相關的資源清單文件,app-v1.yaml:

apiVersion: v1
kind: Service
metadata:
  name: my-app
  labels:
    app: my-app
spec:
  type: NodePort
  ports:
  - name: http
    port: 80
    targetPort: http
  selector:
    app: my-app
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: my-app
  labels:
    app: my-app
spec:
  replicas: 3
  selector:
    matchLabels:
      app: my-app
  strategy:
    type: Recreate
  selector:
    matchLabels:
      app: my-app
  template:
    metadata:
      labels:
        app: my-app
        version: v1.0.0
      annotations:
        prometheus.io/scrape: "true"
        prometheus.io/port: "9101"
    spec:
      containers:
      - name: my-app
        image: containersol/k8s-deployment-strategies
        ports:
        - name: http
          containerPort: 8080
        - name: probe
          containerPort: 8086
        env:
        - name: VERSION
          value: v1.0.0
        livenessProbe:
          httpGet:
            path: /live
            port: probe
          initialDelaySeconds: 5
          periodSeconds: 5
        readinessProbe:
          httpGet:
            path: /ready
            port: probe
          periodSeconds: 5

app-v2.yaml 文件內容如下:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: my-app
  labels:
    app: my-app
spec:
  replicas: 3
  strategy:
    type: Recreate
  selector:
    matchLabels:
      app: my-app
  template:
    metadata:
      labels:
        app: my-app
        version: v2.0.0
      annotations:
        prometheus.io/scrape: "true"
        prometheus.io/port: "9101"
    spec:
      containers:
      - name: my-app
        image: containersol/k8s-deployment-strategies
        ports:
        - name: http
          containerPort: 8080
        - name: probe
          containerPort: 8086
        env:
        - name: VERSION
          value: v2.0.0
        livenessProbe:
          httpGet:
            path: /live
            port: probe
          initialDelaySeconds: 5
          periodSeconds: 5
        readinessProbe:
          httpGet:
            path: /ready
            port: probe
          periodSeconds: 5

上面兩個資源清單文件中的 Deployment 定義幾乎是一直的,唯一不同的是定義的環境變量VERSION值不同,接下來按照下面的步驟來驗證Recreate策略:

1.版本1提供服務
2.刪除版本1
3.部署版本2
4.等待所有副本準備就緒

首先部署第一個應用:

$ kubectl apply -f app-v1.yaml
service "my-app" created
deployment.apps "my-app" created

測試版本1是否部署成功:

$ kubectl get pods -l app=my-app
NAME                      READY     STATUS    RESTARTS   AGE
my-app-7b4874cd75-m5kct   1/1       Running   0          19m
my-app-7b4874cd75-pc444   1/1       Running   0          19m
my-app-7b4874cd75-tlctl   1/1       Running   0          19m
$ kubectl get svc my-app
NAME      TYPE       CLUSTER-IP      EXTERNAL-IP   PORT(S)        AGE
my-app    NodePort   10.108.238.76   <none>        80:32532/TCP   5m
$ curl http://127.0.0.1:32532
Host: my-app-7b4874cd75-pc444, Version: v1.0.0

可以看到版本1的應用正常運行了。為了查看部署的運行情況,打開一個新終端并運行以下命令:

$ watch kubectl get po -l app=my-app

然后部署版本2的應用:

$ kubectl apply -f app-v2.yaml

這個時候可以觀察上面新開的終端中的 Pod 列表的變化,可以看到之前的3個 Pod 都會先處于Terminating狀態,并且3個 Pod 都被刪除后才開始創建新的 Pod。

然后測試第二個版本應用的部署進度:

$ while sleep 0.1; do curl http://127.0.0.1:32532; done
curl: (7) Failed connect to 127.0.0.1:32532; Connection refused
curl: (7) Failed connect to 127.0.0.1:32532; Connection refused
......
Host: my-app-f885c8d45-sp44p, Version: v2.0.0
Host: my-app-f885c8d45-t8g7g, Version: v2.0.0
Host: my-app-f885c8d45-sp44p, Version: v2.0.0
......

可以看到最開始的階段服務都是處于不可訪問的狀態,然后到第二個版本的應用部署成功后才正常訪問,可以看到現在訪問的數據是版本2了。
最后,可以執行下面的命令來清空上面的資源對象:

$ kubectl delete all -l app=my-app

結論:

  • 應用狀態全部更新
  • 停機時間取決于應用程序的關閉和啟動消耗的時間

滾動更新(rolling-update)

滾動更新通過逐個替換實例來逐步部署新版本的應用,直到所有實例都被替換完成為止。它通常遵循以下過程:在負載均衡器后面使用版本 A 的實例池,然后部署版本 B 的一個實例,當服務準備好接收流量時(Readiness Probe 正常),將該實例添加到實例池中,然后從實例池中刪除一個版本 A 的實例并關閉,如下圖所示:


下圖是滾動更新過程應用接收流量的示意圖:


下面是 Kubernetes 中通過 Deployment 來進行滾動更新的關鍵參數:

pec:
  replicas: 3
  strategy:
    type: RollingUpdate
    rollingUpdate:
      maxSurge: 2        # 一次可以添加多少個Pod
      maxUnavailable: 1  # 滾動更新期間最大多少個Pod不可用

現在仍然使用上面的 app-v1.yaml 這個資源清單文件,新建一個定義滾動更新的資源清單文件 app-v2-rolling-update.yaml,文件內容如下:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: my-app
  labels:
    app: my-app
spec:
  replicas: 10
  # maxUnavailable設置為0可以完全確保在滾動更新期間服務不受影響,還可以使用百分比的值來進行設置。
  strategy:
    type: RollingUpdate
    rollingUpdate:
      maxSurge: 1
      maxUnavailable: 0
  selector:
    matchLabels:
      app: my-app
  template:
    metadata:
      labels:
        app: my-app
        version: v2.0.0
      annotations:
        prometheus.io/scrape: "true"
        prometheus.io/port: "9101"
    spec:
      containers:
      - name: my-app
        image: containersol/k8s-deployment-strategies
        ports:
        - name: http
          containerPort: 8080
        - name: probe
          containerPort: 8086
        env:
        - name: VERSION
          value: v2.0.0
        livenessProbe:
          httpGet:
            path: /live
            port: probe
          initialDelaySeconds: 5
          periodSeconds: 5
        readinessProbe:
          httpGet:
            path: /ready
            port: probe
          # 初始延遲設置高點可以更好地觀察滾動更新過程
          initialDelaySeconds: 15
          periodSeconds: 5

上面的資源清單中我們在環境變量中定義了版本2,然后通過設置strategy.type=RollingUpdate來定義該 Deployment 使用滾動更新的策略來更新應
用,接下來我們按下面的步驟來驗證滾動更新策略:

1.版本1提供服務
2.部署版本2
3.等待直到所有副本都被版本2替換完成

同樣,首先部署版本1應用:

$ kubectl apply -f app-v1.yaml
service "my-app" created
deployment.apps "my-app" created

測試版本1是否部署成功:

$ kubectl get pods -l app=my-app
NAME                      READY     STATUS    RESTARTS   AGE
my-app-7b4874cd75-h8c4d   1/1       Running   0          47s
my-app-7b4874cd75-p4l8f   1/1       Running   0          47s
my-app-7b4874cd75-qnt7p   1/1       Running   0          47s
$ kubectl get svc my-app
NAME      TYPE       CLUSTER-IP      EXTERNAL-IP   PORT(S)        AGE
my-app    NodePort   10.109.99.184   <none>        80:30486/TCP   1m
$ curl http://127.0.0.1:30486
Host: my-app-7b4874cd75-qnt7p, Version: v1.0.0

然后部署滾動更新版本2應用:

$ kubectl apply -f app-v2-rolling-update.yaml
deployment.apps "my-app" configured

這個時候在上面的 watch 終端中可以看到多了很多 Pod,還在創建當中,并沒有一開始就刪除之前的 Pod,同樣,這個時候執行下面命令,測試應用狀態:

$ while sleep 0.1; do curl http://127.0.0.1:30486; done
Host: my-app-7b4874cd75-vrlj7, Version: v1.0.0
......
Host: my-app-7b4874cd75-vrlj7, Version: v1.0.0
Host: my-app-6b5479d97f-2fk24, Version: v2.0.0
Host: my-app-7b4874cd75-p4l8f, Version: v1.0.0
......
Host: my-app-6b5479d97f-s5ctz, Version: v2.0.0
Host: my-app-7b4874cd75-5ldqx, Version: v1.0.0
......
Host: my-app-6b5479d97f-5z6ww, Version: v2.0.0

我們可以看到上面的應用并沒有出現不可用的情況,最開始訪問到的都是版本1的應用,然后偶爾會出現版本2的應用,直到最后全都變成了版本2的應用,而這個時候看上面 watch 終端中 Pod 已經全部變成10個版本2的應用了,我們可以看到這就是一個逐步替換的過程

如果在滾動更新過程中發現新版本應用有問題,我們可以通過下面的命令來進行一鍵回滾:

$ kubectl rollout undo deploy my-app
deployment.apps "my-app"

如果你想保持兩個版本的應用都存在,那么我們也可以執行 pause 命令來暫停更新:

$ kubectl rollout pause deploy my-app
deployment.apps "my-app" paused

這個時候我們再去循環訪問我們的應用就可以看到偶爾會出現版本1的應用信息了。如果新版本應用程序沒問題了,也可以繼續恢復更新:

$ kubectl rollout resume deploy my-app
deployment.apps "my-app" resumed

最后,可以執行下面的命令來清空上面的資源對象:

$ kubectl delete all -l app=my-app

結論:

  • 版本在實例之間緩慢替換
  • rollout/rollback 可能需要一定時間
  • 無法控制流量

藍/綠(blue/green) - 最好用來驗證 API 版本問題

綠發布是版本2 與版本1 一起發布,然后流量切換到版本2,也稱為紅/黑部署。藍/綠發布與滾動更新不同,版本2(綠) 與版本1(藍)一起部署,在測試新版本滿足要求后,然后更新更新 Kubernetes 中扮演負載均衡器角色的 Service 對象,通過替換 label selector 中的版本標簽來將流量發送到新版本,如下圖所示

下面是藍綠發布策略下應用方法的示例圖:


在 Kubernetes 中,我們可以用兩種方法來實現藍綠發布,通過單個 Service 對象或者 Ingress 控制器來實現藍綠發布,實際操作都是類似的,都是通過 label 標簽去控制。

實現藍綠發布的關鍵點就在于 Service 對象中 label selector 標簽的匹配方法,比如我們重新定義版本1 的資源清單文件 app-v1-single-svc.yaml,文件內容如下:

apiVersion: v1
kind: Service
metadata:
  name: my-app
  labels:
    app: my-app
spec:
  type: NodePort
  ports:
  - name: http
    port: 80
    targetPort: http
  # 注意這里我們匹配 app 和 version 標簽,當要切換流量的時候,我們更新 version 標簽的值,比如:v2.0.0
  selector:
    app: my-app
    version: v1.0.0
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: my-app-v1
  labels:
    app: my-app
spec:
  replicas: 3
  selector:
    matchLabels:
      app: my-app
      version: v1.0.0
  template:
    metadata:
      labels:
        app: my-app
        version: v1.0.0
      annotations:
        prometheus.io/scrape: "true"
        prometheus.io/port: "9101"
    spec:
      containers:
      - name: my-app
        image: containersol/k8s-deployment-strategies
        ports:
        - name: http
          containerPort: 8080
        - name: probe
          containerPort: 8086
        env:
        - name: VERSION
          value: v1.0.0
        livenessProbe:
          httpGet:
            path: /live
            port: probe
          initialDelaySeconds: 5
          periodSeconds: 5
        readinessProbe:
          httpGet:
            path: /ready
            port: probe
          periodSeconds: 5

上面定義的資源對象中,最重要的就是 Service 中 label selector 的定義:

selector:
  app: my-app
  version: v1.0.0

版本2 的應用定義和以前一樣,新建文件 app-v2-single-svc.yaml,文件內容如下:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: my-app-v2
  labels:
    app: my-app
spec:
  replicas: 3
  selector:
    matchLabels:
      app: my-app
      version: v2.0.0
  template:
    metadata:
      labels:
        app: my-app
        version: v2.0.0
      annotations:
        prometheus.io/scrape: "true"
        prometheus.io/port: "9101"
    spec:
      containers:
      - name: my-app
        image: containersol/k8s-deployment-strategies
        ports:
        - name: http
          containerPort: 8080
        - name: probe
          containerPort: 8086
        env:
        - name: VERSION
          value: v2.0.0
        livenessProbe:
          httpGet:
            path: /live
            port: probe
          initialDelaySeconds: 5
          periodSeconds: 5
        readinessProbe:
          httpGet:
            path: /ready
            port: probe
          periodSeconds: 5

然后按照下面的步驟來驗證使用單個 Service 對象實現藍/綠部署的策略:
1、版本1 應用提供服務
2、部署版本2 應用
3、等到版本2 應用全部部署完成
4、切換入口流量從版本1 到版本2
5、關閉版本1 應用

首先,部署版本1 應用:

$ kubectl apply -f app-v1-single-svc.yaml
service "my-app" created
deployment.apps "my-app-v1" created

測試版本1 應用是否部署成功:

$ kubectl get pods -l app=my-app
NAME                         READY     STATUS    RESTARTS   AGE
my-app-v1-7b4874cd75-7xh6s   1/1       Running   0          41s
my-app-v1-7b4874cd75-dmq8f   1/1       Running   0          41s
my-app-v1-7b4874cd75-t64z7   1/1       Running   0          41s
$ kubectl get svc -l app=my-app
NAME      TYPE       CLUSTER-IP       EXTERNAL-IP   PORT(S)        AGE
my-app    NodePort   10.106.184.144   <none>        80:31539/TCP   50s
$ curl http://127.0.0.1:31539
Host: my-app-v1-7b4874cd75-7xh6s, Version: v1.0.0

同樣,新開一個終端,執行如下命令觀察 Pod 變化:

 watch kubectl get pod -l app=my-app

然后部署版本2 應用:

$ kubectl apply -f app-v2-single-svc.yaml
deployment.apps "my-app-v2" created

然后在上面 watch 終端中可以看到會多3個my-app-v2開頭的 Pod,待這些 Pod 部署成功后,我們再去訪問當前的應用:

$ while sleep 0.1; do curl http://127.0.0.1:31539; done
Host: my-app-v1-7b4874cd75-dmq8f, Version: v1.0.0
Host: my-app-v1-7b4874cd75-dmq8f, Version: v1.0.0
......

我們會發現訪問到的都是版本1 的應用,和我們剛剛部署的版本2 沒有任何關系,這是因為我們 Service 對象中通過 label selector 匹配的是version=v1.0.0這個標簽,我們可以通過修改 Service 對象的匹配標簽,將流量路由到標簽version=v2.0.0的 Pod 去:

$ kubectl patch service my-app -p '{"spec":{"selector":{"version":"v2.0.0"}}}'
service "my-app" patched

然后再去訪問應用,可以發現現在都是版本2 的信息了:

$ while sleep 0.1; do curl http://127.0.0.1:31539; done
Host: my-app-v2-f885c8d45-r5m6z, Version: v2.0.0
Host: my-app-v2-f885c8d45-r5m6z, Version: v2.0.0
......

如果你需要回滾到版本1,同樣只需要更改 Service 的匹配標簽即可:

$ kubectl patch service my-app -p '{"spec":{"selector":{"version":"v1.0.0"}}}'

如果新版本已經完全符合我們的需求了,就可以刪除版本1 的應用了:

kubectl delete deploy my-app-v1

最后,同樣,執行如下命令清理上述資源對象:

kubectl delete all -l app=my-app

結論:

  • 實時部署/回滾

  • 避免版本問題,因為一次更改是整個應用的改變

  • 需要兩倍的資源

  • 在發布到生產之前,應該對整個應用進行適當的測試

金絲雀(Canary) - 讓部分用戶參與測試

金絲雀部署是讓部分用戶訪問到新版本應用,在 Kubernetes 中,可以使用兩個具有相同 Pod 標簽的 Deployment 來實現金絲雀部署。新版本的副本和舊版本的一起發布。在一段時間后如果沒有檢測到錯誤,則可以擴展新版本的副本數量并刪除舊版本的應用。

如果需要按照具體的百分比來進行金絲雀發布,需要盡可能的啟動多的 Pod 副本,這樣計算流量百分比的時候才方便,比如,如果你想將 1% 的流量發送到版本 B,那么我們就需要有一個運行版本 B 的 Pod 和 99 個運行版本 A 的 Pod,當然如果你對具體的控制策略不在意的話也就無所謂了,如果你需要更精確的控制策略,建議使用服務網格(如 Istio),它們可以更好地控制流量。

在下面的例子中,我們使用 Kubernetes 原生特性來實現一個窮人版的金絲雀發布,如果你想要對流量進行更加細粒度的控制,請使用豪華版本的 Istio。下面是金絲雀發布的應用請求示意圖

接下來我們按照下面的步驟來驗證金絲雀策略:

1.10個副本的版本1 應用提供服務
2.版本2 應用部署1個副本(意味著小于10%的流量)
3.等待足夠的時間來確認版本2 應用足夠穩定沒有任何錯誤信息
4.將版本2 應用擴容到10個副本
5.等待所有實例完成
6.關閉版本1 應用

首先,創建版本1 的應用資源清單,app-v1-canary.yaml,內容如下:

apiVersion: v1
kind: Service
metadata:
  name: my-app
  labels:
    app: my-app
spec:
  type: NodePort
  ports:
  - name: http
    port: 80
    targetPort: http
  selector:
    app: my-app
---
apiVersion: apps/v1
kind: Deployment
metadata:
  name: my-app-v1
  labels:
    app: my-app
spec:
  replicas: 10
  selector:
    matchLabels:
      app: my-app
      version: v1.0.0
  template:
    metadata:
      labels:
        app: my-app
        version: v1.0.0
      annotations:
        prometheus.io/scrape: "true"
        prometheus.io/port: "9101"
    spec:
      containers:
      - name: my-app
        image: containersol/k8s-deployment-strategies
        ports:
        - name: http
          containerPort: 8080
        - name: probe
          containerPort: 8086
        env:
        - name: VERSION
          value: v1.0.0
        livenessProbe:
          httpGet:
            path: /live
            port: probe
          initialDelaySeconds: 5
          periodSeconds: 5
        readinessProbe:
          httpGet:
            path: /ready
            port: probe
          periodSeconds: 5

其中核心的部分也是 Service 對象中的 label selector 標簽,不在具有版本相關的標簽了,然后定義版本2 的資源清單文件,app-v2-canary.yaml,文件內容如下:

apiVersion: apps/v1
kind: Deployment
metadata:
  name: my-app-v2
  labels:
    app: my-app
spec:
  replicas: 1
  selector:
    matchLabels:
      app: my-app
      version: v2.0.0
  template:
    metadata:
      labels:
        app: my-app
        version: v2.0.0
      annotations:
        prometheus.io/scrape: "true"
        prometheus.io/port: "9101"
    spec:
      containers:
      - name: my-app
        image: containersol/k8s-deployment-strategies
        ports:
        - name: http
          containerPort: 8080
        - name: probe
          containerPort: 8086
        env:
        - name: VERSION
          value: v2.0.0
        livenessProbe:
          httpGet:
            path: /live
            port: probe
          initialDelaySeconds: 5
          periodSeconds: 5
        readinessProbe:
          httpGet:
            path: /ready
            port: probe
          periodSeconds: 5

版本1 和版本2 的 Pod 都具有一個共同的標簽app=my-app,所以對應的 Service 會匹配兩個版本的 Pod。
首先,部署版本1 應用

$ kubectl apply -f app-v1-canary.yaml
service "my-app" created
deployment.apps "my-app-v1" created

然后測試版本1 應用是否正確部署了:

$ kubectl get svc -l app=my-app
NAME          TYPE        CLUSTER-IP       EXTERNAL-IP   PORT(S)        AGE
my-app        NodePort    10.105.133.213   <none>        80:30760/TCP   47s
$ curl http://127.0.0.1:30760
Host: my-app-v1-7b4874cd75-tsh2s, Version: v1.0.0

同樣,新開一個終端,查看 Pod 的變化:

$ watch kubectl get po

然后部署版本2 應用:

$ kubectl apply -f app-v2-canary.yaml
deployment.apps "my-app-v2" created

然后在 watch 終端頁面可以看到多了一個 Pod,現在一共 11 個 Pod,其中只有1 個 Pod 運行新版本應用,然后同樣可以循環訪問該應用,查看是否會有版本2 的應用信息:

$ while sleep 0.1; do curl http://127.0.0.1:30760; done
Host: my-app-v1-7b4874cd75-bhxbp, Version: v1.0.0
Host: my-app-v1-7b4874cd75-wmcqc, Version: v1.0.0
Host: my-app-v1-7b4874cd75-tsh2s, Version: v1.0.0
Host: my-app-v1-7b4874cd75-ml58j, Version: v1.0.0
Host: my-app-v1-7b4874cd75-spsdv, Version: v1.0.0
Host: my-app-v2-f885c8d45-mc2fx, Version: v2.0.0
......

正常情況下可以看到大部分都是返回的版本1 的應用信息,偶爾會出現版本2 的應用信息,這就證明我們的金絲雀發布成功了,待確認了版本2 的這個應用沒有任何問題后,可以將版本2 應用擴容到10 個副本:

kubectl scale --replicas=10 deploy my-app-v2
deployment.extensions "my-app-v2" scaled

其實這個時候訪問應用的話新版本和舊版本的流量分配是1:1了,確認了版本2 正常后,就可以刪除版本1 的應用了

$ kubectl delete deploy my-app-v1
deployment.extensions "my-app-v1" deleted

最終留下的是 10 個新版本的 Pod 了,到這里我們的整個金絲雀發布就完成了。

同樣,最后,執行下面的命令刪除上面的資源對象:

$ kubectl delete all -l app=my-app

結論:

  • 部分用戶獲取新版本
  • 方便錯誤和性能監控
  • 快速回滾
  • 發布較慢
  • 流量精準控制很浪費(99%A / 1%B = 99 Pod A,1 Pod B)
  • 如果你對新功能的發布沒有信心,建議使用金絲雀發布的策略。

A/B測試(A/B testing) - 最適合部分用戶的功能測試

A/B 測試實際上是一種基于統計信息而非部署策略來制定業務決策的技術,與業務結合非常緊密。但是它們也是相關的,也可以使用金絲雀發布來實現。
除了基于權重在版本之間進行流量控制之外,A/B 測試還可以基于一些其他參數(比如 Cookie、User Agent、地區等等)來精確定位給定的用戶群,該技術廣泛用于測試一些功能特性的效果,然后按照效果來進行確定。
我們經常可以在今日頭條的客戶端中就會發現有大量的 A/B 測試,同一個地區的用戶看到的客戶端有很大不同。要使用這些細粒度的控制,仍然還是建議使用 Istio,可以根據權重或 HTTP 頭等來動態請求路由控制流量轉發。


下面是使用 Istio 進行規則設置的示例,因為 Istio 還不太穩定,以下示例規則將來可能會更改:

route:
- tags:
  version: v1.0.0
  weight: 90
- tags:
  version: v2.0.0
  weight: 10

關于在 Istio 中具體如何做 A/B 測試,我們這里就不再詳細介紹了,我們在istio-book文檔中有相關的介紹


結論:

  • 幾個版本并行運行
  • 完全控制流量分配
  • 特定的一個訪問錯誤難以排查,需要分布式跟蹤
  • Kubernetes 沒有直接的支持,需要其他額外的工具

總結

發布應用有許多種方法,當發布到開發/測試環境的時候,重建或者滾動更新通常是一個不錯的選擇。在生產環境,滾動更新或者藍綠發布比較合適,但是新版本的提前測試是非常有必要的。如果你對新版本的應用不是很有信心的話,那應該使用金絲雀發布,將用戶的影響降到最低。最后,如果你的公司需要在特定的用戶群體中進行新功能的測試,例如,移動端用戶請求路由到版本 A,桌面端用戶請求路由到版本 B,那么你就看使用A/B 測試,通過使用 Kubernetes 服務網關的配置,可以根據某些請求參數來確定用戶應路由的服務。

原文:

https://www.qikqiak.com/post/k8s-deployment-strategies/

?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 228,156評論 6 531
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,401評論 3 415
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 176,069評論 0 373
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 62,873評論 1 309
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 71,635評論 6 408
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,128評論 1 323
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,203評論 3 441
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,365評論 0 288
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 48,881評論 1 334
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,733評論 3 354
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 42,935評論 1 369
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,475評論 5 358
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,172評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,582評論 0 26
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 35,821評論 1 282
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,595評論 3 390
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 47,908評論 2 372

推薦閱讀更多精彩內容