zh-translation: docs/tasks/traffic-management/tcp-traffic-shifting/in… (#9362)

* zh-translation: docs/tasks/traffic-management/tcp-traffic-shifting/index.md

* fixed

* remove multiple consecutive blank lines
This commit is contained in:
orangegzx 2021-04-07 16:30:20 +08:00 committed by GitHub
parent 69c67f3307
commit 2666fd7dc3
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23
1 changed files with 40 additions and 63 deletions

View File

@ -9,68 +9,53 @@ owner: istio/wg-networking-maintainers
test: yes
---
本任务展示了如何逐步将 TCP 流量从微服务的一个版本迁移到另一个版本。例如,将 TCP 流量从旧版本迁移到新版本。
本任务展示了如何将 TCP 流量从微服务的一个版本逐步迁移到另一个版本。例如,将 TCP 流量从旧版本迁移到新版本。
在 Istio 中,您可以通过配置一系列规则来实现此目标,这些规则按指定的百分比将流量路由到不同的服务。在此任务
中,将先把 100% 的 TCP 流量分配到 `tcp-echo:v1`,然后,再通过配置 Istio 路由权重把 20% 的 TCP 流量分
配到 `tcp-echo:v2`
一个常见的用例是将 TCP 流量从微服务的一个版本迁移到另一个版本。在 Istio 中,您可以通过配置一系列规则来实现此目标,这些规则将一定比例的 TCP 流量路由到不同的服务。在此任务中,将会把 100% 的 TCP 流量分配到 `tcp-echo:v1`,接着,再通过配置 Istio 路由权重把 20% 的 TCP 流量分配到 `tcp-echo:v2`
## 开始之前{#before-you-begin}
* 按照[安装指南](/zh/docs/setup/)中的说明安装 Istio。
* 回顾[流量管理](/zh/docs/concepts/traffic-management)概念文档。
* 查看[流量管理](/zh/docs/concepts/traffic-management)概念文档。
## 应用基于权重的 TCP 路由{#apply-weight-based-tcp-routing}
## 设置测试环境{#set-up-the-test-environment}
1. 首先,部署微服务 `tcp-echo``v1` 版本。
* 第一步,为测试 TCP 流量转移创建命名空间
1. 首先,创建一个容器空间用于测试 TCP 流量迁移,并将其标记为使用自动注入 Sidecar 方式。
{{< text bash >}}
$ kubectl create namespace istio-io-tcp-traffic-shifting
{{< /text >}}
* 如果使用[手动注入 sidecar](/zh/docs/setup/additional-setup/sidecar-injection/#manual-sidecar-injection),请使用下面命令:
{{< text bash >}}
$ kubectl apply -f <(istioctl kube-inject -f @samples/tcp-echo/tcp-echo-services.yaml@) -n istio-io-tcp-traffic-shifting
{{< /text >}}
[`istioctl kube-inject`](/zh/docs/reference/commands/istioctl/#istioctl-kube-inject) 命令用于在创建 deployments 之前
修改 `tcp-echo-services.yaml` 文件。
* 如果您使用的是启用了[自动注入 sidecar](/zh/docs/setup/additional-setup/sidecar-injection/#automatic-sidecar-injection) 的集群,可以将 `istio-io-tcp-traffic-shifting` namespace 标记为 `istio-injection=enabled`
{{< text bash >}}
$ kubectl label namespace istio-io-tcp-traffic-shifting istio-injection=enabled
{{< /text >}}
然后,只需使用 `kubectl` 部署服务即可。
1. 部署 [sleep]({{< github_tree >}}/samples/sleep) 应用程序,作为发送请求的测试源。
{{< text bash >}}
$ kubectl apply -f @samples/sleep/sleep.yaml@ -n istio-io-tcp-traffic-shifting
{{< /text >}}
1. 部署 `tcp-echo` 微服务的 `v1``v2` 版本。
{{< text bash >}}
$ kubectl apply -f @samples/tcp-echo/tcp-echo-services.yaml@ -n istio-io-tcp-traffic-shifting
{{< /text >}}
1. 接下来, 将目标为微服务 `tcp-echo` 的 TCP 流量全部路由到 `v1` 版本。
1. 根据[确定 Ingress IP 和端口](/zh/docs/tasks/traffic-management/ingress/ingress-control/#determining-the-ingress-ip-and-ports) 中的说明,定义 `TCP_INGRESS_PORT` and `INGRESS_HOST` 环境变量.
## 应用基于权重的 TCP 路由{#apply-weight-based-TCP-routing}
1. 将所有 TCP 流量路由到微服务 `tcp-echo``v1` 版本。
{{< text bash >}}
$ kubectl apply -f @samples/tcp-echo/tcp-echo-all-v1.yaml@ -n istio-io-tcp-traffic-shifting
{{< /text >}}
1. 确认 `tcp-echo` 服务已启动并开始运行。
下面的 `$INGRESS_HOST` 变量是 ingress 的外部 IP 地址,可参考 [Ingress Gateways](/zh/docs/tasks/traffic-management/ingress/ingress-control/#determining-the-ingress-i-p-and-ports) 文档。要获取 `$INGRESS_PORT` 变量的值,请使用以下命令。
1. 通过从 `sleep` 客户端发送一些 TCP 流量,确认 `tcp-echo` Service 已经启动并运行。
{{< text bash >}}
$ export INGRESS_PORT=$(kubectl -n istio-system get service istio-ingressgateway -o jsonpath='{.spec.ports[?(@.name=="tcp")].port}')
{{< /text >}}
向微服务 `tcp-echo` 发送一些 TCP 流量。
{{< text bash >}}
$ for i in {1..10}; do \
docker run -e INGRESS_HOST=$INGRESS_HOST -e INGRESS_PORT=$INGRESS_PORT -it --rm busybox sh -c "(date; sleep 1) | nc $INGRESS_HOST $INGRESS_PORT"; \
$ for i in {1..20}; do \
kubectl exec "$(kubectl get pod -l app=sleep -n istio-io-tcp-traffic-shifting -o jsonpath={.items..metadata.name})" \
-c sleep -n istio-io-tcp-traffic-shifting -- sh -c "(date; sleep 1) | nc $INGRESS_HOST $TCP_INGRESS_PORT"; \
done
one Mon Nov 12 23:24:57 UTC 2018
one Mon Nov 12 23:25:00 UTC 2018
@ -82,30 +67,25 @@ test: yes
one Mon Nov 12 23:25:15 UTC 2018
one Mon Nov 12 23:25:17 UTC 2018
one Mon Nov 12 23:25:19 UTC 2018
...
{{< /text >}}
{{< warning >}}
可能需要通过 `sudo` 执行 `docker` 命令,这取决于您的 Docker 安装。
{{< /warning >}}
请注意,所有时间戳都有一个前缀 “_one_”说明所有流量都被路由到 `tcp-echo` Service 的 `v1` 版本。
您应该注意到,所有时间戳的前缀都是 _one_ ,这意味着所有流量都被路由到了 `tcp-echo` 服务的 `v1` 版本。
1. 使用以下命令将 20% 的流量从 `tcp-echo:v1` 转移到 `tcp-echo:v2`
1. 通过以下命令,将 20% 流量从 `tcp-echo:v1` 迁移到 `tcp-echo:v2`
{{< text bash >}}
$ kubectl apply -f @samples/tcp-echo/tcp-echo-20-v2.yaml@ -n istio-io-tcp-traffic-shifting
{{< /text >}}
等待几秒钟,以使新规则在集群中传播和生效。
等待几秒钟,等到新规则在集群中生效。
1. 确认规则配置已替换完成
1. 确认规则已经被替换:
{{< text bash yaml >}}
$ kubectl get virtualservice tcp-echo -o yaml -n istio-io-tcp-traffic-shifting
apiVersion: networking.istio.io/v1alpha3
apiVersion: networking.istio.io/v1beta1
kind: VirtualService
metadata:
name: tcp-echo
...
spec:
...
@ -127,11 +107,12 @@ test: yes
weight: 20
{{< /text >}}
1. `tcp-echo` 服务发送更多 TCP 流量
1. 发送更多 TCP 流量到微服务 `tcp-echo`
{{< text bash >}}
$ for i in {1..10}; do \
docker run -e INGRESS_HOST=$INGRESS_HOST -e INGRESS_PORT=$INGRESS_PORT -it --rm busybox sh -c "(date; sleep 1) | nc $INGRESS_HOST $INGRESS_PORT"; \
$ for i in {1..20}; do \
kubectl exec "$(kubectl get pod -l app=sleep -n istio-io-tcp-traffic-shifting -o jsonpath={.items..metadata.name})" \
-c sleep -n istio-io-tcp-traffic-shifting -- sh -c "(date; sleep 1) | nc $INGRESS_HOST $TCP_INGRESS_PORT"; \
done
one Mon Nov 12 23:38:45 UTC 2018
two Mon Nov 12 23:38:47 UTC 2018
@ -143,30 +124,26 @@ test: yes
one Mon Nov 12 23:39:02 UTC 2018
one Mon Nov 12 23:39:05 UTC 2018
one Mon Nov 12 23:39:07 UTC 2018
...
{{< /text >}}
{{< warning >}}
可能需要通过 `sudo` 执行 `docker` 命令,这取决于您的 Docker 安装。
{{< /warning >}}
现在应该发现,有大约 20% 的流量时间戳前缀是 _two_ ,这意味着有 80% 的 TCP 流量路由到了 `tcp-echo` 服务的
`v1` 版本,与此同时有 20% 流量路由到了 `v2` 版本。
请注意,大约 20% 的时间戳带有前缀 “_two_”说明 80% 的 TCP 流量被路由到 `tcp-echo` Service 的 `v1` 版本,而 20% 的流量被路由到 `v2`版本。
## 理解原理{#understanding-what-happened}
这个任务中,使用 Istio 路由权重特性将 `tcp-echo` 服务的 TCP 流量从旧版本迁移到了新版本。请注意,这与使用容
器编排平台的 deployment 进行版本迁移非常不同,后者(容器编排平台)是通过对特定组别的实例进行伸缩实现的。
这个任务中,使用 Istio 路由权重特性将 `tcp-echo` 服务的 TCP 流量从旧版本迁移到了新版本。请注意,这与使用容器编排平台的部署功能进行版本迁移完全不同,后者(容器编排平台)使用了实例扩容来管理流量。
在 Istio 中可以对 `tcp-echo` 服务的两个版本进行独立扩容和缩容,这个过程不会影响服务版本之间的流量分配。
在 Istio 中可以对 `tcp-echo` 服务的两个版本进行独立扩容和缩容,这个过程不会影响两个服务版本之间的流量分配。
有关不同版本间流量管理及自动伸缩的更多信息,请查看博客文章[使用 Istio 进行金丝雀部署](/zh/blog/2017/0.1-canary/)。
## 清理{#cleanup}
1. 删除 `tcp-echo` 应用程序和路由规则。
1. 删除 `sleep` 示例、`tcp-echo` 应用程序和路由规则:
{{< text bash >}}
$ kubectl delete -f @samples/tcp-echo/tcp-echo-all-v1.yaml@ -n istio-io-tcp-traffic-shifting
$ kubectl delete -f @samples/tcp-echo/tcp-echo-services.yaml@ -n istio-io-tcp-traffic-shifting
$ kubectl delete -f @samples/sleep/sleep.yaml@ -n istio-io-tcp-traffic-shifting
$ kubectl delete namespace istio-io-tcp-traffic-shifting
{{< /text >}}