diff --git a/content/zh/docs/ops/diagnostic-tools/check-inject/index.md b/content/zh/docs/ops/diagnostic-tools/check-inject/index.md index 7068d048a5..c8c01097e3 100644 --- a/content/zh/docs/ops/diagnostic-tools/check-inject/index.md +++ b/content/zh/docs/ops/diagnostic-tools/check-inject/index.md @@ -7,11 +7,14 @@ owner: istio/wg-user-experience-maintainers test: no --- -`istioctl experimental check-inject` 是一个诊断工具,可帮助您验证特定 Webhook 是否会在 Pod 中执行 Istio Sidecar 注入。这个工具可用于检查 Sidecar 注入的配置是否正确地应用于一个活跃的集群。 +`istioctl experimental check-inject` 是一个诊断工具,可帮助您验证特定 +Webhook 是否会在 Pod 中执行 Istio Sidecar 注入。这个工具可用于检查 Sidecar +注入的配置是否正确地应用于一个活跃的集群。 -## 快速入门{#quick-start} +## 快速入门 {#quick-start} -要检查针对特定 Pod 为什么 Istio Sidecar 注入已发生/未发生(或将发生/不会发生),请运行: +要检查针对特定 Pod 为什么 Istio Sidecar 注入已发生/未发生(或将发生/不会发生), +请运行: {{< text syntax=bash >}} $ istioctl experimental check-inject -n @@ -29,7 +32,8 @@ $ istioctl experimental check-inject -n deploy/ $ istioctl experimental check-inject -n -l = {{< /text >}} -例如,如果您在 `hello` 命名空间中有一个名为 `httpbin` 的 Deployment 和一个名为 `httpbin-1234` 且标签为 `app=httpbin` 的 Pod,则以下命令是等效的: +例如,如果您在 `hello` 命名空间中有一个名为 `httpbin` 的 Deployment 和一个名为 +`httpbin-1234` 且标签为 `app=httpbin` 的 Pod,则以下命令是等效的: {{< text syntax=bash >}} $ istioctl experimental check-inject -n hello httpbin-1234 @@ -45,18 +49,21 @@ istio-revision-tag-default default ✔ Namespace label istio-inj istio-sidecar-injector-1-18 1-18 ✘ No matching namespace labels (istio.io/rev=1-18) or pod labels (istio.io/rev=1-18) {{< /text >}} -如果 `INJECTED` 字段标记为 `✔`, 则该行中的 Webhook 将执行注入,并说明 Webhook 将进行边车注入的原因。 +如果 `INJECTED` 字段标记为 `✔`, 则该行中的 Webhook 将执行注入, +并说明 Webhook 将进行边车注入的原因。 -如果 `INJECTED` 字段标记为 `✘`,则该行中的 Webhook 将不执行注入,并且也会显示原因。 +如果 `INJECTED` 字段标记为 `✘`,则该行中的 Webhook 将不执行注入, +并且也会显示原因。 Webhook 不执行注入或注入有错误的可能原因: -1. **没有匹配的命名空间标签或 Pod 标签**: 确保在命名空间或 Pod 上设置正确的标签。 +1. **没有匹配的命名空间标签或 Pod 标签**:确保在命名空间或 Pod 上设置正确的标签。 -1. **没有匹配特定修订版本的命名空间标签或Pod标签**: 设置正确的标签以匹配所需的 Istio 修订版本。 +1. **没有匹配特定修订版本的命名空间标签或Pod标签**:设置正确的标签以匹配所需的 Istio 修订版本。 -1. **防止注入的 Pod 标签**: 删除标签或将其设置为适当的值。 +1. **防止注入的 Pod 标签**:删除标签或将其设置为适当的值。 -1. **防止注入的命名空间标签**: 将标签更改为适当的值。 +1. **防止注入的命名空间标签**:将标签更改为适当的值。 -1. **多个 Webhook 注入 sidecar**: 确保只启用一个 Webhook 进行注入,在命名空间或 Pod 上设置适当的标签以针对特定的 Webhook。 +1. **多个 Webhook 注入 sidecar**:确保只启用一个 Webhook 进行注入,在命名空间或 + Pod 上设置适当的标签以针对特定的 Webhook。 diff --git a/content/zh/docs/ops/diagnostic-tools/multicluster/index.md b/content/zh/docs/ops/diagnostic-tools/multicluster/index.md index b36421849a..5d568d5346 100644 --- a/content/zh/docs/ops/diagnostic-tools/multicluster/index.md +++ b/content/zh/docs/ops/diagnostic-tools/multicluster/index.md @@ -8,11 +8,13 @@ test: no --- 本页介绍如何将 Istio 部署到多个集群和/或多个网络的问题。 -开始之前,请确保您已经完成了[多集群安装](/zh/docs/setup/install/multicluster/)的要求并且已经阅读了[部署模型](/zh/docs/ops/deployment/deployment-models/)指南。 +开始之前,请确保您已经完成了[多集群安装](/zh/docs/setup/install/multicluster/) +的要求并且已经阅读了[部署模型](/zh/docs/ops/deployment/deployment-models/)指南。 -## 跨集群负载均衡{#cross-cluster-load-balancing} +## 跨集群负载均衡 {#cross-cluster-load-balancing} -多网络安装最常见同时也是最广泛的问题是无法实现跨集群负载均衡。通常表现为仅看到来自服务的集群本地实例(cluster-local instance)的响应: +多网络安装最常见同时也是最广泛的问题是无法实现跨集群负载均衡。 +通常表现为仅看到来自服务的集群本地实例(cluster-local instance)的响应: {{< text bash >}} $ for i in $(seq 10); do kubectl --context=$CTX_CLUSTER1 -n sample exec sleep-dd98b5f48-djwdw -c sleep -- curl -s helloworld:5000/hello; done @@ -22,19 +24,25 @@ Hello version: v1, instance: helloworld-v1-578dd69f69-j69pf ... {{< /text >}} -按照[验证多集群安装](/zh/docs/setup/install/multicluster/verify/)指南操作完毕后,我们期待同时看到 `v1` 和 `v2` 响应,这表示流量同时到达了两个集群。 +按照[验证多集群安装](/zh/docs/setup/install/multicluster/verify/)指南操作完毕后, +我们期待同时看到 `v1` 和 `v2` 响应,这表示流量同时到达了两个集群。 造成响应仅来自集群本地实例的原因有很多: -### 本地负载均衡{#locality-load-balancing} +### 本地负载均衡 {#locality-load-balancing} -[本地负载均衡](/zh/docs/tasks/traffic-management/locality-load-balancing/failover/#configure-locality-failover)总是引导客户端访问最近的服务。如果集群分布于不同地理位置(地区/区域),本地负载均衡将优先选用本地实例提供服务,这与预期相符。而如果禁用了本地负载均衡或者是集群处于同一地理位置,那就可能还存在其他问题。 +[本地负载均衡](/zh/docs/tasks/traffic-management/locality-load-balancing/failover/#configure-locality-failover)总是引导客户端访问最近的服务。 +如果集群分布于不同地理位置(地区/区域),本地负载均衡将优先选用本地实例提供服务, +这与预期相符。而如果禁用了本地负载均衡或者是集群处于同一地理位置,那就可能还存在其他问题。 -### 受信配置{#trust-configuration} +### 受信配置 {#trust-configuration} -与集群内通信一样,跨集群通信依赖于代理之间公共的且可信任的根证书颁发机构(root)。默认情况下 Istio 使用自身单独生成的根证书颁发机构。对于多集群的情况,我们必须手动配置公共的且可信任的根证书颁发机构。阅读下面的 **Plug-in Certs** 章节或者参考[身份和信任模型](/zh/docs/ops/deployment/deployment-models/#identity-and-trust-models)了解更多细节。 +与集群内通信一样,跨集群通信依赖于代理之间公共的且可信任的根证书颁发机构(root)。 +默认情况下 Istio 使用自身单独生成的根证书颁发机构。对于多集群的情况, +我们必须手动配置公共的且可信任的根证书颁发机构。阅读下面的**插入式证书**章节或者参考 +[身份和信任模型](/zh/docs/ops/deployment/deployment-models/#identity-and-trust-models)了解更多细节。 -**证书插件**: +**插入式证书**: 您可以通过比较每个集群中的根证书的方式来验证受信配置是否正确: @@ -44,13 +52,14 @@ $ diff \ <(kubectl --context="${CTX_CLUSTER2}" -n istio-system get secret cacerts -ojsonpath='{.data.root-cert\.pem}') {{< /text >}} -您需要根据[根证书插件](/zh/docs/tasks/security/cert-management/plugin-ca-cert/)确保在每个集群上都完成了操作。 +您需要根据[插入式 CA 证书](/zh/docs/tasks/security/cert-management/plugin-ca-cert/)确保在每个集群上都完成了操作。 -### 逐步分析{#step-by-step-diagnosis} +### 逐步分析 {#step-by-step-diagnosis} 如果您已经阅读了上面的章节,但问题仍没有解决,那么可能需要进行更深入的探讨。 -下面这些步骤假定您已经完成了 [HelloWorld 认证](/zh/docs/setup/install/multicluster/verify/)指南,并且确保 `helloworld` 和 `sleep` 服务已经在每个集群中被正确的部署。 +下面这些步骤假定您已经完成了 [HelloWorld 认证](/zh/docs/setup/install/multicluster/verify/)指南, +并且确保 `helloworld` 和 `sleep` 服务已经在每个集群中被正确的部署。 针对每个集群,找到 `sleep` 服务对应的 `helloworld` 的 `endpoints`: @@ -70,16 +79,17 @@ $ istioctl --context $CTX_CLUSTER1 proxy-config endpoint sleep-dd98b5f48-djwdw.s {{< /text >}} 仅显示一个 `endpoints`,表示控制平面无法从从集群读取 `endpoints`。 -验证远程 `secrets` 是否配置正确。 +验证远程 Secret 是否配置正确。 {{< text bash >}} $ kubectl get secrets --context=$CTX_CLUSTER1 -n istio-system -l "istio/multiCluster=true" {{< /text >}} -* 如果缺失 `secrets`,则创建一个。 -* 如果存在 `secrets`,则: +* 如果缺失 Secret,则创建一个。 +* 如果存在 Secret,则: * 查看配置,确保使用集群名作为远程 `kubeconfig` 的数据键(data key)。 - * 如果 `secrets` 看起来没问题,检查 `istiod` 的日志,以确定是连接还是权限问题导致无法连接远程 Kubernetes API。该日志可能包括 `Failed to add remote cluster from secret` 信息和对应的错误原因。 + * 如果 Secret 看起来没问题,检查 `istiod` 的日志,以确定是连接还是权限问题导致无法连接远程 + Kubernetes API。该日志可能包括 `Failed to add remote cluster from secret` 信息和对应的错误原因。 {{< /tab >}} @@ -91,19 +101,20 @@ $ istioctl --context $CTX_CLUSTER2 proxy-config endpoint sleep-dd98b5f48-djwdw.s {{< /text >}} 仅显示一个 `endpoints`,表示控制平面无法从从集群读取 `endpoints`。 -验证远程 `secrets` 是否配置正确。 +验证远程 Secret 是否配置正确。 {{< text bash >}} $ kubectl get secrets --context=$CTX_CLUSTER1 -n istio-system -l "istio/multiCluster=true" {{< /text >}} -* 如果缺失 `secrets`,则创建一个。 -* 如果存在 `secrets`,且 `endpoints` 是位于 **主** 集群中的 Pod,则: +* 如果缺失 Secret,则创建一个。 +* 如果存在 Secret,且 `endpoints` 是位于 **主** 集群中的 Pod,则: * 查看配置,确保使用集群名作为远程 `kubeconfig` 的数据键(data key)。 - * 如果 `secrets` 看起来没问题,检查 `istiod` 的日志,以确定是连接还是权限问题导致无法连接远程 Kubernetes API。该日志可能包括 `Failed to add remote cluster from secret` 信息和对应的错误原因。 -* 如果存在 `secrets`,且 `endpoints` 是位于 **从** 集群中的 Pod,则: + * 如果 Secret 看起来没问题,检查 `istiod` 的日志,以确定是连接还是权限问题导致无法连接远程 + Kubernetes API。该日志可能包括 `Failed to add remote cluster from secret` 信息和对应的错误原因。 +* 如果存在 Secret,且 `endpoints` 是位于 **从** 集群中的 Pod,则: * 代理正在从从集群 istiod 读取配置。当一个从集群有一个集群内的 istiod 时,它只作用于 Sidecar 注入和 CA。 - 您可以通过在 `istio-system` 命名空间中查找名为 `istiod-remote` 的服务来确认此问题。 + 您可以通过在 `istio-system` 命名空间中查找名为 `istiod-remote` 的 Service 来确认此问题。 如果缺失,请使用 `values.global.remotePilotAddress` 重新设置。 {{< /tab >}} @@ -118,14 +129,15 @@ $ istioctl --context $CTX_CLUSTER1 proxy-config endpoint sleep-dd98b5f48-djwdw.s 10.0.6.13:5000 HEALTHY OK outbound|5000||helloworld.sample.svc.cluster.local {{< /text >}} -多网络中模型中,我们期望其中一个端点 IP 与从集群的东西向网关(east-west gateway)公网 IP 匹配。看到多个 Pod IP 说明存在以下两种情况: +多网络中模型中,我们期望其中一个端点 IP 与从集群的东西向网关(east-west gateway)公网 IP 匹配。 +看到多个 Pod IP 说明存在以下两种情况: * 无法确定远程网络的网关地址。 -* 无法确定客户端 Pod 或服务器 Pod 的网络。 +* 无法确定客户端 Pod 或服务器端 Pod 的网络。 **无法确定远程网络的网关地址**: -在无法访问的从集群中,检查服务是否有外部 IP: +在无法访问的从集群中,检查 Service 是否有外部 IP: {{< text bash >}} $ kubectl -n istio-system get service -l "istio=eastwestgateway" @@ -133,11 +145,13 @@ NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) istio-eastwestgateway LoadBalancer 10.8.17.119 15021:31781/TCP,15443:30498/TCP,15012:30879/TCP,15017:30336/TCP 76m {{< /text >}} -如果 `EXTERNAL-IP` 卡在 `` 状态, 则说明环境可能不支持 `LoadBalancer` 服务。在这种情况下,可能需要自定义服务的 `spec.exteralIPs` 部分,手动为网关提供集群外可达的 IP。 +如果 `EXTERNAL-IP` 卡在 `` 状态, 则说明环境可能不支持 `LoadBalancer` 类型的 Service。 +在这种情况下,可能需要自定义 Service 的 `spec.exteralIPs` 部分,手动为网关提供集群外可达的 IP。 -如果外部 IP 存在,请检查 `topology.istio.io/network` 标签的值是否正确。如果不正确,请重新安装网关,并确保在生成脚本上设置 --network 标志。 +如果外部 IP 存在,请检查 `topology.istio.io/network` 标签的值是否正确。如果不正确, +请重新安装网关,并确保在生成脚本上设置 --network 标志。 -**无法确定客户端 Pod 或服务器 Pod 的网络**: +**无法确定客户端 Pod 或服务器端 Pod 的网络**: 在源 Pod 上查看代理元数据。 @@ -151,10 +165,12 @@ $ kubectl get pod $HELLOWORLD_POD_NAME \ -o jsonpath="{.metadata.labels.topology\.istio\.io/network}" {{< /text >}} -如果没有设置这两个值中的任何一个,或者值不正确,istiod 可能会将源代理和客户端代理视为在同一网络上,并发送网络本地端点。 -如果没有设置,请检查安装过程中是否正确设置了 `values.global.network` 或者是否正确配置了 WebHook 注入。 +如果没有设置这两个值中的任何一个,或者值不正确,istiod 可能会将源代理和客户端代理视为在同一网络上, +并发送网络本地端点。如果没有设置,请检查安装过程中是否正确设置了 `values.global.network` +或者是否正确配置了 WebHook 注入。 -Istio 通过 Pod 注入的 `topology.istio.io/network` 标签来确定网络。对于没有标签的 Pod,Istio 将根据系统命名空间的`topology.istio.io/network` 标签来确定网络。 +Istio 通过 Pod 注入的 `topology.istio.io/network` 标签来确定网络。对于没有标签的 Pod, +Istio 将根据系统命名空间的`topology.istio.io/network` 标签来确定网络。 针对每个集群检查网络情况: