diff --git a/content/zh/docs/setup/independent/create-cluster-kubeadm.md b/content/zh/docs/setup/independent/create-cluster-kubeadm.md
deleted file mode 100644
index 2f80c85c2d..0000000000
--- a/content/zh/docs/setup/independent/create-cluster-kubeadm.md
+++ /dev/null
@@ -1,1113 +0,0 @@
----
-title: 使用 kubeadm 创建一个单主集群
-content_type: task
-weight: 30
----
-
-
-
-
-
-
-
-
**kubeadm** 能帮助您建立一个小型的符合最佳实践的 Kubernetes 集群。通过使用 kubeadm, 您的集群会符合 [Kubernetes 合规性测试](https://kubernetes.io/blog/2017/10/software-conformance-certification)的要求. Kubeadm 也支持其他的集群生命周期操作,比如升级、降级和管理[启动引导令牌](/docs/reference/access-authn-authz/bootstrap-tokens/)。
-
-
-
-因为您可以在不同类型的机器(比如笔记本、服务器和树莓派等)上安装 kubeadm,因此它非常适合与 Terraform 或 Ansible 这类自动化管理系统集成。
-
-
-
-kubeadm 的简单便捷为大家带来了广泛的用户案例:
-
-- 新用户可以从 kubeadm 开始来试用 Kubernetes。
-- 熟悉 Kubernetes 的用户可以使用 kubeadm 快速搭建集群并测试他们的应用。
-- 大型的项目可以将 kubeadm 和其他的安装工具一起形成一个比较复杂的系统。
-
-
-
-kubeadm 的设计初衷是为新用户提供一种便捷的方式来首次试用 Kubernetes,
-同时也方便老用户搭建集群测试他们的应用。
-此外 kubeadm 也可以跟其它生态系统与/或安装工具集成到一起,提供更强大的功能。
-
-
-
-您可以很方便地在支持 rpm 或 deb 软件包的操作系统上安装 _kubeadm_。对应 kubeadm 的 SIG,
-[SIG Cluster Lifecycle](https://github.com/kubernetes/community/tree/master/sig-cluster-lifecycle),
-提供了预编译的这类安装包,当然您也可以自己基于源码为其它操作系统来构造安装包。
-
-
-
-### kubeadm 成熟程度
-
-| 功能 | 成熟程度 |
-|---------------------------|--------------- |
-| 命令行用户体验 | beta |
-| 功能实现 | beta |
-| 配置文件 API | alpha |
-| 自托管 | alpha |
-| kubeadm alpha 子命令 | alpha |
-| CoreDNS | GA |
-| 动态 Kubelet 配置 | alpha |
-
-
-
-kubeadm 的整体功能目前还是 **Beta** 状态,然而很快在 2018 年就会转换成**正式发布 (GA)** 状态。
-一些子功能,比如自托管或者配置文件 API 还在开发过程当中。
-随着工具的发展,创建集群的方法可能会有所变化,但是整体部署方案还是比较稳定的。
-在 `kubeadm alpha` 下面的任何命令都只是 alpha 状态,目前只提供初期阶段的服务。
-
-
-
-### 维护周期
-
-Kubernetes 发布的版本通常只维护支持九个月,在维护周期内,如果发现有比较重大的 bug 或者安全问题的话,
-可能会发布一个补丁版本。下面是 Kubernetes 的发布和维护周期,同时也适用于 `kubeadm`。
-
-| Kubernetes 版本 | 发行月份 | 终止维护月份 |
-|--------------------|----------------|-------------------|
-| v1.6.x | 2017 年 3 月 | 2017 年 12 月 |
-| v1.7.x | 2017 年 6 月 | 2018 年 3 月 |
-| v1.8.x | 2017 年 9 月 | 2018 年 6 月 |
-| v1.9.x | 2017 年 12 月 | 2018 年 9 月 |
-| v1.10.x | 2018 年 3 月 | 2018 年 12 月 |
-| v1.11.x | 2018 年 6 月 | 2019 年 3 月 |
-| v1.12.x | 2018 年 9 月 | 2019 年 6 月 |
-
-
-
-## {{% heading "prerequisites" %}}
-
-
-
-- 一个或者多个兼容 deb 或者 rpm 软件包的操作系统,比如 Ubuntu 或者 CentOS
-- 每台机器 2 GB 以上的内存,内存不足时应用会受限制
-- 主节点上 2 CPU 以上
-- 集群里所有的机器有完全的网络连接,公有网络或者私有网络都可以
-
-
-
-
-
-## 目标
-
-* 搭建一个单主 Kubernetes 集群或者[高可用集群](/docs/setup/independent/high-availability/)
-* 在集群上安装 Pod 网络组件以便 Pod 之间可以互相通信
-
-
-
-## 步骤
-
-### 在您的机器上安装 kubeadm
-
-请查阅[安装 kubeadm](/docs/setup/independent/install-kubeadm/)。
-
-{{< note >}}
-如果您的机器已经安装了 kubeadm, 请运行 `apt-get update &&
-apt-get upgrade` 或者 `yum update` 来升级至最新版本的 kubeadm.
-
-升级过程中,kubelet 会每隔几秒钟重启并陷入了不断循环等待 kubeadm 发布指令的状态。
-这个死循环的过程是正常的,当升级并初始化完成您的主节点之后,kubelet 才会正常运行。
-{{< /note >}}
-
-
-
-### 初始化您的主节点
-
-主节点是集群里运行控制面的机器,包括 etcd (集群的数据库)和 API 服务(kubectl CLI 与之交互)。
-
-
-
-
-1. 选择一个 Pod 网络插件,并检查是否在 kubeadm 初始化过程中需要传入什么参数。这个取决于
-您选择的网络插件,您可能需要设置 `--Pod-network-cidr` 来指定网络驱动的 CIDR。请参阅[安装网络插件](#Pod-network)。
-1. (可选) 除非特别指定,kubeadm 会使用默认网关所在的网络接口广播其主节点的 IP 地址。若需使用其他网络接口,请
-给 `kubeadm init` 设置 `--apiserver-advertise-address=` 参数。如果需要部署
-IPv6 的集群,则需要指定一个 IPv6 地址,比如 `--apiserver-advertise-address=fd00::101`。
-1. (可选) 在运行 `kubeadm init` 之前请先执行 `kubeadm config images pull` 来测试与 gcr.io 的连接。
-
-现在运行:
-
-```bash
-kubeadm init
-```
-
-
-
-### 补充信息
-
-想了解更多关于 `kubeadm init` 的参数, 请参阅[kubeadm 参考指南](/docs/reference/setup-tools/kubeadm/kubeadm/)。
-
-想了解完整的配置选项,请参阅[配置文件](/docs/reference/setup-tools/kubeadm/kubeadm-init/#config-file)。
-
-如果想定制控制面组件,包括为活跃性探测和 etcd 服务提供 IPv6 支持以及为各组件提供额外参数,请参阅[定制参数](/docs/admin/kubeadm#custom-args)。
-
-
-
-如果需要再次运行 `kubeadm init`,您必须先[卸载集群](#tear-down)。
-
-如果您需要将不同架构的节点加入您的集群,请单独在这类节点上为 `kube-proxy` 和 `kube-dns` 创建 Deployment 或 DaemonSet。
-这是因为这些组件的 Docker 镜像并不支持多架构。
-
-`kubeadm init` 首先会执行一系列的运行前检查来确保机器满足运行 Kubernetes 的条件。
-这些检查会抛出警告并在发现错误的时候终止整个初始化进程。
-然后 `kubeadm init` 会下载并安装集群的控制面组件,这可能会花费几分钟时间,其输出如下所示:
-
-```none
-[init] Using Kubernetes version: vX.Y.Z
-[preflight] Running pre-flight checks
-[kubeadm] WARNING: starting in 1.8, tokens expire after 24 hours by default (if you require a non-expiring token use --token-ttl 0)
-[certificates] Generated ca certificate and key.
-[certificates] Generated apiserver certificate and key.
-[certificates] apiserver serving cert is signed for DNS names [kubeadm-master kubernetes kubernetes.default kubernetes.default.svc kubernetes.default.svc.cluster.local] and IPs [10.96.0.1 10.138.0.4]
-[certificates] Generated apiserver-kubelet-client certificate and key.
-[certificates] Generated sa key and public key.
-[certificates] Generated front-proxy-ca certificate and key.
-[certificates] Generated front-proxy-client certificate and key.
-[certificates] Valid certificates and keys now exist in "/etc/kubernetes/pki"
-[kubeconfig] Wrote KubeConfig file to disk: "admin.conf"
-[kubeconfig] Wrote KubeConfig file to disk: "kubelet.conf"
-[kubeconfig] Wrote KubeConfig file to disk: "controller-manager.conf"
-[kubeconfig] Wrote KubeConfig file to disk: "scheduler.conf"
-[controlplane] Wrote Static Pod manifest for component kube-apiserver to "/etc/kubernetes/manifests/kube-apiserver.yaml"
-[controlplane] Wrote Static Pod manifest for component kube-controller-manager to "/etc/kubernetes/manifests/kube-controller-manager.yaml"
-[controlplane] Wrote Static Pod manifest for component kube-scheduler to "/etc/kubernetes/manifests/kube-scheduler.yaml"
-[etcd] Wrote Static Pod manifest for a local etcd instance to "/etc/kubernetes/manifests/etcd.yaml"
-[init] Waiting for the kubelet to boot up the control plane as Static Pods from directory "/etc/kubernetes/manifests"
-[init] This often takes around a minute; or longer if the control plane images have to be pulled.
-[apiclient] All control plane components are healthy after 39.511972 seconds
-[uploadconfig] Storing the configuration used in ConfigMap "kubeadm-config" in the "kube-system" Namespace
-[markmaster] Will mark node master as master by adding a label and a taint
-[markmaster] Master master tainted and labelled with key/value: node-role.kubernetes.io/master=""
-[bootstraptoken] Using token:
-[bootstraptoken] Configured RBAC rules to allow Node Bootstrap tokens to post CSRs in order for nodes to get long term certificate credentials
-[bootstraptoken] Configured RBAC rules to allow the csrapprover controller automatically approve CSRs from a Node Bootstrap Token
-[bootstraptoken] Creating the "cluster-info" ConfigMap in the "kube-public" namespace
-[addons] Applied essential addon: CoreDNS
-[addons] Applied essential addon: kube-proxy
-
-Your Kubernetes master has initialized successfully!
-
-To start using your cluster, you need to run (as a regular user):
-
- mkdir -p $HOME/.kube
- sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
- sudo chown $(id -u):$(id -g) $HOME/.kube/config
-
-You should now deploy a Pod network to the cluster.
-Run "kubectl apply -f [Podnetwork].yaml" with one of the addon options listed at:
- http://kubernetes.io/docs/admin/addons/
-
-You can now join any number of machines by running the following on each node
-as root:
-
- kubeadm join --token : --discovery-token-ca-cert-hash sha256:
-```
-
-
-
-
-如果需要让普通用户可以运行 kubectl,请运行如下命令,其实这也是 `kubeadm init` 输出的一部分:
-
-```bash
-mkdir -p $HOME/.kube
-sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
-sudo chown $(id -u):$(id -g) $HOME/.kube/config
-```
-
-
-
-或者,如果您是 `root` 用户,则可以运行:
-
-```bash
-export KUBECONFIG=/etc/kubernetes/admin.conf
-```
-
-
-
-请备份好 `kubeadm init` 输出中的 `kubeadm join` 命令,因为您会需要这个命令来[给集群添加节点](#join-nodes)。
-
-令牌是主节点和新添加的节点之间进行相互身份验证的,因此请确保其安全。任何人只要知道了这些令牌,就可以随便给您的集群添加节点。
-可以使用 `kubeadm token` 命令来列出、创建和删除这类令牌。
-请参阅[kubeadm 参考指南](/docs/reference/setup-tools/kubeadm/kubeadm-token/)。
-
-
-
-### 安装 Pod 网络插件 {#Pod-network}
-
-{{< caution >}}
-**注意:** 这一节包含了安装和部署顺序的重要信息,执行之前请仔细阅读。
-{{< /caution >}}
-
-您必须先安装 Pod 网络插件,以便您的 Pod 可以互相通信。
-
-
-
-**网络必须在部署任何应用之前部署好。此外,在网络安装之前 CoreDNS 是不会启用的。
-kubeadm 只支持基于容器网络接口(CNI)的网络而且不支持 kubenet 。**
-
-有一些项目为 Kubernetes 提供使用 CNI 的 Pod 网络,其中一些也支持[网络策略](/docs/concepts/services-networking/networkpolicies/).
-请参阅[插件页面](/docs/concepts/cluster-administration/addons/)了解可用网络插件的完整列表。
-- [CNI v0.6.0](https://github.com/containernetworking/cni/releases/tag/v0.6.0) 也提供了 IPv6 的支持。
-- [CNI 网桥](https://github.com/containernetworking/plugins/blob/master/plugins/main/bridge/README.md) 和 [local-ipam](https://github.com/containernetworking/plugins/blob/master/plugins/ipam/host-local/README.md) 是 Kubernetes 1.9 版本里提供的唯一支持 IPv6 的网络插件。
-
-
-
-注意 kubeadm 默认会创建一个比较安全的集群并强制启用[RBAC](/docs/reference/access-authn-authz/rbac/)。
-请确保您的网络方案支持 RBAC。
-
-您可以使用下列命令安装网络插件:
-
-```bash
-kubectl apply -f
-```
-
-
-
-您仅可以给任何一个集群安装一个网络插件。
-
-{{< tabs name="tabs-Pod-install" >}}
-{{% tab name="Choose one..." %}}
-请选择一个选项来查看对应的第三方网络插件驱动的安装向导。
-{{% /tab %}}
-
-
-
-{{% tab name="Calico" %}}
-想了解关于 Calico 的使用的更多信息, 请参阅[Kubernetes上的Calico快速实践](https://docs.projectcalico.org/latest/getting-started/kubernetes/)、[安装 Calico 实现网络策略](https://docs.projectcalico.org/latest/getting-started/kubernetes/installation/calico)和其他相关资源。
-
-为了 Calico 可以正确工作,您需要给 `kubeadm init` 传递 `--Pod-network-cidr=192.168.0.0/16` 这样的选项,
-或者根据您的网络方案更新 `calico.yml` 。注意 Calico 只适用于 `amd64` 架构。
-
-```shell
-kubectl apply -f https://docs.projectcalico.org/v3.8/manifests/calico.yaml
-```
-
-{{% /tab %}}
-
-
-
-{{% tab name="Canal" %}}
-Canal 使用 Calico 提供的网络策略和 Flannel 提供的网络功能。请查阅 Calico 的官方文档
-[入门指引](https://docs.projectcalico.org/latest/getting-started/kubernetes/installation/flannel)。
-
-为了 Canal 可以正确运行,`kubeadm init` 运行时需要设置`--Pod-network-cidr=10.244.0.0/16`,同时注意它只适用于 `amd64` 架构。
-
-```shell
-kubectl apply -f https://docs.projectcalico.org/v3.8/manifests/canal.yaml
-```
-
-{{% /tab %}}
-
-{{% tab name="Cilium" %}}
-想了解 Kubernetes 上使用 Cilium 的更多相关信息,请查参阅[Kubernetes 上 Cilium 的快速指南](http://docs.cilium.io/en/v1.2/kubernetes/quickinstall/) 和 [Kubernetes 上 Cilium 的安装向导](http://docs.cilium.io/en/v1.2/kubernetes/install/)。
-
-尽管这里并不要求给 `kubeadm init` 设置 `--Pod-network-cidr` 参数,但是这是一个高度推荐操作的步骤。
-
-这些命令会部署 Cilium 和它自己受 etcd 操作者管理的 etcd。
-
-```shell
-# 从 Cilium 库下载所需清单文件
-wget https://github.com/cilium/cilium/archive/v1.2.0.zip
-unzip v1.2.0.zip
-cd cilium-1.2.0/examples/kubernetes/addons/etcd-operator
-
-# 生成并部署 etcd 证书
-export CLUSTER_DOMAIN=$(kubectl get ConfigMap --namespace kube-system coredns -o yaml | awk '/kubernetes/ {print $2}')
-tls/certs/gen-cert.sh $CLUSTER_DOMAIN
-tls/deploy-certs.sh
-
-# 为 kube-dns 设置固定的标识标签
-kubectl label -n kube-system Pod $(kubectl -n kube-system get Pods -l k8s-app=kube-dns -o jsonpath='{range .items[]}{.metadata.name}{" "}{end}') io.cilium.fixed-identity=kube-dns
-
-kubectl create -f ./
-
-# 等待几分钟,Cilium、coredns 和 etcd 的 Pods 会收敛到工作状态
-```
-
-{{% /tab %}}
-
-
-
-{{% tab name="Flannel" %}}
-
-为了让 `flannel` 能正确工作,您必须在运行 `kubeadm init` 时设置 `--Pod-network-cidr=10.244.0.0/16`。
-
-通过运行 `sysctl net.bridge.bridge-nf-call-iptables=1` 将 `/proc/sys/net/bridge/bridge-nf-call-iptables` 设置成 `1`,
-进而确保桥接的 IPv4 流量会传递给 iptables。
-这是一部分 CNI 插件运行的要求条件,请查看[这篇文档](/docs/concepts/cluster-administration/network-plugins/#network-plugin-requirements)获取更详细信息。
-
-注意 `flannel` 适用于 `amd64`、`arm`、`arm64` 和 `ppc64le` 架构平台。
-
-```shell
-kubectl apply -f https://raw.githubusercontent.com/coreos/flannel/bc79dd1505b0c8681ece4de4c0d86c5cd2643275/Documentation/kube-flannel.yml
-```
-
-想了解更多关于 `flannel` 的信息,请查阅[ GitHub 上的 CoreOS flannel 仓库](https://github.com/coreos/flannel)。
-{{% /tab %}}
-
-
-
-{{% tab name="Kube-router" %}}
-通过运行 `sysctl net.bridge.bridge-nf-call-iptables=1` 将 `/proc/sys/net/bridge/bridge-nf-call-iptables` 设置成 `1`,
-确保桥接的 IPv4 流量会传递给 iptables。
-这是一部分 CNI 插件的运行条件。请查看[这篇文档](/docs/concepts/cluster-administration/network-plugins/#network-plugin-requirements)了解更详细的信息。
-
-Kube-router 依赖于 kube-controller-manager 来给节点分配 CIDR, 因此需要设置 `kubeadm init` 的 `--Pod-network-cidr` 参数。
-
-Kube-router 提供 Pod 间联网、网络策略和和高效的基于 IPVS/LVS 的服务代理功能。
-
-想了解关于使用 kubeadm 搭建 Kubernetes 和 Kube-router 的更多信息。请查看官方的[安装指引](https://github.com/cloudnativelabs/kube-router/blob/master/docs/kubeadm.md)。
-{{% /tab %}}
-
-
-
-{{% tab name="Romana" %}}
-通过运行 `sysctl net.bridge.bridge-nf-call-iptables=1` 将 `/proc/sys/net/bridge/bridge-nf-call-iptables` 设置成 `1`,
-确保桥接的 IPv4 流量会传递给 iptables。这是一部分 CNI 插件的运行条件。
-请查看[这篇文档](/docs/concepts/cluster-administration/network-plugins/#network-plugin-requirements)
-获取更详细的信息。
-
-官方的 Romana 安装指引在[这里](https://github.com/romana/romana/tree/master/containerize#using-kubeadm)。
-
-注意,Romana 只适用于 `amd64` 架构。
-
-```shell
-kubectl apply -f https://raw.githubusercontent.com/romana/romana/master/containerize/specs/romana-kubeadm.yml
-```
-{{% /tab %}}
-
-
-
-{{% tab name="Weave Net" %}}
-
-通过运行 `sysctl net.bridge.bridge-nf-call-iptables=1` 将 `/proc/sys/net/bridge/bridge-nf-call-iptables` 设置成 `1`,
-将桥接的 IPv4 流量传递给 iptables。这是一部分 CNI 插件的运行条件。
-请查看[这篇文档](/docs/concepts/cluster-administration/network-plugins/#network-plugin-requirements)
-获取更详细的信息。
-
-官方的 Weave Net 配置向导在[这里](https://www.weave.works/docs/net/latest/kube-addon/)。
-
-Weave Net 适用于`amd64`、`arm`、`arm64` 和 `ppc64le` 而不需要其它额外的配置。
-Weave Net 默认启用 hairpin 模式,可以让 Pod 在不知道他们自己的 PodIP 的时候仍可以使用服务的 IP 地址来访问他们自己。
-
-```shell
-kubectl apply -f "https://cloud.weave.works/k8s/net?k8s-version=$(kubectl version | base64 | tr -d '\n')"
-```
-{{% /tab %}}
-
-
-
-{{% tab name="JuniperContrail/TungstenFabric" %}}
-提供了支持 overlay 的 SDN 解决方案,支持多云环境和混合云环境的网络方案,同时支持 overlay 和 underlay、网络策略、
-网络隔离、服务链和灵活的负载均衡。
-
-安装 JuniperContrail/TungstenFabric CNI 有很多灵活的方式。
-
-请查阅这个[安装指引](https://tungstenfabric.github.io/website/)。
-{{% /tab %}}
-{{< /tabs >}}
-
-
-
-一旦 Pod 网络安装完成,您就可以通过 `kubectl get Pods --all-namespaces` 的输出来验证 CoreDNS Pod 是否正常运行。
-只要确认了 CoreDNS 正常运行,您就可以向集群中添加节点了。
-
-如果您的网络不能工作或者 CoreDNS 不在运行状态,请查阅[查错方案](/docs/setup/independent/troubleshooting-kubeadm/)。
-
-
-
-### 主节点隔离
-
-出于安全原因,默认您的主节点不会被调度运行任何 Pod。
-如果您需要在主节点上运行 Pod,比如说部署环境是一个单机器集群,运行:
-
-```bash
-kubectl taint nodes --all node-role.kubernetes.io/master-
-```
-
-输出类似这样:
-
-```
-node "test-01" untainted
-taint "node-role.kubernetes.io/master:" not found
-taint "node-role.kubernetes.io/master:" not found
-```
-
-这个操作会从任何有 `node-role.kubernetes.io/master` 这种标签的节点移除该标签,包括主节点,
-标签的移除意味着集群调度器可以将 Pod 调度到任何节点。
-
-
-
-### 添加节点 {#join-nodes}
-
-节点就是工作负载(容器和 Pod 等)运行的地方。如需向集群添加新节点,可以在每台机器上面执行如下操作:
-
-* SSH 连接到机器上
-* 成为 root 用户(比如 `sudo su -`)
-* 运行 `kubeadm init` 输出里的命令,即:
-
-``` bash
-kubeadm join --token : --discovery-token-ca-cert-hash sha256:
-```
-
-
-
-如果您没有保存令牌的话,可以通过在主节点上执行下面的命令来获取:
-
-``` bash
-kubeadm token list
-```
-
-输出类似这样:
-
-``` console
-TOKEN TTL EXPIRES USAGES DESCRIPTION EXTRA GROUPS
-8ewj1p.9r9hcjoqgajrj4gi 23h 2018-06-12T02:51:28Z authentication, The default bootstrap system:
- signing token generated by bootstrappers:
- 'kubeadm init'. kubeadm:
- default-node-token
-```
-
-
-
-默认情况下,令牌会在 24 小时内过期。如果在令牌过期之后添加节点,您可以在主节点上执行下面的命令创建一个新令牌:
-
-``` bash
-kubeadm token create
-```
-
-输出类似这样:
-
-``` console
-5didvk.d09sbcov8ph2amjw
-```
-
-如果您也不知道这个 `--discovery-token-ca-cert-hash` 的值,您也可以在主节点上运行下面的命令来获取:
-
-``` bash
-openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | \
- openssl dgst -sha256 -hex | sed 's/^.* //'
-```
-
-输出类似这样:
-
-``` console
-8cb2de97839780a412b93877f8507ad6c94f73add17d5d7058e91741c9d5ec78
-```
-
-
-
-{{< note >}}
-若需为 `:` 参数设定一个 IPv6 的元组,地址必须写在一对方括号里面,比如: `[fd00::101]:2073`。
-{{< /note >}}
-
-输出类似这样:
-
-```
-[preflight] Running pre-flight checks
-
-... (log output of join workflow) ...
-
-Node join complete:
-* Certificate signing request sent to master and response
- received.
-* Kubelet informed of new secure connection details.
-
-Run 'kubectl get nodes' on the master to see this machine join.
-```
-
-几秒钟之后,您将能在主节点上的 `kubectl get nodes` 的输出里发现新添加的节点。
-
-
-
-### (可选) 在非主节点上控制集群
-
-为了能在其他机器(比如,笔记本)上使用 kubectl 来控制您的集群,您可以从主节点上复制管理员的
-kubeconfig 到您的机器上,像下面这样操作:
-
-``` bash
-scp root@:/etc/kubernetes/admin.conf .
-kubectl --kubeconfig ./admin.conf get nodes
-```
-
-{{< note >}}
-上面的例子生效的前提是 SSH 允许 root 用户连接登录。
-如果root 用户不能连接的话,您可以将 `admin.conf` 复制到允许其他用户访问的其他地方并将 `scp` 命令里的用户改成相对应的用户再复制。
-
-这个 `admin.conf` 文件给予了用户整个集群的超级用户权限,因此这个操作必须小心谨慎。对于普通用户来说,
-更建议创建一个适用于白名单某些权限的验证文件。您可以通过这个命令来生成 `kubeadm alpha phase kubeconfig user --client-name `。
-这个命令会打印 KubeConfig 的内容到标准输出,然后您需要将它保存到一个文件里并分发给您的用户。然后再创建权限的白名单列表,
-命令如下: `kubectl create (cluster)rolebinding` 。
-{{< /note >}}
-
-
-
-### (可选) 将 API 服务代理到本地
-
-如果您需要从集群外部连接到您的 API 服务器,请运行`kubectl proxy`:
-
-```bash
-scp root@:/etc/kubernetes/admin.conf .
-kubectl --kubeconfig ./admin.conf proxy
-```
-
-现在您就可以在本地访问 `http://localhost:8001/api/v1` 来连接 API 服务器了。
-
-
-
-## 卸载集群 {#tear-down}
-
-想要回退 kubeadm 做出的修改,您需要首先[腾空节点](/docs/reference/generated/kubectl/kubectl-commands#drain)
-而且必须确保在关闭节点之前没有任何工作负载在运行。
-
-使用正确的登录凭据来连接到主节点:
-
-```bash
-kubectl drain --delete-local-data --force --ignore-daemonsets
-kubectl delete node
-```
-
-然后在待移除的节点上,重置所有 kubeadm 的安装状态:
-
-```bash
-kubeadm reset
-```
-
-如果您只是想重新运行 `kubeadm init` 或者 `kubeadm join`,[`kubeadm reset`](/docs/reference/setup-tools/kubeadm/kubeadm-reset/)页面有更多的信息可供参考.
-
-
-
-## 集群维护 {#lifecycle}
-
-维护集群(比如升级,降级)的详细指令,可参考[这里](/docs/tasks/administer-cluster/kubeadm)。
-
-## 探索其他插件 {#other-addons}
-
-查看[插件列表](/docs/concepts/cluster-administration/addons/)来发现其他插件,包括日志、监控、网络策略、
-可视化和集群管理工具等等。
-
-
-
-## 后续 {#whats-next}
-
-* 使用 [Sonobuoy](https://github.com/heptio/sonobuoy) 验证集群是否正确运行
-* 阅读[kubeadm 参考文档](/docs/reference/setup-tools/kubeadm/kubeadm),学习 kubeadm 的高级应用
-* 进一步了解 Kubernetes 的[概念](/docs/concepts/)和 [`kubectl`](/docs/user-guide/kubectl-overview/)
-* 您可以使用 **logrotate** 配置日志轮转。使用 Docker 的时候,您可以给 Docker 守护进程设置日志轮转的选项,
-比如 `--log-driver=json-file --log-opt=max-size=10m --log-opt=max-file=5`。请查阅 [Docker 守护进程的配置和纠错](https://docs.docker.com/engine/admin/)。
-
-## 反馈 {#feedback}
-
-* 如果发现故障,请访问 [kubeadm GitHub issue tracker](https://github.com/kubernetes/kubeadm/issues)
-* 如果需要支持,请访问 kubeadm 的 Slack 频道:[#kubeadm](https://kubernetes.slack.com/messages/kubeadm/)
-* 访问 SIG cluster-lifecycle 开发者所使用的 Slack 频道:
- [#sig-cluster-lifecycle](https://kubernetes.slack.com/messages/sig-cluster-lifecycle/)
-* SIG cluster-lifecycle 的 [SIG 信息](#TODO)
-* SIG cluster-lifecycle 的邮件列表:
- [kubernetes-sig-cluster-lifecycle](https://groups.google.com/forum/#!forum/kubernetes-sig-cluster-lifecycle)
-
-
-
-## 版本偏差策略 {#version-skew-policy}
-
-vX.Y 版本的 kubeadm 命令行工具可能会部署一个控制面版本为 vX.Y 或者 vX.(Y-1) 的集群,也可以用于升级一个 vX.(Y-1) 的由 kubeadm 创建的集群。
-因为我们无法预见未来,版本为 vX.Y 的 kubeadm 可能可以也可能无法用于部署 vX.(Y+1) 版本的集群。
-例子: kubeadm v1.8 可以用于部署 v1.7 和 v1.8 的集群,也可以升级 v1.7 的由 kubeadm 创建的集群到 1.8 版本。
-请查看我们的[安装向导](/docs/setup/independent/install-kubeadm/#installing-kubeadm-kubelet-and-kubectl),其中提供了关于 kubelet 和控制面版本偏差的更多信息。
-
-
-
-## 跨多平台上使用 kubeadm {#multi-platform}
-
-kubeadm 的 deb/rpm 包和可执行文件都是适用于 amd64、arm (32位)、arm64、ppc64le 和 s390x等架构平台的,
-请查阅[多平台方案](https://github.com/kubernetes/community/blob/master/contributors/design-proposals/multi-platform.md)。
-
-只有一部分的网络驱动提供了所有平台的网络解决方案,请查询上面的网络驱动列表或者对应的官方文档来确定是否支持您的平台。
-
-
-
-## 局限 {#limitations}
-
-请注意,kubeadm 还处于正在开发的状态中,这些局限将会在适当的时间修正。
-
-1. 这篇文档介绍的创建的集群只能有单一的主节点和单一的 etcd 数据库,这表示如果主节点宕机,您的集群将会丢失数据
- 而且可能无法重新创建。目前给 kubeadm 添加高可用支持(比如多 etcd 多 API服务等等)的功能还在开发当中,因此可先参照下面的
- 临时解决方案: 经常性地[备份 etcd](https://coreos.com/etcd/docs/latest/admin_guide.html)。
- 由 kubeadm 配置的 etcd 数据位于主节点上的 `/var/lib/etcd` 目录。
-
-## 查错 {#troubleshooting}
-
-如果您在使用 kubeadm 发现任何问题,请查阅我们的[纠错文档](/docs/setup/independent/troubleshooting-kubeadm/)。
-
-
-
-
-
diff --git a/content/zh/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm.md b/content/zh/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm.md
new file mode 100644
index 0000000000..2aedb5a9e0
--- /dev/null
+++ b/content/zh/docs/setup/production-environment/tools/kubeadm/create-cluster-kubeadm.md
@@ -0,0 +1,1005 @@
+---
+reviewers:
+- sig-cluster-lifecycle
+title: 使用 kubeadm 创建集群
+content_type: task
+weight: 30
+---
+
+
+
+
+
+
+
创建一个符合最佳实践的最小化 Kubernetes 集群。事实上,你可以使用 `kubeadm` 配置一个通过 [Kubernetes 一致性测试](https://kubernetes.io/blog/2017/10/software-conformance-certification) 的集群。
+`kubeadm` 还支持其他集群生命周期功能,
+例如 [启动引导令牌](/zh/docs/reference/access-authn-authz/bootstrap-tokens/) 和集群升级。
+
+
+kubeadm 工具很棒,如果你需要:
+
+- 一个尝试 Kubernetes 的简单方法。
+- 一个现有用户可以自动设置集群并测试其应用程序的途径。
+- 其他具有更大范围的生态系统和/或安装工具中的构建模块。
+
+
+你可以在各种机器上安装和使用 `kubeadm`:笔记本电脑,
+一组云服务器,Raspberry Pi 等。无论是部署到云还是本地,
+你都可以将 `kubeadm` 集成到预配置系统中,例如 Ansible 或 Terraform。
+
+
+
+## {{% heading "prerequisites" %}}
+
+
+
+要遵循本指南,你需要:
+
+- 一台或多台运行兼容 deb/rpm 的 Linux 操作系统的计算机;例如:Ubuntu 或 CentOS。
+- 每台机器 2 GB 以上的内存,内存不足时应用会受限制。
+- 用作控制平面节点的计算机上至少有2个 CPU。
+- 集群中所有计算机之间具有完全的网络连接。你可以使用公共网络或专用网络。
+
+
+你还需要使用可以在新集群中部署特定 Kubernetes 版本对应的 `kubeadm`。
+
+
+
+[Kubernetes 版本及版本倾斜支持策略](/zh/docs/setup/release/version-skew-policy/#supported-versions) 适用于 `kubeadm` 以及整个 Kubernetes。
+查阅该策略以了解支持哪些版本的 Kubernetes 和 `kubeadm`。
+该页面是为 Kubernetes {{< param "version" >}} 编写的。
+
+
+`kubeadm` 工具的整体功能状态为一般可用性(GA)。一些子功能仍在积极开发中。
+随着工具的发展,创建集群的实现可能会略有变化,但总体实现应相当稳定。
+
+
+{{< note >}}
+根据定义,在 `kubeadm alpha` 下的所有命令均在 alpha 级别上受支持。
+{{< /note >}}
+
+
+
+
+
+
+## 目标
+
+
+* 安装单个控制平面的 Kubernetes 集群
+* 在集群上安装 Pod 网络,以便你的 Pod 可以相互连通
+
+
+## 操作指南
+
+
+### 在你的主机上安装安装 kubeadm
+
+
+查看 ["安装 kubeadm"](/zh/docs/setup/production-environment/tools/kubeadm/install-kubeadm/)。
+
+
+{{< note >}}
+如果你已经安装了kubeadm,执行 `apt-get update &&
+apt-get upgrade` 或 `yum update` 以获取 kubeadm 的最新版本。
+
+升级时,kubelet 每隔几秒钟重新启动一次,
+在 crashloop 状态中等待 kubeadm 发布指令。crashloop 状态是正常现象。
+初始化控制平面后,kubelet 将正常运行。
+{{< /note >}}
+
+
+### 初始化控制平面节点
+
+
+控制平面节点是运行控制平面组件的机器,
+包括 {{< glossary_tooltip term_id="etcd" >}} (集群数据库)
+和 {{< glossary_tooltip text="API Server" term_id="kube-apiserver" >}}
+(命令行工具 {{< glossary_tooltip text="kubectl" term_id="kubectl" >}} 与之通信)。
+
+
+1. (推荐)如果计划将单个控制平面 kubeadm 集群升级成高可用,
+你应该指定 `--control-plane-endpoint` 为所有控制平面节点设置共享端点。
+端点可以是负载均衡器的 DNS 名称或 IP 地址。
+1. 选择一个Pod网络插件,并验证是否需要为 `kubeadm init` 传递参数。
+根据你选择的第三方网络插件,你可能需要设置 `--pod-network-cidr` 的值。
+请参阅 [安装Pod网络附加组件](#pod-network)。
+1. (可选)从版本1.14开始,`kubeadm` 尝试使用一系列众所周知的域套接字路径来检测 Linux 上的容器运行时。
+要使用不同的容器运行时,
+或者如果在预配置的节点上安装了多个容器,请为 `kubeadm init` 指定 `--cri-socket` 参数。
+请参阅[安装运行时](/zh/docs/setup/production-environment/tools/kubeadm/install-kubeadm/#installing-runtime)。
+1. (可选)除非另有说明,否则 `kubeadm` 使用与默认网关关联的网络接口来设置此控制平面节点 API server 的广播地址。
+要使用其他网络接口,请为 `kubeadm init` 设置 `--apiserver-advertise-address=` 参数。
+要部署使用 IPv6 地址的 Kubernetes 集群,
+必须指定一个 IPv6 地址,例如 `--apiserver-advertise-address=fd00::101`
+1. (可选)在 `kubeadm init` 之前运行 `kubeadm config images pull`,以验证与 gcr.io 容器镜像仓库的连通性。
+
+
+
+要初始化控制平面节点,请运行:
+
+```bash
+kubeadm init
+```
+
+
+### 关于 apiserver-advertise-address 和 ControlPlaneEndpoint 的注意事项
+
+
+`--apiserver-advertise-address` 可用于为控制平面节点的 API server 设置广播地址,
+`--control-plane-endpoint` 可用于为所有控制平面节点设置共享端点。
+
+
+`--control-plane-endpoint` 允许 IP 地址和可以映射到 IP 地址的 DNS 名称。
+请与你的网络管理员联系,以评估有关此类映射的可能解决方案。
+
+
+这是一个示例映射:
+
+```
+192.168.0.102 cluster-endpoint
+```
+
+
+其中 `192.168.0.102` 是此节点的 IP 地址,`cluster-endpoint` 是映射到该 IP 的自定义 DNS 名称。
+这将允许你将 `--control-plane-endpoint=cluster-endpoint` 传递给 `kubeadm init`,并将相同的 DNS 名称传递给 `kubeadm join`。
+稍后你可以修改 `cluster-endpoint` 以指向高可用性方案中的负载均衡器的地址。
+
+
+kubeadm 不支持将没有 `--control-plane-endpoint` 参数的单个控制平面集群转换为高可用性集群。
+
+
+### 更多信息
+
+
+有关 `kubeadm init` 参数的更多信息,请参见 [kubeadm 参考指南](/zh/docs/reference/setup-tools/kubeadm/kubeadm/)。
+
+
+有关配置选项的完整列表,请参见[配置文件文档](/zh/docs/reference/setup-tools/kubeadm/kubeadm-init/#config-file)。
+
+
+要自定义控制平面组件,包括可选的对控制平面组件和 etcd 服务器的活动探针提供 IPv6 支持,请参阅[自定义参数](/zh/docs/setup/production-environment/tools/kubeadm/control-plane-flags/)。
+
+
+要再次运行 `kubeadm init`,你必须首先[卸载集群](#tear-down)。
+
+
+如果将具有不同架构的节点加入集群,
+请确保已部署的 DaemonSet 对这种体系结构具有容器镜像支持。
+
+
+
+`kubeadm init` 首先运行一系列预检查以确保机器
+准备运行 Kubernetes。这些预检查会显示警告并在错误时退出。然后 `kubeadm init`
+下载并安装集群控制平面组件。这可能会需要几分钟。
+输出应如下所示:
+
+```none
+[init] Using Kubernetes version: vX.Y.Z
+[preflight] Running pre-flight checks
+[preflight] Pulling images required for setting up a Kubernetes cluster
+[preflight] This might take a minute or two, depending on the speed of your internet connection
+[preflight] You can also perform this action in beforehand using 'kubeadm config images pull'
+[kubelet-start] Writing kubelet environment file with flags to file "/var/lib/kubelet/kubeadm-flags.env"
+[kubelet-start] Writing kubelet configuration to file "/var/lib/kubelet/config.yaml"
+[kubelet-start] Activating the kubelet service
+[certs] Using certificateDir folder "/etc/kubernetes/pki"
+[certs] Generating "etcd/ca" certificate and key
+[certs] Generating "etcd/server" certificate and key
+[certs] etcd/server serving cert is signed for DNS names [kubeadm-cp localhost] and IPs [10.138.0.4 127.0.0.1 ::1]
+[certs] Generating "etcd/healthcheck-client" certificate and key
+[certs] Generating "etcd/peer" certificate and key
+[certs] etcd/peer serving cert is signed for DNS names [kubeadm-cp localhost] and IPs [10.138.0.4 127.0.0.1 ::1]
+[certs] Generating "apiserver-etcd-client" certificate and key
+[certs] Generating "ca" certificate and key
+[certs] Generating "apiserver" certificate and key
+[certs] apiserver serving cert is signed for DNS names [kubeadm-cp kubernetes kubernetes.default kubernetes.default.svc kubernetes.default.svc.cluster.local] and IPs [10.96.0.1 10.138.0.4]
+[certs] Generating "apiserver-kubelet-client" certificate and key
+[certs] Generating "front-proxy-ca" certificate and key
+[certs] Generating "front-proxy-client" certificate and key
+[certs] Generating "sa" key and public key
+[kubeconfig] Using kubeconfig folder "/etc/kubernetes"
+[kubeconfig] Writing "admin.conf" kubeconfig file
+[kubeconfig] Writing "kubelet.conf" kubeconfig file
+[kubeconfig] Writing "controller-manager.conf" kubeconfig file
+[kubeconfig] Writing "scheduler.conf" kubeconfig file
+[control-plane] Using manifest folder "/etc/kubernetes/manifests"
+[control-plane] Creating static Pod manifest for "kube-apiserver"
+[control-plane] Creating static Pod manifest for "kube-controller-manager"
+[control-plane] Creating static Pod manifest for "kube-scheduler"
+[etcd] Creating static Pod manifest for local etcd in "/etc/kubernetes/manifests"
+[wait-control-plane] Waiting for the kubelet to boot up the control plane as static Pods from directory "/etc/kubernetes/manifests". This can take up to 4m0s
+[apiclient] All control plane components are healthy after 31.501735 seconds
+[uploadconfig] storing the configuration used in ConfigMap "kubeadm-config" in the "kube-system" Namespace
+[kubelet] Creating a ConfigMap "kubelet-config-X.Y" in namespace kube-system with the configuration for the kubelets in the cluster
+[patchnode] Uploading the CRI Socket information "/var/run/dockershim.sock" to the Node API object "kubeadm-cp" as an annotation
+[mark-control-plane] Marking the node kubeadm-cp as control-plane by adding the label "node-role.kubernetes.io/master=''"
+[mark-control-plane] Marking the node kubeadm-cp as control-plane by adding the taints [node-role.kubernetes.io/master:NoSchedule]
+[bootstrap-token] Using token:
+[bootstrap-token] Configuring bootstrap tokens, cluster-info ConfigMap, RBAC Roles
+[bootstraptoken] configured RBAC rules to allow Node Bootstrap tokens to post CSRs in order for nodes to get long term certificate credentials
+[bootstraptoken] configured RBAC rules to allow the csrapprover controller automatically approve CSRs from a Node Bootstrap Token
+[bootstraptoken] configured RBAC rules to allow certificate rotation for all node client certificates in the cluster
+[bootstraptoken] creating the "cluster-info" ConfigMap in the "kube-public" namespace
+[addons] Applied essential addon: CoreDNS
+[addons] Applied essential addon: kube-proxy
+
+Your Kubernetes control-plane has initialized successfully!
+
+To start using your cluster, you need to run the following as a regular user:
+
+ mkdir -p $HOME/.kube
+ sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
+ sudo chown $(id -u):$(id -g) $HOME/.kube/config
+
+You should now deploy a Pod network to the cluster.
+Run "kubectl apply -f [podnetwork].yaml" with one of the options listed at:
+ /docs/concepts/cluster-administration/addons/
+
+You can now join any number of machines by running the following on each node
+as root:
+
+ kubeadm join : --token --discovery-token-ca-cert-hash sha256:
+```
+
+
+要使非 root 用户可以运行 kubectl,请运行以下命令,
+它们也是 `kubeadm init` 输出的一部分:
+
+
+```bash
+mkdir -p $HOME/.kube
+sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config
+sudo chown $(id -u):$(id -g) $HOME/.kube/config
+```
+
+
+或者,如果你是 `root` 用户,则可以运行:
+
+```bash
+export KUBECONFIG=/etc/kubernetes/admin.conf
+```
+
+
+记录 `kubeadm init` 输出的 `kubeadm join` 命令。
+你需要此命令[将节点加入集群](#join-nodes)。
+
+
+令牌用于控制平面节点和加入节点之间的相互身份验证。
+这里包含的令牌是密钥。确保它的安全,
+因为拥有此令牌的任何人都可以将经过身份验证的节点添加到你的集群中。
+可以使用 `kubeadm token` 命令列出,创建和删除这些令牌。
+请参阅 [kubeadm 参考指南](/zh/docs/reference/setup-tools/kubeadm/kubeadm-token/)。
+
+
+
+### 安装 Pod 网络附加组件 {#pod-network}
+
+{{< caution >}}
+
+本节包含有关网络设置和部署顺序的重要信息。
+在继续之前,请仔细阅读所有建议。
+
+
+**你必须部署一个基于 Pod 网络插件的
+{{< glossary_tooltip text="容器网络接口" term_id="cni" >}}
+(CNI),以便你的 Pod 可以相互通信。
+在安装网络之前,集群 DNS (CoreDNS) 将不会启动。**
+
+
+- 注意你的 Pod 网络不得与任何主机网络重叠:
+ 如果有重叠,你很可能会遇到问题。
+ (如果你发现网络插件的首选 Pod 网络与某些主机网络之间存在冲突,
+ 则应考虑使用一个合适的 CIDR 块来代替,
+ 然后在执行 `kubeadm init` 时使用 `--pod-network-cidr` 参数并在你的网络插件的 YAML 中替换它)。
+
+
+- 默认情况下,`kubeadm` 将集群设置为使用和强制使用 [RBAC](/zh/docs/reference/access-authn-authz/rbac/)(基于角色的访问控制)。
+ 确保你的 Pod 网络插件支持 RBAC,以及用于部署它的 manifests 也是如此。
+
+
+- 如果要为集群使用 IPv6(双协议栈或仅单协议栈 IPv6 网络),
+ 请确保你的Pod网络插件支持 IPv6。
+ IPv6 支持已在 CNI [v0.6.0](https://github.com/containernetworking/cni/releases/tag/v0.6.0) 版本中添加。
+{{< /caution >}}
+
+
+{{< note >}}
+目前 Calico 是 kubeadm 项目中执行 e2e 测试的唯一 CNI 插件。
+如果你发现与 CNI 插件相关的问题,应在其各自的问题跟踪器中记录而不是在 kubeadm 或 kubernetes 问题跟踪器中记录。
+{{< /note >}}
+
+
+一些外部项目为 Kubernetes 提供使用 CNI 的 Pod 网络,其中一些还支持[网络策略](/zh/docs/concepts/services-networking/network-policies/)。
+
+
+请参阅实现 [Kubernetes 网络模型](/zh/docs/concepts/cluster-administration/networking/#how-to-implement-the-kubernetes-networking-model) 的附加组件列表。
+
+
+你可以使用以下命令在控制平面节点或具有 kubeconfig 凭据的节点上安装 Pod 网络附加组件:
+
+```bash
+kubectl apply -f
+```
+
+
+每个集群只能安装一个 Pod 网络。
+
+
+安装 Pod 网络后,您可以通过在 `kubectl get pods --all-namespaces` 输出中检查 CoreDNS Pod 是否 `Running` 来确认其是否正常运行。
+一旦 CoreDNS Pod 启用并运行,你就可以继续加入节点。
+
+
+如果您的网络无法正常工作或CoreDNS不在“运行中”状态,请查看 `kubeadm` 的[故障排除指南](/zh/docs/setup/production-environment/tools/kubeadm/troubleshooting-kubeadm/)。
+
+
+
+### 控制平面节点隔离
+
+
+默认情况下,出于安全原因,你的集群不会在控制平面节点上调度 Pod。
+如果你希望能够在控制平面节点上调度 Pod,
+例如用于开发的单机 Kubernetes 集群,请运行:
+
+```bash
+kubectl taint nodes --all node-role.kubernetes.io/master-
+```
+
+输出看起来像:
+
+```
+node "test-01" untainted
+taint "node-role.kubernetes.io/master:" not found
+taint "node-role.kubernetes.io/master:" not found
+```
+
+
+这将从任何拥有 `node-role.kubernetes.io/master` taint 标记的节点中移除该标记,
+包括控制平面节点,这意味着调度程序将能够在任何地方调度 Pods。
+
+
+
+### 加入节点 {#join-nodes}
+
+
+节点是你的工作负载(容器和 Pod 等)运行的地方。要将新节点添加到集群,请对每台计算机执行以下操作:
+
+
+* SSH 到机器
+* 成为 root (例如 `sudo su -`)
+* 运行 `kubeadm init` 输出的命令。例如:
+
+```bash
+kubeadm join --token : --discovery-token-ca-cert-hash sha256:
+```
+
+
+如果没有令牌,可以通过在控制平面节点上运行以下命令来获取令牌:
+
+
+```bash
+kubeadm token list
+```
+
+
+输出类似于以下内容:
+
+```console
+TOKEN TTL EXPIRES USAGES DESCRIPTION EXTRA GROUPS
+8ewj1p.9r9hcjoqgajrj4gi 23h 2018-06-12T02:51:28Z authentication, The default bootstrap system:
+ signing token generated by bootstrappers:
+ 'kubeadm init'. kubeadm:
+ default-node-token
+```
+
+
+默认情况下,令牌会在24小时后过期。如果要在当前令牌过期后将节点加入集群,
+则可以通过在控制平面节点上运行以下命令来创建新令牌:
+
+
+```bash
+kubeadm token create
+```
+
+输出类似于以下内容:
+
+```console
+5didvk.d09sbcov8ph2amjw
+```
+
+
+如果你没有 `--discovery-token-ca-cert-hash` 的值,则可以通过在控制平面节点上执行以下命令链来获取它:
+
+```bash
+openssl x509 -pubkey -in /etc/kubernetes/pki/ca.crt | openssl rsa -pubin -outform der 2>/dev/null | \
+ openssl dgst -sha256 -hex | sed 's/^.* //'
+```
+
+
+输出类似于以下内容:
+
+```console
+8cb2de97839780a412b93877f8507ad6c94f73add17d5d7058e91741c9d5ec78
+```
+
+
+{{< note >}}
+要为 `:` 指定 IPv6 元组,必须将 IPv6 地址括在方括号中,例如:`[fd00::101]:2073`
+{{< /note >}}
+
+
+输出应类似于:
+
+```
+[preflight] Running pre-flight checks
+
+... (log output of join workflow) ...
+
+Node join complete:
+* Certificate signing request sent to control-plane and response
+ received.
+* Kubelet informed of new secure connection details.
+
+Run 'kubectl get nodes' on control-plane to see this machine join.
+```
+
+
+几秒钟后,当你在控制平面节点上执行 `kubectl get nodes`,你会注意到该节点出现在输出中。
+
+
+### (可选)从控制平面节点以外的计算机控制集群
+
+
+为了使 kubectl 在其他计算机(例如笔记本电脑)上与你的集群通信,
+你需要将管理员 kubeconfig 文件从控制平面节点复制到工作站,如下所示:
+
+```bash
+scp root@:/etc/kubernetes/admin.conf .
+kubectl --kubeconfig ./admin.conf get nodes
+```
+
+{{< note >}}
+上面的示例假定为 root 用户启用了SSH访问。如果不是这种情况,
+你可以使用 `scp` 将 admin.conf 文件复制给其他允许访问的用户。
+
+admin.conf 文件为用户提供了对集群的超级用户特权。
+该文件应谨慎使用。对于普通用户,建议生成一个你为其授予特权的唯一证书。
+你可以使用 `kubeadm alpha kubeconfig user --client-name ` 命令执行此操作。
+该命令会将 KubeConfig 文件打印到 STDOUT,你应该将其保存到文件并分发给用户。
+之后,使用 `kubectl create (cluster)rolebinding` 授予特权。
+{{< /note >}}
+
+
+### (可选)将API服务器代理到本地主机
+
+
+如果要从集群外部连接到 API 服务器,则可以使用 `kubectl proxy`:
+
+```bash
+scp root@:/etc/kubernetes/admin.conf .
+kubectl --kubeconfig ./admin.conf proxy
+```
+
+你现在可以在本地访问API服务器 http://localhost:8001/api/v1
+
+
+## 清理 {#tear-down}
+
+
+如果你在集群中使用了一次性服务器进行测试,则可以关闭这些服务器,而无需进一步清理。你可以使用 `kubectl config delete-cluster` 删除对集群的本地引用。
+
+
+但是,如果要更干净地取消配置群集,
+则应首先[清空节点](/zh/docs/reference/generated/kubectl/kubectl-commands#drain)并确保该节点为空,
+然后取消配置该节点。
+
+
+
+### 删除节点
+
+
+使用适当的凭证与控制平面节点通信,运行:
+
+```bash
+kubectl drain --delete-local-data --force --ignore-daemonsets
+```
+
+
+在删除节点之前,请重置 `kubeadm` 安装的状态:
+
+```bash
+kubeadm reset
+```
+
+
+重置过程不会重置或清除 iptables 规则或 IPVS 表。如果你希望重置 iptables,则必须手动进行:
+
+```bash
+iptables -F && iptables -t nat -F && iptables -t mangle -F && iptables -X
+```
+
+
+如果要重置 IPVS 表,则必须运行以下命令:
+
+```bash
+ipvsadm -C
+```
+
+现在删除节点:
+
+```bash
+kubectl delete node
+```
+
+
+如果你想重新开始,只需运行 `kubeadm init` 或 `kubeadm join` 并加上适当的参数。
+
+
+### 清理控制平面
+
+
+你可以在控制平面主机上使用 `kubeadm reset` 来触发尽力而为的清理。
+
+
+有关此子命令及其选项的更多信息,请参见[`kubeadm reset`](/zh/docs/reference/setup-tools/kubeadm/kubeadm-reset/)参考文档。
+
+
+
+
+
+## 下一步 {#whats-next}
+
+
+* 使用 [Sonobuoy](https://github.com/heptio/sonobuoy) 验证集群是否正常运行
+* 有关使用kubeadm升级集群的详细信息,请参阅[升级 kubeadm 集群](/zh/docs/tasks/administer-cluster/kubeadm/kubeadm-upgrade/)。
+* 在[kubeadm 参考文档](/zh/docs/reference/setup-tools/kubeadm/kubeadm)中了解有关高级 `kubeadm` 用法的信息
+* 了解有关Kubernetes[概念](/zh/docs/concepts/)和[`kubectl`](/zh/docs/reference/kubectl/overview/)的更多信息。
+* 有关Pod网络附加组件的更多列表,请参见[集群网络](/zh/docs/concepts/cluster-administration/networking/)页面。
+* 请参阅[附加组件列表](/zh/docs/concepts/cluster-administration/addons/)以探索其他附加组件,
+ 包括用于 Kubernetes 集群的日志记录,监视,网络策略,可视化和控制的工具。
+* 配置集群如何处理集群事件的日志以及
+ 在Pods中运行的应用程序。
+ 有关所涉及内容的概述,请参见[日志架构](/zh/docs/concepts/cluster-administration/logging/)。
+
+
+### 反馈 {#feedback}
+
+
+* 有关 bugs, 访问 [kubeadm GitHub issue tracker](https://github.com/kubernetes/kubeadm/issues)
+* 有关支持, 访问
+ [#kubeadm](https://kubernetes.slack.com/messages/kubeadm/) Slack 频道
+* General SIG 集群生命周期开发 Slack 频道:
+ [#sig-cluster-lifecycle](https://kubernetes.slack.com/messages/sig-cluster-lifecycle/)
+* SIG 集群生命周期 [SIG information](https://github.com/kubernetes/community/tree/master/sig-cluster-lifecycle#readme)
+* SIG 集群生命周期邮件列表:
+ [kubernetes-sig-cluster-lifecycle](https://groups.google.com/forum/#!forum/kubernetes-sig-cluster-lifecycle)
+
+
+
+## 版本倾斜政策 {#version-skew-policy}
+
+
+版本 v{{< skew latestVersion >}} 的kubeadm 工具可以使用版本 v{{< skew latestVersion >}} 或 v{{< skew prevMinorVersion >}} 的控制平面部署集群。kubeadm v{{< skew latestVersion >}} 还可以升级现有的 kubeadm 创建的 v{{< skew prevMinorVersion >}} 版本的集群。
+
+
+由于没有未来,kubeadm CLI v{{< skew latestVersion >}} 可能会或可能无法部署 v{{< skew nextMinorVersion >}} 集群。
+
+
+这些资源提供了有关 kubelet 与控制平面以及其他 Kubernetes 组件之间受支持的版本倾斜的更多信息:
+
+
+* Kubernetes [版本和版本偏斜政策](/zh/docs/setup/release/version-skew-policy/)
+* Kubeadm-specific [安装指南](/zh/docs/setup/production-environment/tools/kubeadm/install-kubeadm/#installing-kubeadm-kubelet-and-kubectl)
+
+
+
+## 局限性 {#limitations}
+
+
+### 集群弹性 {#resilience}
+
+
+
+此处创建的集群具有单个控制平面节点,运行单个 etcd 数据库。
+这意味着如果控制平面节点发生故障,你的集群可能会丢失数据并且可能需要从头开始重新创建。
+
+
+解决方法:
+
+
+* 定期[备份etcd](https://coreos.com/etcd/docs/latest/admin_guide.html)。
+ kubeadm 配置的 etcd 数据目录位于控制平面节点上的 `/var/lib/etcd` 中。
+
+
+* 使用多个控制平面节点。你可以阅读
+ [可选的高可用性拓扑](/zh/docs/setup/production-environment/tools/kubeadm/ha-topology/) 选择集群拓扑提供的
+ [高可用性](/zh/docs/setup/production-environment/tools/kubeadm/high-availability/).
+
+
+### 平台兼容性 {#multi-platform}
+
+
+kubeadm deb/rpm 软件包和二进制文件是为 amd64,arm (32-bit),arm64,ppc64le 和 s390x 构建的遵循[多平台提案](https://github.com/kubernetes/community/blob/master/contributors/design-proposals/multi-platform.md)。
+
+
+从 v1.12 开始还支持用于控制平面和附加组件的多平台容器镜像。
+
+
+只有一些网络提供商为所有平台提供解决方案。请查阅上方的
+网络提供商清单或每个提供商的文档以确定提供商是否
+支持你选择的平台。
+
+
+## 故障排除 {#troubleshooting}
+
+
+
+如果你在使用kubeadm时遇到困难,请查阅我们的[故障排除文档](/zh/docs/setup/production-environment/tools/kubeadm/troubleshooting-kubeadm/)。