[zh] fix links in setup section (4)

This commit is contained in:
Qiming Teng 2020-09-07 21:19:52 +08:00
parent 4b6fc1610a
commit 8e3437245f
6 changed files with 129 additions and 146 deletions

View File

@ -82,8 +82,8 @@ If you're learning Kubernetes, use the Docker-based solutions: tools supported b
|社区 |生态系统 |
| ------------ | -------- |
| [Minikube](/docs/setup/learning-environment/minikube/) | [Docker Desktop](https://www.docker.com/products/docker-desktop)|
| [kind (Kubernetes IN Docker)](/docs/setup/learning-environment/kind/) | [Minishift](https://docs.okd.io/latest/minishift/)|
| [Minikube](/zh/docs/setup/learning-environment/minikube/) | [Docker Desktop](https://www.docker.com/products/docker-desktop)|
| [kind (Kubernetes IN Docker)](/zh/docs/setup/learning-environment/kind/) | [Minishift](https://docs.okd.io/latest/minishift/)|
| | [MicroK8s](https://microk8s.io/)|
@ -100,4 +100,5 @@ When evaluating a solution for a production environment, consider which aspects
<!--
[Kubernetes Partners](https://kubernetes.io/partners/#conformance) includes a list of [Certified Kubernetes](https://github.com/cncf/k8s-conformance/#certified-kubernetes) providers.
-->
[Kubernetes 合作伙伴](https://kubernetes.io/zh/partners/#kcsp) 包括一个 [已认证的 Kubernetes](https://github.com/cncf/k8s-conformance/#certified-kubernetes) 提供商列表。
[Kubernetes 合作伙伴](https://kubernetes.io/zh/partners/#kcsp) 包括一个
[已认证的 Kubernetes](https://github.com/cncf/k8s-conformance/#certified-kubernetes) 提供商列表。

View File

@ -7,17 +7,17 @@ content_type: concept
weight: 10
---
<!--
---
reviewers:
- vincepri
- bart0sh
title: Container runtimes
content_type: concept
weight: 10
---
-->
<!-- overview -->
{{< feature-state for_k8s_version="v1.6" state="stable" >}}
<!--
To run containers in Pods, Kubernetes uses a container runtime. Here are
the installation instructions for various runtimes.
@ -25,11 +25,8 @@ the installation instructions for various runtimes.
Kubernetes 使用容器运行时来实现在 pod 中运行容器。
这是各种运行时的安装说明。
<!-- body -->
{{< caution >}}
<!--
A flaw was found in the way runc handled system file descriptors when running containers.
A malicious container could use this flaw to overwrite contents of the runc binary and
@ -38,6 +35,7 @@ consequently run arbitrary commands on the container host system.
Please refer to [CVE-2019-5736](https://access.redhat.com/security/cve/cve-2019-5736) for more
information about the issue.
-->
{{< caution >}}
我们发现 runc 在运行容器,处理系统文件描述符时存在一个漏洞。
恶意容器可以利用此漏洞覆盖 runc 二进制文件的内容,并以此在主机系统的容器上运行任意的命令。
@ -49,20 +47,20 @@ information about the issue.
-->
### 适用性
{{< note >}}
<!--
This document is written for users installing CRI onto Linux. For other operating
systems, look for documentation specific to your platform
-->
{{< note >}}
本文档是为在 Linux 上安装 CRI 的用户编写的。
对于其他操作系统,请查找特定于平台的文档。
对于其他操作系统,请查找特定于平台的文档。
{{< /note >}}
<!--
You should execute all the commands in this guide as `root`. For example, prefix commands
with `sudo `, or become `root` and run the commands as that user.
-->
应该以 `root` 身份执行本指南中的所有命令。
应该以 `root` 身份执行本指南中的所有命令。
例如,使用 `sudo` 前缀命令,或者成为 `root` 并以该用户身份运行命令。
<!--
@ -79,7 +77,7 @@ that there will then be two different cgroup managers.
-->
当某个 Linux 系统发行版使用 systemd 作为其初始化系统时,初始化进程会生成并使用一个 root 控制组 `cgroup`),并充当 cgroup 管理器。
systemd 与 cgroup 集成紧密,并将为每个进程分配 cgroup。
也可以配置容器运行时和 kubelet 使用 `cgroupfs`
也可以配置容器运行时和 kubelet 使用 `cgroupfs`
连同 systemd 一起使用 `cgroupfs` 意味着将有两个不同的 cgroup 管理器。
<!--
@ -127,11 +125,11 @@ Use the following commands to install Docker on your system:
-->
## Docker
的每台机器上安装 Docker。
的每台机器上安装 Docker。
推荐安装 19.03.11 版本,但是 1.13.1、17.03、17.06、17.09、18.06 和 18.09 版本也是可以的。
请跟踪 Kubernetes 发行说明中经过验证的 Docker 最新版本变化。
使用以下命令在的系统上安装 Docker
使用以下命令在的系统上安装 Docker
{{< tabs name="tab-cri-docker-installation" >}}
{{% tab name="Ubuntu 16.04+" %}}
@ -866,8 +864,9 @@ Refer to the [Frakti QuickStart guide](https://github.com/kubernetes/frakti#quic
systemd_cgroup = true
```
当使用 kubeadm 时,请手动配置
[kubelet 的 cgroup 驱动](/docs/setup/production-environment/tools/kubeadm/install-kubeadm/#configure-cgroup-driver-used-by-kubelet-on-master-node)
[kubelet 的 cgroup 驱动](/zh/docs/setup/production-environment/tools/kubeadm/install-kubeadm/#configure-cgroup-driver-used-by-kubelet-on-master-node)
## 其他的 CRI 运行时frakti
请参阅 [Frakti 快速开始指南](https://github.com/kubernetes/frakti#quickstart) 来获取更多的信息。

View File

@ -4,11 +4,9 @@ content_type: concept
weight: 20
---
<!--
---
title: Installing Kubernetes with kops
content_type: concept
weight: 20
---
-->
<!-- overview -->
@ -44,40 +42,35 @@ kops 是一个自用的供应系统:
If your opinions differ from these you may prefer to build your own cluster using [kubeadm](/docs/admin/kubeadm/) as
a building block. kops builds on the kubeadm work.
-->
如果您有不同的观点,您可能更喜欢使用 [kubeadm](/docs/admin/kubeadm/) 作为构建工具来构建自己的集群。kops 建立在 kubeadm 工作的基础上。
如果你有不同的观点,你可能更喜欢使用 [kubeadm](/zh/docs/reference/setup-tools/kubeadm/)
作为构建工具来构建自己的集群。kops 建立在 kubeadm 工作的基础上。
<!-- body -->
<!--
## Creating a cluster
### (1/5) Install kops
#### Requirements
You must have [kubectl](/docs/tasks/tools/install-kubectl/) installed in order for kops to work.
-->
## 创建集群
<!--
### (1/5) Install kops
-->
### (1/5) 安装 kops
<!--
#### Requirements
-->
#### 前提条件
<!--
You must have [kubectl](/docs/tasks/tools/install-kubectl/) installed in order for kops to work.
-->
您必须安装 [kubectl](/docs/tasks/tools/install-kubectl/) 才能使 kops 工作。
你必须安装 [kubectl](/zh/docs/tasks/tools/install-kubectl/) 才能使 kops 工作。
<!--
#### Installation
Download kops from the [releases page](https://github.com/kubernetes/kops/releases) (it is also easy to build from source):
-->
#### 安装
<!--
Download kops from the [releases page](https://github.com/kubernetes/kops/releases) (it is also easy to build from source):
-->
从[下载页面](https://github.com/kubernetes/kops/releases)下载 kops从源代码构建也很容易
<!--
@ -90,7 +83,7 @@ On macOS:
curl -OL https://github.com/kubernetes/kops/releases/download/1.10.0/kops-darwin-amd64
chmod +x kops-darwin-amd64
mv kops-darwin-amd64 /usr/local/bin/kops
# 也可以使用 Homebrew 安装 kops
# 也可以使用 Homebrew 安装 kops
brew update && brew install kops
```
@ -107,28 +100,27 @@ mv kops-linux-amd64 /usr/local/bin/kops
<!--
### (2/5) Create a route53 domain for your cluster
-->
### (2/5) 为您的集群创建一个 route53 域名
<!--
kops uses DNS for discovery, both inside the cluster and so that you can reach the kubernetes API server
from clients.
-->
kops 在集群内部都使用 DNS 进行发现操作,因此您可以从客户端访问 kubernetes API 服务器。
### (2/5) 为你的集群创建一个 route53 域名
kops 在集群内部都使用 DNS 进行发现操作,因此你可以从客户端访问 kubernetes API 服务器。
<!--
kops has a strong opinion on the cluster name: it should be a valid DNS name. By doing so you will
no longer get your clusters confused, you can share clusters with your colleagues unambiguously,
and you can reach them without relying on remembering an IP address.
-->
kops 对集群名称有明显的要求:它应该是有效的 DNS 名称。这样一来,就不会再使集群混乱,
kops 对集群名称有明显的要求:它应该是有效的 DNS 名称。这样一来,就不会再使集群混乱,
可以与同事明确共享集群,并且无需依赖记住 IP 地址即可访问群集。
<!--
You can, and probably should, use subdomains to divide your clusters. As our example we will use
`useast1.dev.example.com`. The API server endpoint will then be `api.useast1.dev.example.com`.
-->
应该使用子域名来划分集群。作为示例,我们将使用域名 `useast1.dev.example.com`
应该使用子域名来划分集群。作为示例,我们将使用域名 `useast1.dev.example.com`
然后API 服务器端点域名将为 `api.useast1.dev.example.com`
<!--
@ -137,53 +129,56 @@ but also `dev.example.com` or even `example.com`. kops works with any of these,
you choose for organization reasons (e.g. you are allowed to create records under `dev.example.com`,
but not under `example.com`).
-->
Route53 托管区域可以服务子域名。的托管区域可能是 `useast1.dev.example.com`,还有 `dev.example.com` 甚至 `example.com`
kops 可以与以上任何一种配合使用,因此通常出于组织原因选择不同的托管区域。
例如,允许`dev.example.com` 下创建记录,但不能在 `example.com` 下创建记录。
Route53 托管区域可以服务子域名。的托管区域可能是 `useast1.dev.example.com`,还有 `dev.example.com` 甚至 `example.com`
kops 可以与以上任何一种配合使用,因此通常出于组织原因选择不同的托管区域。
例如,允许`dev.example.com` 下创建记录,但不能在 `example.com` 下创建记录。
<!--
Let's assume you're using `dev.example.com` as your hosted zone. You create that hosted zone using
the [normal process](http://docs.aws.amazon.com/Route53/latest/DeveloperGuide/CreatingNewSubdomain.html), or
with a command such as `aws route53 create-hosted-zone --name dev.example.com --caller-reference 1`.
-->
假设您使用 `dev.example.com` 作为托管区域。您可以使用[正常流程](http://docs.aws.amazon.com/Route53/latest/DeveloperGuide/CreatingNewSubdomain.html) 或者使用诸如 `aws route53 create-hosted-zone --name dev.example.com --caller-reference 1` 之类的命令来创建该托管区域。
假设你使用 `dev.example.com` 作为托管区域。你可以使用
[正常流程](https://docs.aws.amazon.com/Route53/latest/DeveloperGuide/CreatingNewSubdomain.html)
或者使用诸如 `aws route53 create-hosted-zone --name dev.example.com --caller-reference 1`
之类的命令来创建该托管区域。
<!--
You must then set up your NS records in the parent domain, so that records in the domain will resolve. Here,
you would create NS records in `example.com` for `dev`. If it is a root domain name you would configure the NS
records at your domain registrar (e.g. `example.com` would need to be configured where you bought `example.com`).
-->
然后,您必须在父域名中设置您的 DNS 记录,以便该域名中的记录可以被解析。在这里,您将在 `example.com` 中为 `dev` 创建 DNS 记录。
如果它是根域名,则可以在域名注册机构配置 DNS 记录。例如,您需要在购买 `example.com` 的地方配置 `example.com`
然后,你必须在父域名中设置你的 DNS 记录,以便该域名中的记录可以被解析。
在这里,你将在 `example.com` 中为 `dev` 创建 DNS 记录。
如果它是根域名,则可以在域名注册机构配置 DNS 记录。
例如,你需要在购买 `example.com` 的地方配置 `example.com`
<!--
This step is easy to mess up (it is the #1 cause of problems!) You can double-check that
your cluster is configured correctly if you have the dig tool by running:
-->
这一步很容易搞砸(这是问题的第一大原因!)
如果安装了 dig 工具,则可以通过运行以下步骤再次检查集群是否配置正确:
如果安装了 dig 工具,则可以通过运行以下步骤再次检查集群是否配置正确:
<!--
`dig NS dev.example.com`
-->
`dig DNS dev.example.com`
```shell
dig DNS dev.example.com
```
<!--
You should see the 4 NS records that Route53 assigned your hosted zone.
-->
您应该看到 Route53 分配了您的托管区域的 4 条 DNS 记录。
你应该看到 Route53 分配了你的托管区域的 4 条 DNS 记录。
<!--
### (3/5) Create an S3 bucket to store your clusters state
-->
### (3/5) 创建一个 S3 存储桶来存储集群状态
<!--
kops lets you manage your clusters even after installation. To do this, it must keep track of the clusters
that you have created, along with their configuration, the keys they are using etc. This information is stored
in an S3 bucket. S3 permissions are used to control access to the bucket.
-->
kops 使您即使在安装后也可以管理集群。为此,它必须跟踪已创建的集群及其配置、所使用的密钥等。
### (3/5) 创建一个 S3 存储桶来存储集群状态
kops 使你即使在安装后也可以管理集群。为此,它必须跟踪已创建的集群及其配置、所使用的密钥等。
此信息存储在 S3 存储桶中。S3 权限用于控制对存储桶的访问。
<!--
@ -192,8 +187,8 @@ administer the same clusters - this is much easier than passing around kubecfg f
to the S3 bucket will have administrative access to all your clusters, so you don't want to share it beyond
the operations team.
-->
多个集群可以使用同一 S3 存储桶,并且可以在管理同一集群的同事之间共享一个 S3 存储桶 - 这比传递 kubecfg 文件容易得多。
但是有权访问 S3 存储桶的任何人都将拥有对所有集群的管理访问权限,因此不想在运营团队之外共享它。
多个集群可以使用同一 S3 存储桶,并且可以在管理同一集群的同事之间共享一个 S3 存储桶 - 这比传递 kubecfg 文件容易得多。
但是有权访问 S3 存储桶的任何人都将拥有对所有集群的管理访问权限,因此不想在运营团队之外共享它。
<!--
So typically you have one S3 bucket for each ops team (and often the name will correspond
@ -209,31 +204,23 @@ the S3 bucket name.
<!--
* Export `AWS_PROFILE` (if you need to select a profile for the AWS CLI to work)
-->
* 导出 `AWS_PROFILE` 文件(如果您需要选择一个配置文件用来使 AWS CLI 正常工作)
<!--
* Create the S3 bucket using `aws s3 mb s3://clusters.dev.example.com`
-->
* 使用 `aws s3 mb s3://clusters.dev.example.com` 创建 S3 存储桶
<!--
* You can `export KOPS_STATE_STORE=s3://clusters.dev.example.com` and then kops will use this location by default.
We suggest putting this in your bash profile or similar.
-->
* 您可以进行 `export KOPS_STATE_STORE=s3://clusters.dev.example.com` 操作,然后 kops 将默认使用此位置。
我们建议将其放入您的 bash profile 文件或类似文件中。
* 导出 `AWS_PROFILE` 文件(如果你需要选择一个配置文件用来使 AWS CLI 正常工作)
* 使用 `aws s3 mb s3://clusters.dev.example.com` 创建 S3 存储桶
* 你可以进行 `export KOPS_STATE_STORE=s3://clusters.dev.example.com` 操作,然后 kops 将默认使用此位置。
我们建议将其放入你的 bash profile 文件或类似文件中。
<!--
### (4/5) Build your cluster configuration
-->
### (4/5) 建立您的集群配置
<!--
Run "kops create cluster" to create your cluster configuration:
-->
运行 "kops create cluster" 以创建您的集群配置:
### (4/5) 建立你的集群配置
运行 "kops create cluster" 以创建你的集群配置:
`kops create cluster --zones=us-east-1c useast1.dev.example.com`
@ -242,8 +229,8 @@ kops will create the configuration for your cluster. Note that it _only_ create
not actually create the cloud resources - you'll do that in the next step with a `kops update cluster`. This
give you an opportunity to review the configuration or change it.
-->
kops 将为您的集群创建配置。请注意它_仅_创建配置实际上并没有创建云资源 - 您将在下一步中使用 `kops update cluster` 进行配置。
这使有机会查看配置或进行更改。
kops 将为你的集群创建配置。请注意它_仅_创建配置实际上并没有创建云资源 - 你将在下一步中使用 `kops update cluster` 进行配置。
这使有机会查看配置或进行更改。
<!--
It prints commands you can use to explore further:
@ -258,8 +245,8 @@ It prints commands you can use to explore further:
-->
* 使用以下命令列出集群:`kops get cluster`
* 使用以下命令编辑该集群:`kops edit cluster useast1.dev.example.com`
* 使用以下命令编辑的节点实例组:`kops edit ig --name = useast1.dev.example.com nodes`
* 使用以下命令编辑的主实例组:`kops edit ig --name = useast1.dev.example.com master-us-east-1c`
* 使用以下命令编辑的节点实例组:`kops edit ig --name = useast1.dev.example.com nodes`
* 使用以下命令编辑的主实例组:`kops edit ig --name = useast1.dev.example.com master-us-east-1c`
<!--
If this is your first time using kops, do spend a few minutes to try those out! An instance group is a
@ -267,60 +254,62 @@ set of instances, which will be registered as kubernetes nodes. On AWS this is
You can have several instance groups, for example if you wanted nodes that are a mix of spot and on-demand instances, or
GPU and non-GPU instances.
-->
如果这是第一次使用 kops请花几分钟尝试一下 实例组是一组实例,将被注册为 kubernetes 节点。
在 AWS 上,这是通过 auto-scaling-groups 实现的。您可以有多个实例组,例如,如果您想要的是混合实例和按需实例的节点,或者
GPU 和非 GPU 实例。
如果这是第一次使用 kops请花几分钟尝试一下 实例组是一组实例,将被注册为 kubernetes 节点。
在 AWS 上,这是通过 auto-scaling-groups 实现的。你可以有多个实例组。
例如,如果你想要的是混合实例和按需实例的节点,或者 GPU 和非 GPU 实例。
<!--
### (5/5) Create the cluster in AWS
Run "kops update cluster" to create your cluster in AWS:
-->
### (5/5) 在 AWS 中创建集群
<!--
Run "kops update cluster" to create your cluster in AWS:
-->
运行 "kops update cluster" 以在 AWS 中创建集群:
`kops update cluster useast1.dev.example.com --yes`
```shell
kops update cluster useast1.dev.example.com --yes
```
<!--
That takes a few seconds to run, but then your cluster will likely take a few minutes to actually be ready.
`kops update cluster` will be the tool you'll use whenever you change the configuration of your cluster; it
applies the changes you have made to the configuration to your cluster - reconfiguring AWS or kubernetes as needed.
-->
这需要几秒钟的时间才能运行,但实际上集群可能需要几分钟才能准备就绪。每当更改集群配置时,都会使用 `kops update cluster` 工具。
它将对配置进行的更改应用于您的集群 - 根据需要重新配置 AWS 或者 kubernetes。
这需要几秒钟的时间才能运行,但实际上集群可能需要几分钟才能准备就绪。
每当更改集群配置时,都会使用 `kops update cluster` 工具。
它将对配置进行的更改应用于你的集群 - 根据需要重新配置 AWS 或者 kubernetes。
<!--
For example, after you `kops edit ig nodes`, then `kops update cluster --yes` to apply your configuration, and
sometimes you will also have to `kops rolling-update cluster` to roll out the configuration immediately.
-->
例如,在您运行 `kops edit ig nodes` 之后,然后运行 `kops update cluster --yes` 应用您的配置,有时您还必须运行 `kops rolling-update cluster` 立即回滚更新配置。
例如,在你运行 `kops edit ig nodes` 之后,然后运行 `kops update cluster --yes`
应用你的配置,有时你还必须运行 `kops rolling-update cluster` 立即回滚更新配置。
<!--
Without `--yes`, `kops update cluster` will show you a preview of what it is going to do. This is handy
for production clusters!
-->
如果没有 `--yes` 参数,`kops update cluster` 操作将向显示其操作的预览效果。这对于生产集群很方便!
如果没有 `--yes` 参数,`kops update cluster` 操作将向显示其操作的预览效果。这对于生产集群很方便!
<!--
### Explore other add-ons
See the [list of add-ons](/docs/concepts/cluster-administration/addons/) to explore other add-ons, including tools for logging, monitoring, network policy, visualization &amp; control of your Kubernetes cluster.
-->
### 探索其他附加组件
<!--
See the [list of add-ons](/docs/concepts/cluster-administration/addons/) to explore other add-ons, including tools for logging, monitoring, network policy, visualization &amp; control of your Kubernetes cluster.
-->
请参阅[附加组件列表](/docs/concepts/cluster-administration/addons/)探索其他附加组件,包括用于 Kubernetes 集群的日志记录、监视、网络策略、可视化和控制的工具。
请参阅[附加组件列表](/zh/docs/concepts/cluster-administration/addons/)探索其他附加组件,
包括用于 Kubernetes 集群的日志记录、监视、网络策略、可视化和控制的工具。
<!--
## Cleanup
* To delete your cluster: `kops delete cluster useast1.dev.example.com --yes`
-->
## 清理
<!--
* To delete your cluster: `kops delete cluster useast1.dev.example.com --yes`
-->
* 删除集群:`kops delete cluster useast1.dev.example.com --yes`
<!--
@ -332,21 +321,18 @@ See the [list of add-ons](/docs/concepts/cluster-administration/addons/) to expl
* Slack Channel: [#kops-users](https://kubernetes.slack.com/messages/kops-users/)
* [GitHub Issues](https://github.com/kubernetes/kops/issues)
-->
* Slack Channel: [#kops-users](https://kubernetes.slack.com/messages/kops-users/)
* Slack 频道: [#kops-users](https://kubernetes.slack.com/messages/kops-users/)
* [GitHub Issues](https://github.com/kubernetes/kops/issues)
## {{% heading "whatsnext" %}}
<!--
* Learn more about Kubernetes [concepts](/docs/concepts/) and [`kubectl`](/docs/user-guide/kubectl-overview/).
* Learn about `kops` [advanced usage](https://github.com/kubernetes/kops)
* See the `kops` [docs](https://github.com/kubernetes/kops) section for tutorials, best practices and advanced configuration options.
-->
* 了解有关 Kubernetes 的 [concepts](/docs/concepts/) 和 [`kubectl`](/docs/user-guide/kubectl-overview/) 的更多信息。
* 了解有关 Kubernetes 的[概念](/zh/docs/concepts/) 和
[`kubectl`](/zh/docs/reference/kubectl/overview/) 的更多信息。
* 了解 `kops` [高级用法](https://github.com/kubernetes/kops)。
* 请参阅 `kops` [文档](https://github.com/kubernetes/kops) 获取教程、最佳做法和高级配置选项。

View File

@ -471,7 +471,7 @@ The automatic detection of cgroup driver for other container runtimes
like CRI-O and containerd is work in progress.
-->
## 在控制平面节点上配置 kubelet 使用的 cgroup 驱动程序
## 在控制平面节点上配置 kubelet 使用的 cgroup 驱动程序 {#configure-cgroup-driver-used-by-kubelet-on-master-node}
使用 docker 时kubeadm 会自动为其检测 cgroup 驱动并在运行时对 `/var/lib/kubelet/kubeadm-flags.env` 文件进行配置。

View File

@ -1,21 +1,15 @@
---
reviewers:
- justinsb
- clove
title: 在 AWS EC2 上运行 Kubernetes
content_type: task
---
<!--
---
reviewers:
- justinsb
- clove
title: Running Kubernetes on AWS EC2
content_type: task
---
-->
<!-- overview -->
<!--
@ -23,14 +17,12 @@ This page describes how to install a Kubernetes cluster on AWS.
-->
本页面介绍了如何在 AWS 上安装 Kubernetes 集群。
## {{% heading "prerequisites" %}}
<!--
To create a Kubernetes cluster on AWS, you will need an Access Key ID and a Secret Access Key from AWS.
-->
在 AWS 上创建 Kubernetes 集群,将需要 AWS 的 Access Key ID 和 Secret Access Key。
在 AWS 上创建 Kubernetes 集群,将需要 AWS 的 Access Key ID 和 Secret Access Key。
<!--
### Supported Production Grade Tools
@ -40,7 +32,7 @@ To create a Kubernetes cluster on AWS, you will need an Access Key ID and a Secr
<!--
* [conjure-up](/docs/getting-started-guides/ubuntu/) is an open-source installer for Kubernetes that creates Kubernetes clusters with native AWS integrations on Ubuntu.
-->
* [conjure-up](/docs/getting-started-guides/ubuntu/) 是 Kubernetes 的开源安装程序,可在 Ubuntu 上创建与原生 AWS 集成的 Kubernetes 集群。
* [conjure-up](/zh/docs/setup/) 是 Kubernetes 的开源安装程序,可在 Ubuntu 上创建与原生 AWS 集成的 Kubernetes 集群。
<!--
* [Kubernetes Operations](https://github.com/kubernetes/kops) - Production Grade K8s Installation, Upgrades, and Management. Supports running Debian, Ubuntu, CentOS, and RHEL in AWS.
@ -77,10 +69,10 @@ Alternately, you can download the latest Kubernetes release from [this page](htt
Next, add the appropriate binary folder to your `PATH` to access kubectl:
-->
集群启动脚本将在您的工作站上为您提供一个 `kubernetes` 目录。
或者,可以从[此页面](https://github.com/kubernetes/kubernetes/releases)下载最新的 Kubernetes 版本。
集群启动脚本将在你的工作站上为你提供一个 `kubernetes` 目录。
或者,可以从[此页面](https://github.com/kubernetes/kubernetes/releases)下载最新的 Kubernetes 版本。
接下来,将适当的二进制文件夹添加到`PATH` 以访问 kubectl
接下来,将适当的二进制文件夹添加到`PATH` 以访问 kubectl
```shell
# macOS
@ -96,10 +88,10 @@ An up-to-date documentation page for this tool is available here: [kubectl manua
By default, `kubectl` will use the `kubeconfig` file generated during the cluster startup for authenticating against the API.
For more information, please read [kubeconfig files](/docs/tasks/access-application-cluster/configure-access-multiple-clusters/)
-->
此工具的最新文档页面位于此处:[kubectl 手册](/docs/user-guide/kubectl/)
此工具的最新文档页面位于此处:[kubectl 手册](/zh/docs/reference/kubectl/kubectl/)
默认情况下,`kubectl` 将使用在集群启动期间生成的 `kubeconfig` 文件对 API 进行身份验证。
有关更多信息,请阅读 [kubeconfig 文件](/docs/tasks/access-application-cluster/configure-access-multiple-clusters/)。
有关更多信息,请阅读 [kubeconfig 文件](/zh/docs/tasks/access-application-cluster/configure-access-multiple-clusters/)。
<!--
### Examples
@ -112,7 +104,7 @@ For more complete applications, please look in the [examples directory](https://
-->
### 示例
请参阅[一个简单的 nginx 示例](/docs/tasks/run-application/run-stateless-application-deployment/)试用的新集群。
请参阅[一个简单的 nginx 示例](/zh/docs/tasks/run-application/run-stateless-application-deployment/)试用的新集群。
“Guestbook” 应用程序是另一个入门 Kubernetes 的流行示例:[guestbook 示例](https://github.com/kubernetes/examples/tree/{{< param "githubbranch" >}}/guestbook/)。
@ -125,7 +117,9 @@ Adding and removing nodes through `kubectl` is not supported. You can still scal
-->
## 集群伸缩
不支持通过 `kubectl` 添加和删除节点。您仍然可以通过调整在安装过程中创建的 [Auto Scaling Group](http://docs.aws.amazon.com/autoscaling/latest/userguide/as-manual-scaling.html) 中的 “Desired” 和 “Max” 属性来手动伸缩节点数量。
不支持通过 `kubectl` 添加和删除节点。你仍然可以通过调整在安装过程中创建的
[Auto Scaling Group](https://docs.aws.amazon.com/autoscaling/latest/userguide/as-manual-scaling.html)
中的 “Desired” 和 “Max” 属性来手动伸缩节点数量。
<!--
## Tearing down the cluster
@ -135,7 +129,7 @@ Make sure the environment variables you used to provision your cluster are still
-->
## 集群拆除
确保用于配置集群的环境变量已被导出,然后在运行如下在 Kubernetes 目录的脚本:
确保用于配置集群的环境变量已被导出,然后在运行如下在 Kubernetes 目录的脚本:
```shell
cluster/kube-down.sh
@ -156,8 +150,8 @@ AWS | KubeOne | Ubuntu, CoreOS, CentOS | canal, weave
IaaS 提供商 | 配置管理 | 操作系统 | 网络 | 文档 | 符合率 | 支持等级
-------------------- | ------------ | ------------- | ---------- | --------------------------------------------- | ---------| ----------------------------
AWS | kops | Debian | k8s (VPC) | [docs](https://github.com/kubernetes/kops) | | Community ([@justinsb](https://github.com/justinsb))
AWS | CoreOS | CoreOS | flannel | [docs](/docs/getting-started-guides/aws) | | Community
AWS | Juju | Ubuntu | flannel, calico, canal | [docs](/docs/getting-started-guides/ubuntu) | 100% | Commercial, Community
AWS | CoreOS | CoreOS | flannel | [docs](/zh/docs/setup/) | | Community
AWS | Juju | Ubuntu | flannel, calico, canal | [docs](/zh/docs/setup/) | 100% | Commercial, Community
AWS | KubeOne | Ubuntu, CoreOS, CentOS | canal, weavenet | [docs](https://github.com/kubermatic/kubeone) | 100% | Commercial, Community
<!--
@ -168,6 +162,5 @@ and using a Kubernetes cluster.
-->
## 进一步阅读
请参阅 [Kubernetes 文档](/docs/)了解有关管理和使用 Kubernetes 集群的更多详细信息。
请参阅 [Kubernetes 文档](/zh/docs/)了解有关管理和使用 Kubernetes 集群的更多详细信息。

View File

@ -2,12 +2,9 @@
title: 在 CenturyLink Cloud 上运行 Kubernetes
---
<!--
---
title: Running Kubernetes on CenturyLink Cloud
---
--->
<!--
These scripts handle the creation, deletion and expansion of Kubernetes clusters on CenturyLink Cloud.
@ -15,7 +12,8 @@ You can accomplish all these tasks with a single command. We have made the Ansib
--->
这些脚本适用于在 CenturyLink Cloud 上创建、删除和扩展 Kubernetes 集群。
您可以使用单个命令完成所有任务。我们提供了用于执行这些任务的 Ansible 手册 [点击这里](https://github.com/CenturyLinkCloud/adm-kubernetes-on-clc/blob/master/ansible/README.md)
你可以使用单个命令完成所有任务。我们提供了用于执行这些任务的
[Ansible 手册](https://github.com/CenturyLinkCloud/adm-kubernetes-on-clc/blob/master/ansible/README.md)
<!--
## Find Help
@ -32,7 +30,7 @@ If you run into any problems or want help with anything, we are here to help. Re
- 提交 github issue
- 给 Kubernetes AT ctl DOT io 发送邮件
- 访问 [http://info.ctl.io/kubernetes](http://info.ctl.io/kubernetes)
- 访问 [https://info.ctl.io/kubernetes](https://info.ctl.io/kubernetes)
<!--
## Clusters of VMs or Physical Servers, your choice.
@ -105,7 +103,7 @@ sudo pip install -r ansible/requirements.txt
<!--
3) Create the credentials file from the template and use it to set your ENV variables
--->
3从模板创建凭证文件并使用它来设置的 ENV 变量
3从模板创建凭证文件并使用它来设置的 ENV 变量
```shell
cp ansible/credentials.sh.template ansible/credentials.sh
@ -117,7 +115,7 @@ source ansible/credentials.sh
<!--
4) Grant your machine access to the CenturyLink Cloud network by using a VM inside the network or [ configuring a VPN connection to the CenturyLink Cloud network.](https://www.ctl.io/knowledge-base/network/how-to-configure-client-vpn/)
--->
4使用内网的虚拟机或 [ 配置与 CenturyLink Cloud 网络的 VPN 连接.](https://www.ctl.io/knowledge-base/network/how-to-configure-client-vpn/) 授予的计算机对 CenturyLink Cloud 网络的访问权限。
4使用内网的虚拟机或 [ 配置与 CenturyLink Cloud 网络的 VPN 连接.](https://www.ctl.io/knowledge-base/network/how-to-configure-client-vpn/) 授予的计算机对 CenturyLink Cloud 网络的访问权限。
<!--
#### Script Installation Example: Ubuntu 14 Walkthrough
@ -126,7 +124,7 @@ If you use an ubuntu 14, for your convenience we have provided a step by step gu
--->
#### 脚本安装示例Ubuntu 14 演练
如果使用 Ubuntu 14为方便起见我们会提供分步指导帮助安装必备条件和脚本。
如果使用 Ubuntu 14为方便起见我们会提供分步指导帮助安装必备条件和脚本。
```shell
# system
@ -174,7 +172,7 @@ point to the new cluster.
When the cluster creation is complete, the configuration files for it are stored
locally on your administrative host, in the following directory
--->
创建集群大约需要15分钟。脚本完成后它将输出一些命令这些命令将帮助在计算机上设置 kubectl 以指向新集群。
创建集群大约需要15分钟。脚本完成后它将输出一些命令这些命令将帮助在计算机上设置 kubectl 以指向新集群。
完成集群创建后,其配置文件会存储在本地管理主机的以下目录中
@ -323,7 +321,7 @@ We configure the Kubernetes cluster with the following features:
* Heapster / InfluxDB用于指标收集是 Grafana 和 auto-scaling 需要的。
* GrafanaKubernetes/Docker 指标仪表板
* KubeUI用于查看 Kubernetes 状态的简单 Web 界面
* Kube 仪表板:新的 Web 界面可与的集群进行交互
* Kube 仪表板:新的 Web 界面可与的集群进行交互
<!--
We use the following to create the Kubernetes cluster:
@ -358,7 +356,7 @@ download it and install it in ```/usr/bin/local```.
--->
## 管理集群
管理 Kubernetes 集群最常用工具是 command-line 实用程序 ```kubectl```。如果的管理器上还没有此二进制文件的副本,可以运行脚本 ```install_kubectl.sh```,它将下载该脚本并将其安装在 ```/usr/bin/local``` 中。
管理 Kubernetes 集群最常用工具是 command-line 实用程序 ```kubectl```。如果的管理器上还没有此二进制文件的副本,可以运行脚本 ```install_kubectl.sh```,它将下载该脚本并将其安装在 ```/usr/bin/local``` 中。
<!--
The script requires that the environment variable ```CLC_CLUSTER_NAME``` be defined. ```install_kubectl.sh``` also writes a configuration file which will embed the necessary
@ -383,7 +381,8 @@ To demonstrate how to use these locally stored certificates, we provide the foll
--->
### 以编程方式访问集群
可以使用本地存储的客户端证书来访问 apiserver。例如您可以使用 [Kubernetes API 客户端库](/docs/reference/using-api/client-libraries/) 选择编程语言对 Kubernetes 集群进行编程。
可以使用本地存储的客户端证书来访问 apiserver。例如你可以使用
[Kubernetes API 客户端库](/zh/docs/reference/using-api/client-libraries/) 选择编程语言对 Kubernetes 集群进行编程。
为了演示如何使用这些本地存储的证书,我们提供以下示例,使用 ```curl``` 通过 https 与主 apiserver 进行通信:
@ -410,9 +409,14 @@ kubernetes-dashboard is running at ```https://${MASTER_IP}:6443/api/v1/namespace
--->
### 使用浏览器访问集群
安装 [Kubernetes 仪表板](/docs/tasks/web-ui-dashboard/)。创建集群时,脚本会为这些接口输出 URL如下所示
安装 [Kubernetes 仪表板](/zh/docs/tasks/access-application-cluster/web-ui-dashboard/)。
创建集群时,脚本会为这些接口输出 URL如下所示
kubernetes-dashboard 在以下位置运行 ```https://${MASTER_IP}:6443/api/v1/namespaces/kube-system/services/kubernetes-dashboard/proxy```
kubernetes-dashboard 在以下位置运行
```
https://${MASTER_IP}:6443/api/v1/namespaces/kube-system/services/kubernetes-dashboard/proxy
```
<!--
Note on Authentication to the UIs:
@ -425,7 +429,7 @@ password written to file at: ```> _${CLC_CLUSTER_HOME}/kube/admin_password.txt_`
--->
对 UI 进行身份验证的注意事项:
集设置为对用户 _admin_ 使用基本的身份验证。进入 URL ```https://${MASTER_IP}:6443``` 获取从 apiserver 上接收的自签名证书,然后出示管理员密码并写入文件 ```> _${CLC_CLUSTER_HOME}/kube/admin_password.txt_```
设置为对用户 _admin_ 使用基本的身份验证。进入 URL ```https://${MASTER_IP}:6443``` 获取从 apiserver 上接收的自签名证书,然后出示管理员密码并写入文件 ```> _${CLC_CLUSTER_HOME}/kube/admin_password.txt_```
<!--
@ -436,7 +440,7 @@ to access the cluster from machines other than where you created the cluster fro
--->
### 配置文件
多个配置文件被写入几个子目录,子目录在 ```.clc_kube/${CLC_CLUSTER_NAME}``` 下的主目录 *CLC_CLUSTER_HOME* 中。使用这些文件可以从创建集的计算机之外的其他计算机访问集。
多个配置文件被写入几个子目录,子目录在 ```.clc_kube/${CLC_CLUSTER_NAME}``` 下的主目录 *CLC_CLUSTER_HOME* 中。使用这些文件可以从创建集的计算机之外的其他计算机访问集
<!--
* ```config/```: Ansible variable files containing parameters describing the master and minion hosts
@ -477,7 +481,7 @@ The Kubernetes API server exposes services on web URLs, which are protected by r
client certificates. If you run a kubectl proxy locally, ```kubectl``` will provide
the necessary certificates and serve locally over http.
--->
Kubernetes API 服务器在 Web URL 上公开服务,这些 URL 受客户端证书的保护。如果在本地运行 kubectl 代理,```kubectl``` 将提供必要的证书,并通过 http 在本地提供服务。
Kubernetes API 服务器在 Web URL 上公开服务,这些 URL 受客户端证书的保护。如果在本地运行 kubectl 代理,```kubectl``` 将提供必要的证书,并通过 http 在本地提供服务。
```shell
kubectl proxy -p 8001
@ -486,7 +490,7 @@ kubectl proxy -p 8001
<!--
Then, you can access urls like ```http://127.0.0.1:8001/api/v1/namespaces/kube-system/services/kubernetes-dashboard/proxy/``` without the need for client certificates in your browser.
--->
然后,可以访问 ```http://127.0.0.1:8001/api/v1/namespaces/kube-system/services/kubernetes-dashboard/proxy/``` 之类的 URL不再需要浏览器中的客户端证书 。
然后,可以访问 ```http://127.0.0.1:8001/api/v1/namespaces/kube-system/services/kubernetes-dashboard/proxy/``` 之类的 URL不再需要浏览器中的客户端证书 。
<!--
@ -504,11 +508,11 @@ These are the known items that don't work on CenturyLink cloud but do work on ot
这些是已知的在 CenturyLink Cloud 上不能使用,但在其他云提供商中可以使用:
- 目前,没有 [LoadBalancer](/docs/tasks/access-application-cluster/create-external-load-balancer/)类型的支持服务。我们正在为此积极努力并希望在2016年4月左右发布更改。
- 目前,没有 [LoadBalancer](/zh/docs/tasks/access-application-cluster/create-external-load-balancer/)
类型的支持服务。我们正在为此积极努力并希望在2016年4月左右发布更改。
- 目前,不支持 CenturyLink Cloud 提供的永久存储卷。但是,客户可以自带永久性存储产品。我们自己使用 Gluster。
<!--
## Ansible Files
@ -516,7 +520,7 @@ If you want more information about our Ansible files, please [read this file](ht
--->
## Ansible 文件
如果想了解有关 Ansible 文件的更多信息,请 [浏览此文件](https://github.com/CenturyLinkCloud/adm-kubernetes-on-clc/blob/master/ansible/README.md)
如果想了解有关 Ansible 文件的更多信息,请 [浏览此文件](https://github.com/CenturyLinkCloud/adm-kubernetes-on-clc/blob/master/ansible/README.md)
<!--
## Further reading
@ -526,7 +530,7 @@ and using a Kubernetes cluster.
--->
## 更多
有关管理和使用 Kubernetes 集群的更多详细信息,请参见 [Kubernetes 文档](/docs/)
有关管理和使用 Kubernetes 集群的更多详细信息,请参见 [Kubernetes 文档](/zh/docs/)