Helm 简介

原创
2020/02/21 21:45
阅读数 321

概念

  • Chart:一个 Helm 包,其中包含了运行一个应用所需要的工具、资源定义等,还可能包含 Kubernetes 集群中的服务定义,类似 Homebrew 中的 formula,APT 的 dpkg 或者 Yum 的 RPM 文件,
  • Release: 在 Kubernetes 集群上运行的 Chart 的一个实例。在同一个集群上,一个 Chart 可以安装很多次。每次安装都会创建一个新的 release。例如一个 MySQL Chart,如果想在服务器上运行两个数据库,就可以把这个 Chart 安装两次。每次安装都会生成自己的 Release,会有自己的 Release 名称。
  • Repository:用于存放和共享 Chart 的仓库。

简单说来,Helm 整个系统的主要任务就是,在仓库中查找需要的 Chart,然后把 Chart 以 Release 的形式安装到 Kubernetes 之中

组件

  • Helm Client:客户端,具有对 Repository、Chart、Release 等对象的管理能力。
  • Tiller Server:负责客户端指令和 Kubernetes 集群之间的沟通,根据 Chart 定义,生成和管理各种相对应的 API Object。
  • Repository:Chart 的仓库,基本上就是索引文件 + Chart 压缩包的一个存储托管。

安装

环境要求

  • 可用的 Kubernetes 集群
  • 正确的可用的 kubectl config

简单做法

只要一个简单的 helm init 命令,就可以自动完成 Tiller 的安装,以及 Helm 本地设置。

手工做法

在一个网络不通,或者受控网络里面,init 可能无法正常工作,所以我们需要手工完成 Init 工作。

  • 客户端:helm init -c,会跳过 Tiller 部分,仅进行客户端的安装。
    • ~/.helm 中保存了对 Repository 的定义,各个 Repository 的索引的缓存,以及 Chart 压缩包的缓存。
  • Tiller:下面是 Tiller 的运行 YML:
apiVersion: extensions/v1beta1
kind: Deployment
metadata:
  annotations:
    deployment.kubernetes.io/revision: "1"
  generation: 1
  labels:
    app: helm
    name: tiller
  name: tiller-deploy
  namespace: kube-system
spec:
  replicas: 1
  selector:
    matchLabels:
      app: helm
      name: tiller
  strategy:
    rollingUpdate:
      maxSurge: 1
      maxUnavailable: 1
    type: RollingUpdate
  template:
    metadata:
      creationTimestamp: null
      labels:
        app: helm
        name: tiller
    spec:
      containers:
      - env:
        - name: TILLER_NAMESPACE
          value: kube-system
        image: gcr.io/kubernetes-helm/tiller:v2.2.3
        imagePullPolicy: IfNotPresent
        livenessProbe:
          failureThreshold: 3
          httpGet:
            path: /liveness
            port: 44135
            scheme: HTTP
          initialDelaySeconds: 1
          periodSeconds: 10
          successThreshold: 1
          timeoutSeconds: 1
        name: tiller
        ports:
        - containerPort: 44134
          name: tiller
          protocol: TCP
        readinessProbe:
          failureThreshold: 3
          httpGet:
            path: /readiness
            port: 44135
            scheme: HTTP
          initialDelaySeconds: 1
          periodSeconds: 10
          successThreshold: 1
          timeoutSeconds: 1
      dnsPolicy: ClusterFirst
      restartPolicy: Always
      securityContext: {}
      terminationGracePeriodSeconds: 30

Service

apiVersion: v1
kind: Service
metadata:
  creationTimestamp: 2017-03-27T15:06:49Z
  labels:
    app: helm
    name: tiller
  name: tiller-deploy
  namespace: kube-system
spec:
  clusterIP: 10.3.251.197
  ports:
  - name: tiller
    port: 44134
    protocol: TCP
    targetPort: tiller
  selector:
    app: helm
    name: tiller
  sessionAffinity: None
  type: ClusterIP

注意楼上的 Service 代码表明 Tiller 并没有用 NodePort 或者 Ingress/Loadbalancer 等方式暴露端口,因此这里推测 Helm 同 Tiller 的通信可能是利用 kubectl proxy 完成的。

常用操作

下面列举了一个简单的安装数据库的操作过程:

helm search mysql #搜索helm inspect stable/mariadb #查看helm install stable/mariadb #安装

很明显,上面的命令没有对 Chart 的而运行做任何指导,实际上没什么用,我们可以利用 --set 或者 --value 参数,来指定在我们 Inspect 命令中看到的变量的值,就可以完成对变量的设置了。

除了利用简单的模板功能来生成和控制 pvc/secret 等各种对象之外, Chart 还具有很重要的依赖管理功能。

自建 Chart

简单的一个 helm create 命令就可以初始化一个 chart。

├── Chart.yaml # Chart 的文件主要信息├── charts # 依赖的 Chart├── templates # 模板目录,用 gotpl 编写 Kubernetes 运行 App 所需的各种对象定义│   ├── NOTES.txt
│   ├── _helpers.tpl
│   ├── deployment.yaml
│   └── service.yaml
└── values.yaml # 缺省值定义

编写完成之后,使用 helm package 命令可以将 chart 打包为 tgz 格式。

最后可以运行 helm install ./some.chart.tgz 来运行本地的 Chart。

自建 Repository

很明显的,我们需要一个自建仓库,不过幸运的是,Helm 仓库并不像 Docker Image Registry 之类的东西那么麻烦。只要一个能相应 GET 请求并提供 YAML 和 TAR 文件的 HTTP 服务器就可以了。

最简单的,可以用 helm serve 命令就可以了:

  • 首先创建一个文件夹用于保存 Chart
  • 把上面我们 helm package 生成的压缩包复制进去
  • helm serve --repo-path repo 就会运行一个简单的 HTTP Server 提供 Helm chart 仓库的服务了。
  • 运行helm repo add some-repo http://repo-url 命令,添加仓库到系统中。

另外可以利用 github 以及各种 HTTP 服务器来提供这一服务。

本文分享自微信公众号 - 伪架构师(fake-architect)。
如有侵权,请联系 support@oschina.cn 删除。
本文参与“OSC源创计划”,欢迎正在阅读的你也加入,一起分享。

展开阅读全文
打赏
0
0 收藏
分享
加载中
更多评论
打赏
0 评论
0 收藏
0
分享
返回顶部
顶部