一般情况下 kubernetes 可以通过 replicaset 以一个 pod 模板创建多个 pod 副本,但是它们都是无状态的,任何时候它们都可以被一个全新的 pod 替换。然而有状态的 pod 需要另外的方案确保当一个有状态的 pod 挂掉后,这个 pod 实例需要在别的节点上重建,但是新的实例必须与被替换的实例拥有相同的名称、网络标识和状态。这就是 statefulset 管理 pod 的手段。
对于容器集群,有状态服务的挑战在于,通常集群中的任何节点都并非100%可靠的,服务所需的资源也会动态地更新改变。当节点由于故障或服务由于需要更多的资源而无法继续运行在原有节点上时,集群管理系统会为该服务重新分配一个新的运行位置,从而确保从整体上看,集群对外的服务不会中断。若采用本地存储,当服务漂移后数据并不会随着服务转移到新的节点,重启服务就会出现数据丢失的困境。
本文目的是通过一个 mysql 的主从集群搭建,深入了解 kubernetes 的 statfulset 管理。为了降低实验的外部依赖,存储层面上,我采用的是本地存储,当然生产上不建议这样做,生产环境的存储推荐官方介绍到的的 gce、nfs、ceph等存储方案,因为这些方案支持动态供给的特性,允许开发人员通过 pvc 的定义,快速实现数据有效存储,所以你绝不应该把一个宿主机上的目录当作 pv 使用, 只是本文用于实验需要,采用 <code>local persistent volume</code> 的手段,目的只是为了验证 statefulset 的状态管理功能。
kubernetes master
kubernetes node(测试演示,所有的副本都会在其上运行)
kubernetes dns 服务已开启
搭建一个主从复制(master-slave)的 mysql 集群
从节点可以水平扩展
所有的写操作只能在主节点上执行
读操作可以在主从节点上执行
从节点能同步主节点的数据
为了快速搭建测试环境,我们这里使用了<code>本地存储</code>,也就是说,用户希望 kubernetes 能够直接使用宿主机上的本地磁盘目录,而不依赖于远程存储服务,来提供<code>持久化</code>的容器 volume。不过这里有个难点:
“ 我们把存储固定在一个节点上,但是pod在调度的时候,是飘来飘去的,怎么能让pod通过pvc也能固定在pv上? ”
给这个 pod 加上一个 nodeaffinity 行不行?
当然行,但是这变相破坏了开发人员对资源对象的定义规范了,开发人员应该不需要时刻考虑调度的细节。调度的改动应该交给运维就行。所以我们为了实现本地存储,我们采用了 <code>延迟绑定</code> 的方法。方法很简单,我们都知道 <code>storageclass</code> 一般由运维人员设计,我们只需要在storageclass 指定 <code>no-provisioner</code>。这是因为 <code>local persistent volume</code> 目前尚不支持 <code>dynamic provisioning</code>,所以它没办法在用户创建 pvc 的时候,就自动创建出对应的 pv。与此同时,这个 storageclass 还定义了一个 <code>volumebindingmode=waitforfirstconsumer</code> 的属性。它是 local persistent volume 里一个非常重要的特性,即:<code>延迟绑定</code>
01-persistentvolume-1.yaml
01-persistentvolume-2.yaml
01-persistentvolume-3.yaml
记住,这是在生产上不推荐的做法,我只是实验用途才这样手动预先创建,正规的做法应该通过storageclass采用 dynamic provisioning, 而不是 static provisioning 机制生产pv。
02-storageclass.yaml
执行创建
03-mysql-namespace.yaml
04-mysql-configmap.yaml
创建执行
05-mysql-secret.yaml
06-mysql-services.yaml
用户所有写请求,必须以 dns 记录的方式直接访问到 master 节点,也就是 mysql-0.mysql 这条 dns 记录。
用户所有读请求,必须访问自动分配的 dns 记录可以被转发到任意一个 master 或 slave 节点上,也就是 mysql-read 这条 dns 记录
mysql-statefulset.yaml
整体的statefulset有两个replicas,一个master, 一个slave,然后使用 init-mysql 这个 initcontainers 进行配置文件的初始化。接着使用 clone-mysql 这个 <code>initcontainers</code> 进行数据的传输;同时使用 xtrabackup 这个 sidecar 容器进行sql初始化和数据传输功能
创建 statefulset
可以看到,statefulset 启动成功后,会有两个pod运行。
接下来,我们可以尝试向这个mysql集群fa起请求,执行一些<code>sql操作</code>来验证它是否正常
服务验证
验证主从状态
接下来,我们通过master容器创建数据库和表、插入数据库
然后,我们观察slave节点是否都同步到数据了
当看到输出结果,主从同步正常了
扩展从节点
在有了 statefulset 以后,你就可以像 deployment 那样,非常方便地扩展这个 mysql 集群,比如
这时候,一个新的mysql-2就创建出来了,我们继续验证新扩容的节点是否都同步到主节点的数据
当看到输出结果,主从同步正常了。也就是说从 statefulset 为我们新创建的 mysql-2 上,同样可以读取到之前插入的记录。也就是说,我们的数据备份和恢复,都是有效的。