承接上文k8s自动化运维二
kuboard版本升级
在上文已经安装好的kuboard基础之上进行版本升级:
- 上文的安装方式:kubectl apply -f https://kuboard.cn/install-script/kuboard.yaml,但默认版本比较低,需要升级版本,只需要修改镜像版本号eipwork/kuboard:v3
- 升级之后,使用默认的登录账号 admin/Kuboard123
- 新版本支持的功能更丰富且支持使用用户名/密码的方式登录
集群导入
因为k8s环境是通过minikube安装的,所以按照上篇文章说的方式进行kuboard导入k8s集群,但这里会遇到一个问题:访问不到k8s集群
![](https://img.laitimes.com/img/__Qf2AjLwojIjJCLyojI0JCLiATN381dsQWZ4lmZf1GLlpXazVmcvwFciV2dsQXYtJ3bm9CX9s2RkBnVHFmb1clWvB3MaVnRtp1XlBXe0xCMy81dvRWYoNHLwEzX5xCMx8FesU2cfdGLwMzX0xiRGZkRGZ0Xy9GbvNGLpZTY1EmMZVDUSFTU4VFRR9Fd4VGdsYTMfVmepNHLrJXYtJXZ0F2dvwVZnFWbp1zczV2YvJHctM3cv1Ce-cmbw5yM4IzNyUWMhhTYzE2MxcDMzYzXzAjNxQTM1IzLchDMyIDMy8CXn9Gbi9CXzV2Zh1WavwVbvNmLvR3YxUjLyM3Lc9CX6MHc0RHaiojIsJye.png)
查看k8s集群信息
在服务器上访问是可以的
但在服务器之外访问是不同的,所以需要通过服务器进行转发到docker模式创建的minikube环境
服务器ip信息
ssh -L 18443:192.168.49.2:8443 -N -f [email protected]或
ssh -L 18444:192.168.49.2:8443 -N -f [email protected]
表示在本地启动18443端口,与远程主机[email protected]或192.168.49.1建立连接,端口转发到远程主机192.168.49.2:8443上去
查看18843端口
在宿主机上开了一个18443的端口,访问该端口就可以转发到192.168.49.2:8443上。18443前面没有加ip的话,只能通过127.0.0.1访问,所以需要加上0.0.0.0才能使用主机ip访问:
ssh -L 0.0.0.0:18445:192.168.49.2:8443 -N -f [email protected]
安装netstat
yum -y install net-tools
k8s集群ip换成这个192.168.49.1:18443,就可以导入进来了
安装nfs,并通过kuboard连接使用
- 安装nfs
yum -y install rpcbind nfs-utils
- 创建共享目录
mkdir /nfs && chmod 666 /nfs
- 配置共享目录
vim /etc/exports/nfs 10.1.2.219/24(insecure,rw,sync,no_root_squash,fsid=0)
- 配置生效
exportfs -rv
- 启动nfs服务
# 启动rpc服务并加入开机自启 systemctl enable rpcbind --now # 启动nfs服务并加入开机自启 systemctl enable nfs --now
- 服务检查
showmount -e
- 客户端配置(将服务nfs目录挂载至本机/mnt)
mount -t nfs 10.1.2.219:/nfs /mnt
- 卸载
umount /mnt
- 查看挂载结果
df -h
- 通过kuboard创建存储类即配置nfs服务(集群范围非命名空间范围)
k8s自动化运维三 k8s自动化运维三 k8s自动化运维三 - 配置好nfs之后,会自动创建pv 存储卷(集群范围非命名空间范围)
k8s自动化运维三 k8s自动化运维三 k8s自动化运维三 - 进入某一个命名空间,创建pvc,绑定刚创建的存储类
k8s自动化运维三 k8s自动化运维三 k8s自动化运维三 k8s自动化运维三 - 有了pvc,就可以在应用的yaml中使用了
k8s自动化运维三
k8s gitlab问题
源码部署文件
https://gitee.com/pingfanrenbiji/gitlab
问题1-存储空间不够
上图中显示2个pod处于Completed状态
kubectl describe pod gitlab-69d849887c-jk74r -n kube-ops
the node was low on resource: ephemeral-storage 这个错误说明存储资源不够了,需要扩大磁盘空间
问题2-pod因健康检测而被kill
在gitlab.yaml中有存活检测的配置,如果gitlab在做代码备份(bin/rake gitlab:backup:create)或代码恢复(bin/rake gitlab:backup:restore BACKUP=1658317630_2022_07_20_11.8.1)操作,在代码资源比较大的情况下,可能会较长时间占用cpu资源,导致健康检测时间过长,从而kill掉pod。所以可以把livenessProbe和readinessProbe的超时时间设置长一些或注释掉健康检测的配置。
强制删除pod或pv等资源
kubectl patch pv nfs-xibaoxiao-cloud -p '{"metadata":{"finalizers":null}}'
代码备份
gitlab pod中会进行代码的备份,备份好之后的代码会保存在/home/git/data/backups目录下,
同时也会映射到宿主机的磁盘上,但这样就可以睡安稳觉了么,当然不能,因为备份时间比如设置在凌晨1点,如果还没有到该时间点即还没有进行备份或备份中,pod挂掉了,那一天的代码是不是就丢失了,为了保证数据不会丢失,还需要做一个代码备份。
通过crontab定时执行代码备份脚本
crontab -e
查看是否生效
crontab -l
启动cron服务
/sbin/service crond start
初始化代码库
git clone http://root:[email protected]:30003/cib/xibao-cmp
备份脚本
- 进入到项目中,获取最新的代码
git pull --all # all表示所有分支的代码都更新
- 执行备份脚本之前,先全局设置下用户名和密码,就不用每次pull的时候都输入了
git config credential.helper store
git pull --all需要手动输入一次用户名和密码,之后就不需要了,因为已经缓存在本地了
检查cron任务是否在执行
tail -f /var/log/cron
可以看到定时任务已经在执行了,每次都会把最新的代码pull到本地进行备份了
通过web mvc做反向代理