天天看点

k8s自动化运维三

承接上文​​k8s自动化运维​​二

​kuboard版本升级​

在上文已经安装好的kuboard基础之上进行版本升级:

  • 上文的安装方式:kubectl apply -f https://kuboard.cn/install-script/kuboard.yaml,但默认版本比较低,需要升级版本,只需要修改镜像版本号eipwork/kuboard:v3
  • 升级之后,使用默认的登录账号 admin/Kuboard123
  • 新版本支持的功能更丰富且支持使用用户名/密码的方式登录

​集群导入​

因为k8s环境是通过minikube安装的,所以按照上篇文章说的方式进行kuboard导入k8s集群,但这里会遇到一个问题:访问不到k8s集群

k8s自动化运维三

​查看k8s集群信息​

k8s自动化运维三

在服务器上访问是可以的

k8s自动化运维三

但在服务器之外访问是不同的,所以需要通过服务器进行转发到docker模式创建的minikube环境

​服务器ip信息​

k8s自动化运维三
ssh -L 18443:192.168.49.2:8443 -N -f [email protected]或

ssh -L 18444:192.168.49.2:8443 -N -f [email protected]      

表示在本地启动18443端口,与远程主机[email protected]或192.168.49.1建立连接,端口转发到远程主机192.168.49.2:8443上去

​查看18843端口​

k8s自动化运维三

在宿主机上开了一个18443的端口,访问该端口就可以转发到192.168.49.2:8443上。18443前面没有加ip的话,只能通过127.0.0.1访问,所以需要加上0.0.0.0才能使用主机ip访问:

ssh -L 0.0.0.0:18445:192.168.49.2:8443 -N -f [email protected]

​安装netstat​

yum -y install net-tools      
k8s自动化运维三

k8s集群ip换成这个192.168.49.1:18443,就可以导入进来了

​安装nfs,并通过kuboard连接使用​

  • 安装nfs
yum -y install rpcbind nfs-utils      
  • 创建共享目录
mkdir /nfs && chmod 666 /nfs      
  • 配置共享目录
vim /etc/exports/nfs 10.1.2.219/24(insecure,rw,sync,no_root_squash,fsid=0)      
  • 配置生效
exportfs -rv      
  • 启动nfs服务
# 启动rpc服务并加入开机自启                                        systemctl enable rpcbind --now                                   # 启动nfs服务并加入开机自启                                       systemctl enable nfs --now      
  • 服务检查
showmount -e      
  • 客户端配置(将服务nfs目录挂载至本机/mnt)
mount -t nfs 10.1.2.219:/nfs /mnt      
  • 卸载
umount /mnt      
  • 查看挂载结果
df -h      
  • 通过kuboard创建存储类即配置nfs服务(集群范围非命名空间范围)
    k8s自动化运维三
    k8s自动化运维三
    k8s自动化运维三
  • 配置好nfs之后,会自动创建pv 存储卷(集群范围非命名空间范围)
    k8s自动化运维三
    k8s自动化运维三
    k8s自动化运维三
  • 进入某一个命名空间,创建pvc,绑定刚创建的存储类
    k8s自动化运维三
    k8s自动化运维三
    k8s自动化运维三
    k8s自动化运维三
  • 有了pvc,就可以在应用的yaml中使用了
    k8s自动化运维三

​k8s gitlab问题​

​源码部署文件​

https://gitee.com/pingfanrenbiji/gitlab      
k8s自动化运维三

​问题1-存储空间不够​

k8s自动化运维三

上图中显示2个pod处于Completed状态

kubectl describe pod gitlab-69d849887c-jk74r  -n kube-ops      
k8s自动化运维三
the node was low on resource: ephemeral-storage 这个错误说明存储资源不够了,需要扩大磁盘空间      

​问题2-pod因健康检测而被kill​

k8s自动化运维三

在gitlab.yaml中有存活检测的配置,如果gitlab在做代码备份(bin/rake gitlab:backup:create)或代码恢复(bin/rake gitlab:backup:restore BACKUP=1658317630_2022_07_20_11.8.1)操作,在代码资源比较大的情况下,可能会较长时间占用cpu资源,导致健康检测时间过长,从而kill掉pod。所以可以把livenessProbe和readinessProbe的超时时间设置长一些或注释掉健康检测的配置。

​强制删除pod或pv等资源​

kubectl patch pv nfs-xibaoxiao-cloud -p '{"metadata":{"finalizers":null}}'      

​代码备份​

gitlab pod中会进行代码的备份,备份好之后的代码会保存在/home/git/data/backups目录下,

k8s自动化运维三

同时也会映射到宿主机的磁盘上,但这样就可以睡安稳觉了么,当然不能,因为备份时间比如设置在凌晨1点,如果还没有到该时间点即还没有进行备份或备份中,pod挂掉了,那一天的代码是不是就丢失了,为了保证数据不会丢失,还需要做一个代码备份。

​通过crontab定时执行代码备份脚本​

crontab -e      
k8s自动化运维三

​查看是否生效​

crontab -l      
k8s自动化运维三

​启动cron服务​

/sbin/service crond start      
k8s自动化运维三

​初始化代码库​

git clone http://root:[email protected]:30003/cib/xibao-cmp      

​备份脚本​

  • 进入到项目中,获取最新的代码
git pull --all # all表示所有分支的代码都更新      
k8s自动化运维三
  • 执行备份脚本之前,先全局设置下用户名和密码,就不用每次pull的时候都输入了
git config credential.helper store
git pull --all需要手动输入一次用户名和密码,之后就不需要了,因为已经缓存在本地了      

​检查cron任务是否在执行​

tail -f /var/log/cron      
k8s自动化运维三

可以看到定时任务已经在执行了,每次都会把最新的代码pull到本地进行备份了

​通过web mvc做反向代理​

k8s自动化运维三