天天看点

分享一个 MySQL Shell 备份数据库的脚本

作者:贺浦力特

编写目的

使用 mysql shell 对 MySQL 数据库进行在线备份,并指定轮转次数

说明

因为个人原因,有点强迫症, 喜欢编写能够复用且使用简单的脚本,提供简单的功能, 先是写的oracle备份脚本, 后来陆续写了其他数据库和操作系统的脚本

mysql备份先是用的mysqldump,后来又写了xtrabackup, mysqlbackup, mysql shell的一共4个, 后面有空都贴出来, 基本上除了使用的备份工具不同, 基本流程大同小异

能看懂脚本的花几分钟基本上也就明白了, 也都在测试环境和生产环境用过,但还是建议根据你的环境测试一下 也许有bug我没测出来,哈哈

为了节省大家时间,也能放心使用,把大概功能略述一下

一 使用时只需要提供备份目的地和轮转次数

1. 备份目的地就不说了

2. 轮转次数. 有点像logrotate,每次备份会在备份目的地生成一个序号命名的子文件夹, 到指定的轮转次数再从头开始

二 临时文件

记录上次备份状态的文件, 主要用于防止上一次备份未结束,定时任务又启动了下一次任务。

记录轮转序号的隐藏文件, 决定下次备份到哪儿,每次备份结束+1, 到最大了再从0开始

日志文件,记录了备份的开始时间,每个库的开始备份时间,结束时间

数据库列表文件,先查询数据库名称并记录于这个文件, 然后挨个备份。 不喜欢整个实例一起备份, 还是分数据库一个一个的好, 个人习惯。

三 执行顺序

先查询数据库, 再挨个备份数据库, 备份完成了,再删除废弃的备份(写死的15天,可以自己改,因为我一般轮转次数是7或3, 15天足够了)。

四 备份时间

后台备份的话可以看日志文件减一下, 前台执行的话脚本运行结束也会计算运行了多久(开始,结束时间减了一下)

速度比较

测试数据库 73G :

mysqldump: 花了 34 分钟 备份输出10G

myshell dump 默认压缩 线程4(默认): 花了 30 分钟 备份输出 10G

myshell dump 默认压缩 线程8: 花了 5 分钟 输出 备份输出10G

myshell dump 默认压缩 线程12: 花了 5 分钟 输出 备份输出10G

xtrabackup 默认并行度1: 花了 34 分钟输出73G

#!/bin/bash

# =========================================================================
# (C) Copyright 2003-2033 hoplite
# =========================================================================
# Script Purpose : backup mysql database by mysql shell
# -------------------------------------------------------------------------
# instructions
# 1.setup url
#   save credentials: run mysqlsh to connect database and save password. the password will save in .mylogin.cnf with the server URL
#   list login-path: mysql_config_editor print --all
# 2.setup cron job
#   example: dump databases one by one every night
#   0 3 * * * /u01/backup/mysql_shelldump.sh [email protected]:3308/mysql /u01/backup/shelldump 7

# -------------------------------------------------------------------------
# Version Date      Description
# -------------------------------------------------------------------------
# V1.0              Initial version
# =========================================================================
# NOTE
# MySQL Shell's dump utility util.dumpInstance() and util.dumpSchemas() introduced in MySQL Shell 8.0.21

[ -f ~/.bash_profile ] && . ~/.bash_profile
set -e -u -o pipefail

show_usage ()
{
  echo "usage: `basename $0` uri target-basedir rotate"
  echo "eg.    `basename $0` [email protected]:3308/mysql /u01/backup/shelldump 7"
}

if [ $# -lt 3 ] || [ $# -gt 3 ]; then
   show_usage
   exit 0
else
  start_time=`date +%F" "%T`

  p_uri=$1
  p_targetbasedir=$2
  p_rotate_factor=$3

  v_id=`date +%Y%m%d%H%M%S`
  v_hash=`echo -n ${p_uri}|md5sum|cut -f1 -d" "`
  [ -d ${p_targetbasedir} ] || mkdir -p ${p_targetbasedir}

  stusfile=${p_targetbasedir}/.status.${v_hash} #file to record last backup status
  rotafile=${p_targetbasedir}/.rotate.${v_hash} #file to record rotate number
  log_file=${p_targetbasedir}/backup.log
  vdbsfile=${p_targetbasedir}/.vdbs.${v_hash}.${v_id} #file to record databases

  #check last backup result
  if [ -f ${stusfile} ]; then
    if [ `cat ${stusfile}` = "running" ]; then
      loginfo="`date +%F" "%T` ...ERROR:last backup fail, check it,then drop status file and rerun." ; echo ${loginfo} ; echo ${loginfo} >> ${log_file}
      exit 1
    fi
  else
    echo "running" > ${stusfile}
  fi

  #rotate number,+1 every time
  if [ -f ${rotafile} ]; then
    v_last_id=`cat ${rotafile}`
    v_incr_id=`expr ${v_last_id} + 1`
    v_curr_id=$(( ${v_incr_id} % ${p_rotate_factor} ))
  else
    v_curr_id=0
  fi
  echo ${v_curr_id} > ${rotafile}
  
  v_targetdir=${p_targetbasedir}/${v_curr_id}
  [ -d ${v_targetdir} ] && mv ${v_targetdir} ${p_targetbasedir}/obsolete.${v_id}
  [ -d ${v_targetdir} ] || mkdir -p ${v_targetdir}
  cd ${v_targetdir}
  loginfo="`date +%F" "%T` ...start backup to ${v_targetdir}" ; echo ${loginfo} ; echo ${loginfo} >> ${log_file}

mysqlsh --uri ${p_uri} --sql > ${vdbsfile}<<EOF
SELECT schema_name FROM information_schema.SCHEMATA;
EOF

  filtered_dbs=("SCHEMA_NAME" "TABLE_SCHEMA" "mysql" "sys" "information_schema" "performance_schema" "the_database_you_do_not_want_to_dump")
  while read v_db
  do
    is_in_filtered_db="N"
    for fd in ${filtered_dbs[*]} ; do
      if [ "${fd}" == "${v_db}" ]; then
        is_in_filtered_db="Y"
        break
      fi
    done

    if [[ "${is_in_filtered_db}" == "N" ]]; then
      loginfo="`date +%F" "%T` ...backup database ${v_db}" ; echo ${loginfo} ; echo ${loginfo} >> ${log_file}
      mysqlsh --uri ${p_uri} -e "util.dumpSchemas(['${v_db}'],'${v_targetdir}/${v_db}',{threads:8})"
    fi
  done < ${vdbsfile}
  loginfo="`date +%F" "%T` ...end backup to ${v_targetdir}" ; echo ${loginfo} ; echo ${loginfo} >> ${log_file}
  rm "${vdbsfile:-unset}"
  echo "completed" > ${stusfile}
  
  tmpfile=/tmp/.tmpfile.`basename $0`.${v_hash}.${v_id}
  find ${p_targetbasedir} -mtime +15 -name "obsolete.20????????????" -type d > ${tmpfile}
  #eg. /u01/backup/shelldump/obsolete.20230317100025
  while read foldername
  do
    echo "${foldername:-unset}"
    rm -rf "${foldername:-unset}"
    echo "deleted backup folder : ${foldername}"
  done < ${tmpfile}

  end_time=`date +%F" "%T`
  t_start_time=`date -d "${start_time}" +%s`
  t_end_time=`date -d "${end_time}" +%s`
  t_diff_secs=$((${t_end_time} - ${t_start_time}))
  t_hours=$((${t_diff_secs}/3600))
  t_mins=$(($((${t_diff_secs}-${t_hours}*3600))/60))
  t_secs=$((${t_diff_secs}%60))

  echo
  echo ==================================================
  echo "File Name:`basename $0`    Start Time:${start_time}    End Time:${end_time}    Total Cost:${t_hours}:${t_mins}:${t_secs}"
  echo ==================================================
  echo
fi