天天看点

MongoDB搭建ReplSet复制集群

MongoDB的复制集是一个主从复制模式 又具有故障转移的集群,任何成员都有可能是

master

当master挂掉用会很快的重新选举一个节点来充当master。

复制集中的组成主要成员

  • Primary

    数据读写 master节点

  • Secondary

    备份Primary的数据 默认设置下 不可读 不可写

  • arbiter

    投票节点 此节点不会存数据 只参与投票 ,当primary节点出现异常挂掉之后 arbiter节点负责从secondary 节点中选举一个节点升级为Primary节点

其中可以设置Secondary节点可读,让Primary节点负责写,这些就实现了一个高效简单的读写分离    。    

环境搭建

以3个实例来演示一下复制集群的搭建过程 分别为:127.0.0.1:12345,127.0.0.1:12346,127.0.0.1:12347。

需要预先创建好各目录的文件夹 不然启动的时候会报错,这里还有一个坑是 pidfilepath配置项必须是绝对路径,

否则也会报错,replSet在同一个复制集中也需要具有一致的名称。

注意在旧版本中是使用的是master slave模式 目前使用的是3.4官方不支持使用这种方式,

官方希望使用replset代替master slave。所以当你配置master或者slave的时候就会报错。

127.0.0.1:12345配置

port=12345
  
  
   fork=true
  
  
   dbpath=data/12345
  
  
   logpath=log/12345/mongod.log
  
  
   httpinterface=true
  
  
   rest=true
  
  
   logappend=true
  
  
   pidfilepath=/home/collect/mongodb-linux-x86_64-rhel70-3.4.1/log/12345/12345.pid
  
  
   replSet=mydbCenter
  
  
   oplogSize=512
        

127.0.0.1:12346配置

port=12346
      
      
       fork=true
      
      
       dbpath=data/12346
      
      
       logpath=log/12346/mongod.log
      
      
       httpinterface=true
      
      
       rest=true
      
      
       logappend=true
      
      
       pidfilepath=/home/collect/mongodb-linux-x86_64-rhel70-3.4.1/log/12346/12346.pid
      
      
       replSet=mydbCenter
      
      
       oplogSize=512
            

127.0.0.1:12347配置

port=12347
      
      
       fork=true
      
      
       dbpath=data/12347
      
      
       logpath=log/12347/mongod.log
      
      
       httpinterface=true
      
      
       rest=true
      
      
       logappend=true
      
      
       pidfilepath=/home/collect/mongodb-linux-x86_64-rhel70-3.4.1/log/12347/12347.pid
      
      
       replSet=mydbCenter
      
      
       oplogSize=512
            

分别启动好3个实例之后,随便进入一个实例

初始化复制集群

首先创建1个配置对象 在js中就是一个简单的对象 、json串

var rs_conf={
        "_id" : "mydbCenter",
        "members" : [
                {
                        "_id" : 0,
                        "host" : "127.0.0.1:12345"
                },
                {
                        "_id" : 1,
                        "host" : "127.0.0.1:12346"
                },
                {
                        "_id" : 2,
                        "host" : "127.0.0.1:12347"
                }
        ]
}
           

把配置应用到集群

rs.initiate(rs_conf)
           

这里有一个限制就是需要集群的节点中不能有数据 需要先清空一下 不然

initiate

的时候会出错。

配置成功后使用

rs.status()

命令查看各节点状态,一些正常 就能看到各节点的状态信息

rs.status()
           

搭建好复制集群之后命令行的标识符会变为相应的成员类型如

mydbCenter:PRIMARY> 
mydbCenter:SECONDARY>
           

这也是检验集群是否搭建的成功的一个小标识。

接着可以尝试一下在Primary中写入一条数据。这条数据会立即同步到各个Secondary节点中。

当然前面也说过默认情况的Secondary不可读 会报下面的错误。

{
        "ok" : 0,
        "errmsg" : "not master and slaveOk=false",
        "code" : 13435,
        "codeName" : "NotMasterNoSlaveOk"
}
           

所以需要在Secondary中执行

db.getMongo().setSlaveOk()
           

在网络上看到有很多帖子说只要在Primary节点中执行 db.getMongo().setSlaveOk()

就能在Secondary节点中读取数据,但是在3.4版本试了一下是不行的。需要在Secondary中执行一下

db.getMongo().setSlaveOk()

让Secondary可读。

添加节点

如果现在已经有搭建好一个复制集群了 老板想多加一台备份机器进去 怎么办?

只需要启动好新机器的实例后 在Primary中调用rs.add() 方法即可

rs.add({"host" : "127.0.0.1:12348"})
           

添加投票节点调用

rs.addArb()

方法。

转载至:笑松小站 http://blog.seoui.com/2017/01/11/mongodb-rs/

继续阅读