參考:http://dev.mysql.com/doc/refman/5.6/en/mysql-cluster-online-add-node-example.html
本機為管理節點ip為10.135.10.225,在單機管理節點,ndb資料節點和mysql節點啟動且運作成功的基礎上,在資料庫中添加一個引擎為ndbcluster類型的表b_contact,并向表中插入10條測試資料。下面為在此基礎上水準擴充一個節點,已知該節點ip為10.135.10.51。
1. 修改本機管理節點的config.ini配置檔案 ,添加如下一段:
[ndbd default]
NoOfReplicas=1
[ndb_mgmd]
NodeId=1
HostName=10.135.10.225
DataDir=c:\cluster\data
[mysqld]
NodeId=11
HostName=10.135.10.51
[mysqld]
NodeId=12
HostName=10.135.10.225
[ndbd]
NodeId=21
HostName=10.135.10.51
DataDir=c:\cluster\ndbdata
[ndbd]
NodeId=22
HostName=10.135.10.225
DataDir=c:\cluster\ndbdata
2. 重新開機管理節點:
ndb_mgm> 1 STOP
Node 1 has shut down.
Disconnecting to allow Management Server to shutdown
shell> ndb_mgmd.exe--config-file=c:\cluster\config.ini --configdir=c:\cluster –reload
3. 檢視管理節點是否重新開機成功:
ndb_mgm> SHOW
Connected to Management Server at: 10.135.10.225:1186
Cluster Configuration
---------------------
[ndbd(NDB)] 2 node(s)
id=22 @10.135.10.225 (5.6.20-ndb-7.3.7, Nodegroup: 0, *)
id=21 (not connected, accepting connect from 10.135.10.51)
[ndb_mgmd(MGM)] 1 node(s)
id=1 @10.135.10.225 (5.6.20-ndb-7.3.7)
[mysqld(API)] 2 node(s)
id=12 @10.135.10.225 (5.6.20-ndb-7.3.7)
如果下面有顯示各節點狀态表明重新開機成功。
4. 重新開機資料節點和mysql節點:
ndb_mgm> 22 RESTART -f
Node 22: Node shutdown initiated
Node 22: Node shutdown completed, restarting, no start.
Node 22 is being restarted
ndb_mgm> Node 22: Start initiated (version 7.3.7)
Node 22: Started (version 7.1.33)
shell>net stop mysql;
shell>net start mysql;
5. 啟動新增的資料節點和mysql節點:
以下操作是在新增節點10.135.10.51上進行的。
shell> ndbd -c 10.135.10.225 – – initial
shell> net start mysql;
6. 檢視新增節點是否啟動成功:
ndb_mgm> SHOW
Connected to Management Server at: 10.135.10.225:1186
Cluster Configuration
---------------------
[ndbd(NDB)] 2 node(s)
id=22 @10.135.10.225 (5.6.20-ndb-7.3.7, Nodegroup: 0, *)
id=21 @10.135.10.51 (5.6.20-ndb-7.3.7, no nodegroup)
[ndb_mgmd(MGM)] 1 node(s)
id=1 @10.135.10.225 (5.6.20-ndb-7.3.7)
[mysqld(API)] 2 node(s)
id=12 @10.135.10.225 (5.6.20-ndb-7.3.7)
id=11 @10.135.10.51 (5.6.20-ndb-7.3.7)
如上id=21行顯示即為添加成功。
7. 将新增節點添加到新分組并檢視是否添加成功:
ndb_mgm> CREATE NODEGROUP 21
Nodegroup 1 created
ndb_mgm> SHOW
Connected to Management Server at: 10.135.10.225:1186
Cluster Configuration
---------------------
[ndbd(NDB)] 2 node(s)
id=22 @10.135.10.225 (5.6.20-ndb-7.3.7, Nodegroup: 0, *)
id=21 @10.135.10.51 (5.6.20-ndb-7.3.7, Nodegroup: 1 )
[ndb_mgmd(MGM)] 1 node(s)
id=1 @10.135.10.225 (5.6.20-ndb-7.3.7)
[mysqld(API)] 2 node(s)
id=12 @10.135.10.225 (5.6.20-ndb-7.3.7)
id=11 @10.135.10.51 (5.6.20-ndb-7.3.7)
8. 檢視和重配置設定資料:

可見新增節點尚未為配置設定資料。在資料庫中輸入如下指令并運作:
運作後的結果如下圖:
如圖可知資料遷移之後空間還沒有釋放出來,需要通過optimize指令優化表,釋放遷移走的空間(當optimize一個ndb大表的時候很慢,很容易出問題)。
在資料庫中輸入優化指令,優化後結果如下圖:
可知部分資料已經遷移到新增的21節點上了。
9. 叢集使用中遇到的問題以及解決的方法:
1. 在未給要查詢字段設定索引的情況下,使用mysql叢集進行查改删的操作時,即使是100w資料的情況下,進行并發操作都會報如下錯誤:“ERROR 1205 (HY000): Lock wait timeout exceeded; try restartingtransaction” ——“鎖等待逾時”,且資料量越大,并發數越多報錯的線程數也越多。但是單次執行以上操作時不會出現這種錯誤。在嘗試将叢集配置”TransactionDeadLockDetectionTimeOut” ——事務鎖監測逾時時間,修改增大到10秒後,報錯情況有所改善但不明顯。最後,在要查詢字段name上建立了索引,才最終解決了這個問題。
2. 在添加第四個節點組進行到最後一步——向節點組四上遷移資料的時候,報了一個錯誤——“[Err] 1297 - Got temporary error 410 'REDO log files overloaded (decreaseTimeBetweenLocalCheckpoints or increase NoOfFragmentLogFiles)”,導緻資料遷移失敗并中斷。此後,嘗試修改配置減小TimeBetweenLocalCheckpoints或增大NoOfFragmentLogFiles,等方法後,重新開機節點都無法成功。最後,隻能初始化資料節點——原來的以NDBCluster為引擎的表的資料會全部丢失,重新插入資料進行測試。