轉載:匠心零度(https://www.cnblogs.com/jiangxinlingdu/p/8440413.html)
為什麼會突然談到分布式唯一id呢?原因是最近在準備使用RocketMQ,看看官網介紹:
一句話,消息可能會重複,是以消費端需要做幂等。為什麼消息會重複後續RocketMQ章節進行詳細介紹,本節重點不在這裡。
為了達到業務的幂等,必須要有這樣一個id存在,需要滿足下面幾個條件:
同一業務場景要全局唯一。
該id必須是在消息的發送方進行産生發送到MQ。
消費端根據該id進行判斷是否重複,確定幂等。
在那裡産生,和消費端進行判斷等和這個id沒有關系,這個id的要求就是局部唯一或者全局唯一即可,由于這個id是唯一的,可以用來當資料庫的主鍵,既然要做主鍵那麼之前剛剛好發過一篇文章:從開發者角度談Mysql(1):主鍵問題,文章重點提到為什麼需要自增、或者趨勢自增的好處。(和Mysql資料存儲做法有關)。
那麼該id需要有2個特性:
局部、全局唯一。
趨勢遞增。
如果有方法可以生成全局唯一(那麼在局部也一定唯一了),生成分布式唯一id的方法有很多。大家可以看看分布式系統唯一ID生成方案彙總:http://www.cnblogs.com/haoxinyue/p/5208136.html
(由于微信不是他的位址都顯示不出來,是以把位址貼出來下),這個文章裡面提到了很多以及各各的優缺點。
本文關注重點是snowflake算法,該算法實作得到的id就滿足上面提到的2點。
snowflake算法
snowflake是Twitter開源的分布式ID生成算法,結果是一個long型的ID。其核心思想是:使用41bit作為毫秒數,10bit作為機器的ID(5個bit是資料中心,5個bit的機器ID),12bit作為毫秒内的流水号(意味着每個節點在每毫秒可以産生 4096 個 ID),最後還有一個符号位,永遠是0。
該算法實作基本就是二進制操作,如果二進制不熟悉的可以看看我之前寫的相關文章:java二進制相關基礎、二進制實戰技巧。
這個算法單機每秒内理論上最多可以生成1000*(2^12),也就是409.6萬個ID,(吼吼,這個得了的快啊)。
java實作代碼基本上就是類似這樣的(都差不多,基本就是二進制位操作):
參考:https://www.cnblogs.com/relucent/p/4955340.html
/**
- Twitter_Snowflake
- SnowFlake的結構如下(每部分用-分開):
- 0 - 0000000000 0000000000 0000000000 0000000000 0 - 00000 - 00000 - 000000000000
- 1位辨別,由于long基本類型在Java中是帶符号的,最高位是符号位,正數是0,負數是1,是以id一般是正數,最高位是0
- 41位時間截(毫秒級),注意,41位時間截不是存儲目前時間的時間截,而是存儲時間截的內插補點(目前時間截 - 開始時間截)
- 得到的值),這裡的的開始時間截,一般是我們的id生成器開始使用的時間,由我們程式來指定的(如下下面程式IdWorker類的startTime屬性)。41位的時間截,可以使用69年,年T = (1L << 41) / (1000L * 60 * 60 * 24 * 365) = 69
- 10位的資料機器位,可以部署在1024個節點,包括5位datacenterId和5位workerId
- 12位序列,毫秒内的計數,12位的計數順序号支援每個節點每毫秒(同一機器,同一時間截)産生4096個ID序号
- 加起來剛好64位,為一個Long型。
- SnowFlake的優點是,整體上按照時間自增排序,并且整個分布式系統内不會産生ID碰撞(由資料中心ID和機器ID作區分),并且效率較高,經測試,SnowFlake每秒能夠産生26萬ID左右。
public class SnowflakeIdWorker {
// ==============================Fields===========================================
/** 開始時間截 (2015-01-01) */
private final long twepoch = 1420041600000L;
/** 機器id所占的位數 */
private final long workerIdBits = 5L;
/** 資料辨別id所占的位數 */
private final long datacenterIdBits = 5L;
/** 支援的最大機器id,結果是31 (這個移位算法可以很快的計算出幾位二進制數所能表示的最大十進制數) */
private final long maxWorkerId = -1L ^ (-1L << workerIdBits);
/** 支援的最大資料辨別id,結果是31 */
private final long maxDatacenterId = -1L ^ (-1L << datacenterIdBits);
/** 序列在id中占的位數 */
private final long sequenceBits = 12L;
/** 機器ID向左移12位 */
private final long workerIdShift = sequenceBits;
/** 資料辨別id向左移17位(12+5) */
private final long datacenterIdShift = sequenceBits + workerIdBits;
/** 時間截向左移22位(5+5+12) */
private final long timestampLeftShift = sequenceBits + workerIdBits + datacenterIdBits;
/** 生成序列的掩碼,這裡為4095 (0b111111111111=0xfff=4095) */
private final long sequenceMask = -1L ^ (-1L << sequenceBits);
/** 工作機器ID(0~31) */
private long workerId;
/** 資料中心ID(0~31) */
private long datacenterId;
/** 毫秒内序列(0~4095) */
private long sequence = 0L;
/** 上次生成ID的時間截 */
private long lastTimestamp = -1L;
//==============================Constructors=====================================
/**
* 構造函數
* @param workerId 工作ID (0~31)
* @param datacenterId 資料中心ID (0~31)
*/
public SnowflakeIdWorker(long workerId, long datacenterId) {
if (workerId > maxWorkerId || workerId < 0) {
throw new IllegalArgumentException(String.format("worker Id can't be greater than %d or less than 0", maxWorkerId));
}
if (datacenterId > maxDatacenterId || datacenterId < 0) {
throw new IllegalArgumentException(String.format("datacenter Id can't be greater than %d or less than 0", maxDatacenterId));
}
this.workerId = workerId;
this.datacenterId = datacenterId;
}
// ==============================Methods==========================================
/**
* 獲得下一個ID (該方法是線程安全的)
* @return SnowflakeId
*/
public synchronized long nextId() {
long timestamp = timeGen();
//如果目前時間小于上一次ID生成的時間戳,說明系統時鐘回退過這個時候應當抛出異常
if (timestamp < lastTimestamp) {
throw new RuntimeException(
String.format("Clock moved backwards. Refusing to generate id for %d milliseconds", lastTimestamp - timestamp));
}
//如果是同一時間生成的,則進行毫秒内序列
if (lastTimestamp == timestamp) {
sequence = (sequence + 1) & sequenceMask;
//毫秒内序列溢出
if (sequence == 0) {
//阻塞到下一個毫秒,獲得新的時間戳
timestamp = tilNextMillis(lastTimestamp);
}
}
//時間戳改變,毫秒内序列重置
else {
sequence = 0L;
}
//上次生成ID的時間截
lastTimestamp = timestamp;
//移位并通過或運算拼到一起組成64位的ID
return ((timestamp - twepoch) << timestampLeftShift) //
| (datacenterId << datacenterIdShift) //
| (workerId << workerIdShift) //
| sequence;
}
/**
* 阻塞到下一個毫秒,直到獲得新的時間戳
* @param lastTimestamp 上次生成ID的時間截
* @return 目前時間戳
*/
protected long tilNextMillis(long lastTimestamp) {
long timestamp = timeGen();
while (timestamp <= lastTimestamp) {
timestamp = timeGen();
}
return timestamp;
}
/**
* 傳回以毫秒為機關的目前時間
* @return 目前時間(毫秒)
*/
protected long timeGen() {
return System.currentTimeMillis();
}
//==============================Test=============================================
/** 測試 */
public static void main(String[] args) {
SnowflakeIdWorker idWorker = new SnowflakeIdWorker(0, 0);
for (int i = 0; i < 1000; i++) {
long id = idWorker.nextId();
System.out.println(Long.toBinaryString(id));
System.out.println(id);
}
}
}
優點:
快(哈哈,天下武功唯快不破)。
沒有啥依賴,實作也特别簡單。
知道原理之後可以根據實際情況調整各各位段,友善靈活。
缺點:
隻能趨勢遞增。(有些也不叫缺點,網上有些如果絕對遞增,競争對手中午下單,第二天在下單即可大概判斷該公司的訂單量,危險!!!)
依賴機器時間,如果發生回撥會導緻可能生成id重複。
下面重點讨論時間回撥問題。
snowflake算法時間回撥問題思考
由于存在時間回撥問題,但是他又是那麼快和簡單,我們思考下是否可以解決呢? 零度在網上找了一圈沒有發現具體的解決方案,但是找到了一篇美團不錯的文章:Leaf——美團點評分布式ID生成系統(https://tech.meituan.com/MT_Leaf.html)
文章很不錯,可惜并沒有提到時間回撥如何具體解決。下面看看零度的一些思考:
分析時間回撥産生原因
第一:人物操作,在真實環境一般不會有那個傻逼幹這種事情,是以基本可以排除。
第二:由于有些業務等需要,機器需要同步時間伺服器(在這個過程中可能會存在時間回撥,查了下我們伺服器一般在10ms以内(2小時同步一次))。
解決方法
由于是分布在各各機器自己上面,如果要幾台集中的機器(并且不做時間同步),那麼就基本上就不存在回撥可能性了(曲線救國也是救國,哈哈),但是也的确帶來了新問題,各各結點需要通路集中機器,要保證性能,百度的uid-generator産生就是基于這種情況做的(每次取一批回來,很好的思想,性能也非常不錯)https://github.com/baidu/uid-generator。
如果到這裡你采納了,基本就沒有啥問題了,你就不需要看了,如果你還想看看零度自己的思考可以繼續往下看看(零度的思考隻是一種思考 可能也不一定好,期待你的交流。),uid-generator我還沒有細看,但是看測試報告非常不錯,後面有空的确要好好看看。
下面談談零度自己的思考,之前也大概和美團Leaf作者交流了下,的确零度的這個可以解決一部分問題,但是引入了一些其他問題和依賴。是零度的思考,期待更多的大佬給點建議。
時間問題回撥的解決方法:
當回撥時間小于15ms,就等時間追上來之後繼續生成。
當時間大于15ms時間我們通過更換workid來産生之前都沒有産生過的來解決回撥問題。
首先把workid的位數進行了調整(15位可以達到3萬多了,一般夠用了)
Snowflake算法稍微調整下位段:
sign(1bit)
固定1bit符号辨別,即生成的暢途分布式唯一id為正數。
delta seconds (38 bits)
目前時間,相對于時間基點"2017-12-21"的增量值,機關:毫秒,最多可支援約8.716年
worker id (15 bits)
機器id,最多可支援約3.28萬個節點。
sequence (10 bits)
每秒下的并發序列,10 bits,這個算法單機每秒内理論上最多可以生成1000*(2^10),也就是100W的ID,完全能滿足業務的需求。
由于服務無狀态化關系,是以一般workid也并不配置在具體配置檔案裡面,看看我這篇的思考,為什麼需要無狀态化。高可用的一些思考和了解,這裡我們選擇redis來進行中央存儲(zk、db)都是一樣的,隻要是集中式的就可以。
下面到了關鍵了:
現在我把3萬多個workid放到一個隊列中(基于redis),由于需要一個集中的地方來管理workId,每當節點啟動時候,(先在本地某個地方看看是否有 借鑒弱依賴zk 本地先儲存),如果有那麼值就作為workid,如果不存在,就在隊列中取一個當workid來使用(隊列取走了就沒了 ),當發現時間回撥太多的時候,我們就再去隊列取一個來當新的workid使用,把剛剛那個使用回撥的情況的workid存到隊列裡面(隊列我們每次都是從頭取,從尾部進行插入,這樣避免剛剛a機器使用又被b機器擷取的可能性)。
有幾個問題值得思考:
如果引入了redis為啥不用redis下發id?(檢視分布式系統唯一ID生成方案彙總會獲得答案,我們這裡僅僅是用來一緻性隊列的,能做一緻性隊列的基本都可以)。
引入redis就意味着引入其他第三方的架構,做基礎架構最好是不要引用(越簡單越好,目前還在學習提高)。
redis一緻性怎麼保證?(redis挂了怎麼辦,怎麼同步,的确值得商榷。可能會引入會引入很多新的小問題)。
總結
是以選擇類似百度的那種做法比較好,集中之後批取,零度的思考雖然思考了,但是從基礎元件來看并不是特别合适,但是也算一種思路吧。期待與大佬們的交流