在我們的業務需求中通常有需要一些唯一的ID,來記錄我們某個數據的標識:
通常我們會調研各種各樣的生成策略,根據不同的業務,採取最合適的策略,下面我會討論一下各種策略/算法,以及他們的一些優劣點。
UUID是通用唯一識別碼(Universally Unique Identifier)的縮寫,開放軟體基金會(OSF)規範定義了包括網卡MAC地址、時間戳、名字空間(Namespace)、隨機或偽隨機數、時序等元素。利用這些元素來生成UUID。
UUID是由128位二進位組成,一般轉換成十六進位,然後用String表示。在java中有個UUID類,在他的注釋中我們看見這裡有4種不同的UUID的生成策略:
UUID的優點:
UUID的缺點:
適用場景:UUID的適用場景可以為不擔心過多的空間占用,以及不需要生成有遞增趨勢的數字。在Log4j裡面他在UuidPatternConverter中加入了UUID來標識每一條日誌。
大家對於唯一標識最容易想到的就是主鍵自增,這個也是我們最常用的方法。例如我們有個訂單服務,那麼把訂單id設置為主鍵自增即可。
優點:
缺點:
適用場景:
根據上面可以總結出來,當數據量不多,並發性能不高的時候這個很適合,比如一些to B的業務,商家註冊這些,商家註冊和用戶註冊不是一個數量級的,所以可以資料庫主鍵遞增。如果對順序遞增強依賴,那麼也可以使用資料庫主鍵自增。
熟悉Redis的同學,應該知道在Redis中有兩個命令Incr,IncrBy,因為Redis是單線程的所以能保證原子性。
優點:
缺點:
適用:由於其性能比資料庫好,但是有可能會出現ID重複和不穩定,這一塊如果可以接受那麼就可以使用。也適用於到了某個時間,比如每天都刷新ID,那麼這個ID就需要重置,通過(Incr Today),每天都會從0開始加。
利用ZK的Znode數據版本如下面的代碼,每次都不獲取期望版本號也就是每次都會成功,那麼每次都會返回最新的版本號。
Zookeeper這個方案用得較少,嚴重依賴Zookeeper集群,並且性能不是很高,所以不予推薦。
這個方法在美團的Leaf中有介紹,詳情可以參考美團技術團隊的發布的技術文章:Leaf——美團點評分布式ID生成系統,這個方案是將資料庫主鍵自增進行優化。
biz_tag代表每個不同的業務,max_id代表每個業務設置的大小,step代表每個proxyServer緩存的步長。
之前我們的每個服務都訪問的是資料庫,現在不需要,每個服務直接和我們的ProxyServer做交互,減少了對資料庫的依賴。我們的每個ProxyServer回去資料庫中拿出步長的長度,比如server1拿到了1-1000,server2拿到來 1001-2000。如果用完會再次去資料庫中拿。
優點:
缺點:
適用場景:需要趨勢遞增,並且ID大小可控制的,可以使用這套方案。
當然這個方案也可以通過一些手段避免被人猜測,把ID變成是無序的,比如把我們生成的數據是一個遞增的long型,把這個Long分成幾個部分,比如可以分成幾組三位數,幾組四位數,然後在建立一個映射表,將我們的數據變成無序。
Snowflake是Twitter提出來的一個算法,其目的是生成一個64bit的整數:
上面只是一個將64bit劃分的標準,當然也不一定這麼做,可以根據不同業務的具體場景來劃分,比如下面給出一個業務場景:
這個時候我們根據上面的場景可以再次合理的劃分62bit,QPS幾年之內會發展到百萬,那麼每毫秒就是千級的請求,目前10台機器那麼每台機器承擔百級的請求,為了保證擴展,後面的循環位可以限制到1024,也就是2^10,那麼循環位10位就足夠了。
機器三地部署我們可以用3bit總共8來表示機房位置,當前的機器10台,為了保證擴展到百台那麼可以用7bit 128來表示,時間位依然是41bit,那麼還剩下64-10-3-7-41-1 = 2bit,還剩下2bit可以用來進行擴展。
適用場景:當我們需要無序不能被猜測的ID,並且需要一定高性能,且需要long型,那麼就可以使用我們雪花算法。比如常見的訂單ID,用雪花算法別人就發猜測你每天的訂單量是多少。
7.1一個簡單的Snowflake
public class IdWorker{ private long workerId; private long datacenterId; private long sequence = 0; /** * 2018/9/29日,從此時開始計算,可以用到2089年 */ private long twepoch = 1538211907857L; private long workerIdBits = 5L; private long datacenterIdBits = 5L; private long sequenceBits = 12L; private long workerIdShift = sequenceBits; private long datacenterIdShift=sequenceBits + workerIdBits; private long timestampLeftShift = sequenceBits + workerIdBits + datacenterIdBits; // 得到0000000000000000000000000000000000000000000000000000111111111111 private long sequenceMask = -1L ^ (-1L << sequenceBits); private long lastTimestamp = -1L; public IdWorker(long workerId, long datacenterId){ this.workerId = workerId; this.datacenterId = datacenterId; } public synchronized long nextId() { long timestamp = timeGen(); //時間回撥,拋出異常 if (timestamp < lastTimestamp) { System.err.printf("clock is moving backwards. Rejecting requests until %d.", lastTimestamp); throw new RuntimeException(String.format("Clock moved backwards. Refusing to generate id for %d milliseconds", lastTimestamp - timestamp)); } if (lastTimestamp == timestamp) { sequence = (sequence + 1) & sequenceMask; if (sequence == 0) { timestamp = tilNextMillis(lastTimestamp); } } else { sequence = 0; } lastTimestamp = timestamp; return ((timestamp - twepoch) << timestampLeftShift) | (datacenterId << datacenterIdShift) | (workerId << workerIdShift) | sequence; } /** * 當前ms已經滿了 * @param lastTimestamp * @return */ private long tilNextMillis(long lastTimestamp) { long timestamp = timeGen(); while (timestamp <= lastTimestamp) { timestamp = timeGen(); } return timestamp; } private long timeGen(){ return System.currentTimeMillis(); } public static void main(String[] args) { IdWorker worker = new IdWorker(1,1); for (int i = 0; i < 30; i++) { System.out.println(worker.nextId()); } }}
上面定義了雪花算法的實現,在nextId中是我們生成雪花算法的關鍵。
7.2防止時鐘回撥
因為機器的原因會發生時間回撥,我們的雪花算法是強依賴我們的時間的,如果時間發生回撥,有可能會生成重複的ID,在我們上面的nextId中我們用當前時間和上一次的時間進行判斷,如果當前時間小於上一次的時間那麼肯定是發生了回撥,普通的算法會直接拋出異常,這裡我們可以對其進行優化,一般分為兩個情況:
通過上面的幾種策略可以比較的防護我們的時鐘回撥,防止出現回撥之後大量的異常出現。下面是修改之後的代碼,這裡修改了時鐘回撥的邏輯:
本文分析了各種生產分布式ID的算法的原理,以及他們的適用場景,相信你已經能為自己的項目選擇好一個合適的分布式ID生成策略了。沒有一個策略是完美的,只有適合自己的才是最好的。