[04][02][04] Redis 實戰篇

Redis 客戶端

客戶端通信原理

客戶端和服務器通過 TCP 連接來進行數據交互,服務器默認的端口號為 6379
客戶端和服務器發送的命令或數據一律以\r\n(CRLF 回車+換行)結尾

如果使用 wireshark 對 jedis 抓包
環境:Jedis
連接到虛擬機 202,運行 main,對 VMnet8 抓包
過濾條件:ip.dst==192.168.8.202 and tcp.port in {6379}
set qingshan 抓包:


可以看到實際發出的數據包是:

*3\r\n$3\r\nSET\r\n$8\r\nqingshan\r\n$4\r\n2673\r\n

get qingshan 抓包:


*2\r\n$3\r\nGET\r\n$8\r\nqingshan\r\n

客戶端跟 Redis 之間使用一種特殊的編碼格式(在 AOF 文件里面我們看到了),叫做 Redis Serialization Protocol(Redis 序列化協議).特點:容易實現,解析快,可讀性強.客戶端發給服務端的消息需要經過編碼,服務端收到之后會按約定進行解碼,反之亦然

基于此,我們可以自己實現一個 Redis 客戶端

參考:myclient.MyClient.java

  • 建立 Socket 連接
  • OutputStream 寫入數據(發送到服務端)
  • InputStream 讀取數據(從服務端接口)

基于這種協議,我們可以用 Java 實現所有的 Redis 操作命令.當然,我們不需要這么做,因為已經有很多比較成熟的 Java 客戶端,實現了完整的功能和高級特性,并且提供了良好的性能

https://redis.io/clients#java

官網推薦的 Java 客戶端有 3 個 Jedis,Redisson 和 Luttuce

客戶端 描述
Jedis Ablazinglysmallandsaneredisjavaclient
lettuce AdvancedRedisclientforthread-safesync,async,andreactiveusage.SupportsCluster,Sentinel,Pipelining,andcodecs
Redisson distributedandscalableJavadatastructuresontopofRedisserver

Spring 連接 Redis 用的是什么?RedisConnectionFactory 接口支持多種實現,例如:JedisConnectionFactory,JredisConnectionFactory,LettuceConnectionFactory,SrpConnectionFactory

Jedis

https://github.com/xetorthio/jedis

特點

Jedis 是我們最熟悉和最常用的客戶端.輕量,簡潔,便于集成和改造
BasicTest.java

public static void main(String[] args){
    Jedis jedis = new Jedis("127.0.0.1", 6379);
    jedis.set("qingshan", "2673");
    System.out.println(jedis.get("qingshan"));
    jedis.close();
}

Jedis 多個線程使用一個連接的時候線程不安全.可以使用連接池,為每個請求創建不同的連接,基于 Apachecommonpool 實現.跟數據庫一樣,可以設置最大連接數等參數.Jedis 中有多種連接池的子類


例如:ShardingTest.java

public static void main(String[] args){
   JedisPool pool = new JedisPool(ip, port);
   Jedis jedis = jedisPool.getResource();
}

Jedis 有 4 種工作模式:單節點,分片,哨兵,集群
3 種請求模式:Client,Pipeline,事務.Client 模式就是客戶端發送一個命令,阻塞等待服務端執行,然后讀取返回結果.Pipeline 模式是一次性發送多個命令,最后一次取回所有的返回結果,這種模式通過減少網絡的往返時間和 io 讀寫次數,大幅度提高通信性能.第三種是事務模式.Transaction 模式即開啟 Redis 的事務管理,事務模式開啟后,所有的命令(除了 exec,discard,multi 和 watch)到達服務端以后不會立即執行,會進入一個等待隊列

Sentinel 獲取連接原理

問題:Jedis 連接 Sentinel 的時候,我們配置的是全部哨兵的地址.Sentinel 是如何返回可用的 master 地址的呢?
在構造方法中:

pool = new JedisSentinelPool(masterName, sentinels);

調用了:

HostAndPort master = initSentinels(sentinels, masterName);

查看:

private HostAndPort initSentinels(Set<String> sentinels, final String masterName){
    HostAndPort master = null;
    boolean sentinelAvailable = false;
    log.info("Trying to find master from available Sentinels...");

    // 有多個 sentinels,遍歷這些個 sentinels
    for (String sentinel : sentinels){
        // host:port 表示的 sentinel 地址轉化為一個 HostAndPort 對象
        final HostAndPort hap = HostAndPort.parseString(sentinel);

        log.fine("Connecting to Sentinel " + hap);

        Jedis jedis = null;
        try {
            // 連接到 sentinel
            jedis = new Jedis(hap.getHost(), hap.getPort());
            // 根據 masterName 得到 master 的地址,返回一個 list,host= list[0], port =// list[1]
            List<String> masterAddr = jedis.sentinelGetMasterAddrByName(masterName);

            // connected to sentinel...
            sentinelAvailable = true;

            if (masterAddr == null || masterAddr.size()!= 2){
                log.warning("Can not get master addr, master name: " + masterName + ". Sentinel: " + hap + ".");
                continue;
            }
            // 如果在任何一個 sentinel 中找到了 master,不再遍歷 sentinels
            master = toHostAndPort(masterAddr);
            log.fine("Found Redis master at " + master);
            break;
        } catch (JedisException e){
            // resolves #1036, it should handle JedisException there's another chance
            // of raising JedisDataException
            log.warning("Cannot get master address from sentinel running @ " + hap + ". Reason: " + e + ". Trying next one.");
        } finally {
            if (jedis != null){
                jedis.close();
            }
        }
    }

    // 到這里,如果 master 為 null,則說明有兩種情況,一種是所有的 sentinels 節點都 down 掉了,一種是 master 節點沒有被存活的 sentinels 監控到
    if (master == null){
        if (sentinelAvailable){
            // can connect to sentinel, but master name seems to not
            // monitored
            throw new JedisException("Can connect to sentinel, but " + masterName + " seems to be not monitored...");
        } else {
            throw new JedisConnectionException("All sentinels down, cannot determine where is " + masterName + " master is running...");
        }
    }

    // 如果走到這里,說明找到了 master 的地址
    log.info("Redis master running at " + master + ", starting Sentinel listeners...");

    // 啟動對每個 sentinels 的監聽為每個 sentinel 都啟動了一個監聽者 MasterListener
    // MasterListener 本身是一個線 程,它會去訂閱 sentinel 上關于 master 節點地址改變的消息
    for (String sentinel : sentinels){
        final HostAndPort hap = HostAndPort.parseString(sentinel);
        MasterListener masterListener = new MasterListener(masterName, hap.getHost(), hap.getPort());

        // whether MasterListener threads are alive or not, process can be stopped
        masterListener.setDaemon(true);
        masterListeners.add(masterListener);
        masterListener.start();
    }
    return master;
}

Cluster 獲取連接原理

問題:使用 Jedis 連接 Cluster 的時候,我們只需要連接到任意一個或者多個 redis group 中的實例地址,那我們是怎么獲取到需要操作的 Redis Master 實例的?
關鍵問題:在于如何存儲 slot 和 Redis 連接池的關系

  • 程序啟動初始化集群環境,讀取配置文件中的節點配置,無論是主從,無論多少個,只拿第一個,獲取 redis 連接實例(后面有個 break)
// redis.clients.jedis.JedisClusterConnectionHandler#initializeSlotsCache
private void initializeSlotsCache(Set<HostAndPort> startNodes, GenericObjectPoolConfig poolConfig, String password){
    for (HostAndPort hostAndPort : startNodes){
        // 獲取一個 Jedis 實例
        Jedis jedis = new Jedis(hostAndPort.getHost(), hostAndPort.getPort());

        if (password != null){
            jedis.auth(password);
        }

        try {
            // 獲取 Redis 節點和 Slot 虛擬槽
            cache.discoverClusterNodesAndSlots(jedis);
            // 直接跳出循環
            break;
        } catch (JedisConnectionException e){
            // try next nodes
        } finally {
            if (jedis != null){
                jedis.close();
            }
        }
    }
}
  • 用獲取的 redis 連接實例執行 clusterSlots()方法,實際執行 redis 服務端 clusterslots 命令,獲取虛擬槽信息
    該集合的基本信息為[long,long,List,List],第一,二個元素是該節點負責槽點的起始位置,第三個元素是主節點信息,第四個元素為主節點對應的從節點信息.該 list 的基本信息為[string,int,string],第一個為 host 信息,第二個為 port 信息,第三個為唯一 id


這里 7296 是 7291 的 slave 節點

  • 獲取有關節點的槽點信息后,調用 getAssignedSlotArray(slotinfo)來獲取所有的槽點值
  • 再獲取主節點的地址信息,調用 generateHostAndPort(hostInfo)方法,生成一個 ostAndPort 對象
  • 再根據節點地址信息來設置節點對應的 JedisPool,即設置 Map<StringJedisPool> nodes 的值

接下來判斷若此時節點信息為主節點信息時,則調用 assignSlotsToNodes 方法,設置每個槽點值對應的連接池,即設置 Map<Integer,JedisPool> slots 的值

// redis.clients.jedis.JedisClusterInfoCache#discoverClusterNodesAndSlots
public void discoverClusterNodesAndSlots(Jedis jedis){
    w.lock();

    try {
        reset();
        // 獲取節點集合
        List<Object> slots = jedis.clusterSlots();
        // 遍歷 3 個 master 節點
        for (Object slotInfoObj : slots){
            // slotInfo 槽開始,槽結束,主,從
            // {[0,5460,7291,7294],[5461,10922,7292,7295],[10923,16383,7293,7296]}
            List<Object> slotInfo = (List<Object>)slotInfoObj;

            // 如果<=2,代表沒有分配 slot
            if (slotInfo.size()<= MASTER_NODE_INDEX){
                continue;
            }

            // 獲取分配到當前 master 節點的數據槽,例如 7291 節點的{0,1,2,3……5460}
            List<Integer> slotNums = getAssignedSlotArray(slotInfo);

            // hostInfos
            int size = slotInfo.size();
            // size 是 4,槽最小最大,主,從
            // 第 3 位和第 4 位是主從端口的信息

            for (int i = MASTER_NODE_INDEX; i < size; i++){
                List<Object> hostInfos = (List<Object>)slotInfo.get(i);
                if (hostInfos.size()<= 0){
                    continue;
                }
                // 根據 IP 端口生成 HostAndPort 實例
                HostAndPort targetNode = generateHostAndPort(hostInfos);
                // 據 HostAndPort 解析出 ip:port 的 key 值,再根據 key 從緩存中查詢對應的 jedisPool 實例。如果沒有 jedisPool 實例,
                // 就創建 JedisPool 實例,最后放入緩存中。nodeKey 和 nodePool 的關系
                setupNodeIfNotExist(targetNode);

                // 把 slot 和 jedisPool 緩存起來(16384 個),key 是 slot 下標,value 是連接池
                if (i == MASTER_NODE_INDEX){
                    assignSlotsToNode(slotNums, targetNode);
                }
            }
        }
    } finally {
        w.unlock();
    }
}

從集群環境存取值:

  • 把 key 作為參數,執行 CRC16 算法,獲取 key 對應的 slot 值
  • 通過該 slot 值,去 slots 的 map 集合中獲取 jedisPool 實例
  • 通過 jedisPool 實例獲取 jedis 實例,最終完成 redis 數據存取工作

pipeline

上節課我們看到 set 2 萬個 key 用了好幾分鐘,這個速度太慢了,完全沒有把 Redis 10 萬的 QPS 利用起來.但是單個命令的執行到底慢在哪里?

慢在哪里?

Redis 使用的是客戶端/服務器(C/S)模型和請求/響應協議的 TCP 服務器.這意味著通常情況下一個請求會遵循以下步驟:

  • 客戶端向服務端發送一個查詢請求,并監聽 Socket 返回,通常是以阻塞模式,等待服務端響應
  • 服務端處理命令,并將結果返回給客戶端

Redis 客戶端與 Redis 服務器之間使用 TCP 協議進行連接,一個客戶端可以通過一個 socket 連接發起多個請求命令.每個請求命令發出后 client 通常會阻塞并等待 redis 服務器處理,redis 處理完請求命令后會將結果通過響應報文返回給 client,因此當執行多條命令的時候都需要等待上一條命令執行完畢才能執行.執行過程如圖:


Redis 本身提供了一些批量操作命令,比如 mget,mset,可以減少通信的時間,但是大部分命令是不支持 multi 操作的,例如 hash 就沒有
由于通信會有網絡延遲,假如 client 和 server 之間的包傳輸時間需要 10 毫秒,一次交互就是 20 毫秒(RTT:RoundTripTime).這樣的話,client1 秒鐘也只能也只能發送 50 個命令.這顯然沒有充分利用 Redis 的處理能力.另外一個,Redis 服務端執行 I/O 的次數過多

Pipeline 管道

https://redis.io/topics/pipelining

那我們能不能像數據庫的 batch 操作一樣,把一組命令組裝在一起發送給 Redis 服務端執行,然后一次性獲得返回結果呢?這個就是 Pipeline 的作用.Pipeline 通過一個隊列把所有的命令緩存起來,然后把多個命令在一次連接中發送給服務器


先來看一下效果(先 flushall):
PipelineSet.java,PipelineGet.java
要實現 Pipeline,既要服務端的支持,也要客戶端的支持.對于服務端來說,需要能夠處理客戶端通過一個 TCP 連接發來的多個命令,并且逐個地執行命令一起返回
對于客戶端來說,要把多個命令緩存起來,達到一定的條件就發送出去,最后才處理 Redis 的應答(這里也要注意對客戶端內存的消耗)

jedis-pipeline 的 client-buffer 限制:8192bytes,客戶端堆積的命令超過 8192bytes 時,會發送給服務端
源碼:redis.clients.util.RedisOutputStream.java

public RedisOutputStream(final OutputStream out){
    this(out, 8192);
}

pipeline 對于命令條數沒有限制,但是命令可能會受限于 TCP 包大小
如果 Jedis 發送了一組命令,而發送請求還沒有結束,Redis 響應的結果會放在接收緩沖區.如果接收緩沖區滿了,jedis 會通知 rediswin=0,此時 redis 不會再發送結果給 jedis 端,轉而把響應結果保存在 Redis 服務端的輸出緩沖區中

輸出緩沖區的配置:redis.conf
client-output-buffer-limit<class><hardlimit><softlimit><softseconds>

client-output-buffer-limit normal 0 0 0
client-output-buffer-limit replica 256mb 64mb 60
client-output-buffer-limit pubsub 32mb 8mb 60
配置 作用
class 客戶端類型,分為三種.a)normal:普通客戶端;b)slave:slave 客戶端,用于復制;c)pubsub:發布訂閱客戶端
hardlimit 如果客戶端使用的輸出緩沖區大于<hardlimit>,客戶端會被立即關閉,0 代表不限制
softlimitsoftseconds 如果客戶端使用的輸出緩沖區超過了<softlimit>并且持續了<softlimit>秒,客戶端會被立即關閉

每個客戶端使用的輸出緩沖區的大小可以用 clientlist 命令查看

redis> client list
id=5 addr=192.168.8.1:10859 fd=8 name= age=5 idle=0 flags=N db=0
sub=0 psub=0 multi=-1 qbuf=5 qbuf-free=32763 obl=16380 oll=227
omem=4654408 events=rw cmd=set
  • obl:輸出緩沖區的長度(字節為單位,0 表示沒有分配輸出緩沖區)
  • oll:輸出列表包含的對象數量(當輸出緩沖區沒有剩余空間時,命令回復會以字符串對象的形式被入隊到這個隊列里)
  • omem:輸出緩沖區和輸出列表占用的內存總量

使用場景

Pipeline 適用于什么場景呢?
如果某些操作需要馬上得到 Redis 操作是否成功的結果,這種場景就不適合
有些場景,例如批量寫入數據,對于結果的實時性和成功性要求不高,就可以用 Pipeline

Jedis 實現分布式鎖

原文地址:https://redis.io/topics/distlock
中文地址:http://redis.cn/topics/distlock.html

分布式鎖的基本特性或者要求:

  • 互斥性:只有一個客戶端能夠持有鎖
  • 不會產生死鎖:即使持有鎖的客戶端崩潰,也能保證后續其他客戶端可以獲取鎖
  • 只有持有這把鎖的客戶端才能解鎖

distlock.DistLock.java

public static boolean tryGetDistributedLock(Jedis jedis, String lockKey, String requestId, int expireTime){
    // set 支持多個參數 NX(not exist)XX(exist)EX(seconds)PX(million seconds)
    String result = jedis.set(lockKey, requestId, SET_IF_NOT_EXIST, SET_WITH_EXPIRE_TIME, expireTime);

    if (LOCK_SUCCESS.equals(result)){
        return true;
    }
    return false;
}

參數解讀:

  • lockKey 是 Redis key 的名稱,也就是誰添加成功這個 key 代表誰獲取鎖成功
  • requestId 是客戶端的 ID(設置成 value),如果我們要保證只有加鎖的客戶端才能釋放鎖,就必須獲得客戶端的 ID(保證第 3 點)
  • SET_IF_NOT_EXIST 是我們的命令里面加上 NX(保證第 1 點)
  • SET_WITH_EXPIRE_TIME,PX 代表以毫秒為單位設置 key 的過期時間(保證第 2 點).expireTime 是自動釋放鎖的時間,比如 5000 代表 5 秒

釋放鎖,直接刪除 key 來釋放鎖可以嗎?就像這樣:

public static void wrongReleaseLock1(Jedis jedis, String lockKey){
    jedis.del(lockKey);
}

沒有對客戶端 requestId 進行判斷,可能會釋放其他客戶端持有的鎖
先判斷后刪除呢?

public static void wrongReleaseLock2(Jedis jedis, String lockKey, String requestId){
    // 判斷加鎖與解鎖是不是同一個客戶端
    if (requestId.equals(jedis.get(lockKey))){
        // 若在此時,這把鎖突然不是這個客戶端的,則會誤解鎖
        jedis.del(lockKey);
    }
}

如果在釋放鎖的時候,這把鎖已經不屬于這個客戶端(例如已經過期,并且被別的客戶端獲取鎖成功了),那就會出現釋放了其他客戶端的鎖的情況
所以我們把判斷客戶端是否相等和刪除 key 的操作放在 Lua 腳本里面執行

public static boolean releaseDistributedLock(Jedis jedis, String lockKey, String requestId){
    String script = "if redis.call('get', KEYS[1])== ARGV[1] then return redis.call('del', KEYS[1])else return 0 end";
    Object result = jedis.eval(script, Collections.singletonList(lockKey), Collections.singletonList(requestId));

    if (RELEASE_SUCCESS.equals(result)){
        return true;
    }return false;
}

這個是 Jedis 里面分布式鎖的實現

我們了解了一下 Jedis 的使用和實現,在 gupao-jedis 里面還有很多其他的案例,大家可以再去學習一下

Luttece

https://lettuce.io/

特點

與 Jedis 相比,Lettuce 則完全克服了其線程不安全的缺點:Lettuce 是一個可伸縮的線程安全的 Redis 客戶端,支持同步,異步和響應式模式(Reactive).多個線程可以共享一個連接實例,而不必擔心多線程并發問題

同步調用:com.gupaoedu.lettuce.LettuceSyncTest
異步的結果使用 RedisFuture 包裝,提供了大量回調的方法
異步調用:com.gupaoedu.lettuce.LettuceASyncTest

它基于 Netty 框架構建,支持 Redis 的高級功能,如 Pipeline,發布訂閱,事務,Sentinel,集群,支持連接池
Lettuce 是 SpringBoot2.x 默認的客戶端,替換了 Jedis.集成之后我們不需要單獨使用它,直接調用 Spring 的 RedisTemplate 操作,連接和創建和關閉也不需要我們操心

<dependency>
    <groupId>org.springframework.boot</groupId>
    <artifactId>spring-boot-starter-data-redis</artifactId>
</dependency>

Redisson

https://redisson.org/https://github.com/redisson/redisson/wiki/目錄

本質

Redisson 是一個在 Redis 的基礎上實現的 Java 駐內存數據網格(In-MemoryDataGrid),提供了分布式和可擴展的 Java 數據結構

特點

基于 Netty 實現,采用非阻塞 IO,性能高
支持異步請求
支持連接池,pipeline,LUAScripting,RedisSentinel,RedisCluster
不支持事務,官方建議以 LUAScripting 代替事務
主從,哨兵,集群都支持.Spring 也可以配置和注入 RedissonClient

實現分布式鎖

在 Redisson 里面提供了更加簡單的分布式鎖的實現


加鎖:

public static void main(String[] args)throws InterruptedException {
    RLock rLock=redissonClient.getLock("updateAccount");
    // 最多等待 100 秒、上鎖 10s 以后自動解鎖
    if(rLock.tryLock(100,10, TimeUnit.SECONDS)){
        System.out.println("獲取鎖成功");
    }
    // do something

    rLock.unlock();
}

在獲得 RLock 之后,只需要一個 tryLock 方法,里面有 3 個參數:

  • watiTime:獲取鎖的最大等待時間,超過這個時間不再嘗試獲取鎖
  • leaseTime:如果沒有調用 unlock,超過了這個時間會自動釋放鎖
  • TimeUnit:釋放時間的單位

Redisson 的分布式鎖是怎么實現的呢?
在加鎖的時候,在 Redis 寫入了一個 HASH,key 是鎖名稱,field 是線程名稱,value 是 1(表示鎖的重入次數)


源碼:tryLock()——tryAcquire()——tryAcquireAsync()——tryLockInnerAsync()

最終也是調用了一段 Lua 腳本.里面有一個參數,兩個參數的值

占位 填充 含義 實際值
KEYS[1] getName() 鎖的名稱(key) updateAccount
ARGV[1] internalLockLeaseTime 鎖釋放時間(毫秒) 10000
ARGV[2] getLockName(threadId) 線程名稱 b60a9c8c-92f8-4bfe-b0e7-308967346336:1
// KEYS[1] 鎖名稱 updateAccount
// ARGV[1] key 過期時間 10000ms
// ARGV[2] 線程名稱
// 鎖名稱不存在
if (redis.call('exists', KEYS[1])== 0)then
    // 創建一個 hash,key=鎖名稱,field=線程名,value=1
    redis.call('hset', KEYS[1], ARGV[2], 1);
    // 設置 hash 的過期時間
    redis.call('pexpire', KEYS[1], ARGV[1]);
    return nil;
end;

// 鎖名稱存在,判斷是否當前線程持有的鎖
if (redis.call('hexists', KEYS[1], ARGV[2])== 1)then
    // 如果是,value+1,代表重入次數+1
    redis.call('hincrby', KEYS[1], ARGV[2], 1);
    // 重新獲得鎖,需要重新設置 Key 的過期時間
    redis.call('pexpire', KEYS[1], ARGV[1]);

    return nil;
end;

// 鎖存在,但是不是當前線程持有,返回過期時間(毫秒)
return redis.call('pttl', KEYS[1]);

釋放鎖,源碼:unlock——unlockInnerAsync

占位 填充 含義 實際值
KEYS[1] getName() 鎖名稱 updateAccount
KEYS[2] getChannelName() 頻道名稱 redisson_lock__channel:{updateAccount}
ARGV[1] LockPubSub.unlockMessage 解鎖時的消息 0
ARGV[2] internalLockLeaseTime 釋放鎖的時間 10000
ARGV[3] getLockName(threadId) 線程名稱 b60a9c8c-92f8-4bfe-b0e7-308967346336:1
// KEYS[1] 鎖的名稱 updateAccount
// KEYS[2] 頻道名稱 redisson_lock__channel:{updateAccount}
// ARGV[1] 釋放鎖的消息 0
// ARGV[2] 鎖釋放時間 10000
// ARGV[3] 線程名稱
// 鎖不存在(過期或者已經釋放了)
if (redis.call('exists', KEYS[1])== 0)then
    // 發布鎖已經釋放的消息
    redis.call('publish', KEYS[2], ARGV[1]);
    return 1;
end;

// 鎖存在,但是不是當前線程加的鎖
if (redis.call('hexists', KEYS[1], ARGV[3])== 0)then
    return nil;
end;

// 鎖存在,是當前線程加的鎖
// 重入次數-1
local counter = redis.call('hincrby', KEYS[1], ARGV[3], -1);

// -1 后大于 0,說明這個線程持有這把鎖還有其他的任務需要執行
if (counter > 0)then
    // 重新設置鎖的過期時間
    redis.call('pexpire', KEYS[1], ARGV[2]);
    return 0;
else
    // -1 之后等于 0,現在可以刪除鎖了
    redis.call('del', KEYS[1]);
    // 刪除之后發布釋放鎖的消息
    redis.call('publish', KEYS[2], ARGV[1]);
    return 1;
end;

// 其他情況返回 nil
return nil;

這個是 Redisson 里面分布式鎖的實現,我們在調用的時候非常簡單
Redisson 跟 Jedis 定位不同,它不是一個單純的 Redis 客戶端,而是基于 Redis 實現的分布式的服務,如果有需要用到一些分布式的數據結構,比如我們還可以基于 Redisson 的分布式隊列實現分布式事務,就可以引入 Redisson 的依賴實現

數據一致性

緩存使用場景

針對讀多寫少的高并發場景,我們可以使用緩存來提升查詢速度
當我們使用 Redis 作為緩存的時候,一般流程是這樣的:

  • 如果數據在 Redis 存在,應用就可以直接從 Redis 拿到數據,不用訪問數據庫


  • 如果 Redis 里面沒有,先到數據庫查詢,然后寫入到 Redis,再返回給應用


一致性問題的定義

因為這些數據是很少修改的,所以在絕大部分的情況下可以命中緩存.但是,一旦被緩存的數據發生變化的時候,我們既要操作數據庫的數據,也要操作 Redis 的數據,所以問題來了.現在我們有兩種選擇:

  • 先操作 Redis 的數據再操作數據庫的數據
  • 先操作數據庫的數據再操作 Redis 的數據

到底選哪一種?
首先需要明確的是,不管選擇哪一種方案,我們肯定是希望兩個操作要么都成功,要么都一個都不成功.不然就會發生 Redis 跟數據庫的數據不一致的問題
但是,Redis 的數據和數據庫的數據是不可能通過事務達到統一的,我們只能根據相應的場景和所需要付出的代價來采取一些措施降低數據不一致的問題出現的概率,在數據一致性和性能之間取得一個權衡
對于數據庫的實時性一致性要求不是特別高的場合,比如 T+1 的報表,可以采用定時任務查詢數據庫數據同步到 Redis 的方案
由于我們是以數據庫的數據為準的,所以給緩存設置一個過期時間,是保證最終一致性的解決方案

方案選擇

Redis:刪除還是更新?

這里我們先要補充一點,當存儲的數據發生變化,Redis 的數據也要更新的時候,我們有兩種方案,一種就是直接更新,調用 set;還有一種是直接刪除緩存,讓應用在下次查詢的時候重新寫入
這兩種方案怎么選擇呢?這里我們主要考慮更新緩存的代價
更新緩存之前,是不是要經過其他表的查詢,接口調用,計算才能得到最新的數據,而不是直接從數據庫拿到的值.如果是的話,建議直接刪除緩存,這種方案更加簡單,而且避免了數據庫的數據和緩存不一致的情況.在一般情況下,我們也推薦使用刪除的方案

這一點明確之后,現在我們就剩一個問題:

  • 到底是先更新數據庫,再刪除緩存
  • 還是先刪除緩存,再更新數據庫

我們先看第一種方案

先更新數據庫,再刪除緩存

正常情況:
更新數據庫,成功
刪除緩存,成功

異常情況:

  • 更新數據庫失敗,程序捕獲異常,不會走到下一步,所以數據不會出現不一致
  • 更新數據庫成功,刪除緩存失敗.數據庫是新數據,緩存是舊數據,發生了不一致的情況

這種問題怎么解決呢?我們可以提供一個重試的機制
比如:如果刪除緩存失敗,我們捕獲這個異常,把需要刪除的 key 發送到消息隊列.讓后自己創建一個消費者消費,嘗試再次刪除這個 key
這種方式有個缺點,會對業務代碼造成入侵

所以我們又有了第二種方案(異步更新緩存):
因為更新數據庫時會往 binlog 寫入日志,所以我們可以通過一個服務來監聽 binlog 的變化(比如阿里的 canal),然后在客戶端完成刪除 key 的操作.如果刪除失敗的話,再發送到消息隊列
總之,對于后刪除緩存失敗的情況,我們的做法是不斷地重試刪除,直到成功
無論是重試還是異步刪除,都是最終一致性的思想

先刪除緩存,再更新數據庫

正常情況:
刪除緩存,成功
更新數據庫,成功

異常情況:

  • 刪除緩存,程序捕獲異常,不會走到下一步,所以數據不會出現不一致
  • 刪除緩存成功,更新數據庫失敗.因為以數據庫的數據為準,所以不存在數據不一致的情況

看起來好像沒問題,但是如果有程序并發操作的情況下:

  • 線程 A 需要更新數據,首先刪除了 Redis 緩存
  • 線程 B 查詢數據,發現緩存不存在,到數據庫查詢舊值,寫入 Redis,返回
  • 線程 A 更新了數據庫

這個時候,Redis 是舊的值,數據庫是新的值,發生了數據不一致的情況

那問題就變成了:能不能讓對同一條數據的訪問串行化呢?代碼肯定保證不了,因為有多個線程,即使做了任務隊列也可能有多個服務實例.數據庫也保證不了,因為會有多個數據庫的連接.只有一個數據庫只提供一個連接的情況下,才能保證讀寫的操作是串行的,或者我們把所有的讀寫請求放到同一個內存隊列當中,但是這種情況吞吐量太低了

所以我們有一種延時雙刪的策略,在寫入數據之后,再刪除一次緩存
A 線程:

  • 刪除緩存
  • 更新數據庫
  • 休眠 500ms(這個時間,依據讀取數據的耗時而定)
  • 再次刪除緩存

偽代碼:

public void write(String key,Object data){
    redis.delKey(key);
    db.updateData(data);
    Thread.sleep(500);
    redis.delKey(key);
}

高并發問題

在 Redis 存儲的所有數據中,有一部分是被頻繁訪問的.有兩種情況可能會導致熱點問題的產生,一個是用戶集中訪問的數據,比如搶購的商品,明星結婚和明星出軌的微博.還有一種就是在數據進行分片的情況下,負載不均衡,超過了單個服務器的承受能力.熱點問題可能引起緩存服務的不可用,最終造成壓力堆積到數據庫
出于存儲和流量優化的角度,我們必須要找到這些熱點數據

熱點數據發現

除了自動的緩存淘汰機制之外,怎么找出那些訪問頻率高的 key 呢?或者說,我們可以在哪里記錄 key 被訪問的情況呢?

客戶端

第一個當然是在客戶端了,比如我們可不可以在所有調用了 get,set 方法的地方,加上 key 的計數.但是這樣的話,每一個地方都要修改,重復的代碼也多.如果我們用的是 Jedis 的客戶端,我們可以在 Jedis 的 Connection 類的 sendCommand()里面,用一個 HashMap 進行 key 的計數

但是這種方式有幾個問題:

  • 不知道要存多少個 key,可能會發生內存泄露的問題
  • 會對客戶端的代碼造成入侵
  • 只能統計當前客戶端的熱點 key

代理層

第二種方式就是在代理端實現,比如 TwemProxy 或者 Codis,但是不是所有的項目都使用了代理的架構

服務端

第三種就是在服務端統計,Redis 有一個 monitor 的命令,可以監控到所有 Redis 執行的命令

代碼:

jedis.monitor(new JedisMonitor(){
    @Override
    public void onCommand(String command){
        System.out.println("#monitor: " + command);
    }
});

Facebook 的開源項目 redis-faina(https://github.com/facebookarchive/redis-faina.git)就是基于這個原理實現的.它是一個 python 腳本,可以分析 monitor 的數據

redis-cli -p 6379 monitor | head -n 100000 | ./redis-faina.py

這種方法也會有兩個問題:

  • monitor 命令在高并發的場景下,會影響性能,所以不適合長時間使用
  • 只能統計一個 Redis 節點的熱點 key

機器層面

還有一種方法就是機器層面的,通過對 TCP 協議進行抓包,也有一些開源的方案,比如 ELK 的 packetbeat 插件
當我們發現了熱點 key 之后,我們來看下熱點數據在高并發的場景下可能會出現的問題,以及怎么去解決

緩存雪崩

什么是緩存雪崩

緩存雪崩就是 Redis 的大量熱點數據同時過期(失效),因為設置了相同的過期時間,剛好這個時候 Redis 請求的并發量又很大,就會導致所有的請求落到數據庫

緩存雪崩的解決方案

  • 加互斥鎖或者使用隊列,針對同一個 key 只允許一個線程到數據庫查詢
  • 緩存定時預先更新,避免同時失效
  • 通過加隨機數,使 key 在不同的時間過期
  • 緩存永不過期

緩存穿透

緩存穿透何時發生

我們已經知道了 Redis 使用的場景了.在緩存存在和緩存不存在的情況下的什么情況我們都了解了


還有一種情況,數據在數據庫和 Redis 里面都不存在,可能是一次條件錯誤的查詢.在這種情況下,因為數據庫值不存在,所以肯定不會寫入 Redis,那么下一次查詢相同的 key 的時候,肯定還是會再到數據庫查一次.那么這種循環查詢數據庫中不存在的值,并且每次使用的是相同的 key 的情況,我們有沒有什么辦法避免應用到數據庫查詢呢?

  • 緩存空數據
  • 緩存特殊字符串,比如&&

我們可以在數據庫緩存一個空字符串,或者緩存一個特殊的字符串,那么在應用里面拿到這個特殊字符串的時候,就知道數據庫沒有值了,也沒有必要再到數據庫查詢了
但是這里需要設置一個過期時間,不然的話數據庫已經新增了這一條記錄,應用也還是拿不到值.

這個是應用重復查詢同一個不存在的值的情況,如果應用每一次查詢的不存在的值是不一樣的呢?即使你每次都緩存特殊字符串也沒用,因為它的值不一樣,比如我們的用戶系統登錄的場景,如果是惡意的請求,它每次都生成了一個符合 ID 規則的賬號,但是這個賬號在我們的數據庫是不存在的,那 Redis 就完全失去了作用
這種因為每次查詢的值都不存在導致的 Redis 失效的情況,我們就把它叫做緩存穿透.這個問題我們應該怎么去解決呢?

經典面試題

其實它也是一個通用的問題,關鍵就在于我們怎么知道請求的 key 在我們的數據庫里面是否存在,如果數據量特別大的話,我們怎么去快速判斷
這也是一個非常經典的面試題:
如何在海量元素中(例如10億無序,不定長,不重復)快速判斷一個元素是否存在?

如果是緩存穿透的這個問題,我們要避免到數據庫查詢不存的數據,肯定要把這 10 億放在別的地方.這些數據在 Redis 里面也是沒有的,為了加快檢索速度,我們要把數據放到內存里面來判斷,問題來了:
如果我們直接把這些元素的值放到基本的數據結構(List,Map,Tree)里面,比如一個元素 1 字節的字段,10 億的數據大概需要 900G 的內存空間,這個對于普通的服務器來說是承受不了的
所以,我們存儲這幾十億個元素,不能直接存值,我們應該找到一種最簡單的最節省空間的數據結構,用來標記這個元素有沒有出現
這個東西我們就把它叫做位圖,他是一個有序的數組,只有兩個值,0和1.0代表不存在,1代表存在


那我們怎么用這個數組里面的有序的位置來標記這10億個元素是否存在呢?我們是不是必須要有一個映射方法,把元素映射到一個下標位置上?
對于這個映射方法,我們有幾個基本的要求:

  • 因為我們的值長度是不固定的,我希望不同長度的輸入,可以得到固定長度的輸出
  • 轉換成下標的時候,我希望他在我的這個有序數組里面是分布均勻的,不然的話全部擠到一對去了,我也沒法判斷到底哪個元素存了,哪個元素沒存

這個就是哈希函數,比如 MD5,SHA-1 等等這些都是常見的哈希算法


比如,這6個元素,我們經過哈希函數和位運算,得到了相應的下標

哈希碰撞

這個時候,Tom 和 Mic 經過計算得到的哈希值是一樣的,那么再經過位運算得到的下標肯定是一樣的,我們把這種情況叫做哈希沖突或者哈希碰撞
如果發生了哈希碰撞,這個時候對于我們的容器存值肯定是有影響的,我們可以通過哪些方式去降低哈希碰撞的概率呢?
第一種就是擴大維數組的長度或者說位圖容量.因為我們的函數是分布均勻的,所以,位圖容量越大,在同一個位置發生哈希碰撞的概率就越小

是不是位圖容量越大越好呢?不管存多少個元素,都創建一個幾萬億大小的位圖,可以嗎?當然不行,因為越大的位圖容量,意味著越多的內存消耗,所以我們要創建一個合適大小的位圖容量
除了擴大位圖容量,我們還有什么降低哈希碰撞概率的方法呢?
如果兩個元素經過一次哈希計算,得到的相同下標的概率比較高,我可以不可以計算多次呢?原來我只用一個哈希函數,現在我對于每一個要存儲的元素都用多個哈希函數計算,這樣每次計算出來的下標都相同的概率就小得多了
同樣的,我們能不能引入很多個哈希函數呢?比如都計算100次,都可以嗎?當然也會有問題,第一個就是它會填滿位圖的更多空間,第二個是計算是需要消耗時間的
所以總的來說,我們既要節省空間,又要很高的計算效率,就必須在位圖容量和函數個數之間找到一個最佳的平衡
比如說:我們存放100萬個元素,到底需要多大的位圖容量,需要多少個哈希函數呢?

布隆過濾器原理

當然,這個事情早就有人研究過了,在1970年的時候,有一個叫做布隆的前輩對于判斷海量元素中元素是否存在的問題進行了研究,也就是到底需要多大的位圖容量和多少個哈希函數,它發表了一篇論文,提出的這個容器就叫做布隆過濾器
我們來看一下布隆過濾器的工作原理
首先,布隆過濾器的本質就是我們剛才分析的,一個位數組,和若干個哈希函數


集合里面有 3 個元素,要把它存到布隆過濾器里面去,應該怎么做?首先是 a 元素,這里我們用 3 次計算.b,c 元素也一樣
元素已經存進去之后,現在我要來判斷一個元素在這個容器里面是否存在,就要使用同樣的三個函數進行計算
比如 d 元素,我用第一個函數 f1 計算,發現這個位置上是 1,沒問題.第二個位置也是 1,第三個位置也是 1
如果經過三次計算得到的下標位置值都是 1,這種情況下,能不能確定 d 元素一定在這個容器里面呢?實際上是不能的.比如這張圖里面,這三個位置分別是把 a,b,c 存進去的時候置成 1 的,所以即使 d 元素之前沒有存進去,也會得到三個 1,判斷返回 true
所以,這個是布隆過濾器的一個很重要的特性,因為哈希碰撞不可避免,所以它會存在一定的誤判率.這種把本來不存在布隆過濾器中的元素誤判為存在的情況,我們把它叫做假陽性(False Positive Probability,FPP)
我們再來看另一個元素,e 元素.我們要判斷它在容器里面是否存在,一樣地要用這三個函數去計算.第一個位置是 1,第二個位置是 1,第三個位置是 0
e 元素是不是一定不在這個容器里面呢?可以確定一定不存在.如果說當時已經把 e 元素存到布隆過濾器里面去了,那么這三個位置肯定都是 1,不可能出現 0

總結:
布隆過濾器的特點:
從容器的角度來說:

  • 如果布隆過濾器判斷元素在集合中存在,不一定存在
  • 如果布隆過濾器判斷不存在,一定不存在

從元素的角度來說:

  • 如果元素實際存在,布隆過濾器一定判斷存在
  • 如果元素實際不存在,布隆過濾器可能判斷存在

利用,第二個特性,我們是不是就能解決持續從數據庫查詢不存在的值的問題?

Guava 的實現

谷歌的 Guava 里面就提供了一個現成的布隆過濾器

<dependency>
    <groupId>com.google.guava</groupId>
    <artifactId>guava</artifactId>
    <version>21.0</version>
</dependency>

創建布隆過濾器:

BloomFilter<String> bf = BloomFilter.create( Funnels.stringFunnel(Charsets.UTF_8), insertions);

布隆過濾器提供的存放元素的方法是 put()
布隆過濾器提供的判斷元素是否存在的方法是 mightContain()

if (bf.mightContain(data)){
    if (sets.contains(data)){
        // 判斷存在實際存在的時候,命中
        right++;
        continue;
    }// 判斷存在卻不存在的時候,錯誤
    wrong++;
}

布隆過濾器把誤判率默認設置為0.03,也可以在創建的時候指定

public static <T> BloomFilter<T> create(Funnel<? super T> funnel, long expectedInsertions){
    return create(funnel, expectedInsertions, 0.03D);
}

位圖的容量是基于元素個數和誤判率計算出來的

long numBits = optimalNumOfBits(expectedInsertions, fpp);

根據位數組的大小,我們進一步計算出了哈希函數的個數

int numHashFunctions = optimalNumOfHashFunctions(expectedInsertions, numBits);

存儲 100 萬個元素只占用了 0.87M 的內存,生成了 5 個哈希函數
https://hur.st/bloomfilter/?n=1000000&p=0.03&m=&k=

布隆過濾器在項目中的使用

布隆過濾器的工作位置:


因為要判斷數據庫的值是否存在,所以第一步是加載數據庫所有的數據.在去 Redis 查詢之前,先在布隆過濾器查詢,如果 bf 說沒有,那數據庫肯定沒有,也不用去查了.如果 bf 說有,才走之前的流程

代碼:com.gupaoedu.BloomTestsConcurrency

布隆過濾器的其他應用場景

布隆過濾器解決的問題是什么?如何在海量元素中快速判斷一個元素是否存在.所以除了解決緩存穿透的問題之外,我們還有很多其他的用途
比如爬數據的爬蟲,爬過的 url 我們不需要重復爬,那么在幾十億的 url 里面,怎么判斷一個 url 是不是已經爬過了?
還有我們的郵箱服務器,發送垃圾郵件的賬號我們把它們叫做 spamer,在這么多的郵箱賬號里面,怎么判斷一個賬號是不是 spamer 等等一些場景,我們都可以用到布隆過濾器

?著作權歸作者所有,轉載或內容合作請聯系作者
平臺聲明:文章內容(如有圖片或視頻亦包括在內)由作者上傳并發布,文章內容僅代表作者本人觀點,簡書系信息發布平臺,僅提供信息存儲服務。
  • 序言:七十年代末,一起剝皮案震驚了整個濱河市,隨后出現的幾起案子,更是在濱河造成了極大的恐慌,老刑警劉巖,帶你破解...
    沈念sama閱讀 229,117評論 6 537
  • 序言:濱河連續發生了三起死亡事件,死亡現場離奇詭異,居然都是意外死亡,警方通過查閱死者的電腦和手機,發現死者居然都...
    沈念sama閱讀 98,860評論 3 423
  • 文/潘曉璐 我一進店門,熙熙樓的掌柜王于貴愁眉苦臉地迎上來,“玉大人,你說我怎么就攤上這事。” “怎么了?”我有些...
    開封第一講書人閱讀 177,128評論 0 381
  • 文/不壞的土叔 我叫張陵,是天一觀的道長。 經常有香客問我,道長,這世上最難降的妖魔是什么? 我笑而不...
    開封第一講書人閱讀 63,291評論 1 315
  • 正文 為了忘掉前任,我火速辦了婚禮,結果婚禮上,老公的妹妹穿的比我還像新娘。我一直安慰自己,他們只是感情好,可當我...
    茶點故事閱讀 72,025評論 6 410
  • 文/花漫 我一把揭開白布。 她就那樣靜靜地躺著,像睡著了一般。 火紅的嫁衣襯著肌膚如雪。 梳的紋絲不亂的頭發上,一...
    開封第一講書人閱讀 55,421評論 1 324
  • 那天,我揣著相機與錄音,去河邊找鬼。 笑死,一個胖子當著我的面吹牛,可吹牛的內容都是我干的。 我是一名探鬼主播,決...
    沈念sama閱讀 43,477評論 3 444
  • 文/蒼蘭香墨 我猛地睜開眼,長吁一口氣:“原來是場噩夢啊……” “哼!你這毒婦竟也來了?” 一聲冷哼從身側響起,我...
    開封第一講書人閱讀 42,642評論 0 289
  • 序言:老撾萬榮一對情侶失蹤,失蹤者是張志新(化名)和其女友劉穎,沒想到半個月后,有當地人在樹林里發現了一具尸體,經...
    沈念sama閱讀 49,177評論 1 335
  • 正文 獨居荒郊野嶺守林人離奇死亡,尸身上長有42處帶血的膿包…… 初始之章·張勛 以下內容為張勛視角 年9月15日...
    茶點故事閱讀 40,970評論 3 356
  • 正文 我和宋清朗相戀三年,在試婚紗的時候發現自己被綠了。 大學時的朋友給我發了我未婚夫和他白月光在一起吃飯的照片。...
    茶點故事閱讀 43,157評論 1 371
  • 序言:一個原本活蹦亂跳的男人離奇死亡,死狀恐怖,靈堂內的尸體忽然破棺而出,到底是詐尸還是另有隱情,我是刑警寧澤,帶...
    沈念sama閱讀 38,717評論 5 362
  • 正文 年R本政府宣布,位于F島的核電站,受9級特大地震影響,放射性物質發生泄漏。R本人自食惡果不足惜,卻給世界環境...
    茶點故事閱讀 44,410評論 3 347
  • 文/蒙蒙 一、第九天 我趴在偏房一處隱蔽的房頂上張望。 院中可真熱鬧,春花似錦、人聲如沸。這莊子的主人今日做“春日...
    開封第一講書人閱讀 34,821評論 0 28
  • 文/蒼蘭香墨 我抬頭看了看天上的太陽。三九已至,卻和暖如春,著一層夾襖步出監牢的瞬間,已是汗流浹背。 一陣腳步聲響...
    開封第一講書人閱讀 36,053評論 1 289
  • 我被黑心中介騙來泰國打工, 沒想到剛下飛機就差點兒被人妖公主榨干…… 1. 我叫王不留,地道東北人。 一個月前我還...
    沈念sama閱讀 51,896評論 3 395
  • 正文 我出身青樓,卻偏偏與公主長得像,于是被迫代替她去往敵國和親。 傳聞我的和親對象是個殘疾皇子,可洞房花燭夜當晚...
    茶點故事閱讀 48,157評論 2 375

推薦閱讀更多精彩內容

  • Redis實戰篇 1 Redis 客戶端 1.1 客戶端通信 原理 客戶端和服務器通過 TCP 連接來進行數據交...
    Java小窩閱讀 243評論 0 0
  • Redis 客戶端 客戶端通信原理 客戶端和服務器通過TCP 連接來進行數據交互, 服務器默認的端口號為6379 ...
    WEIJAVA閱讀 807評論 0 9
  • Redis 客戶端 客戶端通信原理客戶端和服務器通過 TCP 連接來進行數據交互, 服務器默認的端口號為 6379...
    vincent浩哥閱讀 763評論 0 0
  • 前言 之前只是在項目簡單使用了Redis(只是充當緩存層實現),對Redis的體系技術沒深入了解,最近時間比較充裕...
    JTravler閱讀 1,068評論 0 1
  • 目錄 1 Redis簡介 2 數據結構和對象 3 數據庫 4 RDB 5 AOF 6 事件 7 客戶...
    小小千千閱讀 608評論 0 0