小小小幸运 发表于 2024-8-27 02:24:56

关于Redis大KEY解决方案

(一)相关界说与配景

1.大key界说:

所谓的大key题目是某个key的value比较大,所以本质上是大value题目
   

[*]String类型的Key,它的值为5MB(数据过大)
[*]List类型的Key,它的列表数量为20000个(列表数量过多)
[*]ZSet类型的Key,它的成员数量为10000个(成员数量过多)
[*]Hash格式的Key,它的成员数量固然只有1000个但这些成员的value总巨细为100MB(成员体积过大)
在现实业务中,大Key的判断仍旧需要根据Redis的现实使用场景、业务场景来举行综合判断。通常都会以数据巨细与成员数量来判断。
一样寻常认为string类型控制在10KB以内,hash、list、set、zset元素个数不要凌驾10000个。
2.大key产生:

大key的产生每每是业务方计划不公道,没有预见vaule的动态增长题目
   

[*]redis数据结构使用不公道,易造成Key的value过大,如使用String类型的Key存放大体积二进制文件型数据
[*]业务上线前规划计划不敷,没有对Key中的成员举行公道的拆分,造成个别Key中的成员数量过多
[*]没有对无效数据举行定期整理,造成如HASH类型Key中的成员持续不断的增加。即不停往value塞数据,却没有删除机制,value只会越来越大
[*]使用LIST类型Key的业务消耗侧发生代码故障,造成对应Key的成员只增不减
   在现实业务中,大概会发生的大key场景:
社交类:粉丝列表,如果某些明星或者大v不精心计划下,必是bigkey;
统计类:例如按天存储某项功能或者网站的用户聚集,除非没几个人用,否则必是bigkey;
缓存类:将数据从数据库load出来序列化放到Redis里,这个方式非常常用,但有两个地方需要注意,第一,是不是有必要把所有字段都缓存,第二,有没有相关关联的数据。
3.现实业务配景

现有场景后管系统导入商品相关业务:
对导入商品的excel数据通过EasyExcel工具解析,然后对解析出来的商品信息同一组装到一个大对象,而且放入到redis当中,同时未设置缓存失效时间。
导入的excel表格数据直接关系到商品对象的巨细,这就存在excel表格数据非常多的场景下,封装的商品对象就越大,导致每次只要上传大量数据,redis中就会存在大key,对redis并发本领形成埋伏影响,由于redis是单线程运行的,如果一次操作的value很大会对整个redis的相应时间造成负面影响,导致IO网络拥塞。
运维反馈:
XXX_IMPORT_XXX相关key已经凌驾10kb+
https://img-blog.csdnimg.cn/direct/15460345734949a982c6b011497587fb.png#pic_center
List类型的key将近200kb巨细https://img-blog.csdnimg.cn/direct/9dd953d85e554fe6b93eea33d4746583.png#pic_center
复现环节:
PURCHASE_IMPORT_IDXXX:
测试情况使用Another Redis Desktop Manager工具复现 发现excel导入1条数据152B,4条数据将近500B(如下图),由此可以推断出excel如果导入100条乐成数据,其value巨细根本约等于10KB,深挖其代码逻辑发现只做了对excel一次性导入不能大于200条,且excel文件巨细不能大于5MB前置校验,故而完全大概导致存在10KB~20KB大keyhttps://img-blog.csdnimg.cn/direct/1354b7cabc5c4a52b2688e72a966e317.png#pic_center
STOCKCHECK_IMPORT_IDXXX:
redisTemplate.opsForList().rightPush(KEY + UUID, Object);接纳默认redisTemplate模板类把list数组聚集添加进Redis,不断的往后添加list元素且没有失效时间
https://img-blog.csdnimg.cn/direct/c636d1c4e57142d991823b94302aa68f.png#pic_center
此中一个list元素就占据将近1.5kb,且如上个大key一样只做了一次性导入不能大于200条,且excel文件巨细不能大于5MB前置校验,所以完全存在200KB的超大key产生,接纳默认的序列化方式,将等于null的属性也序列化出来就是需要改进的地方
https://img-blog.csdnimg.cn/direct/f21843d3cbdb40cc8e417346d51ae5f5.png#pic_center
4.造成的影响

总结用几个词概况来说:阻塞请求,网络拥塞,内存增大而且分配不均,过期删除,主从同步切换影响,从而进一步终极会导致我们的线程阻塞,并发量下降,客户端超时,服务端业务乐成率下降等。
   

[*]客户端执行命令的时长变慢,Big Key对应的value较大,我们对其举行读写的时间,需要耗费较长的时间,如许就大概阻塞后续的请求处理
[*]Redis内存到达maxmemory参数界说的上限引发操作阻塞或紧张的Key被逐出,甚至引发内存溢出(Out Of Memory)
[*]集群架构下,某个数据分片的内存使用率远超其他数据分片,无法使数据分片的内存资源到达平衡
[*]读取单value较大时会占用服务器网卡较多带宽,自身变慢的同时大概会影响该服务器上的其他Redis实例或者应用
[*]对大Key执行删除操作,易造成主库较长时间的阻塞,进而大概引发同步中断或主从切换
(二)优化方案

根据大key的现实用途可以分为两种情况:可删除和不可删除。
https://img-blog.csdnimg.cn/direct/64d6a3fcf2c543b7a2c1ac6af6751924.png#pic_center
1.删除大key

起首思量删除大key,如果发现某些大key并非热key就可以在DB中查询使用,则可以在Redis中删掉:
   

[*]Redis 4.0及之后版本:您可以通过UNLINK命令安全地删除大Key甚至特大Key,该命令能够以非阻塞的方式,徐徐地整理传入的Key。 Redis UNLINK 命令雷同与 DEL 命令,表示删除指定的 key,如果指定 key 不存在,命令则忽略。 UNLINK 命令不同与 DEL
命令在于它是异步执行的,因此它不会阻塞。 UNLINK 命令是非阻塞删除,非阻塞删除简言之,就是将删除操作放到另外一个线程行止理。
[*]Redis 4.0之前的版本:建议先通过SCAN命令读取部分数据,然后举行删除,避免一次性删除大量key导致Redis阻塞。 Redis Scan 命令用于迭代数据库中的数据库键。 SCAN 命令是一个基于游标的迭代器,每次被调用之后, 都会向用户返回一个新的游标,
用户在下次迭代时需要使用这个新游标作为 SCAN 命令的游标参数, 以此来延续之前的迭代过程。
https://img-blog.csdnimg.cn/direct/a8d6a7798dfe439d88baebf9c8c9987d.png#pic_center

根据运维反馈及现实业务场景,重要xxxIMPORT大key分为两种场景:
(1)字符串类型:PURCHASE_IMPORT_IDXXX
(2)List类型:STOCKCHECK_IMPORT_IDXXX 、STOCKADJUST_IMPORT_IDXXX等等
序号接口名称所在业务场景缓存key缓存时间缓存内容获取缓存后处理1…新建采购单-导入商品PURCHASE_IMPORT_XXX永久见效字符串类型:导入excel商品数据(包括本身自带excel商品,动态数据:查询数据库商品信息,库存、金额等)导入后接口返回展示2…新建入库单-导入商品STOCKCHECK_IMPORT_XXX永久见效list类型:导入excel商品数据(包括本身自带excel商品,动态数据:查询数据库商品信息,库存、金额、部分、堆栈等)导入后接口返回展示3……………… 优化方案:
根据调研的现实场景,之前的大key业务用途范围比较窄,只有导入商品的时间页面回显商品信息,可以思量上线的时间,晚点直接删除原来所有XXX_IMPORT_IDXXX 的大key,后续继续产生的大key代码,采取下面两种方案优化(压缩和拆分大key)
2.压缩大key

现实业务List类型:STOCKCHECK_IMPORT_XXX等大key接纳默认的序列化方式,可以接纳压缩法
思量到使用符合的序列化框架、压缩算法:
   

[*]当vaule是string时,比较难拆分,则使用序列化、压缩算法将key的巨细控制在公道范围内,但是序列化和反序列化都会带来更多时间上的消耗
[*]当value是string,压缩之后仍旧是大key,则需要思量举行拆分
3.拆分大key

现实业务字符串类型:PURCHASE_IMPORT_XXX大key内部实现逻辑使用ProtoStuff序列化框架实现,思量到此框架序列化服从非常高,压缩后的格式是二进制文件,内存巨细已经相当于最优选择,所以思量采取拆分本领
   

[*]将一个Big Key拆分为多个key-value如许的小Key,并确保每个key的成员数量或者巨细在公道范围内,然后再举行存储,通过get不同的key或者使用mget批量获取。
[*]当value是list/set等聚集类型时,根据预估的数据规模来举行分片,不同的元素计算后分到不同的片。
4.当地缓存(Caffeine )

可以思量当地缓存(Caffeine )》Redis》数据库 ,本期文档不实现此方案
(三)实现细节

根据现实业务,重要xxxIMPORT大key的两种场景,技能方案选型落地:
   

[*]字符串类型:PURCHASE_IMPORT_XXX接纳拆分key方案。
[*]list类型:STOCKCHECK_IMPORT_XXX等接纳压缩key方案,观察其压缩后巨细,如果压缩之后仍旧是大key,思量进一步拆分。
1.PURCHASE_IMPORT_XXX大key处理伪代码(拆分)

监听类:
public class ProductListener extends AnalysisEventListener<ExportExcelVo> {
    //省略上面重复代码
    //拆分key大小
    @Value("${product.splitSize}")
    private String splitSize;

    //导入商品信息
    private List<List<Product>> productList = new ArrayList<>();

    /**读取整个Excel完毕后调用*/
    @Override
    public void doAfterAllAnalysed(AnalysisContext analysisContext) {
      //必要校验并组装商品信息数据ProductVO
      //重点!
      handleMultipleValue(ProductVO);
    }
   
    /**拆分多k-v*/
    public void handleMultipleValue(ProductVO vo){
      Map<String, ProductRO> map= new HashMap<>();
      //将必要返回的商品总数量、金额等信息统一封装成keys0
      map.put("keys0" + KEY + UUID,ProductRO.builder().adjustNum(po.getAdjustNum())
               .priceSum(po.getPriceSum()).build());
      //将商品对象内部的list根据实际业务拆分每个key最多包含splitSize条数据
      productList = ListUtils.partition(po.getProductList(), splitSize);
      for(int i = 1; i <= productList.size(); i++){
            ProductRO stock = ProductRO.builder().productList(productList.get(i-1)).build();
            map.put("keys" + i + KEY + UUID, stock);
      }
      //pipeline管道批量添加到redis中并设置10分钟失效
      redisHelper.putMultiCacheWithExpireTime(valueMap, 60 * 10L);
      //注意此处使用RedisTemplate.opsForValue().multiSet(map)不支持失效时间的设置...又是不断增加key
      //虽然可以通过redisTemplate.expire(key, timeout, TimeUnit.SECONDS);循环的去设置map中key失效时间,但不是原子性操作没有意义
    }
}
   
Controller实现:
@RestController
public class ProductFileExcelController {
    @PostMapping(value = "api/product/uploadFile")
    public Result uploadFile(@RequestParam("file") MultipartFile file) {
       ProductListener listener = new ProductListener ();
       EasyExcel.read(file.getInputStream(), ExportExcelVo.class, listener).sheet().doRead();
       //之前逻辑这里直接取缓存返回
       //return Result.success(redisHelper.getCache(key));
       //重点!修改后:
       List<Product> productList = new ArrayList<>();
       ProductRO stock = redisHelper.getCache("keys0" + KEY + UUID, ProductRO.class);
       for(int i = 1; i <= productPurchaseDTOListener.getProductList().size(); i++){
          ProductRO stockList = redisHelper.getCache("keys" + i + KEY + UUID, ProductRO.class);
          productList.addAll(stockList.getProductList());
       }
       stock.setProductList(productList);
       return Result.success(stock);
    }
}

Redis工具类实现:
@Component
public class RedisHelper {
    @Autowired
    private RedisTemplate<String, String> redisTemplate;
   
   //获取key
   public <T> T getCache(final String key, Class<T> targetClass) {
   byte[] result = (byte[])this.redisTemplate.execute(new RedisCallback<byte[]>() {
      @Override
      public byte[] doInRedis(RedisConnection connection) throws DataAccessException {
            return connection.get(key.getBytes());
      }
    });
   return result != null && result.length != 0 ? ProtoStuffSerializerUtil.deserialize(result, targetClass) : null;
   }

   //使用管道批量添加
   public <T> void putMultiCacheWithExpireTime(Map<String, T> map, final long expireTime) {
   this.redisTemplate.executePipelined(new RedisCallback<String>() {
      @Override
      public String doInRedis(RedisConnection connection) throws DataAccessException {
            map.forEach((key, value) -> {
                connection.setEx(key.getBytes(), expireTime,
                        ProtoStuffSerializerUtil.serialize(value));
            });
            return null;
      }
   });
   }
}

//拆分效果如下图,key0XXX是商品对象公共信息,总金额,数量等
//key1-key5是将10条excel数据拆分成5个key-value 每个key包含2条数据 平均200-300b
https://img-blog.csdnimg.cn/direct/3a33242064654a8dba44ba90ab524464.png#pic_center
上述方法是将大key拆分成多个key-value,如许分拆的意义在于分拆单次操作的压力,将操作压力平摊到多个redis实例中,降低对单个redis的IO影响;
实用于当前的业务场景(该对象需要每次都整存整取),除此之外另有别的拆分方法,好比该对象每次只需要存取部分数据,也可以拆分多个key-value
方案二:将这个存储在一个hash中,每个field代表一个具体的属性,使用hget,hmget来获取部分的value,使用hset,hmset来更新部分属性,此处不做这方面的伪代码实现,有兴趣的小伙伴可以自行研究~~
2.STOCKCHECK_IMPORT_XXX大key处理伪代码:(压缩)

方案一

RedisSerializer使用JdkSerializationRedisSerializer(默认值),需要被序列化Class实现Serializable接口,且重要是不方便人工排查数据,有许多属性为null的值,这些属性的序列化和反序列化完全没故意义,只需要序列化属性值不为空的对象就行,如许不仅能降低机器序列化与反序列化时产生的CPU,减少时间,还能减少Redis内存使用,减少网络开销。所以需要根据现实大key的业务场景可以自界说RedisTemplate序列化方式。
网上有许多这方面的博客,写的很具体可以参考,这里只贴出轮子部分核心代码和效果(接纳Jackson2JsonRedisSerializer,也可以使用FastJsonRedisSerializer同样的效果)
@Configuration
public class RedisConfig {
    /**
    * 修改redisTemplate的序列化方式
    * @param factory
    * @return
    */
    @Bean(name = "redisTemplate")
    public RedisTemplate<K, V> redisTemplate(LettuceConnectionFactory factory) {
      //创建RedisTemplate对象
      RedisTemplate<K, V> template = new RedisTemplate<K, V>();
      template.setConnectionFactory(factory);
      //设置key的序列化方式
      template.setKeySerializer(keySerializer());
      template.setHashKeySerializer(keySerializer());
      //设置RedisTemplate的Value序列化方式Jackson2JsonRedisSerializer;默认是JdkSerializationRedisSerializer
      template.setValueSerializer(valueSerializer());
      template.setHashValueSerializer(valueSerializer());

      template.afterPropertiesSet();
      return template;
}

    private RedisSerializer<String> keySerializer() {
      return new StringRedisSerializer();
    }

    private RedisSerializer<Object> valueSerializer() {
      Jackson2JsonRedisSerializer<Object> jackson2JsonRedisSerializer = new Jackson2JsonRedisSerializer<Object>(Object.class);

      ObjectMapper om = new ObjectMapper();
      // 指定要序列化的域,field,get和set,以及修饰符范围,ANY是都有包括private和public
      om.setVisibility(PropertyAccessor.ALL, JsonAutoDetect.Visibility.ANY);
      // 指定序列化输入的类型,类必须是非final修饰的,final修饰的类,比如String,Integer等会抛出异常
      om.activateDefaultTyping(LaissezFaireSubTypeValidator.instance, ObjectMapper.DefaultTyping.NON_FINAL);
      // 解决时间序列化问题
      om.disable(SerializationFeature.WRITE_DATES_AS_TIMESTAMPS);
      // 对象属性值为null时,不进行序列化存储
      om.setSerializationInclusion(JsonInclude.Include.NON_NULL);
      om.registerModule(new JavaTimeModule());

      jackson2JsonRedisSerializer.setObjectMapper(om);
      return jackson2JsonRedisSerializer;
   }
}
//实现后可以看到采用自定义的序列化方式,不仅可以只序列化不为null的属性,且压缩后一条数据大小由原来1.5KB->500B,内存大小接近原来的1/3
//但是由于excel最大可以导入200条数据,按照每条500B换算下来也接近100KB的大key,完全不符合我们的预期,所以考虑的压缩后接着拆分多个k-v
//或者采用更高效的序列化方式
https://img-blog.csdnimg.cn/direct/3223e401b763425fac07a8aab581f7cd.png#pic_center
方案二(继续优化)

采取ProtoStuff框架来进一步压缩list类型的key
监听类:
public class ProductListener extends AnalysisEventListener<ExportExcelVo> {

    //value库存信息
    private List<ProductStockPO> stockPOList = new ArrayList<>();

    /**读取整个Excel完毕后调用*/
    @Override
    public void doAfterAllAnalysed(AnalysisContext analysisContext) {
      //必要校验并封装库存信息ProductStockPO
      //redisTemplate.opsForList().rightPush(KEY+UUID, ProductStockPO);
      //重点!修改后
      //添加到redis中并设置10分钟失效
      redisHelper.putListCacheWithExpireTime(KEY+UUID, ProductStockPO,60 * 10L);
    }
}
   
Controller实现:
@RestController
public class ProductFileExcelController {
    @PostMapping(value = "api/stock/uploadFile")
    public Result uploadFile(@RequestParam("file") MultipartFile file) {
       ProductListener listener = new ProductListener ();
       EasyExcel.read(file.getInputStream(), ExportExcelVo.class, listener).sheet().doRead();
       //之前逻辑这里直接取缓存返回
       //return Result.success(redisTemplate.opsForList().range(KEY+UUID, 0, -1););
       //重点!修改后:
       return Result.success(redisHelper.getListCache(KEY+UUID));
    }
}

Redis工具类实现:
@Component
public class RedisHelper {
    @Autowired
    private RedisTemplate<String, String> redisTemplate;
   
   //获取list
   public <T> List<T> getListCache(final String key, Class<T> targetClass) {
    byte[] result = (byte[])this.redisTemplate.execute(new RedisCallback<byte[]>() {
      @Override
      public byte[] doInRedis(RedisConnection connection) throws DataAccessException {
            return connection.get(key.getBytes());
      }
    });
    return result != null && result.length != 0 ? ProtoStuffSerializerUtil.deserializeList(result, targetClass) : null;
   }

   //添加list
   public <T> boolean putListCacheWithExpireTime(String key, List<T> objList, final long expireTime) {
    final byte[] bkey = key.getBytes();
    final byte[] bvalue = ProtoStuffSerializerUtil.serializeList(objList);
    boolean result = (Boolean)this.redisTemplate.execute(new RedisCallback<Boolean>() {
      @Override
      public Boolean doInRedis(RedisConnection connection) throws DataAccessException {
            connection.setEx(bkey, expireTime, bvalue);
            return true;
      }
    });
    return result;
   }
}

//发现采用Protostuff序列化框架的确可以更加高效的压缩我们的list数据,压缩1条等比150B,比原始的1.5KB缩小了将近10倍
//但是我们会发现,即使采取了如此高效的压缩手段还是达不到我们的预期,导入200条数据后大小也是相当于20KB,依然是个大key,这不得让我们进一步的考虑拆分...
https://img-blog.csdnimg.cn/direct/13b64ba067bc41f88144c20312a0b13b.png#pic_center
方案三(压缩+拆分)

监听类:
public class ProductListener extends AnalysisEventListener<ExportExcelVo> {
    //存放拆分后数据
    private List<List<ProductStockPO>> list = new ArrayList<>();
    //重复代码逻辑
    @Override
    public void doAfterAllAnalysed(AnalysisContext analysisContext) {
      //必要校验
      list = ListUtils.partition(stockPOList, 2);
      Map<String, List<ProductStockPO>> valueMap = new HashMap<>();
      for(int i = 1; i <= list.size(); i++){
         valueMap.put("keys" + i + KEY + UUID, list.get(i-1));
      }
       //pipeline管道批量添加到redis中并设置10分钟失效
      redisHelperConfig.putMultiListCacheWithExpireTime(valueMap,60 * 10L);
    }
}
   
Controller实现:
@RestController
public class ProductFileExcelController {
    @PostMapping(value = "api/stock/uploadFile")
    public Result uploadFile(@RequestParam("file") MultipartFile file) {
       ProductListener listener = new ProductListener ();
       EasyExcel.read(file.getInputStream(), ExportExcelVo.class, listener).sheet().doRead();
       List<ProductStockPO> stockList = new ArrayList<>();
       for(int i = 1; i <= stockCheckDTOListener.getList().size(); i++){
         List<ProductStockPO> list = redisHelperConfig.getListCache("keys" + i + KEY + UUID, ProductStockPO.class);
         stockList.addAll(list);
      }
       return Result.success(stockList);
    }
}

Redis工具类实现:
@Component
public class RedisHelper {
    @Autowired
    private RedisTemplate<String, String> redisTemplate;
   
   //使用管道批量添加list
    public <T> void putMultiListCacheWithExpireTime(Map<String, List<T>> map, final long expireTime) {
      this.redisTemplate.executePipelined(new RedisCallback<String>() {
      @Override
      public String doInRedis(RedisConnection connection) throws DataAccessException {
            map.forEach((key, value) -> {
                connection.setEx(key.getBytes(), expireTime,
                        ProtoStuffSerializerUtil.serializeList(value));
            });
            return null;
      }
      });
    }
}

//发现采取压缩后进一步拆分5条数据拆分成3个key,其中2条数据的大小为300B左右,按照最大导入200条数据来算,可以拆分成10key,
//每个key包含20条数据将近3KB大小,符合预期,具体可以拆分多少按照自己实际业务场景来估算
https://img-blog.csdnimg.cn/direct/a21551226cb043abb385e8e6d0b48170.png#pic_center
(四)Redis开发规范

1.键值计划

key名计划

(1)【建议】: 可读性和可管理性
以业务名(或数据库名)为前缀(防止key辩论),用冒号分隔,好比业务名:表名:id
product:stockstock:1
(2)【建议】:简洁性
包管语义的前提下,控制key的长度,当key较多时,内存占用也不容忽视,例如:
user:{uid}:friends:messages:{mid}简化为u:{uid}
页: [1]
查看完整版本: 关于Redis大KEY解决方案