面试必会->Redis篇

打印 上一主题 下一主题

主题 903|帖子 903|积分 2709

01- 你们项目中哪里用到了Redis ?

在我们的项目中很多地方都用到了Redis , Redis在我们的项目中重要有三个作用 :

  • 使用Redis做热点数据缓存/接口数据缓存
  • 使用Redis存储一些业务数据 , 例如 : 验证码 , 用户信息 , 用户行为数据 , 数据计算结果 , 排行榜数据等
  • 使用Redis实现分布式锁 , 解决并发环境下的资源竞争问题
02- Redis的常用数据类型有哪些 ?

Redis 有 5 种基础数据结构,它们分别是:string(字符串)、list(列表)、hash(字典)、set(集 合) 和 zset(有序集合)
03- Redis的数据持久化计谋有哪些 ?

Redis 提供了两种方式,实现数据的持久化到硬盘。

  • RDB 持久化(全量),是指在指定的时间间隔内将内存中的数据集快照写入磁盘。
  • AOF持久化(增量),以日志的情势记载服务器所处理处罚的每一个写、删除操作
RDB和AOF一起使用, 在Redis4.0版本支持混合持久化方式 ( 设置 aof-use-rdb-preamble yes )
04- Redis的数据逾期计谋有哪些 ?


  • 惰性删除 :只会在取出 key 的时候才对数据进行逾期查抄。如许对 CPU 最友好,但是可能会造成太多逾期 key 没有被删除。
    数据到达逾期时间,不做处理处罚。等下次访问该数据时,我们需要判定

    • 假如未逾期,返回数据
    • 发现已逾期,删除,返回nil

  • 定期删除 : 每隔一段时间抽取一批 key 执行删除逾期 key 操作。并且,Redis 底层会通过限制删除操作执行的时长和频率来淘汰删除操作对 CPU 时间的影响。
    默认情况下 Redis 定期查抄的频率是每秒扫描 10 次,用于定期清除逾期键。固然此值还可以通过配置文件进行设置,在 redis.conf 中修改配置“hz”即可,默认的值为hz 10
    定期删除的扫描并不是遍历全部的键值对,如许的话比力费时且太消耗系统资源。Redis 服务器采用的是随机抽取情势,每次从逾期字典中,取出 20 个键进行逾期检测,逾期字典中存储的是全部设置了逾期时间的键值对。假如这批随机查抄的数据中有 25% 的比例逾期,那么会再抽取 20 个随机键值进行检测和删除,并且会循环执行这个流程,直到抽取的这批数据中逾期键值小于 25%,此次检测才算完成
    Redis 服务器为了保证逾期删除计谋不会导致线程卡死,会给逾期扫描增长了最大执行时间为 25ms

定期删除对内存更加友好,惰性删除对 CPU 更加友好。两者各有千秋,所以 Redis 采用的是 定期删除+惰性删除
05- Redis的数据淘汰计谋有哪些 ?

Redis 提供 8 种数据淘汰计谋:
淘汰易失数据(具有逾期时间的数据)

  • volatile-lru(least recently used):从已设置逾期时间的数据集(server.db.expires)中挑选最近最少使用的数据淘汰
  • volatile-lfu(least frequently used):从已设置逾期时间的数据集(server.db.expires)中挑选最不经常使用的数据淘汰
  • volatile-ttl:从已设置逾期时间的数据集(server.db.expires)中挑选将要逾期的数据淘汰
  • volatile-random:从已设置逾期时间的数据集(server.db.expires)中任意选择数据淘汰
淘汰全库数据

  • allkeys-lru(least recently used):当内存不敷以容纳新写入数据时,在键空间中,移除最近最少使用的 key(这个是最常用的)
  • allkeys-lfu(least frequently used):当内存不敷以容纳新写入数据时,在键空间中,移除最不经常使用的 key
  • allkeys-random:从数据集(server.db.dict)中任意选择数据淘汰
不淘汰

  • no-eviction:克制驱逐数据,也就是说当内存不敷以容纳新写入数据时,新写入操作会报错。这个应该没人使用吧!
06- 你们使用Redis是单点还是集群 ? 哪种集群 ?

我们Redis使用的是哨兵集群 ,  一主二从 ,  三个哨兵 , 三台Linux机器
07- Redis集群有哪些方案, 知道嘛 ?

我所了解的Redis集群方案

  • 主从复制集群 :  读写分离, 一主多从 , 解决高并发读的问题
  • 哨兵集群 : 主从集群的结构之上 , 加入了哨兵用于监控集群状态 , 主节点出现故障, 执行主从切换 , 解决高可用问题
  • Cluster分片集群 : 多主多从 , 解决高并发写的问题, 以及海量数据存储问题 , 每个主节点存储一部分集群数据
08- 什么是 Redis 主从同步?

Redis 的主从同步(replication)机制,答应 Slave 从 Master 那里,通过网络传输拷贝到完整的数据备份,从而达到主从机制。
主数据库可以进行读写操作,当发生写操作的时候主动将数据同步到从数据库,而从数据库一样平常是只读的,并吸收主数据库同步过来的数据。一个主数据库可以有多个从数据库,而一个从数据库只能有一个主数据库。

主从数据同步重要分二个阶段  :
第一阶段 : 全量复制阶段

  • slave节点请求增量同步
  • master节点判定replid,发现不一致,拒绝增量同步
  • master将完整内存数据天生RDB,发送RDB到slave
  • slave清空本地数据,加载master的RDB
第二阶段 : 增量复制阶段

  • master将RDB期间的命令记载在repl_baklog,并持续将log中的命令发送给slave
  • slave执行吸收到的命令,保持与master之间的同步
09- Redis分片集群中数据是怎么存储和读取的 ?

Redis集群采用的算法是哈希槽分区算法。Redis集群中有16384个哈希槽(槽的范围是 0 -16383,哈希槽),将不同的哈希槽分布在不同的Redis节点上面进行管理,也就是说每个Redis节点只负责一部分的哈希槽。在对数据进行操作的时候,集群会对使用CRC16算法对key进行计算并对16384取模(slot = CRC16(key)%16383),得到的结果就是 Key-Value 所放入的槽,通过这个值,去找到对应的槽所对应的Redis节点,然后直接到这个对应的节点上进行存取操作
10- 你们用过Redis的事务吗 ? 事务的命令有哪些 ?

Redis 作为 NoSQL 数据库也同样提供了事务机制。在 Redis 中,MULTI / EXEC / DISCARD / WATCH 这四个命令事务的相关操作命令
我们在开发过程中基本上没有用到过Redis的事务
11- Redis 和 Memcached 的区别有哪些?


  • Redis 提供复杂的数据结构,丰富的数据操作 , Memcached 仅提供简单的字符串。
  • Redis原生支持集群模式 , Memcached不支持原生集群
  • Memcached 不支持持久化存储,重启时,数据被清空,  Redis 支持持久化存储,重启时,可以恢复已持久化的数据
12- Redis的内存用完了会发生什么?

假如达到设置的上限,Redis 的写命令会返回错误信息( 但是读命令还可以正常返回。)
也可以配置内存淘汰机制, 当 Redis 达到内存上限时会冲刷掉旧的内容。
13- Redis和Mysql如何保证数据⼀致?


  • 先更新Mysql,再更新Redis,假如更新Redis失败,可能仍然不⼀致
  • 先删除Redis缓存数据,再更新Mysql,再次查询的时候在将数据添加到缓存中
这种⽅案能解决1 ⽅案的问题,但是在⾼并发下性能较低,⽽且仍然会出现数据不⼀致的问题,
⽐如线程1删除了 Redis缓存数据,正在更新Mysql,
此时另外⼀个查询再查询,那么就会把Mysql中⽼数据⼜查到 Redis中

  • 使用MQ异步同步, 保证数据的终极一致性
我们项目中会根据业务情况 , 使用不同的方案来解决Redis和Mysql的一致性问题 :

  • 对于一些一致性要求不高的场景  , 不做处理处罚
    例如 : 用户行为数据 , 我们没有做一致性保证 , 因为就算不一致产生的影响也很小

  • 对于时效性数据  , 设置逾期时间
    例如  : 接口缓存数据 ,  我们会设置缓存的逾期时间为 60S , 那么可能会出现60S之内的数据不一致, 60S后缓存逾期, 重新从数据库加载就一致了

  • 对于一致性要求比力高但是时效性要求不那么高的场景 , 使用MQ不断发送消息完成数据同步直到乐成为止
    例如 : 首页广告数据 , 首页推荐数据
    数据库数据发生修改----> 发送消息到MQ  -----> 吸收消息更新缓存
    消息不丢失/重复消耗 : 消息状态表/消息消耗表

  • 对于一致性和时效性要求都比力高的场景 , 使用分布式事务 , Seata的TCC模式
    很少用

14- 什么是缓存穿透 ? 怎么解决 ?

缓存穿透是指查询一条数据库和缓存都没有的一条数据,就会一直查询数据库,对数据库的访问压力就会增大,缓存穿透的解决方案
有以下2种解决方案 :

  • 缓存空对象:代码维护较简单,但是效果欠好。
  • 布隆过滤器:代码维护复杂,效果很好
15- 什么是缓存击穿 ? 怎么解决 ?

缓存击穿是指缓存中没有但数据库中有的数据(一样平常是缓存时间到期),这时由于并发用户特别多,同时读缓存没读到数据,又同时去数据库去取数据,引起数据库压力瞬间增大
解决方案 :

  • 热点数据提前预热
  • 设置热点数据永远不逾期。
  • 加锁 , 限流
16- 什么是缓存雪崩 ? 怎么解决 ?

缓存雪崩/缓存失效 指的是大量的缓存在同一时间失效,大量请求落到数据库 导致数据库瞬间压力飙升。
造成这种现象的 原因是,key的逾期时间都设置成一样了。
解决方案是,key的逾期时间引入随机因素
17- 数据库有1000万数据 ,Redis只能缓存20w数据, 如何保证Redis中的数据都是热点数据 ?

配置Redis的内容淘汰计谋为LFU算法 , 如许会把使用频率较低的数据淘汰掉 , 留下的数据都是热点数据
18- Redis分布式锁如何实现 ?

Redis分布式锁重要依靠一个SETNX指令实现的 ,  这条命令的寄义就是“SET if Not Exists”,即不存在的时候才会设置值。
只有在key不存在的情况下,将键key的值设置为value。假如key已经存在,则SETNX命令不做任何操作。
这个命令的返回值如下。

  • 命令在设置乐成时返回1。
  • 命令在设置失败时返回0。
假设此时有线程A和线程B同时访问临界区代码,假设线程A首先执行了SETNX命令,并返回结果1,继续向下执行。而此时线程B再次执行SETNX命令时,返回的结果为0,则线程B不能继续向下执行。只有当线程A执行DELETE命令将设置的锁状态删除时,线程B才会乐成执行SETNX命令设置加锁状态后继续向下执行
  1. Boolean isLocked = stringRedisTemplate.opsForValue().setIfAbsent(PRODUCT_ID, "binghe");
复制代码
固然我们在使用分布式锁的时候也不能这么简单, 会考虑到一些现实场景下的问题 , 例如 :

  • 死锁问题
    在使用分布式锁的时候, 假如因为一些原因导致系统宕机, 锁资源没有被开释, 就会产存亡锁
    解决的方案 :  上锁的时候设置锁的超时时间
    1. Boolean isLocked = stringRedisTemplate.opsForValue().setIfAbsent(PRODUCT_ID, "binghe", 30, TimeUnit.SECONDS);
    复制代码

  • 锁超时问题
    假如业务执行需要的时间,  超过的锁的超时时间 , 这个时候业务还没有执行完成, 锁就已经主动被删除了
    其他请求就能获取锁, 操作这个资源 , 这个时候就会出现并发问题 , 解决的方案 :

    • 引入Redis的watch dog机制, 主动为锁续期
    • 开启子线程 , 每隔20S运行一次, 重新设置锁的超时时间

  • 归一问题
    假如一个线程获取了分布式锁,  但是这个线程业务没有执行完成之前 , 锁被其他的线程删掉了 , 又会出现线程并发问题 , 这个时候就需要考虑归一化问题
    就是一个线程执行了加锁操作后,后续必须由这个线程执行解锁操作,加锁和解锁操作由同一个线程来完成。
    为了解决只有加锁的线程才气进行相应的解锁操作的问题,那么,我们就需要将加锁和解锁操作绑定到同一个线程中,可以使用ThreadLocal来解决这个问题 , 加锁的时候天生唯一标识保存到ThreadLocal  , 并且设置到锁的值中 , 开释锁的时候, 判定线程中的唯一标识和锁的唯一标识是否相同, 只有相同才会开释
    """
    1. public class RedisLockImpl implements RedisLock{
    2.     @Autowired
    3.     private StringRedisTemplate stringRedisTemplate;
    4.     private ThreadLocal<String> threadLocal = new ThreadLocal<String>();
    5.     @Override
    6.     public boolean tryLock(String key, long timeout, TimeUnit unit){
    7.          String uuid = UUID.randomUUID().toString();
    8.          threadLocal.set(uuid);
    9.          return stringRedisTemplate.opsForValue().setIfAbsent(key, uuid, timeout, unit);
    10.   }
    11.     @Override
    12.     public void releaseLock(String key){
    13.          //当前线程中绑定的uuid与Redis中的uuid相同时,再执行删除锁的操作
    14.          if(threadLocal.get().equals(stringRedisTemplate.opsForValue().get(key))){
    15.            stringRedisTemplate.delete(key);   
    16.      }
    17.    }
    18. }
    复制代码
    """
4、可重入问题
当一个线程乐成设置了锁标志位后,其他的线程再设置锁标志位时,就会返回失败。
还有一种场景就是在一个业务中, 有个操作都需要获取到锁, 这个时候第二个操作就无法获取锁了 , 操作会失败
例如 : 下单业务中, 扣减商品库存会给商品加锁, 增长商品销量也需要给商品加锁 , 这个时候需要获取二次锁
第二次获取商品锁就会失败  , 这就需要我们的分布式锁能够实现可重入
实现可重入锁最简单的方式就是使用计数器 , 加锁乐成之后计数器  +  1 , 取消锁之后计数器 -1  , 计数器减为0  , 真正从Redis删除锁
"""
[code]public class RedisLockImpl implements RedisLock{ @Autowired private StringRedisTemplate stringRedisTemplate; private ThreadLocal threadLocal = new ThreadLocal(); private ThreadLocal threadLocalInteger = new ThreadLocal(); @Override public boolean tryLock(String key, long timeout, TimeUnit unit){         Boolean isLocked = false;         if(threadLocal.get() == null){                 String uuid = UUID.randomUUID().toString();          threadLocal.set(uuid);                 isLocked = stringRedisTemplate.opsForValue().setIfAbsent(key, uuid, timeout, unit);         }else{                 isLocked = true;            }         //加锁乐成后将计数器加1         if(isLocked){                 Integer count = threadLocalInteger.get() == null ? 0 : threadLocalInteger.get();                 threadLocalInteger.set(count++);         }         return isLocked; } @Override public void releaseLock(String key){         //当前线程中绑定的uuid与Redis中的uuid相同时,再执行删除锁的操作         if(threadLocal.get().equals(stringRedisTemplate.opsForValue().get(key))){                 Integer count = threadLocalInteger.get();                 //计数器减为0时开释锁                 if(count == null || --count

本帖子中包含更多资源

您需要 登录 才可以下载或查看,没有账号?立即注册

x
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

圆咕噜咕噜

金牌会员
这个人很懒什么都没写!
快速回复 返回顶部 返回列表