IT评测·应用市场-qidao123.com

标题: day40--Redis(二)实战篇 [打印本页]

作者: 圆咕噜咕噜    时间: 2024-6-15 02:06
标题: day40--Redis(二)实战篇
实战篇Redis

开篇导读

酷爱的小伙伴们大家好,马上咱们就开始实战篇的内容了,相信通过本章的学习,小伙伴们就能理解各种redis的使用啦,接下来咱们来一起看看实战篇我们要学习一些什么样的内容

这一块我们会使用redis共享session来实现

通过本章节,我们会理解缓存击穿,缓存穿透,缓存雪崩等问题,让小伙伴的对于这些概念的理解不仅仅是停留在概念上,更是能在代码中看到对应的内容

通过本章节,我们可以学会Redis的计数器功能, 联合Lua完成高性能的redis操作,同时学会Redis分布式锁的原理,包括Redis的三种消息队列

我们利用Redis的GEOHash来完成对于地理坐标的操作

重要是使用Redis来完成统计功能

使用Redis的BitMap数据统计功能

基于Set集合的关注、取消关注,共同关注等等功能,这一块知识咱们之前就讲过,这次我们在项目中来使用一下

基于List来完成点赞列表的操作,同时基于SortedSet来完成点赞的排行榜功能
以上这些内容咱们齐备都会给小伙伴们解说清楚,让大家充实理解如何使用Redis

1、短信登录

1.1、导入讯飞点评项目

1.1.1 、导入SQL


1.1.2、有关当前模型

手机或者app端发起哀求,哀求我们的nginx服务器,nginx基于七层模型走的事HTTP协议,可以实现基于Lua直接绕开tomcat访问redis,也可以作为静态资源服务器,轻松扛下上万并发, 负载均衡到下游tomcat服务器,打散流量,我们都知道一台4核8G的tomcat,在优化和处理简朴业务的加持下,大不了就处理1000左右的并发, 经过nginx的负载均衡分流后,利用集群支撑起整个项目,同时nginx在部署了前端项目后,更是可以做到动静分离,进一步降低tomcat服务的压力,这些功能都得靠nginx起作用,以是nginx是整个项目中紧张的一环。
在tomcat支撑起并发流量后,我们如果让tomcat直接去访问Mysql,根据经验Mysql企业级服务器只要上点并发,一般是16或32 焦点cpu,32 或64G内存,像企业级mysql加上固态硬盘能够支撑的并发,大概就是4000起~7000左右,上万并发, 瞬间就会让Mysql服务器的cpu,硬盘全部打满,轻易崩溃,以是我们在高并发场景下,会选择使用mysql集群,同时为了进一步降低Mysql的压力,同时增加访问的性能,我们也会加入Redis,同时使用Redis集群使得Redis对外提供更好的服务。

1.1.3、导入后端项目

在资料中提供了一个项目源码:

1.1.4、导入前端工程


1.1.5 运行前端项目


1.2 、基于Session实现登录流程

发送验证码:
用户在提交手机号后,会校验手机号是否合法,如果不合法,则要求用户重新输入手机号
如果手机号合法,后台此时生成对应的验证码,同时将验证码举行保存,然后再通过短信的方式将验证码发送给用户
短信验证码登录、注册:
用户将验证码和手机号举行输入,后台从session中拿到当前验证码,然后和用户输入的验证码举行校验,如果不同等,则无法通过校验,如果同等,则后台根据手机号查询用户,如果用户不存在,则为用户创建账号信息,保存到数据库,无论是否存在,都会将用户信息保存到session中,方便后续得到当前登录信息
校验登录状态:
用户在哀求时候,会从cookie中携带者JsessionId到后台,后台通过JsessionId从session中拿到用户信息,如果没有session信息,则举行拦截,如果有session信息,则将用户信息保存到threadLocal中,并且放行

1.3 、实现发送短信验证码功能

页面流程

具体代码如下
知心小提示:
具体逻辑上文已经分析,我们仅仅只需要按照提示的逻辑写出代码即可。

  1.     @Override
  2.     public Result sendCode(String phone, HttpSession session) {
  3.         // 1.校验手机号
  4.         if (RegexUtils.isPhoneInvalid(phone)) {
  5.             // 2.如果不符合,返回错误信息
  6.             return Result.fail("手机号格式错误!");
  7.         }
  8.         // 3.符合,生成验证码
  9.         String code = RandomUtil.randomNumbers(6);
  10.         // 4.保存验证码到 session
  11.         session.setAttribute("code",code);
  12.         // 5.发送验证码
  13.         log.debug("发送短信验证码成功,验证码:{}", code);
  14.         // 返回ok
  15.         return Result.ok();
  16.     }
复制代码

  1.     @Override
  2.     public Result login(LoginFormDTO loginForm, HttpSession session) {
  3.         // 1.校验手机号
  4.         String phone = loginForm.getPhone();
  5.         if (RegexUtils.isPhoneInvalid(phone)) {
  6.             // 2.如果不符合,返回错误信息
  7.             return Result.fail("手机号格式错误!");
  8.         }
  9.         // 3.校验验证码
  10.         Object cacheCode = session.getAttribute("code");
  11.         String code = loginForm.getCode();
  12.         if(cacheCode == null || !cacheCode.toString().equals(code)){
  13.              //3.不一致,报错
  14.             return Result.fail("验证码错误");
  15.         }
  16.         //一致,根据手机号查询用户
  17.         User user = query().eq("phone", phone).one();
  18.         //5.判断用户是否存在
  19.         if(user == null){
  20.             //不存在,则创建
  21.             user =  createUserWithPhone(phone);
  22.         }
  23.         //7.保存用户信息到session中
  24.         session.setAttribute("user",user);
  25.         return Result.ok();
  26.     }
复制代码
1.4、实现登录拦截功能

温馨小贴士:tomcat的运行原理

当用户发起哀求时,会访问我们像tomcat注册的端口,任何步伐想要运行,都需要有一个线程对当前端标语举行监听,tomcat也不破例,当监听线程知道用户想要和tomcat连接连接时,那会由监听线程创建socket连接,socket都是成对出现的,用户通过socket像相互传递数据,当tomcat端的socket接受到数据后,此时监听线程会从tomcat的线程池中取出一个线程实行用户哀求,在我们的服务部署到tomcat后,线程会找到用户想要访问的工程,然后用这个线程转发到工程中的controller,service,dao中,并且访问对应的DB,在用户实行完哀求后,再统一返回,再找到tomcat端的socket,再将数据写回到用户端的socket,完成哀求和相应
通过以上解说,我们可以得知 每个用户其实对应都是去找tomcat线程池中的一个线程来完成工作的, 使用完成后再举行接纳,既然每个哀求都是独立的,以是在每个用户去访问我们的工程时,我们可以使用threadlocal来做到线程隔离,每个线程操作自己的一份数据
温馨小贴士:关于threadlocal
如果小伙伴们看过threadLocal的源码,你会发现在threadLocal中,无论是他的put方法和他的get方法, 都是先从得到当前用户的线程,然后从线程中取出线程的成员变量map,只要线程不一样,map就不一样,以是可以通过这种方式来做到线程隔离

拦截器代码
  1. public class LoginInterceptor implements HandlerInterceptor {
  2.     @Override
  3.     public boolean preHandle(HttpServletRequest request, HttpServletResponse response, Object handler) throws Exception {
  4.        //1.获取session
  5.         HttpSession session = request.getSession();
  6.         //2.获取session中的用户
  7.         Object user = session.getAttribute("user");
  8.         //3.判断用户是否存在
  9.         if(user == null){
  10.               //4.不存在,拦截,返回401状态码
  11.               response.setStatus(401);
  12.               return false;
  13.         }
  14.         //5.存在,保存用户信息到Threadlocal
  15.         UserHolder.saveUser((User)user);
  16.         //6.放行
  17.         return true;
  18.     }
  19. }
复制代码
让拦截器生效
  1. @Configuration
  2. public class MvcConfig implements WebMvcConfigurer {
  3.     @Resource
  4.     private StringRedisTemplate stringRedisTemplate;
  5.     @Override
  6.     public void addInterceptors(InterceptorRegistry registry) {
  7.         // 登录拦截器
  8.         registry.addInterceptor(new LoginInterceptor())
  9.                 .excludePathPatterns(
  10.                         "/shop/**",
  11.                         "/voucher/**",
  12.                         "/shop-type/**",
  13.                         "/upload/**",
  14.                         "/blog/hot",
  15.                         "/user/code",
  16.                         "/user/login"
  17.                 ).order(1);
  18.         // token刷新的拦截器
  19.         registry.addInterceptor(new RefreshTokenInterceptor(stringRedisTemplate)).addPathPatterns("/**").order(0);
  20.     }
  21. }
复制代码
1.5、隐蔽用户敏感信息

我们通过浏览器观察到此时用户的全部信息都在,这样极为不靠谱,以是我们应当在返回用户信息之前,将用户的敏感信息举行隐蔽,接纳的焦点思路就是书写一个UserDto对象,这个UserDto对象就没有敏感信息了,我们在返回前,将有用户敏感信息的User对象转化成没有敏感信息的UserDto对象,那么就能够制止这个尴尬的问题了
在登录方法处修改
  1. //7.保存用户信息到session中
  2. session.setAttribute("user", BeanUtils.copyProperties(user,UserDTO.class));
复制代码
在拦截器处:
  1. //5.存在,保存用户信息到Threadlocal
  2. UserHolder.saveUser((UserDTO) user);
复制代码
在UserHolder处:将user对象换成UserDTO
  1. public class UserHolder {
  2.     private static final ThreadLocal<UserDTO> tl = new ThreadLocal<>();
  3.     public static void saveUser(UserDTO user){
  4.         tl.set(user);
  5.     }
  6.     public static UserDTO getUser(){
  7.         return tl.get();
  8.     }
  9.     public static void removeUser(){
  10.         tl.remove();
  11.     }
  12. }
复制代码
1.6、session共享问题

焦点思路分析:
每个tomcat中都有一份属于自己的session,假设用户第一次访问第一台tomcat,并且把自己的信息存放到第一台服务器的session中,但是第二次这个用户访问到了第二台tomcat,那么在第二台服务器上,肯定没有第一台服务器存放的session,以是此时 整个登录拦截功能就会出现问题,我们能如何解决这个问题呢?早期的方案是session拷贝,就是说虽然每个tomcat上都有不同的session,但是每当任意一台服务器的session修改时,都会同步给其他的Tomcat服务器的session,这样的话,就可以实现session的共享了
但是这种方案具有两个大问题
1、每台服务器中都有完整的一份session数据,服务器压力过大。
2、session拷贝数据时,大概会出现延长
以是咱们厥后接纳的方案都是基于redis来完成,我们把session换成redis,redis数据本身就是共享的,就可以制止session共享的问题了

1.7 Redis代替session的业务流程

1.7.1、设计key的布局

起首我们要思考一下利用redis来存储数据,那么到底使用哪种布局呢?由于存入的数据比力简朴,我们可以考虑使用String,或者是使用哈希,如下图,如果使用String,同学们留意他的value,用多占用一点空间,如果使用哈希,则他的value中只会存储他数据本身,如果不是特别在意内存,其实使用String就可以啦。

1.7.2、设计key的具体细节

以是我们可以使用String布局,就是一个简朴的key,value键值对的方式,但是关于key的处理,session他是每个用户都有自己的session,但是redis的key是共享的,咱们就不能使用code了
在设计这个key的时候,我们之前讲过需要满足两点
1、key要具有唯一性
2、key要方便携带
如果我们接纳phone:手机号这个的数据来存储固然是可以的,但是如果把这样的敏感数据存储到redis中并且从页面中带过来究竟不太符合,以是我们在后台生成一个随机串token,然后让前端带来这个token就能完成我们的团体逻辑了
1.7.3、团体访问流程

当注册完成后,用户去登录会去校验用户提交的手机号和验证码,是否同等,如果同等,则根据手机号查询用户信息,不存在则新建,最后将用户数据保存到redis,并且生成token作为redis的key,当我们校验用户是否登录时,会去携带着token举行访问,从redis中取出token对应的value,判断是否存在这个数据,如果没有则拦截,如果存在则将其保存到threadLocal中,并且放行。

1.8 基于Redis实现短信登录

这里具体逻辑就不分析了,之前咱们已经重点分析过这个逻辑啦。
UserServiceImpl代码
  1. @Override
  2. public Result login(LoginFormDTO loginForm, HttpSession session) {
  3.     // 1.校验手机号
  4.     String phone = loginForm.getPhone();
  5.     if (RegexUtils.isPhoneInvalid(phone)) {
  6.         // 2.如果不符合,返回错误信息
  7.         return Result.fail("手机号格式错误!");
  8.     }
  9.     // 3.从redis获取验证码并校验
  10.     String cacheCode = stringRedisTemplate.opsForValue().get(LOGIN_CODE_KEY + phone);
  11.     String code = loginForm.getCode();
  12.     if (cacheCode == null || !cacheCode.equals(code)) {
  13.         // 不一致,报错
  14.         return Result.fail("验证码错误");
  15.     }
  16.     // 4.一致,根据手机号查询用户 select * from tb_user where phone = ?
  17.     User user = query().eq("phone", phone).one();
  18.     // 5.判断用户是否存在
  19.     if (user == null) {
  20.         // 6.不存在,创建新用户并保存
  21.         user = createUserWithPhone(phone);
  22.     }
  23.     // 7.保存用户信息到 redis中
  24.     // 7.1.随机生成token,作为登录令牌
  25.     String token = UUID.randomUUID().toString(true);
  26.     // 7.2.将User对象转为HashMap存储
  27.     UserDTO userDTO = BeanUtil.copyProperties(user, UserDTO.class);
  28.     Map<String, Object> userMap = BeanUtil.beanToMap(userDTO, new HashMap<>(),
  29.             CopyOptions.create()
  30.                     .setIgnoreNullValue(true)
  31.                     .setFieldValueEditor((fieldName, fieldValue) -> fieldValue.toString()));
  32.     // 7.3.存储
  33.     String tokenKey = LOGIN_USER_KEY + token;
  34.     stringRedisTemplate.opsForHash().putAll(tokenKey, userMap);
  35.     // 7.4.设置token有效期
  36.     stringRedisTemplate.expire(tokenKey, LOGIN_USER_TTL, TimeUnit.MINUTES);
  37.     // 8.返回token
  38.     return Result.ok(token);
  39. }
复制代码
1.9 解决状态登录刷新问题

1.9.1 初始方案思路总结:

在这个方案中,他确实可以使用对应路径的拦截,同时刷新登录token令牌的存活时间,但是现在这个拦截器他只是拦截需要被拦截的路径,假设当前用户访问了一些不需要拦截的路径,那么这个拦截器就不会生效,以是此时令牌刷新的动作实际上就不会实行,以是这个方案他是存在问题的

1.9.2 优化方案

既然之前的拦截器无法对不需要拦截的路径生效,那么我们可以添加一个拦截器,在第一个拦截器中拦截所有的路径,把第二个拦截器做的事变放入到第一个拦截器中,同时刷新令牌,由于第一个拦截器有了threadLocal的数据,以是此时第二个拦截器只需要判断拦截器中的user对象是否存在即可,完成团体刷新功能。

1.9.3 代码

RefreshTokenInterceptor
  1. public class RefreshTokenInterceptor implements HandlerInterceptor {
  2.     private StringRedisTemplate stringRedisTemplate;
  3.     public RefreshTokenInterceptor(StringRedisTemplate stringRedisTemplate) {
  4.         this.stringRedisTemplate = stringRedisTemplate;
  5.     }
  6.     @Override
  7.     public boolean preHandle(HttpServletRequest request, HttpServletResponse response, Object handler) throws Exception {
  8.         // 1.获取请求头中的token
  9.         String token = request.getHeader("authorization");
  10.         if (StrUtil.isBlank(token)) {
  11.             return true;
  12.         }
  13.         // 2.基于TOKEN获取redis中的用户
  14.         String key  = LOGIN_USER_KEY + token;
  15.         Map<Object, Object> userMap = stringRedisTemplate.opsForHash().entries(key);
  16.         // 3.判断用户是否存在
  17.         if (userMap.isEmpty()) {
  18.             return true;
  19.         }
  20.         // 5.将查询到的hash数据转为UserDTO
  21.         UserDTO userDTO = BeanUtil.fillBeanWithMap(userMap, new UserDTO(), false);
  22.         // 6.存在,保存用户信息到 ThreadLocal
  23.         UserHolder.saveUser(userDTO);
  24.         // 7.刷新token有效期
  25.         stringRedisTemplate.expire(key, LOGIN_USER_TTL, TimeUnit.MINUTES);
  26.         // 8.放行
  27.         return true;
  28.     }
  29.     @Override
  30.     public void afterCompletion(HttpServletRequest request, HttpServletResponse response, Object handler, Exception ex) throws Exception {
  31.         // 移除用户
  32.         UserHolder.removeUser();
  33.     }
  34. }
  35.        
复制代码
LoginInterceptor
  1. public class LoginInterceptor implements HandlerInterceptor {
  2.     @Override
  3.     public boolean preHandle(HttpServletRequest request, HttpServletResponse response, Object handler) throws Exception {
  4.         // 1.判断是否需要拦截(ThreadLocal中是否有用户)
  5.         if (UserHolder.getUser() == null) {
  6.             // 没有,需要拦截,设置状态码
  7.             response.setStatus(401);
  8.             // 拦截
  9.             return false;
  10.         }
  11.         // 有用户,则放行
  12.         return true;
  13.     }
  14. }
复制代码
2、商户查询缓存

2.1 什么是缓存?

媒介:什么是缓存?
就像自行车,越野车的避震器

举个例子:越野车,山地自行车,都拥有"避震器",防止车体加速后因惯性,在酷似"U"字母的地形上飞跃,硬着陆导致的损害,像个弹簧一样;
同样,实际开发中,体系也需要"避震器",防止过高的数据访问猛冲体系,导致其操作线程无法实时处理信息而瘫痪;
这在实际开发中对企业讲,对产品口碑,用户评价都是致命的;以是企业非常重视缓存技术;
缓存(Cache),就是数据交换的缓冲区,俗称的缓存就是缓冲区内的数据,一般从数据库中获取,存储于本地代码(例如:
  1. 例1:Static final ConcurrentHashMap<K,V> map = new ConcurrentHashMap<>(); 本地用于高并发
  2. 例2:static final Cache<K,V> USER_CACHE = CacheBuilder.newBuilder().build(); 用于redis等缓存
  3. 例3:Static final Map<K,V> map =  new HashMap(); 本地缓存
复制代码
由于其被Static修饰,以是随着类的加载而被加载到内存之中,作为本地缓存,由于其又被final修饰,以是其引用(例3:map)和对象(例3:new HashMap())之间的关系是固定的,不能改变,因此不消担心赋值(=)导致缓存失效;
2.1.1 为什么要使用缓存

一句话:由于速度快,好用
缓存数据存储于代码中,而代码运行在内存中,内存的读写性能远高于磁盘,缓存可以大大降低用户访问并发量带来的服务器读写压力
实际开发过程中,企业的数据量,少则几十万,多则几万万,这么大数据量,如果没有缓存来作为"避震器",体系是几乎撑不住的,以是企业会大量运用到缓存技术;
但是缓存也会增加代码复杂度和运营的成本:

2.1.2 如何使用缓存

实际开发中,会构筑多级缓存来使体系运行速度进一步提升,例如:本地缓存与redis中的缓存并发使用
浏览器缓存:重要是存在于浏览器端的缓存
**应用层缓存:**可以分为tomcat本地缓存,比如之前提到的map,或者是使用redis作为缓存
**数据库缓存:**在数据库中有一片空间是 buffer pool,增改查数据都会先加载到mysql的缓存中
**CPU缓存:**今世计算机最大的问题是 cpu性能提升了,但内存读写速度没有跟上,以是为了适应当下的环境,增加了cpu的L1,L2,L3级的缓存

2.2 添加商户缓存

在我们查询商户信息时,我们是直接操作从数据库中去举行查询的,大致逻辑是这样,直接查询数据库那肯定慢咯,以是我们需要增加缓存
  1. @GetMapping("/{id}")
  2. public Result queryShopById(@PathVariable("id") Long id) {
  3.     //这里是直接查询数据库
  4.     return shopService.queryById(id);
  5. }
复制代码
2.2.1 、缓存模型和思路

尺度的操作方式就是查询数据库之前先查询缓存,如果缓存数据存在,则直接从缓存中返回,如果缓存数据不存在,再查询数据库,然后将数据存入redis。

2.1.2、代码如下

代码思路:如果缓存有,则直接返回,如果缓存不存在,则查询数据库,然后存入redis。

2.3 缓存更新计谋

缓存更新是redis为了节约内存而设计出来的一个东西,重要是由于内存数据宝贵,当我们向redis插入太多数据,此时就大概会导致缓存中的数据过多,以是redis会对部门数据举行更新,或者把他叫为淘汰更符合。
**内存淘汰:**redis自动举行,当redis内存到达咱们设定的max-memery的时候,会自动触发淘汰机制,淘汰掉一些不紧张的数据(可以自己设置计谋方式)
**超时剔除:**当我们给redis设置了过期时间ttl之后,redis会将超时的数据举行删除,方便咱们继续使用缓存
**自动更新:**我们可以手动调用方法把缓存删掉,通常用于解决缓存和数据库不同等问题

2.3.1 、数据库缓存不同等解决方案:

由于我们的缓存的数据源来自于数据库,而数据库的数据是会发生变革的,因此,如果当数据库中数据发生变革,而缓存却没有同步,此时就会有同等性问题存在,其后果是:
用户使用缓存中的过时数据,就会产生类似多线程数据安全问题,从而影响业务,产品口碑等;怎么解决呢?有如下几种方案
Cache Aside Pattern 人工编码方式:缓存调用者在更新完数据库后再去更新缓存,也称之为双写方案
Read/Write Through Pattern : 由体系本身完成,数据库与缓存的问题交由体系本身去处理
Write Behind Caching Pattern :调用者只操作缓存,其他线程去异步处理数据库,实现终极同等

2.3.2 、数据库和缓存不同等接纳什么方案

综合考虑使用方案一,但是方案一调用者如何处理呢?这里有几个问题
操作缓存和数据库时有三个问题需要考虑:
如果接纳第一个方案,那么假设我们每次操作数据库后,都操作缓存,但是中心如果没有人查询,那么这个更新动作实际上只有最后一次生效,中心的更新动作意义并不大,我们可以把缓存删除,等候再次查询时,将缓存中的数据加载出来

应该具体操作缓存还是操作数据库,我们应当是先操作数据库,再删除缓存,缘故因由在于,如果你选择第一种方案,在两个线程并发来访问时,假设线程1先来,他先把缓存删了,此时线程2过来,他查询缓存数据并不存在,此时他写入缓存,当他写入缓存后,线程1再实行更新动作时,实际上写入的就是旧的数据,新的数据被旧数据覆盖了。


2.4 实现商店和缓存与数据库双写同等

焦点思路如下:
修改ShopController中的业务逻辑,满足下面的需求:
根据id查询店肆时,如果缓存未命中,则查询数据库,将数据库结果写入缓存,并设置超时时间
根据id修改店肆时,先修改数据库,再删除缓存
修改重点代码1:修改ShopServiceImpl的queryById方法
设置redis缓存时添加过期时间

修改重点代码2
代码分析:通过之前的淘汰,我们确定了接纳删除计谋,来解决双写问题,当我们修改了数据之后,然后把缓存中的数据举行删除,查询时发现缓存中没有数据,则会从mysql中加载最新的数据,从而制止数据库和缓存不同等的问题

2.5 缓存穿透问题的解决思路

缓存穿透 :缓存穿透是指客户端哀求的数据在缓存中和数据库中都不存在,这样缓存永远不会生效,这些哀求都会打到数据库。
常见的解决方案有两种:

**缓存空对象思路分析:**当我们客户端访问不存在的数据时,先哀求redis,但是此时redis中没有数据,此时会访问到数据库,但是数据库中也没有数据,这个数据穿透了缓存,直击数据库,我们都知道数据库能够承载的并发不如redis这么高,如果大量的哀求同时过来访问这种不存在的数据,这些哀求就都会访问到数据库,简朴的解决方案就是哪怕这个数据在数据库中也不存在,我们也把这个数据存入到redis中去,这样,下次用户过来访问这个不存在的数据,那么在redis中也能找到这个数据就不会进入到缓存了
**布隆过滤:**布隆过滤器其实接纳的是哈希思想来解决这个问题,通过一个庞大的二进制数组,走哈希思想去判断当前这个要查询的这个数据是否存在,如果布隆过滤器判断存在,则放行,这个哀求会去访问redis,哪怕此时redis中的数据过期了,但是数据库中肯定存在这个数据,在数据库中查询出来这个数据后,再将其放入到redis中,
假设布隆过滤器判断这个数据不存在,则直接返回
这种方式长处在于节约内存空间,存在误判,误判缘故因由在于:布隆过滤器走的是哈希思想,只要哈希思想,就大概存在哈希冲突

2.6 编码解决商品查询的缓存穿透问题:

焦点思路如下:
在原来的逻辑中,我们如果发现这个数据在mysql中不存在,直接就返回404了,这样是会存在缓存穿透问题的
现在的逻辑中:如果这个数据不存在,我们不会返回404 ,还是会把这个数据写入到Redis中,并且将value设置为空,欧当再次发起查询时,我们如果发现命中之后,判断这个value是否是null,如果是null,则是之前写入的数据,证明是缓存穿透数据,如果不是,则直接返回数据。

小总结:
缓存穿透产生的缘故因由是什么?

缓存穿透的解决方案有哪些?

2.7 缓存雪崩问题及解决思路

缓存雪崩是指在同一时段大量的缓存key同时失效或者Redis服务宕机,导致大量哀求到达数据库,带来巨大压力。
解决方案:


2.8 缓存击穿问题及解决思路

缓存击穿问题也叫热门Key问题,就是一个被高并发访问并且缓存重建业务较复杂的key突然失效了,无数的哀求访问会在瞬间给数据库带来巨大的冲击。
常见的解决方案有两种:

逻辑分析:假设线程1在查询缓存之后,原来应该去查询数据库,然后把这个数据重新加载到缓存的,此时只要线程1走完这个逻辑,其他线程就都能从缓存中加载这些数据了,但是假设在线程1没有走完的时候,后续的线程2,线程3,线程4同时过来访问当前这个方法, 那么这些线程都不能从缓存中查询到数据,那么他们就会同一时候来访问查询缓存,都没查到,接着同一时间去访问数据库,同时的去实行数据库代码,对数据库访问压力过大

解决方案一、使用锁来解决:
由于锁能实现互斥性。假设线程过来,只能一个人一个人的来访问数据库,从而制止对于数据库访问压力过大,但这也会影响查询的性能,由于此时会让查询的性能从并行变成了串行,我们可以接纳tryLock方法 + double check来解决这样的问题。
假设现在线程1过来访问,他查询缓存没有命中,但是此时他得到到了锁的资源,那么线程1就会一个人去实行逻辑,假设现在线程2过来,线程2在实行过程中,并没有得到到锁,那么线程2就可以举行到休眠,直到线程1把锁开释后,线程2得到到锁,然后再来实行逻辑,此时就能够从缓存中拿到数据了。

解决方案二、逻辑过期方案
方案分析:我们之以是会出现这个缓存击穿问题,重要缘故因由是在于我们对key设置了过期时间,假设我们不设置过期时间,其实就不会有缓存击穿的问题,但是不设置过期时间,这样数据不就不停占用我们内存了吗,我们可以接纳逻辑过期方案。
我们把过期时间设置在 redis的value中,留意:这个过期时间并不会直接作用于redis,而是我们后续通过逻辑去处理。假设线程1去查询缓存,然后从value中判断出来当前的数据已经过期了,此时线程1去得到互斥锁,那么其他线程会举行阻塞,得到了锁的线程他会开启一个 线程去举行 以前的重构数据的逻辑,直到新开的线程完成这个逻辑后,才开释锁, 而线程1直接举行返回,假设现在线程3过来访问,由于线程线程2持有着锁,以是线程3无法得到锁,线程3也直接返回数据,只有比及新开的线程2把重建数据构建完后,其他线程才能走返回正确的数据。
这种方案奇妙在于,异步的构建缓存,缺点在于在构建完缓存之前,返回的都是脏数据。

举行对比
**互斥锁方案:**由于保证了互斥性,以是数据同等,且实现简朴,由于仅仅只需要加一把锁而已,也没其他的事变需要费心,以是没有额外的内存消耗,缺点在于有锁就有死锁问题的发生,且只能串行实行性能肯定受到影响
逻辑过期方案: 线程读取过程中不需要等候,性能好,有一个额外的线程持有锁去举行重构数据,但是在重构数据完成前,其他的线程只能返回之前的数据,且实现起来贫苦

2.9 利用互斥锁解决缓存击穿问题

焦点思路:相较于原来从缓存中查询不到数据后直接查询数据库而言,现在的方案是 举行查询之后,如果从缓存没有查询到数据,则举行互斥锁的获取,获取互斥锁后,判断是否得到到了锁,如果没有得到到,则休眠,过一会再举行尝试,直到获取到锁为止,才能举行查询
如果获取到了锁的线程,再去举行查询,查询后将数据写入redis,再开释锁,返回数据,利用互斥锁就能保证只有一个线程去实行操作数据库的逻辑,防止缓存击穿

操作锁的代码:
焦点思路就是利用redis的setnx方法来表示获取锁,该方法寄义是redis中如果没有这个key,则插入成功,返回1,在stringRedisTemplate中返回true, 如果有这个key则插入失败,则返回0,在stringRedisTemplate返回false,我们可以通过true,或者是false,来表示是否有线程成功插入key,成功插入的key的线程我们认为他就是得到到锁的线程。
  1. private boolean tryLock(String key) {
  2.     Boolean flag = stringRedisTemplate.opsForValue().setIfAbsent(key, "1", 10, TimeUnit.SECONDS);
  3.     return BooleanUtil.isTrue(flag);
  4. }
  5. private void unlock(String key) {
  6.     stringRedisTemplate.delete(key);
  7. }
复制代码
操作代码:
  1. public Shop queryWithMutex(Long id)  {
  2.         String key = CACHE_SHOP_KEY + id;
  3.         // 1、从redis中查询商铺缓存
  4.         String shopJson = stringRedisTemplate.opsForValue().get("key");
  5.         // 2、判断是否存在
  6.         if (StrUtil.isNotBlank(shopJson)) {
  7.             // 存在,直接返回
  8.             return JSONUtil.toBean(shopJson, Shop.class);
  9.         }
  10.         //判断命中的值是否是空值
  11.         if (shopJson != null) {
  12.             //返回一个错误信息
  13.             return null;
  14.         }
  15.         // 4.实现缓存重构
  16.         //4.1 获取互斥锁
  17.         String lockKey = "lock:shop:" + id;
  18.         Shop shop = null;
  19.         try {
  20.             boolean isLock = tryLock(lockKey);
  21.             // 4.2 判断否获取成功
  22.             if(!isLock){
  23.                 //4.3 失败,则休眠重试
  24.                 Thread.sleep(50);
  25.                 return queryWithMutex(id);
  26.             }
  27.             //4.4 成功,根据id查询数据库
  28.              shop = getById(id);
  29.             // 5.不存在,返回错误
  30.             if(shop == null){
  31.                  //将空值写入redis
  32.                 stringRedisTemplate.opsForValue().set(key,"",CACHE_NULL_TTL,TimeUnit.MINUTES);
  33.                 //返回错误信息
  34.                 return null;
  35.             }
  36.             //6.写入redis
  37.             stringRedisTemplate.opsForValue().set(key,JSONUtil.toJsonStr(shop),CACHE_NULL_TTL,TimeUnit.MINUTES);
  38.         }catch (Exception e){
  39.             throw new RuntimeException(e);
  40.         }
  41.         finally {
  42.             //7.释放互斥锁
  43.             unlock(lockKey);
  44.         }
  45.         return shop;
  46.     }
复制代码
3.0 、利用逻辑过期解决缓存击穿问题

需求:修改根据id查询商店的业务,基于逻辑过期方式来解决缓存击穿问题
思路分析:当用户开始查询redis时,判断是否命中,如果没有命中则直接返回空数据,不查询数据库,而一旦命中后,将value取出,判断value中的过期时间是否满足,如果没有过期,则直接返回redis中的数据,如果过期,则在开启独立线程后直接返回之前的数据,独立线程去重构数据,重构完成后开释互斥锁。

如果封装数据:由于现在redis中存储的数据的value需要带上过期时间,此时要么你去修改原来的实体类,要么你
步调一、
新建一个实体类,我们接纳第二个方案,这个方案,对原来代码没有侵入性。
  1. @Data
  2. public class RedisData {
  3.     private LocalDateTime expireTime;
  4.     private Object data;
  5. }
复制代码
步调二、
ShopServiceImpl 新增此方法,利用单元测试举行缓存预热

在测试类中

步调三:正式代码
ShopServiceImpl
  1. private static final ExecutorService CACHE_REBUILD_EXECUTOR = Executors.newFixedThreadPool(10);
  2. public Shop queryWithLogicalExpire( Long id ) {
  3.     String key = CACHE_SHOP_KEY + id;
  4.     // 1.从redis查询商铺缓存
  5.     String json = stringRedisTemplate.opsForValue().get(key);
  6.     // 2.判断是否存在
  7.     if (StrUtil.isBlank(json)) {
  8.         // 3.存在,直接返回
  9.         return null;
  10.     }
  11.     // 4.命中,需要先把json反序列化为对象
  12.     RedisData redisData = JSONUtil.toBean(json, RedisData.class);
  13.     Shop shop = JSONUtil.toBean((JSONObject) redisData.getData(), Shop.class);
  14.     LocalDateTime expireTime = redisData.getExpireTime();
  15.     // 5.判断是否过期
  16.     if(expireTime.isAfter(LocalDateTime.now())) {
  17.         // 5.1.未过期,直接返回店铺信息
  18.         return shop;
  19.     }
  20.     // 5.2.已过期,需要缓存重建
  21.     // 6.缓存重建
  22.     // 6.1.获取互斥锁
  23.     String lockKey = LOCK_SHOP_KEY + id;
  24.     boolean isLock = tryLock(lockKey);
  25.     // 6.2.判断是否获取锁成功
  26.     if (isLock){
  27.         CACHE_REBUILD_EXECUTOR.submit( ()->{
  28.             try{
  29.                 //重建缓存
  30.                 this.saveShop2Redis(id,20L);
  31.             }catch (Exception e){
  32.                 throw new RuntimeException(e);
  33.             }finally {
  34.                 unlock(lockKey);
  35.             }
  36.         });
  37.     }
  38.     // 6.4.返回过期的商铺信息
  39.     return shop;
  40. }
复制代码
3.1、封装Redis工具类

基于StringRedisTemplate封装一个缓存工具类,满足下列需求:

存击穿问题

将逻辑举行封装
  1. @Slf4j
  2. @Component
  3. public class CacheClient {
  4.     private final StringRedisTemplate stringRedisTemplate;
  5.     private static final ExecutorService CACHE_REBUILD_EXECUTOR = Executors.newFixedThreadPool(10);
  6.     public CacheClient(StringRedisTemplate stringRedisTemplate) {
  7.         this.stringRedisTemplate = stringRedisTemplate;
  8.     }
  9.     public void set(String key, Object value, Long time, TimeUnit unit) {
  10.         stringRedisTemplate.opsForValue().set(key, JSONUtil.toJsonStr(value), time, unit);
  11.     }
  12.     public void setWithLogicalExpire(String key, Object value, Long time, TimeUnit unit) {
  13.         // 设置逻辑过期
  14.         RedisData redisData = new RedisData();
  15.         redisData.setData(value);
  16.         redisData.setExpireTime(LocalDateTime.now().plusSeconds(unit.toSeconds(time)));
  17.         // 写入Redis
  18.         stringRedisTemplate.opsForValue().set(key, JSONUtil.toJsonStr(redisData));
  19.     }
  20.     public <R,ID> R queryWithPassThrough(
  21.             String keyPrefix, ID id, Class<R> type, Function<ID, R> dbFallback, Long time, TimeUnit unit){
  22.         String key = keyPrefix + id;
  23.         // 1.从redis查询商铺缓存
  24.         String json = stringRedisTemplate.opsForValue().get(key);
  25.         // 2.判断是否存在
  26.         if (StrUtil.isNotBlank(json)) {
  27.             // 3.存在,直接返回
  28.             return JSONUtil.toBean(json, type);
  29.         }
  30.         // 判断命中的是否是空值
  31.         if (json != null) {
  32.             // 返回一个错误信息
  33.             return null;
  34.         }
  35.         // 4.不存在,根据id查询数据库
  36.         R r = dbFallback.apply(id);
  37.         // 5.不存在,返回错误
  38.         if (r == null) {
  39.             // 将空值写入redis
  40.             stringRedisTemplate.opsForValue().set(key, "", CACHE_NULL_TTL, TimeUnit.MINUTES);
  41.             // 返回错误信息
  42.             return null;
  43.         }
  44.         // 6.存在,写入redis
  45.         this.set(key, r, time, unit);
  46.         return r;
  47.     }
  48.     public <R, ID> R queryWithLogicalExpire(
  49.             String keyPrefix, ID id, Class<R> type, Function<ID, R> dbFallback, Long time, TimeUnit unit) {
  50.         String key = keyPrefix + id;
  51.         // 1.从redis查询商铺缓存
  52.         String json = stringRedisTemplate.opsForValue().get(key);
  53.         // 2.判断是否存在
  54.         if (StrUtil.isBlank(json)) {
  55.             // 3.存在,直接返回
  56.             return null;
  57.         }
  58.         // 4.命中,需要先把json反序列化为对象
  59.         RedisData redisData = JSONUtil.toBean(json, RedisData.class);
  60.         R r = JSONUtil.toBean((JSONObject) redisData.getData(), type);
  61.         LocalDateTime expireTime = redisData.getExpireTime();
  62.         // 5.判断是否过期
  63.         if(expireTime.isAfter(LocalDateTime.now())) {
  64.             // 5.1.未过期,直接返回店铺信息
  65.             return r;
  66.         }
  67.         // 5.2.已过期,需要缓存重建
  68.         // 6.缓存重建
  69.         // 6.1.获取互斥锁
  70.         String lockKey = LOCK_SHOP_KEY + id;
  71.         boolean isLock = tryLock(lockKey);
  72.         // 6.2.判断是否获取锁成功
  73.         if (isLock){
  74.             // 6.3.成功,开启独立线程,实现缓存重建
  75.             CACHE_REBUILD_EXECUTOR.submit(() -> {
  76.                 try {
  77.                     // 查询数据库
  78.                     R newR = dbFallback.apply(id);
  79.                     // 重建缓存
  80.                     this.setWithLogicalExpire(key, newR, time, unit);
  81.                 } catch (Exception e) {
  82.                     throw new RuntimeException(e);
  83.                 }finally {
  84.                     // 释放锁
  85.                     unlock(lockKey);
  86.                 }
  87.             });
  88.         }
  89.         // 6.4.返回过期的商铺信息
  90.         return r;
  91.     }
  92.     public <R, ID> R queryWithMutex(
  93.             String keyPrefix, ID id, Class<R> type, Function<ID, R> dbFallback, Long time, TimeUnit unit) {
  94.         String key = keyPrefix + id;
  95.         // 1.从redis查询商铺缓存
  96.         String shopJson = stringRedisTemplate.opsForValue().get(key);
  97.         // 2.判断是否存在
  98.         if (StrUtil.isNotBlank(shopJson)) {
  99.             // 3.存在,直接返回
  100.             return JSONUtil.toBean(shopJson, type);
  101.         }
  102.         // 判断命中的是否是空值
  103.         if (shopJson != null) {
  104.             // 返回一个错误信息
  105.             return null;
  106.         }
  107.         // 4.实现缓存重建
  108.         // 4.1.获取互斥锁
  109.         String lockKey = LOCK_SHOP_KEY + id;
  110.         R r = null;
  111.         try {
  112.             boolean isLock = tryLock(lockKey);
  113.             // 4.2.判断是否获取成功
  114.             if (!isLock) {
  115.                 // 4.3.获取锁失败,休眠并重试
  116.                 Thread.sleep(50);
  117.                 return queryWithMutex(keyPrefix, id, type, dbFallback, time, unit);
  118.             }
  119.             // 4.4.获取锁成功,根据id查询数据库
  120.             r = dbFallback.apply(id);
  121.             // 5.不存在,返回错误
  122.             if (r == null) {
  123.                 // 将空值写入redis
  124.                 stringRedisTemplate.opsForValue().set(key, "", CACHE_NULL_TTL, TimeUnit.MINUTES);
  125.                 // 返回错误信息
  126.                 return null;
  127.             }
  128.             // 6.存在,写入redis
  129.             this.set(key, r, time, unit);
  130.         } catch (InterruptedException e) {
  131.             throw new RuntimeException(e);
  132.         }finally {
  133.             // 7.释放锁
  134.             unlock(lockKey);
  135.         }
  136.         // 8.返回
  137.         return r;
  138.     }
  139.     private boolean tryLock(String key) {
  140.         Boolean flag = stringRedisTemplate.opsForValue().setIfAbsent(key, "1", 10, TimeUnit.SECONDS);
  141.         return BooleanUtil.isTrue(flag);
  142.     }
  143.     private void unlock(String key) {
  144.         stringRedisTemplate.delete(key);
  145.     }
  146. }
复制代码
在ShopServiceImpl 中
  1. @Resource
  2. private CacheClient cacheClient;
  3. @Override
  4.     public Result queryById(Long id) {
  5.         // 解决缓存穿透
  6.         Shop shop = cacheClient
  7.                 .queryWithPassThrough(CACHE_SHOP_KEY, id, Shop.class, this::getById, CACHE_SHOP_TTL, TimeUnit.MINUTES);
  8.         // 互斥锁解决缓存击穿
  9.         // Shop shop = cacheClient
  10.         //         .queryWithMutex(CACHE_SHOP_KEY, id, Shop.class, this::getById, CACHE_SHOP_TTL, TimeUnit.MINUTES);
  11.         // 逻辑过期解决缓存击穿
  12.         // Shop shop = cacheClient
  13.         //         .queryWithLogicalExpire(CACHE_SHOP_KEY, id, Shop.class, this::getById, 20L, TimeUnit.SECONDS);
  14.         if (shop == null) {
  15.             return Result.fail("店铺不存在!");
  16.         }
  17.         // 7.返回
  18.         return Result.ok(shop);
  19.     }
复制代码
3、优惠卷秒杀

3.1 -全局唯一ID

每个店肆都可以发布优惠券:

当用户抢购时,就会生成订单并保存到tb_voucher_order这张表中,而订单表如果使用数据库自增ID就存在一些问题:

场景分析:如果我们的id具有太显着的规则,用户或者说商业对手很轻易推测出来我们的一些敏感信息,比如商城在一天时间内,卖出了多少单,这显着不符合。
场景分析二:随着我们商城规模越来越大,mysql的单表的容量不宜超过500W,数据量过大之后,我们要举行拆库拆表,但拆分表了之后,他们从逻辑上讲他们是同一张表,以是他们的id是不能一样的, 于是乎我们需要保证id的唯一性。
全局ID生成器,是一种在分布式体系下用来生玉成局唯一ID的工具,一般要满足下列特性:

为了增加ID的安全性,我们可以不直接使用Redis自增的数值,而是拼接一些其它信息:
ID的组成部门:符号位:1bit,永远为0
时间戳:31bit,以秒为单元,可以使用69年
序列号:32bit,秒内的计数器,支持每秒产生2^32个不同ID
3.2 -Redis实现全局唯一Id

  1. @Component
  2. public class RedisIdWorker {
  3.     /**
  4.      * 开始时间戳
  5.      */
  6.     private static final long BEGIN_TIMESTAMP = 1640995200L;
  7.     /**
  8.      * 序列号的位数
  9.      */
  10.     private static final int COUNT_BITS = 32;
  11.     private StringRedisTemplate stringRedisTemplate;
  12.     public RedisIdWorker(StringRedisTemplate stringRedisTemplate) {
  13.         this.stringRedisTemplate = stringRedisTemplate;
  14.     }
  15.     public long nextId(String keyPrefix) {
  16.         // 1.生成时间戳
  17.         LocalDateTime now = LocalDateTime.now();
  18.         long nowSecond = now.toEpochSecond(ZoneOffset.UTC);
  19.         long timestamp = nowSecond - BEGIN_TIMESTAMP;
  20.         // 2.生成序列号
  21.         // 2.1.获取当前日期,精确到天
  22.         String date = now.format(DateTimeFormatter.ofPattern("yyyy:MM:dd"));
  23.         // 2.2.自增长
  24.         long count = stringRedisTemplate.opsForValue().increment("icr:" + keyPrefix + ":" + date);
  25.         // 3.拼接并返回
  26.         return timestamp << COUNT_BITS | count;
  27.     }
  28. }
复制代码
测试类
知识小贴士:关于countdownlatch
countdownlatch名为信号枪:重要的作用是同步协调在多线程的等候于唤醒问题
我们如果没有CountDownLatch ,那么由于步伐是异步的,当异步步伐没有实行完时,主线程就已经实行完了,然后我们期望的是分线程全部走完之后,主线程再走,以是我们此时需要使用到CountDownLatch
CountDownLatch 中有两个最紧张的方法
1、countDown
2、await
await 方法 是阻塞方法,我们担心分线程没有实行完时,main线程就先实行,以是使用await可以让main线程阻塞,那么什么时候main线程不再阻塞呢?当CountDownLatch 内部维护的 变量变为0时,就不再阻塞,直接放行,那么什么时候CountDownLatch 维护的变量变为0 呢,我们只需要调用一次countDown ,内部变量就淘汰1,我们让分线程和变量绑定, 实行完一个分线程就淘汰一个变量,当分线程全部走完,CountDownLatch 维护的变量就是0,此时await就不再阻塞,统计出来的时间也就是所有分线程实行完后的时间。
  1. @Test
  2. void testIdWorker() throws InterruptedException {
  3.     CountDownLatch latch = new CountDownLatch(300);
  4.     Runnable task = () -> {
  5.         for (int i = 0; i < 100; i++) {
  6.             long id = redisIdWorker.nextId("order");
  7.             System.out.println("id = " + id);
  8.         }
  9.         latch.countDown();
  10.     };
  11.     long begin = System.currentTimeMillis();
  12.     for (int i = 0; i < 300; i++) {
  13.         es.submit(task);
  14.     }
  15.     latch.await();
  16.     long end = System.currentTimeMillis();
  17.     System.out.println("time = " + (end - begin));
  18. }
复制代码
3.3 添加优惠卷

每个店肆都可以发布优惠券,分为平价券和特价券。平价券可以任意购买,而特价券需要秒杀抢购:

tb_voucher:优惠券的基本信息,优惠金额、使用规则等
tb_seckill_voucher:优惠券的库存、开始抢购时间,竣事抢购时间。特价优惠券才需要填写这些信息
平价卷由于优惠力度并不是很大,以是是可以任意领取
而代金券由于优惠力度大,以是像第二种卷,就得限制数目,从表布局上也能看出,特价卷除了具有优惠卷的基本信息以外,还具有库存,抢购时间,竣事时间等等字段
**新增平凡卷代码: **VoucherController
  1. @PostMapping
  2. public Result addVoucher(@RequestBody Voucher voucher) {
  3.     voucherService.save(voucher);
  4.     return Result.ok(voucher.getId());
  5. }
复制代码
新增秒杀卷代码:
VoucherController
  1. @PostMapping("seckill")
  2. public Result addSeckillVoucher(@RequestBody Voucher voucher) {
  3.     voucherService.addSeckillVoucher(voucher);
  4.     return Result.ok(voucher.getId());
  5. }
复制代码
VoucherServiceImpl
  1. @Override
  2. @Transactional
  3. public void addSeckillVoucher(Voucher voucher) {
  4.     // 保存优惠券
  5.     save(voucher);
  6.     // 保存秒杀信息
  7.     SeckillVoucher seckillVoucher = new SeckillVoucher();
  8.     seckillVoucher.setVoucherId(voucher.getId());
  9.     seckillVoucher.setStock(voucher.getStock());
  10.     seckillVoucher.setBeginTime(voucher.getBeginTime());
  11.     seckillVoucher.setEndTime(voucher.getEndTime());
  12.     seckillVoucherService.save(seckillVoucher);
  13.     // 保存秒杀库存到Redis中
  14.     stringRedisTemplate.opsForValue().set(SECKILL_STOCK_KEY + voucher.getId(), voucher.getStock().toString());
  15. }
复制代码
3.4 实现秒杀下单

下单焦点思路:当我们点击抢购时,会触发右侧的哀求,我们只需要编写对应的controller即可

秒杀下单应该思考的内容:
下单时需要判断两点:

下单焦点逻辑分析:
当用户开始举行下单,我们应当去查询优惠卷信息,查询到优惠卷信息,判断是否满足秒杀条件
比如时间是否充足,如果时间充足,则进一步判断库存是否足够,如果两者都满足,则扣减库存,创建订单,然后返回订单id,如果有一个条件不满足则直接竣事。

VoucherOrderServiceImpl
  1. @Override
  2. public Result seckillVoucher(Long voucherId) {
  3.     // 1.查询优惠券
  4.     SeckillVoucher voucher = seckillVoucherService.getById(voucherId);
  5.     // 2.判断秒杀是否开始
  6.     if (voucher.getBeginTime().isAfter(LocalDateTime.now())) {
  7.         // 尚未开始
  8.         return Result.fail("秒杀尚未开始!");
  9.     }
  10.     // 3.判断秒杀是否已经结束
  11.     if (voucher.getEndTime().isBefore(LocalDateTime.now())) {
  12.         // 尚未开始
  13.         return Result.fail("秒杀已经结束!");
  14.     }
  15.     // 4.判断库存是否充足
  16.     if (voucher.getStock() < 1) {
  17.         // 库存不足
  18.         return Result.fail("库存不足!");
  19.     }
  20.     //5,扣减库存
  21.     boolean success = seckillVoucherService.update()
  22.             .setSql("stock= stock -1")
  23.             .eq("voucher_id", voucherId).update();
  24.     if (!success) {
  25.         //扣减库存
  26.         return Result.fail("库存不足!");
  27.     }
  28.     //6.创建订单
  29.     VoucherOrder voucherOrder = new VoucherOrder();
  30.     // 6.1.订单id
  31.     long orderId = redisIdWorker.nextId("order");
  32.     voucherOrder.setId(orderId);
  33.     // 6.2.用户id
  34.     Long userId = UserHolder.getUser().getId();
  35.     voucherOrder.setUserId(userId);
  36.     // 6.3.代金券id
  37.     voucherOrder.setVoucherId(voucherId);
  38.     save(voucherOrder);
  39.     return Result.ok(orderId);
  40. }
复制代码
3.5 库存超卖问题分析

有关超卖问题分析:在我们原有代码中是这么写的
  1. if (voucher.getStock() < 1) {
  2.         // 库存不足
  3.         return Result.fail("库存不足!");
  4.     }
  5.     //5,扣减库存
  6.     boolean success = seckillVoucherService.update()
  7.             .setSql("stock= stock -1")
  8.             .eq("voucher_id", voucherId).update();
  9.     if (!success) {
  10.         //扣减库存
  11.         return Result.fail("库存不足!");
  12.     }
复制代码
假设线程1过来查询库存,判断出来库存大于1,正准备去扣减库存,但是还没有来得及去扣减,此时线程2过来,线程2也去查询库存,发现这个数目肯定也大于1,那么这两个线程都会去扣减库存,终极多个线程相当于一起去扣减库存,此时就会出现库存的超卖问题。

超卖问题是典型的多线程安全问题,针对这一问题的常见解决方案就是加锁:而对于加锁,我们通常有两种解决方案:见下图:

悲观锁:
悲观锁可以实现对于数据的串行化实行,比如syn,和lock都是悲观锁的代表,同时,悲观锁中又可以再细分为公平锁,非公平锁,可重入锁,等等
乐观锁:
乐观锁:会有一个版本号,每次操作数据会对版本号+1,再提交回数据时,会去校验是否比之前的版本大1 ,如果大1 ,则举行操作成功,这套机制的焦点逻辑在于,如果在操作过程中,版本号只比原来大1 ,那么就意味着操作过程中没有人对他举行过修改,他的操作就是安全的,如果不大1,则数据被修改过,固然乐观锁另有一些变种的处理方式比如cas
乐观锁的典型代表:就是cas,利用cas举行无锁化机制加锁,var5 是操作前读取的内存值,while中的var1+var2 是预估值,如果预估值 == 内存值,则代表中心没有被人修改过,此时就将新值去替换 内存值
其中do while 是为了在操作失败时,再次举行自旋操作,即把之前的逻辑再操作一次。
  1. int var5;
  2. do {
  3.     var5 = this.getIntVolatile(var1, var2);
  4. } while(!this.compareAndSwapInt(var1, var2, var5, var5 + var4));
  5. return var5;
复制代码
课程中的使用方式:
课程中的使用方式是没有像cas一样带自旋的操作,也没有对version的版本号+1 ,他的操作逻辑是在操作时,对版本号举行+1 操作,然后要求version 如果是1 的环境下,才能操作,那么第一个线程在操作后,数据库中的version变成了2,但是他自己满足version=1 ,以是没有问题,此时线程2实行,线程2 最后也需要加上条件version =1 ,但是现在由于线程1已经操作过了,以是线程2,操作时就不满足version=1 的条件了,以是线程2无法实行成功

3.6 乐观锁解决超卖问题

修改代码方案一、
VoucherOrderServiceImpl 在扣减库存时,改为:
  1. boolean success = seckillVoucherService.update()
  2.             .setSql("stock= stock -1") //set stock = stock -1
  3.             .eq("voucher_id", voucherId).eq("stock",voucher.getStock()).update(); //where id = ? and stock = ?
复制代码
以上逻辑的焦点寄义是:只要我扣减库存时的库存和之前我查询到的库存是一样的,就意味着没有人在中心修改过库存,那么此时就是安全的,但是以上这种方式通过测试发现会有许多失败的环境,失败的缘故因由在于:在使用乐观锁过程中假设100个线程同时都拿到了100的库存,然后大家一起去举行扣减,但是100个人中只有1个人能扣减成功,其他的人在处理时,他们在扣减时,库存已经被修改过了,以是此时其他线程都会失败
修改代码方案二、
之前的方式要修改前后都保持同等,但是这样我们分析过,成功的概率太低,以是我们的乐观锁需要变一下,改成stock大于0 即可
  1. boolean success = seckillVoucherService.update()
  2.             .setSql("stock= stock -1")
  3.             .eq("voucher_id", voucherId).update().gt("stock",0); //where id = ? and stock > 0
复制代码
知识小扩展:
针对cas中的自旋压力过大,我们可以使用Longaddr这个类去解决
Java8 提供的一个对AtomicLong改进后的一个类,LongAdder
大量线程并发更新一个原子性的时候,天然的问题就是自旋,会导致并发性问题,固然这也比我们直接使用syn来的好
以是利用这么一个类,LongAdder来举行优化
如果获取某个值,则会对cell和base的值举行递增,最后返回一个完整的值

3.6 优惠券秒杀-一人一单

需求:修改秒杀业务,要求同一个优惠券,一个用户只能下一单
现在的问题在于:
优惠卷是为了引流,但是现在的环境是,一个人可以无穷制的抢这个优惠卷,以是我们应当增加一层逻辑,让一个用户只能下一个单,而不是让一个用户下多个单
具体操作逻辑如下:比如时间是否充足,如果时间充足,则进一步判断库存是否足够,然后再根据优惠卷id和用户id查询是否已经下过这个订单,如果下过这个订单,则不再下单,否则举行下单

VoucherOrderServiceImpl
开端代码:增加一人一单逻辑
  1. @Override
  2. public Result seckillVoucher(Long voucherId) {
  3.     // 1.查询优惠券
  4.     SeckillVoucher voucher = seckillVoucherService.getById(voucherId);
  5.     // 2.判断秒杀是否开始
  6.     if (voucher.getBeginTime().isAfter(LocalDateTime.now())) {
  7.         // 尚未开始
  8.         return Result.fail("秒杀尚未开始!");
  9.     }
  10.     // 3.判断秒杀是否已经结束
  11.     if (voucher.getEndTime().isBefore(LocalDateTime.now())) {
  12.         // 尚未开始
  13.         return Result.fail("秒杀已经结束!");
  14.     }
  15.     // 4.判断库存是否充足
  16.     if (voucher.getStock() < 1) {
  17.         // 库存不足
  18.         return Result.fail("库存不足!");
  19.     }
  20.     // 5.一人一单逻辑
  21.     // 5.1.用户id
  22.     Long userId = UserHolder.getUser().getId();
  23.     int count = query().eq("user_id", userId).eq("voucher_id", voucherId).count();
  24.     // 5.2.判断是否存在
  25.     if (count > 0) {
  26.         // 用户已经购买过了
  27.         return Result.fail("用户已经购买过一次!");
  28.     }
  29.     //6,扣减库存
  30.     boolean success = seckillVoucherService.update()
  31.             .setSql("stock= stock -1")
  32.             .eq("voucher_id", voucherId).update();
  33.     if (!success) {
  34.         //扣减库存
  35.         return Result.fail("库存不足!");
  36.     }
  37.     //7.创建订单
  38.     VoucherOrder voucherOrder = new VoucherOrder();
  39.     // 7.1.订单id
  40.     long orderId = redisIdWorker.nextId("order");
  41.     voucherOrder.setId(orderId);
  42.     voucherOrder.setUserId(userId);
  43.     // 7.3.代金券id
  44.     voucherOrder.setVoucherId(voucherId);
  45.     save(voucherOrder);
  46.     return Result.ok(orderId);
  47. }
复制代码
**存在问题:**现在的问题还是和之前一样,并发过来,查询数据库,都不存在订单,以是我们还是需要加锁,但是乐观锁比力适合更新数据,而现在是插入数据,以是我们需要使用悲观锁操作
**留意:**在这里提到了非常多的问题,我们需要逐步的来思考,起首我们的初始方案是封装了一个createVoucherOrder方法,同时为了确保他线程安全,在方法上添加了一把synchronized 锁
  1. @Transactional
  2. public synchronized Result createVoucherOrder(Long voucherId) {
  3.         Long userId = UserHolder.getUser().getId();
  4.          // 5.1.查询订单
  5.         int count = query().eq("user_id", userId).eq("voucher_id", voucherId).count();
  6.         // 5.2.判断是否存在
  7.         if (count > 0) {
  8.             // 用户已经购买过了
  9.             return Result.fail("用户已经购买过一次!");
  10.         }
  11.         // 6.扣减库存
  12.         boolean success = seckillVoucherService.update()
  13.                 .setSql("stock = stock - 1") // set stock = stock - 1
  14.                 .eq("voucher_id", voucherId).gt("stock", 0) // where id = ? and stock > 0
  15.                 .update();
  16.         if (!success) {
  17.             // 扣减失败
  18.             return Result.fail("库存不足!");
  19.         }
  20.         // 7.创建订单
  21.         VoucherOrder voucherOrder = new VoucherOrder();
  22.         // 7.1.订单id
  23.         long orderId = redisIdWorker.nextId("order");
  24.         voucherOrder.setId(orderId);
  25.         // 7.2.用户id
  26.         voucherOrder.setUserId(userId);
  27.         // 7.3.代金券id
  28.         voucherOrder.setVoucherId(voucherId);
  29.         save(voucherOrder);
  30.         // 7.返回订单id
  31.         return Result.ok(orderId);
  32. }
复制代码
,但是这样添加锁,锁的粒度太粗了,在使用锁过程中,控制锁粒度 是一个非常紧张的事变,由于如果锁的粒度太大,会导致每个线程进来都会锁住,以是我们需要去控制锁的粒度,以下这段代码需要修改为:
intern() 这个方法是从常量池中拿到数据,如果我们直接使用userId.toString() 他拿到的对象实际上是不同的对象,new出来的对象,我们使用锁必须保证锁必须是同一把,以是我们需要使用intern()方法
  1. @Transactional
  2. public  Result createVoucherOrder(Long voucherId) {
  3.         Long userId = UserHolder.getUser().getId();
  4.         synchronized(userId.toString().intern()){
  5.          // 5.1.查询订单
  6.         int count = query().eq("user_id", userId).eq("voucher_id", voucherId).count();
  7.         // 5.2.判断是否存在
  8.         if (count > 0) {
  9.             // 用户已经购买过了
  10.             return Result.fail("用户已经购买过一次!");
  11.         }
  12.         // 6.扣减库存
  13.         boolean success = seckillVoucherService.update()
  14.                 .setSql("stock = stock - 1") // set stock = stock - 1
  15.                 .eq("voucher_id", voucherId).gt("stock", 0) // where id = ? and stock > 0
  16.                 .update();
  17.         if (!success) {
  18.             // 扣减失败
  19.             return Result.fail("库存不足!");
  20.         }
  21.         // 7.创建订单
  22.         VoucherOrder voucherOrder = new VoucherOrder();
  23.         // 7.1.订单id
  24.         long orderId = redisIdWorker.nextId("order");
  25.         voucherOrder.setId(orderId);
  26.         // 7.2.用户id
  27.         voucherOrder.setUserId(userId);
  28.         // 7.3.代金券id
  29.         voucherOrder.setVoucherId(voucherId);
  30.         save(voucherOrder);
  31.         // 7.返回订单id
  32.         return Result.ok(orderId);
  33.     }
  34. }
复制代码
但是以上代码还是存在问题,问题的缘故因由在于当前方法被spring的事务控制,如果你在方法内部加锁,大概会导致当前方法事务还没有提交,但是锁已经开释也会导致问题,以是我们选择将当前方法团体包裹起来,确保事务不会出现问题:如下:
在seckillVoucher 方法中,添加以下逻辑,这样就能保证事务的特性,同时也控制了锁的粒度

但是以上做法依然有问题,由于你调用的方法,其实是this.的方式调用的,事务想要生效,还得利用署理来生效,以是这个地方,我们需要得到原始的事务对象, 来操作事务

3.7 集群环境下的并发问题

通过加锁可以解决在单机环境下的一人一单安全问题,但是在集群模式下就不行了。
1、我们将服务启动两份,端口分别为8081和8082:

2、然后修改nginx的conf目次下的nginx.conf文件,设置反向署理和负载均衡:

具体操作(略)
有关锁失效缘故因由分析
由于现在我们部署了多个tomcat,每个tomcat都有一个属于自己的jvm,那么假设在服务器A的tomcat内部,有两个线程,这两个线程由于使用的是同一份代码,那么他们的锁对象是同一个,是可以实现互斥的,但是如果现在是服务器B的tomcat内部,又有两个线程,但是他们的锁对象写的虽然和服务器A一样,但是锁对象却不是同一个,以是线程3和线程4可以实现互斥,但是却无法和线程1和线程2实现互斥,这就是 集群环境下,syn锁失效的缘故因由,在这种环境下,我们就需要使用分布式锁来解决这个问题。

4、分布式锁

4.1 、基本原理和实现方式对比

分布式锁:满足分布式体系或集群模式下多进程可见并且互斥的锁。
分布式锁的焦点思想就是让大家都使用同一把锁,只要大家使用的是同一把锁,那么我们就能锁住线程,不让线程举行,让步伐串行实行,这就是分布式锁的焦点思路

那么分布式锁他应该满足一些什么样的条件呢?
可见性:多个线程都能看到相同的结果,留意:这个地方说的可见性并不是并发编程中指的内存可见性,只是说多个进程之间都能感知到变革的意思
互斥:互斥是分布式锁的最基本的条件,使得步伐串行实行
高可用:步伐不易崩溃,时时候刻都保证较高的可用性
高性能:由于加锁本身就让性能降低,所有对于分布式锁本身需要他就较高的加锁性能和开释锁性能
安全性:安全也是步伐中必不可少的一环

常见的分布式锁有三种
Mysql:mysql本身就带有锁机制,但是由于mysql性能本身一般,以是接纳分布式锁的环境下,其实使用mysql作为分布式锁比力少见
Redis:redis作为分布式锁是非常常见的一种使用方式,现在企业级开发中基本都使用redis或者zookeeper作为分布式锁,利用setnx这个方法,如果插入key成功,则表示得到到了锁,如果有人插入成功,其他人插入失败则表示无法得到到锁,利用这套逻辑来实现分布式锁
Zookeeper:zookeeper也是企业级开发中较好的一个实现分布式锁的方案,由于本套视频并不解说zookeeper的原理和分布式锁的实现,以是不过多阐述

4.2 、Redis分布式锁的实现焦点思路

实现分布式锁时需要实现的两个基本方法:

焦点思路:
我们利用redis 的setNx 方法,当有多个线程进入时,我们就利用该方法,第一个线程进入时,redis 中就有这个key 了,返回了1,如果结果是1,则表示他抢到了锁,那么他去实行业务,然后再删除锁,退出锁逻辑,没有抢到锁的哥们,等候肯定时间后重试即可

4.3 实现分布式锁版本一


锁的基本接口

SimpleRedisLock
利用setnx方法举行加锁,同时增加过期时间,防止死锁,此方法可以保证加锁和增加过期时间具有原子性
  1. private static final String KEY_PREFIX="lock:"
  2. @Override
  3. public boolean tryLock(long timeoutSec) {
  4.     // 获取线程标示
  5.     String threadId = Thread.currentThread().getId()
  6.     // 获取锁
  7.     Boolean success = stringRedisTemplate.opsForValue()
  8.             .setIfAbsent(KEY_PREFIX + name, threadId + "", timeoutSec, TimeUnit.SECONDS);
  9.     return Boolean.TRUE.equals(success);
  10. }
复制代码

SimpleRedisLock
开释锁,防止删除别人的锁
  1. public void unlock() {
  2.     //通过del删除锁
  3.     stringRedisTemplate.delete(KEY_PREFIX + name);
  4. }
复制代码

  1.   @Override
  2.     public Result seckillVoucher(Long voucherId) {
  3.         // 1.查询优惠券
  4.         SeckillVoucher voucher = seckillVoucherService.getById(voucherId);
  5.         // 2.判断秒杀是否开始
  6.         if (voucher.getBeginTime().isAfter(LocalDateTime.now())) {
  7.             // 尚未开始
  8.             return Result.fail("秒杀尚未开始!");
  9.         }
  10.         // 3.判断秒杀是否已经结束
  11.         if (voucher.getEndTime().isBefore(LocalDateTime.now())) {
  12.             // 尚未开始
  13.             return Result.fail("秒杀已经结束!");
  14.         }
  15.         // 4.判断库存是否充足
  16.         if (voucher.getStock() < 1) {
  17.             // 库存不足
  18.             return Result.fail("库存不足!");
  19.         }
  20.         Long userId = UserHolder.getUser().getId();
  21.         //创建锁对象(新增代码)
  22.         SimpleRedisLock lock = new SimpleRedisLock("order:" + userId, stringRedisTemplate);
  23.         //获取锁对象
  24.         boolean isLock = lock.tryLock(1200);
  25.                 //加锁失败
  26.         if (!isLock) {
  27.             return Result.fail("不允许重复下单");
  28.         }
  29.         try {
  30.             //获取代理对象(事务)
  31.             IVoucherOrderService proxy = (IVoucherOrderService) AopContext.currentProxy();
  32.             return proxy.createVoucherOrder(voucherId);
  33.         } finally {
  34.             //释放锁
  35.             lock.unlock();
  36.         }
  37.     }
复制代码
4.4 Redis分布式锁误删环境说明

逻辑说明:
持有锁的线程在锁的内部出现了阻塞,导致他的锁自动开释,这时其他线程,线程2来尝试得到锁,就拿到了这把锁,然后线程2在持有锁实行过程中,线程1反应过来,继续实行,而线程1实行过程中,走到了删除锁逻辑,此时就会把本应该属于线程2的锁举行删除,这就是误删别人锁的环境说明
解决方案:解决方案就是在每个线程开释锁的时候,去判断一下当前这把锁是否属于自己,如果属于自己,则不举行锁的删除,假设还是上边的环境,线程1卡顿,锁自动开释,线程2进入到锁的内部实行逻辑,此时线程1反应过来,然后删除锁,但是线程1,一看当前这把锁不是属于自己,于是不举行删除锁逻辑,当线程2走到删除锁逻辑时,如果没有卡过自动开释锁的时间点,则判断当前这把锁是属于自己的,于是删除这把锁。

4.5 解决Redis分布式锁误删问题

需求:修改之前的分布式锁实现,满足:在获取锁时存入线程标示(可以用UUID表示)
在开释锁时先获取锁中的线程标示,判断是否与当火线程标示同等

焦点逻辑:在存入锁时,放入自己线程的标识,在删除锁时,判断当前这把锁的标识是不是自己存入的,如果是,则举行删除,如果不是,则不举行删除。

具体代码如下:加锁
  1. private static final String ID_PREFIX = UUID.randomUUID().toString(true) + "-";
  2. @Override
  3. public boolean tryLock(long timeoutSec) {
  4.    // 获取线程标示
  5.    String threadId = ID_PREFIX + Thread.currentThread().getId();
  6.    // 获取锁
  7.    Boolean success = stringRedisTemplate.opsForValue()
  8.                 .setIfAbsent(KEY_PREFIX + name, threadId, timeoutSec, TimeUnit.SECONDS);
  9.    return Boolean.TRUE.equals(success);
  10. }
复制代码
开释锁
  1. public void unlock() {
  2.     // 获取线程标示
  3.     String threadId = ID_PREFIX + Thread.currentThread().getId();
  4.     // 获取锁中的标示
  5.     String id = stringRedisTemplate.opsForValue().get(KEY_PREFIX + name);
  6.     // 判断标示是否一致
  7.     if(threadId.equals(id)) {
  8.         // 释放锁
  9.         stringRedisTemplate.delete(KEY_PREFIX + name);
  10.     }
  11. }
复制代码
有关代码实操说明:
在我们修改完此处代码后,我们重启工程,然后启动两个线程,第一个线程持有锁后,手动开释锁,第二个线程 此时进入到锁内部,再放行第一个线程,此时第一个线程由于锁的value值并非是自己,以是不能开释锁,也就无法删除别人的锁,此时第二个线程能够正确开释锁,通过这个案例开端说明我们解决了锁误删的问题。
4.6 分布式锁的原子性问题

更为极端的误删逻辑说明:
线程1现在持有锁之后,在实行业务逻辑过程中,他正准备删除锁,而且已经走到了条件判断的过程中,比如他已经拿到了当前这把锁确实是属于他自己的,正准备删除锁,但是此时他的锁到期了,那么此时线程2进来,但是线程1他会接着往后实行,当他卡顿竣事后,他直接就会实行删除锁那行代码,相当于条件判断并没有起到作用,这就是删锁时的原子性问题,之以是有这个问题,是由于线程1的拿锁,比锁,删锁,实际上并不是原子性的,我们要防止刚才的环境发生,

4.7 Lua脚本解决多条命令原子性问题

Redis提供了Lua脚本功能,在一个脚本中编写多条Redis命令,确保多条命令实行时的原子性。Lua是一种编程语言,它的基本语法大家可以参考网站:https://www.runoob.com/lua/lua-tutorial.html,这里重点介绍Redis提供的调用函数,我们可以使用lua去操作redis,又能保证他的原子性,这样就可以实现拿锁比锁删锁是一个原子性动作了,作为Java步伐员这一块并不作一个简朴要求,并不需要大家过于精通,只需要知道他有什么作用即可。
这里重点介绍Redis提供的调用函数,语法如下:
  1. redis.call('命令名称', 'key', '其它参数', ...)
复制代码
例如,我们要实行set name jack,则脚本是这样:
  1. # 执行 set name jack
  2. redis.call('set', 'name', 'jack')
复制代码
例如,我们要先实行set name Rose,再实行get name,则脚本如下:
  1. # 先执行 set name jack
  2. redis.call('set', 'name', 'Rose')
  3. # 再执行 get name
  4. local name = redis.call('get', 'name')
  5. # 返回
  6. return name
复制代码
写好脚本以后,需要用Redis命令来调用脚本,调用脚本的常见命令如下:

例如,我们要实行 redis.call(‘set’, ‘name’, ‘jack’) 这个脚本,语法如下:

如果脚本中的key、value不想写死,可以作为参数传递。key范例参数会放入KEYS数组,其它参数会放入ARGV数组,在脚本中可以从KEYS和ARGV数组获取这些参数:

接下来我们往返一下我们开释锁的逻辑:
开释锁的业务流程是这样的
​ 1、获取锁中的线程标示
​ 2、判断是否与指定的标示(当火线程标示)同等
​ 3、如果同等则开释锁(删除)
​ 4、如果不同等则什么都不做
如果用Lua脚原来表示则是这样的:
终极我们操作redis的拿锁比锁删锁的lua脚本就会变成这样
  1. -- 这里的 KEYS[1] 就是锁的key,这里的ARGV[1] 就是当前线程标示
  2. -- 获取锁中的标示,判断是否与当前线程标示一致
  3. if (redis.call('GET', KEYS[1]) == ARGV[1]) then
  4.   -- 一致,则删除锁
  5.   return redis.call('DEL', KEYS[1])
  6. end
  7. -- 不一致,则直接返回
  8. return 0
复制代码
4.8 利用Java代码调用Lua脚本改造分布式锁

lua脚本本身并不需要大家花费太多时间去研究,只需要知道如何调用,大致是什么意思即可,以是在笔记中并不会具体的去表明这些lua表达式的寄义。
我们的RedisTemplate中,可以利用execute方法去实行lua脚本,参数对应关系就如下图股

Java代码
  1. private static final DefaultRedisScript<Long> UNLOCK_SCRIPT;
  2.     static {
  3.         UNLOCK_SCRIPT = new DefaultRedisScript<>();
  4.         UNLOCK_SCRIPT.setLocation(new ClassPathResource("unlock.lua"));
  5.         UNLOCK_SCRIPT.setResultType(Long.class);
  6.     }
  7. public void unlock() {
  8.     // 调用lua脚本
  9.     stringRedisTemplate.execute(
  10.             UNLOCK_SCRIPT,
  11.             Collections.singletonList(KEY_PREFIX + name),
  12.             ID_PREFIX + Thread.currentThread().getId());
  13. }
  14. 经过以上代码改造后,我们就能够实现 拿锁比锁删锁的原子性动作了~
复制代码
小总结:
基于Redis的分布式锁实现思路:

笔者总结:我们一路走来,利用添加过期时间,防止死锁问题的发生,但是有了过期时间之后,大概出现误删别人锁的问题,这个问题我们开始是利用删之前 通过拿锁,比锁,删锁这个逻辑来解决的,也就是删之前判断一下当前这把锁是否是属于自己的,但是现在另有原子性问题,也就是我们没法保证拿锁比锁删锁是一个原子性的动作,最后通过lua表达式来解决这个问题
但是现在还剩下一个问题锁不住,什么是锁不住呢,你想一想,如果当过期时间到了之后,我们可以给他续期一下,比如续个30s,就好像是网吧上网, 网费到了之后,然后说,来,网管,再给我来10块的,是不是后边的问题都不会发生了,那么续期问题怎么解决呢,可以依赖于我们接下来要学习redission啦
测试逻辑:
第一个线程进来,得到了锁,手动删除锁,模拟锁超时了,其他线程会实行lua来抢锁,当第一天线程利用lua删除锁时,lua能保证他不能删除他的锁,第二个线程删除锁时,利用lua同样可以保证不会删除别人的锁,同时还能保证原子性。
5、分布式锁-redission

5.1 分布式锁-redission功能介绍

基于setnx实现的分布式锁存在下面的问题:
重入问题:重入问题是指 得到锁的线程可以再次进入到相同的锁的代码块中,可重入锁的意义在于防止死锁,比如HashTable这样的代码中,他的方法都是使用synchronized修饰的,如果他在一个方法内,调用另一个方法,那么此时如果是不可重入的,不就死锁了吗?以是可重入锁他的重要意义是防止死锁,我们的synchronized和Lock锁都是可重入的。
不可重试:是指现在的分布式只能尝试一次,我们认为公道的环境是:当线程在得到锁失败后,他应该能再次尝试得到锁。
**超时开释:**我们在加锁时增加了过期时间,这样的我们可以防止死锁,但是如果卡顿的时间超长,虽然我们接纳了lua表达式防止删锁的时候,误删别人的锁,但是究竟没有锁住,有安全隐患
主从同等性: 如果Redis提供了主从集群,当我们向集群写数据时,主机需要异步的将数据同步给从机,而万一在同步已往之前,主机宕机了,就会出现死锁问题。

那么什么是Redission呢
Redisson是一个在Redis的基础上实现的Java驻内存数据网格(In-Memory Data Grid)。它不仅提供了一系列的分布式的Java常用对象,还提供了许多分布式服务,其中就包含了各种分布式锁的实现。
Redission提供了分布式锁的多种多样的功能

5.2 分布式锁-Redission快速入门

引入依赖:
  1. <dependency>
  2.         <groupId>org.redisson</groupId>
  3.         <artifactId>redisson</artifactId>
  4.         <version>3.13.6</version>
  5. </dependency>
复制代码
设置Redisson客户端:
  1. @Configuration
  2. public class RedissonConfig {
  3.     @Bean
  4.     public RedissonClient redissonClient(){
  5.         // 配置
  6.         Config config = new Config();
  7.         config.useSingleServer().setAddress("redis://192.168.150.101:6379")
  8.             .setPassword("123321");
  9.         // 创建RedissonClient对象
  10.         return Redisson.create(config);
  11.     }
  12. }
复制代码
如何使用Redission的分布式锁
  1. @Resource
  2. private RedissionClient redissonClient;
  3. @Test
  4. void testRedisson() throws Exception{
  5.     //获取锁(可重入),指定锁的名称
  6.     RLock lock = redissonClient.getLock("anyLock");
  7.     //尝试获取锁,参数分别是:获取锁的最大等待时间(期间会重试),锁自动释放时间,时间单位
  8.     boolean isLock = lock.tryLock(1,10,TimeUnit.SECONDS);
  9.     //判断获取锁成功
  10.     if(isLock){
  11.         try{
  12.             System.out.println("执行业务");         
  13.         }finally{
  14.             //释放锁
  15.             lock.unlock();
  16.         }
  17.         
  18.     }
  19.    
  20.    
  21.    
  22. }
复制代码
在 VoucherOrderServiceImpl
注入RedissonClient
  1. @Resource
  2. private RedissonClient redissonClient;
  3. @Override
  4. public Result seckillVoucher(Long voucherId) {
  5.         // 1.查询优惠券
  6.         SeckillVoucher voucher = seckillVoucherService.getById(voucherId);
  7.         // 2.判断秒杀是否开始
  8.         if (voucher.getBeginTime().isAfter(LocalDateTime.now())) {
  9.             // 尚未开始
  10.             return Result.fail("秒杀尚未开始!");
  11.         }
  12.         // 3.判断秒杀是否已经结束
  13.         if (voucher.getEndTime().isBefore(LocalDateTime.now())) {
  14.             // 尚未开始
  15.             return Result.fail("秒杀已经结束!");
  16.         }
  17.         // 4.判断库存是否充足
  18.         if (voucher.getStock() < 1) {
  19.             // 库存不足
  20.             return Result.fail("库存不足!");
  21.         }
  22.         Long userId = UserHolder.getUser().getId();
  23.         //创建锁对象 这个代码不用了,因为我们现在要使用分布式锁
  24.         //SimpleRedisLock lock = new SimpleRedisLock("order:" + userId, stringRedisTemplate);
  25.         RLock lock = redissonClient.getLock("lock:order:" + userId);
  26.         //获取锁对象
  27.         boolean isLock = lock.tryLock();
  28.       
  29.                 //加锁失败
  30.         if (!isLock) {
  31.             return Result.fail("不允许重复下单");
  32.         }
  33.         try {
  34.             //获取代理对象(事务)
  35.             IVoucherOrderService proxy = (IVoucherOrderService) AopContext.currentProxy();
  36.             return proxy.createVoucherOrder(voucherId);
  37.         } finally {
  38.             //释放锁
  39.             lock.unlock();
  40.         }
  41. }
复制代码
5.3 分布式锁-redission可重入锁原理

在Lock锁中,他是借助于底层的一个voaltile的一个state变量来记录重入的状态的,比如当前没有人持有这把锁,那么state=0,如果有人持有这把锁,那么state=1,如果持有这把锁的人再次持有这把锁,那么state就会+1 ,如果是对于synchronized而言,他在c语言代码中会有一个count,原理和state类似,也是重入一次就加一,开释一次就-1 ,直到淘汰成0 时,表示当前这把锁没有被人持有。
在redission中,我们的也支持支持可重入锁
在分布式锁中,他接纳hash布局用来存储锁,其中大key表示表示这把锁是否存在,用小key表示当前这把锁被哪个线程持有,以是接下来我们一起分析一下当前的这个lua表达式
这个地方一共有3个参数
KEYS[1] : 锁名称
ARGV[1]: 锁失效时间
ARGV[2]: id + “:” + threadId; 锁的小key
exists: 判断数据是否存在 name:是lock是否存在,如果==0,就表示当前这把锁不存在
redis.call(‘hset’, KEYS[1], ARGV[2], 1);此时他就开始往redis里边去写数据 ,写成一个hash布局
Lock{
​ id + “:” + threadId : 1
}
如果当前这把锁存在,则第一个条件不满足,再判断
redis.call(‘hexists’, KEYS[1], ARGV[2]) == 1
此时需要通过大key+小key判断当前这把锁是否是属于自己的,如果是自己的,则举行
redis.call(‘hincrby’, KEYS[1], ARGV[2], 1)
将当前这个锁的value举行+1 ,redis.call(‘pexpire’, KEYS[1], ARGV[1]); 然后再对其设置过期时间,如果以上两个条件都不满足,则表示当前这把锁抢锁失败,最后返回pttl,即为当前这把锁的失效时间
如果小伙帮们看了前边的源码, 你会发现他会去判断当前这个方法的返回值是否为null,如果是null,则对应则前两个if对应的条件,退出抢锁逻辑,如果返回的不是null,即走了第三个分支,在源码处会举行while(true)的自旋抢锁。
  1. "if (redis.call('exists', KEYS[1]) == 0) then " +
  2.                   "redis.call('hset', KEYS[1], ARGV[2], 1); " +
  3.                   "redis.call('pexpire', KEYS[1], ARGV[1]); " +
  4.                   "return nil; " +
  5.               "end; " +
  6.               "if (redis.call('hexists', KEYS[1], ARGV[2]) == 1) then " +
  7.                   "redis.call('hincrby', KEYS[1], ARGV[2], 1); " +
  8.                   "redis.call('pexpire', KEYS[1], ARGV[1]); " +
  9.                   "return nil; " +
  10.               "end; " +
  11.               "return redis.call('pttl', KEYS[1]);"
复制代码

5.4 分布式锁-redission锁重试和WatchDog机制

说明:由于课程中已经说明确有关tryLock的源码剖析以及其看门狗原理,以是笔者在这里给大家分析lock()方法的源码剖析,盼望大家在学习过程中,能够掌握更多的知识
抢锁过程中,得到当火线程,通过tryAcquire举行抢锁,该抢锁逻辑和之前逻辑相同
1、先判断当前这把锁是否存在,如果不存在,插入一把锁,返回null
2、判断当前这把锁是否是属于当火线程,如果是,则返回null
以是如果返回是null,则代表着当前这哥们已经抢锁完毕,或者可重入完毕,但是如果以上两个条件都不满足,则进入到第三个条件,返回的是锁的失效时间,同学们可以自行往下翻一点点,你能发现有个while( true) 再次举行tryAcquire举行抢锁
  1. long threadId = Thread.currentThread().getId();
  2. Long ttl = tryAcquire(-1, leaseTime, unit, threadId);
  3. // lock acquired
  4. if (ttl == null) {
  5.     return;
  6. }
复制代码
接下来会有一个条件分支,由于lock方法有重载方法,一个是带参数,一个是不带参数,如果带带参数传入的值是-1,如果传入参数,则leaseTime是他本身,以是如果传入了参数,此时leaseTime != -1 则会进去抢锁,抢锁的逻辑就是之前说的那三个逻辑
  1. if (leaseTime != -1) {
  2.     return tryLockInnerAsync(waitTime, leaseTime, unit, threadId, RedisCommands.EVAL_LONG);
  3. }
复制代码
如果是没有传入时间,则此时也会举行抢锁, 而且抢锁时间是默认看门狗时间 commandExecutor.getConnectionManager().getCfg().getLockWatchdogTimeout()
ttlRemainingFuture.onComplete((ttlRemaining, e) 这句话相当于对以上抢锁举行了监听,也就是说当上边抢锁完毕后,此方法会被调用,具体调用的逻辑就是去后台开启一个线程,举行续约逻辑,也就是看门狗线程
  1. RFuture<Long> ttlRemainingFuture = tryLockInnerAsync(waitTime,
  2.                                         commandExecutor.getConnectionManager().getCfg().getLockWatchdogTimeout(),
  3.                                         TimeUnit.MILLISECONDS, threadId, RedisCommands.EVAL_LONG);
  4. ttlRemainingFuture.onComplete((ttlRemaining, e) -> {
  5.     if (e != null) {
  6.         return;
  7.     }
  8.     // lock acquired
  9.     if (ttlRemaining == null) {
  10.         scheduleExpirationRenewal(threadId);
  11.     }
  12. });
  13. return ttlRemainingFuture;
复制代码
此逻辑就是续约逻辑,留意看commandExecutor.getConnectionManager().newTimeout() 此方法
Method( new TimerTask() {},参数2 ,参数3 )
指的是:通过参数2,参数3 去描述什么时候去做参数1的事变,现在的环境是:10s之后去做参数一的事变
由于锁的失效时间是30s,当10s之后,此时这个timeTask 就触发了,他就去举行续约,把当前这把锁续约成30s,如果操作成功,那么此时就会递归调用自己,再重新设置一个timeTask(),于是再过10s后又再设置一个timerTask,完成不停的续约
那么大家可以想一想,假设我们的线程出现了宕机他还会续约吗?固然不会,由于没有人再去调用renewExpiration这个方法,以是比及时间之后天然就开释了。
  1. private void renewExpiration() {
  2.     ExpirationEntry ee = EXPIRATION_RENEWAL_MAP.get(getEntryName());
  3.     if (ee == null) {
  4.         return;
  5.     }
  6.    
  7.     Timeout task = commandExecutor.getConnectionManager().newTimeout(new TimerTask() {
  8.         @Override
  9.         public void run(Timeout timeout) throws Exception {
  10.             ExpirationEntry ent = EXPIRATION_RENEWAL_MAP.get(getEntryName());
  11.             if (ent == null) {
  12.                 return;
  13.             }
  14.             Long threadId = ent.getFirstThreadId();
  15.             if (threadId == null) {
  16.                 return;
  17.             }
  18.             
  19.             RFuture<Boolean> future = renewExpirationAsync(threadId);
  20.             future.onComplete((res, e) -> {
  21.                 if (e != null) {
  22.                     log.error("Can't update lock " + getName() + " expiration", e);
  23.                     return;
  24.                 }
  25.                
  26.                 if (res) {
  27.                     // reschedule itself
  28.                     renewExpiration();
  29.                 }
  30.             });
  31.         }
  32.     }, internalLockLeaseTime / 3, TimeUnit.MILLISECONDS);
  33.    
  34.     ee.setTimeout(task);
  35. }
复制代码
5.5 分布式锁-redission锁的MutiLock原理

为了提高redis的可用性,我们会搭建集群或者主从,现在以主从为例
此时我们去写命令,写在主机上, 主时机将数据同步给从机,但是假设在主机还没有来得及把数据写入到从机去的时候,此时主机宕机,哨兵会发现主机宕机,并且推选一个slave变成master,而此时新的master中实际上并没有锁信息,此时锁信息就已经丢掉了。

为相识决这个问题,redission提出来了MutiLock锁,使用这把锁咱们就不使用主从了,每个节点的地位都是一样的, 这把锁加锁的逻辑需要写入到每一个主丛节点上,只有所有的服务器都写入成功,此时才是加锁成功,假设现在某个节点挂了,那么他去得到锁的时候,只要有一个节点拿不到,都不能算是加锁成功,就保证了加锁的可靠性。

那么MutiLock 加锁原理是什么呢?笔者画了一幅图来说明
当我们去设置了多个锁时,redission会将多个锁添加到一个集合中,然后用while循环去不停去尝试拿锁,但是会有一个总共的加锁时间,这个时间是用需要加锁的个数 * 1500ms ,假设有3个锁,那么时间就是4500ms,假设在这4500ms内,所有的锁都加锁成功, 那么此时才算是加锁成功,如果在4500ms有线程加锁失败,则会再次去举行重试.

6、秒杀优化

6.1 秒杀优化-异步秒杀思路

我们往返顾一下下单流程
当用户发起哀求,此时会哀求nginx,nginx会访问到tomcat,而tomcat中的步伐,会举行串行操作,分成如下几个步调
1、查询优惠卷
2、判断秒杀库存是否足够
3、查询订单
4、校验是否是一人一单
5、扣减库存
6、创建订单
在这六步操作中,又有许多操作是要去操作数据库的,而且还是一个线程串行实行, 这样就会导致我们的步伐实行的很慢,以是我们需要异步步伐实行,那么如何加速呢?
在这里笔者想给大家分享一下课程内没有的思路,看看有没有小伙伴这么想,比如,我们可以不可以使用异步编排来做,或者说我开启N多线程,N多个线程,一个线程实行查询优惠卷,一个实行判断扣减库存,一个去创建订单等等,然后再统一做返回,这种做法和课程中有哪种好呢?答案是课程中的好,由于如果你接纳我刚说的方式,如果访问的人许多,那么线程池中的线程大概一下子就被消耗完了,而且你使用上述方案,最大的特点在于,你觉得时效性会非常紧张,但是你想想是吗?并不是,比如我只要确定他能做这件事,然后我后边逐步做就可以了,我并不需要他一口气做完这件事,以是我们应当接纳的是课程中,类似消息队列的方式来完成我们的需求,而不是使用线程池或者是异步编排的方式来完成这个需求

优化方案:我们将耗时比力短的逻辑判断放入到redis中,比如是否库存足够,比如是否一人一单,这样的操作,只要这种逻辑可以完成,就意味着我们是肯定可以下单完成的,我们只需要举行快速的逻辑判断,根本就不消等下单逻辑走完,我们直接给用户返回成功, 再在后台开一个线程,后台线程逐步的去实行queue里边的消息,这样步伐不就超等快了吗?而且也不消担心线程池消耗殆尽的问题,由于这里我们的步伐中并没有手动使用任何线程池,固然这里边有两个难点
第一个难点是我们怎么在redis中去快速校验一人一单,另有库存判断
第二个难点是由于我们校验和tomct下单是两个线程,那么我们如何知道到底哪个单他最后是否成功,或者是下单完成,为了完成这件事我们在redis操作完之后,我们会将一些信息返回给前端,同时也会把这些信息丢到异步queue中去,后续操作中,可以通过这个id来查询我们tomcat中的下单逻辑是否完成了。

我们现在来看看团体思路:当用户下单之后,判断库存是否充足只需要导redis中去根据key找对应的value是否大于0即可,如果不充足,则直接竣事,如果充足,继续在redis中判断用户是否可以下单,如果set集合中没有这条数据,说明他可以下单,如果set集合中没有这条记录,则将userId和优惠卷存入到redis中,并且返回0,整个过程需要保证是原子性的,我们可以使用lua来操作
当以上判断逻辑走完之后,我们可以判断当前redis中返回的结果是否是0 ,如果是0,则表示可以下单,则将之前说的信息存入到到queue中去,然后返回,然后再来个线程异步的下单,前端可以通过返回的订单id来判断是否下单成功。

6.2 秒杀优化-Redis完成秒杀资格判断

需求:

VoucherServiceImpl
  1. @Override
  2. @Transactional
  3. public void addSeckillVoucher(Voucher voucher) {
  4.     // 保存优惠券
  5.     save(voucher);
  6.     // 保存秒杀信息
  7.     SeckillVoucher seckillVoucher = new SeckillVoucher();
  8.     seckillVoucher.setVoucherId(voucher.getId());
  9.     seckillVoucher.setStock(voucher.getStock());
  10.     seckillVoucher.setBeginTime(voucher.getBeginTime());
  11.     seckillVoucher.setEndTime(voucher.getEndTime());
  12.     seckillVoucherService.save(seckillVoucher);
  13.     // 保存秒杀库存到Redis中
  14.     //SECKILL_STOCK_KEY 这个变量定义在RedisConstans中
  15.     //private static final String SECKILL_STOCK_KEY ="seckill:stock:"
  16.     stringRedisTemplate.opsForValue().set(SECKILL_STOCK_KEY + voucher.getId(), voucher.getStock().toString());
  17. }
复制代码
完整lua表达式
  1. -- 1.参数列表
  2. -- 1.1.优惠券id
  3. local voucherId = ARGV[1]
  4. -- 1.2.用户id
  5. local userId = ARGV[2]
  6. -- 1.3.订单id
  7. local orderId = ARGV[3]
  8. -- 2.数据key
  9. -- 2.1.库存key
  10. local stockKey = 'seckill:stock:' .. voucherId
  11. -- 2.2.订单key
  12. local orderKey = 'seckill:order:' .. voucherId
  13. -- 3.脚本业务
  14. -- 3.1.判断库存是否充足 get stockKey
  15. if(tonumber(redis.call('get', stockKey)) <= 0) then
  16.     -- 3.2.库存不足,返回1
  17.     return 1
  18. end
  19. -- 3.2.判断用户是否下单 SISMEMBER orderKey userId
  20. if(redis.call('sismember', orderKey, userId) == 1) then
  21.     -- 3.3.存在,说明是重复下单,返回2
  22.     return 2
  23. end
  24. -- 3.4.扣库存 incrby stockKey -1
  25. redis.call('incrby', stockKey, -1)
  26. -- 3.5.下单(保存用户)sadd orderKey userId
  27. redis.call('sadd', orderKey, userId)
  28. -- 3.6.发送消息到队列中, XADD stream.orders * k1 v1 k2 v2 ...
  29. redis.call('xadd', 'stream.orders', '*', 'userId', userId, 'voucherId', voucherId, 'id', orderId)
  30. return 0
复制代码
当以上lua表达式实行完毕后,剩下的就是根据步调3,4来实行我们接下来的任务了
VoucherOrderServiceImpl
  1. @Override
  2. public Result seckillVoucher(Long voucherId) {
  3.     //获取用户
  4.     Long userId = UserHolder.getUser().getId();
  5.     long orderId = redisIdWorker.nextId("order");
  6.     // 1.执行lua脚本
  7.     Long result = stringRedisTemplate.execute(
  8.             SECKILL_SCRIPT,
  9.             Collections.emptyList(),
  10.             voucherId.toString(), userId.toString(), String.valueOf(orderId)
  11.     );
  12.     int r = result.intValue();
  13.     // 2.判断结果是否为0
  14.     if (r != 0) {
  15.         // 2.1.不为0 ,代表没有购买资格
  16.         return Result.fail(r == 1 ? "库存不足" : "不能重复下单");
  17.     }
  18.     //TODO 保存阻塞队列
  19.     // 3.返回订单id
  20.     return Result.ok(orderId);
  21. }
复制代码
6.3 秒杀优化-基于阻塞队列实现秒杀优化

VoucherOrderServiceImpl
修改下单动作,现在我们去下单时,是通过lua表达式去原子实行判断逻辑,如果判断我出来不为0 ,则要么是库存不足,要么是重复下单,返回错误信息,如果是0,则把下单的逻辑保存到队列中去,然后异步实行
  1. //异步处理线程池
  2. private static final ExecutorService SECKILL_ORDER_EXECUTOR = Executors.newSingleThreadExecutor();
  3. //在类初始化之后执行,因为当这个类初始化好了之后,随时都是有可能要执行的
  4. @PostConstruct
  5. private void init() {
  6.    SECKILL_ORDER_EXECUTOR.submit(new VoucherOrderHandler());
  7. }
  8. // 用于线程池处理的任务
  9. // 当初始化完毕后,就会去从对列中去拿信息
  10. private class VoucherOrderHandler implements Runnable{
  11.         @Override
  12.         public void run() {
  13.             while (true){
  14.                 try {
  15.                     // 1.获取队列中的订单信息
  16.                     VoucherOrder voucherOrder = orderTasks.take();
  17.                     // 2.创建订单
  18.                     handleVoucherOrder(voucherOrder);
  19.                 } catch (Exception e) {
  20.                     log.error("处理订单异常", e);
  21.                 }
  22.                    }
  23.         }
  24.      
  25.        private void handleVoucherOrder(VoucherOrder voucherOrder) {
  26.             //1.获取用户
  27.             Long userId = voucherOrder.getUserId();
  28.             // 2.创建锁对象
  29.             RLock redisLock = redissonClient.getLock("lock:order:" + userId);
  30.             // 3.尝试获取锁
  31.             boolean isLock = redisLock.lock();
  32.             // 4.判断是否获得锁成功
  33.             if (!isLock) {
  34.                 // 获取锁失败,直接返回失败或者重试
  35.                 log.error("不允许重复下单!");
  36.                 return;
  37.             }
  38.             try {
  39.                                 //注意:由于是spring的事务是放在threadLocal中,此时的是多线程,事务会失效
  40.                 proxy.createVoucherOrder(voucherOrder);
  41.             } finally {
  42.                 // 释放锁
  43.                 redisLock.unlock();
  44.             }
  45.     }
  46.      //a
  47.         private BlockingQueue<VoucherOrder> orderTasks =new  ArrayBlockingQueue<>(1024 * 1024);
  48.     @Override
  49.     public Result seckillVoucher(Long voucherId) {
  50.         Long userId = UserHolder.getUser().getId();
  51.         long orderId = redisIdWorker.nextId("order");
  52.         // 1.执行lua脚本
  53.         Long result = stringRedisTemplate.execute(
  54.                 SECKILL_SCRIPT,
  55.                 Collections.emptyList(),
  56.                 voucherId.toString(), userId.toString(), String.valueOf(orderId)
  57.         );
  58.         int r = result.intValue();
  59.         // 2.判断结果是否为0
  60.         if (r != 0) {
  61.             // 2.1.不为0 ,代表没有购买资格
  62.             return Result.fail(r == 1 ? "库存不足" : "不能重复下单");
  63.         }
  64.         VoucherOrder voucherOrder = new VoucherOrder();
  65.         // 2.3.订单id
  66.         long orderId = redisIdWorker.nextId("order");
  67.         voucherOrder.setId(orderId);
  68.         // 2.4.用户id
  69.         voucherOrder.setUserId(userId);
  70.         // 2.5.代金券id
  71.         voucherOrder.setVoucherId(voucherId);
  72.         // 2.6.放入阻塞队列
  73.         orderTasks.add(voucherOrder);
  74.         //3.获取代理对象
  75.          proxy = (IVoucherOrderService)AopContext.currentProxy();
  76.         //4.返回订单id
  77.         return Result.ok(orderId);
  78.     }
  79.      
  80.       @Transactional
  81.     public  void createVoucherOrder(VoucherOrder voucherOrder) {
  82.         Long userId = voucherOrder.getUserId();
  83.         // 5.1.查询订单
  84.         int count = query().eq("user_id", userId).eq("voucher_id", voucherOrder.getVoucherId()).count();
  85.         // 5.2.判断是否存在
  86.         if (count > 0) {
  87.             // 用户已经购买过了
  88.            log.error("用户已经购买过了");
  89.            return ;
  90.         }
  91.         // 6.扣减库存
  92.         boolean success = seckillVoucherService.update()
  93.                 .setSql("stock = stock - 1") // set stock = stock - 1
  94.                 .eq("voucher_id", voucherOrder.getVoucherId()).gt("stock", 0) // where id = ? and stock > 0
  95.                 .update();
  96.         if (!success) {
  97.             // 扣减失败
  98.             log.error("库存不足");
  99.             return ;
  100.         }
  101.         save(voucherOrder);
  102.     }
复制代码
小总结:
秒杀业务的优化思路是什么?

7、Redis消息队列

7.1 Redis消息队列-认识消息队列

什么是消息队列:字面意思就是存放消息的队列。最简朴的消息队列模型包括3个脚色:


使用队列的好处在于 **解耦:**所谓解耦,举一个生存中的例子就是:快递员(生产者)把快递放到快递柜里边(Message Queue)去,我们(消费者)从快递柜里边去拿东西,这就是一个异步,如果耦合,那么这个快递员相当于直接把快递交给你,这事固然好,但是万一你不在家,那么快递员就会不停等你,这就浪费了快递员的时间,以是这种思想在我们一样平常开发中,是非常有必要的。
这种场景在我们秒杀中就变成了:我们下单之后,利用redis去举行校验下单条件,再通过队列把消息发送出去,然后再启动一个线程去消费这个消息,完成解耦,同时也加速我们的相应速度。
这里我们可以使用一些现成的mq,比如kafka,rabbitmq等等,但是呢,如果没有安装mq,我们也可以直接使用redis提供的mq方案,降低我们的部署和学习成本。
7.2 Redis消息队列-基于List实现消息队列

基于List布局模拟消息队列
消息队列(Message Queue),字面意思就是存放消息的队列。而Redis的list数据布局是一个双向链表,很轻易模拟出队列效果。
队列是入口和出口不在一边,因此我们可以利用:LPUSH 联合 RPOP、或者 RPUSH 联合 LPOP来实现。
不过要留意的是,当队列中没有消息时RPOP或LPOP操作会返回null,并不像JVM的阻塞队列那样会阻塞并等候消息。因此这里应该使用BRPOP或者BLPOP来实现阻塞效果。

基于List的消息队列有哪些优缺点?
长处:

缺点:

7.3 Redis消息队列-基于PubSub的消息队列

PubSub(发布订阅)是Redis2.0版本引入的消息传递模型。顾名思义,消费者可以订阅一个或多个channel,生产者向对应channel发送消息后,所有订阅者都能收到相干消息。
SUBSCRIBE channel [channel] :订阅一个或多个频道
PUBLISH channel msg :向一个频道发送消息
PSUBSCRIBE pattern[pattern] :订阅与pattern格式匹配的所有频道

基于PubSub的消息队列有哪些优缺点?
长处:

缺点:

7.4 Redis消息队列-基于Stream的消息队列

Stream 是 Redis 5.0 引入的一种新数据范例,可以实现一个功能非常美满的消息队列。
发送消息的命令:

例如:

读取消息的方式之一:XREAD

例如,使用XREAD读取第一个消息:

XREAD阻塞方式,读取最新的消息:

在业务开发中,我们可以循环的调用XREAD阻塞方式来查询最新消息,从而实现连续监听队列的效果,伪代码如下

留意:当我们指定起始ID为$时,代表读取最新的消息,如果我们处理一条消息的过程中,又有超过1条以上的消息到达队列,则下次获取时也只能获取到最新的一条,会出现漏读消息的问题
STREAM范例消息队列的XREAD命令特点:

7.5 Redis消息队列-基于Stream的消息队列-消费者组

消费者组(Consumer Group):将多个消费者划分到一个组中,监听同一个队列。具备下列特点:

创建消费者组:

key:队列名称
groupName:消费者组名称
ID:起始ID标示,$代表队列中最后一个消息,0则代表队列中第一个消息
MKSTREAM:队列不存在时自动创建队列
其它常见命令:
删除指定的消费者组
  1. XGROUP DESTORY key groupName
复制代码
给指定的消费者组添加消费者
  1. XGROUP CREATECONSUMER key groupname consumername
复制代码
删除消费者组中的指定消费者
  1. XGROUP DELCONSUMER key groupname consumername
复制代码
从消费者组读取消息:
  1. XREADGROUP GROUP group consumer [COUNT count] [BLOCK milliseconds] [NOACK] STREAMS key [key ...] ID [ID ...]
复制代码

“>”:从下一个未消费的消息开始
其它:根据指定id从pending-list中获取已消费但未确认的消息,例如0,是从pending-list中的第一个消息开始
消费者监听消息的基本思路:
STREAM范例消息队列的XREADGROUP命令特点:

最后我们来个小对比

7.6 基于Redis的Stream布局作为消息队列,实现异步秒杀下单

需求:

修改lua表达式,新增3.6

VoucherOrderServiceImpl
  1. private class VoucherOrderHandler implements Runnable {
  2.     @Override
  3.     public void run() {
  4.         while (true) {
  5.             try {
  6.                 // 1.获取消息队列中的订单信息 XREADGROUP GROUP g1 c1 COUNT 1 BLOCK 2000 STREAMS s1 >
  7.                 List<MapRecord<String, Object, Object>> list = stringRedisTemplate.opsForStream().read(
  8.                     Consumer.from("g1", "c1"),
  9.                     StreamReadOptions.empty().count(1).block(Duration.ofSeconds(2)),
  10.                     StreamOffset.create("stream.orders", ReadOffset.lastConsumed())
  11.                 );
  12.                 // 2.判断订单信息是否为空
  13.                 if (list == null || list.isEmpty()) {
  14.                     // 如果为null,说明没有消息,继续下一次循环
  15.                     continue;
  16.                 }
  17.                 // 解析数据
  18.                 MapRecord<String, Object, Object> record = list.get(0);
  19.                 Map<Object, Object> value = record.getValue();
  20.                 VoucherOrder voucherOrder = BeanUtil.fillBeanWithMap(value, new VoucherOrder(), true);
  21.                 // 3.创建订单
  22.                 createVoucherOrder(voucherOrder);
  23.                 // 4.确认消息 XACK
  24.                 stringRedisTemplate.opsForStream().acknowledge("s1", "g1", record.getId());
  25.             } catch (Exception e) {
  26.                 log.error("处理订单异常", e);
  27.                 //处理异常消息
  28.                 handlePendingList();
  29.             }
  30.         }
  31.     }
  32.     private void handlePendingList() {
  33.         while (true) {
  34.             try {
  35.                 // 1.获取pending-list中的订单信息 XREADGROUP GROUP g1 c1 COUNT 1 BLOCK 2000 STREAMS s1 0
  36.                 List<MapRecord<String, Object, Object>> list = stringRedisTemplate.opsForStream().read(
  37.                     Consumer.from("g1", "c1"),
  38.                     StreamReadOptions.empty().count(1),
  39.                     StreamOffset.create("stream.orders", ReadOffset.from("0"))
  40.                 );
  41.                 // 2.判断订单信息是否为空
  42.                 if (list == null || list.isEmpty()) {
  43.                     // 如果为null,说明没有异常消息,结束循环
  44.                     break;
  45.                 }
  46.                 // 解析数据
  47.                 MapRecord<String, Object, Object> record = list.get(0);
  48.                 Map<Object, Object> value = record.getValue();
  49.                 VoucherOrder voucherOrder = BeanUtil.fillBeanWithMap(value, new VoucherOrder(), true);
  50.                 // 3.创建订单
  51.                 createVoucherOrder(voucherOrder);
  52.                 // 4.确认消息 XACK
  53.                 stringRedisTemplate.opsForStream().acknowledge("s1", "g1", record.getId());
  54.             } catch (Exception e) {
  55.                 log.error("处理pendding订单异常", e);
  56.                 try{
  57.                     Thread.sleep(20);
  58.                 }catch(Exception e){
  59.                     e.printStackTrace();
  60.                 }
  61.             }
  62.         }
  63.     }
  64. }
复制代码
8、达人探店

8.1、达人探店-发布探店笔记

发布探店笔记
探店笔记类似点评网站的评价,往往是图文联合。对应的表有两个:
tb_blog:探店笔记表,包含笔记中的标题、笔墨、图片等
tb_blog_comments:其他用户对探店笔记的评价
具体发布流程

上传接口
  1. @Slf4j
  2. @RestController
  3. @RequestMapping("upload")
  4. public class UploadController {
  5.     @PostMapping("blog")
  6.     public Result uploadImage(@RequestParam("file") MultipartFile image) {
  7.         try {
  8.             // 获取原始文件名称
  9.             String originalFilename = image.getOriginalFilename();
  10.             // 生成新文件名
  11.             String fileName = createNewFileName(originalFilename);
  12.             // 保存文件
  13.             image.transferTo(new File(SystemConstants.IMAGE_UPLOAD_DIR, fileName));
  14.             // 返回结果
  15.             log.debug("文件上传成功,{}", fileName);
  16.             return Result.ok(fileName);
  17.         } catch (IOException e) {
  18.             throw new RuntimeException("文件上传失败", e);
  19.         }
  20.     }
  21. }
复制代码
留意:同学们在操作时,需要修改SystemConstants.IMAGE_UPLOAD_DIR 自己图片所在的地址,在实际开发中图片一般会放在nginx上或者是云存储上。
BlogController
  1. @RestController
  2. @RequestMapping("/blog")
  3. public class BlogController {
  4.     @Resource
  5.     private IBlogService blogService;
  6.     @PostMapping
  7.     public Result saveBlog(@RequestBody Blog blog) {
  8.         //获取登录用户
  9.         UserDTO user = UserHolder.getUser();
  10.         blog.setUpdateTime(user.getId());
  11.         //保存探店博文
  12.         blogService.saveBlog(blog);
  13.         //返回id
  14.         return Result.ok(blog.getId());
  15.     }
  16. }
复制代码
8.2 达人探店-查看探店笔记

实现查看发布探店笔记的接口

实现代码:
BlogServiceImpl
  1. @Override
  2. public Result queryBlogById(Long id) {
  3.     // 1.查询blog
  4.     Blog blog = getById(id);
  5.     if (blog == null) {
  6.         return Result.fail("笔记不存在!");
  7.     }
  8.     // 2.查询blog有关的用户
  9.     queryBlogUser(blog);
  10.   
  11.     return Result.ok(blog);
  12. }
复制代码
8.3 达人探店-点赞功能

初始代码
  1. @GetMapping("/likes/{id}")
  2. public Result queryBlogLikes(@PathVariable("id") Long id) {
  3.     //修改点赞数量
  4.     blogService.update().setSql("liked = liked +1 ").eq("id",id).update();
  5.     return Result.ok();
  6. }
复制代码
问题分析:这种方式会导致一个用户无穷点赞,显着是不公道的
造成这个问题的缘故因由是,我们现在的逻辑,发起哀求只是给数据库+1,以是才会出现这个问题

美满点赞功能
需求:

实现步调:

为什么接纳set集合:
由于我们的数据是不能重复的,当用户操作过之后,无论他怎么操作,都是
具体步调:
1、在Blog 添加一个字段
  1. @TableField(exist = false)
  2. private Boolean isLike;
复制代码
2、修改代码
  1. @Override
  2.     public Result likeBlog(Long id){
  3.         // 1.获取登录用户
  4.         Long userId = UserHolder.getUser().getId();
  5.         // 2.判断当前登录用户是否已经点赞
  6.         String key = BLOG_LIKED_KEY + id;
  7.         Boolean isMember = stringRedisTemplate.opsForSet().isMember(key, userId.toString());
  8.         if(BooleanUtil.isFalse(isMember)){
  9.              //3.如果未点赞,可以点赞
  10.             //3.1 数据库点赞数+1
  11.             boolean isSuccess = update().setSql("liked = liked + 1").eq("id", id).update();
  12.             //3.2 保存用户到Redis的set集合
  13.             if(isSuccess){
  14.                 stringRedisTemplate.opsForSet().add(key,userId.toString());
  15.             }
  16.         }else{
  17.              //4.如果已点赞,取消点赞
  18.             //4.1 数据库点赞数-1
  19.             boolean isSuccess = update().setSql("liked = liked - 1").eq("id", id).update();
  20.             //4.2 把用户从Redis的set集合移除
  21.             if(isSuccess){
  22.                 stringRedisTemplate.opsForSet().remove(key,userId.toString());
  23.             }
  24.         }
复制代码
8.4 达人探店-点赞排行榜

在探店笔记的详情页面,应该把给该笔记点赞的人显示出来,比如最早点赞的TOP5,形成点赞排行榜:
之前的点赞是放到set集合,但是set集合是不能排序的,以是这个时候,咱们可以接纳一个可以排序的set集合,就是咱们的sortedSet

我们接下来来对比一下这些集合的区别是什么
所有点赞的人,需要是唯一的,以是我们应当使用set或者是sortedSet
其次我们需要排序,就可以直接锁定使用sortedSet啦

修改代码
BlogServiceImpl
点赞逻辑代码
  1.    @Override
  2.     public Result likeBlog(Long id) {
  3.         // 1.获取登录用户
  4.         Long userId = UserHolder.getUser().getId();
  5.         // 2.判断当前登录用户是否已经点赞
  6.         String key = BLOG_LIKED_KEY + id;
  7.         Double score = stringRedisTemplate.opsForZSet().score(key, userId.toString());
  8.         if (score == null) {
  9.             // 3.如果未点赞,可以点赞
  10.             // 3.1.数据库点赞数 + 1
  11.             boolean isSuccess = update().setSql("liked = liked + 1").eq("id", id).update();
  12.             // 3.2.保存用户到Redis的set集合  zadd key value score
  13.             if (isSuccess) {
  14.                 stringRedisTemplate.opsForZSet().add(key, userId.toString(), System.currentTimeMillis());
  15.             }
  16.         } else {
  17.             // 4.如果已点赞,取消点赞
  18.             // 4.1.数据库点赞数 -1
  19.             boolean isSuccess = update().setSql("liked = liked - 1").eq("id", id).update();
  20.             // 4.2.把用户从Redis的set集合移除
  21.             if (isSuccess) {
  22.                 stringRedisTemplate.opsForZSet().remove(key, userId.toString());
  23.             }
  24.         }
  25.         return Result.ok();
  26.     }
  27.     private void isBlogLiked(Blog blog) {
  28.         // 1.获取登录用户
  29.         UserDTO user = UserHolder.getUser();
  30.         if (user == null) {
  31.             // 用户未登录,无需查询是否点赞
  32.             return;
  33.         }
  34.         Long userId = user.getId();
  35.         // 2.判断当前登录用户是否已经点赞
  36.         String key = "blog:liked:" + blog.getId();
  37.         Double score = stringRedisTemplate.opsForZSet().score(key, userId.toString());
  38.         blog.setIsLike(score != null);
  39.     }
复制代码
点赞列表查询列表
BlogController
  1. @GetMapping("/likes/{id}")
  2. public Result queryBlogLikes(@PathVariable("id") Long id) {
  3.     return blogService.queryBlogLikes(id);
  4. }
复制代码
BlogService
  1. @Override
  2. public Result queryBlogLikes(Long id) {
  3.     String key = BLOG_LIKED_KEY + id;
  4.     // 1.查询top5的点赞用户 zrange key 0 4
  5.     Set<String> top5 = stringRedisTemplate.opsForZSet().range(key, 0, 4);
  6.     if (top5 == null || top5.isEmpty()) {
  7.         return Result.ok(Collections.emptyList());
  8.     }
  9.     // 2.解析出其中的用户id
  10.     List<Long> ids = top5.stream().map(Long::valueOf).collect(Collectors.toList());
  11.     String idStr = StrUtil.join(",", ids);
  12.     // 3.根据用户id查询用户 WHERE id IN ( 5 , 1 ) ORDER BY FIELD(id, 5, 1)
  13.     List<UserDTO> userDTOS = userService.query()
  14.             .in("id", ids).last("ORDER BY FIELD(id," + idStr + ")").list()
  15.             .stream()
  16.             .map(user -> BeanUtil.copyProperties(user, UserDTO.class))
  17.             .collect(Collectors.toList());
  18.     // 4.返回
  19.     return Result.ok(userDTOS);
  20. }
复制代码
9、挚友关注

9.1 挚友关注-关注和取消关注

针对用户的操作:可以对用户举行关注和取消关注功能。

实现思路:
需求:基于该表数据布局,实现两个接口:

关注是User之间的关系,是博主与粉丝的关系,数据库中有一张tb_follow表来标示:

留意: 这里需要把主键修改为自增长,简化开发。
FollowController
  1. //关注
  2. @PutMapping("/{id}/{isFollow}")
  3. public Result follow(@PathVariable("id") Long followUserId, @PathVariable("isFollow") Boolean isFollow) {
  4.     return followService.follow(followUserId, isFollow);
  5. }
  6. //取消关注
  7. @GetMapping("/or/not/{id}")
  8. public Result isFollow(@PathVariable("id") Long followUserId) {
  9.       return followService.isFollow(followUserId);
  10. }
复制代码
FollowService
  1. 取消关注service
  2. @Override
  3. public Result isFollow(Long followUserId) {
  4.         // 1.获取登录用户
  5.         Long userId = UserHolder.getUser().getId();
  6.         // 2.查询是否关注 select count(*) from tb_follow where user_id = ? and follow_user_id = ?
  7.         Integer count = query().eq("user_id", userId).eq("follow_user_id", followUserId).count();
  8.         // 3.判断
  9.         return Result.ok(count > 0);
  10.     }
  11. 关注service
  12. @Override
  13.     public Result follow(Long followUserId, Boolean isFollow) {
  14.         // 1.获取登录用户
  15.         Long userId = UserHolder.getUser().getId();
  16.         String key = "follows:" + userId;
  17.         // 1.判断到底是关注还是取关
  18.         if (isFollow) {
  19.             // 2.关注,新增数据
  20.             Follow follow = new Follow();
  21.             follow.setUserId(userId);
  22.             follow.setFollowUserId(followUserId);
  23.             boolean isSuccess = save(follow);
  24.         } else {
  25.             // 3.取关,删除 delete from tb_follow where user_id = ? and follow_user_id = ?
  26.             remove(new QueryWrapper<Follow>()
  27.                     .eq("user_id", userId).eq("follow_user_id", followUserId));
  28.         }
  29.         return Result.ok();
  30.     }
复制代码
9.2 挚友关注-共同关注

想要去看共同关注的挚友,需要起首进入到这个页面,这个页面会发起两个哀求
1、去查询用户的详情
2、去查询用户的笔记
以上两个功能和共同关注没有什么关系,大家可以自行将笔记中的代码拷贝到idea中就可以实现这两个功能了,我们的重点在于共同关注功能。

  1. // UserController 根据id查询用户
  2. @GetMapping("/{id}")
  3. public Result queryUserById(@PathVariable("id") Long userId){
  4.         // 查询详情
  5.         User user = userService.getById(userId);
  6.         if (user == null) {
  7.                 return Result.ok();
  8.         }
  9.         UserDTO userDTO = BeanUtil.copyProperties(user, UserDTO.class);
  10.         // 返回
  11.         return Result.ok(userDTO);
  12. }
  13. // BlogController  根据id查询博主的探店笔记
  14. @GetMapping("/of/user")
  15. public Result queryBlogByUserId(
  16.                 @RequestParam(value = "current", defaultValue = "1") Integer current,
  17.                 @RequestParam("id") Long id) {
  18.         // 根据用户查询
  19.         Page<Blog> page = blogService.query()
  20.                         .eq("user_id", id).page(new Page<>(current, SystemConstants.MAX_PAGE_SIZE));
  21.         // 获取当前页数据
  22.         List<Blog> records = page.getRecords();
  23.         return Result.ok(records);
  24. }
复制代码
接下来我们来看看共同关注如何实现:
需求:利用Redis中恰当的数据布局,实现共同关注功能。在博主个人页面展示出当前用户与博主的共同关注呢。
固然是使用我们之前学习过的set集合咯,在set集合中,有交集并集补集的api,我们可以把两人的关注的人分别放入到一个set集合中,然后再通过api去查看这两个set集合中的交集数据。

我们先来改造当前的关注列表
改造缘故因由是由于我们需要在用户关注了某位用户后,需要将数据放入到set集合中,方便后续举行共同关注,同时当取消关注时,也需要从set集合中举行删除
FollowServiceImpl
  1. @Override
  2. public Result follow(Long followUserId, Boolean isFollow) {
  3.     // 1.获取登录用户
  4.     Long userId = UserHolder.getUser().getId();
  5.     String key = "follows:" + userId;
  6.     // 1.判断到底是关注还是取关
  7.     if (isFollow) {
  8.         // 2.关注,新增数据
  9.         Follow follow = new Follow();
  10.         follow.setUserId(userId);
  11.         follow.setFollowUserId(followUserId);
  12.         boolean isSuccess = save(follow);
  13.         if (isSuccess) {
  14.             // 把关注用户的id,放入redis的set集合 sadd userId followerUserId
  15.             stringRedisTemplate.opsForSet().add(key, followUserId.toString());
  16.         }
  17.     } else {
  18.         // 3.取关,删除 delete from tb_follow where user_id = ? and follow_user_id = ?
  19.         boolean isSuccess = remove(new QueryWrapper<Follow>()
  20.                 .eq("user_id", userId).eq("follow_user_id", followUserId));
  21.         if (isSuccess) {
  22.             // 把关注用户的id从Redis集合中移除
  23.             stringRedisTemplate.opsForSet().remove(key, followUserId.toString());
  24.         }
  25.     }
  26.     return Result.ok();
  27. }
复制代码
具体的关注代码:
FollowServiceImpl
  1. @Override
  2. public Result followCommons(Long id) {
  3.     // 1.获取当前用户
  4.     Long userId = UserHolder.getUser().getId();
  5.     String key = "follows:" + userId;
  6.     // 2.求交集
  7.     String key2 = "follows:" + id;
  8.     Set<String> intersect = stringRedisTemplate.opsForSet().intersect(key, key2);
  9.     if (intersect == null || intersect.isEmpty()) {
  10.         // 无交集
  11.         return Result.ok(Collections.emptyList());
  12.     }
  13.     // 3.解析id集合
  14.     List<Long> ids = intersect.stream().map(Long::valueOf).collect(Collectors.toList());
  15.     // 4.查询用户
  16.     List<UserDTO> users = userService.listByIds(ids)
  17.             .stream()
  18.             .map(user -> BeanUtil.copyProperties(user, UserDTO.class))
  19.             .collect(Collectors.toList());
  20.     return Result.ok(users);
  21. }
复制代码
9.3 挚友关注-Feed流实现方案

当我们关注了用户后,这个用户发了动态,那么我们应该把这些数据推送给用户,这个需求,其实我们又把他叫做Feed流,关注推送也叫做Feed流,直译为投喂。为用户连续的提供“沉醉式”的体验,通过无穷下拉刷新获取新的信息。
对于传统的模式的内容解锁:我们是需要用户去通过搜索引擎或者是其他的方式去解锁想要看的内容

对于新型的Feed流的的效果:不需要我们用户再去推送信息,而是体系分析用户到底想要什么,然后直接把内容推送给用户,从而使用户能够更加的节约时间,不消自动去寻找。

Feed流的实现有两种模式:
Feed流产品有两种常见模式:
Timeline:不做内容筛选,简朴的按照内容发布时间排序,常用于挚友或关注。例如朋友圈

智能排序:利用智能算法屏蔽掉违规的、用户不感兴趣的内容。推送用户感兴趣信息来吸引用户

我们本次针对挚友的操作,接纳的就是Timeline的方式,只需要拿到我们关注用户的信息,然后按照时间排序即可
,因此接纳Timeline的模式。该模式的实现方案有三种:

拉模式:也叫做读扩散
该模式的焦点寄义就是:当张三和李四和王五发了消息后,都会保存在自己的邮箱中,假设赵六要读取信息,那么他会从读取他自己的收件箱,此时体系会从他关注的人群中,把他关注人的信息全部都举行拉取,然后在举行排序
长处:比力节约空间,由于赵六在读信息时,并没有重复读取,而且读取完之后可以把他的收件箱举行清楚。
缺点:比力延长,当用户读取数据时才去关注的人里边去读取数据,假设用户关注了大量的用户,那么此时就会拉取海量的内容,对服务器压力巨大。

推模式:也叫做写扩散。
推模式是没有写邮箱的,当张三写了一个内容,此时会自动的把张三写的内容发送到他的粉丝收件箱中去,假设此时李四再来读取,就不消再去临时拉取了
长处:时效快,不消临时拉取
缺点:内存压力大,假设一个大V写信息,许多人关注他, 就会写许多分数据到粉丝那边去

推拉联合模式:也叫做读写混合,兼具推和拉两种模式的长处。
推拉模式是一个折中的方案,站在发件人这一段,如果是个平凡的人,那么我们接纳写扩散的方式,直接把数据写入到他的粉丝中去,由于平凡的人他的粉丝关注量比力小,以是这样做没有压力,如果是大V,那么他是直接将数据先写入到一份到发件箱里边去,然后再直接写一份到活跃粉丝收件箱里边去,现在站在收件人这端来看,如果是活跃粉丝,那么大V宁静凡的人发的都会直接写入到自己收件箱里边来,而如果是平凡的粉丝,由于他们上线不是很频繁,以是等他们上线时,再从发件箱里边去拉信息。

9.4 挚友关注-推送到粉丝收件箱

需求:

Feed流中的数据会不停更新,以是数据的角标也在变革,因此不能接纳传统的分页模式。
传统了分页在feed流是不适用的,由于我们的数据会随时发生变革
假设在t1 时候,我们去读取第一页,此时page = 1 ,size = 5 ,那么我们拿到的就是10~6 这几条记录,假设现在t2时候又发布了一条记录,此时t3 时候,我们来读取第二页,读取第二页传入的参数是page=2 ,size=5 ,那么此时读取到的第二页实际上是从6 开始,然后是6~2 ,那么我们就读取到了重复的数据,以是feed流的分页,不能接纳原始方案来做。

Feed流的滚动分页
我们需要记录每次操作的最后一条,然后从这个位置开始去读取数据
举个例子:我们从t1时候开始,拿第一页数据,拿到了10~6,然跋文录下当前最后一次拿取的记录,就是6,t2时候发布了新的记录,此时这个11放到最顶上,但是不会影响我们之前记录的6,此时t3时候来拿第二页,第二页这个时候拿数据,还是从6后一点的5去拿,就拿到了5-1的记录。我们这个地方可以接纳sortedSet来做,可以举行范围查询,并且还可以记录当前获取数据时间戳最小值,就可以实现滚动分页了

焦点的意思:就是我们在保存完探店笔记后,得到到当前笔记的粉丝,然后把数据推送到粉丝的redis中去。
  1. @Override
  2. public Result saveBlog(Blog blog) {
  3.     // 1.获取登录用户
  4.     UserDTO user = UserHolder.getUser();
  5.     blog.setUserId(user.getId());
  6.     // 2.保存探店笔记
  7.     boolean isSuccess = save(blog);
  8.     if(!isSuccess){
  9.         return Result.fail("新增笔记失败!");
  10.     }
  11.     // 3.查询笔记作者的所有粉丝 select * from tb_follow where follow_user_id = ?
  12.     List<Follow> follows = followService.query().eq("follow_user_id", user.getId()).list();
  13.     // 4.推送笔记id给所有粉丝
  14.     for (Follow follow : follows) {
  15.         // 4.1.获取粉丝id
  16.         Long userId = follow.getUserId();
  17.         // 4.2.推送
  18.         String key = FEED_KEY + userId;
  19.         stringRedisTemplate.opsForZSet().add(key, blog.getId().toString(), System.currentTimeMillis());
  20.     }
  21.     // 5.返回id
  22.     return Result.ok(blog.getId());
  23. }
复制代码
9.5挚友关注-实现分页查询收邮箱

需求:在个人主页的“关注”卡片中,查询并展示推送的Blog信息:
具体操作如下:
1、每次查询完成后,我们要分析出查询出数据的最小时间戳,这个值会作为下一次查询的条件
2、我们需要找到与上一次查询相同的查询个数作为偏移量,下次查询时,跳过这些查询过的数据,拿到我们需要的数据
综上:我们的哀求参数中就需要携带 lastId:上一次查询的最小时间戳 和偏移量这两个参数。
这两个参数第一次会由前端来指定,以后的查询就根据后台结果作为条件,再次传递到后台。

一、界说出来具体的返回值实体类
  1. @Data
  2. public class ScrollResult {
  3.     private List<?> list;
  4.     private Long minTime;
  5.     private Integer offset;
  6. }
复制代码
BlogController
留意:RequestParam 表示接受url地址栏传参的注解,当方法上参数的名称和url地址栏不相同时,可以通过RequestParam 来举行指定
  1. @GetMapping("/of/follow")
  2. public Result queryBlogOfFollow(
  3.     @RequestParam("lastId") Long max, @RequestParam(value = "offset", defaultValue = "0") Integer offset){
  4.     return blogService.queryBlogOfFollow(max, offset);
  5. }
复制代码
BlogServiceImpl
  1. @Override
  2. public Result queryBlogOfFollow(Long max, Integer offset) {
  3.     // 1.获取当前用户
  4.     Long userId = UserHolder.getUser().getId();
  5.     // 2.查询收件箱 ZREVRANGEBYSCORE key Max Min LIMIT offset count
  6.     String key = FEED_KEY + userId;
  7.     Set<ZSetOperations.TypedTuple<String>> typedTuples = stringRedisTemplate.opsForZSet()
  8.         .reverseRangeByScoreWithScores(key, 0, max, offset, 2);
  9.     // 3.非空判断
  10.     if (typedTuples == null || typedTuples.isEmpty()) {
  11.         return Result.ok();
  12.     }
  13.     // 4.解析数据:blogId、minTime(时间戳)、offset
  14.     List<Long> ids = new ArrayList<>(typedTuples.size());
  15.     long minTime = 0; // 2
  16.     int os = 1; // 2
  17.     for (ZSetOperations.TypedTuple<String> tuple : typedTuples) { // 5 4 4 2 2
  18.         // 4.1.获取id
  19.         ids.add(Long.valueOf(tuple.getValue()));
  20.         // 4.2.获取分数(时间戳)
  21.         long time = tuple.getScore().longValue();
  22.         if(time == minTime){
  23.             os++;
  24.         }else{
  25.             minTime = time;
  26.             os = 1;
  27.         }
  28.     }
  29.         os = minTime == max ? os : os + offset;
  30.     // 5.根据id查询blog
  31.     String idStr = StrUtil.join(",", ids);
  32.     List<Blog> blogs = query().in("id", ids).last("ORDER BY FIELD(id," + idStr + ")").list();
  33.     for (Blog blog : blogs) {
  34.         // 5.1.查询blog有关的用户
  35.         queryBlogUser(blog);
  36.         // 5.2.查询blog是否被点赞
  37.         isBlogLiked(blog);
  38.     }
  39.     // 6.封装并返回
  40.     ScrollResult r = new ScrollResult();
  41.     r.setList(blogs);
  42.     r.setOffset(os);
  43.     r.setMinTime(minTime);
  44.     return Result.ok(r);
  45. }
复制代码
10、附近商户

10.1、附近商户-GEO数据布局的基本用法

GEO就是Geolocation的简写形式,代表地理坐标。Redis在3.2版本中加入了对GEO的支持,允许存储地理坐标信息,帮助我们根据经纬度来检索数据。常见的命令有:

10.2、 附近商户-导入店肆数据到GEO

具体场景说明:

当我们点击美食之后,会出现一系列的商家,商家中可以按照多种排序方式,我们此时关注的是距离,这个地方就需要使用到我们的GEO,向后台传入当前app网络的地址(我们此处是写死的) ,以当前坐标作为圆心,同时绑定相同的店家范例type,以及分页信息,把这几个条件传入后台,后台查询出对应的数据再返回。

我们要做的事变是:将数据库表中的数据导入到redis中去,redis中的GEO,GEO在redis中就一个menber和一个经纬度,我们把x和y轴传入到redis做的经纬度位置去,但我们不能把所有的数据都放入到menber中去,究竟作为redis是一个内存级数据库,如果存海量数据,redis还是力有未逮,以是我们在这个地方存储他的id即可。
但是这个时候另有一个问题,就是在redis中并没有存储type,以是我们无法根据type来对数据举行筛选,以是我们可以按照商户范例做分组,范例相同的商户作为同一组,以typeId为key存入同一个GEO集合中即可
代码
HmDianPingApplicationTests
  1. @Test
  2. void loadShopData() {
  3.     // 1.查询店铺信息
  4.     List<Shop> list = shopService.list();
  5.     // 2.把店铺分组,按照typeId分组,typeId一致的放到一个集合
  6.     Map<Long, List<Shop>> map = list.stream().collect(Collectors.groupingBy(Shop::getTypeId));
  7.     // 3.分批完成写入Redis
  8.     for (Map.Entry<Long, List<Shop>> entry : map.entrySet()) {
  9.         // 3.1.获取类型id
  10.         Long typeId = entry.getKey();
  11.         String key = SHOP_GEO_KEY + typeId;
  12.         // 3.2.获取同类型的店铺的集合
  13.         List<Shop> value = entry.getValue();
  14.         List<RedisGeoCommands.GeoLocation<String>> locations = new ArrayList<>(value.size());
  15.         // 3.3.写入redis GEOADD key 经度 纬度 member
  16.         for (Shop shop : value) {
  17.             // stringRedisTemplate.opsForGeo().add(key, new Point(shop.getX(), shop.getY()), shop.getId().toString());
  18.             locations.add(new RedisGeoCommands.GeoLocation<>(
  19.                     shop.getId().toString(),
  20.                     new Point(shop.getX(), shop.getY())
  21.             ));
  22.         }
  23.         stringRedisTemplate.opsForGeo().add(key, locations);
  24.     }
  25. }
复制代码
10.3 附近商户-实现附近商户功能

SpringDataRedis的2.3.9版本并不支持Redis 6.2提供的GEOSEARCH命令,因此我们需要提示其版本,修改自己的POM
第一步:导入pom
  1. <dependency>
  2.     <groupId>org.springframework.boot</groupId>
  3.     <artifactId>spring-boot-starter-data-redis</artifactId>
  4.     <exclusions>
  5.         <exclusion>
  6.             <artifactId>spring-data-redis</artifactId>
  7.             <groupId>org.springframework.data</groupId>
  8.         </exclusion>
  9.         <exclusion>
  10.             <artifactId>lettuce-core</artifactId>
  11.             <groupId>io.lettuce</groupId>
  12.         </exclusion>
  13.     </exclusions>
  14. </dependency>
  15. <dependency>
  16.     <groupId>org.springframework.data</groupId>
  17.     <artifactId>spring-data-redis</artifactId>
  18.     <version>2.6.2</version>
  19. </dependency>
  20. <dependency>
  21.     <groupId>io.lettuce</groupId>
  22.     <artifactId>lettuce-core</artifactId>
  23.     <version>6.1.6.RELEASE</version>
  24. </dependency>
复制代码
第二步:
ShopController
  1. @GetMapping("/of/type")
  2. public Result queryShopByType(
  3.         @RequestParam("typeId") Integer typeId,
  4.         @RequestParam(value = "current", defaultValue = "1") Integer current,
  5.         @RequestParam(value = "x", required = false) Double x,
  6.         @RequestParam(value = "y", required = false) Double y
  7. ) {
  8.    return shopService.queryShopByType(typeId, current, x, y);
  9. }
复制代码
ShopServiceImpl
  1. @Override
  2.     public Result queryShopByType(Integer typeId, Integer current, Double x, Double y) {
  3.         // 1.判断是否需要根据坐标查询
  4.         if (x == null || y == null) {
  5.             // 不需要坐标查询,按数据库查询
  6.             Page<Shop> page = query()
  7.                     .eq("type_id", typeId)
  8.                     .page(new Page<>(current, SystemConstants.DEFAULT_PAGE_SIZE));
  9.             // 返回数据
  10.             return Result.ok(page.getRecords());
  11.         }
  12.         // 2.计算分页参数
  13.         int from = (current - 1) * SystemConstants.DEFAULT_PAGE_SIZE;
  14.         int end = current * SystemConstants.DEFAULT_PAGE_SIZE;
  15.         // 3.查询redis、按照距离排序、分页。结果:shopId、distance
  16.         String key = SHOP_GEO_KEY + typeId;
  17.         GeoResults<RedisGeoCommands.GeoLocation<String>> results = stringRedisTemplate.opsForGeo() // GEOSEARCH key BYLONLAT x y BYRADIUS 10 WITHDISTANCE
  18.                 .search(
  19.                         key,
  20.                         GeoReference.fromCoordinate(x, y),
  21.                         new Distance(5000),
  22.                         RedisGeoCommands.GeoSearchCommandArgs.newGeoSearchArgs().includeDistance().limit(end)
  23.                 );
  24.         // 4.解析出id
  25.         if (results == null) {
  26.             return Result.ok(Collections.emptyList());
  27.         }
  28.         List<GeoResult<RedisGeoCommands.GeoLocation<String>>> list = results.getContent();
  29.         if (list.size() <= from) {
  30.             // 没有下一页了,结束
  31.             return Result.ok(Collections.emptyList());
  32.         }
  33.         // 4.1.截取 from ~ end的部分
  34.         List<Long> ids = new ArrayList<>(list.size());
  35.         Map<String, Distance> distanceMap = new HashMap<>(list.size());
  36.         list.stream().skip(from).forEach(result -> {
  37.             // 4.2.获取店铺id
  38.             String shopIdStr = result.getContent().getName();
  39.             ids.add(Long.valueOf(shopIdStr));
  40.             // 4.3.获取距离
  41.             Distance distance = result.getDistance();
  42.             distanceMap.put(shopIdStr, distance);
  43.         });
  44.         // 5.根据id查询Shop
  45.         String idStr = StrUtil.join(",", ids);
  46.         List<Shop> shops = query().in("id", ids).last("ORDER BY FIELD(id," + idStr + ")").list();
  47.         for (Shop shop : shops) {
  48.             shop.setDistance(distanceMap.get(shop.getId().toString()).getValue());
  49.         }
  50.         // 6.返回
  51.         return Result.ok(shops);
  52.     }
复制代码
11、用户签到

11.1、用户签到-BitMap功能演示

我们针对签到功能完全可以通过mysql来完成,比如说以下这张表

用户一次签到,就是一条记录,如果有1000万用户,平均每人每年签到次数为10次,则这张表一年的数据量为 1亿条
每签到一次需要使用(8 + 8 + 1 + 1 + 3 + 1)共22 字节的内存,一个月则最多需要600多字节
我们如何能够简化一点呢?其实可以考虑小时候一个挺常见的方案,就是小时候,咱们准备一张小小的卡片,你只要签到就打上一个勾,我最后判断你是否签到,其实只需要到小卡片上看一看就知道了
我们可以接纳类似这样的方案来实现我们的签到需求。
我们按月来统计用户签到信息,签到记录为1,未签到则记录为0.
把每一个bit位对应当月的每一天,形成了映射关系。用0和1标示业务状态,这种思路就称为位图(BitMap)。这样我们就用极小的空间,来实现了大量数据的表示
Redis中是利用string范例数据布局实现BitMap,因此最大上限是512M,转换为bit则是 2^32个bit位。

BitMap的操作命令有:

11.2 、用户签到-实现签到功能

需求:实现签到接口,将当前用户当天签到信息保存到Redis中
思路:我们可以把年和月作为bitMap的key,然后保存到一个bitMap中,每次签到就到对应的位上把数字从0变成1,只要对应是1,就表明说明这一天已经签到了,反之则没有签到。
我们通过接口文档发现,此接口并没有传递任何的参数,没有参数怎么确实是哪一天签到呢?这个很轻易,可以通过后台代码直接获取即可,然后到对应的地址上去修改bitMap。

代码
UserController
  1. @PostMapping("/sign")
  2. public Result sign(){
  3.     return userService.sign();
  4. }
复制代码
UserServiceImpl
  1. @Override
  2. public Result sign() {
  3.     // 1.获取当前登录用户
  4.     Long userId = UserHolder.getUser().getId();
  5.     // 2.获取日期
  6.     LocalDateTime now = LocalDateTime.now();
  7.     // 3.拼接key
  8.     String keySuffix = now.format(DateTimeFormatter.ofPattern(":yyyyMM"));
  9.     String key = USER_SIGN_KEY + userId + keySuffix;
  10.     // 4.获取今天是本月的第几天
  11.     int dayOfMonth = now.getDayOfMonth();
  12.     // 5.写入Redis SETBIT key offset 1
  13.     stringRedisTemplate.opsForValue().setBit(key, dayOfMonth - 1, true);
  14.     return Result.ok();
  15. }
复制代码
11.3 用户签到-签到统计

**问题1:**什么叫做连续签到天数?
从最后一次签到开始向前统计,直到遇到第一次未签到为止,计算总的签到次数,就是连续签到天数。

Java逻辑代码:得到当前这个月的最后一次签到数据,界说一个计数器,然后不停的向前统计,直到得到第一个非0的数字即可,每得到一个非0的数字计数器+1,直到遍历完所有的数据,就可以得到当前月的签到总天数了
**问题2:**如何得到本月到本日为止的所有签到数据?
BITFIELD key GET u[dayOfMonth] 0
假设本日是10号,那么我们就可以从当前月的第一天开始,得到到当前这一天的位数,是10号,那么就是10位,去拿这段时间的数据,就能拿到所有的数据了,那么这10天里边签到了多少次呢?统计有多少个1即可。
问题3:如何从后向前遍历每个bit位?
留意:bitMap返回的数据是10进制,哪如果说返回一个数字8,那么我哪儿知道到底哪些是0,哪些是1呢?我们只需要让得到的10进制数字和1做与运算就可以了,由于1只有遇见1 才是1,其他数字都是0 ,我们把签到结果和1举行与操作,每与一次,就把签到结果向右移动一位,依次内推,我们就能完成逐个遍历的效果了。
需求:实现下面接口,统计当前用户克制当前时间在本月的连续签到天数
有用户偶尔间我们就可以构造出对应的key,此时就能找到这个用户克制这天的所有签到记录,再根据这套算法,就能统计出来他连续签到的次数了

代码
UserController
  1. @GetMapping("/sign/count")
  2. public Result signCount(){
  3.     return userService.signCount();
  4. }
复制代码
UserServiceImpl
  1. @Override
  2. public Result signCount() {
  3.     // 1.获取当前登录用户
  4.     Long userId = UserHolder.getUser().getId();
  5.     // 2.获取日期
  6.     LocalDateTime now = LocalDateTime.now();
  7.     // 3.拼接key
  8.     String keySuffix = now.format(DateTimeFormatter.ofPattern(":yyyyMM"));
  9.     String key = USER_SIGN_KEY + userId + keySuffix;
  10.     // 4.获取今天是本月的第几天
  11.     int dayOfMonth = now.getDayOfMonth();
  12.     // 5.获取本月截止今天为止的所有的签到记录,返回的是一个十进制的数字 BITFIELD sign:5:202203 GET u14 0
  13.     List<Long> result = stringRedisTemplate.opsForValue().bitField(
  14.             key,
  15.             BitFieldSubCommands.create()
  16.                     .get(BitFieldSubCommands.BitFieldType.unsigned(dayOfMonth)).valueAt(0)
  17.     );
  18.     if (result == null || result.isEmpty()) {
  19.         // 没有任何签到结果
  20.         return Result.ok(0);
  21.     }
  22.     Long num = result.get(0);
  23.     if (num == null || num == 0) {
  24.         return Result.ok(0);
  25.     }
  26.     // 6.循环遍历
  27.     int count = 0;
  28.     while (true) {
  29.         // 6.1.让这个数字与1做与运算,得到数字的最后一个bit位  // 判断这个bit位是否为0
  30.         if ((num & 1) == 0) {
  31.             // 如果为0,说明未签到,结束
  32.             break;
  33.         }else {
  34.             // 如果不为0,说明已签到,计数器+1
  35.             count++;
  36.         }
  37.         // 把数字右移一位,抛弃最后一个bit位,继续下一个bit位
  38.         num >>>= 1;
  39.     }
  40.     return Result.ok(count);
  41. }
复制代码
11.4 额外加餐-关于使用bitmap来解决缓存穿透的方案

回首缓存穿透
发起了一个数据库不存在的,redis里边也不存在的数据,通常你可以把他当作一个攻击
解决方案:

第一种解决方案:遇到的问题是如果用户访问的是id不存在的数据,则此时就无法生效
第二种解决方案:遇到的问题是:如果是不同的id那就可以防止下次过来直击数据
以是我们如何解决呢?
我们可以将数据库的数据,所对应的id写入到一个list集合中,当用户过来访问的时候,我们直接去判断list中是否包含当前的要查询的数据,如果说用户要查询的id数据并不在list集合中,则直接返回,如果list中包含对应查询的id数据,则说明不是一次缓存穿透数据,则直接放行。

现在的问题是这个主键其实并没有那么短,而是很长的一个 主键
哪怕你单独去提取这个主键,但是在11年左右,淘宝的商品总量就已经超过10亿个
以是如果接纳以上方案,这个list也会很大,以是我们可以使用bitmap来淘汰list的存储空间
我们可以把list数据抽象成一个非常大的bitmap,我们不再使用list,而是将db中的id数据利用哈希思想,比如:
id % bitmap.size = 算出当前这个id对应应该落在bitmap的哪个索引上,然后将这个值从0变成1,然后当用户来查询数据时,此时已经没有了list,让用户用他查询的id去用相同的哈希算法, 算出来当前这个id应当落在bitmap的哪一位,然后判断这一位是0,还是1,如果是0则表明这一位上的数据肯定不存在, 接纳这种方式来处理,需要重点考虑一个事变,就是误差率,所谓的误差率就是指当发生哈希冲突的时候,产生的误差。

12、UV统计

12.1 、UV统计-HyperLogLog

起首我们搞懂两个概念:

通常来说UV会比PV大许多,以是衡量同一个网站的访问量,我们需要综合考虑许多因素,以是我们只是单纯的把这两个值作为一个参考值
UV统计在服务端做会比力贫苦,由于要判断该用户是否已经统计过了,需要将统计过的用户信息保存。但是如果每个访问的用户都保存到Redis中,数据量会非常恐怖,那怎么处理呢?
Hyperloglog(HLL)是从Loglog算法派生的概率算法,用于确定非常大的集合的基数,而不需要存储其所有值。相干算法原理大家可以参考:https://juejin.cn/post/6844903785744056333#heading-0
Redis中的HLL是基于string布局实现的,单个HLL的内存永远小于16kb内存占用低的怒不可遏!作为代价,其丈量结果是概率性的,有小于0.81%的误差。不过对于UV统计来说,这完全可以忽略。

12.2 UV统计-测试百万数据的统计

测试思路:我们直接利用单元测试,向HyperLogLog中添加100万条数据,看看内存占用和统计效果如何

经过测试:我们会发生他的误差是在允许范围内,并且内存占用极小

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 IT评测·应用市场-qidao123.com (https://dis.qidao123.com/) Powered by Discuz! X3.4