马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。
您需要 登录 才可以下载或查看,没有账号?立即注册
x
在微服务长途调用的过程中,还存在几个题目需要办理。
首先是业务健壮性题目:
比方在之前的查询购物车列表业务中,购物车服务需要查询最新的商品信息,与购物车数据做对比,提示用户。各人设想一下,如果商品服务查询时发生故障,查询购物车列表在调用商品服 务时,是不是也会非常?从而导致购物车查询失败。但从业务角度来说,为了提升用户体验,即便是商品查询失败,购物车列表也应该正确展示出来,哪怕是不包含最新的商品信息。
尚有级联失败题目:
还是查询购物车的业务,假如商品服务业务并发较高,占用过多Tomcat连接。可能会导致商品服务的全部接口相应时间增长,延迟变高,乃至是长时间壅闭直至查询失败。
此时查询购物车业务需要查询并等待商品查询结果,从而导致查询购物车列表业务的相应时间也变长,乃至也壅闭直至无法访问。而此时如果查询购物车的哀求较多,可能导致购物车服务的Tomcat连接占用较多,全部接口的相应时间都会增长,整个服务性能很差, 乃至不可用。
依次类推,整个微服务群中与购物车服务、商品服务等有调用关系的服务可能都会出现题目,最终导致整个集群不可用。
这就是级联失败题目,或者叫雪崩题目。
尚有跨服务的事务题目:
好比昨天讲到过的下单业务,下单的过程中需要调用多个微服务:
- 商品服务:扣减库存
- 订单服务:生存订单
- 购物车服务:清算购物车
这些业务全部都是数据库的写操作,我们必须确保全部操作的同时成功或失败。但是这些操作在不同微服务,也就是不同的Tomcat,这样的情况如何确保事务特性呢?
这些题目都会在今天找到答案。
今天的内容会分成几部门:
通过今天的学习,你将能掌握下面的本领:
- 知道雪崩题目产生缘故原由及常见办理方案
- 能使用Sentinel实现服务保护
- 理解分布式事务产生的缘故原由
- 能使用Seata办理分布式事务题目
- 理解AT模式根本原理
1.微服务保护
包管服务运行的健壮性,制止级联失败导致的雪崩题目,就属于微服务保护。这章我们就一起来学习一下微服务保护的常见方案以及对应的技术。
1.1.服务保护方案
微服务保护的方案有许多,好比:
这些方案或多或少都会导致服务的体验上略有降落,好比哀求限流,降低了并发上限;线程隔离,降低了可用资源数量;服务熔断,降低了服务的完备度,部门服务变的不可用或弱可用。因此这些方案都属于服务降级的方案。但通过这些方案,服务的健壮性得到了提升,
接下来,我们就逐一相识这些方案的原理。
1.1.1.哀求限流
服务故障最重要缘故原由,就是并发太高!办理了这个题目,就能制止大部门故障。固然,接口的并发不是不停很高,而是突发的。因此哀求限流,就是限制或控制接口访问的并发流量,制止服务因流量激增而出现故障。
哀求限流往往会有一个限流器,数量高低升沉的并发哀求曲线,经过限流器就变的非常平稳。这就像是水电站的大坝,起到蓄水的作用,可以通过开关控制水流出的大小,让下游水流始终维持在一个平稳的量。
1.1.2.线程隔离
当一个业务接口相应时间长,而且并发高时,就可能耗尽服务器的线程资源,导致服务内的别的接口受到影响。所以我们必须把这种影响降低,或者缩减影响的范围。线程隔离正是办理这个题目的好办法。
线程隔离的思想来自轮船的舱壁模式:
轮船的船舱会被隔板分割为N个相互隔离的密闭舱,假如轮船触礁进水,只有破坏的部门密闭舱会进水,而其他舱由于相互隔离,并不会进水。这样就把进水控制在部门船体,制止了整个船舱进水而沉没。
为了制止某个接口故障或压力过大导致整个服务不可用,我们可以限定每个接口可以使用的资源范围,也就是将其“隔离”起来。
如图所示,我们给查询购物车业务限定可用线程数量上限为20,这样即便查询购物车的哀求因为查询商品服务而出现故障,也不会导致服务器的线程资源被耗尽,不会影响到别的接口。
1.1.3.服务熔断
线程隔离虽然制止了雪崩题目,但故障服务(商品服务)依然会拖慢购物车服务(服务调用方)的接口相应速率。而且商品查询的故障依然会导致查询购物车功能出现故障,购物车业务也变的不可用了。
所以,我们要做两件事情:
- 编写服务降级逻辑:就是服务调用失败后的处置惩罚逻辑,根据业务场景,可以抛出非常,也可以返回友好提示或默认数据。
- 非常统计和熔断:统计服务提供方的非常比例,当比例过高表明该接口会影响到别的服务,应该拒绝调用该接口,而是直接走降级逻辑。
1.2.Sentinel
微服务保护的技术有许多,但在目前国内使用较多的还是Sentinel,所以接下来我们学习Sentinel的使用。
1.2.1.先容和安装
Sentinel是阿里巴巴开源的一款服务保护框架,目前已经参加SpringCloudAlibaba中。官方网站:
home | Sentinel
Sentinel 的使用可以分为两个部门:
- 焦点库(Jar包):不依赖任何框架/库,可以或许运行于 Java 8 及以上的版本的运行时情况,同时对 Dubbo / Spring Cloud 等框架也有较好的支持。在项目中引入依赖即可实现服务限流、隔离、熔断等功能。
- 控制台(Dashboard):Dashboard 主要负责管理推送规则、监控、管理呆板信息等。
为了方便监控微服务,我们先把Sentinel的控制台搭建出来。
1)下载jar包
下载地址:
Releases · alibaba/Sentinel · GitHub
也可以直接使用课前资料提供的版本:
2)运行
将jar包放在任意非中文、不包含特别字符的目录下,重命名为sentinel-dashboard.jar:
然后运行如下下令启动控制台:
- [/code] [code]java -Dserver.port=8090 -Dcsp.sentinel.dashboard.server=localhost:8090 -Dproject.name=sentinel-dashboard -jar sentinel-dashboard.jar
复制代码
别的启动时可配置参数可参考官方文档:
启动配置项 · alibaba/Sentinel Wiki · GitHub
3)访问
访问http://localhost:8090页面,就可以看到sentinel的控制台了:
需要输入账号和暗码,默认都是:sentinel
登录后,即可看到控制台,默认会监控sentinel-dashboard服务本身:
1.2.2.微服务整合
我们在cart-service模块中整合sentinel,连接sentinel-dashboard控制台,步调如下: 1)引入sentinel依赖
- [/code] [code]<!--sentinel-->
- <dependency>
- <groupId>com.alibaba.cloud</groupId>
- <artifactId>spring-cloud-starter-alibaba-sentinel</artifactId>
- </dependency>
复制代码
2)配置控制台
修改application.yaml文件,添加下面内容:
- [/code] [code]spring:
- cloud:
- sentinel:
- transport:
- dashboard: localhost:8090
复制代码 应该放到这里:
3)访问cart-service的任意端点
重启cart-service,然后访问查询购物车接口,
sentinel的客户端就会将服务访问的信息提交到sentinel-dashboard控制台。并展示出统计信息:
点击簇点链路菜单,会看到下面的页面:
所谓簇点链路,就是单机调用链路,是一次哀求进入服务后经过的每一个被Sentinel监控的资源。默认情况下,Sentinel会监控SpringMVC的每一个Endpoint(接口)。
因此,我们看到/carts这个接口路径就是此中一个簇点,我们可以对其进行限流、熔断、隔离等保护步伐。
不过,需要留意的是,我们的SpringMVC接口是按照Restful风格设计,因此购物车的查询、删除、修改等接口全部都是/carts路径:
默认情况下Sentinel会把路径作为簇点资源的名称,无法区分路径相同但哀求方式不同的接口,查询、删除、修改等都被识别为一个簇点资源,这显然是不符合的。
所以我们可以选择打开Sentinel的哀求方式前缀,把哀求方式 + 哀求路径作为簇点资源名:
首先,在cart-service的application.yml中添加下面的配置:
- [/code] [code]spring:
- cloud:
- sentinel:
- transport:
- dashboard: localhost:8090
- http-method-specify: true # 开启请求方式前缀
复制代码
然后,重启服务,通过页面访问购物车的相干接口,可以看到sentinel控制台的簇点链路发生了变化:
1.3.哀求限流
在簇点链路后面点击流控按钮,即可对其做限流配置:
在弹出的菜单中这样填写:
这样就把查询购物车列表这个簇点资源的流量限制在了每秒6个,也就是最大QPS为6.
我们利用Jemeter做限流测试,我们每秒发出10个哀求:
最终监控结果如下:
可以看出GET:/carts这个接口的通过QPS稳固在6附近,而拒绝的QPS在4附近,符合我们的预期。
1.4.线程隔离
限流可以降低服务器压力,尽量淘汰因并发流量引起的服务故障的概率,但并不能完全制止服务故障。一旦某个服务出现故障,我们必须隔离对这个服务的调用,制止发生雪崩。
好比,查询购物车的时候需要查询商品,为了制止因商品服务出现故障导致购物车服务级联失败,我们可以把购物车业务中查询商品的部门隔离起来,限制可用的线程资源:
这样,即便商品服务出现故障,最多导致查询购物车业务故障,并且可用的线程资源也被限定在一定范围,不会导致整个购物车服务瓦解。
所以,我们要对查询商品的FeignClient接口做线程隔离。
1.4.1.OpenFeign整合Sentinel
修改cart-service模块的application.yml文件,开启Feign的sentinel功能:
- [/code] [code]feign:
- sentinel:
- enabled: true # 开启feign对sentinel的支持
复制代码
需要留意的是,默认情况下SpringBoot项目的tomcat最大线程数是200,允许的最大连接是8492,单机测试很难打满。
所以我们需要配置一下cart-service模块的application.yml文件,修改tomcat连接:
- [/code] [code]server:
- port: 8082
- tomcat:
- threads:
- max: 50 # 允许的最大线程数
- accept-count: 50 # 最大排队等待数量
- max-connections: 100 # 允许的最大连接
复制代码
然后重启cart-service服务,可以看到查询商品的FeignClient主动变成了一个簇点资源:
1.4.2.配置线程隔离
接下来,点击查询商品的FeignClient对应的簇点资源后面的流控按钮:
在弹出的表单中填写下面内容:
留意,这里勾选的是并发线程数限制,也就是说这个查询功能最多使用5个线程,而不是5QPS。如果查询商品的接口每秒处置惩罚2个哀求,则5个线程的现实QPS在10左右,而超出的哀求自然会被拒绝。
我们利用Jemeter测试,每秒发送100个哀求:
最终测试结果如下:
进入查询购物车的哀求每秒大概在100,而在查询商品时却只剩下每秒10左右,符合我们的预期。
此时如果我们通过页面访问购物车的别的接口,比方添加购物车、修改购物车商品数量,发现不受影响:
相应时间非常短,这就证明线程隔离起到了作用,只管查询购物车这个接口并发很高,但是它能使用的线程资源被限制了,因此不会影响到别的接口。
1.5.服务熔断
在上节课,我们利用线程隔离对查询购物车业务进行隔离,保护了购物车服务的别的接口。由于查询商品的功能耗时较高(我们模拟了500毫秒延时),再加上线程隔离限定了线程数为5,导致接口吞吐本领有限,最终QPS只有10左右。这就导致了几个题目:
第一,超出的QPS上限的哀求就只能抛出非常,从而导致购物车的查询失败。但从业务角度来说,即便没有查询到最新的商品信息,购物车也应该展示给用户,用户体验更好。也就是给查询失败设置一个降级处置惩罚逻辑。
第二,由于查询商品的延迟较高(模拟的500ms),从而导致查询购物车的相应时间也变的很长。这样不仅拖慢了购物车服务,消耗了购物车服务的更多资源,而且用户体验也很差。对于商品服务这种不太健康的接口,我们应该直接停止调用,直接走降级逻辑,制止影响到当前服务。也就是将商品查询接口熔断。
1.5.1.编写降级逻辑
触发限流或熔断后的哀求不一定要直接报错,也可以返回一些默认数据或者友好提示,用户体验会更好。
给FeignClient编写失败后的降级逻辑有两种方式:
- 方式一:FallbackClass,无法对长途调用的非常做处置惩罚
- 方式二:FallbackFactory,可以对长途调用的非常做处置惩罚,我们一般选择这种方式。
这里我们演示方式二的失败降级处置惩罚。
步调一:在hm-api模块中给ItemClient定义降级处置惩罚类,实现FallbackFactory:
代码如下:
- [/code] [code]package com.hmall.api.client.fallback;
- import com.hmall.api.client.ItemClient;
- import com.hmall.api.dto.ItemDTO;
- import com.hmall.api.dto.OrderDetailDTO;
- import com.hmall.common.exception.BizIllegalException;
- import com.hmall.common.utils.CollUtils;
- import lombok.extern.slf4j.Slf4j;
- import org.springframework.cloud.openfeign.FallbackFactory;
- import java.util.Collection;
- import java.util.List;
- @Slf4j
- public class ItemClientFallback implements FallbackFactory<ItemClient> {
- @Override
- public ItemClient create(Throwable cause) {
- return new ItemClient() {
- @Override
- public List<ItemDTO> queryItemByIds(Collection<Long> ids) {
- log.error("远程调用ItemClient#queryItemByIds方法出现异常,参数:{}", ids, cause);
- // 查询购物车允许失败,查询失败,返回空集合
- return CollUtils.emptyList();
- }
- @Override
- public void deductStock(List<OrderDetailDTO> items) {
- // 库存扣减业务需要触发事务回滚,查询失败,抛出异常
- throw new BizIllegalException(cause);
- }
- };
- }
- }
复制代码
步调二:在hm-api模块中的com.hmall.api.config.DefaultFeignConfig类中将ItemClientFallback注册为一个Bean:
步调三:在hm-api模块中的ItemClient接口中使用ItemClientFallbackFactory:
重启后,再次测试,发现被限流的哀求不再报错,走了降级逻辑:
但是未被限流的哀求延时依然很高:
导致最终的平手相应时间较长。
1.5.2.服务熔断
查询商品的RT较高(模拟的500ms),从而导致查询购物车的RT也变的很长。这样不仅拖慢了购物车服务,消耗了购物车服务的更多资源,而且用户体验也很差。
对于商品服务这种不太健康的接口,我们应该停止调用,直接走降级逻辑,制止影响到当前服务。也就是将商品查询接口熔断。当商品服务接口恢复正常后,再允许调用。这着实就是断路器的工作模式了。
Sentinel中的断路器不仅可以统计某个接口的慢哀求比例,还可以统计非常哀求比例。当这些比例超出阈值时,就会熔断该接口,即拦截访问该接口的齐备哀求,降级处置惩罚;当该接口恢复正常时,再放行对于该接口的哀求。
断路器的工作状态切换有一个状态机来控制:
状态机包罗三个状态:
- closed:关闭状态,断路器放行全部哀求,并开始统计非常比例、慢哀求比例。凌驾阈值则切换到open状态
- open:打开状态,服务调用被熔断,访问被熔断服务的哀求会被拒绝,快速失败,直接走降级逻辑。Open状态持续一段时间后会进入half-open状态
- half-open:半开状态,放行一次哀求,根据执行结果来判断接下来的操作。
- 哀求成功:则切换到closed状态
- 哀求失败:则切换到open状态
我们可以在控制台通过点击簇点后的熔断按钮来配置熔断策略:
在弹出的表格中这样填写:
这种是按照慢调用比例来做熔断,上述配置的含义是:
- RT凌驾200毫秒的哀求调用就是慢调用
- 统计近来1000ms内的最少5次哀求,如果慢调用比例不低于0.5,则触发熔断
- 熔断持续时长20s
配置完成后,再次利用Jemeter测试,可以发现:
在一开始一段时间是允许访问的,后来触发熔断后,查询商品服务的接口通过QPS直接为0,全部哀求都被熔断了。而查询购物车的本身并没有受到影响。
此时整个购物车查询服务的平均RT影响不大:
2.分布式事务
首先我们看看项目中的下单业务整体流程:
由于订单、购物车、商品分别在三个不同的微服务,而每个微服务都有自己独立的数据库,因此下单过程中就会跨多个数据库完成业务。而每个微服务都会执行自己的本地事务:
- 交易服务:下单事务
- 购物车服务:清算购物车事务
- 库存服务:扣减库存事务
整个业务中,各个本地事务是有关联的。因此每个微服务的本地事务,也可以称为分支事务。多个有关联的分支事务一起就组成了全局事务。我们必须包管整个全局事务同时成功或失败。
我们知道每一个分支事务就是传统的单体事务,都可以满足ACID特性,但全局事务跨越多个服务、多个数据库,是否还能满足呢?
我们来做一个测试,先进入购物车页面:
目前有4个购物车,然结算下单,进入订单结算页面:
然后将购物车中某个商品的库存修改为0:
然后,提交订单,最终因库存不足导致下单失败:
然后我们去查看购物车列表,发现购物车数据依然被清空了,并未回滚:
事务并未依照ACID的原则,归其缘故原由就是参与事务的多个子业务在不同的微服务,跨越了不同的数据库。虽然每个单独的业务都能在本地依照ACID,但是它们互相之间没有感知,不知道有人失败了,无法包管最终结果的统一,也就无法依照ACID的事务特性了。
这就是分布式事务题目,出现以下情况之一就可能产生分布式事务题目:
接下来这一章我们就一起来研究下如何办理分布式事务题目。
2.1.认识Seata
办理分布式事务的方案有许多,但实现起来都比较复杂,因此我们一般会使用开源的框架来办理分布式事务题目。在浩繁的开源分布式事务框架中,功能最完善、使用最多的就是阿里巴巴在2019年开源的Seata了。
Seata 是什么? | Apache Seata
着实分布式事务产生的一个重要缘故原由,就是参与事务的多个分支事务互相无感知,不知道彼此的执行状态。因此办理分布式事务的思想非常简单:
就是找一个统一的事务和谐者,与多个分支事务通讯,检测每个分支事务的执行状态,包管全局事务下的每一个分支事务同时成功或失败即可。大多数的分布式事务框架都是基于这个理论来实现的。
Seata也不例外,在Seata的事务管理中有三个重要的角色:
- TC (Transaction Coordinator) - 事务和谐者:维护全局和分支事务的状态,和谐全局事务提交或回滚。
- TM (Transaction Manager) - 事务管理器:定义全局事务的范围、开始全局事务、提交或回滚全局事务。
- RM (Resource Manager) - 资源管理器:管理分支事务,与TC交谈以注册分支事务和陈诉分支事务的状态,并驱动分支事务提交或回滚。
Seata的工作架构如图所示:
此中,TM和RM可以理解为Seata的客户端部门,引入到参与事务的微服务依赖中即可。未来TM和RM就会帮助微服务,实现本地分支事务与TC之间交互,实现事务的提交或回滚。
而TC服务则是事务和谐中心,是一个独立的微服务,需要单独部署。
2.2.部署TC服务
2.2.1.预备数据库表
Seata支持多种存储模式,但考虑到长期化的需要,我们一般选择基于数据库存储。执行课前资料提供的《seata-tc.sql》,导入数据库表:
2.2.2.预备配置文件
课前资料预备了一个seata目录,此中包含了seata运行时所需要的配置文件:
此中包含中文解释,各人可以自行阅读。
我们将整个seata文件夹拷贝到虚拟机的/root目录:
2.2.3.Docker部署
需要留意,要确保nacos、mysql都在hm-net网络中。如果某个容器不再hm-net网络,可以参考下面的下令将某容器参加指定网络:
- [/code] [code]docker network connect [网络名] [容器名]
复制代码
在虚拟机的/root目录执行下面的下令:
- [/code] [code]docker run --name seata \
- -p 8099:8099 \
- -p 7099:7099 \
- -e SEATA_IP=192.168.200.100 \
- -v ./seata:/seata-server/resources \
- --privileged=true \
- --network hm-net \
- -d \
- seataio/seata-server:1.5.2
复制代码
如果镜像下载困难,也可以把课前资料提供的镜像上传到虚拟机并加载:
2.3.微服务集成Seata
参与分布式事务的每一个微服务都需要集成Seata,我们以trade-service为例。
2.3.1.引入依赖
为了方便各个微服务集成seata,我们需要把seata配置共享到nacos,因此trade-service模块不仅仅要引入seata依赖,还要引入nacos依赖:
- [/code] [code]<!--统一配置管理-->
- <dependency>
- <groupId>com.alibaba.cloud</groupId>
- <artifactId>spring-cloud-starter-alibaba-nacos-config</artifactId>
- </dependency>
- <!--读取bootstrap文件-->
- <dependency>
- <groupId>org.springframework.cloud</groupId>
- <artifactId>spring-cloud-starter-bootstrap</artifactId>
- </dependency>
- <!--seata-->
- <dependency>
- <groupId>com.alibaba.cloud</groupId>
- <artifactId>spring-cloud-starter-alibaba-seata</artifactId>
- </dependency>
复制代码
2.3.2.改造配置
首先在nacos上添加一个共享的seata配置,命名为shared-seata.yaml:
内容如下:
- [/code] [code]seata:
- registry: # TC服务注册中心的配置,微服务根据这些信息去注册中心获取tc服务地址
- type: nacos # 注册中心类型 nacos
- nacos:
- server-addr: 192.168.150.101:8848 # nacos地址
- namespace: "" # namespace,默认为空
- group: DEFAULT_GROUP # 分组,默认是DEFAULT_GROUP
- application: seata-server # seata服务名称
- username: nacos
- password: nacos
- tx-service-group: hmall # 事务组名称
- service:
- vgroup-mapping: # 事务组与tc集群的映射关系
- hmall: "default"
复制代码
然后,改造trade-service模块,添加bootstrap.yaml:
内容如下:
- [/code] [code]spring:
- application:
- name: trade-service # 服务名称
- profiles:
- active: dev
- cloud:
- nacos:
- server-addr: 192.168.150.101 # nacos地址
- config:
- file-extension: yaml # 文件后缀名
- shared-configs: # 共享配置
- - dataId: shared-jdbc.yaml # 共享mybatis配置
- - dataId: shared-log.yaml # 共享日志配置
- - dataId: shared-swagger.yaml # 共享日志配置
- - dataId: shared-seata.yaml # 共享seata配置
复制代码 可以看到这里加载了共享的seata配置。
然后改造application.yaml文件,内容如下:
- [/code] [code]server:
- port: 8085
- feign:
- okhttp:
- enabled: true # 开启OKHttp连接池支持
- sentinel:
- enabled: true # 开启Feign对Sentinel的整合
- hm:
- swagger:
- title: 交易服务接口文档
- package: com.hmall.trade.controller
- db:
- database: hm-trade
复制代码
参考上述办法分别改造hm-cart和hm-item两个微服务模块。
2.3.3.添加数据库表
seata的客户端在办理分布式事务的时候需要记录一些中间数据,生存在数据库中。因此我们要先预备一个这样的表。
将课前资料的seata-at.sql分别文件导入hm-trade、hm-cart、hm-item三个数据库中:
结果:
OK,至此为止,微服务整合的工作就完成了。可以参考上述方式对hm-item和hm-cart模块完成整合改造。
2.3.4.测试
接下来就是测试的分布式事务的时候了。
我们找到trade-service模块下的com.hmall.trade.service.impl.OrderServiceImpl类中的createOrder方法,也就是下单业务方法。
将其上的@Transactional注解改为Seata提供的@GlobalTransactional:
@GlobalTransactional注解就是在标记事务的起点,未来TM就会基于这个方法判断全局事务范围,初始化全局事务。
我们重启trade-service、item-service、cart-service三个服务。再次测试,发现分布式事务的题目办理了!
那么,Seata是如何办理分布式事务的呢?
2.4.XA模式
Seata支持四种不同的分布式事务办理方案:
这里我们以XA模式和AT模式来给各人讲解着实现原理。
XA 规范 是 X/Open 构造定义的分布式事务处置惩罚(DTP,Distributed Transaction Processing)尺度,XA 规范 描述了全局的TM与局部的RM之间的接口,几乎全部主流的数据库都对 XA 规范 提供了支持。
2.4.1.两阶段提交
A是规范,目前主流数据库都实现了这种规范,实现的原理都是基于两阶段提交。
正常情况:
非常情况:
一阶段:
- 事务和谐者关照每个事务参与者执行本地事务
- 本地事务执行完成后陈诉事务执行状态给事务和谐者,此时事务不提交,继续持有数据库锁
二阶段:
- 事务和谐者基于一阶段的陈诉来判断下一步操作
- 如果一阶段都成功,则关照全部事务参与者,提交事务
- 如果一阶段任意一个参与者失败,则关照全部事务参与者回滚事务
2.4.2.Seata的XA模子
Seata对原始的XA模式做了简单的封装和改造,以适应自己的事务模子,根本架构如图:
RM一阶段的工作:
- 注册分支事务到TC
- 执行分支业务sql但不提交
- 陈诉执行状态到TC
TC二阶段的工作:
- TC检测各分支事务执行状态
- 如果都成功,关照全部RM提交事务
- 如果有失败,关照全部RM回滚事务
RM二阶段的工作:
2.4.3.优缺点
XA模式的优点是什么?
- 事务的强划一性,满足ACID原则
- 常用数据库都支持,实现简单,并且没有代码侵入
XA模式的缺点是什么?
- 因为一阶段需要锁定命据库资源,等待二阶段竣事才释放,性能较差
- 依赖关系型数据库实现事务
2.4.4.实现步调
首先,我们要在配置文件中指定要采用的分布式事务模式。我们可以在Nacos中的共享shared-seata.yaml配置文件中设置:
- [/code] [code]seata:
- data-source-proxy-mode: XA
复制代码
其次,我们要利用@GlobalTransactional标记分布式事务的入口方法:
2.5.AT模式
AT模式同样是分阶段提交的事务模子,不过缺弥补了XA模子中资源锁定周期过长的缺陷。
2.5.1.Seata的AT模子
根本流程图:
阶段一RM的工作:
- 注册分支事务
- 记录undo-log(数据快照)
- 执行业务sql并提交
- 陈诉事务状态
阶段二提交时RM的工作:
阶段二回滚时RM的工作:
2.5.2.流程梳理
我们用一个真实的业务来梳理下AT模式的原理。
好比,现在有一个数据库表,记录用户余额:
id
money
1
100
此中一个分支业务要执行的SQL为:
- [/code] [code] update tb_account set money = money - 10 where id = 1
复制代码
AT模式下,当前分支事务执行流程如下:
一阶段:
- TM发起并注册全局事务到TC
- TM调用分支事务
- 分支事务预备执行业务SQL
- RM拦截业务SQL,根据where条件查询原始数据,形成快照。
- [/code] [code]{
- "id": 1, "money": 100
- }
复制代码
- RM执行业务SQL,提交本地事务,释放数据库锁。此时 money = 90
- RM陈诉本地事务状态给TC
二阶段:
- TM关照TC事务竣事
- TC检查分支事务状态
- 如果都成功,则立即删除快照
- 如果有分支事务失败,需要回滚。读取快照数据({"id": 1, "money": 100}),将快照恢复到数据库。此时数据库再次恢复为100
流程图:
2.5.3.AT与XA的区别
简述AT模式与XA模式最大的区别是什么?
- XA模式一阶段不提交事务,锁定资源;AT模式一阶段直接提交,不锁定资源。
- XA模式依赖数据库机制实现回滚;AT模式利用数据快照实现数据回滚。
- XA模式强划一;AT模式最终划一
可见,AT模式使用起来更加简单,无业务侵入,性能更好。因此企业90%的分布式事务都可以用AT模式来办理。
3.练习
3.1.编写降级逻辑
给黑马商城中现有的FeignClient都编写对应的降级逻辑,并且改造项目中每一个微服务,将OpenFeign与Sentinel整合。
3.2.办理分布式事务
除了下单业务以外,用户如果选择余额支付,前端会将哀求发送到pay-service模块。而这个模块要做三件事情:
- 直接从user-service模块调用接口,扣除余额付款
- 更新本地(pay-service)交易流水表状态
- 关照交易服务(trade-service)更新此中的业务订单状态
流程如图:
显然,这里也存在分布式事务题目。
对应的页面如下:
当我们提交订单成功后,进入支付页面,选择余额支付,输入暗码后点击确认支付即可。
前端会提交支付哀求,业务接口的入口在com.hmall.pay.controller.PayController类的tryPayOrderByBalance方法:
对应的service方法如下:
- [/code] [code]@Override
- @Transactional
- public void tryPayOrderByBalance(PayOrderDTO payOrderDTO) {
- // 1.查询支付单
- PayOrder po = getById(payOrderDTO.getId());
- // 2.判断状态
- if(!PayStatus.WAIT_BUYER_PAY.equalsValue(po.getStatus())){
- // 订单不是未支付,状态异常
- throw new BizIllegalException("交易已支付或关闭!");
- }
- // 3.尝试扣减余额
- userClient.deductMoney(payOrderDTO.getPw(), po.getAmount());
- // 4.修改支付单状态
- boolean success = markPayOrderSuccess(payOrderDTO.getId(), LocalDateTime.now());
- if (!success) {
- throw new BizIllegalException("交易已支付或关闭!");
- }
- // 5.修改订单状态
- tradeClient.markOrderPaySuccess(po.getBizOrderNo());
- }
复制代码
利用seata办理这里的分布式事务题目,并思考这个业务实现有没有什么值得改进的地方
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |