Java分布式事务Seata安装和使用,SpringCloud Seata分布式事务安装配置和使用

Java分布式事务Seata安装和使用,SpringCloud Seata分布式事务安装配置和使用

 

================================

©Copyright 蕃薯耀 2021-05-10

https://www.cnblogs.com/fanshuyao/

 

一、Seata 是什么?
官方文档:

https://seata.io/zh-cn/docs/overview/what-is-seata.html

 

Seata 是一款开源的分布式事务解决方案,致力于提供高性能和简单易用的分布式事务服务。Seata 将为用户提供了 AT、TCC、SAGA 和 XA 事务模式,为用户打造一站式的分布式解决方案。


AT 模式基于 支持本地 ACID 事务 的 关系型数据库:
一阶段 prepare 行为:在本地事务中,一并提交业务数据更新和相应回滚日志记录。
二阶段 commit 行为:马上成功结束,自动 异步批量清理回滚日志。
二阶段 rollback 行为:通过回滚日志,自动 生成补偿操作,完成数据回滚。

TCC 模式,不依赖于底层数据资源的事务支持:
一阶段 prepare 行为:调用 自定义 的 prepare 逻辑。
二阶段 commit 行为:调用 自定义 的 commit 逻辑。
二阶段 rollback 行为:调用 自定义 的 rollback 逻辑。
所谓 TCC 模式,是指支持把 自定义 的分支事务纳入到全局事务的管理中。

 

Seata组成:
TC (Transaction Coordinator) - 事务协调者
维护全局和分支事务的状态,驱动全局事务提交或回滚。

TM (Transaction Manager) - 事务管理器
定义全局事务的范围:开始全局事务、提交或回滚全局事务。

RM (Resource Manager) - 资源管理器
管理分支事务处理的资源,与TC交谈以注册分支事务和报告分支事务的状态,并驱动分支事务提交或回滚。


官方部署文档:http://seata.io/zh-cn/docs/ops/deploy-guide-beginner.html

 


二、Seata Server端安装和配置


基于seata-server-1.4.2.zip实现,同时也要下载源码包seata-1.4.2.zip(DB模式下要执行SQL脚本以及Nacos作为配置中心,Seata相关的配置需要注册到Nacos)

下载地址:

https://github.com/seata/seata/releases

 

Server端存储模式(store.mode)现有file、db、redis三种(后续将引入raft,mongodb),file模式无需改动,直接启动即可,下面专门讲下db启动步骤。
注:
file模式为单机模式,全局事务会话信息内存中读写并持久化本地文件root.data,性能较高;
db模式为高可用模式,全局事务会话信息通过db共享,相应性能差些;
redis模式Seata-Server 1.3及以上版本支持,性能较高,存在事务信息丢失风险,请提前配置合适当前场景的redis持久化配置.


1、解压:seata-server-1.4.2.zip

 

2、进入seata-server目录,修改配置文件

目录是:

seata-server-1.4.2\conf

 

需要修改的配置文件:
registry.conf
file.conf

registry.conf指定注册模式,如 # file 、nacos 、eureka、redis、zk、consul、etcd3、sofa,默认:type = "file",指向file.conf文件
file.conf:有模式:file、db、redis,用于存储事务的日记。

registry.conf当前指定使用nacos作为注册中心和配置中心,需要修改registry项和config项,同时修改nacos的连接信息。
建议增加namespace的配置,将Seata相应的配置放在一起,不然后面配置中心的东西很多,有整整9页

 

有命名空间的配置,即修改namespace:

registry {
  type = "nacos"

  nacos {
    application = "seata-server"
    serverAddr = "127.0.0.1:8848"
    group = "SEATA_GROUP"
    namespace = "fb31c4c2-29ac-456c-b9d6-36301baceae4"
    cluster = "default"
    username = ""
    password = ""
  }
}

config {
  type = "nacos"

  nacos {
    serverAddr = "127.0.0.1:8848"
    namespace = "fb31c4c2-29ac-456c-b9d6-36301baceae4"
    group = "SEATA_GROUP"
    username = ""
    password = ""
    dataId = "seataServer.properties"
  }
}

 

file.conf修改内容如下:(需要预先创建一个seata的数据库,用于事务的日志记录)

## transaction log store, only used in seata-server
store {
  mode = "db"
  publicKey = ""
  db {
    datasource = "druid"
    dbType = "mysql"
    driverClassName = "com.mysql.jdbc.Driver"
    url = "jdbc:mysql://127.0.0.1:3307/seata?rewriteBatchedStatements=true"
    user = "root"
    password = "root"
    minConn = 5
    maxConn = 100
    globalTable = "global_table"
    branchTable = "branch_table"
    lockTable = "lock_table"
    queryLimit = 100
    maxWait = 5000
  }
}

 

3、执行seata server端数据库脚本

Server端:server端数据库脚本 (包含 lock_table、branch_table 与 global_table) 及各个容器配置,脚本需要在源码包找(seata-1.4.2.zip)
执行脚本(仅使用DB模式才需要执行脚本)
脚本所在的目录(seata-1.4.2为源码seata-1.4.2.zip):

seata-1.4.2\script\server\db

 

总共有3个文件(只需要执行自己对应的数据脚本即可):
mysql.sql
oracle.sql
postgresql.sql


下面为mysql.sql

-- -------------------------------- The script used when storeMode is 'db' --------------------------------
-- the table to store GlobalSession data
CREATE TABLE IF NOT EXISTS `global_table`
(
    `xid`                       VARCHAR(128) NOT NULL,
    `transaction_id`            BIGINT,
    `status`                    TINYINT      NOT NULL,
    `application_id`            VARCHAR(32),
    `transaction_service_group` VARCHAR(32),
    `transaction_name`          VARCHAR(128),
    `timeout`                   INT,
    `begin_time`                BIGINT,
    `application_data`          VARCHAR(2000),
    `gmt_create`                DATETIME,
    `gmt_modified`              DATETIME,
    PRIMARY KEY (`xid`),
    KEY `idx_gmt_modified_status` (`gmt_modified`, `status`),
    KEY `idx_transaction_id` (`transaction_id`)
) ENGINE = InnoDB
  DEFAULT CHARSET = utf8;

-- the table to store BranchSession data
CREATE TABLE IF NOT EXISTS `branch_table`
(
    `branch_id`         BIGINT       NOT NULL,
    `xid`               VARCHAR(128) NOT NULL,
    `transaction_id`    BIGINT,
    `resource_group_id` VARCHAR(32),
    `resource_id`       VARCHAR(256),
    `branch_type`       VARCHAR(8),
    `status`            TINYINT,
    `client_id`         VARCHAR(64),
    `application_data`  VARCHAR(2000),
    `gmt_create`        DATETIME(6),
    `gmt_modified`      DATETIME(6),
    PRIMARY KEY (`branch_id`),
    KEY `idx_xid` (`xid`)
) ENGINE = InnoDB
  DEFAULT CHARSET = utf8;

-- the table to store lock data
CREATE TABLE IF NOT EXISTS `lock_table`
(
    `row_key`        VARCHAR(128) NOT NULL,
    `xid`            VARCHAR(128),
    `transaction_id` BIGINT,
    `branch_id`      BIGINT       NOT NULL,
    `resource_id`    VARCHAR(256),
    `table_name`     VARCHAR(32),
    `pk`             VARCHAR(36),
    `gmt_create`     DATETIME,
    `gmt_modified`   DATETIME,
    PRIMARY KEY (`row_key`),
    KEY `idx_branch_id` (`branch_id`)
) ENGINE = InnoDB
  DEFAULT CHARSET = utf8;

 

4、启动Seata
注:启动Seata,记得先启动Nacos

Windows启动:
进入目录:seata-server-1.4.2\bin,双击seata-server.bat直接启动

Linux命令启动: 
seata-server.sh -h 127.0.0.1 -p 8091 -m db -n 1 -e test

 

源码启动: 执行Server.java的main方法

 

参数说明:

-h: 注册到注册中心的ip
-p: Server rpc 监听端口
-m: 全局事务会话信息存储模式,file、db、redis,优先读取启动参数 (Seata-Server 1.3及以上版本支持redis)
-n: Server node,多个Server时,需区分各自节点,用于生成不同区间的transactionId,以免冲突
-e: 多环境配置参考 http://seata.io/en-us/docs/ops/multi-configuration-isolation.html

 

 

启动成功后:
16:52:56.108 INFO --- [ main] io.seata.config.FileConfiguration : The file name of the operation is file.conf
16:52:56.108 INFO --- [ main] io.seata.config.FileConfiguration : The configuration file used is D:\0soft\seata-server-1.4.2\conf\file.conf
16:52:57.904 INFO --- [ main] com.alibaba.druid.pool.DruidDataSource : {dataSource-1} inited
16:52:58.450 INFO --- [ main] i.s.core.rpc.netty.NettyServerBootstrap : Server started, listen port: 8091

 


5、导入Seata相应的配置项到Nacos的配置中心(非注册中心)
这点很容易漏。
config-center 官网说明地址是:

https://github.com/seata/seata/tree/develop/script/config-center

 

该文件是:config.txt

注意:在seata-server-1.4.2是没有config.txt文件的,该文件在源码包中:seata-1.4.2.zip,解压后的目录是:

seata-1.4.2\script\config-center\config.txt

 

(可以将seata-1.4.2\script\config-center复制一份到seata-server-1.4.2\config-center)

当前使用的是Nacos作为配置中心(config-center),所以进入到nacos目录:

seata-1.4.2\script\config-center\nacos 

 

有两个脚本文件:
nacos-config.py
nacos-config.sh

第一个是phython脚本,第二个是Linux脚本
那Windows脚本怎么执行呢?安装Git-2.26.2-64-bit.exe,使用Git Bash执行。(省略具体步骤)

执行前,需要修改config.txt文件:

my_test_tx_group是默认有的,没有修改。增加分布式事务分组nacos_service_tx_group、nacos_consumer_tx_group。注意:名称长度不能超过VARCHAR(32)。事务分组允许只配置一个,也可以配置成多个,用于切换,此处额外增加2个,具体配置如下:

service.vgroupMapping.my_test_tx_group=default
service.vgroupMapping.nacos_service_tx_group=default
service.vgroupMapping.nacos_consumer_tx_group=default

 

全局事务表global_table的transaction_service_group长度为32(VARCHAR(32)),超出会报错。例如:SPRING-CLOUD-NACOS-CONSUMER_tx_group长度为36,就会导致报错。

Caused by: io.seata.core.exception.TmTransactionException: TransactionException[begin global request failed. xid=null, msg=Data truncation: Data too long for column 'transaction_service_group' at row 1]
at io.seata.tm.DefaultTransactionManager.begin(DefaultTransactionManager.java:55)
at io.seata.tm.api.DefaultGlobalTransaction.begin(DefaultGlobalTransaction.java:105)
at io.seata.tm.api.TransactionalTemplate.beginTransaction(TransactionalTemplate.java:215)

 

什么是事务分组?见:

https://seata.io/zh-cn/docs/user/txgroup/transaction-group.html

 


修改数据存储模式为db模式,修改数据连接和账号密码

store.mode=db
store.db.url=jdbc:mysql://127.0.0.1:3307/seata?useUnicode=true&rewriteBatchedStatements=true
store.db.user=root
store.db.password=root

 


config.txt修改完成后,通过Git Bash将相应的配置导致到Nacos配置中心,命令如下(路径必须是/,不能是\):

sh D:/0soft/seata-server-1.4.2/config-center/nacos/nacos-config.sh -h 127.0.0.1 -p 8848 -g SEATA_GROUP

 

建议增加namespace的配置(-t参数,命名空间的id是在Nacos创建生成的),将Seata相应的配置放在一起,不然后面配置中心的东西很多,有整整9页,而且属性很多,很有可能和其它属性出现重复冲突

sh D:/0soft/seata-server-1.4.2/config-center/nacos/nacos-config.sh -h 127.0.0.1 -p 8848 -g SEATA_GROUP -t fb31c4c2-29ac-456c-b9d6-36301baceae4

 

如果Nacos设置和账号和密码,也可以设置

sh D:/0soft/seata-server-1.4.2/config-center/nacos/nacos-config.sh -h 127.0.0.1 -p 8848 -g SEATA_GROUP -t fb31c4c2-29ac-456c-b9d6-36301baceae4 -u username -w password

参数说明:

-h:主机,默认值为localhost。
-p:端口,默认值为8848。
-g:配置分组,默认值为“ SEATA_GROUP”。
-t:租户信息,对应于Nacos的名称空间ID字段,默认值为空。
-u:用户名,权限控制在的nacos 1.2.0+,默认值为空。
-w:密码,权限控制在的nacos 1.2.0+,默认值为空。

 


config.txt文件脚本执行后,成功91,失败4个,但失败的不影响Seata运行。

=========================================================================
 Complete initialization parameters,  total-count:91 ,  failure-count:4
=========================================================================
 init nacos config fail.

失败的4个是:

Set store.publicKey= failure
Set store.redis.sentinel.masterName= failure
Set store.redis.sentinel.sentinelHosts= failure
Set store.redis.password= failure

 


不导入config.txt文件,Seata会出现下面的错误:can not get cluster name in registry config,详细如下:

SPRING-CLOUD-NACOS-SERVICE服务提供者:

2021-05-10 09:27:18.719 ERROR 13544 --- [eoutChecker_1_1] i.s.c.r.netty.NettyClientChannelManager : can not get cluster name in registry config 'service.vgroupMapping.SPRING-CLOUD-NACOS-SERVICE_tx_group', please make sure registry config correct
2021-05-10 09:27:18.753 ERROR 13544 --- [eoutChecker_2_1] i.s.c.r.netty.NettyClientChannelManager : can not get cluster name in registry config 'service.vgroupMapping.SPRING-CLOUD-NACOS-SERVICE_tx_group', please make sure registry config correct

 

SPRING-CLOUD-NACOS-CONSUMER服务消费者:

2021-05-10 09:27:33.786 ERROR [SPRING-CLOUD-NACOS-CONSUMER,,,] 14916 --- [eoutChecker_1_1] i.s.c.r.netty.NettyClientChannelManager : can not get cluster name in registry config 'service.vgroupMapping.SPRING-CLOUD-NACOS-CONSUMER_tx_group', please make sure registry config correct
2021-05-10 09:27:33.820 ERROR [SPRING-CLOUD-NACOS-CONSUMER,,,] 14916 --- [eoutChecker_2_1] i.s.c.r.netty.NettyClientChannelManager : can not get cluster name in registry config 'service.vgroupMapping.SPRING-CLOUD-NACOS-CONSUMER_tx_group', please make sure registry config correct

 


如果没有什么问题,项目启动后的信息则是register TM success,register success,:

2021-05-10 10:12:20.315 INFO 2120 --- [eoutChecker_1_1] i.s.c.r.netty.NettyClientChannelManager : will connect to 192.168.170.1:8091
2021-05-10 10:12:20.319 INFO 2120 --- [eoutChecker_1_1] i.s.core.rpc.netty.NettyPoolableFactory : NettyPool create channel to transactionRole:TMROLE,address:192.168.170.1:8091,msg:< RegisterTMRequest{applicationId='SPRING-CLOUD-NACOS-SERVICE', transactionServiceGroup='nacos_service_tx_group'} >
2021-05-10 10:12:20.338 INFO 2120 --- [eoutChecker_1_1] i.s.c.rpc.netty.TmNettyRemotingClient : register TM success. client version:1.4.2, server version:1.4.2,channel:[id: 0x0e398621, L:/192.168.170.1:55953 - R:/192.168.170.1:8091]
2021-05-10 10:12:20.338 INFO 2120 --- [eoutChecker_1_1] i.s.core.rpc.netty.NettyPoolableFactory : register success, cost 7 ms, version:1.4.2,role:TMROLE,channel:[id: 0x0e398621, L:/192.168.170.1:55953 - R:/192.168.170.1:8091]

2021-05-10 10:12:35.467 INFO [SPRING-CLOUD-NACOS-CONSUMER,,,] 13144 --- [eoutChecker_1_1] i.s.c.r.netty.NettyClientChannelManager : will connect to 192.168.170.1:8091
2021-05-10 10:12:35.468 INFO [SPRING-CLOUD-NACOS-CONSUMER,,,] 13144 --- [eoutChecker_1_1] i.s.core.rpc.netty.NettyPoolableFactory : NettyPool create channel to transactionRole:TMROLE,address:192.168.170.1:8091,msg:< RegisterTMRequest{applicationId='SPRING-CLOUD-NACOS-CONSUMER', transactionServiceGroup='nacos_consumer_tx_group'} >
2021-05-10 10:12:35.474 INFO [SPRING-CLOUD-NACOS-CONSUMER,,,] 13144 --- [eoutChecker_1_1] i.s.c.rpc.netty.TmNettyRemotingClient : register TM success. client version:1.4.2, server version:1.4.2,channel:[id: 0xe9bfdcf1, L:/192.168.170.1:55954 - R:/192.168.170.1:8091]
2021-05-10 10:12:35.474 INFO [SPRING-CLOUD-NACOS-CONSUMER,,,] 13144 --- [eoutChecker_1_1] i.s.core.rpc.netty.NettyPoolableFactory : register success, cost 4 ms, version:1.4.2,role:TMROLE,channel:[id: 0xe9bfdcf1, L:/192.168.170.1:55954 - R:/192.168.170.1:8091]

 


Seata事务回滚:Rollback global transaction successfully,

10:13:07.415 INFO --- [rverHandlerThread_1_3_500] i.s.s.coordinator.DefaultCoordinator : Begin new global transaction applicationId: SPRING-CLOUD-NACOS-CONSUMER,transactionServiceGroup: nacos_consumer_tx_group, transactionName: saveClazzAndStudentError(),timeout:60000,xid:192.168.170.1:8091:4936076990459990017
10:13:14.398 INFO --- [ batchLoggerPrint_1_1] i.s.c.r.p.server.BatchLogHandler : xid=192.168.170.1:8091:4936076990459990017,extraData=null,clientIp:192.168.170.1,vgroup:nacos_consumer_tx_group
10:13:14.873 INFO --- [rverHandlerThread_1_4_500] io.seata.server.coordinator.DefaultCore : Rollback global transaction successfully, xid = 192.168.170.1:8091:4936076990459990017.

 

 

 


三、Seata Client 端安装和配置

1、项目说明
客户端有2个项目:
springCloud-8802-nacos-provider:服务提供者
springCloud-8805-nacos-web:服务消费者

springCloud-8805-nacos-web会去调用springCloud-8802-nacos-provider,用于测试分布式事务。
springCloud-8802-nacos-provider连接数据库:sseata-biz-1
springCloud-8805-nacos-web连接数据库:seata-biz-2


2、Seata Client 端的两个数据库分别执行回滚日志的Sql脚本:undo_log。只需要在客户端的数据库添加表,Seata服务端的数据是不需要的

脚本在源码包,目录是:

seata-1.4.2\script\client\at\db

 

mysql.sql脚本如下:

-- for AT mode you must to init this sql for you business database. the seata server not need it.
CREATE TABLE IF NOT EXISTS `undo_log`
(
    `branch_id`     BIGINT       NOT NULL COMMENT 'branch transaction id',
    `xid`           VARCHAR(128) NOT NULL COMMENT 'global transaction id',
    `context`       VARCHAR(128) NOT NULL COMMENT 'undo_log context,such as serialization',
    `rollback_info` LONGBLOB     NOT NULL COMMENT 'rollback info',
    `log_status`    INT(11)      NOT NULL COMMENT '0:normal status,1:defense status',
    `log_created`   DATETIME(6)  NOT NULL COMMENT 'create datetime',
    `log_modified`  DATETIME(6)  NOT NULL COMMENT 'modify datetime',
    UNIQUE KEY `ux_undo_log` (`xid`, `branch_id`)
) ENGINE = InnoDB
  AUTO_INCREMENT = 1
  DEFAULT CHARSET = utf8 COMMENT ='AT transaction mode undo table';

 

3、项目添加seata依赖

Seata依赖说明(建议单选)
依赖seata-all
依赖seata-spring-boot-starter,支持yml、properties配置(.conf可删除),内部已依赖seata-all
依赖spring-cloud-alibaba-seata,内部集成了seata,并实现了xid传递

以spring-cloud-alibaba-seata为例:

<properties>
    <seata.version>1.4.2</seata.version>
</properties>

<dependency>
    <groupId>io.seata</groupId>
    <artifactId>seata-spring-boot-starter</artifactId>
    <version>${seata.version}</version>
</dependency>

<!-- <version>2.2.5.RELEASE</version> -->
<dependency>
    <groupId>com.alibaba.cloud</groupId>
    <artifactId>spring-cloud-starter-alibaba-seata</artifactId>
    <exclusions>
    <exclusion>
        <groupId>io.seata</groupId>
        <artifactId>seata-spring-boot-starter</artifactId>
    </exclusion>
    </exclusions>
</dependency>

 

 

4、application.properties增加Seata的配置

springCloud-8802-nacos-provider项目:

配置:seata.tx-service-group,和Git 执行脚本生成的Nacos配置的事务分组要保持一致。

配置:seata.config.nacos.namespace,服务注册的命名空间。

 

 

#更多配置项见:https://seata.io/zh-cn/docs/user/configurations.html
#是否开启spring-boot自动装配。true、false,(SSBS)专有配置,默认true
#seata.enabled=true
#是否开启数据源自动代理。    true、false,seata-spring-boot-starter(SSBS)专有配置,SSBS默认会开启数据源自动代理,可通过该配置项关闭.
#seata.enableAutoDataSourceProxy=true
#是否使用JDK代理作为数据源自动代理的实现方式。true、false,(SSBS)专有配置,默认false,采用CGLIB作为数据源自动代理的实
#seata.useJdkProxy=false
#一阶段全局提交结果上报TC重试次数,默认1次,建议大于1
seata.client.tm.commitRetryCount=3
#一阶段全局回滚结果上报TC重试次数。    默认1次,建议大于1
seata.client.tm.rollbackRetryCount=3
#undo序列化方式    默认jackson
#seata.client.undo.logSerialization
#自定义undo表名    默认undo_log
#seata.client.undo.logTable

#类文件:io.seata.spring.boot.autoconfigure.properties.SeataProperties
seata.application-id=${spring.application.name}
seata.tx-service-group=nacos_service_tx_group

seata.config.type=nacos
seata.config.nacos.namespace=fb31c4c2-29ac-456c-b9d6-36301baceae4
seata.config.nacos.server-addr=127.0.0.1:8848
seata.config.nacos.group=SEATA_GROUP
#seata.config.nacos.username=
#seata.config.nacos.password=

seata.registry.type=nacos
seata.registry.nacos.application=seata-server
seata.registry.nacos.server-addr=127.0.0.1:8848
seata.registry.nacos.group=SEATA_GROUP
seata.registry.nacos.namespace=fb31c4c2-29ac-456c-b9d6-36301baceae4
#seata.registry.nacos.username=
#seata.registry.nacos.password=

 

springCloud-8805-nacos-web项目:

注意配置项:seata.tx-service-group=nacos_consumer_tx_group

#更多配置项见:https://seata.io/zh-cn/docs/user/configurations.html
#是否开启spring-boot自动装配。true、false,(SSBS)专有配置,默认true
#seata.enabled=true
#是否开启数据源自动代理。    true、false,seata-spring-boot-starter(SSBS)专有配置,SSBS默认会开启数据源自动代理,可通过该配置项关闭.
#seata.enableAutoDataSourceProxy=true
#是否使用JDK代理作为数据源自动代理的实现方式。true、false,(SSBS)专有配置,默认false,采用CGLIB作为数据源自动代理的实
#seata.useJdkProxy=false
#一阶段全局提交结果上报TC重试次数,默认1次,建议大于1
seata.client.tm.commitRetryCount=3
#一阶段全局回滚结果上报TC重试次数。    默认1次,建议大于1
seata.client.tm.rollbackRetryCount=3
#undo序列化方式    默认jackson
#seata.client.undo.logSerialization
#自定义undo表名    默认undo_log
#seata.client.undo.logTable

#io.seata.spring.boot.autoconfigure.properties.SeataProperties
seata.application-id=${spring.application.name}
seata.tx-service-group=nacos_consumer_tx_group

seata.config.type=nacos
seata.config.nacos.namespace=fb31c4c2-29ac-456c-b9d6-36301baceae4
seata.config.nacos.server-addr=127.0.0.1:8848
seata.config.nacos.group=SEATA_GROUP
#seata.config.nacos.username=
#seata.config.nacos.password=

seata.registry.type=nacos
seata.registry.nacos.application=seata-server
seata.registry.nacos.server-addr=127.0.0.1:8848
seata.registry.nacos.group=SEATA_GROUP
seata.registry.nacos.namespace=fb31c4c2-29ac-456c-b9d6-36301baceae4
#seata.registry.nacos.username=
#seata.registry.nacos.password=

 

springCloud-8802-nacos-provider项目和springCloud-8805-nacos-web项目的Seata配置的区别是:seata.tx-service-group不同,即事务分组不同。

 

5、springCloud-8805-nacos-web项目的服务请求(Service)增加@GlobalTransactional全局事务。

@GlobalTransactional(rollbackFor = Throwable.class)
@Transactional
@Override
public void saveClassAndStudent() {
    Clazz clazz = this.save();
    Result resultStudent=  restTemplate.getForObject("http://" + myNacosServiceName + "/student/save", Result.class);
    
    log.info("clazz=" + JsonUtil.toJson(clazz));
    log.info("resultStudent=" + JsonUtil.toJson(resultStudent));
}


@GlobalTransactional(rollbackFor = Throwable.class)
@Transactional
@Override
public void saveClazzAndStudentError() {
    Clazz clazz = this.save();
    Result resultStudent=  restTemplate.getForObject("http://" + myNacosServiceName + "/student/saveError", Result.class);
    
    log.info("clazz=" + JsonUtil.toJson(clazz));
    log.info("resultStudent=" + JsonUtil.toJson(resultStudent));
}

 

springCloud-8802-nacos-provider项目是不需要增加@GlobalTransactional全局事务,在事务发起端配置@GlobalTransactional即可。

@Transactional
@Override
public Student save() {
    Student s = new Student();
    s.setStuName("学生:" + RandomUtil.randomString(5));
    s.setStuNo(UidUtil.getUid());
    
    this.baseMapper.insert(s);
    
    return s;
}


@Transactional
@Override
public Student saveError() {
    Student s = new Student();
    s.setStuName("学生:" + RandomUtil.randomString(5));
    s.setStuNo(UidUtil.getUid());
    
    this.baseMapper.insert(s);
    
    
    int a = 0; 
    System.out.println(3/a);
    
    return s;
}

 

然后进行Seata分布式事务测试,包括成功和不成功(回滚)。


Seata分布式事务的配置和使用,到此已经处完结。

 

后面的是扩展,有兴趣可继续往下看。

 

 

 

四、Seata分布式事务其它项说明


1、数据源代理(不支持自动和手动配置并存,不支持XA数据源自动代理)

0.9.0版本开始seata支持自动代理数据源

1.1.0: seata-all取消属性配置,改由注解@EnableAutoDataSourceProxy开启,并可选择jdk proxy或者cglib proxy
1.0.0: client.support.spring.datasource.autoproxy=true
0.9.0: support.spring.datasource.autoproxy=true


手动配置可参考下方的例子

    @Primary
    @Bean("dataSource")
    public DataSourceProxy dataSource(DataSource druidDataSource) {
        //AT 代理 二选一
        return new DataSourceProxy(druidDataSource);
        //XA 代理
        return new DataSourceProxyXA(druidDataSource)
    }

 

2、初始化GlobalTransactionScanner


手动方式:

       @Bean
       public GlobalTransactionScanner globalTransactionScanner() {
           String applicationName = this.applicationContext.getEnvironment().getProperty("spring.application.name");
           String txServiceGroup = this.seataProperties.getTxServiceGroup();
           if (StringUtils.isEmpty(txServiceGroup)) {
               txServiceGroup = applicationName + "-fescar-service-group";
               this.seataProperties.setTxServiceGroup(txServiceGroup);
           }
   
           return new GlobalTransactionScanner(applicationName, txServiceGroup);
       }

 

自动方式:

引入seata-spring-boot-starter、spring-cloud-starter-alibaba-seata等jar

 

3、实现xid跨服务传递
手动 参考源码integration文件夹下的各种rpc实现 module
自动 springCloud用户可以引入spring-cloud-starter-alibaba-seata,内部已经实现xid传递

 

 

 


五、Seata事务分组
官网说明:

https://seata.io/zh-cn/docs/user/txgroup/transaction-group-and-ha.html

 

事务分组是什么?
事务分组是seata的资源逻辑,类似于服务实例。在file.conf中的my_test_tx_group就是一个事务分组。

通过事务分组如何找到后端集群?
首先程序中配置了事务分组(GlobalTransactionScanner 构造方法的txServiceGroup参数)
程序会通过用户配置的配置中心去寻找service.vgroupMapping .[事务分组配置项],取得配置项的值就是TC集群的名称
拿到集群名称程序通过一定的前后缀+集群名称去构造服务名,各配置中心的服务名实现不同
拿到服务名去相应的注册中心去拉取相应服务名的服务列表,获得后端真实的TC服务列表

为什么这么设计,不直接取服务名?
这里多了一层获取事务分组到映射集群的配置。这样设计后,事务分组可以作为资源的逻辑隔离单位,出现某集群故障时可以快速failover,只切换对应分组,可以把故障缩减到服务级别,但前提也是你有足够server集群。

 


最佳实践1:TC的异地多机房容灾


假定TC集群部署在两个机房:guangzhou机房(主)和shanghai机房(备)各两个实例
一整套微服务架构项目:projectA
projectA内有微服务:serviceA、serviceB、serviceC 和 serviceD
其中,projectA所有微服务的事务分组tx-transaction-group设置为:projectA,projectA正常情况下使用guangzhou的TC集群(主)

那么正常情况下,client端的配置如下所示:
seata.tx-service-group=projectA
seata.service.vgroup-mapping.projectA=Guangzhou

假如此时guangzhou集群分组整个down掉,或者因为网络原因projectA暂时无法与Guangzhou机房通讯,那么我们将配置中心中的Guangzhou集群分组改为Shanghai,如下:
seata.service.vgroup-mapping.projectA=Shanghai

并推送到各个微服务,便完成了对整个projectA项目的TC集群动态切换。

 

最佳实践2:单一环境多应用接入


假设现在开发环境(或预发/生产)中存在一整套seata集群
seata集群要服务于不同的微服务架构项目projectA、projectB、projectC
projectA、projectB、projectC之间相对独立
我们将seata集群中的六个实例两两分组,使其分别服务于projectA、projectB与projectC,那么此时seata-server端的配置如下(以nacos注册中心为例)

 

最佳实践3:client的精细化控制


假定现在存在seata集群,Guangzhou机房实例运行在性能较高的机器上,Shanghai集群运行在性能较差的机器上
现存微服务架构项目projectA、projectA中有微服务ServiceA、ServiceB、ServiceC与ServiceD
其中ServiceD的流量较小,其余微服务流量较大
那么此时,我们可以将ServiceD微服务引流到Shanghai集群中去,将高性能的服务器让给其余流量较大的微服务(反之亦然,若存在某一个微服务流量特别大,我们也可以单独为此微服务开辟一个更高性能的集群,并将该client的virtual group指向该集群,其最终目的都是保证在流量洪峰时服务的可用)

 

 

六、Seata配置中心


什么是配置中心?配置中心可以说是一个"大衣柜",内部放置着各种配置文件,你可以通过自己所需进行获取配置加载到对应的客户端.比如Seata Client端(TM,RM),Seata Server(TC),会去读取全局事务开关,事务会话存储模式等信息.
Seata的配置中心与Spring cloud的配置中心区别是?在广义上来说,并无区别,只不过Spring cloud的配置中心仅是作用于它们自身的组件,而Seata的配置中心也是一样是作用于Seata自身.(注:Spring cloud的配置中心与Seata无关)
Seata支持哪些配置中心?
consul
apollo
etcd
zookeeper
redis
file (读本地文件)

 

 

七、Seata注册中心


什么是注册中心?注册中心可以说是微服务架构中的”通讯录“,它记录了服务和服务地址的映射关系。在分布式架构中,服务会注册到这里,当服务需要调用其它服务时,就到这里找到服务的地址,进行调用.比如Seata Client端(TM,RM),发现Seata Server(TC)集群的地址,彼此通信.
Seata的注册中心与Dubbo,Spring cloud的注册中心区别是?在广义上来说,并无区别,只不过Dubbo与Spring cloud的注册中心仅是作用于它们自身的组件,而Seata的注册中心也是一样是作用于Seata自身.(注:Dubbo与Spring cloud的注册中心与Seata无关)
Seata支持哪些注册中心?
eureka
consul
apollo
etcd
zookeeper
sofa
redis
file (直连)

 

 

八、Seata微服务框架支持


1、Seata事务上下文

Seata 的事务上下文由 RootContext 来管理。
应用开启一个全局事务后,RootContext 会自动绑定该事务的 XID,事务结束(提交或回滚完成),RootContext 会自动解绑 XID。

// 绑定 XID
RootContext.bind(xid);

// 解绑 XID
String xid = RootContext.unbind();
应用可以通过 RootContext 的 API 接口来获取当前运行时的全局事务 XID。

// 获取 XID
String xid = RootContext.getXID();
应用是否运行在一个全局事务的上下文中,就是通过 RootContext 是否绑定 XID 来判定的。

public static boolean inGlobalTransaction() {
return CONTEXT_HOLDER.get(KEY_XID) != null;
}

 


2、Seata事务传播
Seata 全局事务的传播机制就是指事务上下文的传播,根本上,就是 XID 的应用运行时的传播方式。

1. 服务内部的事务传播

默认的,RootContext 的实现是基于 ThreadLocal 的,即 XID 绑定在当前线程上下文中。

所以服务内部的 XID 传播通常是天然的通过同一个线程的调用链路串连起来的。默认不做任何处理,事务的上下文就是传播下去的。

如果希望挂起事务上下文,则需要通过 RootContext 提供的 API 来实现:

// 挂起(暂停)
String xid = RootContext.unbind();

// TODO: 运行在全局事务外的业务逻辑

// 恢复全局事务上下文
RootContext.bind(xid);

 

2. 跨服务调用的事务传播

通过上述基本原理,我们可以很容易理解:

跨服务调用场景下的事务传播,本质上就是要把 XID 通过服务调用传递到服务提供方,并绑定到 RootContext 中去。

只要能做到这点,理论上 Seata 可以支持任意的微服务框架

 

九、Seata各种模式比较


1、Seata AT 模式:https://seata.io/zh-cn/docs/dev/mode/at-mode.html

前提
基于支持本地 ACID 事务的关系型数据库。
Java 应用,通过 JDBC 访问数据库。

整体机制
两阶段提交协议的演变:

一阶段:业务数据和回滚日志记录在同一个本地事务中提交,释放本地锁和连接资源。

二阶段:

提交异步化,非常快速地完成。
回滚通过一阶段的回滚日志进行反向补偿。

 


2、Seata TCC 模式(https://seata.io/zh-cn/docs/dev/mode/tcc-mode.html)

回顾总览中的描述:一个分布式的全局事务,整体是 两阶段提交 的模型。全局事务是由若干分支事务组成的,分支事务要满足 两阶段提交 的模型要求,即需要每个分支事务都具备自己的:

一阶段 prepare 行为
二阶段 commit 或 rollback 行为

根据两阶段行为模式的不同,我们将分支事务划分为 Automatic (Branch) Transaction Mode 和 TCC (Branch) Transaction Mode.

AT 模式(参考链接 TBD)基于 支持本地 ACID 事务 的 关系型数据库:
一阶段 prepare 行为:在本地事务中,一并提交业务数据更新和相应回滚日志记录。
二阶段 commit 行为:马上成功结束,自动 异步批量清理回滚日志。
二阶段 rollback 行为:通过回滚日志,自动 生成补偿操作,完成数据回滚。

相应的,TCC 模式,不依赖于底层数据资源的事务支持:
一阶段 prepare 行为:调用 自定义 的 prepare 逻辑。
二阶段 commit 行为:调用 自定义 的 commit 逻辑。
二阶段 rollback 行为:调用 自定义 的 rollback 逻辑。
所谓 TCC 模式,是指支持把 自定义 的分支事务纳入到全局事务的管理中。


3、SEATA Saga 模式(https://seata.io/zh-cn/docs/user/saga.html)
概述
Saga模式是SEATA提供的长事务解决方案,在Saga模式中,业务流程中每个参与者都提交本地事务,当出现某一个参与者失败则补偿前面已经成功的参与者,一阶段正向服务和二阶段补偿服务都由业务开发实现。

适用场景:
业务流程长、业务流程多
参与者包含其它公司或遗留系统服务,无法提供 TCC 模式要求的三个接口

优势:
一阶段提交本地事务,无锁,高性能
事件驱动架构,参与者可异步执行,高吞吐
补偿服务易于实现

缺点:
不保证隔离性(应对方案见后面文档)


4、Seata XA 模式(https://seata.io/zh-cn/docs/dev/mode/xa-mode.html)
前提
支持XA 事务的数据库。
Java 应用,通过 JDBC 访问数据库。

整体机制
在 Seata 定义的分布式事务框架内,利用事务资源(数据库、消息服务等)对 XA 协议的支持,以 XA 协议的机制来管理分支事务的一种 事务模式。

 

 

Java分布式事务Seata安装和使用,SpringCloud Seata分布式事务安装配置和使用

(如果文章对您有所帮助,欢迎捐赠,^_^)

 

================================

©Copyright 蕃薯耀 2021-05-10

https://www.cnblogs.com/fanshuyao/

上一篇:分布式事务 SEATA-1.4.1 AT模式 配合NACOS 应用


下一篇:seata闪退问题(总结)!!!!