ToB企服应用市场:ToB评测及商务社交产业平台

标题: 源代码编译,Apache DolphinScheduler前后端分离部署办理方案 [打印本页]

作者: 干翻全岛蛙蛙    时间: 2024-8-27 14:42
标题: 源代码编译,Apache DolphinScheduler前后端分离部署办理方案

转载自神龙大侠
生产环境部署方案

在企业线上生产环境中,普遍的做法是至少实施两套环境。
测试环境用于验证代码的精确性,当测试环境验证ok后才会部署线上环境。
鉴于CI/CD应用的普遍性,源代码一键部署是须要的。
本文是探索对DolphinScheduler源代码改造,构建测试,线上双环境一键部署和上线。
同时,我对dolphinscheduler-api进行改造,使得前端管理系统前后端分离,以使得部署更贴近生产环境,方便生产环境组件横向部署,这也让前后端并行代码开发更加便利。
如果认识DolphinScheduler的同学可以前面的先容,直接跳到部署方案那里看起。
DolphinScheduler先容

Apache DolphinScheduler 是一个分布式易扩展的可视化DAG工作流使命调度开源系统。适用于企业级场景,提供了一个可视化操作使命、工作流和全生命周期数据处理过程的办理方案。
Apache DolphinScheduler 旨在办理复杂的大数据使命依赖关系,并为应用程序提供数据和各种 OPS 编排中的关系。 办理数据研发ETL依赖错综复杂,无法监控使命健康状态的问题。 DolphinScheduler 以 DAG(Directed Acyclic Graph,DAG)流式方式组装使命,可以实时监控使命的执行状态,支持重试、指定节点规复失败、暂停、规复、终止使命等操作。
工作流定义启动流程

很丝滑有木有(这内里没有alert-server的位置,不过这个也不负责具体的使命执行)

DolphinScheduler核心模块

在二进制文件部署方案中,DolphinScheduler主要是有4个核心server如下:
该服务内主要包罗:
DistributedQuartz分布式调度组件,主要负责定时使命的启停操作,当quartz调起使命后,Master内部会有线程池具体负责处理使命的后续操作;
MasterSchedulerService是一个扫描线程,定时扫描数据库中的t_ds_command表,根据不同的命令范例进行不同的业务操作;
WorkflowExecuteRunnable主要是负责DAG使命切分、使命提交监控、各种不同事件范例的逻辑处理;
TaskExecuteRunnable主要负责使命的处理和长期化,并生成使命事件提交到工作流的事件队列;
EventExecuteService主要负责工作流实例的事件队列的轮询;
StateWheelExecuteThread主要负责工作流和使命超时、使命重试、使命依赖的轮询,并生成对应的工作流或使命事件提交到工作流的事件队列;
FailoverExecuteThread主要负责Master容错和Worker容错的相关逻辑;
从严格意义上来讲,api-server包罗了两个模块,一个是后端接口api-server,一个是api-ui前端页面。在dolphinscheduler的二进制部署方案中ApiServer和ui是归并打包的。
在实际的生产环境中一样寻常前后端是分离部署,一个是缩小上线改动的影响范围,上线效率更快,一个是前端和后端的部署呆板没须要都保持一样的数目,分离部署更机动,这个博文是使用最新的release版本3.2.1进行部署的。(2024年7月22日)
系统的前端页面,提供系统的各种可视化操作界面。
部署方案

DolphinScheduler部署主要有四种:
其中单机部署主要是用于操作体验,并不能执行工作流调度。
官网部署指南:https://dolphinscheduler.apache.org/zh-cn/docs/3.2.2/��%A...
DolphinScheduler官网提供了二进制文件部署,这种我也试了一下,安装流程很流畅,不过还是没有接纳这种部署方案,主要考虑背面产品或者业务会提一些需求,需要这边基于最新的版本做一些开发。
最终决定接纳如下两套部署方案:
下文用stag和prod作为测试环境和线上环境标志。
源代码开发pom管理有两种方案:
为了不跟主线混淆主版本,也是致敬经典,我就使用snapshot作为后续的开发迭代版本了。
修改pom版本

本文基于3.2.1版本统一改成了snapshot版本,这样我自己修改的代码,重新编译之后可以在测试或者生产环境生效。
  1. <groupId>org.apache.dolphinscheduler</groupId>
  2. <artifactId>dolphinscheduler</artifactId>
  3. <version>3.2.100-SNAPSHOT</version>
复制代码
备注:需要修改所有子模块的pom版本信息。
修改通用环境设置

现在环境需要的依赖或者设置信息目录在根目录下的script/env下,/script/env下保存了测试环境和线上环境都要求一致的设置信息。
如果确定使用mysql数据库,需要引入jar包mysql-connector-java-8.0.33.jar。可以把mysql-connector-java-8.0.33.jar放在/script/env目录下,这个测试和线上环境都是一致的设置和需求版本。
另外一个主要的设置信息是dolphinscheduler_env.sh文件。
dolphinscheduler_env.sh用来设置各种路径和环境变量信息。
如果线上有和测试环境设置不一样的设置信息,可以分别创建测试和线上目录,build的时候根据环境信息打包各自的设置文件:
将线上和测试环境不同的设置信息dolphinscheduler_env.sh文件copy到这两个目录下。
dolphinscheduler_env.sh文件包罗的设置信息包括JAVA_HOME,PYTHON_LAUNCHER,HADOOP_CLASSPATH,SPARK_DIST_CLASSPATH,HADOOP_CLIENT_OPTS,SPARK_SUBMIT_OPTS等环境信息,根据实际环境设置好就ok了。
我的stag环境dolphinscheduler_env.sh设置信息包括如下(这个根据自己的环境设置,不能直接copy哦)
  1. export HADOOP_CLASSPATH=`hadoop classpath`:${DOLPHINSCHEDULER_HOME}/tools/libs/*
  2. export SPARK_DIST_CLASSPATH=$HADOOP_CLASSPATH:$SPARK_DIST_CLASS_PATH
  3. export HADOOP_CLIENT_OPTS="-javaagent:${DOLPHINSCHEDULER_HOME}/tools/libs/aspectjweaver-1.9.7.jar":$HADOOP_CLIENT_OPTS
  4. export SPARK_SUBMIT_OPTS="-javaagent:${DOLPHINSCHEDULER_HOME}/tools/libs/aspectjweaver-1.9.7.jar":$SPARK_SUBMIT_OPTS
  5. export FLINK_ENV_JAVA_OPTS="-javaagent:${DOLPHINSCHEDULER_HOME}/tools/libs/aspectjweaver-1.9.7.jar":$FLINK_ENV_JAVA_OPTS
  6. export JAVA_HOME=${JAVA_HOME:-/usr/java/jdk1.8.0_181-amd64/}
  7. export PYTHON_LAUNCHER=${PYTHON_LAUNCHER:-/usr/local/python3.7.2/bin/python3}
  8. export SPRING_CACHE_TYPE=${SPRING_CACHE_TYPE:-none}
  9. export SPRING_JACKSON_TIME_ZONE=${SPRING_JACKSON_TIME_ZONE:-UTC}
  10. export MASTER_FETCH_COMMAND_NUM=${MASTER_FETCH_COMMAND_NUM:-10}
  11. export PATH=$PYTHON_LAUNCHER:$JAVA_HOME/bin:$HADOOP_CLASSPATH:$SPARK_DIST_CLASSPATH:$FLINK_ENV_JAVA_OPTS:$PATH
复制代码
备注:jdk需要时1.8以上的版本
dolphinscheduler-api双环境部署方案改造

对于alert-server,master-server,worker-server改造和dolphinscheduler-api改造一样,这里就不都逐一例举和分析了。
增加线上和测试环境设置信息

删除/dolphinscheduler-api/resources/application.yaml这个是设置样例,可以根据实际需要修改对应的设置信息。
添加测试环境设置信息
/dolphinscheduler-api/resources/stag/application.yaml
添加线上环境设置信息
/dolphinscheduler-api/resources/prod/application.yaml
application.yaml需要修改的内容包括(我列的这几个是需要修改的项,其他的可以留着不动)。
修改mysql对应设置
  1. spring:
  2.   profiles:
  3.     active: mysql
  4.   datasource:
  5.     driver-class-name: com.mysql.cj.jdbc.Driver
  6.     url: jdbc:mysql://ip:port/dolphinscheduler
  7.     username: user
  8.     password: pass
  9. quartz:
  10.   properties:
  11.     org.quartz.jobStore.driverDelegateClass:org.quartz.impl.jdbcjobstore.StdJDBCDelegate
复制代码
修改zk对应的设置:
  1. registry:
  2.   type: zookeeper
  3.   zookeeper:
  4.     namespace: dolphinscheduler
  5.     connect-string: ip:port
  6.     retry-policy:
  7.       base-sleep-time: 60ms
  8.       max-sleep: 300ms
  9.       max-retries: 5
  10.     session-timeout: 30s
  11.     connection-timeout: 9s
  12.     block-until-connected: 600ms
  13.     digest: ~
复制代码
增加双环境jvm启动参数信息

修改jvm_args_env.sh
  1. -Xms1g
  2. -Xmx1g
  3. -Xmn512m
  4. -XX:+IgnoreUnrecognizedVMOptions
  5. -XX:+PrintGCDateStamps
  6. -XX:+PrintGCDetails
  7. -Xloggc:gc.log
  8. -XX:+ExitOnOutOfMemoryError
  9. -XX:+HeapDumpOnOutOfMemoryError
  10. -XX:HeapDumpPath=dump.hprof
  11. -Duser.timezone=${SPRING_JACKSON_TIME_ZONE}
复制代码
修改jvm_args_env.sh
  1. -Xms8g
  2. -Xmx8g
  3. -Xmn2g
  4. -XX:+IgnoreUnrecognizedVMOptions
  5. -XX:+PrintGCDateStamps
  6. -XX:+PrintGCDetails
  7. -Xloggc:gc.log
  8. -XX:+ExitOnOutOfMemoryError
  9. -XX:+HeapDumpOnOutOfMemoryError
  10. -XX:HeapDumpPath=dump.hprof
  11. -Duser.timezone=${SPRING_JACKSON_TIME_ZONE}
复制代码
start.sh文件不用做改动,直接copy到对应的目录即可。
线上和测试环境一样寻常不同所以需要根据路径加载线上或者测试环境设置信息
对于测试环境:
  1.     <fileSet>
  2.         <directory>${basedir}/src/main/resources/stag</directory>
  3.         <includes>
  4.             <include>*.yaml</include>
  5.             <include>*.xml</include>
  6.         </includes>
  7.         <outputDirectory>conf</outputDirectory>
  8.     </fileSet>
  9.     <fileSet>
  10.         <directory>${basedir}/src/main/bin/stag</directory>
  11.         <outputDirectory>bin</outputDirectory>
  12.         <fileMode>0755</fileMode>
  13.         <directoryMode>0755</directoryMode>
  14.     </fileSet>
复制代码
线上环境:
  1.     <fileSet>
  2.         <directory>${basedir}/src/main/resources/prod</directory>
  3.         <includes>
  4.             <include>*.yaml</include>
  5.             <include>*.xml</include>
  6.         </includes>
  7.         <outputDirectory>conf</outputDirectory>
  8.     </fileSet>
  9.     <fileSet>
  10.         <directory>${basedir}/src/main/bin/prod</directory>
  11.         <outputDirectory>bin</outputDirectory>
  12.         <fileMode>0755</fileMode>
  13.         <directoryMode>0755</directoryMode>
  14.     </fileSet>
复制代码
修改pom文件

  1.     <profiles>
  2.         
  3.         <profile>
  4.             <id>stag</id>
  5.             <properties>
  6.                 <spring.profiles.active>stag</spring.profiles.active>
  7.             </properties>
  8.             <activation>
  9.                 <activeByDefault>true</activeByDefault>
  10.             </activation>
  11.         </profile>
  12.         
  13.         <profile>
  14.             <id>prod</id>
  15.             <properties>
  16.                 <spring.profiles.active>prod</spring.profiles.active>
  17.             </properties>
  18.         </profile>
  19.     </profiles>
复制代码
  1.            <plugin>
  2.                 <artifactId>maven-assembly-plugin</artifactId>
  3.                 <executions>
  4.                     <execution>
  5.                         <id>dolphinscheduler-api-server</id>
  6.                         <goals>
  7.                             <goal>single</goal>
  8.                         </goals>
  9.                         <phase>package</phase>
  10.                         <configuration>
  11.                             <finalName>api-server</finalName>
  12.                             <descriptors>
  13.                                 <descriptor>src/main/assembly/dolphinscheduler-api-server-${spring.profiles.active}.xml</descriptor>
  14.                             </descriptors>
  15.                             <appendAssemblyId>false</appendAssemblyId>
  16.                         </configuration>
  17.                     </execution>
  18.                 </executions>
  19.              </plugin>
复制代码
设置完上述信息之后,可以通过根据命令打包。
线上:
mvn clean install -P prod '-Dmaven.test.skip=true' '-Dcheckstyle.skip=true' '-Dmaven.javadoc.skip=true'
测试:
mvn clean install -P stag '-Dmaven.test.skip=true' '-Dcheckstyle.skip=true' '-Dmaven.javadoc.skip=true'
如果需要根据pid文件判断程序的健康检查状态并支持故障自动拉起的功能,可以修改 ApiApplicationServer的main方法,支持生成pid文件信息
  1.    public static void main(String[] args) {
  2.         ApiServerMetrics.registerUncachedException(DefaultUncaughtExceptionHandler::getUncaughtExceptionCount);
  3.         Thread.setDefaultUncaughtExceptionHandler(DefaultUncaughtExceptionHandler.getInstance());
  4.         SpringApplication application = new SpringApplicationBuilder(ApiApplicationServer.class).application();
  5.         application.addListeners(new ApplicationPidFileWriter("ApiServer.pid"));
  6.         application.run(args);
  7.     }
复制代码
build之后,启动执行sh bin/start.sh.
如果启动报错mysql表找不到,可以下载一下二进制安装包,激活一下conf中的mysql数据库,执行tools/bin/upgrade-schema.sh即可完成数据库的初始化。
如果你修改代码,且引入了一些jar包,然后报一些莫名其妙的错误,十有八九是jar包依赖版本错乱了,将对应的jar包和官方代码依赖的重复jar包 exlude出去就可以了。(最后如果有其他问题可以留言)。
dolphinscheduler-ui部署方案

设置测试环境和线上环境后端接口api域名

修改.env.development 测试环境
VITE_APP_PROD_WEB_URL='https://stag.busi.com'
修改.env.production 测试环境
VITE_APP_PROD_WEB_URL='https://prod.busi.com'
这个地址是后端接口的域名前缀,也就是dolphinscheduler-api提供http接口的地址
修改package.json文件,在"build:prod"下面增加一行测试环境 build:stag命令

"build:prod": "vue-tsc --noEmit && vite build --mode production",
"build:stag": "vue-tsc --noEmit && vite build --mode development",
修改router

二进制文件打包默认目录是/dolphinscheduler/ui,对于前后端分离部署,并没有这个须要。
修改src/router/index.ts代码:
  1. const router = createRouter({
  2.   history: createWebHistory(
  3.     import.meta.env.MODE === 'production' ? '/' : '/'
  4.   ),
  5.   routes
  6. })
复制代码
修改pom文件(增加build:stag)设置
  1.                             <execution>
  2.                                 <id>pnpm run build:stag</id>
  3.                                 <goals>
  4.                                     <goal>pnpm</goal>
  5.                                 </goals>
  6.                                 <configuration>
  7.                                     <arguments>run build:stag</arguments>
  8.                                 </configuration>
  9.                             </execution>
复制代码
修改vite.config.ts文件中base目录信息

二进制文件打包默认目录是/dolphinscheduler/ui,对于前后端分离部署,并没有这个须要。
  1. base: process.env.NODE_ENV === 'production' ? '/' : '/',
复制代码
nginx设置信息

对于测试环境
  1.        server {
  2.             listen 你的port; # 自定义接口
  3.             server_name dolphinscheduler-test.buis.com;
  4.             root /home/deploy/api-ui_stag; #本地网站文件路径
  5.             index index.html;  #设置默认网页
  6.             try_files $uri $uri/ /index.html;
  7.             location /dolphinscheduler {
  8.                  proxy_pass http://api-server-ip:api-server-port;
  9.             }
  10.         }
复制代码
对于线上环境
  1.        server {
  2.             listen 你的port; # 自定义接口
  3.             server_name dolphinscheduler-prod.buis.com;
  4.             root /home/deploy/api-ui_prod; #本地网站文件路径
  5.             index index.html;  #设置默认网页
  6.             try_files $uri $uri/ /index.html;
  7.             location /dolphinscheduler {
  8.                  proxy_pass http://api-server-ip:api-server-port;
  9.             }
  10.         }
复制代码
其中api-ui_prod和api-ui_stag 为dolphinscheduler-ui build之后的dist目录。
nginx有一个设置非常关键

try_files $uri $uri/ /index.html;
由于dolphinscheduler-ui的vue router 模式为history模式,所有页面的录入都是通过域名根目录进入的。
比方
访问https://dolphinscheduler-test.busi.com/目录会跳转到
https://dolphinscheduler-test.busi.com/home目录。
但是你如果直接哀求https://dolphinscheduler-test.busi.com/home会报404错误。
办理的办法,就是增加设置try_files $uri $uri/ /index.html;
同时去掉
  1. location / {
  2. }
复制代码
设置
去掉location这个很关键.
关于try_files的语法
  1. Checks the existence of files in the specified order and uses the first found
  2. file for request processing; the processing is performed in the current
  3. context. The path to a file is constructed from the file parameter according
  4. to the root and alias directives. It is possible to check directory’s
  5. existence by specifying a slash at the end of a name, e.g. “$uri/”.
  6. If none of the files were found, an internal redirect to the uri
  7. specified in the last parameter is made.
  8. 参考
  9. https://juejin.cn/post/6844903856359342087
复制代码
大意就是它会按照try_files背面的参数依次去匹配root中对应的文件或文件夹。如果匹配到的是一个文件,那么将返回这个文件;如果匹配到的是一个文件夹,那么将返回这个文件夹中index指令指定的文件。最后一个uri参数将作为前面没有匹配到的fallback。(注意try_files指令至少需要两个参数)
build命令

测试环境打包:pnpm run build:stag
线上环境打包:pnpm run build:prod
最后执行
nginx -s reload
使得nginx部署生效
看一下效果


钉钉报警和优化

现在我这报警主要是钉钉报警,钉钉报警可以发到群报警呆板人,并且支持@owner的功能,好用且不收费。
原生的报警格式如下:
  1. start process success
  2. [{"projectCode":14285493640640,"projectName":"xxx_test","owner":"admin",
  3. "processId":12,"processDefinitionCode":14285512555584,
  4. "processName":"flow_test1-1-20240717191405669","processType":"START_PROCESS",
  5. "processState":"SUCCESS","modifyBy":"admin","recovery":"NO",
  6. "runTimes":1,"processStartTime":"2024-07-17 19:14:05",
  7. "processEndTime":"2024-07-17 19:14:09","processHost":"10.76.6.66:5678"}]
  8. @xxx
复制代码
我看起来感觉不太易读,重新优化了一下报警格式,是不是看起来板正多了,后续可以考虑加一个钩子,做一下中英文替换,或者直接修改报警源内容,看起来就更方便了。
  1. start process success
  2. projectCode:14285493640640
  3. projectName:xxx_test
  4. owner:admin
  5. processId:22
  6. processDefinitionCode:14371091350208
  7. processName:testflow123-1-20240723111659147
  8. processType:START_PROCESS
  9. processState:SUCCESS
  10. modifyBy:admin
  11. recovery:NO
  12. runTimes:1
  13. processStartTime:2024-07-23 11:16:59
  14. processEndTime:2024-07-23 11:17:00
  15. processHost:10.76.6.66:5678
  16. @xxx
复制代码
备注:本文的一些关键设置信息我这隐掉了,每个公司的设置不一样,参考自己公司的设置,好比呆板部署目录,域名信息,mysql,zk设置信息,用户名,密码等。
本文由 白鲸开源 提供发布支持!

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。




欢迎光临 ToB企服应用市场:ToB评测及商务社交产业平台 (https://dis.qidao123.com/) Powered by Discuz! X3.4