运维.售后
论坛
潜水/灌水快乐,沉淀知识,认识更多同行。
ToB圈子
加入IT圈,遇到更多同好之人。
朋友圈
看朋友圈动态,了解ToB世界。
博客
Blog
ToB门户
了解全球最新的ToB事件
排行榜
Ranklist
文库
业界最专业的IT文库,上传资料也可以赚钱
下载
分享
Share
导读
Guide
相册
Album
记录
Doing
搜索
本版
文章
帖子
ToB圈子
用户
免费入驻
产品入驻
解决方案入驻
公司入驻
案例入驻
登录
·
注册
只需一步,快速开始
账号登录
立即注册
找回密码
用户名
Email
自动登录
找回密码
密码
登录
立即注册
首页
找靠谱产品
找解决方案
找靠谱公司
找案例
找对的人
专家智库
悬赏任务
圈子
SAAS
ToB企服应用市场:ToB评测及商务社交产业平台
»
论坛
›
大数据
›
数据仓库与分析
›
Daph:新一代流批一体数据集成与数据处理工具 ...
Daph:新一代流批一体数据集成与数据处理工具
半亩花草
金牌会员
|
2024-8-27 14:48:49
|
显示全部楼层
|
阅读模式
楼主
主题
896
|
帖子
896
|
积分
2688
Daph源码位于gitee,地点是
https://gitee.com/dasea96/daph
概述
Daph的中文名称是大副,大副是职位仅低于船长的船舶驾驶员,甲板部(驾驶部)负责人,船长的紧张助手。
Daph的英文名称,取自【有向无环图Directed Acyclic Graph】的第一个字母与最后三个字母。
Daph是一个通用的数据集成与数据处理平台级工具,可用于构建可视化设置化的数据集成与数据处理平台。
Daph,大道至简。
Daph的核心概念是节点,节点具有输入线与输出线,每条线中承载数据,节点承载任意数据处理逻辑。
Daph的核心构件是一个自创的通用DAG数据流引擎,可以流转任意Java/Scala数据结构,可以引入任何基于Java平台或具有Java客户端的数据计算组件作为数据流底层数据计算引擎。
Daph的核心功能是联接多个节点构成DAG图,并流转数据。
功能
全量增量整库整表数据集成
:以极简设置方式,完成全量增量整库整表数据集成
已支持50多种数据源类型的全量整表同步
已支持Flink-cdc所支持的全部数据源类型的cdc整表同步
已支持mysql/postgresql/oracle/sqlserver/doris/starrocks到mysql/postgresql/oracle/sqlserver/doris/starrocks/hive/iceberg/kafka的全量增量整库同步
流批一体复杂数据处理
:以极简设置方式,完成流批一体任意复杂多表sql处理逻辑
代价
统一数据开辟视图
:Daph既具有丰富的数据集成能力,又具有强大的数据处理能力
降低数据开辟门槛
:通过设置文件,完成数据开辟
紧缩数据开辟周期
:开箱即用的海量数据集成与数据处理能力,极简的安装摆设方式,极简的二次开辟过程
特点
通用
:可连接任意JVM类型的节点,构成DAG图,并流转任意Java/Scala数据结构。因此,不仅如今能够用于构建DAG数据流,而且具有潜在的任意粒度的DAG任务调度的潜力,可基于一个daph-core,统一任务开辟与任务调度,实现一体化的可视化任务开辟与任务调度平台。
简单
:概念简单,设置简单
基于开源计算引擎,不引入新的复杂概念
节点设置简单,比如daph-spark节点设置项,与Spark设置项几乎完全一致,不增加学习开销。
强大
:架构强大,功能强大
架构层面具有多层环绕运行体系,可定制任意Job级/DAG级/节点级/方法级功能,比如节点数据预览功能、节点监控功能、前置后置SQL功能。如今全部节点均已支持前置后置建表功能,daph-spark全部节点已支持前置后置SQL功能
daph-spark仅有5个连接器、6个转换器,却已支持44种数据源的流批读写,且能随时扩充更多数据源;已支持对单表的map、filter、sql处理,对多表的join及任意复杂sql处理;且支持spark能支持的任何catalog
daph-flink仅有2个连接器、1个转换器,却已支持任何flink-sql支持的数据源的流批读写;已支持对单表与多表的任意复杂sql处理;且支持flink能支持的任何catalog。
聚焦
:聚焦于可视化设置化的数据集成与数据处理,聚焦于简化开源计算引擎的利用,不增加学习开销。
流转任意数据结构
:可流转任意JVM数据结构,比如Java/Scala List、Spark DataFrame、Flink DataStream。
支持多种计算引擎
:可引入任何基于Java平台或具有Java客户端的数据计算组件作为数据流底层数据计算引擎,比如Java/Scala/Spark/Flink,等等。
快速扩展节点
:可方便地扩展与摆设具有任意逻辑的节点,比如扩展新的连接器节点,以支持读写新的数据库类型;比如扩展新的转换器节点,以便引入特定数据处理逻辑处理数据。只必要完成以下三点,即可完成:
1)实现一个设置接口与一个功能接口
2)将扩展的节点对应的jar放在服务器目次
3)json文件中设置扩展节点信息
对比业界类似软件
Daph:
既能用于数据集成,又能用于复杂的数据处理
极致通用的DAG模型,能够流转任意JVM对象,引入任意符合Spark/Flink编程模型的计算引擎
不重复造轮子,专注于简化开源计算引擎的利用,设置项几乎与开源计算引擎一一对应
完美运用开源计算引擎的各项能力,包括且不限于流批处理能力、catalog能力、sql能力
能够实时从开源计算引擎的生态体系中获益
比如Spark,一旦新出现一种数据库连接器,在Daph中只必要在pom.xml中添加依靠,就能立刻利用
对比维度DaphSeaTunnelStreamSetsStreamXKettleChunjun通用性高低低低低低易用性高中高高高中开源是是否是是是数据结构流转能力全部JVM对象Dataset[Row]/DataStream[Row]/Zeta数据结构无无无无计算引擎接入能力任意符合Spark/Flink编程模型的计算引擎Spark/Flink/ZetaSparkSpark/FlinkJavaFlink流水线模型DAG线DAG点DAG线功能扩展性高中低中低中学习成本低高高中中中开辟成本低高高中高中运维成本低高低中低中
架构模型
数据流模型
Daph的数据流模型是DAG数据流模型,如下图所示:
比方一个数据集成与数据处理综合场景,如下图所示:
输入是一张MySQL表、一张Hive表,一张Oracle表
处理逻辑包罗map、join、sql、自界说复杂逻辑
输出是一个Hudi表、一个Doris表、一个HBase表
运行模型
Daph通过节点包裹代码片段,将节点连成一个DAG图,并最终将DAG图形成一个完备的应用步伐。
一个DAG图就是一个完备运行逻辑,比如当利用Spark作为底层计算引擎,一个DAG图就是一个完备的Spark应用步伐。
一个DAG图中可以同时包罗Java节点、Scala节点、Spark节点,也可以同时包罗Java节点、Scala节点、Flink节点,但不能同时包罗Spark与Flink节点。
底层计算引擎决定了应用步伐的类型。
JVM引擎对应的就是原生Java/Scala应用步伐;
Spark引擎对应的就是Spark应用步伐;
Flink引擎对应的就是Flink应用步伐。
Daph运行模型如下图所示:
摆设模型
Daph如今的摆设模型非常简单,
daph-jvm,就是摆设原生java步伐
daph-spark,就是摆设spark应用步伐
daph-flink,就是摆设flink应用步伐
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
本帖子中包含更多资源
您需要
登录
才可以下载或查看,没有账号?
立即注册
x
回复
使用道具
举报
0 个回复
倒序浏览
返回列表
快速回复
高级模式
B
Color
Image
Link
Quote
Code
Smilies
您需要登录后才可以回帖
登录
or
立即注册
本版积分规则
发表回复
回帖并转播
回帖后跳转到最后一页
发新帖
回复
半亩花草
金牌会员
这个人很懒什么都没写!
楼主热帖
YOLOV5 代码复现以及搭载服务器运行 ...
本周涨粉一倍,我决定再开源一个商超管 ...
APP性能优化
安装Python
经典Python题目:一个列表或者数组去重 ...
Java集合框架(五)-Collections 和 泛型 ...
《C++性能优化指南》 linux版代码及原 ...
Spring5——JdbcTemplate笔记
【Redis】BigKey问题
.net6下[WPF+yolov5+opencvsharp]
标签云
存储
服务器
快速回复
返回顶部
返回列表