2.1.3.2.1. 在这种环境下,数据迁移服务的作用是在数据湖中自动聚合数据
5.2.12.1.1. 利用MapReduce
5.2.12.1.2. Gobblin中的合并实现包括反序列化/提取、格式转换、质量验证和向目标写入
5.2.12.2.1. 利用Spark
5.3.6.1.1. Flume的源数据组件从源数据中获取日志文件和事件,并将它们发送到聚合代理以进行数据处理
5.3.6.1.2. 日志聚合处理存储在内存中,并通过流传输到目的地
5.3.6.1.3. Flume最初计划用于快速可靠地将Web服务器天生的大量日志文件传输到Hadoop中
欢迎光临 IT评测·应用市场-qidao123.com技术社区 (https://dis.qidao123.com/) | Powered by Discuz! X3.4 |