Kafka 详细先容
1. 概述
Apache Kafka 是一个分布式流处置惩罚平台,由 LinkedIn 开发并开源,主要用于构建实时数据管道和流应用。它具备高吞吐量、低耽误、高可扩展性和持久性,广泛应用于日志收集、消息体系、流处置惩罚等场景。
2. 核心概念
- Producer: 生产者,负责将消息发布到 Kafka 的 Topic。
- Consumer: 消费者,从 Topic 订阅并消费消息。
- Broker: Kafka 服务器,存储消息并处置惩罚客户端请求。
- Topic: 消息类别,生产者发布消息到 Topic,消费者从中订阅。
- Partition: Topic 的分区,每个 Partition 是一个有序、不可变的消息序列。
- Offset: 消息在 Partition 中的唯一标识,消费者通过 Offset 跟踪消费进度。
- Consumer Group: 消费者组,组内消费者共同消费一个 Topic,每条消息只被组内一个消费者处置惩罚。
3. 架构
- Broker 集群: 多个 Broker 构成集群,提供高可用性和负载平衡。
- Zookeeper: 管理 Broker 和 Topic 的元数据,和谐集群。
- Producer/Consumer API: 提供生产者和消费者的编程接口。
4. 特点
- 高吞吐量: 支持每秒百万级消息处置惩罚。
- 低耽误: 消息传递耽误在毫秒级。
- 持久性: 消息持久化到磁盘,支持数据保存策略。
- 可扩展性: 通过增长 Broker 和 Partition 实现水平扩展。
- 容错性: 通过副本机制保证数据不丢失。
5. 使用场景
- 日志收集: 集中收集分布式体系日志。
- 消息体系: 解耦生产者和消费者,实现异步通讯。
- 流处置惩罚: 实时处置惩罚数据流,如点击流分析、实时推荐。
6. 安装与设置
- 下载 Kafka: 从 Apache Kafka 官网 下载。
- 启动 Zookeeper:
- bin/zookeeper-server-start.sh config/zookeeper.properties
复制代码 - 启动 Kafka Broker:
- bin/kafka-server-start.sh config/server.properties
复制代码 - 创建 Topic:
- bin/kafka-topics.sh --create --topic test --bootstrap-server localhost:9092 --partitions 1 --replication-factor 1
复制代码 - 启动 Producer:
- bin/kafka-console-producer.sh --topic test --bootstrap-server localhost:9092
复制代码 - 启动 Consumer:
- bin/kafka-console-consumer.sh --topic test --bootstrap-server localhost:9092 --from-beginning
复制代码 7. 常用命令
- 检察 Topic 列表:
- bin/kafka-topics.sh --list --bootstrap-server localhost:9092
复制代码 - 检察 Topic 详情:
- bin/kafka-topics.sh --describe --topic test --bootstrap-server localhost:9092
复制代码 - 删除 Topic:
- bin/kafka-topics.sh --delete --topic test --bootstrap-server localhost:9092
复制代码 8. 客户端编程
- Java Producer:
- Properties props = new Properties();
- props.put("bootstrap.servers", "localhost:9092");
- props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer");
- props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer");
- Producer<String, String> producer = new KafkaProducer<>(props);
- producer.send(new ProducerRecord<>("test", "key", "value"));
- producer.close();
复制代码 - Java Consumer:
- Properties props = new Properties();
- props.put("bootstrap.servers", "localhost:9092");
- props.put("group.id", "test-group");
- props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
- props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
- Consumer<String, String> consumer = new KafkaConsumer<>(props);
- consumer.subscribe(Arrays.asList("test"));
- while (true) {
- ConsumerRecords<String, String> records = consumer.poll(Duration.ofMillis(100));
- for (ConsumerRecord<String, String> record : records) {
- System.out.printf("offset = %d, key = %s, value = %s%n", record.offset(), record.key(), record.value());
- }
- }
复制代码 9. 生态体系
- Kafka Connect: 用于与其他体系集成,实现数据导入导出。
- Kafka Streams: 用于构建流处置惩罚应用。
- KSQL: 用于流数据的 SQL 查询。
10. 参考资料
- Apache Kafka 官方文档
- 《Kafka 权势巨子指南》
通过这些内容,你可以全面相识 Kafka 的根本概念、架构、使用方法及其生态体系。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |