环境预备
vmware预备3台虚拟机对应的ip地址与主机名如下
192.168.146.140 cluster1
192.168.146.141 cluster2
192.168.146.142 cluster3
1. 搭建zookeeper集群,参考zookeeper集群搭建
2.下载并解压Kafka
官网地址:https://downloads.apache.org/kafka/3.9.0/kafka_2.12-3.9.0.tgz,下载速度比较慢,这里使用阿里云开源镜像站地址,实行命令
wget http://mirrors.aliyun.com/apache/kafka/3.9.0/kafka_2.12-3.9.0.tgz
tar -zxvf kafka_2.12-3.9.0.tgz -C /opt
3. 设置Kafka
编辑 /opt/kafka_2.12-3.9.0/config/server.properties文件,为每个节点设置差异的 broker.id 和 listeners
cluster1节点设置如下
# broker.id必须唯一
broker.id=0
# listeners设置
listeners=PLAINTEXT://cluster1:9092
advertised.listeners=PLAINTEXT://192.168.146.140:9092
# zookeeper.connect设置
zookeeper.connect=cluster1:2181,cluster2:2181,cluster3:2181
# 日志目次
log.dirs=/var/lib/kafka-logs
cluster2设置如下
# broker.id必须唯一
broker.id=1
# listeners设置
listeners=PLAINTEXT://cluster2:9092
advertised.listeners=PLAINTEXT://192.168.146.141:9092
# zookeeper.connect设置
zookeeper.connect=cluster1:2181,cluster2:2181,cluster3:2181
# 日志目次
log.dirs=/var/lib/kafka-logs
cluster3设置如下
# broker.id必须唯一
broker.id=2
# listeners设置
listeners=PLAINTEXT://cluster3:9092
advertised.listeners=PLAINTEXT://192.168.146.142:9092
# zookeeper.connect设置
zookeeper.connect=cluster1:2181,cluster2:2181,cluster3:2181
# 日志目次
log.dirs=/var/lib/kafka-logs
4. 启动Kafka
在每个节点上启动Kafka:
nohup /opt/kafka_2.12-3.9.0/bin/kafka-server-start.sh /opt/kafka_2.12-3.9.0/config/server.properties &
5. 验证集群
创建一个测试主题并发布消息,以验证集群是否正常工作。
创建主题实行命令
/opt/kafka_2.12-3.9.0/bin/kafka-topics.sh --create --topic test-topic --bootstrap-server cluster1:9092,cluster2:9092,cluster3:9092 --replication-factor 3 --partitions 3
发布消息实行命令
/opt/kafka_2.12-3.9.0/bin/kafka-console-producer.sh --topic test-topic --bootstrap-server cluster1:9092
订阅消息实行命令
/opt/kafka_2.12-3.9.0/bin/kafka-console-consumer.sh --topic test-topic --from-beginning --bootstrap-server cluster1:9092
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。 |