Kafka下载与安装教程(超级具体-实操)

打印 上一主题 下一主题

主题 1047|帖子 1047|积分 3141

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有账号?立即注册

x
一、下载kafka软件包
1、官网下载
(1)下载地址:Apache Kafka

(2)将下载好的安装包上传到服务器

2、使用wget命令下载
  1. #使用wget方式下载
  2. wget https://downloads.apache.org/kafka/3.7.1/kafka_2.13-3.7.1.tgz
复制代码
二、解压kafka安装包

1、解压到/usr/local/目次下
  1. tar -xzvf kafka_2.12-3.9.0.tgz  -C /usr/local
复制代码

2、创建kafka数据目次
  1. mkdir -p /usr/local/kafka_2.12-3.9.0/data/kafka-logs
复制代码
3、配置环境变量
查看jdk安装目次命令:
  1. readlink -f $(which java)
复制代码

  1. #vim /etc/profile
  2. export JAVA_HOME=/usr/local/jdk8u272-b10/bin/java  #JDK安装目录
  3. export ZOOKEEPER_HOME=/usr/local/zookeeper/apache-zookeeper-3.9.3-bin/ #zookeeper安装目录
  4. export KAFKA_HOME=/usr/local/kafka_2.12-3.9.0/ #kafka安装目录
  5. export PATH=$PATH:$JAVA_HOME/bin:$ZOOKEEPER_HOME/bin:$KAFKA_HOME/bin
复制代码


4、使环境变量生效
  1. source /etc/profile
复制代码

5、编辑kafka配置文件
  1. vim /usr/local/kafka_2.12-3.9.0/config/server.properties
复制代码
节点1配置 ,注意:broker.id是每个broker在集群中的唯一标识,正整数
  1. # 编辑kafka1 的配置
  2. broker.id=1
  3. # 连接zookeeper的集群地址
  4. zookeeper.connect=10.22.82.31:2181,10.22.82.32:2181,10.22.82.33:2181
  5. advertised.listeners=PLAINTEXT://10.22.82.31:9092
  6. log.dirs=/usr/local/kafka_2.12-3.9.0/data/kafka-logs
复制代码

节点2配置:
  1. # 编辑kafka2 的配置
  2. broker.id=2
  3. # 连接zookeeper的集群地址
  4. zookeeper.connect=10.22.82.31:2181,10.22.82.32:2181,10.22.82.33:2181
  5. advertised.listeners=PLAINTEXT://10.22.82.32:9092
  6. log.dirs=/usr/local/kafka_2.12-3.9.0/data/kafka-logs
复制代码
节点3配置:
  1. # 编辑kafka3 的配置
  2. broker.id=3
  3. # 连接zookeeper的集群地址
  4. zookeeper.connect=10.22.82.31:2181,10.22.82.32:2181,10.22.82.33:2181
  5. advertised.listeners=PLAINTEXT://10.22.82.33:9092
  6. log.dirs=/usr/local/kafka_2.12-3.9.0/data/kafka-logs
复制代码
三、启动kafka服务并验证 

  1. #启动kafka服务
  2. kafka-server-start.sh -daemon $KAFKA_HOME/config/server.properties
  3. #集群停止
  4. kafka-server-stop.sh
复制代码
验证:创建topic  、查看topic、生产数据、消费数据进行测试
  1. 1.创建 topic
  2. cd /usr/local/kafka_2.12-3.9.0
  3. ./bin/kafka-topics.sh --bootstrap-server broker_host:port --create --topic my_topic_name \
  4. --partitions 20 --replication-factor 3
  5. 注 :此命令是在kafka部署目录中操作
  6. kafka-topics.sh --bootstrap-server 10.22.82.33:9092 --create --topic my_topic_name
  7. kafka-topics.sh --bootstrap-server 10.22.82.33:9092 --delete --topic my_topic_name
  8. --列出主题
  9. kafka-topics.sh --list --bootstrap-server 172.18.12.40:9092
  10. my_topic_name
  11. 参数 详解 :
  12. --bootstrap-server : kafka集群地址
  13. --create :执行创创建操作
  14. --topic :topic名称
  15. --partitions :topic 的分区数
  16. --replication-factor topic 的副本
  17. --config: 可选,创建 topic指定topic参数 配置
  18. 创建生产者生产数据
  19. [root@kafka1 bin]# kafka-console-producer.sh --broker-list 10.22.82.33:9092,10.22.82.33:9092,10.22.82.33:9092 --topic my_topic_name
  20. >这是一个测试
  21. 测试消费者是否可以消费数据
  22. [root@kafka2 config]# kafka-console-consumer.sh --bootstrap-server 10.22.82.33:9092 --topic my_topic_name --from-beginning
  23. 这是一个测试
复制代码


免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

嚴華

论坛元老
这个人很懒什么都没写!
快速回复 返回顶部 返回列表