搭建ELK+Filebead+zookeeper+kafka实验
目次1.摆设 Filebeat
2. Logstash设置
3.浏览器kibana访问验证
主机名ip地址紧张软件es01192.168.9.114ElasticSearches02192.168.9.115ElasticSearches03192.168.9.116ElasticSearch、Kibananginx01192.168.9.113nginx、LogstashNA192.168.9.111nginx、FilebeatNA192.168.9.210Zookeeper、KafkaNA192.168.9.120Zookeeper、KafkaNA192.168.9.140Zookeeper、Kafka ELK、Filebead、zookeeper、kafka搭建可查询之前博客
1.摆设 Filebeat
cd /usr/local/filebeat
vim filebeat.yml
注释162、164行内容
163行起添加
output.kafka:
enabled: true
hosts: ["192.168.9.210:9092","192.168.9.120","192.168.9.140"]#指定 Kafka 集群配置
topic: "nginx" #指定 Kafka 的 topic
———————————— https://i-blog.csdnimg.cn/direct/b3410f712f81412e8bdfd4aa537d38ed.png
浏览器访问filebeat,生成新日志数据
(http://192.168.9.111/test.html、http://192.168.9.111/test1.html、http://192.168.9.111/)
启动 filebeat
./filebeat -e -c filebeat.yml
2. Logstash设置
cd /etc/logstash/conf.d/
vim kafka.conf
input {
kafka {
bootstrap_server => "192.168.9.210:9092,192.168.9.120:9092,192.168.9.140:9092"
topics => "nginx"
type => "nginx_kafka"
auto_offset_reset => "latest"
}
}
#filter {}
output {
elasticsearch {
hosts => ["192.168.9.114:9200", "192.168.9.115:9200", "192.168.9.116:9200"]
index => "nginx_kafka-%{+yyyy.MM.dd}"
}
}
logstash -t -f kafka.conf
logstash -f kafka.conf 3.浏览器kibana访问验证
浏览器访问 http://192.168.9.116:5601 登录 Kibana,单击【管理】按钮【创建索引模式】,搜索【nginx_kafka-*】单击 【下一步】按钮创建,选择【@timestamp】 按钮,【创建索引模式】;可检察图表信息及日志信息。
免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
页:
[1]