搭建ELK+Filebead+zookeeper+kafka实验

打印 上一主题 下一主题

主题 559|帖子 559|积分 1677

目次
1.摆设 Filebeat 
2. Logstash设置
3.浏览器kibana访问验证


主机名ip地址紧张软件es01192.168.9.114ElasticSearches02192.168.9.115ElasticSearches03192.168.9.116ElasticSearch、Kibananginx01192.168.9.113nginx、LogstashNA192.168.9.111nginx、FilebeatNA192.168.9.210Zookeeper、KafkaNA192.168.9.120Zookeeper、KafkaNA192.168.9.140Zookeeper、Kafka   ELK、Filebead、zookeeper、kafka搭建可查询之前博客
  1.摆设 Filebeat 

  1. cd /usr/local/filebeat
  2. vim filebeat.yml
  3. 注释162、164行内容
  4. 163行起添加
  5. output.kafka:
  6.   enabled: true
  7.   hosts: ["192.168.9.210:9092","192.168.9.120","192.168.9.140"]  #指定 Kafka 集群配置
  8.   topic: "nginx"    #指定 Kafka 的 topic
  9. ————————————
复制代码

   浏览器访问filebeat,生成新日志数据
  (http://192.168.9.111/test.html、http://192.168.9.111/test1.html、http://192.168.9.111/)
  1. 启动 filebeat
  2. ./filebeat -e -c filebeat.yml
复制代码
2. Logstash设置

  1. cd /etc/logstash/conf.d/
  2. vim kafka.conf
  3. input {
  4.     kafka {
  5.         bootstrap_server => "192.168.9.210:9092,192.168.9.120:9092,192.168.9.140:9092"
  6.         topics => "nginx"
  7.         type => "nginx_kafka"
  8.         auto_offset_reset => "latest"
  9.     }
  10. }
  11. #filter {}
  12. output {
  13.      elasticsearch {
  14.           hosts => ["192.168.9.114:9200", "192.168.9.115:9200", "192.168.9.116:9200"]
  15.           index => "nginx_kafka-%{+yyyy.MM.dd}"
  16.      }
  17. }
  18. logstash -t -f kafka.conf
  19. logstash -f kafka.conf
复制代码
3.浏览器kibana访问验证

   浏览器访问 http://192.168.9.116:5601 登录 Kibana,单击【管理】按钮【创建索引模式】,搜索【nginx_kafka-*】单击 【下一步】按钮创建,选择【@timestamp】 按钮,【创建索引模式】;可检察图表信息及日志信息。

免责声明:如果侵犯了您的权益,请联系站长,我们会及时删除侵权内容,谢谢合作!更多信息从访问主页:qidao123.com:ToB企服之家,中国第一个企服评测及商务社交产业平台。
回复

使用道具 举报

0 个回复

倒序浏览

快速回复

您需要登录后才可以回帖 登录 or 立即注册

本版积分规则

知者何南

金牌会员
这个人很懒什么都没写!

标签云

快速回复 返回顶部 返回列表