搭建ELK+Filebead+zookeeper+kafka实验
目录
1.部署 Filebeat
2. Logstash配置
3.浏览器kibana访问验证
| 主机名 | ip地址 | 主要软件 |
|---|---|---|
| es01 | 192.168.9.114 | ElasticSearch |
| es02 | 192.168.9.115 | ElasticSearch |
| es03 | 192.168.9.116 | ElasticSearch、Kibana |
| nginx01 | 192.168.9.113 | nginx、Logstash |
| NA | 192.168.9.111 | nginx、Filebeat |
| NA | 192.168.9.210 | Zookeeper、Kafka |
| NA | 192.168.9.120 | Zookeeper、Kafka |
| NA | 192.168.9.140 | Zookeeper、Kafka |
ELK、Filebead、zookeeper、kafka搭建可查询之前博客
1.部署 Filebeat
cd /usr/local/filebeat vim filebeat.yml 注释162、164行内容 163行起添加 output.kafka: enabled: true hosts: ["192.168.9.210:9092","192.168.9.120","192.168.9.140"] #指定 Kafka 集群配置 topic: "nginx" #指定 Kafka 的 topic ————————————
浏览器访问filebeat,生成新日志数据
(http://192.168.9.111/test.html、http://192.168.9.111/test1.html、http://192.168.9.111/)
启动 filebeat ./filebeat -e -c filebeat.yml
2. Logstash配置
cd /etc/logstash/conf.d/
vim kafka.conf
input {
kafka {
bootstrap_server => "192.168.9.210:9092,192.168.9.120:9092,192.168.9.140:9092"
topics => "nginx"
type => "nginx_kafka"
auto_offset_reset => "latest"
}
}
#filter {}
output {
elasticsearch {
hosts => ["192.168.9.114:9200", "192.168.9.115:9200", "192.168.9.116:9200"]
index => "nginx_kafka-%{+yyyy.MM.dd}"
}
}
logstash -t -f kafka.conf
logstash -f kafka.conf
3.浏览器kibana访问验证
浏览器访问 http://192.168.9.116:5601 登录 Kibana,单击【管理】按钮【创建索引模式】,搜索【nginx_kafka-*】单击 【下一步】按钮创建,选择【@timestamp】 按钮,【创建索引模式】;可查看图表信息及日志信息。
免责声明:我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自自研大数据AI进行生成,内容摘自(百度百科,百度知道,头条百科,中国民法典,刑法,牛津词典,新华词典,汉语词典,国家院校,科普平台)等数据,内容仅供学习参考,不准确地方联系删除处理! 图片声明:本站部分配图来自人工智能系统AI生成,觅知网授权图片,PxHere摄影无版权图库和百度,360,搜狗等多加搜索引擎自动关键词搜索配图,如有侵权的图片,请第一时间联系我们,邮箱:ciyunidc@ciyunshuju.com。本站只作为美观性配图使用,无任何非法侵犯第三方意图,一切解释权归图片著作权方,本站不承担任何责任。如有恶意碰瓷者,必当奉陪到底严惩不贷!

