搭建ELK日志分析系统

看了辣么多博客,就数这个最详细最容易理解了:https://blog.csdn.net/qq_22211217/article/details/80764568

》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》

以下是本人自己搭建过程:

  其实看上面那篇博客写得很详细了,现在自己亲自动手搞一哈。

笔记:重要命令

Elasticsearch启动命令:


kibana启动命令:


logstash启动命令:




安装启动Elasticsearch,未完待续。。。

Elasticsearch启动成功图:

》》》》》》》》》》》》》》》》》》》》》》Kibana的安装启动》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》》

Kibana启动成功图:

》》》》》》》》》》》下面是logstash》》》》》》》》

在logstash的config里添加自定义文件xxx.conf,内容设置如下:

input {                                ##input 输入源配置
    tcp {                              ##使用tcp输入源      官网有详细文档
        host => 192.168.26.233         ##springboot项目中的logback.xml文件配置发送日志的地址端口要与这一样
        port => 9601                   ##服务器监听端口9061 接受日志  默认ip localhost
        codec => json_lines            ##使用json解析日志    需要安装json解析插件
        mode => "server"
    }
}
filter {                              ##数据处理
}
output {                               ##output 数据输出配置
        elasticsearch {                ##使用elasticsearch接收
            hosts => "localhost:9200"  ##集群地址  多个用,隔开
            index => "%{[appname]}-%{+YYYY.MM.dd}" #指定索引名字,不适用默认的,用来区分各个项目
        }
        stdout { codec => rubydebug}   ##输出到命令窗口
}
原文地址:https://www.cnblogs.com/spll/p/9804374.html