ELK

ELK简介

ELK 是三个开源软件的缩写,分别为:Elasticsearch、Logstash 以及 Kibana,它们都是开源软件。不过现在还新增了一个 Beats,它是一个轻量级的日志收集处理工具(Agent),Beats 占用资源少,适合于在各个服务器上搜集日志后传输给 Logstash,官方也推荐此工具,目前由于原本的 ELK Stack 成员中加入了 Beats 工具所以已改名为 Elastic Stack。

根据 Google Trend 的信息显示,Elastic Stack 已经成为目前最流行的集中式日志解决方案。

Elastic Stack 包含:

  • Elasticsearch 是个开源分布式搜索引擎,提供搜集、分析、存储数据三大功能。它的特点有:分布式,零配置,自动发现,索引自动分片,索引副本机制,restful 风格接口,多数据源,自动搜索负载等。
  • Logstash 主要是用来日志的搜集、分析、过滤日志的工具,支持大量的数据获取方式。一般工作方式为 c/s 架构,client 端安装在需要收集日志的主机上,server 端负责将收到的各节点日志进行过滤、修改等操作在一并发往 Elasticsearch 上去。
  • Kibana 也是一个开源和免费的工具,Kibana 可以为 Logstash 和 ElasticSearch 提供的日志分析友好的 Web 界面,可以帮助汇总、分析和搜索重要数据日志。
  • Beats 在这里是一个轻量级日志采集器,其实 Beats 家族有 6 个成员,早期的 ELK 架构中使用 Logstash 收集、解析日志,但是 Logstash 对内存、cpu、io 等资源消耗比较高。相比 Logstash,Beats 所占系统的 CPU 和内存几乎可以忽略不计。

ELK Stack (5.0版本之后)--> Elastic Stack == (ELK Stack + Beats)。

目前 Beats 包含六种工具:

  • Packetbeat: 网络数据(收集网络流量数据)
  • Metricbeat: 指标(收集系统、进程和文件系统级别的 CPU 和内存使用情况等数据)
  • Filebeat: 日志文件(收集文件数据)
  • Winlogbeat: windows 事件日志(收集 Windows 事件日志数据)
  • Auditbeat:审计数据(收集审计日志)
  • Heartbeat:运行时间监控(收集系统运行时的数据)

ELK 简单架构图:

ElasticSearch:(存储数据信息,搜索组件)

由于elasticsearch是用Java语言编写的需要跑在Java虚拟机上,所以在安装elasticsearch之前需要安装Java的JDK包。版本至少要在1.80版本上的包。

#yum install java-1.8.0-openjdk-devel

官方软件下载:https://www.elastic.co/products  

如果需要下载以前的版本点击下面。

QQ截图20180730203209

ElasticSearch 5的程序环境

配置文件:

/etc/elasticsearch/elasticsearch.yml
/etc/elasticsearch/jvm.options
/etc/elasticsearch/log4j2.properties
Unit File:elasticsearch.service

程序文件:

/usr/share/elasticsearch/bin/elasticsearch
/usr/share/elasticsearch/bin/elasticsearch-keystore:
/usr/share/elasticsearch/bin/elasticsearch-plugin:管理插件程序

下载安装elasticsearch

#wget
 https://artifacts.elastic.co/downloads/elasticsearch/elasticsearch-5.6.10.rpm   #下载rpm的包
#yum install java-1.8.0-openjdk-devel    #安装JDK的包
#rpm -ivh elasticsearch-5.6.10.rpm  #将下载下来的包安装,由于此包没有依赖所以使用rpm安装就可以
#systemctl start elasticsearch   #启动服务
#/etc/elasticsearch/elasticsearch.ym  #修改配置文件
测试使用,主要设置网络:
network.host: 192.168.130.7  #本机Ip
http.port: 9200  #监听端口
#vim /etc/elasticsearch/jvm.options
-Xms1g #虚拟机内存
-Xmx1g # curl http:
//192.168.130.7:9200/ 测试

安装插件

使用git安装elasticsearch-head 
# yum install -y npm 
# git clone git://github.com/mobz/elasticsearch-head.git 
# cd elasticsearch-head 
# npm install 
# npm run start 检查端口是否起来 netstat -antp |grep 9100
浏览器访问测试是否正常 http://IP:9100/

实验:实现两个elasticsearch节点

nod01:(192.168.130.7)

#vim   /etc/hostname  #修改主机名
node1
#vim /etc/hosts   #解析DNS
192.168.130.7   node1
#yum install java-1.8.0-openjdk-devel    #安装JDK的包
#rpm -ivh elasticsearch-5.6.10.rpm  #将下载下来的包安装,由于此包没有依赖所以使用rpm安装就可以
systemctl daemon-reload  #包装好后执行此命令
vim /etc/elasticsearch/jvm.options   #修改配置文件;jdk的配置文件
-Xms1g
-Xmx1g   #占用内存设置选项,两个的值必须设为相同
vim /etc/elasticsearch/elasticsearch.yml   #修改主配置文件
cluster.name: myelssss    #设定是否在同一个集群的标识;可自定义名称
node.name:node1  #当前节点的IP地址,此处做了dns解析可以用做节点的名称
#node.attr.rack: r1 (节点处于哪个机架上的设置,系统会识别机架,不将数据的主切片和从切片放到同一个机架上,本实验中不需要设置)
path.data: /data/myels  #数据存放的路径;可以自定义,或者将目录挂载到存储设备上
path.logs: /data/logs   #日志存放的路径
network.host: 192.168.130.7     #当前主机的IP地址
http.port: 9200    #启用端口号
discovery.zen.ping.unicast.hosts: [“192.168.130.7″,http.port: 9200192.168.130.8]    #定义集群的成员
discovery.zen.minimum_master_nodes: 2
#mkdir /data/myels
#mkdir /data/logs  #创建存放数据和日志的文件夹
#chown elasticsearch: /data/*   #将刚创建的文件夹的属主和数组都改为elasticsearch所有
#systemctl start elasticsearch     #启动服务

nod02:(192.168.130.8)

#vim   /etc/hostname   #修改主机名
node2
#vim /etc/hosts  #解析DNS
192.168.130.8   node2
#yum install java-1.8.0-openjdk-devel    #安装JDK的包
#rpm -ivh elasticsearch-5.6.10.rpm  #将下载下来的包安装,由于此包没有依赖所以使用rpm安装就可以
systemctl daemon-reload  #包装好后执行此命令
vim /etc/elasticsearch/jvm.options   #修改配置文件;jdk的配置文件
-Xms1g
-Xmx1g   #占用内存设置选项,两个的值必须设为相同
vim /etc/elasticsearch/elasticsearch.yml   #修改主配置文件
cluster.name: myelssss    #设定是否在同一个集群的标识;可自定义名称
node.name:node1  #当前节点的IP地址,此处做了dns解析可以用做节点的名称
#node.attr.rack: r1 (节点处于哪个机架上的设置,系统会识别机架,不将数据的主切片和从切片放到同一个机架上,本实验中不需要设置)
path.data: /data/myels  #数据存放的路径;可以自定义,或者将目录挂载到存储设备上
path.logs: /data/logs   #日志存放的路径
network.host: 192.168.130.8    #当前主机的IP地址
http.port: 9200    #启用端口号
discovery.zen.ping.unicast.hosts: [“192.168.130.8″,http.port: 9200192.168.130.7]    #定义集群的成员
discovery.zen.minimum_master_nodes: 2
#mkdir /data/myels
#mkdir /data/logs  #创建存放数据和日志的文件夹
#chown elasticsearch: /data/*   #将刚创建的文件夹的属主和数组都改为elasticsearch所有
#systemctl start elasticsearch     #启动服务

下载并安装Logstach(高度插件化服务程序)

官网:https://www.elastic.co/products/logstash

集中,转换,存储

高度插件化程序

三类核心插件:输入插件(指定数据源抽取数据),过滤器插件,输出插件(处理后的结果保留到不同位置)

多个logstash从本地日志文件中收集日志-->可在此添加消息队列-->发送到logstash server(过滤器插件过滤)-->elasticsearch

三类插件

  • Input plugins(获取数据)
  • Output plugins(保存数据位置)
  • Filter plugins(不同数据加工功能)
    •   Grok filter plugin(非文档转换为文档格式,日志就不是K/V键值对格式)

# yum install java-1.8.0-openjdk-devel  #下载JDK
# wget https://artifacts.elastic.co/downloads/logstash/logstash-5.6.8.rpm  #下载相关包
# rpm -ivh logstash-5.6.8.rpm  #安装logstash
/usr/share/logstash默认路径
#vim /etc/profile.d/logstash.sh  #路径加载到系统环境搜索变量中
export PATH=/usr/share/logstash/bin :$PATH
#exec bash  #重行启动bash
#logstash --help  #启动很慢
#cd /etc/logstash
#vim /conf.d/test1.conf  #编辑测试配置文件,输入什么输出什么
input {
  stdin{}

}

output {

  stdout{

  }

}

#logstash -f test.conf -t  #指定配置文件并检查
#logstash -f test.conf  #启动

 kibana下载安装

自我独立的web服务器

默认监听端口:5600

工作与http协议

搜索,数据聚合

图形界面展示

# wget ftp://172.20.0.1/pub/Sources/7.x86_64/elasticstack/kibana-5.6.8-x86_64.rpm  #下载相关包
# rpm -ivh kibana-5.6.8-x86_64.rpm  #安装kibana
# cd /etc/kibana/
/etc/kibana]# ls
kibana.yml
/etc/kibana]# vim kibana.yml  #修改配置文件
server.port: 5601 #监听于5601
server.host: "0.0.0.0"  #监听本机所有地址
elasticsearch.url: "http://172.20.81.7:9200" #elasticsearch所在主机
http://172.20.81.81:5601进入图形界面配置
页面使用:Discover
可视化:Visualize
面板:Dashboard

 filebeat                                        

rides在中间做消息队列       

原文地址:https://www.cnblogs.com/yaun1498078591/p/9387940.html