中小型研发团队架构实践七:集中式日志ELK

一、集中式日志

     日志可分为系统日志、应用日志以及业务日志,系统日志给运维人员使用,应用日志给研发人员使用,业务日志给业务操作人员使用。我们这里主要讲解应用日志,通过应用日志来了解应用的信息和状态,以及分析应用错误发生的原因等。

     随着系统的日益复杂,大数据时代的来临,需要几十甚至上百台的服务器是常有的事,因此迫切需要有一套针对日志、且能够集中式管理的产品。ELK 就实现了集中式日志管理平台,该平台统一涵盖了分布式日志收集、检索、统计、分析以及对日志信息的 Web 管理等集中化管控。

1.1、ELK 简介

     ELK 是 Elasticsearch、Logstash、Kibana 的简称,这三套开源工具组合起来能搭建一套强大的集中式日志管理平台。

     Elasticsearch 是个开源的分布式搜索引擎,提供搜索、分析、存储数据三大功能。它的特点有:分布式、自动发现、索引自动分片、索引副本机制、RESTful 风格接口、多数据源以及自动搜索负载等。

     Logstash 是一个开源的用来收集、解析、过滤日志的工具。支持几乎任何类型的日志,包括系统日志、业务日志和安全日志。它可以从许多来源接收日志,这些来源主要包括 Syslog、消息传递(例如 RabbitMQ)和 Filebeat;能够以多种方式输出数据,这些方式主要包括电子邮件、WebSockets 和 Elasticsearch。

     Kibana 是一个基于 Web 的友好图形界面,用于搜索、分析和可视化存储在 Elasticsearch 中的数据。它利用 Elasticsearch 的 RESTful 接口来检索数据,不仅允许用户定制仪表板视图,还允许他们以特殊的方式查询、汇总和过滤数据。

1.2、ELK 的架构

     下图是集中式日志管理 ELK 的架构图。出于性能的考虑,选择采用了 Beats+EK 的形式来组合搭建集中式日志管理系统。

    

                                                                           ELK 架构

二、配置方法

2.1、Elasticsearch

     Elasticsearch 部署完成后,需要更改 elasticsearch.yml 配置文件中的主要属性:cluster.name、node.name、network.host、discovery.zen.ping.unicast.hosts。其中,当部署 Elasticsearch 时是以集群模式部署的,那么 discovery.zen.ping.unicast.hosts 这个属性才会需要被配置。

2.2、Logstash

     通过配置 filebeat-pipeline.conf 文件中的 Input、Filter(可选)和 Output 来完成对数据的采集、过滤和输出,如下图所示:

     

                                        Logstash 配置

     然后以 filebeat-pipline.conf 文件启用 Logstash 服务,如下图所示:

      

                                                       启用 Logstash 服务

     备注:由于采用的是 Beats+EK 这个方案来实现集中式日志管理,所以不需要配 Logstash。

2.3、Kibana

     通过更改 kibana.yml 配置文件内容,用来连接正确的 Elasticsearch 服务地址,通常只需要配置 elasticsearch.url 属性即可,请见下图的第一个图。配置完成后,执行【bin/kibana &】命令启用 Kibana 服务,请见下图的第二个图。最后就可以在浏览器中打开 Kibana 管理页面(访问地址:http://139.198.13.12:4800/)来查看日志。

 

                                                       Kibana 的配置说明

 

                                                       启用 Kibana 服务

2.4、Filebeat

     filebeat.yml 配置文件内容主要包含 Filebeat、Output、Shipper(可选)、Logging(可选)四大部分,其中 Filebeat 主要定义监控的日志文件信息,Output 主要配置日志数据的输出目标。

     filebeat.yml 文件中,主要属性值的命名规范如下:

  1. fields.AppID 的命名规范是{AppID}。
  2. fields.AppName 的命名规范是{产品线英文名称}.{项目英文名称}(如果项目英文名称由 2 个或 2 个以上英文单词组成,则单词之间请用. 分隔)。
  3. 针对 index 属性需要注意的是:索引 (index) 所定义的值是{产品线英文名称},但英文字母必须全部小写,且不能以下划线开头,也不能包含逗号。

     filebeat.yml 的配置示例如下图所示:

      

                                                       filebeat.yml 的配置示例

     日志文件存放在哪台服务器中,filebeat 服务就部署在哪台服务器中。在 windows 操作系统上启用 filebeat 服务的步骤:

     1、在 windows 下开启搜索,输入 powershell,打开 powershell 所在文件位置,右键 powershell.exe 以管理员身份运行,进入 PowerShell 窗口。

     或者以管理员身份启动 cmd.exe,输入命令 powershell,进入 PowerShell 窗口 。

     注意:

     请务必确保以管理员身份打开 PowerShell 窗口,否则的话在以下第 2 步中运行.ps1 脚本时,就会报没有权限创建 filebeat 服务的错误:

     

     2、导向到 filebeat 执行程序所在目录,例如:cd 'E:ELKfilebeat-1.3.0-windows',然后执行命令:powershell.exe -ExecutionPolicy UnRestricted -File .install-service-filebeat.ps1。

     3、之后可以在 PowerShell 窗口中通过以下几个命令来查看、启用以及停止 filebeat 服务:

  • 查看 filebeat 服务状态:Get-Service filebeat
  • 启动 filebeat 服务:Start-Service filebeat
  • 停止 filebeat 服务:Stop-Service filebeat

 

三、使用方法

3.1、Log4Net 本地日志

     1、日志存放路径规范:{盘符}:Log4Net{AppID},其中 AppID 即为我们所做项目的六位编码。例如:D:Log4Net110107。

     2、log4net.config 配置内容:

 1 <?xml version="1.0" encoding="utf-8" ?>
 2 <configuration>
 3   <configSections>
 4     <section name="log4net" type="System.Configuration.IgnoreSectionHandler"/>
 5   </configSections>
 6   <appSettings>
 7   </appSettings>
 8   <log4net>
 9     <appender name="FileAppender" type="log4net.Appender.RollingFileAppender">
10       <!--AppID 150202,用于区分哪个应用的日志 -->     
11       <file value="D:Log4Net150202" />
12       <rollingStyle value="Composite" />
13       <datePattern value="yyyy-MM-dd&quot;.log&quot;" />
14       <staticLogFileName value="false" />
15       <param name="Encoding" value="utf-8" />  
16       <maximumFileSize value="100MB" />      
17       <countDirection value="0" />         
18       <maxSizeRollBackups value="100" />
19       <appendToFile value="true" />      
20       <layout type="log4net.Layout.PatternLayout">
21         <conversionPattern value="记录时间:%date 线程:[%thread] 日志级别:%-5level 记录类:%logger 日志消息:%message%newline" />
22       </layout>
23     </appender>
24     <logger name="FileLogger" additivity="false">    
25       <level value="DEBUG" />
26       <appender-ref ref="FileAppender" />
27     </logger>     
28   </log4net>
29 </configuration>

     注意了:

  • maximumFileSize 设置为 100MB;请给 countDirection 设置为大于 -1 的整数;maxSizeRollBackups 设置为 100。
  • 日志文件内容规范:日志文件中的每条日志内容要求是“记录时间 线程 日志级别 出错类 日志消息”。

3.2、日志查询

     基于 Kibana 查询日志(访问地址:http://139.198.13.12:4800/),主要通过以下几个步骤实现:

  1. 选择业务索引库。
  2. 选择日期范围。
  3. 输入待查找的内容实现精确查询,也可以通过输入 * 实现模糊查询。
  4. 点击每条日志的展开图标,可以查看该条日志的详细信息。
  5. 在 Kibana 界面的左侧区域,自上而下依次是索引库选择框、选中字段集合列表(Selected Fields)、可用字段集合列表(Available Fields)。通过添加可用字段到选中字段集合列表中来改变 Kibana 右侧的日志表格呈现。

     请参考如下图所示:

     

                                                                 Kibana 查询日志界面

四、Demo 下载及更多资料

 

转载地址:http://www.infoq.com/cn/articles/architecture-practice-03-elk?utm_source=infoq&utm_campaign=user_page&utm_medium=link

原文地址:https://www.cnblogs.com/supersnowyao/p/8375926.html