ELK日志分析系统 超详细!!理论+实操讲解!! | 您所在的位置:网站首页 › 查询日志工具怎么用 › ELK日志分析系统 超详细!!理论+实操讲解!! |
文章目录
一、ELK日志分析系统简介1.1日志处理的步骤1.2 ELK日志分析系统三部分1.3日志服务器(一般)
二、Elasticsearch介绍2.1 Elasticsearch概述2.2 Elasticsearch的概念2.3 为什么要采用分片2.4 开启分片副本的主要原因
三:Logstash介绍3.1 Logstash概述3.2 Logstash主要组件
四:Kibana介绍4.1 Kibana概述4.2 Kibana主要功能
五:实操环境:实验步骤
一、ELK日志分析系统简介
1.1日志处理的步骤
1.将APP servers的日志进行集中化管理到Logstash agent 2.将日志格式化(Logstash)并输出到Elasticsearch cluster 3.对格式化后的数据进行索引和存储(Elasticsearch) 4.前端数据的展示(Kibana) 5.可以在线查看界面化展示 1.2 ELK日志分析系统三部分 ElasticsearchLogstashKibanaLogstash 收集APP server产生的log,然后存放到Elasticsearch集群节点中 kibana从Elasticsearch集群节点中查询数据生成图表,再返回给Brower 1.提供了一个分布式多用户能力的全文搜索引擎 2.是一个基于Lucene的搜索服务器 3.基于restful web接口 4.使用java开发 5.作为apache许可条款下的开放源码发布,是第二流行的企业搜索引擎 6.被设计用于云计算中,能够达到实时搜索、稳定、可靠、快速、安装实用方便的需求 2.2 Elasticsearch的概念接近实时(NRT) Elasticsearch是一个接近即时的搜索平台,从索引一个文档知道这个文档能够被搜索到的过程中有一个轻微的延迟(通常是1S) 集群(cluster) 由一个及其以上的节点组织在一起,它们共同持有整个数据,并一起提供索引和搜索功能 其中一个节点为主节点,这个节点是可以通过选举产生,并提供跨节点的联合索引和搜索的功能 集群有一个唯一标识的名字,默认是elaticsearch 集群名字很重要,每个节点是基于集群名字加入到其集群中;因此,要确保集群的唯一性,在不同环境中使用不同的集群名字 一个集群只可以有一个节点,建议在配置elasticsearch时,配置成集群模式 节点(node) 节点就是一台单一的服务器,是集群的一部分,存储数据并参与集群的索引和搜索功能像集群一样,节点之间可是通过名字来标识区分,默认是在节点启动时随机分配的字符名 当然,你可以自己定义,该名字很重要,起到在集群中定位到对应的节点 节点可以通过指定集群名字来加入到集群中,默认情况下,每个节点被设置成加入到elasticsearch集群。 如果启动了多个节点,假设能够自动发现对方,他们将会自动组建一个名为elastisearch的集群 索引(index)——索引(库)——类型(表)——文档(记录) 一个索引就是一个拥有几分相似特征的文档的集合比如说,你可以有一个客户数据的索引、一个产品目录的索引、还有一个订单数据的索引 一个索引用一个名字来标识(必须全部是小写字母组合),并且当我们要对相应的索引中的文档进行索引、收缩、更新和删除的时候,都要用到这个名字 在一个集群中,可以定义多个索引 类型(type) 在一个索引中,你可以定义一种或多种类型一个类型是你的索引的一个逻辑上的分类分区,其寓意完全由你来定义 通常,会为具有一组共同字段的文档定义一个类型 比如:我们假设运营一个博客平台并且将所有的数据存储到一个索引中,在这个索引中,你可以为用户数据定义一个类型,为博客数据定义一个类型,也可以为评论数据定义另一个类型 文档(Document) 一个文档是一个可被索引的基础信息单元比如:你可以拥有一个客户的文档,某一个产品的文档;文档以JSON(Javascript Object Notation)格式来表示,json是一个通用的互联网数据交互模式 在一个index/type内,你可以存储任意多的文档 注意:虽然一个文档在物理上位于一个索引内,但是实际上一个文档必须在一个索引内可以被索引和分配一个类型 分片和副本 (shards & replicas) 在实际情况下,索引存储的数据可能超过单个节点的硬件设置比如十亿个文档需要1TB空间存储,可能不适合存储在单个节点上,读写被限制在单个节点;从单个节点搜索请求也太慢了 为了解决这个问题,elasticsearch集群提供将索引分割开,进行分片的功能 当创建索引时,可以定义想要分片的数量 每一个分片就是一个全功能的独立的索引,可以位于集群中的任何节点上 2.3 为什么要采用分片1.可以进行水平分割横向扩展,增大存储量 2.分布式并行跨分片操作,提高性能和吞吐量 2.4 开启分片副本的主要原因1.高可用性,以应对分片或者节点故障,处于这个原因,分片副本要在不同节点上 2.提高IO性能,增大吞吐量,搜索可以并行在所有副本执行 1.总之,每个索引可以被分成多个分片,一个索引也可以被复制0次或者多次 2.一旦复制了,每个索引就有了主分片(可以作为复制源的原始分片)和复制分片(主分片的拷贝)之分 3.分片和副本的数量可以在索引创建的时候指定,在索引创建之后,你可以在任何时候动态改变副本的数量,但是你事后无法改变分片的数量 4.默认情况下,Elasticsearch中的每个索引被分片为5个主分片和1个副本,这意味着,如果你的集群中至少有两个节点的情况下,你的索引将会有5个主分片和另外5个副本分片(1个完全拷贝),这样的话每个索引总共就有10个分片 三:Logstash介绍 3.1 Logstash概述 一款强大的数据处理工具,可以实现数据传输、格式处理、格式化输出工作思路:数据输入(collect)、数据加工(如过滤、改写等enrich)以及数据输出(transport)由LRuby语言编写,基于消息(message-based)的简单架构,并运行在Java虚拟机(JVM)上。不同于分离的代理端(agent)或主机端(server),Logstash可配置单一的代理端(agent)与其他开源软件结合,以实现不同的功能 3.2 Logstash主要组件 Shipper:日志收集 负责监控本地日志文件的变化,及时把日志文件的最新内容收集起来通常,远程代理端(agent)只需要运行这个组件即可 Indexer:日志存储 负责接受日志并写入到本地文件 Broker:日志hub 负责链接多个shipper和对应数目的indexer Search and Storage 允许对事件进行搜索和存储 Web Interface 基于web的展示界面 以上组件在lLogstash架构中可以独立部署,因此提供了很好的集群扩展性 四:Kibana介绍 4.1 Kibana概述 一个针对Elasticsearch的开源分析及可视化平台搜索、查看存储在Elasticsearch索引中的数据通过各种图标进行高级数据分析及展示让海量数据更容易理解操作简单,基于浏览器地用户界面就可以快速创建仪表板(dashboard)实时显示Elasticsearch查询动态设置安装Kibana非常简单,无需编写代码,几分钟内就可以完成Kibana安装并启动Elasticsearch监测 4.2 Kibana主要功能 Elasticsearch无缝之集成。Kibana架构为Elasticsearch定制,可以将任何结构化和非结构化加入Elasticsearch索引,Kibana还充分利用了Elasticsearch强大的搜索和分析功能整合数据,复杂数据分析;根据海量数据创建柱形图、折线图、三代泥土、直方图、饼图和地图;提升了Elasticsearch地分析能力,更够更加智能化地分析数据,执行数学转化并且根据要求对数据切割分块让更多团队成员受益;强大的数据可视化让各个业务岗位都可以直观了解数据接口灵活,分享更容易;使用Kibana可以更加方便地创建保存和分享数据,并将可视化数据快速交流配置简单,可视化多数据源;Kibana地配置和启动非常简单,用户体验友好,Kibana自带web服务器,可以快速运行;kibana可以非常方便地把来自logstash、ES-hadoop、Beats或第三方技术整合到Elasticsearch,支持地第三方技术包括apacheflume、fluentd等简单数据导出;Kibana可以方便地导出感兴趣地数据,与其他数据融合后快速建模分析,发现新结果 五:实操 环境: IP地址节点安装20.0.0.101node1elasticsearch、node-v8.2.1.tar.gz、phantomjs20.0.0.102node2elasticsearch、node-v8.2.1.tar.gz20.0.0.103masterkibana、apache、logstash 实验步骤node1 配置 关闭防火墙与核心防护 [root@localhost ~]# hostnamectl set-hostname node1 [root@localhost ~]# su [root@node1 ~]# systemctl stop firewalld [root@node1 ~]# setenforce 02.在两个elk节点上配置域名解析,通过/etc/hosts文件实现 [root@node2 ~]# vi /etc/hosts3.安装elasticsearch到opt目录 [root@node1 ~]# cd /opt [root@node1 opt]# rz -E rz waiting to receive. [root@node1 opt]# rpm -ivh elasticsearch-5.5.0.rpm
5.更改elasticsearch主配置文件 [root@node1 opt]# cp /etc/elasticsearch/elasticsearch.yml /etc/elasticsearch/elasticsearch.yml.bak [root@node1 opt]# vim /etc/elasticsearch/elasticsearch.yml 17 cluster.name: my-elk-cluster ###集群名字 23 node.name: node1 ####节点名字 33 path.data: /data/elk_data ##数据存放路径 37 path.logs: /var/log/elasticsearch/ ###日志文存放目录 43 bootstrap.memory_lock: false ###不在启动的时候锁定内存 55 network.host: 0.0.0.0 ###提供服务绑定的IP地址,0.0.0.0代表所有地址 59 http.port: 9200 ####监听端口9200 68 discovery.zen.ping.unicast.hosts: ["node1", "node2"] ####集群发现通过单播实现
10.安装phantomjs——前端框架,上传到/usr/local/src目录下 [root@node1 node-v8.2.1]# cd /usr/local/src [root@node1 src]# ls [root@node1 src]# rz -E rz waiting to receive. [root@node1 src]# ls phantomjs-2.1.1-linux-x86_64.tar.bz2 [root@node1 src]# tar jxvf phantomjs-2.1.1-linux-x86_64.tar.bz2 ## 解压phantomjs压缩包 [root@node1 src]# cd phantomjs-2.1.1-linux-x86_64/bin [root@node1 bin]# cp phantomjs /usr/local/bin //复制前端框架到bin目录下11.安装elasticsearch-head.tar.gz 数据可视化工具 [root@node1 bin]# cd /usr/local/src [root@node1 src]# rz -E rz waiting to receive. [root@node1 src]# ls elasticsearch-head.tar.gz phantomjs-2.1.1-linux-x86_64.tar.bz2 phantomjs-2.1.1-linux-x86_64 [root@node1 src]# tar zxvf elasticsearch-head.tar.gz [root@node1 src]# cd elasticsearch-head/ [root@node1 elasticsearch-head]# npm install
3.输入采用标准输入,输出采用标准输出 [root@master ~]# logstash -e 'input { stdin{} } output { stdout{} }' [root@master ~]# logstash -e 'input { stdin{} } output { stdout{codec=>rubydebug } }' www.kgc.com ###输入内容 www.baidu.com ###输入
5.登录真机打开浏览器输入http://20.0.0.101:9100/ 查看索引信息 会增加如下图所示的索引
7.登录真机打开浏览器输入http://20.0.0.101:9100/ 查看索引信息 会增加如下图所示的索引 9.修改kibana配置文件 [root@kibana kibana]# vi kibana.yml ###把该配置文件中修改如下 2 server.port: 5601 ###kibana打开的端口 7 server.host: "0.0.0.0" ####kibana侦听的地址 21 elasticsearch.url: "http://20.0.0.101:9200" #####和elasticserach建立联系 30 kibana.index: ".kibana" ##在elasticsearch中添加.kibana索引 [root@kibana kibana]# systemctl start kibana.service ##启动kibana服务 [root@kibana kibana]# systemctl enable kibana.service ##开机自启kibana服务 Created symlink from /etc/systemd/system/multi-user.target.wants/kibana.service to /etc/systemd/system/kibana.service.Kibana 是为 Elasticsearch设计的开源分析和可视化平台。你可以使用 Kibana 来搜索,查看存储在Elasticsearch 索引中的数据并与之交互。你可以很容易实现高级的数据分析和可视化,以图标的形式展现出来。 10.登录真机 浏览器输入20.0.0.103:5601 创建一个索引名:system-* ###这是对接系统日志文件 如下图所示 对接apache主机的apache日志文件 [root@master opt]# cd /etc/logstash/conf.d/ [root@master conf.d]# touch apache_log.conf [root@master conf.d]# vi apache_log.conf input { file{ path => "/etc/httpd/logs/access_log" type => "access" start_position => "beginning" } file{ path => "/etc/httpd/logs/error_log" type => "error" start_position => "beginning" } } output { if [type] == "access" { elasticsearch { hosts => ["20.0.0.101:9200"] index => "apache_access-%{+YYY.MM.dd}" } } if [type] == "error" { elasticsearch { hosts => ["20.0.0.101:9200"] index => "apache_error-%{+YYY.MM.dd}" } } } [root@master conf.d]# /usr/share/logstash/bin/logstash -f apache_log.conf11.登录主机 打开输入http://20.0.0.101:9100 查看索引信息,能发现apache_error apache_access 打开浏览器输入http://20.0.0.101:5601 点击左边的management选项——》index patterns——》create index pattern——分别创建apache_error-*和 apache_access-*的索引 |
CopyRight 2018-2019 实验室设备网 版权所有 |