Kubernetes部署ELK并使用Filebeat收集容器日志 |
您所在的位置:网站首页 › filebeat收集容器日志方案 › Kubernetes部署ELK并使用Filebeat收集容器日志 |
本文的试验环境为CentOS 7.3,Kubernetes集群为1.11.2,安装步骤参见kubeadm安装kubernetes V1.11.1 集群 1. 环境准备Elasticsearch运行时要求vm.max_map_count内核参数必须大于262144,因此开始之前需要确保这个参数正常调整过。 代码语言:javascript复制$ sysctl -w vm.max_map_count=262144也可以在ES的的编排文件中增加一个initContainer来修改内核参数,但这要求kublet启动的时候必须添加了--allow-privileged参数,但是一般生产中不会给加这个参数,因此最好在系统供给的时候要求这个参数修改完成。 ES的配置方式使用Cluster Update Setting API动态修改配置使用配置文件的方式,配置文件默认在 config 文件夹下,具体位置取决于安装方式。 elasticsearch.yml 配置Elasticsearchjvm.options 配置ES JVM参数log4j.properties 配置ES logging参数使用Prompt方式在启动时输入最常使用的配置方式为使用配置文件,ES的配置文件为yaml格式,格式要求和Kubernetes的编排文件一样。配置文件中可以引用环境变量,例如node.name: ${HOSTNAME} ES的节点ES的节点Node可以分为几种角色: Master-eligible node,是指有资格被选为Master节点的Node,可以统称为Master节点。设置node.master: trueData node,存储数据的节点,设置方式为node.data: true。Ingest node,进行数据处理的节点,设置方式为node.ingest: true。Trible node,为了做集群整合用的。对于单节点的Node,默认是master-eligible和data,对于多节点的集群,就要仔细规划每个节点的角色。 2. 单实例方式部署ELK单实例部署ELK的方法非常简单,可以参考我Github上的elk-single.yaml文件,整体就是创建一个ES的部署,创建一个Kibana的部署,创建一个ES的Headless服务,创建一个Kiana的NodePort服务,本地通过节点的NodePort访问Kibana。 代码语言:javascript复制[root@devops-101 ~]# curl -L -O https://raw.githubusercontent.com/cocowool/k8s-go/master/elk/elk-single.yaml [root@devops-101 ~]# kubectl apply -f elk-single.yaml deployment.apps/kb-single created service/kb-single-svc unchanged deployment.apps/es-single created service/es-single-nodeport unchanged service/es-single unchanged [root@devops-101 ~]# kubectl get all NAME READY STATUS RESTARTS AGE pod/es-single-5b8b696ff8-9mqrz 1/1 Running 0 26s pod/kb-single-69d6d9c744-sxzw9 1/1 Running 0 26s NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE service/es-single ClusterIP None 9200/TCP,9300/TCP 19m service/es-single-nodeport NodePort 172.17.197.237 9200:31200/TCP,9300:31300/TCP 13h service/kb-single-svc NodePort 172.17.27.11 5601:32601/TCP 19m service/kubernetes ClusterIP 172.17.0.1 443/TCP 14d NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE deployment.apps/es-single 1 1 1 1 26s deployment.apps/kb-single 1 1 1 1 26s NAME DESIRED CURRENT READY AGE replicaset.apps/es-single-5b8b696ff8 1 1 1 26s replicaset.apps/kb-single-69d6d9c744 1 1 1 26s可以看看效果如下: 3. 集群部署ELK3.1 不区分集群中的节点角色代码语言:javascript复制[root@devops-101 ~]# curl -L -O https://raw.githubusercontent.com/cocowool/k8s-go/master/elk/elk-cluster.yaml [root@devops-101 ~]# kubectl apply -f elk-cluster.yaml deployment.apps/kb-single created service/kb-single-svc created statefulset.apps/es-cluster created service/es-cluster-nodeport created service/es-cluster created效果如下 3.2 区分集群中节点角色如果需要区分节点的角色,就需要建立两个StatefulSet部署,一个是Master集群,一个是Data集群。Data集群的存储我这里为了简单使用了emptyDir,可以使用localStorage或者hostPath,关于存储的介绍,可以参考Kubernetes存储系统介绍。这样就可以避免Data节点在本机重启时发生数据丢失而重建索引,但是如果发生迁移的话,如果想保留数据,只能采用共享存储的方案了。具体的编排文件在这里elk-cluster-with-role 代码语言:javascript复制[root@devops-101 ~]# curl -L -O https://raw.githubusercontent.com/cocowool/k8s-go/master/elk/elk-cluster-with-role.yaml [root@devops-101 ~]# kubectl apply -f elk-cluster-with-role.yaml deployment.apps/kb-single created service/kb-single-svc created statefulset.apps/es-cluster created statefulset.apps/es-cluster-data created service/es-cluster-nodeport created service/es-cluster created [root@devops-101 ~]# kubectl get all NAME READY STATUS RESTARTS AGE pod/es-cluster-0 1/1 Running 0 13s pod/es-cluster-1 0/1 ContainerCreating 0 2s pod/es-cluster-data-0 1/1 Running 0 13s pod/es-cluster-data-1 0/1 ContainerCreating 0 2s pod/kb-single-5848f5f967-w8hwq 1/1 Running 0 14s NAME TYPE CLUSTER-IP EXTERNAL-IP PORT(S) AGE service/es-cluster ClusterIP None 9200/TCP,9300/TCP 13s service/es-cluster-nodeport NodePort 172.17.207.135 9200:31200/TCP,9300:31300/TCP 13s service/kb-single-svc NodePort 172.17.8.137 5601:32601/TCP 14s service/kubernetes ClusterIP 172.17.0.1 443/TCP 16d NAME DESIRED CURRENT UP-TO-DATE AVAILABLE AGE deployment.apps/kb-single 1 1 1 1 14s NAME DESIRED CURRENT READY AGE replicaset.apps/kb-single-5848f5f967 1 1 1 14s NAME DESIRED CURRENT AGE statefulset.apps/es-cluster 3 2 14s statefulset.apps/es-cluster-data 2 2 13s效果如下 4. 使用Filebeat监控收集容器日志使用Logstash,可以监测具有一定命名规律的日志文件,但是对于容器日志,很多文件名都是没有规律的,这种情况比较适合使用Filebeat来对日志目录进行监测,发现有更新的日志后上送到Logstash处理或者直接送入到ES中。 每个Node节点上的容器应用日志,默认都会在/var/log/containers目录下创建软链接,这里我遇到了两个小问题,第一个就是当时挂载hostPath的时候没有挂载软链接的目的文件夹,导致在容器中能看到软链接,但是找不到对应的文件;第二个问题是宿主机上这些日志权限都是root,而Pod默认用filebeat用户启动的应用,因此要单独设置下。 效果如下 具体的编排文件可以参考我的Github主页,提供了Deployment方式的编排和DaemonSet方式的编排。 对于具体日志的格式,因为时间问题没有做进一步的解析,这里如果有朋友做过,可以分享出来。 主要的编排文件内容摘抄如下。 代码语言:javascript复制kind: List apiVersion: v1 items: - apiVersion: v1 kind: ConfigMap metadata: name: filebeat-config labels: k8s-app: filebeat kubernetes.io/cluster-service: "true" app: filebeat-config data: filebeat.yml: | processors: - add_cloud_metadata: filebeat.modules: - module: system filebeat.inputs: - type: log paths: - /var/log/containers/*.log symlinks: true # json.message_key: log # json.keys_under_root: true output.elasticsearch: hosts: ['es-single:9200'] logging.level: info - apiVersion: extensions/v1beta1 kind: DaemonSet metadata: name: filebeat labels: k8s-app: filebeat kubernetes.io/cluster-service: "true" spec: template: metadata: name: filebeat labels: app: filebeat k8s-app: filebeat kubernetes.io/cluster-service: "true" spec: containers: - image: docker.elastic.co/beats/filebeat:6.4.0 name: filebeat args: [ "-c", "/home/filebeat-config/filebeat.yml", "-e", ] securityContext: runAsUser: 0 volumeMounts: - name: filebeat-storage mountPath: /var/log/containers - name: varlogpods mountPath: /var/log/pods - name: varlibdockercontainers mountPath: /var/lib/docker/containers - name: "filebeat-volume" mountPath: "/home/filebeat-config" nodeSelector: role: front volumes: - name: filebeat-storage hostPath: path: /var/log/containers - name: varlogpods hostPath: path: /var/log/pods - name: varlibdockercontainers hostPath: path: /var/lib/docker/containers - name: filebeat-volume configMap: name: filebeat-config 参考资料:Elasticsearch cluster on top of Kubernetes made easyInstall Elasticseaerch with DockerDocker ElasticsearchRunning Kibana on DockerConfiguring ElasticsearchElasticsearch NodeLoggin Using Elasticsearch and kibanaConfiguring Logstash for DockerRunning Filebeat on DockerFilebeat中文指南Add experimental symlink support |
今日新闻 |
点击排行 |
|
推荐新闻 |
图片新闻 |
|
专题文章 |
CopyRight 2018-2019 实验室设备网 版权所有 win10的实时保护怎么永久关闭 |