Docker安装ELK 分布式日志分析系统
一、简介
ELK(分布式日志分析系统)包含ElasticSearch(可简称ES),Logstash,Kibana三个核心组件。
ElasticSearch是实时全文搜索和分析引擎,提供搜集、分析、存储数据三大功能,对外提供REST和java api,可扩展性的分布式系统。
Logstash是一个用来搜集、分析、过滤日志的工具,几乎支持所有类型的日志,能够接收多种来源的日志,包括syslog、mq,并且能够输出到多种介质中,包括es,邮件等等。
Kibana是一个基于Web的图形界面,用于搜索、分析和可视化存储在 Elasticsearch指标中的日志数据。它利用Elasticsearch的REST接口来检索数据,不仅允许用户定制仪表板视图,还允许用户使用es语法进行操作。
二、环境准备
- VMWare版本:15.5.5
- 操作系统:CentOS7
- Docker版本:19.03.12
- ELK镜像准备:
# 建议拉取相同版本的ELK镜像
docker pull elasticsearch:7.8.0
docker pull logstash:7.8.0
docker pull kibana:7.8.0
# ElasticSearch-Head是一个用于查看ElasticSearch相关信息的管理界面
docker pull mobz/elasticsearch-head:5-alpine
三、安装操作:
1. 安装ElasticSearch(如需安装IK中文分词器,可参考这里)
docker run -d -p 5601:5601 --link=elasticsearch-ik:elasticsearch -v /docker/kibana/kibana.yml:/usr/share/kibana/config/kibana.yml --name kibana_es kibana:7.8.0
docker run -d --restart=always --log-driver json-file --log-opt max-size=100m --log-opt max-file=2 --name kibana_es -p 5601:5601 -v /docker/kibana/kibana.yml:/usr/share/kibana/config/kibana.yml kibana:7.8.0
-
创建容器并启动:
docker run -d -p 9200:9200 -p 9300:9300 --name elasticsearch elasticsearch:7.8.0
9300:集群节点间通讯接口
9200:客户端访问接口
discovery.type=single-node :表示单节点启动 -
查看实时日志:
docker logs -f elasticsearch
,发现ES启动失败 -
错误处理:
ERROR: [2] bootstrap checks failed
[1]: max virtual memory areas vm.max_map_count [65530] is too low, increase to at least [262144]
[2]: the default discovery settings are unsuitable for production use; at least one of [discovery.seed_hosts, discovery.seed_providers, cluster.initial_master_nodes] must be configured
错误[1]的解决方法:
- 修改sysctl配置:
vi /etc/sysctl.conf
- 添加内容:
vm.max_map_count=655360
- 保存修改,执行:
sysctl -p
错误[2]的解决方法:
- 删除启动失败的ES容器:`docker rm elasticsearch
- 在创建容器命令中加入指定discovery.type=single-node:
docker run -d -p 9200:9200 -p 9300:9300 -e "discovery.type=single-node" --name elasticsearch elasticsearch:7.8.0
- 执行命令后查看容器运行情况:
docker ps
,及实时日志:docker logs -f elasticsearch
① 验证ElasticSearch
执行:curl localhost:9200
,显示如下即启动成功
[root@localhost docker]# curl localhost:9200
{
"name" : "9f832bbeb44a",
"cluster_name" : "docker-cluster",
"cluster_uuid" : "8GAjHyQEToO6PMl8dDoemQ",
"version" : {
"number" : "7.8.0",
"build_flavor" : "default",
"build_type" : "docker",
"build_hash" : "757314695644ea9a1dc2fecd26d1a43856725e65",
"build_date" : "2020-06-14T19:35:50.234439Z",
"build_snapshot" : false,
"lucene_version" : "8.5.1",
"minimum_wire_compatibility_version" : "6.8.0",
"minimum_index_compatibility_version" : "6.0.0-beta1"
},
"tagline" : "You Know, for Search"
}
[注]:容器启动成功后,可进入容器内部的/config/elasticsearch.yml进行其他配置
② 其他情况(没碰到,记录仅提供问题解决思路)
- 如果报如下错误
Java HotSpot(TM) 64-Bit Server VM warning: INFO:
os::commit_memory(0x0000000085330000, 2060255232, 0) failed;
error=’Cannot allocate memory’ (errno=12)
这是由于elasticsearch:tag 默认分配 jvm 空间太大,内存不足以分配导致。
解决方法就是修改jvm空间分配:
- 查找 jvm.options 文件:
find /var/lib/ -name jvm.options
- 修改查找到的 jvm.options 文件:(均改为 512m)
vi /var/lib/docker/overlay2/1ff5019ead459b4d090b4a72e95e3cc17dc7a8432ce0051e470a3c99ac35c4a6/diff/usr/share/elasticsearch/config/jvm.options
# Xms represents the initial size of total heap space
# Xmx represents the maximum size of total heap space
-Xms512m
-Xmx512m
################################################################
## Expert settings
################################################################
- 保存退出,再次运行创建运行elasticsearch命令,成功启动。
2. 安装kibana
尝试执行docker run -d -e ELASTICSEARCH_URL=http://192.168.0.199:9200 --name kibana -p 5601:5601 kibana:7.8.0
发现加了-e ELASTICSEARCH_URL=http://192.168.0.199:9200
并没有什么卵用
还是中规中矩启动:
docker run -d -p 5601:5601 --name kibana_es kibana:7.8.0
查看启动日志:docker logs -f kibana_es
反复出现以下字样
{"type":"log","@timestamp":"2020-07-29T09:10:35Z","tags":["warning","elasticsearch","admin"],"pid":6,"message":"Unable to revive connection: http://elasticsearch:9200/"}
{"type":"log","@timestamp":"2020-07-29T09:10:35Z","tags":["warning","elasticsearch","admin"],"pid":6,"message":"No living connections"}
进入kibana容器内
docker exec -it kibana_es bash
vi config/kibana.yml
#
# ** THIS IS AN AUTO-GENERATED FILE **
#
# Default Kibana configuration for docker target
server.name: kibana
server.host: "0"
# 原:elasticsearch.hosts: [ "http://elasticsearch:9200" ]
# 新:(elasticsearch服务所在的ip)
elasticsearch.hosts: [ "http://192.168.0.199:9200" ]
monitoring.ui.container.elasticsearch.enabled: true
保存更改:wq+enter,退出容器exit,重启容器docker restart kibana_es
访问地址:http://127.0.0.1:5601。如果你的kibana版本高于ES的版本,访问后会报错 "Kibana server is not ready yet"。因此在安装前务必下载版本比ES低。
vi config/kibana.yml
elasticsearch.hosts: [ "http://192.168.0.199:9200" ]
docker restart
docker run -d -p 5601:5601 --name kibana --link elasticsearch:elasticsearch kibana
docker run -d -p 5601:5601 --name kibana_es --link elasticsearch-ik:elasticsearch kibana:7.8.0
3. 安装Logstash
# 创建并启动logstash
docker run -d -p 5044:5044 --name es_logstash logstash:7.8.0
# 进入容器
docker exec -it es_logstash bash
# 编辑配置
vi config/logstash.yml
# 添加配置,保存并重启
http.host: "0.0.0.0"
xpack.monitoring.elasticsearch.url: http://192.168.0.199:9200
xpack.monitoring.elasticsearch.username: elastic
xpack.monitoring.elasticsearch.password: elastic
修改pipeline下的logstash.conf文件
docker exec -it es_logstash /bin/bash
ls
bin config CONTRIBUTORS data Gemfile Gemfile.lock lib LICENSE logstash-core logstash-core-plugin-api modules NOTICE.TXT pipeline tools vendor
cd pipeline
ls
logstash.conf
vi logstash.conf
#原来的
#========================================
#input {
# beats {
# port => 5044
# }
#}
#output {
# stdout {
# codec => rubydebug
# }
#}
#========================================
#添加的部分
input {
file {
codec=> json
path => "/usr/local/*.json"
}
}
filter {
#定义数据的格式
grok {
match => { "message" => "%{DATA:timestamp}|%{IP:serverIp}|%{IP:clientIp}|%{DATA:logSource}|%{DATA:userId}|%{DATA:reqUrl}|%{DATA:reqUri}|%{DATA:refer}|%{DATA:device}|%{DATA:textDuring}|%{DATA:duringTime:int}||"}
}
}
output {
elasticsearch{
hosts=> "http://192.168.0.199:9200"
}
}
4. 安装ElasticSearch-Head
- 执行:
docker run -d --name es_admin -p 9100:9100 mobz/elasticsearch-head:5-alpine
- 访问http://ip:9100,进入界面点击连接发现连接不上ES
- 在ES容器配置跨域处理即可连接
# 处理方式1:在创建ES容器时直接指定跨域配置
docker run -d -p 9200:9200 -p 9300:9300 -e "http.cors.enabled=true" -e "http.cors.allow-origin=*" -e "discovery.type=single-node" --name elasticsearch elasticsearch:7.8.0
# 处理方式2:进入ES容器内,修改/config/elasticsearch.yml
# 进入ES容器内
docker exec -it elasticsearch bash
# 编辑config/elasticsearch.yml
vi config/elasticsearch.yml
# config/elasticsearch.yml添加跨域配置
http.cors.enabled: true
http.cors.allow-origin: "*"
# 重启ES容器
docker restart elasticsearch
博客参考:
https://www.jianshu.com/p/3c90f144775f
https://www.jianshu.com/p/a0bd70301eec
https://www.jianshu.com/p/66db4d660d9c
https://blog.csdn.net/devcloud/article/details/99681107(最简单运行)
elasticsearch.yml配置详解https://www.jianshu.com/p/c6f3368c13a3