前言
根據 Promtheus 上的 Exporters and Integrations 頁面 所載,Prometheus 有釋出給 Elasticsearch 所用的 exporter ,也就是 elasticsearch_exporter 。
本文即是根據 elasticsearch_exporter 上的指示,主要介绍如何使用Grafana和Prometheus以及elasticsearch_exporter对Elasticsearch性能进行监控。
1.安装elasticsearch_exporter
1.1.下载
下载地址:https://github.com/justwatchcom/elasticsearch_exporter/releases
1.2.下载解压
下载elasticsearch_exporter-1.1.0.linux-amd64.tar.gz安装包并解压到/usr/local目录
wget https://github.com/justwatchcom/elasticsearch_exporter/releases/download/v1.1.0/elasticsearch_exporter-1.1.0.linux-amd64.tar.gz
tar -xvf elasticsearch_exporter-1.1.0.linux-amd64.tar.gz
cd elasticsearch_exporter-1.1.0.linux-amd64/
1.3.启动
- 进入根目录下,输入以下命令:
nohup ./elasticsearch_exporter --es.uri http://10.x.xx.100:9200 &
## 参数说明: --es.uri 默认http://localhost:9200,连接到的Elasticsearch节点的地址(主机和端口)。 这可以是本地节点(例如localhost:9200),也可以是远程Elasticsearch服务器的地址 --es.all 默认flase,如果为true,则查询群集中所有节点的统计信息,而不仅仅是查询我们连接到的节点。 --es.cluster_settings 默认flase,如果为true,请在统计信息中查询集群设置 --es.indices 默认flase,如果为true,则查询统计信息以获取集群中的所有索引。 --es.indices_settings 默认flase,如果为true,则查询集群中所有索引的设置统计信息。 --es.shards 默认flase,如果为true,则查询集群中所有索引的统计信息,包括分片级统计信息(意味着es.indices = true)。 --es.snapshots 默认flase,如果为true,则查询集群快照的统计信息。
- 输入以下命令查看日志是否启动成功:
tail -1000f nohup.out
- 启动成功后,可以访问 http://10.xx.xxx.100:9114/metrics/ ,看抓取的指标信息:
2.Prometheus配置
2.1.配置
修改prometheus组件的prometheus.yml加入elasticsearch节点:
2.2.启动验证
保存以后重启Prometheus,查看targets:
注:State=UP,说明成功
3.Grafana配置
3.1.下载仪表盘
下载地址:https://grafana.com/grafana/dashboards/2322
3.2.导入仪表盘
3.3.查看仪表盘
注:以上仪表盘导入后再结合自身业务修改过的
3.4.预警指标
序号 |
预警名称 |
预警规则 |
描述 |
1 |
集群状态预警 |
当集群状态不符合预期【健康状态为red或yellow】时进行预警 |
|
2 |
集群健康预警 |
当集群健康状态不符合预期【!=1】时进行预警 |
|
3 |
节点状态预警 |
当节点状态不符合预期【!=1】时进行预警 |
|
4 |
节点数预警 |
当集群中的节点数达到阈值【<5】时进行预警 |
|
5 |
断路器跳闸预警 |
当集群中的断路器达到阈值【>0】时进行预警 |
|
6 |
内存预警 |
当内存使用达到阈值【>80%】时进行预警 |
|
7 |
Gc耗时预警 |
当Gc耗时达到阈值【>0.3s】时进行预警 |
|
8 |
Gc次数预警 |
当每秒Gc次数达到阈值【>5】时进行预警 |
|
9 |
磁盘预警 |
当磁盘使用情况达到阈值【>80%】时进行预警 |
4.其它
- 注册为系统服务开机自动启动
## 准备配置文件 cat <<EOF >/etc/systemd/system/elasticsearch_exporter.service [Unit] Description=Elasticsearch stats exporter for Prometheus Documentation=Prometheus exporter for various metrics about ElasticSearch, written in Go. [Service] ExecStart=/usr/local/elasticsearch_exporter/elasticsearch_exporter --es.uri http://10.x.xx.100:9200 [Install] WantedBy=multi-user.target EOF ## 启动并设置为开机自动启动 systemctl daemon-reload systemctl enable elasticsearch_exporter.service systemctl stop elasticsearch_exporter.service systemctl start elasticsearch_exporter.service systemctl status elasticsearch_exporter.service
5.核心指标
5.1.集群健康和节点可用性
通过cluster healthAPI可以获取集群的健康状况,可以把集群的健康状态当做是集群平稳运行的重要信号,一旦状态发生变化则需要引起重视;API返回的一些重要参数指标及对应的prometheus监控项如下:
返回参数 | 备注 | metric name |
---|---|---|
status | 集群状态,green( 所有的主分片和副本分片都正常运行)、yellow(所有的主分片都正常运行,但不是所有的副本分片都正常运行)red(有主分片没能正常运行) | elasticsearch_cluster_health_status |
number_of_nodes/number_of_data_nodes | 集群节点数/数据节点数 | elasticsearch_cluster_health_number_of_nodes/data_nodes |
active_primary_shards | 活跃的主分片总数 | elasticsearch_cluster_health_active_primary_shards |
active_shards | 活跃的分片总数(包括复制分片) | elasticsearch_cluster_health_active_shards |
relocating_shards | 当前节点正在迁移到其他节点的分片数量,通常为0,集群中有节点新加入或者退出时该值会增加 | elasticsearch_cluster_health_relocating_shards |
initializing_shards | 正在初始化的分片 | elasticsearch_cluster_health_initializing_shards |
unassigned_shards | 未分配的分片数,通常为0,当有节点的副本分片丢失该值会增加 | elasticsearch_cluster_health_unassigned_shards |
number_of_pending_tasks | 只有主节点能处理集群级元数据的更改(创建索引,更新映射,分配分片等),通过pending-tasks API可以查看队列中等待的任务,绝大部分情况下元数据更改的队列基本上保持为零 |
elasticsearch_cluster_health_number_of_pending_tasks |
依据上述监控项,配置集群状态Singlestat面板,健康状态一目了然:
5.2.主机级别的系统和网络指标
metric name | description |
---|---|
elasticsearch_process_cpu_percent | Percent CPU used by process CPU使用率 |
elasticsearch_filesystem_data_free_bytes | Free space on block device in bytes 磁盘可用空间 |
elasticsearch_process_open_files_count | Open file descriptors ES进程打开的文件描述符 |
elasticsearch_transport_rx_packets_total | Count of packets receivedES节点之间网络入流量 |
elasticsearch_transport_tx_packets_total | Count of packets sentES节点之间网络出流量 |
如果CPU使用率持续增长,通常是由于大量的搜索或索引工作造成的负载。可能需要添加更多的节点来重新分配负载。
文件描述符用于节点间的通信、客户端连接和文件操作。如果打开的文件描述符达到系统的限制(一般Linux运行每个进程有1024个文件描述符,生产环境建议调大65535),新的连接和文件操作将不可用,直到有旧的被关闭。
如果ES集群是写负载型,建议使用SSD盘,需要重点关注磁盘空间使用情况。当segment被创建、查询和合并时,Elasticsearch会进行大量的磁盘读写操作。
节点之间的通信是衡量群集是否平衡的关键指标之一,可以通过发送和接收的字节速率,来查看集群的网络正在接收多少流量。
5.3.JVM内存和垃圾回收
metric name | description |
---|---|
elasticsearch_jvm_gc_collection_seconds_count | Count of JVM GC runs垃圾搜集数 |
elasticsearch_jvm_gc_collection_seconds_sum | GC run time in seconds垃圾回收时间 |
elasticsearch_jvm_memory_committed_bytes | JVM memory currently committed by area最大使用内存限制 |
elasticsearch_jvm_memory_used_bytes | JVM memory currently used by area 内存使用量 |
主要关注JVM Heap 占用的内存以及JVM GC 所占的时间比例,定位是否有 GC 问题。Elasticsearch依靠垃圾回收来释放堆栈内存,默认当JVM堆栈使用率达到75%的时候启动垃圾回收,添加堆栈设置告警可以判断当前垃圾回收的速度是否比产生速度快,若不能满足需求,可以调整堆栈大小或者增加节点。
5.4.搜索和索引性能
- 搜索请求
metric name | description |
---|---|
elasticsearch_indices_search_query_total | query总数 |
elsticsearch_indices_search_query_time_seconds | query时间 |
elasticsearch_indices_search_fetch_total | fetch总数 |
elasticsearch_indices_search_fetch_time_seconds | fetch时间 |
- 索引请求
metric name | description |
---|---|
elasticsearch_indices_indexing_index_total | Total index calls索引index数 |
elasticsearch_indices_indexing_index_time_seconds_total | Cumulative index time in seconds累计index时间 |
elasticsearch_indices_refresh_total | Total time spent refreshing in second refresh时间 |
elasticsearch_indices_refresh_time_seconds_total | Total refreshess refresh数 |
elasticsearch_indices_flush_total | Total flushes flush数 |
elasticsearch_indices_flush_time_seconds | Cumulative flush time in seconds累计flush时间 |
将时间和操作数画在同一张图上,左边y轴显示时间,右边y轴显示对应操作计数,ops/time查看平均操作耗时判断性能是否异常。通过计算获取平均索引延迟,如果延迟不断增大,可能是一次性bulk了太多的文档。
Elasticsearch通过flush操作将数据持久化到磁盘,如果flush延迟不断增大,可能是磁盘IO能力不足,如果持续下去最终将导致无法索引数据。
5.5.资源饱和度
metric name | description |
---|---|
elasticsearch_thread_pool_queue_count | Thread Pool operations queued 线程池中排队的线程数 |
elasticsearch_thread_pool_rejected_count | Thread Pool operations rejected 线程池中被拒绝的线程数 |
elasticsearch_indices_fielddata_memory_size_bytes | Field data cache memory usage in bytes fielddata缓存的大小 |
elasticsearch_indices_fielddata_evictions | Evictions from filter cache fielddata缓存的驱逐次数 |
elasticsearch_indices_filter_cache_memory_size_bytes | Filter cache memory usage in bytes 过滤器高速缓存的大小 |
elasticsearch_indices_filter_cache_evictions | Evictions from filter cache 过滤器缓存的驱逐次数 |
elasticsearch_cluster_health_number_of_pending_tasks | Cluster level changes which have not yet been executed 待处理任务数 |
elasticsearch_indices_get_missing_total | Total get missing 丢失文件的请求数 |
elasticsearch_indices_get_missing_time_seconds | Total time of get missing in seconds 文档丢失的请求时间 |
通过采集以上指标配置视图,Elasticsearch节点使用线程池来管理线程对内存和CPU使用。可以通过请求队列和请求被拒绝的情况,来确定节点是否够用。
每个Elasticsearch节点都维护着很多类型的线程池。一般来讲,最重要的几个线程池是搜索(search),索引(index),合并(merger)和批处理(bulk)。
每个线程池队列的大小代表着当前节点有多少请求正在等待服务。一旦线程池达到最大队列大小(不同类型的线程池的默认值不一样),后面的请求都会被线程池拒绝。
参考: