一、 索引优化
- 批量写入
- 多线程写入,写入线程数一般和机器数相当
- 尽量避免使用nested或 parent/child,能不用就不用;
- 如果一定要使用nested fields,保证nested fields字段不能过多,目前ES默认限制是50。
- 避免使用动态值作字段(key),动态递增的mapping,会导致集群崩溃;
- 不需要做模糊检索的字段使用 keyword类型代替 text 类型,
- 对于那些不需要聚合和排序的索引字段禁用Doc values。
例如:PUT my_index
{
"mappings": {
"my_type": {
"properties": {
"mystring": {
"type": "keyword",
"doc_values": false
}
}
}
}
}
消极影响:sort、aggregate、access the field from script将会无法使用
积极影响:节省磁盘空间
- 尽量使用keyword替代一些long或者int之类,term查询总比range查询好
- 关闭不需要查询字段的_source功能,不将此存储仅ES中,以节省磁盘空间。
例如:
PUT index
{
"mappings": {
"_source": {
"enabled":false //全部关闭
"includes": ["field1", "field2"], // 包含的字段
"excludes": ["field3", "field4"] // 不包含的字段
}
}
}
- 评分消耗资源,如果不需要可使用filter过滤来达到关闭评分功能,score则为0,如果使用constantScoreQuery则score为1。
当我们不关心检索词频率TF(Term Frequency)对搜索结果排序的影响时,
可以使用constant_score将查询语句query或者过滤语句filter包装起来。
{
"query":{
"bool":{
"should": [
{ "constant_score": {
"query": { "match": { "description": "wifi" }}
}},
]
}
}
}
因为不考虑检索词频率,所以匹配文档的score等于该文档含有的不同检索词汇的个数
二、 查询优化
- 使用批量请求,批量索引的效率肯定比单条索引的效率要高。
- query_string 或 multi_match 的查询字段越多, 查询越慢。可以在 mapping 阶段,利用 copy_to 属性将多字段的值索引到一个新字段,multi_match时,用新的字段查询。
- 日期字段的查询, 尤其是用now 的查询实际上是不存在缓存的,因此, 可以从业务的角度来考虑是否一定要用now, 毕竟利用 query cache 是能够大大提高查询效率的。
- 查询结果集的大小不能随意设置成大得离谱的值, 如query.setSize不能设置成 Integer.MAX_VALUE, 因为ES内部需要建立一个数据结构来放指定大小的结果集数据。
- 尽量避免使用 script,万不得已需要使用的话,选择painless & experssions 引擎。一旦使用 script 查询,一定要注意控制返回,千万不要有死循环(如下错误的例子),因为ES没有脚本运行的超时控制,只要当前的脚本没执行完,该查询会一直阻塞。如:{ “script_fields”:{ “test1”:{ “lang”:“groovy”, “script”:“while(true){print 'don’t use script'}” } } }
- 避免层级过深的聚合查询, 层级过深的group by , 会导致内存、CPU消耗,建议在服务层通过程序来组装业务,也可以通过pipeline 的方式来优化。
- 复用预索引数据方式来提高 AGG 性能: 如通过 terms aggregations 替代 range aggregations, 如要根据年龄来分组,分组目标是: 少年(14岁以下) 青年(14-28) 中年(29-50) 老年(51以上), 可以在索引的时候设置一个age_group字段,预先将数据进行分类。从而不用按age来做range aggregations, 通过age_group字段就可以了。
- Cache的设置及使用:
a) QueryCache: ES查询的时候,使用filter查询会使用query cache, 如果业务场景中的过滤查询比较多,建议将querycache设置大一些,以提高查询速度。
indices.queries.cache.size: 10%(默认),//可设置成百分比,也可设置成具体值,如256mb。
当然也可以禁用查询缓存(默认是开启), 通过index.queries.cache.enabled:false设置。
b) FieldDataCache: 在聚类或排序时,field data cache会使用频繁,因此,设置字段数据缓存的大小,在聚类或排序场景较多的情形下很有必要,可通过indices.fielddata.cache.size:30% 或具体值10GB来设置。但是如果场景或数据变更比较频繁,设置cache并不是好的做法,因为缓存加载的开销也是特别大的。
c) ShardRequestCache: 查询请求发起后,每个分片会将结果返回给协调节点(Coordinating Node), 由协调节点将结果整合。
如果有需求,可以设置开启; 通过设置index.requests.cache.enable: true来开启。
不过,shard request cache 只缓存 hits.total, aggregations, suggestions 类型的数据,并不会缓存hits的内容。也可以通过设置indices.requests.cache.size: 1%(默认)来控制缓存空间大小
9. 带routing查询
直接根据 routing 信息定位到某个分配查询,不需要查询所有的分配,经过协调节点排序。
分片计算:shard = hash(routing) % number_of_primary_shards
routing 默认值是文档的 id,也可以采用自定义值,比如用户 id。
三、 配置优化
1、不同分片之间的数据同步是一个很大的花费,默认是1s同步,如果我们不要求实时性,我们可以执行如下:
put /index
{
"settings" : {
"index" : {
"refresh_interval":"60s"
}
}
}'
此处我们是修改为60s 其实可以改为-1s为不刷新,
2、合理分片
一般以(节点数*1.5或3倍)来计算,比如有4个节点,分片数量一般是6个到12个,每个分片一般分配一个副本
分片设置:
PUT /index
{
"settings" : {
"number_of_shards" : 12,
"number_of_replicas" : 1
}
}
修改分片的副本数量
PUT /index/_settings
{
"number_of_replicas" : 2
}
ES 的每个分片(shard)都是lucene的一个index,而lucene的一个index只能存储20亿个文档,所以一个分片也只能最多存储20亿个文档。
另外,我们也建议一个分片的大小在10G-50G之间,太大的话查询时会比较慢,
另外在做副本修复的时,耗时比较多;
分片太小的话,会导致一个索引的分片数目很多,查询时带来的 fanout 太大。
ElasticSearch推荐的最大JVM堆空间是30~32G, 所以把你的分片最大容量限制为30GB,
3、优化es的线程池
cache:这是无限制的线程池,为每个传入的请求创建一个线程。
fixed:这是一个有着固定大小的线程池,大小由size属性指定,允许你指定一个队列(使用queue_size属性指定)用来保存请求,直到有一个空闲的线程来执行请求。如果Elasticsearch无法把请求放到队列中(队列满了),该请求将被拒绝。有很多线程池(可以使用type属性指定要配置的线程类型),然而,对于性能来说,最重要的是下面几个。
线程池 |
作用 |
类型 |
默认size |
默认队列size |
index |
索引和删除操作 |
fixed |
可用处理器的数量 |
300 |
search |
搜索和计数请求 |
fixed |
可用处理器的数量*3 |
1000 |
suggest |
建议器请求 |
fixed |
可用处理器的数量 |
1000 |
get |
实时的GET请求 |
fixed |
可用处理器的数量 |
1000 |
bulk |
批量操作 |
fixed |
可用处理器的数量 |
50 |
percolate |
预匹配器操作 |
fixed |
可用处理器的数量 |
1000 |
elasticsearch.yml中可以设置 :
threadpool.index.type: fixed
threadpool.index.size: 100
threadpool.index.queue_size: 500
当然可以restAPI设置
PUT /_index/settings
{
"transient": {
"threadpool.index.type": "fixed",
"threadpool.index.size": 100,
"threadpool.index.queue_size": 500
}
}'
4、禁止swap,不让JVM写入swapping,避免降低ES的性能,
在elasticsearch.yml 中 bootstrap.memory_lock: true。
四、硬件优化
1、当机器内存小于64G时,遵循通用的原则,50%给ES,50%留给lucene
2、磁盘方面配置SSD,机械盘做阵列RAID5 RAID10虽然看上去很快,但是随机IO还是SSD好。
3、使用多块硬盘,并允许 Elasticsearch 通过多个 path.data 目录配置把数据条带化分配到它们上面。
4、不要使用远程挂载的存储,比如 NFS 或者 SMB/CIFS。这个引入的延迟对性能来说完全是背道而驰的。
4、使用自动生成的ID,[自定义的KEY,为了能根据rowkey删除和更新数据]
5、关于段合并,合并在后台定期执行,比较大的segment需要很长时间才能完成,为了减少对其他操作的影响(如检索),elasticsearch进行阈值限制,默认是20MB/s,
可配置的参数:
"indices.store.throttle.max_bytes_per_sec" : "200mb" (根据磁盘性能调整)
合并线程数默认是:
Math.max(1, Math.min(4, Runtime.getRuntime().availableProcessors() / 2)),
如果是机械磁盘,可以考虑设置为1:
index.merge.scheduler.max_thread_count: 1,