申请专栏作者
您的当前位置:主页 > 深度学习 > 正文

Elasticsearch 之 commit point | Segment | refresh | flush 索引

来源: 时间:2018-10-12

 

基本概念

Segments in Lucene

众所周知,Elasticsearch 存储的基本单元是shard, ES 中一个 Index 可能分为多个 shard, 事实上每个 shard 都是一个 Lucence 的 Index,并且每个 Lucence Index 由多个Segment组成, 每个 Segment 事实上是一些倒排索引的集合, 每次创建一个新的Document, 都会归属于一个新的 Segment, 而不会去修改原来的 Segment; 且每次的文档删除操作,会仅仅标记 Segment 中该文档为删除
状态, 而不会真正的立马物理删除, 所以说 ES 的 index 可以理解为一个抽象的概念。 就像下图所示:
可思数据-数据挖掘,智慧医疗,机器视觉,机器人

Commits in Lucene

为了数据安全, 每次的索引变更都最好要立刻刷盘, 所以 Commit 操作意味着将 Segment 合并,并写入磁盘。保证内存数据尽量不丢。刷盘是很重的 IO 操作, 所以为了机器性能和近实时搜索, 并不会刷盘那么及时。 可思数据-www.sykv.cn,sykv.com

Translog

新文档被索引意味着文档会被首先写入内存 buffer 和 translog 文件。每个 shard 都对应一个 translog 文件
9cdea21e54c94f84b942b7a111f48ec1.png

可思数据-AI,人工智能,深度学习,机器学习,神经网络

Refresh in Elasticsearch

在 elasticsearch 中, _refresh 操作默认每秒执行一次, 意味着将内存 buffer 的数据写入到一个新的 Segment 中,这个时候索引变成了可被检索的。
0ce7a70dede942f7a465b528fa9ead99.png

可思数据-人工智能资讯平台

Flush in Elasticsearch

Flush 操作意味着将内存 buffer 的数据全都写入新的 Segments 中, 并将内存中所有的 Segments 全部刷盘, 并且清空 translog 日志的过程。
30e1d93490a94ed6a8a52b7193c726a8.png

可思数据

近实时搜索

提交(Commiting)一个新的段到磁盘需要一个 fsync 来确保段被物理性地写入磁盘,这样在断电的时候就不会丢失数据。 但是 fsync 操作代价很大; 如果每次索引一个文档都去执行一次的话会造成很大的性能问题。

可思数据-人工智能资讯平台

我们需要的是一个更轻量的方式来使一个文档可被搜索,这意味着 fsync 要从整个过程中被移除。 可思数据-AI,人工智能,深度学习,机器学习,神经网络

在 Elasticsearch 和磁盘之间是文件系统缓存。 像之前描述的一样, 在内存索引缓冲区( 图 19 “在内存缓冲区中包含了新文档的 Lucene 索引” )中的文档会被写入到一个新的段中( 图 20 “缓冲区的内容已经被写入一个可被搜索的段中,但还没有进行提交” )。 但是这里新段会被先写入到文件系统缓存–这一步代价会比较低,稍后再被刷新到磁盘–这一步代价比较高。不过只要文件已经在缓存中, 就可以像其它文件一样被打开和读取了。

可思数据-AI,智能驾驶,人脸识别,区块链,大数据

  内容来自可思数据

图 19. 在内存缓冲区中包含了新文档的 Lucene 索引 可思数据-AI,人工智能,深度学习,机器学习,神经网络

内容来自可思数据

Lucene 允许新段被写入和打开–使其包含的文档在未进行一次完整提交时便对搜索可见。 这种方式比进行一次提交代价要小得多,并且在不影响性能的前提下可以被频繁地执行。

可思数据-数据挖掘,智慧医疗,机器视觉,机器人

  可思数据-www.sykv.cn,sykv.com

图 20. 缓冲区的内容已经被写入一个可被搜索的段中,但还没有进行提交 可思数据

可思数据

refresh APA

在 Elasticsearch 中,写入和打开一个新段的轻量的过程叫做 refresh 。 默认情况下每个分片会每秒自动刷新一次。这就是为什么我们说 Elasticsearch 是 近 实时搜索: 文档的变化并不是立即对搜索可见,但会在一秒之内变为可见。

可思数据-AI,智能驾驶,人脸识别,区块链,大数据

这些行为可能会对新用户造成困惑: 他们索引了一个文档然后尝试搜索它,但却没有搜到。这个问题的解决办法是用 refresh API 执行一次手动刷新: 可思数据-AI,人工智能,深度学习,机器学习,神经网络

1. POST /_refresh
2. POST /blogs/_refresh

 

可思数据

  1. 刷新(Refresh)所有的索引。
  2. 只刷新(Refresh) blogs 索引

并不是所有的情况都需要每秒刷新。可能你正在使用 Elasticsearch 索引大量的日志文件, 你可能想优化索引速度而不是近实时搜索, 可以通过设置 refresh_interval , 降低每个索引的刷新频率 可思数据

PUT /my_logs {  "settings":  {  "refresh_interval":  "30s"  }
 
可思数据-www.sykv.cn,sykv.com

refresh_interval 可以在既存索引上进行动态更新。 在生产环境中,当你正在建立一个大的新索引时,可以先关闭自动刷新,待开始使用该索引时,再把它们调回来: 可思数据

PUT /my_logs/_settings {  "refresh_interval":  -1  }
PUT /my_logs/_settings {  "refresh_interval":  "1s"  }
 可思数据-AI,智能驾驶,人脸识别,区块链,大数据 

持久化变更

如果没有用 fsync 把数据从文件系统缓存刷(flush)到硬盘,我们不能保证数据在断电甚至是程序正常退出之后依然存在。为了保证 Elasticsearch 的可靠性,需要确保数据变化被持久化到磁盘。 可思数据-AI,人工智能,深度学习,机器学习,神经网络

在 动态更新索引,我们说一次完整的提交会将段刷到磁盘,并写入一个包含所有段列表的提交点。Elasticsearch 在启动或重新打开一个索引的过程中使用这个提交点来判断哪些段隶属于当前分片。

可思数据-AI,智能驾驶,人脸识别,区块链,大数据

即使通过每秒刷新(refresh)实现了近实时搜索,我们仍然需要经常进行完整提交来确保能从失败中恢复。但在两次提交之间发生变化的文档怎么办?我们也不希望丢失掉这些数据。 可思数据-数据挖掘,智慧医疗,机器视觉,机器人

Elasticsearch 增加了一个 translog ,或者叫事务日志,在每一次对 Elasticsearch 进行操作时均进行了日志记录。通过 translog ,整个流程看起来是下面这样: 可思数据-数据挖掘,智慧医疗,机器视觉,机器人

  1. 一个文档被索引之后,就会被添加到内存缓冲区,并且 追加到了 translog ,正如 图 21 “新的文档被添加到内存缓冲区并且被追加到了事务日志” 描述的一样。
  2.  
**图 21. 新的文档被添加到内存缓冲区并且被追加到了事务日志**



![](http://img.6aiq.com/e/4b2e04139759408fa51376bdcb03e49e.png)
 本文来自可思数据,转载请联系本站及注明出处 
  1. 刷新(refresh)使分片处于 图 22 “刷新(refresh)完成后, 缓存被清空但是事务日志不会” 描述的状态,分片每秒被刷新(refresh)一次: 可思数据-人工智能资讯平台

    • 这些在内存缓冲区的文档被写入到一个新的段中,且没有进行 fsync 操作。
    • 这个段被打开,使其可被搜索。
    • 内存缓冲区被清空。

     

    可思数据-人工智能资讯平台

    图 22. 刷新(refresh)完成后, 缓存被清空但是事务日志不会

    本文来自可思数据,转载请联系本站及注明出处

    可思数据-人工智能资讯平台

  2. 这个进程继续工作,更多的文档被添加到内存缓冲区和追加到事务日志(见 图 23 “事务日志不断积累文档” )。

    可思数据-人工智能资讯平台

     

    可思数据-人工智能资讯平台

    图 23. 事务日志不断积累文档

    可思数据-人工智能资讯平台

    本文来自可思数据,转载请联系本站及注明出处

  3. 每隔一段时间–例如 translog 变得越来越大–索引被刷新(flush);一个新的 translog 被创建,并且一个全量提交被执行(见 图 24 “在刷新(flush)之后,段被全量提交,并且事务日志被清空”):

    可思数据-AI,人工智能,深度学习,机器学习,神经网络

    • 所有在内存缓冲区的文档都被写入一个新的段。
    • 缓冲区被清空。
    • 一个提交点被写入硬盘。
    • 文件系统缓存通过 fsync 被刷新(flush)。
    • 老的 translog 被删除。

translog 提供所有还没有被刷到磁盘的操作的一个持久化纪录。当 Elasticsearch 启动的时候, 它会从磁盘中使用最后一个提交点去恢复已知的段,并且会重放 translog 中所有在最后一次提交后发生的变更操作。

可思数据-AI,人工智能,深度学习,机器学习,神经网络

translog 也被用来提供实时 CRUD 。当你试着通过 ID 查询、更新、删除一个文档,它会在尝试从相应的段中检索之前, 首先检查 translog 任何最近的变更。这意味着它总是能够实时地获取到文档的最新版本。
图 24. 在刷新(flush)之后,段被全量提交,并且事务日志被清空

内容来自可思数据

内容来自可思数据

flush API

这个执行一个提交并且截断 translog 的行为在 Elasticsearch 被称作一次 flush 。 分片每 30 分钟被自动刷新(flush),或者在 translog 太大的时候也会刷新。请查看 translog 文档 来设置,它可以用来 控制这些阈值:

可思数据-人工智能资讯平台

flush API 可以 被用来执行一个手工的刷新(flush):

可思数据-人工智能资讯平台

POST /blogs/_flush
POST /_flush?wait_for_ongoin
 本文来自可思数据,转载请联系本站及注明出处 
  1. 刷新(flush) blogs 索引。
  2. 刷新(flush)所有的索引并且并且等待所有刷新在返回前完成。
    你很少需要自己手动执行一个的 flush 操作;通常情况下,自动刷新就足够了。

这就是说,在重启节点或关闭索引之前执行 flush 有益于你的索引。当 Elasticsearch 尝试恢复或重新打开一个索引, 它需要重放 translog 中所有的操作,所以如果日志越短,恢复越快。

本文来自可思数据,转载请联系本站及注明出处

Translog 有多安全?
translog 的目的是保证操作不会丢失。这引出了这个问题: Translog 有多安全?
在文件被 fsync 到磁盘前,被写入的文件在重启之后就会丢失。默认 translog 是每 5 秒被 fsync 刷新到硬盘, 或者在每次写请求完成之后执行 (e.g. index, delete, update, bulk)。这个过程在主分片和复制分片都会发生。最终, 基本上,这意味着在整个请求被 fsync 到主分片和复制分片的 translog 之前,你的客户端不会得到一个 200 OK 响应。
在每次请求后都执行一个 fsync 会带来一些性能损失,尽管实践表明这种损失相对较小(特别是 bulk 导入,它在一次请求中平摊了大量文档的开销)。

可思数据-AI,人工智能,深度学习,机器学习,神经网络

但是对于一些大容量的偶尔丢失几秒数据问题也并不严重的集群,使用异步的 fsync 还是比较有益的。比如,写入的数据被缓存到内存中,再每 5 秒执行一次 fsync 。 本文来自可思数据,转载请联系本站及注明出处

这个行为可以通过设置 durability 参数为 async 来启用:

可思数据-数据挖掘,智慧医疗,机器视觉,机器人

PUT /my_index/_settings { 
"index.translog.durability":  "async", 
"index.translog.sync_interval":  "5s" 
}
 

可思数据

这个选项可以针对索引单独设置,并且可以动态进行修改。如果你决定使用异步 translog 的话,你需要 保证 在发生 crash 时,丢失掉 sync_interval 时间段的数据也无所谓。请在决定前知晓这个特性。

可思数据

如果你不确定这个行为的后果,最好是使用默认的参数( "index.translog.durability": "request" )来避免数据丢失。

内容来自可思数据

段合并

由于自动刷新流程每秒会创建一个新的段 ,这样会导致短时间内的段数量暴增。而段数目太多会带来较大的麻烦。 每一个段都会消耗文件句柄、内存和 cpu 运行周期。更重要的是,每个搜索请求都必须轮流检查每个段;所以段越多,搜索也就越慢。 本文来自可思数据,转载请联系本站及注明出处

Elasticsearch 通过在后台进行段合并来解决这个问题。小的段被合并到大的段,然后这些大的段再被合并到更大的段。 可思数据-数据挖掘,智慧医疗,机器视觉,机器人

段合并的时候会将那些旧的已删除文档 从文件系统中清除。 被删除的文档(或被更新文档的旧版本)不会被拷贝到新的大段中。

可思数据-www.sykv.cn,sykv.com

启动段合并不需要你做任何事。进行索引和搜索时会自动进行。这个流程像在 图 25 “两个提交了的段和一个未提交的段正在被合并到一个更大的段” 中提到的一样工作: 可思数据-人工智能资讯平台

1、 当索引的时候,刷新(refresh)操作会创建新的段并将段打开以供搜索使用。

可思数据

2、 合并进程选择一小部分大小相似的段,并且在后台将它们合并到更大的段中。这并不会中断索引和搜索。

可思数据-数据挖掘,智慧医疗,机器视觉,机器人

  可思数据-www.sykv.cn,sykv.com

图 25. 两个提交了的段和一个未提交的段正在被合并到一个更大的段

可思数据-AI,智能驾驶,人脸识别,区块链,大数据

可思数据-AI,智能驾驶,人脸识别,区块链,大数据

3、 图 26 “一旦合并结束,老的段被删除” 说明合并完成时的活动:

内容来自可思数据

  • 新的段被刷新(flush)到了磁盘。   ** 写入一个包含新段且排除旧的和较小的段的新提交点。
  • 新的段被打开用来搜索。
  • 老的段被删除。

  内容来自可思数据

图 26. 一旦合并结束,老的段被删除

可思数据-人工智能资讯平台

可思数据-人工智能资讯平台

合并大的段需要消耗大量的 I/O 和 CPU 资源,如果任其发展会影响搜索性能。Elasticsearch 在默认情况下会对合并流程进行资源限制,所以搜索仍然 有足够的资源很好地执行。 可思数据-AI,人工智能,深度学习,机器学习,神经网络

optimize API

optimize API 大可看做是 强制合并 API。它会将一个分片强制合并到 max_num_segments 参数指定大小的段数目。 这样做的意图是减少段的数量(通常减少到一个),来提升搜索性能。
在特定情况下,使用 optimize API 颇有益处。例如在日志这种用例下,每天、每周、每月的日志被存储在一个索引中。 老的索引实质上是只读的;它们也并不太可能会发生变化。 可思数据-人工智能资讯平台

在这种情况下,使用 optimize 优化老的索引,将每一个分片合并为一个单独的段就很有用了;这样既可以节省资源,也可以使搜索更加快速:

可思数据-人工智能资讯平台

POST /logstash-2014-10/_optimize?max_num_segments=1

可思数据-数据挖掘,智慧医疗,机器视觉,机器人


网友评论:

发表评论
请自觉遵守互联网相关的政策法规,严禁发布色情、暴力、反动的言论。
评价:
表情:
用户名: 验证码:点击我更换图片

Copyright©2005-2018 Sykv.cn 可思数据 版权所有    网站地图   联系我们  

人工智能资讯   人工智能资讯   人工智能资讯   人工智能资讯

扫码入群
咨询反馈
扫码关注

微信公众号

返回顶部