深度分页 指的是在 Elasticsearch 中查询结果集 非常靠后的页码(例如第 1000 1000 1000 页,每页 10 10 10 条数据,即 from=10000
)。它通常表现为使用 from + size
参数组合来获取远端的分页数据。例如:
GET /my_index/_search
{
"from": 10000, // 跳过前10000条
"size": 10, // 取10条
"query": { ... }
}
Elasticsearch 的分页原理是:
shard
)收集满足条件的文档。from + size
范围内的所有文档。size
条结果。问题:
from
值很大时(如 from=100000
),每个分片需要 先查 100000+size
条数据 到内存,再汇总排序。分页方式 | 内存消耗 | 响应时间 | 适用场景 |
---|---|---|---|
浅分页(from=0 ) |
低(仅缓存 size 条) |
毫秒级 | 前几页数据 |
深度分页(from=10000 ) |
高(缓存 10000+size 条) |
秒级甚至超时 | 不推荐直接使用 |
from + size ≤ 10,000
(可通过 index.max_result_window
调整,但 调高会加剧风险)。原理:
_shard_doc
或自定义字段)作为游标。示例:
// 第一页
GET /blog_posts/_search
{
"size": 10,
"sort": [ // 必须包含唯一性字段(如 _id)
{ "publish_date": "desc" },
{ "_id": "asc" }
]
}
// 后续页(用上一页最后一条的排序值)
GET /blog_posts/_search
{
"size": 10,
"search_after": ["2023-04-05", "abc123"], // 上一页最后记录的 publish_date 和 _id
"sort": [
{ "publish_date": "desc" },
{ "_id": "asc" }
]
}
优点:
- 性能稳定(不受页码影响)。
- 适合无限滚动、批量导出等场景。
用一个生活中的例子来理解:假设你要在图书馆的 100万本书
中,每次找 10本
符合特定条件的书,并按出版日期排序。
from/size
)的做法:
2023-05-01, 编号ABC123
”)。我要比【2023-05-01, ABC123】更早的10本书
”。简而言之:Search After 快是因为它 不傻乎乎地从头数,而是像书签一样 “记住位置”,直接跳到下一页开始的地方。
分页方式 | 工作方式 | 性能消耗 |
---|---|---|
from/size |
每次从头计算,临时存储 from+size 条数据 |
随 from 增大 指数级上升 |
search_after |
像书签一样记住位置,直接跳转 | 恒定(与页码无关) |
from/size
:
(from + size) × 分片数
→ 内存爆炸 search_after
:
size × 分片数
→ 内存恒定 from/size
:
search_after
:
原理:
snapshot
),保持查询上下文。示例:
// 1. 初始化 Scroll(保留1分钟)
GET /blog_posts/_search?scroll=1m
{
"size": 100,
"query": { "match_all": {} }
}
// 2. 后续获取(用返回的 scroll_id)
GET /_search/scroll
{
"scroll": "1m",
"scroll_id": "DXF1ZXJ5QW5kRmV0Y2gB..."
}
// 3. 最后手动清理
DELETE /_search/scroll
{
"scroll_id": "DXF1ZXJ5QW5kRmV0Y2gB..."
}
优点: 适合非实时、大数据量导出(如报表生成)。
缺点:
- 不支持实时数据(快照期间数据变化不会反映)。
- 占用服务器资源,用完需手动清理(
DELETE /_search/scroll
)。
scroll=1m
的含义
1m
= 1 分钟
(时间单位,类似 30s
= 30秒
,2h
= 2小时
)1m
)是让 Elasticsearch 自动清理 不再使用的 Scroll 查询。scroll=5m
( 5 5 5 分钟)scroll=30s
( 30 30 30 秒)GET /_search/scroll
{
"scroll": "1m", // 重新设置为1分钟
"scroll_id": "DXF1ZXJ5QW5kRmV0Y2gBAAAAAAAAAD4WYm9laVY..."
}
把 Scroll 想象成图书馆的 “临时书架”:
scroll=1m
)来挑书”。scroll=1h
),否则可能导致集群内存压力。DELETE /_search/scroll
{
"scroll_id": "DXF1ZXJ5QW5kRmV0Y2gB..."
}
原理:
publish_date
)作为分页条件。示例:
GET /blog_posts/_search
{
"size": 10,
"query": {
"range": {
"publish_date": { "lte": "2023-03-01" } // 第二页改为 "lte": "上一页的最小日期"
}
},
"sort": [ { "publish_date": "desc" } ]
}
适用场景:
- 按时间线分页(如新闻列表)。
场景 | 推荐方案 | 原因 |
---|---|---|
用户前端分页(前几页) | from + size |
简单易用,性能可接受 |
深度分页(如第 100 100 100 页) | Search After |
避免内存爆炸,性能稳定 |
大数据量导出 | Scroll API |
适合离线处理,但需注意资源释放 |
按时间滚动 | 时间范围查询 | 利用业务字段天然分页 |
关键建议
- 禁止生产环境使用大
from
值(如from=100000
)。- 若必须调整
index.max_result_window
,需评估集群资源。- Search After 是深度分页的最佳实践,兼容大多数场景。