在电商、内容推荐等业务里,我们常把 热数据 拆成两层:
数据结构 | 存什么 | 为什么要用它 |
---|---|---|
Hash prod: |
数值型 KV(价格、库存、点击数…) | HINCRBY 、HSET 超快;天然适合计数与并发写 |
JSON prodjs: |
结构化/全文/向量字段 | RediSearch 可直接对 JSON 做全文、过滤、KNN |
核心挑战:一次业务写请求 → 两份数据都要最新可见,且
下文给出两种落地方案 + 一套索引迁移套路 + 内存预估方法。
-- save_product.lua —— 原子写 Hash + JSON
-- ARGV: id price stock jsonBody
local id, price, stock, body = ARGV[1], ARGV[2], ARGV[3], ARGV[4]
redis.call('HSET', 'prod:'..id,
'price', price,
'stock', stock,
'ts', redis.call('TIME')[1])
redis.call('JSON.SET', 'prodjs:'..id, '$', body)
redis.call('INCR', 'metrics:prod_write_cnt')
return 'OK'
sha=$(redis-cli SCRIPT LOAD "$(cat save_product.lua)")
redis-cli EVALSHA $sha 0 1001 199 8 \
'{"title":"Alpha","desc":"6.7\" AMOLED"}'
行 | 说明 |
---|---|
redis.call('HSET' …) |
写 KV,并记录毫秒时间戳 |
JSON.SET |
一次性覆盖全文 JSON;内部触发 RediSearch 索引更新 |
INCR metrics:… |
监控指标(可观测) |
Lua 脚本天然单线程 | Redis 内部串行执行 = 原子事务 |
✅ 优点
⚠️ 局限
MODULE LOAD /opt/redisgears/libredisgears.so \
Plugin /opt/redisgears/redisgears-python.so
# json2hash.py
import json
from redisgears import executeCommand as cmd, GearsBuilder
def sync_hash(r):
k, ev = r['key'], r['event']
if ev != 'json.set' or not k.startswith('prodjs:'):
return
pid = k.split(':',1)[1]
body = json.loads(cmd('JSON.GET', k))
cmd('HSET', f'prod:{pid}',
'price', body.get('price', 0),
'stock', body.get('stock', 0),
'ts', body.get('updated_at', ''))
cmd('INCR', 'metrics:prod_sync_cnt')
GearsBuilder('KeysReader') \
.foreach(sync_hash) \
.register(prefix='prodjs:*', eventTypes=['json.set'])
RG.PYEXECUTE "$(cat json2hash.py)"
JSON.SET ---> KeySpace Event ---> RedisGears Stream ---> Python Function ---> HSET
✅ 优点
⚠️ 局限
当你需要:
- 新增向量字段 / 改分词 / 改
SORTABLE
- 重建索引避免碎片(
FT.DUMP
→FT.LOAD
不支持时)
idx_new
,带 SKIPINITIALSCAN
FT.ADDHASH
or FT.ADD
FT.INFO num_docs
FT.DROPINDEX idx_old DD
redis-cli FT.CREATE idx_new ON JSON PREFIX 1 prodjs: ... SKIPINITIALSCAN
redis-cli --scan --pattern 'prodjs:*' | while read k; do
redis-cli FT.ADDHASH idx_new "$k" 1.0 REPLACE
done
[ $(redis-cli FT.INFO idx_old |grep num_docs|awk '{print $2}') \
-eq $(redis-cli FT.INFO idx_new |grep num_docs|awk '{print $2}') ] \
|| { echo 'doc mismatch'; exit 1; }
redis-cli FT.ALIASUPDATE prod_read idx_new # 零停机切流
# 回滚: redis-cli FT.ALIASUPDATE prod_read idx_old
indexing
指标确保写放大可接受SEPARATOR ";"
等配置组件 | 估算因子 | 含义 |
---|---|---|
倒排表 | T × 6 MB |
百万级词条 ×6 |
Posting 位图 | D × F × 1.5 MB |
文档数 × TEXT 字段 |
SORTABLE | S × 8 MB |
排序字段 |
向量 | V × dim × dt MB |
HNSW/FLAT 数据 |
简化公式
Mem(MB) ≈ (T*6) + (D*F*1.5) + (S*8) + (V*dim*dt/1024)
Mem ≈ 18 + 3 + 24 + 1.5 ≈ 46.5 MB
≈ 46.5 ×1.2 ≈ 60 MB (预留 20% + AOF)
上线后 FT.INFO ➜ inverted_sz_mb
, vector_index_sz_mb
再 cross-check INFO memory
,调整参数:
SORTABLE
SEPARATOR
优化选型结论 | 适用场景 |
---|---|
Lua 事务双写 | 写量低 & 强一致 |
RedisGears 异步 | 高并发写 & 最终一致 |
ALIAUPDATE 热切 | Schema 频繁演进业务 |
容量公式 + INFO | 上线前粗估 & 线上持续校准 |