V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
ben548
V2EX  ›  Redis

redis 的 zset 如果打散成多个 zset 的话,如果要分页查询怎么处理呢?

  •  
  •   ben548 · 2023-06-25 12:32:42 +08:00 · 1951 次点击
    这是一个创建于 524 天前的主题,其中的信息可能已经有所发展或是发生改变。
    比如,为了避免 big key 问题将 zset 拆分成 zset1 、zset2 、zset3 ,如果要对这个 zset 做分页查询的话,怎么处理呢?
    第一页是很容易的,比如一页 10 条,每一个 zset 都查出 top 10 然后合并排序一下即可
    但是第二页和第三页却不能这么处理,因为直接从各个 zset 中获取排名 10 到 20 的 value ,来做排序合并得到的结果并不准确
    能想到的一个方案是把所有的 zset 都合并成一个总的 zset 再来分页切割,但是感觉这样太耗费性能了,不是一个好的方案。
    12 条回复    2023-06-25 15:45:01 +08:00
    hangszhang
        1
    hangszhang  
       2023-06-25 13:13:33 +08:00
    类似分库分表之后的分页问题,感觉得来个二级索引了
    SakuraSa
        2
    SakuraSa  
       2023-06-25 13:39:26 +08:00
    每次查询上一页最后一个 item 的 score 之后的 10 个 item
    lambdaq
        3
    lambdaq  
       2023-06-25 13:41:07 +08:00   ❤️ 1
    如果你要做分页,已经输了一半了。
    cylx3124
        4
    cylx3124  
       2023-06-25 13:42:13 +08:00
    leogm9408leo
        5
    leogm9408leo  
       2023-06-25 13:51:15 +08:00
    参考 elasticsearch 的分片处理逻辑,查 top10 就是每个分片取各自的 top10 然后再合并后取 top10 ,取 10-20 也还是每个分片各取 top20 然后合并后取出 10-20 ,这是搜索上的经典问题“深分页问题”,所以搜索引擎都不会允许访问分页太深。
    ben548
        6
    ben548  
    OP
       2023-06-25 14:07:47 +08:00
    @SakuraSa score 一样的情况不是会丢数据吗
    ben548
        7
    ben548  
    OP
       2023-06-25 14:24:18 +08:00
    @leogm9408leo 查 90-100 条,有 200 个分片的话,就要查出 20000 条数据出来排序后再分页,这有点伤啊
    encro
        8
    encro  
       2023-06-25 14:34:55 +08:00
    @cylx3124

    w3cschool 终于商业化改版了啊。。。。
    SakuraSa
        9
    SakuraSa  
       2023-06-25 15:02:29 +08:00
    @ben548 那就定义一个不会重复的 score 呀,在原先的 score 上加上 id 的 hash 乘以一个很小的数之类的
    SakuraSa
        10
    SakuraSa  
       2023-06-25 15:07:36 +08:00
    @ben548 以 score 排序,但是又存在 score 相同的情况,实际上相当于排序还依赖了插入顺序,这不是一个好的设计
    Dlin
        11
    Dlin  
       2023-06-25 15:44:21 +08:00
    不知是不是我没看懂,我感觉除了全局视野法和业务折衷法之模糊法没问题外,其他两种问题都有问题,都需要前提条件:数据被排序的字段均匀分布且不可重复
    Dlin
        12
    Dlin  
       2023-06-25 15:45:01 +08:00
    @cylx3124 不知是不是我没看懂,我感觉除了全局视野法和业务折衷法之模糊法没问题外,其他两种问题都有问题,都需要前提条件:数据被排序的字段均匀分布且不可重复
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   2787 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 23ms · UTC 09:58 · PVG 17:58 · LAX 01:58 · JFK 04:58
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.