给你一个亿的keys,Redis如何统计?

前言
不知你大规模的用过Redis吗?还是仅仅作为缓存的工具了?在Redis中使用最多的就是集合了,举个例子,如下场景:
签到系统中,一天对应一系列的用户签到记录。 电商系统中,一个商品对应一系列的评论。 交友系统中,某个用户的一系列的好友。
Redis中集合的特点无非是一个Key对应一系列的数据, 但是数据的作用往往是为了统计的,比如:
交友系统中,需要统计每天的新增好友,以及双方的共同好友。 电商系统中,需要统计评论列表中的最新评论。 签到系统中,需要统计连续一个月的签到的用户数量。
大型互联网应用中,数据量是巨大的,少说百万,千万,甚至是一个亿,比如电商巨头淘宝,交友巨头微信、微博;办公巨头钉钉等,哪一个的用户不是上亿?
只有针对不同场景,选择合适的集合,统计才能更方便。
聚合统计
聚合统计指的是多个元素聚合的结果,比如统计多个集合的交集、并集、差集
在你需要对多个集合做聚合统计的时候,Set集合是个不错的选择,除了其中无重复的数据外,Redis还提供了对应的API
交集
在上述的例子中交友系统中统计双方

给你一个亿的keys,Redis如何统计?最先出现在Python成神之路

版权声明:
作者:玉兰
链接:https://www.techfm.club/p/8492.html
来源:TechFM
文章版权归作者所有,未经允许请勿转载。

THE END
分享
二维码
< <上一篇
下一篇>>