redis散列若干记录

  1. 字典

    redis本身使用字典结构管理数据

    1. redis使用hash表实现字典结构

      1. 使用了什么hash算法
        1. 使用SipHash算法,该算法能有效防止Hash表碰撞,并有不错的性能
      2. hash冲突怎么解决
        1. 使用链表法解决hash冲突
      3. hash表如何扩容
        1. 渐进式扩容,不会引起线程长期阻塞,redis字典扩容在每次操作数据的时候都执行一次单步扩容操作,将ht[0].table[rehashidx]的数据迁移到ht[1],再将ht[0]指向ht[1]
          1. 扩容条件
            1. hash表存储的键值对数量大于等于hash表数组的长度
            2. 开启了dict_can_resize或者负载因子大于dict_force_resize_ratio
    2. hash扩容

      ht[0] ---> ht[1]

      1. 先找到ht[0]第一个非空索引位
      2. 遍历该索引位链表的所有元素
        1. 计算每个元素在ht[1]的hash表数组中的索引,将元素移动到ht[1]中
      3. 当ht[0]的used属性归于0时,则移动全部完成
      4. 释放ht[0].table,将ht[0]指针指向ht[1]
    3. hash缩容

      1. 执行删除操作后redis会检查字典是否满足缩容(长度大于4&负载因子小于0.1)
    4. 编码

      1. 散列有两种编码类型:OBJ_ENCODING_HTOBJ_ENCODING_ZIPLIST ,使用dict和ziplist结构存储数据,优先使用ziplist存储数据,一个节点存储键,其后驱节点存储值,查找的时候遍历ziplist即可。
        1. 要使用ziplist存储元素需满足以下几个条件:
          1. 散列中所有的键和值的长度小于或等于server.hash_max_ziplist_value(通过hash-max-ziplist-value项配置)
          2. 散列中键值对的数量小于server.hash_max_ziplist_entries

4、集合

  1. 无序集合

    redis通常使用字典结构保存集合数据,字典健存储集合元素,字典值为空。如果一个集合全为整数,使用字典就有点浪费了,redis使用intset保存。

    1. 插入元素到intset中
      1. 获取插入元素编码,如果插入元素编码级别高于intset编码,intset的编码则需要升级
      2. 通过二分查找插入元素是否为重复插入,是,则插入失败,否,则赋值
      3. 为intset重新分配内存空间(分配插入元素所需空间),若插入位置存在后驱节点,后驱节点全部后移
      4. 更新intset的len值
    2. intset升级编码
      1. 设置新的编码,然后分配新的内存空间
      2. 将intset的元素移动到新位置
      3. 然后插入新的元素

    redis不会降级intset编码!

相关推荐
李广坤12 小时前
MySQL 大表字段变更实践(改名 + 改类型 + 改长度)
数据库
爱可生开源社区2 天前
2026 年,优秀的 DBA 需要具备哪些素质?
数据库·人工智能·dba
随逸1772 天前
《从零搭建NestJS项目》
数据库·typescript
加号32 天前
windows系统下mysql多源数据库同步部署
数据库·windows·mysql
シ風箏2 天前
MySQL【部署 04】Docker部署 MySQL8.0.32 版本(网盘镜像及启动命令分享)
数据库·mysql·docker
李慕婉学姐2 天前
Springboot智慧社区系统设计与开发6n99s526(程序+源码+数据库+调试部署+开发环境)带论文文档1万字以上,文末可获取,系统界面在最后面。
数据库·spring boot·后端
百锦再2 天前
Django实现接口token检测的实现方案
数据库·python·django·sqlite·flask·fastapi·pip
tryCbest2 天前
数据库SQL学习
数据库·sql
jnrjian2 天前
ORA-01017 查找机器名 用户名 以及library cache lock 参数含义
数据库·oracle
十月南城2 天前
数据湖技术对比——Iceberg、Hudi、Delta的表格格式与维护策略
大数据·数据库·数据仓库·hive·hadoop·spark