哈希表
1.哈希的概念
哈希(hash)又称散列,是一种组织数据的方式。从译名来看,有散乱排列的意思。本质就是通过哈希函数把关键字Key跟存储位置建立一个映射关系,查找时通过这个哈希函数计算出Key存储的位置,进行快速查找。根据哈希的思想
而设计的数据结构:哈希表
、位图
、布隆过滤器
。
2.直接定址法
- 当关键字的范围比较集中的整形时,直接定址法就是非常简单高效的方法。
- 比如一组关键字都在[0,99]之间,那么我们开一个100个数的数组,每个关键字的值直接就是存储位置的下标。
- 再比如一组关键字值都在[a,z]的小写字母,那么我们开一个26个数的数组,每个关键字acsii码值-a的ascii码值就是存储位置的下标。
- 也就是说直接定址法本质就是用关键字计算出一个
绝对位置
或者相对位置
,用于储存关键字Key / 键值对Key/Value。
例如一个leetcode简单题:字符串中的第一个唯一字符
cpp
class Solution {
public:
int firstUniqChar(string s)
{
//1.创建哈希表
int hash[26] = {0};
//2.将字符串中的所有字符丢进哈希表中
for(int i = 0; i < s.size(); i++)
{
hash[s[i] - 'a']++;
}
//3.遍历字符串找出第一次出现的唯一字符
for(int i = 0; i < s.size(); i++)
{
if(hash[s[i] - 'a'] == 1)
{
return i;
}
}
return -1;
}
};
3.哈希冲突
- 直接定址法的缺点也非常明显,当关键字的范围比较分散时,就很浪费内存甚至内存不够用。假设我们只有数据范围是[0, 9999]的N个值,我们要映射到一个M个空间的数组中(一般情况下M>=N),那么就要借助哈希函数,关键字key被放到数组的h(key)位置,这里要注意的是h(key)计算出的值必须在[0, M)之间。
- 这里存在的一个问题就是,两个不同的key可能会映射到同一个位置去,这种问题我们叫做
哈希冲突
,或者哈希碰撞。理想情况是找出一个好的哈希函数避免冲突,但是实际场景中,冲突是不可避免的,所以我们尽可能设计出优秀的哈希函数,减少冲突的次数,同时也要去设计出解决冲突的方案。
4.负载因子
- 假设哈希表中已经映射存储了N个值,哈希表的大小为M,那么负载因子:
N / M
,负载因子有些地方也翻译为载荷因子/装载因子等,英文为load factor。 - 负载因子越大,哈希冲突的概率越高,空间利用率越高。
- 负载因子越小,哈希冲突的概率越低,空间利用率越低。
5.将关键字转为整数
- 我们将关键字映射到数组中位置,一般是整数好做映射计算,如果不是整数,我们要想办法转换成整数。
- 例如当关键字时字符串时:可以将字符串中的所有字符的ASCII码值相加,如此每一个字符串就转成为整数了。
- 下面哈希函数部分我们讨论时,如果关键字不是整数,那么我们讨论的是Key关键字转换成的整数后的哈希函数。
6.哈希函数
一个好的哈希函数应该让N个关键字被等概率的均匀的散列分布到哈希表的M个空间中,但是实际中却很难做到,但是我们要尽量往这个方向去考量设计。
1.除法散列法(除留余数法)
-
除法散列法也叫做除留余数法,顾名思义:假设哈希表的大小为M,那么通过key除以M的余数作为映射位置的下标,也就是哈希函数为:
h(key) = key % M
-
当使用除法散列法时,要尽量避免M为某些值,如2的幂,10的幂等。如果是2 ^ X ,那
key % 2 ^ X
本质相当于保留key的后X位,那么后X位相同的值,计算出的哈希值都是一样的,就冲突了。如:{63, 31}看起来没有关联的值,如果M是16,也就是2 ^ 4,那么计算出的哈希值都是15,因为63的⼆进制后8位是00111111,31的⼆进制后8位是00011111。如果是10 ^ X,就更明显了,保留的都是10进值的后X位,如:{112, 12312},如果M是100,也就是10 ^ 2,那么计算出的哈希值都是12。 -
当使用除法散列法时,
建议M取不太接近2的整数次幂的一个质数
。 -
需要说明的是,实践中也是八仙过海,各显神通,Java的HashMap采用除法散列法时就是2的整数次幂做哈希表的大小M,这样玩的话,就不用取模,而可以直接位运算,相对而言位运算比取模更高效一些。但是他不是单纯的去取模,比如M是2^16次方,本质是取后16位,那么用
key' = key >> 16
,然后把key和key' 异或的结果作为哈希值。也就是说我们映射出的值还是在[0, M)范围内,但是尽量让key所有的位都参与计算,这样映射出的哈希值更均匀一些即可。
2.乘法散列法(了解)
- 乘法散列法对哈希表大小M没有要求,它的大思路第一步:用关键字k乘上常数A(0<A<1),并抽取出kA的小数部分。第二步:再用M乘以kA的小数部分,再向下取整。
- h(key) = floor(M × ((A × key)%1.0)),其中floor表示对表达式进行下取整,A∈(0,1),这里最重要的是A的值应该如何设定,Knuth认为A = ( 5 − 1)/2 = 0.6180339887... (黄金分割点)比较好。
- 乘法散列法对哈希表大小M是没有要求的,假设M为1024,key为1234,A = 0.6180339887,A × key = 762.6539420558,取小数部分为0.6539420558,M × ((A × key)%1.0) = 0.6539420558 × 1024 = 669.6366651392,那么h(1234) = 669。
3.全域散列法(了解)
- 如果存在一个恶意的对手,他针对我们提供的散列函数,特意构造出一个发生严重冲突的数据集,比如,让所有关键字全部落入同一个位置中。这种情况是可以存在的,只要散列函数是公开且确定的,就可以实现此攻击。解决方法自然是见招拆招,给散列函数增加随机性,攻击者就无法找出确定可以导致最坏情况的数据。这种方法叫做全域散列。
- hab (key) = ((a × key + b)%P )%M,P需要选一个足够大的质数,a可以随机选[1, P-1]之间的任意整数,b可以随机选[0, P-1]之间的任意整数,这些函数构成了一个P*(P-1)组全域散列函数组。假设P=17,M=6,a=3,b=4,则h34 (8) = ((3 × 8 + 4)%17)%6 = 5。
- 需要注意的是每次初始化哈希表时,随机选取全域散列函数组中的一个散列函数使用,后续增删查改都固定使用这个散列函数,否则每次哈希都是随机选一个散列函数,那么插入是一个散列函数,查找又是另一个散列函数,就会导致找不到插入的key。
4.其他方法(了解)
- 上面的几种方法是《算法导论》书籍中讲解的方法。
- 《殷人昆 数据结构:用面向对象方法与C++语言描述(第二版)》和《[数据结构(C语言版)].严蔚敏_吴伟民》等教材型书籍上面还给出了平方取中法、折叠法、随机数法、数学分析法等,这些方法相对更适用于一些局限的特定场景,有兴趣可以去看看这些书籍。
7.哈希冲突的解决方法
1.开放定址法
在开放定址法中所有的元素都放到哈希表里,当一个关键字key用哈希函数计算出的位置冲突了,则按照某种规则找到一个没有存储数据的位置进行存储。开放定址法中负载因子一定是小于1的。这里的规则有三种:线性探测、⼆次探测、双重探测。
1.线性探测
- 从发生冲突的位置开始,依次线性向后探测,直到寻找到下一个没有存储数据的位置为止,如果走到哈希表尾,则回绕到哈希表头的位置。
h(key) = hash0 = key % M
,hash0位置冲突了,则线性探测公式为:hc(key, i) = hashi = (hash0 + i) % M, i = {1, 2, 3, ..., M − 1}
,因为负载因子小于1,则最多探测M-1次,一定能找到一个存储key的位置。- 线性探测的比较简单且容易实现,线性探测的问题假设,hash0位置连续冲突,hash0,hash1,
hash2位置已经存储数据了,后续映射到hash0,hash1,hash2,hash3的值都会争夺hash3位
置,这种现象叫做群集/堆积。下面的⼆次探测可以一定程度改善这个问题。 - 下面演示 {19,30,5,36,13,20,21,12} 等这一组值映射到M=11的表中。
2.二次探测
- 从发生冲突的位置开始,依次左右按二次方跳跃式探测,直到寻找到下一个没有存储数据的位置为止,如果往右走到哈希表尾,则回绕到哈希表头的位置;如果往左走到哈希表头,则回绕到哈希表尾的位置。
- h(key) = hash0 = key % M, hash0位置冲突了,则⼆次探测公式为:
hc(key,i) = hashi = (hash0 ± i^2) % M, i = {1,2,3, ...,M / 2}
- 二次探测当:hashi = (hash0 − i^2) % M,当hashi < 0时,需要hashi += M
- 下面演示 {19,30,52,63,11,22} 等这一组值映射到M=11的表中。
3.双重散列(了解)
- 第一个哈希函数计算出的值发生冲突,使用第二个哈希函数计算出一个跟key相关的偏移量值,不断往后探测,直到寻找到下一个没有存储数据的位置为止。
- h1(key) = hash0 = key % M,hash0位置冲突了,则双重探测公式为:
hc(key,i) = hashi = (hash0 + i ∗ h2 (key)) % M, i = {1,2,3,...,M} - 要求h2 (key) < M 且 h2 (key) 和M互为质数,有两种简单的取值方法:1、当M为2整数幂时,h2(key) 从[0,M-1]任选一个奇数。2、当M为质数时,h2 (key) = key % (M − 1) + 1。
- 保证h2(key)与M互质是因为根据固定的偏移量所寻址的所有位置将形成一个群,若最大公约数 p = gcd(M,h1(key)) > 1,那么所能寻址的位置的个数为 M/P < M,使得对于一个关键字来说无法充分利用整个散列表。举例来说,若初始探查位置为1,偏移量为3,整个散列表的大小为12,那么所能寻址的位置为{1,4,7,10},寻址个数为12/gcd(12,3) = 4。
- 下面演示 {19,30,52,74} 等这一组值映射到M=11的表中,设h2 (key) = key%10 + 1。
2.开放定址法代码实现
开放定址法在实践中,不如下面讲的链地址法,因为开放定址法解决冲突不管使用哪种方法,占用法的都是哈希表中的空间,始终存在互相影响的问题。所以开放定址法,我们简单选择线性探测实现即
可。
1.开放定址法的哈希表结构
- 要注意的是这里需要给每个存储值的位置加一个状态标识,否则删除一些值以后,会影响后面冲突的值的查找。
- 如下图,我们删除30,会导致查找20失败,当我们给每个位置加一个状态标识
{EXIST, EMPTY, DELETE}
,删除30就可以不用删除值,而是把状态改为DELETE,那么查找20时是遇到EMPTY为止。
cpp
enum State
{
EXIST,
EMPTY,
DELETE
};
template<class K, class V>
struct HashData
{
pair<K, V> _kv; //键值对
State _state = EMPTY; //数据的状态
};
template<class K, class V>
class HashTable
{
public:
HashTable()
//:_tables(11) //初始化vector低层数据个数为11:默认值K()和V()
:_tables(__stl_next_prime(0))
,_n(0) //记录真实的数据个数
{}
private:
vector<HashData<K, V>> _tables;
size_t _n = 0; //表中存储真实数据的个数
};
2.扩容
这里我们哈希表负载因子控制在0.7,当负载因子到0.7以后我们就需要扩容了,我们还是按照2倍扩容,但是同时我们要保持哈希表大小是一个质数,第一个是质数,2倍后就不是质数了。那么如何解决了,一种方案就是上面除法散列中我们讲的Java HashMap的使用2的整数幂,但是计算时不能直接取模的改进方法。另外一种方案是sgi版本的哈希表使用的方法,给了一个近似2倍的质数表,每次去质数表获取扩容后的大小。
cpp
inline unsigned long __stl_next_prime(unsigned long n)
{
// Note: assumes long is at least 32 bits.
static const int __stl_num_primes = 28;
static const unsigned long __stl_prime_list[__stl_num_primes] =
{
53, 97, 193, 389, 769,
1543, 3079, 6151, 12289, 24593,
49157, 98317, 196613, 393241, 786433,
1572869, 3145739, 6291469, 12582917, 25165843,
50331653, 100663319, 201326611, 402653189, 805306457,
1610612741, 3221225473, 4294967291
};
const unsigned long* first = __stl_prime_list;
const unsigned long* last = __stl_prime_list + __stl_num_primes;
const unsigned long* pos = lower_bound(first, last, n);
//lower_bound:大于等于
//upper_bound:大于
return pos == last ? *(last - 1) : *pos;
}
3.key不能取模的问题
当key是string/Date等类型时,key不能取模,那么我们需要给HashTable增加一个仿函数,这个仿函数支持把key转换成一个可以取模的整形,如果key可以转换为整形并且不容易冲突,那么这个仿函数就用默认参数即可,如果这个Key不能转换为整形,我们就需要自己实现一个仿函数传给这个参数,实现这个仿函数的要求就是尽量key的每值都参与到计算中,让不同的key转换出的整形值不同。string做哈希表的key非常常见,所以我们可以考虑把string特化⼀下。
cpp
//适用于:整型、浮点型
template<class K>
struct HashFunc
{
size_t operator()(const K& key)
{
return (size_t)key;
}
};
//适用于:字符串
struct StringHashFunc
{
size_t operator()(const string& s)
{
size_t hash = 0;
for (auto& ch : s)
{
hash += ch;
}
return hash;
}
};
//string较为常用,可以进行特化
template<>
struct HashFunc<string>
{
//字符串转换成整形,可以把字符ASCII码相加即可
//但是直接相加的话,类似"abcd"和"bcad"这样的字符串计算出是相同的
//这里我们使用BKDR哈希的思路,用上次的计算结果去乘一个质数,这个质数一般取31, 131等效果会比较好
size_t operator()(const string& s)
{
size_t hash = 0;
for (auto& ch : s)
{
hash += ch;
hash *= 131;
}
return hash;
}
};
struct Date
{
int _year;
int _month;
int _day;
Date(int year = 1, int month = 1, int day = 1)
:_year(year)
, _month(month)
, _day(day)
{}
//注意:哈希表需要支持等于的比较
bool operator==(const Date& d)
{
return _year == d._year
&& _month == d._month
&& _day == d._day;
}
};
struct DateHashFunc
{
size_t operator()(const Date& d)
{
size_t hash = 0;
hash += d._year;
hash *= 131;
hash += d._month;
hash *= 131;
hash += d._day;
hash *= 131;
return hash;
}
};
//Hash:仿函数,若K不是整形,将其转化为一个整形
template<class K, class V, class Hash = HashFunc<K>>
class HashTable
{
private:
vector<HashData<K, V>> _tables;
size_t _n = 0;
};
4.代码实现
cpp
//HashTable.h
#pragma once
#include<vector>
enum State
{
EXIST,
EMPTY,
DELETE
};
template<class K, class V>
struct HashData
{
pair<K, V> _kv; //键值对
State _state = EMPTY; //数据的状态
};
template<class K>
struct HashFunc
{
size_t operator()(const K& key)
{
return (size_t)key;
}
};
//string较为常用,可以进行特化
template<>
struct HashFunc<string>
{
//字符串转换成整形,可以把字符ASCII码相加即可
//但是直接相加的话,类似"abcd"和"bcad"这样的字符串计算出是相同的
//这里我们使用BKDR哈希的思路,用上次的计算结果去乘一个质数,这个质数一般取31, 131等效果会比较好
size_t operator()(const string& s)
{
size_t hash = 0;
for (auto& ch : s)
{
hash += ch;
hash *= 131;
}
return hash;
}
};
struct StringHashFunc
{
size_t operator()(const string& s)
{
size_t hash = 0;
for (auto& ch : s)
{
hash += ch;
}
return hash;
}
};
struct Date
{
int _year;
int _month;
int _day;
Date(int year = 1, int month = 1, int day = 1)
:_year(year)
, _month(month)
, _day(day)
{}
//哈希表需要支持等于的比较
bool operator==(const Date& d)
{
return _year == d._year
&& _month == d._month
&& _day == d._day;
}
};
struct DateHashFunc
{
size_t operator()(const Date& d)
{
size_t hash = 0;
hash += d._year;
hash *= 131;
hash += d._month;
hash *= 131;
hash += d._day;
hash *= 131;
return hash;
}
};
//Hash:仿函数,若K不是整形,将其转化为一个整形
template<class K, class V, class Hash = HashFunc<K>>
class HashTable
{
public:
HashTable()
//:_tables(11) //初始化vector低层数据个数为11:默认值K()和V()
//:_tables(pow(2, _m))
:_tables(__stl_next_prime(0))
, _n(0) //记录真实的数据个数
{}
inline unsigned long __stl_next_prime(unsigned long n)
{
// Note: assumes long is at least 32 bits.
static const int __stl_num_primes = 28;
static const unsigned long __stl_prime_list[__stl_num_primes] =
{
53, 97, 193, 389, 769,
1543, 3079, 6151, 12289, 24593,
49157, 98317, 196613, 393241, 786433,
1572869, 3145739, 6291469, 12582917, 25165843,
50331653, 100663319, 201326611, 402653189, 805306457,
1610612741, 3221225473, 4294967291
};
const unsigned long* first = __stl_prime_list;
const unsigned long* last = __stl_prime_list + __stl_num_primes;
const unsigned long* pos = lower_bound(first, last, n);
//lower_bound:大于等于
//upper_bound:大于
return pos == last ? *(last - 1) : *pos;
}
HashData<K, V>* Find(const K& key)
{
Hash hash;
size_t hash0 = hash(key) % _tables.size();
//size_t hash0 = HashFunc(key);
size_t hashi = hash0;
size_t i = 1;
while (_tables[hashi]._state != EMPTY)
{
if (_tables[hashi]._state == EXIST && _tables[hashi]._kv.first == key)
{
return &_tables[hashi];
}
//线性探测
hashi = (hash0 + i) % _tables.size();
++i;
}
return nullptr;
}
bool Erase(const K& key)
{
HashData<K, V>* ret = Find(key);
if (ret)
{
ret->_state = DELETE;
--_n;
return true;
}
else
{
return false;
}
}
返回k映射后的下标:java中的hashmap
//size_t hashfunc(const k& key)
//{
// //size_t hash = key % _tables.size();
//
// //size_t hash = key & (_tables.size() - 1); //取key的后_m位
// size_t hash = key & (pow(2, _m) - 1); //取key的后_m位
// hash = hash ^ (key >> (32 - _m)); //异或前32-_m位
// return hash;
//}
bool Insert(const pair<K, V>& kv)
{
//若存在,插入失败
if (Find(kv.first))
return false;
//负载因子 >= 0.7时:扩容
if (_n * 10 / _tables.size() >= 7)
{
//方法一
//vector<HashData<K, V>> _newtables(__stl_next_prime(_tables.size() + 1));
//for (auto& data : _tables)
//{
// //旧表的数据映射到新表中
// if (data._state == EXIST)
// {
// size_t hash0 = data._kv.first % _newtables.size();
// size_t hashi = hash0;
// size_t i = 1;
// while (_newtables[hashi]._state == EXIST)
// {
// hashi = (hash0 + i) % _newtables.size();
// ++i;
// }
// _newtables[hashi]._kv = data._kv;
// _newtables[hashi]._state = EXIST;
// ++_n;
// }
//}
//_tables.swap(_newtables);
//方法二
HashTable<K, V, Hash> newht;
//_m++;
//newht._tables.resize(pow(2, _m));
//newht._tables.resize(_tables.size() * 2);
newht._tables.resize(__stl_next_prime(_tables.size() + 1));
for (auto& data : _tables)
{
//旧表的数据映射到新表中
if (data._state == EXIST)
{
newht.Insert(data._kv);
}
}
_tables.swap(newht._tables); //交换的效率比赋值高
}
//size_t hash0 = HashFunc(kv.first);
//size_t hash0 = kv.first % _tables.size();
Hash hash;
size_t hash0 = hash(kv.first) % _tables.size(); //注意是size(),而不是capacity()
size_t hashi = hash0;
size_t i = 1;
//int flag = 1;
while (_tables[hashi]._state == EXIST) //该位置存在数据时:开始线性探测
{
//线性探测
hashi = (hash0 + i) % _tables.size();
i++;
//二次探测
//hashi = (hash0 + (i*i*flag)) % _tables.size();
//if(hashi < 0)
// hashi += _tables.size();
//flag = -1;
//if(flag == 1)
//{
// flag = -1;
//}
//else
//{
// ++i;
// flag = 1;
//}
}
//此时该位置EMPTY/DELETE:插入数据
_tables[hashi]._kv = kv;
_tables[hashi]._state = EXIST;
++_n;
return true;
}
private:
vector<HashData<K, V>> _tables;
size_t _n = 0; //表中存储真实数据的个数
//size_t _m = 16;
};
cpp
//Test.cpp
#define _CRT_SECURE_NO_WARNINGS 1
#include<iostream>
using namespace std;
#include"HashTable.h"
int main()
{
int a1[] = { 19,30,5,36,13,20,21,12 };
HashTable<int, int> ht1;
for (auto& e : a1)
{
ht1.Insert({ e,e });
}
ht1.Insert({ 15,15 });
ht1.Erase(30);
if (ht1.Find(20))
cout << "找到了" << endl;
if (ht1.Find(30))
cout << "找到了" << endl;
else
cout << "没有找到" << endl;
const char* a2[] = { "abcd","sort","insert" };
HashTable<string, string, StringHashFunc> ht2;
for (auto& e : a2)
{
ht2.Insert({ e,e });
}
cout << HashFunc<string>()("abcd") << endl;
cout << HashFunc<string>()("bcad") << endl;
cout << HashFunc<string>()("aadd") << endl;
HashTable<Date, int, DateHashFunc> ht3;
ht3.Insert({ {2024,12,30}, 1 });
ht3.Insert({ {2024,12,31}, 1 });
ht3.Insert({ {2031,12,1}, 24 });
return 0;
}
3.链地址法代码实现
解决冲突的思路:开放定址法中所有的元素都放到哈希表里,链地址法中所有的数据不再直接存储在哈希表中,哈希表中存储一个指针,没有数据映射这个位置时,这个指针为空,有多个数据映射到这个位置时,我们把这些冲突的数据链接成一个链表,挂在哈希表这个位置下面,链地址法也叫做拉链法或者哈希桶。
下面演示 {19,30,5,36,13,20,21,12,24,96} 等这一组值映射到M=11的表中。
h(19) = 8,h(30) = 8,h(5) = 5,h(36) = 3,h(13) = 2,h(20) = 9,h(21) = 10,h(12) = 1,h(24) = 2,h(96) = 88
扩容:开放定址法负载因子必须小于1,链地址法的负载因子就没有限制了,可以大于1。负载因字越大,哈希冲突的概率越高,空间利用率越高;负载因子越小,哈希冲突的概率越低,空间利用率越低。stl中unordered_set/unordered_map的最大负载因子基本控制在1,大于1就扩容,我们下面实现也使用这个方式。
极端场景:如果极端场景下,某个桶特别长怎么办?其实我们可以考虑使用全域散列法,这样就不容易被针对了。但是假设不是被针对了,用了全域散列法,但是偶然情况下,某个桶很长,查找效率很低怎么办?这里在Java8的HashMap中当桶的长度超过一定阀值(8)时就把链表转换成红黑树。一般情况下,不断扩容,单个桶很长的场景还是比较少的,下面我们实现就不搞这么复杂了,这个解决极端场景的思路,了解即可。
cpp
//HashTable.h
namespace hash_bucket
{
template<class K, class V>
struct HashNode
{
pair<K, V> _kv;
HashNode<K, V>* _next;
HashNode(const pair<K, V>& kv)
:_kv(kv)
, _next(nullptr)
{}
};
template<class K, class V, class Hash = HashFunc<K>>
class HashTable
{
typedef HashNode<K, V> Node;
public:
HashTable()
:_tables(__stl_next_prime(0))
, _n(0)
{}
~HashTable()
{
for (size_t i = 0; i < _tables.size(); i++)
{
Node* cur = _tables[i];
while (cur)
{
Node* next = cur->_next;
delete cur;
cur = next;
}
_tables[i] = nullptr;
}
}
inline unsigned long __stl_next_prime(unsigned long n)
{
// Note: assumes long is at least 32 bits.
static const int __stl_num_primes = 28;
static const unsigned long __stl_prime_list[__stl_num_primes] =
{
53, 97, 193, 389, 769,
1543, 3079, 6151, 12289, 24593,
49157, 98317, 196613, 393241, 786433,
1572869, 3145739, 6291469, 12582917, 25165843,
50331653, 100663319, 201326611, 402653189, 805306457,
1610612741, 3221225473, 4294967291
};
const unsigned long* first = __stl_prime_list;
const unsigned long* last = __stl_prime_list + __stl_num_primes;
const unsigned long* pos = lower_bound(first, last, n);
//lower_bound:大于等于
//upper_bound:大于
return pos == last ? *(last - 1) : *pos;
}
Node* Find(const K& key)
{
Hash hash;
size_t hashi = hash(key) % _tables.size();
Node* cur = _tables[hashi];
while (cur)
{
if (cur->_kv.first == key)
{
return cur;
}
cur = cur->_next;
}
return nullptr;
}
bool Erase(const K& key)
{
size_t hashi = key % _tables.size();
Node* prev = nullptr;
Node* cur = _tables[hashi];
while (cur)
{
if (cur->_kv.first == key)
{
if (prev == nullptr)
{
//删除头节点
_tables[hashi] = cur->_next;
}
else
{
//删除中间节点
prev->_next = cur->_next;
}
delete cur;
--_n;
return true;
}
else
{
prev = cur;
cur = cur->_next;
}
}
return false;
}
bool Insert(const pair<K, V>& kv)
{
//若存在,插入失败
if (Find(kv.first))
return false;
Hash hash;
//负载因子==1时:扩容
if (_n == _tables.size())
{
//方法一:扩容时创建新的结点
//HashTable<K, V, Hash> newht;
//newht._tables.resize(__stl_next_prime(_tables.size() + 1));
旧表的数据插入到新表中
//for (size_t i = 0; i < _tables.size(); i++)
//{
// Node* cur = _tables[i];
// while (cur)
// {
// newht.Insert(cur->_kv);
// cur = cur->_next;
// }
//}
//_tables.swap(newht._tables);
//方法二:直接移动旧表的结点到新表,效率更好
vector<Node*> newTable(__stl_next_prime(_tables.size() + 1));
for (size_t i = 0; i < _tables.size(); i++)
{
Node* cur = _tables[i];
while (cur)
{
Node* next = cur->_next;
//头插到新表中
size_t hashi = hash(cur->_kv.first) % newTable.size();
cur->_next = newTable[hashi];
newTable[hashi] = cur;
cur = next;
}
_tables[i] = nullptr;
}
_tables.swap(newTable);
}
size_t hashi = hash(kv.first) % _tables.size();
//头插
Node* newnode = new Node(kv);
newnode->_next = _tables[hashi];
_tables[hashi] = newnode;
++_n;
return true;
}
private:
vector<Node*> _tables; //指针数组
size_t _n; //表中存储数据个数
//struct Date
//{
// list<pair<K, V>> _list;
// map<K, V> _map;
// size_t _len; // <=8存链表,>8存红黑树
//};
//vector<Date> _tables;
//size_t _n;
};
}
cpp
//Test.cpp
int main()
{
int a1[] = { 19,30,5,36,13,20,21,12,24,96 };
hash_bucket::HashTable<int, int> ht1;
for (auto e : a1)
{
ht1.Insert({ e,e });
}
ht1.Insert({ 100,100 });
ht1.Insert({ 101,101 });
cout << ht1.Find(96) << endl;
cout << ht1.Find(30) << endl;
cout << ht1.Find(19) << endl;
cout << ht1.Erase(96) << endl;
cout << ht1.Erase(30) << endl;
cout << ht1.Erase(19) << endl;
cout << ht1.Find(96) << endl;
cout << ht1.Find(30) << endl;
cout << ht1.Find(19) << endl;
const char* a2[] = { "abcd","sort","insert" };
hash_bucket::HashTable<string, string> ht2;
for (auto& e : a2)
{
ht2.Insert({ e,e });
}
return 0;
}