哈希表实现

一、哈希概念

哈希(hash)又称散列,是一种组织数据的方式。从译名来看,有散乱排列的意思。本质就是通过哈希函数把关键字Key跟存储位置建立一个映射关系,查找时通过这个哈希函数计算出Key存储的位置,进行快速查找。

1.直接定址法

当关键字的范围比较集中时,直接定址法就是非常简单高效的方法,比如一组关键字都在【0,99】之间,那我们开一个100个数的数组,每个关键字的值直接就是存储位置的下标。再比如一组关键字都在【a,z】的小写字母,那我们开一个26个数的数组,每个关键字的acsii码减去a的acsii码就是存储位置的下标。也就是说直接定址法的本质就是用关键字计算出一个绝对位置或者相对位置。这个方法我们也可应用于计数排序。

2.哈希冲突

直接定址法的缺点也非常明显,当关键字的范围比较分散时,就很浪费内存甚至内存不够用。假设我们只有数据范围是0~9999的N个值,我们要映射到一个M个空间的数组中(一般情况M>=N)那么我们就要借助哈希函数hf,关键字key被放到数组的hf(key)位置,这里要注意的是hf(key)计算出的值必须在0~M之间。

这里存在的一个问题,两个不同的key可能会映射到同一个位置,这种问题我们叫做哈希冲突(哈希碰撞)。 理想情况是找出一个好的哈希函数避免冲突,但是实际场景中,冲突是不可避免的。所以我们尽可能设计出优秀的哈希函数,减少冲突的次数,同时也要去设计出解决冲突的方案。

3.负载因子

假设哈希表中已经映射存储了N个值,哈希表大小为M,那么负载因子=N/M,负载因子有时也被称为载荷因子或装载因子(load factor)。负载因子越大,哈希冲突的概率越高,空间利用率越高;负载因子越小,哈希冲突的概率越低,空间利用率越低;

4.将关键字转为整数

我们将关键字映射到数组中位置,一般是整数好做映射计算,如果不是整数,我们就得想办法转换为整数。下面哈希函数部分我们讨论时,如果关键字不是整数,那么我们讨论Key是关键字转化成的整数。

5.哈希函数

一个好的哈希函数应该让N个关键字被等概率的均匀散列分布在哈希表的M个空间中,但是实际中却很难做到,但是我们要尽量往这个方向考虑

5.1除数散列法/除留余数法

*除法散列法也叫做除留余数法,顾名思义,假设哈希表大小为M,那么通过key除以M的余数作为映射位置的下标,也就是哈希函数为h(key)=key%M。

*当使用除法散列法时,要尽量避免M为某些值,如2的幂,10的幂等。如果是2^x,那么key%2^x本质就相当于保留key的后x位,那么后x位相同的值所映射的结果是一样的,就冲突了。

如:{63(00111111),31(00011111)}看起来没有关联的值,但如果M为16,那么计算出来的哈希值都为15

*当使用除法散列法时,建议M取一个不太接近2的整数次幂的一个质数

*需要说明的是,实际中也是各显神通,java的HashMap采用除法散列法就是2的整数次幂做哈希表的大小M,因为这样的话可以直接进行位运算,那么当然,他不单单是仅仅位运算,比如M为2^16,本质是取后16位,那么用key'=key>>16,然后把key和key'异或的结果作为哈希值,也就是我们映射的范围还是在0~M的范围里,但尽可能让更多的位都参与计算,这样映射出的哈希值更均匀一些。M取不太接近2的整数次幂的一个质数的理论为大多数数据结构书籍中写的理论,但实践中灵活运用,抓本质。

5.2 乘法散列法

乘法散列法对哈希表大小M没有要求,他的大思路第一步:用关键字K乘上常数A(0<A<1),并抽取k*A的小数部分。第二步:后再用M乘以k*A的小数部分,再向下取整。

h(key)=floor(M*((A*key)%1.0)),其中floor表示对表达式进行向下取整,A属于0~1,这里最重要的是A值该如何设定,Knuth认为A为黄金分割点比较好。

乘法散列法对哈希表大小M是没有要求的,假设M为1024,key为1234,A=0.6180339887,A*Key=762.6539420558, M×((A×key)%1.0)=0.6539420558*1024= 669.6366651392,那么h(1234)=669。

理解:A*key取小数部分保证了A的所有位次参与运算,乘M保证了大小不会超出数组范围。

5.3 全域散列法

假设存在一个恶意对手,他针对我们提供的散列函数,特意构造出一个发生严重冲突的数据集,比如让所有关键字落入同一个位置中。这种情况是可以存在的,只要散列函数是公开且确定的,就可以实现此攻击。解决方法是见招拆招,给散列函数增加随机性,攻击者就无法找出确定可以导致最坏情况的数据。这种方法叫做全域散列

需要注意的是,每次初始化哈希表时,随机选取全域散列函数组中的一个散列函数使用,后续增删查改都固定使用这个散列函数,否则每次哈希都是随机选取一个函数,插入和查找的散列函数不同,就会导致找不见插入的key值了

6.处理哈希冲突

6.1 开放定址法

在开放定址法中所有的元素都放入哈希表里。当一个关键字key用哈希函数计算出的位置冲突了,则按照某种规则找到一个没有存储数据的位置进行存储,开发定址法的负载因子一定是小于1的。处理哈希冲突这里的规则有三种:线性探测,二次探测,双重探测。

线性探测

从哈希表发生冲突的位置开始,依次线性向后探测,直到寻找到下一个没有数据的位置为止,如果走到哈希表尾部,则回绕到哈希表的头部。

h(key)=hash0=key%M,hash0位置冲突了,则线性探测公式为:

hc(key,i)=hashi=(hash0+i)%M,i={1,2,3......M-1},因为负载因子小于1,则最多被探测M-1次,一定你找到一个存储key的位置。

线性探测的比较简单且容易实现,线性探测的问题假设,hash0的位置连续冲突,hash0,hash1,hash2位置已经存储数据了,后续映射到hash0,hash1,hash2,hash3的值都会争夺hash3位置,这种现象叫做麇集/堆积。下面的二次探测可以一定程度上改善这个问题。

下⾯演⽰ {19,30,5,36,13,20,21,12} 等这⼀组值映射到M=11的表中。

二次探测

从发生冲突的位置来开始,依次左右按二次方跳跃式探测,直到寻找到下一个没有存储数据位置为止,如果往右走到哈希表尾,则回绕到哈希表头的位置;如果往左走到哈希表头,则回绕会哈希表尾。

h(key) =hash0 =key%M,hash0位置冲突了,则二次探测公式为:

hc(key,i)=hashi=(hash0+-i^2)%M,i1~M/2

二次探测当hashi=(hash0-i^2)%M时,当hashi<0时,需要hashi+=M

下⾯演⽰ {19,30,52,63,11,22} 等这⼀组值映射到M=11的表中。

双重散列(了解)

第一个哈希函数计算出的值发生冲突,使用第二个哈希函数计算出一个根key相关的偏移量值,不断往后探测,直到寻找到下一个没有存储数据的位置为止。

h1(key)=hash0=key%M,hash0位置冲突了,则双重探测公式为:

hc(key,i)=hashi=(hash0+i*h2(key))%M,i=1~M

要求h2(key)<M且h2(key)和M互为质数,有两种简单的取值方法:1.当M为2的整数次幂h2(key)从0~M-1任意选一个奇数;2.当M为质数时,h2(key)=key%(M-1)+1

保证h2(key)与M互质是因为根据固定的偏移量所寻址的所有位置将形成一个群,若最大公约数p=gcd(M,h1(key))>1,那么所能寻址的位置个数为M/P<M,使得对于一个关键字来说无法充分利用整个散列表。

6.2开放定址法代码实现

开放定址法在实际中,不如下面讲的链地址法,因为开放定址法解决冲突不管使用哪种方法,占用的都是哈希表中的空间,始终存在互相影响的问题。所以开放定址法,我们简单选择线性探测法即可

开放定址法的哈希表结构
cpp 复制代码
enum State{//枚举结点类型
	EMPTY,DELETE,EXIT
};
template<class K,class V>
struct HashNode {//哈希表的结构
	HashNode(K k=K(), V v=V()) {
		_kv = std::make_pair(k, v);
	}
	std::pair<K, V> _kv;
	State _state=EMPTY;
};
template<class K, class V, class Func = HashFunc<K>>
class HashTable {//哈希表
private:
	std::vector<HashNode<K, V>> _table;
	size_t n = 0;
	Func Func;
};

要注意的是这里需要给每个存储值的位置增加一个状态标识,否则则删除一些值以后,会影响后面冲突的值的查找。如图,我们删除30,会导致20查找失败,当我们给每一个位置加一个状态标识{EXIT,EMPTY,DELETE},删除30就可以不用删除值,而是把状态改为DELETE。

扩容

这里我们哈希表的负载因子控制在0.7,当负载因子到0.7以后我们就需要扩容了,我们还是按照2倍扩容,但是同时我们要保证哈希表的大小为一个质数,第一个是质数,2倍以后就不是质数了。那么该如何解决了?一种方案可是上面除数散列中我们讲的Java HashMap使用2的整数幂,但计算时不直接取模的改进方法。另外一种方案是sgi版本的哈希表使用的方法,给了一个近似2倍的质数表,每次去质数表获取扩容后的大小。

cpp 复制代码
	unsigned long next_prime(unsigned long n) {
		static const int num_primes = 28;
		static const unsigned long prime_list[num_primes] = {

				53, 97, 193, 389, 769,
				1543, 3079, 6151, 12289, 24593,
				49157, 98317, 196613, 393241, 786433,
				 1572869, 3145739, 6291469, 12582917, 25165843,
				50331653, 100663319, 201326611, 402653189, 805306457,
				1610612741, 3221225473, 4294967291
		};
		const unsigned long* first = prime_list;
		const unsigned long* last = prime_list + num_primes;
		const unsigned long* pos = std:: lower_bound(first, last, n);

		return pos == last ? *(last - 1) : *pos;
	}
key不能取模的问题

当key是string/Date等类型时,key不能取模,那么我们需要给HashTable增加一个仿函数,这个仿函数支持把key转换成一个可以取模的整型,如果key可以转换为整型并且不容易冲突,那么这个仿函数就用默认参数即可,,如果这个key不能转化为整型,我们就需要自己实现一个仿函数传给这个参数,实现这个仿函数的要求是尽量key的每值都参与到计算中,让不同的key转换出的整型值不同。string做哈希表的key特别常见,所以我们考虑把string特化一下。

cpp 复制代码
template<class K>
struct HashFunc {
	size_t operator()(const K& key) {
		return (size_t)key;
	}
};
//特化
template<>
struct HashFunc<std::string> {
    //字符串转换成整型,可以把字符ASCII码相加即可
    //直接相加会出现顺序不同,但字母相同导致的计算结果是相同的
    //这里我们使用BKDR哈希的思路,用上次的计算结过去乘以一个质数,这个质数一般去31,131等效果比较好
	size_t operator()(const std::string& key) {
		size_t hashi = 0;
		for (auto e : key) {
			hashi *= 31;
			hashi += e;
		}
		return hashi;
	}
};
完整代码展示
cpp 复制代码
#pragma once
#include<iostream>
#include<vector>
template<class K>
struct HashFunc {
	size_t operator()(const K& key) {
		return (size_t)key;
	}
};
template<>
struct HashFunc<std::string> {
	size_t operator()(const std::string& key) {
		size_t hashi = 0;
		for (auto e : key) {
			hashi *= 31;
			hashi += e;
		}
		return hashi;
	}
};
namespace AAA {
	enum State{
		EMPTY,DELETE,EXIT
	};
	template<class K,class V>
	struct HashNode {
		HashNode(K k=K(), V v=V()) {
			_kv = std::make_pair(k, v);
		}
		std::pair<K, V> _kv;
		State _state=EMPTY;
	};
	unsigned long next_prime(unsigned long n) {
		static const int num_primes = 28;
		static const unsigned long prime_list[num_primes] = {

				53, 97, 193, 389, 769,
				1543, 3079, 6151, 12289, 24593,
				49157, 98317, 196613, 393241, 786433,
				 1572869, 3145739, 6291469, 12582917, 25165843,
				50331653, 100663319, 201326611, 402653189, 805306457,
				1610612741, 3221225473, 4294967291
		};
		const unsigned long* first = prime_list;
		const unsigned long* last = prime_list + num_primes;
		const unsigned long* pos = std:: lower_bound(first, last, n);

		return pos == last ? *(last - 1) : *pos;
	}
	template<class K, class V, class Func = HashFunc<K>>
	class HashTable {
	public:
		//扩容
		bool reserve() {
			//定义新的HashTable
			HashTable<K,V,HashFunc<K>> _temp;
			//以质数表下一个质数为容量扩容
			_temp._table.resize(next_prime(_table.size() + 1));
			for (int i = 0; i < _table.size(); i++) {
				//将所有状态为存在的值重新插入新的HashTable
				if(_table[i]._state==EXIT)
				_temp.insert(_table[i]);
			}
			_temp._table.swap(_table);//交换新旧HashTable的数组
			return true;
		}
		bool insert(const HashNode<K,V>& _Node){
			if (_table.size()==0||(double)n/(double)_table.size() >= 0.7) {
				reserve();//大于0.7或者第一次插入将进行扩容
			}
			size_t hashi = Func(_Node._kv.first) % _table.capacity();
			size_t hash = hashi;
			while (1) {
				
				if (_table[hashi]._state == EMPTY|| _table[hashi]._state == DELETE) {
					_table[hashi] = _Node;
					_table[hashi]._state = EXIT;
					n++;
					break;
				}
				else {
					if (_table[hashi]._kv.first == _Node._kv.first) {
						return false;//去重
					}
					hashi = (hash + 1) % _table.size();
					hash = hashi;
				}
			}
			return  true ;
		}
		bool erase(const K& k) {
			HashNode<K, V>*  Node=Find(k);
			if (Node == nullptr) {
				return false;
			}
			Node->_state = DELETE;//只需置为DELETE就OK,不用去覆盖值
			n--;
			return true;
		}
		HashNode<K, V>* Find(const K& k) {
			size_t hashi = Func(k) % _table.size();
			size_t hash = hashi;
			while (_table[hashi]._state != EMPTY) {
				if (_table[hashi]._state == EXIT&&_table[hashi]._kv.first==k) {
					return &_table[hashi];
				}
				else {
					hashi = (hash + 1) % _table.size();
					hash = hashi;
				}
			}
			return nullptr;
		}
	private:
		std::vector<HashNode<K, V>> _table;
		size_t n = 0;//表中存储数据的个数
		Func Func;
	};
}

6.3 链地址法

解决冲突的思路

开放定址法中所有的元素都放到哈希表里,链地址法中所有的数据不在直接存储到哈希表里,哈希表中存储一个指针,没有数据映射到这个位置时,这个指针为空,有多个数据映射到这个位置时,我们把这些冲突的数据链接成链表。挂在哈希表这个位置的下面,链地址法也叫做拉链法或者哈希桶。

扩容

开放定址法负载因子必须小于1,链地址发的负载因子就没有限制了,可以大于1。负载因子越大,哈希冲突的概率越高;空间利用率越高,负载因子就越小,哈希冲突的概率就越低,空间利用率就越低,std中unorder_xxx的最大负载因子基本控制在1,大于1就扩容。

极端场景

如果极端场景下,某个桶特别长怎么办?其实我们可以考虑全域散列法,这样就不容易被针对了。但是假设不是被针对了,用了全域散列法,但偶然情况下,某个桶很长,查找效率很低怎么办?

这里在java8和HashMap中当桶的长度超过一个阈值(8)时就把链表转换成红黑树。一般情况下,不断扩容,单个桶很长的场景还是比较少的。

6.4 链地址法代码实现

cpp 复制代码
#pragma once
#include<iostream>
#include<vector>
namespace hash_bucket {  //这里T是const的   你有了一个pair对象后里面的是成员变量是const修饰的   
	template<class T>//哈希结点
	struct HashNode {
		HashNode(const T& t=T(), HashNode<T>* next = nullptr) :_next(next), _t(t) {}
		HashNode<T>* _next;
		T _t;
	};

	template<class K>//转成数字的函数
	struct HashFunc {
		size_t operator()(const K& t) {
			//std::cout << t << std::endl;
			return t;
		}
	};
	
	template<>//对string类型进行特例
	struct HashFunc<std::string> {
		size_t operator()(const std::string& t) {
			size_t hashi = 0;
			for (auto e : t) {
				hashi += e;
				hashi *= 31;
			}
			return hashi;
		}
	};
	size_t next_prime(unsigned long n) {//质数表
		static const int num_primes = 28;
		static const unsigned long prime_list[num_primes] = {

				53, 97, 193, 389, 769,
				1543, 3079, 6151, 12289, 24593,
				49157, 98317, 196613, 393241, 786433,
				 1572869, 3145739, 6291469, 12582917, 25165843,
				50331653, 100663319, 201326611, 402653189, 805306457,
				1610612741, 3221225473, 4294967291
		};
		const unsigned long* first = prime_list;
		const unsigned long* last = prime_list + num_primes;
		const unsigned long* pos = std::lower_bound(first, last, n);

		return pos == last ? *(last - 1) : *pos;
	}
	template<class K, class T, class Ref, class Ptr, class KeyOfT, class Hash >
	struct Hash_Iterator;



	//哈希表  std::pair<const K, V>, KeyOfT
	template<class K,class T,class KeyOfT,class Hash=HashFunc<K>>
	class Hash_Bucket {
	public:
		typedef Hash_Iterator<K,T, T&, T*, KeyOfT, Hash> Iterator;
		typedef Hash_Iterator<K,T, const T&, const T*, KeyOfT, Hash> ConstIterator;
		typedef HashNode<T> Node;
		template<class K, class T, class Ref, class Ptr, class KeyOfT, class Hash >
		friend struct Hash_Iterator;
		Hash_Bucket() :_n(0) { _vh.resize(next_prime(_vh.size())); }
		~Hash_Bucket() {
			for (int i = 0; i < _vh.size(); i++) {
				if (_vh[i] != nullptr) {
					Node* pnext = nullptr;
					Node* pcur = _vh[i];
					while (pcur) {
						pnext = pcur->_next;
						delete pcur;
						pcur = pnext;
					}
				}
				_vh[i] = nullptr;
			}
		
		}
		Iterator find(const K& k) {
			size_t hashi = Func(k) % _vh.size();
			Node* cur = _vh[hashi];
			while (cur) {//找见对应的桶,在桶上查找
				if (kot(cur->_t) == k) {
					return Iterator(*this,cur);
				}
				else {
					cur = cur->_next;
				}
			}
			return Iterator(*this,nullptr);
		}
		// const std::pair<const K, V>& t
		std::pair<Iterator, bool> insert(const T& t) {
			if (_n == _vh.size()) {
				std::vector<HashNode<T>*> newtable;
				newtable.resize(next_prime(_vh.size() + 1));
				for (int i = 0; i < _vh.size(); i++) {
					Node* cur = _vh[i];
					while (cur) {
						size_t hashi = Func(kot(t)) % newtable.size();
						Node* prev=newtable[hashi];//将新表原来的值储存起来
						newtable[hashi] = cur;//头插入新的值
						cur = cur->_next;//更新cur,使其指向下一个待插入的值
						newtable[hashi]->_next = prev;//将新表原来的值连回去
					}
					_vh[i] = nullptr;
				}
				_vh.swap(newtable);
			}
			if (find(kot(t)).p!=nullptr) {//去重
				return { Iterator(*this,find(kot(t)).p), false };
			}
			size_t hashi = Func(kot(t)) % _vh.size();
			Node* cur = _vh[hashi];
			Node* NewNode = new Node(t); 
			NewNode->_next = cur;
			_vh[hashi] = NewNode;
			++_n;
			return { Iterator(*this,_vh[hashi]), true};
		}
		bool erase(const K& k) {
			Node* goal = find(k).p;
			if (goal == nullptr) {
				return false;//找不见,提示删除失败
			}
			size_t hashi = Func(k) % _vh.size();
			Node* prev = _vh[hashi];
			if (prev == goal) {//在桶的顶部,直接头删
				_vh[hashi] = prev->_next;
				delete prev;
				_n--;
				return true;
			
			}
			else {//找见要删的上一个结点
				while (prev->_next != goal) {
					prev = prev->_next;
				}
				prev->_next = goal->_next;
				delete goal;
				_n--;
				return true;
			}
		}
		Iterator begin() {
			if (_n == 0) {
				return end();
			}
			size_t hashi = 0;
			//寻找第一个不为空的桶
			while (_vh[hashi] == nullptr) {
				hashi++;
			}
			return Iterator(*this, _vh[hashi]);
		}
		Iterator end() {
			return Iterator(*this, nullptr);
		}
		ConstIterator cbegin()const  {
			if (_n == 0) {
				return cend();
			}
			size_t hashi = 0;
			//寻找第一个不为空的桶
			while (_vh[hashi] == nullptr) {
				hashi++;
			}
			return ConstIterator(*this, _vh[hashi]);
		}
		ConstIterator cend() {
			return ConstIterator(*this, nullptr);
		}

	private:
		Hash Func;//将key变成数字的仿函数
		std::vector<HashNode<T>*> _vh;
		size_t _n;//哈希表中元素个数
		KeyOfT kot;//取k
	};
	

二、用哈希表封装自己的unordered_map和unordered_set

1.实现出复用哈希表的框架,并支持insert

*参考源码框架,unordered_map和unordered_set复用之前我们实现的哈希表。

*我们这里相比源码调整一下,key用K,value用V,哈希表中的数据类型我们使用T。

*其次跟map和set相比而言unordered_map和unordered_set的模拟实现类的结构更复杂一点,但是大体思路完全类似。因为HashTable实现了泛型,不知道T参数导致是K,还是pair<K,V>,那么insert内部进行插入时,要用K对象转换成整型取模和K比较相等,因为pair的value不参与计算取模,且默认支持的是key和value一起比较相等,我们需要时的任何时候只需要比较K对象,所以我们在unordered_map和unordered_set层分别实现一个KeyOfT的仿函数传给HashTable的KeyOfT,然后HashTable中通过KeyOfT仿函数取出T类型对象中的K对象,再转换成整型取模和K比较相等。

unordered _set

cpp 复制代码
#pragma once
#pragma once
#include"hash_bucket.h"
using namespace hash_bucket;
namespace AAA {
	template<class K>
	class unordered_set {

	public:
		struct KeyOfT {
			const K& operator()(const K& _k) {
				return _k;
			}
		};
		typedef typename Hash_Bucket< K,const K, KeyOfT>::Iterator iterator;
		typedef typename Hash_Bucket<K, const K, KeyOfT>::ConstIterator const_iterator;
		std::pair<iterator, bool> insert(const K& k) {
			return Hash_B.insert(k);
		}
		bool erase(const K& k) {
			return Hash_B.erase(k);
		}
		iterator begin() {
			return Hash_B.begin();
		}
		iterator end() {
			return Hash_B.end();
		}
		const_iterator cbegin() {
			return cbegin();
		}
		const_iterator cend() {
			return Hash_B.cend();
		}
	private:
		Hash_Bucket< K, const K, KeyOfT> Hash_B;
	};
}

unordered_map

cpp 复制代码
#pragma once
#include"hash_bucket.h"
using namespace hash_bucket;
namespace AAA {
	template<class K,class V>
	class unordered_map {
		
	public:
		struct KeyOfT {
			const K& operator()(const std:: pair<const K, V>& _kv) {
				return _kv.first;
			}
		};
		typedef typename Hash_Bucket<K, std::pair<const K, V>, KeyOfT>::Iterator iterator;
		typedef typename Hash_Bucket<K, std::pair<const K, V>, KeyOfT>::ConstIterator const_iterator;
		std::pair<iterator, bool> insert(const std::pair<const K, V>& kv) {
			return Hash_B.insert(kv);
		}
		bool erase(const K& k) {
			return Hash_B.erase(k);
		}
		iterator begin() {
			return Hash_B.begin();
		}
		iterator end() {
			return Hash_B.end();
		}
		const_iterator cbegin() {
			return cbegin();
		}
		const_iterator cend() {
			return Hash_B.cend();
		}
	private:
		Hash_Bucket<K, std::pair<const K, V>, KeyOfT> Hash_B;
	};
}

2.支持迭代器iterator实现

iterator实现思路分析

*iterator实现的大框架跟list的iterator思路是一致的,用一个类型封装结点的指针,再通过运算符重载实现,迭代器像指针一样访问的行为,要注意的是哈希表的迭代器是单向迭代器

*这里的难点是operator++的实现。iterator中有一个指向结点的指针

情况1:如果当前桶下还有结点,直接去寻找下一个结点即可

情况2:如果当前桶已经遍历完,则需要找见下一个不为空的桶。这里单单有指向结点的指针是完不成操作的,因此我们还需传入数表的指针,用Func来算出当前桶的位置,继续向后寻找下一个桶即可。

*begin()返回第一桶中的第一个结点指针构造的迭代器,end()返回迭代器可以用空表示。

*unordered_map的迭代器不支持修改key但是可以修改value,我们把unordered_msp的第二个模版参数pair的第一个参数改为const K即可Hash_Bucket<K, std::pair<const K, V>, KeyOfT> Hash_B;

cpp 复制代码
	//迭代器
	template<class K,class T,class Ref,class Ptr,class KeyOfT,class Hash>
	struct Hash_Iterator {
		using self = Hash_Iterator<K,T, Ref, Ptr,KeyOfT,Hash>;
		using HB = Hash_Bucket<K,T, KeyOfT, Hash>;
		using Node = HashNode<T>;
		Hash_Iterator(HB& hb,HashNode<T>* iterator = nullptr) : p(iterator),_hb(hb){ //这里是对象的引用  不是this指针的引用
		}
		Ref operator*() {
			return p->_t;
		}
		Ptr operator->() {
			return &(p->_t);
		}
		self& operator++() {
			if (p->_next == nullptr) {//当前桶无结点,寻找下一个结点
				size_t hashi = _hb.Func(_hb.kot(p->_t)) % _hb._vh.size()+1;
				while (hashi < _hb._vh.size()) {
					if (_hb._vh[hashi] == nullptr) {
						hashi++;
					}
					else {
						p = _hb._vh[hashi];
						break;
					}
				}
				if(hashi==_hb._vh.size())
					p = nullptr;//无下一个结点了,相当于end()
			}
			else {
				//直接找到当前桶的下一个结点
				p = p->_next;
			}
			return *this;
		}
		self& operator--() {
			//当迭代器为end()时
			if (p == nullptr) {
				size_t hashi = _hb._vh.size();
				hashi--;
				while (_hb._vh[hashi] == nullptr) {
					hashi--;
				}
				p= _hb._vh[hashi];
				while (p->_next != nullptr) {
					p = p->_next;//寻找到最后一个桶的最后一个结点
				}
				return *this;
			}
			size_t hashi = _hb.Func(_hb.kot(p->_t)) % _hb._vh.size();
			if (_hb._vh[hashi] == p) {//在桶的最上面,表示当前桶已经遍历完了
				hashi--;
				while (_hb._vh[hashi] == nullptr) {
					hashi--;
				}
				p = _hb._vh[hashi];
				while (p->_next != nullptr) {
					p = p->_next;
				}
			}
			else {//找当前结点的上一个
				Node* prev = _hb._vh[hashi];
				while (prev->_next != p) {
					prev = prev->_next;
				}
				p = prev;
			}
			return *this;
		}
			bool operator==(const self& it) {
				return it.p == p;
			}
			bool operator!=(const self& it) {
				return it.p != p;
			}
			HB& _hb;
		HashNode<T>* p;

		
	};
相关推荐
Kuo-Teng9 小时前
LeetCode 279: Perfect Squares
java·数据结构·算法·leetcode·职场和发展
CoderYanger10 小时前
B.双指针——3194. 最小元素和最大元素的最小平均值
java·开发语言·数据结构·算法·leetcode·职场和发展·1024程序员节
SalvoGao10 小时前
Python学习 | 怎么理解epoch?
数据结构·人工智能·python·深度学习·学习
兩尛14 小时前
215. 数组中的第K个最大元素
数据结构·算法·排序算法
9523614 小时前
数据结构-堆
java·数据结构·学习·算法
不会编程的小寒14 小时前
数据结构 2.0
数据结构·算法
while(1){yan}14 小时前
MYSQL索引的底层数据结构
数据结构·数据库·mysql
Wenhao.14 小时前
LeetCode Hot100 每日温度
数据结构·算法·leetcode·golang
CodeAmaz15 小时前
通用 List 分批切割并循环查询数据库工具类
java·数据结构·工具类·分页