当前位置: 首页 > news >正文

[C++]——哈希(附源码)

目录

​编辑

​编辑

一、前言

二、正文

2.1 unorder系列关联式容器

2.1.1 unordered_map 

2.1.1.1 unorderer_map的介绍

        ①unordered_map的构造

        ②unordered_map的容量

        ③unordered_map的迭代器

        ④unordered_map的元素访问

        ⑤unordered_map的查询

        ⑥unordered_map的修改操作

        ⑦unordered_map的桶操作

2.1.2 unordered_set

2.2 底层结构 

2.2.1 哈希概念 

2.2.2 哈希冲突

 2.2.3 哈希函数

2.3 哈希冲突解决

2.3.1 闭散列 

2.3.2 闭散列模拟实现

2.3.2.1 插入

2.3.2.2  删除

2.3.2.3 查找

 2.3.3 开散列及其模拟实现

2.3.3.1 开散列概念

2.3.3.2 插入

2.3.3.3 删除

2.3.3.3 查找

2.4 unordered_map与unordered_set的模拟实现

2.4.1 哈希表的改造

 ①模版参数列表的改造

 ②增加迭代器操作

2.4.2 unordered_set模拟实现

2.4.3 unordered_map模拟实现

三、全部代码

1.闭散列的哈希表

2.开散列的哈希表

3.改造的哈希表

4.unordered_set

5.unoredered_map

四、结语


一、前言

      在上一篇博客中,为小伙伴们进行了红黑树的讲解,但是为了进一步提高数据的插入效率,便出现了哈希表,接下来就为大家带来哈希表的介绍,如有不足之处,欢迎各位大佬们给予指正!

二、正文

2.1 unorder系列关联式容器

        在C++98中,STL提供了底层为红黑树结构的一系列关联式容器,在查询时效率可达到log N,即最差情况下需要比较红黑树的高度次,当树中的节点非常多时,查询效率也不理想。最好的查询是,进行很少的比较次数就能够将元素找到,因此在C++11中,STL又提供了4个unordered系列的关联式容器,这四个容器与红黑树结构的关联式容器使用方式基本类似,只是其底层结构不同,本文中只对unordered_map和unordered_set进行介绍,至于剩下的unordered_multimap和unordered_multiset大家可自行了解。

2.1.1 unordered_map 

2.1.1.1 unorderer_map的介绍

        1. unordered_map是存储键值对的关联式容器,其允许通过keys快速的索引到与其对应的value

        2. 在unordered_map中,键值通常用于惟一地标识元素,而映射值是一个对象,其内容与此键关联。键和映射值的类型可能不同。

        3. 在内部,unordered_map没有按照任何特定的顺序排序, 为了能在常数范围内找到key所对应的value,unordered_map将相同哈希值的键值对放在相同的桶中。

        4. unordered_map容器通过key访问单个元素要比map快,但它通常在遍历元素子集的范围迭代方面效率较低

        5. unordered_maps实现了直接访问操作符(operator[]),它允许使用key作为参数直接访问 value。

        6. 它的迭代器至少是前向迭代器。        

        大家若想详细了解,可移步至其在线文档说明:

https://cplusplus.com/reference/unordered_map/unordered_map/?kw=unordered_map

2.1.1.2 unordered_map的接口说明

        ①unordered_map的构造
函数说明功能介绍
unordered_map构造不同格式的unordered_map对象
        ②unordered_map的容量
函数说明功能介绍
bool empty() const检测unordered_map是否为空
size_t size() const获取unordered_map的有效元素个数
        ③unordered_map的迭代器
函数说明功能介绍
begin返回unordered_map第一个元素的迭代器
end返回unordered_map最后一个元素下一个位置的迭代器
cbegin返回unordered_map第一个元素的const迭代器
cend返回unordered_map最后一个元素下一个位置的const迭代器
        ④unordered_map的元素访问
函数说明功能介绍
operator[]返回与key对应的value,设有一个默认值

注:        

        对于map中的operator[],其于我们之前所了解的vector,string的[]有所不同。对于之前的容器的[],我们是用于访问容器中存储的数据,但是对于map而言,若是查询的key不在容器中,便会先执行插入的操作,然后再进行对应位置的访问

        在后面我们会认识到unordered_map一般是对哈希桶进行封装,所以该函数中实际调用哈希桶的插入操作,用参数key与V()构造一个默认值往底层哈希桶中插入,如果key不在哈希桶中,插入成功,返回V(),插入失败,说明key已经在哈希桶中, 将key对应的value返回。

        ⑤unordered_map的查询
函数说明功能介绍
iterator find(const K& key)返回key在哈希桶中的位置
size_t count(const K& key)返回哈希桶中关键码为key的键值对的个数

注:

         unordered_map中key是不能重复的,因此count函数的返回值最大为1

        ⑥unordered_map的修改操作
函数声明功能介绍
insert向容器中插入键值对
erase删除容器中的键值对
void clear()清空容器中有效元素个数
void swap(unorderde map&)交换两个容器中的元素
        ⑦unordered_map的桶操作
函数说明功能介绍
size_t bucket_count() const返回哈希桶中桶的总个数
size_t bucket_size ( size_t n ) const返回n号桶中有效元素的总个数
size_t bucket ( const key_t& k ) const返回元素key所在的桶号

2.1.2 unordered_set

        unordered_set的功能与unordered_map类似,只是后者比前者多存储一个数据,就像之前笔者所学过的set与map,具体功能可见下面文档:

unordered_set在线文档说明

2.2 底层结构 

        在上一节红黑树的学习中,我们知道其插入的效率几乎可以达到logN的程度,已经蛮厉害了,那么unordered系列的关联式容器效率还能更高,其实是因为其底层使用了哈希结构

2.2.1 哈希概念 

顺序结构以及平衡树中,元素关键码与其存储位置之间没有对应的关系,因此在查找一个元素时,必须要经过关键码的多次比较。顺序查找时间复杂度为O(N),平衡树中为树的高度,即 O(logN),搜索的效率取决于搜索过程中元素的比较次数。

理想的搜索方法:可以不经过任何比较,一次直接从表中得到要搜索的元素。 如果构造一种存储结构,通过某种函数(hashFunc)使元素的存储位置与它的关键码之间能够建立 一一映射的关系,那么在查找时通过该函数可以很快找到该元素。

       

 当向该结构中:

        ●插入元素 根据待插入元素的关键码,以此函数计算出该元素的存储位置并按此位置进行存放

        ●搜索元素 对元素的关键码进行同样的计算,把求得的函数值当做元素的存储位置,在结构中按此位置取元素比较,若关键码相等,则搜索成功

   

该方式即为哈希(散列)方法,哈希方法中使用的转换函数称为哈希(散列)函数,构造出来的结构称为哈希表(Hash Table)(或者称散列表)

        

例如:数据集合{1,7,6,4,5,9};

         

哈希函数设置为:hash(key) = key % capacity; capacity为存储元素底层空间总的大小。

 

        用该方法进行搜索不必进行多次关键码的比较,因此搜索的速度比较快。但是其也存在一个问题,也是当我们当们插入的元素中,如果存在两者及其以上的元素通过哈希函数算出来的哈希地址相同,就会导致我们到底该如何存储这些哈希地址相同的元素,这个问题也就是我们下面会讲到的哈希冲突。

2.2.2 哈希冲突

      对于两个数据元素的关键字$k_i$和 $k_j$(i != j),有$k_i$ != $k_j$,但有:Hash($k_i$) == Hash($k_j$),即:不同关键字通过相同哈希哈数计算出相同的哈希地址,该种现象称为哈希冲突或哈希碰撞。  

        把具有不同关键码而具有相同哈希地址的数据元素称为“同义词”。那么发生哈希冲突,我们该如何处理呢?

 2.2.3 哈希函数

  引起哈希冲突的一个原因可能是:哈希函数设计不够合理。      

  哈希函数设计原则:

        ●哈希函数的定义域必须包括需要存储的全部关键码,而如果散列表允许有m个地址时,其值域必须在0到m-1之间

        ●哈希函数计算出来的地址能均匀分布在整个空间中

        ● 哈希函数应该比较简单

                

常见哈希函数:

        1. 直接定址法--(常用)

                取关键字的某个线性函数为散列地址:Hash(Key)= A*Key + B         

                优点:简单、均匀

                缺点:需要事先知道关键字的分布情况

                使用场景:适合查找比较小且连续的情况

        

        2. 除留余数法--(常用)

                设散列表中允许的地址数为m,

                取一个不大于m,但最接近或者等于m的质数p作为除数,

                按照哈希函数:Hash(key) = key% p(p将关键码转换成哈希地址

        

        3. 平方取中法--(了解)

                假设关键字为1234,平方就是1522756,抽中间的3位227作为哈希地址;                              再如关键字为4321,平方就是18671041,抽中间的3位671(或710)作为哈希地址

                平方取中法比较适合:不知道关键字的分布,而位数又不是很大的情况

        

        4. 折叠法--(了解)

                折叠法是将关键字从左到右分割成位数相等的几部分(末尾部分可短些),

                然后将这几部分叠加求和,并按散列表表长,取后几位作为散列地址。

                折叠法适合事先不需要知道关键字的分布,适合关键字位数比较多的情况

       

        5. 随机数法--(了解)

                选择一个随机函数,取关键字的随机函数值为它的哈希地址,

                即H(key) = random(key),其中 random为随机数函数。

                通常应用于关键字长度不等时采用此法

       

         6. 数学分析法--(了解)

                设有n个d位数,每一位可能有r种不同的符号,

                这r种不同的符号在各位上出现的频率不一定相同,

                可能在某些位上分布比较均匀,每种符号出现的机会均等,

                在某些位上分布不均匀只 有某几种符号经常出现。

                可根据散列表的大小,选择其中各种符号分布均匀的若干位作为散列地址。

                例如:

        假设要存储某家公司员工登记表,如果用手机号作为关键字,那么极有可能前7位都是 相同 的,那么我们可以选择后面的四位作为散列地址,如果这样的抽取工作还容易出现 冲突,还 可以对抽取出来的数字进行反转(如1234改成4321)、右环位移(如1234改成4123)、左环移 位、前两数与后两数叠加(如1234改成12+34=46)等方法。

        数字分析法通常适合处理关键字位数比较大的情况,如果事先知道关键字的分布且关键字的 若干位分布较均匀的情况

注意:哈希函数设计的越精妙,产生哈希冲突的可能性就越低,但是无法避免哈希冲突

2.3 哈希冲突解决

        虽然采取合适哈希函数可以适当的减少哈希冲突的产生,但是想要真正的解决哈希冲突,两种常见的方法有:闭散列开散列 

2.3.1 闭散列 

闭散列:也叫开放定址法,当发生哈希冲突时,如果哈希表未被装满,说明在哈希表中必然还有空位置,那么可以把key存放到冲突位置中的“下一个” 空位置中去。那如何寻找下一个空位置呢?

        1. 线性探测:从发生冲突的位置开始,依次向后探测,直到寻找到下一个空位置为止

                 比如2.2.1中的场景,现在需要插入元素44,先通过哈希函数计算哈希地址,hashAddr为4, 因此44理论上应该插在该位置,但是该位置已经放了值为4的元素,即发生哈希冲突。

             

        ★插入

                ●通过哈希函数获取待插入元素在哈希表中的位置

                ●如果该位置中没有元素则直接插入新元素,如果该位置中有元素发生哈希冲突, 使用线性探测找到下一个空位置,插入新元素

 

         2.二次探测

                线性探测的缺陷是产生冲突的数据堆积在一块,这与其找下一个空位置有关系,因为找空位 置的方式就是挨着往后逐个去找,因此二次探测为了避免该问题,找下一个空位置的方法为:$H_i$ = ($H_0$ + $i^2$ )% m, 或者:$H_i$ = ($H_0$ - $i^2$ )% m。其中:i = 1,2,3…, $H_0$是通过散列函数Hash(x)对元素的关键码 key 进行计算得到的位置,m是表 的大小。 对于2.2.1中如果要插入44,产生冲突,第一次算的的地址为4,由于地址为4的表内已经填入4;下一次地址加2^1,得地址为6,依旧有值;下下一次地址加2^2得地址为8,表内为空,可以进行数据的插入。使用解决后的情况为:

 

        ★删除

        采用闭散列处理哈希冲突时,不能随便物理删除哈希表中已有的元素,若直接删除元素 会影响其他元素的搜索。比如删除元素4,如果直接删除掉,44查找起来可能会受影响。因此线性探测采用标记的伪删除法来删除一个元素。 

// 哈希表每个空间给个标记
// EMPTY此位置空, EXIST此位置已经有元素, DELETE元素已经删除enum STATE{EXIST,EMPTY,DELETE};

         ★扩容

         当我们不断往哈希表中插入数据,随着数据量的增大,剩余空间不断减少,就愈发容易地出现哈希冲突,这势必会增大我们插入数据的消耗,那么我们就需要对哈希表进行扩容,那么我们到底要在什么时候开始扩容呢?这时候就需要引入载荷因子(又称负载因子)这一概念来帮助我们判断什么时候应当对当前容器进行扩容。

        具体介绍见下图:

 

2.3.2 闭散列模拟实现

        接下来我们为大家进行闭散列的哈希模拟实现

        对于这个闭散列的哈希表,它的成员主要有两个,一个是用来存储有效数据的容器,另一个是用记录当前表内有效数据的,我们用一个无符号整型接受即可。

        具体代码见下:

template<class K, class V, class HashFunc = DefaultHashFunc<K>>class HashTable{public:typedef HashTableNode<K, V> Node;private:vector<Node> _table;	//哈希表size_t _n;				//载荷因子};
}
2.3.2.1 插入

        首先是插入操作。

        第一步是封装所需数据,在本文中我们采取存储数据pair的形式来实现,由于我们实现的是闭散列的形式,当我们在进行数据删除的时候,不能直接将数据删除,这样会影响后面元素的查找,这时候我们采取是改变状态值的方式,因此我们除了存储pair还需要存储数据状态,在明确这两点之后我们就可以将其封装方便我们的插入。

        第二步是确定哈希函数,由于我们插入的数据是随机的,并不是连续的,因此我们采取除留余数法来实现我们的哈希函数。为了实现简单,对于整型我们就直接将其对容器的size进行取摩,得到哈希地址,要注意这里不能对容器的capacity进行取摩。这是因为由于我们采取vector的容器来存储我们封装后的数据,得到哈希地址后我们需要通过【】来进行数据的写入,而vector的【】是有越界检查的,所以我们需要对容器的size进行取摩。由于我们插入的不总是整型,随着不同数据使用需求,直接将数据对容器的size进行取摩是不行的,这时候我们就需要随着不同的数据类型进行哈希函数的重载,由于本文主要进行整型和string的插入,因此对于后者string我们就进行了重载,主要通过ASCII码来进行对容器的size进行取摩,又由于string像整型一样,使用的比较频繁,于是我们将重载string的哈希函数进行特化就不需要频繁传参。

        第三步就是往表内插入数据,在进行数据的插入之前,我们需要先计算下容器载荷因子的大小,若是太大,则说明当前容器存储的有效数据较多,容易出现哈希冲突,这时候我们就需要对当前的哈希表进行扩容。由于我们定义的一个无符号整型来记录表内存储的有效数据个数,于是我们只需要将其除以容器的size的就可以获得载荷因子的数据,由于size和_n都是无符号整型,在除后结果小于0,会转化成0,于是我们将结果扩大了十倍,方便进行载荷因子的比较。

        如果载荷因子较大,当前表确实需要扩容,我们就重新创建一个新表,并将其的大小扩大到原表的二倍,并逐一取出原表的元素,将其插入新表并重新进行哈希的映射。

        如果载荷因子较小,说明当前表内的数据还不是很多,我们只需要对元素进行哈希映射插入到表中即可。通过哈希表对应的哈希函数我们可以得到映射的vector下标,若是对应下标的数据为空或是删除,我们就直接插入即可;若是不为空或是删除,我们就进行线性探测,往哈希地址的下一个进行判断,直至找到空或者删除的位置,将元素进行插入。

        具体代码如下:

        bool Insert(const pair<K, V>& kv){//扩容if (_n * 10 / _table.size() > 7){size_t newsize = _table.size() * 2;HashTable<K, V> newHT;newHT._table.resize(newsize);//插入数据并重新映射for (const auto& e : _table){newHT.Insert(e._kv);}_table.swap(newHT._table);}//根据哈希函数得到对应位置下标HashFunc HF;size_t Hashi = HF(kv.first) % _table.size();//根据下标插入数据,若有冲突则线性探测//位置状态为空或者删除则插入while (_table[Hashi]._state == EXIST){if (_table[Hashi]._kv.first == kv.first) return false;++Hashi;}_table[Hashi] = kv;_table[Hashi]._state = EXIST;++_n;return true;}
2.3.2.2  删除

        对于闭散列的哈希表,其元素的删除是较为简单的。

        先对要删除的元素通过哈希函数进行哈希映射找到对应的地址,与表内的数据进行比对,若是找到了,无需将其删除,只需将其状态更改为Delete即可;若是没找到,就直接返回false就可以了。

        具体代码如下:

        bool Erase(const K& key){HashFunc HF;size_t Hashi = HF(key) % _table.size();//找到了while (_table[Hashi]._state != EMPTY){if (_table[Hashi]._kv.first == key && _table[Hashi]._state == EXIST){_table[Hashi]._state = DELETE;return true;}++Hashi;Hashi %= _table.size();}//没找到return false;}
2.3.2.3 查找

        查找的逻辑与删除类似,都是现根据哈希函数来进行哈希映射来找到哈希地址,再根据拿到的哈希地址在表内进行数据的比对,若是数据不匹配或者数据状态为删除,我们就将哈希地址加加,若是一直找到空都没有找到,说该元素并未插入该表内,返回false,找到就返回对应的数据。

        具体代码如下:

        HashTableNode<const K, V>* Find(const K& key){HashFunc HF;size_t Hashi = HF(key) % _table.size();//找到了while (_table[Hashi]._state != EMPTY){if (_table[Hashi]._kv.first == key && _table[Hashi]._state == EXIST){return (HashTableNode<const K, V>*) & _table[Hashi]._kv;}++Hashi;Hashi %= _table.size();}//没找到return nullptr;}

        研究表明:当表的长度为质数且表装载因子a不超过0.5时,新的表项一定能够插入,而且任 何一个位置都不会被探查两次。因此只要表中有一半的空位置,就不会存在表满的问题。在 搜索时可以不考虑表装满的情况,但在插入时必须确保表的装载因子a不超过0.5,如果超出 必须考虑增容。

         因此:闭散列最大的缺陷就是空间利用率比较低,这也是哈希的缺陷

 2.3.3 开散列及其模拟实现

        由于闭散列中一旦载荷因子数值过大,就需要进行扩容,因此其空间利用率比较低的同时开辟新表并插入数据的消耗也比较大,因此接下来我们来讲解另一种实现哈希表的方式——闭散列,而这种方式也是下面我们封装unordered_map和unordered_set的底层容器。

         

2.3.3.1 开散列概念

        开散列法又叫链地址法(开链法),首先对关键码集合用散列函数计算散列地址,具有相同地址的关键码归于同一子集合,每一个子集合称为一个桶,各个桶中的元素通过一个单链表链接起来,各链表的头结点存储在哈希表中。

 

         从上图可以看出,开散列中每个桶中放的都是发生哈希冲突的元素。

2.3.3.2 插入

        闭散列的哈希表插入与开散列的哈希表插入类似,都需要先将插入的元素通过哈希函数进行映射,得到哈希映射,不同的地方在于对哈希冲突的处理以及扩容的判断。

        首先我们先来讲讲扩容。对于闭散列的哈希表来说,它的扩容并不需要像开散列那样进行重新创建一个新表,只需要创建一个新的vector,将原vector中的一个个结点拿下来即可。然后是扩容时机的选择,由于闭散列采取链式的方式将一个个元素链接起来,对于空间的利用率相较于开散列而言会较高,因此其荷载因子可以达到1再进行扩容,也就是平均每个哈希地址下挂一个元素

        再而是哈希冲突的处理,我们无需像闭散列那样采取线性探测或是二次探测的方式来挤占其他哈希地址对应的空间,而是采取链式的方式,将冲突元素头插到当前的哈希地址,将这些冲突的元素像水桶一样挂在对应的哈希地址

        具体代码如下:

        bool Insert(const pair<K, V>& kv){if(Find(kv.first)){return false;}HashFunc hf;// 负载因子到1就扩容if (_n == _table.size()){size_t newSize = _table.size()*2;vector<Node*> newTable;newTable.resize(newSize, nullptr);// 遍历旧表,顺手牵羊,把节点牵下来挂到新表for (size_t i = 0; i < _table.size(); i++){Node* cur = _table[i];while (cur){Node* next = cur->_next;// 头插到新表size_t hashi = hf(cur->_kv.first) % newSize;cur->_next = newTable[hashi];newTable[hashi] = cur;cur = next;}_table[i] = nullptr;}_table.swap(newTable);}size_t hashi = hf(kv.first) % _table.size();// 头插Node* newnode = new Node(kv);newnode->_next = _table[hashi];_table[hashi] = newnode;++_n;return true;}
2.3.3.3 删除

        对于删除这个接口,我们要做的第一步就是查找表内是否有对应的元素,可以复用查找的接口,如果没有直接返回false即可;如果找到了,这时候我们就需要将要删除元素的上下两个节点进行链接,但是由于我们的节点中只存储了下一个节点的指针,因此我们还需要额外定义一个节点指针来记录所删除元素的上一个节点。当然还有一个需要注意的点,就是如果要删除的元素如果是哈希地址的第一个结点,就不需要链接,只需要将其下一个节点给哈希地址就可以了

        具体代码如下: 

        bool Erase(const K& key){HashFunc hf;size_t hashi = hf(key) % _table.size();Node* prev = nullptr;Node* cur = _table[hashi];while (cur){if (cur->_kv.first == key){if (prev == nullptr){_table[hashi] = cur->_next;}else{prev->_next = cur->_next;}delete cur;	return true;}prev = cur;cur = cur->_next;}return false;}
2.3.3.3 查找

        查找这一接口也不难,就是通过哈希函数拿到对应的哈希地址,然后到对应的哈希桶进行元素的遍历,如果找不到则说明当前表内不存在该元素。

        具体代码如下:

        Node* Find(const K& key){HashFunc hf;size_t hashi = hf(key) % _table.size();Node* cur = _table[hashi];while (cur){if (cur->_kv.first == key){return cur;}cur = cur->_next;}return nullptr;}

2.4 unordered_map与unordered_set的模拟实现

2.4.1 哈希表的改造

         在本文中我们对unordered_map与unordered_set的模拟实现采取对闭散列的哈希表进行封装的方式,但是在上面中我们实现的哈希表还并不足以满足我们使用它们两者的需求,因此在封装之前我们还需要对其进行改造。

 ①模版参数列表的改造

        我们改造后的哈希表一共有四个模版参数。

●K:关键码类型——方便我们我们后续查找接口的实现

●T:结点数据——由于我们并不知道是使用这个哈希表的类是set还是map,所以采取泛型的方式,对于set而言它就是K,对于map而言就是pair<K,V>

●KeyOfT:由于我们需要通过结点数据进行哈希函数来取得哈希地址,对于set而言我们可以直接传给哈希函数,但是map的T是pair<K,V>的类型,显然不能直接传给哈希函数,因此我们就需要一个仿函数来帮助我们取出T中的关键码,方便我们取得哈希地址

●HashFunc:哈希函数,帮助我们获得哈希地址进行哈希映射

    template<class K,class T,class Ptr,class Ref,class KeyOfT,class HashFunc>struct HTIterator{};
 ②增加迭代器操作

         对于哈希表的迭代器而言,与以往我们其他容器诸如list,二叉搜索树的实现类似,都是对对节点的指针进行封装,来实现迭代器的各种功能,不过也有其不同的一点。由于闭散列的哈希表是由一个个哈希桶组成的,因此如果只是通过一个节点的指针我们并不能将整个哈希表遍历,于是我们还需要一个哈希表的指针来帮助我们进行各个哈希桶之间的切换

        因此对于哈希表的迭代器而言,我们需要两个成员变量,一个是节点的指针,另一个就是哈希表的指针。由于我们对迭代器进行初始化时需要访问哈希表的指针,但是其为哈希表private成员,因此我们需要将迭代器设为哈希表的友元,这样就能够正常的初始化了。除此之外,由于有要用到哈希表类型的指针,我们还需要对哈希表进行一个前置声明,避免迭代器找不到该类型。

        具体代码如下:

    // 前置声明template<class K, class T, class KeyOfT, class HashFunc>class HashTable;template<class K,class T,class Ptr,class Ref,class KeyOfT,class HashFunc>struct HTIterator{typedef HashNode<T> Node;typedef HTIterator<K, T,Ptr, Ref, KeyOfT,  HashFunc> Self;typedef HTIterator<K, T, T*, T&, KeyOfT, HashFunc> iterator;HTIterator(Node* node, HashTable<K, T, KeyOfT,  HashFunc>* pht):_node(node),_pht(pht){}HTIterator(const iterator& it):_node(it._node), _pht(it._pht){}Self& operator ++(){//当前桶不为空if (_node->_next){_node = _node->_next;}else{KeyOfT Key;HashFunc HF;size_t hashi = (HF(Key(_node->_data))% _pht->_table.size())+1;while (hashi < _pht->_table.size()&&_pht->_table[hashi] == nullptr){++hashi;}//找到不为空或者走到endif (hashi == _pht->_table.size()) _node = nullptr;else _node = _pht->_table[hashi];}return *this;}Ref operator*(){return _node->_data;}Ptr operator->(){return &(_node->_data);}bool operator==(const Self& it) const{return this->_node == it._node;}bool operator!=(const Self& it)const{return this->_node != it._node;}Node* _node;const HashTable<K, T, KeyOfT, HashFunc>* _pht;};

2.4.2 unordered_set模拟实现

2.4.3 unordered_map模拟实现

        对于上面两者的封装我们只需复用哈希表的接口即可,具体实现可见下面代码

三、全部代码

1.闭散列的哈希表

template<class T>
struct DefaultHashFunc
{size_t operator()(T data){return data;}
};template<>
struct DefaultHashFunc<string>
{size_t operator()(const string& str){// BKDRsize_t hash = 0;for (auto ch : str){hash *= 131;hash += ch;}return hash;}
};namespace open_address
{enum STATE{EXIST,EMPTY,DELETE};template<class K, class V>struct HashTableNode{HashTableNode():_state(EMPTY){}HashTableNode(const pair<K, V>& kv):_kv(kv), _state(EXIST){}pair<K, V> _kv;	//存储数据STATE _state;  //状态};template<class K, class V, class HashFunc = DefaultHashFunc<K>>class HashTable{public:typedef HashTableNode<K, V> Node;HashTable():_n(0){_table.resize(10);}bool Insert(const pair<K, V>& kv){//扩容if (_n * 10 / _table.size() > 7){size_t newsize = _table.size() * 2;HashTable<K, V> newHT;newHT._table.resize(newsize);//插入数据并重新映射for (const auto& e : _table){newHT.Insert(e._kv);}_table.swap(newHT._table);}//根据哈希函数得到对应位置下标HashFunc HF;size_t Hashi = HF(kv.first) % _table.size();//根据下标插入数据,若有冲突则线性探测//位置状态为空或者删除则插入while (_table[Hashi]._state == EXIST){if (_table[Hashi]._kv.first == kv.first) return false;++Hashi;}_table[Hashi] = kv;_table[Hashi]._state = EXIST;++_n;return true;}HashTableNode<const K, V>* Find(const K& key){HashFunc HF;size_t Hashi = HF(key) % _table.size();//找到了while (_table[Hashi]._state != EMPTY){if (_table[Hashi]._kv.first == key && _table[Hashi]._state == EXIST){return (HashTableNode<const K, V>*) & _table[Hashi]._kv;}++Hashi;Hashi %= _table.size();}//没找到return nullptr;}bool Erase(const K& key){HashFunc HF;size_t Hashi = HF(key) % _table.size();//找到了while (_table[Hashi]._state != EMPTY){if (_table[Hashi]._kv.first == key && _table[Hashi]._state == EXIST){_table[Hashi]._state = DELETE;return true;}++Hashi;Hashi %= _table.size();}//没找到return false;}private:vector<Node> _table;	//哈希表size_t _n;				//载荷因子};
}

2.开散列的哈希表

template<class K, class V>struct HashNode{pair<K, V> _kv;HashNode<K, V>* _next;HashNode(const pair<K, V>& kv):_kv(kv),_next(nullptr){}};template<class K, class V, class HashFunc = DefaultHashFunc<K>>class HashTable{typedef HashNode<K, V> Node;public:HashTable(){_table.resize(10, nullptr);}~HashTable(){for (size_t i = 0; i < _table.size(); i++){Node* cur = _table[i];while (cur){Node* next = cur->_next;delete cur;cur = next;}_table[i] = nullptr;}}bool Insert(const pair<K, V>& kv){if(Find(kv.first)){return false;}HashFunc hf;// 负载因子到1就扩容if (_n == _table.size()){// 16:03继续size_t newSize = _table.size()*2;vector<Node*> newTable;newTable.resize(newSize, nullptr);// 遍历旧表,顺手牵羊,把节点牵下来挂到新表for (size_t i = 0; i < _table.size(); i++){Node* cur = _table[i];while (cur){Node* next = cur->_next;// 头插到新表size_t hashi = hf(cur->_kv.first) % newSize;cur->_next = newTable[hashi];newTable[hashi] = cur;cur = next;}_table[i] = nullptr;}_table.swap(newTable);}size_t hashi = hf(kv.first) % _table.size();// 头插Node* newnode = new Node(kv);newnode->_next = _table[hashi];_table[hashi] = newnode;++_n;return true;}Node* Find(const K& key){HashFunc hf;size_t hashi = hf(key) % _table.size();Node* cur = _table[hashi];while (cur){if (cur->_kv.first == key){return cur;}cur = cur->_next;}return nullptr;}bool Erase(const K& key){HashFunc hf;size_t hashi = hf(key) % _table.size();Node* prev = nullptr;Node* cur = _table[hashi];while (cur){if (cur->_kv.first == key){if (prev == nullptr){_table[hashi] = cur->_next;}else{prev->_next = cur->_next;}delete cur;	return true;}prev = cur;cur = cur->_next;}return false;}void Print(){for (size_t i = 0; i < _table.size(); i++){printf("[%d]->", i);Node* cur = _table[i];while (cur){cout << cur->_kv.first <<":"<< cur->_kv.second<< "->";cur = cur->_next;}printf("NULL\n");}cout << endl;}private:vector<Node*> _table; // 指针数组size_t _n = 0; // 存储了多少个有效数据};
}

3.改造的哈希表

namespace hash_bucket
{template<class T>struct HashNode{HashNode(const T& data):_data(data), _next(nullptr){}T _data;HashNode* _next;};// 前置声明template<class K, class T, class KeyOfT, class HashFunc>class HashTable;template<class K,class T,class Ptr,class Ref,class KeyOfT,class HashFunc>struct HTIterator{typedef HashNode<T> Node;typedef HTIterator<K, T,Ptr, Ref, KeyOfT,  HashFunc> Self;typedef HTIterator<K, T, T*, T&, KeyOfT, HashFunc> iterator;HTIterator(Node* node, HashTable<K, T, KeyOfT,  HashFunc>* pht):_node(node),_pht(pht){}HTIterator(const iterator& it):_node(it._node), _pht(it._pht){}Self& operator ++(){//当前桶不为空if (_node->_next){_node = _node->_next;}else{KeyOfT Key;HashFunc HF;size_t hashi = (HF(Key(_node->_data))% _pht->_table.size())+1;while (hashi < _pht->_table.size()&&_pht->_table[hashi] == nullptr){++hashi;}//找到不为空或者走到endif (hashi == _pht->_table.size()) _node = nullptr;else _node = _pht->_table[hashi];}return *this;}Ref operator*(){return _node->_data;}Ptr operator->(){return &(_node->_data);}bool operator==(const Self& it) const{return this->_node == it._node;}bool operator!=(const Self& it)const{return this->_node != it._node;}Node* _node;const HashTable<K, T, KeyOfT, HashFunc>* _pht;};template<class K, class T, class KeyOfT,class HashFunc = DefaultHashFunc<K>>class HashTable{//友元声明template<class K, class T, class Ptr, class Ref, class KeyOfT, class HashFunc>friend struct HTIterator;public:typedef HashNode<T> Node;typedef HTIterator<K, T, T*, T&, KeyOfT, HashFunc> iterator;typedef HTIterator<K, T, const T*, const T&, KeyOfT, HashFunc> const_iterator;HashTable():_n(0){_table.resize(10, nullptr);}iterator begin(){size_t hashi = 0;while(_table[hashi] == nullptr && hashi < _table.size()){++hashi;}if (hashi == _table.size()) return iterator(nullptr, this);else return iterator(_table[hashi], this);}iterator end(){return iterator(nullptr, this);}const_iterator begin() const{size_t hashi = 0;while(_table[hashi] == nullptr && hashi < _table.size()){++hashi;}if (hashi == _table.size()) return const_iterator(nullptr, this);else return const_iterator(_table[hashi], this);}const_iterator end() const{return const_iterator(nullptr, this);}iterator Find(const K& key){HashFunc HF;KeyOfT Key;size_t Hashi = HF(key) % _table.size();Node* cur = _table[Hashi];//找到了while (cur){if (Key(cur->_data) == key)return iterator(cur,this);elsecur = cur->_next;}//没找到return iterator(nullptr,this);}pair<iterator,bool> Insert(const T& data){//表内若已存在,则返回KeyOfT Key;iterator it = Find(Key(data));if (it._node!= nullptr) return make_pair(it, false);//扩容if (_n / _table.size() == 1){//建立新表size_t newsize = _table.size() * 2;vector<Node*> newtable;newtable.resize(newsize, nullptr);//遍历旧表并将数据移动到新表for (auto& node : _table){HashFunc HF;Node* cur = node;while (cur){Node* next = cur->_next;size_t hashi = HF(Key(cur->_data)) % newtable.size();cur->_next = newtable[hashi];newtable[hashi] = cur;cur = next;}node = nullptr;}//将旧表与新表交换_table.swap(newtable);}//哈希函数查找对应位置并进行数据的头插HashFunc HF;size_t hashi = HF(Key(data)) % _table.size();Node* cur = new Node(data);cur->_next = _table[hashi];_table[hashi] = cur;++_n;return make_pair(iterator(cur,this),true);}void Print(){//遍历表并将打印数据for (auto& node : _table){HashFunc HF;KeyOfT Key;Node* cur = node;if (node){size_t hashi = HF(Key(cur->_data)) % _table.size();printf("[%d]->", hashi);while (cur){cout << cur->_kv.first << "->";cur = cur->_next;}cout << endl;}}}bool Erase(const K& key){if (Find(key) == nullptr) return false;HashFunc HF;KeyOfT Key;size_t hashi = HF(key) % _table.size();Node* cur = _table[hashi];Node* prev = nullptr;while (cur){//找到了if (Key(cur->_data) == key){//cur位于第一个数据if (prev == nullptr){_table[hashi] = cur->_next;}else{prev->_next = cur->_next;}delete cur;cur = nullptr;return true;}prev = cur;cur = cur->_next;}//没找到return false;}~HashTable(){//遍历表并将清理数据for (auto& node : _table){Node* cur = node;Node* next = nullptr;while (cur){next = cur->_next;delete cur;cur = next;}}}private:vector<Node*> _table;size_t _n;};}

4.unordered_set

namespace mine
{template <class K>class unordered_set{public:struct KeyOfSet{const K& operator()(const K& key){return key;}};typedef typename hash_bucket::HashTable<K, K, KeyOfSet>::const_iterator iterator;typedef typename hash_bucket::HashTable<K, K, KeyOfSet>::const_iterator const_iterator;pair<iterator,bool> Insert(const K& key){return _set.Insert(key); }iterator begin() {return _set.begin();}iterator end() {return _set.end();}const_iterator begin() const{return _set.begin();}const_iterator end() const{return _set.end();}private:hash_bucket::HashTable<K, K, KeyOfSet> _set;};
}

5.unoredered_map

template <class K,class V>class unordered_map{public:struct KeyOfMap{const K& operator()(const pair<K,V>& kv){return kv.first;}};typedef typename hash_bucket::HashTable<K, pair<const K, V>, KeyOfMap>::iterator iterator;typedef typename hash_bucket::HashTable<K, pair<const K, V>, KeyOfMap>::const_iterator const_iterator;pair<iterator,bool> Insert(const pair<K,V>& kv){return _map.Insert(kv);}V& operator[](const K& key){pair<iterator, bool> ret = _map.Insert(make_pair(key, V()));return ret.first->second;}iterator begin(){return _map.begin();}iterator end(){return _map.end();}const_iterator begin() const{return _map.begin();}const_iterator end()  const{return _map.end();}private:hash_bucket::HashTable<K, pair<const K,V>, KeyOfMap> _map;};
}

四、结语

         到此为止,关于哈希表的部分内容就告一段落了,至于其应用诸如位图和布隆过滤器我们会在下一节中为小伙伴们继续介绍,小伙伴们敬请期待呀!

        关注我 _麦麦_分享更多干货:_麦麦_-CSDN博客
        大家的「关注❤️ + 点赞👍 + 收藏⭐」就是我创作的最大动力!谢谢大家的支持,我们下期见!

相关文章:

[C++]——哈希(附源码)

目录 ​编辑 ​编辑 一、前言 二、正文 2.1 unorder系列关联式容器 2.1.1 unordered_map 2.1.1.1 unorderer_map的介绍 ①unordered_map的构造 ②unordered_map的容量 ③unordered_map的迭代器 ④unordered_map的元素访问 ⑤unordered_map的查询 ⑥unordered_map的修改操…...

2024中国自动化大会(CAC2024)“智慧化工及复合人才培养”平行会议圆满落幕

2024中国自动化大会于11月1-3日在青岛举行&#xff0c;本次大会由中国自动化学会主办&#xff0c;青岛科技大学&#xff08;简称“青科大”&#xff09;承办。北京和隆优化科技股份有限公司&#xff08;简称“和隆优化”&#xff09;承办了重要的“智慧化工及复合人才培养”平行…...

计算机毕业设计——ssm基于JAVA的求职招聘网站的设计与实现演示录像 2021

作者&#xff1a;程序媛9688开发技术&#xff1a;SpringBoot、SSM、Vue、MySQL、JSP、ElementUI、Python、小程序等。 &#x1f31f;文末获取源码数据库&#x1f31f;感兴趣的可以先收藏起来&#xff0c;还有大家在毕设选题&#xff08;免费咨询指导选题&#xff09;&#xff0…...

跨平台Flutter 、ReactNative 开发原理

一、跨平台Flutter开发原理 Flutter是一个跨平台的应用程序开发框架&#xff0c;它允许你使用一组代码库来构建同时运行在Android和iOS上的应用程序。 1.1.Flutter的核心原理基于以下几点&#xff1a; Dart异步、Widget构建块灵活配置、自工化工具链、热重载、Skia图库、Dar…...

qt QToolBar详解

1、概述 QToolBar是Qt框架中的一个控件&#xff0c;用于在工具栏中显示一组操作按钮和其他控件。它提供了一种方便的方式来组织和管理应用程序中的工具和操作。工具栏通常位于软件或应用程序界面的上方&#xff0c;包含一系列常用工具和命令按钮&#xff0c;用于快速访问和执行…...

MongoDB基础介绍以及从0~1语法介绍

目录 MongoDB 教程导读 NoSQL 简介 关系型数据库遵循ACID规则 分布式系统 分布式计算的优点 分布式计算的缺点 什么是NoSQL? 为什么使用NoSQL ? RDBMS vs NoSQL NoSQL 简史 CAP定理&#xff08;CAP theorem&#xff09; NoSQL的优点/缺点 BASE ACID vs BASE N…...

利用Docker Compose构建微服务架构

&#x1f493; 博客主页&#xff1a;瑕疵的CSDN主页 &#x1f4dd; Gitee主页&#xff1a;瑕疵的gitee主页 ⏩ 文章专栏&#xff1a;《热点资讯》 利用Docker Compose构建微服务架构 引言 Docker Compose 简介 安装 Docker Compose 创建项目结构 编写 Dockerfile 前端 Dockerf…...

数据中台一键大解析!

自从互联玩企业掀起了数据中台风&#xff0c;数据中台这个点马上就火起来了&#xff0c;短短几年数据中台就得到了极高的热度&#xff0c;一大堆企业也在跟风做数据中台&#xff0c;都把数据中台作为企业数字化转型的救命稻草&#xff0c;可是如果我告诉你数据中台并不是万能钥…...

MySQL45讲 第十六讲 “order by”是怎么工作的?

文章目录 MySQL45讲 第十六讲 “order by”是怎么工作的&#xff1f;一、引言二、全字段排序&#xff08;一&#xff09;索引创建与执行情况分析&#xff08;二&#xff09;执行流程&#xff08;三&#xff09;查看是否使用临时文件 三、rowid 排序&#xff08;一&#xff09;参…...

智慧商城项目-VUE2

实现效果 项目收获 通过本项目的练习&#xff0c;可以掌握以下内容&#xff1a; 创建项目 ##基本创建 基于 VueCli 自定义创建项目架子,并对相关的配置进行选择 vue create demo-shopping调整目录 删除文件 删除初始化的一些默认文件 src/assets/logo.pngsrc/components…...

音视频入门基础:FLV专题(22)——FFmpeg源码中,获取FLV文件音频信息的实现(中)

本文接着《音视频入门基础&#xff1a;FLV专题&#xff08;21&#xff09;——FFmpeg源码中&#xff0c;获取FLV文件音频信息的实现&#xff08;上&#xff09;》&#xff0c;继续讲解FFmpeg获取FLV文件的音频信息到底是从哪个地方获取的。本文的一级标题从“四”开始。 四、音…...

Chrome与火狐哪个浏览器的性能表现更好

在数字时代&#xff0c;浏览器是我们日常生活中不可或缺的工具。无论是工作、学习还是娱乐&#xff0c;一个好的浏览器都能显著提高我们的效率和体验。市场上有许多优秀的浏览器&#xff0c;其中Google Chrome和Mozilla Firefox无疑是最受欢迎的两款。本文将比较这两款浏览器的…...

uniapp在js方法中,获取当前用户的uid(uni-id-user)表中的用户id

// 1.判断当前用的权限 let uid uniCloud.getCurrentUserInfo().uid //获取当前用户的uid // 用户uid等于发布者id或者用户权限等于admin或者用户角色等于webmaster if (uid this.item.user_id[0]._id || this.uniIDHasRole…...

影响神经网络速度的因素- FLOPs、MAC、并行度以及计算平台

影响神经网络速度的四个主要因素分别是 FLOPs&#xff08;浮点操作数&#xff09;、MAC&#xff08;内存访问成本&#xff09;、并行度以及计算平台。这些因素共同作用&#xff0c;直接影响到神经网络的计算速度和资源需求。 1. FLOPs&#xff08;Floating Point Operations&a…...

【万字详解】如何在微信小程序的 Taro 框架中设置静态图片 assets/image 的 Base64 转换上限值

设置方法 mini 中提供了 imageUrlLoaderOption 和 postcss.url 。 其中&#xff1a; config.limit 和 imageUrlLoaderOption.limit 服务于 Taro 的 MiniWebpackModule.js &#xff0c; 值的写法要 &#xff08;&#xff09;KB * 1024。 config.maxSize 服务于 postcss-url 的…...

复合选择器,CSS特性,背景属性,显示模式(HTML)

目录 复合选择器,CSS特性,背景属性,显示模式知识点: 练习一: 练习二: 复合选择器,CSS特性,背景属性,显示模式知识点: 复合选择器:后代选择器 :父选择器 子选择器(中间用空格隔开) eg:对div中的span进行设置,会对后代中的所有span都进行设置 选中所有后代(后代选择器.html)…...

加密货币行业与2024年美国大选

加密货币行业经历了近十年的飞速发展&#xff0c;尤其是在比特币、以太坊等主要加密资产的兴起之后&#xff0c;越来越多的美国人开始将其视为一种财富积累或交易的工具。然而&#xff0c;尽管这一新兴行业的市场规模在持续扩大&#xff0c;但加密货币仍面临着重重监管难题&…...

Hive SQL中判断内容包含情况的全面指南

Hive SQL中判断内容包含情况的实用指南 在 Hive SQL 的数据处理与分析世界里,判断字段是否包含特定内容是一项非常重要的操作。今天,我将为大家详细介绍 Hive SQL 中实现这一功能的多种方法,并附上相应的表创建和数据插入语句。 一、准备工作 - 表创建与数据插入 首先,我…...

匿名管道 Linux

目录 管道 pipe创建一个管道 让子进程写入&#xff0c;父进程读取 如何把消息发送/写入给父进程 父进程该怎么读取呢 管道本质 结论&#xff1a;管道的特征&#xff1a; 测试管道大小 写端退了&#xff0c;测试结果 测试子进程一直写&#xff0c;父进程读一会就退出 …...

苍穹外卖WebSocket无法建立连接 (修改前端代码)

我在部署nginx 反向代理服务器时&#xff0c;把80端口改成了90端口(不与80端口的Tomcat冲突)。 但黑马的资料里定义了前端连接nginx的端口号默认为80&#xff0c;造成连接不上的问题&#xff0c;此时只需要修改前端的端口号&#xff0c;使其知道如何连接到修改后的后端端口。 …...

音频内容理解

音频内容理解是音频处理和理解领域的一个重要方向&#xff0c;它涉及到从环境声音中提取语义信息&#xff0c;并能够对这些声音进行解释和描述。以下是音频内容理解的几个关键应用&#xff1a; 1. 音频问答&#xff08;Audio Question Answering, AQA&#xff09; 在这个任务…...

MQTT实用示例集:Air201版

今天贴出的是Air201版关于MQTT实用示例集&#xff0c;希望大家喜欢。 本示例教你通过使用脚本代码&#xff0c;对Air201模组进行MQTT链接操作。 操作例程包括&#xff1a; MQTT单链接 MQTT多链接 MQTT SSL不带证书链接 MQTT SSL带证书链接 大家可根据自身需求&#xff0c…...

Day23 opencv图像预处理

图像预处理 在计算机视觉和图像处理领域&#xff0c;图像预处理是一个重要的步骤&#xff0c;它能够提高后续处理&#xff08;如特征提取、目标检测等&#xff09;的准确性和效率。OpenCV 提供了许多图像预处理的函数和方法&#xff0c;常见的操作包括图像空间转换、图像大小调…...

优化模型训练过程中的显存使用率、GPU使用率

参考&#xff1a;https://blog.51cto.com/u_16099172/7398948 问题&#xff1a;用小数据集训练显存使用率、GPU使用率正常&#xff0c;但是用大数据集训练GPU使用率一直是0. 小数据&#xff1a; 大数据&#xff1a; 1、我理解GPU内存占用率显存使用率&#xff0c;由模型的大小…...

RocketMQ学习笔记

RocketMQ笔记 文章目录 一、引言⼆、RocketMQ介绍RocketMQ的由来 三、RocketMQ的基本概念1 技术架构2 部署架构 四、快速开始1.下载RocketMQ2.安装RocketMQ3.启动NameServer4.启动Broker5.使⽤发送和接收消息验证MQ6.关闭服务器 五、搭建RocketMQ集群1.RocketMQ集群模式2.搭建主…...

Linux第三讲:环境基础开发工具使用

Linux第三讲&#xff1a;环境基础开发工具使用 1.Linux软件包管理器yum1.1什么是软件包管理器1.2操作系统生态问题1.3什么是yum源 2.vim详解2.1什么是vim2.2vim的多模式讲解2.2.1命令模式的诸多指令2.2.1.1gg和nshiftg2.2.1.2shift$和shift^2.2.1.3上、下、左、右2.2.1.4w和b2.…...

日本TikTok直播的未来:专线网络助力创作者突破极限

近年来&#xff0c;随着短视频平台的崛起&#xff0c;尤其是TikTok&#xff08;国际版抖音&#xff09;成为全球范围内广受欢迎的社交娱乐平台&#xff0c;直播功能的加入无疑为内容创作者提供了更广阔的展示舞台。在日本&#xff0c;TikTok直播不仅使得年轻人能够实时与粉丝互…...

如何在家庭网络中设置静态IP地址:一份实用指南

在家庭网络环境中&#xff0c;IP地址扮演着至关重要的角色。大多数家庭用户依赖路由器的DHCP&#xff08;动态主机配置协议&#xff09;来自动分配IP地址&#xff0c;但在某些情况下&#xff0c;手动设置静态IP地址能为家庭网络带来更多的便利性与稳定性&#xff0c;尤其是在涉…...

qt QFile详解

1、概述 QFile类是Qt框架中用于读取和写入文本和二进制文件资源的I/O工具类。它继承自QFileDevice类&#xff0c;后者又继承自QIODevice类。QFile类提供了一个接口&#xff0c;允许开发者以二进制模式或文本模式对文件进行读写操作。默认情况下&#xff0c;QFile假定文件内容为…...

ESP8266 自定义固件烧录-Tcpsocket固件

一、固件介绍 固件为自定义开发的一个适配物联网项目的开源固件&#xff0c;支持网页配网、支持网页tcpsocket服务器配置、支持串口波特率设置。 方便、快捷、稳定&#xff01; 二、烧录说明 固件及工具打包下载地址&#xff1a; https://download.csdn.net/download/flyai…...