位图与布隆及大数据处理题型分析

1.位图

由题引入:html

【腾讯】:2.给40亿个不重复的无符号整数,没排过序。给一个无符号整数,如何快速判断一个数是否在这40亿个数中。算法

若是将40亿个数按整型放入内存,显然不科学,就算内存足够,这样作也是浪费空间。数组

解决思路:用一个比特位表示一个数,存在的话该位上就置为1,不在的话置为0;这样40亿个数须要40亿个比特位,换算一下也就是500M,相对于16G来讲,大大节省了空间。安全

注意:位图只适合判断,查找数据是否存在,且只能对整数进行处理。数据结构

代码以下:函数

 1 class BitMap
 2 {
 3 public:
 4     BitMap(size_t range)
 5         :_size(0)
 6     {  
 7         _a.resize((range >> 5) + 1);  //多少个整型,一个整型表示32个数,加一是至少一个整型
 8     }
 9     void Set(size_t value) //存在时置1
10     {
11         size_t index = value >> 5;  //计算在哪一个数据上
12         size_t num = value % 32;  //计算在第几个位上
13         (_a[index]) |= (1 << num);  //将该位置1
14         _size++;
15     }
16     void Rset(size_t value)  //不存在时或删除一个数时置0
17     {
18         size_t index = value >> 5;  //计算在哪一个数据上
19         size_t num = value % 32;  //计算在第几个位
20         (_a[index]) &= (~(1 << num));  //将该位置1
21         _size--;
22     }
23     bool JudgeBit(size_t value)  //判断该位的数值
24     {
25         size_t index = value >> 5;  
26         size_t num = value % 32;
27         bool flag = (_a[index]) & (1 << num);//flag为1即存在
28         return flag;
29     }
30 private:
31     vector<int> _a;  //保存数据的数组
32     size_t _size;    //数组中一共存在的数的总数
33 };
 1 void BitMapTest()
 2 {
 3     BitMap bit(4000000000);
 4     bit.Set(12000);
 5     bit.Set(1200);
 6     bit.Set(1205590);
 7     bit.Set(12001);
 8     bit.Set(12002);
 9     bit.Set(12003);
10     bit.Set(12005);
11     cout << bit.JudgeBit(12090) << endl;
12     cout << bit.JudgeBit(120920) << endl;
13     cout << bit.JudgeBit(1205590) << endl;
14 }
15 
16 int main()
17 {
18     BitMapTest();
19     getchar();
20     return 0;

优势:(1)相对来讲节省了很多空间。当须要处理的数量级较大时,这个优势显露无疑。大数据

(2)查找、删除效率高。位图只是在建立的时候开辟空间消耗时间,可是当位图建立完成后查找、删除只需一步操做。url

二、布隆过滤器

 很明显,用位图只能用来处理整型,若是遇到字符型或者其余类型的文件就无能为力了,因此布隆过滤器就上场了。spa

  布隆过滤器是由布隆在1970年提出的。它其实是由一个很长的二进制向量(运用位图思想)和一系列随机映射函数(哈希函数)组成,布隆过滤器能够用于检索一个元素是否在一个集合中。详细来讲就是将字符类型的数据经过哈希字符串函数转换成整数,而后用位图思想将一个数据用一个比特位表示起来。可是这样作有一个缺点,就是判断不许确,由于没有一种算法能够将字符串准确转换为惟一表示这个字符数据的整数。另外Hash面临的问题就是冲突。假设 Hash 函数是良好的,若是咱们的位阵列长度为 m 个点,那么若是咱们想将冲突率下降到例如 1%, 这个散列表就只能容纳 m/100 个元素。显然这就不叫空间有效了(Space-efficient)。这里提出一种改进方法:运用多种不一样的哈希函数对同一字符数据进行转化,将它们的转换结果都存在表示在比特位中,那么判断的时候当这几种哈希转换结果表示的位都为1时,字符数据存在,只要有一种方法转化的位为0,即不存在。简单来讲,就是多个 Hash中,若是它们有一个说元素不在集合中,那确定就不在。若是它们都说在,虽然也有必定可能性它们在说谎,不过直觉上判断这种事情的几率是比较低的。debug

优势

  相比于其它的数据结构,布隆过滤器在空间和时间方面都有巨大的优点。布隆过滤器存储空间和插入/查询时间都是常数;另外, Hash 函数相互之间没有关系,方便由硬件并行实现;布隆过滤器不须要存储元素自己,在某些对保密要求很是严格的场合有优点;布隆过滤器能够表示全集,其它任何数据结构都不能;k 和 m 相同,使用同一组 Hash 函数的两个布隆过滤器的交并差运算可使用位操做进行。

缺点

  布隆过滤器的缺点和优势同样明显。误算率是其中之一。随着存入的元素数量增长,误算率随之增长。可是若是元素数量太少,则使用散列表足矣。另外,通常状况下不能从布隆过滤器中删除元素。 咱们很容易想到把位列阵变成整数数组,每插入一个元素相应的计数器加1, 这样删除元素时将计数器减掉就能够了。然而要保证安全的删除元素并不是如此简单。首先咱们必须保证删除的元素的确在布隆过滤器里面。 这一点单凭这个过滤器是没法保证的。另外计数器回绕也会形成问题。

示例代码以下:

  1 //各种哈希函数  
  2 size_t BKDRHash(const char *str)
  3 {
  4     register size_t hash = 0;
  5     while (size_t ch = (size_t)*str++)
  6     {
  7         hash = hash * 131 + ch;
  8     }
  9     return hash;
 10 }
 11 
 12 size_t SDBMHash(const char* str)
 13 {
 14     register size_t hash = 0;
 15     while (size_t ch = (size_t)*str++)
 16     {
 17         hash = 65599 * hash + ch;
 18     }
 19     return hash;
 20 }
 21 size_t RSHash(const char * str)
 22 {
 23     size_t hash = 0;
 24     size_t magic = 63689;
 25     while (size_t ch = (size_t)*str++)
 26     {
 27         hash = hash * magic + ch;
 28         magic *= 378551;
 29     }
 30     return hash;
 31 }
 32 size_t APHash(const char*str)
 33 {
 34     register size_t hash = 0;
 35     size_t ch;
 36     for (long i = 0; ch = (size_t)*str++; i++)
 37     {
 38         if ((i & 1) == 0)
 39         {
 40             hash ^= ((hash << 7) ^ ch ^ (hash >> 3));
 41         }
 42         else
 43         {
 44             hash ^= (~((hash << 11) ^ ch ^ (hash >> 5)));
 45         }
 46     }
 47     return hash;
 48 }
 49 size_t JSHash(const char* str)
 50 {
 51     if (!*str)
 52     {
 53         return 0;
 54     }
 55     size_t hash = 1315423911;
 56     while (size_t ch = (size_t)*str++)
 57     {
 58         hash ^= ((hash << 5) + ch + (hash >> 2));
 59     }
 60     return hash;
 61 }
 62 
 63 //哈希函数对应的仿函数
 64  template<class K>
 65  struct __HashFunc1
 66  {
 67      size_t operator()(const K& key)
 68      {
 69          return BKDRHash(key.c_str());
 70      }
 71  };
 72  template<class K>
 73  struct __HashFunc2
 74  {
 75      size_t operator()(const K& key)
 76      {
 77          return SDBMHash(key.c_str());
 78      }
 79  };
 80  template<class K>
 81  struct __HashFunc3
 82  {
 83      size_t operator()(const K& key)
 84      {
 85          return RSHash(key.c_str());
 86      }
 87  };
 88  template<class K>
 89  struct __HashFunc4
 90  {
 91      size_t operator()(const K& key)
 92      {
 93          return APHash(key.c_str());
 94      }
 95  };
 96  template<class K>
 97  struct __HashFunc5
 98  {
 99      size_t operator()(const K& key)
100      {
101          return JSHash(key.c_str());
102      }
103  };
104  
105  template < class K = string,
106      class HashFunc1 = __HashFunc1<K>,
107      class HashFunc2 = __HashFunc2<K>,
108      class HashFunc3 = __HashFunc3<K>,
109      class HashFunc4 = __HashFunc4<K>,
110      class HashFunc5 = __HashFunc5<K>>
111  class BloomFilter
112  {
113  public:
114      BloomFilter(size_t range)
115          :_range(range)
116      {
117          _bitmap._a.resize((range >> 5) + 1);  //初始空间
118      }
119      void _Set(const K& key )
120      {
121         _bitmap.Set(HashFunc1()(key) % _range);
122         _bitmap.Set(HashFunc2()(key) % _range);
123         _bitmap.Set(HashFunc3()(key) % _range);
124         _bitmap.Set(HashFunc4()(key) % _range);
125         _bitmap.Set(HashFunc5()(key) % _range);
126      }
127     bool _JudgeBit(const K& key)
128     {
129         if (!_bitmap.JudgeBit(HashFunc1()(key) % _range))//只要有一个匹配不上就不存在
130             return false;
131         if (!_bitmap.JudgeBit(HashFunc2()(key) % _range))
132             return false;
133         if (!_bitmap.JudgeBit(HashFunc3()(key) % _range))
134             return false;
135         if (!_bitmap.JudgeBit(HashFunc4()(key) % _range))
136             return false;
137         if (!_bitmap.JudgeBit(HashFunc5()(key) % _range))
138             return false;
139         return true;
140     }
141  private:
142      BitMap _bitmap;  //用位图表示转换后的数
143      size_t _range;  //
144  };

三、大数据处理问题

1.给一个超过100G大小的log file, log中存着IP地址, 设计算法找到出现次数最多的IP地址?!
2.与上题条件相同,如何找到top K的IP?如何直接用Linux系统命令实现?!
3.给定100亿个整数,设计算法找到只出现一次的整数!
4.给两个文件,分别有100亿个整数,咱们只有1G内存,如何找到两个文件交集!
5.1个文件有100亿个int,1G内存,设计算法找到出现次数不超过2次的全部整数!
6.给两个文件,分别有100亿个url,咱们只有1G内存,如何找到两个文件交集?分别给出精确 算法和近似算法!
7.如何扩展BloomFilter使得它支持删除元素的操做?如何扩展BloomFilter使得它支持计数操做?!
8.给上千个文件,每一个文件大小为1K—100M。给n个词,设计算法对每一个词找到全部包含它文 件,你只有100K内存!
9.有一个词典,包含N个英文单词,如今任意给一个字符串,设计算法找出包含这个字符串的所 有英文单词!

 第1题、给一个超过100G大小的log file, log中存着IP地址, 设计算法找到出现次数最多的IP地址

  这是一个大小为100G的一个日志文件,主要问题就是通常的计算机内存确定放不下;第一个想到的办法就是切分,把100G的文件切成100份,而后把这100个文件看成是大小为100的哈希表,而每份只有1G的大小,就能够依次读入内存进行处理。题目要求是:找到出现次数最多的IP地址,那么文件中确定存在大量的相同IP地址,思路是让相同的IP存入同一文件,这时又要用到哈希字符串函数,就是上面布隆过滤器用到的转换函数,由相同的IP转换获得的key值必定相同,而后根据index = key%100决定存在于哪个文件中,而相同的IP也就进入了同一个文件。

  而后对单个文件进行处理,找出这个文件中出现次数最多的IP,以IP为key值,value记录出现的次数,用key_value结构的搜索树就能够很快找出来,而后用MAX记录下来,读入下一个文件,而后比较MAX值,遇到更大的就更新,最后获得的MAX就是这个100G文件中出现次数最多的IP地址。

这个题目中的重点思想就是哈希切分

第2题、一个超过100G大小的log file, 存着IP地址,找到top K的IP。如何直接用Linux系统命令实现?

  这一题条件同上一题,不一样的是由求次数最多的一个改成求次数最多的前K个。思路同上题,哈希切分而后用堆排序,仍是以IP为key值,而后统计各个文件中每一个IP出现的次数(方法同第一题,也就是说每一个文件建一颗搜索树), 而后取其中的K个(key_value结构)结点以次数建一个最小堆;而后将其他的节点依次与堆顶节点比较,若是大于堆顶节点,与其一换,交换以后对堆进行一次向下调整,保证堆顶元素还是堆中最小,直到全部IP都比较完。而后堆中的就是top K个IP了。

这题是个典型的top K问题,重点是建小堆,而后交换堆顶元素。

第3题、给定100亿个整数,找到只出现一次的整数

  与上面一样的一个问题是100亿整数这样一个庞大的数字,大约是35G的大小。可是整数能表示的最大范围也就是2的32次方 那么大约就是16G的大小,那么剩下的就都是重复的数,这道题没有规定死内存大小,可是16G仍是比较大,浪费内存资源,如何继续缩小内存,仍是利用位图思想。与前例腾讯笔试题不一样的是,这里须要区分更多的状态,咱们须要表示的状态有:00不存在, 01出现一次,10出现屡次(>=2次),11不表示。也就是说咱们须要用两个比特位来表示一个数的状态,而后遍历一遍位图找到状态为01的数,就是只出现一次的整数。

这个题重点是两个比特位的位图思想。

第4题、两个文件,分别有100亿个整数,咱们只有1G内存,找到两个文件的交集

  此题初始思路同上,创建位图,不在赘述,这里主要讲求交集。能够对其中一个文件创建位图,而后从另外一个文件中依次取数据,判断是否在位图中。数据判断完存在的即为交集。另外一种思路,若是这里还有1G的内存的话,能够给两个文件分别键位图,而后比较对应的数据位。

  第二种方法是哈希切分,将两个文件都切分为1000小份,每一个文件的大小就几十兆的样子,分别对两个对文件里的整数进行哈希分配,即将全部整数模除1000,使相同的数进入相同的文件,而后分别拿A哈希切分好的第一个文件和B哈希切分好的第一个文件对比,找出交集存到一个新文件中,依次类推,直到2000个文件互相比较完。

这个题重点是位图思想哈希切分

第5题、1个文件有100亿个int,1G内存,找到出现次数不超过2次的全部整数

  这个题思路同第三题,用两个比特位表示的位图,咱们须要表示的状态有:00不存在, 01出现1次,10出现2次,11出现屡次(>2次)。

这个题重点也是两个比特位的位图思想。

第6题、两个文件,分别有100亿个url,咱们只有1G内存,找到两个文件交集,分别给出精确算法和近似算法。

  与第四题相似只是这里存的是URL,因此要用布隆过滤器。近似算法是,将一个文件内容存到布隆过滤器中,方法如上面介绍的布隆过滤器中的同样,而后从另外一个文件中一个个的取URL判断是否在布隆中存在的就是交集。为何布隆过滤器是近似算法,是由于它的不存在是肯定的,存在是不肯定的,即一个字符串对应5个位, 若是有一个位为0,则这字符串确定不存在,若是一个字符串对应的5个位都为1,可是这个字符串却不 必定存在,由于可能这5个位都是被其它字符串的对应位置为1的,这就是其中的哈希冲突问题。

精确算法同第四题的方法二,哈希切分

第7题、扩展BloomFilter使得它支持删除元素的操做或支持计数操做

  由于布隆过滤器的一个Key对应多个位,因此若是要删除的话,就会有些麻烦,不能单纯的将对应位所有置为0,由于可能还有其它key对应这些位,因此,须要对每个位进行引用计数,以实现删除的操做。由于须要每个对应位都须要一个计数,因此每一位至少须要一个int,那么咱们就不得不放弃位图了,也就是放弃了最小的空间消耗,咱们须要直接以一个就像数组同样的实现,只不过数组的内容存放的是引用计数。

代码示例以下:

  1  //支持引用计数,能够删除元素的布隆
  2  template <class K = string>
  3  class NumBloom
  4  {
  5      size_t HashFunc1(const K& key)
  6      {
  7          const char* str = key.c_str();
  8          unsigned int seed = 131;
  9          unsigned int hash = 0;
 10          while (*str)
 11          {
 12              hash = hash*seed + (*str++);
 13          }
 14          return(hash & 0x7FFFFFFF);
 15      };
 16      size_t HashFunc2(const K& key)
 17      {
 18          const char* str = key.c_str();
 19          register size_t hash = 0;
 20          while (size_t ch = (size_t)*str++)
 21          {
 22              hash = 65599 * hash + ch;
 23              //hash = (size_t)ch + (hash << 6) + (hash << 16) - hash;  
 24          }
 25          return hash;
 26      }
 27      size_t HashFunc3(const K& key)
 28      {
 29          const char* str = key.c_str();
 30          register size_t hash = 0;
 31          size_t magic = 63689;
 32          while (size_t ch = (size_t)*str++)
 33          {
 34              hash = hash * magic + ch;
 35              magic *= 378551;
 36          }
 37          return hash;
 38      }
 39      size_t HashFunc4(const K& key)
 40      {
 41          const char* str = key.c_str();
 42          register size_t hash = 0;
 43          size_t ch;
 44          for (long i = 0; ch = (size_t)*str++; i++)
 45          {
 46              if ((i & 1) == 0)
 47              {
 48                  hash ^= ((hash << 7) ^ ch ^ (hash >> 3));
 49              }
 50              else
 51              {
 52                  hash ^= (~((hash << 11) ^ ch ^ (hash >> 5)));
 53              }
 54          }
 55          return hash;
 56      }
 57      size_t HashFunc5(const K& key)
 58      {
 59          const char* str = key.c_str();
 60          if (!*str)
 61              return 0;
 62          register size_t hash = 1315423911;
 63          while (size_t ch = (size_t)*str++)
 64          {
 65              hash ^= ((hash << 5) + ch + (hash >> 2));
 66          }
 67          return hash;
 68      }
 69  public:
 70      NumBloom(const size_t range)
 71      {
 72          _bloom.resize(range);  //初始空间
 73          for (size_t i = 0; i < _bloom.size(); i++)
 74          {
 75              _bloom[i] = 0;
 76          }
 77      }
 78      void _Set(const K& key)
 79      {
 80          _bloom[HashFunc1(key) % _bloom.size()];
 81          _bloom[HashFunc1(key) % _bloom.size()];
 82          _bloom[HashFunc1(key) % _bloom.size()];
 83          _bloom[HashFunc1(key) % _bloom.size()];
 84          _bloom[HashFunc1(key) % _bloom.size()];
 85          _bloom[HashFunc1(key) % _bloom.size()];
 86      }
 87      void _Reset(const K& key)
 88      {
 89          if (_bloom[HashFunc1(key) % _bloom.size()] == 0)
 90              return false;
 91          if (_bloom[HashFunc2(key) % _bloom.size()] == 0)
 92              return false;
 93          if (_bloom[HashFunc3(key) % _bloom.size()] == 0)
 94              return false;
 95          if (_bloom[HashFunc4(key) % _bloom.size()] == 0)
 96              return false;
 97          if (_bloom[HashFunc5(key) % _bloom.size()] == 0)
 98              return false;
 99          _bloom[HashFunc1(key) % _bloom.size()]--;
100          _bloom[HashFunc2(key) % _bloom.size()]--;
101          _bloom[HashFunc3(key) % _bloom.size()]--;
102          _bloom[HashFunc4(key) % _bloom.size()]--;
103          _bloom[HashFunc5(key) % _bloom.size()]--;
104      }
105      bool _JudgeBit(const K& key)
106      {
107          if (_bloom[HashFunc1(key) % _bloom.size()] == 0)//只要有一个匹配不上就不存在
108              return false;
109          if (_bloom[HashFunc2(key) % _bloom.size()] == 0)//只要有一个匹配不上就不存在
110              return false;
111          if (_bloom[HashFunc3(key) % _bloom.size()] == 0)//只要有一个匹配不上就不存在
112              return false;
113          if (_bloom[HashFunc4(key) % _bloom.size()] == 0)//只要有一个匹配不上就不存在
114              return false;
115          if (_bloom[HashFunc5(key) % _bloom.size()] == 0)//只要有一个匹配不上就不存在
116              return false;
117          return true;
118      }
119 
120  private:
121      vector<size_t> _bloom;
122  };

第8题、给上千个文件,每一个文件大小为1K—100M。给n个词,设计算法对每一个词找到全部包含它的文件,你只有100K内存!

牛客网上的解析:

0: 用一个文件info 准备用来保存n个词和包含其的文件信息。
1 : 首先把n个词分红x份。对每一份用生成一个布隆过滤器(由于对n个词只生成一个布隆过滤器,内存可能不够用)。把生成的全部布隆过滤器存入外存的一个文件Filter中。2:将内存分为两块缓冲区,一块用于每次读入一个布隆过滤器,一个用于读文件(读文件这个缓冲区使用至关于有界生产者消费者问题模型来实现同步),大文件能够分为更小的文件,但须要存储大文件的标示信息(如这个小文件是哪一个大文件的)。
3:对读入的每个单词用内存中的布隆过滤器来判断是否包含这个值,若是不包含,从Filter文件中读取下一个布隆过滤器到内存,直到包含或遍历完全部布隆过滤器。若是包含,更新info 文件。直处处理完全部数据。删除Filter文件。
备注:
1:关于布隆过滤器:其实就是一张用来存储字符串hash值的BitMap.
2:可能还有一些细节问题,如重复的字符串致使的重复计算等要考虑一下。
第9题、有一个词典,包含N个英文单词,如今任意给一个字符串,设计算法找出包含这个字符串的所 有英文单词!

思路:用kmp算法或者字典树,KMP算法可见个人另外一篇文章:字符串模式匹配问题

相关文章
相关标签/搜索