|
| 1 | +## 大数据中 TopK 问题的常用套路 |
| 2 | + |
| 3 | +> **作者 Chunel Feng,编程爱好者,阿里巴巴搜索引擎开发工程师。**<br><br>个人微信:ChunelFeng <br>个人博客:[一面之猿网](http://www.chunel.cn) <br>开源项目:[Caiss 智能相似搜索引擎](https://github.com/ChunelFeng/caiss) |
| 4 | +
|
| 5 | + |
| 6 | + |
| 7 | +Doocs 社区的朋友们,大家好。我是你们的新朋友 [Chunel Feng](https://github.com/ChunelFeng)。今天想跟大家聊一些**常见的 topK 问题**。 |
| 8 | + |
| 9 | +对于海量数据到处理经常会涉及到 topK 问题。在设计数据结构和算法的时候,主要需要考虑的应该是当前算法(包括数据结构)跟给定情境(比如数据量级、数据类型)的适配程度,和当前问题最核心的瓶颈(如降低时间复杂度,还是降低空间复杂度)是什么。 |
| 10 | + |
| 11 | +首先,我们来举几个常见的 topK 问题的例子: |
| 12 | + |
| 13 | + |
| 14 | +1. 给定 100 个 int 数字,在其中找出最大的 10 个; |
| 15 | +1. 给定 10 亿个 int 数字,在其中找出最大的 10 个(这 10 个数字可以无序); |
| 16 | +1. 给定 10 亿个 int 数字,在其中找出最大的 10 个(这 10 个数字依次排序); |
| 17 | +1. 给定 10 亿个不重复的 int 数字,在其中找出最大的 10 个; |
| 18 | +1. 给定 10 个数组,每个数组中有 1 亿个 int 数字,在其中找出最大的 10 个; |
| 19 | +1. 给定 10 亿个 string 类型的数字,在其中找出最大的 10 个(仅需要查 1 次); |
| 20 | +1. 给定 10 亿个 string 类型的数字,在其中找出最大的 k 个(需要反复多次查询,其中 k 是一个随机数字)。 |
| 21 | + |
| 22 | + |
| 23 | +上面这些问题看起来很相似,但是解决的方式却千差万别。稍有不慎,就可能使得 topK 问题成为系统的瓶颈。不过也不用太担心,接下来我会总结几种常见的解决思路,遇到问题的时候,大家把这些基础思路融会贯通并且杂糅组合,即可做到见招拆招。 |
| 24 | +<br> |
| 25 | + |
| 26 | +### 1. 堆排序法 |
| 27 | + |
| 28 | +这里说的是堆排序法,而不是快排或者希尔排序。虽然理论时间复杂度都是 `O(nlogn)`,但是堆排在做 topK 的时候有一个优势,就是可以维护一个仅包含 k 个数字的小顶堆(想清楚,为啥是小顶堆哦),当新加入的数字大于堆顶数字的时候,将堆顶元素剔除,并加入新的数字。 |
| 29 | + |
| 30 | +用 C++ 来说明,堆在 stl 中是 priority_queue(不是 set)。 |
| 31 | + |
| 32 | +```cpp |
| 33 | +int main() { |
| 34 | + const int topK = 3; |
| 35 | + vector<int> vec = {4,1,5,8,7,2,3,0,6,9}; |
| 36 | + priority_queue<int, vector<int>, greater<>> pq; // 小顶堆 |
| 37 | + for (const auto& x : vec) { |
| 38 | + pq.push(x); |
| 39 | + if (pq.size() > topK) { |
| 40 | + // 如果超出个数,则弹出堆顶(最小的)数据 |
| 41 | + pq.pop(); |
| 42 | + } |
| 43 | + } |
| 44 | + |
| 45 | + while (!pq.empty()) { |
| 46 | + cout << pq.top() << endl; // 输出依次为7,8,9 |
| 47 | + pq.pop(); |
| 48 | + } |
| 49 | + |
| 50 | + return 0; |
| 51 | +} |
| 52 | +``` |
| 53 | + |
| 54 | +> Java 中同样提供了 PriorityQueue 的数据结构。 |
| 55 | +
|
| 56 | +### 2. 类似快排法 |
| 57 | + |
| 58 | +快排大家都知道,针对 topK 问题,可以对快排进行改进。仅对部分数据进行递归计算。比如,在 100 个数字中,找最大的 10 个,第一次循环的时候,povit 被移动到了 80 的位置,则接下来仅需要在后面的 20 个数字中找最大的 10 个即可。 |
| 59 | + |
| 60 | +这样做的优势是,理论最优时间复杂度可以达到 `O(n)`,不过平均时间复杂度还是 `O(nlogn)`。需要说明的是,通过这种方式,找出来的最大的 k 个数字之间,是无序的。 |
| 61 | + |
| 62 | +```cpp |
| 63 | +int partition(vector<int>& arr, int begin, int end) { |
| 64 | + int left = begin; |
| 65 | + int right = end; |
| 66 | + int povit = arr[begin]; |
| 67 | + |
| 68 | + while (left < right) { |
| 69 | + while (left < right && arr[right] >= povit) {right--;} |
| 70 | + while (left < right && arr[left] <= povit) {left++;} |
| 71 | + if (left < right) {swap(arr[left], arr[right]);} |
| 72 | + } |
| 73 | + |
| 74 | + swap(arr[begin], arr[left]); |
| 75 | + return left; |
| 76 | +} |
| 77 | + |
| 78 | +void partSort(vector<int>& arr, int begin, int end, int target) { |
| 79 | + if (begin >= end) { |
| 80 | + return; |
| 81 | + } |
| 82 | + |
| 83 | + int povit = partition(arr, begin, end); |
| 84 | + if (target < povit) { |
| 85 | + partSort(arr, begin, povit - 1, target); |
| 86 | + } else if (target > povit) { |
| 87 | + partSort(arr, povit + 1, end, target); |
| 88 | + } |
| 89 | +} |
| 90 | + |
| 91 | +vector<int> getMaxNumbers(vector<int>& arr, int k) { |
| 92 | + int size = (int)arr.size(); |
| 93 | + // 把求最大的k个数,转换成求最小的size-k个数字 |
| 94 | + int target = size - k; |
| 95 | + partSort(arr, 0, size - 1, target); |
| 96 | + vector<int> ret(arr.end() - k, arr.end()); |
| 97 | + return ret; |
| 98 | +} |
| 99 | + |
| 100 | +int main() { |
| 101 | + vector<int> vec = {4,1,5,8,7,2,3,0,6,9}; |
| 102 | + auto ret = getMaxNumbers(vec, 3); |
| 103 | + |
| 104 | + for (auto x : ret) { |
| 105 | + cout << x << endl; // 输出7,8,9(理论上无序) |
| 106 | + } |
| 107 | + |
| 108 | + return 0; |
| 109 | +} |
| 110 | +``` |
| 111 | +
|
| 112 | +<br> |
| 113 | +
|
| 114 | +### 3. 使用 bitmap |
| 115 | +
|
| 116 | +有时候 topK 问题会遇到数据量过大,内存无法全部加载。这个时候,可以考虑将数据存放至 bitmap 中,方便查询。 |
| 117 | +
|
| 118 | +比如,给出 10 个 int 类型的数据,分别是【13,12,11,1,2,3,4,5,6,7】,int 类型的数据每个占据 4 个字节,那这个数组就占据了 40 个字节。现在,把它们放到一个 16 个长度 bool 的 bitmap 中,结果就是【0,1,1,1,1,1,1,1,0,0,0,1,1,1,0,0】,在将空间占用降低至 4 字节的同时,也可以很方便的看出,最大的 3 个数字,分别是 11,12 和 13。 |
| 119 | +
|
| 120 | +需要说明的是,bitmap 结合跳表一起使用往往有奇效。比如以上数据还可以记录成:从第 1 位开始,有连续 7 个 1;从第 11 位开始,有连续 3 个 1。这样做,空间复杂度又得到了进一步的降低。 |
| 121 | +
|
| 122 | +这种做法的优势,当然是降低了空间复杂度。不过需要注意一点,bitmap 比较适合不重复且有范围(比如,数据均在 0 ~ 10 亿之间)的数据的查询。至于有重复数据的情况,可以考虑与 hash 等结构的混用。 |
| 123 | +<br> |
| 124 | +
|
| 125 | +### 4. 使用 hash |
| 126 | +
|
| 127 | +如果遇到了查询 string 类型数据的大小,可以考虑 hash 方法。 |
| 128 | +
|
| 129 | +举个例子,10 个 string 数字【"1001","23","1002","3003","2001","1111","65","834","5","987"】找最大的 3 个。我们先通过长度进行 hash,得到长度最大为 4,且有 5 个长度为 4 的 string。接下来再通过最高位值做 hash,发现有 1 个最高位为"3"的,1 个为"2"的,3 个为"1"的。接下来,可以通过再设计 hash 函数,或者是循环的方式,在 3 个最高位为"1"的 string 中找到最大的一个,即可找到 3 个最值大的数据。 |
| 130 | +
|
| 131 | +这种方法比较适合网址或者电话号码的查询。缺点就是如果需要多次查询的话,需要多次计算 hash,并且需要根据实际情况设计多个 hash 函数。 |
| 132 | +<br> |
| 133 | +
|
| 134 | +### 5. 字典树 |
| 135 | +
|
| 136 | +字典树(trie)的具体结构和查询方式,不在这里赘述了,自行百度一下就有很多。这里主要说一下优缺点。 |
| 137 | +
|
| 138 | + |
| 139 | +
|
| 140 | +
|
| 141 | +字典树的思想,还是通过前期建立索引信息,后期可以反复多次查询,并且后期增删数据也很方便。比较适合于需要反复多次查询的情况。 |
| 142 | +
|
| 143 | +比如,反复多次查询字符序(例如:z>y>...>b>a)最大的 k 个 url 这种,使用字典树把数据存储一遍,就非常适合。既减少了空间复杂度,也加速了查询效率。 |
| 144 | +<br> |
| 145 | +
|
| 146 | +### 6. 混合查询 |
| 147 | +
|
| 148 | +以上几种方法,都是比较独立的方法。其实,在实际工作中,遇到更多的问题还是混合问题,这就需要我们对相关的内容,融会贯通并且做到活学活用。 |
| 149 | +
|
| 150 | +我举个例子:我们的分布式服务跑在 10 台不同机器上,每台机器上部署的服务均被请求 10000 次,并且记录了个这 10000 次请求的耗时(耗时值为 int 数据),找出这 10\*10000 次请求中,从高到低的找出耗时最大的 50 个。看看这个问题,很现实吧。我们试着用上面介绍的方法,组合一下来求解。 |
| 151 | +
|
| 152 | +#### 方法一 |
| 153 | +
|
| 154 | +首先,对每台机器上的 10000 个做类似快排,找出每台机器上 top50 的耗时信息。此时,单机上的这 50 条数据是无序的。 |
| 155 | +
|
| 156 | +然后,再将 10 台机器上的 50 条数据(共 500 条)放到一起,再做一次类似快排,找到最大的 50 个(此时应该这 50 个应该是无序的)。 |
| 157 | +
|
| 158 | +最后,对这 50 个数据做快排,从而得到最终结果。 |
| 159 | +
|
| 160 | +#### 方法二 |
| 161 | +
|
| 162 | +首先通过堆排,分别找出 10 台机器上耗时最高的 50 个数据,此时的这 50 个数据,已经是从大到小有序的了。 |
| 163 | +
|
| 164 | +然后,我们依次取出 10 台机器中,耗时最高的 5 条放入小顶堆中。 |
| 165 | +
|
| 166 | +最后,遍历 10 台机器上的数据,每台机器从第 6 个数据开始往下循环,如果这个值比堆顶的数据大,则抛掉堆顶数据并且把它加入,继续用下一个值进行同样比较。如果这个值比堆顶的值小,则结束当前循环,并且在下一台机器上做同样操作。 |
| 167 | +
|
| 168 | +以上我介绍了两种方法,并不是为了说明哪种方法更好,或者时间复杂度更低。而是想说同样的事情有多种不同的解决方法,而且随着数据量的增加,可能会需要更多组合形式。在这个领域,数据决定了数据结构,数据结构决定了算法。 |
| 169 | +
|
| 170 | +**没有最好的方法,只有不断找寻更好的方法的程序员。适合的,才会是最好的。** |
| 171 | +
|
| 172 | +嗯,加油,你可以找到更好的!!! |
0 commit comments