TopK-微博今日热门话题

大纲

  • TopK on single node
  • TopK on multiple nodes
  • Realtime topK with low QPS
  • Realtime topK with high QPS
  • Approx TopK
  • MapReduce

一、TopK on single node

  从几个关于TopK的算法引出 TopK 系列问题

1. 给你一个无序整数数组,要求求出TopK (Order By Value)

  题目地址:http://www.lintcode.com/zh-cn/problem/top-k-largest-numbers/

  数据结构:优先队列(minHeap) (当然如果不是数据流的话,使用QuickSelect效率更高)

  时间复杂度:O(nlogk)

  空间复杂度: O(k)

2. 给你一个微博话题组成的列表,要求求出TopK(Order by Frequency)

  题目地址:http://www.lintcode.com/zh-cn/problem/top-k-frequent-words/

  分析:这里需要按照String出现的频数来求解TopK,自然不能像刚刚一样直接使用一个PriorityQueue来实现。但基本原理还是一致的。

     使用一个HashMap,HashMap<String, Integer> 表明某个String 出现的频数。然后在PQ中存储的是我们自定义的一个数据结构Pair, Pair包含String 和 频数两个变量,自定义一个Comparator按照频数升序排序就可以了。

  数据结构:HashMap PriorityQueue

  时间复杂度:O(n + nlog(k)) -> O(nlogk)

  空间复杂度: O(|n| + k)  其中 |n|表示unique string数目

二、TopK on multiple nodes

1. 现在假设这样一个场景:给你一组10T的文件,文件内容是10million用户当天的搜索记录,求微博今日话题热搜?

  这个场景就不能再使用single node 因为一方面文件太大,单机无法处理,另一方面处理速度太慢

  这时候就要采用 分&和 的思想

  OverView 如下:

  • 分成小文件
  • 分发给不同的机器处理
  • 每个机器分别获得TopK
  • 组合这些TopK获得总的TopK

  

注意这里一个比较关键的地方:怎么来拆分文件呢?

一种思路是按照文件的先后顺序来拆分,这是有问题的,因为假如某个String比较分散,而总次数是能够进入TopK的,但是在SlaveNode上,这个slaveNode可能并没有入选TopK,这就导致了错误。

所以,我们这里采用 Divide by hash value. 这样相同的String都被分给了同一个slaveNode处理。

2. 假设场景二: 有N台机器, 每台机器各自存储单词文件,求所有单词出现频率的TopK

同样的道理,假如直接求各个单机的TopK在合并的话也是会出现问题的。

这里需要ReHash!

三、 Realtime TopK with Low QPS

之前讨论的情况都是 offline 的,那么实时数据又怎么样呢?

 想法一:

步骤:新数据来,存储到磁盘,服务器请求计算TopK的时候再运行算法求解。

缺点:重复计算、运行速度慢。

想法二:

新数据来,把它写到hashmap,hashmap更新的时候同时更新PQ,获取TopK。

缺点:OOM 节点宕机或者停电的时候数据丢失

想法三:

不使用hashMap,取代他的是把数据存储在database中。

以上是使用database来取代hashmap的分析,那么PQ有没有什么需要处理的呢?

当然是需要的,新加入数据之后,需要删除PQ中已经存储了的数据。而PQ是不支持高效删除节点操作的,所以这里使用treeMap来代替PQ。

四、 Realtime TopK with High QPS

QPS过高的话,数据库相应存在high latency

解决办法也是 分&和

各个节点get TopK 然后再合并。

可能带来这样一个问题:假如某个key太热了,导致某个节点write key 负荷太重怎么办?这也会带来高延迟

流程图:

由图可知,当某个key过热的话,这个节点就很频繁的在写数据,导致treeMap被锁。high latency

解决办法是就是:Cache

这其实是在准确性和延迟之间找一个平衡。

五、Approx TopK Algorithm

准确性和使用空间的TradeOff

如果我们把所有词都存入disk,那么那些那些低频词将浪费较多的空间。

接下来介绍的这种算法可以自定义使用的空间大小,并且时间复杂度为O(logK)

基本步骤:

新单词来的时候,更新hashMap

更新treeMap

这和之前是一样的,区别之处在于:

HashMap:

key = word_hashvalue

Value = frequency

但是这是会带来问题的,分析如下:

1、假如好多低频词都被hash到同一个value,那么这个value就很可能被选中了。

2、假如后来的低频词hash到高频的那个value,误把这个低频词选中。

解决办法:bloom filter 布隆过滤器

Bloom Filter:

HashMap 拥有三个不同的hash函数,取hash到的最小的count。这样一来,低频词虽然有可能某一个hash hash到和高频词的那个value,但三个hash取小的counter 还是有很大作用来处理这个问题的。

六、Use Mapreduce to solve it

原文地址:https://www.cnblogs.com/futurehau/p/6041022.html