大数据笔记10:大数据之Hadoop的MapReduce的原理

1. MapReduce(并行处理的框架)

思想:分而治之,一个大任务分解成多个小的子任务(map),并行执行后,合并结果(Reduce)

(1)大任务分解成多个小任务,这个过程就是map;

(2)多个小任务结果的合并,这个过程就是Reduce;

2.通过一个案例说明MapReduce思想如下:

      一副牌(不含大小王)有52张,共有1000副牌,也就是说应该有52000张扑克牌,但是如果其中少了1张,也就是变成了51999张扑克牌,如下:

大数据笔记10:大数据之Hadoop的MapReduce的原理

现在少了1张牌,我们想把它找出来,该怎么办呢?

(1)第1步:首先我们把这个51999张牌,分成5份(相当于map操作,一个大任务分解成多个小任务):

大数据笔记10:大数据之Hadoop的MapReduce的原理

这里把51999张牌,分成5份(随机分配,可以不均等),分成给5个人去做:

大数据笔记10:大数据之Hadoop的MapReduce的原理

(2)第2步:51999张牌,分成5份,分给5个人去做,这5个人的中每个人都执行map tasks操作,如下:

大数据笔记10:大数据之Hadoop的MapReduce的原理

每个map tasks任务都是各自执行统计扑克牌中不同花色以及不同花色的数量(每个map tasks都是针对分配给自己那一份扑克牌进行操作)

(3)第3步:进行数据交换操作,如下:

大数据笔记10:大数据之Hadoop的MapReduce的原理

(4)第4步:对数据进行规约操作,规约就是把上面不同map tasks得到结果" 合并同类项 ",进行再次统计,如下:

大数据笔记10:大数据之Hadoop的MapReduce的原理

e.g:

大数据笔记10:大数据之Hadoop的MapReduce的原理

(5)第5步:导出了统计结果。

大数据笔记10:大数据之Hadoop的MapReduce的原理

上一篇:Unity3D NGUI学习(一)血条


下一篇:java--jdk api中其他对象(System,Runtime,Calendar,Math,Random,Date)