Hadoop源代码分析(MapReduce概论)
大家都熟悉文件系統(tǒng),在對(duì)HDFS進(jìn)行分析前,我們并沒(méi)有花很多的時(shí)間去介紹HDFS的背景,畢竟大家對(duì)文件系統(tǒng)的還是有一定的理解的,而且也有很好的文檔。在分析Hadoop的MapReduce部分前,我們還是先了解系統(tǒng)是如何工作的,然后再進(jìn)入我們的分析部分。下面的圖來(lái)自http://horicky.blogspot.com/2008/11/hadoop-mapreduce-implementation.html,是我看到的講MapReduce最好的圖。
?
以Hadoop帶的wordcount為例子(下面是啟動(dòng)行):
hadoop jar hadoop-0.19.0-examples.jar wordcount /usr/input/usr/output
用戶提交一個(gè)任務(wù)以后,該任務(wù)由JobTracker協(xié)調(diào),先執(zhí)行Map階段(圖中M1,M2和M3),然后執(zhí)行Reduce階段(圖中R1和R2)。Map階段和Reduce階段動(dòng)作都受TaskTracker監(jiān)控,并運(yùn)行在獨(dú)立于TaskTracker的Java虛擬機(jī)中。
我們的輸入和輸出都是HDFS上的目錄(如上圖所示)。輸入由InputFormat接口描述,它的實(shí)現(xiàn)如ASCII文件,JDBC數(shù)據(jù)庫(kù)等,分別處理對(duì)于的數(shù)據(jù)源,并提供了數(shù)據(jù)的一些特征。通過(guò)InputFormat實(shí)現(xiàn),可以獲取InputSplit接口的實(shí)現(xiàn),這個(gè)實(shí)現(xiàn)用于對(duì)數(shù)據(jù)進(jìn)行劃分(圖中的splite1到splite5,就是劃分以后的結(jié)果),同時(shí)從InputFormat也可以獲取RecordReader接口的實(shí)現(xiàn),并從輸入中生成<k,v>對(duì)。有了<k,v>,就可以開(kāi)始做map操作了。
map操作通過(guò)context.collect(最終通過(guò)OutputCollector. collect)將結(jié)果寫到context中。當(dāng)Mapper的輸出被收集后,它們會(huì)被Partitioner類以指定的方式區(qū)分地寫出到輸出文件里。我們可以為Mapper提供Combiner,在Mapper輸出它的<k,v>時(shí),鍵值對(duì)不會(huì)被馬上寫到輸出里,他們會(huì)被收集在list里(一個(gè)key值一個(gè)list),當(dāng)寫入一定數(shù)量的鍵值對(duì)時(shí),這部分緩沖會(huì)被Combiner中進(jìn)行合并,然后再輸出到Partitioner中(圖中M1的黃顏色部分對(duì)應(yīng)著Combiner和Partitioner)。
Map的動(dòng)作做完以后,進(jìn)入Reduce階段。這個(gè)階段分3個(gè)步驟:混洗(Shuffle),排序(sort)和reduce。
混洗階段,Hadoop的MapReduce框架會(huì)根據(jù)Map結(jié)果中的key,將相關(guān)的結(jié)果傳輸?shù)侥骋粋€(gè)Reducer上(多個(gè)Mapper產(chǎn)生的同一個(gè)key的中間結(jié)果分布在不同的機(jī)器上,這一步結(jié)束后,他們傳輸都到了處理這個(gè)key的Reducer的機(jī)器上)。這個(gè)步驟中的文件傳輸使用了HTTP協(xié)議。
排序和混洗是一塊進(jìn)行的,這個(gè)階段將來(lái)自不同Mapper具有相同key值的<key,value>對(duì)合并到一起。
Reduce階段,上面通過(guò)Shuffle和sort后得到的<key, (list of values)>會(huì)送到Reducer. reduce方法中處理,輸出的結(jié)果通過(guò)OutputFormat,輸出到DFS中。
更多精彩內(nèi)容請(qǐng)關(guān)注:http://bbs.superwu.cn?
關(guān)注超人學(xué)院微信二維碼:
關(guān)注超人學(xué)院java免費(fèi)學(xué)習(xí)交流群:
轉(zhuǎn)載于:https://blog.51cto.com/crxy2013/1658955
總結(jié)
以上是生活随笔為你收集整理的Hadoop源代码分析(MapReduce概论)的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: 何为“秒传”
- 下一篇: zabbix server 迁移步骤