我们并没有觉得MapReduce速度慢,直到Spark出现
生活随笔
收集整理的這篇文章主要介紹了
我们并没有觉得MapReduce速度慢,直到Spark出现
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
learn from 從0開始學(xué)大數(shù)據(jù)(極客時(shí)間)
Spark 擁有更快的執(zhí)行速度
更友好的編程接口
迅速搶占 MapReduce 的市場(chǎng)份額,成為主流的大數(shù)據(jù)計(jì)算框架
RDD 是 Spark 的核心概念,是彈性數(shù)據(jù)集(Resilient Distributed Datasets)的縮寫
MapReduce 面向過程的大數(shù)據(jù)計(jì)算
Spark 將大規(guī)模數(shù)據(jù)集合抽象成一個(gè) RDD 對(duì)象,然后在這個(gè) RDD 上進(jìn)行各種計(jì)算處理,得到一個(gè)新的 RDD,繼續(xù)計(jì)算處理,直到得到最后的結(jié)果數(shù)據(jù)。
Spark 可以理解成是面向?qū)ο?/strong>的大數(shù)據(jù)計(jì)算。
在進(jìn)行 Spark 編程的時(shí)候,思考的是一個(gè) RDD 對(duì)象需要經(jīng)過什么樣的操作,轉(zhuǎn)換成另一個(gè) RDD 對(duì)象
RDD 上定義的函數(shù)分兩種
- 轉(zhuǎn)換(transformation)函數(shù),返回值還是 RDD
- 執(zhí)行(action)函數(shù),不再返回 RDD
總結(jié)
以上是生活随笔為你收集整理的我们并没有觉得MapReduce速度慢,直到Spark出现的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: LeetCode 2007. 从双倍数组
- 下一篇: python的普通方法、类方法和静态方法