MapReduce和Spark的區別是什麼?
謝邀回答
首先分別來說一下兩者
MapReduce 是hadoop 的分散式運算編程框架
核心功能將用戶編寫的邏輯代碼和自帶組件整合成一個程序,並發運行在hadoop集群是上,核心組件是mrAppmaster mapTask ReduceTask
Spark是mapReduce的替代方案,兼容HDFS、Hive,可融入hadoop的生態系統
兩者區別
1.spark比MapReduce要快
基於內存的運算,比MapReduce快100倍以上
基於硬碟的運算,快10倍以上
2.spark支持流式和離線兩者運算
MapReduce只支持離線運算
3.MapReduce本身沒有資源調度系統,必須運行在yarn等資源系統上
spark本身集成資源調度,以standalone方式可運行在自身的Master 和worker上,也可以運行在yarn上
篇幅有限就先介紹到這裡,歡迎大家留言評論
推薦閱讀: