謝邀回答

首先分別來說一下兩者

MapReduce 是hadoop 的分散式運算編程框架

核心功能將用戶編寫的邏輯代碼和自帶組件整合成一個程序,並發運行在hadoop集群是上,核心組件是mrAppmaster mapTask ReduceTask

Spark是mapReduce的替代方案,兼容HDFS、Hive,可融入hadoop的生態系統

兩者區別

1.spark比MapReduce要快

基於內存的運算,比MapReduce快100倍以上

基於硬碟的運算,快10倍以上

2.spark支持流式和離線兩者運算

MapReduce只支持離線運算

3.MapReduce本身沒有資源調度系統,必須運行在yarn等資源系統上

spark本身集成資源調度,以standalone方式可運行在自身的Master 和worker上,也可以運行在yarn上

篇幅有限就先介紹到這裡,歡迎大家留言評論


推薦閱讀:
相关文章