最佳答案
hadoop生態圈:
1.hdfs:Hadoop分散式文件體系,用來處理呆板群存儲數據的成績
2.MapReduce:第一代Hadoop打算引擎,分為map跟reduce兩步操縱,很好用,但是很笨重。
3.spark:第二代打算引擎,讓map跟reduce的界線更含混,更少的磁碟讀寫
4.pig:上述打算引擎的MapReduce順序寫起來很費勁,類比於彙編言語,pig是瀕臨劇本的方法去描述
5.hive:hive用sql的方法來描述。將sql言語翻譯成MapReduce順序。
6.Tez與spark:新一代打算引擎,能處理中低速數據處理的請求。
7.storm:流打算平台。數據一邊流,一邊統計。
8.zookeeper:分布存取協同體系
9.yarn:中心管理調理體系