最佳答案
hadoop生态圈:
1.hdfs:Hadoop分布式文件体系,用来处理呆板群存储数据的成绩
2.MapReduce:第一代Hadoop打算引擎,分为map跟reduce两步操纵,很好用,但是很笨重。
3.spark:第二代打算引擎,让map跟reduce的界线更含混,更少的磁盘读写
4.pig:上述打算引擎的MapReduce顺序写起来很费劲,类比于汇编言语,pig是濒临剧本的方法去描述
5.hive:hive用sql的方法来描述。将sql言语翻译成MapReduce顺序。
6.Tez与spark:新一代打算引擎,能处理中低速数据处理的请求。
7.storm:流打算平台。数据一边流,一边统计。
8.zookeeper:分布存取协同体系
9.yarn:中心管理调理体系