Hadoop是一个由Apache基金会开发的分布式编程框架,允许在集群服务器上使用简单的编程模型(MapReduce)对大数据集进行分布式处理。
Hadoop框架的核心的是HDFS、MapReduce和Yarn。
其中HDFS提供海量数据的存储,
MapReduce提供数据计算,
Yarn是集群资源管理和调度平台。
掌握了这三部分,也就掌握了Hadoop最核心的东西。
本文转自大数据躺过的坑博客园博客,原文链接:http://www.cnblogs.com/zlslch/p/5080008.html,如需转载请自行联系原作者