Hadoop是目前被广泛使用的大数据平台,Hadoop平台主要有Hadoop Common、HDFS、Hadoop Yarn、Hadoop MapReduce和Hadoop Ozone。
Hadoop平台目前被行业使用多年,有健全的生态和大量的应用案例,同时Hadoop对硬件的要求比较低,非常适合初学者自学。目前很多商用大数据平台也是基于Hadoop构建的,所以Hadoop是大数据开发的一个重要内容。
学习Hadoop开发需要有三个基础知识,下面进行分别介绍:
第一:Linux操作系统知识。通常情况下,Hadoop平台是构建在Linux系统之上的,所以学习Hadoop首先要学习Linux操作系统的使用。目前比较流行的Linux操作系统包括CentOS和Ubuntu,这两个Linux系列操作系统有广泛的应用场景。学习Linux并不复杂,通常情况下可以在虚拟机上完成,很多初学者都是在虚拟机上搭建一个伪分布式集群,然后完成Hadoop实验。
第二:编程语言。目前在Hadoop平台下多采用Java和Python来完成程序的编写,由于Hadoop本身是采用Java语言编写的,所以在Hadoop平台下采用Java语言是比较方便的选择,Hadoop的官方demo往往也是采用Java语言实现的。Python语言由于比较简单,同时Python有丰富的库可以使用,所以目前使用Python完成Hadoop平台的开发也是一个比较常见的选择。另外,在Spark平台下Scala也有广泛的应用。
我们都知道现在学习大数据,Hadoop是其中一个必学的技术,简单来说,Hadoop是在分布式服务器集群上存储海量数据并运行分布式分析应用的一种方法。那Hadoop该学习哪些内容?需要了解什么呢?有Hadoop经典学习资料吗?
HDFS
HDFS(Hadoop Distributed File System,Hadoop分布式文件系统),它是一个高度容错性的系统,适合部署在廉价的机器上。HDFS能提供高吞吐量的数据访问,适合那些有着超大数据集(large data set)的应用程序。
MapReduce
接触过Core Java,数据库概念和任何Linux操作系统。(教程:http://codingdict.com/article/8105)