Hadoop开发周期(一):基础环境安装

Hadoop的开发周期一般是:
1)开发和部署环境准备
2)编写mapper和reducer
2)单元测试
3)编译、打包

4)提交作业和结果检索

       在用Hadoop处理大数据之间,需要首先将运行和开发环境部署好,下面是基础环境的安装过程,所有软件都安装在Linux系统上。下面先介绍在一台机器上的部署,该机器信息如下:

1 JDK安装

1)下载最新的JDK并减压   jdk-7u17-linux-x64.gz

2)  设置Java环境变量

  切换到root用户的根目录,  编辑.bashrc文件,  在该文件的最下方添加如下语句:

export  JAVA_HOME=/opt/jdk1.7(可以改变)

export CLASSPATH=$CLASSPATH:$JAVA_HOME/jre/lib:$JAVA_HOME/lib:

export  PATH=$JAVA_HOME/bin:$PATH

重新执行修改过的文件

# source /root/.bashrc

3)  测试是否安装成功

在终端执行:java  –version, 如果显示的版本号和安装的版本号一致,则表明java设置安装成功。

2 Eclipse安装

后期需要在Eclipse中进行mapper和reducer函数的编程,现在这里搭建好IDE环境。

1)下载最新版本Eclipse 

eclipse-jee-juno-SR2-linux-gtk-x86_64.tar.gz

2) 减压 tar.gz 文件

3) 在Windows系统上使用 VNC 启动 Eclipse

进入减压后的文件,点击eclipse图标或者在终端执行如下命令

./eclipse

设置工作目录


4) 常见问题解决

如果出现以下问题,但是安装的JDK在1.5以上


需要在启动Eclipse时指定它使用的JVM,为了方便我们这里写了一个脚本(startEclipse.sh)来启动eclipse,脚本如下:


使该脚本可以执行: chmod 777 startEclipse.sh 

执行该脚本,eclipse即可正常启动

3 Hadoop安装

Hadoop有3种安装模式单机模式、伪分布模式和全分布模式。

3.1 安装

1)下载最新版本的Hadoop,并减压

% tar xzf hadoop-x.y.z.tar.gz

2) Hadoop路径配置

  切换到root用户的根目录,  编辑.bashrc文件,  在该文件的最下方添加如下语句:

如果只在终端输入输入exoprt,只在当前shell下生效,以后重启就不生效了,所有一劳永逸在.bashrc文件中配置)

export HADOOP_INSTALL=/home/tom/hadoop-x.y.z
export PATH=$PATH:$HADOOP_INSTALL/bin

重新执行修改过的文件(如果没有这一步,有时输入hadoop命令会出现:Hadoop commondnot found)

# source /root/.bashrc、

3.2  配置

core-site.xml用于配置Common组件的属性,hdfs-site.xml用于配置HDFS属性,mapred-sit.xml用于配置MapReduce实现。这些配置文件都放在conf子目录下。

单机模式(Standalone or local mode)

单台机器、单线程运行、不需要启动hadoop进程,所有程序都在单个JVM上执行。该模式适合在开发阶段测试和调试MapReduce程序。

伪分布模式(Pseudo-distributed mode)

单台机器,启动hadoop所有进程(如NameNode, DataNode, TaskTracker, JobTracker, SecondaryNameNode),较好的模拟hadoop集群情况。

分布模式

需要利用多台机器,实现hadoop的分布式集群,通过高仿真环境进行集成测试。

在特定模式下运行hadoop需要做2件事:正确设置属性和启动hadoop进程。下图是配置不同模式所需要的最小属性集合。


原文地址:https://www.cnblogs.com/javawebsoa/p/2978289.html