Spark 学习

环境:Ubuntu 12.04, JDK 1.6, scala 2.11.1, spark 1.0.1, hadoop 1.2.1

一 安装jdk

这里不细说了,自行google吧。

二 安装scala

scala 官网:http://www.scala-lang.org/index.html,download 下来解压

tar -zxvf /mnt/hgfs/mnt/scala-2.11.1.tgz -C /opt

配置一下环境变量即可

vi /etc/profile
SCALA_HOME=/opt/scala-2.11.1
PATH=${SCALA_HOME}/bin:${PATH}
export SCALA_HOME PATH

测试scala 是否安装成功

which scala;
scala -version

输出:Scala code runner version 2.11.1 -- Copyright 2002-2013, LAMP/EPFL 即为成功

三 安装spark 

spark 官网:http://spark.apache.org/docs/latest/index.html,download 下来编译好的版本,自己对应hadoop的版本,我这里是hadoop 1.2.1 所以我下载了

spark-1.0.1-bin-hadoop1.tgz包。

解压

tar -zxvf /mnt/hgfs/mnt/spark-1.0.1-bin-hadoop1.tgz -C /opt

配置环境变量

vi /etc/profile
SPARK_HOME=/opt/spark-1.0.1-bin-hadoop1
export SPARK_HOME

配置spark,将spark 带的spark-env.sh.template 文件拷贝一份,改名为spark-env.sh。

在spark-env.sh 文件最后增加 SCALA_HOME, JAVA_HOME, SPARK_WORKER_MEMORY, SPARK_MASTER_IP 字段,

注意  SPARK_MASTER_IP 变量千万不要写成 YOURHOSTNAME,囧,写你自己的ip 或者 hostname。

cp /opt/spark-1.0.1-bin-hadoop1/conf/spark-env.sh.template /opt/spark-1.0.1-bin-hadoop1/conf/spark-env.sh;
vi /opt/spark-1.0.1-bin-hadoop1/conf/spark-env.sh;
export SCALA_HOME=/opt/scala-2.11.1/
export JAVA_HOME=/opt/jdk1.6.0_45
export SPARK_WORKER_MEMORY=1G
export SPARK_MASTER_IP=YOURHOSTNAME

给slaves 文件增加主机名,作为奴隶节点

vi /opt/spark-1.0.1-bin-hadoop1/conf/slaves

例如:spark-slave1

四 启动spark

cd /opt/spark-1.0.1-bin-hadoop1/sbin/;
./start-all.sh;

启动所有的节点。在网上搜索spark的部署文章,大部分都说启动文件在$SPARK_HOME/bin下,估计是版本实在太老了。

五 运行spark 的hello world 程序

计算PI的程序

/opt/spark-1.0.1-bin-hadoop1/bin/run-example SparkPi
原文地址:https://www.cnblogs.com/chenfool/p/3858930.html