SPARK的安装

spark版本:spark-1.0.2-bin-hadoop2.tgz

下载链接:http://www.apache.org/dist/spark/spark-1.0.2/

Scala版本:scala-2.10.4.tgz

下载链接:http://www.scala-lang.org/files/archive/

1、 解压文件,并配置环境变量

将下载的spark-1.0.2-bin-hadoop2.tgzscala-2.10.4.tgz解压到/home/hadoop路径下。

sudo mv spark/usr/local/  sudo mv scala/usr/local/

  # vi ~/.bashrc   打开.bashrc文件,添加下面配置信息

eexport SCALA_HOME=/usr/local/scala

export SPARK_HOME=/usr/local/spark

export PATH=$PATH:$SCALA_HOME/bin:$SPARK_HOME/bin

 

2、 cp conf/spark-env.sh.template conf/spark-env.sh

   在spark-env.sh中添加以下内容:

    export SPARK_MASTER_IP=master   //主节点

export SPARK_MASTER_PORT=7077    export SPARK_WORKER_CORES=1    export SPARK_WORKER_INSTANCES=1    export SPARK_WORKER_MEMORY=1g

export JAVA_HOME=/usr/local/jdk7

3、分发到其他节点:

   scp -r /usr/local/spark hadoop@hadoop1:.

   scp -r /usr/local/scala hadoop@hadoop2:.

   然后登录hadoop1:sudo mv spark /usr/local/  sudo mv scala /usr/local/

 

4、切换到spark目录,启动spark:sbin/start-all.sh

5、通过浏览器访问http://hadoop1:8080可以监控spark Standalone集群

原文地址:https://www.cnblogs.com/liutoutou/p/3910116.html