安装部署spark standalone 模式集群

前提,安装了jdk1.7,scala,hadoop单节点

步骤:

spark-env.sh
加入:


HADOOP_CONF_DIR=/root/------                        表示使用hdfs上的资源,如果需要使用本地资源,请把这一句注销



2,slaves


3,spark-defalts.conf


-----------------------------------------------------------------------------------------------------------------

启动:


cd    /root/soft/spark-1.3.1
 sbin/start-master.sh                             启动master
                
sbin/start-slaves.sh                                启动worker




































原文地址:https://www.cnblogs.com/xiaoxiao5ya/p/b35e6798b7d9d202d1f7128d324ecf4c.html