spark(1)

简单步骤:

前提:hadoop 环境搭建(我的是伪分布式)

1、官网下载spark

2、spark部署(单机模式):

      (1)解压

      (2)移动文件到自定义目录下(同时修改文件名-原来的名字太长)

      (3)修改 !配置文件:spark-env.sh [ spark与hdfs可以数据交互 ]

3、检测spark安装:

     运行run-example实例

详情参考:http://dblab.xmu.edu.cn/blog/1307-2/

...................................................
原文地址:https://www.cnblogs.com/floakss/p/10461980.html