spark安装(windows)

1、安装jdk

  因为spark是依赖java环境的,所以在安装spark之前你先确保你的电脑上有java环境。

  具体怎么操作,百度"jdk安装"

2、安装spark

  首先到官网下载相应的spark版本,建议直接使用spark集成环境

  官网:http://spark.apache.org/downloads.html

  我选择的是 spark-1.6.0-bin-hadoop2.4.tgz

  然后将这个压缩文件解压到你想安装的目录下面

3、使用

  打开cmd,进入spark目录下的bin目录,输入pyspark即可启动spark(因为我是python编程)

  

原文地址:https://www.cnblogs.com/yxpblog/p/5264820.html