windows平台下spark-shell配置

一、下载安装spark,http://spark.apache.org/,选择合适版本后下载到本地,解压,bin目录下spark-shell文件就是spark命令行交互的入口。

二、下载安装windows平台下的hadoop配置包,https://github.com/srccodes/hadoop-common-2.2.0-bin/tree/master/bin,下载后解压,解压完成后配置系统环境变量HADOOP_HOME为该解压后的目录,例如我的是在D:hadoophadoop-common-2.2.0-bin-master。再在系统变量Path中添加%HADOOP_HOME%in。

三、运行spark-shell进入交互模式,运行成功无报错。

原文地址:https://www.cnblogs.com/yuanyifei1/p/8205147.html