运行spark报错Error while instantiating 'org.apache.spark.sql.hive.HiveSessionState'

原因:
操作系统缺少 msvcr120.dll文件

下载地址:
链接:https://pan.baidu.com/s/1RsVgWDEtZfn22_gPWIEw4g
提取码:9emm

放置dll:
32位msvcr120.dll 粘贴到 C:WindowsSystem32目录中
64位msvcr120.dll 粘贴到 C:WindowsSysWOW64目录中
注: 如果上述方式仍然不好使,则需要安装C++合集
参照 https://blog.csdn.net/u013303361/article/details/88853684

今天清理电脑可能清理多了点C++的组件,spark local模式运行出现这个错误。解决要点总结就是两个

1.设置hadoop_home(确保有%HADOOP_HOME%inwinutils.exe,winutils.exe的获取方法可百度)

2.重新安装好C++的组件,上面方式亲测可用

原文地址:https://www.cnblogs.com/yaohaitao/p/12449141.html