spark 启动时候报 Unable to load native-hadoop library for your platform 警告

hadoop2.6.4

jdk1.8

spark2.0.1

方案1:

在spark的conf目录下,修改spark-env.sh文件加入LD_LIBRARY_PATH环境变量,值为hadoop的native库的路径

方案2:

在 /etc/profile 设置一下 export LD_LIBRARY_PATH=/usr/local/hadoop/lib/native

原文地址:https://www.cnblogs.com/zhaofeng555/p/5980430.html