首页 文章

Apache Spark本机库

提问于
浏览
4

我最近能够使用本机64位支持构建Apache Hadoop 2.5.1 . 所以,我摆脱了烦人的本机库警告 .

我正在尝试配置Apache Spark . 当我启动spark-shell时,会出现相同的警告:

14/09/14 18:48:42 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable

一些技巧:

我不得不下载一个预先构建的2.4版本的Spark,因为仍然没有配置Maven的Hadoop 2.5的配置文件 .

spark-env.sh中添加了以下导出:

export HADOOP_CONF_DIR=/opt/hadoop-2.5.1/etc/hadoop

export SPARK_LIBRARY_PATH=/opt/hadoop-2.5.1/lib/native

没有使用spark-shell和spark-submit . 我的Hadoop本地安装配置为伪分布式(ResourceManager YARN支持) .

1 回答

  • 1

    您应该将 HADOOP_HOME/lib/native 添加到 LD_LIBRARY_PATH

    export LD_LIBRARY_PATH=$HADOOP_HOME/lib/native
    

相关问题