2019-02-23
閱讀量:
961
FSDataInputStream
spark-shell報(bào)錯(cuò):
Exception in thread "main" java.lang.NoClassDefFoundError: org/apache/hadoop/fs/FSDataInputStream
答:
從spark1.4以后,所有spark的編譯都是沒有將hadoop的classpath編譯進(jìn)去的,所以必須在spark-env.sh中指定hadoop中的所有jar包。 具體設(shè)置如下: 在spark-evn.sh中添加
# 這里實(shí)際上就是執(zhí)行一條hadoop的命令,將hadoop的classpath引一下
export SPARK_DIST_CLASSPATH=$(${HADOOP_HOME}/bin/hadoop classpath)






評(píng)論(0)


暫無(wú)數(shù)據(jù)
CDA考試動(dòng)態(tài)
CDA報(bào)考指南
推薦帖子
0條評(píng)論
1條評(píng)論
0條評(píng)論
0條評(píng)論