打开APP
userphoto
未登录

开通VIP,畅享免费电子书等14项超值服

开通VIP
Hive在spark2.0.0启动时无法访问../lib/spark

最近将整个架构升级到Spark 2.0.0之后,发现一个问题,就是每次进行Hive --service metastore启动的时候,总是会报一个小BUG。

无法访问/home/ndscbigdata/soft/spark-2.0.0/lib/spark-assembly-*.jar: 没有那个文件或目录。


而这一行究竟是怎么回事,网上没有任何有关的资料。


没办法,只好一步一步分析,终于找到问题的症结。


其主要的原因是:在hive.sh的文件中,发现了这样的命令,原来初始当spark存在的时候,进行spark中相关的JAR包的加载。而自从spark升级到2.0.0之后,原有的lib的整个大JAR包已经被分散的小JAR包的替代,所以肯定没有办法找到这个spark-assembly的JAR包。这就是问题所在。

# add Spark assembly jar to the classpath
if [[ -n "$SPARK_HOME" ]]
then
  sparkAssemblyPath=`ls ${SPARK_HOME}/lib/spark-assembly-*.jar`
  CLASSPATH="${CLASSPATH}:${sparkAssemblyPath}"


将这个spark-assembly-*.jar`替换成jars/*.jar,就不会出现这样的问题。


这也印证了各个软件升级过程中如何涉及到自动联运或者向下兼容的问题。

本站仅提供存储服务,所有内容均由用户发布,如发现有害或侵权内容,请点击举报
打开APP,阅读全文并永久保存 查看更多类似文章
猜你喜欢
类似文章
【热】打开小程序,算一算2024你的财运
如何在CDH中启用Spark Thrift
Spark
Hive_HBase_整合
在rcp中使用第三方jar
ant执行jar包中的main方法
Zeppelin spark.executor.extraClassPath 和
更多类似文章 >>
生活服务
热点新闻
分享 收藏 导长图 关注 下载文章
绑定账号成功
后续可登录账号畅享VIP特权!
如果VIP功能使用有故障,
可点击这里联系客服!

联系客服