快上网专注成都网站设计 成都网站制作 成都网站建设
成都网站建设公司服务热线:028-86922220

网站建设知识

十年网站开发经验 + 多家企业客户 + 靠谱的建站团队

量身定制 + 运营维护+专业推广+无忧售后,网站问题一站解决

SparkSQL初步应用(HiveContext使用)-创新互联

折腾了一天,终于解决了上节中result3的错误。至于为什么会产生这个错误,这里,先卖个关子,先看看这个问题是如何发现的:

创新互联建站专注于企业成都全网营销、网站重做改版、建宁网站定制设计、自适应品牌网站建设、H5技术成都做商城网站、集团公司官网建设、成都外贸网站建设、高端网站制作、响应式网页设计等建站业务,价格优惠性价比高,为建宁等各大城市提供网站开发制作服务。

首先,找到了这篇文章:http://apache-spark-user-list.1001560.n3.nabble.com/SparkSQL-select-syntax-td16299.html 里面有这么一段:

The issue is that you're using SQLContext instead of HiveContext. SQLContext implements a smaller subset of the SQL language and so you're getting a SQL parse error because it doesn't support the syntax you have. Look at how you'd write this in HiveQL, and then try doing that with HiveContext.

In fact, there are more problems than that. The sparkSQL will conserve (15+5=20) columns in the final table, if I remember well. Therefore, when you are doing join on two tables which have the same columns will cause doublecolumn error.

这里提及到两点:(1)使用HiveContext;(2)也就是导致这个错误的原因。

好吧,说到使用HiveContext,那咱就用HiveContext(尼玛,这里折腾了半天):

首先呢,看使用HiveContext都需要哪些要求,这里参考了这篇文章:http://www.cnblogs.com/byrhuangqiang/p/4012087.html

文章中有这么三个要求:

1、检查$SPARK_HOME/lib目录下是否有datanucleus-api-jdo-3.2.1.jar、datanucleus-rdbms-3.2.1.jar 、datanucleus-core-3.2.2.jar 这几个jar包。

2、检查$SPARK_HOME/conf目录下是否有从$HIVE_HOME/conf目录下拷贝过来的hive-site.xml。

3、提交程序的时候将数据库驱动程序的jar包指定到DriverClassPath,如bin/spark-submit --driver-class-path *.jar。或者在spark-env.sh中设置SPARK_CLASSPATH。

那咱就按照要求配置,可是,配置完成之后报错(交互模式):

Unable to instantiate org.apache.hadoop.hive.metastore.HiveMetaStoreClient

初步判断,是hive连接源数据库这块的问题,于是在hive-site.xml文件中添加连接源数据库的参数:

        
         hive.metastore.uris
         thrift://111.121.21.23:9083
         
       

指定好参数之后,满怀期待的执行了个查询,尼玛又报错(这个错误纠结了好久):

ERROR ObjectStore: Version information not found in metastore.

这个错误说的是,在使用HiveContext时,需要访问Hive的数据源,获取数据源的版本信息,如果获取不到,此时就会抛出该异常。关于解决方案网上倒是挺多,需要添加参数到hive-site.xml文件:

        
         hive.metastore.schema.verification
         false
         
       

添加完参数,重启了Hive服务,执行Spark 的HiveContext,依旧报改错。使用IDE将程序编译打包后,放在服务器上执行:

#!/bin/bash

cd /opt/huawei/Bigdata/DataSight_FM_BasePlatform_V100R001C00_Spark/spark/

./bin/spark-submit \

--class HiveContextTest \

--master local \

--files /opt/huawei/Bigdata/hive-0.13.1/hive-0.13.1/conf/hive-site.xml \

/home/wlb/spark.jar \

--archives datanucleus-api-jdo-3.2.6.jar,datanucleus-core-3.2.10.jar,datanucleus-rdbms-3.2.9.jar \

--classpath /opt/huawei/Bigdata/hive-0.13.1/hive-0.13.1/lib/*.jar


无奈,又报另一个错(真是崩溃!):java.net.UnknownHostException: hacluster

这是hadoop的dfs.nameservices

嗯,不能解析主机名hacluster抛出的异常,那么继续,网上给的结果是:

需要把配置hdfs-site.xml复制到spark的conf目录下,果然,复制完成后,程序打成的jar包终于能在服务器上成功运行了。

但是回想起来,那么这个错误:ERROR ObjectStore: Version information not found in metastore.

到底是由于什么原因导致的?执行jar包和shell模式有什么区别呢?

继续,使用shell模式执行基于HiveContext的SQL,还是报这个错,那么,打开spark的debug看看有什么有价值的信息,找个许久,没有发现任何有价值的日志。继续在网上搜索,网上的这个问题,都是WARN级别的,而我的是ERROR级别的。

到这里,实在是没有什么思路了。哎,既然我的jar包能够执行成功,那么就看看使用jar包执行和该模式有什么区别?

首先想到的是,为什么hive-site.xml的参数:hive.metastore.schema.verification 没有生效?我重启服务了呀,是不是没有引用到该参数?!

哎,那我就添加HIVE_HOME环境变量,执行了一下,还是没生效,也就是说没有引用到该参数。。。已经濒临崩溃,过了许久,突然想到,我执行的spark-shell命令来源于哪?那么看一下:which spark-shell

好像发现了什么,该spark-shell是来自spark客户端程序的bin目录(之前为了使用命令方便,设置和了环境变量---华为的产品),也就是说,我默认的环境变量是指向spark客户端程序目录的!!!

终于找到了问题的根本,于是,将hive-site.xml、hdfs-site.xml复制到客户端程序的conf目录下,重启hive服务,一切OK!

过了一会,还有点不放心,到底是不是这个问题导致的呢?好吧,那么就在其他节点上测试了一下,首先客户端程序目录中没有该参数,执行失败,添加后,hive.metastore.schema.verification是生效的!

大功告成!整个过程,spark的debug功能一直是打开的,但是在日志中没有发现有价值的信息。

对了,要想使用IDE调试Spark的HiveContext程序,需要在main目录下添加resource目录(类型为Resources),并且将hive-site.xml、hdfs-site.xml添加到该目录中。

并且将三个驱动包引入:

datanucleus-api-jdo-3.2.6.jar,datanucleus-core-3.2.10.jar,datanucleus-rdbms-3.2.9.jar

差点忘了,我是为了解决上节中的result3问题,哈哈,这个问题其实是由于SparkSQL对SQL语法支持的问题。可以考虑使用其他方式(不在IN里面嵌套子查询),比如设置多个RDD或者左右连接等(有待测试)。

下节,大概说下Scala IDE如何配置(这个问题在清明假期折腾了两天,总结了两种方式)

另外有需要云服务器可以了解下创新互联scvps.cn,海内外云服务器15元起步,三天无理由+7*72小时售后在线,公司持有idc许可证,提供“云服务器、裸金属服务器、高防服务器、香港服务器、美国服务器、虚拟主机、免备案服务器”等云主机租用服务以及企业上云的综合解决方案,具有“安全稳定、简单易用、服务可用性高、性价比高”等特点与优势,专为企业上云打造定制,能够满足用户丰富、多元化的应用场景需求。


分享标题:SparkSQL初步应用(HiveContext使用)-创新互联
链接URL:http://6mz.cn/article/cccehs.html

其他资讯