当前位置:Gxlcms > 数据库问题 > Spark(四): Spark-sql 读hbase

Spark(四): Spark-sql 读hbase

时间:2021-07-01 10:21:17 帮助过:13人阅读

guava-14.0.1.jar
htrace-core-3.1.0-incubating.jar
hbase-common-1.1.2.2.4.2.0-258.jar
hbase-common-1.1.2.2.4.2.0-258-tests.jar
hbase-client-1.1.2.2.4.2.0-258.jar
hbase-server-1.1.2.2.4.2.0-258.jar
hbase-protocol-1.1.2.2.4.2.0-258.jar
hive-hbase-handler-1.2.1000.2.4.2.0-258.jar
技术图片
  • 在 ambari 上配置Spark节点的$SPARK_HOME/conf/spark-env.sh,将上面的jar包添加到SPARK_CLASSPATH,如下图:
  • 技术图片
  • 配置项清单如下:注意jar包之间不能有空格或回车符
    export SPARK_CLASSPATH=/usr/hdp/2.4.2.0-258/spark/lib/guava-11.0.2.jar: /usr/hdp/2.4.2.0-258/spark/lib/hbase-client-1.1.2.2.4.2.0-258.jar:/usr/hdp/2.4.2.0-258/spark/lib/hbase-common-1.1.2.2.4.2.0-258.jar:/usr/hdp/2.4.2.0-258/spark/lib/hbase-protocol-1.1.2.2.4.2.0-258.jar:/usr/hdp/2.4.2.0-258/spark/lib/hbase-server-1.1.2.2.4.2.0-258.jar:/usr/hdp/2.4.2.0-258/spark/lib/hive-hbase-handler-1.2.1000.2.4.2.0-258.jar:/usr/hdp/2.4.2.0-258/spark/lib/htrace-core-3.1.0-incubating.jar:  /usr/hdp/2.4.2.0-258/spark/lib/protobuf-java-2.5.0.jar:${SPARK_CLASSPATH}
  • 将hbase-site.xml拷贝至${HADOOP_CONF_DIR},由于spark-env.sh中配置了Hadoop配置文件目录${HADOOP_CONF_DIR},因此会将hbase-site.xml加载,hbase-site.xml中主要是以下几个参数的配置:
  • 技术图片
    <property>
    <name>hbase.zookeeper.quorum</name>
    <value>r,hdp2,hdp3</value>
    <description>HBase使用的zookeeper节点</description>
    </property>
    <property>
    <name>hbase.client.scanner.caching</name>
    <value>100</value>
    <description>HBase客户端扫描缓存,对查询性能有很大帮助</description>
    </property> 
    技术图片
    •  ambari 上重启修改配置后影响的组件服务

     

    测试验证:


    • 任一spark client节点验证:
    • 命令: cd  /usr/hdp/2.4.2.0-258/spark/bin  (spark安装目录)
    • 命令: ./spark-sql
    • 执行: select * from stocksinfo;   (stocksinfo 为与hbase关联的hive外部表)
    • 结果如下则OK:
    • 技术图片

       this is test 博客 edit

    Spark(四): Spark-sql 读hbase

    标签:jar包   scan   hadoop配置   blank   park   mamicode   gif   执行   rop   

    人气教程排行