SparkSQL读HBase的数据

引入依赖

1、如果你使用的是spark-shell,可以如下操作:
> $SPARK_HOME/bin/spark-shell --packages Huawei-Spark:Spark-SQL-on-HBase:1.0.0
2、如果你使用SBT的话,在你们build.sbt文件加入一下依赖:
spDependencies += "Huawei-Spark/Spark-SQL-on-HBase:1.0.0"
3、如果使用的是Maven,请在pom.xml文件加入一下依赖:
<dependencies>
  <!-- list of dependencies -->
  <dependency>
    <groupId>Huawei-Spark</groupId>
    <artifactId>Spark-SQL-on-HBase</artifactId>
    <version>1.0.0</version>
  </dependency>
</dependencies>

<repositories>
  <!-- list of other repositories -->
  <repository>
    <id>SparkPackagesRepo</id>
    <url>http://dl.bintray.com/spark-packages/maven</url>
  </repository>
</repositories>

你可能感兴趣的:(spark,hbase)