配置Tableau Desktop连接SparkSQL

配置Tableau Desktop连接SparkSQL
1. 前期准备
a、在window上安装Tableau Desktop(window的版本必须是win7或以上),同时上官网去下载Tableau的SparkSQL的ODBC驱动(SimbaSparkODBC64.msi)并安装在window上
b、将Spark,hive和hadoop安装好
2. 启动spark的ThriftServer
a、先启动启动hive metastore
nohup hive –service metastore &
b、启动ThriftServer
HIVEHOME/conf/hivesite.xml SPARK_HOME/conf/
HIVEHOME/lib/mysqlconnectorjava5.1.12.jarcopy SPARK_HOME/lib/
到$SPARK_HOME/sbin目录下执行
./ start-thriftserver.sh –hiveconf hive.server2.thrift.port=10000
3. 在Tableau Desktop的window上配置SparkSQL的ODBC驱动
a、在控制面板的管理工具里面,有个数据源(ODBC)打开,如下图-a,点击添加,可以看到安装好的simba spark odbc driver驱动
配置Tableau Desktop连接SparkSQL_第1张图片
图-a
b、进入配置spark服务器的信息,把图-b圈起来的信息填上,按完成
配置Tableau Desktop连接SparkSQL_第2张图片
图-b
c、在Tableau Desktop里配置连接数据源
如图-c,配置的信息和数据源(ODBC)的信息是一样的
配置Tableau Desktop连接SparkSQL_第3张图片
图-c
最后进入tableau,刷下选择架构和表,就可以看到hive数据仓库里面的表。

你可能感兴趣的:(spark相关)