spark 写 hbase 数据库,遇到Will not attempt to authenticate using SASL (unknown error)

今日在windows上用spark写hbase的函数 saveAsHadoopDataset 写hbase数据库的时候,遇到Will not attempt to authenticate using SASL (unknown error) 错误,程序卡在那里不动了,百度后发现是我的windows上面hosts文件没有配置。

观察ambari的hosts显示

在这里插入图片描述

然后我开始配置hosts

ip1 a.hadoop2.com
ip2 a.hadoop3.com
ip3 a.hadoop4.com
配置好后运行,尼玛不起作用啊,还是卡在那不动。。。

继续百度。。发现每个帖子基本都在说让配hosts,绝望了。然后我突然反应过来去看一下服务器上的hosts文件到底咋配的,一看发现。。

ip1 hadoop2 a.hadoop2.com
ip2 hadoop3 a.hadoop3.com
ip3 hadoop4 a.hadoop4.com
尼玛。。。好坑。。。原来是这么配的。ambari里面显示的是域名,而我之前把域名配置在了主机名的位置,所以不能解决问题。

然后我把windows的ip配的和linux的一模一样,程序就不卡在那了,成功写入了hbase。

liunx 下:

待补充!
spark 写 hbase 数据库,遇到Will not attempt to authenticate using SASL (unknown error)_第1张图片
18/06/20 10:45:02 INFO RecoverableZooKeeper: Process identi

你可能感兴趣的:(hbase,hadoop,hbase,数据库,spark)