spark 写出的文件中出现{ “empty“:false, “traversableAgain“:true }

问题:scala语言
spark将数据转成一个json写出去的时候,写出的文件中出现
{ “empty”:false, “traversableAgain”:true }

原因:
JSON.toJSONString(map)转为string时出现问题,转为java的集合类就可以了

JSON.toJSONString(map.asJava)//导包import collection.JavaConverters._

你可能感兴趣的:(spark,scala)