spark 安装

1.安装java

参考:http://my.oschina.net/mxs/blog/518826

2. 下载spark

当前最新版Spark 1.5.2, 地址:http://spark.apache.org/downloads.html

package type中选择 Pre-built版本,本次选择的是spark-1.5.2-bin-hadoop2.6.tgz

若选择Source code,需要自己build,比较麻烦,配置不对,会遇到错误。

cd  spark-1.5.2-bin-hadoop2.6
./bin/pyspark #在python解释器里运行spark

运行成功后SparkUI会启动: SparkUI: Started SparkUI at http://192.168.84.129:4040

访问http://192.168.84.129:4040,会看到spark的相关状态信息。

也可以

./bin/spark-shell #Scala shell里运行spark,scala版本2.10.4


你可能感兴趣的:(spark 安装)