Ubuntu上安装 Spark3.3与Scala2.13的过程

Ubuntu上安装 Spark3.3与Scala2.13的过程_第1张图片

解压文件

sudo tar -zxvf scala-2.13.7.tgz -C /usr/local/
sudo mv ./scala-2.13.7/ ./scala

/etc/profile,或者 ~/.bashrc 配置环境变量

sudo vim /etc/profile

或者

sudo vim ~/.bashrc

在最后添加配置内容

export SCALA_HOME=/usr/local/scala
export PATH=${SCALA_HOME}/bin:$PATH

使变量生效

source /etc/profile 

或者

source ~/.bashrc

注:/etc/profile 用于所有用户变量; ~/.bashrc 用于当前用户

执行scala进入,:quit退出
在这里插入图片描述

Ubuntu上安装 Spark3.3与Scala2.13的过程_第2张图片
解压文件

sudo tar -zxvf spark-3.3.1-bin-hadoop3.2.tgz -C /usr/local/
sudo mv ./spark-3.3.1-bin-hadoop3/ ./spark
sudo chown -R hadoop:hadoop ./spark 

/etc/profile,或者 ~/.bashrc 配置环境变量

sudo vim /etc/profile

或者

sudo vim ~/.bashrc

在最后添加配置内容

export SPARK_HOME=/usr/local/spark
export PATH=${SPARK_HOME}/bin:$PATH

使配置生效

source /etc/profile

或者

source ~/.bashrc

执行pyspark进入,Ctrl+D 或者 exit() 退出
Ubuntu上安装 Spark3.3与Scala2.13的过程_第3张图片
全分布式的集群,通过scp复制:

scp -r -f /home/hadoop/ [email protected]:/hadoop/ 

你可能感兴趣的:(Python数据分析,环境部署,ubuntu,scala,hadoop,spark)