2 minutes
spark单机环境搭建
环境需要
- java环境部署
- spark环境部署
java环境部署(安装jdk)
spark 环境部署
spark安装包下载
–>spark官网下载地址<–
这里我下载的2.4.4版本:spark-2.4.4-bin-hadoop2.7.tgz
解压缩
将下载的tgz包放到自定义路径下,我这里放到的 /opt 下 然后就是解压了,linux下的解压命令是
tar -zxvf spark-2.4.4-bin-hadoop2.7.tgz
为了操作方便,将解压得到的spark-2.4.4-bin-hadoop2.7文件夹改名为spark-2.4.4:
mv spark-2.4.4-bin-hadoop2.7 spark-2.4.4
配置环境变量
配置系统的环境变量:编辑 /etc/profile 文件,若执行命令提示没有 vim 时,用 vi 代替即可,也可以用如下命令安装即可
yum -y install vim
编辑环境变量:
vim /etc/profile
然后在文件的最后加上如下配置:
#Spark
export SPARK_HOME=/opt/spark-2.4.4
export PATH=$PATH:$SPARK_HOME/bin
#Spark end
重新加载文件让其生效
source /etc/profile
然后键盘按下 “Esc” 键退出编辑模式,输入 :wq 保存即可
重新加载文件让其生效
source /etc/profile
配置spark的配置文件之单机版
进入%SPARK_HOME%/conf路径,分别拷贝两个配置文件
cd /opt/spark-2.4.4/conf
# 分别拷贝两个配置文件
cp spark-env.sh.template spark-env.sh
cp slaves.template slaves
编辑spark-env.sh文件:
export SPARK_MASTER_IP=192.168.1.210
export SPARK_MASTER_PORT=7077
编辑slaves文件:
localhost
测试环境配置是否成功
cd /opt/spark-2.4.4/bin/
./run-example SparkPi 10
出现如下图所示字样即配置成功

启动spark,bin目录下执行
./spark-shell
配置spark的配置文件之单机版集群版
spark 的一些默认端口
8080: master的webUI,sparkwebUI的端口
7077: 提交任务的端口
8081: worker的webUI的端口
18080: historyServer的webUI的端口
4040: application的webUI的端口