1. 准备 Spark
在所有主机上依次执行如下命令:
# 移动到个人文件夹(以免因误操作删除掉系统文件)
cd ~/
# 下载 Spark
wget https://mirrors.tuna.tsinghua.edu.cn/apache/spark/spark-2.3.0/spark-2.3.0-bin-hadoop2.7.tgz
# 解压
sudo tar -zxf spark-2.3.0-bin-hadoop2.7.tgz -C /usr/local/
# 删除用过的压缩包
rm spark-2.3.0-bin-hadoop2.7.tgz
# 改名 + 授予权限
cd /usr/local/
sudo mv spark-2.3.0-bin-hadoop2.7/ spark/
# 此处,如果小组统一的用户名不是 hadoop
# 请把此处的用户名 ↓ 替换成你们小组统一的用户名
sudo chown -R hadoop spark/
# 配置环境变量
sudo gedit ~/.bashrc
# 在除了第一行的任意地方添加如下内容:
export SPARK_HOME="/usr/local/spark"
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
# 保存,并执行
source ~/.bashrc
到此,从节点的组员可以休息了(但必须开机并保持联网),接下来交给主节点操作