0%

Spark搭建

介绍

Apache Spark 是专为大规模数据处理而设计的快速通用的计算引擎,是类似于Hadoop MapReduce的通用并行框架。Spark拥有Hadoop MapReduce所具有的优点,但不同于MapReduce的是——Job中间输出结果可以保存在内存中,从而不再需要读写HDFS,因此Spark能更好地适用于数据挖掘与机器学习等需要迭代的MapReduce的算法。Spark实际上是对Hadoop的一种补充,可以很好的在Hadoop 文件系统中并行运行。

环境配置

解压 、配置

1
2
3
4
5
6
7
8
# 解压
[root@master software]# tar -zxf spark-2.4.0-bin-hadoop2.7.tgz -C /app/servers/
[root@master servers]# mv spark-2.4.0-bin-hadoop2.7 spark-2.4.0

# 配置
# Spark Env
export SPARK_HOME=/app/servers/spark-2.4.0
export PATH=$PATH:$SPARK_HOME/bin

修改 spark-env.sh文件

1
2
3
4
5
6
7
[root@master spark]# cd spark-2.4.0/conf/
[root@master conf]# mv spark-env.sh.template spark-env.sh
[root@master conf]# vi spark-env.sh
export JAVA_HOME=/app/servers/jdk1.8.0_191
export SCALA_HOME=/app/servers/scala-2.11.8
export HADOOP_HOME=/app/servers/hadoop-2.7.7
export HADOOP_CONF_DIR=/app/servers/hadoop-2.7.7/etc/hadoop

修改slaves文件

1
2
3
4
5
[root@master conf]# mv slaves.template slaves
[root@master conf]# vi slaves
master
slave1
slave2

在其余两个子节点上操作

1
2
3
[root@master servers]# scp -r /app/servers/spark-2.4.0/ slave1:/app/servers/
[root@master servers]# scp -r /app/servers/spark-2.4.0/ slave2:/app/servers/
# 别忘在另外两个节点也要在/etc/profile下配置环境变量并source一下使生效!

启动

1
2
[root@master local]# cd spark/spark-2.4.0/                
[root@master spark-2.4.0]# sbin/start-all.sh

启动完毕后在主机浏览器访问界面:http://192.168.77.138:8080/

image-20240321192254791