Ubuntu18.04 安装Spark

一.安装Scala

1.将Scala 安装包复制到 /usr/local

mv scala-2.13.7.tgz /usr/local/

2.解压压缩包并修改名称

tar -xvf scala-2.13.7.tgz
# 修改名称
mv scala-2.13.7/ scala

3.配置环境变量

vi /etc/profile

# 在最后添加下面内容
export SCALA_HOME=/usr/local/scala
export PATH=$SCALA_HOME/bin:$PATH

# 生效
source /etc/profile

4.查看scala

scala -version

Scala code runner version 2.13.7 -- Copyright 2002-2021, LAMP/EPFL and Lightbend, Inc.

Ubuntu18.04 安装Spark

 

 

 二.安装Hadoop

1. 解压hadoop并重命名

tar -xvf hadoop-3.3.1.tar.gz

mv hadoop-3.3.1/ hadoop

 

上一篇:Spark开发环境搭建


下一篇:Scala 速通语法(十三)| 函数式编程