anaconda , hadoop,spark 安装流程2024-03-20 14:45:58 约定环境 ubantu 约定安装路径:/usr/local 一,安装anaconda # 下载地址:https://repo.anaconda.com/archive/ 注意:spark 暂时不支持 python3.8, 所以要注意anaconda 中内置python 的版本. 二,JDK1.8 安装 三,配置ssh 免密码登陆 四,安装hadoop 五,安装scala 六,安装spark 上一篇:HelloDjango 第 13 篇:分类、归档和标签页下一篇:更新 APT 失败