scala加载spark MLlib等所有相关jar的问题2023-09-23 19:04:091、找到spark安装目录 E:\spackLearn\spark-2.3.3-bin-hadoop2.7\jars 里面放的是spark的所有依赖jar包 2、从idea里面javalib导入即可调用里面的function 上一篇:windows下查找端口占用并杀死进程下一篇:Spark生态圈简介