《Spark快速大数据分析》—— 第五章 数据读取和保存

由于Spark是在Hadoop家族之上发展出来的,因此底层为了兼容hadoop,支持了多种的数据格式。如S3、HDFS、Cassandra、HBase,有了这些数据的组织形式,数据的来源和存储都可以多样化~

《Spark快速大数据分析》—— 第五章 数据读取和保存

上一篇:flink---实时项目--day01--1. openrestry的安装 2. 使用nginx+lua将日志数据写入指定文件中 3. 使用flume将本地磁盘中的日志数据采集到的kafka中去


下一篇:Linux无法连接上127.0.0.1,拒绝连接,更新时提示无法下载,无法正常使用apt-get update