寒假记录5

今天完成了实验任务三,主要学习了其中的Spark读取文件系统的数据。

在 spark-shell 中读取HDFS 系统文件“/user/hadoop/test.txt”(如果该文件不存在,请先创建),然后,统计出文件的行数;

scala>val textFile=sc.textFile("hdfs://localhost:9000/user/hadoop/test.txt") scala>textFile.count()

今天才看了爬虫作业的相关内容,这个作业进度有些晚了,日后我会加快脚步,努力赶上,今天只粗略地做了一下,感觉老师给的网址有一点不对劲,接下来再深入研究一下

上一篇:国产银河麒麟Kylin V10操作系统-如何把常用文件夹加入左侧侧边栏(类似windows文件资源管理器中的收藏夹)


下一篇:Apache Kylin 剪枝优化和cuboid数量计算公式总结