资源准备:
hadoop-3.3.1.tar.gz
jdk-8u161-linux-x64.tar.gz
安装与环境配置:
参考这个靠谱的教程
(此教程最后的非必须的yarn配置是错的)
yarn的正确配置方法:
终端键入$ hadoop classpath
得到
进入文件夹/usr/local/hadoop/etc/hadoop,找到yarn-site.xml
按照如图方式配置,其中value中的值为上面hadoop classpath得到的值
再删掉mapred-site.xml文件即可完成yarn配置
开启服务
$ cd /usr/local/hadoop $ ./sbin/start-all.sh $ jps
得到
19409 ResourceManager 5860 SecondaryNameNode 12452 JobHistoryServer 23542 Jps 5625 DataNode 5487 NameNode 12047 NodeManager
wordcount测试
到达命令行进入cd usr/local/hadoop文件夹下开启所有服务,
$ hdfs dfs -mkdir /user $ hdfs dfs -mkdir /user/hadoop $ hdfs dfs -copyFromLocal LICENSE.txt /user/hadoop $ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.1.jar wordcount /user/hadoop/LICENSE.txt /user/hadoop/wordcount
上述操作步骤的含义为首先在hdfs系统中建立user块,再在里面建立hadoop块,从本地文件系统中复制LICENSE.txt到刚才创建的块里,然后启动hadoop对刚才文本里的单词计数
若成功则会显示
下面去hdfs里找我们刚才的结果文件
打开火狐浏览器,输入http://localhost:9870,点击Utilities/Browse the file system
进入user/hadoop/wordcount,找到结果文件,下载即可
在本地就可以找到结果文件了