在本周学习Hadoop遇到了一个问题,困扰了半天,本人在安装Hadoop时是按照视频来的,结果发现Hadoop上的jdk版本和本地eclipse的版本不一致,导致本地的程序到处jar包传到虚拟机上运用Hadoop不能正常运行,如果你遇到相同的问题有两种解决方案
1.如果你是刚学的Hadoop,在hdfs上没有什么要紧的东西话,删除Hadoop目录下的dfs文件夹,然后查看你本地的eclipse的jdk的版本,从网上下载一个相同版本的jdk,重新配置一下环境变量,再重新格式化一下
2.如果有种要的东西,可以在你本地另外安装一个和虚拟机中的jdk相同的版本,在进行导出项目时,将这一个项目的jdk设置成与虚拟机版本一致的jdk即可,在这里便不详细介绍如何设置指定项目的jdk版本,可上网查阅
注:在进行Hadoop的安装时,一定要提前看好本地jdk的版本,这样才可以避免这样不必要的麻烦
Hadoop最好不要总是格式化,容易出现一些意外的错误
另外,如果本地的jdk版本是9的话,建议采用第二种方法