入门Hadoop---HDFS-API

第一步:创建一个新的项目 并导入需要的jar包

公共核心包

 入门Hadoop---HDFS-API

公共依赖包

 入门Hadoop---HDFS-API

hdfs核心包

 入门Hadoop---HDFS-API

hdfs依赖包

 入门Hadoop---HDFS-API

第二步:将Linux中hadoop的配置文件拷贝到项目的src目录下

 入门Hadoop---HDFS-API

第三步:配置windows本地的hadoop环境变量(HADOOP_HOME:hadoop的安装目录 Path:在后面添加hadoop下的bin目录)

第四步:使用windows下编译好的hadoop替换hadoop的bin目录和lib目录

第五步:使用FileSystem对象对hdfs进行操作(注意:FileSystem默认是本地文件系统 因此要通过Configuration对象配置为hdfs系统)

 入门Hadoop---HDFS-API

第六步:在运行之前 需要保证本地的用户名和hadoop的用户名一致 在不修改windows用户名的情况下 可以配置Eclipse的参数实现:右击项目->Run As ->Run Configurations

 入门Hadoop---HDFS-API

运行即可成功上传本地文件到hdfs

代码如下:

package com.xjtuse;

import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.junit.Before;
import org.junit.Test;

public class HdfsDemo {
FileSystem fs = null;
@Before
// 初始化HDFS
public void init() throws Exception
{
// 配置文件 默认加载src下的配置文件
Configuration conf = new Configuration();
// conf.set("fs.defaultFS", "hdfs://master:9000");
    // 生成一个文件系统客户端操作对象
//     fs = FileSystem.get(conf);
// 第一个参数是URI指明了是hdfs文件系统 第二个参数是配置文件 第三个参数是指定用户名 需要与hadoop用户名保持一致
fs = FileSystem.get(new URI("hdfs://master:9000"), conf, "root");
}

@Test
// 创建新的文件夹
public void mkdir() throws Exception
{
Path path = new Path("/hello");
fs.mkdirs(path);
// 关闭
fs.close();
}

@Test
// 上传文件
public void upload() throws Exception
{
// 第一个参数是本地windows下的文件路径 第二个参数是hdfs的文件路径
fs.copyFromLocalFile(new Path("F:/Files/data/README.txt"), new Path("/"));
// 关闭
fs.close();

}
}

转自: https://blog.csdn.net/hll19950830/article/details/79824928

补充:最后我们运行可能报如下异常。

 

入门Hadoop---HDFS-API

上一篇:C# 简单通信(实现文件传输)


下一篇:(二十一)WebDriver API之定位一组元素