实验内容与步骤
1. 从linux拷贝整个hadoop压缩jar包
使用ForkLift将hadoop文件全部拷出来。
将需要用到的jar包放在一起。(需要的是share/hadoop/common
下的三个包,share/hadoop/common/lib
文件下全部的包,以及share/hadoop/hdfs
下的三个包,以及share/hadoop/hdfs/lib
中的包)
2. 从linux拷出配置文件可以访问hdfs
将core-site.xml
和hdfs-site.xml``log4j.properties
文件拷出来:
core-site.xml文件需要更改一下:
将黄线的部分改成自己的IP,然后再加上后面的配置就可以。
3. 使用java开发工具编写java代码
简单的配置idea:
将第二步导出的文件放到src内,第一步导出的hadoop文件夹直接add as library
简单测试一下:
可以看到,在hadoop上成功创建了文件夹。
4. 使用Configuration 类,Path,FileSystem对象完成上传代码
5. 上传文件测试50070测试
成功上传文件。
6. 使用Configuration 类,Path,FileSystem对象完成下载代码
7. 查看下载文件是否存在
可以看到文件也成功下载了。
以下为本次的实验代码:
package com.itshixun.hdfs;
import java.io.IOException;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
class DownLoad {
public static void main(String[] args) {
uploadFile();
downloadFile();
}
public static void uploadFile() {
Configuration conf = new Configuration();
try {
FileSystem fs = FileSystem.get(conf);
//定义文件的路径和上传的路径
Path src = new Path("/Users/sunyumeng/readme.txt");
Path dest = new Path("/ss/README.txt");
//从本地上传文件到服务器
fs.copyFromLocalFile(src, dest);
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
public static void downloadFile() {
Configuration conf = new Configuration();
try {
FileSystem fs = FileSystem.get(conf);
//定义下载文件的路径和本地下载路径
Path src = new Path("/ss/README.txt");
Path dest = new Path("/Users/sunyumeng/READMEtest.txt");
//从服务器下载文件到本地
fs.copyToLocalFile(src, dest);
} catch (IOException e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
}
}