Hadoop中自己提供了一个RPC的框架。集群中各节点的通讯都使用了那个框架
1.服务端
1.1.业务接口:ClientNamenodeProtocol
package cn.bigdata.hdfs.hadoopRpc.protocol; //定义业务接口方法
public interface ClientNamenodeProtocol {
// 协议版本号
public static final long versionID = 1L;
public String getMetaData(String path);
}
1.2.业务接口实现类:MyNameNode
package cn.bigdata.hdfs.hadoopRpc.service; import cn.bigdata.hdfs.hadoopRpc.protocol.ClientNamenodeProtocol; public class MyNameNode implements ClientNamenodeProtocol{ @Override
public String getMetaData(String path) {
// 模拟NameNode的业务方法,获取元数据
return path+": 3 - {BLK_1,BLK_2} ...";
}
}
1.3.服务端类:将业务实现类发布为一个服务
package cn.bigdata.hdfs.hadoopRpc.service; import java.io.IOException; import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.ipc.RPC;
import org.apache.hadoop.ipc.RPC.Builder;
import org.apache.hadoop.ipc.RPC.Server; import cn.bigdata.hdfs.hadoopRpc.protocol.ClientNamenodeProtocol; //使用下面的代码可以把业务类发布为一个服务
public class PublishServiceUtil {
public static void main(String[] args) throws IOException {
Builder builder = new RPC.Builder(new Configuration());
builder.setBindAddress("localhost")
.setPort(8888)
.setProtocol(ClientNamenodeProtocol.class)
.setInstance(new MyNameNode()); Server build = builder.build();
build.start();
}
}
2.客户端
package cn.bigdata.hdfs.hadoopRpc.client;
import java.net.InetSocketAddress;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.ipc.RPC; import cn.bigdata.hdfs.hadoopRpc.protocol.ClientNamenodeProtocol; public class MyHdfsClient {
public static void main(String[] args) throws Exception {
//获取代理对象
ClientNamenodeProtocol nameNode = RPC.getProxy(ClientNamenodeProtocol.class,
1L, // 这里指定的协议版本号要跟接口中的versionID的值保持一致
new InetSocketAddress("localhost",8888),
new Configuration()); String metaData = nameNode.getMetaData("/angelababy");
System.out.println(metaData);
}
}
我们也可以在自己的项目中使用Hadoop的RPC框架,把Hadoop的Common及其依赖包导入进来就可以了