用nifi把hdfs数据导到hive

全景图:

用nifi把hdfs数据导到hive 

 

1. ListHDFS & FetchHDFS:

ListHDFS:

用nifi把hdfs数据导到hive

 

FetchHDFS:

用nifi把hdfs数据导到hive

 

2. EvaluateJsonPath:

{"status": {"code":500,"message":"FAILED","detail":"DTU ID not exists"}}

用nifi把hdfs数据导到hive

如果json里有数组,需要先用SplitJson分隔:

用nifi把hdfs数据导到hive

 

 

3. RouteOnContent:

用nifi把hdfs数据导到hive

 

4. ReplaceText:

先在hive里创建一个表:

create table tb_test(
register string,
register_url string
);

1
  
用nifi把hdfs数据导到hive
1
insert into yongli.tb_test(register, register_url)values('${register}','${register_url}')
1
  
1
  

下面介绍一种效率更高的方式:

1
还是用ReplaceText:

用nifi把hdfs数据导到hive

1
  
1
再用MergeContent:

用nifi把hdfs数据导到hive

1
insert into yongli.tb_dtu(dtuid, addr, value, time)values

 

5. PutHiveQL:

创建一个HiveConnectionPool

用nifi把hdfs数据导到hive

 

设置Database Connection URL, User, Password:

用nifi把hdfs数据导到hive

 

 

 

本文转自疯吻IT博客园博客,原文链接:http://www.cnblogs.com/fengwenit/p/5823177.html,如需转载请自行联系原作者


上一篇:关于 Linux中内网安装软件的一些笔记


下一篇:su、sudo、限制root远程登录