用nifi把hdfs数据导到hive

全景图:

用nifi把hdfs数据导到hive 

 

1. ListHDFS & FetchHDFS:

ListHDFS:

用nifi把hdfs数据导到hive

 

FetchHDFS:

用nifi把hdfs数据导到hive

 

2. EvaluateJsonPath:

{"status": {"code":500,"message":"FAILED","detail":"DTU ID not exists"}}

用nifi把hdfs数据导到hive

如果json里有数组,需要先用SplitJson分隔:

用nifi把hdfs数据导到hive

 

 

3. RouteOnContent:

用nifi把hdfs数据导到hive

 

4. ReplaceText:

先在hive里创建一个表:

create table tb_test(
register string,
register_url string
);

1
  
用nifi把hdfs数据导到hive
1
insert into yongli.tb_test(register, register_url)values('${register}','${register_url}')

 

5. PutHiveQL:

创建一个HiveConnectionPool

用nifi把hdfs数据导到hive

 

设置Database Connection URL, User, Password:

用nifi把hdfs数据导到hive


本文转自疯吻IT博客园博客,原文链接:http://www.cnblogs.com/fengwenit/p/5795580.html,如需转载请自行联系原作者



上一篇:浅谈信息安全与数据中心安全的关系


下一篇:python 技术篇-pythoncom.PumpMessag()关闭、杀死它的进程,pythoncom.PumpMessag()运行卡住解决办法