scoop由于两台服务器端口不通不能用,所以采用下载Oracle数据为csv格式再上传到Hadoop添加hive表的方法
https://blog.csdn.net/yyf960126/article/details/87855463跳过第一行
https://feichashao.com/hive_csv/解决引号
https://blog.csdn.net/zhu418766417/article/details/50176977中文乱码改编码格式
hadoop fs -mkdir (新建的hdfs路径)
hadoop fs -put tds_car_info_data.csv (新建的hdfs路径)
create table dw_wushengyuan.tds_car_info_data
(vin STRING
xxxxxxxxx)
row format delimited fields terminated by ‘(分隔符)’
location ‘(新建的hdfs路径)’;