Hive-day04-DML语句-数据导入(Load、Insert、As、Location、Import)

        1:向表中装载数据(LOAD)

                1.1:语法

hive> load data [local] inpath ' 数据的 path ' overwrite into table
student [partition (partcol1=val1,…)];

1 load data:表示加载数据
2 local:表示从本地加载数据到 hive表 否则从 HDFS加载数据到 hive表
3 inpath: 表示加载数据的路径
4 overwrite: 表示覆盖表中已有数据,否则表示追加
5 into table: 表示加载到哪张表
6 student:表示具体的表
7 partition:表示上传到指定分区

                1.2:创建一张表

hive (default)> create table student(id string, name string) row format
delimited fields terminated by ' t';

                1.3:加载本地文件到hive

hive (default)> load data local inpath
'/opt/ hive datas/student.txt' into table default.student;

                1.4:加载hdfs文件到hive

上传文件到hdfs
hive (default)> dfs put /opt/module/ hive/ data/student.txt
/user/atguigu/
加载hdfs数据
hive (default)> load data inpath '/user/atguigu/hive/student.txt' into
table default.student;

                1.5:加载数据覆盖表中已有的数据

上传文件到hdfs
hive (default)> dfs put /opt/module/data /student.txt /user/atguigu/
加载数据覆盖表中已有的数据
hive (default)> load data inpath '/user/atguigu/hive/student.txt'
overwrite into table default.student;

        2:通过查询语句向表中插入数据(INSERT)

                2.1:创建一张表

hive (default)> create table student _par (id int, name string) row format
delimited fields terminated by ' t';

                2.2:基本插入数据

hive (default)> insert into table student_par
values (1,'wangwu'),(2,'zhouliu');

                2.3:基本模式插入(根据单张表查询结果)

hive (default)> insert overwrite table student _par
select id, name from student where month='201709';

insert into:以追加数据的方式插入到表或分区,原有数据不会删除
insert overwrite:会覆盖表中已存在的数据

                2.4:多表(多分区)插入模式(根据多张表查询结果)

hive (default)> from student
insert overwrite table student partition(month='201707')
select id, name where month='201709'
insert overwrite table student partition(month='201706')
select id, name where month='201709';

        3:查询语句中创建表并加载数据(AS Select)

create table if not exists student3
as select id, name from student;

根据查询结果创建表,查询的结果会添加到新建的表中

        4:创建表是通过Location指定加载数据路径

                4.1:上传数据到hdfs上

hive (default)> dfs mkdir /student
hive (default)> dfs put /opt/module/datas/student.txt student

                4.2:创建表,并制定在hdfs上的位置

hive (default)> create external table if not exists student5(
id int, name string)
row format delimited fields terminated by '\t'
location '/student'

                4.3:查询数据

hive (default)> select * from student5;

        5:使用import数据到指定Hive表中(先用export导出后,再将数据导入)

hive (default)> import table student 2
from '/user/hive/warehouse/export/student'

from后面的路径,必须是export导出的路径

上一篇:2021-11-05 fcl load obj file


下一篇:SparkSQL数据的加载