HiveOnSpark

Hive是Hadoop上的SQL引擎,SparkSQL编译时可以包含Hive支持,包含Hive支持之后,SparkSQL可以访问Hive表,对表进行创建,查询等操作,同时还能支持SQL或HQL

1、内置hive:

        在安装Spark的同时就支持hive操作,使用是本地文件系统作为存储,使用默认数据库,使用版本是1.2.1

2、外置hive

这个hive不是Spark内部提供,而是独立安装好的,hive1.2.1和spark1.6.x 会spark2.x版本都可以无缝对接

1.将hive安装目录下hive-site.xml文件 拷贝到spark的conf目录下

 $ cp ./hive-site.xml /opt/software/spark-2.2.0-bin-hadoop2.7/conf/

2.hive现在元数据是Mysql进行管理的,所以Spark启动时候需要加载元数据,我们需要操作mysql数据

  需要将JDBC驱动jar包拷贝到spark安装目录的bin目录下

$ cp ./mysql-connector-java-5.1.39.jar /opt/software/spark-2.2.0-bin-hadoop2.7/bin/

 

3.可以启动spark-shell进行hive连接操作

spark-shell 
--master spark://master:7077 \

--jars mysql-connector-java-5.1.39.jar

 

4、通过本地idea写代码进行操作(本地|集群)

【本地】

 val session: SparkSession = SparkSession.builder()
      .config("spark.sql.warehouse.dir","D:\\Spark\\")  //因为使用本地,所以warehouse需本地磁盘存储
      .appName("HiveOnSpark_Local")
      .master("local[*]").enableHiveSupport().getOrCreate()
    //创建一张表
   // session.sql("create table if not exists src1(key in,value String)")
    //插入数据
    //session.sql("load data local inpath ‘dir/SparkSQL/dataSource/kv1.txt‘ into table src1")
    session.sql("select * from src1").show()
    println("插入数据成功")
    session.stop()
【集群】

(1).只需要将hive-site.xml文件添加到IDEA中resources文件夹中即可

    ps: Hadoop中 hdfs文件和core文件也需要添加resources文件夹中(部分需要)
(2).修改windows下的hosts文件 存在的目录C:\Windows\System32\drivers\etc
添加映射,因为mycluster是文件映射所以通过这样方式无论是hadoop01或hadoop02任意一个是Active都可以正常使用
(3).因为需要连接的是hive服务,元数据也是在hive服务端,所以还需要在pom.xml文件添加JDBC驱动

 val session: SparkSession = SparkSession.builder()
      .appName("HiveOnSpark_Cluster")
      .master("spark://master:7077")//集群端的Spark
      .enableHiveSupport().getOrCreate()
      对hive进行操作,默认操作是default
    /*session.sql(
      """
        |create table if not exists src_3 (
        |key int,
        |value String)
        |row format delimited
        |fields terminated by ‘ ‘
        |""".stripMargin)*/
    session.sql("show tables").show()

 

 

HiveOnSpark

上一篇:ES11中的空值合并运算符


下一篇:Codeforces Round #701 (Div. 2) A. Add and Divide