大数据场景下,联表远比微小型关系型数据库中使用的频繁。网上有句话:
传统数据库单机模式做Join的场景毕竟有限,也建议尽量减少使用Join。
然而大数据领域就完全不同,Join是标配,OLAP业务根本无法离开表与表之间的关联,对Join的支持成熟度一定程度上决定了系统的性能,夸张点说,'得Join者得天下'。
-- SparkSQL – 有必要坐下来聊聊Join – 有态度的HBase/Spark/BigData (hbasefly.com)
不同数据库引擎对JOIN的实现算法一般不同,我们最常用的mysql中的join实现是Nested Loop Join ( MySQL中Join算法实现原理通俗易懂_墨卿风竹的博客-CSDN博客),Spark中支持的要更广泛。
下面我们创造两个DF来进行测试。
- private static List<Customer> getCustomers() {
- List<Customer> customerList = new ArrayList<>(3);
- customerList.add(new Customer(100, "张三"));
- customerList.add(new Customer(101, "张四"));
- customerList.add(new Customer(102, "张五"));
- System.out.println("Customer: " + customerList);
- return customerList;
- }
- private static List<Payment> getPayments() {
- Random random = new Random(0);
- List<Payment> paymentList = new ArrayList<>(6);
- for (int a = 0; a < 6; a++) {
- int i = random.nextInt(10000);
- Payment p = new Payment((long) (a + 1), (long) (100+ a), (double) i);
- paymentList.add(p);
- }
- System.out.println("Payment: " + paymentList);
- return paymentList;
- }
Inner Join
内连接是spark默认的连接方式。通过join方法即可使用内连接:
你要这样用的话,会发现还有一个方法不用传入连接字段,猜一下输出什么:
上面这种连接只能指定一个连接字段,如果需要多字段匹配呢?spark提供了另一个方法:
这个方法的第二个参数Java没法直接提供,需要转换一下:
left join
DF没有直接提供leftJoin这样的方法,只提供了join()和crossJoin()两个。从上面的文档截图可以看到,通过传第三个参数来指定不同的连接方式。
现在对Java程序员不太友好了,每次join都要先转一次:可能这也是网上的博客、教程都用scala的原因吧。
right join
和left join类似:
outer join
全外连接是左外和右外的组合,这里不演示了。
cross join
这个上面提到了 ,有对应的方法。它产生的是笛卡尔积,会产生大量结果:
这个方法是2.1之后增加的。之前也是通过join方法实现,但是会被不小心误用,就增加了一个明确的方法。
Left-Semi-Join
左半连接和左连接比较类似,差别是结果中不包含右表字段,仅包含左表字段。
左连接不是既包含左表字段,又有右表字段,右表中不匹配的字段也显示但是为null。左半连接是右表不匹配的记录左表就不展示了,实际更应该叫semi-inner-join。它相当于关系型SQL中的子查询。
但是由于只返回左表,所以叫左半连接。同时并不提供右半连接操作,因为它就是内连接。
下面是连接方式映射
Left-anti-Join
左反连接是左半连接的取反,并不是右半连接。它展示的是左连接以后,右表是null的那些左表数据,也就是内连接以后左表的补集。相等于关系型数据库的not in。
Self Join
自连接就是DF跟自己连接,所以需要通过别名来区分两个DF。
自连接我们再Mysql中用的不少,一般用来查询层级数据,比如有父子关系的记录。为了简单,假设Payment中两个字段有父子关系,于是这样查询:
上面造的数据都不满足,所以改成这样:
运行输出是
如果把第一个参数的开始值改成98,输出就是
Null 字段匹配
假设在连接过程中(任何连接场景),连接字段出现了null会怎么样?
假设payement记录如下
默认情况下,spark会忽略这些记录,如果不想忽略可以这样:
- import static org.apache.spark.sql.functions.col;
- Dataset<Row> join = payment.as("c1").join(payment.as("c2"), col("c1.paymentId").eqNullSafe(col("c2.customerId")));
- join.show();
这里使用了方法eqNullSafe
结果如下
现在连customer也改成null看一下
两张表内连接结果如下
改成使用方法eqNullSage,结果如下
好像看起来不错,但你去把结果跟最早的结果(没比较Null的时候)对比发现,这里customerId出现了两次,而之前只出现了一次。
这里可以使用drop方法移除列:
- join.drop("customerId").show();
- join.drop(payment.col("customerId")).show();
效果可以猜一下。
JoinWith
最后说一下这个方法。从它的签名可以猜出作用:
把前面内连接的例子改成joinWith方法:
结果中每一行是一个元组,元组的两个元素分别是两个表的原始记录。
最后
已经都来到这了,你不想知道左半连接或左反连接的joinWith结果是啥吗?