• Spark3学习【基于Java】5. SparkSql联表查询JOIN


    大数据场景下,联表远比微小型关系型数据库中使用的频繁。网上有句话:

     传统数据库单机模式做Join的场景毕竟有限,也建议尽量减少使用Join。
    
     然而大数据领域就完全不同,Join是标配,OLAP业务根本无法离开表与表之间的关联,对Join的支持成熟度一定程度上决定了系统的性能,夸张点说,'得Join者得天下'。
    
     -- SparkSQL – 有必要坐下来聊聊Join – 有态度的HBase/Spark/BigData (hbasefly.com)
    			

    不同数据库引擎对JOIN的实现算法一般不同,我们最常用的mysql中的join实现是Nested Loop Join ( MySQL中Join算法实现原理通俗易懂_墨卿风竹的博客-CSDN博客),Spark中支持的要更广泛。

    下面我们创造两个DF来进行测试。

    1. private static List<Customer> getCustomers() {
    2.     List<Customer> customerList = new ArrayList<>(3);
    3.     customerList.add(new Customer(100, "张三"));
    4.     customerList.add(new Customer(101, "张四"));
    5.     customerList.add(new Customer(102, "张五"));
    6.     System.out.println("Customer: " + customerList);
    7.     return customerList;
    8. }
    9.  
    10. private static List<Payment> getPayments() {
    11.     Random random = new Random(0);
    12.     List<Payment> paymentList = new ArrayList<>(6);
    13.     for (int a = 0; a < 6; a++) {
    14.         int i = random.nextInt(10000);
    15.         Payment p = new Payment((long) (a + 1), (long) (100+ a), (double) i);
    16.         paymentList.add(p);
    17.     }
    18.     System.out.println("Payment: " + paymentList);
    19.     return paymentList;
    20. }

    Inner Join 

    内连接是spark默认的连接方式。通过join方法即可使用内连接:

    你要这样用的话,会发现还有一个方法不用传入连接字段,猜一下输出什么:

    上面这种连接只能指定一个连接字段,如果需要多字段匹配呢?spark提供了另一个方法:

    这个方法的第二个参数Java没法直接提供,需要转换一下:

    left join

    DF没有直接提供leftJoin这样的方法,只提供了join()和crossJoin()两个。从上面的文档截图可以看到,通过传第三个参数来指定不同的连接方式。

    现在对Java程序员不太友好了,每次join都要先转一次:可能这也是网上的博客、教程都用scala的原因吧。

    right join

    和left join类似:

    outer join

    全外连接是左外和右外的组合,这里不演示了。

    cross join

    这个上面提到了 ,有对应的方法。它产生的是笛卡尔积,会产生大量结果:

    这个方法是2.1之后增加的。之前也是通过join方法实现,但是会被不小心误用,就增加了一个明确的方法。

    Left-Semi-Join

    左半连接和左连接比较类似,差别是结果中不包含右表字段,仅包含左表字段。

    左连接不是既包含左表字段,又有右表字段,右表中不匹配的字段也显示但是为null。左半连接是右表不匹配的记录左表就不展示了,实际更应该叫semi-inner-join。它相当于关系型SQL中的子查询。

    但是由于只返回左表,所以叫左半连接。同时并不提供右半连接操作,因为它就是内连接。

    下面是连接方式映射

    Left-anti-Join

    左反连接是左半连接的取反,并不是右半连接。它展示的是左连接以后,右表是null的那些左表数据,也就是内连接以后左表的补集。相等于关系型数据库的not in。

    Self Join

    自连接就是DF跟自己连接,所以需要通过别名来区分两个DF。

    自连接我们再Mysql中用的不少,一般用来查询层级数据,比如有父子关系的记录。为了简单,假设Payment中两个字段有父子关系,于是这样查询:

    上面造的数据都不满足,所以改成这样:

    运行输出是

    如果把第一个参数的开始值改成98,输出就是

    Null 字段匹配

    假设在连接过程中(任何连接场景),连接字段出现了null会怎么样?

    假设payement记录如下

    默认情况下,spark会忽略这些记录,如果不想忽略可以这样:

    1. import static org.apache.spark.sql.functions.col;
    2.  
    3.  
    4. Dataset<Row> join = payment.as("c1").join(payment.as("c2"), col("c1.paymentId").eqNullSafe(col("c2.customerId")));
    5. join.show();

    这里使用了方法eqNullSafe

    结果如下

    现在连customer也改成null看一下

    两张表内连接结果如下

    改成使用方法eqNullSage,结果如下

    好像看起来不错,但你去把结果跟最早的结果(没比较Null的时候)对比发现,这里customerId出现了两次,而之前只出现了一次。

    这里可以使用drop方法移除列:

    1. join.drop("customerId").show();
    2. join.drop(payment.col("customerId")).show();

    效果可以猜一下。

    JoinWith

    最后说一下这个方法。从它的签名可以猜出作用:

    把前面内连接的例子改成joinWith方法:

    结果中每一行是一个元组,元组的两个元素分别是两个表的原始记录。

    最后

    已经都来到这了,你不想知道左半连接或左反连接的joinWith结果是啥吗?

  • 相关阅读:
    Python系列:5- Day1
    Python系列:4-计算机中的进制和编码
    操作系统随笔:什么是微内核和宏内核?【华为鸿鹄操作系统-微内核】
    Python系列:3-操作系统简史
    Python系列:2-电脑结构和CPU、内存、硬盘三者之间的关系
    数据结构中头结点和头指针那么易混淆吗
    pareto最优解(多目标智能算法要用到)
    Matlab学习中遇到的不熟悉的函数(智能算法学习第一天)
    6-2
    6-1
  • 原文地址:https://www.cnblogs.com/somefuture/p/15682462.html
Copyright © 2020-2023  润新知