• Java实现 LeetCode 138 复制带随机指针的链表


    138. 复制带随机指针的链表

    给定一个链表,每个节点包含一个额外增加的随机指针,该指针可以指向链表中的任何节点或空节点。

    要求返回这个链表的 深拷贝。

    我们用一个由 n 个节点组成的链表来表示输入/输出中的链表。每个节点用一个 [val, random_index] 表示:

    val:一个表示 Node.val 的整数。
    random_index:随机指针指向的节点索引(范围从 0 到 n-1);如果不指向任何节点,则为 null 。

    示例 1:
    在这里插入图片描述

    输入:head = [[7,null],[13,0],[11,4],[10,2],[1,0]]
    输出:[[7,null],[13,0],[11,4],[10,2],[1,0]]
    示例 2:

    在这里插入图片描述

    输入:head = [[1,1],[2,1]]
    输出:[[1,1],[2,1]]
    示例 3:

    在这里插入图片描述

    输入:head = [[3,null],[3,0],[3,null]]
    输出:[[3,null],[3,0],[3,null]]
    示例 4:

    输入:head = []
    输出:[]
    解释:给定的链表为空(空指针),因此返回 null。

    提示:

    -10000 <= Node.val <= 10000
    Node.random 为空(null)或指向链表中的节点。
    节点数目不超过 1000 。

    /*
    // Definition for a Node.
    class Node {
        int val;
        Node next;
        Node random;
    
        public Node(int val) {
            this.val = val;
            this.next = null;
            this.random = null;
        }
    }
    */
    class Solution {
         public Node copyRandomList(Node head) {
            if(head == null){
                return head;
            }
            // 空间复杂度O(1),将克隆结点放在原结点后面
            Node node = head;
            // 1->2->3  ==>  1->1'->2->2'->3->3'
            while(node != null){
                Node clone = new Node(node.val,node.next,null);
                Node temp = node.next;
                node.next = clone;
                node = temp;
            }
            // 处理random指针
            node = head;
            while(node != null){
                // !!
                node.next.random = node.random == null ? null : node.random.next;
                node = node.next.next;
            }
            // 还原原始链表,即分离原链表和克隆链表
            node = head;
            Node cloneHead = head.next;
            while(node.next != null){
                Node temp = node.next;
                node.next = node.next.next;
                node = temp;
            }
            return cloneHead;
        }
    }
    
  • 相关阅读:
    scala之 spark连接SQL和HIVE/IDEA操作HDFS
    hive之 连接DBeaver
    hive之 配置的图解
    Hive和sparksql中的dayofweek
    spark SQL之 DataFrame使用
    spark SQL之 org.apache.spark.sql.AnalysisException: Table or view not found:
    Spring详解(七)------AOP 注解
    Spring详解(六)------AspectJ 实现AOP
    Spring详解(五)------面向切面编程
    Spring详解(十)------spring 环境切换
  • 原文地址:https://www.cnblogs.com/a1439775520/p/12946769.html
Copyright © 2020-2023  润新知