• ADF 第六篇:Copy Data Activity详解


    Azure Data Factory 系列博客:

    在Azure 数据工程中,可以使用Copy Data 活动把数据从on-premises 或云中复制到其他存储中。Copy Data 活动必须在一个IR(Integration Runtime)上运行,对于把存储在on-premises中的数据复制到其他存储时,必须创建一个self-hosted Integration Runtime。

    一,认识Copy Data Activity

    创建一个Pipeline,从Activities列表中找到“Copy data”,拖放到Pipeline画布中,如下图所示:

    在General选项卡中,设置Activity的常规属性

    • Name:为Activity命名
    • Timeout:设置Activity的超时时间
    • Retry:重试次数
    • Retry interval:重试一次间隔的时间,单位是second
    • Secure output:安全输出,如果勾选,那么该Activity的输出不会记录
    • Secure input:安全入,如果勾选,那么该Activity的输入不会记录

    二,设置源属性

    Source选项卡用于设置Copy data Activity的源属性,

    1,Source 的常规设置

    Source dataset:设置源的dataset

    use query:Table选项表示整个表作为一个数据源,Query或 Store procedure选项表示使用查询语句或存储过程来获取数据源。

    Query timeout(minutes):表示查询超时的时间

    Isolation level:设置查询隔离级别,作用于数据源。

    2,Partition option

    指定从SQL Server加载数据的分区选项,当启用分区选项时(不是None),从SQL Server 同时加载数据的并发度由Copy data Activity的Degree of copy parallelism属性设置。Physical Partitions Of Table表示数据工厂根据原始表的分区定义来确定分区列和分区机制;当选择Dynamic range选项时,用户还需要设置Partition column name、Partition upper bound 和Partition lower bound三项,手动设置分区列和分区机制。

    3,Additional columns

    添加额外的列,Value由三种类型:Add dynamic content、$$COLUMN和Custom。

    $$COLUMN:表示把源的指定列复制为另一列

    Custom:表示添加一列,列指是常量

    Add dynamic content,表示添加动态上下文(Dynamic Content),动态上下文是指数据工厂的上下文,这些动态上下文由系统变量(System variables)来提供:

    三,设置Sink

    Sink是Copy Data Activity复制数据的目标数据集,Data Factory 使用 Sink dataset来设置目标。

    1,Store procedure name

    从Sink dataset中选择存储过程,该存储过程定义了如何把元数据应用于目标表。该存储过程每个batch调用一次,对于仅运行一次且与源数据无关的操作,请使用 Pre-copy script 属性。

    如果使用Pre-copy script 属性,通常意味着数据是全量更新,重写整个表,比如以下脚本:

    truncate table staging_table

    Copy data activity的执行过程是:每次执行Copy data activity,数据工厂首先执行Pre-copy script,然后使用最新的数据插入数据到target table。

    如果使用存储过程,通常是对数据进行增量更新,要实现增量更新,实际上是把数据集作为参数传递给存储过程,这就意味着存储过程的一个参数必须是表变量类型,存储过程的代码实现如下脚本所示,

    CREATE PROCEDURE spOverwriteMarketing 
      @Marketing [dbo].[MarketingType] READONLY
      , @category varchar(256) AS BEGIN MERGE [dbo].[Marketing] AS target USING @Marketing AS source   ON (target.ProfileID = source.ProfileID and target.Category = @category) WHEN MATCHED THEN UPDATE SET State = source.State WHEN NOT MATCHED THEN INSERT (ProfileID, State, Category) VALUES (source.ProfileID, source.State, source.Category); END

    2,Table option

    如果设置为Auto create table,那么当目标表不存在时,数据工厂根据Source 的元数据自动创建目标表。

    3,常规设置

    Write batch timeout:每个batch数据写入的超时时间

    Write batch size:每个batch的数据行数量

    Max concurrent connections:访问数据存储的最大的并发连接数量

    四,设置Mapping

    在Mapping选项卡中,主要设置Source 和 Sink之间的列映射

    1,Type conversion settings用于设置类型转换

    • Allow data truncation: 在把source数据转换到sink时,如果字段的类型不同,允许数据截断。
    • Treat boolean as number:把bool值作为数值来看待,把true看作1,把false看作1
    • DateTime format:DateTime类型的格式
    • DateTimeOffset format:数据间隔的格式
    • TimeSpan format:TimeSpan的格式
    • Culture:locale

    2,列映射

    设置列与列之间的映射关系,用户需要点击“Import schemas”来导入架构元数据。

    五,设置Settings

    配置Copy data Activity的设置

    1,常规的设置

    • Data integration unit:数据集成的单元
    • Degree of copy parallelism:指定数据加载时并发度
    • Data consistency verification:当勾选时,Copy data Activity会在数据移动之后,对数据进行一致性检查
    • Enable logging:启用日志,记录复制的文件,跳过的数据行和文件
    • Enable staging:指定是否要通过临时存储来复制数据

    2,设置Fault tolerance

    当设置Fault tolerance (错误容忍)之后,用户可以忽略在复制数据过程中出现的一些错误,可以忽略的错误类型主要有三个:

    • Skip incompatible rows:跳过不兼容的行
    • Skip missing files:跳过缺失的文件
    • Skip forbidden files:跳过禁止的文件

    六,数据更新的全量更新和增量更新

    数据更新的方式主要有:全量更新、追加数据、增量更新。

    1,数据的全量更新和追加更新

    如果使用Pre-copy script 属性,通常意味着数据是全量更新和追加更新。

    在插入数据之前,如果先清空目标表,再向目标表插入数据,这种方式是全量更新;如果不清空目标表,只是向目标表插入新的数据,那么就是追加更新,前提是保证数据是无重复的新数据。

    2,通过存储过程来实现Copy data Activity的增量更新

    如果Sink属性使用存储过程,那么是对数据进行增量更新。实现数据的增量更新,实际上是把数据集作为参数传递给存储过程,这就意味着存储过程的一个参数必须是表变量类型。

    由于存储过程在连接表变量时,性能较差,建议对分batch插入,每个batch进行一次插入操作。

    创建一个表类型,作为存储过程的参数,表的架构和输入数据的架构相同:

    CREATE TYPE [dbo].[MarketingType] AS TABLE
    ( [ProfileID] [varchar](256) NOT NULL, [State] [varchar](256) NOT NULL, [Category] [varchar](256) NOT NULL )

    创建存储过程,第一个变量是表变量,该存储过程的作用是把表变量的数据更新到Sink指定的target table中。

    CREATE PROCEDURE spOverwriteMarketing 
      @Marketing [dbo].[MarketingType] READONLY
      , @category varchar(256) AS BEGIN MERGE [dbo].[Marketing] AS target USING @Marketing AS source ON (target.ProfileID = source.ProfileID and target.Category = @category) WHEN MATCHED THEN UPDATE SET State = source.State WHEN NOT MATCHED THEN INSERT (ProfileID, State, Category) VALUES (source.ProfileID, source.State, source.Category); END

    3,使用临时表来实现增量更新

    先把数据加载到临时表,通过merge语句把临时数据归并到product table。

    参考文档:

    Copy data to and from SQL Server by using Azure Data Factory

    Copy activity in Azure Data Factory

  • 相关阅读:
    bzoj 1407: [Noi2002]Savage【扩展欧几里得+中国剩余定理】
    bzoj 2142: 礼物【中国剩余定理+组合数学】
    BSGS
    bzoj 2242: [SDOI2011]计算器【扩展欧几里得+快速幂+BSGS】
    bzoj 3122: [Sdoi2013]随机数生成器【BSGS】
    bzoj 3239: Discrete Logging && 2480: Spoj3105 Mod【BSGS】
    bzoj 1180: [CROATIAN2009]OTOCI【LCT】
    51nod 1122 机器人走方格 V4 【矩阵快速幂】
    51nod 1120 机器人走方格 V3 【卡特兰数+卢卡斯定理+组合数】
    51nod 1119 机器人走方格 V2 【组合数学】
  • 原文地址:https://www.cnblogs.com/ljhdo/p/14154598.html
Copyright © 2020-2023  润新知