• 创建SSIS包—ETL中典型的数据清洗


    前面我们熟悉了很多ELT任务,这一个节来讨论复杂点的数据清洗。这里我们要使用的数据源是.dat文件,这种文件在大型主机上,或者是比较老旧的应用系统中非常常见。这个例子的情景是一个信用卡公司,目前正着手于拓展Florida州新成立的一些公司的业务。市场部门每周都会向这些公司发送一些邮件,我们要为所有的邮件准备抽取数据。假设Florida州提供的一个上面这个dat文件,它是从老的计算机系统里面得到的,它是定长分隔的,这意味着文件中没有分隔符,必须手工设置分隔列的长度。从下面的连接下载这个.dat文件:010305c.dat。如果使用工具查看,它们的模样类似下面的:

    01 ANNUAL_MICRO_DATA_REC.
    03 ANNUAL_COR_NUMBER PIC X(12).
    03 ANNUAL_COR_NAME PIC X(48).
    03 ANNUAL_COR_STATUS PIC X(01).
    03 ANNUAL_COR_FILING_TYPE PIC X(15).
    03 ANNUAL_COR_2ND_MAIL_ADD_1 PIC X(42).
    03 ANNUAL_COR_2ND_MAIL_ADD_2 PIC X(42).
    03 ANNUAL_COR_2ND_MAIL_CITY PIC X(28).
    03 ANNUAL_COR_2ND_MAIL_STATE PIC X(02).
    03 ANNUAL_COR_2ND_MAIL_ZIP PIC X(10).
    03 ANNUAL_COR_2ND_MAIL_COUNTRY PIC X(02).
    03 ANNUAL_COR_FILE_DATE PIC X(08).
    03 ANNUAL_COR_FEI_NUMBER PIC X(14).
    03 ANNUAL_MORE_THAN_SIX_OFF_FLAG PIC X(01).
    03 ANNUAL_LAST_TRX_DATE PIC X(08).
    03 ANNUAL_STATE_COUNTRY PIC X(02).
    03 ANNUAL_REPORT_YEAR_1 PIC X(04).
    03 ANNUAL_HOUSE_FLAG_1 PIC X(01).
    03 ANNUAL_REPORT_DATE_1 PIC X(08).
    03 ANNUAL_REPORT_YEAR_2 PIC X(04).
    03 ANNUAL_HOUSE_FLAG_2 PIC X(01).
    03 ANNUAL_REPORT_DATE_2 PIC X(08).
    03 ANNUAL_REPORT_YEAR_3 PIC X(04).
    03 ANNUAL_HOUSE_FLAG_3 PIC X(01).
    03 ANNUAL_REPORT_DATE_3 PIC X(08).
    03 ANNUAL_RA_NAME PIC X(42).
    03 ANNUAL_RA_NAME_TYPE PIC X(01).
    03 ANNUAL_RA_ADD_1 PIC X(42).
    03 ANNUAL_RA_CITY PIC X(28).
    03 ANNUAL_RA_STATE PIC X(02).
    03 ANNUAL_RA_ZIP5 PIC X(05).
    03 ANNUAL_RA_ZIP4 PIC X(04).
    03 ANNUAL_PRINCIPALS OCCURS 6 TIMES.
    05 ANNUAL_PRINC_TITLE PIC X(04).
    05 ANNUAL_PRINC_NAME_TYPE PIC X(01).
    05 ANNUAL_PRINC_NAME PIC X(42).
    05 ANNUAL_PRINC_ADD_1 PIC X(42).
    05 ANNUAL_PRINC_CITY PIC X(28).
    05 ANNUAL_PRINC_STATE PIC X(02).
    05 ANNUAL_PRINC_ZIP5 PIC X(05).
    05 ANNUAL_PRINC_ZIP4 PIC X(04).
    03 FILLER PIC X(04).

      

    创建数据源

     这个文件的内容看上去不知所云,不可能像普通的文本文件一样处理它们。下面要建一个package来清洗和这个类似的数据,得到有用的信息。package完成下面的任务:

    • 从010305c.dat的存放路径下将文件内容抽取出来存放到本地数据库
    • 将文件归档避免多次下载
    • 当一列数据丢失,这一列需要自动重新添加
    • 当一行数据丢失,需要输出错误的行

    新添加一个Package,重命名为CorporationLoad.dtsx,右击Connection Managers选择新添加一个连接,选择AdventureWorks。创建一个新的Flat File Connection连接,重命名为Corporation Extract连接到010305c.dat。这里不需要设置分隔符,而是选择定长格式,也不需要设置列分隔符,也没有必要选择第一行设置为列名选择项。

    定长格式文件意味着每一列不是由分隔符来分隔,必须手动设置每一列的开始和结束。大多数的大型机文件都是这种格式,你会发现这种设置会有些繁琐。打开文件界面并推断每一列的开始位置。点击Column标签界面如图5-6。在Row Widh栏内输入1172字符(这个数字表示文件的开始)。

    图5-6

    下一步,在列上设置竖直线标示每一列。在标尺刻度上左击设置竖直线,在这个例子中,可以使用下面的表中的提示来设置列。在竖直线上双击可以删除,左击拖动可以移动竖直线。

    标尺刻度值

    列名

    12

    CorporateNumber

    60

    CorporationName

    61

    CorporationStatus

    65

    FilingType

    118

    MailingAddressLine1

    160

    MailingAddressLine2

    188

    City

    190

    State

    200

    ZipCode

    202

    Country

    210

    FilingDate

    224

    FEINumber

    1172

    Records you will throw out

    在这个表中可以看到丢弃了大部分数据。添加完竖直线之后,点击Advanced标签界面,点击Suggest Types,在Suggest Column Types对话框中接受默认设置,点击OK。默认数据类型设置会满足大部分的数据类型需要,但是也会有一些错误。在Column 8(ZipCode column)需要修改DataType选择项为String[DT_STR],OutputColumnWidth设置为10。最后修改Column 10为String[DT_STR],OutputColumnWidth保持默认,点击OK保存设置。

      

    创建数据流

    在Control Flow 界面内拖放一个Data Flow task,双击进入数据流标签界面。在界面中拖放一个Flat File数据源重命名为Uncleansed Corporate Data,双击并选择上文中新建的数据连接,点击进入Columns标签界面反选Column 11和Column 12,这意味着市场部门不需要这两列数据。在后面的工作中将添加Destination和数据转换任务。

      

    处理脏数据

    在进行下一步操作之前,先暂停来了解一下数据。我们创建了数据连接,你可能会注意到有一些数据行是空白的 ,例如city和state的一些记录是没有的。为了解决这个问题,需要使用一些任务将规范的的数据送到一个路径,有缺损的数据送到另一个路径。然后尝试清洗坏的数据并送回到主要路径中。也可能有一些不能清洗的数据,需要写入错误日志。

    首先,设置邮政编码为5位字符,一些包含破折号的有10位字符,还有9位的。使用Derived Column转换来标准化,从工具栏中拖放一个Derived Column数据转换任务重命名为Standardize Zip Code。

    使用箭头连线将Load Corporate Data和Standardize Zip Code连接起来,双击Standardize Zip Code打开编辑界面,展开左边栏中的Column树形结构,点击Column 8拖放到下方的表格内,这里会在表格内预先填入一些信息。为了输出5位邮政编码需要编写一个表达式只截取5位。使用SUBSTRING函数可以实现这种功能,代码如下:

    SUBSTRING([Column 8],1,5)

    在表格Expression列中输入上面代码,在Derived列中选择replace the existing Column 8,最后可以看到界面如图5-7,完成编辑后点击OK退出界面。

    图5-7

      

    用Conditional Split进行数据转换

    现在数据规范化了,从工具栏中拖放一个Conditional Split数据转换任务,使用箭头连线把它和Standardize Zip Code连接起来,将Conditional Split重命名为Find Bad Record。Conditional Split将把一些不符合要求的数据进行清洗。

    为了去掉没有city或state的数据行,需要编写条件将缺失city或state的数据转移到一个数据流。双击Find Bad Record打开编辑界面,新建一个Missing State or City条件,在Output Name列内输入该名字。编写一个表达式来查找空的记录。一种方法是使用LTRIM函数。两个竖线|用来实现逻辑或。下面的代码用来查找Column 6和Column7。

    LTRIM([Column 6]) == "" || LTRIM([Column 7]) == ""

    最后要给不满足条件的数据命名。这里不满足上述条件的数据命名为Good Data,如图5-8

    图5-8

      

    使用Look Up转换数据

    从工具栏中拖放LookUp数据转换重命名为Fix Bad Records,当你把它和上一个数据转换Find Bad Record连接起来的时候,将会弹出Input Output Selection对话框如图5-9。下拉列表框中选择Missing State or City选择项,点击OK。这将有缺损的数据从Find Bad Record中送出。

    图5-9

    LookUp转换可以根据数据库中ZipCode表中的数据来补全数据行中缺失的city和state。双击打开编辑界面,点击Connection标签界面,选择AdventureWorks数据源和ZipCode数据表。点击Columns标签界面,点击Column 8不放拖放到右边ZipCode列上,这样在两边的表上建立一个连线如图5-10。然后再右边表中选中State和City列,这两列会出现在下方的表格中,ZipName会替换Column 6,State会替换Column 7 如图5-10。点击OK退出编辑界面。

    图5-10

      

    使用Union All合并

    现在数据被清洗,要使用Union All转换将清洗后的数据送回到主要数据流中。在工具栏中拖放一个Union All转换,从Fix Bad Records向Union All拖放一个连线,从Find Bad Records向Union拖放一个连线,Union All不再需要其他配置。

      

    最后设置

    最后需要将数据流送到一个OLE DB 目的中。从工具栏中拖放一个OLE DB Destination,重命名为Mail Merge Table。从Union All向它拖放一个连线,双击选择AdventureWorks数据源,Use a Table or View选择项中点击New button。默认的建表语句使用的是表名是Mail Merge Table,数据类型可能有些不是很合适的,代码如下:

    CREATE TABLE [Mail Merge Table] (
    [Column 0] VARCHAR(12),
    [Column 1] VARCHAR(48),
    [Column 2] VARCHAR(1),
    [Column 3] VARCHAR(4),
    [Column 4] VARCHAR(53),
    [Column 5] VARCHAR(42),
    [Column 6] VARCHAR(28),
    [Column 7] VARCHAR(2),
    [Column 8] VARCHAR(10),
    [Column 9] VARCHAR(2),
    [Column 10] VARCHAR(10)
    )

    修改代码中的表名和列名,修改后的代码如下:

    CREATE TABLE MarketingCorporation(
    CorporateNumber
    varchar(12),
    CorporationName
    varchar(48),
    FilingStatus
    char(1),
    FilingType
    char(4),
    AddressLine1
    varchar(53),
    AddressLine2
    varchar(42),
    City
    varchar(28),
    State
    char(2),
    ZipCode
    varchar(10),
    Country
    char(2),
    FilingDate
    varchar(50) NULL
    )

    由于列名是不同的需要点击Mapping标签将列对应起来。

      

    处理更多的脏数据

    这个Package基本上完成了,但是这里有一个致命的缺陷。010305c.dat这个文件中有一些多余的数据,在Find Bad Records和Fix Bad Records之间添加一个data viewer可以查看这些多余的数据。

    这样可以查看在010305c.dat文件中有4条数据被Fix Bad Records处理,只有2条被清洗。另外2条不能被定为到Fix Bad Records中。在这个Package的需求中有一条是为市场部门提供一份地址列表用在邮件内容中。下图5-11中显示了错误所在。

    图5-11

    在输出界面中你可以看到如下的错误信息:

    Error: 0xC020901E at Load Corporate Data, Fix Bad Records [87]: Row yielded no

    match

    during lookup.

    Error: 0xC0209029 at Load Corporate Data, Fix Bad Records [87]: The "component "Fix

    Bad

    Records" (87)" failed because error code 0xC020901E occurred, and the error row

    disposition on "output "Lookup Output" (89)" specifies failure on error. An error

    occurred on the specified object of the specified component.

    Error: 0xC0047022 at Load Corporate Data, DTS.Pipeline: The ProcessInput method on

    component "Fix Bad Records" (87) failed with error code 0xC0209029. The identified

    component returned an error from the ProcessInput method. The error is specific to

    the

    component, but the error is fatal and will cause the Data Flow task to stop

    running.

    Error: 0xC0047021 at Load Corporate Data, DTS.Pipeline: Thread "WorkThread0" has

    exited

    with error code 0xC0209029.

    Error: 0xC0047039 at Load Corporate Data, DTS.Pipeline: Thread "WorkThread1"

    received a

    shutdown signal and is terminating. The user requested a shutdown, or an error in

    another

    thread is causing the pipeline to shutdown.

    Error: 0xC0047021 at Load Corporate Data, DTS.Pipeline: Thread "WorkThread1" has

    exited

    with error code 0xC0047039.

      

    不能因为这些错误提示而放弃这个Package,需要将错误信息输入到错误消息队列中以备查看。需要创建一个ErrorQueue表,从工具栏中拖放一个Audit转换,重命名为Add Auditing Info,从Fix Bad Records中拖拽红色箭头连线连接到Add Auditing Info。

    如图5-12,可以看到Configure Error Output对话框,在这个对话框中配置如果错误出现时SSIS如何反应。Truncation列表明如果一行太长而不能加入到转换中时所作的反应。Error列表明遇到转换错误时如何反应。在Description列中可以看到期望捕获的错误。例如对于Lookup转换,需要捕获的错误是lookup failure,意思是lookup转换不能找到对应的输入。在这个例子中选择错误类型如图5-10。默认情况会使任务失败,结果会使整个Package失败。也可以从下拉列表中选择完全忽略错误。

    图5-10

    完成配置之后点击OK退出界面。

    错误处理之后,双击Audit transform打开编辑界面,添加两列。继续添加两列,在Audit Type列中选择Task Name和Package Name,Output Column Name默认同名,去掉名字中的空格,如图5-13。由于可能有多个Package向表中写入数据,所以这些信息是必须的。

    图5-13

    最后的工作是将脏数据送入到SQL Server中的ErrorQueue表中,从工具栏中拖放另外一个OLE DB目的,重命名为Error Queue,双击选择AdventureWorks数据源,点击New新添加一个表,重命名表名ErrorQueue,代码如下:

    CREATE TABLE ErrorQueue(
    CorporateNumber
    varchar(12),
    CorporationName
    varchar(48),
    FilingStatus
    char(1),
    FilingType
    char(4),
    AddressLine1
    varchar(53),
    AddressLine2
    varchar(42),
    City
    varchar(28),
    State
    char(2),
    ZipCode
    varchar(10),
    Country
    char(2),
    FilingDate
    varchar(10) NULL,
    ErrorCode
    INT,
    ErrorColumn
    INT,
    TaskName
    NVARCHAR(19),
    PackageName
    NVARCHAR(30)
    )

    注意:可以看到这个表中的信息是很笼统的。

    这次需要点击mapping将列一一对应起来,点击OK退出编辑界面。现在可以执行这个Package了,4条记录被清洗,2条送到error queue。执行成功之后的界面如图5-14。

    图5-14

    作者:Tyler Ning
    出处:http://www.cnblogs.com/tylerdonet/
    本文版权归作者和博客园共有,欢迎转载,但未经作者同意必须保留此段声明,且在文章页面明显位置给出原文连接,如有问题,请微信联系冬天里的一把火

  • 相关阅读:
    表达式求值
    火柴排队(归并)
    POJ 3254 压缩状态DP
    ZOJ 3471 压缩状态DP
    Boost IPC Persistence Of Interprocess Mechanisms 例子
    TCO 2014 Round 1A
    Google Code Jam 2014 Qualification 题解
    STL set_difference set_intersection set_union 操作
    b_zj_特征提取(map记录上一个特征运动的次数)
    b_zj_最大连续的相同字符子串的长度(双指针+找突破点)
  • 原文地址:https://www.cnblogs.com/tylerdonet/p/2023843.html
Copyright © 2020-2023  润新知