• 在Salesforce中通过dataloadercliq调用data loader来批量处理数据


    上一篇文章讲到,通过data loader去批量处理数据,那么这篇文章将主要讲解在Salesforce中通过dataloadercliq调用data loader来批量处理数据。

    1): CLIq文件下载路径为 : http://code.google.com/p/dataloadercliq/  下载之后将cliq整体放置到Data Loader的安装目录下,如下图所示

    2): 我们可以看到在cliq文件夹下是一个可执行 .bat 文件

    3): 双击 .bat 文件,之后会显示相应的图形界面,我们选择Export,并且填写相应的名字

    4): 进行用户信息的认证,提醒一下 Password 为 “password”+“token”

    5): 填写Query字符串,Select的字段顺序将会在.csv的Header中体现出来,并且顺序是一致的

    6): 确定生成对应的Data Loader CLI 文件

    7): 在对应的cliq_process文件夹下可以找到对应的刚刚生成的可执行文件

    8): 点击可执行的 .bat 文件,运行后便可生成对应的 csv 数据文件,此数据文件保存在write文件夹中

    其他的基本操作(Delete,Upsert,Update,Insert)都可以模仿此过程来操作,只不过这几个操作的数据来源在相对应的read文件夹中,并且需要配置对应的 .sdl 文件信息(.csv文件头与object字段的mapping)。

    在处理Upsert操作的时候,要尤为注意:在生成CLI文件的过程中,要填写一个可选的external字段,如果不填写,系统会默认用Id作为external的字段,但是此时我们要在对应process-conf.xml文件中添加一个节点  <entry key="sfdc.externalIdField" value="Id" /> 来显示表明此项设置。

    再一个值得注意的一点为:Data Loader的版本问题。 由于应用程序是向下兼容的,所以高版本生成文件运行在低版本的环境中很容易出现奇怪的问题。 所以我们要在process-conf.xml文件中多留意此节点<entry key="sfdc.endpoint" value="https://test.salesforce.com/services/Soap/u/28.0"/>这个节点将标示所生成的CLI应该运行在哪个Version中。

  • 相关阅读:
    树的直径证明+HDU2196
    区间DP的摸索
    HDU1502 Regular Words DP+大数
    HDU1501 dfs
    “龙井”开箱评测 |Alibaba Dragonwell 新手上路指南
    只想着一直调用一直爽, 那API凭证泄漏风险如何破?
    使用Data Lake Analytics读/写RDS数据
    使用Data Lake Analytics从OSS清洗数据到AnalyticDB
    阿里巴巴资深技术专家无相:我们能从 InteliJ IDEA 中学到什么?
    云数据库RDS存储能力进化解析!
  • 原文地址:https://www.cnblogs.com/mingmingruyuedlut/p/3413918.html
Copyright © 2020-2023  润新知