• 关于sqoop增量导入oracle的数据到HDFS的出现的错误总结


    今天在将公司的oracle的数据抽取到hive当中,根据时间字段做增量插入,然后合并采用按照id唯一主键的方式进行合并操作。

    下面的代码是增量导入的操作shell脚本

    #!/bin/bash datenow=$(date -d 'last day' -I) databases=("FRONTBANK") sqoop import --connect jdbc:oracle:thin:自己的数据库ip:1521:zdxdb --username frontbank --password sdff23s --table FRONTBANK.INCREAT_TABLE --fields-terminated-by " " --incremental lastmodified #这个配置项是对导入的数据做插入和更新操作 --check-column MODIFY_TIME #这个配置项是按照数据表中的某个字段定位要读取的数据的位置 --last-value ${datenow} #这个配置项是加载最后一个导入数据到现在这段时间新增的数据,然后进行导入操作 --merge-key ID #这个配置项是对导入进来的数据进行合并的操作,这里是采用唯一主键的方式对数据进行合并操作 --hive-drop-import-delims -m 1 --target-dir /user/gxg/increment

    在导入数据的过程中遇到的问题如下:
    第一次在shell脚本当中执行的时候,出现了下面的问题

    ERROR tool.ImportTool: Import failed: java.io.IOException: Could not load jar /tmp/sqoop-root/compile/42f2af520ed13e2dc948a98222d69466/FRONTBANK.INCREAT_TABLE.jar into JVM. (Could not find class FRONTBANK.INCREAT_TABLE.)
    at org.apache.sqoop.util.ClassLoaderStack.addJarFile(ClassLoaderStack.java:92)
    at com.cloudera.sqoop.util.ClassLoaderStack.addJarFile(ClassLoaderStack.java:36)
    at org.apache.sqoop.tool.ImportTool.loadJars(ImportTool.java:120)
    at org.apache.sqoop.tool.ImportTool.lastModifiedMerge(ImportTool.java:456)
    at org.apache.sqoop.tool.ImportTool.importTable(ImportTool.java:522)
    at org.apache.sqoop.tool.ImportTool.run(ImportTool.java:621)
    at org.apache.sqoop.Sqoop.run(Sqoop.java:147)
    at org.apache.hadoop.util.ToolRunner.run(ToolRunner.java:70)
    at org.apache.sqoop.Sqoop.runSqoop(Sqoop.java:183)
    at org.apache.sqoop.Sqoop.runTool(Sqoop.java:234)
    at org.apache.sqoop.Sqoop.runTool(Sqoop.java:243)
    at org.apache.sqoop.Sqoop.main(Sqoop.java:252)
    Caused by: java.lang.ClassNotFoundException: FRONTBANK.INCREAT_TABLE
    at java.net.URLClassLoader$1.run(URLClassLoader.java:366)
    at java.net.URLClassLoader$1.run(URLClassLoader.java:355)
    at java.security.AccessController.doPrivileged(Native Method)
    at java.net.URLClassLoader.findClass(URLClassLoader.java:354)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:425)
    at java.net.FactoryURLClassLoader.loadClass(URLClassLoader.java:789)
    at java.lang.ClassLoader.loadClass(ClassLoader.java:358)
    at java.lang.Class.forName0(Native Method)
    at java.lang.Class.forName(Class.java:270)
    at org.apache.sqoop.util.ClassLoaderStack.addJarFile(ClassLoaderStack.java:88)

    这里显示在merger的时候找不到类,而且没这个jar包,但是在启动日志中明明有加载这个包和这个类的操作。然后找资料说采用codegen的方式。但是各种报错。

    然后在想是不是数据包不共享造成的,于是我将脚本部署oozie的工作流调度当中。居然可以可以运行,这个问题的原因应该是上传的包在本地,然而其他的机器加载不到这个包所以类不存在了。

    说到这里多提一句,在我们提交sqooop脚本的时候,会在本地产生一个jar包

     当我们在集群上执行sqoop脚本的的时候,相当于数据目录共享。所以不存在数据加载不到的问题。

    第二个问题:

    2019-01-08 17:03:35,929 INFO [IPC Server handler 2 on 37215] org.apache.hadoop.mapred.TaskAttemptListenerImpl: Diagnostics report from attempt_1546053074766_0184_m_000001_0: 
    Error: java.io.IOException: Cannot join values on null key. Did you specify a key column that exists? at org.apache.sqoop.mapreduce.MergeMapperBase.processRecord(MergeMapperBase.java:79) at org.apache.sqoop.mapreduce.MergeTextMapper.map(MergeTextMapper.java:58) at org.apache.sqoop.mapreduce.MergeTextMapper.map(MergeTextMapper.java:34) at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:145) at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:793) at org.apache.hadoop.mapred.MapTask.run(MapTask.java:341) at org.apache.hadoop.mapred.YarnChild$2.run(YarnChild.java:164) at java.security.AccessController.doPrivileged(Native Method) at javax.security.auth.Subject.doAs(Subject.java:415) at org.apache.hadoop.security.UserGroupInformation.doAs(UserGroupInformation.java:1917) at org.apache.hadoop.mapred.YarnChild.main(YarnChild.java:158)

    出现这个问题的主要原因有两点
    (1)你设置合并的字段不是主键的形式,一定要设置成为主键
    (2)第二点注意大小写的问题。我的问题就是我的主键的字段是大写的ID,我写成了这样 --merge-key id
    下面总结一下对于sqoop增量导入的总结:
    在整个的sqooop导入操作中需要注意两个东西,第一个就是我们的需要准备一个更新的字段(时间日期字段),第二个就是合并的字段负责更新数据的更新操作。其他的应该就没有问题了

    这里补充一点,我们只能定义数据目录,不能直接将数据导入到hive当中否则会报下面的错:
    --incremental lastmodified option for hive imports is not supported. Please remove the parameter --incremental lastmodified.


    这里需要补充另外一点,在我们增量导入的时候是分两步走的
    (1)将新增的数据导入进来 (这里可以指定导入的map数,也就是指定的并行读)
    (2)合并新导入的数据和之前的数据,这个过程有一点需要注意,我们在第一次全量导入数据的时候,指定的map数也就是最终形成的文件数。在合并的时候,他启动的map的数量是文件数目的n+1个






  • 相关阅读:
    Java集合
    java多线程
    IO学习笔记
    在阿里云服务器上部署项目失败的原因
    购买阿里云服务器学生机
    使用gitee创建个人的图床
    idea中springboot热部署(无需重启项目)
    Springboot实现验证码登录
    getAddress和getHostAddress的区别
    泛型学习第一天:List与IList的区别 (三)
  • 原文地址:https://www.cnblogs.com/gxgd/p/10243017.html
Copyright © 2020-2023  润新知