• 通过例子讲解Spring Batch入门,优秀的批处理框架


    1 前言

    欢迎访问南瓜慢说 www.pkslow.com获取更多精彩文章!

    Spring相关文章:Springboot-Cloud相关

    Spring Batch是一个轻量级的、完善的批处理框架,作为Spring体系中的一员,它拥有灵活、方便、生产可用的特点。在应对高效处理大量信息、定时处理大量数据等场景十分简便。

    结合调度框架能更大地发挥Spring Batch的作用。

    2 Spring Batch的概念知识

    2.1 分层架构

    Spring Batch的分层架构图如下:

    可以看到它分为三层,分别是:

    • Application应用层:包含了所有任务batch jobs和开发人员自定义的代码,主要是根据项目需要开发的业务流程等。
    • Batch Core核心层:包含启动和管理任务的运行环境类,如JobLauncher等。
    • Batch Infrastructure基础层:上面两层是建立在基础层之上的,包含基础的读入reader写出writer、重试框架等。

    2.2 关键概念

    理解下图所涉及的概念至关重要,不然很难进行后续开发和问题分析。

    2.2.1 JobRepository

    专门负责与数据库打交道,对整个批处理的新增、更新、执行进行记录。所以Spring Batch是需要依赖数据库来管理的。

    2.2.2 任务启动器JobLauncher

    负责启动任务Job

    2.2.3 任务Job

    Job是封装整个批处理过程的单位,跑一个批处理任务,就是跑一个Job所定义的内容。

    上图介绍了Job的一些相关概念:

    • Job:封装处理实体,定义过程逻辑。
    • JobInstanceJob的运行实例,不同的实例,参数不同,所以定义好一个Job后可以通过不同参数运行多次。
    • JobParameters:与JobInstance相关联的参数。
    • JobExecution:代表Job的一次实际执行,可能成功、可能失败。

    所以,开发人员要做的事情,就是定义Job

    2.2.4 步骤Step

    Step是对Job某个过程的封装,一个Job可以包含一个或多个Step,一步步的Step按特定逻辑执行,才代表Job执行完成。

    通过定义Step来组装Job可以更灵活地实现复杂的业务逻辑。

    2.2.5 输入——处理——输出

    所以,定义一个Job关键是定义好一个或多个Step,然后把它们组装好即可。而定义Step有多种方法,但有一种常用的模型就是输入——处理——输出,即Item ReaderItem ProcessorItem Writer。比如通过Item Reader从文件输入数据,然后通过Item Processor进行业务处理和数据转换,最后通过Item Writer写到数据库中去。

    Spring Batch为我们提供了许多开箱即用的ReaderWriter,非常方便。

    3 代码实例

    理解了基本概念后,就直接通过代码来感受一下吧。整个项目的功能是从多个csv文件中读数据,处理后输出到一个csv文件。

    3.1 基本框架

    添加依赖:

    <dependency>
      <groupId>org.springframework.boot</groupId>
      <artifactId>spring-boot-starter-batch</artifactId>
    </dependency>
    <dependency>
      <groupId>com.h2database</groupId>
      <artifactId>h2</artifactId>
      <scope>runtime</scope>
    </dependency>
    

    需要添加Spring Batch的依赖,同时使用H2作为内存数据库比较方便,实际生产肯定是要使用外部的数据库,如OraclePostgreSQL

    入口主类:

    @SpringBootApplication
    @EnableBatchProcessing
    public class PkslowBatchJobMain {
        public static void main(String[] args) {
            SpringApplication.run(PkslowBatchJobMain.class, args);
        }
    }
    

    也很简单,只是在Springboot的基础上添加注解@EnableBatchProcessing

    领域实体类Employee

    package com.pkslow.batch.entity;
    public class Employee {
        String id;
        String firstName;
        String lastName;
    }
    

    对应的csv文件内容如下:

    id,firstName,lastName
    1,Lokesh,Gupta
    2,Amit,Mishra
    3,Pankaj,Kumar
    4,David,Miller
    

    3.2 输入——处理——输出

    3.2.1 读取ItemReader

    因为有多个输入文件,所以定义如下:

    @Value("input/inputData*.csv")
    private Resource[] inputResources;
    
    @Bean
    public MultiResourceItemReader<Employee> multiResourceItemReader()
    {
      MultiResourceItemReader<Employee> resourceItemReader = new MultiResourceItemReader<Employee>();
      resourceItemReader.setResources(inputResources);
      resourceItemReader.setDelegate(reader());
      return resourceItemReader;
    }
    
    @Bean
    public FlatFileItemReader<Employee> reader()
    {
      FlatFileItemReader<Employee> reader = new FlatFileItemReader<Employee>();
      //跳过csv文件第一行,为表头
      reader.setLinesToSkip(1);
      reader.setLineMapper(new DefaultLineMapper() {
        {
          setLineTokenizer(new DelimitedLineTokenizer() {
            {
              //字段名
              setNames(new String[] { "id", "firstName", "lastName" });
            }
          });
          setFieldSetMapper(new BeanWrapperFieldSetMapper<Employee>() {
            {
              //转换化后的目标类
              setTargetType(Employee.class);
            }
          });
        }
      });
      return reader;
    }
    
    

    这里使用了FlatFileItemReader,方便我们从文件读取数据。

    3.2.2 处理ItemProcessor

    为了简单演示,处理很简单,就是把最后一列转为大写:

    public ItemProcessor<Employee, Employee> itemProcessor() {
      return employee -> {
        employee.setLastName(employee.getLastName().toUpperCase());
        return employee;
      };
    }
    

    3.2.3 输出ItremWriter

    比较简单,代码及注释如下:

    private Resource outputResource = new FileSystemResource("output/outputData.csv");
    
    @Bean
    public FlatFileItemWriter<Employee> writer()
    {
      FlatFileItemWriter<Employee> writer = new FlatFileItemWriter<>();
      writer.setResource(outputResource);
      //是否为追加模式
      writer.setAppendAllowed(true);
      writer.setLineAggregator(new DelimitedLineAggregator<Employee>() {
        {
          //设置分割符
          setDelimiter(",");
          setFieldExtractor(new BeanWrapperFieldExtractor<Employee>() {
            {
              //设置字段
              setNames(new String[] { "id", "firstName", "lastName" });
            }
          });
        }
      });
      return writer;
    }
    

    3.3 Step

    有了Reader-Processor-Writer后,就可以定义Step了:

    @Bean
    public Step csvStep() {
      return stepBuilderFactory.get("csvStep").<Employee, Employee>chunk(5)
        .reader(multiResourceItemReader())
        .processor(itemProcessor())
        .writer(writer())
        .build();
    }
    

    这里有一个chunk的设置,值为5,意思是5条记录后再提交输出,可以根据自己需求定义。

    3.4 Job

    完成了Step的编码,定义Job就容易了:

    @Bean
    public Job pkslowCsvJob() {
      return jobBuilderFactory
        .get("pkslowCsvJob")
        .incrementer(new RunIdIncrementer())
        .start(csvStep())
        .build();
    }
    

    3.5 运行

    完成以上编码后,执行程序,结果如下:

    成功读取数据,并将最后字段转为大写,并输出到outputData.csv文件。

    4 监听Listener

    可以通过Listener接口对特定事件进行监听,以实现更多业务功能。比如如果处理失败,就记录一条失败日志;处理完成,就通知下游拿数据等。

    我们分别对ReadProcessWrite事件进行监听,对应分别要实现ItemReadListener接口、ItemProcessListener接口和ItemWriteListener接口。因为代码比较简单,就是打印一下日志,这里只贴出ItemWriteListener的实现代码:

    public class PkslowWriteListener implements ItemWriteListener<Employee> {
        private static final Log logger = LogFactory.getLog(PkslowWriteListener.class);
        @Override
        public void beforeWrite(List<? extends Employee> list) {
            logger.info("beforeWrite: " + list);
        }
    
        @Override
        public void afterWrite(List<? extends Employee> list) {
            logger.info("afterWrite: " + list);
        }
    
        @Override
        public void onWriteError(Exception e, List<? extends Employee> list) {
            logger.info("onWriteError: " + list);
        }
    }
    

    把实现的监听器listener整合到Step中去:

    @Bean
    public Step csvStep() {
      return stepBuilderFactory.get("csvStep").<Employee, Employee>chunk(5)
        .reader(multiResourceItemReader())
        .listener(new PkslowReadListener())
        .processor(itemProcessor())
        .listener(new PkslowProcessListener())
        .writer(writer())
        .listener(new PkslowWriteListener())
        .build();
    }
    

    执行后看一下日志:

    这里就能明显看到之前设置的chunk的作用了。Writer每次是处理5条记录,如果一条输出一次,会对IO造成压力。

    5 总结

    Spring Batch还有许多优秀的特性,如面对大量数据时的并行处理。本文主要入门介绍为主,不一一介绍,后续会专门讲解。


    欢迎关注微信公众号<南瓜慢说>,将持续为你更新...

    多读书,多分享;多写作,多整理。

  • 相关阅读:
    文件下载(Servlet/Struts2)
    Spring学习(一)---依赖注入和控制反转
    MyBatis学习(三)---MyBatis和Spring整合
    MyBatis学习(二)---数据表之间关联
    MyBatis学习(一)---配置文件,Mapper接口和动态SQL
    转载:常见端口介绍
    CentOS7 yum提示:another app is currently holding the yum lock;waiting for it to exit
    批量删除文件,只保留目录下最新的几个文件,其他均删除
    转载:SQL Server 如何设置数据库的默认初始大小和自动增长大小
    阿里云ECS使用秘钥或者密码登录
  • 原文地址:https://www.cnblogs.com/larrydpk/p/13660537.html
Copyright © 2020-2023  润新知