2016-08-23 73 views
1

在Spring批处理中,我试图读取一个CSV文件,并希望将每行分配给一个单独的线程并对其进行处理。我试图通过使用任务执行程序来实现它,它正在工作,如果我没有使用作业参数获取文件名。如果我从scope="step"以后通过作业参数,所有线程正在从文件中读取相同的行。如果我改变了scope="job",如果是的话请建议方式吗?目前,我下面得到一个错误:spring批处理多线程文件读取

产生的原因:java.lang.IllegalStateException:没有适用范围适用于范围名 '工作'

请帮助注册...

查找下面的Job.xml

<job id="partitionJob" xmlns="http://www.springframework.org/schema/batch"  restartable="true"> 
    <step id="step" allow-start-if-complete="true"> 
     <partition step="step2" partitioner="partitioner"> 
      <handler grid-size="3" task-executor="taskExecutor" /> 
     </partition> 
    </step> 
</job> 

    <bean id="partitioner" class="com.range.part.RangePartitioner"> 
</bean> 

<bean id="taskExecutor" class="org.springframework.core.task.SimpleAsyncTaskExecutor" /> 

<step id="step2" xmlns="http://www.springframework.org/schema/batch"> 
    <tasklet transaction-manager="transactionManager"> 
     <chunk reader="itemReader" writer="cutomitemWriter" processor="itemProcessor" commit-interval="100" /> 
    </tasklet> 
</step> 
<bean id="itemProcessor" class="com.range.processor.UserProcessor" scope="step"> 
<property name="threadName" value="#{stepExecutionContext[name]}"/> 
</bean> 

<bean id="itemReader" class="org.springframework.batch.item.file.FlatFileItemReader" scope="job"> 
<property name="resource" value="file:#{jobParameters[file]}"> 
</property>  
    <!-- <property name="linesToSkip" value="1"/> --> 
<property name="lineMapper"> 
     <bean class="org.springframework.batch.item.file.mapping.DefaultLineMapper"> 
      <property name="lineTokenizer"> 
       <bean class="org.springframework.batch.item.file.transform.DelimitedLineTokenizer"> 
        <property name="delimiter" value="," /> 
        <!-- <property name="names" value="transactionBranch,batchEntryDate,batchNo,channelID,CountryCode" />--> 
     </bean> 
      </property> 
      <property name="fieldSetMapper"> 
       <bean class="com.fieldset.FieldsetMapper"> 

       </bean> 
      </property> 
     </bean> 
    </property> 
    </bean> 

<bean id="cutomitemWriter" class="com.range.processor.customitemWritter"> 
</bean> 
+1

提供的信息不够全面。你需要发布一些代码。 – marthursson

+0

看起来你正在读取每个线程内的文件而不是外部线程。 –

+0

你是否想让它们在不同的线程上读取(不一定是最高性能的选项),或者只是在不同的线程上处理? –

回答

1

我想我们可以在其上使用分区器的方式。在分区级别,我们可以读取文件(通过使用任何CSV阅读器或Spring Reader也可以),然后处理每一行。

每一行都会被添加到分区程序的队列(Map)中,以便达到您的要求。

我在这里的代码贴出来供大家参考

公共类LinePartitioner实现分区程序{

@Value("#{jobParameters['fileName']}") 
private String fileName; 

Map<String, ExecutionContext> queue = new HashMap<>(); 

@Override 
public Map<String, ExecutionContext> partition(int gridSize) { 

    BufferedReader reader = new BufferedReader(new FileReader(this.fileName)); 
    List<String> lines = new ArrayList<>(); 
    int count = 0; 
    while ((line = reader.readLine()) != null) { 

     ExecutionContext value = new ExecutionContext(); 
     value.put("lineContent", line); 
     value.put("lineCount", count+1); 

     queue.put(++count, value); 
    } 

    return queue; 
} 

}

正如上面的代码,你可以通过任何一个CSV阅读器或Spring Reader来替代阅读器用Pojo对象简化映射场。

请让我知道如果您需要完整的程序,我会为您编写和上传。

感谢, Nghia酒店

- 用一个例子有1000个项目读者建立分区程序读者

@Override 
    public Map<String, ExecutionContext> partition(int gridSize) { 
     try { 
      Map<String, ExecutionContext> queue = new HashMap<>(); 

      List<List<String>> trunks = new ArrayList<>(); 

      // read and store data to a list of trunk 
      int chunkSize = 1000; 
      int count = 1; 
      try (BufferedReader br = new BufferedReader(new FileReader("your file"))) { 
       String line; 
       List items = null; 
       while ((line = br.readLine()) != null) { 
        if (count % chunkSize == 0) { 
         items = new ArrayList(); 
         trunks.add(items); 
        } 

        items.add(line); 
       } 
      } 

      // add to queue to start prorcessing 
      for (int i=0; i<trunks.size(); i++) { 
       ExecutionContext value = new ExecutionContext(); 
       value.put("items", trunks.get(i)); 
       queue.put("trunk"+i, value); 
      } 

      return queue; 
     } 

     catch (Exception e) { 
      // handle exception 
     } 
} 
+0

嗨,谢谢你soo ..我已经开始实施你的方法..一旦完成,我会让你知道,如果我需要任何帮助.. 。并尝试另一种方法也.. – gautam

+0

我已经将原始文件拆分为多个文件,并使用MultiFileResourcePartitioner分配给每个线程的单个文件。请确认哪种方法可以带来更多的性能优势......预先感谢 – gautam

+0

就你而言,由于文件读取在分区类本身中得到了关注,我可以直接处理通过ExceutionContext进行的记录吗?另一个单独的读者不是正确的? – gautam

0

更新您可以看到this example (on Github)与多线程任务导入一个很大的CSV文件(如200,000行)插入数据库并将数据从DB导出到JSON文件(FileReader和FileWriter将具有无线程安全)。

<batch:job id="transformJob"> 
    <batch:step id="deleteDir" next="cleanDB"> 
     <batch:tasklet ref="fileDeletingTasklet" /> 
    </batch:step> 
    <batch:step id="cleanDB" next="countThread"> 
     <batch:tasklet ref="cleanDBTasklet" /> 
    </batch:step> 
    <batch:step id="countThread" next="split"> 
     <batch:tasklet ref="countThreadTasklet" /> 
    </batch:step> 
    <batch:step id="split" next="partitionerMasterImporter"> 
     <batch:tasklet> 
      <batch:chunk reader="largeCSVReader" writer="smallCSVWriter" 
       commit-interval="#{jobExecutionContext['chunk.count']}" /> 
     </batch:tasklet> 
    </batch:step> 
    <batch:step id="partitionerMasterImporter" next="partitionerMasterExporter"> 
     <partition step="importChunked" partitioner="filePartitioner"> 
      <handler grid-size="10" task-executor="taskExecutor" /> 
     </partition> 
    </batch:step> 
    <batch:step id="partitionerMasterExporter" next="concat"> 
     <partition step="exportChunked" partitioner="dbPartitioner"> 
      <handler grid-size="10" task-executor="taskExecutor" /> 
     </partition> 
    </batch:step> 
    <batch:step id="concat"> 
     <batch:tasklet ref="concatFileTasklet" /> 
    </batch:step> 
</batch:job> 

<batch:step id="importChunked"> 
    <batch:tasklet> 
     <batch:chunk reader="smallCSVFileReader" writer="dbWriter" 
      processor="importProcessor" commit-interval="500"> 
     </batch:chunk> 
    </batch:tasklet> 
</batch:step> 

<batch:step id="exportChunked"> 
    <batch:tasklet> 
     <batch:chunk reader="dbReader" writer="jsonFileWriter" 
      processor="exportProcessor" commit-interval="#{jobExecutionContext['chunk.count']}"> 
     </batch:chunk> 
    </batch:tasklet> 
</batch:step> 

<bean id="jsonFileWriter" class="com.batch.writer.PersonWriterToFile" 
    scope="step"> 
    <property name="outputPath" value="csv/chunked/paged-#{stepExecutionContext[page]}.json" /> 
</bean> 

<bean id="dbReader" class="com.batch.reader.PersonReaderFromDataBase" scope="step"> 
    <property name="iPersonRepository" ref="IPersonRepository" /> 
    <property name="page" value="#{stepExecutionContext[page]}"/> 
    <property name="size" value="#{stepExecutionContext[size]}"/> 
</bean> 

<bean id="countThreadTasklet" class="com.batch.tasklet.CountingTasklet" 
    scope="step"> 
    <property name="input" value="file:csv/input/#{jobParameters[filename]}" /> 
</bean> 

<bean id="cleanDBTasklet" class="com.batch.tasklet.CleanDBTasklet" /> 

<bean id="fileDeletingTasklet" class="com.batch.tasklet.FileDeletingTasklet"> 
    <property name="directory" value="file:csv/chunked/" /> 
</bean> 

<bean id="concatFileTasklet" class="com.batch.tasklet.FileConcatTasklet"> 
    <property name="directory" value="file:csv/chunked/" /> 
    <property name="outputFilename" value="csv/output/export.json" /> 
</bean> 

<bean id="filePartitioner" class="com.batch.partitioner.FilePartitioner"> 
    <property name="outputPath" value="csv/chunked/" /> 
</bean> 

<bean id="dbPartitioner" class="com.batch.partitioner.DBPartitioner" scope="step"> 
    <property name="pageSize" value="#{jobExecutionContext['chunk.count']}" /> 
</bean> 

<bean id="largeCSVReader" class="com.batch.reader.LineReaderFromFile" 
    scope="step"> 
    <property name="inputPath" value="csv/input/#{jobParameters[filename]}" /> 
</bean> 

<bean id="smallCSVWriter" class="com.batch.writer.LineWriterToFile" 
    scope="step"> 
    <property name="outputPath" value="csv/chunked/"></property> 
</bean> 

<bean id="smallCSVFileReader" class="com.batch.reader.PersonReaderFromFile" 
    scope="step"> 
    <constructor-arg value="csv/chunked/#{stepExecutionContext[file]}" /> 
</bean> 

<bean id="importProcessor" class="com.batch.processor.ImportPersonItemProcessor" /> 

<bean id="exportProcessor" class="com.batch.processor.ExportPersonItemProcessor" /> 

<bean id="dbWriter" class="com.batch.writer.PersonWriterToDataBase"> 
    <property name="iPersonRepository" ref="IPersonRepository" /> 
</bean> 

在这两种情况下,partionner用于拼接成10个文件(每个线程一个文件)的导入和导出10个文件(每个线程过一个文件),那么我们串接所有有一个文件。

希望得到这个帮助。