Créer des batchs avec JAVABATCH – JSR352

Je suis actuellement en train de tester la JSR 352 ( ou JAVA BATCH). Cette API est une des nouveautés de la spécification JAVA EE 7.  Elle permet ( entre autres ) de lancer des BATCHS depuis un serveur JEE.

the-evolution-of-java-ee-7_5252edf90af4c_w1500

 

Mais vous allez me dire : il y a SPRING BATCH ! Oui, JAVA BATCH est une standardisation de JAVA BATCH avec l’ intégration du moteur dans un serveur JEE. D’ailleurs, SPRING BATCH est désormais compatible avec cette API.

Ce dernier offre la possibilité de contrôler l’état des jobs à travers l’outil d’administration du serveur via le JOB REPOSITORY.

jsr352-schematic

Pour ceux qui connaissent SPRING BATCH et le monde chatoyant des ETL, le concept de la JSR 352 sera assez simple à appréhender :

Un batch est spécifié avec un job qui a plusieurs steps qui sont découpés en étapes de lecture, de transformation et de chargement (ETL).

Avantages

Les principaux avantages à faire tourner les batchs dans un contexte JEE ( si si il y en a ) sont les suivants :

  • On peut utiliser l’outillage du serveur pour monitorer les jobs
  • On dispose de toute la stack JEE (CDI, JPA, JTA,JAX-RS,…) pour développer des batchs
  • Un batch peut être déclenché de plusieurs manières (script, service REST,…)
  • Par rapport aux solutions ETL du marché, on peut avoir des tests unitaires, de la qualimétrie de code avec SONARQUBE,…

Inconvénients

C’est une V1. Il y a encore des choses à améliorer ( gestion des properties par ex)

Définition d’un job

Le job se définit par un fichier XML

<job id="myJob" xmlns="http://xmlns.jcp.org/xml/ns/javaee"?utm_source=rss&utm_medium=rss version="1.0">
  <properties>
        <property name="DATE" value="#{jobParameters['DATE']}"/>
    </properties>

    <step id="extract-all-stats">
        <chunk item-count="2">
            <reader ref="myReader">
                <properties>
                    <property name="PROP" value="#{partitionPlan['PROP']}"/>
                </properties>
            </reader>
            <writer ref="myWriter">
            </writer>
        </chunk>
        <partition>
            <mapper ref="myPartitionMapper">
            </mapper>
        </partition>
    </step>
</job>

Les références des différents élements font appel aux références des beans CDI développés. Dans mon exemple, je n’ai pas utilisé de processor car je ne devais pas transformer les données. J’ai cependant eu besoin de séparer les différents traitements en les parallélisant dans des partitions. Pour déterminer les données de chaque partition, j’ai utilisé un mapper.

Le reader

@Named
@Dependent
public class MyReader extends AbstractItemReader {

    @Inject
    JobContext jobContext;
    @Inject
    StepContext stepContext;

    @Inject
    @BatchProperty(name = "PROP")
    String service;

    @Override
    public void open(Serializable serializable) throws Exception {
   // charge toutes les données
    }

    @Override
    public Object readItem() throws Exception {
// lit les données chargées
    }
}

On voir dans l’exemple que l’injection se fait par CDI. Il faut spécifier le scope Dependent pour que les beans soient accessibles dans le contexte BATCH.

La récupération des données se fait via la méthode open(). Logiquement , on doit récupérer toutes les données à ce moment. Ca peut être problématique avec des très grosses volumétries . Dans ce cas on pourra privilégier le lazy loading.

La lecture de chaque item (ex. une ligne ) se fait dans la méthode readItem().  L’une des choses que je trouve un peu dommage dans l’API BATCH est le manque de générique. En effet, ça aurait été un peu plus “sympa” d’avoir une classe AstractItemReader<T> qui paramètre la méthode readItem().

Le writer

De la même manière on spécifie le writer

@Named
@Dependent
public class MyWriter extends AbstractItemWriter {
    @Override
    public void writeItems(List&lt;Object&gt; list) throws Exception {
        for (Object current : list) {
            // ecriture des differents items
        }
    }
}

Sur l’utilisation de la méthode writeItems(), j’ai la même remarque que pour la méthode readItem() . Un peu de générique, ça n’aurait pas été du luxe….

Le mapper

@Named
@Dependent
public class MyPartitionMapper implements PartitionMapper {
    @Inject
    JobContext jobContext;

    @Override
    public PartitionPlan mapPartitions() throws Exception {
        PartitionPlan partitionPlan = new PartitionPlanImpl();
        Properties[] props = new Properties[TAILLE];
        int i = 0;
        // @TODO voir pour un stream
        for (String current : LISTE) {
            if (current != null) {
                props[i] = new Properties();
                props[i].setProperty("PROP", current);

                ++i;
            }
        }
        partitionPlan.setPartitions(props.length);
        partitionPlan.setPartitionProperties(props);
        return partitionPlan;
    }
}

La propriété “PROP” définie dans le fichier XML et utilisée dans le reader est définie pour chaque partition. Les différentes partitions sont stockées dans un partitionPlan.

Démarrage du batch

Le batch peut se démarrer  de la manière suivante

JobOperator jobOperator = BatchRuntime.getJobOperator();
Properties jobProperties = new Properties();
jobProperties.setProperty("DATE", "2015-07-08");
jobOperator.start("myJob", jobProperties);

Ce code peut être appelé depuis une servlet, un service REST …..

Monitoring

Pour suivre l’exécution du batch on peut utiliser les outils du serveur d’applications. Sous glassfish on peut utiliser la commande asadmin.

asadmin list-batch-jobs -l

JOBNAME           APPNAME                INSTANCECOUNT  INSTANCEID  EXECUTIONID  BATCHSTATUS  STARTTIME                      ENDTIME                        EXITSTATUS
myJob  myProject  137            817         817          COMPLETED    Wed Jul 08 00:00:01 CEST 2015  Wed Jul 08 00:00:01 CEST 2015  COMPLETED
myJob  myProject  137            811         811          COMPLETED    Tue Jul 07 10:51:42 CEST 2015  Tue Jul 07 10:51:42 CEST 2015  COMPLETED
myJob  myProject  137            805         805          COMPLETED    Tue Jul 07 00:00:01 CEST 2015  Tue Jul 07 00:00:02 CEST 2015  COMPLETED
myJob  myProject  137            799         799          COMPLETED    Mon Jul 06 15:58:42 CEST 2015  Mon Jul 06 15:58:43 CEST 2015  COMPLETED
myJob  myProject  137            793         793          COMPLETED    Mon Jul 06 15:58:42 CEST 2015  Mon Jul 06 15:58:43 CEST 2015  COMPLETED
myJob  myProject  137            787         787          COMPLETED    Mon Jul 06 15:58:42 CEST 2015  Mon Jul 06 15:58:43 CEST 2015  COMPLETED
myJob  myProject  137            781         781          COMPLETED    Mon Jul 06 15:58:42 CEST 2015  Mon Jul 06 15:58:43 CEST 2015  COMPLETED
myJob  myProject  137            775         775          COMPLETED    Mon Jul 06 15:58:41 CEST 2015  Mon Jul 06 15:58:43 CEST 2015  COMPLETED
myJob  myProject  137            769         769          COMPLETED    Mon Jul 06 15:58:41 CEST 2015  Mon Jul 06 15:58:43 CEST 2015  COMPLETED
myJob  myProject  137            763         763          COMPLETED    Mon Jul 06 15:58:41 CEST 2015  Mon Jul 06 15:58:43 CEST 2015  COMPLETED

On peut également utiliser les beans JMX pour monitorer les jobs.

Conclusion

La stack JSR 352 est assez simple à utiliser. Elle est certes perfectible ( absence de générique, gestion des propriétés assez compliquée de prime abord) mais fait le boulot.

Par rapport aux autres solutions (spring batch) elle permet la supervision des batchs via les outils du serveur d’application et peut facilement s’intégrer dans une application JAVAEE.

Vus : 1825
Publié par Littlewing : 368