Le rôle consiste à intégrer des données provenant de topics Kafka , fournies par les différents domaines d'affaires du client. Chaque domaine fournit un contrat de service en YAML , détaillant les spécifications des données à recevoir (nom du champ, longueur, spécifications techniques). Les données sont envoyées sous forme de JSON dans un topic Kafka, et l'intégrateur doit les insérer dans des bases de données structurées créées en fonction du contrat de service.
Responsabilités :
- Intégrer les données issues de Kafka dans les bases de données conformément aux spécifications du contrat de service.
- En cas de divergence entre les données et le contrat, contacter le domaine d'affaires pour résoudre les problèmes.
- Documenter les sources dans Confluence en suivant un gabarit prédéfini, nécessitant une recherche approfondie pour compléter les sections.
- Réaliser des évolutions de tables existantes lors de changements apportés par les domaines d'affaires.
- Effectuer des analyses lorsque des enregistrements sont rejetés, en comparant les données reçues aux spécifications du contrat de service pour corriger les erreurs.
- Participer aux phases de tests , en veillant à ce que les livrables soient exempts d'erreurs. Cela inclut la création et la modification de fichiers JSON pour générer des données de test.
Requis obligatoire
Bonne capacité d'analyse et de synthèseAvoir un profil analyste de donnéesConnaissance du SQLPouvoir interagir avec des architectes, développeurs et la ligne d'affairesConnaissance de YAML et JSON un atoutConnaissance technique minimale car on travaille avec des KAFKA. On doit pouvoir analyser si le problème est technique ou de données.Connaissance de Confluence et JiraPouvoir travailler en mode AgilePouvoir s'adapter au changement, l'équipe est en évolutionPouvoir faire des tests approfondis