J'ai une topologie complexe comprenant des KStreams, des KTables, des jointures, des recompositions, des filtres, des passages, des ramifications, des zips, etc. avec des clients en direct sur les sujets de sortie.
Tous les sujets d'entrée, intermédiaires et de sortie sont des sujets basés sur l'avro.
Comment gérer les modifications de la topologie (ajout de nouvelles étapes, de nouveaux sujets d'entrée-intermidate-sortie), sachant que kafka-streams maintient l'état interne et les changelogs, en respectant les exigences commerciales suivantes :
- aucune perte de données
- pas de duplication des données (dans une certaine mesure)
- pas de temps d'arrêt
La réponse se trouve-t-elle quelque part entre l'utilisation kafka-streams-application-reset
ou créer un tout nouveau groupe de consommateurs (id d'application) ?