J'ai eu du mal à trouver une bonne solution pour cela depuis hier et j'aimerais connaître vos réflexions.
J'ai un pipeline qui reçoit un grand JSON array dynamique (ne contenant que des objets stringifiés), j'ai besoin de pouvoir créer un ContainerOp pour chaque entrée de cet array (en utilisant dsl.ParallelFor).
Cela fonctionne bien pour de petits entrées.
Actuellement, l'array arrive en tant que fichier http url en raison des limitations de taille des arguments d'entrée du pipeline d'argo et de Kubernetes (ou c'est du moins ce que j'ai compris des problèmes ouverts actuels), mais - lorsque j'essaie de lire le fichier à partir d'une Op pour l'utiliser en entrée pour le ParallelFor, je rencontre la limitation de la taille de la sortie.
Quelle serait une solution bonne et réutilisable pour un tel scénario?
Merci!