Je fais fonctionner un service avec des pods qui récupèrent les tâches, les traitent et les terminent. Pour le moment, il s'agit d'un environnement de test, donc il n'y a pas d'utilisation réelle du CPU et de la mémoire de chaque pod, mais à l'avenir, je veux fixer une limite pour les pods.
L'exécution de tous les pods (disons 100) à la fois entraîne une distribution égale sur mes deux nœuds (chacun avec 2 CPU et 2 Go de mémoire) comme prévu.
À des fins de test, je fixe maintenant la limite de chaque pod :
limits:
memory: "1000Mi"
cpu: "1"
requests:
memory: "1000Mi"
cpu: "1"
Comme les contrôleurs et le système utilisent une partie des ressources disponibles des nœuds, je m'attends à ce que, sur chaque nœud, un pod soit exécuté jusqu'à ce qu'il réussisse, puis que le suivant soit programmé. En réalité, un seul nœud est utilisé pour traiter les 100 pods les uns après les autres.
Quelqu'un sait-il ce qui peut provoquer ce comportement ? Il n'y a pas d'autres limites définies.
Merci !