Nous essayons de syntoniser une application qui accepte les messages via le protocole TCP et aussi utilise le protocole TCP pour certains c'est la messagerie interne. Alors que les tests de charge, nous avons remarqué que le temps de réponse se dégrade de façon significative (et puis s'arrête tout) comme de plus en plus de requêtes simultanées sont apportées au système. Pendant ce temps, nous voyons beaucoup de connexions TCP en TIME_WAIT
statut et quelqu'un a suggéré que l'abaissement de l' TIME_WAIT
variable d'environnement, il est par défaut de 60 secondes à 30.
À partir de ce que je comprends, l' TIME_WAIT
réglage essentiellement définit le temps d'un TCP de ressources est mis à la disposition du système à nouveau après que la connexion est fermée.
Je ne suis pas un "réseau type" et savent très peu au sujet de ces choses. J'ai besoin de beaucoup de ce qui est dans le message lié, mais "abrutir" un peu.
- Je crois que je comprends pourquoi l'
TIME_WAIT
de la valeur ne peut pas être défini à 0, mais il peut en toute sécurité être fixé à 5? Ce 10? Ce qui détermine un "coffre-fort" réglage de cette valeur? - Pourquoi est la valeur par défaut pour cette valeur de 60 ans? Je devine que les gens beaucoup plus intelligents que moi, avait de bonnes raisons pour choisir ce en tant que par défaut raisonnables.
- Que dois-je savoir à propos des risques potentiels et des avantages de la substitution de cette valeur?