85 votes

Pourquoi l'ordre des octets du réseau est-il défini comme étant big-endian ?

Comme indiqué dans l'en-tête, ma question est la suivante : pourquoi TCP/IP utiliser le codage big-endian lors de la transmission de données et non le schéma alternatif little-endian ?

72voto

Anirudh Ramanathan Points 25113

RFC1700 a déclaré il doit en être ainsi . (et défini l'ordre des octets du réseau comme big-endian).

La convention dans la documentation des protocoles Internet est de d'exprimer les nombres en décimal et de représenter les données dans l'ordre "big-endian" [COHEN]. [COHEN]. C'est-à-dire que les champs sont décrits de gauche à droite, avec l'octet le plus significatif à gauche et l'octet le moins significatif à droite. l'octet le plus significatif à gauche et l'octet le moins significatif à droite. droite.

La référence qu'ils font est

On Holy Wars and a Plea for Peace 
Cohen, D. 
Computer

Le résumé peut être consulté à l'adresse suivante IEN-137 ou sur cette page IEEE .


Résumé :

Le choix de la voie n'est pas trop important différence. Il est plus important de se mettre d'accord sur un ordre que sur l'ordre choisi. l'ordre sur lequel on se met d'accord.

Il conclut que les deux schémas big-endian et little-endian auraient pu être possibles. Il n'y a pas de meilleur/mauvais L'un ou l'autre peut être utilisé à la place de l'autre, à condition qu'il soit cohérent dans l'ensemble du système/protocole.

Prograide.com

Prograide est une communauté de développeurs qui cherche à élargir la connaissance de la programmation au-delà de l'anglais.
Pour cela nous avons les plus grands doutes résolus en français et vous pouvez aussi poser vos propres questions ou résoudre celles des autres.

Powered by:

X