Comme indiqué dans l'en-tête, ma question est la suivante : pourquoi TCP/IP utiliser le codage big-endian lors de la transmission de données et non le schéma alternatif little-endian ?
Réponse
Trop de publicités?RFC1700 a déclaré il doit en être ainsi . (et défini l'ordre des octets du réseau comme big-endian).
La convention dans la documentation des protocoles Internet est de d'exprimer les nombres en décimal et de représenter les données dans l'ordre "big-endian" [COHEN]. [COHEN]. C'est-à-dire que les champs sont décrits de gauche à droite, avec l'octet le plus significatif à gauche et l'octet le moins significatif à droite. l'octet le plus significatif à gauche et l'octet le moins significatif à droite. droite.
La référence qu'ils font est
On Holy Wars and a Plea for Peace
Cohen, D.
Computer
Le résumé peut être consulté à l'adresse suivante IEN-137 ou sur cette page IEEE .
Résumé :
Le choix de la voie n'est pas trop important différence. Il est plus important de se mettre d'accord sur un ordre que sur l'ordre choisi. l'ordre sur lequel on se met d'accord.
Il conclut que les deux schémas big-endian et little-endian auraient pu être possibles. Il n'y a pas de meilleur/mauvais L'un ou l'autre peut être utilisé à la place de l'autre, à condition qu'il soit cohérent dans l'ensemble du système/protocole.