82 votes

Pourquoi 'U+' est-il utilisé pour désigner un point de code Unicode ?

Pourquoi les points de code Unicode apparaissent-ils comme U+<codepoint> ?

Par exemple, U+2202 représente le caractère.

Pourquoi pas U- (caractère tiret ou trait d'union) ou autre chose ?

134voto

Jukka K. Korpela Points 71599

Les caractères "U+" sont une version ASCIIfied du caractère MULTISET U +228E (le symbole d'union en U avec un signe plus à l'intérieur), qui était destiné à symboliser Unicode comme l'union des jeux de caractères. Voir l'explication de Kenneth Whistler dans la liste de diffusion Unicode.

8voto

Sean Bright Points 39480

Cela dépend de la version de la norme Unicode dont vous parlez. De Wikipédia :

Les anciennes versions de la norme utilisaient des notations similaires, mais avec des règles légèrement différentes. Par exemple, Unicode 3.0 utilisait "U-" suivi de huit chiffres, et permettait d'utiliser "U+" uniquement avec exactement quatre chiffres pour indiquer une unité de code, pas un point de code.

4voto

Mihai Nita Points 2870

C'est juste une convention de montrer que la valeur est Unicode. Un peu comme '0x' ou 'h' pour les valeurs hexadécimales (0xB9 ou B9h). Pourquoi 0xB9 et pas 0hB9 (ou &hB9 ou $B9) ? Juste parce que c'est comme ça que la pièce a basculé :-)

Prograide.com

Prograide est une communauté de développeurs qui cherche à élargir la connaissance de la programmation au-delà de l'anglais.
Pour cela nous avons les plus grands doutes résolus en français et vous pouvez aussi poser vos propres questions ou résoudre celles des autres.

Powered by:

X