J'aimerais mieux comprendre pourquoi choisir int
plus unsigned
?
Personnellement, je n'ai jamais aimé les valeurs signées, à moins qu'elles n'aient une raison valable. Par exemple, le nombre d'éléments dans un tableau, ou la longueur d'une chaîne de caractères, ou la taille d'un bloc de mémoire, etc. Une telle valeur n'a aucune signification possible. Pourquoi préférer int
alors qu'elle est trompeuse dans tous ces cas ?
Je pose cette question parce que Bjarne Stroustrup et Chandler Carruth ont tous les deux conseillé de privilégier l'utilisation de l'Internet. int
plus unsigned
ici (environ 12:30') .
Je comprends l'argument en faveur de l'utilisation de int
plus short
o long
- int
est la largeur de données "la plus naturelle" pour l'architecture de la machine cible.
Mais la différence entre signé et non signé m'a toujours ennuyé. Les valeurs signées sont-elles réellement plus rapides sur les architectures de processeurs modernes ? Qu'est-ce qui les rend plus rapides ?