Qui de vous expliquer pourquoi cela se produit?
static void Main()
{
const float xScaleStart = 0.5f;
const float xScaleStop = 4.0f;
const float xScaleInterval = 0.1f;
const float xScaleAmplitude = xScaleStop - xScaleStart;
const float xScaleSizeC = xScaleAmplitude / xScaleInterval;
float xScaleSize = xScaleAmplitude / xScaleInterval;
Console.WriteLine(">const float {0}, (int){1}", xScaleSizeC, (int)xScaleSizeC);
Console.WriteLine("> float {0}, (int){1}", xScaleSize, (int)xScaleSize);
Console.ReadLine();
}
Sortie:
>const float 35, (int)34
> float 35, (int)35
Je sais que la représentation binaire de 0,1 est en fait 0.09999990463256835937, mais pourquoi cela se produit à l'aide de 'const float" et pas avec "flotter"? Est-ce considéré comme un bogue du compilateur?
Pour l'enregistrement, le code se compile en:
private static void Main(string[] args)
{
float xScaleSize = 35f;
Console.WriteLine(">const float {0}, (int){1}", 35f, 34);
Console.WriteLine("> float {0}, (int){1}", xScaleSize, (int)xScaleSize);
Console.ReadLine();
}