a = 1000000000
for i in range(1000000):
a += 0.000001
a = a - 1000000000
print a
El resultado debería ser a = 1, sin embargo da a = 0.953674316406, a que se debe esto ? Eh visto que pasa en otro tipo de cálculos también.
a = 1000000000
for i in range(1000000):
a += 0.000001
a = a - 1000000000
print a
El resultado debería ser a = 1, sin embargo da a = 0.953674316406, a que se debe esto ? Eh visto que pasa en otro tipo de cálculos también.