0.1+0.2不等于0.3?是不是有点颠覆你的认知,但是,在js中,是真实存在的!
console.log(0.1+0.2); // 0.30000000000000004
其实这都是因为浮点数运算的精度问题。
简单来说,因为计算机只认识二进制,在进行运算时,需要将其他进制的数值转换成二进制,然后再进行计算。
由于浮点数用二进制表达时是无穷的:
// 将0.1转换成二进制 console.log(0.1.toString(2)); // 0.0001100110011001100110011001100110011001100110011001101 // 将0.2转换成二进制 console.log(0.2.toString(2)); // 0.001100110011001100110011001100110011001100110011001101
IEEE 754 标准的 64 位双精度浮点数的小数部分最多支持53位二进制位,所以两者相加后,因浮点数小数位的限制而截断的二进制数字,再转换为十进制,就成了 0.30000000000000004,
所以在进行算术计算时会产生误差。
64位比特又可分为三个部分: 符号位S:第 1 位是正负数符号位(sign),0代表正数,1代表负数 指数位E:中间的 11 位存储指数(exponent),用来表示次方数 尾数位M:最后的 52 位是尾数(mantissa),超出的部分自动进一舍零
=======================================================
ES6 在Number
对象上面,新增一个极小的常量Number.EPSILON
。根据规格,它表示 1 与大于 1 的最小浮点数之间的差。
对于 64 位浮点数来说,大于 1 的最小浮点数相当于二进制的1.00..001
,小数点后面有连续 51 个零。这个值减去 1 之后,就等于 2 的 -52 次方。
Number.EPSILON === Math.pow(2, -52) // true Number.EPSILON // 2.220446049250313e-16 Number.EPSILON.toFixed(20) // "0.00000000000000022204"
Number.EPSILON
实际上是 JavaScript 能够表示的最小精度。误差如果小于这个值,就可以认为已经没有意义了,即不存在误差了。
引入一个这么小的量的目的,在于为浮点数计算,设置一个误差范围。我们知道浮点数计算是不精确的。
Number.EPSILON
可以用来设置“能够接受的误差范围”。比如,误差范围设为 2 的-50 次方(即Number.EPSILON * Math.pow(2, 2)
),即如果两个浮点数的差小于这个值,我们就认为这两个浮点数相等。
((0.1 + 0.2) - 0.3) < Number.EPSILON //true
Reference:
[1] QiuXZ, 为什么在JavaScript中0.1+0.2不等于0.3? https://www.cnblogs.com/qiuxiaozhen/p/10505651.html