Python计算标准差之numpy.std和torch.std的区别
作者:little student
Torch自称为神经网络中的numpy,它会将torch产生的tensor放在GPU中加速运算,就像numpy会把array放在CPU中加速运算,下面这篇文章主要给大家介绍了关于Python Numpy计算标准差之numpy.std和torch.std区别的相关资料,需要的朋友可以参考下
输入:
[1.0000, -1.0000, 3.0000]
课本中的标准差计算公式:
按照上述公式计算:
Numpy中的std计算:
import numpy as np tm = np.array([1.0000, -1.0000, 3.0000]) ddd = np.std(tm) print(ddd)
1.632993161855452
可以看出Numpy中的计算结果与课本中的公式计算出来的结果是一致的。
Torch中的std计算:
tm = torch.tensor([1.0000, -1.0000, 3.0000]) ddd = torch.std(tm) print(ddd)
tensor(2.)
计算出来的结果是2,与Numpy中的计算结果是不相同的。
查看torch.std的参数:
torch.std默认设置了unbiased=True。此时计算标准差的公式则使用贝塞尔校正 的方法:
可以看出贝塞尔校正的标准差最后除以n - 1。
可以看出确实计算出来的结果是2.
至于为何使用n-1,这里不做过多介绍,建议参考:贝塞尔校正。
附:贝塞尔校正
贝塞尔校正,指的是样本方差前面的系数1/n-1
这就是这个系数的原理
注:设置torch.std中的unbiased=False,则与Numpy中的std的结果相同的。
总结:
Numpy中的std计算与课本中的计算方式相同,都是除的是样本数量n。
Torch中的std计算默认使用的是unbiased=True即贝塞尔校正,除的是样本数量n-1。