ddb 中的标准差算法跟 Python numpy 中的好像不一样,处理一些小数点位很多的值最后出来的结果是不一样的,如何维持结果一致?
dolphindb std 是无偏的样本标准差,stdp 是总体标准差。numpy 的 std 参数 ddof 默认是 0, pandas 则默认为 1。
因此: