CString.Format以相同的精度产生不同的值

问题描述

很抱歉,可能是愚蠢的问题,因为我是C#开发人员,所以我很难找到一些想法。

我们正在进行从VC ++ 2013到VC ++ 2019的迁移。我们有2个安装了VC ++ 2013和VC ++ 2019的类似VM。项目已经在使用VC ++ 2019。在2个VM上运行时,简单评估的结果不同:

CString Value;
int precision = 8;
double number = 50.634765625;
String^ RetValue;

Value.Format(_T("%.*f"),precision,number);
RetValue = gcnew String(Value.GetString());

一个VM(Win 7 64bit)上,我们具有RetValue“ 50.63476563”;在另一个VM(win10 64bit)上,我们具有RetValue-“ 50.63476562”我期望的所有工具都是相同的(很难说100%,因为已经安装了很多工具,但是最重要的c ++是)。

在VS2013下转换和运行项目时,两个VM上的结果相同-“ 50.63476563”。

是否有任何控制格式的选项设置?还是为什么在选择一个VM截断的情况下选择四舍五入呢?

更新 因此问题确实与VS2013 / VS2019的差异有关。我发现了为什么我们在使用相同VS2019的2个VM上有不同的结果。所以:

  1. VS2013舍入为50.634765625 == VS 2019舍入为四舍五入
  2. VS2013舍入为50.634765625!= VS 2019舍入为Debug
在两种情况下,

取整方向都最接近。因此,MSFT在Release / Debug中对最近的解释不同。 C ++编译器选项使/ MD与/ MDd有所不同。

除了切换到/ MD强制在调试中整个项目使用旧方法外,找不到其他方法

解决方法

我们在2013年和2017年的测试中发现了差异。我们看到了将数字.249500转换为三位数的差异。 2013 = 0.250,而2017 = 0.249。考虑以下示例:

#include <stdio.h>

// little endian bytes,to avoid parsing differences between both compilers
unsigned char bytesOfDouble[] = {0x56,0x0E,0x2D,0xB2,0x9D,0xEF,0xCF,0x3F}; 
double& dVal = reinterpret_cast<double&>(bytesOfDouble);

void PrintDouble(const double& d)
{
    printf("printf (%%.3f): %.3f\n",d);
    printf("printf (%%.3g): %.3g\n",d);

    printf("printf (%%f)  : %f\n",d);
    printf("printf (%%g)  : %g\n",d);
}

int main(int argc,char** argv)
{
    PrintDouble(dVal);
    return 0;
}

如果使用VS2013和VS2017进行编译,则会得到不同的结果。如果尝试使用g ++或clang,将获得与VS2017相同的结果。

如何在两者之间获得相同的结果? IDK ...我认为MS肯定改变了其底层C运行时。

,

因此,在我看来,这似乎是Microsoft在Windows 10 SDK(10.0.19041.1)中引入的错误。 现在将使用一些解决方法。

https://developercommunity.visualstudio.com/content/problem/1085732/different-printf-double-rounding-behaviour-between.html