Tag: 模拟器

使用clock()来测量执行时间

我正在运行一个使用GCC和专有DSP交叉编译器的C程序来模拟一些function。 我使用以下代码来测量程序特定部分的执行时间: clock_t start,end; printf(“DECODING DATA:\n”); start=clock(); conv3_dec(encoded, decoded,3*length,0); end=clock(); duration = (double)(end – start) / CLOCKS_PER_SEC; printf(“DECODING TIME = %f\n”,duration); 其中conv3_dec()是我的程序中定义的函数,我想找到这个函数的运行时。 现在问题是我的程序运行时, conv3_dec()函数运行了近2个小时,但printf(“DECODING TIME = %f\n”,duration)的输出printf(“DECODING TIME = %f\n”,duration)表示函数的执行只完成了半个第二( DECODING TIME = 0.455443 )。 这对我来说非常困惑。 我之前使用clock_t技术来测量程序的运行时间,但差异从未如此巨大。 这是由交叉编译器引起的吗? 正如旁注所示,模拟器模拟仅以500MHz运行的DSP处理器,因此DSP处理器和CPU的时钟速度差异导致错误正在测量CLOCKS_PER_SEC。