已回答假定已回答

怎么理解1LSB(最低位)以内的模拟误差不会出现在输出端?

罗涤生 在 2013-7-11 詢問的問題
最後回覆由zwm於2017-1-14提供

以模拟输入电压在0到3V之间,信号采用3比特数字代码进行量化为例。

因为满量程信号为3V,则量化步长大小为:Q=3V/2^3=0.375V

量化表如下表1-1所示

表1-1  量化表

数字代码量化电平(V)对应的模拟输入电压范围(V)
0000.0[0.0,0.1875)
0010.375[0.1875,0.5625)
0100.75[0.5625,0.9325)
0111.125[0.9325,1.3125)
1001.5[1.3125,1.6875)
1011.875

[1.6875,2.0625)

1102.25[2.0625,2.4375)
1112.265[2.4375,3]

参照量化表,如果某一时刻信号的幅度为0.375V,噪声为0,那么该模拟输入对应的量化编码为001。

但如果某一时刻信号被噪声污染,假定有用信号幅度仍为0.375V,噪声为0.2V rms,那么此时ADC的模拟输入信号幅度就有0.375V+0.2Vrms=0.575V,根据量化表ADC的输出就由001变为010。但是按照1LSB的模拟误差不会出现在输出端的理论,此时ADC的输出应仍为001才对。这似乎存在矛盾?

結果