天天看點

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

ADC學習(1)——采樣、重建、量化

參考:Boris Murmann Stanford University
           

文章目錄

  • ADC學習(1)——采樣、重建、量化
    • 一. 總覽
    • 二. 混疊效應
    • 三. 采樣定理
    • 四. 抗混疊濾波器和過采樣
    • 五. 保持與重建
    • 六. 量化
    • 七. DAC
    • 八. 靜态非理想性
      • 8.1 失調和增益誤差
      • 8.2 差分非線性
      • 8.3 積分非線性

一. 總覽

從一個功能性的“黑盒”角度來看ADC與DAC的建構塊。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

ADC主要包括:抗混疊濾波器、采樣、量化

DAC主要包括:DAC、模拟保持、重構濾波器

二. 混疊效應

如下面三個餘弦函數的例子所示,不同的信号頻率在相同的采樣頻率下,可以得到相同的采樣波形。 是因為離散采樣信号具有2π的相移不變性, f s i g f s \frac{f_{sig}}{f_s} fs​fsig​​需要通過加或減整數修改為絕對值最小的結果作為最終的表達式一部分。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化
ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化
ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

結論是頻率 f s i g f_{sig} fsig​和 N ∗ f s ± f s i g N*f_s±f_{sig} N∗fs​±fsig​在離散時域中不可區分。

三. 采樣定理

為了消除混疊效應,采樣必須遵循Nyquist采樣定理:

f s i g , m a x < f s 2 f_{sig,max}<\frac{f_s}{2} fsig,max​<2fs​​

其中 f s = 2 ∗ f s i g , m a x f_s=2*f_{sig,max} fs​=2∗fsig,max​被稱為Nyquist頻率。

有兩種方法可以做到抗混疊,滿足Nyquist采樣定理:

  • ( f s 足 夠 大 f_s足夠大 fs​足夠大)采樣頻率足夠高以覆寫所有頻譜成分,包括感興趣頻段之外的“寄生”成分
  • ( f s i g , m a x 足 夠 小 f_{sig,max}足夠小 fsig,max​足夠小)通過濾波器限制 f s i g , m a x f_{sig,max} fsig,max​

四. 抗混疊濾波器和過采樣

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化
ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

通常的抗混疊濾波器無法做到陡峭的幹淨濾波,是以采樣頻率盡量大于Nyquist速率以實作混疊信号的大幅衰減。或者提高濾波器的階數,以實作陡峭的濾波,濾除混疊信号。這是采樣速率和濾波器階數的一個權衡。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化
ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

Nyquist速率采樣通常會略微大于Nyquist速率來抗混疊;真正的過采樣通常遠遠大于Nyquist速率,這時抗混疊濾波器是多餘的,而且過采樣也有助于減小量化噪聲。

五. 保持與重建

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

理想情況通過在頻域濾波來進行信号重構,但頻域與矩形濾波器相乘,等價于時域對sinc函數進行卷積,非常難以通過電路實作。

通常采用零階保持的方法進行信号重構。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

首先考慮無限窄的狄拉克沖激與連續信号相乘,如下圖所示。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

其頻譜為在采樣頻率整數倍的複制,如下圖所示。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

其次考慮有限寬度的保持脈沖進行重構,如下圖所示。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

時域保持脈沖可以看做有限寬矩形脈沖與狄拉克沖激卷積,時域卷積,頻域相乘,頻域和sinc函數相乘,保持脈沖的頻譜包絡如下圖所示。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

通過對零階保持後的信号進行低通重構濾波,可以使零階保持的波形更加平滑,是以重構濾波器也被稱為平滑濾波器。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化
ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

六. 量化

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

通常情況,由于有限的量化級數,輸出會包含量化噪聲。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

雙極中上升量化器。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

雙極中梯級量化器。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

單極量化器。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

斜坡輸入時,量化誤差的平均功率是 e q 2 ‾ = Δ 2 12 \overline{e^2_q}=\frac{\Delta^2}{12} eq2​​=12Δ2​。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

正弦輸入時,可以通過誤差分布直方圖的積分來近似平均功率。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

誤差均勻分布且滿量程正弦輸入的信号量化噪聲比與比特數的關系是: S Q N R = 6.02 B + 1.76 d B SQNR=6.02B+1.76dB SQNR=6.02B+1.76dB

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

量化會導緻無限數量的諧波。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

采樣會使量化産生的無限數量諧波混疊在 f s / 2 f_s/2 fs​/2的頻帶内,量化噪聲譜就成為了白噪聲。采樣與量化交換次序,頻譜是相同的。

七. DAC

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

八. 靜态非理想性

8.1 失調和增益誤差

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化
ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

8.2 差分非線性

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

ADC的DNL為每一個code對應的模拟範圍相對于平均值的偏差。下面是ADC的DNL計算的例子:

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化
ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化
ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

通常所說的DNL名額實際上是所有codes中最小和最大的DNL。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

DAC的DNL計算類似與ADC的DNL。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

8.3 積分非線性

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

INL表示每個code對應的模拟範圍相對于标準範圍的偏差,下面是計算ADC的INL的例子:

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化
ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

INL可以通過對DNL累加來計算。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化
ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

由于INL是DNL的累加,是以INL對熱噪聲的敏感度較低。

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

DAC的INL計算與ADC的INL類似。

下面是DNL/INL模組化與測試的相關Matlab代碼:

ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化
ADC學習(1)——采樣、重建、量化ADC學習(1)——采樣、重建、量化

繼續閱讀