Дискретизация и квантование


Дискретизация – это преобразование аналогового сигнала в последовательность его выборочных значений, отстоящих друг от друга на время интервала дискретизации Dt.

Вот у нас есть некая функция времени, которая представляется в виде функции имеющей непрерывное множество значений от f(max) до f(min). Выбираем некий начальный момент времени t1 и относительно него через, в частном случае равные, а в общем – неравные, интервалы времени Dt получаем выборочные значение сигналов, то есть

fi ? [fmin,fmax]. Это интервал числовой оси, то есть при дискретизации мы получаем некую решетчатую функцию ( задается не во всех точках, а только в точках дискретизации) действительного переменного. в этом случае можно записать:

ti+1 = ti + Dt ? ti+1 = t0 + iDt.

Интервал дискретизации может быть переменным. Когда интервал дискретизации переменный, то очевидно, что надо просуммировать все те интервалы на которых ранее мы рассматривали функцию:clip_image002.

Спрашивается, а как часто нам надо выбирать функцию. Вот есть некий сигнал, который мы представляем в виде функции зависящей от времени. Как часто мы должны его оцифровывать? Запишем следующую теорему.

Загрузка...