04.02.02 11:49 |
Новая математическая теория цифрового представления сложных сигналов |
версия для печати
Акрам Альдруби из Университета Вандербильта и Карлхайнц Грачениг из Универститета Коннектикута сообщили о появлении новой математической теории, описывающей цифровое представление сложных аналоговых сигналов, которая позволяет преодолеть ограничения ныне существующих методов.
Для перевода аналоговых сигналов в цифровую форму их значения замеряются через одинаковые промежутки времени. Чем меньше эти промежутки (выше частота дискретизации), и чем точнее проводятся измерения, тем лучше цифровое представление передает свойства исходного сигнала. Этот метод разработан более полувека назад Клодом Шенноном, заложившим основы современной теории информации.
В основном этот метод рассчитан на то, что измерение значения сигнала производится через равные промежутки времени. Также необходимо, чтобы сигнал был ограничен по частоте (например человек не воспринимает звук частотой выше 20 кГц, следовательно можно считать, что обрабатываемый звуковой сигнал ограничен сверху по частоте 20 кГц). В новой теории сняты ограничения на регулярность измерений и ограничение диапазона частот исследуемого сигнала. Это имеет большое значение, например, при геофизических исследованиях, где точки измерения часто не лежат на регулярной сетке из-за ландшафта и других факторов. Также в новой теории в расчет принимается погрешность проводимых измерений, тогда как существующие методы предполагают, что все измерения проводятся абсолютно точно.
parallel.ru
Последние обновления
|