Документ взят из кэша поисковой машины. Адрес оригинального документа : http://new.math.msu.su/content_root/programs/kaf/special/terver/2teorinf-dyach.doc
Дата изменения: Mon Nov 10 08:54:47 2008
Дата индексирования: Sun Apr 10 03:32:43 2016
Кодировка: koi8-r

Поисковые слова: шеннон

ТЕОРИЯ ИНФОРМАЦИИ
(в рамках с/к "Теория вероятностей и математическая статистика")
проф. А.Г. Дьячков
1/2 года, 5 курс
Основная цель - дать введение в теоремы кодирования теории информации для
дискретного канала без памяти, а также связанные с ними задачи теории
поиска и планирования отсеивающих экспериментов. На этих задачах
иллюстрируется применение введенных Шенноном теоретико-информационных
характеристик распределения вероятностей и предельных теорем о больших
уклонениях, которые не изучаются в основных курсах теории вероятностей.
Подробные конспекты лекций опубликованы в сайте: http://www.it-
msu.narod.ru.
1. Математическая модель передачи дискретных равновероятных сообщений по
двоичному каналу связи, оптимальность декодирования по максимуму
правдоподобия.
2. Вероятность ошибки в двоичном симметричном канале без памяти (ДСК) для
двух кодовых слов.
3. Прямая теорема Шеннона для канала с равновесным шумом (КРШ).
4. Границы максимального объема кода с заданным расстоянием. Нижняя
граница исчерпывания Варшамова-Гильберта (ВГ). Нижняя граница ВГ для
ансамбля случайных кодов. Верхняя граница Хэмминга. Верхняя граница
Плоткина.
5. Линейные двоичные коды [1, § 6.1]. Порождающая и проверочная матрицы,
кодовое расстояние линейного кода. Код Хэмминга. Граница ВГ для линейного
кода.
6. Модель статического поиска А. Реньи. Обратная и прямая теоремы Шеннона
для [pic]плана. Границы длины и оптимальные конструкции [pic]планов.
7. Обратная теорема Шеннона для дискретного канала связи. Свойства
энтропии и информации [1, гл. 2]. Теорема переработки данных, неравенство
Фано, пропускная способность дискретного канала без памяти (ДКБП), обратная
теорема Шеннона для ДКБП [1, § 4.2-4.3]. Обратная теорема Шеннона для КРШ.
8. Прямая теорема Шеннона для ДКБП. Пороговое декодирование и случайное
кодирование для ДКБП, теоремы Шеннона для средней и максимальной
вероятности ошибки [1, задача 5.18].
9. Два свойства выпуклости информационной функции [1, § 4.4].
10. Теорема о больших уклонениях (ТБУ), вывод экспоненциальной границы
вероятности ошибки для ДКБП с помощью ТБУ [1, § 5.4 и задача 5.14].
11. Последовательные планы поиска. Префиксный код, кодовое дерево,
неравенство Крафта, теорема кодирования для префиксных кодов [1, гл. 3],
оценка средней длины алфавитного кода [2, гл. 4, § 3], среднее число
проверок для биномиальной модели поиска дефектов.
12. Лог-оптимальные портфели инвестирования на рынке ценных бумаг.
Скорость удвоения капитала на рынке ценных бумаг при заданном распределении
относительных стоимостей акций и инвестиционном портфеле, лог-оптимальный
портфель инвестирования, условия лог-оптимальности. Увеличение скорости
удвоения за счет дополнительной информации. Лог-оптимальный портфель
инвестирования игрока в тотализаторе на скачках [3, ch. 6, 16].
Задачи.
1. Логарифмическая асимптотика [pic] [1, задача 5.8].
2. ТБУ для испытаний Бернулли.
3. Вероятность ошибки в КРШ для двух кодовых слов.
4. Граница ВГ для ансамбля равновесных кодов.
5. Линейный код с проверкой на четность.
6. Пропускная способность ДСК.
7. Асимптотика длины последовательного [pic]плана для модели А. Реньи.
8. Последовательный поиск [pic] дефектов среди [pic] объектов за [pic]
групповых проверок.

Литература
1. Галлагер Р.Г. Теория информации и надежная связь. М., Сов. радио, 1974.
2. Альсведе Р., Вегенер И. Задачи поиска. М., Мир, 1982.
3. Cover T., Thomas J. Elements of information theory. Willey & Sons, New
York, 1991.
4. Колесник В.Д., Полтырев Г.Ш. Курс теории информации. М., Наука, 1982.
5. Чисар И., Кернер Я. Теория информации. Теоремы кодирования для
дискретных систем без памяти. М., Мир, 1985.