- •Введение
- •1. Энтропия источников сообщений
- •1.1. Дискретные ансамбли и источники
- •1.2. Количество информации в дискретном сообщении. Энтропия ансамбля
- •1.3. Условная информация. Условная энтропия. Совместная энтропия дискретного источника
- •1.4. Энтропия дискретного стационарного источника на сообщение
- •1.5. Избыточность источника дискретных сообщений
- •1.6. Эффективное кодирование. Кодирование источника равномерными кодами
- •1.7. Высоковероятные множества постоянного дискретного источника
- •1.8. Энтропия источника без памяти как скорость создания информации
- •1.9. Избыточность источника непрерывных сигналов. Количество информации в непрерывном канале
- •1.10. Скорость передачи информации и пропускная способность в непрерывном канале
- •2. Кодирование информации
- •2.1. Неравномерное кодирование с однозначным декодированием
- •2.2. Оптимальные неравномерные двоичные коды
- •2.3. Кодирование для исправления ошибок: Основные положения
- •2.4. Постановка задачи кодирования
- •2.5. Прямая теорема о кодировании в канале с шумами
- •2.6. Обратная теорема кодирования
- •2.7. Основная теорема Шеннона, ограничение возможностей использования оптимального кодирования на практике
- •3. Коды, исправляющие ошибки
- •3.1. Блоковые и сверточные коды
- •3.2. Хеммингово расстояние, Хемминговы сферы и корректирующая способность
- •3.3. Линейные блоковые коды
- •3.4. Порождающая и проверочная матрицы. Кодирование с помощью матриц g и н
- •3.5. Декодирование по стандартной таблице
- •3.6. Циклические коды
- •3.7. Кодирующие устройства циклических кодов
- •3.8. Декодирование циклических кодов по синдрому
- •3.9. Мажоритарное декодирование
- •4. Энтропия в контексте защиты информации от помех при передаче по каналу связи
- •4.1. Меры искажения. Постановка задачи защиты информации от помех при передаче по каналу связи
- •4.2. Свойства функции скорость-искажение
- •4.3. Простые примеры вычисления функции скорость-искажение
- •4.4. Функция скорость-искажение для гауссовских последовательностей
- •4.5. Эпсилон-производительность источника
- •4.6. Дифференциальная энтропия
- •4.7. Свойства дифференциальной энтропии
- •4.8. Эпсилон - энтропия источника сообщений
- •4.9. Обратная теорема кодирования для дискретного постоянного источника при заданном критерии качества
- •4.10. Прямая теорема кодирования с заданным критерием качества
- •4.11. Аксиоматическое введение в теорию энтропии вероятностных схем
- •4.12. Энтропия и условная энтропия объединенной вероятностной схемы и их свойства
- •Заключение
- •Библиографический список
- •Оглавление
- •394026 Воронеж, Московский просп., 14
2.6. Обратная теорема кодирования
Обратная теорема Шеннона для кодирования в дискретных каналах без памяти может быть сформулирована следующим образом:
Если скорость создания информацииR больше пропускной способности канала С, то никакой код не может обеспечить сколь угодно малой ошибки.
Общие методы доказательства обратной теоремы основаны на использовании неравенства Фано. Здесь мы ограничимся частным случаем передачи по симметричному каналу без памяти с мощностью алфавита кодовых символов n. Скорость передачи информации (на символ) определяется как , где носит название апостериорной энтропии отправленного сигнала на символ, или рассеяния информации в канале. Чтобы снять неопределенность оставшуюся после приема из-за возможных ошибок, необходимо дополнительное количество информации, равное на каждый символ. Для установления, какой именно символ был передан, если принят символ , необходимо:
1. Установить, была ли совершена ошибка при передаче данного символа. Если вероятность ошибки равна р, то количество информации, связанное с фактом наличия ошибки,
2. Если ошибка имела место, необходимо установить, какой именно из остальных символов был действительно передан. Очевидно, что количество информации, необходимое для этого не будет превышать ,а так как это будет происходить с вероятностью p, то среднее добавочное количество информации будет не более
Таким образом, оказывается справедливым следующее неравенство:
Это неравентсво можно принимать в более общем смысле, отнеся его не только к отдельным кодовым символам, но и к кодовым словам и блокам любой длины; рассматривая код как множество пар , понимая под вероятность ошибочного декодирования i-ого кодового слова при обнаружении его в j-й, j≠Iрешающей области и рассматривая в качестве апостериорной неопределенности отправленного слова . Тогда можно записать следующую последовательность неравенств:
Далее в силу теоремы о высоковероятных множествах при больших n, следует: , поэтому
В условиях прямой теоремы следовательно
.
Поскольку , то , откуда видно, что не может быть сколь угодно малым при любом n. Более того, можно показать, что при увеличении n стремиться к 1. Действительно, при R>Cвеличина μ становится отрицательной. При этом , и вероятность безошибочного приема стремится к нулю.
Следует сделать следующие замечания:
- теоремы Шеннона носят характер теорем существования; четких и конструктивных алгоритмов кодирования и декодирования в них не дается;
- дальнейшее развитие теории Шеннона в значительной мере направлено на получение качественных величин для вероятности ошибочного декодирования при конечных значениях длины используемых кодовых блоков; на установление доказательств, утверждающих возможность выбора таких входных последовательностей, которые обеспечивают условие разделения всего множества кодовых блоков на выходе канала на непересекающиеся подмножества (в частности, предложенные Шенноном в последующих трудах);
- особый практический интерес представляют дальнейшие исследования, позволяющие определять вероятности ошибочного декодирования при конечных значениях числа n используемых кодовых блоков.