- •Введение
- •1. Энтропия источников сообщений
- •1.1. Дискретные ансамбли и источники
- •1.2. Количество информации в дискретном сообщении. Энтропия ансамбля
- •1.3. Условная информация. Условная энтропия. Совместная энтропия дискретного источника
- •1.4. Энтропия дискретного стационарного источника на сообщение
- •1.5. Избыточность источника дискретных сообщений
- •1.6. Эффективное кодирование. Кодирование источника равномерными кодами
- •1.7. Высоковероятные множества постоянного дискретного источника
- •1.8. Энтропия источника без памяти как скорость создания информации
- •1.9. Избыточность источника непрерывных сигналов. Количество информации в непрерывном канале
- •1.10. Скорость передачи информации и пропускная способность в непрерывном канале
- •2. Кодирование информации
- •2.1. Неравномерное кодирование с однозначным декодированием
- •2.2. Оптимальные неравномерные двоичные коды
- •2.3. Кодирование для исправления ошибок: Основные положения
- •2.4. Постановка задачи кодирования
- •2.5. Прямая теорема о кодировании в канале с шумами
- •2.6. Обратная теорема кодирования
- •2.7. Основная теорема Шеннона, ограничение возможностей использования оптимального кодирования на практике
- •3. Коды, исправляющие ошибки
- •3.1. Блоковые и сверточные коды
- •3.2. Хеммингово расстояние, Хемминговы сферы и корректирующая способность
- •3.3. Линейные блоковые коды
- •3.4. Порождающая и проверочная матрицы. Кодирование с помощью матриц g и н
- •3.5. Декодирование по стандартной таблице
- •3.6. Циклические коды
- •3.7. Кодирующие устройства циклических кодов
- •3.8. Декодирование циклических кодов по синдрому
- •3.9. Мажоритарное декодирование
- •4. Энтропия в контексте защиты информации от помех при передаче по каналу связи
- •4.1. Меры искажения. Постановка задачи защиты информации от помех при передаче по каналу связи
- •4.2. Свойства функции скорость-искажение
- •4.3. Простые примеры вычисления функции скорость-искажение
- •4.4. Функция скорость-искажение для гауссовских последовательностей
- •4.5. Эпсилон-производительность источника
- •4.6. Дифференциальная энтропия
- •4.7. Свойства дифференциальной энтропии
- •4.8. Эпсилон - энтропия источника сообщений
- •4.9. Обратная теорема кодирования для дискретного постоянного источника при заданном критерии качества
- •4.10. Прямая теорема кодирования с заданным критерием качества
- •4.11. Аксиоматическое введение в теорию энтропии вероятностных схем
- •4.12. Энтропия и условная энтропия объединенной вероятностной схемы и их свойства
- •Заключение
- •Библиографический список
- •Оглавление
- •394026 Воронеж, Московский просп., 14
2. Кодирование информации
2.1. Неравномерное кодирование с однозначным декодированием
Если источник не имеет памяти и избыточность обусловлена лишь неравновероятностью состояний источника, то она может быть уменьшена в результате кодирования более вероятных состояний более короткими кодовыми словами, а менее вероятных — более длинными. Идея кодирования неравномерными блоками впервые нашла применение в коде Морзе, где наиболее короткие комбинации использованы для часто встречающихся букв. В последующем были предложены оптимальные способы неравномерного кодирования, обеспечивающие практически полное устранение избыточности источников без памяти.
Рассматривается источник, выбирающий сообщения из ансамбля А. Предполагается, что вероятности появления определенных сообщений известны. Как уже принято, основной характеристикой кодирования источника с неравновероятными состояниями является количество кодовых символов, затрачиваемых на одно состояние. В случае равномерного кодирования это количество одинаково для любого состояния. При неравномерном кодировании количество символов, затрачиваемых при кодировании, зависит от состояний источника и поэтому представляет собой случайную величину. В этом случае разумной мерой качества кодирования является среднее количество символов на одно состояние. Если обозначить через длину слова, кодирующего i-е состояние, тогда
есть средняя длина кодовых слов. В общем случае неравномерный код используется для кодирования отрезков сообщений длины n, т.е. для кодирования ансамбля и . Тогда величина представляет собой среднюю скорость неравномерного кодированияm-ичным кодом при разбиении последовательности сообщений на блоки длиной п. Как и ранее, средняя скорость измеряется в двоичных символах на сообщение.
Пример 1. . Предположим, что n = 1 (побуквенное кодирование) и источник порождает в каждый момент времени одно из девяти сообщений ai,...,a9 с вероятностями, указанными в табл. 2.1.
Таблица 2.1
ai |
p(ai) |
Равномерный код |
Неравномерный код |
di |
a1 |
0.25 |
0000 |
00 |
2 |
a2 |
0.125 |
0001 |
010 |
3 |
a3 |
0.125 |
0010 |
011 |
3 |
a4 |
0.125 |
0011 |
100 |
3 |
a5 |
0.125 |
0100 |
101 |
3 |
a6 |
0.0625 |
0101 |
1100 |
4 |
a7 |
0.0625 |
0110 |
1101 |
4 |
a8 |
0.0625 |
0111 |
1110 |
4 |
a9 |
0.0625 |
1000 |
1111 |
4 |
1. Заметим, что H(A) здесь составляет 3 бит. Для равномерного кода длина слов одинакова и равна 4. Для неравномерного кода средняя длина равна 3 (обратим внимание, что совпадение со значением энтропии не случайно). Скорость кодирования в первом случае составляет 4 бита на сообщение, во втором — 3 бит/сообщение.
Следует иметь ввиду, что для обеспечения однозначности декодирования неравномерных кодов существуют ограничения. Следующий пример служит убедительной демонстрацией этого.
Пример 2. Источник выбирает сообщения из ансамбля, содержащего шесть элементов ai, с вероятностями р(а1) = 0,4; p(а2) = 0,3; р(а3) = 0,1; р(а4) = 0,08; р(а5) = 0,07; р(а6) = 0,05. Энтропия ансамбля составляет . При равномерном двоичном кодировании на каждое сообщение необходимо затратить три символа. Ниже будет показано, что при неравномерном кодировании этого источника в среднем на каждое сообщение может быть затрачено 2,16 символа. Можно попытаться закодировать сообщения наиболее короткими блоками: a1 = 0; а2 = 1; аз = 00; а4 = 01; а5 = 10; а6 = 11. При этом среднее число символов на сообщение окажется равным 1,3, т.е. еще более эффективно, чем позволяет теорема равномерного кодирования. Однако принятый код не удовлетворяет условию однозначного декодирования. Действительно, принятую, например, последовательность символов 00110100011110... можно декодировать так: a1a1a2a2a1a2a1a1a1a1... или a3a6a4a3a1a6a2a5... и еще множеством иных последовательностей сообщений. Причиной неоднозначности является то, что кодовое слово 0 является началом слов 00 и 01, а кодовое слово 1 началом слов 10 и 11. Однозначное декодирование неравномерных кодов, в которых не создается специальное разделение слов, может быть обеспечено в случае, когда ни одно кодовое слово не является началом другого. Коды, обладающие тем свойством, что ни одно слово не является началом другого, называются префиксными. Именно эти коды используются при неравномерном кодировании.
Удобное описание префиксных кодов дают специальные графы (связные), называемые деревьями (или кодовыми деревьями); т-ичным деревом называется граф, т.е. такая система узлов и связывающих их ребер, в которой нет петель или замкнутых путей и в которой из каждого узла выходит не более т ребер и в каждый узел, кроме одного (корня дерева), входит точно одно ребро. Каждому из ребер, выходящих из узла, сопоставляется один символ кодового алфавита, содержащего т символов, причем различным ребрам, выходящим из одного узла, сопоставляются различные символы.
На рис. 2.1 представлено двоичное кодовое дерево. Дерево отображает неравномерный код, рассмотренный в примере 1. Можно убедиться, что код является префиксным, если кодовые слова соответствуют концевым узлам дерева.
Рис. 2.1. Двоичное кодовое дерево
Скоростью создания информации при неравномерном кодировании дискретного источника без памяти называют наименьшее число H такое, что для любогоR>H найдется п и неравномерный код со средней скоростью кодированияR, который допускает однозначное декодирование. Показано, что скорость создания информации при неравномерном кодировании совпадает со скоростью создания информации при равномерном кодировании и равна энтропии источника на сообщение