книги / Математическая теория энтропии
..pdf162 |
Гл. 3. Теория информации |
Поскольку в силу равенства (2.25) I (£<,п); !£>)=# (£}?))+ #(1)}',))—
— Н (%{а V 1^)» на основании соотношения (2.45) можно заклю чить, что R{ii, Р) существует и
Rili, |
Р) = Л(ТА, l A) + |
hiТв> 6в)“ Л(Тдхв, 1лХ1в). |
|
Разбиения lA, tB и tAX h |
— образующие, поэтому |
||
|
R iii, P) = |
h (Тд) + h (TB) - h i Тд x B). |
|
Средней ненадежностью или просто ненадежностью канала |
|||
называется |
величина |
|
|
lirn 4 - Я(6<ГДО= |
4 -[Я (|(?) х 1<в">)- я (gfc*>)] = |
||
л->ОО |
П~> оо |
|
|
|
|
|
ЗА. Канал |
|
|
163 |
||
(Тв, %в) — также |
бернуллиевский |
процесс. |
[Процесс |
(Тд, У |
||||
предполагался |
бернуллиевским.] |
Кроме того, |
все три |
разбие |
||||
ния |
У |
X 1в и 1В являются образующими |
в соответствую |
|||||
щих |
пространствах. В силу |
теоремы 2.39 |
и |
следствия 2.28 |
||||
А (Тд) = |
Я (У , |
А(Тв) = Я (Ь ) |
и |
А(ТД хв) = |
Я (|д V ia), |
откуда |
||
получаем, что в этом случае |
|
|
|
|
|
|||
|
|
R (р, Р) = Н (У + Я (У — Н ( IA V |
Iв). |
|
Если зафиксировать канал [2 (Л), Р(а>, •), 2(B)] и позволить мере р пробегать множество всех стационарных мер на 2 (Л), то скорость передачи информации R (р, Р) становится просто вещественнозначной функцией р. Пропускной способностью (capacity) канала [2(Л), Р(а>, •), 2(B)] называется точная верх няя грань всех возможных скоростей передачи по каналу, т. е:
С (Р) — sup R (р, Р).
и
В |
общем |
случае |
неизвестно, |
существует |
ли |
мера р |
на |
|||||||
2 (Л), |
для |
которой |
С (Р) = R (р, Р). Для |
канала |
без |
памяти |
||||||||
такая |
мера |
всегда |
существует. |
Для |
того чтобы убедиться в |
|||||||||
этом, |
рассмотрим источник [2(Л), р] |
и |
положим |
pt = |
ц ( ( а е |
|||||||||
е2 (Л ): co0 = |
i}) (т. |
е. |
{р,} — распределение |
на |
алфавите |
Л). |
||||||||
Определим |
функцию |
<p(p,, ..., |
р„) = |
Я (У + |
Я (У — Я (lA V |
|||||||||
V ia). (Заметим, что |
эта величина совпадает с Я(р, Р) только |
|||||||||||||
в том |
случае, когда |
[2 (Л), р] — источник |
без памяти.) Функция |
|||||||||||
Ф задана |
на |
компактном |
подмножестве |
R" и непрерывна |
(см. |
|||||||||
разд. 2.11), поэтому она |
достигает своего |
максимального |
зна |
|||||||||||
чения |
на |
этом множестве. Пусть |
(рь |
..., |
р„) — точка, |
в кото |
||||||||
рой ф принимает максимальное |
значение. |
Используя |
распре |
деление {pj на Л, определим продакт-меру р на пространстве
(2 (Л), а)>как в примере |
1.3. Тогда |
[2 (Л), р] — источник |
без |
|
памяти. Он, очевидно, стационарен, так |
что |
С (/*) ^ ф (pi, Рг» • • • |
||
... , р„). Пусть р — любая |
стационарная |
вероятностная |
мера |
|
на 2 (Л). Поскольку функция 1(1; т}) симметрична, |
|
Я(р, Р )= |
11ш ± l ( & );t(Z)) = |
|
Л->оо п |
- |
Пт Ц н & ) - Н ($ ’/$’)]. |
|
Л->00 П |
Заметим теперь, что в рассматриваемом случае я ( 1 № п)) =
- - ^ |
Ш > '* '* -* '* ),ое а с ' |
164 Гл. 3. Теория информации
— «, /<, ( й 0'*'*1"* ) ( & 108 с '*'*)=
==—Z |
Z (^/***1*/*i°g |
( |
Т, |
П |
|
)= |
*-0 |
I f Ik |
* * ' Kl.J.-.l + k 1 + к |
11 V |
|||
= n H ( l B/ l A). |
|
|
|
|
|
|
Многократно применяя следствие 2.12, получаем |
|
|
|
|||
Я ($>) = Я ( V Т_/£в) < Я (£в) + Я (Т-1£в) + • • • + |
|
|||||
|
|
+ |
Я (Т -(" -,,£в) = |
пЯ(£в). |
||
Следовательно, |
(1/«) [Я (iff) — Н (EBVIA*)] < Ф (Иь •••. |
Ц„), |
поэ- |
|||
тбму /?(р, Р ) < ф ( Д , , .... Д„). Тем самым С ( Р ) < ф ( Д , , |
.. . , |
Д„), |
откуда в сочетании с первой частью нашего рассуждения сле
дует, что |
С (Р) — <р (Д|........ Д„). Таким |
образом, для |
канала |
||
бёз памяти его пропускная способность |
достигается |
при |
неко- |
||
TojpoM источнике без |
памяти. 1 |
по скорости, |
с |
кото |
|
Каналы |
можно |
классифицировать |
рой они передают информацию, полученную из источника. Например, если ненадежность; равна нулю для всех входных распределений (что происходит в том и только том случае, ко|гда С (Р) = log п, где п — число символов в алфавите А), то; канал называют каналом без потерь. Приведем пример та кого канала. Пусть Л = {1, 2},; В = {1, 2, 3, 4, 5} и
О -г
С =
0 о
—|матрица, определяющая канал без памяти. Для всякой ста
ционарной |
вероятностной |
меры |
ц |
на |
(2 (Л), |
А) |
положим |
|
р.г= ц {со е |
2(Л): а>0 = |
/} при г = |
1, 2. |
меру ц в |
пространстве |
|||
Используя матрицу канала С и |
||||||||
источника, |
определим, |
как |
и выше, меры |
р и q в пространст |
||||
ве! канала |
и в пространстве |
выходов. Тогда |
|
|
||||
|
5 |
2 |
|
|
|
|
|
|
я (£л/1в)==]>>(/)£ |
р к*. /)] |
]по |
р к*. m |
• |
||||
|
|
|
р ( 1 ( Л ) Х { / } ) |
° g |
р.(2 (Л) х |
{ / » |
/ - 1 <-1
• 3.4. Канал |
165 |
Заметим, что при всех j ^ B и 1‘е Л
|
|
Р [(*, /)] |
|
* Р ц |
= |
0 или |
1, |
|
|
|
|
|
р (2 (А) х |
{/}) |
£ |
|
|
||||
|
|
|
|
|
|
|
|
|||
так что |
Я (!лДв) = 0. Применяя следствие .2.12, получим |
|
||||||||
н($>/$>) < Ц н( т - 'Ы V т - ' ь ) < |
|
|
|
|||||||
|
|
< Z н (T -V r't.) - |
Z н (IVS,) = о. |
|
||||||
|
|
/-0 |
|
|
|
/- о |
|
|
|
|
Таким |
образом, Я (ц, Р) — Я (1Д) для |
любой ^стационарной |
ме |
|||||||
ры в пространстве входов, |
т. е. построенный |
канал является |
||||||||
каналом без потерь. Если |
положить |!Г>= |
|
|
и ЙГ*» |
||||||
= VJ10T |
т0 Я(|!Г>/ |в >)) обращается в нуль. |
Поэтому в |
||||||||
силу теоремы 2.7 £(“)< |в >>. Иными |
словами, для |
канала |
без |
|||||||
потерь |
вход однозначно определяется выходом. Если С/{ |
есть |
||||||||
0 или 1 |
для |
всех i e A |
и / е Я , то канал |
без |
памяти называ |
|||||
ется детерминированным. Например, |
если |
А = {1, 2, 3, 4}, |
В =» |
|||||||
= {1,2} |
и |
|
|
|
|
|
|
|
|
|
то символы |
1,2 всегда |
переходят в символ |
2, |
в то |
время |
как |
3,4 всегда переходят в 1. Канал без потерь, который одновре менно является детерминированным, называется каналом без
шума. Примеры других видов каналов, |
в том числе и каналов |
||
с памятью, |
можно найти у Эша [14], |
Галлагера [43] или Ма- |
|
келиса |
[86] |
*). |
|
Для |
более общих классов каналов можно получить различ |
ные определения пропускной способности в зависимости от то го, какие виды источников при этом рассматриваются. Так, одно значение пропускной способности возникает, если брать стационарные источники, и другое (необходимо не превосхо дящее первое), если брать только эргодические источники. Однако для каналов без памяти эти два числа совпадают, поскольку мы доказали, что стационарная пропускная способ ность реализуется некоторым источником без памяти (и, сле довательно, эргодическим).
’) См. также Вольфэвиц [1967], Чисар, Кернер [1985]. — Прим, перев.
166 |
Гл. 3. Теория информации |
3.5. ТЕОРЕМА КОДИРОВАНИЯ ДЛЯ КАНАЛА С ШУМОМ
Теперь мы располагаем всеми понятиями, которые необходи мы для того, чтобы сформулировать теорему о кодировании для канала с шумом и понять ее доказательство. Эта теоре ма придает операциональное значение понятию пропускной способности канала.
Теорема 3.1. Пусть [2(Л),Р(со, •), 2 (£)] — дискретный ка нал без памяти с пропускной способностью С, а [2 (5), р] — эргодический источник с энтропией А. Если А < С, то для лю бого е > 0 существует код qp: 2(5)-*2(Л), такой, что скорость передачи информации из этого источника по данному каналу
/?(рqf \ |
Р) больше, чем А — е. Если |
А > С, то не существует |
кода ср, |
для которого R (щ Г 1, Р) = |
А. |
Имеется ряд различных формулировок этой теоремы. Их вид обычно зависит от того, в каких терминах выражается эффективность канала — через его ненадежность или через ве роятность ошибки. Кроме того, в формулировку теоремы часто включается указание на вид кодов, используемых при дока зательстве. Для случая так называемых блоковых кодов до казательство можно найти у Шеннона [138], Галлагера [43] или Биллингсли [20]. Доказательство, использующее скользя щие блоковые кодь!, приведено у Грея и Орнстейна [53].
Мы завершим этот раздел кратким обсуждением доказа тельства сформулированной фундаментальной теоремы. Пер вым этапом доказательства является построение решающей схемы, с помощью которой можно затем определить код. Для этого достаточно рассматривать только канал без привязки к какому-либо конкретному источнику, поскольку для канала без
памяти |
[2 (Л), Я (со, •), 2(B)] с матрицей |
С условные вероятно |
сти слов |
на выходе при фиксированном |
входе зависят только |
от С. Это наблюдение подсказывает нам следующий способ передачи сообщений по каналу. Пусть k — большое целое чис ло. Если мы передадим кодовое слово, состоящее из k единиц, за которыми следует k двоек (предполагается, что А = {1,2, ... , /г}), то частотное распределение первых k символов принятого сообщения должно быть очень близко к первому столбцу мат рицы С, а частотное распределение последних k принятых символов должно быть близко ко второму столбцу С. Напро тив, если передавать кодовое слово, в котором за k двойками следует k единиц, то соответствующее частотное распределение будет сначала мало отличаться от второго столбца С, а затем
— от первого. Если эти два столбца матрицы С различны, то при достаточно больших А два переданных сообщения можно
3.5. Теорема кодирования для канала с шумом |
167 |
будет различить по символам, полученным на выходе канала. Пропускная способность канала определяется тем, насколько столбцы матрицы С отличаются друг от друга. Иначе говоря, все столбцы С одинаковы тогда и только тогда, когда пропуск ная способность канала равна нулю. Таким образом, нам оста ется лишь связать длины кодовых слов с пропускной способ ностью канала. Файнстейн [37] формализовал эту процедуру в виде следующей теоремы.
Теорема 3.2. Пусть [2 (Л), Р(©, •). 2(B)] — дискретный канал без памяти с пропускной способностью С. Если 0 < е < С, то существует положительное целое число К, такое, что для вся
кого k > К множество Л* (произведение к экземпляров Л) со держит N слов (0[, ©2, .... <йц, обладающих тем свойством, что
множество Вк (произведение к экземпляров В) может быть раз бито на N соответствующих подмножеств Uit U2, . . . , UN та ким образом, что
Р (©,, Ut) > 1 — е, г = 1, 2, ... , N,
и N > e kic~e).
Эта теорема позволяет построить решающую схему следую щим образом. То, какое из кодовых слов ©( было передано, определяется по тому, какое из множеств С/( содержит при нятое слово и (длины к). Если источник может быть закоди рован в алфавите А таким образом, чтобы использовались только кодовые слова из нашего списка ©lf ..., ©„, то вероят ность ошибки для этого источника при использовании указан ной решающей схемы будет меньше е. Итак, теперь нам надо показать, что если энтропия данного источника меньше С, то он может быть закодирован в 2 (Л) так, чтобы возникающая
мера на Ак при правильно выбранном k была сосредоточена только на множестве {©j, ..., <s>N}. Это требование приводит к классу кодов, называемых к-блоковыми кодами. Каждый такой код <р: 2(5)-*-2 (Л) определяется . некоторым (супер)кодом
ф': 2(5*)->2(Л*) с использованием естественного соответствия
между сообщениями |
из 2(5) |
и 2(S*): |
последовательности |
||||
(..., |
© _ ь ©о, ©1, ...) е |
2 (S) |
отвечает |
последовательность ©' = |
|||
= |
К < . .. ) |
из |
2 (Sk), |
где |
©; = |
(©*„, ©to+1, ... |
|
•••’ “ fcn+fc-l). |
|
|
доказательство |
можно завер |
|||
Используя эти соображения, |
шить следующим образом. Выберем к достаточно большим, так чтобы можно было применить теорему Файнстейна и тео рему о равномерном распределении (следствие 2.54). Тогда по теореме о равномерном распределении существует множество
168 |
|
|
Гл. 3. Теория информации |
|
|
|
|
|||
___L— |
|
|
|
|
|
|
|
|
|
|
Еъ a Sk, такое, |
что |
ц (5 * - £ * ) < е , |
и если |
х е Ек, то |
ц ({х}) > |
|||||
> е-к(Л+е), где |
А — это энтропия эргодического источника [2 (S), |
|||||||||
ц]. Множество Ак содержит N кодовых |
слов, где |
N > е*<с-г). |
||||||||
С другой |
стороны, |
поскольку ц (£*)< 1, множество Ек |
содер |
|||||||
жит не больше чем eft(ft+e) слов. Поэтому |
при достаточно ма- |
|||||||||
лр1Х е[е<(С — А)/2] |
кодовых |
слов |
в |
Ак больше, |
|
чем |
слов |
|||
источника |
в Ек. Тем самым |
существует |
функция |
<р': Sk-> |
||||||
-4> {©1........ ©д,} cz Ак, |
которая |
взаимно |
однозначна |
на Ек и |
переводит все слова из Sk — Ек в одно слово. Эта функция определяет A-блоковый код из 2(5) в 2 (Л). Тщательный ана лиз ненадежности, в основном с использованием теоремы Фано [14], позволяет доказать, что ненадежность в нашем случае м^ла.
Намеченное дсжазательство теоремы кодирования для ка нала с шумом является неудовлетворительным с практической, ики конструктивной, точки зрения. Используемые в нем бло ковые коды трудно строить и, как правило, трудно исследо вать. Поэтому теорему кодирования для канала с шумом сле дует рассматривать как теорему существования с неконструктив ным доказательством. Задача построения таких кодов, которые действительно могут быть использованы и эффективность кото рых может быть оценена, представляется невероятно трудной. Макелис [86] посвящает теории кодирования всю вторую половину своего тома, входящего в состав настоящей энци клопедии, и читателю, заинтересовавшемуся этими проблемами, следует обратиться к его книге.
3.6.КОДИРОВАНИЕ ИСТОЧНИКА
Вразд. 3.1 было отмечено, если -источник Создает инфор мацию со скоростью, превосходящей пропускную способность канала, то вся процедура кодирования создаваемых источни ком сообщений для передачи по каналу разбивается на две, осуществляемые кодером источника и кодером канала соот ветственно. Целью первой из них (кодирования источника) является такое преобразование источника, чтобы полученный новый источник был достаточно близок к исходному и обла дал скоростью создания информации, не превосходящей про пускную способность канала.
; Большая часть теории кодирования источника [86] исполь зует блоковые коды. В этом разделе мы обсудим другой тип кодов, скользящие блоковые коды. Они возникают на основе соображений, использованных Орнстейном при доказательстве теоремы об изоморфизме (теорема 4.38). Будет приведена тео рема о кодировании источника в отсутствие шума для этого
|
3.6. |
Кодирование источника |
169 |
•класса |
кодов, а затем |
теорема о кодировании источника |
при |
наличии |
некоторого критерия точности. Доказательство |
пос |
ледней теоремы включает в себя конструкцию, которая близка к построениям из доказательства теоремы 4.38, но здесь дока зательство проще, и оно может служить пояснением теоремы об изоморфизме в части необходимости. В заключение этого раздела приводится пример очень простого скользящего блоко вого кода. Коды такого вида весьма часто используются в современной эргодической теории. То, что понятия, связан ные со скользящими блоковыми кодами, возникли из работ по проблеме изоморфизма, наглядно продемонстрировало глу бокую связь между теорией кодирования и теорией аппрокси мации случайных процессов.
В конце разд. 3.3 было отмечено, что коды, возникающие из изоморфизмов между динамическими системами, обычно непригодны с практической точки зрения, поскольку для этих кодов, прежде чем начать кодирование, мы должны полностью знать передаваемое сообщение ')• При доказательстве теоремы
кодирования для канала с шумом мы |
пытались преодолеть |
|||
эту трудность |
использованием блоковых |
кодов. |
Но |
вдобавок |
к сложностям, |
указанным в последнем |
абзаце |
разд. |
3.5, эти |
коды нестационарны и обычно чувствительны к ошибкам, воз никающим в канале. Кроме того, теория блоковых кодов не покрывает ряд методов, используемых на практике. Понятие скользящих блоковых кодов и его обобщение на финитарные коды имеют, по-видимому, некоторое значение и для практи ческих применений.
У нас уже есть большинство понятий и результатов из теории меры, которые необходимы для понимания содержа ния этого раздела. Еще одно понятие, которое не вводилось ранее и будет нами использоваться, — это функция расстояния
между источниками d. Она служит мерой того, насколько мо гут • быть близки в некоторый момент времени два случайных процесса, если они связаны стационарным каналом. Точнее, пусть заданы два источника (т. е. два стационарных процесса) [2(S), ц] и [E(S), v] с одним и тем же алфавитом S. Как от мечалось выше, стационарный канал, соединяющий эти два источника, можно рассматривать как инвариантную относите льно сдвига меру р на множестве E(S)XS(S), такую, что для
любого |
множества |
выполнены равенства р (2(S) X Л) = |
= v (Л) |
и р (А X 2 (S)) = |
р (Л). Про меры с таким свойством |
') В работе [65] устанавливается так называемый финитарный изомор физм сдвигов Бернулли с равной энтропией. С вероятностью единица он имеет «конечное запаздывание», т. е. кодирование п. в. сообщения требует в каждый момент времени знания лишь конечного числа (зависящего от сообщения) символов этого сообщения. — Прим, перев.
170 |
Гл. 3. Теория информации |
говорят, что они имеют «правильные маргинальные распреде
ления». |
Обозначим через |
класс всех таких мер. Тогда d-рас |
||
стояние |
между |
источниками |
[2(5), р] и [2(S), v] определяется |
|
соотношением *) |
|
|
|
|
d ([2(5), р], |
[2 (5), v]) — inf {(to, ©): ©0 ф ©0} : р е |
Щ. |
||
Пусть 5 = { s ,, s2, .... s„} — некоторый конечный |
алфавит. |
Обозначим через id начальное разбиение пространства 2(S), а
через |
(У и dv (ib) — дискретные |
вероятностные |
распределе |
|||||||||||
ния, отвечающие |
(упорядоченному) |
разбиению io и |
мерам |
р и |
||||||||||
v соответственно. |
Иначе |
говоря, |
|
|
|
|
|
|
|
|||||
и |
(io) = |
(Ц {©'• |
©о = |
si}, .... |
р {©: ©о = |
s„}) |
|
|
||||||
rfy (So) = |
(v {©•• |
© 0 = |
<Si>. • • • . |
v { © : |
©о = |
$ ,,}). |
|
|
||||||
|
|
|
||||||||||||
Легко |
показать, что |
|
|
|
|
|
|
|
|
|
|
|
|
|
где |
d ([2(5), р], |
[2(S), v]) < |d„ (io) - |
dv (io) I, |
|
|
|
||||||||
|
; |
|
|
n |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
||
|
I dp (io) — dv (io)| = |
|
2 |
1n {©: ®o = |
sk} — v {©: ©0 = |
sk) \ |
|
|||||||
|
|
|
|
ft-1 |
|
|
|
|
|
|
|
|
|
|
— это |
в точности /'-норма |
в R". |
|
|
|
|
|
|
|
|||||
В действительности, если источники являются бернуллиевс- |
||||||||||||||
кими, |
a i0 — бернуллиевская |
образующая, |
то |
|
|
|
|
|||||||
|
d ([2 (5), р), |
[2 (5), v]) = | d„ (У - |
dv &) |, |
|
|
|
||||||||
в чем мы сейчас убедимся. |
|
|
|
р — (р{/: |
1 ^ / ^ п , |
1 ^ |
||||||||
Определим вектор |
распределения |
|||||||||||||
^ / ^ я ) следующим |
образом. |
Предположим, |
что |
|
разбиение |
|||||||||
io = ({© : ©о = $*} : 1 ^ |
k ^ |
п) было упорядочено так, что |
|
|||||||||||
и |
р ({©: ©о — $*}) ^ |
|
v ({©: ©о = |
$*}), если 1 |
k ^ |
/, |
|
|||||||
|
|
|
|
|
|
|
|
|
|
|
|
|
|
р({©: ©о — 5*}),> v ({©: ©о = 5*}), если 1+ I ^ . k ^ n .
Обозначим через р4;И v, меры |
р и v /-го элемента разбиения |
||
io соответственно. Положим |
|
|
|
_ ( р[, |
если |
i < |
/, |
I V;, |
если |
/ > |
/, |
1) Подробнее о d-метрике см. в разд. 4.5 (определение 4.33) и разд. 4.9 (определение 4.56), а также в предисловии редактора перевода. — Прим, перев.
|
|
3.6. Кодирование источника |
171 |
||||||
а при i Ф / |
О, |
если |
1 ^ |
|
^ |
|
1 ^ |
^ п, |
|
|
|
|
|
||||||
Р ц = |
\ О, |
если |
/ |
1 |
< |
/ ^ |
л, |
/ -Ь 1 |
/ л, |
|
( ац, |
если |
I + |
1 |
^ |
i ^ |
п, |
1 ^ |
^ Л |
где {al(: / + |
1 |
|
|
|
/} — любое множество неотрица |
тельных чисел, такое, что 2 i - /+ tfl'i/==::'v/ ~ l t/ Для / — 1, 2, ...
.... I |
и |
2 / _ 1а//==1дч ~ vt |
Для / — /+1» •••» ti. |
[Заметим, |
что |
|||||
в выборе |
1(п — 1) |
чисел |
а1{ |
имеется |
значительная свобода.] |
|||||
Если теперь с использованием |
распределения p(st, st) = ptl |
на |
||||||||
S X S |
определить |
бернуллиевский процесс (Ts X Ts, |
| QX |
У » |
||||||
то легко видеть, что возникающая мера р *) лежит ъ |
и для |
|||||||||
нее |
Р ({К ©): ©о Ф ©о)) = |
Z |
Рц = |
I ^ (У — |
(У |. |
|
|
|||
|
|
|
Это показывает, что по крайней мере для бернуллиевских про
цессов ^-расстояние между источниками является мерой того, насколько хорошо два источника могут быть соотнесены посред ством стационарного канала.
В общей ситуации вычисление d-расстояния между двумя стационарными процессами — это непростая задача [74]. Мы
вернемся к обсуждению ^-метрики и одного ее естественного обобщения при рассмотрении вопроса о кодировании источни
ка при наличии критерия точности. В гл. 4 ^-метрика будет использована в несколько иной форме. То, что эти два раз
личных определения J -метрики эквивалентны, не |
очевидно. |
||
Этот факт доказан в [52]. |
(2 (Л), |
а) — про |
|
Пусть |
задан источник [2 (S), ц], и пусть |
||
странство |
воспроизведения, т. е. А — алфавит |
воспроизведения, |
а 1Га — борелевская а-алгебра в 2 (Л). Обозначим через S* декартово произведение k экземпляров множества S. Для каж дого положительного целого N скользящим блоковым кодером
блоковой |
длины N |
называется функция |
из Sw+i в Л. С |
||
помощью |
функции /<ЛГ) можно |
определить |
функцию ф из 2(S) |
||
в 2(Л), полагая |
|
|
|
©п+N) |
|
|
[Ф (©)]„= f{N)(©n-.V, |
.... ©m .... |
|||
для п = 0, |
± 1 , ± 2 |
........ Определение «скользящий блоковый» |
|||
используется здесь |
по той |
причине, что процесс кодирования |
|||
(с использованием |
функции |
f Ny) может |
быть представлен в |
*) Здесь авторы одной и той же буквой р обозначают и меру в прост ранстве канала и ее одномерное распределение. — Прим, перев.