Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Математическая теория энтропии

..pdf
Скачиваний:
17
Добавлен:
12.11.2023
Размер:
19.07 Mб
Скачать
Р Vo, h ........ ik\ /о, /ь .... /*) = 1
так что (ТАХв, 1л X &в) —.бернуллиевский процесс. Из опреде­ ления маргинального распределения q на 2(B) следует, что
П C/.,.Pi, = I ** '
П р ih, И),
/-0
к
к
= Л (Т дхв)-А (Т в).
Г
Заметим, что сумма скорости передачи информации по кана­ лу и его ненадежности равна энтропии источника. Тем самым скорость передачи возрастает с убыванием ненадежности. Не­ надежность также связана с вероятностью появления ошибки при передаче информации по каналу (неравенство Фано; см. Эш [14]).
Как правило, алфавит источника не совпадает с входным алфавитом канала, поэтому перед тем, как быть переданным по каналу, поступившее из источника сообщение должно быть закодировано. Эту ситуацию можно рассматривать точно так же, как это делалось выше. Пусть [S (S), р] — источник, а [2 (Л ), Р о ,-). 2(B)] канал. Если <р: 2 (S)->2( А) некоторый код, то можно построить (составной) канал [2 (5), Р (<р(со), •)> 2(B)]. Используя меры р и Р(ф(to), •), по теореме 1.15 полу­ чим меру р на 2(S)X 2(B ). Скорость передачи информации по этому каналу для источника [2(5), р] составит /?(р, Р ( ф (со), •))• Поэтому без потери общности можно предполагать, что про­ странство источника совпадает с входным пространством ка­ нала.
Вычисление скорости передачи информации для данных ка­ нала и источника является в общем случае очень трудной за­ дачей. Тем не менее если и источник, и канал лишены памя<- ти, то найти скорость передачи легко. Пусть Л = {1,2, ... , п}, В = {1,2, .... m), a C= (C ;/) -m X n матрица канала [2(Л), Р(ю, •), 2(B)]. Если р = (р,, ... , р„) — вероятностное распреде­ ление на Л, то

162

Гл. 3. Теория информации

Поскольку в силу равенства (2.25) I (£<,п); !£>)=# (£}?))+ #(1)}',))—

Н (%{а V 1^)» на основании соотношения (2.45) можно заклю­ чить, что R{ii, Р) существует и

Rili,

Р) = Л(ТА, l A) +

hiТв> 6в)“ Л(Тдхв, 1лХ1в).

Разбиения lA, tB и tAX h

— образующие, поэтому

 

R iii, P) =

h (Тд) + h (TB) - h i Тд x B).

Средней ненадежностью или просто ненадежностью канала

называется

величина

 

 

lirn 4 - Я(6<ГДО=

4 -[Я (|(?) х 1<в">)- я (gfc*>)] =

л->ОО

П~> оо

 

 

 

 

 

ЗА. Канал

 

 

163

(Тв, %в) — также

бернуллиевский

процесс.

[Процесс

(Тд, У

предполагался

бернуллиевским.]

Кроме того,

все три

разбие­

ния

У

X и являются образующими

в соответствую­

щих

пространствах. В силу

теоремы 2.39

и

следствия 2.28

А (Тд) =

Я (У ,

А(Тв) = Я (Ь )

и

А(ТД хв) =

Я (|д V ia),

откуда

получаем, что в этом случае

 

 

 

 

 

 

 

R (р, Р) = Н (У + Я — Н ( IA V

Iв).

 

Если зафиксировать канал [2 (Л), Р(а>, •), 2(B)] и позволить мере р пробегать множество всех стационарных мер на 2 (Л), то скорость передачи информации R (р, Р) становится просто вещественнозначной функцией р. Пропускной способностью (capacity) канала [2(Л), Р(а>, •), 2(B)] называется точная верх­ няя грань всех возможных скоростей передачи по каналу, т. е:

С (Р) — sup R (р, Р).

и

В

общем

случае

неизвестно,

существует

ли

мера р

на

2 (Л),

для

которой

С (Р) = R (р, Р). Для

канала

без

памяти

такая

мера

всегда

существует.

Для

того чтобы убедиться в

этом,

рассмотрим источник [2(Л), р]

и

положим

pt =

ц ( ( а е

е2 (Л ): co0 =

i}) (т.

е.

{р,} — распределение

на

алфавите

Л).

Определим

функцию

<p(p,, ...,

р„) =

Я (У +

Я (У — Я (lA V

V ia). (Заметим, что

эта величина совпадает с Я(р, Р) только

в том

случае, когда

[2 (Л), р] — источник

без памяти.) Функция

Ф задана

на

компактном

подмножестве

R" и непрерывна

(см.

разд. 2.11), поэтому она

достигает своего

максимального

зна­

чения

на

этом множестве. Пусть

(рь

...,

р„) — точка,

в кото­

рой ф принимает максимальное

значение.

Используя

распре­

деление {pj на Л, определим продакт-меру р на пространстве

(2 (Л), а)>как в примере

1.3. Тогда

[2 (Л), р] — источник

без

памяти. Он, очевидно, стационарен, так

что

С (/*) ^ ф (pi, Рг» • • •

... , р„). Пусть р — любая

стационарная

вероятностная

мера

на 2 (Л). Поскольку функция 1(1; т}) симметрична,

 

Я(р, Р )=

11ш ± l ( & );t(Z)) =

 

Л->оо п

-

Пт Ц н & ) - Н ($ ’/$’)].

 

Л->00 П

Заметим теперь, что в рассматриваемом случае я ( 1 № п)) =

- - ^

Ш > '* '* -* '* ),ое а с '

164 Гл. 3. Теория информации

— «, /<, ( й 0'*'*1"* ) ( & 108 с '*'*)=

==—Z

Z (^/***1*/*i°g

(

Т,

П

 

)=

*-0

I f Ik

* * ' Kl.J.-.l + k 1 + к

11 V

= n H ( l B/ l A).

 

 

 

 

 

Многократно применяя следствие 2.12, получаем

 

 

 

Я ($>) = Я ( V Т_/£в) < Я (£в) + Я (Т-1£в) + • • • +

 

 

 

+

Я (Т -(" -,,£в) =

пЯ(£в).

Следовательно,

(1/«) [Я (iff) — Н (EBVIA*)] < Ф (Иь •••.

Ц„),

поэ-

тбму /?(р, Р ) < ф ( Д , , .... Д„). Тем самым С ( Р ) < ф ( Д , ,

.. . ,

Д„),

откуда в сочетании с первой частью нашего рассуждения сле­

дует, что

С (Р) — <р (Д|........ Д„). Таким

образом, для

канала

бёз памяти его пропускная способность

достигается

при

неко-

TojpoM источнике без

памяти. 1

по скорости,

с

кото­

Каналы

можно

классифицировать

рой они передают информацию, полученную из источника. Например, если ненадежность; равна нулю для всех входных распределений (что происходит в том и только том случае, ко|гда С (Р) = log п, где п — число символов в алфавите А), то; канал называют каналом без потерь. Приведем пример та­ кого канала. Пусть Л = {1, 2},; В = {1, 2, 3, 4, 5} и

О -г

С =

0 о

—|матрица, определяющая канал без памяти. Для всякой ста­

ционарной

вероятностной

меры

ц

на

(2 (Л),

А)

положим

р.г= ц {со е

2(Л): а>0 =

/} при г =

1, 2.

меру ц в

пространстве

Используя матрицу канала С и

источника,

определим,

как

и выше, меры

р и q в пространст­

ве! канала

и в пространстве

выходов. Тогда

 

 

 

5

2

 

 

 

 

 

 

я (£л/1в)==]>>(/)£

р к*. /)]

]по

р к*. m

 

 

 

р ( 1 ( Л ) Х { / } )

° g

р.(2 (Л) х

{ / »

/ - 1 <-1

3.4. Канал

165

Заметим, что при всех j ^ B и 1‘е Л

 

 

Р [(*, /)]

 

* Р ц

=

0 или

1,

 

 

 

 

р (2 (А) х

{/})

£

 

 

 

 

 

 

 

 

 

 

так что

Я (!лДв) = 0. Применяя следствие .2.12, получим

 

н($>/$>) < Ц н( т - 'Ы V т - ' ь ) <

 

 

 

 

 

< Z н (T -V r't.) -

Z н (IVS,) = о.

 

 

 

/-0

 

 

 

/- о

 

 

 

 

Таким

образом, Я (ц, Р) — Я (1Д) для

любой ^стационарной

ме­

ры в пространстве входов,

т. е. построенный

канал является

каналом без потерь. Если

положить |!Г>=

 

 

и ЙГ*»

= VJ10T

т0 Я(|!Г>/ |в >)) обращается в нуль.

Поэтому в

силу теоремы 2.7 £(“)< |в >>. Иными

словами, для

канала

без

потерь

вход однозначно определяется выходом. Если С/{

есть

0 или 1

для

всех i e A

и / е Я , то канал

без

памяти называ­

ется детерминированным. Например,

если

А = {1, 2, 3, 4},

В

= {1,2}

и

 

 

 

 

 

 

 

 

 

то символы

1,2 всегда

переходят в символ

2,

в то

время

как

3,4 всегда переходят в 1. Канал без потерь, который одновре­ менно является детерминированным, называется каналом без

шума. Примеры других видов каналов,

в том числе и каналов

с памятью,

можно найти у Эша [14],

Галлагера [43] или Ма-

келиса

[86]

*).

 

Для

более общих классов каналов можно получить различ­

ные определения пропускной способности в зависимости от то­ го, какие виды источников при этом рассматриваются. Так, одно значение пропускной способности возникает, если брать стационарные источники, и другое (необходимо не превосхо­ дящее первое), если брать только эргодические источники. Однако для каналов без памяти эти два числа совпадают, поскольку мы доказали, что стационарная пропускная способ­ ность реализуется некоторым источником без памяти (и, сле­ довательно, эргодическим).

’) См. также Вольфэвиц [1967], Чисар, Кернер [1985]. — Прим, перев.

166

Гл. 3. Теория информации

3.5. ТЕОРЕМА КОДИРОВАНИЯ ДЛЯ КАНАЛА С ШУМОМ

Теперь мы располагаем всеми понятиями, которые необходи­ мы для того, чтобы сформулировать теорему о кодировании для канала с шумом и понять ее доказательство. Эта теоре­ ма придает операциональное значение понятию пропускной способности канала.

Теорема 3.1. Пусть [2(Л),Р(со, •), 2 (£)] — дискретный ка­ нал без памяти с пропускной способностью С, а [2 (5), р] — эргодический источник с энтропией А. Если А < С, то для лю­ бого е > 0 существует код qp: 2(5)-*2(Л), такой, что скорость передачи информации из этого источника по данному каналу

/?(рqf \

Р) больше, чем А — е. Если

А > С, то не существует

кода ср,

для которого R (щ Г 1, Р) =

А.

Имеется ряд различных формулировок этой теоремы. Их вид обычно зависит от того, в каких терминах выражается эффективность канала — через его ненадежность или через ве­ роятность ошибки. Кроме того, в формулировку теоремы часто включается указание на вид кодов, используемых при дока­ зательстве. Для случая так называемых блоковых кодов до­ казательство можно найти у Шеннона [138], Галлагера [43] или Биллингсли [20]. Доказательство, использующее скользя­ щие блоковые кодь!, приведено у Грея и Орнстейна [53].

Мы завершим этот раздел кратким обсуждением доказа­ тельства сформулированной фундаментальной теоремы. Пер­ вым этапом доказательства является построение решающей схемы, с помощью которой можно затем определить код. Для этого достаточно рассматривать только канал без привязки к какому-либо конкретному источнику, поскольку для канала без

памяти

[2 (Л), Я (со, •), 2(B)] с матрицей

С условные вероятно­

сти слов

на выходе при фиксированном

входе зависят только

от С. Это наблюдение подсказывает нам следующий способ передачи сообщений по каналу. Пусть k — большое целое чис­ ло. Если мы передадим кодовое слово, состоящее из k единиц, за которыми следует k двоек (предполагается, что А = {1,2, ... , /г}), то частотное распределение первых k символов принятого сообщения должно быть очень близко к первому столбцу мат­ рицы С, а частотное распределение последних k принятых символов должно быть близко ко второму столбцу С. Напро­ тив, если передавать кодовое слово, в котором за k двойками следует k единиц, то соответствующее частотное распределение будет сначала мало отличаться от второго столбца С, а затем

— от первого. Если эти два столбца матрицы С различны, то при достаточно больших А два переданных сообщения можно

3.5. Теорема кодирования для канала с шумом

167

будет различить по символам, полученным на выходе канала. Пропускная способность канала определяется тем, насколько столбцы матрицы С отличаются друг от друга. Иначе говоря, все столбцы С одинаковы тогда и только тогда, когда пропуск­ ная способность канала равна нулю. Таким образом, нам оста­ ется лишь связать длины кодовых слов с пропускной способ­ ностью канала. Файнстейн [37] формализовал эту процедуру в виде следующей теоремы.

Теорема 3.2. Пусть [2 (Л), Р(©, •). 2(B)] — дискретный канал без памяти с пропускной способностью С. Если 0 < е < С, то существует положительное целое число К, такое, что для вся­

кого k > К множество Л* (произведение к экземпляров Л) со­ держит N слов (0[, ©2, .... <йц, обладающих тем свойством, что

множество Вк (произведение к экземпляров В) может быть раз­ бито на N соответствующих подмножеств Uit U2, . . . , UN та­ ким образом, что

Р (©,, Ut) > 1 — е, г = 1, 2, ... , N,

и N > e kic~e).

Эта теорема позволяет построить решающую схему следую­ щим образом. То, какое из кодовых слов ©( было передано, определяется по тому, какое из множеств С/( содержит при­ нятое слово и (длины к). Если источник может быть закоди­ рован в алфавите А таким образом, чтобы использовались только кодовые слова из нашего списка ©lf ..., ©„, то вероят­ ность ошибки для этого источника при использовании указан­ ной решающей схемы будет меньше е. Итак, теперь нам надо показать, что если энтропия данного источника меньше С, то он может быть закодирован в 2 (Л) так, чтобы возникающая

мера на Ак при правильно выбранном k была сосредоточена только на множестве {©j, ..., <s>N}. Это требование приводит к классу кодов, называемых к-блоковыми кодами. Каждый такой код <р: 2(5)-*-2 (Л) определяется . некоторым (супер)кодом

ф': 2(5*)->2(Л*) с использованием естественного соответствия

между сообщениями

из 2(5)

и 2(S*):

последовательности

(...,

© _ ь ©о, ©1, ...) е

2 (S)

отвечает

последовательность ©' =

=

К < . .. )

из

2 (Sk),

где

©; =

(©*„, ©to+1, ...

•••’ “ fcn+fc-l).

 

 

доказательство

можно завер­

Используя эти соображения,

шить следующим образом. Выберем к достаточно большим, так чтобы можно было применить теорему Файнстейна и тео­ рему о равномерном распределении (следствие 2.54). Тогда по теореме о равномерном распределении существует множество

168

 

 

Гл. 3. Теория информации

 

 

 

 

___L—

 

 

 

 

 

 

 

 

 

 

Еъ a Sk, такое,

что

ц (5 * - £ * ) < е ,

и если

х е Ек, то

ц ({х}) >

> е-к(Л+е), где

А — это энтропия эргодического источника [2 (S),

ц]. Множество Ак содержит N кодовых

слов, где

N > е*<с-г).

С другой

стороны,

поскольку ц (£*)< 1, множество Ек

содер­

жит не больше чем eft(ft+e) слов. Поэтому

при достаточно ма-

лр1Х е[е<(С — А)/2]

кодовых

слов

в

Ак больше,

 

чем

слов

источника

в Ек. Тем самым

существует

функция

<р': Sk->

-4> {©1........ ©д,} cz Ак,

которая

взаимно

однозначна

на Ек и

переводит все слова из Sk — Ек в одно слово. Эта функция определяет A-блоковый код из 2(5) в 2 (Л). Тщательный ана­ лиз ненадежности, в основном с использованием теоремы Фано [14], позволяет доказать, что ненадежность в нашем случае м^ла.

Намеченное дсжазательство теоремы кодирования для ка­ нала с шумом является неудовлетворительным с практической, ики конструктивной, точки зрения. Используемые в нем бло­ ковые коды трудно строить и, как правило, трудно исследо­ вать. Поэтому теорему кодирования для канала с шумом сле­ дует рассматривать как теорему существования с неконструктив­ ным доказательством. Задача построения таких кодов, которые действительно могут быть использованы и эффективность кото­ рых может быть оценена, представляется невероятно трудной. Макелис [86] посвящает теории кодирования всю вторую половину своего тома, входящего в состав настоящей энци­ клопедии, и читателю, заинтересовавшемуся этими проблемами, следует обратиться к его книге.

3.6.КОДИРОВАНИЕ ИСТОЧНИКА

Вразд. 3.1 было отмечено, если -источник Создает инфор­ мацию со скоростью, превосходящей пропускную способность канала, то вся процедура кодирования создаваемых источни­ ком сообщений для передачи по каналу разбивается на две, осуществляемые кодером источника и кодером канала соот­ ветственно. Целью первой из них (кодирования источника) является такое преобразование источника, чтобы полученный новый источник был достаточно близок к исходному и обла­ дал скоростью создания информации, не превосходящей про­ пускную способность канала.

; Большая часть теории кодирования источника [86] исполь­ зует блоковые коды. В этом разделе мы обсудим другой тип кодов, скользящие блоковые коды. Они возникают на основе соображений, использованных Орнстейном при доказательстве теоремы об изоморфизме (теорема 4.38). Будет приведена тео­ рема о кодировании источника в отсутствие шума для этого

 

3.6.

Кодирование источника

169

•класса

кодов, а затем

теорема о кодировании источника

при

наличии

некоторого критерия точности. Доказательство

пос­

ледней теоремы включает в себя конструкцию, которая близка к построениям из доказательства теоремы 4.38, но здесь дока­ зательство проще, и оно может служить пояснением теоремы об изоморфизме в части необходимости. В заключение этого раздела приводится пример очень простого скользящего блоко­ вого кода. Коды такого вида весьма часто используются в современной эргодической теории. То, что понятия, связан­ ные со скользящими блоковыми кодами, возникли из работ по проблеме изоморфизма, наглядно продемонстрировало глу­ бокую связь между теорией кодирования и теорией аппрокси­ мации случайных процессов.

В конце разд. 3.3 было отмечено, что коды, возникающие из изоморфизмов между динамическими системами, обычно непригодны с практической точки зрения, поскольку для этих кодов, прежде чем начать кодирование, мы должны полностью знать передаваемое сообщение ')• При доказательстве теоремы

кодирования для канала с шумом мы

пытались преодолеть

эту трудность

использованием блоковых

кодов.

Но

вдобавок

к сложностям,

указанным в последнем

абзаце

разд.

3.5, эти

коды нестационарны и обычно чувствительны к ошибкам, воз­ никающим в канале. Кроме того, теория блоковых кодов не покрывает ряд методов, используемых на практике. Понятие скользящих блоковых кодов и его обобщение на финитарные коды имеют, по-видимому, некоторое значение и для практи­ ческих применений.

У нас уже есть большинство понятий и результатов из теории меры, которые необходимы для понимания содержа­ ния этого раздела. Еще одно понятие, которое не вводилось ранее и будет нами использоваться, — это функция расстояния

между источниками d. Она служит мерой того, насколько мо­ гут • быть близки в некоторый момент времени два случайных процесса, если они связаны стационарным каналом. Точнее, пусть заданы два источника (т. е. два стационарных процесса) [2(S), ц] и [E(S), v] с одним и тем же алфавитом S. Как от­ мечалось выше, стационарный канал, соединяющий эти два источника, можно рассматривать как инвариантную относите­ льно сдвига меру р на множестве E(S)XS(S), такую, что для

любого

множества

выполнены равенства р (2(S) X Л) =

= v (Л)

и р (А X 2 (S)) =

р (Л). Про меры с таким свойством

') В работе [65] устанавливается так называемый финитарный изомор­ физм сдвигов Бернулли с равной энтропией. С вероятностью единица он имеет «конечное запаздывание», т. е. кодирование п. в. сообщения требует в каждый момент времени знания лишь конечного числа (зависящего от сообщения) символов этого сообщения. — Прим, перев.

170

Гл. 3. Теория информации

говорят, что они имеют «правильные маргинальные распреде­

ления».

Обозначим через

класс всех таких мер. Тогда d-рас­

стояние

между

источниками

[2(5), р] и [2(S), v] определяется

соотношением *)

 

 

 

d ([2(5), р],

[2 (5), v]) — inf {(to, ©): ©0 ф ©0} : р е

Щ.

Пусть 5 = { s ,, s2, .... s„} — некоторый конечный

алфавит.

Обозначим через id начальное разбиение пространства 2(S), а

через

(У и dv (ib) — дискретные

вероятностные

распределе­

ния, отвечающие

(упорядоченному)

разбиению io и

мерам

р и

v соответственно.

Иначе

говоря,

 

 

 

 

 

 

 

и

(io) =

(Ц {©'•

©о =

si}, ....

р {©: ©о =

s„})

 

 

rfy (So) =

(v {©••

© 0 =

<Si>. • • • .

v { © :

©о =

$ ,,}).

 

 

 

 

 

Легко

показать, что

 

 

 

 

 

 

 

 

 

 

 

 

где

d ([2(5), р],

[2(S), v]) < |d„ (io) -

dv (io) I,

 

 

 

 

;

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

I dp (io) — dv (io)| =

 

2

1n {©: ®o =

sk} — v {©: ©0 =

sk) \

 

 

 

 

 

ft-1

 

 

 

 

 

 

 

 

 

— это

в точности /'-норма

в R".

 

 

 

 

 

 

 

В действительности, если источники являются бернуллиевс-

кими,

a i0 — бернуллиевская

образующая,

то

 

 

 

 

 

d ([2 (5), р),

[2 (5), v]) = | d„ (У -

dv &) |,

 

 

 

в чем мы сейчас убедимся.

 

 

 

р — (р{/:

1 ^ / ^ п ,

1 ^

Определим вектор

распределения

^ / ^ я ) следующим

образом.

Предположим,

что

 

разбиение

io = ({© : ©о = $*} : 1 ^

k ^

п) было упорядочено так, что

 

и

р ({©: ©о — $*}) ^

 

v ({©: ©о =

$*}), если 1

k ^

/,

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

р({©: ©о — 5*}),> v ({©: ©о = 5*}), если 1+ I ^ . k ^ n .

Обозначим через р4v, меры

р и v /-го элемента разбиения

io соответственно. Положим

 

 

 

_ ( р[,

если

i <

/,

I V;,

если

/ >

/,

1) Подробнее о d-метрике см. в разд. 4.5 (определение 4.33) и разд. 4.9 (определение 4.56), а также в предисловии редактора перевода. — Прим, перев.

 

 

3.6. Кодирование источника

171

а при i Ф /

О,

если

1 ^

 

^

 

1 ^

^ п,

 

 

 

 

 

Р ц =

\ О,

если

/

1

<

/ ^

л,

/ -Ь 1

/ л,

 

( ац,

если

I +

1

^

i ^

п,

1 ^

^ Л

где {al(: / +

1

 

 

 

/} — любое множество неотрица­

тельных чисел, такое, что 2 i - /+ tfl'i/==::'v/ ~ l t/ Для / — 1, 2, ...

.... I

и

2 / _ 1а//==1дч ~ vt

Для / — /+1» •••» ti.

[Заметим,

что

в выборе

1(п — 1)

чисел

а1{

имеется

значительная свобода.]

Если теперь с использованием

распределения p(st, st) = ptl

на

S X S

определить

бернуллиевский процесс (Ts X Ts,

| QX

У »

то легко видеть, что возникающая мера р *) лежит ъ

и для

нее

Р ({К ©): ©о Ф ©о)) =

Z

Рц =

I ^

(У |.

 

 

 

 

 

Это показывает, что по крайней мере для бернуллиевских про­

цессов ^-расстояние между источниками является мерой того, насколько хорошо два источника могут быть соотнесены посред­ ством стационарного канала.

В общей ситуации вычисление d-расстояния между двумя стационарными процессами — это непростая задача [74]. Мы

вернемся к обсуждению ^-метрики и одного ее естественного обобщения при рассмотрении вопроса о кодировании источни­

ка при наличии критерия точности. В гл. 4 ^-метрика будет использована в несколько иной форме. То, что эти два раз­

личных определения J -метрики эквивалентны, не

очевидно.

Этот факт доказан в [52].

(2 (Л),

а) — про­

Пусть

задан источник [2 (S), ц], и пусть

странство

воспроизведения, т. е. А — алфавит

воспроизведения,

а а борелевская а-алгебра в 2 (Л). Обозначим через S* декартово произведение k экземпляров множества S. Для каж­ дого положительного целого N скользящим блоковым кодером

блоковой

длины N

называется функция

из Sw+i в Л. С

помощью

функции /<ЛГ) можно

определить

функцию ф из 2(S)

в 2(Л), полагая

 

 

 

©п+N)

 

(©)]„= f{N)(©n-.V,

.... ©m ....

для п = 0,

± 1 , ± 2

........ Определение «скользящий блоковый»

используется здесь

по той

причине, что процесс кодирования

(с использованием

функции

f Ny) может

быть представлен в

*) Здесь авторы одной и той же буквой р обозначают и меру в прост­ ранстве канала и ее одномерное распределение. — Прим, перев.

Соседние файлы в папке книги