Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Обнаружение, распознавание и пеленгация объектов в ближней локации

..pdf
Скачиваний:
19
Добавлен:
12.11.2023
Размер:
12.6 Mб
Скачать
Номер итерации, тыс.
Рис. 5.15. Зависимость ошибки при обучении сети от номера итерации

Полученные в качестве ве­ сов такой сети коэффициенты множественной регрессии пер­ вого интервала на остальные при общей размерности векто­ ра N, задачи равной семи, для различной относительной ши­ рины полосы а приведены на рис. 5.16-5.17.

Применение предлагаемо­ го нейросетевого подхода позволяет найти оценки остаточных

средних значений квадратов регрессионных представлений 'Р*- и коэффициентов множественной начальной регрессии интервалов между нулями сигналов и помех как весовые коэффициенты Wy,

получаемые при обучении нейросети с использованием метода обратного распространения. Результаты исследований показали, что по предлагаемой методике легко могут быть вычислены необ­ ходимые статистические характеристики даже при нормированных коэффициентах корреляции параметров сигналов, стремящихся к единице.

Далее (в 6.3) доказано, что при rik =1 |3i(t = ^ , где N

размерность входного вектора. Это позволило осуществить про­ верку правильности выполненных расчетов. График на рис. 5.16 подтверждает тот факт, что при а -» 0 все КМНР стремятся к оди­ наковому значению: Р/< = 1/(ЛМ). В нашем случае при N= 7 = = 1/6 = 0,16. С увеличением относительной ширины полосы уси­ ливается вклад первых двух отсчетов.

Рис. 5.16. Коэффициенты множе­

Рис. 5.17. Коэффициенты множе­

ственной регрессии 1-го интервала

ственной регрессии 1-го интервала

на шесть остальных при а = 0,1

на шесть остальных при а = 0,9

14 Зак. 291

 

Рассмотренный

выше

ме­

 

тод получения

 

КМНР можно

 

распространить

на задачу

об­

 

ращения ковариационнй

мат­

 

рицы

(матрицы

центральных

 

моментов)

и

вычисления

ко­

 

эффициентов центральной рег­

 

рессии. В этом случае для по­

 

лучения

обратной

матрицы

 

необходимо, чтобы число вы­

 

ходов

нейронной сети равня­

 

лось числу входов (рис. 5.18).

Рис. 5.18. Структура нейронной сети

Исходная матрица задает­

ся как

матрица

ковариацион­

для решения задачи обращения мат­

ных моментов. Затем на вход

рицы 4x4 при помощи множест­

нейронной сети подаются цен­

венных коэффициентов регрессии

трированные

информативные

 

признаки реализаций реально­ го сигнала или, исходя из матрицы ковариационных моментов, одним из известных методов моделируется случайный вектор при­ знаков, который является входным вектором нейронной сети (рис. 5.19). Таким образом создается входное множество для по­ следующего обучения нейронной сети.

Важно отметить, что нейронная сеть является однослойной с линейной функцией активации, что значительно сокращает затра­ ты времени на ее обучение и требования к ресурсам вычислитель­ ной машины. После обучения нейронной сети ее веса, представ­ ляющие собой коэффициенты множественной регрессии (в рас­ сматриваемом случае центральные)

где X = С '1 — матрица, обратная матрице ковариационных момен­ тов, используются для получения матрицы, обратной исходной матрице ковариационных моментов. Для этого необходимо вычис­ лить на каждом выходе нейронной сети и остаточную дисперсию

Д007 = 1/Х„ (см. 5.1). Таким образом получают элементы матрицы, обратной матрице ковариационных моментов.

Рис. 5.19. Блок-схема алгоритма получения обратной матрицы через ко­ эффициенты множественной регрессии при помощи нейронной сети

Среди недостатков предложенного метода можно отметить, что при теоретических исследованиях исходная матрица задается как симметричная матрица ковариационных моментов. Кроме то­ го, необходима предварительная генерация множества случайных векторов, которые затем подаются на вход сети.

На практике рассмотренный метод обращения матриц корреляци­ онных (ковариационных) моментов применяют только тогда, когда не­ обходимо в явном виде оценить элементы обратной матрицы. В рас­ сматриваемых случаях этого не требуется, так как при получении КМНР как весов нейронной сети происходит неявное обращение матрицы.

5.4. Робастное обучение нейросети

Синтез нейросетевых алгоритмов в АИС часто осуществляется в условиях априорной неопределенности относительно характери­ стик сигналов и помех. При этом весьма эффективными оказыва-

14-

195

ются робастные методы обучения [10], которые широко использу­ ются для решения таких задач, как обнаружение, оценивание и кодирование сигналов в локации и системах связи; распознавание образов, обработка изображений.

Одной из мер повышения эффективности робастных систем яв­ ляется ориентация на наихудший случай во всем множестве вход­ ных воздействий. Этот подход приводит к так называемым мини­ максным робастным алгоритмам [11].

В большинстве работ по минимаксным методам рассматри­ ваются вариации спектральной плотности мощности сигналов и помех, а не плотности распределения вероятностей. При по­ строении стационарных линейных и нелинейных систем исполь­ зуется ряд полезных моделей спектральной неопределенности: модель е-загрязнения, модель е-окрестности, /7-точечная модель и т.д. [11].

Для обучения нейросетей на основе реализаций, полученных в натурных условиях, или на основе математических моделей сигна­ лов формируются обучающие множества входных реализаций, ко­ торые часто представляют собой нестационарные случайные про­ цессы. Чтобы снять ограничения, связанные с нестационарностью входных воздействий, в нейросетях часто выделяют вторичные признаки и формируют Димерные векторы входных реализаций. В процессе обучения многослойной нейросети реализуется в про­ стейшем случае (для нейросети с однородной структурой) кусоч­ но-линейная разделяющая поверхность в исходном Димерном про­ странстве признаков. Поэтому традиционные методы робастного обучения при оптимизации нейронных сетей часто оказываются неприемлемыми. В рассматриваемом случае удобнее использовать модель неопределенности состояния вектора входной реализации, основанную на понятии эпсилон-энтропии [8].

Пусть вектор входной реализации обучающего множества U в общем случае нецентрированный и описывается многомерной плотностью распределения вероятностей W (U) = W (щ, и2,..., % ).

Неопределенность в исходном описании входного вектора U можно учесть суммированием вектора U с некоррелированным центрированным вектором обладающим наименее благопри­

ятной

для решения поставленной задачи плотностью распреде­

ления

вероятностей

>4лг)- Тогда робастное обучение

нейросети необходимо проводить, используя новый обучающий вектор Z - U + £,.

Статистическую связь между Димерными ансамблями случайных величин иь и2,...,иы и z,, z2,.... zN отражают условные плотности распределения вероятностей Wz (Xl) = W(uv u2,...,uN/ zu z2,...,zN) и Wv (Z) = fV(zj, z2, .... zN/uu u2, .... uN), а также совместная плотность распределения вероятностей W(UZ) = W{uv u2,...,uN,zx,z2,...,zN).

Для количественной оценки степени различия векторов вво­ дится функция p(UZ), имеющая смысл расстояния. Наиболее широко используется среднеквадратический критерий, при кото­ ром p(UZ) представляет собой квадрат расстояния в Димерном евклидовом пространстве. Тогда критерием степени различия век­ торов U и Z может быть среднее значение функции p(UZ), взятое по всему множеству U и Z:

0(U, Z) = J J W(V)Wv (Z)p(V, Z)d\JdZ,

(5.29)

Ац Аг

 

где интегралы являются А^-мерными.

Степень различия векторов U и Z может быть задана неравен­ ством

e(U ,Z)<82,

(5.30)

где е — заданное значение (степень) различия.

Количество информации, приходящееся в среднем на одну ко­ ординату векторов U и Z, согласно [8], определяется выражением

7(U,Z)= J f y (UW Z)log^ ^ 5 > dW Z . (5.31) Ли Л2

Так как плотность W(XJ) определена, то для выполнения условия (5.30) можно варьировать только условную плотность распределе­ ния Wv (Z). При минимаксном подходе необходимо потребовать, чтобы при заданной степени различия векторов U и Z функция Wv (Z) обеспечивала наименьшее количество информации /(U, Z) (см. выражение (5.31)).

Минимальное количество информации 7(U,Z), при которой

удовлетворяется требование заданной степени различия е (5.30), называется е-энтропией вектора U и обозначается Я Е(U ):

Я,(11) = min /( U,Z).

(5.32)

{H'zm

 

Минимальное количество информации (5.32) будет получено при

некоррелированном векторе

т.е. когда

 

 

W K i.fe......

 

/=|

 

 

 

 

 

 

 

где W(Е,,) — одномерная плотность распределения вероятностей

случайной величины

Для обоснования наихудшего распреде­

ления %,■ используем безусловную А(ы,)

и условную hz (и,) диф­

ференциальные энтропии случайной величины

Тогда выраже­

ние (5.32) можно представить в виде

 

 

н ы(и,) = й(и,) -

max

).

(5.33)

Так как в рассматриваемой задаче случайная величина Е,, не

коррелирована с и,-, то h2 (и, )

в выражении (5.33) полностью оп­

ределяется помехой

Тогда

 

 

 

 

Не,(щ) = h(Uj) -

max Л(^),

(5.34)

где Л (4, ) — дифференциальная энтропия помехи.

Известно [8], что при ограничении на дисперсию случайной величины максимальной дифференциальной энтропией обладает

нормальное распределение. Поэтому

 

max А(Е,,) = loge, >/2яе.

(5.35)

Откуда при нормальном распределении величины U,

й(и,) = \ogOj\l2ne,

2

НЯ1 (Uj) =logo,- \l2ne - log8,4 lпё = —log— , (5.36) 2 2

где of — дисперсия случайной величины £/,.

Для произвольно распределенной случайной величины £/, при малых е (когда Ht(U) велико) справедливо приближенное равенство

Я е ,(£/,)* В Д ) - log8 ,7 2 ^ .

(5.37)

Если единственным ограничением для случайной величины является область ее возможных значений [а, Р], то максимальной дифференциальной энтропией обладает равномерное распределе­ ние вероятностей в этой области.

Как отмечалось выше, вектор входной реализации обучающе­ го множества часто нецентрированный, для которого априорно неизвестно математическое ожидание. Исходя из геометрических представлений, при формировании обучающего множества для робастного обучения нейросети целесообразно выбирать одинако­ вую относительную степень различия т], по каждой координате

 

= л* “ const,

 

(5.38)

где

— среднее значение квадрата случайной величины и,.

Если степень неопределенности задана таким образом, то наи­

худшим

распределением случайной величины

при

робастном

обучении, как показано выше, является нормальное.

 

5.5. Практическая реализация нейросетевых трактов в ЛИС

Формирование вектора признаков в нейросетевой системе распознавания акустических сигналов

Вопросы практической реализации нейросетевых трактов в АИС рассмотрим на примере задачи распознавания в заданном диапазоне дальностей двух аэродинамических объектов: самолета и вертолета, по их акустическим излучениям. В качестве тестового множества реализаций выбраны реализации сигналов от объектов, полученные в натурных условиях на фоне сигналов акустических шумов ветра и ревербераций. В качестве обучающего множества реализаций использованы математические модели сигналов, полу­

ченные на основании статистической обработки результатов экс­ периментальных исследований.

Задача распознавания аэродинамических объектов решается в условиях априорной неопределенности, и входной сигнал описы­ вается только набором реализаций. В этом случае аналитические методы синтеза малопригодны, и поэтому используются адаптив­ ные методы синтеза систем распознавания, основанные на проце­ дурах обучения с учителем. В качестве адекватной модели систе­ мы распознавания предложено использовать искусственную ней­ ронную сеть.

Участки реализаций сигналов для формирования обучающего множества нейросети длительностью по 0,8 с выбирались по сиг­ налу срабатывания макета пеленгатора (см. рис. 5.3, 5.4).

Вычисления оценок энергетического спектра через отсчеты

реализаций

сигналов (п = 8192) с частотой дискретизации

FD =10000

Гц проводились с помощью быстрого преобразования

Фурье (БПФ) при частотном сглаживании по двадцати соседним спектральным составляющим (см. рис. 5.5, 5.6). Из полученных оценок энергетических спектров следует, что 90 % мощности сиг­ нала сосредоточено в полосе частот 0...1500 Гц. При расчетах по­ лосы пропускания входных электрических фильтров акустическо­ го пеленгатора верхняя частота энергетического спектра сигналов от целей принята равной f s = 1500 Гц.

В качестве первичных признаков сигналов нейросети в боль­ шинстве случаев выбирается множество отсчетов принимаемого сигнала на интервале времени наблюдения Т„. На основании спек­ тральных характеристик принимаемого сигнала и с учетом перио­ дичности спектра дискретизированного сигнала и неидеапьной фильтрации частоты дискретизации следует выбрать не менее f a = 10000 Гц. При Тн = 0,8 с размерность входного вектора N >

> 8000. Аппаратно реализовать нейронную сеть при такой размер­ ности входного вектора и ограничениях на энергопотребление и занимаемый системой объем не представляется возможным. Аль­ тернативой временному представлению сигнала является более компактное, спектральное представление, однако при этом требу­ ются мощные вычислительные средства. При проверке возможно­ сти создания нейросетевого алгоритма, когда моделирование рабо­ ты проводилось на высокопроизводительном нейрокомпьютере,

Рис. 5.20. Гистограммы нормированных РДИ выборочных реа­ лизаций акустических сигналов самолета (/) и вертолета (2)

такое представление показало состоятельность нейросетевого ме­ тода распознавания аэродинамических объектов по их акустиче­ ским излучениям, однако имеющаяся элементная база не позволя­ ет аппаратно реализовать нейросеть.

В результате проведенных исследований было показано, что в качестве вторичных признаков сигналов, обрабатываемых нейро­ сетью в АИС, целесообразно выбирать распределение длительно­ стей интервалов (РДИ) между нулями входных реализаций, что позволяет судить о распределении спектральных составляющих этих реализаций. При этом существенно сокращается размерность входного вектора нейросети. Суть вектора РДИ — гистограмма распределения количества отсчетов тактовой частоты (в рассмат­ риваемой задаче f = 8192 Гц) в течение одной полуволны сигнала. Максимальное количество Nx компонент вектора РДИ определено по результатам обучения нейронной сети (начальное значение принято равным Nx= 32).

На этапе синтеза нейронной сети из обучающего множества реализаций сформирован вектор РДИ и получены гистограммы нормированных РДИ выборочных реализаций акустических сиг­ налов самолета и вертолета (рис. 5.20).

Скорость обучения нейросети при различных функциях активации и количестве нейронов скрытого слоя

Создание нейросетевой системы распознавания предусматривает разработку программы эмуляции работы нейронной сети и аппарат­ ную реализацию разработанного нейросетевого алгоритма. Количе-

13 Зак. 291

201

ство нейронов и межнейронных связей в сети определяет сложность реализации системы. В случае программной эмуляции нейросети объем памяти для хранения состояний нейронов и весов, а также производительность вычислительного устройства ограничивают об­ ласти практического применения нейросетевой технологии.

Аппаратная реализация с использованием аналоговых или цифровых нейрочипов позволяет строить высокопроизводитель­ ные системы обработки сигналов, способные работать в масштабе времени, близком к реальному. Однако в некоторых задачах, ха­ рактерных для АИС, требуемое количество нейронов и особенно межнейронных связей делает аппаратную реализацию очень доро­ гой или вообще неосуществимой из-за технологических ограниче­ ний, энергопотребления и занимаемого системой объема.

Естественное желание при разработке нейронных сетей — минимизировать количества нейронов и межнейронных связей. В рассматриваемом примере нахождение рациональной структуры нейронной сети основано на исследовании характеристик обучае­ мости и работоспособности нейросетей с различными функциями активации нейронов и их различном количестве при наличии на входе помех. Особое внимание уделено возможности реализации оптимальных структур нейронных сетей на существующей эле­ ментной базе с сохранением требуемых рабочих характеристик.

На основании [4, 24] в качестве базовой выбрана разомкнутая нейронная сеть с фиксированной структурой, которая предполага­ ет неизменное в режиме настройки число слоев и число нейронов в каждом слое. В общем случае под структурой нейросети понима­ ется структура преобразования у(х), осуществляемого системой на этапе распознавания. Основной является задача обоснования варианта структуры нейросети. В рассматриваемой задаче не предполагалось использование сети с перекрестными связями, а анализировалась однородная структура многослойных сетей с по­ следовательными связями, которая в простейшем случае реализует кусочно-линейную разделяющую поверхность в исходном про­ странстве признаков.

Использование последовательных связей (рис. 5.21) позволяет строить безынерционные нейронные сети с простой топологией свя­ зей и реализовать произвольное преобразование у(х). В работе [4] показано, что трехслойная нейронная сеть с последовательными свя­ зями способна реализовать произвольное отображение у(х).