книги / Обнаружение, распознавание и пеленгация объектов в ближней локации
..pdfПолученные в качестве ве сов такой сети коэффициенты множественной регрессии пер вого интервала на остальные при общей размерности векто ра N, задачи равной семи, для различной относительной ши рины полосы а приведены на рис. 5.16-5.17.
Применение предлагаемо го нейросетевого подхода позволяет найти оценки остаточных
средних значений квадратов регрессионных представлений 'Р*- и коэффициентов множественной начальной регрессии интервалов между нулями сигналов и помех как весовые коэффициенты Wy,
получаемые при обучении нейросети с использованием метода обратного распространения. Результаты исследований показали, что по предлагаемой методике легко могут быть вычислены необ ходимые статистические характеристики даже при нормированных коэффициентах корреляции параметров сигналов, стремящихся к единице.
Далее (в 6.3) доказано, что при rik =1 |3i(t = ^ , где N —
размерность входного вектора. Это позволило осуществить про верку правильности выполненных расчетов. График на рис. 5.16 подтверждает тот факт, что при а -» 0 все КМНР стремятся к оди наковому значению: Р/< = 1/(ЛМ). В нашем случае при N= 7 = = 1/6 = 0,16. С увеличением относительной ширины полосы уси ливается вклад первых двух отсчетов.
Рис. 5.16. Коэффициенты множе |
Рис. 5.17. Коэффициенты множе |
ственной регрессии 1-го интервала |
ственной регрессии 1-го интервала |
на шесть остальных при а = 0,1 |
на шесть остальных при а = 0,9 |
14 Зак. 291
|
Рассмотренный |
выше |
ме |
||||
|
тод получения |
|
КМНР можно |
||||
|
распространить |
на задачу |
об |
||||
|
ращения ковариационнй |
мат |
|||||
|
рицы |
(матрицы |
центральных |
||||
|
моментов) |
и |
вычисления |
ко |
|||
|
эффициентов центральной рег |
||||||
|
рессии. В этом случае для по |
||||||
|
лучения |
обратной |
матрицы |
||||
|
необходимо, чтобы число вы |
||||||
|
ходов |
нейронной сети равня |
|||||
|
лось числу входов (рис. 5.18). |
||||||
Рис. 5.18. Структура нейронной сети |
Исходная матрица задает |
||||||
ся как |
матрица |
ковариацион |
|||||
для решения задачи обращения мат |
ных моментов. Затем на вход |
||||||
рицы 4x4 при помощи множест |
нейронной сети подаются цен |
||||||
венных коэффициентов регрессии |
трированные |
информативные |
|||||
|
признаки реализаций реально го сигнала или, исходя из матрицы ковариационных моментов, одним из известных методов моделируется случайный вектор при знаков, который является входным вектором нейронной сети (рис. 5.19). Таким образом создается входное множество для по следующего обучения нейронной сети.
Важно отметить, что нейронная сеть является однослойной с линейной функцией активации, что значительно сокращает затра ты времени на ее обучение и требования к ресурсам вычислитель ной машины. После обучения нейронной сети ее веса, представ ляющие собой коэффициенты множественной регрессии (в рас сматриваемом случае центральные)
где X = С '1 — матрица, обратная матрице ковариационных момен тов, используются для получения матрицы, обратной исходной матрице ковариационных моментов. Для этого необходимо вычис лить на каждом выходе нейронной сети и остаточную дисперсию
Д007 = 1/Х„ (см. 5.1). Таким образом получают элементы матрицы, обратной матрице ковариационных моментов.
Рис. 5.19. Блок-схема алгоритма получения обратной матрицы через ко эффициенты множественной регрессии при помощи нейронной сети
Среди недостатков предложенного метода можно отметить, что при теоретических исследованиях исходная матрица задается как симметричная матрица ковариационных моментов. Кроме то го, необходима предварительная генерация множества случайных векторов, которые затем подаются на вход сети.
На практике рассмотренный метод обращения матриц корреляци онных (ковариационных) моментов применяют только тогда, когда не обходимо в явном виде оценить элементы обратной матрицы. В рас сматриваемых случаях этого не требуется, так как при получении КМНР как весов нейронной сети происходит неявное обращение матрицы.
5.4. Робастное обучение нейросети
Синтез нейросетевых алгоритмов в АИС часто осуществляется в условиях априорной неопределенности относительно характери стик сигналов и помех. При этом весьма эффективными оказыва-
14- |
195 |
ются робастные методы обучения [10], которые широко использу ются для решения таких задач, как обнаружение, оценивание и кодирование сигналов в локации и системах связи; распознавание образов, обработка изображений.
Одной из мер повышения эффективности робастных систем яв ляется ориентация на наихудший случай во всем множестве вход ных воздействий. Этот подход приводит к так называемым мини максным робастным алгоритмам [11].
В большинстве работ по минимаксным методам рассматри ваются вариации спектральной плотности мощности сигналов и помех, а не плотности распределения вероятностей. При по строении стационарных линейных и нелинейных систем исполь зуется ряд полезных моделей спектральной неопределенности: модель е-загрязнения, модель е-окрестности, /7-точечная модель и т.д. [11].
Для обучения нейросетей на основе реализаций, полученных в натурных условиях, или на основе математических моделей сигна лов формируются обучающие множества входных реализаций, ко торые часто представляют собой нестационарные случайные про цессы. Чтобы снять ограничения, связанные с нестационарностью входных воздействий, в нейросетях часто выделяют вторичные признаки и формируют Димерные векторы входных реализаций. В процессе обучения многослойной нейросети реализуется в про стейшем случае (для нейросети с однородной структурой) кусоч но-линейная разделяющая поверхность в исходном Димерном про странстве признаков. Поэтому традиционные методы робастного обучения при оптимизации нейронных сетей часто оказываются неприемлемыми. В рассматриваемом случае удобнее использовать модель неопределенности состояния вектора входной реализации, основанную на понятии эпсилон-энтропии [8].
Пусть вектор входной реализации обучающего множества U в общем случае нецентрированный и описывается многомерной плотностью распределения вероятностей W (U) = W (щ, и2,..., % ).
Неопределенность в исходном описании входного вектора U можно учесть суммированием вектора U с некоррелированным центрированным вектором обладающим наименее благопри
ятной |
для решения поставленной задачи плотностью распреде |
|
ления |
вероятностей |
>4лг)- Тогда робастное обучение |
нейросети необходимо проводить, используя новый обучающий вектор Z - U + £,.
Статистическую связь между Димерными ансамблями случайных величин иь и2,...,иы и z,, z2,.... zN отражают условные плотности распределения вероятностей Wz (Xl) = W(uv u2,...,uN/ zu z2,...,zN) и Wv (Z) = fV(zj, z2, .... zN/uu u2, .... uN), а также совместная плотность распределения вероятностей W(UZ) = W{uv u2,...,uN,zx,z2,...,zN).
Для количественной оценки степени различия векторов вво дится функция p(UZ), имеющая смысл расстояния. Наиболее широко используется среднеквадратический критерий, при кото ром p(UZ) представляет собой квадрат расстояния в Димерном евклидовом пространстве. Тогда критерием степени различия век торов U и Z может быть среднее значение функции p(UZ), взятое по всему множеству U и Z:
0(U, Z) = J J W(V)Wv (Z)p(V, Z)d\JdZ, |
(5.29) |
Ац Аг |
|
где интегралы являются А^-мерными.
Степень различия векторов U и Z может быть задана неравен ством
e(U ,Z)<82, |
(5.30) |
где е — заданное значение (степень) различия.
Количество информации, приходящееся в среднем на одну ко ординату векторов U и Z, согласно [8], определяется выражением
7(U,Z)= J f y (UW Z)log^ ^ 5 > dW Z . (5.31) Ли Л2
Так как плотность W(XJ) определена, то для выполнения условия (5.30) можно варьировать только условную плотность распределе ния Wv (Z). При минимаксном подходе необходимо потребовать, чтобы при заданной степени различия векторов U и Z функция Wv (Z) обеспечивала наименьшее количество информации /(U, Z) (см. выражение (5.31)).
Минимальное количество информации 7(U,Z), при которой
удовлетворяется требование заданной степени различия е (5.30), называется е-энтропией вектора U и обозначается Я Е(U ):
Я,(11) = min /( U,Z). |
(5.32) |
{H'zm |
|
Минимальное количество информации (5.32) будет получено при
некоррелированном векторе |
т.е. когда |
|
|
||
W K i.fe...... |
|
/=| |
|
|
|
|
|
|
|
|
|
где W(Е,,) — одномерная плотность распределения вероятностей |
|||||
случайной величины |
Для обоснования наихудшего распреде |
||||
ления %,■ используем безусловную А(ы,) |
и условную hz (и,) диф |
||||
ференциальные энтропии случайной величины |
Тогда выраже |
||||
ние (5.32) можно представить в виде |
|
|
|||
н ы(и,) = й(и,) - |
max |
). |
(5.33) |
||
Так как в рассматриваемой задаче случайная величина Е,, не |
|||||
коррелирована с и,-, то h2 (и, ) |
в выражении (5.33) полностью оп |
||||
ределяется помехой |
Тогда |
|
|
|
|
Не,(щ) = h(Uj) - |
max Л(^), |
(5.34) |
где Л (4, ) — дифференциальная энтропия помехи.
Известно [8], что при ограничении на дисперсию случайной величины максимальной дифференциальной энтропией обладает
нормальное распределение. Поэтому |
|
max А(Е,,) = loge, >/2яе. |
(5.35) |
Откуда при нормальном распределении величины U,
й(и,) = \ogOj\l2ne,
2
НЯ1 (Uj) =logo,- \l2ne - log8,4 lпё = —log— , (5.36) 2 2
где of — дисперсия случайной величины £/,.
Для произвольно распределенной случайной величины £/, при малых е (когда Ht(U) велико) справедливо приближенное равенство
Я е ,(£/,)* В Д ) - log8 ,7 2 ^ . |
(5.37) |
Если единственным ограничением для случайной величины является область ее возможных значений [а, Р], то максимальной дифференциальной энтропией обладает равномерное распределе ние вероятностей в этой области.
Как отмечалось выше, вектор входной реализации обучающе го множества часто нецентрированный, для которого априорно неизвестно математическое ожидание. Исходя из геометрических представлений, при формировании обучающего множества для робастного обучения нейросети целесообразно выбирать одинако вую относительную степень различия т], по каждой координате
|
= л* “ const, |
|
(5.38) |
где |
— среднее значение квадрата случайной величины и,. |
||
Если степень неопределенности задана таким образом, то наи |
|||
худшим |
распределением случайной величины |
при |
робастном |
обучении, как показано выше, является нормальное. |
|
5.5. Практическая реализация нейросетевых трактов в ЛИС
Формирование вектора признаков в нейросетевой системе распознавания акустических сигналов
Вопросы практической реализации нейросетевых трактов в АИС рассмотрим на примере задачи распознавания в заданном диапазоне дальностей двух аэродинамических объектов: самолета и вертолета, по их акустическим излучениям. В качестве тестового множества реализаций выбраны реализации сигналов от объектов, полученные в натурных условиях на фоне сигналов акустических шумов ветра и ревербераций. В качестве обучающего множества реализаций использованы математические модели сигналов, полу
ченные на основании статистической обработки результатов экс периментальных исследований.
Задача распознавания аэродинамических объектов решается в условиях априорной неопределенности, и входной сигнал описы вается только набором реализаций. В этом случае аналитические методы синтеза малопригодны, и поэтому используются адаптив ные методы синтеза систем распознавания, основанные на проце дурах обучения с учителем. В качестве адекватной модели систе мы распознавания предложено использовать искусственную ней ронную сеть.
Участки реализаций сигналов для формирования обучающего множества нейросети длительностью по 0,8 с выбирались по сиг налу срабатывания макета пеленгатора (см. рис. 5.3, 5.4).
Вычисления оценок энергетического спектра через отсчеты
реализаций |
сигналов (п = 8192) с частотой дискретизации |
FD =10000 |
Гц проводились с помощью быстрого преобразования |
Фурье (БПФ) при частотном сглаживании по двадцати соседним спектральным составляющим (см. рис. 5.5, 5.6). Из полученных оценок энергетических спектров следует, что 90 % мощности сиг нала сосредоточено в полосе частот 0...1500 Гц. При расчетах по лосы пропускания входных электрических фильтров акустическо го пеленгатора верхняя частота энергетического спектра сигналов от целей принята равной f s = 1500 Гц.
В качестве первичных признаков сигналов нейросети в боль шинстве случаев выбирается множество отсчетов принимаемого сигнала на интервале времени наблюдения Т„. На основании спек тральных характеристик принимаемого сигнала и с учетом перио дичности спектра дискретизированного сигнала и неидеапьной фильтрации частоты дискретизации следует выбрать не менее f a = 10000 Гц. При Тн = 0,8 с размерность входного вектора N >
> 8000. Аппаратно реализовать нейронную сеть при такой размер ности входного вектора и ограничениях на энергопотребление и занимаемый системой объем не представляется возможным. Аль тернативой временному представлению сигнала является более компактное, спектральное представление, однако при этом требу ются мощные вычислительные средства. При проверке возможно сти создания нейросетевого алгоритма, когда моделирование рабо ты проводилось на высокопроизводительном нейрокомпьютере,
Рис. 5.20. Гистограммы нормированных РДИ выборочных реа лизаций акустических сигналов самолета (/) и вертолета (2)
такое представление показало состоятельность нейросетевого ме тода распознавания аэродинамических объектов по их акустиче ским излучениям, однако имеющаяся элементная база не позволя ет аппаратно реализовать нейросеть.
В результате проведенных исследований было показано, что в качестве вторичных признаков сигналов, обрабатываемых нейро сетью в АИС, целесообразно выбирать распределение длительно стей интервалов (РДИ) между нулями входных реализаций, что позволяет судить о распределении спектральных составляющих этих реализаций. При этом существенно сокращается размерность входного вектора нейросети. Суть вектора РДИ — гистограмма распределения количества отсчетов тактовой частоты (в рассмат риваемой задаче f = 8192 Гц) в течение одной полуволны сигнала. Максимальное количество Nx компонент вектора РДИ определено по результатам обучения нейронной сети (начальное значение принято равным Nx= 32).
На этапе синтеза нейронной сети из обучающего множества реализаций сформирован вектор РДИ и получены гистограммы нормированных РДИ выборочных реализаций акустических сиг налов самолета и вертолета (рис. 5.20).
Скорость обучения нейросети при различных функциях активации и количестве нейронов скрытого слоя
Создание нейросетевой системы распознавания предусматривает разработку программы эмуляции работы нейронной сети и аппарат ную реализацию разработанного нейросетевого алгоритма. Количе-
13 Зак. 291 |
201 |
ство нейронов и межнейронных связей в сети определяет сложность реализации системы. В случае программной эмуляции нейросети объем памяти для хранения состояний нейронов и весов, а также производительность вычислительного устройства ограничивают об ласти практического применения нейросетевой технологии.
Аппаратная реализация с использованием аналоговых или цифровых нейрочипов позволяет строить высокопроизводитель ные системы обработки сигналов, способные работать в масштабе времени, близком к реальному. Однако в некоторых задачах, ха рактерных для АИС, требуемое количество нейронов и особенно межнейронных связей делает аппаратную реализацию очень доро гой или вообще неосуществимой из-за технологических ограниче ний, энергопотребления и занимаемого системой объема.
Естественное желание при разработке нейронных сетей — минимизировать количества нейронов и межнейронных связей. В рассматриваемом примере нахождение рациональной структуры нейронной сети основано на исследовании характеристик обучае мости и работоспособности нейросетей с различными функциями активации нейронов и их различном количестве при наличии на входе помех. Особое внимание уделено возможности реализации оптимальных структур нейронных сетей на существующей эле ментной базе с сохранением требуемых рабочих характеристик.
На основании [4, 24] в качестве базовой выбрана разомкнутая нейронная сеть с фиксированной структурой, которая предполага ет неизменное в режиме настройки число слоев и число нейронов в каждом слое. В общем случае под структурой нейросети понима ется структура преобразования у(х), осуществляемого системой на этапе распознавания. Основной является задача обоснования варианта структуры нейросети. В рассматриваемой задаче не предполагалось использование сети с перекрестными связями, а анализировалась однородная структура многослойных сетей с по следовательными связями, которая в простейшем случае реализует кусочно-линейную разделяющую поверхность в исходном про странстве признаков.
Использование последовательных связей (рис. 5.21) позволяет строить безынерционные нейронные сети с простой топологией свя зей и реализовать произвольное преобразование у(х). В работе [4] показано, что трехслойная нейронная сеть с последовательными свя зями способна реализовать произвольное отображение у(х).