Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Обнаружение, распознавание и пеленгация объектов в ближней локации

..pdf
Скачиваний:
19
Добавлен:
12.11.2023
Размер:
12.6 Mб
Скачать

видимости SMдо 50 м на дальностях до преграды Я0 = 6,5 м ± 1 м

при следующих параметрах: Т = 10-4 с; Я = 4; а(Я 0) = 2 при Я = 5;

весовой коэффициент канала III d(H0) =0,1; отношение математи­ ческого ожидания сигнала в оперативном канале к среднеквадра­

тическому значению внутреннего шума Ц(р»#о) = 10 при р = 0,08;

отношение математического ожидания сигнала в оперативном ка­

нале к порогу ^

^ = 1,6 при р = 0,08.

^пор

 

В системе в качестве излучателя вместо полупроводникового лазера можно применить светодиод. Излучение светодиода моду­ лируется изменением питания гармоническим или импульсным сигналом. Для формирования необходимой полосы пропускания приемных каналов в схеме предлагается использовать синхронные детекторы, представляющие собой ключевые каскады с накопите­ лями в виде инерционных ЛС-цепей. Тогда функциональная схема трехканальной адаптивной регрессионной системы с непрерывным модулированным излучением будет иметь вид, приведенный на рис. 4.17.

Оптический датчик расстояния (см. рис. 4.17) состоит из трех приемников 1.11.3; четырех делителей напряжения 2.1—2.4; двух весовых сумматоров сигналов 3.1 и 3.2; двух линейных фильтров 4.1 и 4.2, согласованных с принимаемыми отраженными сигналами и осуществляющих необходимое усиление в каналах датчика; двух синхронных детекторов, состоящих из перемножителей 5.1, 5.2 и двух инерционных цепей 6.1 и 6.2; двух пороговых устройств 1.1, 7.2; схемы совпадения 8; излучателя (лазерного све­ тодиода) 9; генератора 10, модулирующего излучение лазерного светодиода непрерывным сигналом, и аттенюатора 11.

На основании (4.43) и (4.44) коэффициенты деления будут равны:

Ка(Н0)-]

'

К ~ 1

* !| —

К + Г ~ ’

22 ~1 + Ka(HQy

 

Kd(H„) .

к

_ а

д

)

23

1+ Щ Н 0У * 24" Т

7 Г

-

и

Рис. 4.17. Функциональная схема трехканального оптиче­ ского датчика с непрерывным модулированным излучением и адаптивным регрессионным трактом обработки сигналов:

1.1-1.3 — приемники; 2.1-2.4 — делители напряжений; 3.1, 3.2 весовые сумматоры; 4.1, 4.2 — линейные фильтры; 5.1, 5.2 — перемножители; 6.1, 6.2 — инерционные цепи; 7.1, 7.2 — пороговые устройства; 8 — схема совпадения; 9 — излучатель (лазерный све­ тодиод); 10 — генератор; 11 — аттенюатор

Контрольные вопросы и задания

1.Каким образом учитывается априорная информация о корреляции онных свойствах сигналов и помех в регрессионных алгоритмах систем, обрабатывающих интервалы между нулями входных реализаций?

2.Охарактеризуйте общий подход к построению систем обнаруже­ ния и распознавания непрерывных нестационарных сигналов в АИС БЛ.

3.Запишите регрессионные алгоритмы обработки интервалов между нулями входных реализаций случайных сигналов.

4.К каким параметрам сигналов инвариантны регрессионные алго­ ритмы обработки интервалов между нулями входных реализаций е л е й ­ ных сигналов?

5.Сравните возможные классические алгоритмы распознавания СлУ~ чайных сигналов по относительной ширине полосы энергетического

спектра с регрессионными.

6.Каким образом в лазерных АИС БЛ с адаптивными регрессион­ ными алгоритмами трактов обработки сигналов осуществляется стабили­ зация дальности срабатывания по поверхности и адаптация к метеороло­ гической дальности видимости?

7.Как в лазерных АИС БЛ с регрессионными алгоритмами трактов обработки сигналов учитывается априорная информация о нелинейных регрессионных зависимостях параметров сигналов в оптических каналах?

8.Составьте методику расчета вероятностей ложных тревог и про­ пусков сигналов для лазерных АИС БЛ с многоканальными регрессион­ ными алгоритмами трактов обработки импульсных сигналов.

5. НЕЙРОСЕТЕВЫЕ АЛГОРИТМЫ СИСТЕМ ОБНАРУЖЕНИЯ И РАСПОЗНАВАНИЯ СИГНАЛОВ

5.1. Выбор и сокращение размерности информативных признаков

вавтономных информационных системах

снейросетевыми трактами обработки сигналов

Необходимость решения новых задач и усложняющиеся усло­ вия применения АИС требуют разработки помехоустойчивых адап­ тивных АИС и систем, обладающих свойствами робастности и непараметричности. Для улучшения рабочих характеристик необхо­ димо повышать информативность рабочих каналов АИС, которые могут быть основаны на различных физических принципах. В ближней локации случайные сигналы на входе и помехи имеют большой динамический диапазон амплитудных, частотных и вре­ менных характеристик и ярко выраженный нестационарный ха­ рактер. Информативные параметры сигналов часто являются нецентрированными случайными величинами или процессами на ограниченном интервале наблюдения, для которых априорно неиз­ вестны математические ожидания. Оценить их по нестационарной реализации также не представляется возможным.

В этих условиях невозможно применить традиционные мето­ ды статистических решений, требующие вычисления и обработки центрированных параметров сигналов.

Снять ограничения, связанные с нестационарностью информа­ тивных параметров, позволяет переход в признаковое пространст­ во, в котором каждая выборочная реализация отображается векто­ ром, а ансамбль реализаций — областью. В ближней локации для обработки информации в многомерном признаковом пространстве, при отмеченных выше особенностях АИС, необходимо применять эффективные методы выделения информативных признаков и

166

обоснования решающих функций (разделяющих границ) в услови­ ях априорной неопределенности в сложной помеховой обстановке. Важную роль в этих условиях играют сокращение времени на раз­ работку систем и автоматизация процесса исследования.

Всем отмеченным выше требованиям удовлетворяет подход к созданию принципиально новых АИС, основанный на обработке в трактах АИС нецентрированных параметров сигналов и помех, на использовании в качестве априорной информации начальных мо­ ментов случайных процессов и на применении нейросетевых техно­ логий для исследования и проектирования АИС нового поколения.

Предлагаемый подход предусматривает наличие на входе тракта обработки сигналов рассматриваемых АИС анализатора признаков, в котором осуществляется выделение первичных и вторичных информативных признаков. Выбор первичных призна­ ков базируется на обобщенном спектральном анализе, который, в свою очередь, опирается на теорию среднеквадратической аппрок­ симации непрерывных функций в априорно выбираемых базисах в гильбертовом пространстве. Задача значительно упрощается при использовании ортонормированных базисных функций. Частными случаями ортонормированных базисов с единичным весом явля­ ются базисы, дающие разложение функций в ряд Фурье и в ряд Котельникова.

Поскольку блок принятия решения в настоящее время реали­ зуется, как правило, на основе дискретной или цифровой обработ­ ки сигналов, то в качестве первичных признаков часто использу­ ются отсчеты сигналов в дискретном времени (по Котельникову) или дискретные числовые наборы.

Общая аналитическая зависимость входного сигнала без по­ стоянной составляющей может быть представлена в виде

I

 

x(t) = E(t)cos[ Jco(z)dz +q>(f)],

(5.1)

0

 

где E{t) — огибающая; co(/) ■— мгновенная частота; cp(/) — слу­

чайная фаза.

Если информация о физических и механических признаках объектов заключена в статистических характеристиках огибаю­ щей, случайной фазы или мгновенной частоты и нестационарность входных сигналов в ближней локации вызвана изменением во

времени одного или нескольких из этих информативных признакков, то, как показано в гл. 4, в АИС БЛ целесообразно не прово­ дить обработку сигнала в целом, а выделять перечисленные вто­ ричные информативные признаки. Эти признаки в общем случае представляют собой случайные нестационарные процессы, для которых априорно неизвестны математические ожидания. Оценка последних часто не представляется возможной вследствие высоко­ го быстродействия систем. Отметим, что в АИС информация о мгновенной частоте и случайной фазе часто получается в резуль­ тате обработки интервалов между нулями входных реализаций.

Наиболее важными при разработке АИС БЛ являются вопросы выбора информативных признаков и сокращения размерности век­ торов признаков. Информативные признаки сигналов должны быть наиболее эффективными с точки зрения разделимости классов.

Теоретически наилучшим критерием эффективности инфор­ мативных признаков является вероятность ошибки. На практике один из наиболее распространенных критериев — вероятность ошибки, полученная экспериментально. Однако для критерия ве­ роятности ошибки не существует явного математического выра­ жения (даже в случае нормальных распределений вычисление вероятности ошибки требует численного интегрирования). Клас­ сическая теория распознавания образов оперирует критериями разделимости классов, задаваемыми в явном виде. Поскольку раз­ делимость классов зависит не только от распределений объектов в классах, но и от используемого классификатора, то в классической теории рассматриваются критерии, оптимальные для байесовского классификатора, что позволяет минимизировать ошибку класси­ фикации. Тогда разделимость классов будет эквивалентна вероят­ ности ошибки байесовского классификатора.

Помимо корректного выбора информативных признаков, важ­ но также правильно определить размерность входного вектора признаков. Слишком малая размерность входного вектора может отрицательно повлиять на качество распознавания вследствие по­ тери информации, хранящейся в неучтенных коррелированных отсчетах. Слишком большая размерность входного вектора также может отрицательно повлиять на качество полученных алгорит­ мов, но, наоборот, из-за учета слабо коррелированных отсчетов.

В теории распознавания образов для выбора информативных признаков и сокращения размерности векторов признаков широко

используются [9, 12, 25] разложение Карунена—Лоэва, его дис­ кретный аналог — метод главных компонент и метод множествен­ ного дискриминантного анализа. Эти методы оперируют цен­ тральными (ковариационными) моментами случайных отсчетов сигналов. Последние два метода предполагают нахождение собст­ венных векторов и собственных чисел по заданной ковариацион­ ной матрице.

Вмногоканальных системах ближней локации часто инфор­ мация о пространственно-геометрических и физических признаках объектов заключена в соотношениях между детерминированными составляющими параметров сигналов при каждом из конкретных условий встреч. Задачи по построению АИС часто приходится ре­ шать в условиях неизвестных математических ожиданий, поэтому применение перечисленных выше классических методов оказыва­ ется затруднительным.

Вэтих случаях наиболее наглядным и удобным является при­ менение аппарата начальных регрессионных характеристик (см. гл. 3), который, как будет показано далее, позволяет решать по­ ставленные задачи и в условиях вырожденности или плохой обу­ словленности данных при неизвестных математических ожидани­ ях и ковариационных матрицах.

Применение регрессионных или нейросетевых алгоритмов в ближней локации позволяет решать задачи обнаружения и распо­ знавания при использовании в качестве признаков нецентрированных параметров сигналов. При этом необходимо рассмотреть во­ просы обоснования критериев для выбора информативных призна­ ков и сокращения размерности векторов признаков применительно к алгоритмам с начальными оценками случайных параметров.

Рассмотрим однослойную нейронную сеть (НС) (рис. 5.1), в которой каждый элемент из множества входов X отдельным весом соединен с каждым искусственным нейроном, а каждый нейрон выдает взвешенную сумму в сеть. Матрица весов W имеет т строк и п столбцов, где т — число входов, а п — число нейронов. Вы­ числение выходного вектора Y, компонентами которого являются выходы нейронов, сводится к матричному умножению

Y = XW.

(5.2)

Как видно из рис. 5.1, при использовании в качестве входов (признаков) нецентрированных параметров сигналов в нейросе-

11 Зак. 291

169

 

ти осуществляется обработка не-

 

центрированных значений сигна­

 

лов.

 

 

 

Исключим

из рассматривае­

 

мой сети прямые связи, т.е. поло­

 

жим wu =0, / =

1, 2,

т, и рас­

Рис. 5.1. Структурная схема од­

смотрим общий случай сети с щ

нослойной нейронной сети без

нейронами. Потребуем

на каждом

нулевых весов

/-м выходе нейрона восстановле­

 

ния z-го входного сигнала с мини­

мальной ошибкой, т.е. при обработке нецентрированных парамет­

ров сигналов с минимумом среднего значения квадрата

Про­

ведем невырожденное преобразование вектора X:

 

Y = XW,

 

т.е. выберем матрицу W из условия минимума остаточной суммы

квадратов

 

ЯНГ = у т<р = М[(Y - WX)(Y - WX)T).

(5.3)

Дифференцируя остаточную сумму квадратов *Р'РТ по W и прирав­ нивая ее нулю, для положительно-определенной и симметричной матрицы начальных корреляционных моментов К получим (см. 2-3)

Щк = - \ k / AH’

 

(5-4)

где Л = К"‘.

 

 

Отсюда следует, что весовые коэффициенты wik

в этом

случае

представляют собой коэффициенты начальной

регрессии (см.

гл. 2), минимизирующие среднее значение квадрата Ч1*,

на каж­

дом выходе нейронной сети, осуществляющей линейную обработ­ ку по алгоритму

П

У,= Z wikxk-

1=1,k*i

Рассмотрим оптимальные и квазиоптимальные алгоритм^ об­ наружения и распознавания случайных сигналов применительно к ближней локации. При обнаружении сигнала входная реализация

была представлена (см. гл. 3) как аддитивная смесь нормального нестационарного случайного сигнала, заданного вектором средних значений р и матрицей ковариаций Сс, и полосового белого шума. При распознавании помеха задавалась аналогично сигналу и отли­ чалась от последнего матрицей ковариаций и вектором средних. Вместо усреднения коэффициента правдоподобия по случайным параметрам предложено использовать оценки неизвестных слу­ чайных параметров, например на выходе линейного полосового фильтра.

При допущениях, справедливых для систем ближней локации, const, rik >0,8, квадратичные формы в алгоритмах обнару­

жения и распознавания сигналов могут быть представлены в виде

 

\2

й ( * ) г - 2 > „

(5.5)

1=1

к=1

 

Ш

где Prt — коэффициенты начальной регрессии; хк — оценки нецентрированных параметров сигналов.

Вычисляя условные плотности распределения вероятностей для нормально распределенного вектора, можно показать [1], что Хи в (5.5) представляют собой величины, обратно пропорциональ­ ные остаточным дисперсиям множественных регрессионных пред­

ставлений Df* = 1/Хц.

Ранее (см. гл. 2) начальная множественная регрессия была оп­ ределена как

 

 

П

 

 

Si = £ P A

 

 

*=1

 

 

ы

где

Р,А=

Л = К*1, К — матрица корреляционных момен-

тов;

К1к=Сл +М,Мк.

Перейдем к начальным моментам оценок случайных величин. Тогда при рассмотренных выше допущениях алгоритмы обнару­ жения и распознавания будут иметь вид

 

1

 

>у\-, (5.6)

 

 

 

 

 

\2

 

 

*

 

Х<“ Ххв*** > О, (5.7)

 

к =1

+V1=1 / TI оп/J

Х=1

*=1

 

Лчрь/

 

Ы

— 2

— 2

 

 

где Т ой и

^Ош — остаточные средние оценок случайных пара­

метров для сигнала и помехи соответственно.

На основании (5.5) неравенства (5.6) и (5.7) записаны через оста-

—-^ точное среднее значение квадрата Т 0, множественного начального

регрессионного представления. Как видно из (5.6) и (5.7), в алгорит­ мах вычисляются отношения квадрата ошибки множественных рег­ рессионных представлений координат случайного входного вектора к

соответствующим остаточным средним значениям квадратов 'Рд,.

При переходе к линейным границам области принятия реше­ ния (см. гл. 2) получены регрессионные алгоритмы (5.6) и (5.7):

ПП

 

Е з - Е * /

ы

> и х\

(5.8)

 

 

 

 

 

 

 

 

k * i

 

 

п

п

 

п

п

 

I *

? xi “ ^ Р

ikxk

* Z K "

Xi ~~^ ] Р ikxk

 

/=1

k=1

 

=1

 

 

Ы

 

Ы

k

 

 

 

 

k*i

 

Регрессионные алгоритмы имеют наглядный геометрический смысл, в них ограничивается относительное расстояние от линии на­ чальной регрессии. Алгоритмы, имеющие наглядный геометрический смысл, могут применяться независимо от закона распределения входного вектора (при одномодальных распределениях) [14].

Рассмотрим регрессионный алгоритм обнаружения и распо­ знавания двумерного входного вектора

Сй\ + Ьх2 ~К\Х2- 021*1 I > (/ Пор.

(5-10 )

где а и b — весовые коэффициенты.