книги / Обнаружение, распознавание и пеленгация объектов в ближней локации
..pdfИз неравенства (5.10) следует, что выбором коэффициентов а, Ъи К можно задавать положение линейных границ области приня тия решения относительно линии регрессии, определяемой урав нением (см. 3.4)
*2~Р21*1 =0.
Действительно, неравенство (5.10) можно заменить эквива лентной системой неравенств:
\х\{а + К Ы - Ы к -Ь )> и по? |
при |
х2 - Р 21х,>0; |
\x\(a -K P 2i) + x2(b + K)>Unop |
при |
х2 - р 21х,<0. |
Как видно из (5.11) и рис. 3.6, двухканальный регрессионный алгоритм можно реализовать с помощью двухслойной нейронной сети с пороговыми активационными функциями, где 1-й слой реа лизует неравенства (5.11), а 2-й слой, состоящий из одного нейро на, реализует операцию И (рис. 5.2). Параметры сети:
матрица весов 1-го слоя
вектор порогов 1-го слоя
wu
W =
W21
П= «1
*2
wn |
|
Q+ K.$2\ |
a-K$2\ |
W22 |
b - K |
b + K |
|
1 |
.ОO |
|
|
вектор весов 2-го слоя |
S = Si |
0,5 |
|
0,5’ |
|||
|
s2 |
||
порог 2-го слоя |
-1 < s0 <-0,5. |
Можно показать, что при раскрытии модулей в выражениях (5.8) и (5.9) мы приходим к нейроподобным структурам, реали зующим эти алгоритмы аналогично двумерному случаю.
Недостаток регрессионного подхода заключается в необходи мости оптимизации параметров алгоритмов (коэффициентов К), что при большой размерности входного вектора значительно ус ложняет решение задачи. Приведенный в [24] метод обратного распространения применительно к нейроалгоритмам позволяет оптимизировать (обучить) нейросистему. Перед обучением нейро системы целесообразно провести обоснование информативных признаков и минимизацию размерности входного вектора, кото рые в соответствии с изложенным выше могут быть выполнены
Рис. 5.2. Функциональная схема двухслойной нейронной се ти, реализующей алгоритм (5.11):
F— пороговая функция активации; z — отклик системы (0 или 1)
применительно к ближней локации на основании регрессионных методов с использованием начальных множественных регрессион ных представлений. В результате анализа регрессионных алгорит мов обнаружения и распознавания и сравнения их с нейросетевыми предложен подход к решению проблемы на основе регрессион ных алгоритмов обнаружения и распознавания сигналов.
При обнаружении сигналов на фоне белого шума в регресси онных алгоритмах (см. выражение 5.6) необходимо вычислять квадраты ошибок множественных начальных представлений вида
\ 2
(=1 *=1
ы
где p/Jt — коэффициенты начальной регрессии; хк — оценки Не-
центрированных параметров сигналов. Регрессионная оценка слу чайного параметра х, есть
174
Ал
* = £ Р л « - *=i
k *i
Остаточную сумму квадратов ошибок множественных началь ных регрессионных представлений в регрессионных алгоритмах запишем в виде
|
|
|
|
\2 |
|
|
* '“ £ Р л Хк |
|
|
|
|
|
к=1 |
|
|
|
|
Ы |
|
1—П |
v f +±M |
|
|
-2£ р,а , (5.12) |
- Z |
+ 2 £ |
р,лРа |
||
/=1 |
А=1 |
* = 1 |
|
к=1 |
|
|
к *Ц *к |
**/ |
|
где M[Z] — оператор математического ожидания; Ч7,2 — среднее |
||||
значение квадрата оценки /-го параметра; |
— корреляционный |
|||
момент оценок параметров / и Аг, |
= м[;с/х* J — корреляцион |
ный (начальный) момент оценок случайных параметров ли и хк. Если из остаточной суммы квадратов ошибок множественных
начальных регрессионных представлений исключить оценку хт и
вычислить |
полученное |
при |
этом |
остаточное среднее |
значение |
— 2 |
— 2 |
— 2 |
— 2 |
Т0 получим |
|
^О-т и разницу AVFW= Ч^-т - |
|
||||
|
( |
|
|
\ |
|
|
|
|
- 2 £ * и Р » Р * + 2 а д м |
(5.13) |
|
|
/=1 |
|
ы |
|
|
|
i*m |
|
ы |
|
|
|
\ |
|
Ы т |
у |
|
При обнаружении сигналов для учета вклада каждой т-й ком поненты входного вектора в регрессионной модели следует учи тывать среднее значение квадрата ошибки регрессионного пред-
— 2
ставления Axf m. С этой целью для всех т необходимо упорядочить
— 2
по убыванию величины Д ¥ т и отбрасыванием (п - q) последних
значений сформировать вектор информативных признаков раз мерностью q, который в дальнейшем может быть использован при исследовании нейросетевой системы обнаружения сигнала.
При распознавании сигнала от помехи (см. 3.5) регрессионные алгоритмы могут быть представлены в виде неравенств (5.7) или (5.9). Из выражения (5.7) для вектора оценок параметров сигнала
(3c,c,3c2c,...,3c') при усреднении ошибок регрессивных представле
ний по областям существования сигнала и помехи следует, что
( |
\ 2 |
|
п |
YCL |
|
М */' - 1 й |
||
X |
||
к=1 |
) |
|
k*i |
и
му1
хк
к=1
Ы
— остаточные средние значения квадратов множественных на чальных регрессионных представлений оценок случайных пара метров для сигнала и помехи соответственно, а
М |
7е |
ош.п / |
XL |
||
|
к=\ |
|
|
Ы |
|
— среднее значение квадрата ошибки регрессионного представле ния для помехи при наличии на входе сигнала. Тогда
п U/2
V"» ош.п I > п. |
(5.14) |
Здесь используются оценки соответствующих статистических
А |
А |
характеристик |
и vF„ul.n/. Как следует из (5.14), при распозна |
вании сигналов от помех и сокращении размерностей векторов входных реализаций необходимо отбирать те информативные па
раметры, для которых отношения оценок средних значений квад ратов ошибок регрессионных представлений для помехи при на личии на входе сигнала к оценкам остаточных средних квадратов множественных начальных регрессионных представлений помехи в наибольшей степени превосходят единицу:
(5.15)
что соответствует максимальному разносу в пространстве облас тей существования сигналов и помех, оцененному относительно линий начальных регрессий.
5.2. Сравнение классических и регрессионных методов сокращения размерности и выбора информативных признаков сигналов
Проведем сравнение методов выбора информативных признаков сигналов на примере задачи распознавания акустических сигналов от самолета и вертолета на основе реализаций, полученных в результате экспериментальных исследований и математического моделирования.
Для сравнения метода выбора информативных признаков и со кращения их размерности на основе коэффициентов множественной начальной регрессии (КМНР) (без использования оценок математи ческих ожиданий) с классическими методами рассмотрим метод дискриминантного анализа и метод главных компонент (ГК).
При дискриминантном анализе для формирования критериев разделимости классов использованы матрицы рассеяния внутри классов S#, и между классами SB [9,25].
Матрица рассеяния внутри классов показывает разброс объек тов относительно векторов математических ожиданий классов:
(5.16)
/= |
где шj —■вектор средних значений /-мерной выборки, принадле
жащейУ-му классу.
Матрица S„, пропорциональна ковариационной выборочной матрице для совокупности /-мерных данных. Она симметричная, положительно-определенная и, как правило, невырожденная.
Матрица рассеяния между классами может быть определена несколькими способами. Наиболее распространенный из них опи сывается выражением
Sfl = (m, - m 2)(m, - ш 2)т
Широко распространены четыре критерия, в которых исполь зуются эти матрицы:
y i - t r(s^ 's 5),
y2=in|s^se| = in{M|/|s^|},
J3=trSa - n ( tr S ^ -c ),
где Ц — множитель Лагранжа; с — константа;
J4 = tr Sд/tr Sjp,
где trS — след матрицы S.
Критерий /4 является наиболее распространенным. Критерии J\ и Ji инвариантны относительно любого невырожденного линей ного преобразования, тогда как критерии J3 и JA зависят от систе мы координат. Одно из важных преимуществ этих критериев за ключается в том, что их можно использовать и при наличии мно гих классов (множественный дискриминантный анализ). Требуется только обобщить определение матриц рассеяния. Однако при уве личении числа классов эти критерии, как и любые другие, стано вятся все менее точными индикаторами разделимости классов, по этому оптимально учитывать только парную классификацию.
Для анализа разделимости классов акустических сигналов от самолета и вертолета использованы критерии J\ и У4. В качестве критерия разделимости двух классов рассматривалось также рас стояние Бхатачария. Для нормальных распределений расстояние Бхатачария имеет вид
det^(C 1 + C2)
m1+m2) + - ln
detC, 2 detC22
где m,, m2 — векторы средних значений выборок каждого клас са; С, и С2 — ковариационные матрицы.
Расстояние Бхатачария является эффективным критерием раз делимости двух классов. Этот критерий позволяет определить верхнюю границу вероятности ошибки е для случая равных апри орных вероятностей классов:
е<ехр[-р(1/2)].
В классической теории распознавания образов для сокращения размерности векторов признаков широко используется разложение Карунена—Лоэва [9,12,25]. Его дискретный аналог — метод ГК.
Метод ГК оперирует центральными (ковариационными) мо ментами случайных отсчетов сигналов и предполагает нахождение собственных векторов и собственных значений по заданной кова риационной матрице.
Для сокращения размерности векторов признаков при решении задачи обнаружения и распознавания сигналов самолета и вертолета использован метод ГК. При нахождении главных компонент из всех характеристик исследуемой генеральной совокупности существенное значение имеет только ковариационная матрица:
С |
= \cij\> |
где Су = М[(х,- -ц , )(*, - р у)], |
i j = 1, т. |
В общем случае /-й главной компонентой называется нормиро ванная линейная комбинация т исходных признаков х(1), х{2\ ..., х .
У 0 = /„;с(,) + /,2х(2) +... + lipx(m),
которая среди всех прочих линейных нормированных комбинаций, некоррелированных со всеми предшествующими, обладает наи большей дисперсией. Таким образом, все главные компоненты пронумерованы в порядке убывания их дисперсий:
•ОуI) ^ |
^ > Dylm) • |
В выражении для /-й главной компоненты 1, есть /-й собствен ный вектор ковариационной матрицы С. Его компоненты определя-
( |
т |
\ |
ются как нормированное |
1 ' Н |
решение системы уравнений: |
\j=I |
J |
|
|
(С-Х ,1)1,=0 , |
где X/ — 1-й по величине корень следующего уравнения или /-е собственное число матрицы С:
|С-Х1| = 0.
При этом дисперсия главной компоненты Z)y0 = X,-.
Разложение случайного вектора по собственным векторам ко вариационной матрицы и есть дискретный аналог разложения Ка- рунена—Лоэва. Ковариационная матрица "Ly главных компонент
/ > , у 2), ...,Ут) имеет вид
X, |
О |
О |
|
О Х , |
О |
|
|
|
2 |
|
|
0 |
0 |
х р |
|
Обобщенная дисперсия — |
сумма дисперсий (Z>yi) + |
+ |
|
+... + Z)yn) j главных компонент ■— |
равна сумме дисперсий |
(Z) (|, + Dxl2, + ...+ Dxlm)) исходных признаков. Это дает некоторую
основу при принятии решения о том, сколько последних главных компонент можно без особого ущерба изъять из рассмотрения, со кратив тем самым размерность исследуемого пространства. Ана лизируя изменение относительной доли дисперсии
q{m') Х| +Х2 +... + \ т> 1
X) + Х2 + ...+ ХД,
вносимой первыми главными компонентами, можно определить чис ло компонент, которое целесообразно оставить в рассмотрении. Так формируется вектор главных компонент (размерность»0 т)>которые далее могут использоваться как информативные признаки.
Рис. 5.3. Нормированная реализация сигнала самолета
Х/Хтах
Рис. 5.4. Нормированная реализация сигнала вертолета
Экспериментальные реализации акустических сигналов самолета и вертолета для подавления шума ветра были получены на выходе фильтра высоких частот с частотой среза 200 Гц (рис. 5.3, 5.4). Вы бор длины реализации осуществлялся из соображений сохранения свойств стационарности и эргодичности случайного процесса на длине вводимой реализации. В результате для получения оценок энергетического спектра случайных процессов были выбраны длины реализаций, равные //= 16384 отсчетам при частоте дис кретизации F = 10000 Гц.
По имеющимся в распоряжении исходным последовательно стям отсчетов 50-ти реализаций сигналов были получены спектры сигналов самолета и вертолета (рис. 5.5, 5.6).
Для сравнения методов выбора информативных признаков и сокращения их размерности проанализируем следующие признаки сигнала:
длительности интервалов между нулями т; отсчеты огибающей Е\
распределение длительностей интервалов между нулями GT (гистограммная оценка);
о |
200 |
400 |
600 |
800 |
1000 1200 1400 |
1600 |
1800 /,Г ц |
Рис. 5.5. Нормированная оценка спектральной плотности мощности реа лизации сигнала самолета, сглаженная по 20-ти отсчетам
Рис. 5.6. Нормированная оценка спектральной плотности мощности реа лизации сигнала вертолета, сглаженная по 20-ти отсчетам
а |
б |
Рис. 5.7. Значения yt (см. (5.15)) для гистограммы распредения длитель ностей интервалов между нулями (кривая /), отсчетов огибающей (кри вая 2) и локальных экстремумов СПМ (кривая 3) (размерность признаков п = 16 (#), п = 32 (б))