Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Обнаружение, распознавание и пеленгация объектов в ближней локации

..pdf
Скачиваний:
19
Добавлен:
12.11.2023
Размер:
12.6 Mб
Скачать

отсчеты оценки спектральной плотности мощности (СПМ). Выбор информативных признаков сигналов самолета и верто­

лета проводился на основе двух методов:

коэффициентов множественной начальной регрессии (КМНР) (рис. 5.7);

дискриминантного анализа (таблица).

При использовании метода КМНР в качестве помехи был принят сигнал самолета. Усреднение статистических характеристик прово­ дилось по 100 реализациям акустических сигналов каждого класса для размерностей признаков и = 16 и л = 32 (см. выражение (5.15)).

Критерий

Признак (п= 16)

Признак (и = 32)

*

JA

Ц

А

Л

Ц

Гистограмма рас­

159,83

5,46

22,79

327,12

1,42

49,48

пределения Gx

 

 

 

 

 

 

Отсчеты огибаю­

0,91

0,02

0,97

1,22

0,01

2,89

щей £

 

 

 

 

 

 

Отсчеты СПМ

78,97

7,00

34,04

136,42

5,64

67,46

Дискриминантный анализ и метод КМНР показали, что наи­ лучшим информативным признаком с точки зрения разделимости классов следует признать отсчеты оценок спектров сигналов, соот­ ветствующие локальным экстремумам спектра.

Упорядоченные значения ДЧ^ = Д ' Р * Д Ч ^ для

рассмат-

риваемых информативных признаков размерностью п = 16

и п = 32

приведены на рис. 5.8-5.10. Для сравнения даны графики относи-

тельных долей дисперсии qm = кт/

Хт ковариационных мат-

/

т=1

риц информативных признаков, рассчитанных по методу ГК.

Сравнение зависимостей ДЧ^

и q„ показывает, что область

значительного уменьшения значений ДЧ*^ совпадает с областью

значительного уменьшения относительных долей дисперсии qm. Оба метода сокращения размерности дают идентичные ре­

зультаты. В методе главных компонент элементы входного вектора

0,3

0,2

0,1

0 2 4 6 8 10 12 14 т 0 2 4 6 8 10 12 14 т

ДУт,

ДV т, Ят

 

0.3

 

0,2

 

0,1

О 4 8 12 16 20 24 28 т

0 4 8 12 16 20 24 28 т

а

б

Рис. 5.8. Зависимости ДЧ^ (7) и

(2) для распределения длительно­

стей интервалов между нулями сигналов самолета (а) и вертолета (б)

ДVт, Ят

0,15

^ 2

0,1

7

0,05о

г 4: (5 8 10 12 14 т

а

6

Рис. 5.9. Зависимости

Д'Р^2 (7) и q m (2 ) для отсчетов огибающей

сигналов самолета (а) и вертолета (б)

упорядочиваются по убыванию их дисперсий (собственных чисел ковариационной матрицы). Отбрасываются те элементы входного вектора, вклад которых в суммарную дисперсию минимален. Ана­ логичным образом в методе КМНР элементы входного вектора

упорядочиваются по убыванию A'Pjj,. Отбрасываются те элементы

входного вектора, для которых эта величина, соответствующая вкладу в регрессионное представление, минимальна.

Ду

/2

 

 

Ду

 

 

ш>Чт

 

 

 

 

0,6

V ^1

 

 

0,3

 

 

0,4

 

 

0,2

 

 

0,2

 

\

 

 

0,1

 

 

0

 

 

 

 

0

 

 

-0,2

1

 

 

 

-0,1

 

 

 

(> 8 10 12 14

т 0 2 4 6 8 10 12 14 m

 

о :г 4

AH'm, Ят

 

 

Ay пи 4m

 

0,6

\

 

А

 

0,3

 

 

0,4

 

 

0,2

 

 

0,2

4 ,

 

 

0,1

 

 

0

 

 

V2

 

0

 

 

- 0,2

0

4 8

m

- 0,1

 

m

 

12 16 20 24 28

’ 0 4 8 12 16 20 24 28

 

 

 

a

 

 

6

 

Рис. 5.10. Зависимости ДЧ^2 (/) и qm(2) для отсчетов спектра, соответст­ вующих локальным экстремумам сигналов самолета (а) и вертолета (б)

При использовании метода КМНР (см. 5.1) признаки не центри­ ровались, и сравнение их проводилось по критерию (5.15). Результа­ ты исследования подтвердили полученные по классическим критери­ ям выводы, что говорит о хорошей разделимости классов сигналов самолета и вертолета в пространстве нецентрированных параметров.

При плохой обусловленности данных и априорной неопределен­ ности, при неизвестных математических ожиданиях применение клас­ сических методов анализа затрудняется. В этих условиях для анализа разделимости классов эффективнее использовать метод КМНР, так как он оперирует начальными моментами случайных величин и не требует знания математических ожиданий. Кроме того, использование метода КМНР связано с меньшими вычислительными затратами при плохой обусловленности данных (см. далее 5.3).

5.3. Применение нейросетевых методов к решению задач вычисления множественных коэффициентов регрессии и обращения плохо обусловленных матриц

Обусловленность вычислительной задачи

Проблема обусловленности данных возникает при анализе разделимости классов и сокращении размерности векторов ин­ формативных признаков в АИС ближней локации. Плохая обу-

словленность данных приводит к значительному накоплению по­ грешности при численном решении задач. Обусловленность явля­ ется одним из важнейших свойств любой вычислительной задачи наряду с корректностью задачи (существованием, устойчивостью и единственностью ее решения). Эти свойства необходимо учиты­ вать при решении задач математического моделирования.

Теоретически наличие у задачи устойчивости означает, что ее решение может быть найдено со сколь угодно малой погрешно­ стью, если только погрешности входных данных достаточно малы. Однако на практике погрешности входных данных не могут быть сколь угодно малы, точность их ограничена. Обусловленность вы­ числительной задачи [7] есть чувствительность ее решения к ма­ лым погрешностям входных данных. Задачу называют хорошо обусловленной, если малым погрешностям входных данных отве­ чают малые погрешности решения, и плохо обусловленной, если возможны сильные изменения решения. Часто оказывается воз­ можным ввести количественную меру степени обусловленности — число обусловленности. Эту величину интерпретируют как коэф­ фициент возможного возрастания погрешностей в решении по от­ ношению к вызвавшим их погрешностям входных данных.

Пусть между абсолютными погрешностями входных данных х и решения у установлено неравенство

Д (/)<У дД (х*).

(5.17)

Тогда величина vA называется абсолютным числом обусловленно­ сти. Если же установлено неравенство

5 ( / ) < V88(X*)

(5.18)

между относительными ошибками данных и решения, то величину vs называют относительным числом обусловленности. Обычно под числом обусловленности понимают относительное число обуслов­ ленности. Для плохо обусловленной задачи v :*> 1. В некотором смысле неустойчивость задачи — это крайнее проявление плохой обусловленности, отвечающее значению v = оо. Конечно, v — это максимальный коэффициент возможного возрастания уровня ошибок, и для конкретных исходных данных действительный ко­ эффициент возрастания может оказаться существенно меньше. Однако при выводе оценок (5.17), (5.18) стремятся к тому, чтобы

не завышать значений v и поэтому соотношение v » 1 все же сви­ детельствует о возможности существенного роста ошибок. Значе­ ние v, при котором задачу следует признать плохо обусловленной, зависит, с одной стороны, от предъявляемых требований к точно­ сти решения и, с другой стороны, от уровня обеспечиваемой точ­ ности исходных данных. Например, если требуется найти решение с точностью 0,1 %, а входная информация задается с точностью 0,02 %, то уже значение v = 10 говорит о плохой обусловленности. Однако (при тех же требованиях к точности результата) точность исходных данных не ниже 0,0001 % означает, что при v = 103 зада­ ча хорошо обусловлена.

Рассмотрим исходную систему линейных алгебраических

уравнений

 

Ax = f

(5.19)

с квадратной матрицей А порядка п. Для каждого «-мерного век­ тора f решение х задачи существует тогда и только тогда, когда detA * 0. В этом случае можно определить матрицу А '1, обрат­ ную матрице А, и записать решение в виде

х = A"'f.

(5.20)

Рассмотрим «возмущенную систему»

Ax = f,

(5.21)

которая отличается от (5.19) правой частью. Будем предполагать, что в матрицу А возмущений не вносится. Нас интересует, на­ сколько сильно может измениться решение х в результате измене­ ния правой части. Обозначим

5х = х -^ , 5f = f - f .

Говорят, что система (5.19) устойчива по правой части, если при любых f и f справедлива оценка

|M |< M ,|8 f|,

(5.22)

где М) > 0 — постоянная, не зависящая от правых частей f; ||А|| — норма матрицы. Оценка (5.22) выражает факт непрерывной зави­ симости решения от правой части, т.е. показывает, что ||5х|| -> 0

при ||5f|| -> 0. Наличие устойчивости очень важно при численном решении систем уравнений, поскольку почти никогда нельзя за­ дать правую часть точно. На самом деле вместо вектора f задается какой-то близкий ему вектор f. Погрешность 5f = f - f возникает, например, в результате погрешностей округления.

Легко показать, что если det А * 0, то система (5.19) устойчи­ ва по правой части. Действительно, из (5.9) и (5.11) следует урав­ нение для погрешности

A(8x) = Sf,

откуда

8х = A '1(8f),

(5.23)

И И ||А - '|М ,

т.е. выполняется неравенство (5.22) с константой Мх=||А-|||. Заме­

тим, что чем ближе к нулю определитель матрицы А, тем больше М\ и, следовательно, тем сильнее погрешность правой части может исказить искомое решение.

Выше было дано общее определение абсолютного и относи­ тельного числа обусловленности вычислительной задачи. Подроб­ нее остановимся на числе обусловленности матрицы, так как именно матрица корреляционных моментов представляет для нас непосредственный интерес. Применяя общее определение, можно сказать, что число обусловленности матрицы есть мера возраста­ ния относительной погрешности решения задачи, в которой фигу­ рирует данная матрица. Следовательно, обусловленность матрицы корреляционных моментов в нашем случае непосредственно влия­ ет на точность вычисления коэффициентов начальной множест­ венной регрессии.

При решении системы (5.19) на ЭВМ и представлении чисел с плавающей запятой более естественными характеристиками явля­ ются относительные погрешности

ин

М’ И '

Получим оценку, выражающую относительную погрешность решения через относительную погрешность правой части. Для это­ го используем неравенство

В результате мы придем к требуемой оценке:

(5.25)

где

М„ - |А - ||Л | .

(5.26)

Число МА, входящее в эту оценку, называется числом обусловлен­ ности матрицы А. Оно характеризует степень зависимости относи­ тельной погрешности решения от относительной погрешности правой части. Матрицы с большим числом обусловленности Мл называются плохо обусловленными матрицами. При численном решении систем с плохо обусловленными матрицами возможно сильное накопление погрешностей. Подчеркнем, что число обу­ словленности не связано с каким-либо численным алгоритмом, а характеризует только свойство системы (5.19). Чаще его обозна­ чают как cond(A), в дальнейшем будем придерживаться этого обо­ значения.

С введением понятия сингулярных (собственных) чисел смысл числа обусловленности становится яснее. Так как стандартное число обусловленности матрицы А есть

cond (А) = IА-1 |||А||,

(5.27)

число обусловленности можно интерпретировать как отношение максимального коэффициента растяжения векторов (сингулярного числа) под действием матрицы А к минимальному коэффициенту (сингулярному числу).

Действительно, исходя из сингулярного разложения, число обусловленности матрицы А полного ранга есть отношение

cond(A) =

где Отах И CTmin наибольшее и наименьшее сингулярные числа матрицы А. Если А имеет недостаточный ранг, то crmjn = 0, и гово­ рят, что число cond(A) бесконечно.

Ясно, что cond(A) > 1. Если cond(A) близко к единице, то столб­ цы А независимы, если cond(A) большое, то столбцы А зависимы.

Для квадратной матрицы матрица А считается более вырож­ денной, чем матрица В, если cond(A) > cond(B). Если матрица А —

ортогональная, то cond(A) = 1. Здесь норма вектора определяется как

,/2

||х|| = (хтх) , норму матрицы можно определить как ||А|| = <ттах.

Число обусловленности зависит, вообще говоря, от выбора нормы векторов или, иными словами, от способа измерения вход­ ных данных и способа решения задачи. В частности, выбору нор-

мы ||х||р (1<р<оо) отвечает condp (A) = ||A-l||^||A||p .

Обусловленность матриц корреляционных моментов информативных признаков

Проблема обусловленности матрицы корреляционных моментов информативных признаков возникает при решении задачи нахожде­ ния КМНР. Для получения КМНР требуется обратить матрицу кор­ реляционных моментов случайного входного вектора. Обусловлен­ ность матриц рассмотрим на примере матрицы ковариационных моментов интервалов между нулями случайного процесса. Выбор этой матрицы основан на возможности получения ее теоретически. При этом не требуется вычисления выборочной корреляционной матрицы, элементы которой подсчитываются на основании имею­ щихся наблюдений. Использование вычисленного значения матри­ цы позволит получить более достоверные результаты.

Элементы матрицы С ковариационных моментов интервалов между нулями стационарного случайного процесса можно найти по формуле (2.52):

С(т,

<°oJ

- в .----\

L

1 +

1* ®oJ

- л

( / - * - 1 ) -

® 0 J

(5.28)

где В,р — корреляционная функция фазы процесса, определяемая по формуле (2.56). Корреляционную функцию фазы Bv необходи­

мо определить при фиксированных значениях аргумента т = р~^~.

щ

0
0.10 ,2 0.3 0,4 0,5 0,6 0,7 0,8 0,9 a
Рис. 5.13. Зависимость числа обу­ словленности матрицы С от а при п - 10 для сигнала с прямоугольным спектром
400
800
1200
cond(C)

 

300

 

 

 

 

200

 

 

 

 

100

 

 

 

 

0

0,3

0,4 0,5 0,6 0,7 0,8

0,9 a

 

0,1 0,2

Рис. 5.11. Зависимость числа обу­

Рис. 5.12. Зависимость числа обу­

словленности матрицы С от а при

словленности матрицы С от а при

п = 2 для сигнала с прямоугольным

п = 5 для сигналов с прямоуголь­

спектром

ным спектром

 

Математическое ожидание случайной величины т,: рт/ =\ixk = — .

со0

Как показано в 2.4, ковариационные моменты интервалов между нулями зависят от относительной ширины полосы спектра процес­ са а. Это дает возможность исследовать ее обусловленность cond(C) не только в зависимости от размерности входного вектора N, но и в зависимости от относительной ширины полосы спектра сигнала а (рис. 5.11-5.13).

Из приведенных зависимостей вцдно, что при уменьшении отно­ сительной ширины полосы энергетического спектра стационарного случайного процесса число обусловленности матрицы корреляцион­ ных моментов интервалов между нулями резко возрастает. При моногармоническом процессе матрица С вырождена (см. формулу (5.28)), следовательно, она не имеет обратной и вычислить коэффициенты на­ чальной регрессии через элементы обратной матрицы не представляет­ ся возможным. Опираясь на определение числа обусловленности мат­ рицы, можно сделать вывод, что погрешности вычислений с по­ мощью таких матриц возрастают на несколько порядков, что явля­ ется недопустимым.

С увеличением размерности входного вектора число обуслов­ ленности резко возрастает. Этот рост тем больше, чем меньше относительная полоса спектра сигнала а.

Таким образом, если размерность входного вектора превышает 10 отсчетов и а < 0,3, вычисление коэффициентов множественной регрессии через элементы обратной матрицы может повлечь за со­ бой сильное накопление ошибок (более чем на три порядка). Вы­ численные в этих условиях оценки КМНР с трудом можно считать достоверными. В качестве альтернативного подхода предложено получать коэффициенты регрессии при помощи нейронной сети.

Получение коэффициентов множественной регрессии и обращение матриц при помощи нейронной сети

При большой размерности матрицы ее обращение становится весьма трудоемкой задачей. Чтобы решить эту задачу, можно вос­ пользоваться нейросетевым методом и получить коэффициенты множественной регрессии интервалов между нулями как веса wу в результате обучения нейросети (см. 5.1).

Рассмотрим однослойную нейронную сеть с п входами и од­ ним выходом, обрабатывающую интервалы между нулями нор­ мального стационарного случайного процесса.

Так как множественные коэффициенты регрессии есть веса в линейном преобразовании вида

ЛТГ'

xi= L h k xk

к=1 k*i

Рис. 5.14. Однослойная нейрон­ ная сеть с четырьмя входами и одним выходом для получения коэффициентов множественной регрессии

( х, = х, есть длительность /-го интервала), то веса н»,* выполняют роль множественных коэффици­ ентов регрессии (см. формулу (5.4)), если принять отклик ней­ рона out, = Xj (рис. 5.14).

Сеть обучалась на математи­ ческой модели сигнала по алгорит­ му обратного распространения [24].

Как показывают результаты расчетов (рис. 5.15), ошибка дос­ тигает малого значения (е « КГ5) уже через 100 тыс. итераций.