Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Обнаружение, распознавание и пеленгация объектов в ближней локации

..pdf
Скачиваний:
19
Добавлен:
12.11.2023
Размер:
12.6 Mб
Скачать

В СПР функции x(t) рассматриваются только в течение конеч­ ного интервала времени Т. Для таких сигналов может быть приме­ нено приближенное разложение Котельникова.

Пусть {*(/)} — непрерывный в среднеквадратическом и стацио­ нарный в широком смысле случайный процесс, энергетический спектр Sx(со) которого непрерывен и тождественно равен нулю вне полосы частот |со| < сос = 2nft (где сос — частота среза). Для такого процесса выполняются равенства (2.3), (2.4). Этот случайный процесс с ограниченным спектром полностью определяется множеством слу­ чайных величин хк = x{kAt), где к = 0, ±1,±2, ...,±оо, а на огра­ ниченном интервале времени Т — /«-отсчетами, где тп= 2/ в7\

Случайный процесс {х(0} при указанных ограничениях пред­ ставляет сумму квазидетерминированных процессов вида

Иногда интервал At между соседними значениями случайной функции выбирают не из ширины спектра, которую полагают бес­ конечной, а из ее интервала корреляции То, т.е. полагают At - т0. В

этом случае разложение в ряд справедливо, если этот интервал много меньше интервала наблюдения Т, т.е. при

t о Д'

Однако в общем случае координаты случайного процесса {*(/)}, выбираемые согласно теореме Котельникова, являются коррелированными. Кроме того, использование этих координат ограничено условиями стационарности в широком смысле.

При представлении случайного процесса в виде совокупности случайных величин естественно его теоретико-вероятностное опи­ сание строить на основе вероятностного описания случайных ве­ личин, т.е. с использованием многомерных законов распределения, или, например, при решении задач в рамках корреляционной тео­ рии с использованием матриц корреляционных моментов.

з*

Во многих случаях для получения статистических выводов о характеристиках случайного процесса целесообразно представить его в виде суммы элементарных функций

А=О

где ф* (t) — координатная функция; Vk — центрированная слу­ чайная величина.

Полное вероятностное описание случайного процесса при по­ мощи конечномерных распределений и матриц корреляционных моментов возможно для процессов с дискретным временем, когда процесс представляет собой конечную последовательность слу­ чайных величин (например, в импульсных системах ближней ло­ кации). В остальных случаях в рамках конечномерных распреде­ лений нельзя описать процесс {*(/)} полностью.

Однако, рассматривая конечный интервал наблюдения и вы­ бирая точки tj , . . . , достаточно близко одна от другой при большом п, можно аппроксимировать процесс {*(/), ( еТ} после­ довательностью случайных величин. Тогда при описании процесса можно ограничиться конечномерными распределениями или мат­ рицами корреляционных моментов в зависимости от решаемой задачи.

Все реальные системы принятия решений и измерительные приборы, при помощи которых исследуются статистические ха­ рактеристики сигналов, имеют конечную полосу. Поэтому при теоретических исследованиях сигналов целесообразно ограничить их полосу и воспользоваться приближенным разложением Котель­ никова.

Одной из распространенных математических моделей случай­ ных процессов является гауссовский (нормальный) случайный процесс, отсчеты которого для любой совокупности моментов вре­ мени подчиняются многомерному нормальному закону рас­ пределения вероятностей

Wm(xj,..., xm, 11 ,..., tm)

i

Ытк=т

= (2я) /^(detC) ^2 exp

xikо . - и, к** - и*)

-

г /= | *=1

где С —

матрица

ковариационных моментов отсчетов х, и хк;

Cik = М

о о

о

о

-

г-1

 

X i

и Хк

центрированные величины; X =

С

матрица, обратная матрице ковариационных моментов; ц, — мате­ матическое ожидание /-го отсчета.

При представлении стационарного случайного процесса с автоковариационной функцией Сх(т) дискретными отсчетами с ин­ тервалом дискретизации At элементы С* ковариационной матрицы С могут быть получены из Сх(т):

cik-cx(\i

где / и к — номера отсчетов.

В качестве примера рассмотрим /и-мерное распределение ве­ роятностей для нормального белого полосового шума {£/ш(/)}, имеющего постоянную спектральную плотность 5Ш( / ) в полосе частот / = 0... /„ , равную

$ . ( / ) - * - у .

где £> = М [//* (/)] — дисперсия шума со средним значением

М [иш(/)] = 0 и плотностью распределения вероятностей

2 Л

(2.13)

2D

Нормированная автокорреляционная функция полосового бе­ лого шума может быть найдена как преобразование Фурье от дей­ ствительной спектральной плотности:

г(т) =

= ^ Js<)Cos(27t/T)fifr =

sin(2n/Bt)

(2.14)

2я/вт

 

 

 

Отсюда видно, что отсчеты полосового белого шума, разделен­ ные интервалом Д/ = 1/2/в, не коррелированы между собой. Сле­ довательно, при представлении такого шума рядом Котельникова вида (2.3) отсчеты шума, входящие в этот ряд, следует считать не­ коррелированными.

Таким образом, в случае нормального белого шума с ограни­ ченной полосой отсчеты ..., хк,..., хт, взятые по теореме Ко­ тельникова, являются статистически независимыми величинами и m-мерная плотность распределения вероятностей W ( х , , хт)

равна произведению одномерных вероятностей:

W(xi,...,xm) = Y\W (xi).

 

(2.15)

»= 1

 

 

 

В соответствии с выражениями (2.13) и (2.15) можно записать

1

L у > Л

(2.16)

exp

(2лD fA

. 2

' У

 

где m =2/ ВГ; T — длительность реализации.

Учитывая теорему энергий для разложения Котельникова:

т1 m

Э= \ul(t)

о^У* (=1

выражение (2.16) можно представить в виде

1

exp - _ 1_

 

(2.17)

(2лD)"^

2S о оК

 

2.3. Регрессионные статистические характеристики нецентрированных параметров сигналов и помех

При реализации нейросетевых и регрессионных алгоритмов в ближней локации в качестве априорной информации используется информация о статистической структуре сигналов и помех, полу­ чаемая путем экспериментальных и теоретических исследований. При этом при дискретизации процессов задача решается в рамках корреляционной теории. Дискретизации могут подвергаться и не­ стационарные реализации в предположении, что спектр каждой выборочной реализации x(t) ограничен частотой / в. Тогда при разложении нестационарных реализаций по ортогональным коор­

динатам целесообразно воспользоваться векторными представле­ ниями, связанными с понятием случайного вектора.

*

Пусть X = — л-мерныи случайный вектор, заданный век-

тором средних р =

Pi

и положительно определенной ковариаци­

онной матрицей

 

Qn

С =

; Q =М [(х,.-ц,)(хА- ц А)].

'и1

Ош

Обозначим матрицу корреляционных (начальных) моментов

К = к,

к,In

к„

где Kik = Cjk + р(р.А, а матрицы, обратные матрицам ковариацион­

ных и корреляционных моментов,— X= С-1 и Л = К -1 соответст­ венно. Расчленим вектор X на два подвектора так, что

С(»'

А

Х = г(2)

Р = .(2)

и обозначим

 

Е„ =Л /[Х (1)Х(|)Т],

Е22 =Af[x(2)X(2)T],

е 12 = л/ [ х (|)х (2)т],

L 21 = л/ [ х (2)х (1)т],

где индекс «т» вверху означает транспонирование.

Запишем блочную матрицу начальных моментов подвекторов ЛГ(1> и * (2>в виде

При симметричной матрице К матрица Е — симметричная, т.е. Е,2 =Е21. Проведем невырожденное преобразование подвек­

тора Х{2) Х(|)=ВХ(2) так, чтобы остаточная сумма квадратов

ЧР¥Т= 4 ^ - A f^X (1) -B X (2))(X(I)-B X (2))TJ

была минимальной. Дифференцируя остаточную сумму квадратов

Т/'РТ по В и приравнивая ее нулю, получаем

 

В = ^12^22»

(2-18)

где Е22 — матрица, обратная матрице Е22.

Матрицу В назовем матрицей начальных коэффициентов регрес­ сии. В отличие от регрессии, известной из математической статисти­ ки, матрица В определяется в конечном счете через матрицу корре­ ляционных моментов К, а не через ковариационную матрицу С.

Очень часто при реализации регрессионных систем в качестве априорной информации используют коэффициенты множествен­ ной регрессии одного отсчета случайной функции на л-1 осталь­ ных, т.е. линейное преобразование вида

П

*l=ZPlкхк-

*=2 В такой постановке задачи при расчленении вектора на под­

векторы подвектор X ^ есть скалярная величина. Тогда матрич­ ное уравнение

в е 22 = е 21

может быть представлено системой уравнений: Р12^22 +Р|3/Г2з + ... + Р1пХ’2л = * 21,

Pl2^32 + P l3*33+ --<+ P l A n = ^3I>

Pl2^n2 + Pl3^n3 + • • • + Pln^-nn = К„\.

Для положительно-определенной матрицы К уравнения име­ ют единственное решение:

Когда вычисляют начальную регрессию /-й случайной вели­ чины на п 1 остальных, перестановкой индексов показывают, что

Р,*=-

(2.19)

где Aik, Л,7 — элементы матрицы Л.

Остаточная сумма квадратов W T равна

,п ,т =2:11- в т2:22в .

(2.20)

Рассмотрим частную начальную регрессию между двумя от­ счетами случайной функции х\ и х2 со среднеквадратическими от­ клонениями Oi и 0 2, математическими ожиданиями ц.] и ц2 и коэф­ фициентом взаимной корреляции г.

Матрицы моментов будут иметь вид

С =

Г0|02

 

Ч

Ч

'

 

СТГ2

 

-г(о,о2)‘

 

 

-г(о ,а 2)-1

.-2

 

га^2

 

 

 

к = ФГ

 

 

Л=(ф?ф| - ^ , 2)“

v i

,

 

12

 

 

 

12

 

К21

ф!

 

 

 

 

 

- * 2.

 

^

 

где Т 2 — среднее значение квадрата случайной величины х .

 

Рассмотрим начальную регрессию

 

 

 

 

 

 

 

 

 

5, =р12дг2.

 

 

 

 

(2.21)

На основании равенств (2.18) и (2.19)

 

 

 

 

 

R — у. у

1 — ^ 1 2

_ ^42

СТ1О2Г + Ц1Ц2

в

- b L

(2.22)

Pl2 — М2"22 — .

-

 

Т

2

2

Р2

. - у2

 

 

A,,

 

v|/2

о22

 

 

 

 

остаточное среднее значение квадрата случайной величины х\

 

vi/2 _ \т/2

^12 _ и/2(

1 -

я,12

 

 

 

 

М О ~ М — Т Г ~ М

 

 

 

 

 

 

 

 

92

 

v i v l

 

 

 

Если ^-центрированные случайные величины, т.е. p.j = р,2 = 0, то коэффициент линейного преобразования центрированных случай-

о

ных величин (3,2 назовем коэффициентом центральной регрессии,

который в математической статистике называется частным коэф­ фициентом регрессии:

г —Ч

а 2

Отсюда

= М>| +Pi2(^2 -М^г)»

(2.23)

а остаточная дисперсия — £>10 = a* (l - г2).

о

Выражения для центральных коэффициентов регрессии Р,ь известных из математической статистики, получают из выражений для коэффициентов начальной регрессии Р,А простой заменой на­

чальных моментов центральными.

Из равенств (2.21) и (2.22) видно, что даже при отсутствии ко­ вариации 0 ,2 = го}а2 = 0 можно предсказать одну случайную ве­ личину через другую с учетом детерминированной составляющей, тогда

Pl2 ~

° 2 + и Г

Такое представление особенно полезно в системах ближней локации с учетом их специфики, когда принятие решения осуще­ ствляется в условиях неизвестных математических ожиданий на ограниченном интервале наблюдения и невозможно предсказание по равенству (2.23).

Оценки начальных коэффициентов регрессии и остаточной суммы квадратов

Оценки статистических характеристик сигналов и помех мож­ но получить, если в формулы (2.19) и (2.20) вместо соответствую­ щих моментов подставить их оценки по выборке объема N незави­ симых испытаний.

50

Пусть X ,,.... Xm— m TV-мерных векторов, и X определен как

 

1ы

X,

1 N

14/1=1

х =—Ух„ =

1 N

=

/1=1

Хм

 

—Ухтп

 

ДГ^ тп

 

 

N/1=1

 

Вычислим оценки матриц корреляционных и ковариационных

моментов:

 

 

/V /1=1

14 /1=1

N

где элемент ^Х „Х * находят как ^ xlnXjn, а элемент ХХТ— как

 

/1=1

/1=1

____

N

N

X,Xj

или

 

 

/1=1

/1=1

Оценку вектора В по уравнению (2.18) можно получить сле­ дующим образом:

в = 1 х г > х ? » (£ х ? > зе Л

(2.24)

/1=1

4/1=1

 

Найдем оценку остаточной суммы квадратов (2.20):

**' - ^ 1 (34"- вх<2’)(х<'> -вх?’)\

^/1=1

или

7VT'PT = |; X (n1)X<I1)T-BA BT,

/1=1

где

A= f x > X < 2>

Л=1

Пусть ЛГ(1) есть скалярная случайная величина а хп,..., xiN при N> т — независимые случайные величины.

Условное математическое ожидание

 

 

xin ~ Р/1*1л + • • • + fiikxln

Рipxp»

(2.25)

где п = 1,..., N] количество членов в правой части (2.25) р = т - 1.

Тогда параметр 'Pfo

есть остаточная сумма квадратов,

of0 — ос­

таточная дисперсия,

а х1п, .... х^, п - 1,..., N, можно рассматри­

вать как ТУ частных значений фиксированной переменной.

Оценку для множественного коэффициента регрессии на ос­ новании уравнения (2.24) запишем в виде

 

P/А = X ^IgKjj = К ЙА * .

(2.26)

 

 

j

 

 

 

_

N

 

 

 

 

где К у = Y jxjnxin при j

= 1,..., р;

 

 

 

 

/1=1

 

 

 

 

 

_

_

_

N

 

 

Л./у —К^-,

К* ~ ^ j Xknxjtr

(2.27)

 

 

 

 

л=1

 

Дисперсия оценки (3^

D [ b ] -

При о?0 « \\ift можно записать, что

D [ f c ] - ^-kkVrt-

Матрица ковариации оценок рЛ, ..., р,у

^kjalо>

(2.28)

или при а}0 = ц/%

Л-к/Ум-