Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Основы теории оценивания с приложениями к задачам обработки навигационной информации. Ч. 1 Введение в теорию оценивания

.pdf
Скачиваний:
36
Добавлен:
19.11.2023
Размер:
26.49 Mб
Скачать

В частности, при Ь = Ь( = (0,...0,1,0000)т из (2.4.12) вытекает

I

 

М {eyj} = 0, /' = 1 .т .

(2.4.13)

Равенства (2.4.10), (2.4.11), (2.4.13) означают, что ошибка оценки е = д: —х(у) ортогональна вектору оценки х(у), век­

тору измерений у, произвольной линейной комбинации его компонент и каждой компоненте по отдельности.

Поскольку х = х(у) + х - х ( у ) , из сказанного следует, что век­ тор х может быть представлен в виде суммы двух некоррелиро­ ванных (ортогональных) случайных векторов [16,47]

х = х(у) + е

(2.4.14)

Один из этих векторов х(у) = К1"'у представляет собой линей­ ное преобразование исходных измерений у, , / = 1./и, его называ­

ют также ортогональной проекцией вектора х на пространство,

образованное у ,, i = 1 .т . Второй вектор е = л- - Je(у) ортогона­

лен этому пространству в том смысле, что м|е(/,у)т}=0 при произ­ вольной п х т матрице L .

Равенство (2.4.10) нередко используется как определение ли­ нейной оптимальной оценки, т.е. задача оценивания может быть сформулирована так: найти линейную оценку х(у) = Ку , ошибка которой ортогональна вектору измерений, т.е. удовлетворяет уравнению (2.4.10). Решение будет определяться соотношением (2.4.8) и в этом смысле такая постановка задачи оценивания экви­ валента задаче нахождения линейной несмещенной оценки с ми­ нимальной дисперсией.

Заметим, что при наличии информации о первых двух момен­ тах для составного вектора г = (хт,ут)т , представление, аналогич­ ное (2.4.14), может быть легко получено и для вектора у. Т.е. век­ тор измерений может быть представлен в виде суммы

у= у(х) + 8 двух векторов: линейного преобразования вектора х

инекоррелированного с ним вектора ошибок (см. задачу 2.4.5).

Св о й с т в о 3. Матрицы ковариаций ошибки линейной оп­

тимальной оценки, удовлетворяют следующему неравенству

[16, 80]: Р - Р > 0, где Р - матрица ковариаций произвольной ли­ нейной несмещенной оценки, отыскиваемой в виде (2.4.3).

Напомним, что выражение Р> 0 для матрицы означает неот­ рицательную определенность соответствующей ей квадратичной формы. В связи с приведенным неравенством молено говорить о том, что линейная оптимальная в среднеквадратическом смысле оценка минимизирует матрицу ковариаций ошибок оценивания, а сама апостериорная матрица ковариаций Р характеризуют потен­ циальную точность оптимального оценивания в рамках байе­ совского подхода в классе оценок, линейным образом завися­ щих от измерений. Диагональные элементы этих матриц соответ­ ственно определяют потенциальную точность оценивания компо­

нент X j , j = \.n.

Св о й с т в о 4. Оценка (2.4.8) минимизирует определители матриц Р [80].

Св о й с т в о 5. Оптимальная линейная оценка т -мерного вектора х , связанного с п -мерным вектором х линейным преоб­

разованием х = 7х, где Т - произвольная m х п матрица, опреде­

ляется как х(у) = 7 x (v ), где х(у) - оптимальная линейная оценка вектора х [16, 80].

2.4.3. Решение линейной задачи.

Взаимосвязь с алгоритмами метода наименьших квадратов

Из выражения (2.4.8) следует, что для получения линейных оп­ тимальных оценок необходимо располагать математическими

ожиданиями х , у и матрицами

Рх,

Ру Рху задающими два

первых момента вектора z =(хт

,у т)т

Как отмечалось выше, при

решении задач обработки навигационной информации обычно считаются известными статистические свойства для оцениваемого

вектора и ошибок измерения, т.е. для вектора z - (хт

,vT)T В

связи с этим возникает проблема нахождения значений

у ,

Ру и

Рху которая легко решается для линейной

задачи

(2.1.10),

(2.1.11). Действительно, задаваясь 7 = (хт ,vт )Т

p x , v _

Рх

В

 

 

ВТ

R

и принимая во внимание результаты решения примера

1.3.5,

212

 

 

 

можем записать:

у = Нх + v ;

рх

НРХ+ВТ

P z =

!

|

_____

1 ^ й- а*.о

=

 

 

1

1

 

 

РХН Т+ 5

, (2.4.15)

НРХН Т+ Я5 + 5 ТЯ Т +R

где матрица В определяет взаимную корреляцию х и v Учитывая тот факт, что Рху = РХНТ+ В , Ру = НРХНТ + НВ+

+ BTHr + R , легко конкретизировать выражения (2.4.7), (2.4.8) (см. задачу 2.4.2). В частном случае, когда х и v не коррелированы, а v - центрирован, т.е. v = 0 и 5 = 0, соотношения для оптималь­ ной оценки и матрицы ковариаций ее ошибок могут быть пред­ ставлены в виде

 

х(у) = х + К 1"'(_у - Нх),

(2.4.16)

где

К Нп =(РХН Т)(НРХН Т + R)'U,

(2.4.17)

р Чп = р х _ р хн

т (#р*я т + Л)-1 н р х - ( Е - Ки"Н)Рх

(2.4.18)

Учитывая справедливость (1.4.27), (1.4.28), запишем:

 

 

K lin = PIinН тR~l

(2.4.19)

pim =pp.v + H TR -IH j

(2.4.20)

Необходимо обратить внимание на одно весьма важное обстоя­ тельство, имеющее существенное прикладное значение - алго­

ритм вычисления линейных оптимальных оценок в линейной задаче полностью определяется первыми двумя моментами

для составного вектора z = (x-T ,vT)T и не зависит от вида

ф.п.р.в. f x v(x,v). Отсюда следует, что при произвольном виде

этих функций, имеющих одинаковые первые два момента, алго­ ритмы вычисления оптимальных в среднеквадратическом смысле линейных оценок и соответствующих им матриц ковариаций так­ же будут одинаковыми. Иными словами, линейный оптималь­

ный алгоритм в линейной задаче не зависит от характера рас­ пределений оцениваемого вектора и ошибок измерения. Заме­ тим, что в нелинейной задаче, как будет показано ниже, это ут­ верждение несправедливо.

Анализ приведенных соотношений показывает, что с их ис­ пользованием не только удается синтезировать алгоритм, но, в сущности, и решить задачу анализа точности, поскольку для этих целей следует использовать матрицу ковариаций ошибок оценива­ ния, которая вычисляется с помощью выражений (2.4.18) или (2.4.20). Причем весьма существенно, что для ее нахождения не требуется специальных процедур, поскольку она фактически фор­

мируется, как следует из (2.4.19), при вычислении К 1т

♦ П р и м е р 2.4.1. Найдем выражение для оптимальной линейной оценки и соответствующей ей дисперсии скалярной случайной величины

х,

равномерно распределенной

в интервале

Ь Ъ , по измерениям

 

 

 

2 2

у

—х + Vj, i 1, в которых

V,- независимые между собой и от х

а а

случайные величины, равномерно распределенные в интервале

Применительно к рассматриваемой задаче для оптимальной линейной оценки и соответствующей ей дисперсии получим:

 

Cf2

 

 

III

Xй"(у ) = х +

0

 

■£ {у, - X - v) ;

Г + суп

,=]

p lin

_

 

2

2

° 0

Г

 

г

2

 

2

 

 

+ а 0т

которые после подстановки значений математических ожиданий х = 0 ,

v = 0 и дисперсий a Q - о

! 12, г = а /12 запишем:

 

 

т

 

2 » п

 

+ b т)Хы\ у, • f" “ - 12(а2 +Ь2т)

 

В частности, при а « b

I

т

.2

 

имеем: хИл(у) « — У ] у

> Pîin

 

т

1

12т

 

Приведенный алгоритм будет оптимальным линейным алгоритмом не только для случайных величин с равномерным распределением, но и для любых центрированных случайных величин, имеющих произвольное распределение и заданные дисперсии <JQ =Ь2 /\2, г2 = а2 / 12. В частно­

сти, этот алгоритм будет оптимальным для центрированных гауссовских случайных величин с такими же дисперсиями.

-1 1 1

П р и м е р 2.4.2. Считаем, что ошибки измерений в (2.1.3) являются некоррелированными между собой центрированными случайными вели-

чинами с одинаковыми дисперсиями, равными г 2 , а оцениваемые коэф­

фициенты полинома представляют собой центрированные (х = 0), не­ коррелированные между собой и с ошибками измерений случайные ве­

личины с матрицей ковариаций рх = оС

О Найдем линейную опти­

О

о?

мальную оценку этих коэффициентов и соответствующую ей матрицу ковариаций.

Принимая во внимание вид матрицы Я, задаваемой соотношением (2.1.4), и тот факт, что R=rE с использованием соотношений (2.4.16), (2.4.19), легко получить следующие выражения для линейных оптималь­ ных оценок и матрицы ковариаций ее ошибок:

1

,4

+

 

О0

 

 

г-lI

 

 

г2

1 V .

 

 

/. 2

,-=1

 

 

 

1

m

pH" _

2

+ 2

C70

Г

 

 

1

л?

^ ч

 

1

1 V , 2

2 +

2

 

1

г2 ^

I

i=1

i

i m

 

1

»____

1------

-1

 

Учитывая соотношения (2.2.6), легко убедиться, что полученные оценки и матрица ковариаций совпадут с оценками и матрицей ковариа­

ций в ММНК, если принять х = 0; D = à 0 <7/ = —, i = l.m

Анализ полученных соотношений и сопоставление с соотноше­ ниями, соответствующими методу наименьших квадратов, пока­ зывает их определенное совпадение. Обсудим этот вопрос более подробно. Сравнивая выражения (2.4.16), (2.4.19), (2.4.20) с выра­ жениями (2.2.17), (2.2.18), нетрудно сформулировать следующее утверждение.

В линейной задаче оценивания при отсутствии корреляции менаду оцениваемым вектором и вектором ошибок измерения (5=0) и соответствующем выборе критерия в ММНК, когда

в качестве х принимается значение, совпадающее с матема­

тическим ожиданием вектора х, a D = (Px)~l, QrR'1, оценки

ММНК совпадают с линейными оптимальными оценками.

Отсюда, в частности, следует, что при выполнении указанных выше условий, оценки ММНК в линейной задаче обладают всеми свойствами, перечисленными в предыдущем подразделе, в том числе они являются несмещенными байесовскими оценками с ми­ нимальной дисперсией среди всех линейных оценок.

Сопоставление между собой различных вариантов МНК было проведено в подразделе 2.2.4. Поскольку при сделанных предпо­ ложениях линейная оптимальная оценка совпадает с ММНК, по­ лученные в подразделе 2.2.4 выводы относительно взаимосвязи ОМНК и МНК с ММНК в полном объеме распространяются на случай выявления их взаимосвязи с оптимальными в среднеквад­ ратическом смысле линейными оценками.

В частности, если считать выполненным условие

(Px)~l « H TR~lH

(2.4.21)

и, кроме того, принять R = r2E , т. е. полагать, что ошибки измерения есть некоррелированные между собой случайные величины с одинаковыми дисперсиями, то тогда можно говорить о практиче­ ском совпадении оптимальных в среднеквадратическом смысле линейных оценок с оценками обычного МНК. В частности, усло­

вие (2.4.21) в примере 2.4.2 сводится к неравенствам a j} » — ,

 

т

q 2 >:>

г2 9при выполнении которых все рассматриваемые оценки

1

т

1 'г

н

будут между собой совпадать.

Из сказанного следует, что оценки и соответствующие им ха­ рактеристики точности, полученные для ММНК в рассмотренных примерах 2.2.2-2.2.5, можно трактовать как линейные оптималь­ ные байесовские оценки.

2.4.4. Решение нелинейной задачи

Обсудим возможность построения линейного оптимального алгоритма оценивания вектора х по измерениям у применитель­

но к нелинейной задаче, т. е. в случае, когда измерения представ­ ляются в виде [83]

y = 5(x)+v

(2.4.21)

Введем составной вектор г =(хт, у г )т Из результатов подраз­ дела 2.4.1 следует, что линейная оптимальная оценка х по измере­ ниям (2.4.21), минимизирующая критерий (2.4.1) в классе линей­ ных оценок, и соответствующая ей апостериорная матрица кова­ риаций ошибок отыскиваются с помощью соотношений (2.4.8),

(2.4.9):

х(у) = х + Р * ( Р у)~'(У - У ) = х + К Ш,(у - ÿ) ; (2.4.22) plin _рх _ рху рУу\рух = рх _ jçlinpyx

где х , у и Р ху Р у - соответствующие математические ожидания

и матрицы ковариаций.

Таким образом, для вычисления линейных оптимальных оценок и матрицы ковариаций ее ошибок необходимо, зная два первых

момента для вектора z = ( x T, vT)T и располагая соотношением

(2.4.21), найти математическое ожидание у , взаимно ковариаци­

онную матрицу Р ху и матрицу ковариаций, Р у

для вектора изме­

рений у Считая для упрощения, что векторы х

и v независимые

между собой, a v , кроме того, центрированный, можем записать следующие выражения:

У = М у (у ) = M xv{s(x) + v}= | s(x)f(x)dx ;

(2.4.23)

Рху = Мху \ х -

*)(>>- ÿ)T }= М

j> - х)(.у(а-)+ v- ÿ)r}=

(2.4.24)

, у *

'

= J (а - x)(s(x) - y f f { x ) d x ;

Р у = M xv |(_v - у)(У ~ ^ )Т }= } J(s(x) + v - T)Oî(.v) + v - ÿ )Tf(x, v)dxdv =

= J(J (A) - ÿ)(*(x) - ÿ f f ( x ) d x + R . (2.4.25)

Таким образом, проблема синтеза линейного оптимального ал­ горитма и анализа его точности при решении нелинейной задачи сводится к вычислению интегралов (2.4.23)-(2.4.25) и последую­ щему использованию соотношений (2.4.22).

Следует обратить внимание на то, что в отличие от линейной

217

задачи, в которой для построения алгоритма достаточно распола­ гать только первыми двумя моментами для составного вектора, требуется еще и знание ф.п.р.в. f(x) для оцениваемого вектора.

Для лучшего понимания сути линейного алгоритма примени­ тельно к нелинейной задаче запишем исходные измерения с по­ мощью линейного представления в виде

y = ÿ + H ( x - x ) + v ,

(2.4.26)

где у - независимый от д: центрированный случайный вектор с

матрицей ковариаций P v

Найдем такие значения Я и Pv , при которых матрицы кова­

риаций Ру и Рху будут совпадать с соответствующими матрица­

ми ковариаций для нелинейных измерений. Сделать это нетрудно,

если учесть, что в линейной задаче Рлу = РхЯ т

а

Ру = НР ХН Т + R и таким образом:

н= р ух(р хУ

р7 = р у ~ р ух(рхУ р ху

Принимая во внимание эти соотношения и выражения (2.4.24), (2.4.25), получаем:

 

Я = { (s(x) - у)(х - х)тf{x)dx[px)~‘

(2.4.27)

 

P7 = p ad +R,

(2.4.28)

где

Pad = J(J (X) - ÿ)Cï(x) - у)тf(x)dx -

 

~ J CK*) - ÿ)(x - x)T f(x)dx(px) 1J (x - х )(ф ) - ÿ)T)f(x)dx . (2.4.29)

Из (2.4.28) следует, что случайный вектор v может быть пред­ ставлен в виде суммы двух векторов

V = vad + V,

(2.4.30)

где vad - независимый от v центрированный случайный вектор с

матрицей ковариаций, определяемой (2.4.29).

Таким образом, можно дать следующую интерпретацию проце­ дуры получения линейного оптимального алгоритма: исходные

нелинейные измерения заменяются на их линейное представление в виде (2.4.26), а для учета такой замены в модели измерений к исходному вектору ошибок v добавляется вектор дополнительных методических ошибок vad.

♦ П р и м е р 2.4.3. Построим оптимальный линейный алгоритм в зада­ че оценивания скалярного параметра по набору скалярных измерений вида

Ух =ax + bx* +Vj, / = 1 , (2.4.31)

в которых х и v,-, / = 1 - центрированные гауссовские независимые

между собой случайные величины с дисперсиями GQ и г2

В этом случае, используя выражение (1.1.22) для четных моментов га­ уссовских случайных величин, т.е.

J (х - x ) kf x (x)dx = 1X 3 X ..(2к - 1)<т2* , к = 1,2

(2.4.32)

нетрудно убедиться в том, что

у = 0;

 

РХу = р ( я + Ъх2) /,тхшf(x)dx =<7Q (я + 3ba l ) I Umx

;

P y = [a2a l + l 5 b 2a l + 6abaA0)[mxm+ r 2Em ;

 

H = (a + 3b a 2)Ilxm, P ad = 6b2a 0Imxm,6

(2.4.33)

где / 1хш , Imxm - столбец lx /л и квадратная т*т матрица, составленные

из единиц; Еш - единичная гпхт матрица.

Таким образом, представление вида (2.4.26) для исходных нелиней­ ных измерений в рассматриваемом примере может быть записано:

Ух = h х + vz- + vacl ; h = + 3bo^) ; i = 1 .m ,

(2.4.34)

где va(f = d - постоянная для всех измерений составляющая ошибки с

дисперсией с 2 = 6Ô20Q , т. е. дополнительная методическая ошибка в

этом примере является систематической составляющей общей ошибки

v^. Таким образом, матрица ковариаций

может быть представлена в

виде R- = г2Ет +сг%1тхт . Исходная нелинейная функция s(х) = ах + Ьх3

и ее линейное представление s(x)^hx при а =2, 6=0,5 и двух значениях

< 0=1 и 0,5 изображены на рис. 2.4.1.

Y

л! ...........

л;

....

2 ............

Рис. 2.4.1. Вид нелинейной функции и ее линейного представления при разных значениях а0: / - сго=0,5; 2 - а0=1

Принимая во внимание (2.4.33)-(2.4.34) и согласно (2.4.19), (2.4.20), можно конкретизировать выражения для оценки х и дисперсии ее ошиб­ ки. Запишем сначала выражение для дисперсии ошибки оценки

( ,

V 1

p H " - ± + ( н у щ ' н

/

-1

Учитывая при нахождении R^ результаты решения задачи 1.3.6, по­ лучаем

 

 

1

 

\

 

7

 

7

7

2

 

p im

_

 

mh“

 

aômad + адг

 

(2.4.35)

 

 

 

 

9

9

 

9

 

 

 

a l ( m o j + r 2)

 

 

 

9

 

 

 

aômh~ + (m ad + r

)

Таким образом, выражение для оценки примет вид

 

 

 

 

dû,г.л

(р1та]+а1г2)

 

h ^

Уi *

 

 

^

)

2 1 п

г

2

 

2\2

2-л

 

 

 

 

CTQmh

+ (mad +Г

) Г

/=t

 

 

Из (2.4.35) следует, что при увеличении числа измерений или умень­

шении г 2 дисперсия ошибки оценки ограничена величиной

p lin >

° W d

 

^ n l i i l

_2

2 т

2

2

 

^

 

2 , 2

2

ЛИОО Г

> — —

при а 0/7

»

сг</

 

 

к 2

 

 

 

 

+ а </

 

 

 

 

Этот факт является следствием наличия методической ошибки, кото­ рая в данном случае носит систематический характер, и, таким образом, по измерениям (2.4.34) не могут быть отдёльно определены значения отыскиваемого параметра х и vad = d Заметим, что вопрос наблюдае­ мости с измерениями типа (2.4.34) более подробно обсуждался в задаче

2.2.6.

Соседние файлы в папке книги