Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Основы теории оценивания с приложениями к задачам обработки навигационной информации. Ч. 1 Введение в теорию оценивания

.pdf
Скачиваний:
36
Добавлен:
19.11.2023
Размер:
26.49 Mб
Скачать

С в о й с т в о 4. Оценка (2.5.2) минимизирует определители

матриц Р и Р(у) [16, 80]. Обращаем внимание на то, что два по­

следних свойства аналогичны тем, которые были сформулированы для линейных оптимальных байесовских оценок, но при этом здесь они устанавливаются как для условной, так для безусловной матриц ковариаций; кроме того, они справедливы для оценок про­ извольного вида, а не только для тех, которые задаются соотноше­ нием (2.4.3).

И, наконец, последнее свойство, аналогичное свойству 5 для

линейных оптимальных оценок.

 

С в о й с т в о

5. Оптимальная оценка т -мерного вектора Зс,

связанного с п -мерным вектором х

линейным преобразованием

х =Тх, где Т -

произвольная m х п

матрица, определяется как

А

 

 

х(^) = Тх(у) , где х(у) - оптимальная оценка вектора х . В этом

нетрудно убедиться, используя соотношение (2.5.2).

Следующее свойство может быть установлено только уже при­ менительно к оптимальным оценкам. В рамках байесовского под­ хода также вводится понятие эффективности оценок, которое, как

и при небайесовском

подходе,

вытекает

из

неравенства

Рао-Крамера [16, 80]

 

 

 

 

 

 

р = « , „ { ( * -

Ну Ж * -

а д ) ' }

г

(/')■ ',

(2-5.9)

где 1 Ь определяется как

 

 

 

 

 

 

 

d \ n f x y (x,y) ' ô \ n f x y (x,yŸ Т

(2.5.10)

1 Б = м ХуУ

дх

 

 

 

,

 

1

дх

)

 

 

 

 

Для справедливости приведенного неравенства здесь требуется, чтобы условиям регулярности удовлетворяла совместная плот­ ность распределения f Xi),(x,y) Суть этих условий сводится к су­

ществованию первых и вторых производных по х и абсолютной интегрируемости f Xiy(x,y).

Оценку х ( у) называют эффективной байесовской оценкой, если в (2.5.9) знак неравенства переходит в равенство. Следует об­ ратить внимание на тот факт, что в рамках байесовского подхода устанавливается граница для безусловной матрицы ковариаций.

Соотношение между (1Б) 1 и матрицей Р ( у ) , которая для нели­

нейных задач зависит от измерений, не устанавливается.

В теории оценивания известен следующий важный результат, который можно сформулировать как еще одно очень важное свой­ ство оптимальной оценки [16].

Свойство 6. Если эффективная оценка существует, то она

представляет собой оптимальную в среднеквадратическом смысле оценку, определяемую в виде (2.5.2).

Перечисленные выше свойства объясняют широкое распро­ странение оценки (2.5.2) при решении задач оценивания в рамках

байесовского подхода.

Из (2.5.8), (2.5.9) также вытекает, что справедлива следующая цепочка неравенств:

Р > Р > ( 1 БУ ‘,

(2.5.11)

где Р - матрица, задаваемая выражением (2.5.3) и характеризую­ щая точность произвольной оценки Зс(у).

Г

__1

Знак «больше либо равно» в неравенстве Р > (/ )

означает,

что оптимальная в среднеквадратическом смысле оценка не всегда

обязана быть эффективной. В этом смысле матрица 1 Б определяет предельно достижимую точность оценивания в рамках байе-

г

_1

совского подхода. В связи с этим матрицу (/ )

так же, как в

небайесовском подходе, называют матрицей нижней границы точности. В частности, диагональные элементы матрицы устанав­ ливают нижнюю границу для дисперсий ошибок оптимальных оценок.

2.5.3. Решение линейной гауссовской задачи. Взаимосвязь с алгоритмами метода наименьших квадратов и максимума правдоподобия

Наиболее просто в рамках байесовского подхода решается за­ дача оценивания в линейном гауссовском случае. Покажем это.

Пусть требуется найти оптимальную в среднеквадратическом смысле байесовскую оценку вектора х по измерениям (2.1.11), в

которых х и у предполагаются совместно гауссовскими вектора­ ми. В силу гауссовского характера х , v и линейности выражения

y - H x + v , как отмечается в подразделе 1.4.2, совместная плот­

ность f x v(x,y), а следовательно, и апостериорная плотность

/( х / у)

также будут гауссовскими. Для нахождения параметров

/( х / у)

следует воспользоваться соотношениями (1.4.16), (1.4.17),

определяющими правила нахождения параметров условной гаус­ совской плотности:

х{у) = х + Р * ( Р > Т ( у - у ) ; Р = Р Х -Р*У(рУ)-*рУ-

Вычисляя значения у = Нх , Р ху Р ху (как это сделано в при­

мере 1.4.2), нетрудно конкретизировать выражения для оценки и матрицы ковариаций к виду (1.4.22), (1.4.23). В частном случае, когда векторы х и v между собой независимы, т. е. матрица В = 0, с учетом используемых в настоящем разделе обозначений

P v = R , Р х,у = Р , получаем:

у = Нх ;

Р Х7 = РХН Т; Р у = HPxH r + R .

Отсюда следует:

 

 

х( у) = х + К ( у - Нх) ;

(2.5.12)

К = Р хН т(нРхН т+ R Y

(2.5.13)

р = р х - РХН Т (нРхН т+ я)”1НРХ

(2.5.14)

Заметим, что в соответствии с (1.4.27), (1.4.28)

матрицы Рх

и К могут быть также представлены как

 

Р = р/>Л)"‘ + Я ТЯ_1Я^

(2.5.15)

 

К = P H TR~l

(2.5.16)

Нетрудно убедиться в том, что в линейной гауссовской задаче оптимальная в среднеквадратическом смысле оценка является эф­ фективной. Действительно, поскольку при ^(х) = Нх и сделанных предположениях о свойствах х и v

d l n f Xly (x ,y )

^ ^ ( х - з о - я ^ С к - Ф ) ) } ,

дх

то, подставляя это выражение в (2.5.10), можем записать

Важно подчеркнуть, что апостериорная плотность в рассматри­ ваемой задаче является гауссовской, а алгоритм вычисления опти­ мальной в среднеквадратическом смысле оценки - линейным от­ носительно измерений у . Существенно также, что условная мат­ рица ковариаций Р(у) от измерений не зависит и, следовательно, она совпадет с безусловной матрицей ковариаций Р , что в общем нелинейном случае не выполняется. Это объясняется тем, что га­ уссовской является совместная плотность распределения оцени­ ваемого вектора л' и ошибок измерения v , а связь измерений с х и V - линейная. Невыполнение любого из этих условий приводит к нарушению гауссовского характера апостериорной плотности и, как правило, к существенному усложнению алгоритма вычисления оптимальной оценки.

Соотношения (2.5.12)-(2.5.16), определяющие правило нахож­ дения оптимальной байесовской оценки и соответствующей ей матрицы ковариаций, совпадают с аналогичными соотношениями (2.4.16)-(2.4.20) для линейного оптимального алгоритма. Из ска­ занного следует, что при решении линейной гауссовской задачи оптимальная байесовская оценка совпадает с оптимальной в среднеквадратическом смысле линейной оценкой, полученной в разделе 2.4.

Отсюда с очевидностью вытекает следующий весьма важный с практической точки зрения вывод.

В линейной гауссовской задаче невозможно повысить точ­ ность оценивания критерия (2.5.1) за счет усложнения алго­ ритма путем придания ему нелинейного относительно измере­ ний характера. Поскольку в рассматриваемом случае, с одной стороны, линейный оптимальный алгоритм совпадает с байесов­ ским оптимальным алгоритмом, а с другой - он при определенных условиях совпадет с алгоритмом ММНК, здесь можно высказать тот же вывод, который был сделан в подразделе 2.4.4 при сопос­ тавлении ММНК и линейного оптимального алгоритмов. В ли­ нейной гауссовской задаче при отсутствии корреляции между оцениваемым вектором и вектором ошибок измерения (5=0) и соответствующем выборе критерия в ММНК, когда в качестве х принимается значение, совпадающее с математическим

ожиданием вектора х, a D = (PX) 1, 0 = R *, оценки ММНК

совпадают с оптимальными байесовскими оценками.

Отсюда также следует, что результаты, полученные в рассмот­ ренных ранее примерах 22.2-2.2.5 и касающиеся ММНК, можно трактовать как результаты, полученные с помощью оптимального байесовского алгоритма, если ввести дополнительные предполо­ жения о некоррелированности оцениваемого вектора и ошибок измерения и их гауссовском характере.

Обсудим причины совпадения ММНК, с оптимальной оценкой в линейной гауссовской задаче. Как отмечалось выше, апостери­ орная плотность в этой задаче является гауссовской, а следова­ тельно, она является симметричной функцией, и соответствующее

ей математическое ожидание

х (у ), т.е. оптимальная оценка

(2.5.2), совпадает со значением

х, при котором эта плотность дос­

тигает максимального значения.

Согласно результатам раздела 1.4 запишем следующее выраже­ ние для совместной ф.п.р.в.:

Л , V (*, У) = П у !х)Дх) = f v(y - Hx)fx(а) .

Таким образом, для апостериорной плотности будем иметь

/(А-/ у) = с expj- !(cv - Hx)r R-'- Нх) + (х - 2)т(р-г )~‘ - ï)j (2.5.18)

где с - нормирующая константа, не зависящая от х .

Принимая во внимание такое представление для f(xly), не­ трудно понять, что максимизация апостериорной плотности рав­ носильна минимизации критерия

J(x) = ( y - H x f R ~ \ y - H x ) + (x-x)1(PX) ~ \ x - x ) , (2.5.19)

совпадающего с критерием (2.2.16), используемым в ММНК, при соответствующем выборе матриц Q и D . Этот факт и объясняет совпадение оценки ММНК при независимых х и v с оптимальной байесовской оценкой, которая в линейной гауссовской задаче, в свою очередь, совпадает с линейной оптимальной оценкой. Соот­ ветственно совпадают и матрицы ковариаций их ошибок.

Учитывая связь байесовских оценок и оценок, основанных на использовании ММНК, а также связь оценок МФП с оценками, соответствующими ОМНК при соответствующем выборе весовых

матриц в наблюдаемых критериях, для линейной гауссовской за­ дачи при независимых ошибках измерения и оцениваемого векто­ ра можно, опираясь на соотношение (2.2.18), записать следующее, аналогичное (2.2.37) выражение:

а д = р[(Рху1х + ( р мФ»)-1 jc- ф а д ) ,

(2 .5 .2 0 )

устанавливающее взаимосвязь оптимальных байесовских оценок и оценок МФП. Из этого выражения вытекает, что оптимальная бай­ есовская оценка в рассматриваемой линейной гауссовской задаче может быть сформирована в результате взвешивания априорного математического ожидания х и оценки хмфп (у ), полученной без учета априорной информации о векторе х. Причем весовые мат­

рицы, стоящие перед х и хмфп (д>), совпадают с матрицами, обрат­ ными матрицам, характеризующим точность взвешиваемых вели­ чин. Ясно, что такая процедура возможна в случае, когда матрицы рмфп и рх не вырождены. Очевидно, что при невырожденности матрицы Р допустима и обратная операция, предполагающая вы­

числение Л-Мфп ( у) по известному значению байесовской оценки

*Ml|,n(v) = ^ " “’" ( .р - 'а д -

( Р Т 1*)

(2.5.21)

Из соотношения (2.5.15) следует, что

при (РЛ)- 1 «

H TR~lH

оптимальная байесовская оценка (2.5.2), соответствующая ей мат­ рица ковариаций (2.5.5) и критерий (2.5.19) будут совпадать с оценкой (2.3.17), матрицей ковариаций (2.3.18) и критерием (2.3.15) метода максимума функции правдоподобия.

Нетрудно заметить, что в линейном случае решение задач по­ строения процедур вычисления оценки и анализа их точности фак­ тически есть одно и то же. Это связано с тем, что, во-первых, ус­ ловная матрица ковариаций не зависит от измерений, и следова­ тельно, совпадает с безусловной матрицей ковариаций, а вовторых, нахождение условной матрицы ковариаций может рас­ сматриваться как составная часть процедуры вычисления коэффи­ циента усиления К.

Иная ситуация складывается при решении нелинейных задач, особенности решения которых и обсуждаются в последующих подразделах.

где у л = ф - л), Я лш,=
, а у 11” , Я 1"1 и v определяются с

2.5.4. Методы синтеза субоптимальных алгоритмов калмановского типа для нелинейных задач

В подразделе 2.5.1 отмечалось, что под решением задачи синте­ за алгоритмов в рамках байесовского подхода понимается по­ строение процедур вычисления как самой оценки (2.5.2), так и ус­ ловной матрицы ковариаций (2.5.6), представляющей собой рас­ четную характеристику, определяющую текущую точность оцени­ вания для конкретной реализации измерений, используемой при нахождении оценок. Поскольку при нелинейном характере функ­ ции .s(x) в измерениях (2.1.21) не удается получить выражения

для оптимальной оценки и матрицы ковариаций в замкнутой фор­ ме, при решении прикладных задач разрабатывают различного ро­ да упрощенные (субоптимальные) алгоритмы, позволяющие, с одной стороны, получить экономичные в вычислительном отно­ шении процедуры вычисления оценки и текущей матрицы кова­ риаций, а с другой - обеспечить точность, близкую к потенциаль­ ной точности, задаваемой безусловной матрицей ковариаций (2.5.5).

Рассмотрим некоторые из получивших наибольшее распро­ странение алгоритмов.

Наиболее простыми оказываются субоптималыше алгорит­ мы, основанные на линеаризованном или линейном представ­

лениях нелинейной функции

s(x) в предположении гауссовско­

го характера векторов х и v

С учетом (2.1.22) и (2.4.26) измере­

ния можно записать как

 

 

^ « у* + Я л,ш (хл )(х - хя) + v

(2.5.22)

или

 

 

y = ÿ Vm+ H Vm(x - x) + v

(2.5.23)

ds dx1

помощью (2.4.23), (2.4.27), (2.4.30), и свести решение нелинейной задачи к линейной.

Принимая во внимание линейный характер задачи, гауссовость векторов х и v , а также в случае (2.5.23), считая дополнительно гауссовским вектор v , можно свести исходную задачу к линейной гауссовской задаче. В этом случае апостериорная плотность будет

гауссовской, и с учетом соотношений (1.4.16), (1.4.17) в общем виде можно записать следующие выражения для оценок и матриц ковариаций:

F (у ) = Зс + К ■*( у - у» ) ;

(2.5.24)

Ри = р* - (P'yf((P J'f)'(P yx^

= РХ- £»(Р-,,ХУ ;

(2.5.25)

К “ ^ Р * - ' ' ) ^ ^ ) 1’

р = лин, lin,

(2.5.26)

в которых использован верхний индекс р , принимающий значе­ ние р = лин - для представления (2.5.22), т.е. линеаризованного алгоритма, и р = lin - для представления (2.5.23), используемого

при построении линейного оптимального алгоритма.

Далее для конкретизации алгоритмов следует рассчитать соот­

ветствующие значения для Vм, взаимной матрицы ковариаций

(Рл-'')ц и матрицы ковариаций (РУУ1 Для линеаризованного ал­

горитма, основанного на (2.5.22), в предположении независимости х и V будем иметь

My*T’mm=s( хл) + — (х - г 7 ) = ф - л) + H m n (xJ,)(x - л-'7) ; dxT , = г*

М{(х - 3F)(V - J?)} * (Рху Упш = М {(* - х){х - х )Т(Я лин )т (а-л)}=

= Рх(Нл ш )т(хл);

M \ y - ÿ ) ( y - ÿ ) T\^ (P y f = H Iimi(x-1)Px (Hmm)'I(xJt) + R .

Подставляя эти соотношения в (2.5.24) - (2.5.26), получим ал­ горитмы, которые будут совпадать с алгоритмами, рассмотренны­ ми в 2.2.5, т. е. с алгоритмами ММНК, используемыми для реше­ ния нелинейных задач на основе процедуры линеаризации. При этом оценка будет вычисляться согласно (2.2.51), а текущая рас­ четная матрица ковариаций согласно выражению (2.2.54) при у = 1

или эквивалентному ему выражению (2.5.25), т.е.

(Р)л,ш =рх _ рх{нтш)Т(v .7 )(//лин ^ )рх(нпш у (хл} +Ry Hnm(x*)pX

Эта матрица не зависит от измерений, а зависит только от вы­ бранной точки линеаризации, поэтому она может рассматриваться как аналог безусловной матрицы ковариаций (2.5.5). При этом следует иметь в виду, что в силу приближенного характера вычис­ ления трех предыдущих выражений эта расчетная матрица кова­ риаций также будет приближенной, а, следовательно, ее значение в общем случае будет отличаться от действительного значения матрицы ковариаций (2.5.5). Иными словами, получаемая в алго­ ритме расчетная характеристика точности, как уже отмечалось в подразделе 2.2.5, может быть не согласована с действительной матрицей ковариаций, т.е. возникает проблема адекватности вы­ рабатываемых в алгоритме характеристик точности.

Аналогично с помощью соотношений (2.2.52)-(2.2.54) в рамках байесовского подхода может быть получена и итерационная про­ цедура. Особенность получаемого в результате алгоритма будет заключаться в том, что поскольку выбираемая точка линеаризации на каждой итерации совпадает с оценкой, зависящей от измерений,

расчетная матрица ковариаций Pltcr( v) также будет зависеть от измерений и представлять собой аналог условной матрицы кова­ риаций (2.5.4). Таким образом, в целом алгоритм становится нели­ нейным относительно измерений. Ясно, что в силу приближенного

характера описания (2.5.2) и в этом случае матрица Pltei (у) будет отличаться от действительной матрицы ковариаций для оценок, вырабатываемых итерационным алгоритмом.

Для алгоритма, основанного на представлении (2.5.23) для вы­ числения у 1ш, (Р т-’ )1ш и (Р' )1ш необходимо воспользоваться

(2.4.23)-(2.4.25). В этих соотношениях, как и в (2.5.23), в отличие от (2.5.22) и предыдущих соотношений стоят знаки точного, а не приближенного равенства. Отсюда следует, что вырабатываемая в соответствии с соотношениям (2.5.25) в таком алгоритме матрица ковариаций будет адекватна действительной матрице ковариаций. Причем, поскольку алгоритм линейный, эта матрица не будет за­ висеть от измерений. Однако следует помнить, что по отношению к оптимальному алгоритму линейный оптимальный алгоритм яв­ ляется субоптимальным. Это объясняется тем, что нелинейная функция заменяется ее линейным представлением (2.5.23), и, как следствие, появляется дополнительная составляющая ошибки, ко­ торая кроме всего прочего в общем случае не является гауссов-

ской. Важно также отметить, что выражения (2.4.23)-(2.4.25) не могут быть вычислены аналитически, и для их нахождения возни­ кает необходимость привлечения численных методов, например метода Монте-Карло.

Существенно, что все рассмотренные выше алгоритмы имеют одинаковую структуру - оценка представляет собой сумму апри­ орного значения и произведения матрицы коэффициентов усиле­ ния на невязку измерения. Будем называть такую структуру калмановской, а алгоритмы - алгоритмами калмановского типа, имея в виду, что, как будет показано в главе 3, в линейном гаус­ совском случае такой алгоритм представляет собой фильтр Калмана для задачи оценивания постоянного вектора.

♦ П р и м е р 2.5.1. Построим алгоритмы калмановского типа для задачи, рассмотренной в примере 2.4.3, т.е. при оценивании скалярного

параметра по измерениям вида yi = ах + fee3 + v,-, в которых Д‘ и V,-, i = 1 - центрированные гауссовские независимые между собой случай­ ные величины с дисперсиями U Q и г 2 Линейный оптимальный алгоритм

для этой задачи рассмотрен в примере 2.4.3. Линеаризованный алгоритм легко получается, если принять лгл = х = 0 :

Итерационный алгоритм сведется к использованию формул (2.2.52)-(2.2.54) при X ^ = X = 0 и / / ller(Â'(°>) = а!т. В частности, рас­ четная дисперсия будет иметь вид

Соседние файлы в папке книги