Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Основы теории оценивания с приложениями к задачам обработки навигационной информации. Ч. 1 Введение в теорию оценивания

.pdf
Скачиваний:
36
Добавлен:
19.11.2023
Размер:
26.49 Mб
Скачать

С использованием соотношений (2.1.4), (2.2.25), (2.2.26) при диаго­ нальной О = ы в критерии для ОМНК легко получить следующие вы­ ражения:

т

т

 

т

 

«•=1

(2.2.32)

 

 

т

 

 

 

 

 

 

S

h

Z ' i

 

 

1=1

 

i=l

 

 

т

 

т

 

 

 

Ё ? /

Z

q t i

 

Р

ОМНК 1=1

 

/=1

 

(2.2.33)

 

ш

 

 

 

 

 

Z 4iU

Т ? а 2

 

 

U=1

 

/=1

 

 

Принимая 0 = Л""1, а для

ММНК

дополнительно полагая 5с = 0 ,

D = (рЛ) 1 и учитывая тот факт, что R = г 2Е , легко убедиться в том, что матрицы ковариаций ошибок оценивания в МНК и ОМНК в этом случае будут между собой совпадать, т.е. Р омнк = Р мнк #а для ММНК

 

т

1

1-1

 

т

 

+

- г Я ,

5 ммнк

г~2

Г

/=1

1

т

1

(2.2.34)

1

- т я ,

a,

r~ i=i

Г

/=1

Обсудим вопрос взаимосвязи и отличий процедур оценивания и соответствующих им характеристик точности для разных алгорит­ мов МНК более подробно.

2.2.4. Взаимосвязь и сопоставление различных алгоритмов метода наименьших квадратов в линейном случае

При сопоставлении алгоритмов будем полагать, что известны математическое ожидания оцениваемого вектора, соответствую­

щая ему матрица ковариаций Р х , а вектор ошибок не коррелиро­ ван с л' и является центрированным вектором с матрицей ковариа­

ций R . Кроме того, считаем, что в критерии ОМНК О = R ~] ,

а в ММНК в качестве х принято математическое ожидание векто­ ра л и D = {p x ]

При обсуждении взаимосвязи оценок, соответствующих раз­ личным вариантам МНК, весьма полезным представляется соот­ ношение, с помощью которого оценки ММНК выражаются через оценки ОМНК. Для его получения запишем

х ыш'к(у) = х + К ттк( у - Нх) = {Е - К мткН ) х + К ши,ку.

Принимая во внимание тот факт, что

- к шткН) = (й + H rQH)_1[D + H TQH ) - (D + H TQH )'XH t Q H =

= [D + H TQH Y (D + H TQH - H rQH) = + H TQH Y D,

a

£MMHK = (p + H TOH Y H rO = [D + H TQH Y ( H TQH)(HTOH)~l H TQ ,

оценку (2.2.17)

и соответствующую ей ошибку можем предста­

вить как

 

 

*мммк(у)

= (D + H TQ H ) - ] (Dx + H JQHx0MUK(7 )) ;

(2.2.35)

£мм"к = (Z) + H TQH)~l (.D(x - х) + H TQH£MMHK (у)).

(2.2.36)

Учитывая сделанные предположения, полученное выражение может быть переписано в виде

Л'ММ1,К(;>) = p mt“Y ( P xy lI + ( Ротк)-'хошк( у) )

(2.2.37)

Анализируя (2.2.31), (2.2.37), замечаем, что оценки и соответст­ вующие им матрицы ковариаций ошибок для ОМНК и ММНК бу­ дут практически совпадать между собой, если выполнено нера­

венство (р л) « H TR~lH Если, кроме того, полагать R = r 2E ,

то оценки и их ошибки для всех трех методов будут также практи­ чески одинаковыми.

Из выражения (2.2.37) следует, что оценка ММНК в рассматри­ ваемой линейной задаче может быть сформирована в результате взвешивания х , определяющего априорное значение вектора л:, и оценки х омнк (д>), полученной без учета этой априорной информа­ ции. Причем весовые матрицы, стоящие перед х и х 0М11К( у ) ,

в значительной степени определяются матрицами, обратными мат­ рицам, характеризующим точность взвешиваемых величин.

В частности, для примера 2.2.2 выражения для оценок и соот­ ветствующих им ошибок для ММНК (2.2.35), (2.2.36) в этом слу­ чае примут следующий вид:

хмшк(у) = Рх + ах°шк(у);

емммк (у) = Р(х - х) + ае0М,1К) ,

 

 

2 >

где

Р = -

/=1

т

 

d +

i=l

 

 

Ясно, что представления (2.2.36), (2.2.37) в векторном случае возможны, если матрицы р шш и Р х не вырождены. Очевидно, что при невырожденности матрицы Р ммнк допустима и обратная операция, предполагающая вычисление хом,,к(>’) по известному

значению оценки ММНК

-о м н и ^ = р о м н к (('р м м н к у \ -ММНК _ ( р х y l (2.2.38)

Возможность вычисления матриц ковариаций для различных алгоритмов позволяет провести их сравнение по точности. При

сделанных предположениях (Q = R~’, D = (Р Л)-1) можно пока­ зать (задача 2.2.4), что будет справедлива следующая цепочка не­

равенств:

 

рМНК > рОМНК > рММНК

(2 2 39)

Проведем более подробное обсуждение взаимосвязи различных алгоритмов на примере рассмотренной в разделе 2.1 задачи ком­

плексной обработки данных от двух измерителей, представленных в виде (2.1.33). При этом будем полагать, что vj, v2 - некоррели­

рованные между собой центрированные векторы с известными матрицами ковариаций Rj > О, j = 1,2 , а х - независящий от этих

ошибок случайный вектор с математическим ожиданием х и мат­ рицей ковариаций Р х , а в критерии ОМНК Q = Л-1

Принимая во внимание сделанные предположения и тот факт,

что в этой задаче Я = , где Е„ - п х п , а матрица ковариаций

для составного вектора ошибок измерений определяется как

~R] О

, можно, воспользовавшись полученными выше вы­

ОR,

ражениями для оценок и матриц ковариаций, соответствующих различным методам, конкретизировать их для рассматриваемой задачи. В результате для МНК и ОМНК получим:

 

 

 

(2-2.40)

Р МНК= 1 ^

+Д 2);

 

(2.2.41)

хГ* = «

+

+ К 'У 2)\

(2.2.42)

Р ошк =(л,_|

 

 

(2.2.43)

Из представленных соотношений следует, что при решении за­ дачи комплексной обработки в случае МНК алгоритм сводится к простому осреднению имеющихся измерений, а в ОМНК эти из­ мерения взвешиваются с весами, которые позволяют учесть раз­ личный уровень погрешностей используемых измерителей. Имен­

но это обстоятельство и объясняет неравенство Р М,1К> / >омнк : в ОМНК предусмотрена возможность учета разного уровня по­ грешностей используемых измерений, в то время как в МНК все измерения выступают как равноправные.

Для ММНК соотношения для оценок и матрицы ковариаций их ошибок можно записать:

х ш"'к(у) = Р"шк((Рху ]х + ( P OM"Ky lx omK(y)},

(2.2.44)

рммнк = ^ р х y i + д -1 + д - 1 ) 1

(2 .2 .4 5 )

Нетрудно заметить, что точно такие же соотношения могут быть получены, если вместо задачи оценивания х по измерениям (2.1.33) с использованием ОМНК рассматривать задачу оценива­ ния того же вектора с использованием ОМНК, но при этом к набо­ ру измерений (2.1.33) добавить измерение вида

Уз = x = x + v3 ,

(2.2.46)

в котором V3 - центрированный, некоррелированный с v; и v2

случайный вектор с матрицей ковариаций Р х Отсюда следует, что наличие априорной информации о векторе оцениваемых пара­ метров может быть передано введением дополнительного измере­ ния (2.2.46).

Такая интерпретация позволяет дать простое объяснение нера­

венства Р ыик > Р ом"к, поскольку очевидно, что при увеличении числа используемых измерений точность может только повысить­ ся. Отсюда следует, что ММНК, обладая отмеченным выше пре­ имуществом перед МНК, обусловленным учетом разноточного характера измерений, приобретает еще одно достоинство - в нем предусмотрено привлечение дополнительного измерения, пере­ дающего факт наличия априорной информации, которая в ОМНК не используется.

♦ П р и м е р 2.2.6. Проведем сопоставление алгоритмов для частно­ го случая рассмотренной выше задачи, полагая, что оцениванию подле­

жит скалярная величина с дисперсией с>о ? а дисперсии ошибок измере­

ния равны г\ и /*2

Приведенные соотношения преобразуются к виду:

-МИК _ ( У .+ З р

 

 

рМНК _ i +

i

 

 

(2.2.47)

2

;

 

 

 

 

4

 

 

 

 

 

 

Г\2 г22

 

 

 

Уг +

К

,

У2>

DÛMHK

1

(2.2.48)

гI2 + г22

-, '

 

 

1

''

г ; + г ;

 

 

 

' Г + '2

 

 

T Ï

+

 

/'

 

 

 

 

Т Уг (2.2.49)

 

 

 

Т У , +

 

 

° i + rc + r ;

o j

+

'i’ +

'i1 '

1

°1 + г? + г2

 

 

(

1

1

1 Л_1

 

 

(2.2.50)

 

 

 

Н— г - Н— г-

 

 

 

 

 

2

2

2

j

 

 

 

 

 

 

 

П

Г2

 

 

 

 

 

 

 

г\

 

 

 

 

 

Из выражений (2.2.48) следует, что оценка, соответствующая ОМНК, действительно формируется в результате суммирования измерений дат­ чиков с весами, зависящими от их точности: чем точнее датчик, тем с

большим весом войдет соответствующее измерение. Так, если /-2 >г22, то

весовой коэффициент для более точного измерения от второго датчика (измерение с меньшей дисперсией) больше, чем для более грубого изме­ рения с большей дисперсией. Из (2.2.48) также следует, что в результате

155

совместной обработки данных от двух измерителей с помощью ОМНК

результирующая дисперсия ошибки оценивания Р 0МН1С будет всегда меньше дисперсии любого из используемых по отдельности измерителей,

т.е. р омнк < min(/*j2 , г2 ) . При использовании же МНК дисперсия опре­

деляется, как P WK = ( г 2 + г22 ) / 4 , и ее значение может

существенно

превышать / >омнк Применительно к ММНК аналогичное

соотношение

может быть записано, как Рммик < min(cFg, Г\ , г2 ) . Понятно также, что в случае, когда одно из измерений более точное, чем остальные, напри-

мер r f « 1‘2 И г { «<То> ТО X ~ X » Ух, а Г ~ Р ~

Это означает, что в качестве оценки фактически принимается наиболее точное измерение. Ясно, что МНК в этом случае будет значительно усту­ пать по точности ОМНК и ММНК.

0

7

9

= г

9

Если С ц = гj" = г2

точности для МНК и ОМНК совпадут, и со­

ответствующая им величина среднеквадратической ошибки будет r l 4 l , в то время как для ММНК она равна /7 V3 . ♦

Достаточно наглядно эффект от привлечения априорной ин­ формации проявляется на примере задачи комплексной обработки данных от двух измерителей в случае определения координат мес­ та объекта на плоскости. Рассмотрим более подробно этот пример.

П р и м е р 2.2.7. Пусть имеются два измерителя, вырабатываю­

щие

показания (2.1.33), в которых X = (Х], х 2 ) 1 представляет собой

двухмерный вектор, задающий координаты объекта на плоскости. Счита­ ем, что этот вектор является случайным с математическим ожиданием х

и матрицей ковариаций Р х , а некоррелированные с х двухмерные век­

торы ошибок измерения являются центрированными случайными векто­

рами с матрицами ковариаций , R2

 

Предположим, что матрицы Р х

, R2 имеют следующий вид:

Рх =

*1 =

а 1

О

R-) = b 2

0

4

 

О

b 2

О

а '

Воспользовавшись соотношениями (2.2.41),(2.2.43), (2.2.45), получим:

а2 + Ь2 '1

0"

 

2» 2

"1

0'

рМНК _ _

1

. ООМНК _Я V

0

1

4 0

а + о

 

 

„2^,2

 

 

-кММНК

2

2,2

CTQ#

и

a 2b 2 + Cg (a.2 + b 2 )

Сравнение точностей, которые могут быть достигнуты при использо­ вании различных методов, удобно провести с привлечением значений радиальной среднеквадратической ошибки:

 

_2,2

D R M S MHK = ' К +l}2 ; D R M S OMHK

> а Ь

' ? . ?

1

a' + /г

2 2 , 2

 

D R M S mmK

2

a 2b 2 +ao(ûr2 + b z )

характеризующих точность определения места на плоскости.

В табл. 2.2.6 и на рис. 2.2.5, 2.2.6 представлены результаты расчета для нескольких вариантов, иллюстрирующих эффект, который может быть достигнут при корректном учете имеющейся априорной информации.

Т а б л и ц а 2.2.6

Значения радиальной среднеквадратической ошибки для различных ва­ риантов метода наименьших квадратов в задаче определения координат

места на плоскости с использованием двух измерителей

Используемый

 

Численные значения

 

 

а= с 0=!00 м,

 

метод

а=£=СТо= 100, м

100 м, b=G0=iO м

/?=10

а -

 

 

м

 

D R M S miK

100

70

 

70

D R M S 0M,K

100

14

 

14

D R M S mmK

82

14

 

10

я)

б)

МНК.ОМНК

 

ммнк:

 

 

 

Рис. 2.2.5. Изолинии исходных среднеквадратических эллипсов для оцениваемого вектора и векторов ошибок измерений при n=fc=a0=100 м (я); изолинии апостериорных эллипсов ошибок оценивания для различных вариантов МНК {б,в)

Из рис. 2.2.5 следует, что при n=b=a0=i'=lOO м радиус окружности, соответствующей матрице ковариаций для МНК и ОМНК, определяется

величиной г/л/2~70 м, а для ММНК г/ V3 ~58 м.

а)

МНК

ОМНК

ММНК

-100

-50

О

50

100

-100

-50

0

50

100

-100

-50

0

£0

100

Рис. 2.2.6. Изолинии исходных среднеквадратических эллипсов для оцени­ ваемого вектора и двух векторов ошибок измерении при л=ао=ЮО м, 6=10 м (а);

изолинии апостериорных эллипсов ошибок оценивания для различных вариантов МНК (б)

Случай, когда я=сг0= ЮО м, 6=10 м, характерен тем, что, с одной сто­ роны, размеры малой и большой полуосей среднеквадратических эллип­ сов для двух измерителей существенно между собой отличаются, а с дру­ гой - направления больших полуосей ортогональны. При такой ситуации ОМНК значительно выигрывает в точности по сравнению с МНК, по­ скольку в нем в отличие от ОМНК не учитывается разная точность изме­ рителей по каждой координате. При этом ОМНК по точности практиче­ ски не отличается от ММНК, так как эффект от привлечения априорной информации при таком соотношении размеров малых полуосей с вели­ чиной сго=100 м незначителен.

Как следует из таблицы и приведенных рисунков, наиболее наглядно выигрыш в точности проявляется в предположении, что a » b , ст0 = 6

Вэтом случае могут быть использованы следующие выражения:

DRMSMiK ~ а/л/2 , DRMS0MHK « -Jîb, DRMSmmK = b , иллюстрирующие

преимущества корректного учета имеющейся априорной информации при соответствующем выборе метода обработки. ♦

В завершении раздела о сопоставлении алгоритмов важно еще раз обратить внимание на тот факт, что все приведенные результа­ ты будут справедливы лишь при выполнении отмеченных в начале подраздела предположений о свойствах оцениваемого вектора и ошибок измерений. Кроме того, предполагается, что в критерии

ОМНК Q = 7?-1 , а в ММНК в качестве х принято математическое

ожидание вектора х и D = (рх ) При невыполнении этих усло­

вий при вычислении матриц ковариаций, соответствующих ОМНК и ММНК, вместо (2.2.29), (2.2.31) необходимо использовать выра­ жения (2.2.26), (2.2.27). Это повлечет не только изменение самих значений матриц ковариаций, но и может привести к нарушению соотношения между ними, задаваемого неравенством (2.2.39).

2.2.5. Решение нелинейных задач оценивания. Линеаризованные и итерационные алгоритмы

Выше были получены простые алгоритмы вычисления оценок, соответствующих МНК и его модификациям. При введении до­ полнительных предположений о случайном характере оценивае­ мого вектора и ошибок измерения также легко вычисляются и матрицы ковариаций ошибок оценивания, с помощью которых анализируется точность оценивания. Простота процедур вычисле­ ния оценок и их характеристик точности в данном случае является следствием линейного характера рассматриваемых задач. Решение проблемы оценивания существенно усложняется, если зависи­ мость измерений от оцениваемых параметров нелинейная. В то же время, как уже отмечалось, достаточно широкий круг нелинейных задач, связанных с обработкой навигационной информации, может эффективно решаться с использованием полученных выше алго­ ритмов, применение которых в нелинейном случае основано на описанной в подразделе 2.1.7 процедуре линеаризации. Обсудим этот вопрос более подробно.

Проведя линеаризацию, исходную нелинейную задачу легко свести к линейной постановке, в которой в качестве измерения фи­ гурируют значения (2.1.25), представляемые в виде (2.1.26). С ис­

пользованием этого соотношения легко получить линеаризован­ ные варианты МНК и его модификации. Эффективность создавае­ мых при этом алгоритмов в немалой степени зависит от того, на­ сколько удачно выбрана точка линеаризации. Чем ближе эта точка к истинному значению оцениваемого параметра, тем точнее будет линеаризованное представление и тем точнее будет оценка, полу­ ченная на основе линеаризованных алгоритмов. Таким образом, для повышения эффективности алгоритмов, основанных на линеа­ ризации, точку линеаризации целесообразно выбирать как можно ближе к истинному неизвестному значению оцениваемого пара­ метра. Из сказанного следует, что для повышения эффективности линеаризованных алгоритмов, разумно использовать достаточно очевидный прием. Суть его заключается в многократной повтор­ ной обработке измерений и использовании получаемых результа­ тов для уточнения расположения точки линеаризации. Поясним смысл этой процедуры.

Выбрав начальную точку линеаризации х л и используя при­ ближение

s ( x ) « 5( х л ) +

(д- - х л) = s ( x J ) + Н{хя)(х - х л),

dx

v=ï’

сформируем первоначальную оценку искомого вектора с помощью соотношения

х(1) = х + К (хл)[у -J (*’) - Я(*)(д:’)(* - r ’)j,

(2.2.51)

в котором Н {' \ х л) = ds

, а К (хл) вычисляется в соответ­

dx1

 

 

ствии с правилами, соответствующими выбранному варианту МНК. Повторим эту операцию до тех пор, пока значение оценки не перестанет сколько-нибудь существенно изменяться. В общем виде данный алгоритм для случая ММНК имеет вид:

К { x<r)) = P(x(y))HT(xb))R-' ;

 

(2.2.53)

Р(х (г)) =

[(Рху + Я т(х

х )))'1

(2.2.54)

у =0,1,2..,

х(0) = х .

 

 

Соседние файлы в папке книги