Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Моделирование систем управления

..pdf
Скачиваний:
3
Добавлен:
12.11.2023
Размер:
6.82 Mб
Скачать

V

*i(0'

a ll

a 12

• ..

a lv"

Г = У2 .

* ( 0 = *2(0

, a = a 21

a 22

..

a 2v

_У\.

_*v(0.

_a vl

a v2

•..

a w_

Решение модели

 

t

 

 

 

 

 

 

 

 

Y{t) = exp(af)Jo +

Jexp[a(/ - i)]x(x)dx.

 

 

 

о

 

 

 

x ( t ) —задана априори, a Y Q и a требуется оценить во временном интер­ вале 0 < t <ty по дискретным наблюдениям Y(t).

Y(ti) - вектор-столбец v х 1 ;

h(tt) - матрица v х v, заданная априори;

е (0 - вектор шума (ненаблюдаемые ошибки) v х 1. Тогда решение

h

Щ ) = A(fi) {ехр(оф 0 + jexp[a(/f - т)]х(х)Л } + <#,).

о

т - ч ъ у ь й + т

Модель, содержащую одну или несколько линейных дифференциаль­ ных уравнений более высокого порядка с постоянными коэффициентами, можно преобразовать в систему обыкновенных дифференциальных уравне­ ний первого порядка. Например,

d 2j^

dy

- +a

, - +a 2y= x(t).

_L~i

 

Я 'о ) = >0.

y(lo) =УQ-

<fy_

Обозначим = У\ и получим систему уравнений

dt

~г~+ а\У\ + a 2^=JC(0 . at

с начальными условиями: y{tQ) = y Q; у,(/0) = у0.

4.6.1. Ненаблюдаемая ошибка, добавляемая к производным

Вследствие трудностей получения аналитических решений для детер­ минированной модели процесса справедливо равенство

~ =Да,Г,0. Ц0) =Л ,

где Д а, У, /) представляет собой весьма общую нелинейную функцию. Это уравнение в большинстве случае не имеет аналитического решения, и его следует решать численными методами.

Но лучше всего эксперименты ставить так, чтобы измерялся вектор

ОТ

производных — , а не сам вектор У. В таких случаях предполагается, что

dy

ненаблюдаемая ошибка добавляется к детерминированной производной — :

dY dy

----= — + 8. dt dt

Если наблюдаемая переменная является производной, то процедура оценивания вообще не затрагивает дифференциального уравнения; парамет­ ры и качественные условия можно оценить рассмотренными ранее методами.

4.6.2.Оценивание методом наименьших квадратов

Если наблюдения Y для откликов модели представляют собой непре­ рывные функции t в интервале от 0 до tf>то критерий наименьших квадратов требует минимизации величины

F= \

(4.2)

2 0

 

где Г - ковариационная матрица (или, возможно, матрица соответствующих весов).

Если наблюдения проводились в дискретные моменты времени, то сле­

дует минимизировать величину

 

F - ^ £ [ а д - В Д ГГ -1[Г(/10 - Ч '(/,)] .

(4.3)

*1

Всоответствии с методом наименьших квадратов (МНК) следует опре­

делить

~т~=о=-Ей - Ш Ы ) ] ТГ']

*Уо

1

dyQ

(4.4)

 

 

 

£ =

о = - m

- * < 5jW /)]r г - 1

 

Эти уравнения образуют систему нелинейных уравнений для получе­ ния оценок элементов а и у0. Количество оценок для уо составляет и, для а оно равно п х п . Размерность системы п + п х п = п(п + 1).

Для того чтобы получить оценки точности оценок а и у0, необходимо сделать некоторые предположения относительно распределения ненаблю­ даемых ошибок (пример - совместное нормальное распределение).

Чаще всего уравнения (4.4) нелинейны по оценкам параметров а и уо, поэтому их можно решить каким-либо итерационным методом, например, методом Гаусса.

4.6.3. Повторное интегрирование экспериментальных данных

Этот метод эффективно используется как для непрерывных, так и для дискретных наблюдений. Используется повторное интегрирование экспери­ ментальных данных с применением численного интегрирования.

Пусть модель описывается дифференциальным уравнением

d 2y dy -а 1у +а 2у 2 + а 3еа4',

у* . -

у(Р) = Уй> у'(0) = уЬ-

Проинтегрируем в интервале от 0 до /, получим

± _ ( Ф )

+ «оО ' - л ) = “ 1\ ул ‘+«2 / / < * '+ «з \ea,, dt'

dt \ dt J/=o

=0

 

 

 

0

0

0

и, после повторногоинтегрирования,1

 

 

 

>~Уо~ « о У о + И

{<*'+а 0 lydt' = а , jf \y d A d t'i

 

V“

A)Jo

g

oU

)

 

i f f

,

ï

 

 

 

- a 2J \y 2d t'\d t\Ч а з |^ [ е “4''Л '|л '.

 

 

oU

 

J

 

 

 

Полученное уравнение содержит лишь функцию у и интегралы от нее. Предположим, что детерминированная переменная у заменена в инте­

гралах стохастическими наблюдениями У, а для t выбран ряд различных зна­ чений /i, ...» tMгде п больше числа параметров, которые нужно оценить. Получается переопределенная система, которую можно было бы разрешить относительно оценок параметров методом наименьших квадратов.

Конечно, ненаблюдаемая ошибка, добавляемая к у, теперь связана с са­ мими интегралами; следовательно, независимые переменные становятся слу­ чайными величинами. Кроме того, поскольку наблюдения У производятся последовательно во времени, инте1ралы не являются статистически незави­ симыми. Тем не менее, для данных, взятых через равные или неравные про­ межутки времени, вычисления нетрудно проводить непрерывно или после измерений.

4.6.4. Оценивание методом максимального правдоподобия

Рассмотрим совместную функцию распределения плотности вероятно­ сти Д а , уо | у(fi), y(t2), ..., y{tn)) для а и уоЕсли возможно найти максимум этой функции относительно всевозможных наборов а и у0, то оценки, полу­ ченные таким образом, и являются максимально правдоподобными оцен­ ками.

Учтем правило умножения вероятностей, если события А и В зависимы, то вероятность А при условии В

Р(А I В) = P(y*,ZB) > щ

=т ■Р(А I В) = Р(А) Р(В I Л).

Тогда апостериорную функцию (с учетом результатов эксперимента) распределения плотности вероятности можно представить в виде отношения двух плотностей вероятности

Р(а,у0 Я1 М . .Я М ) =Жа>>>о .Ж |) - Я * 1 »

Яа>.Уо,ЯМ> -,y(ti))=P(y(t«) Ia,y»,Atn-ù. . . . Я М ) хP(.0 -,yo,y(tn-\), -.Я М )-

Эту операцию можно продолжать до тех пор, пока не получится выра­

жение

 

Д а .Л .Я М... Я М ) =Р(а>Уо) П Р Ш

I“ .-VO.MA-I). -> Я М )-

Д а .У о )]!Д Я Ма-УоУ(*1I -1 ).-»Я М )

Р(а,Уо I Я и .- .Я М ) = _ _ _ _ _1=1

_ _ _ _ _ _ _ _ _ _ _ _ _ _

р (уЮ .....Я М

Исследование решения

показывает, что переменная У(^) зависит только от а , у0 и s(f,) и не зависит

от предыдущих измерений.

 

 

Следовательно, можно записать

 

Iа >л )*

Л Я М I«>Уо,Я м О......Я М ) = Я Я М

Таким образом, совместная функция распределения плотности вероят­

ности равна

 

 

Р (а ,^ о )П ^ (Я 'г)1 « .Л )

Я а .У о ! Я М . Я М ) =________1_____________

 

Логарифм функции правдоподобия

P iA Q - A h ) )

 

 

I = In Р(а,у0) + Z { 1пР(у(^) | a,y 0) +

[КО “

^ */) - Ф Ш -

-ln P (y(rrt), ...,у(гО),

где X - множитель Лагранжа.

Учитывая, что P(y(ti) | а, у0) = Р(е(/*)) - функция распределения плотно­ сти вероятности (для случайной величины) и, в частности, для нормального закона

Р(е(*,)) =

1

|1/2 •exp

- i e

r (fi) r - 1(ï/)e(^)J,

(4.5)

 

(2я)”/2-|Г(/()|

-

-

 

\---/

I “

I

 

где |Г| = det Г, а Г - ковариационная матрица для е (т.е. для откликов).

 

Ь^\пР(а.,у0) +

^ Р Ш

) +Хт(М [Я М -Ч '(а,;> 'о,М -е(М ])-

- InР Ш , - .Я М ) -

Дифференцируем по параметрам.

 

dL

d

т

 

[

• 7 7 - г = T T T ln /'(Ëf t ) ) - x r f t ) = 0.

(4.8)

de(tt)

dz{tt)

v"

Прологарифмируем (4.5):

 

 

 

In

= In ЛГ- j

(бгГ ‘ 8).

 

A затем возьмем производную по е(/>) и подставим в (4.8):

-err , ->/ft) = 0.

Решив уравнение относительно Щ), можно исключить \(ь) из уравне­ ний (4.6), (4.7).

X(/,) = - r 'ft) E(0 = - r 'ft)

/,)].

Введем для удобства новый вектор-столбец а*, в котором все элементы матрицы а расположены следующим образом:

« и '

а,2

CCjv

аа 21

а 2у

Предположим, что у0 и а имеют совместное нормальное распределе­ ние и что распределения для а* иуо записываются в виде

* » )ш ( 2 . ) * |‘й „ Ч ~ Ч 1~ J," l ) r a " fa,« -

где По* и Qjo - ковариационные матрицы; индекс (0) обозначает начальные (априорные) оценки а* иуо-

Если предположить, что а* иуо независимы, то

InР (а\ уо) = In Р(а ) + InР(уо\

InР(у0) = In i (Уо -yo{QY C V V o о \

4 - м ы —

■Уо>

<tyo

 

— In P(a) = -{a - a (0yf

Q j ,

da

 

Подстановка априорных распределений в первые два уравнения системы (4.6)-{4.7) дает уравнения, из которых можно получить оценки дляуоиа*:

 

1

аУо

.

1

do.

 

В предположении, что элементы матрицы Q по существу бесконечны

(априорное знание расплывчато), т.е. Q"1 s

0, то уравнения максимального

правдоподобия совпадают с соответствующими уравнениями метода наи­ меньших квадратов, и поэтому к ним применимы те же самые показатели точности.

4.6.5. Применение методов оценивания

Рассмотрим скалярную модель

У=У+£, где х0 - постоянный входной сигнал.

Решение:

У= у0еш + Jx(x)ea(' X)dx = у0е

о

Пусть начальное значение уо и параметр а имеют гауссово распре­ деление

Дисперсия ненаблюдаемой ошибки

Е Ш ) =0,

 

£(s(/l)e(/y)) =

* =j-

 

 

Уравнения для оценивания методов наименьших квадратов

т ) - У *

5 l ( l - e s'.)

е " '= 0 ,

 

' + а 4

'

 

 

I

~ ( l - e S//)

{ ^ о е 5''- р - И ( 1 - й О - 1 ] } = 0 .

1L

 

 

 

 

Уравнения для оценивания методом максимального правдоподобия

1 L

% •*' + ^ ( l - e 5'')]e5'- =0,

 

а

J

 

(а - а (0) ) ^ +

- ÿ0e5'' +

(l - e5'' )jj/ ^ e 5'' - g - (e"0'-(1 - at,-) - l)J = 0.

Уравнения нелинейны по оценкам параметров, однако их можно ре­ шить каким-нибудь методом итераций, например, методом Гаусса.

4.6.6. Выводы и сравнение методов

Для очень малых априорных ошибок порядка a у = а а = 0,01 оценива­

ние методом максимального правдоподобия (ММП) дало лучшие результаты, чем оценивание методом наименьших квадратов. Когда стандартное откло­ нение априорных ошибок возросло, применение МНК, по сравнению с ММП, дало лучшие результаты.

Было проанализировано влияние длины экспериментального интерва­ ла. С помощью ММП были получены более точные результаты, чем при ис­ пользовании МНК, для одного и того же полного числа экспериментальных точек, т.к. априорная информация становится особенно важной, когда экспе­ риментальная информация со временем уменьшается.

Для неустойчивой модели все типы оценок одинаковы, и их точность улучшается с увеличением экспериментального интервала. Для оценивания каждым из рассмотренных методов требуется примерно одинаковое время.

Можно заключить, что ММП является наилучшим в том смысле, что приводит к более точным оценкам. К тому же он дает оценки, которые нс яв­ ляются более смещенными, чем полученные другими методами.

5. СТАТИСТИЧЕСКОЕ ИМИТАЦИОННОЕ МОДЕЛИРОВАНИЕ

Для моделирования процессов на ЭВМ необходимо преобразовать его математическую модель в специальный моделирующий алгоритм. При статистическом имитационном моделировании реализация моделирующе­ го алгоритма является в некотором смысле имитацией элементарных явле­ ний, составляющих исследуемый процесс, с сохранением их логической структуры, последовательности протекания во времени и особенно - ха­ рактера и состава информации о состояниях процесса.

Статистическое имитационное моделирование представляет собой метод получения с помощью ЭВМ статистических данных о процессах в моделируемой системе. При решении задач используются методы мате­ матической статистики.

Различают две области применения статистического моделирования:

-изучение стохастических систем;

-решение детерминированных задач.

При решении детерминированных задач задача заменяется эквива­ лентной стохастической моделью, выходные характеристики которой сов­ падают с результатом решения детерминированной задачи.

В результате статистического моделирования системы получается серия частных значений искомых величин или функций, статистическая обработка которых позволяет получить сведения о поведении реального объекта (процесса) в произвольные моменты времени. При большом коли­ честве реализаций результаты приобретают статистическую устойчивость.

Теоретической основой метода статистического моделирования яв­ ляются предельные теоремы теории вероятности.

Множества случайных явлений (событий, величин) подчиняются оп­ ределённым закономерностям, позволяющим не только прогнозировать их поведение, но и количественно оценивать некоторые средние их характе­ ристики, проявляющие определённую устойчивость. Закономерности на­ блюдаются и в распределениях случайных величин, которые образуются при сложении множества воздействий. Принципиальное значение пре­ дельных теорем состоит в том, что они гарантируют высокое качество ста­ тистических оценок при весьма большом числе испытаний (реализаций) N. Однако практически приемлемые при статистическом моделировании ко­ личественные оценки характеристик систем часто могут быть получены уже при сравнительно небольших N.

5.1.Основные соотношения и теоремы

5.1.1.Неравенство Чебышева

Если распределение выборочной статистики неизвестно, довери­

тельный интервал для любой случайной величины X с конечной дисперси- 2

ей <зх можно определить, используя неравенство Чебышева. Неравенство

Чебышева устанавливает, что вероятность получения значения нормиро­ ванной случайной величины, равного или меньшего, чем число Л, по край­

ней мере, равна 1 -

Пусть cp(jc) - неотрицательная функция случайной переменной х.

Покажем, что если математическое ожидание Е{ ср(дс)} существует,

то для любой положительной постоянной С вероятность, что <р(х) > С, не

превосходит отношения

, т.е. Р{ср(х > С)} <

.

 

С

С

Пусть £ - набор х , для которых ф(х) > С, а

набор оставшихся х.

Тогда

 

 

£ ( ф М ) = | ф ( х ) / ( х )д + / ф ( х ) / ( х ) & .

ïÏ*

Так как каждый интеграл в правой части неотрицателен, то оставим только первый интеграл, в результате появится неравенство:

£(<р(*))> | Ф(х )/(х )& .

$

По определению ср(х) > С для некоторого С, следовательно, можно

заменить <р(х) постоянной С, и неравенство еще более усилится.

£(<р(х))> С \f{x)dx = С Р (ф )> С ).

S

Отсюда Р{ф(* > С)} <

.

Положим

ф(х)= (х- Е(х)У, С = hzo \.

Получим неравенство Чебышева:

Тогда

4 х - £ ( х ) ) 2 ^

2 . о 2 х } ^ ,

no

или

 

p i & x - E ( x j ) Z h a x } < - j ,

 

h

 

P&x-E{x))<h • a,}> 1- ■— .

 

h

5.1.2.

Обобщённая теорема Чебышева

Если Çi, ÇAT -

независимые случайные величины с математиче­

ским ожиданием au .... aNи дисперсиями о2!, —, G2N>ограниченными свер­ ху одним и тем же числом, то при N -> оо среднее арифметическое значе­ ний случайной величины сходится по вероятности к среднему арифмети­ ческому их математических ожиданий:

 

5.1.3.

Центральная предельная теорема

Если

...» -

независимые, одинаково распределённые случайные

величины, имеющие математическое ожидание а и дисперсию а 2, то при

N -> оо закон распределения суммы

N

неограниченно приближается

 

1

к нормальному.

Статистическое моделирование на ЭВМ требует формирования зна­ чений случайных величин, что реализуется с помощью датчиков (генера­ торов) случайных чисел.

5.2. Формирование случайных чисел

Возможны два способа формирования случайных чисел на ЭВМ. Первый способ предполагает выработку случайных чисел при по­

мощи специальных электронных приставок, связанных с ЭВМ. Преиму­ щество в том, что требуемые случайные числа могут вводиться в машину в каждый такт её работы, т.е. генерирование случайных чисел почти не требует дополнительных операций машины.

Второй способ - выработка случайных чисел самой машиной по специальным алгоритмам при использовании некоторой стандартной со­ вокупности случайных чисел. Необходимо выбрать такую совокупность, которая получается с наименьшими затратами машинного времени, а так­ же позволяет достаточно просто формировать различные случайные реа­ лизации. Считают, что этим требованиям удовлетворяет совокупность случайных чисел с равномерным законом распределения в интервале [0,1].

Соседние файлы в папке книги