Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Проектирование и исследование идентификационных моделей управляющих систем реального времени

..pdf
Скачиваний:
3
Добавлен:
12.11.2023
Размер:
7.25 Mб
Скачать

блемы построения и обучения нейросетевых моделей объектов в замкнутом контуре управления и сформировать научно-методические основы разработки нейроэкспертных распознавателей.

Анализ приведенных источников показывает, что идентификация технических объектов с использованием аппарата ИНС имеет следующие преимущества:

нейросетевая модель объекта управления (ОУ) при успешном обучении является более точной, чем модель, в основе которой лежит передаточная функция, особенно при идентификации объектов высокого порядка со сложным математическим описанием;

применение нейросетевых моделей дает возможность моделирования динамики ОУ в различных режимах, в том числе экстремальных, которые невозможно воспроизвести на имеющемся лабораторном оборудовании;

нейрорегуляторы позволяют синтезировать высококачественные САУ нестационарными объектами и объектами с распределенными параметрами.

2.7.1. Основные понятия искусственной нейронной сети

Нейронные сети – это математические модели, состоящие из элементарных единиц обработки информации (нейронов), накапливающих экспериментальные знания и предоставляющих их для последующей обработки. К важнейшим свойствам нейронных сетей относятся параллельность обработки информации одновременно всеми нейронами, способность к обучению, абстрагированию и обобщению полученных знаний. Наличие таких характеристик обеспечивает получение ожидаемой реакции сети применительно к соответствующим данным, нечувствительность нейронной сети к малым изменениям входных сигналов, а также возможность работы с искаженными вариантами анализируемых объектов [32].

Основные понятия ИНС: нейрон, слой и обучение. Элементарным функциональным звеном, из которых состоит ИНС,

является нейрон, который представляет собой модель нейрона живого мозга.

Различают непрерывные и импульсные модели искусственных нейронов. В прикладных задачах управления чаще всего применяются модели непрерывных нейронов (рис. 2.28).

91

Рис. 2.28. Функциональная схема модели искусственного нейрона

Непрерывная модель нейрона работает следующим образом: входные сигналы xi , каждый со своим коэффициентом – синапсом wi ,

поступают на вход линейного сумматора. Выходной сигнал сумматора поступает на вход активационного нелинейного блока. Обычно активационные блоки ограничивают выходной сигнал нейрона в заданном диапазоне [0; 1]

Математической моделью искусственного нейрона являются уравнения сумматора

sk =

n

 

wik xi

(2.138)

 

i = 0

 

и уравнения активационного блока

yk = φ(sk ).

(2.139)

Слой – множество нейронов, имеющих общие выходные или входные сигналы.

В зависимости от функций, выполняемых в сети, можно выделить входной, промежуточные (скрытые) и выходной слои (рис. 2.29).

Входной слой служит для распределения данных по сети и не производит никаких вычислений. Выходы этого слоя передают сигналы на входы следующего слоя (скрытого или выходного).

Выходной слой обычно содержит один нейрон (может и больше), который выдает результат расчетов всей нейронной сети. На основании этого сигнала строится дальнейшая логика управления советника.

92

Рис. 2.29. Структурная схема многослойной нейронной сети

Скрытые слои слои обычных нейронов, которые передают сигналы от входа к выходу. Их входом служит выход предыдущего слоя, а выход – входом следующего слоя.

Обучение – этап функционирования нейронной сети, в процессе которого происходит настройка параметров нейронной сети, в частности весовых коэффициентов нейронов, для получения наиболее адекватного сигнала на выходе сети.

Различают два алгоритма обучения: с учителем и без учителя. Обучение с учителем предполагает, что для каждого вектора

входных сигналов известен вектор выходных сигналов, и обучение заключается в том, чтобы настроить весовые коэффициенты (синапсы) так, чтобы минимизировать ошибку.

Обучение нейронной сети без учителя является намного более правдоподобной моделью обучения с точки зрения биологических корней искусственных нейронных сетей. Обучающее множество состоит лишь из входных векторов. Алгоритм обучения нейронной сети подстраивает весовые коэффициенты сети так, чтобы получались согласованные выходные векторы, т.е. чтобы предъявление достаточно близких входных векторов давало одинаковые выходы.

93

2.7.2. Постановка задачи идентификации на основе ИНС

Наиболее точной моделью для описания объектов и систем управления является нелинейная модель, представленная в виде системы нелинейных дифференциальных уравнений. Таким образом, идентификация заключается в формировании системы нелинейных дифференциальных уравнений, определении коэффициентов этих уравнений из экспериментальных данных, решении систем нелинейных дифференциальных уравнений (ДУ) и дальнейшей проверке адекватности модели (рис. 2.30).

Рис. 2.30. Схема идентификации

Выбор типа и порядка системы уравнений и критерия оптимизации осуществляется произвольно исходя из априорной информации об объекте. Целесообразно воспользоваться двухэтапной процедурой идентификации нелинейных систем и методом наименьших квадратов в качестве критерия. Аппроксимация нелинейных коэффициетов реализуется с помощью нейронной сети [33].

Аппроксимируемая функция определяется в соответствии с урав-

нениями (2.138) и (2.139):

y = φ(∑ (wiφ(∑ wj φwk xk ))),

(2.140)

i

j

k

 

где количество сумматоров определяется количеством слов в ИНС. Подобное представление аппроксимированной функции может

быть при необходимости усложнено как увеличением числа слоев, так и изменением числа нейронов в каждом слое нейронной сети, введением перекрестных связей в структуре нейронной сети, введением обратных связей в структуре нейронной сети.

94

Рис. 2.31. Нейросетевой подход к идентификации объекта

Таким образом, общая методика нейросетевого подхода к идентификации объекта может быть представлена следующим образом (рис. 2.31).

2.7.3.Идентификация динамических объектов

спомощью нейронной сети Кохонена

Идентификация динамического объекта с входным вектором U(t) и выходным вектором Y(t) представляет собой задачу определе-

ния структуры и параметров модели с выходным вектором Ym (t) , удовлетворяющих условию минимизации ошибки [34] E(t) = Y(t) Ym (t) (рис. 2.32).

Рис. 2.32. Схема идентификации динамического объекта

В результате некоторого интервала времени t [0, tk ] фиксируют-

ся дискретные значения входного и выходного векторов через равные интервалы ∆ T. Тогда задача идентификации сводится к определению вида функции f :

y(t) = f ( y(0), y(1),

, y(n 1), u(0), u(1), , u(n 1), u(n)) , (2.141)

где y(i) = y(iT ), u(i)=

u(i T ) .

 

95

Рассматриваемая схема идентификации называется последова- тельно-параллельной (рис. 2.33), в каждый момент времени на вход модели подаются известные измеренные значения входного и выходного сигналов объекта.

Рис. 2.33. Последовательно-параллельная схема идентификации

Задачу идентификации можно рассмотреть в другом виде:

Y(t) = f (Ym (0), Ym (1), , Ym (n 1), U(0), U(1), , U(n)) , (2.142)

где Ym (i) – вектор выходов модели, Ym (i) = Ym (iT ) .

Такая схема идентификации называется параллельной (рис. 2.34), в каждый момент времени на вход модели подаются измеренные значения входного сигнала объекта и выходы модели в предыдущие моменты времени.

Идентификация данного динамического объекта может быть осуществлена с помощью нейронной сети Кохонена, которая получила название VQTAM – модифицированная самоорганизующаяся карта Кохо-

нена [35, 36].

Xin (t)

В данной нейронной сети вектор входных признаков X(t) = Xout (t)

разделен на две части Xin (t) и Xout (t).

96

 

Рис. 2.34. Параллельная схема идентификации

Первая

часть входных

признаков

Xin (t)

содержит информация

о входах

динамического

объекта

и

его

предыдущих выходах

Xin (t) = ( y(0), y(1), , y(n 1), u(0),

u(1),

, u(n 1), u(n)) .

Вторая часть вектора входных признаков

Xout (t) содержит ин-

формацию о предполагаемом выходе данного динамического объекта, соответствующем входам Xin (t) .

Вектор весов разделен аналогичным способом:

 

win (t)

w

(t) =

i

,

 

i

wout (t)

 

 

i

 

где wi (t) – вектор весов i-го нейрона;

wini (t) – часть вектора весов, содержащая информацию о входах процесса;

wiout (t) – часть вектора весов, содержащая информацию о выходах

процесса.

Каждый пример выборки состоит из пары векторов (Y(t), U(t)), и выборка должна содержать не менее n примеров. Вектор U(t) пред-

97

ставляют собой вектор входов процесса в момент времени t, а Y(t) – вектор выходов этого процесса в тот же момент времени.

После подачи на вход сети очередного входного вектора x(t), составленного из нескольких примеров обучающий выборки, нейронпобедитель определяется только по вектору xin (t) :

i* (t) = arg min {

 

 

 

xin (t) win (t)

 

 

 

},

(2.143)

 

 

 

 

где i* (t) – номер нейрона-победителя на шаге t .

Для изменения весов может быть применено модифицированное правило изменения весов для обычной самоорганизующейся карты Кохонена (SOM):

win (t)= α

(t)h(i* , i, t)[xin (t)

xiin (t)],

(2.144)

wout (t)= α

(t)h(i* , i, t)[xout (t)

wiout (t)],

(2.145)

где α (t) – скорость обучения сети ( 0 < α (t)<

1 );

 

h – функция соседства нейронов i и i* .

В качестве функции соседства h(i* , i, t) может быть выбрана, например, гауссова функция:

 

 

 

 

 

 

ri (t) ri* (t)

 

 

 

2

 

 

 

 

 

 

 

 

 

 

h(i* , i, t) = exp

 

 

 

 

 

 

 

 

 

,

(2.146)

 

 

 

 

 

 

 

 

 

2σ 2 (t)

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где

r (t) и r* (t) – положения па карте нейронов i и i*

соответственно;

 

i

i

 

 

σ (t)>

0 – определяет радиус функции соседства на шаге t.

После выбора нейрона-победителя i* выход этого нейрона окрашивается вектором wiout* .

В режиме работы на вход VQTAM подается только вектор xin (t) , для которого определяется нейрон-победитель, и его выход окрашивается в wiout* . Вектор wiout* может быть интерпретирован как предсказанный выход Y(t) процесса объекта в момент времени t.

В рекуррентой самоорганизующейся карте Кохонена (RSOM) для каждого нейрона определен вектор выходов, затухающий во времени, по которому определяется нейрон-победитель и происходит излечение весов.

98

Вектор входов сети определяется следующим образом:

x(t) = ( y(0), y(1), ,

y(n 1), u(0), u(1), , u(n)) .

(2.147)

Выход каждого

нейрона

определяется как

Vi (t) =

 

 

 

vi (t)

 

 

 

, где

 

 

 

 

vi (t) = (1− α )vi (t1)+ α

(x(t) wi (t)), α – константа,

коэффициент зату-

хания выхода ( 0 < α ≤

1 ); Vi (t) – выход i-го нейрона на такте t ;

wi (t) –

вектор весов i-го нейрона.

После подачи на вход сети очередного примера нейрон-победитель определяется как нейрон с минимальным выходом:

i* (t) = arg min {V (t)}.

(2.148)

 

i

 

Для изменения весов используется измененное правило для обу-

чения карты Кохонена:

 

 

w (t)= α (t)h(i* ,

i, t)v (t),

(2.149)

i

i

 

где α (t) – скорость обучения сети ( 0 < α (t)< 1 );

 

h – функция соседства нейронов i

и i*.

 

После завершения обучения сеть запускается на обучающей выборке и кластеризует параметры сети, образуя кластеры, которые могут быть аппроксимированы линейными функциями. Для каждого кластера строится линейная функция fi (t) .

Таким образом, после запуска сети на тестовой выборке для каждой точки выборки определяется наиболее подходящая линейная функция, по которой может быть предсказан следующий выход процесса.

Этот процесс можно ускорить, используя алгоритмы построения локальных линейных моделей во время обучения нейронной сети. Каж-

дому нейрону сети RSOM ставится в соответствие матрица

Ai (t) , со-

держащая коэффициенты соответствующей линейной модели

 

 

T

(2.150)

Ai (t) = bi,1 (t), , bi,n

(t), ai,1 (t), , ai,n (t) .

Выходное значение сети определяется в соответствии со следую-

щим выражением:

 

 

Y(t) = Ai

(t) U(t) ,

(2.151)

 

Y(t)

 

где Ai (t) – матрица коэффициентов модели динамического объекта, ассоциированная с нейроном-победителем.

99

КОНТРОЛЬНЫЕ ВОПРОСЫ

1.Какие методы построения модели (аналитические, экспериментальные и экспериментально-аналитические) используются на различных стадиях проектирования УС РВ?

2.Какие типы моделей предпочтительны при проектировании

УС РВ?

3.Как выполнить сбор экспериментальных данных? Как использовать эти данные, собранные в реальных условиях проведения полунатурного и натурного моделирования УС РВ?

4.Обоснуйте выбор схемы реализации идентификации подсистем УС РВ в полунатурном и натурном моделировании.

5.Всегда ли ненаблюдаемая СУ является неуправляемой?

6.Может ли неидентифицируемая модель применяться в задачах синтеза систем автоматического управления?

7.Приведите пример неидентифицируемости объекта 3-го порядка при неизвестных параметрах.

8.При каких условиях матрица UUT будет плохо обусловленной? Как это отразится на оценивании параметров одномерной и многомерной линейной регрессионной модели?

9.Поясните разницу между наблюдаемостью и измеряемостью объекта управления.

10.Чем отличаются явные методы идентификации от методов с настраиваемой моделью?

11.Какими недостатками обладает линейный регрессионный анализ при построении динамических моделей?

12.Какие методы идентификации нелинейных систем являются предпочтительными в системах реального времени?

13.Почему методы идентификации с помощью тестовых сигналов называются непараметрическими методами?

14.Когда применяются методы совместного оценивания параметров и состояния?

15.В чем особенности применения нейросетевого подхода к построению идентификационных моделей УС РВ?

100

Соседние файлы в папке книги