Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Нечёткое, нейронное и гибридное управление

..pdf
Скачиваний:
5
Добавлен:
12.11.2023
Размер:
3.91 Mб
Скачать

В методе Хэбба обучение является локальным явлением, охватывающим только два нейрона и соединяющим их синапс, и не требует глобальной системы обратных связи для развития нейронных образований. Имеются два расширения метода Хэбба: сигнальный и дифференциальный. При сигнальном расширении метода Хэбба, сочетающего сигмоидальную функцию активации и метод обучения Хэбба,

OUTi 1 exp(1 NETi ) F(NETi ).

Тогда

wij (t 1) wij (t) OUTi OUTj ,

где wij (t) – сила синапса от нейрона i к нейрону j в момент времени t; OUTi – выход пресинаптического нейрона, равный F(NETi ); OUTj – выходпостсинаптического нейрона, равный F(NETj ).

Сигнальный метод обучения Хэбба. Метод обучения Хэбба се-

ти, использующей сигмоидальные функции активации, есть метод сигнального расширения, который предполагает вычисление свертки предыдущих изменений выходов для определения изменения весов. Выход NET нейрона есть взвешенная сумма его входов

NETj OUTi wij ,

i

где NETj – выход NET нейрона j; wij – вес связи нейрона i с нейроном j, OUT – выход нейрона i вычисляется по формуле

OUTi 1 exp(1 NETi )

F(NETi ), wij (t 1) wij (t) OUTi OUTj ,

181

где F(NETi ) – выходной уровень пресинаптического нейрона; F(NETj ) – выходной уровень постсинаптического нейрона.

Дифференциальный метод обучения Хэбба. Дифференциаль-

ное расширение метода Хэбба имеет следующее равенство:

 

 

 

 

,

wij (t 1) wij (t) OUTi (t) OUTi (t 1) OUTi (t) OUTj (t 1)

 

где wij (t) – сила синапса от нейрона i к нейрону j в момент времени t; OUTi (t) – выходной уровень пресинаптического нейрона в момент времени t; OUTj (t) – выходной уровень постсинаптического нейрона в момент времени t.

Метод обучения С. Гроссберга

Обучение входной звезды. Входная звезда (рис. 2.23) распознает образы, т.е. обучается реагировать на определенный входной вектор X и ни на какой другой.

Рис. 2.23. Входная звезда

Это обучение реализуется настраиванием веса таким образом, чтобы он соответствовал входному вектору. Выход входной звезды

182

определяется как взвешенная сумма ее входов. Процесс обучения выражается следующим образом:

wi (t 1) wi (t) xi wi (t) ,

где wi – вес входа xi ; – нормирующий коэффициент обучения,

который имеет начальное значение 0,1 и постепенно уменьшается в процессе обучения. После завершения обучения предъявление входного вектора X будет активизировать обученный входной нейрон.

Обучение выходной звезды. Выходная звезда (рис. 2.24), воз-

буждаясь, вырабатывает возбуждающий сигнал для других нейронов всякий раз, когда она возбуждается.

 

 

Y2

 

 

 

 

Y3

 

W2

 

Y1

 

 

 

 

W1

 

W3

 

 

 

 

 

 

 

Y

 

 

 

 

Wn

Y

 

 

 

 

 

 

4 W4

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Y5

W

 

 

W7

 

 

 

 

5

 

W6

 

Y7

 

 

 

 

 

 

 

 

Y6

 

 

 

 

 

 

 

 

Рис. 2.24. Выходная звезда

 

Чтобы обучить нейрон выходной звезды, его веса настраиваются в соответствии с требуемым целевым вектором. Алгоритм обучения выражается следующим образом:

wi (t 1) wi (t) xi wi (t) ,

где – нормирующий коэффициент обучения, который имеет начальное значение 0,96 и постепенно уменьшается до нуля в процес-

183

се обучения. После завершения обучения предъявление входного вектора X будет активизировать обученный входной нейрон.

Как и входная звезда, веса выходной звезды постепенно настраиваются над множеством вектором, представляющим собой обычные вариации идеального вектора.

Самоорганизация (алгоритм Кохонена)

Алгоритм трактует набор из n входных весов нейрона как вектор в n-мерном пространстве. Перед обучением каждый компонент этого вектора весов инициализируется в случайную величину. Затем каждый вектор нормализуется в вектор с единичной длиной в пространстве весов – для этого выполняется деление каждого случайного веса на квадратный корень из суммы квадратов компонент этого весового вектора.

Все входные векторы обучающего набора также нормализуются, и сеть обучается согласно следующему алгоритму.

1.Вектор X подается на вход сети.

2.Определяются расстояния Dj n-мерном пространстве)

между X и весовыми векторами Wj каждого нейрона. В эвклидовом пространстве это расстояние вычисляется по формуле

Dj

(xi wi )2j ,

 

i

где xi – компонента i входного вектора X; wij – вес входа i-го ней-

рона j-му нейрону.

3. Нейрон, который имеет весовой вектор, самый близкий к X, объявляется победителем. Этот вектор становится основным в группе весовых векторов, которые лежат в пределах расстояния D

от WС.

4. Группа весовых векторов настраивается в соответствии со следующим выражением:

W (t 1) W (t) X W (t)

j j j

для всех весовых векторов в пределах расстояния D от WС.

184

5. Повторяются шаги с 1-го по 4-й для каждого входного вектора.

В процессе обучения нейронной сети расстояния D и постепенно уменьшаются. Рекомендуется, чтобы коэффициент в начале обучения устанавливался близким к единице и уменьшался в процессе обучения до нуля. В то же время D может в начале обучения равняться максимальному расстоянию между весовыми векторами и в конце обучения стать настолько малым, что будет обучаться только один нейрон. Согласно рекомендации Кохонена для получения хорошей статистической точности количество обучающихся циклов должно быть в 500 раз больше количества выходных нейронов. Обучающий алгоритм настраивает весовые векторы в окрестности возбужденного нейрона таким образом, чтобы они были схожи с входным вектором.

2.7. Измерительный нейрон. Эквисторная нейронная сеть

В настоящее время широкое применение получили аналогоцифровые преобразователи (АЦП), в том числе АЦП двоичного поразрядного уравновешивания, которые составляют примерно 85 % всего выпуска и с временной разверткой (интегрирующие) – 15 %. Однако, как показано в [40], они не обеспечивают оптимального соотношения по быстродействию и точности. Первым направлением развития структур АЦП является параллелизм в вычислениях потоковой динамической архитектуры измерительных сигналов.

Первым направлением развития структур АЦП является параллелизм в вычислениях потоковой динамической архитектуры измерительных сигналов.

Вторым направлением является построение адаптивных АЦП, характеристики которых должны подстраиваться под возрастающую интенсивность поступающей информации при условии ее избыточности, путем изменения связей между элементами входа. Однако здесь имеются жесткие ограничения на параметры измеряемых сигналов и пропускную способность измерительного канала.

Третьим направлением является повышение интеллектуализации измерительной техники.

185

Четвертое направление связано с переходом к структурам ма- гистрально-модульного типа на базе нейронных систем. Разработка измерительного нейрона и на его базе нейронных сетей позволит проектировать многоканальные АЦП, адаптирующиеся к параллелизму измерительных процедур, с перестраиваемой архитектурой.

Измерительный нейрон содержит блок логических элементов и формальный нейрон Мак-Каллока и Питтса. Поведение формального нейрона описывается следующим соотношением:

F(i 1)

n

 

sign wi ai (t) .

 

i 1

 

У измерительного нейрона различаются два типа входов: функциональные и синаптические. С каждым входом измерительного нейрона сопоставляется некоторая логическая переменная xi ,

где i 1, 2, ..., n. Величина xi 1 означает, что соответствующий

вход возбужден (активирован), в противном случае – нет. Аналогично с каждым синапсом сопоставляется некоторая двоичная переменная aj , где j 1, 2, ..., m. Величина aj 1 означает, что си-

напс возбужден, в противном случае – нет. Весовым коэффициентам синапсов wi приписывается знак плюс, если соответствующий

синапс возбуждающий, и минус – если тормозящий. На рис. 2.25 показана блок схема измерительного нейрона, где на входе формального нейрона с пороговой активационной функцией включается в зависимости от функционального назначения соответствующая логическая схема.

 

 

 

 

w1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x1

 

 

 

 

 

 

 

 

x2

1

 

 

 

 

 

3

 

 

 

w2 2

 

 

 

 

 

 

 

F

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

xn

 

 

w

 

 

 

 

 

 

 

 

n

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис. 2.25. Блок-схема обобщенного измерительного нейрона

186

Варианты взаимодействия нормальных входов и их логические эквивалентные схемы приведены на рис. 2.26.

Рис. 2.26. Варианты взаимодействия нормальных входов и их логические эквивалентные схемы

Помимо обычных входов, работающих по принципу ДА-НЕТ, могут быть спонтанные входы, которые постоянно находятся в возбужденном состоянии. Если спонтанный вход не взаимодействует с другими входами, то его действие приводит к постоянному смещению порога нейрона в сторону увеличения или уменьшения в зависимости от типа соответствующего синапса. Аналогичное влияние на порог нейрона имеет место, если спонтанный вход объединяется с нормальным входом. Если спонтанный вход запрещается или разрешается нормальным входом, то соответствующий синапс снова будет работать по принципу ДА-НЕТ. На рис. 2.27 приведены примеры спонтанных и нормальных входов и их логические эквивалентные схемы.

Рис. 2.27. Варианты взаимодействия нормальных и спонтанных входов и их логические эквивалентные схемы

187

Рассмотрим возможность применения принципов перестраиваемой архитектуры к реализации АЦП, базирующихся на потоковых динамических архитектурах с управлением данными. Структуру АЦП на потоковых динамических архитектурах с управлением данными составляют однотипные измерительные нейроны и однотипные связи между ними, это так называемая эквисторная структура. Каждый нейрон эквисторной структуры соединяется с нейронами, расположенными в некоторой окрестности и имеющими конечную скорость передачи данных.

Для правильной работы эквисторной структуры необходимо обеспечить условие направленности распространения информации. Это позволяет рассматривать нейрон как элемент, реализующий одну автоматно-соединительную функцию. Для сложной логической структуры необходимо задавать в эквисторной структуре большое число возбужденных нейронов и сохранить их состояние в течение всего процесса функционирования. Например, при совокупности 24 двухразрядных нейронов можно обеспечить:

четыре 12-разрядных нейронов;

два 24-разрядных нейрона;

шесть 8-разрядных нейронов;

один 16-, один 12- и два 8-разрядных нейрона;

их различные сочетания.

Соединение нейронов и входных сигналов выполняется полным коммутатором, т.е. каждый нейрон может подсоединиться к любому другому нейрону. При синхронной структуре управления каждый нейрон имеет определенные встроенные устройства управления. При асинхронной организации предусматривается центральный блок управления.

В настоящее время известны различные дискретные модели нейронов [41], которые объединяются под общим названием пороговые элементы, обобщением которых является понятие формального нейрона. Рассмотрим формальную модель измерительного нейрона. Отличие в структуре формального измерительного нейрона от формального нейрона вызваны:

188

ориентацией на эквисторную нейронную сеть;

реализацией измерительного алгоритма поразрядного кодирования;

особенностями технического применения для уравновешивания обращенной матрицы R-2R.

С учетом изложенного структура одноразрядного формального измерительного нейрона представлена на рис. 2.28.

Рис. 2.28. Структура формального измерительного нейрона на обращенной матрице R-2R для эквисторной нейронной сети

измерительной системы: ММУ – модульное устройство управления; БВВ – блок взаимодействия входов

Одноразрядный формальный измерительный нейрон состоит

– из разряда обращенной матрицы R-2R, содержащей резисторы R и 2R, измерительный ключ Кu, резистор номиналом 2R (2Rс), ключ Кс, предназначенный для симметрирования разряда матрицы. Эти элементы реализуют функции сумматора взвешенного сигнала и порогового устройства нейрона;

189

– блоков коммутаторов К11, К12, К2, К3, модульного устройства управления, реализующих функцию блока взаимодействия входов нейрона и обеспечивающих построение эквисторной структуры нейронной сети АЦП.

С помощью коммутаторов К11, К12, К3 k-формальный измерительный нейрон (разряды матрицы R-2R) образуют j-динамическую группу измерительных преобразователей, последовательность и порядок подключения формального измерительного нейрона определяется топологией эквисторной нейронной сети с помощью настроечных входов в шине С. Если q-формальный измерительный нейрон (k = q) является последним в структуре j-динамической группе измерительных преобразователей, то в нем замыкается ключ Кc, что обеспечивает симметрирование созданной матрицы R-2R разрядностью q (q – число требуемых разрядов для измерения входного сигнала xj при условии, что k-формальный измерительный нейрон представляет собой одноразрядный измерительный элемент). Включение с помощью ключа Кс резистора 2Rс в последнем k-фор- мальный измерительный нейрон j-динамической группы измерительных преобразователей равносильно наличию 2Rс в классической структуре обращенной матрицы R-2R.

Рабочий такт k-формального измерительного нейрона начинается с подачи на вход модульного устройства управления управляющих сигналов в шине С. В результате этого напряжение UОПj через коммутатор К1, делитель R-2R, коммутаторы KU, K3 поступает на суммирующий вход усилителя постоянного тока и далее на

j-сравнивающее устройство. Одновременно UОПi j UОПj Кп поступа-

ет на вход следующего (по порядку включения) в j-динамической группе измерительных преобразователей (k + 1) – формального измерительного нейрона. Во втором цикле рабочего такта при отсутствии запрещающего сигнала j-сравнивающего устройства (через К2) значение UЭТjk фиксируется на выходе k-формального измери-

k

тельного нейрона, в противном случае, если UЭТК превышает xj ,

i 1

190