Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Нечёткое, нейронное и гибридное управление

..pdf
Скачиваний:
5
Добавлен:
12.11.2023
Размер:
3.91 Mб
Скачать

Эти два подхода к исследованию сложных объектов на основе нейронных сетей и нечетких систем взаимно дополняют друг друга, поэтому целесообразно их объединить на основе принципа «мягких» вычислений, сформулированных Л. Заде в 1994 г. Они сводятся к следующему: терпимость к нечеткости и частичной истинности использования данных для достижения интегрируемости, гибкости и низкой стоимости решений.

При некоторых допущениях можно представить систему нечеткого управления в форме многослойной сети с прямым распространением сигналов, что допускает ее обучение алгоритмом обратного распространения ошибки.

Рассмотрим построение нейронных нечетких сетей на базе нечетких нейронов [14].

Возможны различные варианты наделения нечетких нейронных сетей нечеткостью. Нечеткими могут быть входы, выходы, а также синапсы.

В табл. 3.1 показаны варианты наделения нейронных сетей нечеткостью.

 

 

 

 

Таблица 3 . 1

 

Варианты наделения НС нечеткостью

 

 

 

 

Типы нечетких

Входы

Синапсы

Выходы

нейронов

 

 

 

 

 

Тип 1

 

нечеткие

четкие

четкие

Тип 2

 

нечеткие

четкие

нечеткие

Тип 3

 

нечеткие

нечеткие

нечеткие

Тип 4

 

четкие

нечеткие

нечеткие

Тип 5

 

четкие

четкие

нечеткие

Тип 6

 

четкие

нечеткие

четкие

Тип 7

 

нечеткие

нечеткие

четкие

В табл. 3.1 нечеткие входы реализуются фаззификатором, нечеткие выходы требуют включения дефаззификатора. Нечеткие синапсы – подмножества.

231

Нейронные нечеткие сети с применением нечетких нейронов типа 1 применяются для разделения нечетких входных векторов на четкие классы. Нечеткие нейронные сети с применением нечетких нейронов типов 2, 3, 4 широко применяются для реализации нечетких продукционных моделей (Anfis, TSK и др.). Нечеткий нейрон типа 5 применяется редко. Применение нечетких нейронов типов 6, 7 исключает фаззификацию, так как их выходы являются четкими.

Под обычной нейронной сетью понимается нейронная сеть с нечеткими входами и выходами и/или нечеткими весами с сигмоидальной функцией активации, где все математические операции определены на основе принципа нечеткого расширения Заде.

3.1. Нечеткие нейроны

Нечеткая нейронная сеть – ННС с четкими сигналами, весами и активационной функцией, но с объединением xi и wi , p1 и p2 с

использованием операторов: T-нормы, T-конормы или некоторых других непрерывных операций. Входы, выходы и веса нечеткой нейронной сети– вещественные числа, принадлежащиеотрезку [0,1].

Нечеткий нейрон «И»

В нечетком нейроне И по отношению к искусственному нейрону арифметическое произведение заменяется логической операцией T-норма, арифметическая сумма заменяется логической операцией S-норма + активационная функция, которая опущена по умолчанию [14].

Если в нечетком нейроне сигналы xi (степени принадлежности) и синаптические веса wi, объединить с помощью S-нормы, pi = S(wi, xi), i = 1, 2, …, а выход формировать с применением T-нормы или y =

= T(p1, p2) = T(S(w1, x1), S(w2, x2)), то получим нечеткий нейрон «И»

(рис. 3.1).

232

 

х1

w1

 

y T S w1

 

,...,S wn , хn

 

 

 

, х1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

хn

w

 

 

 

 

 

 

n

 

 

 

 

Рис. 3.1. Нечеткий нейрон «И»

Если принять T = min, S = max, то нечеткий нейрон «И» реализует композицию «min-max»:

y = min{ w1 x1, w2 x2}.

Нечеткий нейрон «ИЛИ»

Если в нечетком нейроне сигналы xi (степени принадлежности) и синапсические веса wi объединить с помощью T-нормы, pi = T(wi, xi), i = 1, 2, а выход образовать с помощью S-нормы или y = OR(p1, p2) =

= S(p1, p2) = S(T(w1, x1), S(w2, x2)), то получим нечеткий нейрон

«ИЛИ» [14] (рис. 3.2).

Если приняты T = min, S = max, то создается композиция

«max-min»:

y = max { w1 x1, w2 x2}.

Рис. 3.2. Нечеткий нейрон «ИЛИ»

Таким образом, отмечены различия между расширенной логикой И и ИЛИ и нечеткими нейронами И и ИЛИ.

233

3.2. Расширение нечетких нейронов [18]

На базе нечетких нейронов И или ИЛИ возможны варианты расширения нечетких нейронов: n1, n2 , n3.

Расширенный нечеткий нейрон n1

Расширенный нечеткий нейрон n1 предполагает четкие входы

и нечеткие веса (подмножества). Весовые коэффициенты нейронов представляют собой нечеткие множества Ai , i 1,..., n, т.е. операции

произведения заменяются операциями взвешивания четких входных сигналов с формированием функций принадлежности, численные значения которых лежат в интервале [0,1], с последующим объединением (агрегированием) в узле с выдачей результирующего сигнала y n1 (x1, x2 ..., xn ), называемого «уровень правдоподобия». Опе-

рацию агрегирования взвешенных сигналов обозначим , для её реализации можно использовать нечеткие операторы T-нормы и S-нормы. В зависимости от типа использования нечетких операторов при реализации операции агрегирования можно получить различные схемы расширения нечеткого нейрона n1 .

Математическое описание расширенного нечеткого нейрона n1 имеет вид (рис. 3.3)

n1 (x1, x2 ..., xn ) A1 (x1 ) A2 (x2 ) ... An (xn ),

где Ai (.) – функция принадлежности i-нечеткого веса; n1 – функция принадлежности выхода.

Рис. 3.3. Модуль расширенного нечеткого нейрона n1 с четкими входными сигналами и нечеткими весами

234

Расширенный нечеткий нейрон n2

Расширенный нечеткий нейрон n2 с нечеткими входными сиг-

налами и нечеткими весами показан на рис. 3.4.

Каждый сигнал на каждом нечетком входе Xi преобразуется

путем

операции

взвешивания

в

нечеткое

множество

Xi Ai Xi ,i 1,..., n

с использованием некоторого оператора ум-

ножения ( ), где Ai

i -й нечеткий вес. Операция взвешивания

здесь не является функцией принадлежности, как нейрон n1 , а вме-

сто нее проводится модификация каждого нечеткого входа. Математическое описание расширенного нечеткого нейрона n2 :

Xi Ai Xi ,i 1,2,...,n;

Y X1 X2 ... Xn ,

где Y – нечеткое множество, представляющее собой выход расши-

ренного нечеткого нейрона n2 ; Xi и

Xi i-й вход до и после опе-

рации взвешивания соответственно;

Ai – нечеткий вес на i-й связи;

– оператор взвешивания двух нечетких множеств (например, операция произведения двух нечетких множеств).

Рис. 3.4. Модель расширенного нечеткого нейрона с нечеткими входами и выходами

Расширенный нечеткий нейрон n3

Расширенный нечеткий нейрон n3 , реализующий нечеткое от-

ношение или нечеткий нейрон с нечеткими входами и одним нечетким выходом, который показан на рис. 3.5.

235

Отношение входа-выхода расширенного нечеткого нейрона n3 представляется с помощью одного нечеткого правила IF THEN :

IF X1 AND X 2 AND...AND X n THEN Y

где X1, X2 ,..., Xn – текущие множества входов; Y – текущее множе-

ство выхода.

Расширенный нечеткий нейрон n3 можно описать нечетким отношением, например:

R X1 X2 ... Xn Y

или в общем случае

R f X1,X2 , ..., Xn , Y

где f – функция нечеткой импликации.

Следовательно, расширенный нечеткий нейрон n3 описывается

нечетким отношением R. Задавая соответствующие входы (четкие или нечеткие) x1,x2 ,..., xn в соответствии с композиционным прави-

лом вывода, получим

Yi X1 X2 (... (Xn Ri ...)) ,

где – оператор композиционного правила вывода.

X1

X2

n3

Yi X1

(X 2

... (X n Ri )...))

Xn

Рис. 3.5. Модель расширенного нечеткого нейрона n3

На базе рассмотренных расширенных нечетких нейронов можно конструировать нечеткие НС различной архитектуры, которые в

236

отличие от обычных НС обладают расширенными возможностями представления и обработки входной и выходной информаций.

3.3. Модули нечеткого нейронного управления [18]

Реализация расширенных нечетких нейронов n1 , n2 , n3 и опе-

раторов T-норма и S-норма в нейросетевом логическом базисе дает основу для построения гибридных нейросетевых моделей. Возможность использования различных активационных функций позволяет разрабатывать «желаемые» логические операторы (например, minоператор для нечеткой операции И, mах-оператор для нечеткой операции ИЛИ).

Нейросетевой нечеткой системой называется такая система, в которой отдельные элементы нечеткости (функции принадлежности фаззификатора, логические операторы отношения, нечеткая импликация и нечеткая композиция) и дефаззификтор реализуются с помощью нейронной системы.

Построение простых форм функций принадлежности (треугольная, «колоколобразная») осуществляется на одном нейроне путем подстройки функции активации к желаемой функции принадлежности.

Пример 3.1. Рассмотреть возможность построения «колоколообразной» ФП (термы) лингвистической переменной. В данном случае «колоколообразная» ФП реализуется одним нейроном, активационная функция которого имеет вид

 

 

net m 2

,

f net exp

 

2

 

 

 

 

 

 

 

 

 

 

где net – вход нейрона; m – значение нечеткой переменной, при которой достигается наибольшее значение ФП; – среднеквадратическое отклонение ФП от максимального значения.

Пример 3.2. Реализовать терм-множество фаззификатора для лингвистической переменной «температура» с применением НС. Под x понимается, например, отклонение температуры. Процесс

237

фаззификации в отличие от синглетонной базы выполняется с помощью НС. Пусть терм-множество состоит из пяти терм: отрицательная средняя (ОС), отрицательная малая (ОМ), норма (Н), положительная малая (ПМ), положительная средняя (ПС). НС включает в себя восемь нейронов с сигмоидальными функциями активации и показана на рис. 3.6, где выходы у1, y2 , y3 , y4 , y5 – есть термы фаз-

зификатора: ОС, ОМ, Н, ПМ, ПС. Узлы со знаком + суммируют сигналы входов нейронов, а узлы с символом f реализуют их сигмоидальные функции. Сеть содержит дополнительно три нейрона с единичной активационной функцией (сумматор).

Рис. 3.6. Нейросетевая реализация пяти терм фаззификатора

Выходы стандартной НС определяются по формулам

 

 

 

 

y1

ОС

 

 

1

 

 

 

 

 

;

 

 

 

 

 

1

exp w1

x wc1

 

 

 

 

 

 

 

 

 

 

y2

ОМ

 

 

 

1

 

 

 

 

 

 

1

;

1

exp w2 x wc2

1

exp

w3 x wс3

 

 

 

 

 

238

y3

Н

 

 

 

1

 

 

 

 

1

;

 

1 exp w4 x wc4

 

1 exp w5 x wс5

 

 

 

 

 

 

 

 

y4

ПМ

 

 

1

 

 

 

 

 

 

1

 

;

1

exp w6

x wc6

1 exp w7 x wс7

 

 

 

 

 

 

 

 

 

 

 

 

 

y5 ПС

 

 

 

1

 

 

,

 

 

 

 

 

 

 

 

1 exp

w8

x wc8

 

 

 

 

 

 

 

 

 

 

 

 

где wci

– параметры смещения сигмоидальных ФП; wi вес сум-

марного сигнала на входе сигмоидальных функций.

Выходы сети есть степени принадлежности активизированных терм. Если сигнала входа нет, то термы фаззификатора неактивизированы и проекции выходного вектора равны нулю (или нечеткое множество выхода фаззификатора равно нулю).

Аналогично строится нейросетевой модуль для любого терммножества фаззификатора. Путем подстройки весовых коэффициентов НС формирует функции принадлежности (термы) фаззификатора.

Пример 3.3. Рассмотреть нейросетевую реализацию нечетких отношений [18].

Основные трудности построения нечетких отношений связаны с настройкой большого числа ФП. Применение нейронной сети с синапсами, соответствующими этим ФП, снимает эту проблему.

Пусть X и Y – нечеткие множества на универсумах U и V и R, описываемых всеми отношениями (связями) между входом и выходом в декартовом произведении U V .

Запишем уравнение нечеткого отношения

 

Y X R .

Пусть U x1, x2 , ..., xn

и V y1, y2 , ..., yn .

Тогда следует

 

239

μY yj max min μx xi R xi ,yi .

(3.1)

x j

 

Выражение (3.1) можно записать, используя матричную запись отношения R:

 

 

 

 

 

 

 

 

 

 

 

 

μR x1,y1

 

. . μR x1,ym

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x 1

 

x

x

2

 

,....,μ

x

x

n

μR x2 ,y1

 

 

 

μR x2 ,ym

. (3.2)

X R μ

x

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

μR xn ,y1

 

 

μR xn ,ym

 

Данное выражение может быть реализовано нейронной сетью

(рис. 3.7).

 

μx x1

 

 

 

 

 

μ

y

у

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

1

 

 

 

 

 

 

μR x1, y j

 

 

 

 

 

 

 

 

 

 

 

μx x2

μR x2 , y j

 

 

μy

у2

 

 

X

 

 

 

Y

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

x , y

 

 

 

 

 

 

 

 

 

 

 

μ

 

 

 

 

 

 

 

 

 

 

μx xn

 

R

3

j

 

μy yn

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

Рис. 3.7. Нейросетевая модель нечетких отношений

Однако, следуя уравнению (3.2), на определенном выходном узле необходимо получить сигнал (max или min), отличающийся от сигналов на других узлах. Если использовать операцию суммирования сигналов на входах нейрона, то результирующий сигнал может быть слишком малым для активационного выхода. Поэтому к каждому выходному узлу рассматриваемой нейронной сети добавляет-

ся порог (blias), обозначаемый bj 0,1 . Тогда уравнение имеет вид

240