Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Статистические и интеллектуальные методы прогнозирования

..pdf
Скачиваний:
6
Добавлен:
12.11.2023
Размер:
8.94 Mб
Скачать

Условия (6.61) соответствуют требованиям, чтобы значение переменной y не выходило за граничные:

y j yн j ,y j yв j.

Величина – допустимое значение для отклонения, обозначавшая ограничения для функции принадлежности перемен-

ной y: (yj ) .

9. Таким образом, задача (6.61), (6.62) может быть определена как задача линейного программирования и решена соответствующими методами относительно параметров сi , di .

10. Результат может быть представлен в виде следующего выражения:

y c0,c0 d0,c0 d0 c1,c1 d1,c1 d1

x1

 

(6.62)

c2,c2 d2,c2 d2 x2,

 

 

 

 

 

где представлены значения, которые может принимать каждый из параметров нечеткой линейной регрессии.

Модель (6.54) рассчитывается аналогично, но к нечетким переменным еще добавляются входные переменные, имеющие аналогичную треугольную функцию принадлежности. Тогда (6.57) будет иметь следующий вид:

 

 

yн с0 d0 (c1dx1

d1cx1 ) (c2dx2

d2cx2 ) ;

 

 

y

с0

с1сх

с2сх

;

 

(6.63)

 

 

 

 

1

(c1dx

2

 

d2cx ) ,

 

 

yd

с0

d0

d1cx ) (c2dx

 

 

 

 

 

1

1

2

2

где сx

, dx

,сx

,dx

– центр сi

и ширина di

функции принадлеж-

1

1

2

2

 

 

 

 

 

ности нечетких переменных x1, x2 .

Следует отметить, что модели (6.53) и (6.54) характеризуются большой размерностью, что определяет трудоемкость решения.

151

Альтернативой является модель (6.55), суть которой сводится к выводу одной нечеткой переменной – y . Таким образом, модель является нечеткой только по выходу, т.е. представляет собой реакцию четких значений регрессоров x1, x2, , xn в нечеткой выходной переменной [37]:

y

(y)

 

 

(x1, x2, ,xn ) y n

,

(6.64)

y

y0

 

 

где (y) – функция принадлежности нечеткого числа y на диапазоне [y0, yn ].

Пусть нечеткая величина (нечеткое число) y описана одной функцией принадлежности y g(P), где g – вид функции

принадлежности, а P – параметры функции принадлежности. В качестве функции принадлежности выбрана гауссова

функция принадлежности (рис. 6.45).

((yy)) 1

y

с

Рис. 6.45. График гауссовой функции принадлежности с центром c и коэффициентом концентрации (сжатия) d

Гауссова функция принадлежности имеет вид

 

 

(y с)

2

 

(y) exp

 

 

.

(6.65)

2

 

 

 

2d

 

 

 

152

Следует отметить, что гауссова функция принадлежности имеет определенные достоинства для методики расчетов модели y f (X ) по сравнению с треугольной: гауссова функция – не-

прерывная функция, изменяя коэффициент концентрации, можно придавать нечеткому числу y более «четкий» или «нечет-

кий» характер. Однако нелинейный характер гауссовой функции принадлежности усложняет, в отличие от треугольной функции, расчет нечеткой модели (6.55) сводится к определению коэффициентов линейной регрессионной модели:

 

c с0 c1x1

c2x2

cn xn ,

(6.66)

 

d d0 d1x1 d2x2 dn xn .

 

 

Тогда решение нечеткой регрессионной модели будет

осуществляться путем решения задачи:

 

 

 

1

m

y

 

, f (P,X

 

))2 min ,

(6.67)

 

RMSE(

i

i

 

 

 

m i 1

 

 

 

 

 

где yi – желаемое нечеткое число, соответствующее входному вектору Xi; f (P,Xi ) – действительное значение нечеткого чис-

ла выходного сигнала для того же вектора Xi, данное число определяется по функции принадлежности (6.66) с параметрами P с0 с1 сn d0 d1 dn ; RMSE – это степень близости нечетких чисел (аналог разности четких чисел), которая определяется как

 

m

(

 

(y )

 

(y ))2

 

 

 

 

 

 

 

i 1

 

i

i

 

 

A

 

B

 

 

 

RMSE(A, B)

 

 

 

 

 

 

,

(6.68)

 

 

 

m

 

 

 

 

 

 

 

 

 

 

где A (yi ) – функция принадлежности идеального значения выходного нечеткого числа; В (yi ) – функция принадлежности реального значения выходного нечеткого числа.

153

В конечном итоге задача сводится к поиску коэффициентов вектора параметров P с0 с1 сn d0 d1 dn для каждого

входного вектора Xi, обеспечивающего минимум (6.67).

Таким образом, решение задачи (6.56) сводится к решению задачи оптимизации нелинейной модели.

Очевидно, что задачи нечетких регрессионных моделей (6.53)–(6.55) характеризуются сложностью и трудоемкостью, поэтому при решении задачи прогнозирования целесообразнее воспользоваться стандартной формой логического вывода, представленного в подразд. 6.5.

ВОПРОСЫ И ЗАДАНИЯ ДЛЯ САМОКОНТРОЛЯ

1.Что такое нечеткое число?

2.Что представляет собой функция принадлежности?

3.Особенности выбора функции принадлежности для диапазона изменения четкой переменной.

4.Что такое лингвистическая переменная?

5.Как определяются термы для лингвистической пере-

менной?

6.Что такое процесс фаззификации?

7.Что такое процесс дефаззификации?

8.Как определяются правила логического вывода?

9.В чем заключается отличие модели Мамдани от модели

Сугено?

10.Для примера 6.6 определить значение выходной переменной для следующих значений входных переменных: температура 10 °С; скорость изменения температуры +1 °С/мин.

11.Как применяется нечеткая логика для задачи прогнозирования?

12.Как применить систему логического вывода для временного ряда?

13.Основные модели нечеткой регрессии.

154

7. ПРОГНОЗИРОВАНИЕ С ИСПОЛЬЗОВАНИЕМ МОДЕЛЕЙ ИСКУССТВЕННЫХ НЕЙРОННЫХ СЕТЕЙ

Современным подходом к решению задач прогнозирования являются искусственные нейронные сети (ИНС) или нейронные сети (НС).

Основоположниками теории искусственных нейронных сетей являются Дж. Маккалок и У. Питтс, которые в опубликованной в 1943 г. работе «Логическое исчисление идей, относящихся к нервной деятельности» сформулировали основные принципы построения искусственных нейронных сетей.

Аналогом искусственных нейронных систем является нервная система человека, формирующая импульсы в мозг. Принцип передачи информации по тракту «нервные окончания – мозг» был взят за основу создания искусственных нейронных сетей. Не зря ИНС считаются одной из важных составляющих искусственного интеллекта (ИИ), так как принципы возникновения импульса (информации), передачи и обучения мозга воспринимать действительность и были реализованы в искусственных нейронных сетях. Современные ИНС обладают свойствами обучения, выявления существенных событий, фильтрации избыточной информации [38].

При создании искусственных нейронных сетей сочетаются два подхода: информационный и биологический [38, 39]. Информационный подход решает задачу преобразования информации, а биологический реализует подобие биологического прототипа – центральной нервной системы.

В основе искусственных нейронных систем лежит простая единица нейрон – аналог нервной клетки центральной нервной системы человека (рис. 7.1).

155

Рис. 7.1. Структура нервной клетки

Нервная клетка, или нейрон, состоит из тела и нервных окончаний. Нервные окончания воспринимают информацию о внешнем мире путем реакции возбуждения (боль, тепло, гладкость поверхности и т.д.). Нервные окончания называются дендритами. «Канал», по которому передается возбуждение в клетку, называется аксоном. Место соединения дендритов и аксона называется синапсом. Функционирование связки «дендрит – синапс – аксон» осуществляется по следующему принципу: дендриты, получив возбуждение, передают его в синапс, синапс передает это возбуждение в аксон не сразу, а как только суммарное возбуждение, пришедшее в синапс, превысит некий «чувствительный» порог. Очевидно, что передача возбуждения сильно зависит от работы синапса, при этом следует иметь в виду, что пороговая функция зависит от многих дендритов и выработка возбуждения зависит от того, какое воздействие и с какой силой придет от последних.

Таким образом, мозг человека, реагирующий на возбуждение огромного количества нервных клеток, каждая из которых выдает нервный импульс как результат превышения чувствительного порога взвешенной суммы воздействий от дендритов, способен решать чрезвычайно сложные задачи.

156

7.1.ОСНОВНЫЕ ПОНЯТИЯ ИСКУССТВЕННОЙ НЕЙРОННОЙ СЕТИ

7.1.1. Искусственный нейрон

На основе принципа работы биологического нейрона был предложен аналог единицы нейронной сети – искусственный нейрон [29, 37, 38]. На вход искусственного нейрона поступает некоторое множество сигналов. Каждый вход сигнал имеет свой вес. Сумма взвешенных слагаемых подается на чувствительный порог, который срабатывает по определенному закону (рис. 7.2).

Рис. 7.2. Структура искусственного нейрона

Математическая модель искусственного нейрона состоит из определенного количества входных сигналов x1,x2, ,xn , весов w1,w2, ,wn , суммирующего блока (∑), пороговой функции

активации (F) и выходного сигнала y. Сумматор, аналог биологического синапса, формирует сигнал u (NET):

n

u wi xi w0 . (7.1)

i 1

Полученный сигнал u (NET) передается на функцию активации, которая определяет выходной сигнал y (OUT):

y F(u) .

(7.2)

157

7.1.2. Функции активации

Функция активации определяет зависимость сигнала на выходе нейрона от взвешенной суммы сигналов на его входах [29, 34, 37, 38]. Как правило, она представляет собой монотонно возрастающую функцию, предел изменения значений которой

1,1 или 0,1 . Очевидно, что нелинейность искусственного

нейрона зависит от вида нелинейности функции активации. Для некоторых нейронных сетей к функции активации

может быть выдвинуто требование непрерывной дифференцируемости на всем интервале определения данной функции.

На практике чаще всего применяются следующие функции активации:

жесткая пороговая;

линейный порог или гистерезис;

сигмоидальная;

гиперболический тангенс.

Жесткая пороговая функция активации задается формулой

0

u T ,

(7.3)

y

u T ,

1

 

где T – порог срабатывания.

График жесткой пороговой функции активации представлен на рис. 7.3.

Функция активации «линейный порог или гистерезис» пред-

ставляет собой кусочно-линейную функцию (рис. 7.4).

Функция «линейный порог» имеет два линейных участка, где функция активации принимает минимальное и максимальное значения и участок, на котором функция строго монотонно

возрастает. Формула функции активации имеет вид

 

0

u a,

 

 

a u a,

(7.4)

y ku

 

u a.

 

1

 

158

Рис. 7.3. График кусочнолинейной функции активации

 

y

 

1

 

u

a

a

Рис. 7.4. График функции

активации «линейный порог»

Сигмоидальная функция представляет собой монотонно возрастающую всюду дифференцируемую функцию, график которой приведен на рис. 7.5.

Сигмоидальная функция иногда называется S-образной, или функций с насыщением. Формула сигмоидальной функции имеет вид

y

 

 

1

.

(7.5)

1

e u

 

 

 

Частным случаем сигмоидальной функции является гиперболический тангенс (рис. 7.6).

Рис. 7.5. График сигмоидальной

Рис. 7.6. График функции

функции активации

активации «гиперболический

 

тангенс»

159

Как и сигмоидальная функция, гиперболический тангенс имеет S-образный вид, но он является симметричным относительно начала координат и в отличие от сигмоидальной функции принимает значение разных знаков, что создает дополнительные возможности для реализации некоторых типов сетей.

y th(u)

e u e u

.

(7.6)

e u e u

 

 

 

Искусственные нейроны являются основой для построения сложных конструкций, которые и называются нейронными сетями. Нейронные сети отличаются различным количеством слоев, количеством нейронов в сети, наличием обратных связей

идругими признаками.

7.2.ОДНОСЛОЙНЫЕ ИСКУССТВЕННЫЕ

НЕЙРОННЫЕ СЕТИ

Возможности одного нейрона ограничены, но соединение в единую сеть нескольких нейронов усиливает «интеллектуальные» способности сети [29, 38].

Простейшая сеть состоит из группы нейронов, образующих слой (рис. 7.7).

Рис. 7.7. Архитектура однослойной нейронной сети

160

Соседние файлы в папке книги