Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Статистические и интеллектуальные методы прогнозирования

..pdf
Скачиваний:
6
Добавлен:
12.11.2023
Размер:
8.94 Mб
Скачать

Оба графических метода, с одной стороны, наглядны, с другой стороны, дают неточное представление в случаях слабовыраженного свойства стационарности. В альтернативу предложены аналитические тесты, использующие гипотезный подход [6]: тест Дики – Фуллер; метод выборочной медианы; тест Бокса – Пирса, критерий KPSS; критерий Стьюдента; тест Фишера и др. Наиболее распространенным является тест Фишера.

Суть теста заключается в проверке гипотезы о постоянстве дисперсии временного ряда для различных интервалов разбиения временного ряда.

Алгоритм теста Фишера:

1.Определение матожидания временного ряда y.

2.Временной ряд разбивается на k интервалов, при этом количество элементов в j-м интервале – Tj .

3.Для каждого интервала рассчитывается среднее значение интервала y j .

4.Определяются значения дисперсии s2j для каждого ин-

тервала.

5. Осуществляется расчет среднего значения дисперсии по формуле

 

 

 

1

k

 

 

2

 

 

2

 

 

 

.

s

 

 

 

(T

j

1)s

j

 

 

 

 

 

k 1i 1

 

 

6. Расчет критерия Фишера по формуле

 

 

1 Tj (y j y)2

 

F

 

 

k

 

 

 

 

.

k 1

 

j 1

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

s2

 

 

(2.9)

(2.10)

7. Выбор табличного значения критерия Фишера Fт ( , 1, 2), где – степень значимости (см. главу 3),

k

1 k 1, 2 TJ .

j 1

8. Если F Fт , то ряд является стационарным.

21

Более подробно гипотезный подход, выбор коэффициента значимости, степени свободы и вероятность ошибок рассмотрены в главе 3.

Если тесты показали нестационарность временного ряда, то для применения некоторых моделей прогнозирования (например, авторегрессионные модели) необходимо привести нестационарный временной ряд к стационарному виду.

2.5.ПРИВЕДЕНИЕ ВРЕМЕННОГО РЯДА

КСТАЦИОНАРНОМУ ВИДУ

Преобразование нестационарного временного ряда к стационарному виду может осуществляться несколькими способами [6]: логарифмирование, дифференцирование временного ряда, сезонное дифференцирование.

Логарифмирование ряда. Позволяет избавиться от гетероскедастичности (непостоянства дисперсии) временного ряда с помощью формулы Бокса – Кокса:

 

 

ln(y )

0,

 

z

 

 

i

 

(2.11)

i

 

 

0

 

(y 1)/

(0 1).

 

 

 

i

 

 

Параметр выбирается так, чтобы минимизировать дисперсию ряда.

После построения прогноза для трансформированного ряда его нужно преобразовать в прогноз исходного:

 

 

 

 

)

0,

 

yi

exp(zi

(2.12)

 

 

1)1/

0

 

( z

i

(0 1),

 

 

 

 

 

 

где zi – спрогнозированное значение прологарифмированного временного ряда;

yi –спрогнозированноезначениеисходноговременногоряда.

22

Формула (2.12) при 0 является формулой простого логарифмирования. При y(k) 0 необходимо прибавить к нему

константу, прежде чем логарифмировать ряд.

ПРИМЕР. Для нестационарного ряда (см. рис. 2.3) применена формула Бокса – Кокса с 1. На рис. 2.8 представлен временной ряд после преобразования. По графику видно, что временной ряд характеризуется практически отсутствием тренда, т.е. является стационарным временным рядом.

Рис. 2.8. График преобразованного нестационарного временного ряда с линией тренда

Дифференцирование ряда

стям его соседних значений:

 

y

 

 

 

1

 

 

 

y2

 

 

 

 

 

 

 

 

 

 

yk 1

 

 

 

yk

 

 

 

 

 

– переход к попарным разно-

y2

 

 

 

 

 

 

,

 

 

 

(2.13)

 

yk 1

 

 

 

 

yk

 

 

 

 

 

 

 

где yk yk yk 1 – конечные разности 1-го порядка.

23

Дифференцированием можно стабилизировать среднее значение ряда и избавиться от тренда и сезонности.

Может применяться неоднократное дифференцирование, например, для второго порядка:

 

y

 

 

y2

 

 

 

2 y3

 

 

 

 

1

 

 

 

 

 

 

 

 

y2

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

,

(2.14)

 

 

yk 1

 

2 y

 

 

 

 

yk 1

 

 

 

y

 

 

 

 

k

1

 

 

 

 

 

 

 

 

 

2 y

k

 

 

 

 

yk

 

 

 

k

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

где 2 yk yk yk 1 – конечные разности 2-го порядка.

ПРИМЕР. Для нестационарного ряда (см. рис. 2.3) применено дифференцирование (замена на конечные разности 1-го порядка). На рис. 2.9 представлен временной ряд после преобразования. Так же, как и в случае с преобразованием Бокса – Кокса, наблюдается слабый тренд, что позволяет сделать вывод о практически стационарном временном ряде.

Рис. 2.9. График преобразованного нестационарного временного ряда с линией тренда

24

ВОПРОСЫ И ЗАДАНИЯ ДЛЯ САМОКОНТРОЛЯ

1.В чем суть временных рядов и чем модель временного ряда отличается от других моделей прогнозирования?

2.Чем отличаются интервальные временные ряды от моментальных? Приведите примеры данных рядов.

3.Каковы основные компоненты временного ряда? Кратко охарактеризуйте каждую компоненту.

4.Основные характеристики временного ряда.

5.Почему для описания временного ряда недостаточно характеристик «среднее (матожидание)» и «дисперсии»?

6.Что представляет собой автокорреляционная функция временного ряда?

7.В чем недостаток графических методов анализа стационарности временных рядов?

8.Дать определение стационарному временному ряду. Объяснить, где используются стационарные ряды.

9.Достоинства и недостатки гипотезных методов (тестов) стационарности?

10.Для временного ряда с исходными данными, приведенными ниже:

построить график временного ряда;

проверить стационарность графическим и аналитическим путем;

привести данный временной ряд к стационарному виду подстановкой Бокса – Кокса;

доказать стационарность преобразованного ряда

Исходные данные

k

1

2

3

4

5

6

7

8

9

10

y

1133

1222

1354

1389

1342

1377

1491

1684

1512

1700

25

3. РЕГРЕССИОННЫЕ МОДЕЛИ

Регрессионные модели исследуют и оценивают связь между зависимой и независимой (независимыми) переменной (переменными).

Зависимую переменную иногда называют результативным признаком, а независимые переменные – факторами или

регрессорами.

Общее уравнение регрессионной модели имеет вид

y f (x1, ,xn ),

(3.1)

где y – зависимая переменная;

x1, , xn – независимые переменные;

f – оператор функции, определяющий характер регрессионной модели.

Регрессионные модели классифицируются по количеству независимых переменных:

простые регрессионные модели – с одной независимой переменной:

множественные регрессионные модели – с несколькими независимыми переменными.

По виду оператора f регрессионные модели могут быть линейными и нелинейными.

Рассмотрим множественные регрессионные модели с линейным и нелинейным видом зависимости.

3.1.МНОЖЕСТВЕННАЯ ЛИНЕЙНАЯ РЕГРЕССИОННАЯ МОДЕЛЬ

Множественная линейная регрессионная модель в общем виде может быть представлена следующим уравнением [7]:

26

y a0 a1x1 a2x2 an xn ,

(3.2)

где y – зависимая переменная, описывающая процесс, который необходимо предсказать или определить;

xi – независимые переменные, используемые для прогнозирования значений зависимых переменных;

ai – коэффициенты регрессии, которые необходимо оп-

ределить;– невязка, необъяснимое количество зависимых величин,

представленных в уравнении регрессии как случайные ошибки ε. Для анализа линейной регрессионной модели удобно ис-

пользовать векторно-матричный аппарат. Введем следующие обозначения:

 

y(1)

 

 

 

 

 

 

Y

y(2)

 

– зависимая выходная переменная;

 

 

 

 

 

 

 

 

 

 

y(m)

 

m – количество точек измерения (фактических точек до момента прогноза);

1

x1(1)

x2(1)

 

xn (1)

 

 

 

 

 

 

 

 

 

X 1

x1(2)

x2(2)

 

xn (2)

 

,

 

 

 

 

 

 

 

 

 

x2(m)

 

 

 

1 x1(m)

xn (m)

 

xi ( j) – значение i-й независимой переменной в j-й момент

времени.

Тогда множественная линейная регрессионная модель может быть представлена в матричном виде:

Y XA ,

(3.3)

27

a0

 

 

a

 

– коэффициенты регрессии.

где A

1

 

 

 

 

 

 

 

 

 

an

 

 

Задача прогнозирования сводится к расчету неизвестных коэффициентов регрессии таким образом, чтобы функция ошибки была минимальна:

E Y XA min .

(3.4)

Наиболее распространенным методом оценивания параметров является метод наименьших квадратов (МНК). Задача состоит в следующем: по имеющимся выборочным данным наблюдений y и xi оценить значения параметров, обеспечивающих минимум величины функционала невязки между модельными и фактическими данными:

J EтE min.

(3.5)

Достоинство метода МНК [8] состоит в том, что независимо от происхождения возникающих ошибок метод минимизирует сумму квадратичной ошибки.

В принципе МНК не требует никакой априорной информации о помехе. Но для того, чтобы полученные оценки обладали желательными свойствами, будем предполагать, что помеха является случайным процессом типа белого шума. Важным свойством оценок по МНК является существование только одного локального минимума, совпадающего с глобальным минимумом. Поэтому оценка А является единственной. Ее значение определяется из условия экстремума функционала:

дJ

0.

(3.6)

дA

 

 

м

 

 

28

Оценивание коэффициентом линейной регрессионной модели определяется как [7, 8]

A [Хт Х] 1 ХтY.

(3.7)

Для того чтобы построенная модель в первом приближении была адекватной, чтобы количество измерений m удовлетворяло следующему условию m n 1, где n – количество регрессоров.

Матрица [Хт Х] называется информационной матрицей.

Структура информационной матрицы очень важна: если данная матрица будет вырожденной, определение коэффициентов регрессионной модели по (3.7) невозможно. В этом случае используется итерационная формула расчета коэффициентов регрессии, основанная на лемме об обращении матриц [7, 8, 9].

Уравнение (3.7) является основным в регрессионном анализе. Далее рассмотрено, как данное уравнение может быть использовано в задачах прогнозирования.

ПРИМЕР 3.1. По исходным данным (табл. 3.1) рассчитать регрессионные модели вида

y a 0 a1x и y a 0 a1x a1x2.

Таблица 3.1

Исходные данные

x

y

x

y

x

y

0.0

2.143

1.4

0.528

2.8

0.284

0.2

1.754

1.6

0.623

3.0

0.305

0.4

1.548

1.8

0.544

3.2

0.274

0.6

1.624

2.0

0.400

3.4

0.246

0.8

1.324

2.2

0.312

3.6

0.155

1.0

1.249

2.4

0.330

3.8

0.100

1.2

0.800

2.6

0.298

4.0

0.0845

29

Для линейной модели y a 0 a1x основные матрицы имеют вид

1

0.0

 

 

0.2

 

1

 

 

0.4

 

1

 

1

0.6

 

1

0.8

 

1.0

 

1

 

1

1.2

 

 

 

 

1

1.4

 

1.6

 

1

 

 

1.8

 

1

 

X 1

2.0

1

2.2

 

 

 

1

2.4

1

2.6

 

 

 

1

2.8

 

3.0

 

1

 

 

3.2

 

1

 

1

3.4

 

1

3.6

 

 

3.8

 

1

 

 

 

 

1

4.0

2.1431.754

1.548

1.624

1.3221.249

0.8000.528

0.6230.544

Y 0.400

0.3120.330

0.2980.2840.305

0.274

0.248

0.1550.100

0.084

A a0a1

По формуле (3.7) рассчитываются параметры линейной

регрессионной модели A [Х

T

1

T

1.6307

 

 

 

Х]

Х Y

.

 

 

 

 

 

0.4600

Для модели вида y a

0

a x a x2

в исходных матрицах

 

 

1

1

 

 

изменится только матрица X и А:

30

Соседние файлы в папке книги