- •Г.Г КАШЕВАРОВА, Т.Б. ПЕРМЯКОВА
- •Предисловие
- •Введение
- •Общие сведения о математическом моделировании.
- •Численные методы
- •Элементы теории погрешности
- •Понятия мастера и надстройки
- •Глава 1. Основные понятия матричного исчисления. Матрицы в расчетах строительных объектов
- •1.1. Матрицы и векторы. Определения
- •1.2. Матрицы специального вида
- •1.3. Действия над матрицами
- •1.4. Нормы матрицы и вектора
- •1.5. Матрицы в задачах строительной механики
- •1.5.1. Матрицы влияния внутренних сил
- •1.5.2. Матричная форма расчета статически определимых ферм
- •1.5.3, Матричная форма метода сил
- •1.5.4. Матричная форма метода перемещений
- •1.6. Матрицы в расчетах инженерных сетей
- •1.7. Функции Excel для операций над матрицами
- •Категория: математические. Функции:
- •2.1. Системы линейных алгебраических уравнений
- •2.2.1. Метод Гаусса
- •2.2.2. Метод Гаусса для СЛАУ с ленточными матрицами
- •2.2.3. Метод прогонки
- •2.2.4. Метод (схема) Холецкого
- •2.3. Итерационные методы решения систем линейных алгебраических уравнений
- •2.3.1. Метод Якоби (простых итераций)
- •2.3.2. Метод Гаусса - Зейделя.
- •2.3.3. Условия сходимости итерационного процесса
- •2.5. Обусловленность задач и вычислений, или как узнать, что получены правильные ответы
- •2.6. Вычисление определителя
- •2.7. Вычисление обратной матрицы
- •2.8. Нахождение собственных значений и собственных векторов матриц
- •2.8.1. Вводные замечания
- •2.8.2. Методы развертывания вековых определителей
- •2.8.3. Итерационные методы определения максимального по модулю собственного значения
- •2.9.1. Реализация метода Гаусса средствами приложения Excel
- •Последовательность действий:
- •2.9.4. Реализация метода Зейделя средствами приложения Excel
- •Последовательность действий:
- •3.1. Отделение корней
- •3.2. Этап уточнения корня
- •3.2.1. Метод половинного деления (бисекций)
- •3.2.2.Метод хорд
- •3.2.3. Метод Ньютона (метод касательных)
- •3.2.4. Модифицированный метод Ньютона
- •3.3. Системы нелинейных уравнений
- •3.4. Реализация численных методов решения нелинейных уравнений средствами приложения Excel
- •3.4.1. Решение нелинейных уравнений
- •Последовательность действий
- •4.2.3. Интерполяционный полином Эрмита
- •4.2.4. Сплайн-интерполяция
- •Глава 4. Аппроксимация
- •4.1. Задача и способы аппроксимации
- •4.2. Интерполирование функций
- •4.2.1. Постановка задачи интерполирования
- •4.2.2. Интерполяционная формула Лагранжа
- •4.3. Среднеквадратичное приближение функций
- •4.3.1. Метод наименьших квадратов
- •4.3.4. Квадратичное (параболическое) приближение
- •4.3.4. Эмпирические формулы с двумя параметрами. Метод выравнивания
- •4.4. Решение задач аппроксимации с помощью электронных таблиц Excel
- •4.4.1. Построение линейной эмпирической формулы методом наименьших квадратов
- •Последовательность действий
- •Последовательность действий
- •5.1. Квадратурные формулы прямоугольников
- •5.2. Квадратурная формула трапеций
- •5.3. Квадратурная формула Симпсона
- •5.4. Реализация методов численного интегрирования средствами приложения Excel
- •Глава 6. Численные методы решения дифференциальных уравнений с начальными и краевыми условиями
- •6.1.1. Задачи Коши и краевые задачи
- •6.2.1.Классификация уравнений и типы задач
- •6.3. Численные методы решения задач Коши
- •6.3.1. Метод Эйлера
- •(геометрический метод решения задачи Коши)
- •6.4. Численные методы решения краевых задач
- •Разностная схема краевой задачи для обыкновенного дифференциального уравнения 2-го порядка
- •Конечно-разностная аппроксимация функций двух переменных
- •Сходимость метода конечных разностей
- •6.5. Вариационный подход к решению краевых задач
- •6.5.1. Основные понятия вариационного исчисления
- •6.5.2. Связь решения краевой задачи с нахождением минимума функционала
- •6.5.3. Метод Ритца
- •6.6.1. Решение задачи Коши методом Эйлера
- •Построение второй итерации
- •Последовательность действий.
- •Порядок построения графиков приближенных решений краевой задачи
- •Глава 7. Метод конечных элементов
- •7.1. Основные положения МКЭ
- •Построение расчетной модели
- •Аппроксимация искомой функции
- •Составление разрешающих уравнений
- •Решение системы линейных алгебраических уравнений
- •7.2.1. Классификация конечных элементов
- •Одномерный конечный элемент
- •Двухмерные конечные элементы.
- •элемента
- •Одномерный симплекс-элемент
- •Двухмерный треугольный симплекс-элемент
- •7.2.3. Интерполирование векторных величин
- •7.2.4. Разбиение области на конечные элементы
- •7.2.5 Нумерация узлов и элементов
- •7. 3. Основные соотношения МКЭ
- •7.3.1. Получение разрешающих уравнений на примере плоской задачи теории упругости
- •7.3.2. Примеры разрешающих уравнений в задачах расчета строительных объектов
- •7.4. Другие типы конечных элементов
- •7.4.1. Элементы Эрмита
- •7.5. Теоретическая и практическая сходимость МКЭ
- •7.6.1. Специализированные программные комплексы
- •7.6.2. Универсальные программные комплексы
- •8.1.1. Математическая модель задачи оптимизации
- •8.1. Общие сведения
- •8.1.2. Необходимые и достаточные условия экстремума функции
- •8.1.3. Классификация задач математического программирования
- •8.2. Постановка задачи оптимального проектирования
- •8.2.1. Определение входных и выходных параметров
- •8.2.2. Выбор целевой функции
- •8.2.3. Назначение ограничений
- •8.2.4. Нормирование управляемых и выходных параметров
- •8.2.5. Примеры постановок задач оптимального проектирования
- •8.3. Задачи линейного программирования
- •8.3.1. Общая постановка задачи ЛП
- •8.3.2. Геометрический смысл системы линейных неравенств с двумя неизвестными
- •8.3.4. Симплекс-метод решения задач линейного программирования
- •Задача об оптимальном плане выпуска продукции
- •Задача об оптимальном раскрое материалов (о минимизации отходов)
- •Задача о планировании смен на предприятии
- •Задача о покрытии местности при строительстве объектов
- •Транспортная задача
- •Задача о назначениях (проблема выбора)
- •8.3.6. Двойственные задачи в линейном программировании
- •8.4. Нелинейные задачи оптимизации
- •8.4.1. Выпуклые множества и выпуклые функции
- •8.4.2. Классификация численных методов решения нелинейных задач оптимизации
- •Основные этапы поиска экстремума
- •8.4.3. Численные методы одномерного поиска
- •Метод перебора или равномерного поиска
- •Метод дихотомии (или половинного деления)
- •Метод квадратичной интерполяции
- •Метод покоординатного спуска
- •Метод градиентного спуска
- •Метод наискорейшего спуска
- •Метод сопряженных градиентов
- •Метод Ньютона
- •Метод штрафных функций
- •8.5. Решение задач оптимизации с помощью электронных таблиц Excel
- •Литература
- •Оглавление
- •Численные методы решения задач строительства на ЭВМ
обобщение процедур методов Якоби и Гаусса ~ Зейделя, но с ускорением сходимости.
К ним относятся: метод последовательной верхней релаксации; метод Ричардсона, а также градиентные методы:
метод сопряженных градиентов; сопряженный метод Ньютона [12, 14, 26] и др.
В последнее время в современных программных комплексах итерационные методы применяют, в основном, для уточнения решения, полученного с помощью прямых методов, т.е. комбинируя их.
2.5. Обусловленность задач и вычислений, или как узнать, что получены правильные ответы
Рассмотрим систему линейных алгебраических уравнений
АХ = В,
где det А О, В Ф 0. Матрица А и вектор правой части В во многих случаях задаются приближенно. Причины погрешностей могут быть самыми разными - от ошибок округления при вводе чисел в машину до ошибок измерения, если система связана с обработкой экспериментальных данных. Ошибки вносит также вычислительный процесс (ошибки округления). Естественно встает вопрос, как все это влияет на точность полученного решения. Чтобы на него ответить, надо познакомиться с особой характеристикой матриц, которую называют обусловленностью [30].
d Обусловленность характеризует устойчивость решения системы относительно исходных данных. Говорят, что задача, модель или вычисление плохо обусловлены, если они чувствительны к ошибкам или неопределенности исходных данных.
Прежде всего оговорим различие между плохо обусловленной задачей и плохо обусловленными вычислениями.
Если задача плохо обусловлена, то никакие усилия, потраченные на организацию изощренных вычислений, не могут дать правильный ответ, исключая случайность. С плохо обусловленными задачами можно столкнуться при расчетах стержневых систем методами строительной механики, например,
■при расчете рам методом перемещений, если два узла соединены очень жесткой частью конструкции;
или при расчете конструкции методом сил, если выбрать основную систему так, что перемещение в устраняемой связи, соответствующее приложенной в ней паре нагрузок, равно или меньше перемещений в других устраненных связях от этой же нагрузки.
Все плохо обусловленные вычисления являются результатом применения численно неустойчивых алгоритмов. Например, метод исключения Гаусса без выбора главного элемента может обладать таким недостатком.
Замечено, что матрицы со случайно сгенерированными элементами отличаются обычно хорошим поведением, а матрицы, элементы которых получены по каким-то закономерностям, бывают плохо обусловленными. У плохо обусловленной матрицы обратная матрица является неустойчивой, т.е. элементы обратной матрицы значительно изменяются при малом изменении элементов исходной матрицы. Это происходит вследствие наличия малых разностей больших величин.
■Пример 2.7. Плохо обусловленная система:
5 |
7 |
6 |
5 |
*1 |
23 |
7 |
10 |
8 |
7 |
*2 |
32 |
6 |
8 |
10 |
9 |
*3 |
33 |
5 |
7 |
9 |
10 |
_*4_ |
3! |
Решение этой системы Х1=х2=х3=х^=\. Если изменить правые части на 0,1
'23,Г |
'14,6' |
31,9 |
-7,2 |
и принять их равными |
то получим решение X = |
32,9 |
-2,5 |
.31,1. |
. 3>! . |
Если принять величину первого коэффициента |
в первом уравнении |
|
6 |
равной 4,99 вместо 5, то получим решение X = |
-2,17 |
|
0,28 . Существенно |
1,32
изменится при этом и обратная матрица.
Следует отметить, что чем больше порядок системы, тем сильнее влияние небольшой погрешности коэффициентов.
Обусловленность матрицы (системы) является качественной характеристикой, хотя мы будем стараться оценить ее количественно. Существует несколько способов оценки обусловленности.
Например, обусловленность матрицы (системы) можно оценить с помощью величины, называемой мерой обусловленности р(А) по формуле
/И ( А ) = ||а ||х |
|
|
(2.47) |
где |А|| - норма матрицы А; |
-1 |
норма обратной матрицы. |
|
|
|||
Или по формуле |
|
|
|
* л > - М |
М |
(2.48), |
|
где величина |Л/>||/||/?|| характеризует относительное |
возмущение |
правой части уравнения, а величина ||Ax||/||x|| - относительную
ошибку в решении, вызванную этим возмущением.
Число //(А), часто обозначаемое cond А (от английского слова с0иЛ7/оле^-«обусловленный»), служит также коэффициентом роста относительных погрешностей при неточном задании элементов матрицы А.
Чем больше ju(A) ,тем сильнее сказывается на решении линейной системы ошибка в исходных данных. Если число р(А) велико, то система считается плохо обусловленной. Говорить о том, «что такое хорошо, а что такое плохо» в отрыве от контекста решаемой задачи почти бессмысленно, так как здесь могут играть роль размерность задачи, точность, с которой должно быть найдено ее решение, точность представления чисел в ЭВМ и т.п. Однако можно дать оценку снизу меры обусловленности. Число обусловленности р(А) не может быть меньше 1. Матрица, а соответственно и система, будет хорошо обусловленной, если /и(А) стремится к единице.
И еще один способ оценки обусловленности: матрица считается плохо обусловленной, если модуль ее определителя существенно меньше какой-либо из норм Mamputfbi.
■Пример 2.8._ Оценим обусловленность матриц А и В:
■1 |
- 2 |
1 |
Г |
|
"1 20 0 |
0 ' |
||
А = - 2 |
8 |
-1 |
0 |
, в = |
0 |
1 20 |
0 |
|
1 |
- 1 |
6 |
2 |
|
0 |
0 |
1 |
20 |
1 |
0 |
2 |
4 |
|
0 |
0 |
0 |
1 |
Решение:
Обратные матрицы равны:
0,1 0,026 -0,0055 -0,0243
0,026 0,1346 0,0243 -0,0187 -0,0055 0,00243 0,2054 -0,1013 -0,0243 -0,0187 -0,1013 0,3067
1 |
-2 0 |
400 |
-8000 |
0 |
1 |
-2 0 |
400 |
0 |
0 |
1 |
-2 0 |
0 |
0 |
0 |
1 |
||4 = max {5, 11, 10, 7}=11; | 4 “‘ = тах {0,1558; 0,2036; 0,3851; 0,451}=0,451;
р(А)=11x0,451=4,961, то есть р(А) невелика и матрица А хорошо обусловлена,
||i?| = max {21,21,21,1} =21; Щ\~' =ш ах {8421,421,21, 1}=8421
р(В) =21x8421=176841, то есть величина р(В) очень большая и матрица В плохо обусловлена.
■Пример 2.9. Рассмотрим три варианта основной системы метода сил для трехпролетной неразрезной балки (рис.2.1).
|
EJ=Const |
|
|
1 |
|
|
е |
г |
|
* |
"г |
А |
— X |
|
уf1 |
1' |
V1 |
€ |
|
||||
|
|
|
|
*2 |
|
А |
........ , |
г |
х |
||
\ |
|
• |
|
Л |
f1
ТГ сТ Г 1
Рис.2.1. Основные системы для неразрезной балки
В методе сил важным критерием оценки выбранной основной системы является обусловленность коэффициентов системы канонических уравнений. Запишем матрицы податливости и значения меры обусловленности для этих вариантов (табл. 2.1).