книги / Проблемы нелинейного деформирования. Метод продолжения решения по параметру в нелинейных задачах механики твердого деформируемого тела
.pdfвыбора своего параметра. Формы метода продолжения, разработанные в § 1.1 и § 1.2, позволяют избежать этих трудностей. Введем 5-мерное век
торное пространство К$ и вектор X в нем такой, что |
|
|
’г .Р У |
|
(1.3.35) |
Тогда система (1.3.29) может быть представлена в виде |
|
|
Г,(Х) =0, |
.,4 . |
(1.3.36) |
Начальный вектор определится решением (1.3.30) |
|
|
^(о) = [0 .0 ,^ 1о,И'ю .О]т . |
|
(1.3.37) |
Задачу Коши по обобщенному параметру X получим, дифференцируя по нему систему уравнений (1.3.29):
7 -ах: |
о, |
Хф)=х{а). |
(1.3.38) |
Здесь |
|
|
|
|
|
|
|
а \ |
\ |
|
<ш2 |
а \ ’ |
рГ |
|
|
|
а \ ’ |
<*х * Р1 |
|
||||
|
г |
1 |
а |
0 |
0 |
1 |
|
/ ( * |
> |
1 |
- 2 а |
2 т |
-40В/2 |
0 |
|
-и /, |
0 |
1 - ^ 1 |
0 |
0 |
|||
|
|
||||||
|
- |
0 |
- Щ |
0 |
1-7^2 |
0 |
Явную форму задачи Коши получаем из (1.3.38) методом ортогоналиэации
4Х!<1\ = от1 (/(* ), 0), * (0 ) = Х«». |
(1.3.41) |
На рис. 1.15 представлены результаты интегрирования этой задачи с по мощью явных схем непрерывного продолжения. В .расчетах принималось а = 1 ,0 = 100, Й'ю = И'ю = 0,001. В табл. 1.1 дан перечень проведенных
Т а б л и ц а |
1.1 |
|
|
|
|
Сопоставление явных сх |
ии (1.3.29) |
(рис. 1.15) |
|
||
Обозначение |
|
Метод |
Д \ |
Расход времеям |
|
|
ЭВМ (е) |
|
|||
|
|
|
|
|
|
Сплошная линия |
Метод Эйлера |
0,01 |
40 |
|
|
Крестик |
|
|
0,025 |
16 |
|
Треугольник |
|
|
0,05 |
8 |
|
Кружок |
|
|
0,1 |
4 |
|
Квадрат |
|
Модифицированный |
|
|
|
Сплошная лиш |
|
метод Эйлера |
|
|
|
|
Метод Рунге -Кутта |
|
|
|
|
|
|
|
|
|
|
решений. Результаты представлены в проекциях на |
плоскости |
и |
|||
И'ьИ'з- |
|
|
расчета того же примера с по |
||
На рис. 1.16 представлены результаты |
|||||
мощью неявных схем дискретного продолжения (§ |
1.2). При этом ис |
||||
пользовался |
алгоритм метода Ньютона |
— Рафсона |
с дополнительными |
условиями (1.2.19), (1.2.21), (1.2.23), соответствующими итерационным процессам, геометрия которых показана на рис. 1.6 - Щ . При шаге АЛ = = 0,1 вблизи точки В-1 отмечен "перескок” на соседнюю в^твь возмущенно го решения. При уменьшении шага вдвое (АЛ = 0,05), а также при исполь
зовании переменного шага с учетом условия (1.2.42) таких "перескоков” |
|
не происходило. Расход машинного времени ЭВМ при шаге ДА = 0,05 |
|
составил 24 с, а при переменном шаге |
16 с. Расчеты проводились на |
ЭВМ БЭСМ-6. |
|
1.4. Оптимальный и близкие к нему параметры |
|
продолжения решения |
|
Продолжим начатое во Введении (§ |
В.2) обсуждение вопроса об оп |
тимальном параметре продолжения. Представим исходную систему (1.1-1)
в форме, реализующей равноправие неизвестных 2Г/ |
(г = 1, . . . . т) и па |
||
раметра Р. Для этого, как и в |
§ 1.1, введем (т + 1)-мерное евклидово |
||
пространство Кт+ 1 : { Х г, . . . , |
Хт , 2^+1 |
= Р} . В этом пространстве сис |
|
тема уравнений ( 1Д.1) может быть записана в виде |
|
||
Р1 (Х) = Г1(Х1, Х 2, . . . , Х т+1) = 0, /= 1 |
.........т. |
(1.4.1) |
В качестве параметра продолжения выберем некоторый параметр ц, оп ределенный линейной комбинацией вида
/м+1 |
(1.4.2) |
= Х ^ (Х,. |
Фиксируя различные наборы чисел ос{,1 = 1.........т + 1, мы можем рассмот реть все возможные параметры продолжения. Например, при « | = ... = а„ * = 0, ат + 1 = 1 параметром продолжения будет параметр Р = Ят + 1 А при
задании а,- в виде символа Кроиекера 0 при гФ к,
щ - 6 1к = |
. . . ,т + 1, |
(1.4.3) |
1при г = к,
вкачестве параметра продолжения назначается Хк. Если в К.„|+1 ввести
вектор а = [а4, . . . , |
аш+1] т, то параметр д, как это видно из соотноше |
ния (1.4.2), можно |
понимать как скалярное произведение векторов а |
И ^ ^ ^т+1 |
|
Д = (а,* ). |
(1.4.4) |
По смыслу представления (1.4.2) вектор а. определяет направление, в ко тором выбирается параметр продолжения. Так, при выборе а{ в виде (1.4.3) вектор а оказывается ортом оси Х к, т.е. ортом той оси, в направлении которой выбран параметр продолжения.
Уравнения продолжения решения по параметру д построим, продиф ференцировав по этому параметру уравнения (1.4.1) и выражение (1.4.2). В_итоге получим следующую систему уравнений для компонент вектора
а х/ац:
т+ 1 |
|
|
2 |
а1ах,/а^=1, |
|
/= 1 |
|
|
т+1 |
РП (1Х{Мц = 0 |
т. |
2 |
||
/= 1 |
Л |
|
Эту систему для наглядности представим в матричной форме
"«г
г —з4
<*2 |
“да+1 |
"1 “ |
Р\,г |
■-••*Г1,т+1 |
*2,м = 0 |
^т,2’• •^‘т,т+1 |
0 _ |
Заметим, что матрица этой системы, которую обозначим через /* , образо вана дополнением матрицы Якоби / системы (1.4.1) сверху строкой из компонент вектора а
Г |
( 1 .4 .6 ) |
Решение системы (1.4:5) по правилу Крамера можно представить в форме
4Х,14» = Х ^ |
( -Р '+ Ч е К Л ) |
(1.4.7) |
|
Б
Здесь, как и в § 1.1,// - квадратная матрица, получаемая из / вычерки ванием /-го столбца, она в то же время является алгебраическим дополне нием элемента а} в матрице /* . Через Б обозначен определитель матрицы /* , который после раскрытия по элементам первой строки может быть
представлен в виде
Ж+1 |
|
Б = <1е1 (/* ) = Б а,-( - 1 )'+1 (1е1 (/,). |
(1.4.8) |
Обусловленность системы (1.4.5) определяется чувствительностью ее ре шения к погрешностям. Рассмотрим простейший случай, когда с погреш ностью задана правая часть системы (1.4.5) в виде вектора
[1 + е, 0 , . . . , 0]т. |
(1.4.9) |
Тогда вектор погрешности 5 решения системы (1.4.5) с правой частью (1.4.9) по сравнению с решением без погрешности будет
8 = е[Х1>м......... |
Хт+и ц]т. |
(1.4.10) |
Исследуем квадратичную погрешность <1 = (5, б ), которую с учетом (1.4.10) и (1.4.7) можно представить в виде
'"Б* (с1е<(/,))2
</= ( М ) = е* / = 1 о 2 -------- |
(1.4.11) |
В этом выражении от а зависит только знаменатель - определитель Б системы (1.4.5). Ясно, что при изменении а погрешность й будет менять ся. Поэтому найдем такой вектор а, т.е. такой параметр продолжения, который обеспечивает минимум квадратичной погрешности. При этом для сравнимости параметров продолжения необходимо, конечно, чтобы все они были заданы векторами а одинаковой длины. Поэтому миними зацию й по а нужно проводить при условии
т + 1 |
|
(а, а) = 2^ а ) =с2. |
(1.4.12) |
Воспользуемся методом неопределенных множителей Лагранжа, Для этого составим функцию Лагранжа
е2 |
т + 1 |
(йе1 (//))* |
т+1 |
|
2 |
|
|||
Ф = ------- |
^ Ъ |
2-------------- |
+ 7 ( /? 1 “ * ~ с2)’ |
(1.4.13) |
Здесь у - неопределенный множитель Лагранжа. Минимум этой функции достигается при
|
т + 1 |
|
ЭФ |
1 - 1 <<‘е1(У' ))2 |
|
Т - = |
р3-------- ( - 2 ) ( - 1 ) '* 1 Эе1№) + 2т «( « |
|
, . . . |
,т +1. |
(1.4.14) |
Отсюда получаем, что
т 2 ( й « </,))’
--------- (-1)'*Че1(У ,), (= 1 .......... |
т + 1. |
(1.4.15) |
Неопределенный множитель Лагранжа у найдем, подставив щ в (1.4.12). В результате получим
с 2 |
т + 1 |
— |
(1.4.16) |
— |
( 2 |
(4е1(/,))г ) г //)а. |
С/=1
Таким образом, минимум квадратичной погрешности 62 достигается
при следующих величинах |
: |
|
|
т +1 |
1 |
|
|
— |
(1.4.17) |
||
а, = ( - ! ) '+ 1 с <1е1 (/,)/( |
2 |
(аеЦ/у))2) 2 , |
|
Сравнивая выражения для |
а,- (1.4.17) и для 4 X ^4 ц |
(1.4.7), замечаем, |
что они совпадают с точностью до постоянного множителя. Если же выб
рать множитель с в |
(1.4.12) в виде |
|
||
с = ( |
т+1 |
4 |
(1.4.18) |
|
2 |
(<1ег(/;))2) 2 /А |
|||
|
/= 1 |
|
|
|
то щ в точ н ости совпадает с ЛТ/Д/д |
|
|||
а, = ( - |
1)/+1'<1е1(/,)А0 = ЛГ,Д*д. |
(1.4.19) |
||
Кстати, подставив |
из (1.4.19) в (1.4.18), получим, что |
|
||
|
т |
+ 1 |
|
|
Я 2 = |
2 (ёе1 (/,-))2. |
(1.4.20) |
||
|
/=1 |
|
|
|
Тогда из (1.4.18) следует, что с = 1. |
|
|||
Таким |
образом, |
вектор а = [ а ! , . . . , аш+1]т, который |
определяет |
параметр д, обеспечивающий минимальную погрешность при определе нии (1X1(1д из системы уравнений (1.4.5) (т.е. обеспечивающий максималь ную обусловленность этой системы), должен совпадать с самим иско
мым вектором 4Х14Ц. А система (1.4.5) в |
этом |
случае принимает вид |
|||
(здесь мы первое уравнение в |
(1.4.5) для удобства переставили, сделав |
||||
его последним) |
|
|
■0 " |
|
|
“ Л.1 |
Л,2.. • |
^1,т+1 |
' *1,Д |
|
|
Рт,Х |
Рт,2 |
^т.т +1 |
Хщ,/1 |
= 0 |
(1.4.21) |
- *1.м |
Х2.м-- • |
Хт+1гц . |
- Хт+1)д. |
_ 1 . |
|
В матричной записи это уравнение можно представить в виде |
|||||
7 4Х /4ц = 0, |
|
|
|
(1.4.22) |
|
(4X1411, 4Х /4ц) = 1. |
|
|
|
(1.4.23) |
Уравнение (1.4.22) в точности совпадает с уравнением непрерывного продолжения (1.1.8), и его решение методом ортогоналиэаиии (1.2 24)
(IX М р = от1 (7 ,0 |
(1.4.24) |
удовлетворяет условию |
(1.4.23), так как оно является единичным век |
тором. |
|
Поэтому оптимальный параметр д совпадает с введенным в § 1.1 обоб щенным параметром продолжения X, который, как там было установлено, является параметром длины дуги множества решений К системы (1.4.1) (рис. 1.1).
Представление (1.4.21) подсказывает возможность выбирать в процес се продолжения решения параметр продолжения так, чтобы он был бли зок к оптимальному.
Пусть в начальной точке Х0 = 0 известно не только решение X (0) систе
мы (1.4.1) ( Р ( X (о)) = 0), но и единичный вектор X «ц>л = а х ^ / а \ , касательный в этой точке к кривой К множества решений этой системы.
Тогда вектор |
= ^ ( о) .а определяет в бесконечно малой окрестности |
|
точки Х0 оптимальный параметр продолжения, |
который в соответствии |
|
с (1.4.2) равен |
|
|
Р о = ф о ) .* )в (*(о)лД > . |
(1.4.25) |
Выбрав До в качестве параметра продолжения, приходим к уравнениям продолжения решения в виде
Матрица /* = [ / т, ЛГ(0) ,\ ] Т этого уравнения в отличие от матрицы I
является квадратной и во всех точках, кроме точек ветвления, не являетсяя .вырожденной. Поэтому из (1.4.26) методом исключения можно пост роить явную форму задачи Коши по параметру д0, которую мы запишем
Х,11о^ а Х 1 ^ 0.= ( /* Г 1^ | , *(0) = Х(о). |
(1.4.27) |
По мере продвижения по параметру д0 он, вообще говоря, все больше отклоняется_от оптимального. Об этом отклонении можно судить по дли не вектора Х ,Й9, который хотя и будет касательным к кривой К, но не бу дет единичным. Его длина будет тем больше, чем больше параметр д0 отклоняется от оптимального, так как его проекция на направление Зо, в. силу последнего уравнения в (1.4.26), всегда остается равной единице (рис. 1.17). Установим ограничение на это отклонение:
( Т ,„ .,т „ ..) , ,2 < 1 |
(Т > 1). |
11.4.28) |
|
Как Показали |
практические расчеты, достаточно выбирать т - |
1,2* 1,4. |
|
В точке Х ( ^ , |
где это |
условие перестает выполняться, меняем параметр |
ц 0 на параметр ц 1, который выбираем в направлении вектора |
= |
= а(х), касательного к кривой К в этой точке. Тогда |
|
3(1) = Х(1)Л = * >Мо (Х,)/11 X (X,) II. |
(1.4.29) |
Здесь Х г11о берется в точке X - Х ^ у . Для такой смены параметра доста точно в матрице/* уравнения продолжения (1.4.26) в качестве последней строки взять вектор Х ^ у гк. Таким образом, процесс продолжения на
участке между X (ку и Х (к+1 ) сводится к интегрированию следующей начальной задачи:
|
(1.4.30) |
*(*(*)) = *(*)• |
(1.4.31) |
Интегрирование проводится, пока выполняется условие |
|
(/* /4 д * ,О Д 1 * )2 < т , 7 > 1- |
(1.4.32) |
При этом параметром продолжения цк является длина координатного вектора, заданного ортом ЛГ(Л) >\.. Как только условие (1.4.32) перестает выполняться, необходимо произвести смену параметра продолжения и пе рейти к продолжешш по параметру ц к+1, для чего нужно в этой точке построить^вектор Лг(^+1) (х, пронормировав полученный в этот момент вектор
а(А + 1) — Х ( к + 1)(Х - Х , ц к / ( Х ,р к , Х >Цк) 2 ,
иподставить Х (к+1 уг\ на место нижней строки матрицы уравнения (1.4.30). В качестве начального условия для продолжения решения на
новом участке берется вектор ЛГ(*+1) , полученный в результате интегри рования задачи Коши (1.4.30), (1.4.31) в момент, когда перестает вы полняться условие (1.4.32).
Построенный таким образом процесс продолжения решения системы (1.4.1) обеспечивает автоматический выбор параметра продолжения так, чтобы он все время был близок к оптимальному. В зависимости от того, явные или неявные схемы будут выбраны для интегрирования задачи Коши вида (1.4.30), (1.4.31), можно сформировать алгоритмы как непре-
рывного, так и дискретного продолжения. От алгоритмов, построенных в § 1.1, 1-2, они отличаются тем, что переход от неявной формулировки уравнений продолжения (1.4.30) к явной (т.е. разрешение этих уравнений относительно йХ!<1цк) не требует использования метода ортогонализации и может быть совершен с помощью метода исключения Гаусса всюду, кроме точек, где <1е1(/*) = ( -1 ) т + 1 Б = 0. Легко видеть, что это условие выполняется в регулярных и предельных точках множества решений К. В этих точках матрица ^ - невырожденная, так как имеется хотя бы один определитель из беТ (/у), I = 1, . . . , т + 1, не равный нулю, а условие (1.4.32) обеспечивает такой выбор параметра продолжения (т.е. вектора
<?(*) = с/ЛГ(к)/</\), |
при котором определитель Г), заданный выражением |
|
(1.4.8), отличен от |
нуля. И, более того, параметр Д(*) |
выбирается так, |
чтобы обусловленность системы (1.4.30)_были близка к |
максимальной. |
|
Отметим, что в |
точках, где матрица / становится вырожденной, т.е. |
|
все Ле1(//) = 0, I = 1, . . . , т + 1, обращается в нуль и определитель 4е1(/*)= |
||
= ( - 1) т+1 Г). Это |
следует непосредственно из (1.4.8). В таких точках |
|
возможйо ветвление решений системы (1.4,1). |
|
Мы здесь не приводим алгоритмов, реализующих процессы непрерыв ного или дискретного продолжения решения как процессы интегрирования задачи Коши вида (1.4.30), (1.4.31). При необходимости читатель легко построит их по аналогии с алгоритмами § 1.1, 1.2.
Обратим внимание на то, что при заданиях а,- (/ = 1, . . . , т + 1) урав
нения (1.4.1) и (1.4.2) могут быть |
рассмотрены как |
система из т + 1 |
уравнений с т + 1 неизвестными и параметром д вида |
|
|
< № , . . . , * ш+1,д) = 0, 1= 1, |
, /л + 1. |
(1.4.33) |
К поиску ее решения можно применить все методы продолжения реше ния, которые обсуждены выше. Так, например, алгоритм дискретного продолжения в форме М. Лазя (В.1.7), (1.2.9) с учетом конкретного ви да уравнения (1.4.2) (последнего уравнения в (1.4.33)) принимает форму
* (* )■ ■ * (* —1);
(1.4.34)
1. «(*) ^ |
|_ |
Мл |
Л |
|
|
|
(1.4.35) |
( = 0 , 1 , 2 , . . . |
при | | Д Т $ |
, ) И |
> е ; * = 1 . 2 . . . ., л. |
В этом алгоритме решение системы (1.4.34) представим в форме
(1.4.36)
где А Х $ +1^ - решение системы уравнений
а Д У *0'+ 1> _ П»1|№|П»>|<Ш>Г(>ММ
(1.4.38)
Сравнивая представления (1.4.36) и (1.2.30), замечаем, что они совпада
ют, если в качестве определяющего |
параметр |
продолжения |
вектора |
|
а (к) выбрать орт касательной (IX (к- 1 ) |
А это позволяет во всех алго |
|||
ритмах дискретного продолжения § |
1.3 вместо |
метода ортогоналиэации |
||
использовать решение уравнений вида |
|
(1.4.37), |
(1.4.38) методом исклю |
чения. При этом для корректировки при к = к + 1 параметра р, т.е. для выбора вектора ак+1, определяющего близкий к оптимальному параметр
д л+1, необходимо задавать его в |
виде орта с1Х^куМ^, который |
можно |
получить, пронормировав к единице решение уравнения (1.4.37) |
|
|
длг(; <),+1,/11 |
II. |
(1.4.39) |
При этом трудоемкость алгоритмов практически не увеличится. Если же в методе исключения учесть, что матрицы систем (1.4.37) и (1.4.38) оди наковы, то можно построить и более экономичные алгоритмы.
1.5.Формы метода продолжения решения
счастичной оптимизацией параметра продолжения
Во многих случаях при реализации процесса продолжения решения оп тимизация параметра продолжения требует существенного увеличения трудоемкости при переходе от неявной формулировки задачи Коши по
параметру |
(1.1.8), |
(1.1-9) |
к |
явной вида (1.1.24), (1.1.25). Так, если сис |
|
тема нелинейных |
уравнений |
(1.1.1) порождена методом конечных эле |
|||
ментов, то ее расширенная матрица Якоби / |
будет состоять из ленточной |
||||
матрицы |
/ , дополненной |
справа столбцом |
[ЭТ^/ЭЛ^-ц] = [дР^ЪР] , |
I = 1, .. -, т . Ортогонализация строк такой матрицы приведет к ортого нальной, но полностью заполненной матрице. А это потребует существен ного увеличения памяти ЭВМ. Для того чтобы уменьшить трудоемкость ортогоналиэации и сделать ее сравнимой с трудоемкостью метода Гаусса для ленточной матрицы, необходимо разработать специальные приемы ортогоналиэации, учитывающие ленточный характер матрицы ^
В то же время часто из физического смысла задачи или в результате пробных расчетов можно определить некоторое небольшое число пере менных, комбинируя которые удается при продолжении решения избе жать трудностей, возникающих в предельных точках. Покажем, как можно оптимизировать процесс продолжения решения в подпространстве, опреде ленным этими переменными. Будем считать, что необходимо оптимиэировать_процесс продолжения решения по последним <7 компонентам векто ра X. Тогда евклидово пространство Кш+1 можно представить в виде прямой суммы двух подпространств
р +<7 = т + 1. |
(1.5.1) |
Здесь Ьч -<7-мерное подпространство, натянутое на векторы д последних