Добавил:
Опубликованный материал нарушает ваши авторские права? Сообщите нам.
Вуз: Предмет: Файл:

книги / Проблемы нелинейного деформирования. Метод продолжения решения по параметру в нелинейных задачах механики твердого деформируемого тела

.pdf
Скачиваний:
7
Добавлен:
12.11.2023
Размер:
7.14 Mб
Скачать

выбора своего параметра. Формы метода продолжения, разработанные в § 1.1 и § 1.2, позволяют избежать этих трудностей. Введем 5-мерное век­

торное пространство К$ и вектор X в нем такой, что

 

’г .Р У

 

(1.3.35)

Тогда система (1.3.29) может быть представлена в виде

 

Г,(Х) =0,

.,4 .

(1.3.36)

Начальный вектор определится решением (1.3.30)

 

^(о) = [0 .0 ,^ 1о,И'ю .О]т .

 

(1.3.37)

Задачу Коши по обобщенному параметру X получим, дифференцируя по нему систему уравнений (1.3.29):

7 -ах:

о,

Хф)=х{а).

(1.3.38)

Здесь

 

 

 

 

 

 

а \

\

 

2

а \

рГ

 

 

а \

<*х * Р1

 

 

г

1

а

0

0

1

/ ( *

>

1

- 2 а

2 т

-40В/2

0

-и /,

0

1 - ^ 1

0

0

 

 

 

-

0

- Щ

0

1-7^2

0

Явную форму задачи Коши получаем из (1.3.38) методом ортогоналиэации

4Х!<1\ = от1 (/(* ), 0), * (0 ) = Х«».

(1.3.41)

На рис. 1.15 представлены результаты интегрирования этой задачи с по­ мощью явных схем непрерывного продолжения. В .расчетах принималось а = 1 ,0 = 100, Й'ю = И'ю = 0,001. В табл. 1.1 дан перечень проведенных

Т а б л и ц а

1.1

 

 

 

 

Сопоставление явных сх

ии (1.3.29)

(рис. 1.15)

 

Обозначение

 

Метод

Д \

Расход времеям

 

 

ЭВМ (е)

 

 

 

 

 

 

Сплошная линия

Метод Эйлера

0,01

40

 

Крестик

 

 

0,025

16

 

Треугольник

 

 

0,05

8

 

Кружок

 

 

0,1

4

 

Квадрат

 

Модифицированный

 

 

 

Сплошная лиш

 

метод Эйлера

 

 

 

 

Метод Рунге -Кутта

 

 

 

 

 

 

 

 

решений. Результаты представлены в проекциях на

плоскости

и

И'ьИ'з-

 

 

расчета того же примера с по­

На рис. 1.16 представлены результаты

мощью неявных схем дискретного продолжения (§

1.2). При этом ис­

пользовался

алгоритм метода Ньютона

— Рафсона

с дополнительными

условиями (1.2.19), (1.2.21), (1.2.23), соответствующими итерационным процессам, геометрия которых показана на рис. 1.6 - Щ . При шаге АЛ = = 0,1 вблизи точки В-1 отмечен "перескок” на соседнюю в^твь возмущенно­ го решения. При уменьшении шага вдвое (АЛ = 0,05), а также при исполь­

зовании переменного шага с учетом условия (1.2.42) таких "перескоков”

не происходило. Расход машинного времени ЭВМ при шаге ДА = 0,05

составил 24 с, а при переменном шаге

16 с. Расчеты проводились на

ЭВМ БЭСМ-6.

 

1.4. Оптимальный и близкие к нему параметры

продолжения решения

 

Продолжим начатое во Введении (§

В.2) обсуждение вопроса об оп­

тимальном параметре продолжения. Представим исходную систему (1.1-1)

в форме, реализующей равноправие неизвестных 2Г/

(г = 1, . . . . т) и па­

раметра Р. Для этого, как и в

§ 1.1, введем + 1)-мерное евклидово

пространство Кт+ 1 : { Х г, . . . ,

Хт , 2^+1

= Р} . В этом пространстве сис­

тема уравнений ( 1Д.1) может быть записана в виде

 

Р1 (Х) = Г1(Х1, Х 2, . . . , Х т+1) = 0, /= 1

.........т.

(1.4.1)

В качестве параметра продолжения выберем некоторый параметр ц, оп­ ределенный линейной комбинацией вида

/м+1

(1.4.2)

= Х ^ (Х,.

Фиксируя различные наборы чисел ос{,1 = 1.........т + 1, мы можем рассмот­ реть все возможные параметры продолжения. Например, при « | = ... = а„ * = 0, ат + 1 = 1 параметром продолжения будет параметр Р = Ят + 1 А при

задании а,- в виде символа Кроиекера 0 при гФ к,

щ - 6 =

. . . ,т + 1,

(1.4.3)

1при г = к,

вкачестве параметра продолжения назначается Хк. Если в К.„|+1 ввести

вектор а = [а4, . . . ,

аш+1] т, то параметр д, как это видно из соотноше­

ния (1.4.2), можно

понимать как скалярное произведение векторов а

И ^ ^ ^т+1

 

Д = (а,* ).

(1.4.4)

По смыслу представления (1.4.2) вектор а. определяет направление, в ко­ тором выбирается параметр продолжения. Так, при выборе а{ в виде (1.4.3) вектор а оказывается ортом оси Х к, т.е. ортом той оси, в направлении которой выбран параметр продолжения.

Уравнения продолжения решения по параметру д построим, продиф­ ференцировав по этому параметру уравнения (1.4.1) и выражение (1.4.2). В_итоге получим следующую систему уравнений для компонент вектора

а х/ац:

т+ 1

 

2

а1ах,/а^=1,

 

/= 1

 

 

т+1

РП (1Х{Мц = 0

т.

2

/= 1

Л

 

Эту систему для наглядности представим в матричной форме

"«г

г —з4

<*2

“да+1

"1

Р\,г

■-••*Г1,т+1

*2,м = 0

^т,2’•^‘т,т+1

0 _

Заметим, что матрица этой системы, которую обозначим через /* , образо­ вана дополнением матрицы Якоби / системы (1.4.1) сверху строкой из компонент вектора а

Г

( 1 .4 .6 )

Решение системы (1.4:5) по правилу Крамера можно представить в форме

4Х,14» = Х ^

( -Р '+ Ч е К Л )

(1.4.7)

 

Б

Здесь, как и в § 1.1,// - квадратная матрица, получаемая из / вычерки­ ванием /-го столбца, она в то же время является алгебраическим дополне­ нием элемента а} в матрице /* . Через Б обозначен определитель матрицы /* , который после раскрытия по элементам первой строки может быть

представлен в виде

Ж+1

 

Б = <1е1 (/* ) = Б а,-( - 1 )'+1 (1е1 (/,).

(1.4.8)

Обусловленность системы (1.4.5) определяется чувствительностью ее ре­ шения к погрешностям. Рассмотрим простейший случай, когда с погреш­ ностью задана правая часть системы (1.4.5) в виде вектора

[1 + е, 0 , . . . , 0]т.

(1.4.9)

Тогда вектор погрешности 5 решения системы (1.4.5) с правой частью (1.4.9) по сравнению с решением без погрешности будет

8 = е[Х1>м.........

Хт+и ц]т.

(1.4.10)

Исследуем квадратичную погрешность <1 = (5, б ), которую с учетом (1.4.10) и (1.4.7) можно представить в виде

'"Б* (с1е<(/,))2

</= ( М ) = е* / = 1 о 2 --------

(1.4.11)

В этом выражении от а зависит только знаменатель - определитель Б системы (1.4.5). Ясно, что при изменении а погрешность й будет менять­ ся. Поэтому найдем такой вектор а, т.е. такой параметр продолжения, который обеспечивает минимум квадратичной погрешности. При этом для сравнимости параметров продолжения необходимо, конечно, чтобы все они были заданы векторами а одинаковой длины. Поэтому миними­ зацию й по а нужно проводить при условии

т + 1

 

(а, а) = 2^ а ) =с2.

(1.4.12)

Воспользуемся методом неопределенных множителей Лагранжа, Для этого составим функцию Лагранжа

е2

т + 1

(йе1 (//))*

т+1

 

2

 

Ф = -------

^ Ъ

2--------------

+ 7 ( /? 1 “ * ~ с2)’

(1.4.13)

Здесь у - неопределенный множитель Лагранжа. Минимум этой функции достигается при

 

т + 1

 

ЭФ

1 - 1 <<‘е1(У' ))2

 

Т - =

р3-------- ( - 2 ) ( - 1 ) '* 1 Эе1№) + 2т «( «

 

, . . .

+1.

(1.4.14)

Отсюда получаем, что

т 2 ( й « </,))’

--------- (-1)'*Че1(У ,), (= 1 ..........

т + 1.

(1.4.15)

Неопределенный множитель Лагранжа у найдем, подставив щ в (1.4.12). В результате получим

с 2

т + 1

(1.4.16)

( 2

(4е1(/,))г ) г //)а.

С/=1

Таким образом, минимум квадратичной погрешности 62 достигается

при следующих величинах

:

 

т +1

1

 

(1.4.17)

а, = ( - ! ) '+ 1 с <1е1 (/,)/(

2

(аеЦ/у))2) 2 ,

Сравнивая выражения для

а,- (1.4.17) и для 4 X ^4 ц

(1.4.7), замечаем,

что они совпадают с точностью до постоянного множителя. Если же выб­

рать множитель с в

(1.4.12) в виде

 

с = (

т+1

4

(1.4.18)

2

(<1ег(/;))2) 2 /А

 

/= 1

 

 

то щ в точ н ости совпадает с ЛТ/Д/д

 

а, = ( -

1)/+1'<1е1(/,)А0 = ЛГ,Д*д.

(1.4.19)

Кстати, подставив

из (1.4.19) в (1.4.18), получим, что

 

 

т

+ 1

 

 

Я 2 =

2 (ёе1 (/,-))2.

(1.4.20)

 

/=1

 

 

Тогда из (1.4.18) следует, что с = 1.

 

Таким

образом,

вектор а = [ а ! , . . . , аш+1]т, который

определяет

параметр д, обеспечивающий минимальную погрешность при определе­ нии (1X1(1д из системы уравнений (1.4.5) (т.е. обеспечивающий максималь­ ную обусловленность этой системы), должен совпадать с самим иско­

мым вектором 4Х14Ц. А система (1.4.5) в

этом

случае принимает вид

(здесь мы первое уравнение в

(1.4.5) для удобства переставили, сделав

его последним)

 

 

■0 "

 

“ Л.1

Л,2.. •

^1,т+1

' *1,Д

 

Рт,Х

Рт,2

^т.т +1

Хщ,/1

= 0

(1.4.21)

- *1.м

Х2.м-- •

Хт+1гц .

- Хт+1)д.

_ 1 .

 

В матричной записи это уравнение можно представить в виде

7 4Х /4ц = 0,

 

 

 

(1.4.22)

(4X1411, 4Х /4ц) = 1.

 

 

 

(1.4.23)

Уравнение (1.4.22) в точности совпадает с уравнением непрерывного продолжения (1.1.8), и его решение методом ортогоналиэаиии (1.2 24)

(IX М р = от1 (7 ,0

(1.4.24)

удовлетворяет условию

(1.4.23), так как оно является единичным век­

тором.

 

Поэтому оптимальный параметр д совпадает с введенным в § 1.1 обоб­ щенным параметром продолжения X, который, как там было установлено, является параметром длины дуги множества решений К системы (1.4.1) (рис. 1.1).

Представление (1.4.21) подсказывает возможность выбирать в процес­ се продолжения решения параметр продолжения так, чтобы он был бли­ зок к оптимальному.

Пусть в начальной точке Х0 = 0 известно не только решение X (0) систе­

мы (1.4.1) ( Р ( X (о)) = 0), но и единичный вектор X «ц>л = а х ^ / а \ , касательный в этой точке к кривой К множества решений этой системы.

Тогда вектор

= ^ ( о) .а определяет в бесконечно малой окрестности

точки Х0 оптимальный параметр продолжения,

который в соответствии

с (1.4.2) равен

 

 

Р о = ф о ) .* )в (*(о)лД > .

(1.4.25)

Выбрав До в качестве параметра продолжения, приходим к уравнениям продолжения решения в виде

Матрица /* = [ / т, ЛГ(0) ,\ ] Т этого уравнения в отличие от матрицы I

является квадратной и во всех точках, кроме точек ветвления, не являетсяя .вырожденной. Поэтому из (1.4.26) методом исключения можно пост­ роить явную форму задачи Коши по параметру д0, которую мы запишем

Х,11о^ а Х 1 ^ 0.= ( /* Г 1^ | , *(0) = Х(о).

(1.4.27)

По мере продвижения по параметру д0 он, вообще говоря, все больше отклоняется_от оптимального. Об этом отклонении можно судить по дли­ не вектора Х ,Й9, который хотя и будет касательным к кривой К, но не бу­ дет единичным. Его длина будет тем больше, чем больше параметр д0 отклоняется от оптимального, так как его проекция на направление Зо, в. силу последнего уравнения в (1.4.26), всегда остается равной единице (рис. 1.17). Установим ограничение на это отклонение:

( Т ,„ .,т „ ..) , ,2 < 1

(Т > 1).

11.4.28)

Как Показали

практические расчеты, достаточно выбирать т -

1,2* 1,4.

В точке Х ( ^ ,

где это

условие перестает выполняться, меняем параметр

ц 0 на параметр ц 1, который выбираем в направлении вектора

=

= а(х), касательного к кривой К в этой точке. Тогда

 

3(1) = Х(1)Л = * >Мо (Х,)/11 X (X,) II.

(1.4.29)

Здесь Х г11о берется в точке X - Х ^ у . Для такой смены параметра доста­ точно в матрице/* уравнения продолжения (1.4.26) в качестве последней строки взять вектор Х ^ у гк. Таким образом, процесс продолжения на

участке между X (ку и Х (к+1 ) сводится к интегрированию следующей начальной задачи:

 

(1.4.30)

*(*(*)) = *(*)•

(1.4.31)

Интегрирование проводится, пока выполняется условие

 

(/* /4 д * ,О Д 1 * )2 < т , 7 > 1-

(1.4.32)

При этом параметром продолжения цк является длина координатного вектора, заданного ортом ЛГ(Л) >\.. Как только условие (1.4.32) перестает выполняться, необходимо произвести смену параметра продолжения и пе­ рейти к продолжешш по параметру ц к+1, для чего нужно в этой точке построить^вектор Лг(^+1) (х, пронормировав полученный в этот момент вектор

а(А + 1) — Х ( к + 1)(Х - Х , ц к / ( Х ,р к , Х >Цк) 2 ,

иподставить Х (к+1 уг\ на место нижней строки матрицы уравнения (1.4.30). В качестве начального условия для продолжения решения на

новом участке берется вектор ЛГ(*+1) , полученный в результате интегри­ рования задачи Коши (1.4.30), (1.4.31) в момент, когда перестает вы­ полняться условие (1.4.32).

Построенный таким образом процесс продолжения решения системы (1.4.1) обеспечивает автоматический выбор параметра продолжения так, чтобы он все время был близок к оптимальному. В зависимости от того, явные или неявные схемы будут выбраны для интегрирования задачи Коши вида (1.4.30), (1.4.31), можно сформировать алгоритмы как непре-

рывного, так и дискретного продолжения. От алгоритмов, построенных в § 1.1, 1-2, они отличаются тем, что переход от неявной формулировки уравнений продолжения (1.4.30) к явной (т.е. разрешение этих уравнений относительно йХ!<1цк) не требует использования метода ортогонализации и может быть совершен с помощью метода исключения Гаусса всюду, кроме точек, где <1е1(/*) = ( -1 ) т + 1 Б = 0. Легко видеть, что это условие выполняется в регулярных и предельных точках множества решений К. В этих точках матрица ^ - невырожденная, так как имеется хотя бы один определитель из беТ (/у), I = 1, . . . , т + 1, не равный нулю, а условие (1.4.32) обеспечивает такой выбор параметра продолжения (т.е. вектора

<?(*) = с/ЛГ(к)/</\),

при котором определитель Г), заданный выражением

(1.4.8), отличен от

нуля. И, более того, параметр Д(*)

выбирается так,

чтобы обусловленность системы (1.4.30)_были близка к

максимальной.

Отметим, что в

точках, где матрица / становится вырожденной, т.е.

все Ле1(//) = 0, I = 1, . . . , т + 1, обращается в нуль и определитель 4е1(/*)=

= ( - 1) т+1 Г). Это

следует непосредственно из (1.4.8). В таких точках

возможйо ветвление решений системы (1.4,1).

 

Мы здесь не приводим алгоритмов, реализующих процессы непрерыв­ ного или дискретного продолжения решения как процессы интегрирования задачи Коши вида (1.4.30), (1.4.31). При необходимости читатель легко построит их по аналогии с алгоритмами § 1.1, 1.2.

Обратим внимание на то, что при заданиях а,- (/ = 1, . . . , т + 1) урав­

нения (1.4.1) и (1.4.2) могут быть

рассмотрены как

система из т + 1

уравнений с т + 1 неизвестными и параметром д вида

 

< № , . . . , * ш+1,д) = 0, 1= 1,

, /л + 1.

(1.4.33)

К поиску ее решения можно применить все методы продолжения реше­ ния, которые обсуждены выше. Так, например, алгоритм дискретного продолжения в форме М. Лазя (В.1.7), (1.2.9) с учетом конкретного ви­ да уравнения (1.4.2) (последнего уравнения в (1.4.33)) принимает форму

* (* )■ ■ * (* —1);

(1.4.34)

1. «(*) ^

|_

Мл

Л

 

 

 

(1.4.35)

( = 0 , 1 , 2 , . . .

при | | Д Т $

, ) И

> е ; * = 1 . 2 . . . ., л.

В этом алгоритме решение системы (1.4.34) представим в форме

(1.4.36)

где А Х $ +1^ - решение системы уравнений

а Д У *0'+ 1> _ П»1|№|П»>|<Ш>Г(>ММ

(1.4.38)

Сравнивая представления (1.4.36) и (1.2.30), замечаем, что они совпада­

ют, если в качестве определяющего

параметр

продолжения

вектора

а (к) выбрать орт касательной (IX (к- 1 )

А это позволяет во всех алго­

ритмах дискретного продолжения §

1.3 вместо

метода ортогоналиэации

использовать решение уравнений вида

 

(1.4.37),

(1.4.38) методом исклю­

чения. При этом для корректировки при к = к + 1 параметра р, т.е. для выбора вектора ак+1, определяющего близкий к оптимальному параметр

д л+1, необходимо задавать его в

виде орта с1Х^куМ^, который

можно

получить, пронормировав к единице решение уравнения (1.4.37)

 

длг(; <),+1,/11

II.

(1.4.39)

При этом трудоемкость алгоритмов практически не увеличится. Если же в методе исключения учесть, что матрицы систем (1.4.37) и (1.4.38) оди­ наковы, то можно построить и более экономичные алгоритмы.

1.5.Формы метода продолжения решения

счастичной оптимизацией параметра продолжения

Во многих случаях при реализации процесса продолжения решения оп­ тимизация параметра продолжения требует существенного увеличения трудоемкости при переходе от неявной формулировки задачи Коши по

параметру

(1.1.8),

(1.1-9)

к

явной вида (1.1.24), (1.1.25). Так, если сис­

тема нелинейных

уравнений

(1.1.1) порождена методом конечных эле­

ментов, то ее расширенная матрица Якоби /

будет состоять из ленточной

матрицы

/ , дополненной

справа столбцом

[ЭТ^/ЭЛ^-ц] = [дР^ЪР] ,

I = 1, .. -, т . Ортогонализация строк такой матрицы приведет к ортого­ нальной, но полностью заполненной матрице. А это потребует существен­ ного увеличения памяти ЭВМ. Для того чтобы уменьшить трудоемкость ортогоналиэации и сделать ее сравнимой с трудоемкостью метода Гаусса для ленточной матрицы, необходимо разработать специальные приемы ортогоналиэации, учитывающие ленточный характер матрицы ^

В то же время часто из физического смысла задачи или в результате пробных расчетов можно определить некоторое небольшое число пере­ менных, комбинируя которые удается при продолжении решения избе­ жать трудностей, возникающих в предельных точках. Покажем, как можно оптимизировать процесс продолжения решения в подпространстве, опреде­ ленным этими переменными. Будем считать, что необходимо оптимиэировать_процесс продолжения решения по последним <7 компонентам векто­ ра X. Тогда евклидово пространство Кш+1 можно представить в виде прямой суммы двух подпространств

р +<7 = т + 1.

(1.5.1)

Здесь Ьч -<7-мерное подпространство, натянутое на векторы д последних

Соседние файлы в папке книги