Всё сдал! - помощь студентам онлайн Всё сдал! - помощь студентам онлайн

Реальная база готовых
студенческих работ

Узнайте стоимость индивидуальной работы!

Вы нашли то, что искали?

Вы нашли то, что искали?

Да, спасибо!

0%

Нет, пока не нашел

0%

Узнайте стоимость индивидуальной работы

это быстро и бесплатно

Получите скидку

Оформите заказ сейчас и получите скидку 100 руб.!


Решение систем линейных алгебраических уравнений для больших разреженных матриц

Тип Реферат
Предмет Математика
Просмотров
629
Размер файла
457 б
Поделиться

Ознакомительный фрагмент работы:

Решение систем линейных алгебраических уравнений для больших разреженных матриц

ФЕДЕРАЛЬНОЕ ГОСУДАРСТВЕННОЕ ОБРАЗОВАТЕЛЬНОЕ

УЧРЕЖДЕНИЕ ВЫСШЕГО ПРОФЕССИОНАЛЬНОГO

ОБРАЗОВАНИЯ

“ЮЖНЫЙ ФЕДЕРАЛЬНЫЙ УНИВЕРСИТЕТ”

В.А.Еремеев

РЕШЕНИЕ СИСТЕМ ЛИНЕЙНЫХ

АЛГЕБРАИЧЕСКИХ УРАВНЕНИЙ ДЛЯ БОЛЬШИХ РАЗРЕЖЕННЫХ МАТРИЦ

(учебно-методическое пособие)

Ростов-на-Дону

2008

В.А.Еремеев. Решение систем линейных алгебраических уравнений для больших разреженных матриц: Учебно-методическое пособие. – г.Ростов-на-Дону, 2008 г. – 39 с.

В данном пособии в концентрированном виде содержится информация о решении систем линейных алгебраических уравнений для разреженных матриц большой размерности. Пособие состоит из четырех основных модулей:

1. задачи линейной алгебры с разреженными матрицами на примере дискретизации уравнения Пуассона;

2. векторные и матричные нормы;

3. итерационные методы;

4. методы подпространств Крылова.

Пособие предназначено для преподавания дисциплин в рамках магистерской образовательной программы “Математическое моделирование и компьютерная механика”.

Пособие также предназначено для студентов и аспирантов факультета математики, механики и компьютерных наук, специализирующихся в области математического моделирования, вычислительной математики и механики твердого деформируемого тела.

Пособие подготовлено в рамках гранта ЮФУ K-07-T-41.

Содержание

1 Задачи линейной алгебры с разреженными матрицами на примере дискретизации уравнения Пуассона 4

1.1 Решение уравнения −x00 = f(t) . . . . . . . . . . . . . . . 4

1.2 Решение уравнения Пуассона . . . . . . . . . . . . . . . . 6

2 Векторные и матричные нормы 11

2.1 Векторные нормы . . . . . . . . . . . . . . . . . . . . . . 11

2.2 Матричные нормы . . . . . . . . . . . . . . . . . . . . . . 13

2.3 Связь векторных и матричных норм . . . . . . . . . . . 15

3 Итерационные методы 19

3.1 Определения и условия сходимости итерационных методов 19

3.2 Метод простой итерации . . . . . . . . . . . . . . . . . . . 23

3.3 Метод Якоби . . . . . . . . . . . . . . . . . . . . . . . . . 24

3.4 Метод Гаусса-Зейделя . . . . . . . . . . . . . . . . . . . . 25

3.5 Метод последовательной верхней релаксации (SOR) . . . 26

3.6 Метод симметричной последовательной верхней релак-

сации (SSOR) . . . . . . . . . . . . . . . . . . . . . . . . . 27

4 Методы подпространств Крылова 30

4.1 Инвариантные подпространства . . . . . . . . . . . . . . 30

4.2 Степенная последовательность и подпространства Кры-

лова . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

4.3 Итерационные методы подпространств Крылова . . . . . 33

Заключение 38

Литература 38

Дополнительная литература 39


1 Задачи линейной алгебры с разреженными матрицами на примере дискретизации уравнения Пуассона

Основным источником задач линейной алгебры для матриц большой размерности являются задачи, получаемые в результате дискретизации краевых задач математической физики. Далее рассмотрим два примера, иллюстрирующих особенности получаемых матричных задач.

1.1 Решение уравнения −x00 = f(t)

Рассмотрим простейшую краевую задачу

x00 = f(t), x(0) = x(1) = 0.

Для дискретизации этой краевой задачи воспользуемся методом конечных разностей. Введем равномерную сетку на единичном отрезке

ti = hi, i = 0,...n + 1, h = 1/(n + 1)

так, чтобы t0 = 0, tn+1 = 1. Используем обозначения

xi = x(ti), fi = f(ti).

Для дискретизации второй производной воспользуемся центральной конечной разностью

,

которая аппроксимирует x00(ti) c точностью O(h2). Тогда исходная краевая задача сводится к системе линейных алгебраических уравнений (СЛАУ) относительно

xi−1 + 2xi xi+1 = h2fi (i = 1,...,n)

или c учетом краевых условий x0 = xn+1 = 0

2x1 x2 = = h2f1,

x1 + 2x2 x3 = h2f2,

,

.

Эту СЛАУ можно записать также в матричном виде

Ax = b,

где

2

−1

A =  0 

−1 0

2 −1

−1 2

...

...

...

...

0

0

0

0

0 

0 ,

0 0 0 ... −1 2

  x1

x2  

x3 , x = 

 ...  xn

  b1

b2 

b3 

b = 

 ... 

bn

Обратим внимание на следующие свойства матрицы A.

A – разреженная матрица, она трехдиагональная;

A – симметричная и, более того, положительно определенная. Это свойство она унаследовала от свойств оператора исходной краевой задачи;

• Структура A достаточно простая, ее элементы вычисляются по простым формулам. Следовательно, для ее хранения в памяти компьютера нет необходимости использовать типы данных, предназначенные для хранения заполненных матриц.

Обсудим размерность полученной СЛАУ. Предположим, что требуемая точность аппроксимации равна ² = 10−6. Поскольку ² h2, то

−3, т.к. h ∼ √². Т.е. требуемый шаг сетки нужно выбрать порядка 10 мы имеем матрицу размерности 103 × 103. На практике, размерность должна быть выше, чтобы удовлетворить большей точности.

0 1

Рис. 1: Конечно-разностная сетка. Естественная нумерация узлов.

1.2 Решение уравнения Пуассона Рассмотрим более сложную краевую задачу

−∆u(x,y) = f(x,y), u|Γ = 0,

где u = u(x,y) – неизвестная функция, f(x,y) – известная, заданные на единичном квадрате (x,y) ∈ Ω = [0,1]×[0,1]}, Γ = Ω – граница Ω. Введем на Ω равномерную сетку, так что координаты узлов даются формулами xi = hi, yi = hi, i = 0,...N + 1, h = 1/(N + 1).

Используем обозначения

ui,j = u(xi,yj), fi,j = f(xi,yj).

Для дискретизации вторых производных в операторе Лапласа ∆ воспользуемся формулами для центральной конечной разности

,

Таким образом, исходная краевая задача сводится к СЛАУ

ui−1,j + 4ui,j ui+1,j ui,j−1 − ui,j+1 = h2fi,j (1) относительно ui,j. Для того, чтобы свести ее к стандартному виду Ax = b, необходимо преобразовать ui,j к выражению с одним индексом, т.е. перенумеровать каким-то образом. Выбор нумерации влияет, вообще говоря, на структуру матрицы A.

Рассмотрим случай N = 3. Соответствующая сетка показана на рис. 1, где использована естественная нумерация внутренних узлов. Полые кружки соответствуют граничным узлам, в которых известно значение функции, а сплошные – внутренним.

Если преобразовать конечно-разностное уравнение (1) в матричное уравнение Ax = b, вводя вектор неизвестных по правилу u1,1 = x1, u1,2 = x2, u1,3 = x3, u2,1 = x4,..., u3,3 = x9,

то матрица A принимает вид

−1

0

0

4

−1

0

−1

0 0

0

−1

0

−1

4

−1

0

−1

0

0 0

−1

0

−1

4

0 0

−1

0 0 0

−1

0

0

4

−1

0

0 0 0 0

−1

0

0 4

−1

0

0 

0  0  

0 

−1 

0 

−1 

4

4

−1 

 0  −1

A =  0

 0

 0

 0

0

−1

4

−1

0

−1

0

0 0 0

0

−1

4

0 0

−1

0

0 0

Видно, что A является симметричной ленточной разреженной матрицей с диагональным преобладанием.

В результате нужно отметить, что в целом, матрица A обладает теми же свойствами, что и в случае одномерной, задачи, хотя ее структура может не быть ленточной, что зависит от способа нумерации узлов сетки

Обсудим размерность полученной СЛАУ. Предположим как и ранее, что требуемая точность аппроксимации равна ² = 10−6. Поскольку ² h2, то требуемый шаг сетки нужно выбрать порядка 10−3, т.к.

3 × 103 = 106. Таh ². Число узлов здесь оказывается равным 10 кому же числу равно число неизвестных n. Таким образом, мы имеем матрицу размерности 106 × 106.

Нетрудно догадаться, что если рассмотреть, не квадрат, а куб, то число неизвестных будет примерно равно n = 109. В расчетной практике встречаются задачи, где нужно определять не одну функцию, а несколько. Например, в гидродинамике при учете теплопереноса имеем четыре скалярных неизвестных (три компоненты поля скорости и поле температуры). Если рассматривать конечно-разностную аппроксимацию этой задачи с точностью ² = 10−6, то получим размерность n = 4 · 109.

Рассмотренные выше два примера показывают характерные источники задач линейной алгебры, приводящие к СЛАУ с большими разреженными матрицами. Естественно, что при решении таких СЛАУ необходимо развивать специальные методы вычислительной алгебры.

Рассмотрим другую нумерацию узлов, показанную на рис. 2. Здесь использовано так называемое красно-черное разбиение (или чернобелое). Вначале нумеруются узлы, сумма индексов которых – четное число, а потом узлы, сумма индексов которых дает нечетное число. Таким образом, вектор переменных вводится по правилу вектор неизвестных по правилу

u1,1 = x1, u1,3 = x2, u2,2 = x3, u3,1 = x4, u3,3 = x5

– это красные неизвестные, а

u1,2 = x6, u2,1 = x7, u2,3 = x8, u3,2 = x9

– черные неизвестные.

0 1

Рис. 2: Конечно-разностная сетка. Красно-черное разбиение.

Соответствующая красно-черному разбиению матрица дается формулой

4 0 0 0

0 4 0 0

0 0 4 0

0 0 0 4

A =  0 0 0 0

 −1 −1 −1 0 

 −1 0 −1 −1 

 0 −1 −1 0

0

0

0 0

4

0 0

−1

−1 −1 0 0

−1 0 −1 0

−1 −1 −1 −1  0 −1 0 −1

0 0 −1 −1 

4 0 0 0 

0 4 0 0 

0 0 4 0 

0 0 0 4

0 0 −1 −1 −1

Видно, что A является симметричной блочной (состоящей из четырех блоков) разреженной матрицей с диагональным преобладанием.

ТЕСТ РУБЕЖНОГО КОНТРОЛЯ № 1

1. Если исходная краевая задача порождает самосопряженный оператор, то какого вида матрицу следует ожидать после дискретизации? (выберите один из ответов)

(a) диагональную;

(b) верхнюю треугольную;

(c) трехдиагональную; (d) симметричную.

2. Зависит ли структура матрицы от способа нумерации узлов (выберите один из ответов)

(a) зависит;

(b) не зависит;

(c) не зависит, если оператор краевой задачи самосопряженный; (d) не зависит, если матрица ленточная.

3. Выберите из списка все разреженные матрицы

(a) диагональная;

(b) ленточная;

(c) нижняя треугольная; (d) теплицева.

4. При аппроксимации конечными разностями второго порядка двумерного уравнения Лапласа потребовалась точность 10−10. Каков порядок матрицы соответствующей СЛАУ получится, т.е. размерность n? (выберите один из ответов)

(a) 10−10;

(b) 1010;

(c) 105;

(d) 10100.

2 Векторные и матричные нормы

Напомним некоторые основные определения и утверждения из линейной алгебры. В данном пособии мы будем иметь дело с квадратными вещественными матрицами размерности n × n.

2.1 Векторные нормы

Определение 1. Пусть V – векторное пространство над полем F (R или C). Функция k · k: V → R является векторной нормой, если для всех x, y ∈ V выполняются следующие условия:

(1) kxk ≥ 0 (неотрицательность);

(1a) kxk = 0 тогда и только тогда, когда x = 0 (положительность);

(2) kcxk = |c|kxk для всех чисел c ∈ F (абсолютная однородность);

(3) kx + y| ≤ kxk + kyk (неравенство треугольника).

Это привычные свойства евклидовой длины на плоскости. Евклидова длина обладает и другими свойствами, независимыми от приведенных аксиом (например, выполнено тождество параллелограмма). Подобные дополнительные свойства оказываются несущественными для общей теории норм и поэтому не причисляются к аксиомам.

Функцию, для которой выполнены аксиомы (1), (2) и (3), но не обязательно (1а), называют векторной полунормой. Это более общее понятие, чем норма. Некоторые векторы, отличные от нулевого, могут иметь нулевую длину в смысле полунормы.

Определение 2. Пусть V – векторное пространство над полем F (R или C). Функция (x,y): VxV → F является скалярным произведением, если для всех x, y, z ∈ V следующие условия:

(1) (x,x) ≥ 0 (неотрицательность);

(1a) (x,x) = 0 тогда и только тогда, когда x = 0 (положительность);

(2) (x + y,z) = (x,z) + (y,z) (аддитивность); (3) (cx,y) = c(x,y) для всех чисел c ∈ F (однородность);

(4) (x,y) = (y,x) для любых x,y (эрмитовость).

Примеры векторных норм. В конечномерном анализе используются так называемые `p-нормы

.

Наиболее распространенными являются следующие три нормы

;

(евклидова норма);

Естественно, что существует бесконечно много норм. Например, нормой также является выражение max{kxk1 + kx||2} или такое

kxkT = kTxk,

где T – произвольная невырожденная матрица.

Имеет место теорема, с теоретической точки зрения показывающая достаточность только одной нормы

Теорема 1. В конечномерном пространстве все нормы эквивалентны, т.е. для любых двух норм k · kα, k · kβ и для любого x выполняется неравенство

kxkα C(α,β,n)kxkβ

где C(α,β,n) – некоторая постоянная, зависящая от вида норм и от размерности матрицы n.

Для норм k · k1, k · k2, k · kконстанта C(α,β,n) определяется таблицей

αβ1

2

11n

n

211n
111

Проверим выполнение некоторых из неравенств.

Очевидно, что kxk1 nkxk. Это следует из неравенства

,

которое получается, если в kxk1 заменить компоненты на максимальное значение. Неравенство достигается, если xi = xmax, т.е. все компоненты равны друг другу. Тем самым это неравенство является точным, поскольку иногда становится равенством.

Проверку остальных неравенств оставляем читателю (см. также

[10]).

Несмотря на теоретическую эквивалентность норм, с практической точки зрения норма вектора большой размерности n может отличаться от другой нормы того же вектора в n раз. Поэтому выбор нормы при больших n имеет значение с практической точки зрения.

Геометрические свойства норм k·k1, k·k2, k·kмогут быть прояснены в случае R2. Графики уравнений kxk1 = 1, kxk2 = 1, kxk= 1 показаны на рис. 3. .

2.2 Матричные нормы

Обозначим пространство квадратных матриц порядка n через Mn.

Определение 3. Функция k·k, действующая из Mn в Rn, называется матричной нормой, если выполнены следующие свойства

Рис. 3: Графики уравнений kxk1 =1, kxk2 =1, kxk=1.

1. kAk ≥ 0, kAk = 0 ⇔ A = 0;

2. kλAk = |λ|kAk;

3. kA + Bk ≤ kAk + kBk (неравенство треугольника);

4. kABk ≤ kAkkBk (кольцевое свойство).

Если последнее свойство не выполнено, то такую норму будем называть обобщенной матричной нормой.

Приведем примеры наиболее распространенных матричных норм.

1. – максимальная столбцовая норма;

2. – максимальная строчная норма;

3. kAkM = n max |aij|;

i,j=1..n

4. kAk2 = max νi – спектральная норма. Здесь νi – сингулярные i=1..n

числа матрицы A, т.е. νi2 – собственные числа матрицы AAT;

5. – евклидова норма;

6. норма.

Как и в случае векторных норм, все матричные нормы эквивалентны. Использование различных норм связано с удобством использования, а также с тем фактом, что матриц большой размерности значения нормы могут отличаться весьма значительно.

2.3 Связь векторных и матричных норм

Выше были даны примеры векторных и матричных норм, введенные независимо друг от друга. Вместе с тем, эти два понятия могут быть связаны при помощи двух понятий.

Определение 4. Матричная норма k · k называется согласованной с векторной нормой k · k, если для любой A ∈ Mn и любого x ∈ V выполняется неравенство

kAxk ≤ kAkkxk.

Заметим, что в этом неравенстве знак нормы относится к разным нормам – векторным и матричной.

Определение 5. Матричная норма называется подчиненной (операторной, индуцированной) соответствующей векторной норме, если она определена равенством

kAk = max kAxk.

kxk=1

Понятие операторной матричной нормы является более сильным, чем подчиненной:

Теорема 2. Операторная норма является подчиненной соответствующей матричной норме.

Доказательство. Действительно, из определения следует,

kAxk ≤ kAkkxk.

Следствие 2.3.1. Операторная норма единичной матрицы равна единице:

kEk = 1. Доказательство. Действительно, kEk = max kExk = 1. kxk=1

Существует ряд утверждений, связывающих введенные матричные и векторные нормы.

1. Матричная норма k · k1 являются операторной нормой, соответствующей векторной норме k · k1.

2. Матричная норма k · kявляются операторной нормой, соответствующей векторной норме k · k.

3. Спектральная матричная норма k·k2 являются операторной нормой, соответствующей евклидовой векторной норме k · k2.

4. Матричные нормы k·kE, k·kM, k·k`1 не являются операторными.

5. Матричная норма k · k2 согласована с векторной нормой k · k2.

6. Матричная норма k·kM согласована с векторными нормами k·k1, k · k, k · k2.

ТЕСТ РУБЕЖНОГО КОНТРОЛЯ № 2

1. Вычислите нормы k · k1, k · k, k · kM, k · k`1 матриц

(a) 

... 0 0

... 0 0

A... 0 0 ;

.. 

0 0 0−1 2

(b) 

41 0 1 0 0 0 0 0

 −1 4 −1 0 1 0 0 0 0

 01 4 0 01 0 0 0

 −1 0 0 4 1 0 −1 0 0

 A =  01 01 0 −1 0 ;

  0 01 0 1 4 0 0 −1 

  0 0 0 1 0 0 4 0 0 



 0 0 0 0 1 0 −1 4 −1  0 0 0 0 0 −1 0 −1 4

(c) 

4 0 0 0 0 −1 −1 0 0

 0 4 0 0 0 −1 0 −1 0

 0 0 4 0 0 −1 −1 −1 −1

 0 0 0 4 0 0 −1 0 −1

 A =  0 0 0 0 4 0 0 −1 −1 .

  −1 −11 0 0 4 0 0 0 

  −1 01 0 0 4 0 0 



 0 −11 0 1 0 0 4 0 

0 01 0 0 0 4

2. Если матричная норма является согласованной, то можно ли построить соответствующую ей векторную норму, чтобы она стала операторной? (выберите один из ответов)

(a) нельзя;

(b) можно;

(c) можно, если матрица симметрична; (d) можно для евклидовой нормы.

3. Если матричная норма k · k является операторной, то (выберите правильные ответы)

(a) она согласована;

(b) положительна;

(c) kEk = 1;

(d) kEk = n.

4. Операторная норма единичной матрицы равна (выберите один из ответов)

(a) чему угодно;

(b) единице; (c) n;

(d) n2.

5. Согласованная норма единичной матрицы равна (выберите один из ответов)

(a) чему угодно;

(b) единице; (c) n;

(d) n2.

3 Итерационные методы

3.1 Определения и условия сходимости итерационных методов

Различают прямые и итерационные методы решения систем линейных алгебраических уравнений (СЛАУ). Прямые методы получают решение за конечное число шагов, причем, если предположить, что это решение может быть получено в точной арифметике (когда нет ошибок округления), то это решение является точным. Итерационные методы, вообще говоря, всегда дают приближенное решение, для получения точного решения необходимо бесконечное число шагов. Интерес к итерационным методам связан как раз с решением СЛАУ с матрицами большой размерности. Прямые методы для таких матриц не дают требуемой точности. В случае разреженных матриц большой размерности итерационные методы дают заметный выигрыш в точности, быстродействии и экономии памяти.

Определение 6. Итерационный метод дается последовательностью

x(k+1) = Gkx(k) + gk

или

³ ´

x(k+1) = x(k) + Qk 1 b − Ax(k) .

Gk называется матрицей перехода, а Qk – матрицей расщепления, x(0) предполагается известным начальным приближением.

Определение 7. Метод называется стационарным, если матрица перехода Gk (матрица расщепления Qk) и не зависят от номера итерации k.

Далее ограничимся рассмотрением стационарных итерационных методов

x(k+1) = Gx(k) + g, G = E Q−1A, g = Q−1b. (2)

В результате выполнения итерационного метода по начальному приближению строится последовательность

x(0), x(1), x

Рассмотрим погрешность k-й итерации. Пусть x(∞) – точное решение исходной задачи, т.е.

Ax(∞) = b.

С другой стороны, x(∞) должно удовлетворять уравнению

x(∞) = Gx(∞) + g.

Тогда погрешность k-й итерации дается формулой εk = x(k)−x(∞).

Установим для εk итерационую формулу. Имеем соотношения

x(1) = Gx(0) + g, x(2) = Gx(1) + g, x(3) = Gx(2) + g,

x Gx(k) + g,

...

Вычтем из них уравнение x(∞) = Gx(∞) + g. Получим

ε(1)=Gε(0),
ε(2)=Gε(1),
ε(3)=Gε(2),

,

...

Выражая все через погрешность начального приближения ε(0), получим

ε(1)=Gε(0),
ε(2)=Gε(1) = G2ε(0),
ε(3)=Gε(2) = G2ε(1) = G3ε(0),

,

...

Таким образом, получаем формулу для погрешности на k-й итерации, которой будем пользоваться в дальнейшем:

ε(k) = Gkε(0). (3)

Рассмотрим сходимость итерационного метода (2). Поскольку сходимость метода состоит в том, чтобы погрешность убывала, нужно исследовать сходимость к нулю последовательности ε(k). Для анализа сходимости нам потребуется понятие спектрального радиуса.

Определение 8. Спектральным радиусом матрицы G называется максимальное по модулю собственное число матрицы G:

ρ(G) = max |λi(G)|. i=1...n

Обратим внимание, что в этом определении участвуют все собственные числа, т.е. вещественные и комплексные.

Теорема 3 (Достаточное условие сходимости). Для сходимости итерационного метода достаточно выполнения неравенства

kGk < 1.

Доказательство. Доказательство повторяет доказательство принципа сжимающих отображений, поскольку эта теорема является частным случаем этого принципа.

Отметим, что для сходимости достаточно выполнение неравенства для какой-то одной нормы. Это условие является легко проверяемым, хотя лишь достаточным. Необходимое и достаточное условие сходимости является проверяется более сложным образом и дается следующим утверждением.

Теорема 4 (Необходимое и достаточное условие сходимости). Для сходимости итерационного метода необходимо и достаточно выполнения неравенства

ρ(G) < 1.

Доказательство. Из соображений краткости, ограничимся случаем, когда собственные векторы матрицы G образуют базис в Rn. Это всегда так, например, если G – симметрична. Очевидно, что сходимость итерационного метода эквивалентная сходимости к нулю последовательности {ε(k)}.

1. Докажем достаточность. Пусть ρ(G) < 1. Рассмотрим произвольное начальное приближение и разложим его по базису собственных векторов

.

Тогда

.

По условиям теоремы все собственные числа по модулю меньше единицы, поэтому c учетом |λi|k| → 0 при k → ∞ (i = 1,2,...,n) выполняются соотношения kε(k)k = kλk1ε(0)1 e1 + ... + λknε(0)n enk ≤

≤ |λ1|k|ε(0)1 | + ... + |λn|k|ε(0)n | → 0, k → ∞.

2. Докажем необходимость. Пусть итерационный метод сходитсяпри любом начальном приближении. Предположим противное, т.е. что ρ(G) ≥ 1. Это значит, что существует как минимум один собственный вектор e, такой, что Ge = λe c |λ| ≡ ρ(G) ≥ 1. Выберем начальное приближение так: ε(0) = e. Тогда имеем

ε(k) = Gkε(0) = λke.

Поскольку |λ| ≥ 1, последовательность {ε(k)} не сходится к нулю при данном начальном приближении, т.к. kε(k)k = |λ|k ≥ 1. Полученное противоречие и доказывает необходимость.

Важным свойством итерационного метода является его симметризуемость. В частности, она используется для его ускорения (т.е. модификации, позволяющей достичь той же точности за меньшее число итераций).

Определение 9. Итерационный метод является симметризуемым, если существует такая невырожденная матрица W (матрица симметризации), что W(E G)W−1 является симметричной и положительно определенной.

Для симметризуемого метода выполняются свойства:

1. собственные числа матрицы перехода G вещественны;

2. наибольшее собственное число матрицы G меньше единицы;

3. множество собственных векторов матрицы перехода G образует базис векторного пространства.

Для симметризуемого метода всегда существует так называемый экстраполированный метод, который сходится всегда, независимо от сходимости исходного метода. Он дается формулой x(k+1) = Gγx(k) + gγ, Gγ = γG + (1 − γ)E, gγ = γg.

Оптимальное значение параметра γ определяется соотношением

,

где M(G) и m(G) – максимальное и минимальное собственные числа G.

Рассмотрим далее классические итерационные методы.

3.2 Метод простой итерации

Метод простой итерации является простейшим примером итерационных методов. Он дается формулой x(k+1) = (E A)x(k) + b, G = E A, Q = E.

Сходится при M(A) < 2.

Для симметричной положительно определенной матрицы A) симметризуем и экстраполированный метод имеет вид

x.

3.3 Метод Якоби

Метод Якоби определяется формулой

. (4)

Запишем его в матричных обозначениях (в безиндексном виде). Представим матрицу A в виде

A = D − CL − CU,

где D – диагональная матрица, CL – верхняя треугольная, а CU – нижняя треугольная. Если A имеет вид

  a11 a12 a13 ... a1n

 a21 a22 a23 ... a2n 

A =  a31 a32 a33 ... a3n ,

 ... ... 

an1 an2 an3 ... ann

то D, CL и CU даются формулами

D,

 ... .. 

0 0 0 ... ann

   

0 0 0 ... 0 0 a12 a13 ... a1n

a21 0 0 ... 0   0 0 a23 ... a2n

C .

Используя матричные обозначения, формулу метода Якоби можно записать так: x(k+1) = Bx(k) + g,

где матрица перехода B дается формулой

B = D−1(CU + CL) = E − D−1A

а g = D−1b.

Достаточным условием сходимости метода Якоби является диагональное преобладание. Если A – положительно определенная симметричная матрица, то метод Якоби симметризуем.

3.4 Метод Гаусса-Зейделя

Запишем последовательность формул метода Якоби более подробно

,
,

= −a31x(1k) − a32x(2k) − ... a3nx(2k) + b3,

...

.

Если посмотреть внимательно на них, то видно, что при вычислении последних компонент вектора x(k+1) уже известны предыдущие компоненты x(k+1), но они не используются. Например, для последней компоненты имеется формула

.

В ней в левой части присутствует n − 1 компонент предыдущей итерации, но к этому моменту уже вычислены компоненты текущей итерации . Естественно их использовать при вычислении . Перепишем эти формулы следующим образом, заменяя в левой части уравнений компоненты x(k) на уже найденные компоненты x(k+1):

a11x(1k+1),
,

= −a31x(1k+1) − a32x(2k+1) − ... a3nx(2k) + b3,

...

.

Эти формулы лежат в основе метода Гаусса–Зейделя:

. (5)

В матричном виде метод Гаусса–Зейделя записывается таким образом:

x(k+1) = Lx(k) + g,

где L = (E L)−1U, g = (E L)−1D−1b, L = D−1CL, U = D−1CU.

В общем случае метод несимметризуем.

Есть интересный исторический комментарий [Д2]: метод был неизвестен Зейделю, а Гаусс относился к нему достаточно плохо.

Замечание. Хотя для положительно определенных симметричных матриц метод Гаусса-Зейделя сходится почти в два раза быстрее метода Якоби, для матриц общего вида существуют примеры, когда метод Якоби сходится, а метод Гаусса-Зейделя расходится.

3.5 Метод последовательной верхней релаксации (SOR) Дается формулами

Здесь ω – параметр релаксации, ω ∈ [0,2]. При ω > 1 говорят о верхней релаксации, при ω < 1 – о нижней, а при ω = 1 метод SOR сводится к методу Гаусса–Зейделя. Удачный выбор параметра релаксации позволяет на порядки понизить число итераций для достижения требуемой точности.

Матричная форма (6) имеет вид

x(k+1) = Lωx(k) + gω,

где Lω = (E ωL)−1(ωU + (1 − ω)E), gω = (E ωL)−1ωD−1b.

В общем случае метод несимметризуем. Сходимость гарантирована для положительно определенной симметричной матрицы.

3.6 Метод симметричной последовательной верхней релаксации (SSOR)

Этот метод по числу итераций сходится в два быстрее, чем предыдущий, но итерации являются более сложными и даются соотношениями

;

1;

Здесь ω – параметр релаксации, ω ∈ [0,2].

Если A – положительно определенная симметричная матрица, то метод SSOR симметризуем.

Упражнение. Найдите матрицу перехода.

ТЕСТ РУБЕЖНОГО КОНТРОЛЯ № 2

1. Проверьте сходимость предыдущих методов для матриц

(a)

A ;

0

0

0

0

−1

0

0

0

0

−1

0

0

−1

0

−1

0

4 0

0 4

0 −1

−1 0

0

0 4

−1

(c)

0

4

0

0

0

0

0 0−1 −1 −1 00 −1

0 0 0

(b) 

41 0 −1 0 0 0 0 0

 −1 4 −1 0 −1 0 0 0 0

 01 4 0 01 0 0 0

 −1 0 0 4 −1 0

A =  01 0 −1 41 0 ;



0 0 4 0 0 −1 −1 −1 −1  0 0 0 4 0 0 −1 0 −1

A 0 0 0 0 4 0 0 −1 −1 .

−1 −1 0 0 4 0 0 0 

1 0 −1 −1 0 0 4 0 0 

−1 −1 0 −1 0 0 4 0 

0 0 −1 −1 −1 0 0 0 4

2. A является симметричной и положительно определенной. Какие из методов являются симметризуемыми?

(a) простой итерации;

(b) Якоби;

(c) Гаусса–Зейделя;

(d) SOR;

(e) SSOR.

3. Необходимым и достаточным условием сходимости итерационного метода является

(a) положительная определенность матрицы перехода G;

(b) симметричность матрицы перехода G;

(c) неравенство kGk < 1;

(d) неравенство ρ(G) < 1.

4. Матрица симметризации – это

(a) симметричная матрица;

(b) единичная матрица;

(c) такая матрица W, что W(EG)W−1 – положительно определенная и симметричная матрица;

(d) такая матрица W, что W(GE)W−1 – положительно определенная и симметричная матрица.

5. При ω = 1 метод SOR переходит в метод (выберите один из ответов)

(a) Якоби;

(b) SSOR;

(c) простой итерации; (d) Гаусса–Зейделя.

6. Параметр релаксации ω лежит в диапазоне (выберите один из ответов)

(a) [0,1];

(b) [0,2]; (c) (0,2);

(d) [−1,1].

4 Методы подпространств Крылова

4.1 Инвариантные подпространства

Для понижения размерности исходной задачи воспользуемся понятием инвариантного подпространства.

Определение 10. Подпространство L инвариантно относительно матрицы A, если для любого вектора x из L вектор Ax также принадлежит L.

Примером инвариантного подпространства, является подпространство, образованное линейными комбинациями нескольких собственных векторов A.

Предположим, что нам известен базис L, образованный векторами q1, q2, ..., qm, m n. Образуем из этих векторов матрицу Q = [q1,q2,...,qm] размерности n×m. Вычислим AQ. Это матрица также размерности n×m, причем ее столбцы есть линейные комбинации q1, q2, ... qm. Другими словами, столбцы AQ принадлежат инвариантному подпространству L. Указанные столбцы удобно записать в виде

QC, где C – квадратная матрица размерности m×m. Действительно,

AQ = A[q1,q2,...qm].

Вектор Aqi ∈ L, следовательно, Aqi представим в виде линейной комбинации q1, q2, ... qm:

Aqi = ci1q1 + ci2q2 + ... + cimqm, i = 1,...,m.

Таким образом, выполняется равенство

AQ = QC. (8)

Матрица C называется сужением A на подпространстве L. Более наглядно (8) можно представить в виде

n m m m

AQ=Q

C m

n

Рассмотрим случай, когда q1, q2, ..., qm – ортонормированы. Тогда

QTQ = Em,

где Em – единичная матрица размерности m×m. Из (8) вытекает, что

C = QTAQ.

Рассмотрим решение СЛАУ

Cy = d,

где d ∈ Rm. Умножая это уравнение на Q слева получим, что

QCy = AQy = Qd.

То есть вектор Qy является решением исходной задачи, если b = Qd. Таким образом, знание инвариантного подпространства позволяет свести решение СЛАУ для матрицы A к двум СЛАУ меньшей размерности, которые могут быть решены независимо друг от друга. Проблема состоит в том, что априори инвариантные подпространства матрицы A неизвестны. Вместо инвариантных подпространств можно использовать “почти” инвариантные подпространства, например, подпространства Крылова.

4.2 Степенная последовательность и подпространства Крылова

Определение 11. Подпространством Крылова Km(b) называется подпространство, образованное всеми линейными комбинациями векторов степенной последовательности

b, Ab, A2b, ..., Am−1b,

то есть линейная оболочка, натянутая на эти векторы

Km(b) = span(b, Ab, A2b, ..., Am−1b).

Рассмотрим свойства степенной последовательности

b, Ab, A2b, A3b,...Akb,...,

где b – некоторый произвольный ненулевой вектор.

Рассмотрим случай, когда A – симметричная матрица. Следовательно, ее собственные векторы ek образуют базис в Rn. Соответствующие собственные числа A обозначим через λk:

Aek = λkek.

Для определенности примем, что λk упорядочены по убыванию:

|λ1| ≥ |λ2| ≥ ... ≥ |λn|.

Произвольный вектор b можно представить в виде разложения по ek:

b = b1e1 + b2e2 + ... + bnen.

Имеют место формулы:

b = b1e1 + b2e2 + ... + bnen,

Ab = λ1b1e1 + λ2b2e2 + ... + λnbnen, A,

...

A,

...

Сделаем дополнительное предположение. Пусть |λ1| > |λ2|. Другими словами, λ1 – максимальное собственное число по модулю: λ1 = λmax. Тогда Akb можно записать следующим образом:

A . (9)

Поскольку все , то если b1 6= 0, то все слагаемые в скобках в уравнении (9) кроме первого будут убывать при k → ∞:

при k → ∞.

Кроме того, также выполняется соотношение

||Akb|| → |λ1|k|b1| при k → ∞.

Таким образом, при возрастании k члены степенной последовательности поворачиваются таким образом, что оказываются параллельными собственному вектору emax ≡ e1, соответствующему максимальному по модулю собственному значению λmax.

4.3 Итерационные методы подпространств Крылова

Подпространства Крылова обладают замечательным свойством: если A – симметрична и если последовательно строить ортонормированный базис в Km(b) m = 1,2,...n, то вектора базиса для Kn(b) образуют такую ортогональную матрицу Q, что выполняется равенство

QTAQ = T, (10)

где T является трехдиагональной матрицей

  α1 β1 0 ··· 0

 β1 α2 β2 ... 

T =  0... β1 α3 ... 

... ... βn−1

0 ··· βn−1 αn

Если A – несимметричная матрица, то вместо (10) получаем

QTAQ = H, (11)

где H – матрица в верхней форме Хессенберга, т.е. имеет структуру

×

 ×

H =  0  ...

0

× ×

× ×

× ×

...

···

··· ×

... 

... 

... × 

× ×

(крестиком помечены ненулевые элементы).

Ясно, что если построено представление (10) или (11), то решение СЛАУ Ax = b можно провести в три шага. Например, если выполнено

(10), то решение Ax = b эквивалентно трем СЛАУ

Qz = b,(12)
Ty = z,(13)
QTx = y,(14)

причем системы (12) и (14) решаются элементарно, поскольку обратная к ортогональной матрице Q является транспонированная QT. Система (13) также решается гораздо проще исходной, поскольку T – трехдиагональная матрица, для которых развиты быстрые и эффективные методы решения СЛАУ.

Рассмотрим алгоритм, приводящий симметричную матрицу A к трехдиагональному виду.

Алгоритм Ланцоша. v = 0; β0 = 1; j = 0;

while βj 6= 0 if j 6= 0

for i = 1..n

t = wi; wi = vij; vi = −βjt end

end

v = +Aw

j = j + 1; αj = (w,v); v = v − αjw; βj := kvk2 end

Для приведения матрицы к трехдиагональному виду нужна только процедура умножения матрицы на вектор и процедура скалярного произведения. Это позволяет не хранить матрицу как двумерный массив.

Алгоритм Ланцоша может быть обобщен на случай несимметричных матриц. Здесь матрица A приводится к верхней форме Хессенберга H. Компоненты H обозначим через hi,j, hi,j = 0 при i < j − 1.

Соответствующий алгоритм носит названия алгоритма Арнольди.

Алгоритм Арнольди. r = q1; β = 1; j = 0;

while β 6= 0

hj+1,i = β; qj+1 = rj; j = j + 1 w = Aqj; r = w for i = 1..j

hij = (qi,w); r = r − hijqi

end

β = krk2 if j < n

hj+1,j = β

end

end

Определенным недостатком алгоритмов Ланцоша и Арнольди является потеря ортогональности Q в процессе вычислений. СУществет ряд реализаций этих алгоритмов, преодолевающих этот недостаток, и делающих эти методы весьма эффективными для решения СЛАУ с большими разреженными матрицами.

ТЕСТ РУБЕЖНОГО КОНТРОЛЯ № 4

1. Что такое инвариантное подпространство? (выберите один из ответов)

(a) линейная оболочка, натянутая на столбцы матрицы A;

(b) подпространство, не изменяющееся при действии на него матрицы A;

(c) нульмерное-подпространство; (d) подпространство Крылова.

2. Что такое степенная последовательность? (выберите один из ответов)

(a) последовательность E, A, A2, A3, ...;

(b) последовательность b, Ab, A2b, A3b, ...;

(c) последовательность 1, x, x2, x3, ...; (d) последовательность 1, 2, 4, 8, ....

3. Недостатком метода Ланцоша является (выберите один из ответов)

(a) медленная сходимость;

(b) потеря ортогонализации;

(c) невозможность вычисления собственных векторов; (d) необходимость вычисления степеней.

4. В методе Ланцоша используются

(a) подпространства Крылова;

(b) линейная оболочка, натянутая на столбцы матрицы A;

(c) подпространство, образованное собственными векторами матрицы A;

(d) подпространство, образованное собственными векторами матрицы QTAQ.

5. Метод Ланцоша приводит матрицу к

(a) диагональной;

(b) трехдиагональной;

(c) верхней треугольной;

(d) верхней треугольной в форме Хессенберга.

6. Метод Ланцоша применим для матриц

(a) диагональных;

(b) трехдиагональных;

(c) симметричных; (d) произвольных.

7. Метод Арнольди приводит матрицу к

(a) диагональной;

(b) трехдиагональной;

(c) верхней треугольной;

(d) верхней треугольной в форме Хессенберга.

8. Метод Арнольди применим для матриц

(a) диагональных;

(b) трехдиагональных;

(c) симметричных; (d) произвольных.

Заключение

Выше дано описание некоторых методов решения систем линейных алгебраических уравнений для симметричных разреженных матриц большой размерности.

При написании данного пособия в основном использовались материалы [3, 4, 7, 9, 10]. Более подробные сведения о можно получить в приведенной ниже основной и дополнительной литературе.

ЛИТЕРАТУРА

[1] В. В. Воеводин. Вычислительные основы линейной алгебры. М.: Наука, 1977. 304 с.

[2] В. В. Воеводин, Ю. А. Кузнецов. Матрицы и вычисления. М.: Наука, 1984. 320 с.

[3] Дж. Голуб, Ч. Ван Лоун. Матричные вычисления. М.: Мир, 1999. 548 с.

[4] Дж. Деммель. Вычислительная линейная алгебра. Теория и приложения. М.: Мир, 2001. 430 с.

[5] Х. Д. Икрамов. Численные методы для симметричных линейных систем. М.: Наука, 1988. 160 с.

[6] Б. Парлетт. Симметричная проблема собственных значений. Численные методы. М.: Мир, 1983. 384 с.

[7] C. Писсанецки. Технология разреженных матриц. М.: Мир, 1988. 410 с.

[8] Дж. Х. Уилкинсон. Алгебраическая проблема собственных значений. М.: Наука, 1970. 564 с.

[9] Л. Хейнгеман, Д. Янг. Прикладные итерационные методы. М.: Мир, 1986. 448 с.

[10] Р. Хорн, Ч. Джонсон. Матричный анализ. М.: Мир, 1989. 655 с.

ДОПОЛНИТЕЛЬНАЯ ЛИТЕРАТУРА

[Д1] Х. Д. Икрамов. Несимметричная проблема собственных значений. М.: Наука, 1991. 240 с.

[Д2] Дж. Райс. Матричные вычисления и математическое обеспечение. М.: Мир, 1984. 264 с.

[Д3] Y. Saad. Numerical Methods for Large Eigenvalue Problems. Halsted Press: Manchester, 1992. 347 p.

[Д4] Дж. Форсайт, К. Молер. Численное решение систем линейных алгебраических уравнений. М.: Мир, 1969. 167 с.


Нет нужной работы в каталоге?

Сделайте индивидуальный заказ на нашем сервисе. Там эксперты помогают с учебой без посредников Разместите задание – сайт бесплатно отправит его исполнителя, и они предложат цены.

Цены ниже, чем в агентствах и у конкурентов

Вы работаете с экспертами напрямую. Поэтому стоимость работ приятно вас удивит

Бесплатные доработки и консультации

Исполнитель внесет нужные правки в работу по вашему требованию без доплат. Корректировки в максимально короткие сроки

Гарантируем возврат

Если работа вас не устроит – мы вернем 100% суммы заказа

Техподдержка 7 дней в неделю

Наши менеджеры всегда на связи и оперативно решат любую проблему

Строгий отбор экспертов

К работе допускаются только проверенные специалисты с высшим образованием. Проверяем диплом на оценки «хорошо» и «отлично»

1 000 +
Новых работ ежедневно
computer

Требуются доработки?
Они включены в стоимость работы

Работы выполняют эксперты в своём деле. Они ценят свою репутацию, поэтому результат выполненной работы гарантирован

avatar
Математика
История
Экономика
icon
138103
рейтинг
icon
3047
работ сдано
icon
1326
отзывов
avatar
Математика
Физика
История
icon
137726
рейтинг
icon
5836
работ сдано
icon
2641
отзывов
avatar
Химия
Экономика
Биология
icon
92268
рейтинг
icon
2003
работ сдано
icon
1260
отзывов
avatar
Высшая математика
Информатика
Геодезия
icon
62710
рейтинг
icon
1046
работ сдано
icon
598
отзывов
Отзывы студентов о нашей работе
51 696 оценок star star star star star
среднее 4.9 из 5
ДВГУПС
Отличный исполнитель!!! Рекомендую!!! Работа без замечаний!!! Преподаватель принял к защит...
star star star star star
кбк
Прекрасный человек, с которым приятно иметь дело. Все мои уточнения он выполнил и сделал н...
star star star star star
ДГТУ
Большое спасибо за отличную работу. Большое спасибо этому сайту, уже ни раз меня здесь в...
star star star star star

Последние размещённые задания

Ежедневно эксперты готовы работать над 1000 заданиями. Контролируйте процесс написания работы в режиме онлайн

только что
только что

Курсовая для 1 курса магистратуры ВШЭ

Курсовая, Финансовый анализ

Срок сдачи к 24 мая

только что

решение задач

Решение задач, трудовое право

Срок сдачи к 25 апр.

1 минуту назад

Решить задачу

Решение задач, предпринимательское право

Срок сдачи к 23 апр.

1 минуту назад
2 минуты назад

Сделать 4 раздела в дипломе

Диплом, Организация перевозок и управление на жд транспорте

Срок сдачи к 10 мая

2 минуты назад

Тема Основные пути снижения издержек при осуществлении процесса...

Курсовая, Управление логистическими процессами в закупках, производстве и распределении

Срок сдачи к 27 апр.

2 минуты назад

Решить задание

Решение задач, Математика

Срок сдачи к 25 апр.

2 минуты назад

Решить 4 задачи по Физике

Решение задач, Физика

Срок сдачи к 28 апр.

2 минуты назад

Ответить на 6 вопросов из контрольной по культурологии

Контрольная, Культурология

Срок сдачи к 30 апр.

3 минуты назад

Список литературы

Другое, Психология и педагогика

Срок сдачи к 23 апр.

4 минуты назад

Задания по географии

Контрольная, География

Срок сдачи к 5 мая

4 минуты назад
4 минуты назад

решение задач

Решение задач, трудовое право

Срок сдачи к 25 апр.

4 минуты назад
planes planes
Закажи индивидуальную работу за 1 минуту!

Размещенные на сайт контрольные, курсовые и иные категории работ (далее — Работы) и их содержимое предназначены исключительно для ознакомления, без целей коммерческого использования. Все права в отношении Работ и их содержимого принадлежат их законным правообладателям. Любое их использование возможно лишь с согласия законных правообладателей. Администрация сайта не несет ответственности за возможный вред и/или убытки, возникшие в связи с использованием Работ и их содержимого.

«Всё сдал!» — безопасный онлайн-сервис с проверенными экспертами

Используя «Свежую базу РГСР», вы принимаете пользовательское соглашение
и политику обработки персональных данных
Сайт работает по московскому времени:

Вход
Регистрация или
Не нашли, что искали?

Заполните форму и узнайте цену на индивидуальную работу!

Файлы (при наличии)

    это быстро и бесплатно