Последовательное чрезмерное расслабление - Successive over-relaxation

В числовая линейная алгебра, метод последовательное чрезмерное расслабление (SOR) является вариантом Метод Гаусса – Зейделя для решения линейная система уравнений, что приводит к более быстрой сходимости. Подобный метод можно использовать для любого медленно сходящегося итерационный процесс.

Он был разработан одновременно Дэвид М. Янг младший и по Стэнли П. Франкель в 1950 году с целью автоматического решения линейных систем на цифровых вычислительных машинах. Методы чрезмерного расслабления использовались и до работ Янга и Франкеля. Примером может служить метод Льюис Фрай Ричардсон, а методы, разработанные Р. В. Саутуэлл. Однако эти методы были разработаны для вычислений калькуляторы, требуя некоторого опыта, чтобы гарантировать конвергенцию к решению, которое сделало их неприменимыми для программирования на цифровых компьютерах. Эти аспекты обсуждаются в диссертации Дэвида М. Янга-младшего.[1]

Формулировка

Учитывая квадратную систему п линейные уравнения с неизвестными Икс:

куда:

потом А можно разложить на диагональ компонент D, и строго нижний и верхний треугольный составные части L и U:

куда

Систему линейных уравнений можно переписать как:

для постоянного ω > 1, называется фактор релаксации.

Метод последовательного чрезмерного расслабления - это итерационная техника что решает левую часть этого выражения для Икс, используя предыдущее значение для Икс с правой стороны. Аналитически это можно записать как:

куда это kое приближение или итерация и следующий или k + 1 итерация Однако, используя треугольную форму (D+ωL), элементы Икс(k+1) можно вычислить последовательно, используя прямая замена:

Конвергенция

Спектральный радиус матрицы итераций для метода SOR . На графике показана зависимость итерационной матрицы Якоби от спектрального радиуса .

Выбор фактора релаксации ω не обязательно просто и зависит от свойств матрицы коэффициентов. В 1947 г. Островский доказал, что если является симметричный и положительно определенный тогда за . Таким образом, следует сходимость итерационного процесса, но нас обычно интересует более быстрая сходимость, а не просто сходимость.

Скорость сходимости

Скорость сходимости для метода SOR может быть получена аналитически, нужно предположить следующее:

  • параметр релаксации подходящий:
  • Якоби матрица итераций имеет только действительные собственные значения
  • Метод Якоби сходится:
  • существует уникальное решение: .

Тогда скорость сходимости можно выразить как[2]

где оптимальный параметр релаксации определяется выражением

Алгоритм

Поскольку элементы могут быть перезаписаны по мере их вычисления в этом алгоритме, необходим только один вектор хранения, а индексирование вектора опущено. Алгоритм следующий:

Входы: А, б, ωВыход: 
Выберите первоначальное предположение  к решениюповторение до схождения за я из 1 до того как п делать                за j из 1 до того как п делать            если jя тогда                            конец, если        конец (j-петля)     конец (я-loop) проверить, достигнута ли сходимостьконец (повторение)
Примечание
также можно написать , таким образом сохраняя одно умножение на каждой итерации внешнего за-петля.

Пример

Нам представлена ​​линейная система

Для решения уравнений выберем коэффициент релаксации и вектор начального предположения . В соответствии с алгоритмом последовательной избыточной релаксации получается следующая таблица, представляющая примерную итерацию с приближениями, которая в идеале, но не обязательно, находит точное решение, (3, −2, 2, 1), за 38 шагов.

Итерация
10.25-2.781251.62890620.5152344
21.2490234-2.24489741.96877120.9108547
32.070478-1.66967891.59048810.76172125
...............
372.9999998-2.02.01.0
383.0-2.02.01.0

Ниже предлагается простая реализация алгоритма на Common Lisp. Остерегайтесь его склонности к переполнению с плавающей запятой в общем случае.

(defпараметр + МАКСИМАЛЬНОЕ ЧИСЛО ИТЕРАЦИЙ + 100  "Количество итераций, за пределами которых алгоритм должен   прекратить его действие, независимо от текущего решения ".)(defun получить ошибки (вычисленное решение точное решение)  "Для каждого компонента вектора ВЫЧИСЛЕННОЕ РЕШЕНИЕ извлекает его   ошибка в отношении ожидаемого ТОЧНОГО РЕШЕНИЯ, возвращая   вектор значений ошибок ".  (карта 'вектор #'- точное решение вычисленное решение))(defun сходится (ошибки &ключ (устойчивость к ошибкам 0.001))  "Проверяет, достигнута ли сходимость относительно   ОШИБКИ вектор, который регистрирует расхождение между вычисленными   и вектор точного решения.   ---   Сходимость выполняется, если каждая компонента абсолютной ошибки равна   меньше или равно ДОПУСТИМОСТИ ОШИБОК ".  (флет ((ошибка допустима (ошибка)          (<= (пресс ошибка) устойчивость к ошибкам)))    (каждый #'ошибка допустима ошибки)))(defun сделать нулевой вектор (размер)  «Создает и возвращает вектор РАЗМЕРА со всеми элементами, установленными в 0.»  (make-array размер : начальный элемент 0.0 : тип элемента 'номер))(defun сор (А б омега            &ключ (фи (сделать нулевой вектор (длина б)))                 (проверка сходимости                   #'(лямбда (итерация фи)                       (объявить (игнорировать фи))                       (>= итерация + МАКСИМАЛЬНОЕ ЧИСЛО ИТЕРАЦИЙ +))))  "Реализует метод последовательной избыточной релаксации (SOR), применяемый к   линейные уравнения, определяемые матрицей A и правой частью   вектор B, использующий фактор релаксации OMEGA, возвращающий   вычисляемый вектор решения.   ---   Первый шаг алгоритма - выбор первоначального предположения PHI - это   представлен необязательным параметром ключевого слова PHI, который по умолчанию   в нулевой вектор той же структуры, что и B.   вектор будет деструктивно изменен. В любом случае вектор PHI   составляет значение результата функции.   ---   Условие завершения реализуется CONVERGENCE-CHECK,   необязательный предикат     лямбда (итерация фи) => обобщенное логическое значение   который возвращает T, означающий немедленное завершение, при достижении   конвергенция, или NIL, в противном случае сигнализирует о непрерывной работе ".  (позволять ((п (измерение массива А 0)))    (петля за итерация из 1 к 1 делать      (петля за я из 0 ниже п к 1 делать        (позволять ((ро 0))          (петля за j из 0 ниже п к 1 делать            (когда (/= j я)              (позволять ((а [ij]  (ареф А я j))                    (фи [j] (ареф фи j)))                (incf ро (* а [ij] фи [j])))))          (setf (ареф фи я)                (+ (* (- 1 омега)                      (ареф фи я))                   (* (/ омега (ареф А я я))                      (- (ареф б я) ро))))))      (формат Т "~ & ~ d. solution = ~ a" итерация фи)      ;; Проверьте, достигнута ли сходимость.      (когда (веселье проверка сходимости итерация фи)        (возвращаться))))  фи);; Вызов функции с примерными параметрами.(позволять ((А              (make-array (список 4 4)                        : начальное-содержимое                        '((  4  -1  -6   0 )                          ( -5  -4  10   8 )                          (  0   9   4  -2 )                          (  1   0  -7   5 ))))      (б              (вектор 2 21 -12 -6))      (омега          0.5)      (точное решение (вектор 3 -2 2 1)))  (сор    А б омега    : проверка сходимости    #'(лямбда (итерация фи)        (позволять ((ошибки (получить ошибки фи точное решение)))          (формат Т "~ & ~ d. errors = ~ a" итерация ошибки)          (или же (сходится ошибки : устойчивость к ошибкам 0.0)              (>= итерация + МАКСИМАЛЬНОЕ ЧИСЛО ИТЕРАЦИЙ +))))))

Простая реализация псевдокода Python, представленного выше.

импорт тупой в качестве нпdef sor_solver(А, б, омега, initial_guess, Convergence_criteria):    """    Это реализация псевдокода, приведенного в статье в Википедии.    Аргументы:        A: матрица nxn numpy.        b: n-мерный вектор numpy.        омега: фактор релаксации.        initial_guess: начальное предположение решения для решающей программы.        Convergence_criteria: максимальное расхождение, приемлемое для рассмотрения текущего решения как подходящего.    Возврат:        phi: вектор решения размерности n.    """    шаг = 0    фи = initial_guess[:]    остаточный = нп.линалг.норма(нп.Матмуль(А, фи) - б)  # Начальная невязка    пока остаточный > Convergence_criteria:        за я в классифицировать(А.форма[0]):            сигма = 0            за j в классифицировать(А.форма[1]):                если j != я:                    сигма += А[я, j] * фи[j]            фи[я] = (1 - омега) * фи[я] + (омега / А[я, я]) * (б[я] - сигма)        остаточный = нп.линалг.норма(нп.Матмуль(А, фи) - б)        шаг += 1        Распечатать("Шаг {} Остаточный: {: 10,6 г}".формат(шаг, остаточный))    возвращаться фи# Пример случая, который отражает тот, что в статье в Википедииостаток_конвергенции = 1e-8омега = 0.5  # Фактор релаксацииА = нп.множество([[4, -1, -6, 0],              [-5, -4, 10, 8],              [0, 9, 4, -2],              [1, 0, -7, 5]])б = нп.множество([2, 21, -12, -6])initial_guess = нп.нули(4)фи = sor_solver(А, б, омега, initial_guess, остаток_конвергенции)Распечатать(фи)

Симметричное последовательное чрезмерное расслабление

Версия для симметричных матриц А, в котором

упоминается как Симметричная последовательная избыточная релаксация, или же (SSOR), в котором

а итерационный метод

Методы SOR и SSOR относятся к Дэвид М. Янг младший.

Другие применения метода

Подобный прием можно использовать для любого итеративного метода. Если бы исходная итерация имела вид

тогда измененная версия будет использовать

Однако представленная выше формулировка, используемая для решения систем линейных уравнений, не является частным случаем этой формулировки, если Икс считается полным вектором. Если вместо этого использовать эту формулировку, уравнение для вычисления следующего вектора будет выглядеть как

куда . Ценности используются для ускорения сходимости медленно сходящегося процесса, а значения часто используются, чтобы помочь установить сходимость расходящегося итеративного процесса или ускорить сходимость превышение процесс.

Существуют различные методы, которые адаптивно устанавливают параметр релаксации. на основе наблюдаемого поведения сходящегося процесса. Обычно они помогают достичь суперлинейной сходимости для одних проблем, но не помогают для других.

Смотрите также

Примечания

  1. ^ Янг, Дэвид М. (1 мая 1950 г.), Итерационные методы решения уравнений в частных разностях эллиптического типа (PDF), Докторская диссертация, Гарвардский университет, получено 2009-06-15
  2. ^ Хакбуш, Вольфганг (2016). «4.6.2». Итерационное решение больших разреженных систем уравнений | SpringerLink. Прикладные математические науки. 95. Дои:10.1007/978-3-319-28483-5. ISBN  978-3-319-28481-1.

Рекомендации

внешняя ссылка