Обратная матрица

28.03.2021

Обратная матрица — такая матрица A−1, при умножении на которую исходная матрица A даёт в результате единичную матрицу E:

A A − 1 = A − 1 A = E . {displaystyle AA^{-1}=A^{-1}A=E.}

Квадратная матрица обратима тогда и только тогда, когда она невырождена, то есть её определитель не равен нулю. Для неквадратных матриц и вырожденных матриц обратных матриц не существует. Однако возможно обобщить это понятие и ввести псевдообратные матрицы, похожие на обратные по многим свойствам.

Свойства обратной матрицы

  • det A − 1 = 1 det A {displaystyle det A^{-1}={frac {1}{det A}}} , где   det {displaystyle det } обозначает определитель.
  • ( A B ) − 1 = B − 1 A − 1 {displaystyle (AB)^{-1}=B^{-1}A^{-1}} для двух квадратных обратимых матриц A {displaystyle A} и B {displaystyle B} .
  • ( A T ) − 1 = ( A − 1 ) T {displaystyle (A^{T})^{-1}=(A^{-1})^{T}} , где ( . . . ) T {displaystyle (...)^{T}} обозначает транспонированную матрицу.
  • ( k A ) − 1 = k − 1 A − 1 {displaystyle (kA)^{-1}=k^{-1}A^{-1}} для любого коэффициента k ≠ 0 {displaystyle k ot =0} .
  • E − 1 = E {displaystyle E^{-1}=E} .
  • Если необходимо решить систему линейных уравнений A x = b {displaystyle Ax=b} , (b — ненулевой вектор) где x {displaystyle x} — искомый вектор, и если A − 1 {displaystyle A^{-1}} существует, то x = A − 1 b {displaystyle x=A^{-1}b} . В противном случае либо размерность пространства решений больше нуля, либо их нет вовсе.

Способы нахождения обратной матрицы

Если матрица обратима, то для нахождения обратной матрицы можно воспользоваться одним из следующих способов:

Точные (прямые) методы

Метод Жордана—Гаусса

Возьмём две матрицы: саму A и единичную E. Приведём матрицу A к единичной матрице методом Гаусса—Жордана применяя преобразования по строкам (можно также применять преобразования и по столбцам). После применения каждой операции к первой матрице применим ту же операцию ко второй. Когда приведение первой матрицы к единичному виду будет завершено, вторая матрица окажется равной A−1.

При использовании метода Гаусса первая матрица будет умножаться слева на одну из элементарных матриц Λ i {displaystyle Lambda _{i}} (трансвекцию или диагональную матрицу с единицами на главной диагонали, кроме одной позиции):

Λ 1 ⋅ ⋯ ⋅ Λ n ⋅ A = Λ A = E ⇒ Λ = A − 1 . {displaystyle Lambda _{1}cdot dots cdot Lambda _{n}cdot A=Lambda A=ERightarrow Lambda =A^{-1}.} Λ m = [ 1 … 0 − a 1 m / a m m 0 … 0 … 0 … 1 − a m − 1 m / a m m 0 … 0 0 … 0 1 / a m m 0 … 0 0 … 0 − a m + 1 m / a m m 1 … 0 … 0 … 0 − a n m / a m m 0 … 1 ] . {displaystyle Lambda _{m}={egin{bmatrix}1&dots &0&-a_{1m}/a_{mm}&0&dots &0&&&dots &&&&dots &1&-a_{m-1m}/a_{mm}&0&dots &0&dots &0&1/a_{mm}&0&dots &0&dots &0&-a_{m+1m}/a_{mm}&1&dots &0&&&dots &&&&dots &0&-a_{nm}/a_{mm}&0&dots &1end{bmatrix}}.}

Вторая матрица после применения всех операций станет равна Λ {displaystyle Lambda } , то есть будет искомой. Сложность алгоритма — O ( n 3 ) {displaystyle O(n^{3})} .

С помощью матрицы алгебраических дополнений

Матрица, обратная матрице A {displaystyle A} , представима в виде

A − 1 = adj ( A ) det ( A ) , {displaystyle {A}^{-1}={{{mbox{adj}}(A)} over {det(A)}},}

где adj ( A ) {displaystyle {mbox{adj}}(A)} — присоединенная матрица (матрица, составленная из алгебраических дополнений для соответствующих элементов транспонированной матрицы).

Сложность алгоритма зависит от сложности алгоритма расчета определителя Odet и равна O(n²)·Odet.

Использование LU/LUP-разложения

Матричное уравнение A X = I n {displaystyle AX=I_{n}} для обратной матрицы X {displaystyle X} можно рассматривать как совокупность n {displaystyle n} систем вида A x = b {displaystyle Ax=b} . Обозначим i {displaystyle i} -й столбец матрицы X {displaystyle X} через X i {displaystyle X_{i}} ; тогда A X i = e i {displaystyle AX_{i}=e_{i}} , i = 1 , … , n {displaystyle i=1,ldots ,n} , поскольку i {displaystyle i} -м столбцом матрицы I n {displaystyle I_{n}} является единичный вектор e i {displaystyle e_{i}} . другими словами, нахождение обратной матрицы сводится к решению n уравнений с одной матрицей и разными правыми частями. После выполнения LUP-разложения (время O(n³)) на решение каждого из n уравнений нужно время O(n²), так что и эта часть работы требует времени O(n³).

Если матрица A невырождена, то для неё можно рассчитать LUP-разложение P A = L U {displaystyle PA=LU} . Пусть P A = B {displaystyle PA=B} , B − 1 = D {displaystyle B^{-1}=D} . Тогда из свойств обратной матрицы можно записать: D = U − 1 L − 1 {displaystyle D=U^{-1}L^{-1}} . Если умножить это равенство на U и L то можно получить два равенства вида U D = L − 1 {displaystyle UD=L^{-1}} и D L = U − 1 {displaystyle DL=U^{-1}} . Первое из этих равенств представляет собой систему из n² линейных уравнений для n ( n + 1 ) 2 {displaystyle {frac {n(n+1)}{2}}} , из которых известны правые части (из свойств треугольных матриц). Второе представляет также систему из n² линейных уравнений для n ( n − 1 ) 2 {displaystyle {frac {n(n-1)}{2}}} , из которых известны правые части (также из свойств треугольных матриц). Вместе они представляют собой систему из n² равенств. С помощью этих равенств можно рекуррентно определить все n² элементов матрицы D. Тогда из равенства (PA)−1 = A−1P−1 = B−1 = D получаем равенство A − 1 = D P {displaystyle A^{-1}=DP} .

В случае использования LU-разложения не требуется перестановки столбцов матрицы D, но решение может разойтись даже если матрица A невырождена.

Сложность алгоритма — O(n³).

Итерационные методы

Методы Шульца

{ Ψ k = E − A U k U k + 1 = U k ∑ i = 0 n Ψ k i {displaystyle {egin{cases}Psi _{k}=E-AU_{k}U_{k+1}=U_{k}sum _{i=0}^{n}Psi _{k}^{i}end{cases}}}

Выбор начального приближения

Проблема выбора начального приближения U 0 {displaystyle U_{0}} в рассматриваемых здесь процессах итерационного обращения матриц не позволяет относиться к ним как к самостоятельным универсальным методам, конкурирующими с прямыми методами обращения, основанными, например, на LU-разложении матриц. Имеются некоторые рекомендации по выбору U 0 {displaystyle U_{0}} , обеспечивающие выполнение условия ρ ( Ψ 0 ) < 1 {displaystyle ho (Psi _{0})<1} (спектральный радиус матрицы меньше единицы), являющегося необходимым и достаточным для сходимости процесса. Однако при этом, во-первых, требуется знать сверху оценку спектра обращаемой матрицы A либо матрицы A A T {displaystyle AA^{T}} (а именно, если A — симметричная положительно определённая матрица и ρ ( A ) ≤ β {displaystyle ho (A)leq eta } , то можно взять U 0 = α E {displaystyle U_{0}={alpha }E} , где α ∈ ( 0 , 2 β ) {displaystyle alpha in left(0,{frac {2}{eta }} ight)} ; если же A — произвольная невырожденная матрица и ρ ( A A T ) ≤ β {displaystyle ho (AA^{T})leq eta } , то полагают U 0 = α A T {displaystyle U_{0}={alpha }A^{T}} , где также α ∈ ( 0 , 2 β ) {displaystyle alpha in left(0,{frac {2}{eta }} ight)} ; можно конечно упростить ситуацию и, воспользовавшись тем, что ρ ( A A T ) ≤ k A A T k {displaystyle ho (AA^{T})leq {mathcal {k}}AA^{T}{mathcal {k}}} , положить U 0 = A T ‖ A A T ‖ {displaystyle U_{0}={frac {A^{T}}{|AA^{T}|}}} ). Во-вторых, при таком задании начальной матрицы нет гарантии, что ‖ Ψ 0 ‖ {displaystyle |Psi _{0}|} будет малой (возможно, даже окажется ‖ Ψ 0 ‖ > 1 {displaystyle |Psi _{0}|>1} ), и высокий порядок скорости сходимости обнаружится далеко не сразу.

Примеры

Матрица 2 × 2

A − 1 = [ a b c d ] − 1 = 1 det A [ d − b − c a ] = 1 a d − b c [ d − b − c a ] . {displaystyle mathbf {A} ^{-1}={egin{bmatrix}a&bc&dend{bmatrix}}^{-1}={frac {1}{det mathbf {A} }}{egin{bmatrix}d&-b-c&aend{bmatrix}}={frac {1}{ad-bc}}{egin{bmatrix}d&-b-c&aend{bmatrix}}.}

Обращение матрицы 2 × 2 возможно только при условии, что a d − b c = det A ≠ 0 {displaystyle ad-bc=det A eq 0} .


Имя:*
E-Mail:
Комментарий: