Матрицы


1. Определение и первое применение

Пусть m,n∈ℕ. Матрицей размера m× n называется совокупность mn чисел, записанных в виде прямоугольной таблицы из m строк и n столбцов. — Г. Д. Ким, Л. В. Крицков. Алгебра и аналитическая геометрия: Теоремы и задачи. Том I; глава I, страница 9.

В общем, матрица — это просто прямоугольная таблица чисел с заданным числом строк и столбцов. Она называется квадратной, если количество строк и столбцов совпадает. Таблицы чисел сами по себе, в быту, возникают очень часто, поэтому определение это выглядит естественным и простым; но если бы неискушенный читатель на миг смог осознать всю глубину современного матричного анализа, он, наверное, удивился бы, почему вокруг матриц такой сыр-бор.

Именно поэтому мы, не углубляясь в формальности, определения, теоремы, начнём рассмотрение матриц с возможных способов их применения, так сказать, «в быту».

Сперва рассмотрим обычную систему линейных алгебраических уравнений (СЛАУ)
≤ft{\begin{matrix}a_{11}x_1+a_{12}x_2+…+a_{1n}x_n&=&b_1\\a_{21}x_1+a_{22}x_2+…+a_{2n}x_n&=&b_2\\…&&\\a_{m1}x_1+a_{m2}x_2
+…+a_{mn}x_n&=&b_m\end{matrix}\right.
Системы линейных уравнений возникают в огромном количестве задач в самых разных областях науки и исследованы очень глубоко, потому не будем тратить время на примеры задач, в которых они появляются. Давайте лучше для удобства запишем коэффициенты системы в прямоугольную таблицу A, которую мы теперь гордо можем назвать матрицей коэффициентов системы линейных уравнений:
A=\begin{bmatrix}a_{11}&a_{12}&…&a_{1n}\\a_{21}&a_{22}&…&a_{2n}\\
\vdots&\vdots&\ddots&\vdots\\a_{m1}&a_{m2}&…&a_{mn}\end{bmatrix}
Теперь мы можем попытаться провести наши преобразования в терминах матриц. Давайте для этого допишем в конце каждой строчки матрицы коэффициент из правой части соответствующего уравнения:
≤ft[\begin{array}{cccc|c}a_{11}&a_{12}&…&a_{1n}&b_1\\a_{21}&a_{22}&…&a_{2n}&b_2\\
\vdots&\vdots&\ddots&\vdots&\vdots\\a_{m1}&a_{m2}&…&a_{mn}&b_n\end{array}\right]
Такая матрица называется расширенной матрицей исходной системы уравнений.

Теперь давайте вспомним, как мы решаем системы уравнений. Одна из основных операций при этом — вычитание одного уравнения, умноженного на какое-то число, из другого. Эта операция никак не влияет на решение, но зато такими вычитаниями при желании можно исключить любую из переменных из всех уравнений, кроме какого-то одного и таким образом, потихоньку исключая переменные, получить уравнение с одной переменной, которое можно решить. Теперь остаётся заметить, что в терминах матрицы коэффициентов это будет означать вычитание одной строки из другой! Значит, мы можем решать системы, оперируя только матрицами и правыми частями. Вот и первое бесценное применение матриц.

Вот яркий пример того, как можно упростить систему, забыв о переменных:
≤ft[\begin{array}{ccc|c}1&−1&0&2\\0&1&−1&2\\−1&0&2&2\end{array}\right]∼
≤ft[\begin{array}{ccc|c}1&−1&0&2\\0&1&−1&2\\0&−1&2&4\end{array}\right]∼
≤ft[\begin{array}{ccc|c}1&−1&0&2\\0&1&−1&2\\0&0&1&6\end{array}\right]
(Здесь значок ∼ означает переход к эквивалентной системе уравнений.)

То есть мы сперва прибавили первую строчку к третьей, а затем прибавили вторую к третьей и в итоге получили систему очень простого вида, в которой можно сразу найти, чему равны неизвестные:
x_3=6,   x_2=2+x_3=8,   x_1=2+x_2=10.
Такой метод решения систем достаточно универсален и называется методом Гаусса.

2. Метод Гаусса

Метод Гаусса — классический метод решения систем линейных уравнений. Также его иногда называют методом исключения неизвестных. Общая схема метода очень проста:

  1. Находим строку матрицы, в которой первый элемент не равен нулю. Такая строка точно есть, в противном случае переменная x_1 не фигурирует в системе и система имеет бесконечное число решений.
  2. Меняем найденную строку местами с первой. (Или оставляем всё как есть, если в первой строке первый коэффициент не равен нулю.)
  3. Вычитаем новую первую строку из всех остальных строк с такими множителями, чтобы первые коэффициенты всех остальных строк обнулились.
  4. Проделываем всё то же самое со второй строкой и вторыми коэффициентами, и так далее.

В результате работы такого алгоритма должна получиться так называемая диагональная матрица — матрица, в которой не равны нулю только элементы главной диагонали, то есть такие, у которых номер строки равен номеру столбца:
D=\begin{bmatrix}d_1&0&…&0\\0&d_2&…&0\\\vdots&\vdots&\ddots&\vdots\\0&0&…&d_n\end{bmatrix}
(Мы говорим сейчас только о системах, в которых число уравнений m равно числу неизвестных n. Прочие случаи будут рассмотрены отдельно.)

Диагональная же матрица соответствует совершенно элементарной системе уравнений:
≤ft{\begin{matrix}d_1x_1&=&b_1\\d_2x_2&=&b_2\\\vdots&&\\d_nx_n&=&b_n\\\end{matrix}\right.

Собственно, суть метода и состоит в том, чтобы свести произвольную линейную систему к достаточно простой для решения.

Следующая интерактивная демонстрация поможет получить представление о решении систем методом Гаусса. Введите матрицу и правую часть или сгенерируйте случайную и нажмите кнопку «Решить!», чтобы проследить ход решения системы. (Допускаются целые числа и дроби, например -10/7. Пустые места в матрицах означают нули, как принято в линейной алгебре. )

 \LARGE = 

3. Умножение матриц

Матрицы оказались полезны нам при решении систем, но это лишь вершина айсберга.

Представьте, например, что при решении системы
≤ft{\begin{matrix}a_{11}x_1+a_{12}x_2+…+a_{1n}x_n&=&b_1\\a_{21}x_1+a_{22}x_2+…+a_{2n}x_n&=&b_2\\…&&\\a_{n1}x_1+a_{n2}x_2
+…+a_{nn}x_n&=&b_n\end{matrix}\right.
мы решили провести линейную замену переменных, вот такую:
≤ft{\begin{matrix}x_1&=&b_{11}y_1+b_{12}y_2+…+b_{1n}y_n,\\x_2&=&b_{21}y_1+b_{22}y_2+…+b_{2n}y_n,\\\vdots&&\\x_n&=&b_{n1}y_1+b
_{n2}y_2+…+b_{nn}y_n,\end{matrix}\right.
где b_{ij} — какие-то константы (не перепутайте их с константами в правой части, которые обозначены как b_i), составляющие матрицу B. И теперь мы хотим узнать, какую же систему нам нужно решать относительно новых переменных y_{i}. Давайте для этого возьмём какое-либо i-е уравнение исходной системы и подставим в него нашу замену:
\begin{matrix}&a_{i1}(b_{11}y_1+b_{12}y_2+…+b_{1n}y_n)&+&\\
+&a_{i2}(b_{21}y_1+b_{22}y_2+…+b_{2n}y_n)&+&\&⋅s&&\\
+&a_{in}(b_{n1}y_1+b_{n2}y_2+…+b_{nn}y_n)&=&b_i\end{matrix}
Аккуратно раскрыв скобки, получим, что в новой системе уравнений относительно y_{i}, которая имеет вид
≤ft{\begin{matrix}c_{11}y_1+c_{12}y_2+…+c_{1n}y_n&=&b_1\\
c_{21}y_1+c_{22}y_2+…+c_{2n}y_n&=&b_2\\
…&&\\c_{n1}y_1+c_{n2}y_2+…+c_{nn}y_n&=&b_n,\end{matrix}\right.
«новые» коэффициенты c_{ij} будут равны
c_{ij}=a_{i1}b_{1j}+a_{i2}b_{2j}+…+a_{in}b_{nj}=∑_{k=0}^na_{ik}b_{kj} .
То есть из двух матриц A и B мы получили новую матрицу C с указанной выше формулой для коэффициентов. Эта матрица и называется произведением матриц A и B и обозначается C=AB.
Произведением матриц A=(a_{ij})∈ℝ^{m× {}n} и B=(b_{ij})∈ℝ^{n× k} называется матрица C=(c_{ij})∈ℝ^{m× k}, элементы которой определены равенством
c_{ij}=∑_{s=1}^na_{is}b_{sj},   i=\overline{1,m}, j=\overline{1,k}.
 — Г. Д. Ким, Л. В. Крицков. Алгебра и аналитическая геометрия: Теоремы и задачи. Том I; глава I, §1, страница 10.

Как видно из формального определения, произведение матриц определено для не только для квадратных, но и прямоугольных матриц, но с некоторыми ограничениями:

Правило перемножения матриц легко запомнить фразой «строка на столбец»: чтобы получить очередной элемент матрицы-произведения, нужно «умножить» строку первой матрицы на столбец второй (кстати, такое «умножение» называется скалярным произведением), как схематически изображено на картинке: брать поочерёдно элементы строки и столбца, перемножать их и всё это суммировать. Из этого правила и вытекает единственное ограничение — для перемножения двух матриц необходимо, чтобы длины строк в первой были равны длинам столбцов во второй.

Кстати, для прямоугольных матриц тоже можно проследить аналогию с заменой переменных в системе уравнений, только теперь в изначальной системе либо не хватает, либо слишком много уравнений, а после замены число переменных может измениться.

Из этого определения можно извлечь много полезного. Например, если у нас есть n чисел, то мы всегда можем представить их в виде матрицы размера n× 1, то есть так называемого вектор-столбца. И тогда получится, что если мы запишем неизвестные нашей старой доброй системы уравнений в вектор-столбец
x=\begin{bmatrix}x_1\\x_2\\\vdots\\x_n\end{bmatrix},
то произведение матрицы коэффициентов системы и этого вектор-столбца будет равно
Ax=\begin{bmatrix}a_{11}x_1+a_{12}x_2+…+a_{1n}x_n\\
a_{21}x_1+a_{22}x_2+…+a_{2n}x_n\\
\vdots\\a_{n1}x_1+a_{n2}x_2+…+a_{nn}x_n\end{bmatrix} .
То есть когда мы запишем правую часть в вектор-столбец b, то вся наша система сможет быть записана в виде
Ax=b.
Этот замечательный, лаконичный и красивый способ записи систем уравнений называется операторной формой записи, и у неё огромное количество преимуществ. Например, в операторной форме записи наша замена переменных имеет вид x=By, и, подставляя эту формулу в операторное уравнение, соответствующее исходной системе, мы получим уравнение относительно вектор-столбца y вида
A(By)=b .
Ну а используя определение матричного умножения, несложно доказать, что A(By)=(AB)y, то есть показать свойство ассоциативности матричного умножения. И тогда мы сразу получаем результат, который выводили вручную в начале этого пункта — что система относительно y имеет вид
(AB)y=b .

 

«Попробуйте на ощупь» перемножение матриц, воспользовавшись нашим мини-калькулятором. (Допускаются целые числа и дроби, например -12/5. Пустые места в матрицах означают нули, как принято в линейной алгебре. )

 \LARGE × 
 \LARGE = 

4. Другие операции с матрицами

В дальнейшем нам понадобятся некоторые простейшие операции с матрицами, о которых здесь будет вкратце рассказано.

Умножение матрицы на число — элементарная операция, заключающаяся в умножении каждого элемента матрицы на это самое число:
γ⋅\begin{bmatrix}a_{11}&a_{12}&⋅s&a_{1n}\\a_{21}&a_{22}&⋅s&a_{2n}\\
\vdots&\vdots&\ddots&\vdots\\a_{m1}&a_{m2}&⋅s&a_{mn}\end{bmatrix}=
\begin{bmatrix}γ⋅ a_{11}&γ⋅ a_{12}&⋅s&γ⋅ a_{1n}\\
γ⋅ a_{21}&γ⋅ a_{22}&⋅s&γ⋅ a_{2n}\\
\vdots&\vdots&\ddots&\vdots\γ⋅ a_{m1}&γ⋅ a_{m2}&⋅s&γ⋅ 
a_{mn}\end{bmatrix}

Сложение матриц — тоже элементарная операция. Складывать можно только матрицы одинакового размера, и результатом сложения будет матрица, элементы которой являются суммами соответствующих элементов первого и второго слагаемого:
\begin{bmatrix}a_{11}&a_{12}&⋅s&a_{1n}\\a_{21}&a_{22}&⋅s&a_{2n}\\
\vdots&\vdots&\ddots&\vdots\\a_{m1}&a_{m2}&⋅s&a_{mn}\end{bmatrix}+
\begin{bmatrix}b_{11}&b_{12}&⋅s&b_{1n}\\b_{21}&b_{22}&⋅s&b_{2n}\\
\vdots&\vdots&\ddots&\vdots\\b_{m1}&b_{m2}&⋅s&b_{mn}\end{bmatrix}=
=\begin{bmatrix}a_{11}+b_{11}&a_{12}+b_{12}&⋅s&a_{1n}+b_{1n}\\
a_{21}+b_{21}&a_{22}+b_{22}&⋅s&a_{2n}+b_{2n}\\
\vdots&\vdots&\ddots&\vdots\\a_{m1}+b_{m1}&a_{m2}+b_{m2}&⋅s&a_{mn}+b_{mn}\end{bmatrix}
После введения операции сложения матриц легко представить себе и разность матриц.

Транспонирование матрицы — несколько менее тривиальная операция. Матрицей, транспонированной к матрице A∈ℝ^{m× n}, называется матрица B∈ℝ^{n× m}, обозначаемая через A^T, определяющаяся следующим образом:
A=\begin{bmatrix}a_{11}&a_{12}&⋅s&a_{1n}\\a_{21}&a_{22}&⋅s&a_{2n}\\
\vdots&\vdots&\ddots&\vdots\\a_{m1}&a_{m2}&⋅s&a_{mn}\end{bmatrix}   \Rightarrow   
A^T=\begin{bmatrix}a_{11}&a_{21}&⋅s&a_{n1}\\a_{12}&a_{22}&⋅s&a_{n2}\\
\vdots&\vdots&\ddots&\vdots\\a_{1m}&a_{2m}&⋅s&a_{nm}\end{bmatrix}.
То есть мы как бы переворачиваем матрицу вокруг её главной диагонали, тем самым меняя у элементов строчный и столбцовый индексы местами:
A=(a_{ij}), A^T=(b_{ij})   \Rightarrow   b_{ij}=a_{ji}.
При этом если мы применим эту операцию два раза, то непременно получим исходную матрицу:
\big(A^T\big)^T=A.
Сразу обратим внимание (на будущее), что в силу определения операции транспонирования всегда существуют произведения AA^T и A^TA — так уж согласованы размеры матриц A и A^T.

В завершение обсуждения операций над матрицами приведём несколько их основных свойств, которые несложно доказать, аккуратно выписав поэлементно получающиеся матрицы:
  1. Коммутативность сложения: A+B=B+A.
  2. Ассоциативность сложения: (A+B)+C=A+(B+C).
  3. Ассоциативность при умножении на числа: (αβ)A=α(β A). (Здесь и далее α и β — любые вещественные числа.)
  4. Дистрибутивность умножения на число относительно сложения матриц: α(A+B)=α A+α B.
  5. Дистрибутивность умножения на число относительно сложения чисел: (α+β)A=α A+β A.
  6. Некоммутативность умножения: не для любых матриц A и B справедливо равенство AB=BA. (Даже если они квадратные и их можно перемножать в любом порядке.)
  7. Ассоциативность умножения: (AB)C=A(BC). (Здесь и далее A, B и C — любые матрицы, которые можно перемножить в указанном порядке.)
  8. Ассоциативность перемножений матриц и чисел: α(AB)=(α A)B=A(α B).
  9. Дистрибутивность умножения относительно сложения матриц: A(B+C)=AB+AC и (A+B)C=AC+BC.
  10. Аддитивность транспонирования: (A+B)^T=A^T+B^T.
  11. Однородность транспонирования: (α A)^T=α A^T.
  12. Транспонирование произведения: (AB)^T=B^TA^T.
  13. Двойное транспонирование: (A^T)^T=A.

5. Треугольные матрицы

В матричном анализе важное место занимают так называемые матрицы специального вида. Как несложно догадаться, это матрицы, элементы которых имеют какой-либо специальный вид, например, заданы фиксированной формулой с параметрами или связаны между собой каким-нибудь соотношением (например, матрица, в которой выполнено соотношение a_{ij}=a_{ji}, называется симметричной). Упомянутые выше диагональные матрицы — яркий пример матриц специального вида. Треугольные матрицы, которые будут рассмотрены здесь — ещё один не менее важный пример.

Матрица называется нижнетреугольной, если все элементы над её главной диагональю равны нулю, и верхнетреугольной, если все элементы под её главной диагональю равны нулю. Соответственно, треугольной матрицей называется любая нижне- или верхнетреугольная матрица. Вот общий вид верхнетреугольной матрицы:
U=\begin{bmatrix}a_{11}&a_{12}&⋅s&a_{1,n−1}&a_{1n}\\0&a_{22}&⋅s&a_{2,n−1}&a_{2n}\\
\vdots&\vdots&\ddots&\vdots&\vdots\\0&0&⋅s&a_{n−1,n−1}&a_{n−1,n}\\0&0&⋅s&0&a_{nn}\end{bmatrix}
В верхнетреугольной матрице выполнено соотношение i>j\Rightarrow a_{ij}=0 (соответственно, в нижнетреугольной i<j\Rightarrow a_{ij}=0). Кстати, нередко матрицы специального вида определяются именно расположением нулей (вспомнить те же диагональные матрицы).

Но зачем пришлось выделять треугольные матрицы из общей массы, чем они так хороши? В первую очередь простотой решения линейных систем с такими матрицами коэффициентов. (Не забывайте, что решение линейных систем — главная, хоть и не единственная, область применения матриц и связанных с ними результатов.) Действительно, если есть система Ux=b с описанной выше верхнетреугольной матрицей U, то мы сразу можем её решить:
\begin{array}{ccl}x_n&=&\frac{b_n}{a_{nn}},\\[8mm]
x_{n−1}&=&\frac{1}{a_{n−1,n−1}}(b_{n−1}−a_{n−1,n}x_n),\\[6mm]
\vdots&&\\[4mm]x_1&=&\frac{1}{a_{11}}(b_1−a_{12}x_2−a_{13}x_3−…−a_{1n}x_n) .\end{array}
(5.1)

Никаких ухищрений, махинаций со строками и так далее. Кроме того, совершенно аналогичным путём можно сразу решить систему с нижнетреугольной матрицей.

В связи с треугольными матрицами вспомним об одном очень важном вопросе, доселе обделённом нашим вниманием — вопросе разрешимости систем линейных уравнений. Как несложно догадаться, не всякая система имеет единственное решение. Например, система
≤ft{\begin{matrix}x−y+z&=&1\\x+y+z&=&1\end{matrix}\right.
имеет бесконечное количество решений. В этом несложно убедиться: подставьте вместо z любое число — и полученная система относительно {x} и y будет иметь решение. С другой стороны, гораздо более простая на вид система
≤ft{\begin{matrix}x−y&=&1\\y−x&=&1\end{matrix}\right.
не имеет решений вообще. (Попробуйте, найдите хоть одно!)

Есть простое правило: если уравнений в системе меньше, чем неизвестных, то система всегда имеет бесконечное число решений. Если же уравнений больше, чем неизвестных, то такого простого правила уже нет — тут всё будет зависеть от самих уравнений и правой части. Но и если число неизвестных в точности равно числу уравнений, то нельзя сразу сказать, будет ли существовать решение и будет ли оно единственно.

Так что вопрос это непростой, а в его важности сомневаться не приходится. К счастью, на сегодняшний день он решён полностью, и далее мы будем постепенно идти к его решению.

Начнём же мы наш путь с самого простого случая — системы с квадратной треугольной матрицей коэффициентов.

Как видно из формул выше, единственная проблема, которая может возникнуть при решении системы с треугольной матрицей — это деление на ноль. То есть мы можем решить систему уравнений с треугольной матрицей коэффициентов, если все элементы на её главной диагонали не равны нулю. Действительно, в этом случае мы можем просто вычислить решение, воспользовавшись этой формулой. Притом видно, что оно единственно — потому что путей получить другое решение просто нет. Если же где-то на главной диагонали затаился ноль, то это значит, что на очередном шаге мы просто не сможем определить значение очередной переменной, и всё пойдёт крахом. Таким образом, можно сформулировать критерий разрешимости системы уравнений с треугольной матрицей коэффициентов: такая система разрешима (то есть у неё есть решение, и притом единственное, для любой правой части) тогда и только тогда, когда ни один из элементов на главной диагонали соответствующей треугольной матрицы не равен нулю.

6. Обратная матрица

Вернёмся к нашей системе линейных уравнений с произвольной квадратной матрицей коэффициентов:
≤ft{\begin{matrix}a_{11}x_1+a_{12}x_2+…+a_{1n}x_n&=&b_1\\
a_{21}x_1+a_{22}x_2+…+a_{2n}x_n&=&b_2\\…&&\\a_{n1}x_1+a_{n2}x_2
+…+a_{nn}x_n&=&b_n\end{matrix}\right.

Давайте теперь представим, что у нас есть одна матрица коэффициентов и много разных правых частей, с которыми нужно решить систему. Притом мы сразу отметаем вариант с обычным методом Гаусса — он достаточно трудоёмок (требует порядка n^3 операций умножения, деления и вычитания чисел), и если правых частей действительно много, то вычислительный процесс может затянуться.

В поисках альтернативы изучим вот какой вопрос. Что нам даёт линейность наших уравнений? А то, что если мы решили систему с правыми частями b и c, и получили решения, соответственно, x и y, то для правой части ab+dc решение будет в точности равно ax+dy. Чего из этого можно извлечь толкового? А вот что. Если мы решим систему для векторов
\vec{e}_i=\begin{bmatrix}0\\\vdots\\0\\1\\0\\\vdots\\0\end{bmatrix}≤ftarrow i   ∀ i=1,2,…,n,
в которых все элементы равны нулю, кроме одной единицы, стоящей в i-й позиции, и получим решения x_1,x_2,…,x_n, то решение системы с произвольной правой частью b будет равно линейной комбинации векторов x_i с коэффициентами b_i, то есть вектору вида
x=b_1x_1+b_2x_2+…+b_nx_n=∑_{i=1}^nb_ix_i .
Если теперь записать векторы x_i в матрицу X=[x_1 x_2 ⋅s x_n] (эта запись означает, что векторы x_i стали столбцами матрицы X), то мы получим, что
x=Xb.
И это великолепно!

Что же мы получили? Что если мы решим систему с n определёнными векторами, то решение её с любой правой частью сведётся к обычному умножению вектора на матрицу! А это уже заметный прогресс по сравнению с методом Гаусса, ибо умножение вектора на матрицу требует лишь порядка n^2 операций умножения и сложения чисел. (Сложность алгоритмов — это отдельная, большая и сложная тема, поэтому на такие замечания можете впредь не обращать внимания. Скажу лишь, что стало быстрее. Гораздо.)

Именно такая вот матрица X, позволяющая умножением на правую часть решать системы с матрицей коэффициентов A (при условии, что у них заведомо существует единственное решение при любых правых частях), и называется матрицей, обратной к матрице A и обозначается A^{−1}.

Матрица A^{−1} называется обратной к матрице A, если
AA^{−1}=A^{−1}A=I .
 — Г. Д. Ким, Л. В. Крицков. Алгебра и аналитическая геометрия: Теоремы и задачи. Том I; глава II, §9, страница 87.

В этом определении фигурирует до сих пор не введённая нами единичная матрица
I=\begin{bmatrix}1&0&⋅s&0\\0&1&⋅s&0\\\vdots&\vdots&\ddots&\vdots\\0&0&⋅s&1\end{bmatrix}
 — квадратная диагональная матрица с единицами на главной диагонали. В указанной в определении формуле подразумевается, что матрица A квадратная и что I — единичная матрица того же размера, что и A.

Главное свойство единичной матрицы заключается в том, что при домножении какой-либо матрицы на единичную (слева или справа, неважно) результат равен исходной матрице. То есть для любой матрицы A AI=A и IA=A. (Учтите, что во всех формулах, где фигурирует I, обычно считается, что она такого размера, при которым все произведения имеют смысл. В данных формулах матрица A может быть прямоугольной; тогда эти две формулы по-прежнему будут справедливы, только матрицы I в них будут разных размеров.) В частности, это касается и векторов. Вектор при умножении на единичную матрицу не изменяется.

Но вернёмся к определению обратной матрицы. Если приглядеться внимательно, то можно увидеть, что снова определение из учебника полностью совпадает с нашим, хоть и выглядит совсем по-другому. Ведь что значит, что произведение AA^{−1} равно единичной матрице? А то, что если сперва умножить вектор b на матрицу A^{−1}, а потом умножить результат на A, то получится исходный вектор. То есть вектор A^{−1}b является решением системы Ax = b! Значит, матрица A^{−1} действительно решает систему с матрицей A. Ну а другое условие A^{−1}A=I даёт нам единственность этого решения. (Предположим, что существует два решения x и y. Тогда Ax=b и Ay=b. Тогда A(x−y)=Ax−Ay=b−b=0. Ну а тогда A^{−1}A(x−y)=A^{−1}⋅ 0=0, но в то же время A^{−1}A(x−y)=I(x−y)=x−y, и, следовательно, x−y=0 и x=y. Значит, решение единственно.)

Матрица A, для которой существует обратная, называется обратимой. Как мы только что показали, обратимость эквивалентна существованию и единственности решения системы уравнений с матрицей коэффициентов A для любой правой части. Для краткости впредь мы будем вместо этого трудновыговариваемого свойства сразу говорить, что матрица коэффициентов обратима.

Ну и из наших рассуждений видно, как можно найти обратную матрицу — нужно просто решить систему с векторами e_i. Причём для удобства решать её можно со всеми векторами одновременно, то есть расширенная матрица будет расширена теперь не одним вектором, а сразу n штуками.

Следующая интерактивная демонстрация призвана продемонстрировать нахождение обратной матрицы методом Гаусса.

7. Указатель

© Aleph, 2012–2016. При использовании материалов ссылка на math.siomax.ru обязательна.
Последняя редакция: , Т. Салуев.