Линейные пространства


1. Определение и примеры

Линейное (или также векторное) пространство — основополагающий термин, встречающийся, наверное, в подавляющем большинстве работ по высшей математике. Поэтому он является также необходимым пунктом программы по линейной алгебре любого факультета, на котором преподаётся высшая математика. Это одна из тех абстракций, которые ближе к жизни, чем большинство других, и которая, тем не менее, позволяет нам изучить очень много свойств самых разнообразных объектов, категорически не вдаваясь в какие-либо детали. Поэтому именно ей посвящена данная статья.

В этой связи вспомним сперва о такой вещи, как школьные геометрические векторы.

Что тогда называлось вектором? Грубо говоря, вектором в школе была некоторая стрелочка, которая имела длину и направление и могла быть приложена к любой точке (например, к началу координат).

Ассортимент действий с векторами был не очень велик: мы могли умножить вектор на вещественное число, изменив этим его длину (и сменив направление на противоположное, если число было отрицательное), и сложить его с каким-нибудь другим вектором. При этом у каждого вектора был обратный (той же длины, но направленный в противоположную сторону), сумма с которым давала так называемый нулевой вектор. В частности, благодаря этому мы могли также вычитать векторы.

Притом эти свойства векторов были справедливы и для двухмерного, и для трёхмерного случая. А можно больше?

Оказывается, что этих свойств достаточно, чтобы создать нечто, похожее по поведению на школьные векторы, но уходящее далеко за пределы школьной геометрии.

Давайте скажем, что векторы — это элементы некоторого непустого множества V, на котором определены две операции: сложение векторов (если a,b∈ V, то a+b∈ V) и умножение векторов на вещественные числа (если a∈ V и α∈ℝ, то α a∈ V). Потребуем, чтобы данные операции обладали следующими свойствами:
  • (a+b)+c=a+(b+c) ∀ a,b,c∈ V (ассоциативность сложения векторов);
  • существует особый вектор 0, называемый нулевым вектором, такой, что
    a+0=0+a=a ∀ a∈ V;
  • для любого вектора a∈ V существует вектор b∈ V такой, что
    a+b=b+a=0;
  • a+b=b+a ∀ a,b∈ V (коммутативность сложения векторов);
  • α(β a)=(αβ)a ∀ α,β∈ℝ, a∈ V;
  • (α+β)a=(α a)+(β a) ∀ α,β∈ℝ, a∈ V (дистрибутивность);
  • α(a+b)=(α a)+(α b) ∀ α∈ℝ, a,b∈ V (дистрибутивность);
  • 1⋅ a=a ∀ a∈ V.
В таких случаях множество V называется вещественным линейным пространством. Е. Е. Тыртышников. Матричный анализ и линейная алгебра; лекция 11, страница 73.

Проще говоря, у нас есть набор некоторых штук, которые мы умеем складывать и умножать на числа, причём так, как привыкли делать это с обычными геометрическими векторами. Тогда такие штуки тоже можно называть векторами, а множество из них всех будет называться линейным пространством.

Например, вспомним статью о матрицах. Там мы ввели такое понятие, как вектор-столбец — таблицу чисел из n строк и одного столбца:
v=\begin{bmatrix}v_1\\\vdots\\v_n\end{bmatrix},   v_1,…,v_n∈ℝ.
Вектор-столбцы одного размера можно складывать как обычные матрицы:
\begin{bmatrix}v_1\\\vdots\\v_n\end{bmatrix}+\begin{bmatrix}u_1\\\vdots\\u_n\end{bmatrix}=
\begin{bmatrix}v_1+u_1\\\vdots\\v_n+u_n\end{bmatrix}
и умножать на числа, тоже как обычные матрицы:
α⋅\begin{bmatrix}v_1\\\vdots\\v_n\end{bmatrix}=\begin{bmatrix}α⋅ v_1\\\vdots\α⋅ v_n\end{bmatrix}.
Несложно проверить и выполнение для этих операций указанных выше свойств; в частности, нулевым вектором будет вектор из нулей:
\vec{ 0}=\begin{bmatrix}0\\\vdots\\0\end{bmatrix}
То есть получается, что множество из всех вектор-столбцов заданного фиксированного размера n с описанными выше операциями сложения и умножения на число является вещественным линейным пространством. Оно обозначается как ℝ^n.

Но что же это за пространство?

Мы знаем, что любая точка на плоскости (при зафиксированной системе координат) описывается двумя числами — координатами. И каждый геометрический вектор на плоскости тоже описывается двумя координатами — например, координатами точки, в которую он «воткнётся», если отложить его от начала координат. Мы также знаем, что чтобы сложить два вектора, достаточно сложить их координаты, а чтобы умножить вектор на число, достаточно умножить каждую координату на это число. Значит, если мы сопоставим каждому вектору на плоскости вектор-столбец размера 2 с координатами этого вектора, то получится, что все векторы плоскости составляют линейное пространство ℝ^2!

То же самое справедливо и для трёхмерного пространства: все векторы пространства составляют линейное пространство ℝ^3. Получается, что для n>3 пространство ℝ^n есть не что иное, как желанная абстракция, n–мерное пространство векторов!..

Но и этим дело не исчерпывается. Давайте вспомним статью о последовательностях. Последовательности мы тоже можем легко научиться складывать и умножать на число:
{a_n}_{n=1}^{∞}+{b_n}_{n=1}^{∞}={a_n+b_n}_{n=1}^{∞},
α⋅{a_n}_{n=1}^{∞}={α⋅ a_n}_{n=1}^{∞}.
Притом все вышеописанные свойства операций снова будут выполнены, и нулевым «вектором» будет последовательность из нулей. Получается, что всевозможные последовательности тоже образуют линейное пространство! Причём ни при каком n оно не совпадёт с ℝ^n, потому что каждый «вектор» в нём описывается бесконечным количеством чисел. Оно является бесконечномерным.

2. Линейная зависимость и базис

Первое, что нам понадобится в линейном пространстве — это система координат. В школьной геометрии в трёхмерном случае, например, у нас были векторы \vec{i},\vec{j},\vec{k}:
Они также назывались ортами и несложно было увидеть, что если в указанной системе координат какой-нибудь вектор v имеет координаты (v_x,v_y,v_z), то в терминах операций сложения векторов и умножения вектора на число его можно было записать так:
\LARGE \vec{v}=v_x⋅\vec{i}+v_y⋅\vec{j}+v_z⋅\vec{k}.
Геометрически это можно изобразить следующим образом:
То есть получается, что любой вектор трёхмерного пространства можно представить в виде суммы трёх заранее определённых векторов с зависящими от этого самого вектора коэффициентами. Это уже кое-что!

Кстати, линейной комбинацией каких-либо векторов \vec{v}_1,\vec{v}_2,…,\vec{v}_n называется любой вектор вида
\vec{v}=α_1\vec{v}_1+α_2\vec{v}_2+…+α_n\vec{v}_n,   α_1,…,α_n∈ℝ.
Утверждение выше с использованием этого нового термина можно переписать: любой вектор трёхмерного пространства является линейной комбинацией векторов \vec{i},\vec{j},\vec{k}.

Но, как видно, линейные комбинации существуют не только в 3D. Такую сумму можно выписать для любых векторов любого (вещественного) линейного пространства — а значит, можно попытаться сформулировать аналогичное написанному выше утверждение, например, для описанного выше пространства ℝ^n.

И это легко сделать! Возьмём пространство ℝ^n (зафиксируем какое-нибудь конкретное n) и введём в нём векторы \vec{e}_i, i=\overline{1,n}:
\vec{e}_1=\begin{bmatrix}1\\0\\\vdots\\0\end{bmatrix}, \vec{e}_2=\begin{bmatrix}0\\1\\\vdots\\0\end{bmatrix},…, 
\vec{e}_n=\begin{bmatrix}0\\0\\\vdots\\1\end{bmatrix}.
Тогда, очевидно, любой вектор-столбец можно будет представить в виде их линейной комбинации:
\vec{v}=\begin{bmatrix}v_1\\v_2\\\vdots\\v_n\end{bmatrix}=
\begin{bmatrix}v_1\\0\\\vdots\\0\end{bmatrix}+
\begin{bmatrix}0\\v_2\\\vdots\\0\end{bmatrix}+…+
\begin{bmatrix}0\\0\\\vdots\\v_n\end{bmatrix}=v_1\vec{e}_1+v_2\vec{e}_2+…+v_n\vec{e}_n.
Векторы \vec{e}_1,…,\vec{e}_n являются ортами линейного пространства ℝ^n.

Таким образом, нами была получена первая аналогия между векторами школьной геометрии и абстрактными векторами пространства ℝ^n, уходящая далеко за рамки определения линейного пространства. И это только начало!

Теперь изучим вот какой вопрос. Вспомним, например, плоскость. На плоскости мы могли вводить много разных систем координат, и они могли отличаться отнюдь не только началом отсчёта:

В приведённом примере мы просто «повернули» всю систему координат. Вектор \vec{v} остался прежним, но, так как изменилась система координат (и орты вместе с ней), то чтобы представить его в виде линейной комбинации новых орт \vec{i}',\vec{j}', нам потребуются новые координаты: v_x' и v_y'.

То есть
\vec{v}=v_x\vec{i}+v_y\vec{j}=v'_x\vec{i'}+v'_y\vec{j'}.

Давайте теперь поставим перед собой задачу определить эти самые новые координаты v_x' и v_y'. Для этого сперва заметим вот что: поскольку новые орты — это обычные векторы, то они представимы в виде линейных комбинаций старых орт, и наоборот. Давайте распишем эти представления:
\begin{array}{ccccc}\vec{i'}&=&a_{11}\vec{i}&+&a_{12}\vec{j},\\[2mm]
\vec{j'}&=&a_{21}\vec{i}&+&a_{22}\vec{j},\\[2mm]
\vec{i}&=&b_{11}\vec{i'}&+&b_{12}\vec{j'},\\[2mm]
\vec{j}&=&b_{21}\vec{i'}&+&b_{22}\vec{j'}.\end{array}

Коэффициенты a_{ij} и b_{ij}, которые зависят только от старой и новой систем координат, запишем в матрицы A и B:
A=\begin{bmatrix}a_{11}&a_{21}\\a_{12}&a_{22}\end{bmatrix},   B=\begin{bmatrix}b_{11}&b_{21}\\b_{12}&b_{22}\end{bmatrix}.

(Кстати, если вы до сих пор не ознакомились со статьёй о матрицах, настоятельно рекомендую это сделать.)

Теперь подставим записанные представления в выражение для вектора \vec{v}:
\begin{array}{lccccc}\vec{v}&=&v'_x\vec{i'}+v'_y\vec{j'}=&&\\[2mm]
&=&v'_x(a_{11}\vec{i}+a_{12}\vec{j})&+&v'_y(a_{21}\vec{i}+a_{22}\vec{j})&=\\[2mm]
&=&(a_{11}v'_x+a_{21}v'_y)\vec{i}&+&(a_{12}v'_x+a_{22}v'_y)\vec{j}&=\\[2mm]
&&&=&v_x\vec{i}+v_y\vec{j}.&\end{array}

Получается, что для нахождения v_x' и v_y' достаточно решить систему линейных уравнений
≤ft{\begin{matrix}a_{11}v'_x&+&a_{21}v'_y&=& v_x,\\[2mm]a_{12}v'_x&+&a_{22}v'_y&=& v_y.\end{matrix}\right.

Но, с другой стороны,
\begin{array}{lccccc}\vec{v}&=&v_x\vec{i}+v_y\vec{j}=&&\\[2mm]
&=&v_x(b_{11}\vec{i'}+b_{12}\vec{j'})&+&v_y(b_{21}\vec{i'}+b_{22}\vec{j'})&=\\[2mm]
&=&(b_{11}v_x+b_{21}v_y)\vec{i'}&+&(b_{12}v_x+b_{22}v_y)\vec{j'}&=\\[2mm]
&&&=&v'_x\vec{i'}+v'_y\vec{j'},&\end{array}
и оказывается, что справедлива также и система
≤ft{\begin{matrix}b_{11}v_x&+&b_{21}v_y&=& v'_x,\\[2mm]b_{12}v_x&+&b_{22}v_y&=& v'_y.\end{matrix}\right.
Зная матрицу B, мы теперь можем точно посчитать, чему равны v_x' и v_y', но даже это не главное. Запишем две получившиеся системы в операторной форме записи. Обозначив
v=\begin{bmatrix}v_x\\v_y\end{bmatrix},   v'=\begin{bmatrix}v'_x\\v'_y\end{bmatrix},
получим следующий вид для записанных систем:
\LARGE \begin{matrix}Av'=v,\\[2mm]Bv=v'.\end{matrix}
А эти два соотношения, выполняющиеся одновременно и для всех возможных векторов \vec{v}, означают, что B=A^{−1}!

Таким образом, матрицы, которым посвящена такая обширная статья, нашли применение уже в почти школьной геометрии плоскости. Что же будет дальше?..

Дальше нас ждёт следующий вопрос. Мы поняли, что систем координат с общим началом отсчёта на плоскости может быть много, и что любые две из них связаны соответствующей матрицей A (и обратной к ней B). А может быть, любые два вектора на плоскости представляют собой систему координат?

Оказывается, что это почти так, и что любые два вектора на плоскости могут использоваться в качестве системы координат, если только они не параллельны. Случай параллельности приходится исключить, потому что сколько ни суммируй параллельные векторы, а получаться будут векторы, параллельные исходным, так что уже не любой вектор на плоскости будет представим в виде линейной комбинации этих новых «орт», а только тот, что им заведомо параллелен. (Зато он будет разлагаться в линейную комбинацию бесконечным числом способов.)

А что же будет в общем случае? Ясное дело, что всё будет не так просто. Уже в трёхмерном пространстве трём векторам недостаточно быть непараллельными, чтобы образовывать систему координат — нужно также, чтобы они не лежали в одной плоскости, так как в противном случае всевозможные линейные комбинации этих векторов не уйдут за пределы этой самой общей плоскости (поскольку сумма векторов, лежащих в некоторой плоскости, лежит в ней же). А в четырёхмерном случае подобное условие себе уже и представить сложно.

Поэтому подойдём к вопросу выбора системы координат в пространстве ℝ^n с практической точки зрения. Чего мы хотим от набора векторов, определяющего какую-либо систему координат? Всего двух вещей:
  1. каждый вектор интересующего нас пространства должен представляться в виде некоторой их линейной комбинации;
  2. эта линейная комбинация должна быть единственна, то есть у любого вектора должен быть лишь один набор координат, описывающий его.

Второе требование может быть не так очевидно, но тем не менее оно естественно. Мы, например, вполне могли бы взять три вектора плоскости, не лежащих на одной прямой (то есть непараллельных) и сказать, что это система координат, и у каждого вектора в ней было бы по три координаты. Но это излишне, потому что, как мы знаем, двух координат для плоскости вполне достаточно. И именно такие варианты отметает второе условие — ведь в линейной комбинации из трёх двухмерных векторов любой можно выразить через два других, получив тем самым ещё как минимум одну новую линейную комбинацию, равную исходной.

Теперь мы можем наконец ввести следующее фундаментальное определение: любая конечная система векторов \vec{v}_1,\vec{v}_2,…,\vec{v}_n из произвольного линейного пространства V, удовлетворяющая двум указанным выше условиям, называется базисом линейного пространства V.

Таким образом, базисом в линейной алгебре называется система векторов, по которой можно построить «хорошую» систему координат.

Теперь дело остаётся за каким-нибудь разумным способом по заданной системе векторов \vec{v}_1,\vec{v}_2,…,\vec{v}_n определить, является ли эта система базисом. Ведь просто так, глянув на числа, трудно что-либо определить, а геометрический подход теряет смысл, как только мы уходим из трёхмерного пространства в какое-нибудь более сложное.

Начнём со второго условия — единственности представления любого вектора в виде линейной комбинации векторов базиса. (Кстати, это представление называется разложением вектора по базису.) Что означает единственность и с чем она может противоречить? Предположим, что единственности нет и для некоторого вектора \vec{v}:
\vec{v}=a_1\vec{v}_1+a_2\vec{v}_2+…+a_n\vec{v}_n
и в то же время
\vec{v}=b_1\vec{v}_1+b_2\vec{v}_2+…+b_n\vec{v}_n,
причём ∃ i: a_i≠ b_i (то есть наборы коэффициентов не совпадают целиком). Вычтем одно равенство из другого и получим, что
(a_1−b_1)\vec{v}_1+(a_2−b_2)\vec{v}_2+…+(a_n−v_n)\vec{v}_n=\vec{ 0},   ∃ i:(a_i−b_i)≠ 0.
То есть существует линейная комбинация базисных векторов с хотя бы одним ненулевым коэффициентом (такие линейные комбинации называются нетривиальными; тривиальной же называется линейная комбинация, все коэффициенты в которой — нули, что вполне допустимо определением), которая равна нулевому вектору. А это уже кое-что, и такое условие выглядит гораздо проще, чем условие 2! В связи с этим давайте введём пару новых определений и переформулируем определение базиса.

Система векторов \vec{v}_1,\vec{v}_2,…,\vec{v}_k называется линейно независимой, если ни одна нетривиальная линейная комбинация этих векторов не равна нулевому вектору, и линейно зависимой, если, наоборот, существует некая нетривиальная линейная комбинация этих векторов, равная нулевому вектору.

Наглядный пример можно привести на плоскости:

Три изображённых вектора не лежат на одной прямой, но тем не менее линейно зависимы — ведь их сумма равна нулю.

Линейной оболочкой L(\vec{v}_1,\vec{v}_2,…,\vec{v}_k) системы векторов \vec{v}_1,\vec{v}_2,…,\vec{v}_k из линейного пространства V называется множество всевозможных линейных комбинаций этих векторов:
L(\vec{v}_1,\vec{v}_2,…,\vec{v}_k)=≤ft{
\vec{x}∈ V:\vec{x}=a_1\vec{v}_1+…+a_k\vec{v}_k, a_1,…,a_k∈ℝ\right}.
Иначе говоря, линейная оболочка — это множество из всех векторов, которые мы можем получить, складывая заданные векторы \vec{v}_1,\vec{v}_2,…,\vec{v}_k с различными коэффициентами. В это множество, например, входят сами векторы \vec{v}_1,\vec{v}_2,…,\vec{v}_k, потому что любой из них является линейной комбинацией этих векторов с одним-единственным ненулевым коэффициентом:
\vec{v}_i=0⋅\vec{v}_1+0⋅\vec{v}_2+…+0⋅\vec{v}_{i−1}+
\mathbf{1}⋅\vec{v}_i+0⋅\vec{v}_{i+1}+…+0⋅\vec{v}_k.
Также, очевидно, входит в него нулевой вектор, всегда (по определению) равный тривиальной линейной оболочке заданных векторов:
\vec{ 0}=0⋅\vec{v}_1+0⋅\vec{v}_2+…+0⋅\vec{v}_k.
Если k=1 и \vec{v}_1≠\vec{ 0}, то линейная оболочка является просто прямой, проходящей через начало координат:
L(\vec{v}_1)={\vec{x}∈ V:\vec{x}=α\vec{v}_1, α∈ℝ}.
(В двухмерном и трёхмерном случае очевидно, что такое множество описывает прямую; в общем же случае можно взять это за определение оной, и останется лишь учесть, что прямая может быть «сдвинута» и не проходить через начало координат.) Если k=2 и два указанных вектора непараллельны, то совершенно аналогичным образом мы получим проходящую через начало координат плоскость (если параллельны — снова прямую, по уже описанной выше причине, если только, разумеется, хоть один из векторов ненулевой). Если k=3 и три указанных вектора не лежат в одной плоскости, то их линейная оболочка будет представлять из себя трёхмерное пространство.

С линейными оболочками связан ещё один важный факт. Если у нас есть некоторое линейное пространство V и векторы \vec{v}_1,\vec{v}_2,…,\vec{v}_k, по которым мы построили линейную оболочку L=L(\vec{v}_1,\vec{v}_2,…,\vec{v}_k), то эта линейная оболочка тоже будет являться линейным пространством. В самом деле, складывать векторы и умножать их на число мы уже умеем. Остаётся проверить всего несколько пунктов определения:

  • Сумма любых двух векторов из L должна лежать в L. Проверим это. Пусть у нас есть два каких-то вектора \vec{a} и \vec{b}, лежащих в L. Раз уж они лежат в L, то по определению L они равны некоторым линейным комбинациям векторов \vec{v}_1,\vec{v}_2,…,\vec{v}_k:
    \begin{array}{ll}\vec{a}=a_1\vec{v}_1+a_2\vec{v}_2+…+a_k\vec{v}_k,&a_1,…,a_k∈ℝ,\\[2mm]
\vec{b}=b_1\vec{v}_1+b_2\vec{v}_2+…+b_k\vec{v}_k,&b_1,…,b_k∈ℝ.\end{array}
    Но тогда, очевидно, их сумма тоже является линейной комбинацией тех же самых векторов:
    \vec{a}+\vec{b}=(a_1+b_1)\vec{v}_1+(a_2+b_2)\vec{v}_2+…+(a_k+b_k)\vec{v}_k.
    И тогда, снова по определению L, получается, что сумма тоже обязательно лежит в L.
  • Произведение любого вектора на любое число должно лежать в L. Тоже, в общем-то, довольно очевидный факт: ведь если линейную комбинацию некоторых векторов умножить на число, мы получим линейную комбинацию этих же векторов с коэффициентами, умноженными на это число.
  • В пространстве L должен лежать нулевой вектор. И он лежит, ведь он равен тривиальной линейной комбинации векторов \vec{v}_1,\vec{v}_2,…,\vec{v}_k.
  • Для любого вектора \vec{a} в L должен лежать вектор \vec{b}, обратный по сложению, то есть такой, что \vec{a}+\vec{b}=\vec{b}+\vec{a}=\vec{ 0}. Если заметить, что такой вектор всегда равен вектору (−1)⋅\vec{a}, то видно, что он лежит в L по причине, описанной в предпредыдущем пункте.

Значит, L — полноценное линейное пространство внутри линейного пространства V с теми же самыми арифметическими операциями. Подмножества произвольного линейного пространства V, сами являющиеся линейными пространствами относительно введённой в V арифметики, называются линейными подпространствами линейного пространства V. (Кстати, согласно этому определению, например, V всегда является своим подпространством. Но это так, формальности.)

Теперь можно ввести новое, более короткое и лаконичное определение базиса. Конечная система векторов \vec{v}_1,\vec{v}_2,…,\vec{v}_n из линейного пространства V называется базисом этого линейного пространства, если она линейно независима и V=L(\vec{v}_1,\vec{v}_2,…,\vec{v}_n).

И вот теперь мы наконец-то можем уверенно пойти дальше в изучении свойств линейных пространств.

3. Конечномерные пространства

Линейное пространство называется конечномерным, если в нём существует базис. (Напомню, что базис всегда конечен, по определению.) А вот можно ли по размеру базиса измерить размерность пространства, например, сказать, что пространство n-мерное, если в нём есть базис из n векторов? Могут ли в пространстве быть два базиса с разным количеством векторов?

К этому вопросу мы подойдём со всей строгостью и серьёзностью, и нам предстоит доказать важнейшее утверждение — основную теорему о линейной зависимости.

Сперва рассмотрим какой-то произвольный базис \vec{v}_1,\vec{v}_2,…,\vec{v}_n произвольного линейного пространства V и зададимся сравнительно простым вопросом: какие преобразования векторов этого базиса сохранят за ним право называться базисом? А конкретнее, мы рассмотрим всего три преобразования.

  1. Масштабирование одного из векторов базиса. Возьмём какое-нибудь число α≠ 0 и умножим на него какой-нибудь вектор \vec{v}_k. Полученная система векторов \vec{v}_1,\vec{v}_2,…,\vec{v}_{k−1}, α\vec{v}_k, \vec{v}_{k+1},…,\vec{v}_n будет базисом наравне с прежней. Почему? Потому что любой вектор пространства по-прежнему будет представим в виде линейной комбинации этих векторов, и по-прежнему единственным образом. Действительно, пусть в старом базисе произвольный вектор \vec{v} представлялся в виде
    \vec{v}=a_1\vec{v}_1+a_2\vec{v}_2+…+a_n\vec{v}_n.
    Тогда в новом базисе он будет представляться в виде
    \vec{v}=a_1\vec{v}_1+a_2\vec{v}_2+…+a_{k−1}\vec{v}_{k−1}+\hat{a}_k(α\vec{v}_k)+a_{k+1}\vec{v}_{k+1}+…+a_n\vec{v}_n,
    где \hat{a}_k=(a_k) ⁄ (α). И представление это по-прежнему единственно, ведь будь их два, представлений в исходном базисе тоже было бы два (достаточно было бы умножить k-е коэффициенты этих двух представлений на α, чтобы получить коэффициенты двух представлений того же самого вектора в старом базисе).
  2. Прибавление к одному из векторов базиса другого, умноженного на число. Возьмём какое-нибудь число γ (теперь никто не запрещает ему быть нулём, хотя случай с нулём тривиален и неинтересен) и вместо вектора \vec{v}_k «подсунем» в базис вектор \vec{u}_k=\vec{v}_k+γ\vec{v}_l, остальные векторы оставив без изменения. Новая система векторов \vec{v}_1,\vec{v}_2,…,\vec{v}_{k−1}, \vec{u}_k, \vec{v}_{k+1},…,\vec{v}_n тоже будет базисом. Проверим это. Пусть какой-либо вектор \vec{v} представлялся в старом базисе в виде
    \vec{v}=a_1\vec{v}_1+a_2\vec{v}_2+…+a_n\vec{v}_n.
    Тогда в новом базисе он примет вид
    \vec{v}=a_1\vec{v}_1+a_2\vec{v}_2+…+a_k\vec{u}_k+…+a_{l−1}\vec{v}_{l−1}+(a_{l}−
γ a_k)\vec{v}_l+a_{l+1}\vec{v}_{l+1}+…+a_n\vec{v}_n.
    Это несложно проверить, подставив вместо \vec{u}_k сумму (\vec{v}_k+γ\vec{v}_l), раскрыв пару скобок и сократив пару слагаемых. Совершенно аналогично можно получить представление вектора в прежнем базисе, зная представление в новом. Значит, представление в новом базисе всегда существует и всегда единственно, как и представление в прежнем базисе.
  3. Перестановка двух векторов базиса местами. Ну тут всё очевидно.

Теперь, запасшись этими тремя возможностями изменять базис, сохраняя его свойства, перейдём к главному утверждению. Сейчас мы попробуем доказать основную теорему о линейной зависимости: в любом конечномерном линейном пространстве V все базисы состоят из одного и того же количества векторов.

Доказывать будем от противного: давайте допустим, что это не так и что есть два базиса с разным количеством векторов. Пусть эти базисы образуют векторы \vec{v}_1,\vec{v}_2,…,\vec{v}_n и \vec{u}_1,\vec{u}_2,…,\vec{u}_m, причём для определённости m>n. Раз \vec{v}_1,\vec{v}_2,…,\vec{v}_n — базис, то через эти векторы можно выразить все векторы второго базиса:
\begin{array}{cl}\vec{u}_1 &= a_{11}\vec{v}_1+a_{12}\vec{v}_2+…+a_{1n}\vec{v}_n;\\[2mm]
\vec{u}_2&=a_{21}\vec{v}_1+a_{22}\vec{v}_2+…+a_{2n}\vec{v}_n;\\[2mm]\vdots &\\[2mm]
\vec{u}_m&=a_{m1}\vec{v}_1+a_{m2}\vec{v}_2+…+a_{mn}\vec{v}_n.\end{array}
Запишем коэффициенты a_{ij} в матрицу
A=\begin{bmatrix}a_{11}&a_{12}&⋅s&a_{1n}\\a_{21}&a_{22}&⋅s&a_{2n}\\
a_{31}&a_{32}&⋅s&a_{3n}\\\vdots&\vdots&\ddots&\vdots\\a_{m1}&a_{m2}&⋅s&a_{mn}\end{bmatrix}
и попробуем поработать с ней.

В матрице A строк больше, чем столбцов и каждая строка представляет собой координатное представление вектора \vec{u}_i в базисе \vec{v}_1,\vec{v}_2,…,\vec{v}_n. То есть если мы умножим одну из строк матрицы A на число, то мы фактически умножим на это число весь вектор \vec{u}_i, применив первое из описанных выше преобразований, оставляющих базис базисом; если же мы к одной из строк этой матрицы прибавим (ну или вычтем) другую строку, умноженную на число, то мы произведём второе из описанных выше преобразований с соответствующими этим двум строкам векторами.

Значит, работая с матрицей A, мы можем работать со всем базисом \vec{u}_1,\vec{u}_2,…,\vec{u}_m. Теперь остаётся в поисках противоречия, применяя описанные выше преобразования, оставляющие базис базисом, получить некую модифицированную систему векторов, которая базисом точно не является. Например, в которой один из векторов — нулевой. Тогда мы сможем точно сказать, что базисом она на самом деле не являлась никогда.

Итак, у нас есть матрица A. Сперва найдём элемент первого столбца этой матрицы, не равный нулю. Его не может не быть: если весь первый столбец забит нулями, то через векторы \vec{u}_1,\vec{u}_2,…,\vec{u}_m никак нельзя выразить вектор \vec{v}_1 (потому что как их ни складывай, а коэффициент при \vec{v}_1 всегда будет равен нулю), а это противоречит тому, что \vec{u}_1,\vec{u}_2,…,\vec{u}_m — базис.

Теперь поменяем любую строчку, в которой первый элемент оказался ненулевым, местами с первой. Получим какую-то новую матрицу
\begin{bmatrix}a_{k_11}&a_{k_12}&⋅s&a_{k_1n}\\a_{21}&a_{22}&⋅s&a_{2n}\\
a_{31}&a_{32}&⋅s&a_{3n}\\\vdots&\vdots&\ddots&\vdots\\a_{m1}&a_{m2}&⋅s&a_{mn}\end{bmatrix},
в которой первый элемент первой строчки не равен нулю. Теперь вычтем из второй строчки первую, умноженную на некоторый коэффициент α:
\begin{bmatrix}a_{k_11}&a_{k_12}&⋅s&a_{k_1n}\\(a_{21}−α a_{k_11})&(a_{22}−α a_{k_12})&⋅s&(a_{2n}−α a_{k_1n})\\
a_{31}&a_{32}&⋅s&a_{3n}\\\vdots&\vdots&\ddots&\vdots\\a_{m1}&a_{m2}&⋅s&a_{mn}\end{bmatrix}.
Теперь положим α=\frac{a_{21}}{a_{k_11}} (деления на ноль не возникнет, так уж мы выбирали k_1) и получим матрицу
\begin{bmatrix}a_{k_11}&a_{k_12}&⋅s&a_{k_1n}\\0&\hat{a}_{22}&⋅s&\hat{a}_{2n}\\
a_{31}&a_{32}&⋅s&a_{3n}\\\vdots&\vdots&\ddots&\vdots\\a_{m1}&a_{m2}&⋅s&a_{mn}\end{bmatrix}.
Теперь повторим такую операцию с коэффициентом α=\frac{a_{i1}}{a_{k_11}} для каждой i-й строки и получим матрицу вида
\begin{bmatrix}a_{k_11}&a_{k_12}&⋅s&a_{k_1n}\\0&\hat{a}_{22}&⋅s&\hat{a}_{2n}\\
0&\hat{a}_{32}&⋅s&\hat{a}_{3n}\\\vdots&\vdots&\ddots&\vdots\\0&\hat{a}_{m2}&⋅s&\hat{a}_{mn}\end{bmatrix}.
Таким образом, меняя базис \vec{u}_1,\vec{u}_2,…,\vec{u}_m описанными выше преобразованиями и перестановкой его векторов местами, мы получили некоторый новый базис, для которого матрица A имеет вот такой вот особенный вид.

Теперь приступим ко второму столбцу матрицы. Снова начнём с поиска в нём ненулевого элемента. Если он не нашёлся — через наш новый базис нельзя выразить вектор \vec{v}_2, и мы приходим к искомому противоречию.

Так что пусть ненулевой элемент нашёлся. Если он нашёлся в какой-то строчке, которая ниже первой, то поставим её на место второй: получаем матрицу
\begin{bmatrix}a_{k_11}&a_{k_12}&⋅s&a_{k_1n}\\0&\hat{a}_{k_22}&⋅s&\hat{a}_{k_2n}\\
0&\hat{a}_{32}&⋅s&\hat{a}_{3n}\\\vdots&\vdots&\ddots&\vdots\\0&\hat{a}_{m2}&⋅s&\hat{a}_{mn}\end{bmatrix}.
Теперь вычтем из каждой строчки, начиная с третьей, вторую, умноженную на α=\frac{\hat{a}_{i2}}{\hat{a}_{k_22}}. Проделав всё это, получим матрицу вида
\begin{bmatrix}a_{k_11}&a_{k_12}&⋅s&a_{k_1n}\\
0&\hat{a}_{k_22}&⋅s&\hat{a}_{k_2n}\\
0&0&⋅s&\hat{\hat{a}}_{3n}\\
\vdots&\vdots&\ddots&\vdots\\
0&0&⋅s&\hat{\hat{a}}_{mn}\end{bmatrix}.
Если же единственный ненулевой элемент всё-таки выпал на первую строчку, то мы можем оставить всё как было и переходить к третьему столбцу — ведь, судя по дефициту ненулевых элементов, второй уже обнулился автоматически.

Продолжая подобные рассуждения для последующих столбцов, мы приведём матрицу к некоторому треугольному виду, который, в силу того, что строк в ней заведомо больше, чем столбцов, будет выглядеть следующим образом:
\tilde{A}=\begin{bmatrix}a_{k_11}&a_{k_12}&⋅s&a_{k_1n}\\
0&\hat{a}_{k_22}&⋅s&\hat{a}_{k_2n}\\
\vdots&\vdots&\ddots&\vdots\\0&0&⋅s&\tilde{a}_{k_nn}\\
0&0&⋅s&0\\\vdots&\vdots&\ddots&\vdots\\0&0&⋅s&0\end{bmatrix}.
Некоторые элементы на диагонали и даже над ней могут быть нулевыми, в зависимости от того, как часто ненулевые элементы столбцов выпадали на уже «отложенные» строки. Но как бы там ни было, здесь уже ясно видно, что последние по меньшей мере (m−n) векторов нашего нового базиса — нулевые!

Получается, что мы взяли некоторый базис и, используя только преобразования, которые заведомо оставляют его базисом, пришли к странной системе векторов, среди которых даже есть нулевые и которая поэтому совершенно точно не способна быть базисом. Это противоречит тому, что исходная система векторов \vec{u}_1,\vec{u}_2,…,\vec{u}_m была базисом. Значит, если есть некоторый базис из n векторов, то никакого базиса из m>n векторов существовать не может.

Таким образом, основная теорема о линейной зависимости нами наконец-то доказана.

Теперь мы можем смело заявить, что число n называется размерностью пространства V, если в V существует базис из n векторов; при этом пространство V также называют n-мерным. Размерность пространства обозначается как \mathrm{dim} V.

Кроме того, если в n-мерном V зафиксировать какой-нибудь конкретный базис \vec{v}_1,\vec{v}_2,…,\vec{v}_n, то можно свести любую деятельность в V к деятельности в ℝ^n. Достаточно отождествить любой вектор \vec{v} с его коэффициентами разложения по базису \vec{v}_1,\vec{v}_2,…,\vec{v}_n. Ведь для сложения двух векторов достаточно сложить их коэффициенты, для умножения на число — умножить все коэффициенты на это число. Поэтому любое конечномерное пространство V можно отождествить с пространством ℝ^n с некоторым конкретным n, зависящим от V (а именно равным \mathrm{dim} V).

Таким образом, любая деятельность в n-мерном линейном пространстве может быть сведена к махинациям с матрицами и вектор-столбцами. Поэтому материал этой статьи и статьи о матрицах в дальнейшем будет, скорее всего, существенно пересекаться. Потому также возможны различные подходы к решению одних и тех же задач в линейной алгебре: можно копаться в матрицах и вектор-столбцах, которые легко себе представить и записать, а можно оперировать линейными пространствами, подпространствами, базисами и линейными операторами (о которых речь пойдёт дальше). Представлять себе последние обычно сложнее, но зачастую решения могут стать существенно короче и элегантнее. (Лишний повод разобраться в линейных пространствах особенно ленивым студентам: во многих задачах можно будет меньше писать.)

4. Указатель

© Aleph, 2012–2016. При использовании материалов ссылка на math.siomax.ru обязательна.
Последняя редакция: , Т. Салуев.