Документ взят из кэша поисковой машины. Адрес оригинального документа : http://www.nature.web.ru/db/msg.html?mid=1151602&uri=ch2node2.html
Дата изменения: Unknown
Дата индексирования: Mon Apr 11 14:53:30 2016
Кодировка: Windows-1251
Научная Сеть >> Курс лекций И.М.Гельфанда по линейной алгебре
Rambler's Top100 Service
Поиск   
 
Обратите внимание!   Обратите внимание!
 
  Наука >> Математика >> Алгебра, математическая логика и теория чисел | Курсы лекций
 Посмотреть комментарии[2]  Добавить новое сообщение
next up previous contents index
Next: 11 линейное преобразование, сопряженное Previous: 9 линейные преобразования и

Subsections


10 Инвариантные подпространства, собственные векторы и собственные значения линейного преобразования

1 Инвариантные подпространства.

Пусть $ R_1$ -- подпространство пространства $ R$ и $ A$ -- линейное преобразование в $ R$. Вообще говоря, для произвольного $ x\in R_1$, $ Ax\notin R_1$ 3.1. Например, если $ R$ -- евклидова плоскость, $ R_1$ -- произвольная прямая и $ A$ -- поворот на угол $ \phi=\frac{\strut\pi}{6}$, то очевидно, что для любого $ x\ne 0$ и принадлежащего $ R_1$, $ Ax\notin R_1$. Однако может случиться, что некоторые подпространства переходят сами в себя при линейном преобразовании $ A$. Введем следующие определения.

Определение 10.1   Пусть $ A$ -- линейное преобразование пространства $ R$. Линейное подпространство $ R_1$ называется инвариантным относительно $ A$, если для каждого вектора $ x$ из $ R_1$ вектор $ Ax$ также принадлежит $ R_1$.

При изучении линейного преобразования $ A$ в инвариантном подпространстве $ R_1$ можно, таким образом, рассматривать это преобразование только в $ R_1$.

Тривиальными инвариантными подпространствами являются подпространство, состоящее лишь из нуля, и все пространство.

Примеры   1. Пусть $ R$ -- трехмерное пространство и $ A$ -- поворот вокруг некоторой оси, проходящей через нуль. Инвариантными подпространствами при этом являются: а) ось вращения (одномерное инвариантное подпространство), б) плоскость, проходящая через начало координат и ортогональная к этой оси (двумерное инвариантное подпространство).

2. $ R$ -- плоскость. Преобразование $ A$ заключается в растяжении плоскости в $ \lambda_1$ раз вдоль оси $ X$ и в $ \lambda_2$ раз вдоль оси $ Y$. Иначе говоря, если вектор $ z$ равен $ \xi_1e_1+\xi_2e_2$, то $ Az=\lambda_1\xi_1e_1+\lambda_2\xi_2e_2$, где $ e_1, e_2$ -- единичные векторы на осях. Координатные оси $ X$ и $ Y$ являются в этом случае одномерными инвариантными подпространствами. Если $ \lambda_1=\lambda_2=\lambda$, то $ A$ является преобразованием подобия с коэффициентом подобия $ \lambda $. В этом случае каждая прямая, проходящая через начало координат, является инвариантным подпространством.


Упражнение   Показать, что если $ \lambda_1\ne\lambda_2$, то в примере 2 нет никаких других одномерных инвариантных подпространств, кроме указанных выше.


3. $ R$ -- совокупность многочленов степени не выше $ n-1$. Линейное преобразование $ A$ -- дифференцирование, т.е.

$\displaystyle AP(t)=P'(t).
$

Совокупность многочленов, степень которых меньше или равна $ k$, где $ k\leqslant n-1$, образует инвариантное подпространство. Действительно, дифференцируя многочлен степени $ \leqslant k$, мы получим многочлен, степень которого снова не превосходит $ k$.


Упражнение   Доказать, что в примере 3 никаких инвариантных подпространств, кроме указанных, нет.


4. $ R$ -- произвольное $ n$-мерное пространство. Линейное преобразование $ A$ задается в некотором базисе $ e_1,e_2,\dots,e_n$ матрицей вида

$\displaystyle \arraycolsep3pt
\begin{pmatrix}
a_{11}&\dots&a_{1k}&a_{1,k+1}&\do...
...1,n}\\
\hdotsfor[1.5]{6}\\
0&\dots&0&a_{n,k+1}&\dots&a_{nn}
\end{pmatrix}.
$

В этом случае подпространство $ R_1$, порожденное векторами $ e_1, e_2, \dots, e_k$, инвариантно. Доказательство этого мы предоставляем читателю. Если, кроме того,

$\displaystyle a_{i,k+1}=\ldots=a_{in}=0\quad(1\leqslant i\leqslant k),
$

то подпространство, порожденное векторами $ e_{k+1}, e_{k+2}, \dots, e_n$, также будет инвариантным.

5. $ R$ -- произвольное $ n$-мерное пространство, $ A$ -- произвольное линейное преобразование в этом пространстве.

Тогда образ $ M$ и ядро $ N$ преобразования $ A$ являются инвариантными подпространствами. Действительно, пусть $ y\in M$. Тогда $ Ay\in M$ в силу определения $ M$.

Точно так же, если $ x\in N$, то $ Ax=0\in N$.

Этот простой факт будет использован в дальнейшем при приведении произвольного преобразования к простейшему виду.

Пусть дано пространство $ R$ и линейное преобразование $ A$ в этом пространстве. Предположим, что $ R$ разложимо в прямую сумму двух инвариантных подпространств $ R_1$ размерности $ k$ и $ R_2$ размерности $ n-k$ (см. стр.[*]). Тогда в базисе $ e_1, \dots, e_n$, первые $ k$ векторов которого лежат в $ R_1$, а последние $ (n-k)$ -- в $ R_2$, матрица преобразования $ A$ состоит из двух клеток размерностей $ k$ и $ n-k$, стоящих на диагонали, а на остальных местах стоят нули, т.е.

$\displaystyle \arraycolsep3pt
\boldsymbol{A}=
\begin{pmatrix}
a_{11}&\dots&a_{1...
...{6}\\
\hdotsfor[1.5]{6}\\
0&\dots&0&a_{n,k+1}&\dots&a_{n,n}
\end{pmatrix}.
$

2 Собственные векторы и собственные значения.

Особую роль в дальнейшем будут играть одномерные инвариантные подпространства.

Пусть $ R_1$ -- одномерное подпространство, порожденное вектором $ x\ne 0$ (т.е. совокупность векторов вида $ \alpha x$). Ясно, что для того чтобы $ R_1$ было инвариантным, необходимо и достаточно, чтобы вектор $ Ax$ лежал в $ R_1$, т.е. был кратен вектору $ x$:

$\displaystyle Ax=\lambda x.
$

Определение 10.2   Вектор $ x\ne 0$, удовлетворяющий соотношению $ Ax=\lambda x$, называется собственным вектором, а соответствующее число $ \lambda $ -- собственным значением (характеристическим числом) линейного преобразования $ A$.

Итак, если $ x$ -- собственный вектор, то векторы $ \alpha x$ образуют одномерное инвариантное подпространство.

Обратно, все отличные от нуля векторы одномерного инвариантного подпространства являются собственными.

Теорема 10.1   В комплексном пространстве3.2 $ R$ всякое линейное преобразование $ A$ имеет хотя бы один собственный вектор.

Доказательство. Выберем в $ R$ какой-либо базис $ e_1,e_2,\dots,e_n$. Линейному преобразованию $ A$ в этом базисе соответствует некоторая матрица $ \Vert a_{ik}\Vert$.

Пусть

$\displaystyle x=\xi_1e_1+\xi_2e_2+\ldots+\xi_ne_n$

-- произвольный вектор из $ R$. Тогда координаты $ \eta_1, \eta_2, \dots, \eta_n$ вектора $ Ax$ выражаются следующими формулами (см. п.2 §9):

\begin{displaymath}
\begin{aligned}
\eta_1&=a_{11}\xi_1+a_{12}\xi_2+\ldots+a_{1n...
...ta_n&=a_{n1}\xi_1+a_{n2}\xi_2+\ldots+a_{nn}\xi_n.
\end{aligned}\end{displaymath}

Условие того, что вектор собственный, т.е. равенство

$\displaystyle Ax=\lambda x,
$

записывается в следующем виде:

\begin{displaymath}
\begin{aligned}
a_{11}\xi_1+a_{12}\xi_2+\ldots+a_{1n}\xi_n &...
..._1+a_{n2}\xi_2+\ldots+a_{nn}\xi_n &= \lambda\xi_n
\end{aligned}\end{displaymath}

или

\begin{equation*}\left. \begin{aligned}(a_{11}-\lambda)\xi_1+a_{12}\xi_2+\ldots+...
...2}\xi_2+\ldots+(a_{nn}-\lambda)\xi_n&=0. \end{aligned}  \right\}\end{equation*}

Для доказательства теоремы нужно доказать, таким образом, что существуют число $ \lambda $ и числа $ \xi_1, \xi_2, \dots, \xi_n$, не все равные нулю, удовлетворяющие системе (1).

Условием существования ненулевого решения однородной системы (1) является равенство нулю ее определителя

\begin{equation*}\arraycolsep3pt \begin{vmatrix}a_{11}-\lambda&a_{12}&\dots&a_{1...
...\vskip-1.5pt} a_{n1}&a_{n2}&\dots&a_{nn}-\lambda \end{vmatrix}=0.\end{equation*} (2)

Мы получили уравнение степени $ n$ относительно $ \lambda $. Это уравнение имеет хотя бы один (вообще говоря, комплексный) корень $ \lambda_0$.

Подставив в систему (1) вместо $ \lambda $ корень $ \lambda_0$, мы получим однородную систему линейных уравнений, определитель которой равен нулю, и имеющую, следовательно, ненулевое решение $ \xi_1^{(0)},
\xi_2^{(0)}, \dots, \xi_n^{(0)}$. Тогда вектор

$\displaystyle x^{(0)}=\xi_1^{(0)}e_1+\xi_2^{(0)}e_2+\ldots+\xi_n^{(0)}e_n
$

будет собственным вектором, а $ \lambda_0$ -- собственным значением, так как

$\displaystyle Ax^{(0)}=\lambda_0x^{(0)}.
$

Теорема доказана.\qedsymbol

Замечание   Так как доказательство теоремы остается в силе, если преобразование $ A$ рассматривать не во всем пространстве, а в любом его инвариантном подпространстве, то в любом инвариантном подпространстве существует хотя бы один собственный вектор преобразования $ A$.

Многочлен, стоящий в левой части уравнения (2), называется характеристическим многочленом матрицы преобразования $ A$, а само уравнение (2) характеристическим или вековым уравнением этой матрицы. В процессе доказательства теоремы мы показали, что корни характеристического многочлена суть собственные значения преобразования $ A$ и, обратно, собственные значения преобразования $ A$ суть корни характеристического многочлена.

Так как собственные значения преобразования определены независимо от выбора базиса, то, следовательно, и корни характеристического многочлена также не зависят от выбора базиса. Мы покажем далее несколько больше 3.3, а именно, что сам характеристический многочлен не зависит от выбора базиса, и поэтому мы в дальнейшем будем называть его характеристическим многочленом преобразования $ A$ (а не характеристическим многочленом матрицы преобразования $ A$).

3

Среди линейных преобразований в известном смысле простейшими являются те, которые имеют $ n$ линейно независимых собственных векторов.

Пусть $ A$ -- такое преобразование, а $ e_1,e_2,\dots,e_n$ -- его линейно независимые собственные векторы, т.е.

$\displaystyle Ae_i=\lambda_ie_i\quad(i=1,2,\dots,n).
$

Примем $ e_1,e_2,\dots,e_n$ за базис в $ R$. Равенства

\begin{displaymath}
\begin{aligned}
Ae_1&=\lambda_1e_1,\\
Ae_2&=\lambda_2e_2,\...
...2\leaders\hbox{ . }\hfil\\
Ae_n&=\lambda_ne_n
\end{aligned}\end{displaymath}

означают, что матрица преобразования $ A$ в этом базисе имеет вид

$\displaystyle \arraycolsep3pt
\begin{pmatrix}
\lambda_1&0&\dots&0\\
0&\lambda_2&\dots&0\\
\hdotsfor{4}\\
0&0&\dots&\lambda_n
\end{pmatrix}$

(является диагональной матрицей). Таким образом, имеет место

Теорема 10.2   Если линейное преобразование $ A$ имеет $ n$ линейно независимых собственных векторов, то, выбрав их за базис, мы приведем матрицу преобразования $ A$ к диагональной форме. Обратно, если в некотором базисе матрица преобразования диагональна, то все векторы этого базиса являются собственными векторами.

Замечание   Отметим один важный случай, когда линейное преобразование заведомо имеет $ n$ линейно независимых собственных векторов. Предварительно заметим следующее:

Если $ e_1, e_2, \dots, e_k$ -- собственные векторы преобразования $ A$ и соответствующие им собственные значения $ \lambda_1, \lambda_2, \dots, \lambda_k$, попарно различны, то $ e_1, e_2, \dots, e_k$ линейно независимы.

Для $ k=1$ утверждение очевидно. Пусть наше утверждение верно для $ k-1$ векторов; докажем его для $ k$ векторов. Предположим противное, т.е. предположим, что

$\displaystyle \alpha_1e_1+\alpha_2e_2+\ldots+\alpha_ke_k=0,$ (3)

причем хотя бы один из коэффициентов $ \alpha_i$, например $ \alpha_1$, отличен от нуля.

Применим к обеим частям равенства (3) преобразование $ A$. Получим

$\displaystyle A(\alpha_1e_1+\alpha_2e_2+\ldots+\alpha_ke_k)=0,
$

т.е.

$\displaystyle \alpha_1\lambda_1e_1+\alpha_2\lambda_2e_2+\ldots+
\alpha_k\lambda_ke_k=0.
$

Вычитая из последнего равенства равенство (3), умноженное на $ \lambda_k$, мы получим выражение

$\displaystyle \alpha_1(\lambda_1-\lambda_k)e_1+\alpha_2(\lambda_2-\lambda_k)e_2+
\ldots+\alpha_{k-1}(\lambda_{k-1}-\lambda_k)e_{k-1}=0,
$

где первый коэффициент по-прежнему отличен от нуля (так как по условию $ \lambda_i\ne\lambda_k$ при $ i\ne k$). Мы пришли к противоречию, так как по индуктивному предположению векторы $ e_1, e_2, \dots, e_{k-1}$ линейно независимы. Отсюда непосредственно следует, что:

Если характеристический многочлен преобразования $ A$ имеет $ n$ различных корней, то матрица преобразования $ A$ может быть приведена к диагональной форме.

Действительно, каждому корню $ \lambda_k$ характеристического уравнения отвечает хотя бы один собственный вектор. Так как соответствующие этим векторам собственные значения (корни характеристического уравнения) все различны, то, согласно доказанному выше, мы имеем $ n$ линейно независимых собственных векторов $ e_1,e_2,\dots,e_n$. Если векторы $ e_1,e_2,\dots,e_n$ принять за базис, то матрица преобразования $ A$ будет диагональной.


Если характеристический многочлен имеет кратные корни, то число линейно независимых собственных векторов может быть меньше, чем $ n$. Например, преобразование $ A$ в пространстве многочленов степени не выше $ n-1$, ставящее в соответствие каждому многочлену его производную, имеет лишь одно собственное значение $ \lambda=0$ и один (с точностью до пропорциональности) собственный вектор $ P(t)=\mathrm{const}$. В самом деле, для любого многочлена $ P(t)$ степени $ k>0$ многочлен $ P'(t)$ имеет степень $ k-1$, и потому равенство $ P'(t)=\lambda P(t)$ возможно лишь, если $ \lambda=0$ и $ P(t)=\mathrm{const}$. Следовательно, для этого преобразования не существует базиса, в котором ему соответствовала бы диагональная матрица.


В главе III будет доказано, что если $ \lambda $ есть $ m$-кратный корень характеристического уравнения, то ему отвечает не более чем $ m$ линейно независимых собственных векторов.

Ниже (в §§12 и 13) мы укажем некоторые классы линейных преобразований, приводимых к диагональной форме. Вопросу о том, к какому простейшему виду может быть приведено произвольное линейное преобразование, будет посвящена глава III.

4 Характеристический многочлен.

В п.2 мы уже определили характеристический многочлен преобразования $ A$ как определитель матрицы $ \boldsymbol{A}-\lambda\boldsymbol{E}$, где $ \boldsymbol{A}$ -- матрица преобразования $ A$, а $ \boldsymbol{E}$ -- единичная матрица. Докажем, что характеристический многочлен не зависит от выбора базиса. Действительно, при переходе к другому базису матрица $ \boldsymbol{A}$ преобразования $ A$ принимает вид $ \boldsymbol{C}^{-1}\!\boldsymbol{AC}$, где $ \boldsymbol{C}$ есть матрица перехода к новому базису. Таким образом, в новом базисе характеристический многочлен есть определитель матрицы $ \boldsymbol{C}^{-1}\!\boldsymbol{AC}-\lambda\boldsymbol{E}$. Но

$\displaystyle \vert\boldsymbol{C}^{-1}\!\boldsymbol{AC}-\lambda\boldsymbol{E}\v...
...boldsymbol{C}^{-1}\!(\boldsymbol{A}-\lambda\boldsymbol{E})\boldsymbol{C}\vert,
$

и так как определитель произведения равен произведению определителей, то

$\displaystyle \vert\boldsymbol{C}^{-1}\boldsymbol{AC}-\lambda\boldsymbol{E}\ver...
...\vert\vert\boldsymbol{C}\vert=
\vert\boldsymbol{A}-\lambda\boldsymbol{E}\vert,
$

и утверждение доказано. Таким образом, мы в дальнейшем можем говорить о характеристическом многочлене преобразования $ A$ (а не о характеристическом многочлене матрицы преобразования $ A$).


Упражнения   1. Найти характеристический многочлен матрицы

$\displaystyle \arraycolsep3pt
\begin{pmatrix}
\lambda_0&0&0&\dots&0&0\\
1&\la...
...a_0&\dots&0&0\\
\hdotsfor[1.5]{6}\\
0&0&0&\dots&1&\lambda_0
\end{pmatrix}.
$

2. Найти характеристический многочлен матрицы

$\displaystyle \arraycolsep3pt
\begin{pmatrix}
a_1&a_2&a_3&\dots&a_{n-1}&a_n  ...
...0\\
0&1&0&\dots&0&0\\
\hdotsfor[1.5]{6}\\
0&0&0&\dots&1&0
\end{pmatrix}.
$

Ответ. $ (-1)^n(\lambda^n-a_1\lambda^{n-1}-a_2\lambda^{n-2}-\ldots-a_n)$.


Выразим характеристический многочлен явно через элементы матрицы $ \boldsymbol{A}$ преобразования $ A$. Вычислим сначала более общий определитель (который позже в §12 нам тоже встретится): $ \vert\boldsymbol{A}-\lambda\boldsymbol{B}\vert$, где $ \boldsymbol{A}$ и $ \boldsymbol{B}$ -- две заданные матрицы. Нам нужно, следовательно, вычислить следующий многочлен относительно $ \lambda $:

$\displaystyle Q(\lambda)=
\begin{vmatrix}
a_{11}-\lambda b_{11}&a_{12}-\lambda ...
...ambda b_{n1}&a_{n2}-\lambda b_{n2}&
\dots&a_{nn}-\lambda b_{nn}
\end{vmatrix}.
$

Так как в этом определителе каждый столбец есть сумма двух столбцов, то определитель может быть разложен на сумму определителей. Свободный член в $ Q(\lambda)$ есть

$\displaystyle q_0=\begin{vmatrix}a_{11}&a_{12}&\dots&a_{1n}  a_{21}&a_{22}&\dots&a_{2n}  \hdotsfor[1.5]{4}  a_{n1}&a_{n2}&\dots&a_{nn} \end{vmatrix}.$ (4)

Ясно, что коэффициент при $ (-\lambda)^k$ в $ Q(\lambda)$ равен сумме определителей, каждый из которых получается заменой в (4) каких-либо $ k$ столбцов матрицы $ \Vert a_{ik}\Vert$ соответствующими столбцами матрицы $ \Vert b_{ik}\Vert$.

Перейдем теперь к вычислению $ \vert\boldsymbol{A}-\lambda\boldsymbol{E}\vert$. Для вычисления коэффициента при $ (-\lambda)^k$ мы должны взять сумму определителей, каждый из которых получается заменой $ k$ столбцов матрицы $ \Vert a_{ik}\Vert$ $ k$ столбцами единичной матрицы. Но каждый такой определитель есть главный минор $ (n-k)$-го порядка матрицы  $ \Vert a_{ik}\Vert$. Таким образом, окончательно, характеристический многочлен $ P(\lambda)$ матрицы $ \boldsymbol{A}$ имеет вид

$\displaystyle P(\lambda)=(-1)^n(\lambda^n-p_1\lambda^{n-1}+p_2\lambda^{n-2}-
\ldots \pm p_n),
$

где $ p_1$ есть сумма диагональных элементов, $ p_2$ -- сумма главных миноров второго порядка и т.д.; наконец $ p_n$ есть определитель матрицы  $ \boldsymbol{A}$.

Числа $ p_1, p_2, \dots, p_n$, построенные по матрице  $ \boldsymbol{A}$ преобразования $ A$, зависят лишь от самого преобразования, поскольку этим свойством, как мы показали, обладает характеристический многочлен. Среди коэффициентов $ p_i$ наибольшую роль играют $ p_n$ -- определитель матрицы $ \boldsymbol{A}$ и $ p_1$ -- сумма диагональных элементов матрицы  $ \boldsymbol{A}$. Сумма диагональных элементов матрицы называется следом матрицы  $ \boldsymbol{A}$. След матрицы  $ \boldsymbol{A}$ обозначается $ \operatorname{tr}\boldsymbol{A}$ (от английского слова trace -- след). Ясно, что след матрицы равен сумме всех корней характеристического многочлена (собственных значений), причем каждый корень считается с той кратностью, с которой он входит в характеристический многочлен.


Упражнения   1. Показать, что если $ \boldsymbol{A}$ и $ \boldsymbol{B}$ -- матрицы $ n$-го порядка, то

$\displaystyle \operatorname{tr}\boldsymbol{AB}=\operatorname{tr}\boldsymbol{BA}.
$

2. Показать, что если $ \boldsymbol{C}$ -- невырожденная матрицы $ n$-го порядка, то для любой матрицы $ \boldsymbol{A}$ $ n$-го порядка имеем:

$\displaystyle \operatorname{tr}\boldsymbol{C}^{-1}\!\boldsymbol{AC}=\operatorname{tr}\boldsymbol{A}.
$


Вычисление собственных векторов линейного преобразования требует знания собственных значений и, следовательно, решения уравнения $ n$-й степени -- характеристического уравнения. В одном важном частном случае корни характеристического многочлена можно найти непосредственно.

Если матрица преобразования $ A$ треугольная, т.е. имеет вид

\begin{equation*}\begin{pmatrix}a_{11}&a_{12}&a_{13}&\dots&a_{1n}  0&a_{22}&a_...
...vskip-2pt} \hdotsfor[1.5]{5}  0&0&0&\dots&a_{nn} \end{pmatrix},\end{equation*} (5)

то собственными значениями будут числа, стоящие на диагонали, т.е. $ a_{11}, a_{22}, \dots, a_{nn}$
.

В самом деле, характеристический многочлен данной матрицы вычисляется непосредственно и есть

$\displaystyle P(\lambda)=(a_{11}-\lambda)(a_{22}-\lambda)\dots(a_{nn}-\lambda),
$

и следовательно, его корни -- $ a_{11}, a_{22}, \dots, a_{nn}$.


Упражнение   Найти собственные векторы, отвечающие собственным значениям $ a_{11}, a_{22}, a_{33}$ треугольной матрицы (5).

В заключение этого пункта укажем одно интересное свойство характеристического многочлена. Как мы уже указывали в п.3 предыдущего параграфа, существует такой многочлен $ P(t)$, что если в него подставить вместо $ t$ матрицу  $ \boldsymbol{A}$, то он обратится в нуль. Мы покажем сейчас, что одним из таких многочленов является характеристический многочлен. Докажем предварительно лемму:

Лемма   Пусть многочлен

$\displaystyle P(\lambda)=a_0\lambda^m+a_1\lambda^{m-1}+\ldots+a_m
$

и матрица $ \boldsymbol{A}$ связаны соотношением

$\displaystyle P(\lambda)\boldsymbol{E}= (\boldsymbol{A}-\lambda\boldsymbol{E})\boldsymbol{C}(\lambda),$ (6)

где $ \boldsymbol{C}(\lambda)$ -- многочлен от $ \lambda $, коэффициенты которого являются матрицами, т.е.

$\displaystyle \boldsymbol{C}(\lambda)=
\boldsymbol{C}_0\lambda^{m-1}+\boldsymbol{C}_1\lambda^{m-2}+
\ldots+\boldsymbol{C}_{m-1},\quad\boldsymbol{C}_i$ -- матрицы$\displaystyle .
$

Тогда $ P(\boldsymbol{A})=0$.

Заметим, что эта лемма является обобщением на многочлены с матричными коэффициентами теоремы Безу.

Доказательство. Мы имеем:

$\displaystyle (\boldsymbol{A}-\lambda\boldsymbol{E})\boldsymbol{C}(\lambda)= \b...
...bol{AC}_{m-3}-\boldsymbol{C}_{m-2})\lambda^2+\ldots- \boldsymbol{C}_0\lambda^m.$ (7)

Сравнивая между собой коэффициенты при одинаковых степенях $ \lambda $ в обеих частях равенства (6), мы получаем последовательность равенств:

\begin{displaymath}\begin{aligned}\relax &\boldsymbol{AC}_{m-1}&&&&=a_m\boldsymb...
...{E},  &&&-\boldsymbol{C}_0&&=a_0\boldsymbol{E}. \end{aligned}\end{displaymath}

Умножим теперь слева первое равенство на $ \boldsymbol{E}$, второе на  $ \boldsymbol{A}$, третье на  $ \boldsymbol{A}^2$, $ \dots$, последнее на  $ \boldsymbol{A}^m$ и сложим их. Мы получим справа $ P(\boldsymbol{A})=a_m\boldsymbol{E}+a_{m-1}\boldsymbol{A}+\ldots+
a_0\boldsymbol{A}^m$, а слева 0. Таким образом, $ P(\boldsymbol{A})=0$ и лемма доказана 3.4.\qedsymbol

Теорема 10.3   Если $ P(\lambda)$ -- характеристический многочлен матрицы $ \boldsymbol{A}$, то $ P(\boldsymbol{A})=0$.

Доказательство. Рассмотрим матрицу, обратную матрице $ \boldsymbol{A}-\lambda\boldsymbol{E}$. Мы имеем $ (\boldsymbol{A}-\lambda\boldsymbol{E})(\boldsymbol{A}-
\lambda\boldsymbol{E})^{-1}=\boldsymbol{E}$. Как известно, обратная матрица может быть записана в виде

$\displaystyle (\boldsymbol{A}-\lambda\boldsymbol{E})^{-1}=
\frac{1}{P(\lambda)}\boldsymbol{C}(\lambda),
$

где $ \boldsymbol{C}(\lambda)$ -- матрица из миноров $ (n-1)$-го порядка матрицы $ \boldsymbol{A}-\lambda\boldsymbol{E}$, а $ P(\lambda)$ -- определитель матрицы $ \boldsymbol{A}-\lambda\boldsymbol{E}$, т.е. характеристический многочлен матрицы $ \boldsymbol{A}$. Отсюда

$\displaystyle (\boldsymbol{A}-\lambda\boldsymbol{E})\boldsymbol{C}(\lambda)=
P(\lambda)\boldsymbol{E}.
$

Так как элементами матрицы $ \boldsymbol{C}(\lambda)$ являются миноры матрицы $ \boldsymbol{A}-\lambda\boldsymbol{E}$, т.е. многочлены степени не выше $ n-1$ относительно $ \lambda $, то согласно доказанной лемме

$\displaystyle P(\boldsymbol{A})=0,
$

и теорема доказана.\qedsymbol

Заметим, что если у характеристического многочлена матрицы  $ \boldsymbol{A}$ нет кратных корней, то не существует многочлена степени ниже $ n$, обращающегося в нуль при подстановке в него матрицы  $ \boldsymbol{A}$ (см. следующее упражнение).

Упражнение   Пусть $ \boldsymbol{A}$ -- диагональная матрица вида

$\displaystyle \arraycolsep2pt
\boldsymbol{A}=
\begin{pmatrix}
\lambda_1&0&\dots...
...\lambda_2&\dots&0\\
\hdotsfor[1.5]{4}\\
0&0&\dots&\lambda_n
\end{pmatrix},
$

где все числа $ \lambda_i$ различны. Найти многочлен $ P(t)$ возможно более низкой степени, для которого $ P(\boldsymbol{A})=0$. (См. пример в §9, п.3.)



next up previous contents index
Next: 11 линейное преобразование, сопряженное Previous: 9 линейные преобразования и Vadim Yu. Radionov
2000-08-30


Посмотреть комментарии[2]
 Copyright © 2000-2015, РОО "Мир Науки и Культуры". ISSN 1684-9876 Rambler's Top100 Яндекс цитирования