Обобщённый собственный вектор
Обобщённый собственный вектор [math]\displaystyle{ n\times n }[/math] матрицы [math]\displaystyle{ A }[/math] — вектор, который удовлетворяет определённым критериям, которые слабее, чем критерии для (обычных) собственных векторов[1].
Пусть [math]\displaystyle{ V }[/math] будет [math]\displaystyle{ n }[/math]-мерным векторным пространством. Пусть [math]\displaystyle{ \phi }[/math] будет линейным отображением в [math]\displaystyle{ L(V) }[/math], множества всех линейных отображений из [math]\displaystyle{ V }[/math] в себя. Пусть [math]\displaystyle{ A }[/math] будет матричным представлением отображения [math]\displaystyle{ \phi }[/math] для некоторого упорядоченного базиса.
Может не существовать полного набора [math]\displaystyle{ n }[/math] линейно независимых собственных векторов матрицы [math]\displaystyle{ A }[/math], которые образуют полный базис для [math]\displaystyle{ V }[/math]. То есть, матрица [math]\displaystyle{ A }[/math] не может быть диагонализирована[2][3]. Это происходит, когда алгебраическая кратность по меньшей мере одного собственного значения [math]\displaystyle{ \lambda_i }[/math] больше, чем его геометрическая кратность (степень вырожденности матрицы [math]\displaystyle{ (A-\lambda_i E) }[/math], или размерность его ядра). В этом случае [math]\displaystyle{ \lambda_i }[/math] называется дефектным собственным значением[англ.], а сама матрица [math]\displaystyle{ A }[/math] называется дефектной матрицей[англ.][4].
Обобщённый собственный вектор [math]\displaystyle{ x_i }[/math], соответствующий [math]\displaystyle{ \lambda_i }[/math], вместе с матрицей [math]\displaystyle{ (A-\lambda_i E) }[/math] образует цепочку Жордана линейно независимых обобщённых собственных векторов, которые образуют базис для инвариантного подпространства пространства [math]\displaystyle{ V }[/math][5][6][7].
Используя обобщённые собственные векторы, множество линейно независимых собственных векторов матрицы [math]\displaystyle{ A }[/math] может быть расширено, если необходимо, до полного базиса для [math]\displaystyle{ V }[/math][8]. Этот базис можно использовать для определения «почти диагональной матрицы» [math]\displaystyle{ J }[/math] в жордановой нормальной форме, подобной матрице [math]\displaystyle{ A }[/math], что применяется при вычислении определённых матричных функций от [math]\displaystyle{ A }[/math][1]. Матрица [math]\displaystyle{ J }[/math] также применяется при решении системы линейных дифференциальных уравнений [math]\displaystyle{ \mathbf x' = A \mathbf x }[/math], где [math]\displaystyle{ A }[/math] не обязательно диагонализируема[9][3].
Размерность обобщённого собственного пространства, соответствующего заданному собственному значению [math]\displaystyle{ \lambda }[/math], равна алгебраической кратности [math]\displaystyle{ \lambda }[/math][8].
Обзор и определение
Имеется несколько эквивалентных путей определения обычного собственного вектора[10][11][12][13][14][15][16][17]. Для наших целей собственным вектором [math]\displaystyle{ \mathbf u }[/math], ассоциированным с собственным значением [math]\displaystyle{ \lambda }[/math] [math]\displaystyle{ n \times n }[/math] матрицы [math]\displaystyle{ A }[/math], является ненулевой вектор, для которого [math]\displaystyle{ (A - \lambda E) \mathbf u = \mathbf 0 }[/math], где [math]\displaystyle{ E }[/math] является [math]\displaystyle{ n \times n }[/math] единичной матрицей, а [math]\displaystyle{ \mathbf 0 }[/math] является нулевым вектором длины [math]\displaystyle{ n }[/math][12]. То есть, [math]\displaystyle{ \mathbf u }[/math] является ядром преобразования [math]\displaystyle{ (A - \lambda E) }[/math]. Если [math]\displaystyle{ A }[/math] имеет [math]\displaystyle{ n }[/math] линейно независимых собственных векторов, то [math]\displaystyle{ A }[/math] подобна диагональной матрице [math]\displaystyle{ D }[/math]. То есть, существует невырожденная матрица [math]\displaystyle{ M }[/math], такая что [math]\displaystyle{ A }[/math] диагонализируема с помощью преобразование подобия [math]\displaystyle{ D = M^{-1}AM }[/math][18][19]. Матрица [math]\displaystyle{ D }[/math] называется спектральной матрицей[англ.] матрицы [math]\displaystyle{ A }[/math]. Матрица [math]\displaystyle{ M }[/math] называется модальной матрицей[англ.] матрицы [math]\displaystyle{ A }[/math][20]. Диагонализируемые матрицы представляют определённый интерес, поскольку матричные функции от неё могут быть легко вычислены[21].
С другой стороны, если матрица [math]\displaystyle{ A }[/math] не имеет [math]\displaystyle{ n }[/math] линейно независимых собственных векторов, ассоциированных с ней, то [math]\displaystyle{ A }[/math] не диагонализируема[18][19].
Определение: Вектор [math]\displaystyle{ \mathbf x_m }[/math] является обобщённым собственным вектором ранга [math]\displaystyle{ m }[/math] матрицы [math]\displaystyle{ A }[/math], соответствующим собственному значению [math]\displaystyle{ \lambda }[/math], если:
- [math]\displaystyle{ (A - \lambda E)^m \mathbf x_m = \mathbf 0~, }[/math]
но
- [math]\displaystyle{ (A - \lambda E)^{m-1} \mathbf x_m \ne \mathbf 0 ~. }[/math] [1].
Обобщённый собственный вектор ранга 1 является обычным собственным вектором[22]. Любая [math]\displaystyle{ n \times n }[/math] матрица [math]\displaystyle{ A }[/math] имеет [math]\displaystyle{ n }[/math] линейно независимых обобщённых собственных векторов, ассоциированных с ней, и можно показать, что она подобна «почти диагональной» матрице [math]\displaystyle{ J }[/math] в жордановой нормальной форме[23]. То есть, существует обратимая матрица [math]\displaystyle{ M }[/math], такая что [math]\displaystyle{ J = M^{-1}AM }[/math][24]. Матрица [math]\displaystyle{ M }[/math] в этом случае называется обобщённой модальной матрицей[англ.] матрицы [math]\displaystyle{ A }[/math][25]. Если [math]\displaystyle{ \lambda }[/math] является собственным значением с алгебраической кратностью [math]\displaystyle{ \mu }[/math], то [math]\displaystyle{ A }[/math] будет иметь [math]\displaystyle{ \mu }[/math] линейно независимых обобщённых собственных векторов, соответствующих [math]\displaystyle{ \lambda }[/math][8]. Эти результаты, в свою очередь, предоставляют метод вычисления определённых матричных функций от [math]\displaystyle{ A }[/math][26].
Примечание: Для того, что бы [math]\displaystyle{ n \times n }[/math] матрица [math]\displaystyle{ A }[/math] над полем [math]\displaystyle{ F }[/math] могла быть выражена в жордановой нормальной форме, все собственные значения матрицы [math]\displaystyle{ A }[/math] должны быть в [math]\displaystyle{ F }[/math]. То есть, характеристический многочлен [math]\displaystyle{ f(x) }[/math] должен разлагаться полностью на линейные множители. Альтернативный пример: если матрица [math]\displaystyle{ A }[/math] состоит из вещественных элементов, может оказаться, что собственные значения и компоненты собственных векторов будут содержать мнимые значения[4][27][3].
Линейная оболочка всех обобщённых собственных векторов для данного [math]\displaystyle{ \lambda }[/math] образует обобщённое собственное пространство для [math]\displaystyle{ \lambda }[/math][3].
Примеры
Несколько примеров для иллюстрации концепции обобщённых собственных векторов. Некоторые детали будут описаны ниже.
Пример 1
Представленный ниже тип матрицы часто используется в учебниках[3][28][2]. Возьмём матрицу
- [math]\displaystyle{ A = \begin{pmatrix} 1 & 1\\ 0 & 1 \end{pmatrix}~. }[/math]
Тогда имеется только одно собственное значение, [math]\displaystyle{ \lambda = 1 }[/math], и его алгебраическая кратность [math]\displaystyle{ m = 2 }[/math].
Заметим, что эта матрица имеет жорданову нормальную форму, но не диагональна. Следовательно, эта матрица не диагонализируема. Поскольку наддиагональ содержит один элемент, имеется один обобщённый собственный вектор ранга, большего 1 (заметим, что векторное пространство [math]\displaystyle{ V }[/math] имеет размерность 2, так что может быть не более одного обобщённого собственного вектора ранга, большего 1). Можно также вычислить размерность ядра матрицы [math]\displaystyle{ A - \lambda E }[/math], которая равняется [math]\displaystyle{ p = 1 }[/math], тогда имеется [math]\displaystyle{ m - p = 1 }[/math] обобщённых собственных векторов ранга, большего 1.
Обыкновенный собственный вектор [math]\displaystyle{ \mathbf v_1=\begin{pmatrix}1 \\0 \end{pmatrix} }[/math] вычисляется стандартным методом (см. статью Собственный вектор). Используя этот собственный вектор определяется обобщённый собственный вектор [math]\displaystyle{ \mathbf v_2 }[/math] путём решения уравнения:
- [math]\displaystyle{ (A-\lambda E) \mathbf v_2 = \mathbf v_1~. }[/math]
Выписывая значения:
- [math]\displaystyle{ \left(\begin{pmatrix} 1 & 1\\ 0 & 1 \end{pmatrix} - 1 \begin{pmatrix} 1 & 0\\ 0 & 1 \end{pmatrix}\right)\begin{pmatrix}v_{21} \\v_{22} \end{pmatrix} = \begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix} \begin{pmatrix}v_{21} \\v_{22} \end{pmatrix} = \begin{pmatrix}1 \\0 \end{pmatrix}~. }[/math]
Это выражение упрощается до:
- [math]\displaystyle{ v_{22}= 1~. }[/math]
Элемент [math]\displaystyle{ v_{21} }[/math] не имеет ограничений. Обобщённый собственный вектор ранга 2 равен тогда [math]\displaystyle{ \mathbf v_2=\begin{pmatrix}a \\1 \end{pmatrix} }[/math], где [math]\displaystyle{ a }[/math] может иметь любое скалярное значение. Выбор [math]\displaystyle{ a = 0 }[/math] является, как правило, простейшим.
При этом:
- [math]\displaystyle{ (A-\lambda E) \mathbf v_2 = \begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix} \begin{pmatrix}a \\1 \end{pmatrix} = \begin{pmatrix}1 \\0 \end{pmatrix} = \mathbf v_1~, }[/math]
так что [math]\displaystyle{ \mathbf v_2 }[/math] является обобщённым собственным вектором,
- [math]\displaystyle{ (A-\lambda E) \mathbf v_1 = \begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix} \begin{pmatrix}1 \\0 \end{pmatrix} = \begin{pmatrix}0 \\0 \end{pmatrix} = \mathbf 0~, }[/math]
так что [math]\displaystyle{ \mathbf v_1 }[/math] является обычным собственным вектором, а [math]\displaystyle{ \mathbf v_1 }[/math] и [math]\displaystyle{ \mathbf v_2 }[/math] являются линейно независимыми, и, следовательно, образуют базис для векторного пространства [math]\displaystyle{ V }[/math].
Пример 2
Следующий пример несколько сложнее примера 1, но также небольшого размера[29]. Матрица
- [math]\displaystyle{ A = \begin{pmatrix} 1 & 0 & 0 & 0 & 0 \\ 3 & 1 & 0 & 0 & 0 \\ 6 & 3 & 2 & 0 & 0 \\ 10 & 6 & 3 & 2 & 0 \\ 15 & 10 & 6 & 3 & 2 \end{pmatrix} }[/math]
имеет собственные значения [math]\displaystyle{ \lambda_1 = 1 }[/math] и [math]\displaystyle{ \lambda_2 = 2 }[/math] с алгебраическими кратностями [math]\displaystyle{ \mu_1 = 2 }[/math] и [math]\displaystyle{ \mu_2 = 3 }[/math], но геометрические кратности будут равны [math]\displaystyle{ \gamma_1 = 1 }[/math] и[math]\displaystyle{ \gamma_2 = 1 }[/math].
Обобщённое собственное подпространство матрицы [math]\displaystyle{ A }[/math] вычисляется ниже. [math]\displaystyle{ \mathbf x_1 }[/math] является обычным собственным вектором, ассоциированным с [math]\displaystyle{ \lambda_1 }[/math]. [math]\displaystyle{ \mathbf x_2 }[/math] является обобщённым собственным вектором, ассоциированным с [math]\displaystyle{ \lambda_1 }[/math]. [math]\displaystyle{ \mathbf y_1 }[/math] является обобщённым собственным вектором, ассоциированным с [math]\displaystyle{ \lambda_2 }[/math]. [math]\displaystyle{ \mathbf y_2 }[/math] и [math]\displaystyle{ \mathbf y_3 }[/math] являются обобщёнными собственными векторами, ассоциированными с [math]\displaystyle{ \lambda_2 }[/math].
- [math]\displaystyle{ (A-1 E) \mathbf x_1 = \begin{pmatrix} 0 & 0 & 0 & 0 & 0 \\ 3 & 0 & 0 & 0 & 0 \\ 6 & 3 & 1 & 0 & 0 \\ 10 & 6 & 3 & 1 & 0 \\ 15 & 10 & 6 & 3 & 1 \end{pmatrix}\begin{pmatrix} 0 \\ 3 \\ -9 \\ 9 \\ -3 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 0 \end{pmatrix} = \mathbf 0 ~, }[/math]
- [math]\displaystyle{ (A - 1 E) \mathbf x_2 = \begin{pmatrix} 0 & 0 & 0 & 0 & 0 \\ 3 & 0 & 0 & 0 & 0 \\ 6 & 3 & 1 & 0 & 0 \\ 10 & 6 & 3 & 1 & 0 \\ 15 & 10 & 6 & 3 & 1 \end{pmatrix} \begin{pmatrix} 1 \\ -15 \\ 30 \\ -1 \\ -45 \end{pmatrix} = \begin{pmatrix} 0 \\ 3 \\ -9 \\ 9 \\ -3 \end{pmatrix} = \mathbf x_1 ~, }[/math]
- [math]\displaystyle{ (A - 2 E) \mathbf y_1 = \begin{pmatrix} -1 & 0 & 0 & 0 & 0 \\ 3 & -1 & 0 & 0 & 0 \\ 6 & 3 & 0 & 0 & 0 \\ 10 & 6 & 3 & 0 & 0 \\ 15 & 10 & 6 & 3 & 0 \end{pmatrix} \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 9 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 0 \end{pmatrix} = \mathbf 0 ~, }[/math]
- [math]\displaystyle{ (A - 2 E) \mathbf y_2 = \begin{pmatrix} -1 & 0 & 0 & 0 & 0 \\ 3 & -1 & 0 & 0 & 0 \\ 6 & 3 & 0 & 0 & 0 \\ 10 & 6 & 3 & 0 & 0 \\ 15 & 10 & 6 & 3 & 0 \end{pmatrix} \begin{pmatrix} 0 \\ 0 \\ 0 \\ 3 \\ 0 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 9 \end{pmatrix} = \mathbf y_1 ~, }[/math]
- [math]\displaystyle{ (A - 2 E) \mathbf y_3 = \begin{pmatrix} -1 & 0 & 0 & 0 & 0 \\ 3 & -1 & 0 & 0 & 0 \\ 6 & 3 & 0 & 0 & 0 \\ 10 & 6 & 3 & 0 & 0 \\ 15 & 10 & 6 & 3 & 0 \end{pmatrix} \begin{pmatrix} 0 \\ 0 \\ 1 \\ -2 \\ 0 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \\ 3 \\ 0 \end{pmatrix} = \mathbf y_2 ~. }[/math]
Получаем базис для каждого из обобщённых собственных пространств матрицы [math]\displaystyle{ A }[/math]. Вместе линейные комбинации двух цепочек обобщённых собственных векторов заполняют пространство всех 5-мерных векторов-столбцов:
- [math]\displaystyle{ \left\{ \mathbf x_1, \mathbf x_2 \right\} = \left\{ \begin{pmatrix} 0 \\ 3 \\ -9 \\ 9 \\ -3 \end{pmatrix} \begin{pmatrix} 1 \\ -15 \\ 30 \\ -1 \\ -45 \end{pmatrix} \right\}~, \left\{ \mathbf y_1, \mathbf y_2, \mathbf y_3 \right\} = \left\{ \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 9 \end{pmatrix} \begin{pmatrix} 0 \\ 0 \\ 0 \\ 3 \\ 0 \end{pmatrix} \begin{pmatrix} 0 \\ 0 \\ 1 \\ -2 \\ 0 \end{pmatrix} \right\}~. }[/math]
«Почти диагональная» матрица [math]\displaystyle{ J }[/math] в жордановой нормальной форме, подобная [math]\displaystyle{ A }[/math], получается следующим образом:
- [math]\displaystyle{ M = \begin{pmatrix} \mathbf x_1 & \mathbf x_2 & \mathbf y_1 & \mathbf y_2 & \mathbf y_3 \end{pmatrix} = \begin{pmatrix} 0 & 1 & 0 &0& 0 \\ 3 & -15 & 0 &0& 0 \\ -9 & 30 & 0 &0& 1 \\ 9 & -1 & 0 &3& -2 \\ -3 & -45 & 9 &0& 0 \end{pmatrix}~, }[/math]
- [math]\displaystyle{ J = \begin{pmatrix} 1 & 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 & 0 \\ 0 & 0 & 2 & 1 & 0 \\ 0 & 0 & 0 & 2 & 1 \\ 0 & 0 & 0 & 0 & 2 \end{pmatrix}~, }[/math]
где [math]\displaystyle{ M }[/math] является обобщённой модальной матрицей[англ.] матрицы [math]\displaystyle{ A }[/math], столбцы матрицы [math]\displaystyle{ M }[/math] являются каноническим базисом[англ.] матрицы [math]\displaystyle{ A }[/math], и [math]\displaystyle{ AM = MJ }[/math][30].
Цепочки Жордана
Определение: Пусть [math]\displaystyle{ \mathbf x_m }[/math] будет обобщённым собственным вектором ранга [math]\displaystyle{ m }[/math], соответствующим матрице [math]\displaystyle{ A }[/math] и собственному значению [math]\displaystyle{ \lambda }[/math]. Цепочка, образованная вектором [math]\displaystyle{ \mathbf x_m }[/math] — это набор векторов [math]\displaystyle{ \left\{ \mathbf x_m, \mathbf x_{m-1}, \dots , \mathbf x_1 \right\} }[/math], определённых выражением:
[math]\displaystyle{ \mathbf x_{m-1} = (A - \lambda E) \mathbf x_m~, }[/math]
[math]\displaystyle{ \mathbf x_1 = (A - \lambda E)^{m-1} \mathbf x_m = (A - \lambda E) \mathbf x_2~. }[/math] |
(1) |
Тогда:
[math]\displaystyle{ \mathbf x_j = (A - \lambda E)^{m-j} \mathbf x_m = (A - \lambda E) \mathbf x_{j+1} \qquad (j = 1, 2, \dots , m - 1)~. }[/math] | (2) |
Вектор [math]\displaystyle{ \mathbf x_j }[/math], заданный формулой (2), является обобщённым собственным вектором ранга [math]\displaystyle{ j }[/math], соответствующим собственному значению [math]\displaystyle{ \lambda }[/math]. Цепочка является набором линейно независимых векторов[6].
Канонический базис
Определение: Набор [math]\displaystyle{ n }[/math] линейно независимых обобщённых собственных векторов является каноническим базисом, если набор полностью состоит из цепочек Жордана.
Таким образом, если обобщённый собственный вектор ранга [math]\displaystyle{ m }[/math] находится в каноническом базисе, то [math]\displaystyle{ m - 1 }[/math] векторов [math]\displaystyle{ \mathbf x_{m-1}, \mathbf x_{m-2}, \ldots , \mathbf x_1 }[/math], находящихся в цепочке Жордана, образованной [math]\displaystyle{ \mathbf x_m }[/math], также находятся в каноническом базисе[31].
Пусть [math]\displaystyle{ \lambda_i }[/math] будет собственным значением матрицы [math]\displaystyle{ A }[/math] с алгебраической кратностью [math]\displaystyle{ \mu_i }[/math]. Найдём (матричные) ранги матриц [math]\displaystyle{ (A - \lambda_i E), (A - \lambda_i E)^2, \ldots , (A - \lambda_i E)^{m_i} }[/math]. Целое число [math]\displaystyle{ m_i }[/math] определяется как первое число, для которого [math]\displaystyle{ (A - \lambda_i R)^{m_i} }[/math] имеет ранг [math]\displaystyle{ n - \mu_i }[/math] (здесь [math]\displaystyle{ n }[/math] равно числу строк или столбцов матрицы [math]\displaystyle{ A }[/math], то есть, матрица [math]\displaystyle{ A }[/math] имеет размер [math]\displaystyle{ n \times n }[/math]).
Далее определим:
- [math]\displaystyle{ \rho_k = \operatorname{rank}(A - \lambda_i E)^{k-1} - \operatorname{rank}(A - \lambda_i E)^k \qquad (k = 1, 2, \ldots , m_i)~. }[/math]
Переменная [math]\displaystyle{ \rho_k }[/math] обозначает число линейно независимых обобщённых собственных векторов ранга [math]\displaystyle{ k }[/math], соответствующих собственному значению [math]\displaystyle{ \lambda_i }[/math], которые появятся в каноническом базисе матрицы [math]\displaystyle{ A }[/math]. При этом:
- [math]\displaystyle{ \operatorname{rank}(A - \lambda_i E)^0 = \operatorname{rank}(E) = n }[/math][32].
Вычисление обобщённых собственных векторов
В предыдущих разделах представлены техники получения [math]\displaystyle{ n }[/math] линейно независимых обобщённых собственных векторов канонического базиса для векторного пространства [math]\displaystyle{ V }[/math], ассоциированного с [math]\displaystyle{ n \times n }[/math] матрицей [math]\displaystyle{ A }[/math]. Эти техники могут быть собраны в процедуре:
- Решаем характеристический многочлен матрицы [math]\displaystyle{ A }[/math], чтобы получить собственные значения [math]\displaystyle{ \lambda_i }[/math] и их алгебраические кратности [math]\displaystyle{ \mu_i }[/math];
- Для каждого [math]\displaystyle{ \lambda_i }[/math]:
- Определяем [math]\displaystyle{ n - \mu_i }[/math];
- Определяем [math]\displaystyle{ m_i }[/math];
- Определяем [math]\displaystyle{ \rho_k }[/math] для [math]\displaystyle{ (k = 1, \ldots , m_i) }[/math];
- Определяем каждую жорданову цепь для [math]\displaystyle{ \lambda_i }[/math].
Пример 3
Матрица
- [math]\displaystyle{ A = \begin{pmatrix} 5 & 1 & -2 & 4 \\ 0 & 5 & 2 & 2 \\ 0 & 0 & 5 & 3 \\ 0 & 0 & 0 & 4 \end{pmatrix} }[/math]
имеет собственное значение [math]\displaystyle{ \lambda_1 = 5 }[/math] с алгебраической кратностью [math]\displaystyle{ \mu_1 = 3 }[/math] и собственное значение [math]\displaystyle{ \lambda_2 = 4 }[/math] с алгебраической кратностью [math]\displaystyle{ \mu_2 = 1 }[/math], при этом [math]\displaystyle{ n=4 }[/math]. Для каждого [math]\displaystyle{ \lambda_1 }[/math] выполняется: [math]\displaystyle{ n - \mu_1 = 4 - 3 = 1 }[/math].
- [math]\displaystyle{ (A - 5E) = \begin{pmatrix} 0 & 1 & -2 & 4 \\ 0 & 0 & 2 & 2 \\ 0 & 0 & 0 & 3 \\ 0 & 0 & 0 & -1 \end{pmatrix}~, \qquad \operatorname{rank}(A - 5E) = 3~. }[/math]
- [math]\displaystyle{ (A - 5 E)^2 = \begin{pmatrix} 0 & 0 & 2 & -8 \\ 0 & 0 & 0 & 4 \\ 0 & 0 & 0 & -3 \\ 0 & 0 & 0 & 1 \end{pmatrix}~, \qquad \operatorname{rank}(A - 5E)^2 = 2~. }[/math]
- [math]\displaystyle{ (A - 5E)^3 = \begin{pmatrix} 0 & 0 & 0 & 14 \\ 0 & 0 & 0 & -4 \\ 0 & 0 & 0 & 3 \\ 0 & 0 & 0 & -1 \end{pmatrix}~, \qquad \operatorname{rank}(A - 5E)^3 = 1~. }[/math]
Первое целое [math]\displaystyle{ m_1 }[/math], для которого [math]\displaystyle{ (A - 5E)^{m_1} }[/math] имеет ранг [math]\displaystyle{ n - \mu_1 = 1 }[/math], равно [math]\displaystyle{ m_1 = 3 }[/math].
Далее определяем:
- [math]\displaystyle{ \rho_3 = \operatorname{rank}(A - 5E)^2 - \operatorname{rank}(A - 5E)^3 = 2 - 1 = 1 ~, }[/math]
- [math]\displaystyle{ \rho_2 = \operatorname{rank}(A - 5E)^1 - \operatorname{rank}(A - 5E)^2 = 3 - 2 = 1 ~, }[/math]
- [math]\displaystyle{ \rho_1 = \operatorname{rank}(A - 5E)^0 - \operatorname{rank}(A - 5E)^1 = 4 - 3 = 1 ~. }[/math]
Следовательно, будет три линейно независимых обобщённых собственных вектора, по одному из рангов 3, 2 и 1. Поскольку [math]\displaystyle{ \lambda_1 }[/math] соответствует одной цепи из трёх линейно независимых обобщённых собственных векторов, существует обобщённый собственный вектор [math]\displaystyle{ \mathbf x_3 }[/math] ранга 3, соответствующий [math]\displaystyle{ \lambda_1 }[/math], такой что:
[math]\displaystyle{ (A - 5E)^3 \mathbf x_3 = \mathbf 0~, }[/math] | (3) |
но:
[math]\displaystyle{ (A - 5E)^2 \mathbf x_3\neq \mathbf 0 ~. }[/math] | (4) |
Выражения (3) и (4) представляют линейную систему, которую можно решить относительно [math]\displaystyle{ \mathbf x_3 }[/math]. Пусть
- [math]\displaystyle{ \mathbf x_3 = \begin{pmatrix} x_{31} \\ x_{32} \\ x_{33} \\ x_{34} \end{pmatrix}~. }[/math]
Тогда:
- [math]\displaystyle{ (A - 5E)^3 \mathbf x_3 = \begin{pmatrix} 0 & 0 & 0 & 14 \\ 0 & 0 & 0 & -4 \\ 0 & 0 & 0 & 3 \\ 0 & 0 & 0 & -1 \end{pmatrix} \begin{pmatrix} x_{31} \\ x_{32} \\ x_{33} \\ x_{34} \end{pmatrix} = \begin{pmatrix} 14 x_{34} \\ -4 x_{34} \\ 3 x_{34} \\ - x_{34} \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \end{pmatrix} }[/math]
и
- [math]\displaystyle{ (A - 5E)^2 \mathbf x_3 = \begin{pmatrix} 0 & 0 & 2 & -8 \\ 0 & 0 & 0 & 4 \\ 0 & 0 & 0 & -3 \\ 0 & 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} x_{31} \\ x_{32} \\ x_{33} \\ x_{34} \end{pmatrix} = \begin{pmatrix} 2 x_{33} - 8 x_{34} \\ 4 x_{34} \\ -3 x_{34} \\ x_{34} \end{pmatrix} \ne \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \end{pmatrix}~. }[/math]
Тогда, чтобы удовлетворить условиям (3) и (4), необходимо иметь [math]\displaystyle{ x_{34} = 0 }[/math] и [math]\displaystyle{ x_{33} \ne 0 }[/math]. Никакие ограничения не накладываются на [math]\displaystyle{ x_{31} }[/math] и [math]\displaystyle{ x_{32} }[/math]. Выбрав [math]\displaystyle{ x_{31} = x_{32} = x_{34} = 0, x_{33} = 1 }[/math], получим:
- [math]\displaystyle{ \mathbf x_3 = \begin{pmatrix} 0 \\ 0 \\ 1 \\ 0 \end{pmatrix}~, }[/math]
как обобщённый собственный вектор ранга 3, соответствующий [math]\displaystyle{ \lambda_1 = 5 }[/math]. Можно получить бесконечно много других обобщённых собственных векторов ранга 3, выбрав другие значения [math]\displaystyle{ x_{31} }[/math], [math]\displaystyle{ x_{32} }[/math] и [math]\displaystyle{ x_{33} }[/math] при [math]\displaystyle{ x_{33} \ne 0 }[/math]. Сделанный выбор, однако, самый простой[33].
Теперь, используя равенства (1), получим [math]\displaystyle{ \mathbf x_2 }[/math] и [math]\displaystyle{ \mathbf x_1 }[/math] как обобщённые собственные векторе ранга 2 и 1 соответственно, где:
- [math]\displaystyle{ \mathbf x_2 = (A - 5E) \mathbf x_3 = \begin{pmatrix} -2 \\ 2 \\ 0 \\ 0 \end{pmatrix} }[/math]
и
- [math]\displaystyle{ \mathbf x_1 = (A - 5E) \mathbf x_2 = \begin{pmatrix} 2 \\ 0 \\ 0 \\ 0 \end{pmatrix}~. }[/math]
Некратное собственное значение [math]\displaystyle{ \lambda_2 = 4 }[/math] может быть вычислено с помощью стандартных техник и оно соответствует обычному собственному вектору:
- [math]\displaystyle{ \mathbf y_1 = \begin{pmatrix} -14 \\ 4 \\ -3 \\ 1 \end{pmatrix}~. }[/math]
Каноническим базисом матрицы [math]\displaystyle{ A }[/math] будет:
- [math]\displaystyle{ \left\{ \mathbf x_3, \mathbf x_2, \mathbf x_1, \mathbf y_1 \right\} = \left\{ \begin{pmatrix} 0 \\ 0 \\ 1 \\ 0 \end{pmatrix} \begin{pmatrix} -2 \\ 2 \\ 0 \\ 0 \end{pmatrix} \begin{pmatrix} 2 \\ 0 \\ 0 \\ 0 \end{pmatrix} \begin{pmatrix} -14 \\ 4 \\ -3 \\ 1 \end{pmatrix} \right\}~. }[/math]
[math]\displaystyle{ \mathbf x_1, \mathbf x_2 }[/math] и [math]\displaystyle{ \mathbf x_3 }[/math] будут обобщёнными собственными векторами, ассоциированными с [math]\displaystyle{ \lambda_1 }[/math], в то время как [math]\displaystyle{ \mathbf y_1 }[/math] является обычным собственным вектором, ассоциированным с [math]\displaystyle{ \lambda_2 }[/math].
Это довольно простой пример. В общем случае количества [math]\displaystyle{ \rho_k }[/math] линейно независимых обобщённых собственных векторов ранга [math]\displaystyle{ k }[/math] не всегда будут одинаковыми. То есть, могут быть цепочки с разными длинами соответствующих собственных значений[34].
Обобщённая модальная матрица
Пусть [math]\displaystyle{ A }[/math] является [math]\displaystyle{ n \times n }[/math] матрицей. Обобщённая модальная матрица [math]\displaystyle{ M }[/math] для [math]\displaystyle{ A }[/math] — это [math]\displaystyle{ n \times n }[/math] матрица, столбцы которой, рассматриваемые как вектора, образуют канонический базис матрицы [math]\displaystyle{ A }[/math] и появляются в [math]\displaystyle{ M }[/math] по следующим правилам:
- Все цепочки Жордана, состоящие из одного вектора (то есть, длиной в один вектор) появляются в первом столбце матрицы [math]\displaystyle{ M }[/math].
- Все вектора одной цепочки появляются вместе в смежных столбцах матрицы [math]\displaystyle{ M }[/math].
- Каждая цепочка появляется в [math]\displaystyle{ M }[/math] в порядке увеличения ранга (то есть, обобщённый собственный вектор ранга 1 появляется до обобщённого собственного вектора ранга 2 той же цепочки, этот вектор появляется до обобщённого собственного вектора ранга 3 той же цепочки, и т. д.)[25].
Жорданова нормальная форма
Пусть [math]\displaystyle{ V }[/math] является [math]\displaystyle{ n }[/math]-мерным векторным пространством. Пусть [math]\displaystyle{ \phi }[/math] будет линейным отображением из [math]\displaystyle{ L(V }[/math]), множества всех линейных отображений из [math]\displaystyle{ V }[/math] в себя. Пусть [math]\displaystyle{ A }[/math] будет матричным представлением [math]\displaystyle{ \phi }[/math] для некоторого упорядоченного базиса. Можно показать, что если характеристический многочлен [math]\displaystyle{ f(\lambda) }[/math] матрицы [math]\displaystyle{ A }[/math] разлагается на линейные множители, так что [math]\displaystyle{ f(\lambda) }[/math] имеет вид:
- [math]\displaystyle{ f(\lambda) = \pm (\lambda - \lambda_1)^{\mu_1}(\lambda - \lambda_2)^{\mu_2} \cdots (\lambda - \lambda_r)^{\mu_r} ~, }[/math]
где [math]\displaystyle{ \lambda_1, \lambda_2, \ldots , \lambda_r }[/math] являются различными собственными значениями [math]\displaystyle{ A }[/math], то каждое [math]\displaystyle{ \mu_i }[/math] является алгебраической кратностью соответствующего собственного значения [math]\displaystyle{ \lambda_i }[/math], а [math]\displaystyle{ A }[/math] подобна матрице [math]\displaystyle{ J }[/math] в жордановой нормальной форме, где каждая [math]\displaystyle{ \lambda_i }[/math] появляется [math]\displaystyle{ \mu_i }[/math] раз последовательно на диагонали. При этом элемент непосредственно над каждой [math]\displaystyle{ \lambda_i }[/math] (то есть, на наддиагонали) равен либо 0, либо 1 — элементы, выше первого вхождения каждой [math]\displaystyle{ \lambda_i }[/math] всегда равны 0; все другие элементы на наддиагонали равны 1. При этом все другие элементы вне диагонали и наддиагонали равны 0. Матрица [math]\displaystyle{ J }[/math] наиболее близка к диагонализации матрицы [math]\displaystyle{ A }[/math]. Если матрица [math]\displaystyle{ A }[/math] диагонализируема, все элементы выше диагонали равны нулю [35]. Заметим, что в некоторых книгах единицы располагаются на поддиагонали, то есть, непосредственно под главной диагонали, а не на наддиагонали. Собственные значения при этом остаются на главной диагонали[36][37].
Любая [math]\displaystyle{ n \times n }[/math] матрица [math]\displaystyle{ A }[/math] подобна матрице [math]\displaystyle{ J }[/math] в жордановой нормальной форме, которая получается посредством преобразований подобия [math]\displaystyle{ J = M^{-1}AM }[/math], где [math]\displaystyle{ M }[/math] является обобщённой модальной матрицей матрицы [math]\displaystyle{ A }[/math][38] (См. Примечание выше).
Пример 4
Найдём матрицу в жордановой нормальной форме, которая подобна:
- [math]\displaystyle{ A = \begin{pmatrix} 0 & 4 & 2 \\ -3 & 8 & 3 \\ 4 & -8 & -2 \end{pmatrix}~. }[/math]
Решение: Характеристическое уравнение матрицы [math]\displaystyle{ A }[/math] — [math]\displaystyle{ (\lambda - 2)^3 = 0 }[/math], следовательно, [math]\displaystyle{ \lambda = 2 }[/math] является собственным значением с алгебраической кратностью три. Следуя процедуре из предыдущего раздела, находим что:
- [math]\displaystyle{ \operatorname{rank}(A - 2E) = 1 }[/math]
и
- [math]\displaystyle{ \operatorname{rank}(A - 2E)^2 = 0 = n - \mu ~. }[/math]
Тогда [math]\displaystyle{ \rho_2 = 1 }[/math] и [math]\displaystyle{ \rho_1 = 2 }[/math], откуда следует, что канонический базис матрицы [math]\displaystyle{ A }[/math] будет содержать один линейно независимый обобщённый собственный вектор ранга 2 и два линейно независимых обобщённых собственных вектора ранга 1, или, что эквивалентно: одну цепочку из двух векторов [math]\displaystyle{ \left\{ \mathbf x_2, \mathbf x_1 \right\} }[/math] и одну цепочку векторов [math]\displaystyle{ \left\{ \mathbf y_1 \right\} }[/math]. Обозначив [math]\displaystyle{ M = \begin{pmatrix} \mathbf y_1 & \mathbf x_1 & \mathbf x_2 \end{pmatrix} }[/math], получим:
- [math]\displaystyle{ M = \begin{pmatrix} 2 & 2 & 0 \\ 1 & 3 & 0 \\ 0 & -4 & 1 \end{pmatrix} }[/math]
и
- [math]\displaystyle{ J = \begin{pmatrix} 2 & 0 & 0 \\ 0 & 2 & 1 \\ 0 & 0 & 2 \end{pmatrix}~, }[/math]
где [math]\displaystyle{ M }[/math] является обобщённой модальной матрицей матрицы [math]\displaystyle{ A }[/math], столбцы матрицы [math]\displaystyle{ M }[/math] являются каноническим базисом матрицы [math]\displaystyle{ A }[/math], и [math]\displaystyle{ AM = MJ }[/math][39]. Поскольку обобщённые собственные векторы сами по себе не единственны, и поскольку некоторые из столбцов матриц [math]\displaystyle{ M }[/math] и [math]\displaystyle{ J }[/math] могут быть обменены, то отсюда следует, что как матрица [math]\displaystyle{ M }[/math], так и [math]\displaystyle{ J }[/math] не уникальны[40].
Пример 5
В Примере 3 был найден канонический базис линейно независимых обобщённых собственных векторов матрицы [math]\displaystyle{ A }[/math]. Обобщённая модальная матрица матрицы [math]\displaystyle{ A }[/math] равна:
- [math]\displaystyle{ M = \begin{pmatrix} \mathbf y_1 & \mathbf x_1 & \mathbf x_2 & \mathbf x_3 \end{pmatrix} = \begin{pmatrix} -14 & 2 & -2 & 0 \\ 4 & 0 & 2 & 0 \\ -3 & 0 & 0 & 1 \\ 1 & 0 & 0 & 0 \end{pmatrix}~. }[/math]
Матрица в жордановой нормальной форме, подобная матрице [math]\displaystyle{ A }[/math], равна:
- [math]\displaystyle{ J = \begin{pmatrix} 4 & 0 & 0 & 0 \\ 0 & 5 & 1 & 0 \\ 0 & 0 & 5 & 1 \\ 0 & 0 & 0 & 5 \end{pmatrix}~, }[/math]
так что [math]\displaystyle{ AM = MJ }[/math].
Приложения
Матричные функции
Три главные операции, которые можно проводить с квадратными матрицами — это сложение матриц, умножение на скаляр и матричное умножение[41]. Это в точности те операции, которые нужны для определения полиномиальной функции от [math]\displaystyle{ n \times n }[/math] матрицы [math]\displaystyle{ A }[/math][42]. Многие функции могут быть представлены в виде ряда Маклорена, Следовательно, можно определить более общие функции от матриц[43]. Если матрица [math]\displaystyle{ A }[/math] диагонализируема, то есть:
- [math]\displaystyle{ D = M^{-1}AM ~, }[/math]
с
- [math]\displaystyle{ D = \begin{pmatrix} \lambda_1 & 0 & \cdots & 0 \\ 0 & \lambda_2 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \lambda_n \end{pmatrix}~, }[/math]
тогда:
- [math]\displaystyle{ D^k = \begin{pmatrix} \lambda_1^k & 0 & \cdots & 0 \\ 0 & \lambda_2^k & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \lambda_n^k \end{pmatrix}~, }[/math]
и суммирование ряда Маклорена функции [math]\displaystyle{ A }[/math] сильно упрощается [44]. Например, для получения любой степени k матрицы [math]\displaystyle{ A }[/math], нужно лишь вычислить [math]\displaystyle{ D^k }[/math], умножив затем слева матрицу [math]\displaystyle{ D^k }[/math] на [math]\displaystyle{ M }[/math], а затем справа на [math]\displaystyle{ M^{-1} }[/math][45].
С помощью обобщённых собственных векторов можно получить жорданову нормальную форму матрицы [math]\displaystyle{ A }[/math] и эти результаты можно обобщить для получения прямого метода вычисления функций от недиагонализируемых матриц[46] (См. Разложение Жордана.)
Дифференциальные уравнения
Рассмотрим задачу решения системы линейных обыкновенных дифференциальных уравнений:
[math]\displaystyle{ \mathbf x' = A \mathbf x ~, }[/math] | (5) |
где:
- [math]\displaystyle{ \mathbf x = \begin{pmatrix} x_1(t) \\ x_2(t) \\ \vdots \\ x_n(t) \end{pmatrix}~, \quad \mathbf x' = \begin{pmatrix} x_1'(t) \\ x_2'(t) \\ \vdots \\ x_n'(t) \end{pmatrix}~, }[/math] и [math]\displaystyle{ A = (a_{ij}) ~. }[/math]
Если матрица [math]\displaystyle{ A }[/math] диагонализируема, так что [math]\displaystyle{ a_{ij} = 0 }[/math] для [math]\displaystyle{ i \ne j }[/math], система (5) сводится к системе из [math]\displaystyle{ n }[/math] уравнений, которые принимают вид:
[math]\displaystyle{ x_1' = a_{11} x_1 }[/math]
[math]\displaystyle{ x_n' = a_{nn} x_n ~. }[/math] |
(6) |
В этом случае общее решение задаётся выражениями:
- [math]\displaystyle{ x_1 = k_1 e^{a_{11}t} }[/math]
- [math]\displaystyle{ x_2 = k_2 e^{a_{22}t} }[/math]
- [math]\displaystyle{ \vdots }[/math]
- [math]\displaystyle{ x_n = k_n e^{a_{nn}t} ~. }[/math]
В общем случае следует диагонализировать матрицу [math]\displaystyle{ A }[/math] и свести систему (5) к системе вида (6) как указано ниже. Если матрица [math]\displaystyle{ A }[/math] диагонализируема, имеем [math]\displaystyle{ D = M^{-1}AM }[/math], где [math]\displaystyle{ M }[/math] является модальной матрицей матрицы [math]\displaystyle{ A }[/math]. После подстановки [math]\displaystyle{ A = MDM^{-1} }[/math] равенство (5) принимает вид [math]\displaystyle{ M^{-1} \mathbf x' = D(M^{-1} \mathbf x) }[/math], или:
[math]\displaystyle{ \mathbf y' = D \mathbf y ~, }[/math] | (7) |
где:
[math]\displaystyle{ \mathbf x = M \mathbf y ~. }[/math] | (8) |
Решением уравнения (7) будет:
- [math]\displaystyle{ y_1 = k_1 e^{\lambda_1 t} }[/math]
- [math]\displaystyle{ y_2 = k_2 e^{\lambda_2 t} }[/math]
- [math]\displaystyle{ \vdots }[/math]
- [math]\displaystyle{ y_n = k_n e^{\lambda_n t} ~. }[/math]
Решение [math]\displaystyle{ \mathbf x }[/math] системы (5) получается тогда с помощью отношения (8)[47].
С другой стороны, если матрица [math]\displaystyle{ A }[/math] не диагонализируема, выберем в качестве матрицы [math]\displaystyle{ M }[/math] обобщённую модальную матрицу для матрицы [math]\displaystyle{ A }[/math], так что [math]\displaystyle{ J = M^{-1}AM }[/math] является жордановой нормальной формой матрицы [math]\displaystyle{ A }[/math]. Система [math]\displaystyle{ \mathbf y' = J \mathbf y }[/math] имеет вид:
[math]\displaystyle{ \begin{align} y_1' & = \lambda_1 y_1 + \epsilon_1 y_2 \\ & \vdots \\ y_{n-1}' & = \lambda_{n-1} y_{n-1} + \epsilon_{n-1} y_n \\ y_n' & = \lambda_n y_n ~, \end{align} }[/math] |
(9) |
где значениями [math]\displaystyle{ \lambda_i }[/math] являются собственные значения с главной диагонали матрицы [math]\displaystyle{ J }[/math], а значениями [math]\displaystyle{ \epsilon_i }[/math] будут единицы и нули с наддиагонали матрицы [math]\displaystyle{ J }[/math]. Систему (9) часто решить проще, чем (5), например, по следующей схеме:
Решая последнее равенство в (9) относительно [math]\displaystyle{ y_n }[/math] получаем [math]\displaystyle{ y_n = k_n e^{\lambda_n t} }[/math]. Подставляя полученное значение [math]\displaystyle{ y_n }[/math] в предпоследнее равенство в (9), решаем его относительно [math]\displaystyle{ y_{n-1} }[/math]. Продолжая этот процесс, пройдём по всем равенствам (9) от последнего до первого, решая тем самым всю систему уравнений. Решение [math]\displaystyle{ \mathbf x }[/math] тогда получается из отношений (8)[48].
Примечания
- ↑ 1,0 1,1 1,2 Bronson, 1970, с. 189.
- ↑ 2,0 2,1 Beauregard, Fraleigh, 1973, с. 310.
- ↑ 3,0 3,1 3,2 3,3 3,4 Nering, 1970, с. 118.
- ↑ 4,0 4,1 Golub, Van Loan, 1996, с. 316.
- ↑ Beauregard, Fraleigh, 1973, с. 319.
- ↑ 6,0 6,1 Bronson, 1970, с. 194–195.
- ↑ Golub, Van Loan, 1996, с. 311.
- ↑ 8,0 8,1 8,2 Bronson, 1970, с. 196.
- ↑ Beauregard, Fraleigh, 1973, с. 316–318.
- ↑ Anton, 1987, с. 301–302.
- ↑ Beauregard, Fraleigh, 1973, с. 266.
- ↑ 12,0 12,1 Burden, Faires, 1993, с. 401.
- ↑ Golub, Van Loan, 1996, с. 310–311.
- ↑ Harper, 1976, с. 58.
- ↑ Herstein, 1964, с. 225.
- ↑ Kreyszig, 1972, с. 273,684.
- ↑ Nering, 1970, с. 104.
- ↑ 18,0 18,1 Beauregard, Fraleigh, 1973, с. 270–274.
- ↑ 19,0 19,1 Bronson, 1970, с. 179–183.
- ↑ Bronson, 1970, с. 181.
- ↑ Bronson, 1970, с. 179.
- ↑ Bronson, 1970, с. 190,202.
- ↑ Bronson, 1970, с. 189,203.
- ↑ Bronson, 1970, с. 206–207.
- ↑ 25,0 25,1 Bronson, 1970, с. 205.
- ↑ Bronson, 1970, с. 189,209–215.
- ↑ Herstein, 1964, с. 259.
- ↑ Herstein, 1964, с. 261.
- ↑ Nering, 1970, с. 122,123.
- ↑ Bronson, 1970, с. 189–209.
- ↑ Bronson, 1970, с. 196,197.
- ↑ Bronson, 1970, с. 197,198.
- ↑ Bronson, 1970, с. 190–191.
- ↑ Bronson, 1970, с. 197–198.
- ↑ Beauregard, Fraleigh, 1973, с. 311.
- ↑ Cullen, 1966, с. 114.
- ↑ Franklin, 1968, с. 122.
- ↑ Bronson, 1970, с. 207.
- ↑ Bronson, 1970, с. 208.
- ↑ Bronson, 1970, с. 206.
- ↑ Beauregard, Fraleigh, 1973, с. 57–61.
- ↑ Bronson, 1970, с. 104.
- ↑ Bronson, 1970, с. 105.
- ↑ Bronson, 1970, с. 184.
- ↑ Bronson, 1970, с. 185.
- ↑ Bronson, 1970, с. 209–218.
- ↑ Beauregard, Fraleigh, 1973, с. 274–275.
- ↑ Beauregard, Fraleigh, 1973, с. 317.
Литература
- Anton Howard. Elementary Linear Algebra. — 5th. — New York: Wiley, 1987. — ISBN 0-471-84819-0.
- Sheldon Axler. Linear Algebra Done Right. — 2nd. — Springer, 1997. — ISBN 978-0-387-98258-8.
- Raymond A. Beauregard, John B. Fraleigh. A First Course In Linear Algebra: with Optional Introduction to Groups, Rings, and Fields. — Boston: Houghton Mifflin Co., 1973. — ISBN 0-395-14017-X.
- Richard Bronson. Matrix Methods: An Introduction. — New York: Academic Press, 1970.
- Richard L. Burden, J. Douglas Faires. Numerical Analysis. — 5th. — Boston: Prindle, Weber and Schmidt, 1993. — ISBN 0-534-93219-3.
- Charles G. Cullen. Matrices and Linear Transformations. — Reading: Addison-Wesley, 1966.
- Joel N. Franklin. Matrix Theory. — Englewood Cliffs: Prentice-Hall, 1968.
- Gene H. Golub, Charles F. Van Loan. Matrix Computations. — 3rd. — Baltimore: Johns Hopkins University Press, 1996. — ISBN 0-8018-5414-8.
- Перевод Дж. Голуб, Ч. Ван Лоун. Матричные вычисления. — М.: «Мир», 1999. — ISBN 5-03-002406-9.
- Charlie Harper. Introduction to Mathematical Physics. — New Jersey: Prentice-Hall, 1976. — ISBN 0-13-487538-9.
- Herstein I. N. Topics In Algebra. — Waltham: Blaisdell Publishing Company, 1964. — ISBN 978-1114541016.
- Erwin Kreyszig. Advanced Engineering Mathematics. — 3rd. — New York: Wiley, 1972. — ISBN 0-471-50728-8.
- Evar D. Nering. Linear Algebra and Matrix Theory. — 2nd. — New York: Wiley, 1970.
Для улучшения этой статьи желательно: |