Обобщённый собственный вектор

Эта статья находится на начальном уровне проработки, в одной из её версий выборочно используется текст из источника, распространяемого под свободной лицензией
Материал из энциклопедии Руниверсалис

Обобщённый собственный вектор [math]\displaystyle{ n\times n }[/math] матрицы [math]\displaystyle{ A }[/math]вектор, который удовлетворяет определённым критериям, которые слабее, чем критерии для (обычных) собственных векторов[1].

Пусть [math]\displaystyle{ V }[/math] будет [math]\displaystyle{ n }[/math]-мерным векторным пространством. Пусть [math]\displaystyle{ \phi }[/math] будет линейным отображением в [math]\displaystyle{ L(V) }[/math], множества всех линейных отображений из [math]\displaystyle{ V }[/math] в себя. Пусть [math]\displaystyle{ A }[/math] будет матричным представлением отображения [math]\displaystyle{ \phi }[/math] для некоторого упорядоченного базиса.

Может не существовать полного набора [math]\displaystyle{ n }[/math] линейно независимых собственных векторов матрицы [math]\displaystyle{ A }[/math], которые образуют полный базис для [math]\displaystyle{ V }[/math]. То есть, матрица [math]\displaystyle{ A }[/math] не может быть диагонализирована[2][3]. Это происходит, когда алгебраическая кратность по меньшей мере одного собственного значения [math]\displaystyle{ \lambda_i }[/math] больше, чем его геометрическая кратность (степень вырожденности матрицы [math]\displaystyle{ (A-\lambda_i E) }[/math], или размерность его ядра). В этом случае [math]\displaystyle{ \lambda_i }[/math] называется дефектным собственным значением[англ.], а сама матрица [math]\displaystyle{ A }[/math] называется дефектной матрицей[англ.][4].

Обобщённый собственный вектор [math]\displaystyle{ x_i }[/math], соответствующий [math]\displaystyle{ \lambda_i }[/math], вместе с матрицей [math]\displaystyle{ (A-\lambda_i E) }[/math] образует цепочку Жордана линейно независимых обобщённых собственных векторов, которые образуют базис для инвариантного подпространства пространства [math]\displaystyle{ V }[/math][5][6][7].

Используя обобщённые собственные векторы, множество линейно независимых собственных векторов матрицы [math]\displaystyle{ A }[/math] может быть расширено, если необходимо, до полного базиса для [math]\displaystyle{ V }[/math][8]. Этот базис можно использовать для определения «почти диагональной матрицы» [math]\displaystyle{ J }[/math] в жордановой нормальной форме, подобной матрице [math]\displaystyle{ A }[/math], что применяется при вычислении определённых матричных функций от [math]\displaystyle{ A }[/math][1]. Матрица [math]\displaystyle{ J }[/math] также применяется при решении системы линейных дифференциальных уравнений [math]\displaystyle{ \mathbf x' = A \mathbf x }[/math], где [math]\displaystyle{ A }[/math] не обязательно диагонализируема[9][3].

Размерность обобщённого собственного пространства, соответствующего заданному собственному значению [math]\displaystyle{ \lambda }[/math], равна алгебраической кратности [math]\displaystyle{ \lambda }[/math][8].

Обзор и определение

Имеется несколько эквивалентных путей определения обычного собственного вектора[10][11][12][13][14][15][16][17]. Для наших целей собственным вектором [math]\displaystyle{ \mathbf u }[/math], ассоциированным с собственным значением [math]\displaystyle{ \lambda }[/math] [math]\displaystyle{ n \times n }[/math] матрицы [math]\displaystyle{ A }[/math], является ненулевой вектор, для которого [math]\displaystyle{ (A - \lambda E) \mathbf u = \mathbf 0 }[/math], где [math]\displaystyle{ E }[/math] является [math]\displaystyle{ n \times n }[/math] единичной матрицей, а [math]\displaystyle{ \mathbf 0 }[/math] является нулевым вектором длины [math]\displaystyle{ n }[/math][12]. То есть, [math]\displaystyle{ \mathbf u }[/math] является ядром преобразования [math]\displaystyle{ (A - \lambda E) }[/math]. Если [math]\displaystyle{ A }[/math] имеет [math]\displaystyle{ n }[/math] линейно независимых собственных векторов, то [math]\displaystyle{ A }[/math] подобна диагональной матрице [math]\displaystyle{ D }[/math]. То есть, существует невырожденная матрица [math]\displaystyle{ M }[/math], такая что [math]\displaystyle{ A }[/math] диагонализируема с помощью преобразование подобия [math]\displaystyle{ D = M^{-1}AM }[/math][18][19]. Матрица [math]\displaystyle{ D }[/math] называется спектральной матрицей[англ.] матрицы [math]\displaystyle{ A }[/math]. Матрица [math]\displaystyle{ M }[/math] называется модальной матрицей[англ.] матрицы [math]\displaystyle{ A }[/math][20]. Диагонализируемые матрицы представляют определённый интерес, поскольку матричные функции от неё могут быть легко вычислены[21].

С другой стороны, если матрица [math]\displaystyle{ A }[/math] не имеет [math]\displaystyle{ n }[/math] линейно независимых собственных векторов, ассоциированных с ней, то [math]\displaystyle{ A }[/math] не диагонализируема[18][19].

Определение: Вектор [math]\displaystyle{ \mathbf x_m }[/math] является обобщённым собственным вектором ранга [math]\displaystyle{ m }[/math] матрицы [math]\displaystyle{ A }[/math], соответствующим собственному значению [math]\displaystyle{ \lambda }[/math], если:

[math]\displaystyle{ (A - \lambda E)^m \mathbf x_m = \mathbf 0~, }[/math]

но

[math]\displaystyle{ (A - \lambda E)^{m-1} \mathbf x_m \ne \mathbf 0 ~. }[/math] [1].

Обобщённый собственный вектор ранга 1 является обычным собственным вектором[22]. Любая [math]\displaystyle{ n \times n }[/math] матрица [math]\displaystyle{ A }[/math] имеет [math]\displaystyle{ n }[/math] линейно независимых обобщённых собственных векторов, ассоциированных с ней, и можно показать, что она подобна «почти диагональной» матрице [math]\displaystyle{ J }[/math] в жордановой нормальной форме[23]. То есть, существует обратимая матрица [math]\displaystyle{ M }[/math], такая что [math]\displaystyle{ J = M^{-1}AM }[/math][24]. Матрица [math]\displaystyle{ M }[/math] в этом случае называется обобщённой модальной матрицей[англ.] матрицы [math]\displaystyle{ A }[/math][25]. Если [math]\displaystyle{ \lambda }[/math] является собственным значением с алгебраической кратностью [math]\displaystyle{ \mu }[/math], то [math]\displaystyle{ A }[/math] будет иметь [math]\displaystyle{ \mu }[/math] линейно независимых обобщённых собственных векторов, соответствующих [math]\displaystyle{ \lambda }[/math][8]. Эти результаты, в свою очередь, предоставляют метод вычисления определённых матричных функций от [math]\displaystyle{ A }[/math][26].

Примечание: Для того, что бы [math]\displaystyle{ n \times n }[/math] матрица [math]\displaystyle{ A }[/math] над полем [math]\displaystyle{ F }[/math] могла быть выражена в жордановой нормальной форме, все собственные значения матрицы [math]\displaystyle{ A }[/math] должны быть в [math]\displaystyle{ F }[/math]. То есть, характеристический многочлен [math]\displaystyle{ f(x) }[/math] должен разлагаться полностью на линейные множители. Альтернативный пример: если матрица [math]\displaystyle{ A }[/math] состоит из вещественных элементов, может оказаться, что собственные значения и компоненты собственных векторов будут содержать мнимые значения[4][27][3].

Линейная оболочка всех обобщённых собственных векторов для данного [math]\displaystyle{ \lambda }[/math] образует обобщённое собственное пространство для [math]\displaystyle{ \lambda }[/math][3].

Примеры

Несколько примеров для иллюстрации концепции обобщённых собственных векторов. Некоторые детали будут описаны ниже.

Пример 1

Представленный ниже тип матрицы часто используется в учебниках[3][28][2]. Возьмём матрицу

[math]\displaystyle{ A = \begin{pmatrix} 1 & 1\\ 0 & 1 \end{pmatrix}~. }[/math]

Тогда имеется только одно собственное значение, [math]\displaystyle{ \lambda = 1 }[/math], и его алгебраическая кратность [math]\displaystyle{ m = 2 }[/math].

Заметим, что эта матрица имеет жорданову нормальную форму, но не диагональна. Следовательно, эта матрица не диагонализируема. Поскольку наддиагональ содержит один элемент, имеется один обобщённый собственный вектор ранга, большего 1 (заметим, что векторное пространство [math]\displaystyle{ V }[/math] имеет размерность 2, так что может быть не более одного обобщённого собственного вектора ранга, большего 1). Можно также вычислить размерность ядра матрицы [math]\displaystyle{ A - \lambda E }[/math], которая равняется [math]\displaystyle{ p = 1 }[/math], тогда имеется [math]\displaystyle{ m - p = 1 }[/math] обобщённых собственных векторов ранга, большего 1.

Обыкновенный собственный вектор [math]\displaystyle{ \mathbf v_1=\begin{pmatrix}1 \\0 \end{pmatrix} }[/math] вычисляется стандартным методом (см. статью Собственный вектор). Используя этот собственный вектор определяется обобщённый собственный вектор [math]\displaystyle{ \mathbf v_2 }[/math] путём решения уравнения:

[math]\displaystyle{ (A-\lambda E) \mathbf v_2 = \mathbf v_1~. }[/math]

Выписывая значения:

[math]\displaystyle{ \left(\begin{pmatrix} 1 & 1\\ 0 & 1 \end{pmatrix} - 1 \begin{pmatrix} 1 & 0\\ 0 & 1 \end{pmatrix}\right)\begin{pmatrix}v_{21} \\v_{22} \end{pmatrix} = \begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix} \begin{pmatrix}v_{21} \\v_{22} \end{pmatrix} = \begin{pmatrix}1 \\0 \end{pmatrix}~. }[/math]

Это выражение упрощается до:

[math]\displaystyle{ v_{22}= 1~. }[/math]

Элемент [math]\displaystyle{ v_{21} }[/math] не имеет ограничений. Обобщённый собственный вектор ранга 2 равен тогда [math]\displaystyle{ \mathbf v_2=\begin{pmatrix}a \\1 \end{pmatrix} }[/math], где [math]\displaystyle{ a }[/math] может иметь любое скалярное значение. Выбор [math]\displaystyle{ a = 0 }[/math] является, как правило, простейшим.

При этом:

[math]\displaystyle{ (A-\lambda E) \mathbf v_2 = \begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix} \begin{pmatrix}a \\1 \end{pmatrix} = \begin{pmatrix}1 \\0 \end{pmatrix} = \mathbf v_1~, }[/math]

так что [math]\displaystyle{ \mathbf v_2 }[/math] является обобщённым собственным вектором,

[math]\displaystyle{ (A-\lambda E) \mathbf v_1 = \begin{pmatrix} 0 & 1\\ 0 & 0 \end{pmatrix} \begin{pmatrix}1 \\0 \end{pmatrix} = \begin{pmatrix}0 \\0 \end{pmatrix} = \mathbf 0~, }[/math]

так что [math]\displaystyle{ \mathbf v_1 }[/math] является обычным собственным вектором, а [math]\displaystyle{ \mathbf v_1 }[/math] и [math]\displaystyle{ \mathbf v_2 }[/math] являются линейно независимыми, и, следовательно, образуют базис для векторного пространства [math]\displaystyle{ V }[/math].

Пример 2

Следующий пример несколько сложнее примера 1, но также небольшого размера[29]. Матрица

[math]\displaystyle{ A = \begin{pmatrix} 1 & 0 & 0 & 0 & 0 \\ 3 & 1 & 0 & 0 & 0 \\ 6 & 3 & 2 & 0 & 0 \\ 10 & 6 & 3 & 2 & 0 \\ 15 & 10 & 6 & 3 & 2 \end{pmatrix} }[/math]

имеет собственные значения [math]\displaystyle{ \lambda_1 = 1 }[/math] и [math]\displaystyle{ \lambda_2 = 2 }[/math] с алгебраическими кратностями [math]\displaystyle{ \mu_1 = 2 }[/math] и [math]\displaystyle{ \mu_2 = 3 }[/math], но геометрические кратности будут равны [math]\displaystyle{ \gamma_1 = 1 }[/math] и[math]\displaystyle{ \gamma_2 = 1 }[/math].

Обобщённое собственное подпространство матрицы [math]\displaystyle{ A }[/math] вычисляется ниже. [math]\displaystyle{ \mathbf x_1 }[/math] является обычным собственным вектором, ассоциированным с [math]\displaystyle{ \lambda_1 }[/math]. [math]\displaystyle{ \mathbf x_2 }[/math] является обобщённым собственным вектором, ассоциированным с [math]\displaystyle{ \lambda_1 }[/math]. [math]\displaystyle{ \mathbf y_1 }[/math] является обобщённым собственным вектором, ассоциированным с [math]\displaystyle{ \lambda_2 }[/math]. [math]\displaystyle{ \mathbf y_2 }[/math] и [math]\displaystyle{ \mathbf y_3 }[/math] являются обобщёнными собственными векторами, ассоциированными с [math]\displaystyle{ \lambda_2 }[/math].

[math]\displaystyle{ (A-1 E) \mathbf x_1 = \begin{pmatrix} 0 & 0 & 0 & 0 & 0 \\ 3 & 0 & 0 & 0 & 0 \\ 6 & 3 & 1 & 0 & 0 \\ 10 & 6 & 3 & 1 & 0 \\ 15 & 10 & 6 & 3 & 1 \end{pmatrix}\begin{pmatrix} 0 \\ 3 \\ -9 \\ 9 \\ -3 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 0 \end{pmatrix} = \mathbf 0 ~, }[/math]
[math]\displaystyle{ (A - 1 E) \mathbf x_2 = \begin{pmatrix} 0 & 0 & 0 & 0 & 0 \\ 3 & 0 & 0 & 0 & 0 \\ 6 & 3 & 1 & 0 & 0 \\ 10 & 6 & 3 & 1 & 0 \\ 15 & 10 & 6 & 3 & 1 \end{pmatrix} \begin{pmatrix} 1 \\ -15 \\ 30 \\ -1 \\ -45 \end{pmatrix} = \begin{pmatrix} 0 \\ 3 \\ -9 \\ 9 \\ -3 \end{pmatrix} = \mathbf x_1 ~, }[/math]
[math]\displaystyle{ (A - 2 E) \mathbf y_1 = \begin{pmatrix} -1 & 0 & 0 & 0 & 0 \\ 3 & -1 & 0 & 0 & 0 \\ 6 & 3 & 0 & 0 & 0 \\ 10 & 6 & 3 & 0 & 0 \\ 15 & 10 & 6 & 3 & 0 \end{pmatrix} \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 9 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 0 \end{pmatrix} = \mathbf 0 ~, }[/math]
[math]\displaystyle{ (A - 2 E) \mathbf y_2 = \begin{pmatrix} -1 & 0 & 0 & 0 & 0 \\ 3 & -1 & 0 & 0 & 0 \\ 6 & 3 & 0 & 0 & 0 \\ 10 & 6 & 3 & 0 & 0 \\ 15 & 10 & 6 & 3 & 0 \end{pmatrix} \begin{pmatrix} 0 \\ 0 \\ 0 \\ 3 \\ 0 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 9 \end{pmatrix} = \mathbf y_1 ~, }[/math]
[math]\displaystyle{ (A - 2 E) \mathbf y_3 = \begin{pmatrix} -1 & 0 & 0 & 0 & 0 \\ 3 & -1 & 0 & 0 & 0 \\ 6 & 3 & 0 & 0 & 0 \\ 10 & 6 & 3 & 0 & 0 \\ 15 & 10 & 6 & 3 & 0 \end{pmatrix} \begin{pmatrix} 0 \\ 0 \\ 1 \\ -2 \\ 0 \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \\ 3 \\ 0 \end{pmatrix} = \mathbf y_2 ~. }[/math]

Получаем базис для каждого из обобщённых собственных пространств матрицы [math]\displaystyle{ A }[/math]. Вместе линейные комбинации двух цепочек обобщённых собственных векторов заполняют пространство всех 5-мерных векторов-столбцов:

[math]\displaystyle{ \left\{ \mathbf x_1, \mathbf x_2 \right\} = \left\{ \begin{pmatrix} 0 \\ 3 \\ -9 \\ 9 \\ -3 \end{pmatrix} \begin{pmatrix} 1 \\ -15 \\ 30 \\ -1 \\ -45 \end{pmatrix} \right\}~, \left\{ \mathbf y_1, \mathbf y_2, \mathbf y_3 \right\} = \left\{ \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \\ 9 \end{pmatrix} \begin{pmatrix} 0 \\ 0 \\ 0 \\ 3 \\ 0 \end{pmatrix} \begin{pmatrix} 0 \\ 0 \\ 1 \\ -2 \\ 0 \end{pmatrix} \right\}~. }[/math]

«Почти диагональная» матрица [math]\displaystyle{ J }[/math] в жордановой нормальной форме, подобная [math]\displaystyle{ A }[/math], получается следующим образом:

[math]\displaystyle{ M = \begin{pmatrix} \mathbf x_1 & \mathbf x_2 & \mathbf y_1 & \mathbf y_2 & \mathbf y_3 \end{pmatrix} = \begin{pmatrix} 0 & 1 & 0 &0& 0 \\ 3 & -15 & 0 &0& 0 \\ -9 & 30 & 0 &0& 1 \\ 9 & -1 & 0 &3& -2 \\ -3 & -45 & 9 &0& 0 \end{pmatrix}~, }[/math]
[math]\displaystyle{ J = \begin{pmatrix} 1 & 1 & 0 & 0 & 0 \\ 0 & 1 & 0 & 0 & 0 \\ 0 & 0 & 2 & 1 & 0 \\ 0 & 0 & 0 & 2 & 1 \\ 0 & 0 & 0 & 0 & 2 \end{pmatrix}~, }[/math]

где [math]\displaystyle{ M }[/math] является обобщённой модальной матрицей[англ.] матрицы [math]\displaystyle{ A }[/math], столбцы матрицы [math]\displaystyle{ M }[/math] являются каноническим базисом[англ.] матрицы [math]\displaystyle{ A }[/math], и [math]\displaystyle{ AM = MJ }[/math][30].

Цепочки Жордана

Определение: Пусть [math]\displaystyle{ \mathbf x_m }[/math] будет обобщённым собственным вектором ранга [math]\displaystyle{ m }[/math], соответствующим матрице [math]\displaystyle{ A }[/math] и собственному значению [math]\displaystyle{ \lambda }[/math]. Цепочка, образованная вектором [math]\displaystyle{ \mathbf x_m }[/math] — это набор векторов [math]\displaystyle{ \left\{ \mathbf x_m, \mathbf x_{m-1}, \dots , \mathbf x_1 \right\} }[/math], определённых выражением:

[math]\displaystyle{ \mathbf x_{m-1} = (A - \lambda E) \mathbf x_m~, }[/math]
[math]\displaystyle{ \mathbf x_{m-2} = (A - \lambda E)^2 \mathbf x_m = (A - \lambda E) \mathbf x_{m-1}~, }[/math]
[math]\displaystyle{ \mathbf x_{m-3} = (A - \lambda E)^3 \mathbf x_m = (A - \lambda E) \mathbf x_{m-2}~, }[/math]

[math]\displaystyle{ \vdots }[/math]

[math]\displaystyle{ \mathbf x_1 = (A - \lambda E)^{m-1} \mathbf x_m = (A - \lambda E) \mathbf x_2~. }[/math]

(1)

Тогда:

[math]\displaystyle{ \mathbf x_j = (A - \lambda E)^{m-j} \mathbf x_m = (A - \lambda E) \mathbf x_{j+1} \qquad (j = 1, 2, \dots , m - 1)~. }[/math] (2)

Вектор [math]\displaystyle{ \mathbf x_j }[/math], заданный формулой (2), является обобщённым собственным вектором ранга [math]\displaystyle{ j }[/math], соответствующим собственному значению [math]\displaystyle{ \lambda }[/math]. Цепочка является набором линейно независимых векторов[6].

Канонический базис

Определение: Набор [math]\displaystyle{ n }[/math] линейно независимых обобщённых собственных векторов является каноническим базисом, если набор полностью состоит из цепочек Жордана.

Таким образом, если обобщённый собственный вектор ранга [math]\displaystyle{ m }[/math] находится в каноническом базисе, то [math]\displaystyle{ m - 1 }[/math] векторов [math]\displaystyle{ \mathbf x_{m-1}, \mathbf x_{m-2}, \ldots , \mathbf x_1 }[/math], находящихся в цепочке Жордана, образованной [math]\displaystyle{ \mathbf x_m }[/math], также находятся в каноническом базисе[31].

Пусть [math]\displaystyle{ \lambda_i }[/math] будет собственным значением матрицы [math]\displaystyle{ A }[/math] с алгебраической кратностью [math]\displaystyle{ \mu_i }[/math]. Найдём (матричные) ранги матриц [math]\displaystyle{ (A - \lambda_i E), (A - \lambda_i E)^2, \ldots , (A - \lambda_i E)^{m_i} }[/math]. Целое число [math]\displaystyle{ m_i }[/math] определяется как первое число, для которого [math]\displaystyle{ (A - \lambda_i R)^{m_i} }[/math] имеет ранг [math]\displaystyle{ n - \mu_i }[/math] (здесь [math]\displaystyle{ n }[/math] равно числу строк или столбцов матрицы [math]\displaystyle{ A }[/math], то есть, матрица [math]\displaystyle{ A }[/math] имеет размер [math]\displaystyle{ n \times n }[/math]).

Далее определим:

[math]\displaystyle{ \rho_k = \operatorname{rank}(A - \lambda_i E)^{k-1} - \operatorname{rank}(A - \lambda_i E)^k \qquad (k = 1, 2, \ldots , m_i)~. }[/math]

Переменная [math]\displaystyle{ \rho_k }[/math] обозначает число линейно независимых обобщённых собственных векторов ранга [math]\displaystyle{ k }[/math], соответствующих собственному значению [math]\displaystyle{ \lambda_i }[/math], которые появятся в каноническом базисе матрицы [math]\displaystyle{ A }[/math]. При этом:

[math]\displaystyle{ \operatorname{rank}(A - \lambda_i E)^0 = \operatorname{rank}(E) = n }[/math][32].

Вычисление обобщённых собственных векторов

В предыдущих разделах представлены техники получения [math]\displaystyle{ n }[/math] линейно независимых обобщённых собственных векторов канонического базиса для векторного пространства [math]\displaystyle{ V }[/math], ассоциированного с [math]\displaystyle{ n \times n }[/math] матрицей [math]\displaystyle{ A }[/math]. Эти техники могут быть собраны в процедуре:

Решаем характеристический многочлен матрицы [math]\displaystyle{ A }[/math], чтобы получить собственные значения [math]\displaystyle{ \lambda_i }[/math] и их алгебраические кратности [math]\displaystyle{ \mu_i }[/math];
Для каждого [math]\displaystyle{ \lambda_i }[/math]:
Определяем [math]\displaystyle{ n - \mu_i }[/math];
Определяем [math]\displaystyle{ m_i }[/math];
Определяем [math]\displaystyle{ \rho_k }[/math] для [math]\displaystyle{ (k = 1, \ldots , m_i) }[/math];
Определяем каждую жорданову цепь для [math]\displaystyle{ \lambda_i }[/math].

Пример 3

Матрица

[math]\displaystyle{ A = \begin{pmatrix} 5 & 1 & -2 & 4 \\ 0 & 5 & 2 & 2 \\ 0 & 0 & 5 & 3 \\ 0 & 0 & 0 & 4 \end{pmatrix} }[/math]

имеет собственное значение [math]\displaystyle{ \lambda_1 = 5 }[/math] с алгебраической кратностью [math]\displaystyle{ \mu_1 = 3 }[/math] и собственное значение [math]\displaystyle{ \lambda_2 = 4 }[/math] с алгебраической кратностью [math]\displaystyle{ \mu_2 = 1 }[/math], при этом [math]\displaystyle{ n=4 }[/math]. Для каждого [math]\displaystyle{ \lambda_1 }[/math] выполняется: [math]\displaystyle{ n - \mu_1 = 4 - 3 = 1 }[/math].

[math]\displaystyle{ (A - 5E) = \begin{pmatrix} 0 & 1 & -2 & 4 \\ 0 & 0 & 2 & 2 \\ 0 & 0 & 0 & 3 \\ 0 & 0 & 0 & -1 \end{pmatrix}~, \qquad \operatorname{rank}(A - 5E) = 3~. }[/math]
[math]\displaystyle{ (A - 5 E)^2 = \begin{pmatrix} 0 & 0 & 2 & -8 \\ 0 & 0 & 0 & 4 \\ 0 & 0 & 0 & -3 \\ 0 & 0 & 0 & 1 \end{pmatrix}~, \qquad \operatorname{rank}(A - 5E)^2 = 2~. }[/math]
[math]\displaystyle{ (A - 5E)^3 = \begin{pmatrix} 0 & 0 & 0 & 14 \\ 0 & 0 & 0 & -4 \\ 0 & 0 & 0 & 3 \\ 0 & 0 & 0 & -1 \end{pmatrix}~, \qquad \operatorname{rank}(A - 5E)^3 = 1~. }[/math]

Первое целое [math]\displaystyle{ m_1 }[/math], для которого [math]\displaystyle{ (A - 5E)^{m_1} }[/math] имеет ранг [math]\displaystyle{ n - \mu_1 = 1 }[/math], равно [math]\displaystyle{ m_1 = 3 }[/math].

Далее определяем:

[math]\displaystyle{ \rho_3 = \operatorname{rank}(A - 5E)^2 - \operatorname{rank}(A - 5E)^3 = 2 - 1 = 1 ~, }[/math]
[math]\displaystyle{ \rho_2 = \operatorname{rank}(A - 5E)^1 - \operatorname{rank}(A - 5E)^2 = 3 - 2 = 1 ~, }[/math]
[math]\displaystyle{ \rho_1 = \operatorname{rank}(A - 5E)^0 - \operatorname{rank}(A - 5E)^1 = 4 - 3 = 1 ~. }[/math]

Следовательно, будет три линейно независимых обобщённых собственных вектора, по одному из рангов 3, 2 и 1. Поскольку [math]\displaystyle{ \lambda_1 }[/math] соответствует одной цепи из трёх линейно независимых обобщённых собственных векторов, существует обобщённый собственный вектор [math]\displaystyle{ \mathbf x_3 }[/math] ранга 3, соответствующий [math]\displaystyle{ \lambda_1 }[/math], такой что:

[math]\displaystyle{ (A - 5E)^3 \mathbf x_3 = \mathbf 0~, }[/math] (3)

но:

[math]\displaystyle{ (A - 5E)^2 \mathbf x_3\neq \mathbf 0 ~. }[/math] (4)

Выражения (3) и (4) представляют линейную систему, которую можно решить относительно [math]\displaystyle{ \mathbf x_3 }[/math]. Пусть

[math]\displaystyle{ \mathbf x_3 = \begin{pmatrix} x_{31} \\ x_{32} \\ x_{33} \\ x_{34} \end{pmatrix}~. }[/math]

Тогда:

[math]\displaystyle{ (A - 5E)^3 \mathbf x_3 = \begin{pmatrix} 0 & 0 & 0 & 14 \\ 0 & 0 & 0 & -4 \\ 0 & 0 & 0 & 3 \\ 0 & 0 & 0 & -1 \end{pmatrix} \begin{pmatrix} x_{31} \\ x_{32} \\ x_{33} \\ x_{34} \end{pmatrix} = \begin{pmatrix} 14 x_{34} \\ -4 x_{34} \\ 3 x_{34} \\ - x_{34} \end{pmatrix} = \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \end{pmatrix} }[/math]

и

[math]\displaystyle{ (A - 5E)^2 \mathbf x_3 = \begin{pmatrix} 0 & 0 & 2 & -8 \\ 0 & 0 & 0 & 4 \\ 0 & 0 & 0 & -3 \\ 0 & 0 & 0 & 1 \end{pmatrix} \begin{pmatrix} x_{31} \\ x_{32} \\ x_{33} \\ x_{34} \end{pmatrix} = \begin{pmatrix} 2 x_{33} - 8 x_{34} \\ 4 x_{34} \\ -3 x_{34} \\ x_{34} \end{pmatrix} \ne \begin{pmatrix} 0 \\ 0 \\ 0 \\ 0 \end{pmatrix}~. }[/math]

Тогда, чтобы удовлетворить условиям (3) и (4), необходимо иметь [math]\displaystyle{ x_{34} = 0 }[/math] и [math]\displaystyle{ x_{33} \ne 0 }[/math]. Никакие ограничения не накладываются на [math]\displaystyle{ x_{31} }[/math] и [math]\displaystyle{ x_{32} }[/math]. Выбрав [math]\displaystyle{ x_{31} = x_{32} = x_{34} = 0, x_{33} = 1 }[/math], получим:

[math]\displaystyle{ \mathbf x_3 = \begin{pmatrix} 0 \\ 0 \\ 1 \\ 0 \end{pmatrix}~, }[/math]

как обобщённый собственный вектор ранга 3, соответствующий [math]\displaystyle{ \lambda_1 = 5 }[/math]. Можно получить бесконечно много других обобщённых собственных векторов ранга 3, выбрав другие значения [math]\displaystyle{ x_{31} }[/math], [math]\displaystyle{ x_{32} }[/math] и [math]\displaystyle{ x_{33} }[/math] при [math]\displaystyle{ x_{33} \ne 0 }[/math]. Сделанный выбор, однако, самый простой[33].

Теперь, используя равенства (1), получим [math]\displaystyle{ \mathbf x_2 }[/math] и [math]\displaystyle{ \mathbf x_1 }[/math] как обобщённые собственные векторе ранга 2 и 1 соответственно, где:

[math]\displaystyle{ \mathbf x_2 = (A - 5E) \mathbf x_3 = \begin{pmatrix} -2 \\ 2 \\ 0 \\ 0 \end{pmatrix} }[/math]

и

[math]\displaystyle{ \mathbf x_1 = (A - 5E) \mathbf x_2 = \begin{pmatrix} 2 \\ 0 \\ 0 \\ 0 \end{pmatrix}~. }[/math]

Некратное собственное значение [math]\displaystyle{ \lambda_2 = 4 }[/math] может быть вычислено с помощью стандартных техник и оно соответствует обычному собственному вектору:

[math]\displaystyle{ \mathbf y_1 = \begin{pmatrix} -14 \\ 4 \\ -3 \\ 1 \end{pmatrix}~. }[/math]

Каноническим базисом матрицы [math]\displaystyle{ A }[/math] будет:

[math]\displaystyle{ \left\{ \mathbf x_3, \mathbf x_2, \mathbf x_1, \mathbf y_1 \right\} = \left\{ \begin{pmatrix} 0 \\ 0 \\ 1 \\ 0 \end{pmatrix} \begin{pmatrix} -2 \\ 2 \\ 0 \\ 0 \end{pmatrix} \begin{pmatrix} 2 \\ 0 \\ 0 \\ 0 \end{pmatrix} \begin{pmatrix} -14 \\ 4 \\ -3 \\ 1 \end{pmatrix} \right\}~. }[/math]

[math]\displaystyle{ \mathbf x_1, \mathbf x_2 }[/math] и [math]\displaystyle{ \mathbf x_3 }[/math] будут обобщёнными собственными векторами, ассоциированными с [math]\displaystyle{ \lambda_1 }[/math], в то время как [math]\displaystyle{ \mathbf y_1 }[/math] является обычным собственным вектором, ассоциированным с [math]\displaystyle{ \lambda_2 }[/math].

Это довольно простой пример. В общем случае количества [math]\displaystyle{ \rho_k }[/math] линейно независимых обобщённых собственных векторов ранга [math]\displaystyle{ k }[/math] не всегда будут одинаковыми. То есть, могут быть цепочки с разными длинами соответствующих собственных значений[34].

Обобщённая модальная матрица

Пусть [math]\displaystyle{ A }[/math] является [math]\displaystyle{ n \times n }[/math] матрицей. Обобщённая модальная матрица [math]\displaystyle{ M }[/math] для [math]\displaystyle{ A }[/math] — это [math]\displaystyle{ n \times n }[/math] матрица, столбцы которой, рассматриваемые как вектора, образуют канонический базис матрицы [math]\displaystyle{ A }[/math] и появляются в [math]\displaystyle{ M }[/math] по следующим правилам:

  • Все цепочки Жордана, состоящие из одного вектора (то есть, длиной в один вектор) появляются в первом столбце матрицы [math]\displaystyle{ M }[/math].
  • Все вектора одной цепочки появляются вместе в смежных столбцах матрицы [math]\displaystyle{ M }[/math].
  • Каждая цепочка появляется в [math]\displaystyle{ M }[/math] в порядке увеличения ранга (то есть, обобщённый собственный вектор ранга 1 появляется до обобщённого собственного вектора ранга 2 той же цепочки, этот вектор появляется до обобщённого собственного вектора ранга 3 той же цепочки, и т. д.)[25].

Жорданова нормальная форма

Пример матрицы в жордановой нормальной форме. Серые блоки называются блоками Жордана.

Пусть [math]\displaystyle{ V }[/math] является [math]\displaystyle{ n }[/math]-мерным векторным пространством. Пусть [math]\displaystyle{ \phi }[/math] будет линейным отображением из [math]\displaystyle{ L(V }[/math]), множества всех линейных отображений из [math]\displaystyle{ V }[/math] в себя. Пусть [math]\displaystyle{ A }[/math] будет матричным представлением [math]\displaystyle{ \phi }[/math] для некоторого упорядоченного базиса. Можно показать, что если характеристический многочлен [math]\displaystyle{ f(\lambda) }[/math] матрицы [math]\displaystyle{ A }[/math] разлагается на линейные множители, так что [math]\displaystyle{ f(\lambda) }[/math] имеет вид:

[math]\displaystyle{ f(\lambda) = \pm (\lambda - \lambda_1)^{\mu_1}(\lambda - \lambda_2)^{\mu_2} \cdots (\lambda - \lambda_r)^{\mu_r} ~, }[/math]

где [math]\displaystyle{ \lambda_1, \lambda_2, \ldots , \lambda_r }[/math] являются различными собственными значениями [math]\displaystyle{ A }[/math], то каждое [math]\displaystyle{ \mu_i }[/math] является алгебраической кратностью соответствующего собственного значения [math]\displaystyle{ \lambda_i }[/math], а [math]\displaystyle{ A }[/math] подобна матрице [math]\displaystyle{ J }[/math] в жордановой нормальной форме, где каждая [math]\displaystyle{ \lambda_i }[/math] появляется [math]\displaystyle{ \mu_i }[/math] раз последовательно на диагонали. При этом элемент непосредственно над каждой [math]\displaystyle{ \lambda_i }[/math] (то есть, на наддиагонали) равен либо 0, либо 1 — элементы, выше первого вхождения каждой [math]\displaystyle{ \lambda_i }[/math] всегда равны 0; все другие элементы на наддиагонали равны 1. При этом все другие элементы вне диагонали и наддиагонали равны 0. Матрица [math]\displaystyle{ J }[/math] наиболее близка к диагонализации матрицы [math]\displaystyle{ A }[/math]. Если матрица [math]\displaystyle{ A }[/math] диагонализируема, все элементы выше диагонали равны нулю [35]. Заметим, что в некоторых книгах единицы располагаются на поддиагонали, то есть, непосредственно под главной диагонали, а не на наддиагонали. Собственные значения при этом остаются на главной диагонали[36][37].

Любая [math]\displaystyle{ n \times n }[/math] матрица [math]\displaystyle{ A }[/math] подобна матрице [math]\displaystyle{ J }[/math] в жордановой нормальной форме, которая получается посредством преобразований подобия [math]\displaystyle{ J = M^{-1}AM }[/math], где [math]\displaystyle{ M }[/math] является обобщённой модальной матрицей матрицы [math]\displaystyle{ A }[/math][38] (См. Примечание выше).

Пример 4

Найдём матрицу в жордановой нормальной форме, которая подобна:

[math]\displaystyle{ A = \begin{pmatrix} 0 & 4 & 2 \\ -3 & 8 & 3 \\ 4 & -8 & -2 \end{pmatrix}~. }[/math]

Решение: Характеристическое уравнение матрицы [math]\displaystyle{ A }[/math][math]\displaystyle{ (\lambda - 2)^3 = 0 }[/math], следовательно, [math]\displaystyle{ \lambda = 2 }[/math] является собственным значением с алгебраической кратностью три. Следуя процедуре из предыдущего раздела, находим что:

[math]\displaystyle{ \operatorname{rank}(A - 2E) = 1 }[/math]

и

[math]\displaystyle{ \operatorname{rank}(A - 2E)^2 = 0 = n - \mu ~. }[/math]

Тогда [math]\displaystyle{ \rho_2 = 1 }[/math] и [math]\displaystyle{ \rho_1 = 2 }[/math], откуда следует, что канонический базис матрицы [math]\displaystyle{ A }[/math] будет содержать один линейно независимый обобщённый собственный вектор ранга 2 и два линейно независимых обобщённых собственных вектора ранга 1, или, что эквивалентно: одну цепочку из двух векторов [math]\displaystyle{ \left\{ \mathbf x_2, \mathbf x_1 \right\} }[/math] и одну цепочку векторов [math]\displaystyle{ \left\{ \mathbf y_1 \right\} }[/math]. Обозначив [math]\displaystyle{ M = \begin{pmatrix} \mathbf y_1 & \mathbf x_1 & \mathbf x_2 \end{pmatrix} }[/math], получим:

[math]\displaystyle{ M = \begin{pmatrix} 2 & 2 & 0 \\ 1 & 3 & 0 \\ 0 & -4 & 1 \end{pmatrix} }[/math]

и

[math]\displaystyle{ J = \begin{pmatrix} 2 & 0 & 0 \\ 0 & 2 & 1 \\ 0 & 0 & 2 \end{pmatrix}~, }[/math]

где [math]\displaystyle{ M }[/math] является обобщённой модальной матрицей матрицы [math]\displaystyle{ A }[/math], столбцы матрицы [math]\displaystyle{ M }[/math] являются каноническим базисом матрицы [math]\displaystyle{ A }[/math], и [math]\displaystyle{ AM = MJ }[/math][39]. Поскольку обобщённые собственные векторы сами по себе не единственны, и поскольку некоторые из столбцов матриц [math]\displaystyle{ M }[/math] и [math]\displaystyle{ J }[/math] могут быть обменены, то отсюда следует, что как матрица [math]\displaystyle{ M }[/math], так и [math]\displaystyle{ J }[/math] не уникальны[40].

Пример 5

В Примере 3 был найден канонический базис линейно независимых обобщённых собственных векторов матрицы [math]\displaystyle{ A }[/math]. Обобщённая модальная матрица матрицы [math]\displaystyle{ A }[/math] равна:

[math]\displaystyle{ M = \begin{pmatrix} \mathbf y_1 & \mathbf x_1 & \mathbf x_2 & \mathbf x_3 \end{pmatrix} = \begin{pmatrix} -14 & 2 & -2 & 0 \\ 4 & 0 & 2 & 0 \\ -3 & 0 & 0 & 1 \\ 1 & 0 & 0 & 0 \end{pmatrix}~. }[/math]

Матрица в жордановой нормальной форме, подобная матрице [math]\displaystyle{ A }[/math], равна:

[math]\displaystyle{ J = \begin{pmatrix} 4 & 0 & 0 & 0 \\ 0 & 5 & 1 & 0 \\ 0 & 0 & 5 & 1 \\ 0 & 0 & 0 & 5 \end{pmatrix}~, }[/math]

так что [math]\displaystyle{ AM = MJ }[/math].

Приложения

Матричные функции

Три главные операции, которые можно проводить с квадратными матрицами — это сложение матриц, умножение на скаляр и матричное умножение[41]. Это в точности те операции, которые нужны для определения полиномиальной функции от [math]\displaystyle{ n \times n }[/math] матрицы [math]\displaystyle{ A }[/math][42]. Многие функции могут быть представлены в виде ряда Маклорена, Следовательно, можно определить более общие функции от матриц[43]. Если матрица [math]\displaystyle{ A }[/math] диагонализируема, то есть:

[math]\displaystyle{ D = M^{-1}AM ~, }[/math]

с

[math]\displaystyle{ D = \begin{pmatrix} \lambda_1 & 0 & \cdots & 0 \\ 0 & \lambda_2 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \lambda_n \end{pmatrix}~, }[/math]

тогда:

[math]\displaystyle{ D^k = \begin{pmatrix} \lambda_1^k & 0 & \cdots & 0 \\ 0 & \lambda_2^k & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \lambda_n^k \end{pmatrix}~, }[/math]

и суммирование ряда Маклорена функции [math]\displaystyle{ A }[/math] сильно упрощается [44]. Например, для получения любой степени k матрицы [math]\displaystyle{ A }[/math], нужно лишь вычислить [math]\displaystyle{ D^k }[/math], умножив затем слева матрицу [math]\displaystyle{ D^k }[/math] на [math]\displaystyle{ M }[/math], а затем справа на [math]\displaystyle{ M^{-1} }[/math][45].

С помощью обобщённых собственных векторов можно получить жорданову нормальную форму матрицы [math]\displaystyle{ A }[/math] и эти результаты можно обобщить для получения прямого метода вычисления функций от недиагонализируемых матриц[46] (См. Разложение Жордана.)

Дифференциальные уравнения

Рассмотрим задачу решения системы линейных обыкновенных дифференциальных уравнений:

[math]\displaystyle{ \mathbf x' = A \mathbf x ~, }[/math] (5)

где:

[math]\displaystyle{ \mathbf x = \begin{pmatrix} x_1(t) \\ x_2(t) \\ \vdots \\ x_n(t) \end{pmatrix}~, \quad \mathbf x' = \begin{pmatrix} x_1'(t) \\ x_2'(t) \\ \vdots \\ x_n'(t) \end{pmatrix}~, }[/math]      и      [math]\displaystyle{ A = (a_{ij}) ~. }[/math]

Если матрица [math]\displaystyle{ A }[/math] диагонализируема, так что [math]\displaystyle{ a_{ij} = 0 }[/math] для [math]\displaystyle{ i \ne j }[/math], система (5) сводится к системе из [math]\displaystyle{ n }[/math] уравнений, которые принимают вид:

[math]\displaystyle{ x_1' = a_{11} x_1 }[/math]
[math]\displaystyle{ x_2' = a_{22} x_2 }[/math]

[math]\displaystyle{ \vdots }[/math]

[math]\displaystyle{ x_n' = a_{nn} x_n ~. }[/math]

(6)

В этом случае общее решение задаётся выражениями:

[math]\displaystyle{ x_1 = k_1 e^{a_{11}t} }[/math]
[math]\displaystyle{ x_2 = k_2 e^{a_{22}t} }[/math]
[math]\displaystyle{ \vdots }[/math]
[math]\displaystyle{ x_n = k_n e^{a_{nn}t} ~. }[/math]

В общем случае следует диагонализировать матрицу [math]\displaystyle{ A }[/math] и свести систему (5) к системе вида (6) как указано ниже. Если матрица [math]\displaystyle{ A }[/math] диагонализируема, имеем [math]\displaystyle{ D = M^{-1}AM }[/math], где [math]\displaystyle{ M }[/math] является модальной матрицей матрицы [math]\displaystyle{ A }[/math]. После подстановки [math]\displaystyle{ A = MDM^{-1} }[/math] равенство (5) принимает вид [math]\displaystyle{ M^{-1} \mathbf x' = D(M^{-1} \mathbf x) }[/math], или:

[math]\displaystyle{ \mathbf y' = D \mathbf y ~, }[/math] (7)

где:

[math]\displaystyle{ \mathbf x = M \mathbf y ~. }[/math] (8)

Решением уравнения (7) будет:

[math]\displaystyle{ y_1 = k_1 e^{\lambda_1 t} }[/math]
[math]\displaystyle{ y_2 = k_2 e^{\lambda_2 t} }[/math]
[math]\displaystyle{ \vdots }[/math]
[math]\displaystyle{ y_n = k_n e^{\lambda_n t} ~. }[/math]

Решение [math]\displaystyle{ \mathbf x }[/math] системы (5) получается тогда с помощью отношения (8)[47].

С другой стороны, если матрица [math]\displaystyle{ A }[/math] не диагонализируема, выберем в качестве матрицы [math]\displaystyle{ M }[/math] обобщённую модальную матрицу для матрицы [math]\displaystyle{ A }[/math], так что [math]\displaystyle{ J = M^{-1}AM }[/math] является жордановой нормальной формой матрицы [math]\displaystyle{ A }[/math]. Система [math]\displaystyle{ \mathbf y' = J \mathbf y }[/math] имеет вид:

[math]\displaystyle{ \begin{align} y_1' & = \lambda_1 y_1 + \epsilon_1 y_2 \\ & \vdots \\ y_{n-1}' & = \lambda_{n-1} y_{n-1} + \epsilon_{n-1} y_n \\ y_n' & = \lambda_n y_n ~, \end{align} }[/math]

(9)

где значениями [math]\displaystyle{ \lambda_i }[/math] являются собственные значения с главной диагонали матрицы [math]\displaystyle{ J }[/math], а значениями [math]\displaystyle{ \epsilon_i }[/math] будут единицы и нули с наддиагонали матрицы [math]\displaystyle{ J }[/math]. Систему (9) часто решить проще, чем (5), например, по следующей схеме:

Решая последнее равенство в (9) относительно [math]\displaystyle{ y_n }[/math] получаем [math]\displaystyle{ y_n = k_n e^{\lambda_n t} }[/math]. Подставляя полученное значение [math]\displaystyle{ y_n }[/math] в предпоследнее равенство в (9), решаем его относительно [math]\displaystyle{ y_{n-1} }[/math]. Продолжая этот процесс, пройдём по всем равенствам (9) от последнего до первого, решая тем самым всю систему уравнений. Решение [math]\displaystyle{ \mathbf x }[/math] тогда получается из отношений (8)[48].

Примечания

  1. 1,0 1,1 1,2 Bronson, 1970, с. 189.
  2. 2,0 2,1 Beauregard, Fraleigh, 1973, с. 310.
  3. 3,0 3,1 3,2 3,3 3,4 Nering, 1970, с. 118.
  4. 4,0 4,1 Golub, Van Loan, 1996, с. 316.
  5. Beauregard, Fraleigh, 1973, с. 319.
  6. 6,0 6,1 Bronson, 1970, с. 194–195.
  7. Golub, Van Loan, 1996, с. 311.
  8. 8,0 8,1 8,2 Bronson, 1970, с. 196.
  9. Beauregard, Fraleigh, 1973, с. 316–318.
  10. Anton, 1987, с. 301–302.
  11. Beauregard, Fraleigh, 1973, с. 266.
  12. 12,0 12,1 Burden, Faires, 1993, с. 401.
  13. Golub, Van Loan, 1996, с. 310–311.
  14. Harper, 1976, с. 58.
  15. Herstein, 1964, с. 225.
  16. Kreyszig, 1972, с. 273,684.
  17. Nering, 1970, с. 104.
  18. 18,0 18,1 Beauregard, Fraleigh, 1973, с. 270–274.
  19. 19,0 19,1 Bronson, 1970, с. 179–183.
  20. Bronson, 1970, с. 181.
  21. Bronson, 1970, с. 179.
  22. Bronson, 1970, с. 190,202.
  23. Bronson, 1970, с. 189,203.
  24. Bronson, 1970, с. 206–207.
  25. 25,0 25,1 Bronson, 1970, с. 205.
  26. Bronson, 1970, с. 189,209–215.
  27. Herstein, 1964, с. 259.
  28. Herstein, 1964, с. 261.
  29. Nering, 1970, с. 122,123.
  30. Bronson, 1970, с. 189–209.
  31. Bronson, 1970, с. 196,197.
  32. Bronson, 1970, с. 197,198.
  33. Bronson, 1970, с. 190–191.
  34. Bronson, 1970, с. 197–198.
  35. Beauregard, Fraleigh, 1973, с. 311.
  36. Cullen, 1966, с. 114.
  37. Franklin, 1968, с. 122.
  38. Bronson, 1970, с. 207.
  39. Bronson, 1970, с. 208.
  40. Bronson, 1970, с. 206.
  41. Beauregard, Fraleigh, 1973, с. 57–61.
  42. Bronson, 1970, с. 104.
  43. Bronson, 1970, с. 105.
  44. Bronson, 1970, с. 184.
  45. Bronson, 1970, с. 185.
  46. Bronson, 1970, с. 209–218.
  47. Beauregard, Fraleigh, 1973, с. 274–275.
  48. Beauregard, Fraleigh, 1973, с. 317.

Литература