Собственный вектор

Эта статья находится на начальном уровне проработки, в одной из её версий выборочно используется текст из источника, распространяемого под свободной лицензией
Материал из энциклопедии Руниверсалис
Синим цветом обозначен собственный вектор. Он, в отличие от красного, при деформации (преобразовании) не изменил направление, поэтому является собственным вектором этого преобразования, соответствующим некоторому собственному значению [math]\displaystyle{ \lambda }[/math] (здесь оно равно единице, так как вектор не изменил свою длину). Любой вектор, параллельный синему вектору, также будет собственным, соответствующим тому же собственному значению. Множество всех таких векторов (вместе с нулевым) образует собственное подпространство

Со́бственный ве́ктор — понятие в линейной алгебре, определяемое для произвольного линейного оператора как ненулевой вектор, применение к которому оператора даёт коллинеарный вектор — тот же вектор, умноженный на некоторое скалярное значение (которое может быть равно 0). Скаляр, на который умножается собственный вектор под действием оператора, называется собственным числом (или собственным значением) линейного оператора, соответствующим данному собственному вектору. Одним из представлений линейного оператора является квадратная матрица, поэтому собственные векторы и собственные значения часто определяются в контексте использования таких матриц[1][2].

Понятия собственного вектора и собственного числа[3] являются одними из ключевых в линейной алгебре, на их основе строится множество конструкций. Это связано с тем, что многие соотношения, связанные с линейными операторами, существенно упрощаются в системе координат, построенной на базисе из собственных векторов оператора. Множество собственных значений линейного оператора (спектр оператора) характеризует важные свойства оператора без привязки к какой-либо конкретной системе координат. По этим причинам собственные векторы имеют важное прикладное значение. Так, например, собственные векторы часто встречаются в механике, квантовой теории и так далее. В частности, оператор проекции спина на произвольную ось имеет два собственных значения и соответствующие им собственные векторы.

Понятие линейного векторного пространства не ограничивается «чисто геометрическими» векторами и обобщается на разнообразные множества объектов, таких как пространства функций (в которых действуют линейные дифференциальные и интегральные операторы). Для такого рода пространств и операторов говорят о собственных функциях операторов.

Множество всех собственных векторов линейного оператора, соответствующих данному собственному числу, дополненное нулевым вектором, называется собственным подпространством[4] этого оператора.

Поиск оптимальных алгоритмов вычисления собственных значений для заданного линейного оператора является одной из важных задач вычислительной математики.

Определения

Другая трансформация Джоконды. Синий вектор меняет направление, а красный — нет. Поэтому красный является собственным вектором, а синий — нет. Так как красный вектор ни растянулся, ни сжался, его собственное значение равно, как и на картинке выше, единице. Все векторы, коллинеарные красному, тоже собственные.

Собственным вектором линейного преобразования [math]\displaystyle{ A\colon L \to L }[/math], где [math]\displaystyle{ L }[/math] — линейное пространство над полем [math]\displaystyle{ K }[/math], называется такой ненулевой вектор [math]\displaystyle{ x \in L }[/math], что для некоторого [math]\displaystyle{ \lambda \in K }[/math] имеет место [math]\displaystyle{ \ A x = \lambda x }[/math].

Собственным значением (собственным числом) линейного преобразования [math]\displaystyle{ A }[/math] называется такое число [math]\displaystyle{ \lambda \in K }[/math], для которого существует собственный вектор, то есть уравнение [math]\displaystyle{ A x = \lambda x }[/math] имеет ненулевое решение [math]\displaystyle{ x \in L }[/math].

Упрощённо говоря, собственный вектор — любой ненулевой вектор [math]\displaystyle{ x }[/math], который отображается в коллинеарный ему вектор [math]\displaystyle{ \lambda x }[/math] оператором [math]\displaystyle{ A }[/math], а соответствующий скаляр [math]\displaystyle{ \lambda }[/math] называется собственным значением оператора.

Собственным подпространством (или характеристическим подпространством) линейного преобразования [math]\displaystyle{ A }[/math] для данного собственного числа [math]\displaystyle{ \lambda \in K }[/math] (или отвечающим этому числу) называется множество всех собственных векторов [math]\displaystyle{ x \in L }[/math], соответствующих данному собственному числу, дополненное нулевым вектором. Обозначим собственное подпространство, отвечающее собственному числу [math]\displaystyle{ \lambda }[/math], через [math]\displaystyle{ E_{\lambda} }[/math], а единичный оператор — через [math]\displaystyle{ I }[/math]. По определению, собственное подпространство является ядром оператора [math]\displaystyle{ A-\lambda \cdot I, }[/math] то есть множеством векторов, отображаемых этим оператором в нулевой вектор:

[math]\displaystyle{ E_{\lambda}=\ker(A-\lambda \cdot I) }[/math].

Корневым вектором линейного преобразования [math]\displaystyle{ A }[/math] для данного собственного значения [math]\displaystyle{ \lambda \in K }[/math] называется такой ненулевой вектор [math]\displaystyle{ x \in L }[/math], что для некоторого натурального числа [math]\displaystyle{ m }[/math] имеет место:

[math]\displaystyle{ (A-\lambda \cdot I)^m x =0 }[/math].

Если [math]\displaystyle{ m }[/math] является наименьшим из таких натуральных чисел (то есть [math]\displaystyle{ (A-\lambda \cdot I)^{m-1} x \neq 0 }[/math]), то [math]\displaystyle{ m }[/math] называется высотой корневого вектора [math]\displaystyle{ x }[/math].

Корневым подпространством линейного преобразования [math]\displaystyle{ A }[/math] для данного собственного числа [math]\displaystyle{ \lambda \in K }[/math] называется множество всех корневых векторов [math]\displaystyle{ x \in L }[/math], соответствующих данному собственному числу, если это множество дополнить нулевым вектором. Обозначим корневое подпространство, отвечающее собственному числу λ, через [math]\displaystyle{ V_{\lambda} }[/math]. По определению:

[math]\displaystyle{ V_{\lambda}=\bigcup_{m=1}^{\infty}\ker(A-\lambda \cdot I)^m = \bigcup_{m=1}^{\infty}V_{m,\lambda} }[/math].

История

Собственные значения обычно вводятся в контексте линейной алгебры, однако исторически они возникли при исследовании квадратичных форм и дифференциальных уравнений.

В XVIII веке Эйлер, изучая вращательное движение абсолютно твёрдого тела, обнаружил значимость главных осей, а Лагранж показал, что главные оси соответствуют собственным векторам матрицы инерции. В начале XIX века Коши использовал труды Эйлера и Лагранжа для классификации поверхностей второго порядка и обобщил результаты на высшие порядки. Коши также ввёл термин «характеристический корень» (фр. racine caractéristique) для собственного значения. Этот термин сохранился в контексте характеристического многочлена матрицы[5][6].

В начале XX века Гильберт занимался исследованием собственных значений интегральных операторов, рассматривая последние как матрицы бесконечного размера[7]. В 1904 году для обозначения собственных значений и собственных векторов Гильберт начал использовать термины eigenvalues и eigenvectors, основанные на немецком слове eigen (собственный)[8]. Впоследствии эти термины перешли и в английский язык, заменив используемые ранее «proper value» и «proper vector»[9].

Свойства

Общий случай

Подпространство [math]\displaystyle{ V \subset L }[/math] называется инвариантным подпространством линейного преобразования [math]\displaystyle{ A }[/math] ([math]\displaystyle{ A }[/math]-инвариантным подпространством), если:

[math]\displaystyle{ AV \subseteq V }[/math].

Собственные подпространства [math]\displaystyle{ E_{\lambda} }[/math], корневые подпространства [math]\displaystyle{ V_{\lambda} }[/math] и подпространства [math]\displaystyle{ V_{m,\lambda} }[/math] линейного оператора [math]\displaystyle{ A }[/math] являются [math]\displaystyle{ A }[/math]-инвариантными.

Собственные векторы являются корневыми (высоты 1): [math]\displaystyle{ E_{\lambda} \subseteq V_{\lambda} }[/math];

Корневые векторы могут не быть собственными: например, для преобразования двумерного пространства, заданного матрицей:

[math]\displaystyle{ A= \begin{pmatrix} 1& 1\\ 0&1\end{pmatrix} }[/math]
[math]\displaystyle{ (A-E)^2=0 }[/math], и все векторы являются корневыми, соответствующими собственному числу [math]\displaystyle{ 1 }[/math], но [math]\displaystyle{ A }[/math] имеет единственный собственный вектор (с точностью до умножения на число).

Для разных собственных значений корневые (и, следовательно, собственные) подпространства имеют тривиальное (нулевое) пересечение:

[math]\displaystyle{ V_{\lambda} \bigcap V_{\mu}=\{0\} }[/math] если [math]\displaystyle{ \lambda \neq \mu }[/math].

Метод поиска собственных значений для самосопряжённых операторов и поиска сингулярных чисел для нормального оператора даёт теорема Куранта — Фишера.

Конечномерные линейные пространства

Выбрав базис в [math]\displaystyle{ n }[/math]-мерном линейном пространстве [math]\displaystyle{ L }[/math], можно сопоставить линейному преобразованию [math]\displaystyle{ A\colon L \to L }[/math] квадратную [math]\displaystyle{ n\times n }[/math] матрицу и определить для неё характеристический многочлен матрицы:

[math]\displaystyle{ P_A(\lambda)=\det (A-\lambda \cdot I) = \sum\limits_{k=0}^{n}a_k \lambda^k }[/math].

Характеристический многочлен не зависит от базиса в [math]\displaystyle{ L }[/math]. Его коэффициенты являются инвариантами оператора [math]\displaystyle{ A }[/math]. В частности, [math]\displaystyle{ a_0 = \det\,A }[/math], [math]\displaystyle{ a_{n-1} = \operatorname{tr}\, A }[/math] не зависят от выбора базиса.

Собственные значения, и только они, являются корнями характеристического многочлена матрицы. Количество различных собственных значений не может превышать размер матрицы. Если выбрать в качестве базисных векторов собственные векторы оператора, то матрица [math]\displaystyle{ A }[/math] в таком базисе станет диагональной, причём на диагонали будут стоять собственные значения оператора. Отметим, однако, что далеко не любая матрица допускает базис из собственных векторов (общая структура описывается нормальной жордановой формой). Для положительно определённой симметричной матрицы [math]\displaystyle{ A }[/math] процедура нахождения собственных значений и собственных векторов является не чем иным, как поиском направлений и длин полуосей соответствующего эллипса.

Если числовое поле алгебраически замкнуто (например, является полем комплексных чисел), то характеристический многочлен разлагается в произведение [math]\displaystyle{ n }[/math] линейных множителей:

[math]\displaystyle{ P_A(\lambda)=(-1)^n \prod_{i=1}^n (\lambda - \lambda_i) }[/math],

где [math]\displaystyle{ \lambda_i \; (i=1,\ldots,n ) }[/math] — собственные значения; некоторые из [math]\displaystyle{ \lambda_i }[/math] могут быть равны. Кратность собственного значения [math]\displaystyle{ \lambda_i }[/math] — это число множителей, равных [math]\displaystyle{ \lambda - \lambda_i, }[/math] в разложении характеристического многочлена на линейные множители (называется также алгебраическая кратность собственного значения).

Размерность корневого пространства [math]\displaystyle{ V_{\lambda_i} }[/math] равна кратности собственного значения.

Векторное пространство [math]\displaystyle{ L }[/math] разлагается в прямую сумму корневых подпространств (по теореме о жордановой форме):

[math]\displaystyle{ L=\bigoplus_{\lambda_i}V_{\lambda_i} }[/math]
где суммирование производится по всем [math]\displaystyle{ \lambda_i }[/math] — собственным числам [math]\displaystyle{ A }[/math].

Геометрическая кратность собственного значения [math]\displaystyle{ \lambda_i }[/math] — это размерность соответствующего собственного подпространства [math]\displaystyle{ E_{\lambda_i} }[/math]; геометрическая кратность собственного значения не превосходит его кратности, поскольку [math]\displaystyle{ E_{\lambda_i} \subseteq V_{\lambda_i} }[/math]

Нормальные операторы и их подклассы

Все корневые векторы нормального оператора являются собственными. Собственные векторы нормального оператора [math]\displaystyle{ A }[/math], соответствующие различным собственным значениям, ортогональны, то есть если [math]\displaystyle{ A x=\lambda x }[/math], [math]\displaystyle{ A y=\mu y }[/math] и [math]\displaystyle{ \lambda \neq \mu }[/math], то [math]\displaystyle{ (x,y)=0 }[/math] (для произвольного оператора это неверно).

Все собственные значения самосопряжённого оператора являются вещественными, антиэрмитового оператора — мнимыми, а все собственные значения унитарного оператора лежат на единичной окружности [math]\displaystyle{ |\lambda|=1 }[/math].

В конечномерном случае сумма размерностей собственных подпространств нормального оператора [math]\displaystyle{ A\colon \Complex^n \to \Complex^n }[/math], соответствующих всем собственным значениям, равна размерности матрицы, а векторное пространство разлагается в ортогональную сумму собственных подпространств:

[math]\displaystyle{ L=\bigoplus_{\lambda_i}E_{\lambda_i} }[/math],

где суммирование производится по всем [math]\displaystyle{ \lambda_i }[/math] — собственным числам [math]\displaystyle{ A }[/math], а [math]\displaystyle{ E_{\lambda_i} }[/math] взаимно ортогональны для различных [math]\displaystyle{ \lambda_i }[/math]. Это свойство для нормального оператора над [math]\displaystyle{ \Complex }[/math] в конечномерном случае является характеристическим: оператор нормален тогда и только тогда, когда его матрица имеет диагональный вид в каком-нибудь ортонормированном базисе.

Положительные матрицы

Квадратная вещественная [math]\displaystyle{ n \times n }[/math] матрица [math]\displaystyle{ A=(a_{ij}) }[/math] называется положительной, если все её элементы положительны: [math]\displaystyle{ a_{ij} \gt 0 }[/math].

Теорема Перрона (частный случай теоремы Перрона — Фробениуса): Положительная квадратная матрица [math]\displaystyle{ A }[/math] имеет положительное собственное значение [math]\displaystyle{ r }[/math], которое имеет алгебраическую кратность 1 и строго превосходит абсолютную величину любого другого собственного значения этой матрицы. Собственному значению [math]\displaystyle{ r }[/math] соответствует собственный вектор [math]\displaystyle{ e_r }[/math], все координаты которого строго положительны. Вектор [math]\displaystyle{ e_r }[/math] — единственный собственный вектор [math]\displaystyle{ A }[/math] (с точностью до умножения на число), имеющий неотрицательные координаты.

Собственный вектор [math]\displaystyle{ e_r }[/math] может быть вычислен посредством прямых итераций: выбирается произвольный начальный вектор [math]\displaystyle{ v_0 }[/math] с положительными координатами, последующий элемент задаётся рекуррентной формулой:

[math]\displaystyle{ v_{k+1} = \frac{A v_{k}}{\|A v_{k}\|} }[/math],

получается последовательность [math]\displaystyle{ v_{k} }[/math], сходящаяся к нормированному собственному вектору [math]\displaystyle{ e_r / \|e_r\| }[/math].

Другая область применения метода прямых итераций — поиск собственных векторов положительно определённых симметричных операторов.

Неравенства для собственных значений

Неравенство Шура: для собственных значений [math]\displaystyle{ \lambda_{1}, \dots, \lambda_{n} }[/math] матрицы [math]\displaystyle{ A = (a_{ij})_{i , j = 1, \ldots , n} }[/math]:

[math]\displaystyle{ \sum_{i=1}^{n}|\lambda_{i}|^{2} \leqslant \sum_{i,j=1}^{n}|a_{ij}|^{2}=\|A\|_{F}^{2} }[/math],

причём равенство достигается тогда и только тогда, когда [math]\displaystyle{ A }[/math] — нормальная матрица[10].

Для собственных значений [math]\displaystyle{ \lambda_{1}, ..., \lambda_{n} }[/math] матрицы [math]\displaystyle{ A=B+iC }[/math], где матрицы [math]\displaystyle{ B, C }[/math] — эрмитовы, имеет место:

[math]\displaystyle{ \sum_{i=1}^{n}| \Re \lambda_{i}|^{2} \leqslant \sum_{i,j=1}^{n}|b_{ij}|^{2} }[/math] и [math]\displaystyle{ \sum_{i=1}^{n}| \Im \lambda_{i}|^{2} \leqslant \sum_{i,j=1}^{n}|c_{ij}|^{2} }[/math][11].

Для эрмитовых матриц [math]\displaystyle{ A, B }[/math] и [math]\displaystyle{ C = A + B }[/math] их собственные значения, упорядоченные в порядке возрастания: [math]\displaystyle{ \alpha_{1} \leqslant ... \leqslant \alpha_{n}, \beta_{1} \leqslant ... \leqslant \beta_{n}, \gamma_{1} \leqslant ... \leqslant \gamma_{n} }[/math] дают: [math]\displaystyle{ \gamma_{i} \geqslant \alpha_{i} + \beta_{i-j+1} }[/math] при [math]\displaystyle{ i \geqslant j }[/math] и [math]\displaystyle{ \gamma_{i} \leqslant \alpha_{i} + \beta_{i-j+n} }[/math] при [math]\displaystyle{ i \leqslant j }[/math][11].

Примечания

  1. Herstein (1964, pp. 228,229)
  2. Nering (1970, p. 38)
  3. Иногда используются синонимичные термины: характеристический вектор и характеристическое число оператора.
  4. Не путать с собственным подпространством линейного векторного пространства — любым подпространством, отличным от тривиальных подпространств, то есть от самого этого пространства и от нулевого пространства.
  5. Kline, 1972, pp. 807–808.
  6. Augustin Cauchy (1839) «Mémoire sur l’intégration des équations linéaires» (Memoir on the integration of linear equations), Comptes rendus, 8 : 827—830, 845—865, 889—907, 931—937. p. 827: Архивная копия от 7 июня 2019 на Wayback Machine «On sait d’ailleurs qu’en suivant la méthode de Lagrange, on obtient pour valeur générale de la variable prinicipale une fonction dans laquelle entrent avec la variable principale les racines d’une certaine équation que j’appellerai l'équation caractéristique, le degré de cette équation étant précisément l’order de l'équation différentielle qu’il s’agit d’intégrer.»
  7. Kline, 1972, p. 1063.
  8. David Hilbert (1904).«Grundzüge einer allgemeinen Theorie der linearen Integralgleichungen. (Erste Mitteilung)» Архивная копия от 5 ноября 2018 на Wayback Machine, Nachrichten von der Gesellschaft der Wissenschaften zu Göttingen, Mathematisch-Physikalische Klasse, pp. 49-91.
  9. Aldrich, John (2006), «Eigenvalue, eigenfunction, eigenvector, and related terms», in Jeff Miller (ed.), Earliest Known Uses of Some of the Words of Mathematics Архивная копия от 23 декабря 2017 на Wayback Machine
  10. Задачи и теоремы линейной алгебры, 1996, с. 206.
  11. 11,0 11,1 Задачи и теоремы линейной алгебры, 1996, с. 207.

Литература

  • Гантмахер Ф. Р.. Теория матриц. — М.: Наука, 1966. — 576 с. — ISBN ISBN 5-9221-0524-8.
  • Уилкинсон Д. Х. Алгебраическая проблема собственных значений. — М.: Наука, 1970. — 564 с. — ISBN 978-5-458-25464-9.
  • Гельфанд И. М.. Лекции по линейной алгебре. — М.: Добросвет, КДУ, 2009. — 320 с. — 1000 экз. — ISBN 978-5-98227-625-4.
  • Фаддеев Д. К.. Лекции по алгебре. — М.: ЁЁ Медиа, 2012. — 416 с. — ISBN 978-5-458-25543-1.
  • Шафаревич И. Р., Ремизов А. О. Линейная алгебра и геометрия. — М.: Физматлит, 2009. — 512 с. — ISBN 978-5-9221-1139-3.
  • Прасолов В. В. Задачи и теоремы линейной алгебры. — М.: Наука, 1996. — 304 с. — ISBN 5-02-014727-3.
  • Икрамов Х. Д. Несимметричная проблема собственных значений. — М.: Наука, 1991. — 240 с. — ISBN 5-02-014462-2.
  • Herstein, I. N. (1964), Topics In Algebra, Waltham: Blaisdell Publishing Company, ISBN 978-1114541016 
  • Horn, Roger A. & Johnson, Charles F. (1985), Matrix analysis, Cambridge University Press, ISBN 0-521-30586-1 
  • Nering, Evar D. (1970), Linear Algebra and Matrix Theory (2nd ed.), New York: Wiley 
  • Kline, Morris (1972), Mathematical thought from ancient to modern times, Oxford University Press, ISBN 0-19-501496-0