2.2. СОБСТВЕННЫЕ ЗНАЧЕНИЯ


Теперь мы готовы обсудить главное качество матриц. Физическое явление резонанса хорошо знакомо каждому. Моделируя прохождение сигнала S через акустическую систему A, запишем

y = AS.


Если входной сигнал – резонансный тон, тогда выходной сигнал повторит его с точностью до масштабного множителя y = λS, подобно тому, как струна, отзываясь при настройке на зажатую соседнюю, звучит ей в унисон или вторит камертону.

Распространенный музыкальный инструмент имеет шесть струн. У матрицы количество резонансных тонов отвечает ее размеру. Их называют собственными векторами, а масштабные коэффициенты при них – собственными числами или, короче, спектром A.

Полная алгебраическая проблема собственных значений заключается в отыскании всех собственных чисел (спектра матрицы) и собственных векторов, заданных уравнением

AS = λS.


Оно нелинейно относительно искомых переменных, поскольку его правая часть содержит произведение неизвестных составляющих. В лоб их найти сложно. Попробуем отделить «мухи» λ от «котлет» S, переписав уравнение в виде (A–λE)S = 0. Если определитель матрицы в круглых скобках отличен от нуля, есть тривиальное решение S = (A–λE)–10 = 0. Нетривиальные собственные векторы существуют тогда и только тогда, когда

det(A–λE)=0.


Разделение переменных произошло. В последнем выражении нет собственных векторов. Его называют характеристическим уравнением матрицы A. Детерминант матрицы в круглых скобках представляет собой полином от λ. Теория комплексных чисел появилась, отчасти, потому, что позволила приписать полиному n-го порядка n корней.

При найденных значениях λ теперь нетрудно рассчитать собственные векторы из уравнения (A–λE)S=0. Линейно зависимой строкой вырожденной матрицы A–λE пренебрегают: вектор S находят с точностью до масштабного множителя, фиксирующего его длину.

Составим из собственных векторов и собственных значений и матрицы D=diag(λ1,...,λn) и V=(S1,S2,…, Sn), связанные между собой как AV=VD.

Отсюда следует важная формула спектрального разложения матрицы по матричным же составляющим

A=VDV–1.


Пользуясь анатомическими терминами, мы отделили «скелет» D матрицы A от облегающей его «плоти» V.

Матрица A сложнее ее «рентгеновского снимка» D. Этим обстоятельством пользуются для того, чтобы упрощать уравнения. Проиллюстрируем эту идею на примере анализа квадратичной функции

f = xTAx,


где A – симметричная матрица.

Собственные числа таких матриц вещественны, собственные векторы ортогональны. После нормирования собственных векторов, получаем ортогональную матрицу V, для которой V–1=VT, и f=xTVDVTx. Замена переменных y = VTx отвечает повороту координатных осей, в новом базисе квадратичная форма выглядит заметно проще

f = yTDy = λ1y122y22+ ... +λnyn2.


Закон инерции квадратичных форм гласит о том, что нет такой квадратичной функции, которую нельзя привести к главным осям, т.е. к простому выражению указанного выше вида.

Отмеченная тактика с успехом используется также для решения дифференциальных уравнений, пусть

x' = Ax,


где x – вектор состояния; x0=x(0) – начальное условие.
После подстановки разложения, имеем x'=VDV–1x или V–1x'=DV–1x, и

y' = Dy, x = Vy.


В итоге, система линейных дифференциальных уравнений распалась на совокупность уравнений первого порядка.

Rambler's Top100