Главная > Математика > Алгебраическая проблема собственныx значений
<< Предыдущий параграф
Следующий параграф >>
<< Предыдущий параграф Следующий параграф >>
Макеты страниц

Линейно независимые векторы, соответствующие совпадающим собственным значениям

59. Предположим теперь, что собственные значения так близки, что совпадают с рабочей точностью. Это имеет место, например, для матрицы если только мы не работаем с очень высокой точностью. Метод Якоби будет давать два почти ортогональных вектора, принадлежащих подпространству, натянутому на эти векторы будут иметь очень малые компоненты по но они будут являться почти произвольными ортогональными комбинациями

С другой стороны, обратная итерация из §§ 53—55 позволяет получить лишь один собственный вектор для данного значения Если случилось, что вычисленные точно равны, то нам будет нужен некоторый метод вычисления второго вектора в подпространстве, натянутом на Теперь, когда С имеет патологически близкие собственные значения, будет обнаружено, что вектор, полученный по методу § 54, чрезвычайно чувствителен к тому значению X, которое используется. Мы можем проиллюстрировать это с помощью простого примера.

Рассмотрим трехдиагональную матрицу

имеющую двукратное собственное значение с независимыми собственными векторами (1, 0, 0) и (0, 1, 1). Так как мы заменим его сначала на 10-, так что теперь все не равны нулю. Если выполним один шаг обратной итерации с то получается вектор

С другой стороны, если возьмем получается такой вектор:

тогда как при имеем

Каждый из этих собственных векторов лежит в точном подпространстве, хотя очень малые изменения в X приводят к совсем различным векторам. Третье собственное значение простое, и можно установить, что любое близкое к единице значение X дает единственный собственный вектор

Большая чувствительность вычисленного собственного вектора кочень малым изменениям в значении X может обернуться практическим преимуществом и может быть использована для получения независимых собственных векторов, соответствующих совпадающим или патологически близким собственным значениям. На работая с нормированными матрицами, мы искусственно разделяли все собственные значения по крайней мере практике это было весьма эффективно и всегда приводило к нужному числу независимых собственных векторов. Работая, например, с матрицей мы получили таким образом полную систему независимых собственных векторов. Если мы имели собственное значение высокой кратности, то использовали Возможно, стоит отметить, что использование, например, значения не имеет отрицательного влияния на точность вычисленного собственного вектора. Близость X к собственному значению влияет на скорость сходимости, но не на достижимую точность обратной итерации. Конечно, мы не можем ожидать, что вычисленные векторы будут ортогональны, но вспомним, что ухудшение ортогональности обнаруживается уже тогда, когда собственные значения еще весьма далеки от патологически близких. Нужно признать, что это решение задачи не очень изящно. Оно имеет тот недостаток, что если нам требуются ортогональные векторы, мы должны будем применить к вычисленным векторам процесс ортогонализации Шмидта. К тому же, если только процесс не может быть выполнен более обоснованно, остается опасность, что мы не получим полную цифровую информацию о подпространстве. Например, два вычисленных вектора предположительно могли быть такими:

где порядка единицы. Математически они независимы, но направление, ортогональное первому вектору, определяется плохо. В действительности мы имеем

и, следовательно, в процессе ортогонализации будут потеряны два десятичных знака.

Иногда, когда исходная матрица имеет кратные собственные значения, матрица С, полученная из нее, будет иметь некоторые элементы почти равные нулю. Тогда мы можем расщепить С на прямую сумму ряда меньших трехдиагональных матриц и собственные векторы, соответствующие различным трехдиагональным матрицам, автоматически будут точно ортогональными. К сожалению, опыт свидетельствует, что мы не можем надеяться на появление малых Наоборот, матрица показывает, насколько далеко мы можем быть от той ситуации, в которой имеем явное разложение трехдиагональной матрицы. Тем не менее даже в этом случае, если мы разделим, например, матрицу на две матрицы 10 и 11 порядка, положив равным нулю, то получим независимые ортогональные векторы, которые образуют подпространства, соответствующие патологически близким парам собственных значений, с очень высокой точностью. Поэтому вполне возможно, что такое разложение всегда допустимо, но тогда нужен некоторый надежный метод для решения вопроса, когда и как раскладывать.

<< Предыдущий параграф Следующий параграф >>
Оглавление