Schur-Zerlegung

Als Schur-Zerlegung oder Schursche Normalform (nach Issai Schur) bezeichnet man in der Linearen Algebra, einem Teilgebiet der Mathematik, eine wichtige Matrix-Zerlegung, genauer ein Trigonalisierungsverfahren.

Definition

A sei eine quadratische Matrix mit Einträgen aus \mathbb {K} (also A\in {\mathbb  {K}}^{{n\times n}}, wobei \mathbb {K} entweder für \mathbb {R} oder für \mathbb {C} steht). Zerfällt das charakteristische Polynom von A über \mathbb {K} in Linearfaktoren, so existiert eine unitäre Matrix U\in {\mathbb  {K}}^{{n\times n}}, sodass

R=U^{*}AU\quad (U^{*} ist die zu U adjungierte Matrix)

eine obere Dreiecksmatrix ist. Da U unitär ist, folgt A = U R U^*; eine solche Darstellung heißt Schur-Zerlegung von A.

Bemerkungen

R=D+N
Es gilt dann:
  • D ist eindeutig bis auf die Reihenfolge der Diagonalelemente und wird als der Diagonalanteil der Schur-Zerlegung bezeichnet.
  • N ist nilpotent, im Allgemeinen nur bezüglich ihrer Frobeniusnorm eindeutig und wird der nilpotente Anteil der Schur-Zerlegung genannt.
  • Die Frobeniusnorm von N ist genau dann 0, wenn A normal ist.

Konstruktion einer Schur-Zerlegung

Sei A\in {\mathbb  {K}}^{{n\times n}}. Zunächst muss ein Eigenwert \lambda_1 und ein entsprechender Eigenvektor v_{1} zu A gefunden werden. Nun werden n-1 Vektoren w_{2},\ldots ,w_{n} gewählt, so dass v_{1},w_{2},\ldots ,w_{n} eine orthonormale Basis in {\mathbb  {K}}^{{n}} bilden. Diese Vektoren bilden die Spalten einer Matrix V_1 mit

V_{1}^{*}AV_{1}={\begin{bmatrix}\lambda _{1}&*\\0&A_{1}\end{bmatrix}},

wobei A_{1} eine (n-1)\times (n-1) Matrix ist. Nun wird dieser Vorgang für A_{1} wiederholt. Es entsteht eine unitäre Matrix V_2 mit

V_{2}^{*}A_{1}V_{2}={\begin{bmatrix}\lambda _{2}&*\\0&A_{2}\end{bmatrix}},

wobei A_{2} eine (n-2)\times (n-2) Matrix ist. Dann gilt

Q_{2}^{*}AQ_{2}={\begin{bmatrix}\lambda _{1}&*&*\\0&\lambda _{2}&*\\0&0&A_{2}\end{bmatrix}},

wobei Q_{2}=V_{1}{\hat  {V}}_{2} mit {\hat  {V}}_{2}={\begin{bmatrix}1&0\\0&V_{2}\end{bmatrix}} gilt. Die gesamte Prozedur wird (n-1)-mal wiederholt, bis die Matrizen V_{1},\ldots ,{\hat  {V}}_{{n-1}} vorliegen. Dann ist Q:=V_{1}{\hat  {V}}_{2}{\hat  {V}}_{3}\cdots {\hat  {V}}_{{n-1}} eine unitäre Matrix und R:=Q^{*}AQ eine obere Dreiecksmatrix. Damit ist die Schur-Zerlegung der Matrix A bestimmt.

Beispiel

Betrachte beispielsweise die Matrix A={\begin{bmatrix}-2&1&3\\2&1&-1\\-7&2&7\end{bmatrix}} mit den Eigenwerten {\displaystyle \lambda _{1}=\lambda _{2}=\lambda _{3}=2} (die Matrix ist nicht diagonalisierbar, weil die Dimension des mit diesem Eigenwert assoziierten Eigenraums 1 beträgt).

Wir wählen als Basis für den Anfang die Standard-Basis \langle e_{1},e_{2},e_{3}\rangle , wobei e_{j} den j-ten Einheitsvektor bezeichnet.

Für A_{1}=A bestimmen wir einen Eigenvektor zu 2, zum Beispiel {\begin{bmatrix}1\\1\\1\end{bmatrix}} mit Darstellung v_{1}:=1e_{1}+1e_{2}+1e_{3}={\begin{bmatrix}1\\1\\1\end{bmatrix}} und ergänzen ihn zu einer linear unabhängigen Basis, z.B. \langle v_{1},e_{1},e_{3}\rangle . Aus dieser neuen Basis erzeugen wir die Basistransformation V_{1}=(v_{1}|e_{1}|e_{3}) und berechnen V_{1}^{{-1}}AV_{1}={\begin{bmatrix}2&2&-1\\0&-4&4\\0&-9&8\end{bmatrix}} daraus lässt sich ablesen, dass A_{2}={\begin{bmatrix}-4&4\\-9&8\end{bmatrix}}.

Für A_{2} bestimmen wir einen Eigenvektor zu 2, z.B. {\begin{bmatrix}2\\3\end{bmatrix}} mit Darstellung v_{2}:=0v_{1}+2e_{1}+3e_{3}={\begin{bmatrix}2\\0\\3\end{bmatrix}} und ergänzen ihn zu einer linear unabhängigen Basis, z.B. \langle v_{1},v_{2},e_{3}\rangle . Aus dieser neuen Basis erzeugen wir die Basistransformation V_{2}=(v_{1}|v_{2}|e_{3}) und berechnen V_{2}^{{-1}}AV_{2}={\begin{bmatrix}2&1&-1\\0&2&2\\0&0&2\end{bmatrix}}.

Wie oben gezeigt, kann die Basis beliebig gewählt werden, allerdings wird die Sache sehr einfach und interessant, wenn die Wahl der Standardbasis durchgezogen wird (sofern möglich). Dadurch ändern sich die vorherigen Schritte wie folgt:

Für A_{1}=A bestimmen wir einen Eigenvektor zu 2, z.B. {\begin{bmatrix}1\\1\\1\end{bmatrix}} mit Darstellung v_{1}:={\begin{bmatrix}1\\1\\1\end{bmatrix}} und ergänzen ihn zu einer linear unabhängigen Basis, z.B. \langle v_{1},e_{2},e_{3}\rangle . Aus dieser neuen Basis erzeugen wir die Basistransformation V_{1}=(v_{1}|e_{2}|e_{3}) und berechnen V_{1}^{{-1}}AV_{1}={\begin{bmatrix}2&1&3\\0&0&-4\\0&1&4\end{bmatrix}} daraus lässt sich ablesen, dass A_{2}={\begin{bmatrix}0&-4\\1&4\end{bmatrix}}.

Für A_{2} bestimmen wir einen Eigenvektor zu 2, z.B. {\begin{bmatrix}2\\-1\end{bmatrix}} mit Darstellung v_{2}:={\begin{bmatrix}0\\2\\-1\end{bmatrix}} und ergänzen ihn zu einer linear unabhängigen Basis, z.B. \langle v_{1},v_{2},e_{3}\rangle . Aus dieser neuen Basis erzeugen wir die Basistransformation V_{2}=(v_{1}|v_{2}|e_{3}) und berechnen V_{2}^{{-1}}AV_{2}={\begin{bmatrix}2&-1&3\\0&2&-2\\0&0&2\end{bmatrix}}.

Hier ist die Berechnung der Darstellung der Vektoren in der richtigen Basis sozusagen intuitiv und somit auch weniger fehleranfällig, zudem ist die finale Basistransformation hier V_2 auch eine Dreiecksmatrix.

Mit dem Gram-Schmidtschen Orthogonalisierungsverfahren kann die erhaltene Basistransformationsmatrix zu einer unitären Matrix gemacht werden, wie verlangt.

Trenner
Basierend auf einem Artikel in: Extern Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung: Jena, den: 27.12. 2020