Diagonalisierbare Matrix

Als diagonalisierbare Matrix bezeichnet man im mathematischen Teilgebiet der linearen Algebra eine quadratische Matrix, die ähnlich zu einer Diagonalmatrix ist. Sie lässt sich mittels eines Basiswechsels (also der Konjugation mit einer regulären Matrix) in eine Diagonalmatrix transformieren. Das Konzept lässt sich auf Endomorphismen übertragen.

Definition

Diagonalmatrix

Hauptartikel: Diagonalmatrix

Eine quadratische Matrix {\displaystyle D=(d_{ij})} über einem Körper K, deren Elemente {\displaystyle d_{ij}\in K} mit i\neq j alle gleich Null sind, heißt Diagonalmatrix. Häufig schreibt man dafür

{\displaystyle D=\operatorname {diag} (d_{1},d_{2},\dotsc ,d_{n}):={\begin{pmatrix}d_{1}&0&\cdots &0\\0&d_{2}&\ddots &\vdots \\\vdots &\ddots &\ddots &0\\0&\cdots &0&d_{n}\end{pmatrix}}}.

Diagonalisierbare Matrix

Eine quadratische n-dimensionale Matrix A heißt diagonalisierbar oder diagonalähnlich, wenn es eine Diagonalmatrix D_{A} gibt, zu der sie ähnlich ist, das heißt, es existiert eine reguläre Matrix S, so dass gilt D_{A}=S^{-1}AS bzw. SD_{A}=AS.

Ein Endomorphismus f\colon V\to V über einem endlichdimensionalen Vektorraum V heißt diagonalisierbar, falls eine Basis B von V existiert, bezüglich der die Abbildungsmatrix {\displaystyle M_{B}(f)} eine Diagonalmatrix ist.

Unitär diagonalisierbare Matrix

Eine Matrix A\in {\mathbb  {C}}^{{n\times n}} ist genau dann unitär diagonalisierbar, falls eine unitäre Transformationsmatrix {\displaystyle S\in \mathbb {C} ^{n\times n}} existiert, sodass {\displaystyle S^{H}AS=S^{-1}AS} eine Diagonalmatrix ist, wobei {\displaystyle S^{H}} die zu S adjungierte Matrix ist.

Daraus folgt für eine reellwertige Matrix A die unitäre Diagonalisierbarkeit, falls eine orthogonale Transformationsmatrix {\displaystyle S\in \mathbb {R} ^{n\times n}} existiert, sodass{\displaystyle S^{T}AS=S^{-1}AS} eine Diagonalmatrix ist, wobei S^{T} die zu S transponierte Matrix ist.

In einem endlichdimensionalen Prähilbertraum V ist ein Endomorphismus f\colon V\to V genau dann unitär diagonalisierbar, wenn eine Orthonormalbasis B von V existiert, sodass die Abbildungsmatrix {\displaystyle M_{B}(f)} eine Diagonalmatrix ist.

Weitere Charakterisierungen der Diagonalisierbarkeit

Sei A eine n-dimensionale Matrix mit Einträgen aus einem Körper K. Jede der folgenden sechs Bedingungen wird genau dann erfüllt, wenn A diagonalisierbar ist.

  1. Das Minimalpolynom {\displaystyle m_{A}(\lambda )} zerfällt vollständig in paarweise verschiedene Linearfaktoren: {\displaystyle m_{A}(\lambda )=\pm (\lambda -\lambda _{1})\cdot \dots \cdot (\lambda -\lambda _{n})} mit \lambda _{i}\in K
  2. Das charakteristische Polynom \chi _{A}(\lambda ) zerfällt vollständig in Linearfaktoren und die geometrische Vielfachheit entspricht der algebraischen Vielfachheit für jeden Eigenwert \lambda _{i}\in K.
  3. Es gibt eine Basis für K^{n}, die aus Eigenvektoren für A besteht.
  4. Die Summe der Dimensionen der jeweiligen Eigenräume ist gleich n: {\displaystyle \sum _{\lambda \in \sigma (A)}\dim(E_{\lambda }(A))=n}, wobei \sigma (A) das Spektrum bezeichnet.
  5. K^{n} ist die direkte Summe der jeweiligen Eigenräume: {\displaystyle K^{n}=\bigoplus _{\lambda \in \sigma (A)}E_{\lambda }(A)}.
  6. Alle Jordanblöcke der Jordanschen Normalform J_A haben die Dimension 1.

Sind S und D_{A} mit den gewünschten Eigenschaften gefunden, so gilt, dass die Diagonaleinträge von D_{A}, nämlich \lambda _{i}, Eigenwerte von D_{A} zu gewissen Einheitsvektoren e_{i} sind. Dann ist ASe_{i}=SD_{A}e_{i}=S\lambda _{i}e_{i}=\lambda _{i}Se_{i}. Die Se_{i} sind also Eigenvektoren von A, und zwar jeweils zum Eigenwert \lambda _{i}.

Da S invertierbar sein soll, ist (Se_{1},\ldots ,Se_{n}) zudem linear unabhängig.

Zusammenfassend ergibt sich daraus die notwendige Bedingung, dass eine n-dimensionale diagonalisierbare Matrix n linear unabhängige Eigenvektoren haben muss. Der Raum, auf dem sie operiert, besitzt also eine Basis aus Eigenvektoren der Matrix. Diese Bedingung ist aber auch hinreichend, denn aus n gefundenen linear unabhängigen Eigenvektoren von A mit den dazugehörigen Eigenwerten lassen sich geeignete D_{A} und S ganz direkt konstruieren.

Das Problem reduziert sich damit auf das Auffinden von n linear unabhängigen Eigenvektoren von A.

Eine notwendige, aber nicht hinreichende Bedingung für Diagonalisierbarkeit ist, dass das charakteristische Polynom \chi _{A} vollständig in Linearfaktoren zerfällt: So ist {\displaystyle A={\begin{pmatrix}0&1\\0&0\end{pmatrix}}} nicht diagonalisierbar, obwohl {\displaystyle \chi _{A}(X)=X^{2}}. Eine hinreichende, aber nicht notwendige Bedingung für Diagonalisierbarkeit ist, dass \chi _{A} vollständig in paarweise verschiedene Linearfaktoren zerfällt: So ist {\displaystyle A={\begin{pmatrix}1&0\\0&1\end{pmatrix}}} diagonalisierbar, obwohl {\displaystyle \chi _{A}(X)=(X-1)^{2}}.

Eigenschaften einer diagonalisierbaren Matrix

Ist eine Matrix diagonalisierbar, so ist die geometrische Vielfachheit ihrer Eigenwerte gleich der jeweiligen algebraischen Vielfachheit. Das bedeutet, die Dimension der einzelnen Eigenräume stimmt jeweils mit der algebraischen Vielfachheit der entsprechenden Eigenwerte im charakteristischen Polynom der Matrix überein.

Die Matrixpotenz einer diagonalisierbaren Matrix A lässt sich berechnen durch

{\displaystyle A^{n}=S\cdot D_{A}^{n}\cdot S^{-1}}

Die Potenz einer Diagonalmatrix erhält man durch Potenzieren der Diagonalelemente.

Diagonalisierung

Ist eine Matrix A diagonalisierbar, existiert eine Diagonalmatrix D_{A}, für die die Ähnlichkeitsbedingung erfüllt ist:

D_{A}=S^{-1}AS

Zur Diagonalisierung dieser Matrix berechnet man die Diagonalmatrix D_{A} und eine zugehörige Basis aus Eigenvektoren. Dies geschieht in drei Schritten:

  1. Es werden die Eigenwerte \lambda _{i} der Matrix A bestimmt. (Einzelne Eigenwerte können dabei mehrfach vorkommen.)
  2. Es werden die Eigenräume E\left(\lambda _{i}\right) zu allen Eigenwerten \lambda _{i} berechnet, also Gleichungssysteme der folgenden Form gelöst
    (A-\lambda _{i}I)\cdot {\begin{pmatrix}e_{1}\\\vdots \\e_{n}\end{pmatrix}}=0.
  3. Weil die geometrische Vielfachheit gleich der algebraischen Vielfachheit jedes Eigenwerts ist, können wir zu jeder maximalen Menge {\displaystyle \lambda _{i_{1}}=\ldots =\lambda _{i_{k}}} übereinstimmender Eigenwerte eine Basis {\displaystyle \left\{b_{i_{1}},\ldots ,b_{i_{k}}\right\}} von {\displaystyle E\left(\lambda _{i_{1}}\right)=\ldots =E(\lambda _{i_{k}})} finden.
  4. Nun ist die Diagonalform D_{A} der Matrix A bezüglich der Basis {\displaystyle B=\left\{b_{1},\ldots ,b_{n}\right\}}:
    D_{A}=\operatorname {diag} (\lambda _{1},\lambda _{2},\dots ,\lambda _{n})
    {\displaystyle S=\left(b_{1},\ldots ,b_{n}\right)}

Simultane Diagonalisierung

Gelegentlich will man auch zwei Matrizen A,B mit derselben Transformation S diagonalisieren. Falls das gelingt, gilt S^{-1}AS=D_{1} und S^{-1}BS=D_{2} und da D_{1} und D_{2} Diagonalmatrizen sind,

D_{1}\cdot D_{2}=D_{2}\cdot D_{1}\Rightarrow B\cdot A=SD_{2}S^{-1}\cdot SD_{1}S^{-1}=SD_{1}D_{2}S^{-1}=A\cdot B.

Also müssen die Endomorphismen miteinander kommutieren. In der Tat gilt auch die Umkehrung: Kommutieren zwei diagonalisierbare Endomorphismen, so können sie simultan diagonalisiert werden. In der Quantenmechanik gibt es für zwei solche Operatoren dann eine Basis aus gemeinsamen Eigenzuständen.

Beispiel

Sei {\displaystyle A={\begin{pmatrix}1&0&1\\0&2&0\\1&0&1\end{pmatrix}}\in \mathbb {R} ^{3\times 3}} die zu diagonalisierende Matrix. A ist (unitär) diagonalisierbar, da A symmetrisch ist, d.h. es gilt A=A^{T}.

Die Eigenwerte \lambda _{i} von A lassen sich durch die Nullstellen des charakteristischen Polynoms \chi _{A} bestimmen:

{\displaystyle \chi _{A}(\lambda )=\det(\lambda E_{3}-A)=\det {\begin{pmatrix}\lambda -1&0&-1\\0&\lambda -2&0\\-1&0&\lambda -1\end{pmatrix}}=\lambda (\lambda -2)^{2}}

Also {\displaystyle \lambda _{1}=0,\lambda _{2}=2}. Der Eigenwert 2 hat algebraische Vielfachheit {\displaystyle a_{\lambda _{2}}=2}, da er doppelte Nullstelle des charakteristischen Polynoms ist.

Zum Bestimmen der Eigenräume setze man die Eigenwerte in {\displaystyle E(\lambda )=\mathrm {Kern} (\lambda E_{3}-A)} ein.

Um alle {\displaystyle v\in \mathbb {R} ^{3}} mit {\displaystyle (\lambda E_{3}-A)v=0} zu erhalten, fassen wir die erweiterte Koeffizientenmatrix {\displaystyle {\begin{pmatrix}\lambda E_{3}-A\mid 0\end{pmatrix}}} als lineares Gleichungssystem mit unendlichen Lösungen auf.

Für \lambda =0 erhalten wir {\displaystyle {\begin{pmatrix}-A\mid 0\end{pmatrix}}={\begin{pmatrix}{\begin{array}{ccc|c}-1&0&-1&0\\0&-2&0&0\\-1&0&-1&0\end{array}}\end{pmatrix}}}, mit dem gaußschen Eliminationsverfahren erhalten wir {\displaystyle {\begin{pmatrix}{\begin{array}{ccc|c}1&0&1&0\\0&1&0&0\\0&0&0&0\end{array}}\end{pmatrix}}} und somit als Lösungsmenge den Eigenraum:

{\displaystyle E(\lambda _{1})=\left\{{\begin{pmatrix}\alpha \\0\\-\alpha \end{pmatrix}}:\alpha \in \mathbb {R} \right\}=\operatorname {Lin} {\begin{pmatrix}1\\0\\-1\end{pmatrix}}},

wobei {\displaystyle \operatorname {Lin} } die lineare Hülle bezeichnet.

Für \lambda =2 erhalten wir {\displaystyle {\begin{pmatrix}2\cdot E_{3}-A\mid 0\end{pmatrix}}={\begin{pmatrix}{\begin{array}{ccc|c}1&0&-1&0\\0&0&0&0\\-1&0&1&0\end{array}}\end{pmatrix}}}, daraus {\displaystyle {\begin{pmatrix}{\begin{array}{ccc|c}1&0&-1&0\\0&0&0&0\\0&0&0&0\end{array}}\end{pmatrix}}} und somit als Lösungsmenge den Eigenraum:

{\displaystyle E(\lambda _{2})=\left\{{\begin{pmatrix}\alpha \\\beta \\\alpha \end{pmatrix}}:\alpha ,\beta \in \mathbb {R} \right\}=\operatorname {Lin} \left\{{\begin{pmatrix}1\\0\\1\end{pmatrix}},{\begin{pmatrix}0\\1\\0\end{pmatrix}}\right\}}.

Die Eigenvektoren {\displaystyle v_{1}={\begin{pmatrix}1\\0\\-1\end{pmatrix}},v_{2}={\begin{pmatrix}1\\0\\1\end{pmatrix}},v_{3}={\begin{pmatrix}0\\1\\0\end{pmatrix}}} erhalten wir aus den Basen der Eigenräume, sie bilden eine Basis von \mathbb {R} ^{3}.

Wenn wir {\displaystyle v_{1},v_{2},v_{3}} normieren erhalten wir mit {\displaystyle b_{1}={\frac {1}{\sqrt {2}}}{\begin{pmatrix}1\\0\\-1\end{pmatrix}},b_{2}={\frac {1}{\sqrt {2}}}{\begin{pmatrix}1\\0\\1\end{pmatrix}},b_{3}={\begin{pmatrix}0\\1\\0\end{pmatrix}}} und {\displaystyle {\mathcal {B}}=\left\{b_{1},b_{2},b_{3}\right\}} eine Orthonormalbasis, da A symmetrisch und die Eigenvektoren der halbeinfachen Eigenwerte orthogonal zueinander sind (in dem Fall {\displaystyle v_{2}\perp v_{3}}).

Es gilt also {\displaystyle S=\left(b_{1},b_{2},b_{3}\right)={\frac {1}{\sqrt {2}}}{\begin{pmatrix}1&1&0\\0&0&{\sqrt {2}}\\-1&1&0\end{pmatrix}}}. Daraus erhalten wir unter der Nutzung der Eigenschaften von Orthonormalbasen die Inverse {\displaystyle S^{-1}=S^{T}={\frac {1}{\sqrt {2}}}{\begin{pmatrix}1&0&-1\\1&0&1\\0&{\sqrt {2}}&0\end{pmatrix}}}.

D_{A} bestimmt sich durch {\displaystyle D_{A}=\operatorname {diag} (\lambda _{1},\lambda _{2},\lambda _{3})=\operatorname {diag} (0,2,2)={\begin{pmatrix}0&0&0\\0&2&0\\0&0&2\end{pmatrix}}}.

Somit erhalten wir für D_{A}=S^{-1}AS

{\displaystyle {\begin{pmatrix}0&0&0\\0&2&0\\0&0&2\end{pmatrix}}={\frac {1}{2}}{\begin{pmatrix}1&0&-1\\1&0&1\\0&{\sqrt {2}}&0\end{pmatrix}}{\begin{pmatrix}1&0&1\\0&2&0\\1&0&1\end{pmatrix}}{\begin{pmatrix}1&1&0\\0&0&{\sqrt {2}}\\-1&1&0\end{pmatrix}}}

und damit die Diagonalisierung

{\displaystyle A=SD_{A}S^{-1}={\frac {1}{2}}{\begin{pmatrix}1&1&0\\0&0&{\sqrt {2}}\\-1&1&0\end{pmatrix}}{\begin{pmatrix}0&0&0\\0&2&0\\0&0&2\end{pmatrix}}{\begin{pmatrix}1&0&-1\\1&0&1\\0&{\sqrt {2}}&0\end{pmatrix}}}.

Siehe auch

Trenner
Basierend auf einem Artikel in: Extern Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung: Jena, den: 05.01. 2021