Determinante

In der linearen Algebra ist die Determinante eine Zahl (ein Skalar), die einer quadratischen Matrix zugeordnet wird und aus ihren Einträgen berechnet werden kann. Sie gibt an, wie sich das Volumen bei der durch die Matrix beschriebenen linearen Abbildung ändert, und ist ein nützliches Hilfsmittel bei der Lösung linearer Gleichungssysteme. Allgemeiner kann man jeder linearen Selbstabbildung (Endomorphismus) eine Determinante zuordnen. Übliche Schreibweisen für die Determinante einer quadratischen Matrix A sind \det(A), \det A oder |A|.

Zum Beispiel kann die Determinante einer 2\times 2-Matrix

A={\begin{pmatrix}a&b\\c&d\end{pmatrix}}

mit der Formel

\det A={\begin{vmatrix}a&b\\c&d\end{vmatrix}}=ad-bc

berechnet werden.

Mit Hilfe von Determinanten kann man beispielsweise feststellen, ob ein lineares Gleichungssystem eindeutig lösbar ist, und kann die Lösung mit Hilfe der cramerschen Regel explizit angeben. Das Gleichungssystem ist genau dann eindeutig lösbar, wenn die Determinante der Koeffizientenmatrix ungleich null ist. Entsprechend ist eine quadratische Matrix mit Einträgen aus einem Körper genau dann invertierbar, wenn ihre Determinante ungleich null ist.

Schreibt man n Vektoren im \mathbb {R} ^{n} als Spalten einer quadratischen Matrix, so kann die Determinante dieser Matrix gebildet werden. Bilden bei dieser Festlegung die n Vektoren eine Basis, so kann das Vorzeichen der Determinante dazu verwendet werden die Orientierung von euklidischen Räumen zu definieren. Der Absolutbetrag dieser Determinante entspricht zugleich dem Volumen des Parallelepipeds (auch Spat genannt), das durch diese Vektoren aufgespannt wird.

Wird die lineare Abbildung f\colon \mathbb {R} ^{n}\to \mathbb {R} ^{n} durch die Matrix A repräsentiert und ist S\subseteq \mathbb {R} ^{n} eine beliebige messbare Teilmenge, dann folgt, dass das Volumen von f(S) durch |\det A|\cdot \operatorname {Volumen} (S) gegeben ist.

Wird die lineare Abbildung f\colon \mathbb {R} ^{n}\to \mathbb {R} ^{m} durch die m\times n-Matrix A repräsentiert und ist S\subseteq \mathbb{R} ^{n} eine beliebige messbare Teilmenge, so gilt im Allgemeinen, dass das n-dimensionale Volumen von f(S) durch {\sqrt {\det(A^{T}A)}}\cdot \operatorname {Volumen} (S) gegeben ist.

Geschichte

Historisch hängen Determinanten (lat. determinare „abgrenzen“, „bestimmen“) und Matrizen sehr eng zusammen, was auch nach unserem heutigen Verständnis noch so ist. Allerdings wurde der Begriff der Matrix erst über 200 Jahre nach den ersten Überlegungen zu Determinanten geprägt. Ursprünglich wurde eine Determinante im Zusammenhang mit linearen Gleichungssystemen betrachtet. Die Determinante „determiniert“, ob das Gleichungssystem eine eindeutige Lösung besitzt (dies ist genau dann der Fall, wenn die Determinante ungleich null ist). Die ersten Betrachtungen dieser Art für 2×2-Matrizen wurden von Gerolamo Cardano Ende des 16. Jahrhunderts durchgeführt. Zirka hundert Jahre später studierten Gottfried Wilhelm Leibniz und Seki Takakazu unabhängig voneinander Determinanten größerer linearer Gleichungssysteme. Seki, der mittels Determinanten versuchte, schematische Lösungsformeln für Gleichungssysteme anzugeben, fand für den Fall von drei Unbekannten eine Vorschrift, die der späteren sarrusschen Regel entsprach.

Im 18. Jahrhundert wurden Determinanten ein fester Bestandteil der Technik zum Lösen linearer Gleichungssysteme. Im Zusammenhang mit seinen Studien zu Schnittpunkten zweier algebraischer Kurven berechnete Gabriel Cramer die Koeffizienten eines allgemeinen Kegelschnitts

A+By+Cx+Dy^{2}+Exy+x^{2}=0,

der durch fünf vorgegebene Punkte verläuft und stellte dabei die heute nach ihm benannte Cramersche Regel auf. Für Gleichungssysteme mit bis zu vier Unbekannten trat diese Formel schon bei Colin Maclaurin auf.

Mehrere bekannte Mathematiker wie Étienne Bézout, Leonhard Euler, Joseph-Louis Lagrange und Pierre-Simon Laplace befassten sich nun vor allem mit der Berechnung von Determinanten. Einen wichtigen Fortschritt in der Theorie erzielte Alexandre-Théophile Vandermonde in einer 1771 vollendeten und 1776 erschienenen Arbeit zur Eliminationstheorie. Darin formulierte er einige grundlegende Aussagen über Determinanten und gilt daher als ein Begründer der Theorie der Determinante. Zu diesen Resultaten gehörte beispielsweise die Aussage, dass eine gerade Anzahl von Vertauschungen zweier benachbarter Spalten oder Zeilen das Vorzeichen der Determinante nicht ändert, wohingegen sich das Vorzeichen der Determinante bei einer ungeraden Anzahl von Vertauschungen benachbarter Spalten oder Zeilen ändert.

Während seiner Untersuchungen von binären und ternären quadratischen Formen verwendete Gauß die schematische Notation einer Matrix ohne dieses Zahlenfeld als Matrix zu bezeichnen. Dabei definierte er als Nebenprodukt seiner Untersuchungen die heutige Matrizenmultiplikation und zeigte für gewisse Spezialfälle den Determinantenproduktsatz. Augustin-Louis Cauchy systematisierte die Theorie der Determinante weiter. Er führte beispielsweise die konjugierten Elemente ein und unterschied klar zwischen den einzelnen Elementen der Determinante beziehungsweise zwischen den Unterdeterminanten verschiedener Ordnung. Außerdem formulierte und bewies er Sätze über Determinanten wie zum Beispiel den Determinantenproduktsatz oder dessen Verallgemeinerung, die Formel von Binet-Cauchy. Außerdem trug er wesentlich dazu bei, dass sich der Begriff „Determinante“ für diese Abbildung durchsetzte. Daher kann insgesamt auch Augustin-Louis Cauchy als Begründer der Theorie der Determinante angesehen werden.

Die axiomatische Behandlung der Determinante als Funktion von n\times n unabhängigen Variablen gibt als erster Karl Weierstraß in seinen Berliner Vorlesungen (spätestens ab dem Jahre 1864 und möglicherweise schon davor), an die dann Ferdinand Georg Frobenius in seinen Berliner Vorlesungen des Sommersemesters 1874 anknüpft und dabei unter anderem und vermutlich als erster den laplaceschen Entwicklungssatz systematisch auf diese Axiomatik zurückführt.

Definition

Determinante einer quadratischen Matrix (axiomatische Beschreibung)

Eine Abbildung {\displaystyle \det \colon K^{(n\times n)}\to K} vom Raum der quadratischen Matrizen in den zugrunde liegenden Körper K bildet jede Matrix auf ihre Determinante ab, wenn sie folgende drei Eigenschaften (Axiome nach Karl Weierstraß) erfüllt, wobei eine quadratische Matrix spaltenweise als {\displaystyle A=(v_{1},\dotsc ,v_{n})} geschrieben wird:

Für alle v_{1},\ldots ,v_{n},w\in K^{n} gilt:
{\begin{aligned}&\det(v_{1},\ldots ,v_{i-1},v_{i}+w,v_{i+1},\ldots ,v_{n})\\&=\det(v_{1},\ldots ,v_{i-1},v_{i},v_{i+1},\ldots ,v_{n})+\det(v_{1},\ldots ,v_{i-1},w,v_{i+1},\ldots ,v_{n})\end{aligned}}
Für alle v_{1},\ldots ,v_{n}\in K^{n} und alle r\in K gilt:
\det(v_{1},\ldots ,v_{i-1},r\cdot v_{i},v_{i+1},\ldots ,v_{n})=r\cdot \det(v_{1},\ldots ,v_{i-1},v_{i},v_{i+1},\ldots ,v_{n})
Für alle v_{1},\ldots ,v_{n}\in K^{n} und alle i,j\in \{1,\ldots ,n\},i\neq j gilt:
\det(v_{1},\ldots ,v_{i-1},v_{i},v_{i+1},\ldots ,v_{j-1},v_{i},v_{j+1}\ldots ,v_{n})=0
Hieraus folgt, dass sich das Vorzeichen ändert, wenn man zwei Spalten vertauscht:
Für alle v_{1},\ldots ,v_{n}\in K^{n} und alle i,j\in \{1,\ldots ,n\},i\neq j gilt:
\det(v_{1},\ldots ,v_{i},\ldots ,v_{j},\ldots ,v_{n})=-\det(v_{1},\ldots ,v_{j},\ldots ,v_{i},\ldots ,v_{n})
Oft wird diese Folgerung zur Definition von alternierend verwendet. Im Allgemeinen ist diese jedoch nicht zur obigen äquivalent. Wird alternierend nämlich auf die zweite Weise definiert, gibt es keine eindeutige Determinantenform, wenn der Körper, über dem der Vektorraum gebildet wird, ein von 0 verschiedenes Element x mit x=-x besitzt (Charakteristik 2).
\det E_{n}=1

Es lässt sich beweisen (und Karl Weierstraß hat dies 1864 oder sogar früher getan), dass es eine und nur eine solche normierte alternierende Multilinearform auf der Algebra der n\times n-Matrizen über dem zugrundeliegenden Körper gibt – nämlich diese Determinantenfunktion \det (Weierstraßsche Determinantenkennzeichnung). Auch die schon erwähnte geometrische Interpretation (Volumeneigenschaft und Orientierung) folgt daraus.

Leibniz-Formel

Für eine n\times n-Matrix wurde die Determinante von Gottfried Wilhelm Leibniz durch die heute als Leibniz-Formel bekannte Formel für die Determinante einer Matrix A=(a_{{ij}})\in K^{{n\times n}} definiert:

\det A = \sum_{\sigma \in S_n} \left(\operatorname{sgn}(\sigma) \prod_{i=1}^n a_{i, \sigma(i)}\right)

Die Summe wird über alle Permutationen \sigma der symmetrischen Gruppe S_{n} vom Grad n berechnet. \operatorname {sgn} (\sigma ) bezeichnet das Signum der Permutation \sigma (+1, falls \sigma eine gerade Permutation ist, und −1, falls sie ungerade ist) und \sigma (i) ist der Funktionswert der Permutation \sigma an der Stelle i.

Diese Formel enthält n! Summanden und wird deshalb umso unhandlicher, je größer n ist. Sie eignet sich jedoch gut zum Beweis von Aussagen über Determinanten. Beispielsweise ist mit ihrer Hilfe die Stetigkeit der Determinantenfunktion ersichtlich.

Eine alternative Schreibweise der Leibniz-Formel verwendet das Levi-Civita-Symbol und die Einsteinsche Summenkonvention:

{\displaystyle \det A=\varepsilon _{i_{1}i_{2}\dots i_{n}}a_{1i_{1}}a_{2i_{2}}\dots a_{ni_{n}}}

Determinante eines Endomorphismus

Da ähnliche Matrizen die gleiche Determinante haben, kann man die Definition der Determinante von quadratischen Matrizen auf die durch diese Matrizen dargestellten linearen Selbstabbildungen (Endomorphismen) übertragen:

Die Determinante \det f einer linearen Abbildung f\colon V\to V eines Vektorraums V in sich ist die Determinante \det A einer Darstellungsmatrix A von f bezüglich einer Basis von V. Sie ist unabhängig von der Wahl der Basis.

Hierbei kann V ein beliebiger endlichdimensionaler Vektorraum über einem beliebigen Körper K sein. Allgemeiner kann man auch einen kommutativen Ring K mit Einselement und einen freien Modul vom Rang n über K betrachten.

Die Definition lässt sich ohne Verwendung von Matrizen folgendermaßen formulieren: Es sei \omega eine Determinantenfunktion. Dann ist \det f bestimmt durch f^{*}\omega =\left(\det f\right)\omega , wobei f^{*} der Rücktransport von Multilinearformen durch f ist. Es sei {\displaystyle \left(v_{1},\dotsc ,v_{n}\right)} eine Basis von V. Dann gilt:

{\displaystyle \det f:={\frac {\omega \left(f\left(v_{1}\right),\dotsc ,f\left(v_{n}\right)\right)}{\omega \left(v_{1},\dotsc ,v_{n}\right)}}}

Es ist \det f unabhängig von der Wahl von {\displaystyle \omega \neq 0} und der Basis. Geometrisch interpretiert erhält man das Volumen des von {\displaystyle \left(f\left(v_{1}\right),\dotsc ,f\left(v_{n}\right)\right)} aufgespannten Spates, indem man das Volumen des von {\displaystyle \left(v_{1},\dotsc ,v_{n}\right)} aufgespannten Spates mit dem Faktor \det f multipliziert.

Eine alternative Definition ist die folgende: Es sei n die Dimension von V und \Lambda ^{n}V die n-te äußere Potenz von V. Dann gibt es eine eindeutig bestimmte lineare Abbildung {\displaystyle \Lambda ^{n}f\colon \Lambda ^{n}V\to \Lambda ^{n}V}, die durch

{\displaystyle v_{1}\wedge \dotsb \wedge v_{n}\mapsto f\left(v_{1}\right)\wedge \dotsb \wedge f\left(v_{n}\right)}

festgelegt ist. (Diese Abbildung \Lambda ^{n}f ergibt sich durch universelle Konstruktion als Fortsetzung von f auf die äußere Algebra \Lambda V, eingeschränkt auf die Komponente vom Grad n.)

Da der Vektorraum \Lambda ^{n}V eindimensional ist, ist {\displaystyle \Lambda ^{n}f} einfach nur die Multiplikation mit einem Körperelement. Dieses Körperelement ist \det f. Es gilt also

{\displaystyle (\Lambda ^{n}f)(v_{1}\wedge \dotsb \wedge v_{n})=(\det f)\,v_{1}\wedge \dotsb \wedge v_{n}}.

Berechnung

Quadratische Matrizen bis zur Größe 3 × 3

Rechenregeln für die Berechnung der Determinante

Die 0\times 0-Matrix hat die Determinante 1.

Für eine nur aus einem Koeffizienten bestehende 1\times 1-Matrix A ist

\det A=\det {\begin{pmatrix}a_{11}\end{pmatrix}}=a_{11}.

Ist A eine 2\times 2-Matrix, dann ist

\det A=\det {\begin{pmatrix}a_{11}&a_{12}\\a_{21}&a_{22}\end{pmatrix}}=a_{11}a_{22}-a_{12}a_{21}.

Für eine 3\times 3-Matrix A gilt die Formel

{\begin{aligned}\det A&=\det {\begin{pmatrix}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\\a_{31}&a_{32}&a_{33}\end{pmatrix}}\\&=a_{11}a_{22}a_{33}+a_{12}a_{23}a_{31}+a_{13}a_{21}a_{32}-a_{13}a_{22}a_{31}-a_{12}a_{21}a_{33}-a_{11}a_{23}a_{32}.\end{aligned}}

Will man diese Determinante von Hand berechnen, so stellt die Regel von Sarrus dafür ein einfaches Schema zur Verfügung.

Spatprodukt

Liegt eine 3\times 3-Matrix vor, lässt sich deren Determinante auch über das Spatprodukt berechnen.

Gaußsches Eliminationsverfahren zur Determinantenberechnung

Allgemein können Determinanten mit dem Gaußschen Eliminationsverfahren unter Verwendung der folgenden Regeln berechnet werden:

Beginnend mit einer beliebigen quadratischen Matrix benutzt man die letzten drei dieser vier Regeln, um die Matrix in eine obere Dreiecksmatrix zu überführen, und berechnet dann die Determinante als Produkt der Diagonalelemente.

Auf diesem Prinzip basiert auch die Determinantenberechnung mittels der LR-Zerlegung. Da sowohl L als auch R Dreiecksmatrizen sind, ergeben sich ihre Determinanten aus dem Produkt der Diagonalelemente, die bei L alle auf 1 normiert sind. Gemäß dem Determinantenproduktsatz ergibt sich die Determinante damit aus dem Zusammenhang

\det A=\det \left(L\cdot R\right)=\det L\cdot \det R=\det R=r_{1,1}\cdot r_{2,2}\dotsb r_{n,n}.

Laplacescher Entwicklungssatz

Entwicklung der Determinante nach Spalte oder Zeile

Mit dem Laplaceschen Entwicklungssatz kann man die Determinante einer n\times n-Matrix „nach einer Zeile oder Spalte entwickeln“. Die beiden Formeln lauten

\det A=\sum _{i=1}^{n}(-1)^{i+j}\cdot a_{ij}\cdot \det A_{ij} (Entwicklung nach der j-ten Spalte)
\det A=\sum _{j=1}^{n}(-1)^{i+j}\cdot a_{ij}\cdot \det A_{ij} (Entwicklung nach der i-ten Zeile),

wobei A_{ij} die (n-1)\times (n-1)-Untermatrix von A ist, die durch Streichen der i-ten Zeile und j-ten Spalte entsteht. Das Produkt (-1)^{i+j}\det A_{ij} wird Cofaktor {\tilde {a}}_{ij} genannt.

Genau genommen gibt der Entwicklungssatz nur ein Verfahren an, die Summanden der Leibniz-Formel in einer bestimmten Reihenfolge zu berechnen. Dabei wird die Determinante bei jeder Anwendung um eine Dimension reduziert. Falls gewünscht, kann das Verfahren so lange angewandt werden, bis sich ein Skalar ergibt. Ein Beispiel ist

{\displaystyle {\begin{vmatrix}0&1&2\\3&2&1\\1&1&0\end{vmatrix}}=0\cdot {\begin{vmatrix}2&1\\1&0\end{vmatrix}}-1\cdot {\begin{vmatrix}3&1\\1&0\end{vmatrix}}+2\cdot {\begin{vmatrix}3&2\\1&1\end{vmatrix}}=0\cdot (2\cdot 0-1\cdot 1)-1\cdot (3\cdot 0-1\cdot 1)+2\cdot (3\cdot 1-2\cdot 1)=0+1+2=3}

(Entwicklung nach der ersten Zeile) oder allgemein

{\begin{vmatrix}a&b&c\\d&e&f\\g&h&i\end{vmatrix}}=a{\begin{vmatrix}e&f\\h&i\end{vmatrix}}-b{\begin{vmatrix}d&f\\g&i\end{vmatrix}}+c{\begin{vmatrix}d&e\\g&h\end{vmatrix}}=a(ei-fh)-b(di-fg)+c(dh-eg)\,.

Der laplacesche Entwicklungssatz lässt sich auf folgende Weise verallgemeinern. Statt nur nach einer Zeile oder Spalte kann man auch nach mehreren Zeilen oder Spalten entwickeln. Die Formel dafür lautet

\det A=\sum _{|J|=|I|}(-1)^{\sum I+\sum J}\det A_{IJ}\det A_{I'J'}

mit den folgenden Bezeichnungen: I und J sind Teilmengen von \{1,\ldots ,n\} und A_{IJ} ist die Untermatrix von A, die aus den Zeilen mit den Indizes aus I und den Spalten mit den Indizes aus J besteht. I' und J' bezeichnen die Komplemente von I und J. \sum I=\sum \nolimits _{i\in I}i ist die Summe der Indizes aus I. Für die Entwicklung nach den Zeilen mit den Indizes aus I läuft die Summe über alle J\subseteq \{1,\ldots ,n\}, wobei die Anzahl dieser Spaltenindizes |J| gleich der Anzahl der Zeilen |I| ist, nach denen entwickelt wird. Für die Entwicklung nach den Spalten mit den Indizes aus J läuft die Summe über I. Die Anzahl der Summanden ergibt sich als der Binomialkoeffizient {\binom {n}{k}} mit k=|I|=|J|.

Effizienz

Der Aufwand für die Berechnung nach dem laplaceschen Entwicklungssatz für eine Matrix der Dimension n\times n ist von der Ordnung {\mathcal {O}}(n!), während die üblichen Verfahren nur von {\mathcal {O}}(n^{3}) sind und teilweise noch besser (siehe beispielsweise Strassen-Algorithmus) gestaltet werden können. Dennoch kann der laplacesche Entwicklungssatz bei kleinen Matrizen und Matrizen mit vielen Nullen gut angewendet werden.

Eigenschaften

Determinantenproduktsatz

Die Determinante ist eine multiplikative Abbildung in dem Sinne, dass

\det(A\cdot B)=\det A\cdot \det B für alle n\times n-Matrizen A und B.

Das bedeutet, dass die Abbildung \det \colon \mathrm {GL} (n,K)\rightarrow K^{*} ein Gruppenhomomorphismus von der allgemeinen linearen Gruppe in die Einheitengruppe K^{*} des Körpers ist. Der Kern dieser Abbildung ist die spezielle lineare Gruppe.

Allgemeiner gilt für die Determinante einer quadratischen Matrix, die das Produkt zweier (nicht notwendig quadratischer) Matrizen ist, der Satz von Binet-Cauchy. Noch allgemeiner ergibt sich als unmittelbare Folgerung aus dem Satz von Binet-Cauchy eine Formel für die Berechnung eines Minors der Ordnung k eines Produktes zweier Matrizen. Ist A eine m\times n-Matrix und B eine n\times p-Matrix und ist {\displaystyle I\subseteq \{1,\ldots ,m\}} und J\subseteq \{1,\ldots ,p\} mit |I|=|J|=k, dann gilt mit den Bezeichnungen wie beim verallgemeinerten Entwicklungssatz

\det(A\cdot B)_{IJ}=\sum _{K\subseteq \{1,\ldots ,n\},|K|=k}\det A_{IK}\det B_{KJ}.

Der Fall m=p=k liefert den Satz von Binet-Cauchy (der für n=m zum gewöhnlichen Determinantenproduktsatz wird) und der Spezialfall k=1 liefert die Formel für die gewöhnliche Matrizenmultiplikation.

Multiplikation mit Skalaren

Es ist einfach zu sehen, dass \det \left(r\cdot I_{n}\right)=r^{n} und somit

\det \left(rA\right)=r^{n}\det A     für alle n\times n-Matrizen A und alle Skalare r.

Existenz der inversen Matrix

Hauptartikel: Reguläre Matrix

Eine Matrix A ist genau dann invertierbar (also regulär), falls \det A eine Einheit des zugrundeliegenden Ringes ist (das heißt {\displaystyle \det A\neq 0} für Körper). Falls A invertierbar ist, dann gilt für die Determinante der Inversen \det \left(A^{-1}\right)=\left(\det A\right)^{-1}.

Transponierte Matrix

Eine Matrix und ihre Transponierte haben dieselbe Determinante:

\det A=\det A^{T}

Ähnliche Matrizen

Hauptartikel: Ähnlichkeit (Matrix)

Falls A und B ähnlich sind, das heißt, falls eine invertierbare Matrix X existiert, sodass A=X^{-1}BX, dann stimmen ihre Determinanten überein, denn

\det A=\det \left(X^{-1}BX\right)=\det \left(X^{-1}\right)\cdot \det \left(B\right)\cdot \det(X)=\det \left(X\right)^{-1}\cdot \det \left(B\right)\cdot \det \left(X\right)=\det B.

Deswegen kann man unabhängig von einer Koordinatendarstellung die Determinante einer linearen Selbstabbildung f\colon V\to V definieren (wobei V ein endlichdimensionaler Vektorraum ist), indem man eine Basis für V wählt, die Abbildung f durch eine Matrix relativ zu dieser Basis beschreibt und die Determinante dieser Matrix nimmt. Das Ergebnis ist unabhängig von der gewählten Basis.

Es gibt Matrizen, die die gleiche Determinante haben, aber nicht ähnlich sind.

Dreiecksmatrizen

Bei einer Dreiecksmatrix sind alle Einträge unterhalb oder oberhalb der Hauptdiagonale gleich {\displaystyle 0}, die Determinante ist das Produkt aller Hauptdiagonalelemente:

\det A=\prod _{i=1}^{n}a_{i,i}

Blockmatrizen

Für die Determinante einer (2\times 2)-Blockmatrix

{\begin{pmatrix}A&B\\C&D\end{pmatrix}}

mit quadratischen Blöcken A und D kann man unter gewissen Voraussetzungen Formeln angeben, welche die Blockstruktur ausnutzen. Für B=0 oder C=0 folgt aus dem verallgemeinerten Entwicklungssatz:

\det {\begin{pmatrix}A&0\\C&D\end{pmatrix}}=\det {\begin{pmatrix}A&B\\0&D\end{pmatrix}}=\det(A)\det(D).

Diese Formel wird auch Kästchensatz genannt.

Ist A invertierbar, so folgt aus der Zerlegung

{\begin{pmatrix}A&B\\C&D\end{pmatrix}}={\begin{pmatrix}A&0\\C&1\end{pmatrix}}{\begin{pmatrix}1&A^{-1}B\\0&D-CA^{-1}B\end{pmatrix}}

die Formel

\det {\begin{pmatrix}A&B\\C&D\end{pmatrix}}=\det(A)\det(D-CA^{-1}B).

Wenn D invertierbar ist, so lässt sich formulieren:

\det {\begin{pmatrix}A&B\\C&D\end{pmatrix}}=\det(D)\det(A-BD^{-1}C)

Im Spezialfall, dass alle vier Blöcke die gleiche Größe haben und paarweise kommutieren, ergibt sich daraus mit Hilfe des Determinantenproduktsatzes

\det {\begin{pmatrix}A&B\\C&D\end{pmatrix}}=\det(AD-BC)=\det \left(\det _{R}{\begin{pmatrix}A&B\\C&D\end{pmatrix}}\right).

Dabei bezeichne R\subseteq K^{n\times n} einen kommutativen Unterring des Ringes aller n\times n-Matrizen mit Einträgen aus dem Körper K, sodass \{A,B,C,D\}\subseteq R (zum Beispiel den von diesen vier Matrizen erzeugten Unterring), und \det _{R}\colon R^{2\times 2}\rightarrow R sei die entsprechende Abbildung, die einer quadratischen Matrix mit Einträgen aus R ihre Determinante zuordnet. Diese Formel gilt auch, falls A nicht invertierbar ist, und verallgemeinert sich für Matrizen aus R^{m\times m}.

Eigenwerte und charakteristisches Polynom

Ist das charakteristische Polynom der n\times n-Matrix A

\chi _{A}(x):=\det(x\cdot E_{n}-A)
\chi _{A}(x)=x^{n}-a_{1}x^{n-1}+a_{2}x^{n-2}-\dotsb +(-1)^{n}a_{n},

so ist a_{n} die Determinante von A.

Zerfällt das charakteristische Polynom in Linearfaktoren (mit nicht notwendigerweise verschiedenen \alpha _{i}):

\chi _{A}(x)=(x-\alpha _{1})\dotsm (x-\alpha _{n}),

so ist insbesondere

\det(A)=\alpha _{1}\dotsm \alpha _{n}.

Sind \lambda _{1},\dotsc ,\lambda _{r} die verschiedenen Eigenwerte der Matrix A mit r_{i}-dimensionalen verallgemeinerten Eigenräumen, so ist

\det(A)=\lambda _{1}^{r_{1}}\dotsm \lambda _{r}^{r_{r}}.

Stetigkeit und Differenzierbarkeit

Die Determinante von reellen quadratischen Matrizen fester Dimension n ist eine Polynomfunktion \det \colon \mathbb {R} ^{n\times n}\to \mathbb {R} , was direkt aus der Leibniz-Formel folgt. Als solche ist sie überall stetig und differenzierbar. Ihr totales Differential an der Stelle A\in \mathbb {R} ^{n\times n} kann mit Hilfe von Jacobis Formel dargestellt werden:

D(\det A)H=\operatorname {spur} \left(A^{\#}H\right),

wobei A^{\#} die zu A komplementäre Matrix und \operatorname {spur} die Spur einer Matrix bezeichnet. Insbesondere ergibt sich für invertierbares A, dass

D(\det A)H=\det A\cdot \operatorname {spur} \left(A^{-1}H\right)

oder als Näherungsformel

\det \left(A+H\right)-\det A\approx \det A\cdot \operatorname {spur} \left(A^{-1}\,H\right),

falls die Werte der Matrix H hinreichend klein sind. Der Spezialfall, wenn A gleich der Einheitsmatrix E ist, ergibt

\det \left(E+H\right)\approx 1+\operatorname {spur} H.

Permanente

Die Permanente ist ein „vorzeichenloses“ Analogon zur Determinante, wird allerdings viel seltener verwendet.

Verallgemeinerung

Die Determinante kann auch auf Matrizen mit Einträgen in einem kommutativen Ring mit Eins definiert werden. Dies erfolgt mit Hilfe einer gewissen antisymmetrischen multilinearen Abbildung: Falls R ein kommutativer Ring ist und M=R^{n} der n-dimensionale freie R-Modul, dann sei

f\colon M^{n}\to R

die eindeutig bestimmte Abbildung mit den folgenden Eigenschaften:

Eine Abbildung mit den ersten beiden Eigenschaften wird auch als Determinantenfunktion, Volumen oder alternierende n-Linearform bezeichnet. Man erhält die Determinante, indem man M^{n} auf natürliche Weise mit dem Raum der quadratischen Matrizen R^{n\times n} identifiziert:

\det \colon R^{n\times n}\cong M^{n}{\xrightarrow {f}}R

Spezielle Determinanten

Literatur

Trenner
Basierend auf einem Artikel in: Extern Wikipedia.de
Seitenende
Seite zurück
©  biancahoegel.de
Datum der letzten Änderung: Jena, den: 13.05. 2021