Die Mathe-Redaktion - 23.10.2017 22:26 - Registrieren/Login
Auswahl
Aktion im Forum
Suche
Stichwortsuche in Artikeln und Links von Matheplanet
Suchen im Forum
Suchtipps

Bücher
Englische Bücher
Software
Suchbegriffe:
Mathematik bei amazon
Naturwissenschaft & Technik
In Partnerschaft mit Amazon.de
Kontakt
Mail an Matroid
[Keine Übungsaufgaben!]
Impressum

Bitte beachten Sie unsere Nutzungsbedingungen, die Distanzierung, unsere Datenschutzerklärung und
die Forumregeln.

Sie können Mitglied werden oder den Newsletter bestellen.

Der Newsletter Okt. 2017

Für Mitglieder
Mathematisch für Anfänger
Wer ist Online
Aktuell sind 756 Gäste und 42 Mitglieder online.

Sie können Mitglied werden:
Klick hier.

Über Matheplanet
 
Mathematik: Determinanten koordinatenfrei
Freigegeben von matroid am Di. 08. September 2015 22:05:14
Verfasst von Martin_Infinite -   1880 x gelesen [Gliederung] [Statistik] Druckbare Version Druckerfreundliche Version
Mathematik

Determinanten koordinatenfrei

In diesem Artikel möchte ich erklären, was die Determinante eines Endomorphismus eines endlich-dimensionalen Vektorraumes ist. Das Besondere ist: Es werden keine Matrizen benutzt. Insofern ist das Vorgehen also koordinatenfrei und meiner Meinung nach sehr elegant. Zugleich ist es recht anschaulich. Am Ende werden ein paar Beispiele berechnet, welche die Nützlichkeit des Zugangs untermauern. Der Artikel richtet sich an Studenten, welche die Determinante besser verstehen möchten, aber auch an Dozenten, die in ihrer Lineare Algebra Vorlesung einen alternativen Zugang wählen möchten.
 
"Es gibt kaum eine Theorie, die elementarer ist [als die lineare Algebra], trotz der Tatsache, dass Generationen von Professoren und Lehrbuchautoren die Einfachheit dieser Theorie durch höchst unangebrachte Rechnungen mit Matrizen verdunkelt haben."
J. Dieudonné, Grundlagen der modernen Analysis, 1960

Inhalt

1. Alternierende Abbildungen
2. Definition der Determinante
3. Eigenschaften der Determinante
4. Die Leibniz-Formel
5. Beispiele

1. Alternierende Abbildungen

Definition. Es sei <math>K</math> ein fixierter Körper und <math>V</math> ein <math>K</math>-Vektorraum. Die unterliegende Menge bezeichnen wir mit <math>|V|</math>. Sei <math>d \in \mathds{N}</math>. Eine Abbildung <math>\omega : |V|^d \to |K|</math> heiße multilinear, wenn sie in jeder der <math>d</math> Variablen (mit festgehaltenen <math>d-1</math> Variablen) linear ist. Eine solche multilineare Abbildung heiße alternierend, wenn für alle <math>v \in |V|^d</math> gilt: Gibt es Indizes <math>i \neq j</math> mit <math>v_i=v_j</math>, dann gilt <math>\omega(v_1,\dotsc,v_n)=0</math>. Diese Abbildungen bilden mit komponentenweisen Verknüpfungen einen <math>K</math>-Vektorraum <math>\mathrm{A}_d(V)</math>, nämlich einen Unterraum aller Abbildungen <math>|V|^d \to |K|</math>. Die Elemente von <math>\mathrm{A}_d(V)</math> nennt man auch <math>d</math>-Formen auf <math>V</math>. Wir werden der üblichen Konvention folgen und <math>v \in V</math> anstelle von <math>v \in |V|</math> schreiben.

Zur Anschauung. Man kann sich <math>d</math>-Formen auf <math>V</math> geometrisch so vorstellen: Je <math>d</math> Vektoren aus <math>V</math> wird eine Größe (genauer gesagt ein Element des Grundkörpers) zugeordnet, nämlich die Größe des von den Vektoren aufgespannten Parallelotops (für <math>d=2</math> ist dies ein Parallelogramm; auf eine präzise Definition verzichten wir einstweilen). Die Definition einer <math>d</math>-Form lässt sich damit wiefolgt veranschaulichen: Die Rechenregel
 
<math>\omega(\dotsc,v,\dotsc,v,\dotsc)=0</math>
 
bedeutet, dass das Volumen eines entarteten Parallelotops Null ist. Die Regel
 
<math>\omega(\dotsc,\lambda \cdot v,\dotsc)=\lambda \cdot  \omega(\dotsc,v,\dotsc)</math>
 
bedeutet, dass sich das Volumen ver-<math>\lambda</math>-facht, wenn man einen der Seitenvektoren ver-<math>\lambda</math>-facht. Und die Regel
 
<math>\omega(\dotsc,v+v',\dotsc)=\omega(\dotsc,v,\dotsc)+\omega(\dotsc,v',\dotsc)</math>
 
bedeutet, dass sich das Volumen von zwei Parallelotopen addiert, wenn sie an einer Seite zusammenpassen und man sie zusammenlegt. Wir haben hier zwar nicht definiert, was ein Parallelotop und was das Volumen davon sein soll, aber man kann sich eben vorstellen, dass <math>d</math>-Formen auf einem Vektorraum diese Begriffe abstrahieren und genau das einfangen, was man von ihnen erwartet. Die folgenden Bilder veranschaulichen die Regeln für <math>d=2</math>.

<math>\begin{tikzpicture}
\fill [black!20] (0,0) to (2,1) to (2.5,2.5) to (0.5,1.5) to (0,0);
\draw [thick,->] (0,0)  to (2,1);
\draw [thick,->] (0,0) to (0.5,1.5);
\draw [thick] (0.5,1.5) to (2.5,2.5);
\draw [thick] (2,1) to (2.5,2.5);
\draw node at (1,0.3) {$v$};
\draw node at (0.03,0.8) {$w$};
\draw node [rotate=26] at (1.2,1.2) {\scriptsize $\omega(v,w)$};
\end{tikzpicture}</math>       <math>\begin{tikzpicture}
\draw [thick,->] (0,0) to (2,1);
\draw node at (1,0.3) {$v$};
\draw node at (1,0.7) {$v$};
\draw node at (2.2,0.5) {\scriptsize $\omega(v,v)=0$};
\end{tikzpicture}</math>

<math>\begin{tikzpicture}
\fill [black!20] (0,0) to (2,1) to (2.5,2.5) to (0.5,1.5) to (0,0);
\draw [thick,->] (0,0)  to (2,1);
\draw [thick,->] (0,0)  to (0.666,0.333);
\draw [thick,->] (0,0) to (0.5,1.5);
\draw [thick] (0.5,1.5) to (2.5,2.5);
\draw [thick] (2,1) to (2.5,2.5);
\draw [thick] (0.666,0.333)  to (1.166,1.833);
\draw node at (1,0.2) {$v$};
\draw node at (0.3,-0.2) {$\frac{1}{3} v$};
\draw node at (0.03,0.8) {$w$};
\draw node at (4,1.2) {\scriptsize $\omega(\frac{1}{3} v,w)=\frac{1}{3} \omega(v,w)$};
\end{tikzpicture}</math>

<math>\begin{tikzpicture}
\fill [black!20] (0,0) to (2,1) to (3.5,1) to (4,2.5) to (2.5,2.5) to (0.5,1.5) to (0,0);
\draw [thick,->] (0,0)  to (2,1);
\draw [thick,->] (2,1) to (3.5,1);
\draw [thick,->] (0,0) to (0.5,1.5);
\draw [thick] (0.5,1.5) to (2.5,2.5);
\draw [thick] (2,1) to (2.5,2.5);
\draw [thick] (3.5,1) to (4,2.5);
\draw [thick] (2.5,2.5) to (4,2.5);
\draw [dashed] (0,0) to (3.5,1);
\draw [dashed] (0.5,1.5) to (4,2.5);
\draw node at (1,0.64) {\scriptsize  $v$};
\draw node at (2.85,1.15) {\scriptsize  $v'$};
\draw node at (1.8,0.3) {\scriptsize $v+v'$};
\draw node at (0.03,0.8) {\scriptsize  $w$};
\draw node [rotate=26] at (1.2,1.2) {\scriptsize $\omega(v,w)$};
\draw node at (2.94,1.7) {\scriptsize $\omega(v',w)$};
\draw node at (6.2,1.2) {\scriptsize $\omega(v+v',w)=\omega(v,w) + \omega(v',w)$};
\end{tikzpicture}</math>
 
Bemerkung. Jede lineare Abbildung <math>f : V \to W</math> induziert eine lineare Abbildung <math>f^* : \mathrm{A}_d(W) \to \mathrm{A}_d(V)</math>, nämlich <math>\omega \mapsto \omega \circ f^d</math>. Das heißt, es gilt <math>f^*(\omega)(v_1,\dotsc,v_d) = \omega(f(v_1),\dotsc,f(v_d))</math>. Es bestehen die Rechenregeln <math>(\mathrm{id}_V)^* = \mathrm{id}_{\mathrm{A}_d(V)}</math> und <math>(g \circ f)^* = f^* \circ g^*</math> für <math>g : W \to U</math>.

Daraus folgt: Wenn <math>V,W</math> isomorph sind, dann sind auch <math>\mathrm{A}_d(V),\mathrm{A}_d(W)</math> isomorph.

Spezialfälle. Es gilt <math>\mathrm{A}_0(V) \cong K</math> und <math>\mathrm{A}_1(V) \cong V^*</math>. Für <math>V=0</math> und <math>d>0</math> ist auch <math>\mathrm{A}_d(V)=0</math>. Wenn <math>V=\langle v \rangle</math> eindimensional ist, dann gilt <math>\mathrm{A}_2(V)=0</math>, denn für <math>\omega \in \mathrm{A}_2(V)</math> ist <math>\omega(v,v)=0</math> und damit <math>\omega(\lambda \cdot v,\mu \cdot v)=\lambda \cdot \mu \cdot \omega(v,v)=0</math> für <math>\lambda,\mu \in K</math>. Dasselbe Argument zeigt <math>\mathrm{A}_d(V)=0</math> für <math>d \geq 2</math>.

Betrachten wir nun den Fall, dass <math>V=\langle v,w \rangle</math> zweidimensional ist. Dann gilt <math>\omega(v,w)=-\omega(w,v)</math>, denn

<math>0=\omega(v+w,v+w)=\omega(v,v)+\omega(v,w)+\omega(w,v) +\omega(w,w) = \omega(v,w) + \omega(w,v).</math>

Diese Rechnung funktioniert sogar für beliebige multilineare alternierende Abbildungen und zeigt, dass eine Vertauschung von zwei Argumenten stets eine Änderung des Vorzeichens bewirkt. Das lässt sich auch so interpretieren, dass wir auch negative Volumina von Parallelotopen betrachten und dass das Vorzeichen von der Reihenfolge der Seitenvektoren abhängt.
 
Es folgt für zwei beliebige Vektoren <math>x=x_1 \cdot v + x_2 \cdot w</math> und <math>y=y_1 \cdot v + y_2 \cdot w</math> von <math>V</math>:

<math>\omega(x,y) = x_1 y_2 \cdot \omega(v,w) + x_2 y_1 \cdot \omega(w,v) = (x_1 y_2 - x_2 y_1) \cdot \omega(v,w).</math>
 
Ist umgekehrt <math>\lambda \in K</math> beliebig, so gibt es ein <math>\omega \in \mathrm{A}_2(V)</math> mit <math>\omega(v,w)=\lambda</math>, nämlich

<math>\omega(x,y) := (x_1 y_2 - x_2 y_1) \cdot \lambda.</math>

Wir erkennen damit, dass <math>\mathrm{A}_2(V)</math> eindimensional ist. Der Erzeuger ist <math>(x,y) \mapsto x_1 y_2 - x_2 y_1</math>. Für <math>d>2</math> ist einfach <math>A_d(V)=0</math>, denn beim Ausmultiplizieren von <math>\omega(x_1,\dotsc,x_d)</math> für <math>x_1,\dotsc,x_d \in V</math> kommt jeweils <math>u</math> oder <math>v</math> doppelt vor.

Ein beliebiger Vektorraum ist eine direkte Summe von eindimensionalen Räumen. Schauen wir uns also an, was mit <math>\mathrm{A}_d(V)</math> passiert, wenn man zu <math>V</math> einen eindimensionalen Vektorraum addiert.
 
Satz 1 (Zerlegung von Formen). Es sei <math>V</math> ein <math>K</math>-Vektorraum und <math>\langle u \rangle</math> ein eindimensionaler <math>K</math>-Vektorraum. Ferner sei <math>d \geq 1</math>. Dann gibt es einen Isomorphismus

<math>\mathrm{A}_d(V \oplus \langle u \rangle) \cong \mathrm{A}_d(V)  \oplus \mathrm{A}_{d-1}(V).</math>

Beweis. Es sei <math>\omega \in \mathrm{A}_d(V \oplus \langle u \rangle)</math>. Dann berechnen wir für <math>v_i \in V</math> und <math>\lambda_i \in K</math> unter Benutzung der Multilinearität und von <math>\omega(\dotsc,u,\dotsc,u,\dotsc)=0</math>:

<math>\displaystyle\omega(v_1 + \lambda_1 u,\dotsc,v_d + \lambda_d u) = \omega(v_1,\dotsc,v_d) + \sum_{i=1}^{d} \lambda_i \cdot \omega(v_1,\dotsc,v_{i-1},u,v_{i+1},\dotsc,v_d).</math>

Weil nun aber <math>\omega</math> alternierend ist, gilt

<math>\omega(v_1,\dotsc,v_{i-1},u,v_{i+1},\dotsc,v_d) = (-1)^{i-1} \omega(u,v_1,\dotsc,v_{i-1},v_{i+1},\dotsc,v_d).</math>

Denn hierbei müssen <math>i-1</math> Vertauschungen durchgeführt werden. Daraus folgt nun:

<math>\displaystyle \omega(v_1 + \lambda_1 u,\dotsc,v_d + \lambda_d u) =  \omega(v_1,\dotsc,v_d) + \sum_{i=1}^{d} (-1)^{i-1} \lambda_i \cdot \omega(u,v_1,\dotsc,v_{i-1},v_{i+1},\dotsc,v_d).</math>
 
Dies legt uns nun nahe, die Abbildung <math>\theta : \mathrm{A}_d(V \oplus \langle u \rangle) \to \mathrm{A}_d(V)  \oplus \mathrm{A}_{d-1}(V)</math> zu definieren durch <math>\theta(\omega)=(\omega_1,\omega_2)</math>, wobei <math>\omega_1</math> die Einschränkung von <math>\omega</math> auf <math>V</math> ist, und <math>\omega_2(v_2,\dotsc,v_d) := \omega(u,v_2,\dotsc,v_d)</math>. Beachte, dass tatsächlich <math>\omega_1 \in \mathrm{A}_d(V)</math> und <math>\omega_2 \in \mathrm{A}_{d-1}(V)</math> gilt. Ferner ist <math>\theta</math> linear. Wir wissen auch, wie wir unsere Umkehrabbildung <math>\theta^{-1}</math> definieren müssen: Wir setzen <math>\theta^{-1}(\omega_1,\omega_2):=\omega</math>, wobei

<math>\displaystyle \omega(v_1 + \lambda_1 u,\dotsc,v_d + \lambda_d u) :=  \omega_1(v_1,\dotsc,v_n) + \sum_{i=1}^{d} (-1)^{i-1} \lambda_i \cdot \omega_2(v_1,\dotsc,v_{i-1},v_{i+1},\dotsc,v_d).</math>

Man erkennt <math>\omega \in \mathrm{A}_d(V \oplus \langle u \rangle)</math>. Wir haben uns oben <math>\theta^{-1} \circ \theta = \mathrm{id}</math> klargemacht, und <math>\theta \circ \theta^{-1}=\mathrm{id}</math> ist auch klar. <math>\checkmark</math>

Satz 2 (Anzahl der Formen). Es sei <math>V</math> ein <math>n</math>-dimensionaler <math>K</math>-Vektorraum und <math>d \geq 0</math>. Dann ist <math>\mathrm{A}_d(V)</math> ein <math>K</math>-Vektorraum der Dimension <math>\binom{n}{d}</math>.

Hierbei ist <math>\binom{n}{d}</math> der Binomialkoeffizient "<math>n</math> über <math>d</math>", also die Anzahl der <math>d</math>-elementigen Teilmengen einer <math>n</math>-elementigen Menge.

Beweis. Wir benutzen Induktion nach <math>n</math> und nach <math>d</math>. Für <math>n=0</math> oder <math>d=0</math> kennen wir das Ergebnis bereits. Nun seien <math>n,d \geq 1</math>. Wähle irgendeinen Vektor <math>0 \neq u \in V</math> und schreibe <math>V=U \oplus \langle u \rangle</math> mit <math>\dim(U)=n-1</math>. Dann folgt aus Satz 1 <math>\mathrm{A}_d(V) \cong \mathrm{A}_d(U) \oplus \mathrm{A}_{d-1}(U)</math>. Nach Induktionsannahme ist daher

<math> \dim(\mathrm{A}_d(V))=\binom{n-1}{d} + \binom{n-1}{d-1} = \binom{n}{d}.</math> <math>\checkmark</math>

Wenn also zum Beispiel <math>V</math> ein <math>4</math>-dimensionaler Vektorraum ist, dann sind die Dimensionen von <math>\mathrm{A}_0(V),\dotsc,\mathrm{A}_4(V)</math> gleich <math>1,4,6,4,1</math>, und es gilt <math>\mathrm{A}_d(V)=0</math> für <math>d>4</math>.

Bemerkung. Für die Leser, die bereits mit äußeren Potenzen vertraut sind: Es gibt einen natürlichen Isomorphismus <math>\mathrm{A}_d(V) \cong \Lambda^d(V)^*</math>. Man kann entsprechend Determinanten auch mit äußeren Potenzen koordinatenfrei definieren. Unser Zugang ist etwas direkter.

2. Definition der Determinante

Satz 3. Es sei <math>V</math> ein <math>n</math>-dimensionaler <math>K</math>-Vektorraum und <math>f : V \to V</math> ein Endomorphismus. Dann gibt es genau ein Element <math>\det(f) \in K</math> derart, dass <math>f^*(\omega)=\det(f) \cdot \omega</math> für alle <math>\omega \in \mathrm{A}_n(V)</math> gilt.

Beweis. Nach Satz 2 ist <math>\mathrm{A}_n(V)</math> eindimensional. Dann ist also <math>f^* : \mathrm{A}_n(V) \to \mathrm{A}_n(V)</math> ein Endomorphismus eines eindimensionalen Vektorraumes und somit gleich der Multiplikation mit einem eindeutigen Element aus <math>K</math>. <math>\checkmark</math>

Definition. Das eindeutig bestimmte Element <math>\det(f) \in K</math> nennen wir die Determinante von <math>f</math>. Es ist dadurch bestimmt, dass für jedes <math>\omega \in \mathrm{A}_n(V)</math> und jedes Tupel <math>v \in |V|^n</math> die Gleichung

<math>\omega(f(v_1),\dotsc,f(v_n)) = \mathrm{det}(f) \cdot \omega(v_1,\dotsc,v_n)</math>

besteht. Man muss dies lediglich für eine Basis <math>(v_1,\dotsc,v_n)</math> von <math>V</math> testen.

Zur Anschauung. Anschaulich gibt die Determinante von <math>f</math> an, womit das Volumen eines <math>n</math>-dimensionalen Parallelotops in <math>V</math> skaliert wird, wenn man darauf <math>f</math> anwendet. Kurzum ist die Determinante also ein Skalierungsmaß.

<math>\begin{tikzpicture}
\fill [black!20] (0,0) to (2,1) to (2.5,2.5) to (0.5,1.5) to (0,0);
\draw [thick,->] (0,0)  to (2,1);
\draw [thick,->] (0,0) to (0.5,1.5);
\draw [thick] (0.5,1.5) to (2.5,2.5);
\draw [thick] (2,1) to (2.5,2.5);
\draw node at (1,0.3) {$v$};
\draw node at (0.03,0.8) {$w$};
\draw node at (1.2,1.2) {\scriptsize $\omega(v,w)$};
\draw (3,1.5) [->] to [out=20,in=160] (4.8,1.5);
\draw node at (3.9,2) {$f$};
\fill [black!20] (6,0) to (8.5,0.2) to (8,2.2) to (5.5,2) to (6,0);
\draw [thick,->] (6,0) to (8.5,0.2);
\draw [thick,->] (6,0) to (5.5,2);
\draw [thick] (5.5,2) to (8,2.2);
\draw [thick] (8.5,0.2) to (8,2.2);
\draw node at (7,1.1) {\scriptsize $\det(f) \cdot \omega(v,w)$};
\draw node at (7.3,-0.2) {$f(v)$};
\draw node at (5.3,1) {$f(w)$};
\end{tikzpicture}</math>
 
Was passiert, wenn man nicht nur Parallelotope, sondern im Falle von <math>V=\mathds{R}^n</math> auch andere messbare Teilmengen betrachtet, und <math>f</math> nicht notwendigerweise linear ist? Dann beantwortet der Transformationssatz aus der Analysis die Frage, womit das Volumen skaliert wird. Die dort auftretende Jakobideterminante ist im Rahmen der geometrischen Definition der Determinante nicht weiter verwunderlich.
 
Spezialfälle. Wenn <math>V=\langle v \rangle</math> eindimensional ist, dann können wir <math>f(v)=\lambda \cdot  v</math> schreiben und es gilt <math>\lambda=\det(f)</math>. Nun sei <math>V=\langle v,w \rangle</math> zweidimensional und <math>f : V \to V</math> ein Endomorphismus. Wir können also <math>f(v)=x_1 \cdot  v + x_2\cdot   w</math> und <math>f(w)=y_1 \cdot  v + y_2 \cdot  w</math> schreiben. Für <math>\omega \in \mathrm{A}_2(V)</math> folgt

<math>\omega(f(v),f(w))=\omega(x_1 v + x_2 w, y_1 v + y_2 w)=(x_1 y_2 - x_2 y_1) \cdot \omega(v,w).</math>
 
Dies zeigt <math>\det(f)=x_1 y_2 - x_2 y_1</math>. Zum Beispiel ist die Determinante der Spiegelung <math>v \mapsto w</math>, <math>w \mapsto v</math> gleich <math>-1</math>.

3. Eigenschaften der Determinante

Lemma 1 (Multiplikativität der Determinante). Es gilt <math>\mathrm{det}(\mathrm{id}_V)=1</math> und <math>\mathrm{det}(f \circ g) = \mathrm{det}(f) \cdot \mathrm{det}(g)</math> für Endomorphismen <math>f,g : V \to V</math>.

Beweis. Die Gleichung <math>\mathrm{det}(\mathrm{id}_V)=1</math> folgt aus <math>\omega(\mathrm{id}_V(v_1),\dotsc,\mathrm{id}_V(v_n))=1 \cdot \omega(v_1,\dotsc,v_n)</math>. Das Produkt <math>\mathrm{det}(f) \cdot \mathrm{det}(g)</math> erfüllt die Definition von <math>\mathrm{det}(f \circ g)</math>, denn für alle <math>\omega \in \mathrm{A}_n(V)</math> gilt

<math>\omega(f(g(v_1)),\dotsc,f(g(v_n)))=\mathrm{det}(f) \cdot \omega(g(v_1),\dotsc,g(v_n))=\mathrm{det}(f) \cdot \mathrm{det}(g) \cdot \omega(v_1,\dotsc,v_n).</math> <math>\checkmark</math>

Bemerkung. Der Nullvektorraum hat genau einen Endomorphismus, nämlich die Identität. Nach Lemma 1 ist die Determinante hiervon <math>1</math>.

Lemma 2 (Natürlichkeit der Determinante). Es seien <math>\alpha : V \to W</math> ein Isomorphismus von endlich-dimensionalen Vektorräumen und <math>f : V \to V</math>, <math>g : W \to W</math> Endomorphismen mit <math>g \circ \alpha = \alpha \circ f</math>, wie in dem folgenden kommutativen Diagramm:

<math>\begin{tikzcd}V \ar{r}{f} \ar{d}[swap]{\alpha} & V \ar{d}{\alpha} \\ W \ar{r}{g} & W \end{tikzcd}</math>

Dann gilt <math>\det(f)=\det(g)</math>.

Beweis. Wegen der Bemerkung im ersten Abschnitt gilt <math>\alpha^* \circ g^* = f^* \circ \alpha^*</math> als lineare Abbildungen <math>\mathrm{A}_n(W) \to \mathrm{A}_n(V)</math>, wobei <math>n=\dim(V)=\dim(W)</math>. Weil also <math>f^*</math> die Multiplikation mit <math>\det(f)</math> ist und <math>\alpha^*</math> ein Isomorphismus ist, ist auch <math>g^*</math> Multiplikation mit <math>\det(f)</math>, d.h. <math>\det(f)=\det(g)</math>. <math>\checkmark</math>
 
Satz 4 (Determinanten von Quotienten). Es sei <math>f : V \to V</math> ein Endomorphismus von <math>V</math> und <math>U</math> ein Unterraum von <math>V</math> mit <math>f(U) \subseteq U</math>; man sagt, dass <math>U</math> unter <math>f</math> invariant ist. Wir erhalten Endomorphismen <math>f|_U : U \to U</math> und <math>\overline{f} : V/U \to V/U</math>. Es gilt dann <math>\mathrm{det}(f) = \mathrm{det}(f|_U) \cdot \mathrm{det}(\overline{f})</math>.

Beweis. Wähle ein Komplement <math>W</math> von <math>U</math>. Dann können wir <math>V = U \oplus W</math> schreiben und <math>f</math> identifiziert sich mit <math>f(u,w)=(f|_U(u)+g(w),\overline{f}(w))</math> mit einer linearen Abbildung <math>g : W \to U</math> und der linearen Abbildung <math>\overline{f} : W \to W</math>. Es sei <math>u_1,\dotsc,u_n</math> eine Basis von <math>U</math> und <math>w_1,\dotsc,w_m</math> eine Basis von <math>W</math>. Dann ist also <math>(u_1,0)\dotsc,(u_n,0),(0,w_1),\dotsc,(0,w_m)</math> eine Basis von <math>V</math>. Es folgt für <math>\omega \in \mathrm{A}_{n+m}(V)</math>:

<math>\omega\bigl(f(u_1,0),\dotsc,f(u_n,0),f(0,w_1),\dotsc,f(0,w_m)\bigr)</math>
<math> = \omega\bigl((f|_U(u_1),0),\dotsc,(f|_U(u_n),0),(g(w_1),\overline{f}(w_1)),\dotsc,(g(w_m),\overline{f}(w_m))\bigr)</math>
 
Weil nun <math>\omega((x_1,0),\dotsc,(x_n,0),\dotsc)</math> multilinear und alternierend in den Variablen <math>x_1,\dotsc,x_n</math> ist, erhalten wir:

<math>\mathrm{det}(f|_U) \cdot \omega\bigl((u_1,0),\dotsc,(u_n,0),(g(w_1),\overline{f}(w_1)),\dotsc,(g(w_m),\overline{f}(w_m))\bigr).</math>
 
Schreibe <math>g(w_1) = \sum_{i=1}^{n} \lambda_i u_i</math> und subtrahiere <math>\sum_{i=1}^{n} \lambda_i (u_i,0)</math> von <math>(g(w_1),\overline{f}(w_1))</math>. Dies ändert den Wert von <math>\omega(\dotsc)</math> nicht, weil <math>\omega</math> multilinear und alternierend ist. Auf diese Weise erhalten wir im <math>m+1</math>-ten Eintrag einfach <math>(0,\overline{f}(w_1))</math>. Man fährt so fort und gelangt zu

<math>\mathrm{det}(f|_U) \cdot \omega\bigl((u_1,0),\dotsc,(u_n,0),(0,\overline{f}(w_1)),\dotsc,(0,\overline{f}(w_m))\bigr).</math>
 
Mit demselben Argument wie oben vereinfacht sich dies zu

<math>\mathrm{det}(f|_U) \cdot \mathrm{det}(\overline{f}) \cdot \omega\bigl((u_1,0),\dotsc,(u_n,0),(0,w_1),\dotsc,(0,w_m)\bigr).</math> <math>\checkmark</math>

Bemerkung. Man kann Satz 4 auch sehr elegant wiefolgt formulieren: Hat man eine exakte Sequenz <math>0 \longrightarrow U \longrightarrow V \longrightarrow W \longrightarrow 0</math> von endlich-dimensionalen Vektorräumen und hat man ein kommutatives Diagramm

<math>\begin{tikzcd} 0 \ar{r} & U \ar{d}{g}\ar{r} & V \ar{d}{f}\ar{r} & W \ar{d}{h}\ar{r} & 0 \\ 0 \ar{r} & U \ar{r} & V \ar{r} & W \ar{r} & 0 \end{tikzcd}</math>

gegeben, so gilt <math>\det(f) = \det(g) \cdot \det(h)</math>.

Satz 5 (Determinanten von Summen). Es seien <math>f : V \to V</math> und <math>g : W \to W</math> zwei Endomorphismen. Für den Endomorphismus <math>f \oplus g : V \oplus W \to V \oplus W</math>, <math>(v,w) \mapsto (f(v),g(w))</math> gilt dann <math>\mathrm{det}(f \oplus g) = \mathrm{det}(f) \cdot \mathrm{det}(g)</math>.

Beweis. Das folgt aus Satz 4. <math>\checkmark</math>

Spezialfall. Sei <math>f : V \to V</math> diagonalisierbar, d.h. es gibt eine Basis <math>v_1,\dotsc,v_n</math> von <math>V</math> und Elemente <math>\lambda_1,\dotsc,\lambda_n \in K</math> mit <math>f(v_i)=\lambda_i \cdot v_i</math>. Dann zerlegt sich <math>f</math> in eine direkte Summe der Endomorphismen <math>\langle v_i \rangle \to \langle v_i \rangle</math>, <math>v_i \mapsto \lambda_i \cdot  v_i</math>. Die Determinante ist nach Satz 5 daher das Produkt <math>\lambda_1 \cdot \dotsc \cdot \lambda_n</math>.

Bemerkung. Ist allgemeiner <math>f(v_i)=\lambda_i v_i \,+\, </math> eine Linearkombination aus <math>v_1,\dotsc,v_{i-1}</math>, so folgt aus Satz 4 ebenfalls <math>\det(f)=\lambda_1 \cdot \dotsc \cdot \lambda_n</math>. Dazu macht man eine Induktion nach <math>n</math> und nimmt für den Induktionsschritt <math>U=\langle v_1 \rangle</math>. Wenn sich eine solche Basis finden lässt, nennt man <math>f</math> trigonalisierbar. Wenn <math>K</math> algebraisch abgeschlossen ist, ist <math>f</math> stets trigonalisierbar, sodass sich die Determinante berechnen lässt. Wenn <math>K</math> beliebig ist, so kann man zur sogenannten Skalarerweiterung <math>V_{\overline{K}}</math> über einem algebraischen Abschluss <math>\overline{K}</math> übergehen und die Determinante des Endomorphismus <math>f_{\overline{K}}</math> von <math>V_{\overline{K}}</math> ausrechnen. Dies ist das Bild von <math>\det(f)</math> unter der Inklusion <math>K \to \overline{K}</math>. Damit lässt sich also <math>\det(f)</math> allgemein berechnen.

Satz 6 (Determinante von Projektionen). Es sei <math>p : V \to V</math> eine Projektion auf einen Unterraum <math>U</math> von <math>V</math>, d.h. <math>p^2=p</math> und <math>\mathrm{Bild}(p)=U</math>. Dann gilt <math>\det(p)=0</math> falls <math>U \neq V</math>, und <math>\det(p)=1</math> falls <math>U=V</math>.

Beweis. Für <math>U=V</math> ist <math>p=\mathrm{id}_V</math> und damit <math>\det(p)=1</math>. Nun sei <math>U \neq V</math>. Es sei <math>W=\ker(p)</math>. Dann ist <math>V = U \oplus W</math>, insbesondere <math>W \neq 0</math>. Es gilt <math>p=\mathrm{id}_U \oplus 0_W</math>. Aus Satz 5 folgt daher <math>\det(p)=\det(\mathrm{id}_U) \cdot \mathrm{det}(0_W) = 1 \cdot 0 = 0</math>. (Alternativ kann man benutzen, dass Projektionen diagonaliserbar sind.) <math>\checkmark</math>

Satz 7 (Kriterium für Invertierbarkeit). Es sei <math>f : V \to V</math> ein Endomorphismus eines endlich-dimensionalen Vektorraumes <math>V</math>. Genau dann ist <math>f</math> ein Isomorphismus, wenn <math>\det(f) \neq 0</math> gilt.
 
Beweis. Wenn <math>f</math> ein Isomorphismus ist, dann gilt <math>\det(f) \cdot \det(f^{-1})=\det(f \circ f^{-1})=\det(\mathrm{id}_V)=1</math> nach Lemma 1 und damit <math>\det(f) \neq 0</math>. Nun sei <math>f</math> kein Isomorphismus. Dann ist <math>U:=\mathrm{Bild}(f)</math> ein echter Unterraum von <math>V</math> (ansonsten wäre <math>f</math> surjektiv und damit auch bijektiv). Wähle eine Projektion <math>p : V \to V</math> auf <math>U</math>. Dann gilt <math>f = p \circ f</math>. Aus Satz 6 folgt <math>\det(p)=0</math>. Mit Lemma 1 folgt daher <math>\det(f) = \det(p) \cdot \det(f)=0</math>. <math>\checkmark</math>

Bemerkung. Man kann die nichttriviale Richtung in Satz 7 auch etwas direkter so beweisen: Sei <math>f : V \to V</math> kein Isomorphismus. Dann ist <math>f</math> nicht injektiv, d.h. es gibt ein <math>v_1 \in V</math> mit <math>v_1 \neq 0</math> und <math>f(v_1)=0</math>. Ergänze <math>v_1</math> zu einer Basis <math>v_1,\dotsc,v_n</math> von <math>V</math>. Für <math>\omega \in \mathrm{A}_n(V)</math> gilt dann <math>\omega(f(v_1),\dotsc,\omega(f_n))=\omega(0,\dotsc)=0</math>. Dies zeigt <math>\det(f)=0</math>.

Bemerkung. Eine wichtige Folgerung aus Satz 7 ist, dass eine lineare Gleichung der Form <math>f(v)=w</math> (wobei <math>f : V \to V</math> und <math>v,w \in V</math>) stets eindeutig lösbar ist, wenn <math>\det(f) \neq 0</math> gilt. Dann gilt nämlich <math>v=f^{-1}(w)</math>.

4. Die Leibniz-Formel

Definition. Es sei <math>X</math> eine endliche Menge. Es sei <math>\sigma : X \to X</math> eine bijektive Abbildung, auch Permutation genannt. Es sei <math>V=\bigoplus_{x \in X} \langle e_x \rangle</math> ein <math>\mathds{Q}</math>-Vektorraum mit Basis <math>\{e_x : x \in X\}</math>. Dann induziert <math>\sigma</math> einen Endomorphismus <math>\tilde{\sigma} : V \to V</math> mit <math>\tilde{\sigma}(e_x) := e_{\sigma(x)}</math>. Wir definieren das Signum von <math>\sigma</math> durch <math>\mathrm{sgn}(\sigma) := \det(\tilde{\sigma})\in \mathds{Q}</math>. Wir werden gleich <math>\mathrm{sgn}(\sigma) \in \mathds{Z}</math> sehen.

Bemerkung. Es gilt <math>\mathrm{sgn}(\mathrm{id}_X)=1</math> und <math>\mathrm{sgn}(\sigma \circ \tau)=\mathrm{sgn}(\sigma) \cdot \mathrm{sgn}(\tau)</math>; dies folgt aus <math>\widetilde{\mathrm{id}_X} = \mathrm{id}_V</math> und <math>\widetilde{\sigma \circ \tau} = \tilde{\sigma} \circ \tilde{\tau}</math> und den entsprechenden Aussagen für Determinanten. Die Permutationen <math>X \to X</math> bilden bez. der Komposition eine Gruppe <math>\mathrm{Sym}(X)</math>, bekannt als symmetrische Gruppe auf <math>X</math>. Es ist bekannt, dass <math>\mathrm{Sym}(X)</math> von den Transpositionen erzeugt wird, die also zwei Elemente von <math>X</math> miteinander vertauschen und alle anderen Elemente festlassen. Nach Satz 5 und dem Beispiel aus Abschnitt 2 haben Transpositionen Signum <math>-1</math>. Wenn eine Permutation also ein Produkt aus <math>r \in \mathds{N}</math> Transpositionen ist, dann ist das Signum <math>(-1)^r</math>. Wir erkennen also, dass das Signum stets <math>\pm 1</math> ist. Es handelt sich um einen Homomorphismus von Gruppen

<math>\mathrm{sgn}: \mathrm{Sym}(X) \to \{\pm 1\}.</math>
 
Satz 8 (Leibniz-Formel). Es sei <math>V</math> ein endlich-dimensionaler <math>K</math>-Vektorraum mit Basis <math>\{e_x : x \in X\}</math>. Es sei <math>f : V \to V</math> ein Endomorphismus. Schreibe

<math>\displaystyle  f(e_x) = \sum_{y \in X} a_{y,x} \cdot e_y</math>

mit <math>a_{y,x} \in K</math>. Dann gilt die Leibniz-Formel:

<math>\displaystyle \det(f) = \sum_{\sigma \in \mathrm{Sym}(X)} \mathrm{sgn}(\sigma) \cdot \prod_{x \in X} a_{\sigma(x),x}.</math>

Beweis. Wir können <math>X=\{1,\dotsc,n\}</math> annehmen, wobei <math>n=\dim(V)</math>. Es sei <math>\omega \in \mathrm{A}_n(V)</math>. Dann gilt aufgrund der Multilinearität:

<math>\displaystyle\omega(f(e_1),\dotsc,f(e_n))=\sum_{i_1,\dotsc,i_n=1}^{n} a_{i_1,1} \dotsc a_{i_n,n} \cdot \omega(e_{i_1},\dotsc,e_{i_n}).</math>

Wir können hierbei annehmen, dass die <math>i_1,\dotsc,i_n</math> paarweise verschieden sind, weil ansonsten <math>\omega(e_{i_1},\dotsc,e_{i_n})=0</math> gilt. Dann ist aber <math>\sigma(j):=i_j</math> eine Permutation von <math>\{1,\dotsc,n\}</math>. Es gilt dann weiter

<math>\omega(e_{\sigma(1)},\dotsc,e_{\sigma(n)}) = \omega(\tilde{\sigma}(e_1),\dotsc,\tilde{\sigma}(e_n))= \mathrm{sgn}(\sigma) \cdot \omega(e_1,\dotsc,e_n),</math>
 
sodass also

<math>\displaystyle\omega(f(e_1),\dotsc,f(e_n)) = \sum_{\sigma \in \mathrm{Sym}(X)} \mathrm{sgn}(\sigma) \cdot \prod_{i=1}^{n} a_{\sigma(i),i} \cdot \omega(e_1,\dotsc,e_n).</math> <math>\checkmark</math>

Spezialfall. Für <math>n=2</math> ergibt sich aus der Leibniz-Formel die aus Abschnitt 2 bekannte Formel. Für <math>n=3</math> ergibt sich aus der Leibniz-Formel die Regel von Sarrus: Es gilt (mit obigen Bezeichnungen)

<math>\det(f) = a_{11} a_{22} a_{33} + a_{31} a_{12} a_{23} + a_{21} a_{32} a_{13}  - a_{31} a_{22} a_{13} - a_{11} a_{32} a_{23}- a_{21} a_{12} a_{33}</math>

Bemerkung. Mit der Leibniz-Formel kann man theoretisch die Determinante eines beliebigen Endomorphismus, nachdem man ihn in einer Basis dargestellt hat, mehr oder weniger konkret ausrechnen. Aber für große <math>n</math> ist die Leibniz-Formel, abgesehen von theoretischen Überlegungen, nicht wirklich nützlich. Das liegt vor allem daran, dass es <math>n!</math> Permutationen einer <math>n</math>-elementigen Menge gibt und die Fakultät sehr stark mit <math>n</math> wächst. Praktischer ist Satz 4, für dessen Anwendung man lediglich einen unter dem Endomorphismus invarianten nichttrivialen echten Unterraum finden muss. Noch effizienter ist die sogenannte LR-Zerlegung.

5. Beispiele

In diesem Abschnitt berechnen wir einige Beispiele von Determinanten. Wir werden dabei die hergeleiteten Eigenschaften der Determinante benutzen.

Beispiel A. Es sei <math>V</math> der Vektorraum der Polynome vom Grad <math><n</math> (über einem festen Körper). Dieser ist <math>n</math>-dimensional mit Basis <math>1,T,\dotsc,T^{n-1}</math>. Betrachte den Endomorphismus <math>f : V \to V</math>, <math>f(p) := p(T-1)</math>, der also in einem Polynom <math>T</math> durch <math>T-1</math> ersetzt. Es gilt hierbei <math>f(T^i) \in \langle 1,T,\dotsc,T^i \rangle</math>, d.h. <math>f</math> ist trigonalisierbar. Der Koeffizient von <math>T^i</math> in <math>f(T^i)=(T-1)^i</math> ist offensichtlich <math>1</math>. Also ist <math>\det(f)=1</math>. Betrachten wir stattdessen <math>f(p) = p(2T-1)</math>, so ist der Koeffizient von <math>T^i</math> in <math>f(T^i) = (2T-1)^i</math> offenbar <math>2^i</math>, sodass also <math>\det(f)=2^0 \cdot 2^1 \cdot \dotsc \cdot 2^{n-1} = 2^{n(n-1)/2}</math>.
 
Beispiel B. Es sei <math>V</math> ein <math>n</math>-dimensionaler Vektorraum und <math>f</math> ein Endomorphismus von <math>V</math>. Es gebe einen Vektor <math>v</math> mit <math>V=\langle f^k(v) : k \in \mathds{N} \rangle</math>. Dann kann man sich <math>V =  \langle v,f(v),f^2(v),\dotsc,f^{n-1}(v) \rangle</math> überlegen, d.h. <math>\{v,f(v),\dotsc,f^{n-1}(v)\}</math> ist eine Basis von <math>V</math>. Dann gibt es also Koeffizienten <math>\lambda_0,\dotsc,\lambda_{n-1}</math> mit <math>f^n(v) = \lambda_0 v + \lambda_1 f(v) + \dotsc + \lambda_{n-1} f^{n-1}(v)</math>. Für <math>\omega \in \mathrm{A}_n(V)</math> gilt

<math>\omega\bigl(f(v),\dotsc,f(f^{n-1}(v))\bigr)</math>
<math>= \omega\bigl(f(v),\dotsc,f^{n-1}(v),\lambda_0 v + \lambda_1 f(v) + \dotsc + \lambda_{n-1} f^{n-1}(v)\bigr) </math>
<math>= \omega\bigl(f(v),\dotsc,f^{n-1}(v),\lambda_0 v\bigr)</math>
<math>= (-1)^{n-1} \lambda_0 \, \omega\bigl(v,f(v),\dotsc,f^{n-1}(v)). </math>
 
Daher ist <math>\det(f) = (-1)^{n-1} \lambda_0</math>.

Beispiel C. Es sei <math>V</math> ein <math>n</math>-dimensionaler Vektorraum und definiere <math>\tau : V \oplus V \to V \oplus V</math> durch <math>\tau(v,w) = (w,v)</math>. Wenn <math>X</math> eine Basis von <math>V</math> ist, dann ist <math>\bigcup_{x \in X} \{(x,0),(0,x)\} </math> eine Basis von <math>V \oplus V</math>. Auf dieser Basis wirkt <math>\tau</math> als Permutation, nämlich als Produkt aus den <math>n</math> Transpositionen, die <math>(x,0)</math> mit <math>(0,x)</math> vertauschen. Daher ist <math>\det(\tau)=(-1)^n</math>.

Beispiel D. Es sei <math>V</math> ein <math>n</math>-dimensionaler Vektorraum mit Basis <math>X</math> und definiere <math>f : V \to V</math> durch <math>f(x)=\sum_{y \in X \setminus \{x\}} \,y</math> für <math>x \in X</math>. Es sei <math>n \geq 1</math>. Für <math>u := \sum_{x \in X} \,x</math> gilt dann <math>u \neq 0</math> und <math>f(u)=\sum_{x \in X} \sum_{y \in X \setminus \{x\}} \, y = (n-1) \cdot u</math>, denn hierbei wird jedes <math>y \in X</math> genau <math>(n-1)</math> mal summiert. Es ist also <math>U = \langle u \rangle</math> ein eindimensionaler Unterraum, der unter <math>f</math> invariant ist, und für <math>f|_U : U \to U</math> gilt <math>\det(f|_U) = n-1</math>. Der Quotientenraum <math>V/U</math> hat <math>\{[x] : x \in X \setminus \{x_0\}\}</math> als Basis, wobei wir ein <math>x_0 \in X</math> fixiert haben. Für den Endomorphismus <math>\overline{f} : V/U \to V/U</math> gilt <math>\overline{f}([x]) = [f(x)] = [f(x)-u] = [-x]=-[x]</math> für alle <math>x \in X \setminus \{x_0\}</math>. Daher ist <math>\det(\overline{f}) = (-1)^{n-1}</math>. Zusammen erhalten wir also <math>\det(f) = \det(\overline{f}) \cdot \det(f|_U) = (-1)^{n-1} (n-1)</math>.

Ein ähnliches Vorgehen zeigt: Sind <math>a,b \in K</math> fest und definiert man <math>f(x)=ax + b \sum_{y \in X \setminus \{x\}} \, y</math>, so gilt <math>\det(f) = (a-b)^{n-1} \cdot (a+(n-1) b)</math>.
 
Natürlich muss man hier einräumen, dass die Definition von <math>f</math> gar nicht koordinatenfrei ist, sondern eine Basis von <math>V</math> benutzt, aber die Bestimmung der Determinante geht offenbar leichter von der Hand, wenn man an koordinatenfreie elementare Konstruktionen für Vektorräume wie zum Beispiel Quotientenräume denkt.
 
Beispiel E. Es sei <math>V</math> ein <math>n</math>-dimensionaler Vektorraum und <math>f : V \to V</math> ein Endomorphismus. Dieser induziert einen Endomorphismus <math>f_* : \mathrm{End}(V) \to \mathrm{End}(V)</math>, <math>g \mapsto f \circ g</math>. Wir möchten <math>\det(f_*)</math> in Abhängigkeit von <math>\det(f)</math> berechnen. Dazu ist es günstig, die Situation zu verallgemeinern: Sei <math>W</math> ein <math>m</math>-dimensionaler Vektorraum. Dann erhalten wir den Endomorphismus <math>f_* : \mathrm{Hom}(W,V) \to \mathrm{Hom}(W,V)</math>, <math>g \mapsto f \circ g</math>. Wenn <math>W</math> eindimensional ist, dann identifiziert sich <math>f_*</math> mit <math>f</math> und wir erhalten <math>\det(f_*)=\det(f)</math>. Im allgemeinen Fall zerlegt sich <math>W</math> in eine direkte Summe von <math>m</math> eindimensionalen Unterräumen und <math>f_*</math> zerlegt sich entsprechend. Es folgt <math>\det(f_*)=\dim(f)^{m}</math>.

Mit einer ähnlichen Überlegung zeigt man <math>\det(f^* ) = \det(f)^{m}</math>, wobei <math>f^* : \mathrm{Hom}(V,W) \to \mathrm{Hom}(V,W)</math>, <math>g \mapsto g \circ f</math>. Dabei muss man sich aber im eindimensionalen Fall überlegen, dass die Determinante eines Endomorphismus <math>f : V \to V</math> mit der Determinante des dualen Endomorphismus <math>f^* : V^* \to V^*</math> übereinstimmt. Das sieht man zum Beispiel mit der Leibniz-Formel, aber es gibt auch andere Möglichkeiten. Zum Beispiel kann man sich überlegen, dass <math>\mathrm{A}_n(V^*)</math> und <math>\mathrm{A}_n(V)^*</math> natürlich isomorph sind, wobei hier die Natürlichkeit im Sinne der Kategorientheorie zu lesen ist.

Beispiel F. Sofern der Leser bereits mit Tensorprodukten vertraut ist: Seien <math>f \in \mathrm{End}(V)</math> und <math>g \in \mathrm{End}(W)</math> mit <math>n=\dim(V)</math>, <math>m = \dim(W)</math>. Wir möchten die Determinante von <math>f \otimes g \in \mathrm{End}(V \otimes W)</math> bestimmen. Wegen <math>f \otimes g = (f \otimes \mathrm{id}_W) \circ (\mathrm{id}_V \otimes g)</math> reicht es, <math>\det(f \otimes \mathrm{id}_W)</math> und analog <math>\det(\mathrm{id}_V \otimes g)</math> zu berechnen. Wenn wir eine Basis von <math>W</math> wählen, d.h. einen Isomorphismus <math>W \cong K^m</math>, erhalten wir daraus einen Isomorphismus <math>\alpha : V \otimes W \to V \otimes K^m \to V^m</math>, und das Diagramm

<math>\begin{tikzcd} V \otimes W \ar{r}{f \otimes \mathrm{id}_W} \ar{d}[swap]{\alpha} & V \otimes W \ar{d}{\alpha} \\ V^m \ar{r}{f^m} & V^m \end{tikzcd}</math>

kommutiert. Daher gilt <math>\det(f \otimes \mathrm{id}_W) = \det(f^m)=\det(f)^m</math>. Analog folgt <math>\det(\mathrm{id}_V \otimes g) = \det(g)^n</math>. Zusammen erhalten wir daher <math>\det(f \otimes g) = \det(f)^m \cdot \det(g)^n</math>.

Aufgabe. Es sei <math>V</math> ein <math>n</math>-dimensionaler Vektorraum mit Basis <math>\{v_1,\dotsc,v_n\}</math>. Definiere die lineare Abbildung <math>f : V \to V</math> durch <math>f(v_i)=v_{i-1}+v_i + v_{i+1}</math> für <math>1<i<n</math> und (falls <math>n \geq 2</math>) <math>f(v_1)=v_1 + v_2</math> und <math>f(v_n)=v_{n-1}+v_n</math>. Berechne <math>\det(f)</math> in Abhängigkeit von <math>n</math>.
 


Ich bedanke mich bei meinen Korrekturlesern KidinK, sbechtel und gonz.
In den Kommentaren können wir gerne weiter über das Thema diskutieren.

Link auf diesen Artikel Link auf diesen Artikel  Druckbare Version Druckerfreundliche Version  Einen Freund auf diesen Artikel aufmerksam machen Weitersagen Kommentare zeigen Kommentare  
pdfFür diesen Artikel gibt es keine pdf-Datei


Arbeitsgruppe Alexandria Dieser Artikel ist nicht im Verzeichnis der Arbeitsgruppe Alexandria eingetragen.
[Die Arbeitsgruppe Alexandria katalogisiert die Artikel auf dem Matheplaneten]

 
Verwandte Links
 
Besucherzähler 1880
 
Aufrufstatistik des Artikels
Insgesamt 14 externe Besuche zwischen 2017.10 und 2017.10 [Anzeigen]
DomainAnzahlProz
http://matheplanet.com535.7%35.7 %
http://yandex.ru17.1%7.1 %
http://google.de535.7%35.7 %
http://www.bing.com321.4%21.4 %

Häufige Aufrufer in früheren Monaten
Insgesamt 4 häufige Aufrufer [Anzeigen]
DatumAufrufer-URL
2015-2017 (4x)http://google.de/url?sa=t&rct=j&q=

[Seitenanfang]

" Mathematik: Determinanten koordinatenfrei" | 16 Kommentare
 
Für den Inhalt der Kommentare sind die Verfasser verantwortlich.

Re: Determinanten koordinatenfrei
von dromedar am Mi. 09. September 2015 15:33:22


Ich hatte das Glück, die Determinante in einer LA-Vorlesung kennenzulernen, wo sie als <math>n</math>-te äußere Potenz einer Abbildung eingeführt wurde, und freue mich über jeden Versuch, einer koordinatenfreien Sichtweise zu weiterer Verbreitung zu verhelfen.

Dass diese Sichtweise nicht nur schön, sondern auch praktisch anwendbar ist, zeigt Satz 4 in Verbindung mit Beispiel D sehr eindrucksvoll.

Grüße,
dromedar

 [Bearbeiten]

Re: Determinanten koordinatenfrei
von sbechtel am Do. 10. September 2015 08:31:34


Mir hat der Artikel sehr gut gefallen und ich kann dem Ansatz viel abgewinnen. Dieses Rumgewusel mit Matrizen nimmt zuweilen so absurde Züge an, dass die Studenten nicht richtig wissen, was ein Vektorraum oder eine lineare Abbildung ist, aber sie Matrizen multiplizieren können...

 [Bearbeiten]

Re: Determinanten koordinatenfrei
von jarhat am Sa. 12. September 2015 11:29:10


Ich habe ein wenig Startschwierigkeiten beim Lesen. Es heißt bei 1.)  am Anfang " Es sei K ein fixierter Körper"; ist das "fixiert"  im Sinne von "fest" gemeint  confused .
Die Formulierung lässt sich sonst nur selten finden und dann ohne Erklärung.
Ich bin jedenfalls bisweilen "Es sei K ein Körper" gewohnt."

 [Bearbeiten]

Re: Determinanten koordinatenfrei
von Martin_Infinite am Sa. 12. September 2015 18:03:01


Entschuldige. Du kannst es als "Sei K ein fester Körper" lesen. Ich hatte mal Vorlesungen bei einem Professor, der immer alles "fixiert" hat. Die Formulierung hat mir immer sehr beim Verständnis geholfen. Mir ist eigentlich klar, dass sie eher unüblich ist. Ich hatte es nur vergessen. Vielleicht ist es auch nur eine unglückliche Übersetzung von "Let K be a fixed field", was im Englischen durchaus üblich ist.

 [Bearbeiten]

Re: Determinanten koordinatenfrei
von pasch am So. 13. September 2015 12:28:13


Hallo,

schöner Artikel! Leider war meine Vorlesung zur linearen Algebra - sagen wir mal - nicht so gut. Insgesamt erscheint mir dieser Ansatz am Sinnvollsten.

Hierzu kann ich auch  dieses Skript empfehlen.

Ich frage mich gerade, ob man beispielsweise die Formel von Binet-Cauchy auch ohne Rechnungen beweisen kann. Kennt da jemand etwas?

Viele Grüße
pasch

 [Bearbeiten]

Re: Determinanten koordinatenfrei
von Martin_Infinite am So. 13. September 2015 13:35:06


Das Skript von M. Ziegler fängt ja ebenfalls mit Formen an und erwähnt auch die Funktorialität bez. linearer Abbildungen (Lemma 4.2.2). Aber dann wird seltsamerweise die Determinante nur für Matrizen definiert. Die Definition für Endomorphismen kommt erst viel später und arbeitet, wie üblich, mit Darstellungsmatrizen. Alles unnötig kompliziert, in meinen Augen.

Der Unterschied zwischen meinem Ansatz und den übrigen Ansätzen mit Formen (oder eben äußeren Produkten) ist, dass man keine Permutationen und auch nicht ihre Signatur kennen muss. Die Signatur und auch die Leibniz-Formel ergeben sich aus der Theorie. Der übliche Aufwand wird mittels Satz 1 auf ein Minimum reduziert.
 
Über die Cauchy-Binet-Formel werde ich mal nachdenken. Aber momentan fällt mir nicht einmal eine koordinatenfreie Formulierung ein. Für die Formel gibt es allerhand schöne Beweise. Zum Beispiel findest du in Kapitel 25 im Buch der Beweise einen graphentheoretischen Beweis.

 [Bearbeiten]

Re: Determinanten koordinatenfrei
von dromedar am So. 13. September 2015 21:44:38


Vielleicht ist der Beweis der Cauchy-Binet-Formel in diesem Artikel in diesem Zusammenhang interessant.

 [Bearbeiten]

Re: Determinanten koordinatenfrei
von Martin_Infinite am So. 13. September 2015 22:36:48


@dromedar: Danke für den Link! Das beantwortet ja die Frage von pasch und zeigt ebenfalls eindrucksvoll, wie die koordinatenfreie Sichtweise Dinge vereinfacht. Wobei aber die Aussage der Cauchy-Binet-Formel dort immer noch die Wahl einer Basis vorab beinhaltet. Vielleicht ist das aber auch die Natur der Sache.

Im Artikel wird der Raum der <math>n</math>-Formen <math>\Lambda^n(V)</math> genannt. Das ist nicht richtig (bzw. passt nicht zur kanonischen Notation). Der Raum der <math>n</math>-Formen ist der Dualraum der äußeren Potenz, also <math>\Lambda^n(V)^*</math>. Ich habe mir hier die Notation <math>\mathrm{A}_n(V)</math> dafür ausgedacht.

 [Bearbeiten]

Re: Determinanten koordinatenfrei
von Dune am Mo. 14. September 2015 13:40:04


Hi Martin,

danke für diesen schönen Artikel! Ich suche schon lange nach einer Quelle, in der diese Theorie konsequent koordinatenfrei behandelt wird. Freut mich, dass du dich jetzt diesem Thema angenommen hast. smile

Die Verwendung von Satz 4 in den nachfolgenden Beweisen ist natürlich sehr elegant, aber ich finde es auch ein klein wenig schade, da dadurch immer implizit der Basisergänzungssatz mit eingeht und sich die Beweise dann (vermutlich?) nicht mehr für freie Moduln über beliebigen kommutativen Ringen verallgemeinern lassen.

Kennst du zufällig eine Quelle, in der Determinanten über beliebigen kommutativen Ringen koordinatenfrei behandelt werden? Ich bin besonders an einem koordinatenfreien Beweis für Cayley-Hamilton interessiert.

Viele Grüße,
Dune

 [Bearbeiten]

Re: Determinanten koordinatenfrei
von KidinK am Mo. 14. September 2015 14:23:24


Ich schließe mich Dunes Wünschen an smile Was Cayley-Hamilton angeht, habe ich  hier schon einmal eine Frage gestellt.

Liebe Grüße,
KidinK

 [Bearbeiten]

Re: Determinanten koordinatenfrei
von dromedar am Mo. 14. September 2015 14:23:53


@Dune: Schau mal in Kapitel 28 von Paul Garretts Skript Abstract Algebra .

 [Bearbeiten]

Re: Determinanten koordinatenfrei
von Dune am Mo. 14. September 2015 14:35:42


@dromedar: Danke für den Link! Ich habe mir dieses Skript tatsächlich vor einiger Zeit schon einmal angeschaut, bin aber zu dem Schluss gekommen, dass der Beweis nicht vollständig über beliebigen kommutativen Ringen funktioniert (korrigiere mich bitte, wenn ich falsch liege). Zum Beispiel wird glaube ich nicht hinreichend begründet, warum die Multiplikation der Adjunkten eines Endomorphismus mit diesem selbst von links wie von rechts das gleiche ergibt (über einem Körper ist das auch nicht wichtig).

@KidinK: Das ist auch sehr interessant! Aber ich vermute einmal, dass die dort verwendete Form von Nakayamas Lemma ebenfalls nicht ganz elementar (z.B. ohne Determinanten) zu beweisen ist?

 [Bearbeiten]

Re: Determinanten koordinatenfrei
von dromedar am Mo. 14. September 2015 14:48:18


@Dune: Das Skript erfüllt nur einen Teil Deiner Wünsche:
- Determinanten werden über kommutativen Ringen koordinatenfrei eingeführt
- Cayley-Hamilton wird koordinatenfrei bewiesen

Allerdings beschränkt sich der Beweis von Cayley-Hamilton explizit auf Vektorräume.

 [Bearbeiten]

Re: Determinanten koordinatenfrei
von Dune am Fr. 18. September 2015 10:28:49


Bourbaki behandelt die gesamte Determinantentheorie über kommutativen Ringen koordinatenfrei (Algebra, Kapitel 3). Da hätte ich aber auch schon früher drauf kommen können...

 [Bearbeiten]

Re: Determinanten koordinatenfrei
von Martin_Infinite am Fr. 18. September 2015 11:57:50


Dune, Danke dir für den Hinweis. Die genaue Referenz ist: N. Bourbaki, Algebra I: Chapters 1-3. Determinanten sind das Thema von Kapitel 3, Paragraph 8.

Satz 4 gilt auch über kommutativen Ringen: Hat man eine exakte Sequenz

<math>\begin{tikzcd}0 \ar{r} & U \ar{r} & V \ar{r} & W \ar{r} & 0 \end{tikzcd}</math>

von endlich-erzeugten projektiven Moduln (die ja dann spaltet!), und ein kommutatives Diagramm

<math>\begin{tikzcd} 0 \ar{r} & U \ar{d}{g}\ar{r} & V \ar{d}{f}\ar{r} & W \ar{d}{h}\ar{r} & 0 \\ 0 \ar{r} & U \ar{r} & V \ar{r} & W \ar{r} & 0, \end{tikzcd}</math>

so gilt <math>\det(f)=\det(g) \cdot \det(h)</math>.

 [Bearbeiten]

Re: Determinanten koordinatenfrei
von pasch am Mo. 05. Oktober 2015 22:13:04


Hallo Martin,

ja, im Skript von Ziegler wird nicht in aller Konsequenz koordinatenfrei gearbeitet. Jedoch finde ich es dennoch sehr gut gemacht. Einerseits ist dies eine Vorlesung für Anfänger und so ist es halt auch gestaltet.

Möglicherweise liegt es aber auch daran, dass meine Vorlesung zur linearen Algebra regelrecht eine Katastrophe war.

Danke an dromedar für den Hinweis auf den Artikel. Wenn ich Zeit finde, werde ich mir das ansehen.

Viele Grüße
pasch

 [Bearbeiten]

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2017 by Matroids Matheplanet
This web site was made with PHP-Nuke, a web portal system written in PHP. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]