Mathematik: Ausdehnen von algebraischen Gleichungen
Released by matroid on So. 12. Juli 2020 21:52:37 [Statistics]
Written by Triceratops - 644 x read [Outline] Printable version Printer-friendly version -  Choose language   
Mathematik

\(\begingroup\)

Ausdehnen von algebraischen Gleichungen

Der Satz von Cayley-Hamilton aus der linearen Algebra ist ein schönes Beispiel dafür, dass man einen Satz über komplexe Matrizen mit einem formalen Argument auf Matrizen über kommutativen Ringen verallgemeinern kann. In diesem Artikel soll das allgemeine Prinzip dahinter erklärt werden. Als Beispiele dafür besprechen wir die Multiplikativität von Determinanten, den Entwicklungssatz von Laplace, die Brahmagupta–Fibonacci-Identität und die Vier-Quadrate-Formel von Euler, die Vandermonde-Identität, die Formel für das charakteristische Polynom eines Matrixproduktes und eben den Satz von Cayley-Hamilton.


Körper reichen aus

Wir kommen gleich zur Sache:
Satz 1. Seien $p,q \in \IZ[X_1,\dotsc,X_n]$ zwei Polynome in $n$ Variablen über dem Ring der ganzen Zahlen. Angenommen, für alle Körper $K$ und alle Tupel $a \in K^n$ gilt die Gleichung $p(a_1,\dotsc,a_n) = q(a_1,\dotsc,a_n)$. Dann gilt bereits $p=q$. Insbesondere gilt die Gleichung $p(a_1,\dotsc,a_n) = q(a_1,\dotsc,a_n)$ für alle kommutativen Ringe $R$ und alle Tupel $a \in R^n$.
Eine allgemein definierbare polynomielle Gleichung muss also nur über Körpern geprüft werden. Beweis. Es ist $R := \IZ[X_1,\dotsc,X_n]$ ein Integritätsring. Also existiert sein Quotientenkörper $K := Q(R)$ zusammen mit einem injektiven Homomorphismus $i : R \to K$. Nach Annahme gilt $p(i(X_1),\dotsc,i(X_n)) = q(i(X_1),\dotsc,i(X_n))$. Weil $i$ ein Homomorphismus von Ringen ist, lässt sich dies umschreiben zu $i(p(X_1,\dotsc,X_n)) = i(q(X_1,\dotsc,X_n))$. Weil $i$ injektiv ist, folgt $p(X_1,\dotsc,X_n)=q(X_1,\dotsc,X_n)$ und wir sind fertig. $\checkmark$ Auch wenn der Beweis beinahe trivial war, lässt sich mit dem Satz schon einiges anstellen.

Beispiel 1: Multiplikativität von Determinanten

Die Determinante einer Matrix $A \in M_n(R)$ über einem beliebigen kommutativen Ring $R$ lässt sich zum Beispiel mit der Leibniz-Formel definieren: $\displaystyle \det(A) := \sum_{\sigma \in \Sigma_n} \mathrm{sgn}(\sigma) \cdot \prod_{i=1}^{n} A_{i,\sigma(i)}.$ Wenn $R$ ein Körper ist, liefert das die übliche Determinante. Gehen wir einmal davon aus, dass wir bereits wissen (lineare Algebra), dass die Determinante über Körpern multiplikativ ist in dem Sinne, dass $\det(A \cdot B) = \det(A) \cdot \det(B)$ für Körper $K$ und Matrizen $A,B \in M_n(K)$ gilt. Dann gilt selbige Gleichung bereits allgemein über kommutative Ringe: Um Satz 1 anzuwenden, müssen wir uns lediglich überlegen, dass es sich hierbei um eine polynomielle Gleichung handelt. Bevor wir das allgemein beweisen, schauen wir uns besser den Spezialfall $n=2$ an und schreiben die behauptete Gleichung aus, wobei wir $\det(A) = A_{1,1} A_{2,2} - A_{1,2} A_{2,1}$ (gemäß der Leibniz-Formel) und die Definition des Matrixproduktes $A \cdot B = \begin{pmatrix} A_{1,1} B_{1,1} + A_{1,2} B_{2,1} & A_{1,1} B_{1,2} + A_{1,2} B_{2,2} \\ A_{2,1} B_{1,1} + A_{2,2} B_{2,1} & A_{2,1} B_{1,2} + A_{2,2} B_{2,2} \end{pmatrix}$ verwenden: $(A_{1,1} B_{1,1} + A_{1,2} B_{2,1}) (A_{2,1} B_{1,2} + A_{2,2} B_{2,2}) - (A_{1,1} B_{1,2} + A_{1,2} B_{2,2} ) (A_{2,1} B_{1,1} + A_{2,2} B_{2,1}) = (A_{1,1} A_{2,2} - A_{1,2} A_{2,1}) (B_{1,1} B_{2,2} - B_{1,2} B_{2,1}).$ Das ist offensichtlich eine polynomielle Gleichung (die man hier auch durch direktes Ausmultiplizieren bestätigen kann). Im allgemeinen Fall geht das genauso. Formal führen wir die $n^2+n^2$ Variablen $(X_{ij})_{1 \leq i,j \leq n}$ und $(Y_{ij})_{1 \leq i,j \leq n}$ ein und betrachten die Polynome $\displaystyle p := \sum_{\sigma \in \Sigma_n} \mathrm{sgn}(\sigma) \cdot \prod_{i=1}^{n} \sum_{k=1}^{n} \bigl(X_{i,k} \cdot Y_{k,\sigma(i)}\bigr),$ $\displaystyle q := \left(\sum_{\sigma \in \Sigma_n} \mathrm{sgn}(\sigma) \cdot \prod_{i=1}^{n} X_{i,\sigma(i)}\right) \cdot \left(\sum_{\sigma \in \Sigma_n} \mathrm{sgn}(\sigma) \cdot \prod_{i=1}^{n} Y_{i,\sigma(i)}\right).$ Dann gilt für alle Paare von Matrizen $(A,B) \in M_n(R) \times M_n(R) \cong R^{n^2+n^2}$ nach Konstruktion $p(A,B) = \det(A \cdot B)$ und $q(A,B) = \det(A) \cdot \det(B)$. Der Satz ist also anwendbar. Es sei noch erwähnt, dass man aber auch direkt $\det(A \cdot B) = \det(A) \cdot \det(B)$ mit der Leibniz-Formel allgemein zeigen kann. Dieses Beispiel ist also eher eine Illustration des Satzes als eine echte Anwendung. Der Vorteil des Satzes ist hier vielmehr, dass wir wirklich sämtliche Rechenregeln für Determinanten (fast) genauso aus der linearen Algebra übertragen können.

Beispiel 2: Der Entwicklungssatz von Laplace

Ein weiteres Beispiel ist der Entwicklungssatz von Laplace, welcher sich als $\det(A) \cdot \mathbf{1}_n = A \cdot \mathrm{adj}(A) = \mathrm{adj}(A) \cdot A$ schreiben lässt, wobei die Adjunkte $\mathrm{adj}(A)$ durch $\mathrm{adj}(A)_{ij} = (-1)^{i+j} \det( A[j,i])$ definiert ist, wobei wiederum $A[j,i]$ durch Streichen der $j$-ten Zeile und der $i$-ten Spalte aus $A$ entsteht. Auch diese Gleichung folgt formal für $A \in M_n(R)$ für alle kommutative Ringe $R$, sobald wir sie für Körper bewiesen haben (lineare Algebra). Das liegt daran, dass jeweils die Einträge $(A \cdot \mathrm{adj}(A))_{i,j}$ (analog das andere Produkt) und $(\det(A) \cdot \mathbf{1}_n)_{i,j}$ polynomielle Ausdrücke in den Einträgen der Matrix $A$ sind (die in dem Sinne universell definierbar sind, dass die Polynome nicht von der konkreten Matrix abhängen.)

Irgendein Körper reicht

Wir verstärken den Satz nun, was die zu prüfenden Körper angeht:
Satz 2. Seien $p,q \in \IZ[X_1,\dotsc,X_n]$ zwei Polynome in $n$ Variablen über dem Ring der ganzen Zahlen. Angenommen, es gibt einen Körper $K$ der Charakteristik $0$ derart, dass die Gleichung $p(a_1,\dotsc,a_n) = q(a_1,\dotsc,a_n)$ für alle Tupel $a \in K^n$ gilt. Dann gilt bereits $p=q$. Insbesondere gilt die Gleichung $p(a_1,\dotsc,a_n) = q(a_1,\dotsc,a_n)$ für alle kommutative Ringe $R$ und alle Tupel $a \in R^n$.
Eine allgemein definierbare polynomielle Gleichung muss also nur über irgendeinem Körper der Charakteristik $0$ (zum Beispiel $\IC$) geprüft werden! Beweis. Betrachten wir die Differenz $f := p-q$. Dann gilt also $f(a)=0$ für alle $a \in K^n$ und wir müssen $f=0$ zeigen. Weil $K$ Charakteristik $0$ hat, ist der eindeutige Ringhomomorphismus $\IZ \to K$ injektiv (insbesondere ist also $K$ unendlich), womit auch $\IZ[X_1,\dotsc,X_n] \to K[X_1,\dotsc,X_n]$, $X_i \mapsto X_i$ injektiv ist. Bezeichnen wir mit $\overline{f}$ das Bild von $f$ unter diesem Homomorphismus, so ist $f(a)=0$ mit $\overline{f}(a)=0$ äquivalent, und $f=0$ ist mit $\overline{f}=0$ äquivalent. Wir können daher genauso gut von einem $f \in K[X_1,\dotsc,X_n]$ ausgehen mit $f(a)=0$ für alle $a \in K^n$, und die Behauptung ist $f=0$. Dies folgt aus dem folgenden Lemma. $\checkmark$
Lemma 1. Sei $K$ ein Körper und sei $T \subseteq K$ eine unendliche Teilmenge. Sei $f \in K[T_1,\dotsc,X_n]$ ein Polynom derart, dass $f(a)=0$ für alle $a \in T^n$ gilt. Dann folgt $f=0$.
Beweis. Für $n=1$ haben wir ein Polynom $f \in K[X]$ mit $f(a)=0$ für alle $a \in T$. Es ist jeweils $X-a$ ein Teiler von $f \in K[X]$, und dann auch $(X-a_1) \cdots (X-a_r)$ für paarweise verschiedene $a_1,\dotsc,a_r \in T$. Weil $T$ unendlich ist, funktioniert das nur für $f=0$. Nun sei $n \geq 2$ und die Behauptung bereits für $n-1$ bewiesen. Für festes $a \in T^{n-1}$ ist $f' := f(a,X_n) \in K[X_n]$ ein Polynom einer Variablen mit $f'(a_n)=0$ für alle $a_n \in T$. Aus dem Induktionsanfang folgt also $f'=0$. Schreiben wir $f = \sum_i f_i \cdot X_n^i$ mit $f_i \in K[X_1,\dotsc,X_{n-1}]$, so folgt also $0=f'=\sum_i f_i(a) \cdot X_n^i$ und damit $f_i(a)=0$ für alle $i$. Weil hier $a \in T^{n-1}$ beliebig ist, folgt aus der Induktionsannahme $f_i=0$ für alle $i$. Also ist auch $f=0$. $\checkmark$ Wir geben hier noch einen alternativen Beweis von Satz 2 für den Spezialfall $K = \IC$ an, der aber etwas mehr Vorwissen erfordert: Alternativbeweis. Sei $K = \IC$. Es gibt einen injektiven Homomorphismus $\IQ(X_1,\dotsc,X_n) \to \IC$, weil es $n$ algebraisch unabhängige Elemente von $\IC$ über $\IQ$ gibt (tatsächlich ist der Transzendenzgrad von $\IC$ über $\IQ$ unendlich, weil sonst $\IC$ abzählbar wäre). Weil die Behauptung über $\IC$ gilt, gilt sie auch über $\IQ(X_1,\dotsc,X_n)$ und damit insbesondere für das Tupel $(X_1,\dotsc,X_n)$. Dann sind wir aber genau wie im Beweis von Satz 1 fertig. $\checkmark$

Beispiel 3: Produkte von Quadratsummen

Starten wir mit der Beobachtung, dass der Betrag komplexer Zahlen multiplikativ ist: Für $z,z' \in \IC$ gilt $|z| \cdot |z'| = |z \cdot z'|$. Ein schneller Beweis hiervon arbeitet mit der Multiplikativität der komplexen Konjugation und $|z|^2 = z \cdot \overline{z}$. Alternativ kann man auch mit Polarkoordinaten argumentieren. Machen wir nun den Ansatz $z = a+ib$, $z' = c+id$, quadrieren die Gleichung und berechnen beide Seiten, so erhalten wir die sog. Brahmagupta-Fibonacci-Identität $(a^2+b^2) \cdot (c^2+d^2) = (ac-bd)^2 + (ad + bc)^2.$ Wir haben diese zwar nur für $a,b,c,d \in \IR$ bewiesen. Satz 2 sagt uns aber sofort, dass sie für alle kommutative Ringe $R$ und alle Elemente $a,b,c,d \in R$ gilt. Den Aufwand einer erneuten Rechnung können wir uns ersparen. Die Ersparnis ist hier zwar noch relativ gering, aber bei der nächsten Gleichung viel deutlicher: Wenn wir mit dem Schiefkörper der Quaternionen $\IH$ nämlich genauso vorgehen (der Betrag von $z=a+ib+jc+kd$ ist hier durch $|z|^2 = a^2+b^2+c^2+d^2$ definiert und lässt sich wieder schreiben als $|z|^2 = z \cdot \overline{z}$), ergibt sich die wunderschöne Vier-Quadrate-Formel von Euler: $\begin{align*}(a_1^2 + a_2^2 + a_3^2 + a_4^2) (b_1^2 + b_2^2 + b_3^2 + b_4^2) & = (a_1 b_1 - a_2 b_2 - a_3 b_3 - a_4 b_4)^2\\ & + (a_1 b_2 + a_2 b_1 + a_3 b_4 - a_4 b_3)^2\\ & + (a_1 b_3 - a_2 b_4 + a_3 b_1 + a_4 b_2)^2\\ & + (a_1 b_4 + a_2 b_3 - a_3 b_2 + a_4 b_1)^2. \end{align*}$ Auch diese gilt also aufgrund von Satz 2 in jedem kommutativen Ring. Für Summen von $8$ bzw. $16$ Quadraten gibt es entsprechende Formeln (sonst aber nicht), siehe hier und hier.

Beispiel 4: Der Satz von Cayley-Hamilton

Der allgemeine Satz von Cayley-Hamilton sagt: Sei $R$ ein kommutativer Ring und $A \in M_n(R)$. Für das charakteristische Polynom $\chi_A(T) := \det(T \cdot \mathbf{1}_n - A) \in R[T]$ gilt dann die Gleichung $\chi_A(A) = 0$ in $M_n(R)$. Wir werden dies aus Satz 2 ableiten: Zunächst einmal machen wir uns wieder mit den Definitionen klar, dass in jedem Eintrag eine polynomielle Gleichung in den Einträgen von $A$ vorliegt. Zur Veranschaulichung sei etwa $n=2$, dann ist $\chi_A(T) = T^2 - (A_{1,1} + A_{2,2}) T + (A_{1,1} A_{2,2} - A_{2,1} A_{1,2})$, die Behauptung ist demnach $(A_{i1} A_{1j} + A_{i2} A_{2j}) - (A_{1,1} + A_{2,2}) A_{i,j} + (A_{1,1} A_{2,2} - A_{2,1} A_{1,2}) = 0$ für alle Indizes $i,j$, was offenbar eine polynomielle Gleichung ist. Wir dürfen wegen Satz 2 daher annehmen, dass etwa $R = \IC$ ist. Tatsächlich funktioniert das folgende Argument für jeden algebraisch abgeschlossenen Körper. Es ist bekannt, dass jede Matrix $A \in M_n(\IC)$ trigonalisierbar ist (im verlinkten Artikel steht der einfache Induktionsbeweis dafür), es also eine Basis $v_1,\dotsc,v_n$ von $\IC^n$ gibt, sodass $A v_i \in \langle v_1,\dotsc,v_i \rangle$ für $i=1,\dotsc,n$. Sei $\lambda_i$ der Koeffizient von $v_i$ in $A v_i$ (also der $i$-te Eintrag der Diagonalen der Darstellungsmatrix von $A$ bezüglich $v_1,\dotsc,v_n$). Dann sind die Eigenwerte von $A$ also $\lambda_1,\dotsc,\lambda_n$ und das charakteristische Polynom ist gleich $\chi_A(T) = (T - \lambda_1) \cdots (T - \lambda_n)$. Es folgt $\chi_A(A) = (A - \lambda_1 \mathbf{1}_n) \cdots (A - \lambda_n \mathbf{1}_n).$ Beachte, dass die $n$ Matrizen in diesem Produkt miteinander kommutieren. Für $\chi_A(A)=0$ reicht es, $\chi_A(A) \cdot v_i = 0$ für alle $i$ zu zeigen. Dafür reicht es wiederum, $(A - \lambda_1 \mathbf{1}_n) \cdots (A - \lambda_i \mathbf{1}_n) v_i = 0$ zu zeigen. Das lässt sich per Induktion nach $i$ beweisen: Der Induktionsanfang $(A - \lambda_1 \mathbf{1}_n) v_1 = 0$ folgt aus $A v_1 = \lambda_1 v_1$. Im Induktionsschritt möge die Behauptung für alle Indizes kleiner als $i$ stimmen. Per Definition von $\lambda_i$ ist $(A-\lambda_i \mathbf{1}_n) v_i \in \langle v_1,\dotsc,v_{i-1}\rangle$. Weil die $v_1,\dotsc,v_{i-1}$ nach Induktionsannahme im Kern von $(A - \lambda_1 \mathbf{1}_n) \cdots (A - \lambda_{i-1} \mathbf{1}_n)$ liegen, liegt also auch $(A-\lambda_i \mathbf{1}_n) v_i$ im Kern, was zu zeigen war. $\checkmark$

Beispiel 5: Die Vandermonde-Identität

Ist $R$ eine kommutative $\IQ$-Algebra, $r \in R$ und $n \in \IN$, so können wir den Binomialkoeffizienten $\binom{r}{n} \in R$ wie üblich durch die Formel $\displaystyle \binom{r}{n} := \frac{r(r-1) \cdots (r-n+1)}{n!}$ definieren. Für $R=\IN$ handelt es sich um den aus der Kombinatorik bekannten Binomialkoeffizienten, der die $n$-elementigen Teilmengen einer Menge mit $r$ Elementen zählt. Aus dieser kombinatorischen Interpretation ergibt sich leicht die Vandermonde-Identität $\displaystyle \binom{r+s}{n} = \sum_{p+q=n} \binom{r}{p} \cdot \binom{s}{q}$ für $r,s \in \IN$ und $n \in \IN$. Denn $r+s$ Elemente können wir aufteilen in $r$ Elemente und $s$ Elemente, und bei einer Auswahl von $n$ Elementen daraus wählen wir etwa $p$ von den $r$ Elementen und $q$ von den $s$ Elementen aus. Die Vandermonde-Identität gilt also für $r,s \in \IN$, aber tatsächlich gilt sie auch für Elemente $r,s \in R$ einer kommutativen $\IQ$-Algebra. Entweder überzeugt man sich davon durch einen direkten Induktionsbeweis, oder man benutzt einfach Lemma 1. Es handelt sich nämlich um eine polynomielle Gleichung in zwei Variablen über $\IQ$, die für alle Elemente $(r,s) \in \IN^n$ gilt. $\checkmark$

Weniger Tupel reichen auch

Wir wollen nun noch eine Verallgemeinerung beweisen, bei der es darum geht, die zu prüfenden Tupel zu reduzieren. Dazu vereinbaren wir folgende Notation: Für ein Polynom $g \in K[X_1,\dotsc,X_n]$ über einem Körper $K$ sei $V(g) := \{a \in K^n : g(a)=0\}$ die Nullstellenmenge in $K^n$ (zum Beispiel ist $V(X^2+Y^2-1)$ für $K=\IR$ der Einheitskreis) und $D(g) := K^n \setminus V(g)$ das Komplement (also der Ort, wo $g$ nicht verschwindet). Eine Teilmenge $U \subseteq K^n$ nennen wir Zariski-offen, wenn sie sich als Vereinigung $U = \bigcup_i D(g_i)$ solcher Mengen schreiben lässt. (Das erklärt tatsächlich eine Topologie auf $K^n$, die Zariski-Topologie, aber das brauchen wir hier gar nicht, und die Leser, die den Begriff der Topologie noch nicht kennen, können diesen Hinweis ignorieren.)
Satz 3. Seien $p,q \in \IZ[X_1,\dotsc,X_n]$ zwei Polynome in $n$ Variablen über dem Ring der ganzen Zahlen. Angenommen, es gibt einen Körper $K$ der Charakteristik $0$ und eine nicht-leere Zariski-offene Teilmenge $U \subseteq K^n$ derart, dass die Gleichung $p(a_1,\dotsc,a_n) = q(a_1,\dotsc,a_n)$ für alle Tupel $a \in U$ gilt. Dann gilt bereits $p=q$. Insbesondere gilt die Gleichung $p(a_1,\dotsc,a_n) = q(a_1,\dotsc,a_n)$ für alle kommutative Ringe $R$ und alle Tupel $a \in R^n$.
Eine allgemein definierbare polynomielle Gleichung muss also nur auf irgendeiner nicht-leeren Zariski-offenen Teilmenge über irgendeinem Körper der Charakteristik 0 (zum Beispiel $\IC$) geprüft werden! Beweis. Wir betrachten wieder $f:=p-q$, es gilt also $f(a)=0$ für alle $a \in U$ und wir müssen $f=0$ zeigen. Weil $U$ nicht-leer und Zariski-offen ist, gibt es ein $g \neq 0$ mit $D(g) \subseteq U$. Betrachte $h := f \cdot g \in K[X_1,\dotsc,X_n]$. Für $a \in K^n$ gilt nun entweder $a \in V(g)$, also $g(a)=0$ und damit $h(a)=0$, oder aber $a \in D(g) \subseteq U$ und damit $f(a)=0$, also wieder $h(a)=0$. Es verschwindet also $h$ auf ganz $K^n$, und es folgt $h=0$ aus Lemma 1. Weil $K[X_1,\dotsc,X_n]$ nullteilerfrei ist, folgt $f=0$ in $K[X_1,\dotsc,X_n]$ und dann auch in $\IZ[X_1,\dotsc,X_n]$, weil $K$ Charakteristik $0$ besitzt. $\checkmark$ Das Resultat kann man übrigens auch so lesen, dass in der Zariski-Topologie auf $K^n$ jede nicht-leere offene Teilmenge bereits dicht ist – eine nützliche Eigenschaft, die im krassen Gegensatz zur euklidischen Topologie steht.

Beispiel 6: Charakteristische Polynom eines Produktes

Wir möchten folgende Aussage über charakteristische Polynome von Matrizen beweisen: Ist $R$ ein kommutativer Ring und sind $A,B \in M_n(R)$ zwei quadratische Matrizen, so gilt $\chi_{A \cdot B}(T) = \chi_{B \cdot A}(T).$ Das ist zunächst einmal (für jeden Koeffizienten) eine polynomielle Gleichung in den $n^2+n^2$ Einträgen von $A$ und $B$, wie man anhand der Definition $\chi_A(T) = \det(T \cdot \mathbf{1}_n - A)$ und der Leibniz-Formel sieht. Gemäß Satz 2 reicht es also, die Gleichung über einem Körper $K$ der Charakteristik $0$ zu zeigen, und gemäß Satz 3 dürfen wir uns sogar auf eine nicht-leere Zariski-offene Teilmenge von $M_n(K) \times M_n(K) \cong K^{n^2+n^2}$ beschränken. Wir wählen dafür die Menge der $(A,B)$, für die $\det(A) \neq 0$ gilt, also $A$ invertierbar ist; die Offenheit ergibt sich daraus, dass $\det(A)$ ein Polynom in den Einträgen von $A$ ist, und nicht-leer ist die Menge natürlich auch. Wir dürfen also annehmen, dass $A$ invertierbar ist. Dann ist aber $A \cdot B = A \cdot (B \cdot A) \cdot A^{-1}$ ähnlich zu $B \cdot A$, und ähnliche Matrizen haben natürlich dasselbe charakteristische Polynom. Der Vollständigkeit halber hier noch einmal die Rechnung dafür: Für $S \in \mathrm{GL}_n(R)$ und $A \in M_n(R)$ gilt $\begin{align*} \chi_{S A S^{-1}}(T) &= \det(S T S^{-1} - S A S^{-1}) = \det(S) \det(T \cdot \mathbf{1}_n - A) \det(S)^{-1} \\ &= \det(S) \det(S)^{-1} \det(T \cdot \mathbf{1}_n - A) = \chi_A(T). \quad \checkmark \end{align*}$ Allgemeiner gilt für nicht-quadratische Matrizen $A \in M_{m \times n}(R)$, $B \in M_{n \times m}(R)$ übrigens die Gleichung $T^n \cdot \chi_{A \cdot B}(T) = T^m \cdot \chi_{B \cdot A}(T).$ Das lässt sich allerdings, wobei o.B.d.A. $m \leq n$ gelte, mit Hilfe der quadratischen Matrizen $A' := \begin{pmatrix} A \\ 0^{m-n} \end{pmatrix} \in M_n(R)$ und $B' := \begin{pmatrix} B & 0^{m-n} \end{pmatrix} \in M_n(R)$ auf den Spezialfall zurückführen.

Beispiel 7: Noch einmal der Satz von Cayley-Hamilton

Wir haben den Satz von Cayley-Hamilton zuvor bereits aus Satz 2 abgeleitet und dabei mit trigonalisierbaren Matrizen gearbeitet. Mit Satz 3 können wir uns sogar auf diagonalisierbare Matrizen beschränken: Wie zuvor können wir uns auf $\IC$ beschränken. Wir betrachten die Menge $U$ der Matrizen $A$, für die $\chi_A$ keine mehrfachen Nullstellen hat, und behaupten, dass sie Zariski-offen in $M_n(\IC) \cong \IC^{n^2}$ ist. Wir verwenden dazu die Diskriminante $\mathrm{disc}(f) \in K$ eines normierten Polynoms $f \in K[T]$ über einem Körper $K$. Ist $n = \deg(f)$ und sind $\lambda_1,\dotsc,\lambda_n$ die Nullstellen von $f$ in $\overline{K}$, so ist $\mathrm{disc}(f) := \prod_{i < j} (\lambda_i - \lambda_j)^2.$ Dies ist ein symmetrisches Polynom in den Nullstellen, also nach dem Hauptsatz über symmetrische Polynome ein Polynom in den Koeffizienten von $f$ (welches auch universell gebildet werden kann). Insbesondere ist tatsächlich $\mathrm{disc}(f) \in K$. Aus der Schule kennt man schon das Beispiel $\mathrm{disc}(T^2+pT+q) = p^2-4q$. Anhand der Definition sehen wir direkt, dass $\mathrm{disc}(f)=0$ genau dann gilt, wenn $f$ mehrfache Nullstellen hat. Also ist $A \in U$ genau dann, wenn $\mathrm{disc}(\chi_A) \neq 0$. Jetzt müssen wir nur noch beachten, dass $\mathrm{disc}(\chi_A)$ ein (universell gebildeter) polynomieller Ausdruck in den Einträgen von $A$ ist, und haben damit die Offenheit von $U$ gezeigt. Natürlich ist auch $U$ nicht-leer. Jede Matrix $A \in U$ hat $n$ paarweise verschiedene Eigenwerte und ist daher diagonalisierbar: Denn wählt man $n$ Eigenvektoren zu den $n$ Eigenwerten aus, sind sie linear unabhängig und damit eine Basis. Wenn nun aber $A \in M_n(\IC)$ diagonalisierbar ist, gibt es eine Basis $v_1,\dotsc,v_n$ von $\IC^n$, sodass jeweils $v_i$ ein Eigenvektor ist, etwa $A v_i = \lambda_i v_i$ für einen Eigenwert $\lambda_i \in \IC$. Es folgt $\chi_A(A) = \prod_{i=1}^{n} (A - \lambda_i \mathbf{1}_n)$ (beachte, dass die $n$ Matrizen hier miteinander kommutieren) und aus $(A - \lambda_i \mathbf{1}_n) v_i = 0$ folgt sofort $\chi_A(A) v_i = 0$ für alle $i$, also $\chi_A(A) = 0$. Weil nun der Satz von Cayley-Hamilton für alle $A \in U$ gilt, folgt mit Satz 3 also, dass er für alle $A \in M_n(\IC)$ gilt.

\(\endgroup\)
Get link to this article Get link to this article  Printable version Printer-friendly version -  Choose language     Kommentare zeigen Comments  
pdfFür diesen Artikel gibt es keine pdf-Datei


Arbeitsgruppe Alexandria Dieser Artikel ist im Verzeichnis der Arbeitsgruppe Alexandria eingetragen:
: Mathematik :: Polynome :: Determinanten :: Entwicklungssatz von Laplace :: Quadratsummen :: Satz von Cayley-Hamilton :: Vandermonde-Identität :
Ausdehnen von algebraischen Gleichungen [von Triceratops]  
Der Satz von Cayley-Hamilton aus der linearen Algebra ist ein schönes Beispiel dafür, dass man einen Satz über komplexe Matrizen mit einem formalen Argument auf Matrizen über kommutativen Ringen verallgemeinern kann...
[Die Arbeitsgruppe Alexandria katalogisiert die Artikel auf dem Matheplaneten]

 
 
Aufrufzähler 644


[Top of page]

"Mathematik: Ausdehnen von algebraischen Gleichungen" | 2 Comments
The authors of the comments are responsible for the content.

Re: Ausdehnen von algebraischen Gleichungen
von: Wally am: Di. 14. Juli 2020 22:59:52
\(\begingroup\)Als Analytiker sehe ich natürlich nicht die Tragweite der Sätze hier. Aber dass es ein ziemlich cooler Artikel ist, weiss sogar ich. Wally\(\endgroup\)
 

Re: Ausdehnen von algebraischen Gleichungen
von: Kezer am: So. 06. September 2020 08:50:49
\(\begingroup\)Definitiv der schönste Beweis von Cayley-Hamilton, den ich kenne!\(\endgroup\)
 

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2021 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]