Mathematik: Kapitel 5: Diagonalisierbarkeit
Released by matroid on Do. 22. April 2004 20:06:01 [Statistics]
Written by Siah - 89362 x read [Outline] Printable version Printer-friendly version -  Choose language   
Lineare Algebra

\(\begingroup\)
Lineare Algebra für Dumme, Kap. 5

Kapitel 5 Diagonalisierbarkeit



In diesem Artikel soll es rund ums 'Diagonalisieren’ von Linearen Abbildungen und Matrizen gehen. Dabei werden uns Begriffe wie 'Eigenwerte’, 'Eigenvektoren’ und 'charakteristisches Polynom’ begegnen, welche sich als sehr hilfreich für diese Theorie herausstellen werden.



Inhalt






Diagonalisieren: Was ist das?

Um dieser Frage einigermaßen gerecht zu werden bedarf es leider einer etwas längeren Vorrede. Als erstes sei gesagt, der Begriff des Diagonalisierens bezieht sich grundsätzlich nur auf quadratische Matrizen. Eine quadratische (n,n)-Matrix mit Einträgen aus einem Körper K kann als Darstellung einer Linearen Abbildung f: V -> V aufgefasst werden, wenn man zwei Basen des Vektorraums V auszeichnet, wobei V ein n-dimensionaler K-Vektorraum ist; Das wissen wir bereits aus Kapitel 2. Eine solche Lineare Abbildung, also eine Abbildung eines Vektorraums in sich, nennt man auch 'Endomorphismus’. Hat man also eine (n,n)-Matrix A als Darstellungsmatrix eines Endomorphismus gegeben, wobei B die im Quell- und Zielvektorraum ausgezeichnete Basis ist (das geht, denn Quell- und Zielvektorraum sind ja gleich), so schreibt man bekanntlich
A=$_B|M_ B (f)
Wie wir schon wissen, kann eine Lineare Abbildung mehrere Darstellungsmatrizen besitzen, ganz nach Wahl der Basen im Quell- und Zielvektorraum. Nun kommt die für dieses Kapitel grundlegende Frage:

Kann man eine Basis B von K^n finden, sodass die Darstellungsmatrix
$_B|M_ B (f) einer gegebenen Linearen Abbildung f: K^n-> K^n möglichst einfache Gestalt besitzt?

Nochmal anders formuliert: Sei der Endomorphismus f: K^n->K^n gegeben. Kann man eine Basis B von k^n finden, sodass die Darstellungsmatrix
$_B|M_ B (f) von f bezüglich dieser Basis möglichst einfach aussieht?

Um diese Frage zu beantworten muss man sich erstmal darüber einig werden, was unter 'möglichst einfacher Gestalt’ zu verstehen ist. Wann hat eine Matrix eine einfache Gestalt? Wenn ihre Einträge alle Null sind sieht sie sicherlich einfach aus, jedoch ist sie dann auch ziemlich nutzlos. Vernünftiger ist es eine Matrix von einfacher Gestalt zu nennen, wenn sie lediglich auf der Hauptdiagonalen von Null verschiedene Einträge besitzt. Eine solche Matrix nennt man 'Diagonalmatrix’:

D= matrix(\l_1,0,0,...,0;0,\l_2,0,...,0;0,0,\l_3,...,0;.,.,.,...,.;.,.,.,...,.;0,0,0,...,\l_n)

wobei die Lambdas beliebige Elemente aus dem Körper K sind.
Aber warum ist das vernünftig?

Ein direkter Vorteil bietet sich beispielsweise für das Multiplizieren von Matrizen an:
Das Produkt zweier Diagonalmatrizen sieht dann einfach so aus:

matrix(\l_1,0,0,...,0;0,\l_2,0,...,0;0,0,\l_3,...,0;.,.,.,...,.;.,.,.,...,.;0,0,0,...,\l_n)*matrix(\m_1,0,0,...,0;0,\m_2,0,...,0;0,0,\m_3,...,0;.,.,.,...,.;.,.,.,...,.;0,0,0,...,\m_n)

\ =matrix(\l_1*\m_1,0,0,...,0;0,\l_2*\m_2,0,...,0;0,0,\l_3*\m_3,...,0;.,.,.,...,.;.,.,.,...,.;0,0,0,...,\l_n*\m_n)

Also man muss lediglich die Produkte der Diagonalelemente bilden.
Des weiteren kann man einige Eigenschaften einer durch eine Diagonalmatrix beschriebenen Abbildung einfach ablesen ohne groß zu rechnen, wie zum Beispiel den Rang. Eine Matrix in Diagonalgestalt vorliegen zu haben bietet noch einige weitere Vorzüge, welche hier natürlich jetzt nicht alle genannt werden können. Interessant ist vielleicht, dass die Idee bzw die Theorie der Diagonalisierung ursprünglich aus der Theorie der Kegelschnitte kommt.

Jetzt haben wir beschrieben, was wir unter 'möglichst einfacher Gestalt’ einer Matrix verstehen. Die oben angesprochene und für dieses Kapitel grundlegende Frage lautet nun etwas präziser:

Sei der Endomorphismus f: K^n->K^n gegeben.
Kann man eine Basis B von K^n finden, sodass die Darstellungsmatrix
$_B|M_ B (f) von f bezüglich dieser Basis eine Diagonalmatrix ist?


Falls dies möglich ist, so nennt man die Abbildung f 'diagonalisierbar’, wobei das hier noch nicht die Definition ist, wie sie in Lehrbüchern allgemein gehandhabt wird, aber zu dieser kommen wir noch.

Nun aber genug der Vorrede, wir machen uns auf den Weg zu genaueren Definitionen
und wir wollen herausfinden, wann eine Lineare Abbildung eines Vektorraums in sich
überhaupt diagonalisierbar ist.



Eigenwerte und Eigenvektoren

Auf dem Weg zur Diagonalform benötigen wir folgende Begriffe:


Definition__
Betrachten wir eine Lineare Abbildung f: V->V, so nennen wir einen Vektor x\el\ V \\ menge(0) Eigenvektor__ zum Eigenwert__ \l\el\ K von f, wenn gilt:
f(x)=\l x

Mit anderen Worten: Ein vom Nullvektor verschiedener Vektor x\el\ V heisst Eigenvektor zum Eigenwert \l\el\ K von f, wenn er auf sein \l\-faches abgebildet wird.

Wir haben in der obigen Definition nicht vorausgesetzt, dass V endlich-dimensional ist. Im Folgenden möchten wir uns aber auf diesen Fall beschränken, weil es nur dann Sinn macht Lineare Abbildungen mit Matrizen zu identifizieren.


Eigenräume


Wissen wir von einem \l\el\ K, dass es ein Eigenwert des Endomorphismus
f: K^n->K^n ist, so muss es also ein x\el\ K^n \\ menge(0) geben
mit f(x)=\l x. Betrachten wir nun ein skalares Vielfaches dieses
Eigenvektors, so gilt: f(ax)=af(x)=a\l x=\l ax, für ein a\el\ K.
Das heisst, dass ax ebenfalls ein Eigenvektor zum Eigenwert \l ist.

Sind nun x und y zwei Eigenvektoren zum Eigenwert \l, dann gilt:
f(x+y)=f(x)+f(y)=\l x+\l y=\l (x+y), was bedeutet,
dass die Summe zweier Eigenvektoren zum gleichen Eigenwert wieder
ein Eigenvektor zu diesem Eigenwert ist.

Damit haben wir gezeigt, dass die Menge aller Eigenvektoren aus K^n
zum Eigenwert \l ein Untervektorraum von K^n ist, wenn wir den
Nullvektor noch künstlich hinzufügen. Diesen Unterraum bezeichnen
wir mit "Eig_f (\l)".


Nun wollen wir diesen Untervektorraum etwas genauer beschreiben:

Für x\el\ Eig_f (\l) gilt:

f(x)=\l x
<=> f(x)=\l id_(K^n)(x)
<=> f(x)-\l id_(K^n)(x)=0
<=> (f-\l id_(K^n))(x)=0
<=> x\el\ Kern(f-\l id_(K^n))

Der Trick im ersten Schritt besteht darin, den Vektor x als Bild
der identischen Abbildung id: K^n->K^n\, x->x aufzufassen.

Daraus folgt: x\el\ Eig_f (\l)<=> x\el\ Kern(f-\l id),
mit anderen Worten: Eig_f(\l)=Kern(f-\l\ id).

Um die Menge Eig_f(\l) explizit anzugeben, muss man also lediglich
die Lösungsmenge des Linearen Gleichungssystems (A-\l E_n)x=0
bestimmen, wobei A die Darstellungsmatrix von f bezüglich der
Standardbasis ist. Nimmt man eine Darstellungsmatrix bezüglich
einer anderen Basis, so bekommt man natürlich auch die Eigen\-
vektoren, jedoch als Koordinatenvektoren bezüglich der gewählten
Basis.
(vgl Kap II und Kap. IV).

Eigentlich ist jetzt ein guter Zeitpunkt, um ein praktisches Beispiel durchzuführen,
also betrachten wir folgenden Endomorphismus:

Sei f: IR^3->IR^3 gegeben durch
f(matrix(x_1;x_2;x_3))=matrix(3x_1+4x_2-3x_3;2x_1+7x_2-4x_3;3x_1+9x_2-5x_3)

Wir wissen schon irgendwoher, dass \l=1 ein Eigenwert ist.
Nun möchten wir den zugehörigen Eigenraum bestimmen.
Die Darstellungsmatrix bezüglich der Standardbasis können wir ablesen:

$_S M_ S (f)=matrix(3,4,-3;2,7,-4;3,9,-5)

Nach obigen Überlegungen müssen wir jetzt das folgende LGS lösen:

(matrix(3,4,-3;2,7,-4;3,9,-5)-\l*matrix(1,0,0;0,1,0;0,0,1))*(x_1;x_2;x_3)=(0;0;0)

Das schreiben wir erstmal in eine andere Form, denn

matrix(3,4,-3;2,7,-4;3,9,-5)-\l*matrix(1,0,0;0,1,0;0,0,1)

\ =matrix(3,4,-3;2,7,-4;3,9,-5)-matrix(\l,0,0;0,\l,0;0,0,\l)

\ =matrix(3-\l,4 ,-3;2,7-\l,-4;3,9,-5-\l)

Damit lautet das zu lösende LGS:

matrix(3-\l,4,-3;2,7-\l,-4;3,9,-5-\l)*(x_1;x_2;x_3)=(0;0;0)

Jetzt wissen wir ja, dass wir den Eigenraum zum Eigenwert \l=1 haben
wollen, also setzen wir für \l die Zahl 1 ein, und lösen das LGS:

matrix(2,4,-3;2,6,-4;3,9,-6)*(x_1;x_2;x_3)=(0;0;0)

Wie man ein LGS löst und alles drumherum wurde in Kap. IV behandelt.


In diesem Beispiel mussten wir einen Eigenwert schon kennen, sonst hätten wir schlechte Karten gehabt. Aber bevor wir uns ansehen, wie man Eigenwerte systematisch berechnen kann, machen wir noch eine wichtige Beobachtung:


Lemma__
Eigenvektoren zu paarweise verschiedenen Eigenwerten sind stets linear unabhängig.

Den Beweis dieses Lemmas kann man beispielsweise über Induktion führen, was wir aber hier nicht machen, weil das nicht im Vordergrund steht.
Aus dieser Beobachtung folgt aber, dass ein Endomorphismus eines
n\-dimensionalen Vektorraums höchstens n verschiedene Eigenwerte besitzen kann. Es gibt jedoch auch Endomorphismen, die keinen Eigenwert besitzen, zum Beispiel muss man sich nur eine Drehung des IR^2 um den Ursprung um einen Winkel echt zwischen 0 und 360 Grad vorstellen. Da wird kein vom Nullvektor verschiedener Vektor auf ein Vielfaches von sich abgebildet.
Klar und wichtig ist auch, dass verschiedene Eigenräume nur den Nullvektor gemeinsam haben können.


Berechnung von Eigenwerten


Wir wissen nun, wie man die Menge der zugehörigen Eigenvektoren bestimmt, wenn man die Eigenwerte schon kennt. Aber wie gelangt man zu den Eigenwerten eines gegebenen Endomorphismus? Hier kommt uns das Werkzeug der Determinante sehr gelegen(vgl Kap III):

Sei f:K^n->K^n ein Endomorphismus. Wir suchen alle Eigenwerte \l\el\ K.
Dazu überlegen wir uns folgendes:

Ein \l\el\ K ist Eigenwert von f genau dann, wenn ein x\el\ K^n \\ menge(0)
existiert mit f(x)=\l x.
Das ist gerade genau dann der Fall, wenn Eig_f(\l)=Kern(f-\l id)
nicht nur aus dem Nullvektor besteht. Dies wiederum ist gleichbedeutend
damit, dass die Lineare Abbildung f-\l id nicht injektiv ist, und das
bedeutet, dass die die Determinante jeder Darstellungsmatrix von
f-\l id Null ist. Um eine solche Darstellungsmatrix zu erhalten suchen
wir einfach eine Darstellungsmatrix von f, nennen wir sie A, und
bilden die Matrix A-\l E_n .

Fassen wir dieses Ergebnis nochmal in Form eines Satzes zusammen, dessen Beweisskizze in der obigen Herleitung steckt:

Satz__
Sei f:K^n->K^n eine Lineare Abbildung und A eine beliebige
Darstellungsmatrix von f. Dann gilt:

\exists x\el\K^n \\ menge(0) mit f(x)=\l x für ein \l\el\ K
<=>\det(A-\l E_n)=0

Aber wie hilft uns dieser Satz? Na, ganz einfach so:

Um die Eigenwerte eines Endomorphismus herauszufinden müssen wir also
prüfen, für welche \l \el K die Determinante von A-\l E_n Null wird.
Es stellt sich heraus, dass \det(A-\l E_n) ein Polynom n-ten Grades
in der Unbestimmten \l ist, welches auch charakteristisches__ Polynom__
der Abbildung f genannt wird. Der Name dieses Polynoms erklärt sich
dadurch, dass es unabhängig von der Wahl der Darstellungsmatrix immer
gleich ist, nämlich für die Abbildung f "charakteristisch".
Damit offenbart sich eine interessante Brücke zwischen der Theorie
der Linearen Abbildungen und der Theorie der Nullstellenberechnung
von Polynomen.



Um das etwas zu verdeutlichen schauen wir uns ein Beispiel an:

Sei f: IR^3->IR^3 wieder gegeben durch
f(matrix(x_1;x_2;x_3))=matrix(3x_1+4x_2-3x_3;2x_1+7x_2-4x_3;3x_1+9x_2-5x_3)

Nun suchen wir alle Eigenwerte der Abbildung. Dafür wählen wir eine
Darstellungsmatrix, und diejenige die wir schon haben ist uns recht:

M=$_S M_ S (f)=matrix(3,4,-3;2,7,-4;3,9,-5)

Wir suchen also alle \l\el\ IR, für welche die Determinante von
M-\l E_n Null wird. Also setzen wir an:

\det(M-\l E_n)=\det(matrix(3,4,-3;2,7,-4;3,9,-5)-matrix(\l,0,0;0,\l,0;0,0,\l)
= \det(matrix(3-\l,4,-3;2,7-\l,-4;3,9,-5-\l))=(\l -2)(\l -2)(\l -1)

Das Ausrechnen der Determinante macht man in diesem Fall am Besten mit der Regel von Sarrus (vgl Kap III) und nach ein wenig Rechnerei kommt man auf die faktorisierte Form.
Hier kann man die Nullstellen schon ablesen, offenbar gibt es die zwei Eigenwerte 1 und 2.

Den Eigenraum zum Eigenwert 1 haben wir oben ja schon bestimmt, und das ganze geht analog mit dem zweiten Eigenwert.



Geometrische und algebraische Vielfachheiten


Jetzt wollen wir noch zwei weitere Begriffe einführen:

Definition__
Ist \l\el\ K ein Eigenwert eines Endomorphismus, so nennt man die
Dimension des zugehörigen Eigenraums geometrische__ Vielfachheit__
von \l. Darüberhinaus ist \l damit auch eine Nullstelle des
charakteristischen Polynoms, und deren Vielfachheit nennt man
algebraische__ Vielfachheit__ von \l.


Aus dieser Definition folgt, dass die Summe der geometrischen Vielfachheiten aller Eigenwerte eines Endomorphismus kleiner-gleich der Dimension des Vektorraums sein muss, denn da die Eigenräume bis auf den Nullvektor disjunkt sind, kann die Summe ihrer Dimensionen ja nicht die Dimension des Vektorraums in dem sie liegen übersteigen.

Ausserdem wissen wir aus der Algebra, dass auch die Summer der algebraischen Vielfachheiten aller Eigenwerte kleiner-gleich der Dimension des Vektorraums sein muss.


Bevor wir uns einen entscheidenden Schritt der Diagonalform nähern, schauen wir uns noch eine wichtige Beziehung zwischen den Vielfachheiten an:

Lemma__
Ist f:K^n->K^n ein Endomorphismus und \l\el\ K ein Eigenwert, so gilt:
\ geom. Vielfachheit von \l<=algebr. Vielfacheit von \l


Der Beweis ist nicht schwer, wir wollen ihn auch lediglich kurz skizzieren:

Man betrachtet eine Basis des Eigenraums von Lamda und ergänzt diese zu einer Basis B des n-dimensionalen Vektorraums über K. Nun stellt man die Darstellungsmatrix bezüglich B von f auf und berechnet das charakteristische Polynom, unter Verwendung der Laplace’schen Entwicklung einer Determinante, woran man die Behauptung dann ablesen kann.




Diagonalform




Verbindung Eigenvektoren und Diagonalform



Nun folgt ein entscheidender Schritt und die Antwort auf die Frage, warum wir die ganze Theorie der Eigenwerte und Eigenvektoren überhaupt betrachtet haben. Rufen wir uns die ursprüngliche Frage noch mal in Erinnerung:

Sei der Endomorphismus f: K^n->K^n gegeben.
Kann man eine Basis B von K^n finden, sodass die Darstellungsmatrix
$_B|M_ B (f) von f bezüglich dieser Basis eine Diagonalmatrix ist?
Das Wichtigste dieses Kapitels, sozusagen der 'Plot', ist es einzusehen, dass diese Frage mit der folgenden Frage völlig gleichwertig ist:
Existiert eine Basis aus Eigenvektoren von f ?


Aber warum diese Fragen gleichwertig sind, das müssen wir uns klarmachen:

Wenn die Antwort auf die erste Frage 'Ja' ist, dann ist auch die zweite Frage mit 'Ja’ zu beantworten, und das sehen wir so:

Sei dafür der Endomorphismus f:K^n->K^n gegeben. Wir nehmen an,
dass es eine Basis B={b_1 ,...,b_n } von K^n gibt, sodass $_B M _B (f)
eine Diagonalmatrix ist, also so:

$_B M _B (f)=matrix(\l_1,0,0,...,0;0,\l_2,0,...,0;0,0,\l_3,...,0;.,.,.,...,.;.,.,.,...,.;0,0,0,...,\l_n)

Wir müssen zeigen, dass alle Basisvektoren Eigenvektoren sind,
also auf ein Vielfaches von sich selber abgebildet werden. Aus
Kapitel II wissen wir, wie eine solche Darstellungsmatrix funk\-
tioniert, es gilt:

f(b_1)=\l_1 b_1+0 b_2+...+0 b_n=\l_1 b_1

f(b_2)=0 b_1+\l_2 b_2+...+0 b_n=\l_2 b_2

...

f(b_n)=0 b_1+0 b_2+...+\l_n b_n=\l_n b_n

Die Basis B besteht also ausnahmslos aus Eigenvektoren zu den
entsprechenden Eigenwerten \l_i mit i\el menge(1,...,n).


Jetzt wollen wir noch sehen, dass die Antwort auf die erste Frage 'Ja’ ist, wenn man die zweite Frage mit 'Ja’ beantwortet:

Dafür nehmen wir an, wir hätten eine Basis B aus Eigenvektoren zur Verfügung und müssen uns nur noch klarmachen, dass die Darstellungsmatrix von f bezüglich dieser Basis tatsächlich auch Diagonalgestalt besitzt. Dazu stellen wir einfach diese Matrix auf:

Die Einträge der ersten Spalte sind die Koeffizienten derjenigen Linearkombination aus den Basisvektoren, welche das Bild des ersten Basisvektors darstellt. Nochmal ganz langsam:

Wir stellen das Bild des ersten Basisvektors, also f(b1), als Linearkombination der Basisvektoren aus B dar, und die Koeffizienten dieser Linearkombination bilden dann die erste Spalte unserer gesuchten Darstellungsmatrix. Klingt komplizierter als es tatsächlich ist:

f(b_1)=\l_1 b_1=\l_1 b_1+0 b_2+...+0 b_n .

Daraus folgt, dass die erste Spalte so aussieht: (\l_1;0;.;.;0)


Entsprechend läuft das auch für die zweite bis n-te Spalte, sodass unsere Matrix wirklich Diagonalgestalt besitzt.



Damit reduziert sich die Frage nach einer möglichen Diagonalform eines Endomorphismus auf die Suche nach n linear unabhängigen Eigenvektoren und damit kommen wir zu der zugegebenermaßen späten, aber erst jetzt verständlichen Definition der Diagonalisierbarkeit, wie sie in weiten Teilen der Literatur gehandhabt wird:


Definition__
Ein Endomorphismus heisst diagonalisierbar__, wenn eine Basis aus
Eigenvektoren existiert.


Ist ein Endomorphismus diagonalisierbar, und stellt man ihn bezüglich einer Basis aus Eigenvektoren dar, so ist diese Matrix also eine Diagonalmatrix und der Diagonal-Eintrag in der k-ten Zeile ist genau derjenige Eigenwert, zu welchem der k-te Basisvektor ein Eigenvektor ist.



Kriterien zur Diagonalisierbarkeit und 5-Schritt-Verfahren




Jetzt widmen wir uns der Frage, wann Lineare Abbildungen eines Vektorraums in sich (also Endomorphismen) überhaupt diagonalisierbar sind. Dass dem nicht immer so ist, das sehen wir am Beispiel der schon oben erwähnten Drehung des IR^2 um den Ursprung, um einen Winkel echt zwischen 0 und 360 Grad. Diese besitzt nämlich keine Eigenwerte und damit auch keine Eigenvektoren, und damit lässt sich natürlich auch keine Basis aus Eigenvektoren finden. Also ist diese Lineare Abbildung nicht diagonalisierbar.

Aber welche Voraussetzungen müssen für Diagonalisierbarkeit erfüllt sein?


Betrachten wir wieder unseren Endomorphismus f eines n-dimensionalen K-Vektorraums.

Diese Abbildung f ist nach Definition diagonalisierbar, wenn eine Basis aus Eigenvektoren existiert, das heisst, falls n linear unabhängige Eigenvektoren existieren. Anders formuliert:
Die Summe der Dimensionen aller Eigenräume muss gleich n sein, denn sonst findet man keine n linear unabhängige Eigenvektoren. Man könnte auch sagen, dass die Summe aller geometrischen Vielfachheiten gleich n sein muss, da dies ja gerade die Dimensionen der Eigenräume sind. Noch einmal zusammengefasst haben war damit:


\stress\ f ist diagonalisierbar, genau dann, wenn die Summe aller geometrischen
\stress\Vielfachheiten der Eigenwerte gleich n ist.


Einen einfachen Spezialfall haben wir damit schon mal: Besitzt f n paarweise verschiedene Eigenwerte, so ist f diagonalisierbar, denn:
f besitzt n paarweise verschiedene Eigenwerte

=> Die Dimension jedes Eigenraums ist 1, denn jeder Eigenraum hat mindestens die Dimension 1, und da es n verschiedene Eigenräume gibt, welche immer bis auf den Nullvektor disjunkt sind, kann kein Eigenraum eine größere Dimension als 1 haben.

=> Die Summe der geometrischen Vielfachheiten ist gleich n.

=> f ist diagonalisierbar.

Wir haben aber nicht nur diesen Spezialfall behandeln können, sondern sind nun auch in der Lage ein erstes Verfahren anzugeben, mit dem man einen gegebenen Endomorphismus auf Diagonalisierbarkeit hin überprüfen kann:
  1. Eine Darstellungsmatrix aufstellen, wenn f nicht schon als solche gegeben ist
  2. Das charakteristische Polynom bestimmen
  3. Die Nullstellen dieses Polynoms bestimmen, diese sind die Eigenwerte von f
  4. Die zugehörigen Eigenräume bestimmen und damit auch ihre Dimensionen.
  5. Prüfen, ob die Summe der geometrischen Vielfachheiten gleich der Dimension des Vektorraums ist.


Falls die Antwort im Schritt 5) positiv ausfällt, dann wissen wir, dass f diagonalisierbar ist. Im anderen Fall tritt eben genau das Gegenteil ein.

Der theoretisch schwierigste Schritt ist der dritte, denn die Nullstellen eines beliebigen Polynoms lassen sich im Allgemeinen nur mit Werkzeugen der Numerik näherungsweise ermitteln, was jedoch bei praktischen Übungsaufgaben oft kein Problem darstellt.


Wir führen dieses Verfahren an unserem obigen Beispiel durch, das lautete folgendermaßen:

Sei f: IR^3->IR^3 gegeben durch
f(matrix(x_1;x_2;x_3))=matrix(3x_1+4x_2-3x_3;2x_1+7x_2-4x_3;3x_1+9x_2-5x_3)

1) Den ersten Schritt haben wir schon längst, wir lesen die
Darstellungsmatrix bezüglich der Standardbasis einfach ab:

$_S M_ S (f)=matrix(3,4,-3;2,7,-4;3,9,-5)


2) und 3) Den zweiten und den dritten Schritt haben wir auch
schon bewerkstelligt, das charakteristische Polynom lautet
(\l -2)^2 (\l -1), und die Eigenwerte sind 2 und 1.

4) Die Eigenräume haben wir noch nicht explizit bestimmt, das holen wir nach:

Eig_f (1)=set(x\el IR^3 : (x_1;x_2;x_3)=r*(1;1;2), r\el\ IR) und

Eig_f (2)=set(x\el IR^3 : (x_1;x_2;x_3)=s*(1;2;3), s\el\ IR)

Die Dimensionen sind also jeweils 1.

5) Der Vektorraum IR^3 hat offenbar die Dimension 3, jedoch ist die
Summe der geometrischen Vielfachheiten kleiner als 3, und somit
kommen wir zu dem Ergebnis, dass f nicht diagonalisierbar ist.

Dieses Verfahren erfordert stets die Bestimmung aller Eigenräume, was meist auf das Lösen von mehreren Linearen Gleichungssystemen hinausläuft, um festzustellen, ob ein gegebener Endomorphismus diagonalisierbar ist, oder nicht. Schön wäre es, wenn wir vielleicht Merkmale finden könnten, welche uns erlaubten eventuelle Schlüsse schon früher zu ziehen. Dazu betrachten wir folgenden Satz:


Satz__
Ein Endomorphismus ist genau dann diagonalisierbar, wenn gilt:

1) Das charakteristische Polynom zerfällt vollständig in Linearfaktoren und
2) Für jeden Eigenwert gilt, dass die geometrische Vielfachheit
\ gleich der algebraischen Vielfachheit ist.


Beweis__: Sei f ein Endomorphismus eines n\-dimensionalen K\-Vektorraums.

'=>' f diagonalisierbar

=> Die Summe der geometrischen Vielfachheiten ergibt n

=> Die Summe der algebraischen Vielfachheiten ergibt auch n, denn sie ist mindestens n aufgrund der Tatsache, dass jede algebraische Viel\-
fachheit größer gleich der entsprechenden geometrischen Vielfachheit ist, und wir wissen auch schon, dass sie nicht größer als n sein kann.

Daraus folgen zwei Dinge:

1) Das charakteristische Polynom zerfällt vollständig in Linearfaktoren, denn wäre das nicht der Fall, dann käme als Summe aller algebraischen Vielfachheiten nicht n heraus.

2) Die geometrische und algebraische Vielfachheit jedes Eigenwerts
stimmen überein, denn angenommen, es gäbe einen Eigenwert, dessen alge\-
braische Vielfachheit größer als seine geometrische Vielfachheit wäre. Dann ergäbe die Summe der algebraischen Vielfachheiten etwas größeres als n,
was einen Widerspruch darstellt.


'<==' Nach Voraussetzung zerfällt das charakteristische Polynom in
Linearfaktoren
=> Die Summe der algebraischen Vielfachheiten ergibt n, und da die
algebraischen Vielfachheiten mit den geometrischen übereinstimmen
nach Voraussetzung, ergibt die Summe der geometrischen Vielfachheiten
auch n.

=> Es existiert eine Basis aus Eigenvektoren

=> f ist diagonalisierbar.


Damit können wir unser 5-Schritt-Verfahren insofern verbessern, dass wir in manchen Fällen schon früher erkennen, dass ein Endomorphismus nicht diagonalisierbar ist:

1) Eine Darstellungsmatrix aufstellen, wenn f nicht schon als solche gegeben ist

2) Das charakteristische Polynom bestimmen

3) Die Nullstellen dieses Polynoms bestimmen, diese sind die Eigenwerte von f. Wenn das charakteristische Polynom dabei nicht vollständig in Linearfaktoren zerfällt, dann wissen wir an dieser Stelle schon, dass f nicht diagonalisierbar ist.

4) Die zugehörigen Eigenräume bestimmen und damit auch ihre Dimensionen

5) Entweder prüfen, ob alle geometrischen und algebraischen Vielfachheiten übereinstimmen, oder ob die Summe der geometrischen Vielfachheiten n ergibt.



Ein Beispiel, bei dem dieses Verfahren schneller zum Ziel führt, als unser vorheriges, wäre dieses hier:

Sei f:IR^3->IR^3 gegeben durch folgende Darstellungsmatrix bezüglich der Standardbasis:

$_S M _S (f)=matrix(1,-sqrt(3),0;sqrt(3),-1,0;0,0,1).

Wir bestimmen das charakteristische Polynom:

\det(matrix(1-\l,-sqrt(3),0;sqrt(3),-1-\l,0;0,0,1-\l))=(\l^2 +2)(1-\l)

Wir sehen, dass (\l^2 +2) keine reellen Nullstellen besitzt, sich
das charakteristische Polynom also nicht vollständig in Linear\-
faktoren zerlegen lässt. Damit wissen wir, dass die Abbildung nicht
diagonalisierbar ist.

Bis jetzt haben wir aber nur Abbildungen kennen gelernt, die nicht diagonalisierbar waren, nun mal ein schöneres Beispiel:


Sei f:IR^3->IR^3 wieder gegeben durch folgende Darstellung
bezüglich der Standardbasis:

$_S M _S (f)=matrix(5,-6,-6;-1,4,2;3,-6,-4).

Wir bestimmen das charakteristische Polynom über die übliche Formel
und erhalten:

\det(matrix(5-\l,-6,-6;-1,4-\l,2;3,-6,-4-\l))=(\l-2)(\l-2)(\l-1)

Es lässt sich also vollständig in Linearfaktoren zerlegen, und wir
bekommen die zwei Eigenwerte 2 und 1. Nun bestimmen wir die Eigenräume
und erhalten:

Eig_f (1)=set(x\el IR^3 : (x_1;x_2;x_3)=r*(3;-1;3), r\el\ IR) und

Eig_f (2)=set(x\el\ IR^3 : (x_1;x_2;x_3)=s*(2;1;0)+t*(2;0;1), s,t\el\ IR)

Die Summe der geometrischen Vielfachheiten ist gleich 3, und somit
ist unsere Abbildung diagonalisierbar. Wie sieht nun eine geeignete
Basis aus Eigenvektoren aus? Na, wir bilden sie aus den Basen der
Eigenräume, die wir ja schon bestimmt haben, und bekommen:

B=matrix((2;1;0),(2;0;1),(3;-1;3))

Wenn wir also f bezüglich dieser Basis B darstellen, so erhalten wir
die folgende Matrix:

$_B M _B (f)=matrix(2,0,0;0,2,0;0,0,1).

Dass dies tatsächlich der Fall ist, das können wir überprüfen,
indem wir die Matrix bezüglich der Standardbasis mithilfe von
Basistransformationsmatrizen (vgl Kap II 1/2) in die Matrix
bezüglich der Basis B überführen, es gilt:

$_B M _B (f)=($_B|T _S)^(-1)| _S M _S (f)| _B T _S

Wie man die Transformationsmatrizen aufstellt, das wissen wir aus Kap II, und wir bekommen:

$_B T _S =matrix(2,2,3;1,0,-1;0,1,3)

Damit folgt:

$_B M _B (f)=matrix(2,2,3;1,0,-1;0,1,3)^(-1) matrix(5,-6,-6;-1,4,2;3,-6,-4) matrix(2,2,3;1,0,-1;0,1,3)

was tatsächlich als Ergebnis die obige Diagonalmatrix besitzt.


Bevor wir zu einer kleinen praktischen Anwendung der Diagonalisierung kommen, folgt noch ein kurzer aber wichtiger Abschnitt:




Übertragung der Begriffe von Endomorphismen auf Matrizen


Im bisherigen Abschnitt haben wir die grundlegenden Begriffe und Definitionen formal für Endomorphismen erklärt. In vielen praktischen Anwendungen heisst es jedoch 'Diagonalisiere folgende Matrix…’, 'Berechne die Eigenräume der Matrix A…’ oder ähnliches, und wir haben eine Matrix gegeben, jedoch keine Basis, bezüglich derer unsere Matrix erst eindeutig mit einem Endomorphismus zu identifizieren wäre. Eine Matrix ohne Angabe einer zugehörigen Basis kann Darstellung vieler Endomorphismen sein, wie soll man da wissen, welchen genau man jetzt bearbeiten soll?
Die Antwort darauf ist ganz einfach, dass es egal ist. Man kann sich eine beliebige Basis auszeichnen, und sich vorstellen die gegebene Matrix sei die Darstellung bezüglich dieser Basis, denn alle Endomorphismen, die diese Matrix als mögliche Darstellung besitzen, haben sowieso das gleiche charakteristische Polynom, und somit die gleichen Eigenwerte. Berechnet man dann die Eigenräume, so muss man die berechneten Vektoren lediglich als Koordinatenvektoren bezüglich der gewählten Basis ansehen.
Am einfachsten und am praktischsten ist es vielleicht, zu einer gegebenen Matrix für sich insgeheim die Standardbasis auszuzeichnen, und die Matrix dann mit demjenigen Endomorphismus zu identifizieren, der diese Matrix als Darstellung bezüglich der Standardbasis besitzt.
In diesem Sinne macht es grundsätzlich keine Schwierigkeiten alle hier behandelten Begriffe von den Objekten 'Endomorphismen’ auf die Objekte 'Matrizen’ zu übertragen.




Eine praktische Anwendung


Nehmen wir an, wir hätten eine quadratische Matrix A gegeben, von welcher wir die 100. Potenz berechnen wollten. Hundert Matrix-Multiplikationen sind sehr aufwendig, aber wenn die Matrix diagonalisierbar ist, dann haben wir Glück:

A diagonalisierbar
<=> Es existiert eine Basistransformationsmatrix T, sodass gilt:

\ D=T^(-1) A T

wobei D eine Diagonalmatrix ist.

Stellen wir das nach A um, dann bekommen wir:

A=T D T^(-1)

Nun setzen wir an:

A^100=(T D T^(-1))^100=(T D T^(-1))(T D T^(-1))...(T D T^(-1)) (100 mal)

Wegen der Assoziativität der Matrix-Multiplikation können die Klammern weggelassen werden:

A^100=T D T^(-1) T D T^(-1) ...T D T^(-1)

wobei sich nun die Matrizen T^(-1) T sich jeweils zur Einheitsmatrix bilden,
und es bleibt übrig:

A^100=T D^100 T^(-1)

Die 100\-fache Potenz der Diagonalmatrix läst sich offensichtlich leicht
berechnen, indem man jeden Diagonaleintrag mit 100 potenziert, und
so hat man auf elegante Art und Weise die 100. Potenz der Matrix A
berechnet.

Damit beenden wir diesen Abschnitt, ich hoffe es konnte etwas helfen!

Beste Grüße
Thorsten


 
Dieser Artikel ist in unserem Buch enthalten:
Mathematisch für Anfänger
Mathematisch für Anfänger

\(\endgroup\)
Get link to this article Get link to this article  Printable version Printer-friendly version -  Choose language     Kommentare zeigen Comments  
pdfpdf-Datei zum Artikel öffnen, 373 KB, vom 21.07.2006 13:11:42, bisher 18656 Downloads


Arbeitsgruppe Alexandria Dieser Artikel ist im Verzeichnis der Arbeitsgruppe Alexandria eingetragen:
: Lineare Algebra :: Grundstudium Mathematik :
Kapitel 5: Diagonalisierbarkeit [von Siah]  
Kapitel 5 Diagonalisierbarkeit In diesem Artikel soll es rund ums 'Diagonalisieren’ von Linearen Abbildungen und Matrizen gehen. Dabei werden uns Begriffe wie 'Eigenwerte’, 'Eigenvektoren’ und 'charakteristisches Polynom’ begegnen, welche sich als sehr hilfreich für diese Theorie herauss ...
[Die Arbeitsgruppe Alexandria katalogisiert die Artikel auf dem Matheplaneten]

 
 
Aufrufzähler 89362
 
Aufrufstatistik des Artikels
Insgesamt 15856 externe Seitenaufrufe zwischen 2012.01 und 2021.09 [Anzeigen]
DomainAnzahlProz
https://google.com140.1%0.1 %
https://www.bing.com530.3%0.3 %
https://www.ecosia.org350.2%0.2 %
https://matheplanet.com30%0 %
https://google.de7965%5 %
http://www.mathestudium-tutor.de512632.3%32.3 %
http://google.ru165610.4%10.4 %
http://google.lu15249.6%9.6 %
http://google.fr5433.4%3.4 %
http://google.de404825.5%25.5 %
http://google.li5673.6%3.6 %
http://google.fi2781.8%1.8 %
http://google.se1861.2%1.2 %
http://umw.fsen.faveve.uni-stuttgart.de1661%1 %
https://google.ru1040.7%0.7 %
https://google.fr830.5%0.5 %
https://google.es790.5%0.5 %
http://google.it710.4%0.4 %
https://google.lu670.4%0.4 %
http://google.rs670.4%0.4 %
http://google.gr610.4%0.4 %
http://google.ro230.1%0.1 %
https://duckduckgo.com190.1%0.1 %
http://google.com150.1%0.1 %
https://www.startpage.com110.1%0.1 %
http://r.duckduckgo.com120.1%0.1 %
http://www.bing.com1010.6%0.6 %
http://ecosia.org180.1%0.1 %
http://yandex.ru40%0 %
http://suche.web.de70%0 %
http://isearch.avg.com60%0 %
http://mathestudium-tutor.de30%0 %
http://de.search-results.com40%0 %
http://matheraum.de60%0 %
http://www.ecosia.org130.1%0.1 %
http://int.search.tb.ask.com20%0 %
http://google.ch20%0 %
http://www.matheraum.de20%0 %
http://de.search.yahoo.com140.1%0.1 %
http://suche.t-online.de30%0 %
http://search.conduit.com180.1%0.1 %
http://www.benefind.de10%0 %
http://www.faveve.uni-stuttgart.de10%0 %
http://start.mysearchdial.com20%0 %
http://search.zonealarm.com10%0 %
http://www.govome.com20%0 %
http://de.yhs4.search.yahoo.com60%0 %
http://ch.search.yahoo.com10%0 %
http://www.amazon.de10%0 %
http://www.website-unavailable.com10%0 %
http://www.sm.de30%0 %
http://www.delta-search.com10%0 %
http://www.backlinktest.com10%0 %
http://duckduckgo.com10%0 %
http://search.iminent.com20%0 %
http://suche.gmx.net30%0 %
http://search.icq.com20%0 %
http://search.sweetim.com10%0 %
http://code.google.com10%0 %
http://www.sfr.fr10%0 %
http://isearch.babylon.com10%0 %
http://www.searchmobileonline.com20%0 %
http://www.search.ask.com20%0 %
http://search.babylon.com40%0 %
http://tpinbrowser.appspot.com10%0 %
http://www1.search-results.com10%0 %
https://yandex.ru10%0 %
http://us.yhs4.search.yahoo.com10%0 %
http://search.snapdo.com10%0 %

Aufrufer der letzten 5 Tage im Einzelnen
Insgesamt 21 Aufrufe in den letzten 5 Tagen. [Anzeigen]
DatumAufrufer-URL
2021.09.01-2021.09.23 (13x)https://google.com/
2021.09.16-2021.09.23 (2x)https://www.bing.com/
2021.09.01-2021.09.21 (4x)https://www.ecosia.org/
2021.09.01-2021.09.20 (2x)viewtopic.php?topic=22797

Häufige Aufrufer in früheren Monaten
Insgesamt 15605 häufige Aufrufer [Anzeigen]
DatumAufrufer-URL
2012-2017 (5124x)http://www.mathestudium-tutor.de/index.php?option=com_kunena&func=view&catid=...
2020-2021 (779x)https://google.de/
201201-01 (670x)http://google.ru/url?sa=t&rct=j&q=diagonaliesierbarkeit prüfen
201205-05 (616x)http://google.lu/url?sa=t&rct=j&q=zerlegunslemma darstellungsmatrix matheboar...
201202-02 (577x)http://google.ru/url?sa=t&rct=j&q=bestimmen sie für den endomorphismus mit...
201207-07 (531x)http://google.lu/url?sa=t&rct=j&q=potenz einer diagonalmatrix
201206-06 (487x)http://google.fr/url?sa=t&rct=j&q=diagonalisierbarkeit
201204-04 (423x)http://google.de/url?sa=t&source=web&cd=5&ved=0CEcQFjAE
201404-06 (409x)http://google.ru/url?sa=t&rct=j&q=
2014-2015 (377x)http://google.lu/url?sa=t&rct=j&q=
201203-03 (375x)http://google.li/url?sa=t&rct=j&q=diagonalisierbarkeit matrix determinante
201301-01 (365x)http://google.de/url?sa=t&source=web&cd=3&ved=0CCUQFjAC
201302-02 (278x)http://google.fi/search?tbo=d&source=android-launcher-widget&v=141400000&q=di...
201501-01 (270x)http://google.de/url?sa=t&source=web&cd=3&ved=0CCkQFjAC
201305-05 (246x)http://google.de/url?sa=t&rct=j&q=zeigen sie, dass der durch folgende matrix ...
201405-05 (206x)http://google.de/url?sa=t&source=web&cd=4&ved=0CDYQFjAD
201304-04 (201x)http://google.de/url?sa=t&rct=j&q=zeigen sie f ist diagonalisierbar
201401-01 (192x)http://google.li/url?sa=t&rct=j&q=
201209-09 (190x)http://google.de/url?sa=t&rct=j&q=wann existiert eine basis aus eigenvektoren
201208-08 (186x)http://google.se/url?sa=t&rct=j&q=
2012-2013 (166x)http://umw.fsen.faveve.uni-stuttgart.de/forum/showthread.php?tid=344
2015-2018 (165x)http://google.de/url?sa=t&rct=j&q=
201307-07 (155x)http://google.de/url?sa=t&rct=j&q=zeigen sie, dass die r-lineare abbildung di...
201403-03 (150x)http://google.de/url?sa=t&source=web&cd=4&ved=0CDQQFjAD
201306-06 (147x)http://google.de/url?sa=t&rct=j&q=zwei diagonalisierbare abbildungen gleiche ...
201402-02 (142x)http://google.de/url?sa=t&rct=j&q=paarweise verschiedene eigenwerte diagonali...
201506-06 (130x)http://google.de/url?sa=t&source=web&cd=5&ved=0CCgQFjAEahUKEwj3-6arjIXGAhWBqi...
201505-05 (129x)http://google.de/url?sa=t&source=web&cd=2&ved=0CB4QFjAB
2014-2015 (121x)http://google.de/url?sa=t&source=web&cd=2&ved=0CB8QFjAB
201310-11 (112x)http://google.de/url?sa=t&rct=j&q=wann ist eine matrix diagonalisierbar
201308-09 (111x)http://google.de/url?sa=t&rct=j&q=wann zerfällt das charakteristische poly...
201212-12 (111x)http://google.de/url?sa=t&rct=j&q=welche arten von matrizen sind diagonalisie...
201303-03 (110x)http://google.de/url?sa=t&rct=j&q=warum ist die geometrische vielfachheit kle...
202007-07 (104x)https://google.ru/
201504-04 (100x)http://google.de/url?sa=t&source=web&cd=5&ved=0CCsQFjAE
201411-11 (97x)http://google.de/url?sa=t&source=web&cd=9&ved=0CDIQFjAI
202006-06 (83x)https://google.fr
201507-07 (79x)http://google.de/url?sa=t&source=web&cd=6&ved=0CC4QFjAFahUKEwjpxp3Smd3GAhVGFi...
202104-04 (79x)https://google.es/
201412-12 (71x)http://google.it/url?sa=t&rct=j&q=
202106-06 (67x)https://google.lu/
201210-10 (67x)http://google.rs/url?sa=t&rct=j&q=polynom zerfällt vollständig in linea...
201409-09 (66x)http://google.de/url?sa=t&rct=j&q=matrix diagonalisierbar rechner
201211-11 (64x)http://google.de/url?sa=t&rct=j&q=zu zeigen f diagonalisierbar
201410-10 (61x)http://google.gr/url?sa=t&rct=j&q=
201312-12 (56x)http://google.fr/url?sa=t&rct=j&q=eigenschaften einer diagonal matrix
2020-2021 (47x)https://www.bing.com/
2020-2021 (26x)https://www.ecosia.org/
201707-07 (23x)http://google.ro/
201702-02 (22x)http://google.de/url?sa=t&rct=j&q=diagonalisierbarkeit
2020-2021 (19x)https://duckduckgo.com/
201604-04 (19x)http://google.de/url?sa=t&source=web&cd=6&rct=j&q=diagonalisierbarkeit linear...
201605-05 (17x)http://google.de/url?sa=t&source=web&cd=7&rct=j&q=a^m diagonalisierbar dann a...
201512-12 (17x)http://google.de/url?sa=t&source=web&cd=5&rct=j&q=diagonalisierbarkeit kriter...
202108-08 (16x)https://google.de
201601-01 (16x)http://google.de/url?sa=t&source=web&cd=8&rct=j&q=f diagonalisierbar beweis
201510-10 (15x)http://google.de/url?sa=t&rct=j&q=diagonalisierbarkeit algebraische vielfachh...
201602-02 (15x)http://google.de/url?sa=t&source=web&cd=7&rct=j&q=matrix diagonalisierbar kri...
2018-2019 (14x)http://google.com/
2020-2021 (11x)https://www.startpage.com/
201606-06 (10x)http://google.de/url?sa=t&source=web&cd=3&rct=j&q=matrix von f bezüglich b...
201802-02 (10x)http://google.de/search?q=diagonalisierbar determinante
201511-11 (10x)http://google.de/url?sa=t&source=web&cd=15&rct=j&q=herleitung charakteristisc...
2016-2018 (8x)http://r.duckduckgo.com/
2013-2014 (6x)http://www.bing.com/search?q=diagonalisierbarkeit&FORM=BB07LB&PC=BB07&QS=n
202104-06 (5x)https://www.ecosia.org
201511-11 (5x)http://www.bing.com/search?q=abbildung diagonalisierbar&go=Senden&qs=n&form=Q...
201303-08 (5x)http://ecosia.org/search.php?q=diagonalisierbarkeit
201505-05 (4x)http://yandex.ru/search/touch/?text=diagonalisierbarkeit matrix&clid=1925653&...
2014-2015 (4x)http://www.bing.com/search?q=diagonalisierbarkeit&src=IE-SearchBox&FORM=IE8SR...
2015-2017 (4x)http://suche.web.de/web?origin=tb_splugin_gc&su=beispiel diagonalisierbar
201203-03 (4x)http://ecosia.org/search.php?q=Eigenräume berechnen&count=10&offset=0
2014-2015 (4x)http://r.duckduckgo.com/l/?kh=-1
201207-07 (4x)http://isearch.avg.com/search?q=diagonalisierbarkeit von linearen abbildungen...

[Top of page]

"Mathematik: Kapitel 5: Diagonalisierbarkeit" | 21 Comments
The authors of the comments are responsible for the content.

Re: Kapitel 5: Diagonalisierbarkeit
von: scorp am: Do. 22. April 2004 20:26:19
\(\begingroup\)Hi Thorsten.
Ich betrachte mein LA-Uebungsblatt von dieser Woche und sehe, dass es genau um dieses Thema geht. Ich danke dir fuer diesen Artikel! 😄\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: Martin_Infinite am: Do. 22. April 2004 21:41:24
\(\begingroup\)Einen super LA-Artikel hast du da wieder konzepiert, Thorsten! 😄\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: arthur am: Do. 22. April 2004 22:06:22
\(\begingroup\)ja, da kann man sich nur anschließen...große klasse. du hast es geschafft, diese thematik ausführlich und dennoch verständlich rüberzubringen. ich wünschte, mein prof hätte das ähnlich gemacht und nicht so verkompliziert.
also, dickes lob auch von mir. :)

gruß arthur\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: matroid am: Fr. 23. April 2004 10:05:20
\(\begingroup\)Hi Thorsten,

das ist wirklich wieder eine sehr gute Arbeit - Du verwöhnst Deine Anhänger - und gewinnst neue. Super!

Gruß
Matroid\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: anderl am: Mi. 28. April 2004 10:17:19
\(\begingroup\)Danke! Jetzt sollte ich keine Probleme mit meinem Uebungsblatt haben...

gruss,
anderl
\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: BorisK am: Fr. 30. April 2004 14:15:18
\(\begingroup\)Ich hab mal ne Frage an Matroid oder den Verfasser der "linearen algebra für dummköpfe" wär es ein großer aufwand vielleicht in einer download ecke die gesamte bisher erschienen kapitel als pdf dokument zum download bereit zu stellen denn ich denke es könnte für den ein oder anderen ganz hilfreich sein dies als nachschlagewerk zu verwenden (auch für mich)

gruss boris\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit 1.Lemma
von: CKone am: Sa. 01. Mai 2004 13:19:12
\(\begingroup\)Hallo!

Ein toller Artikel, hat mir wirklich weitergeholfen, aber...

beim ersten Lemma steht, dass bei der Drehung um einen Winkel zw. 0 und 360 GRad kein Vektor auf ein Vielfaches von sich selber abgebildet wird. Stimmt das? Bei einer Drehung um 180 GRad wird doch jeder Vektor v auf -v abgebildet?

Hab ich die Definition nicht richtig verstanden?

Bitte mach so weiter,

Christoph\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: Siah am: Sa. 01. Mai 2004 13:36:24
\(\begingroup\)Hallo, erstmal freue ich mich, dass der Artikel Anklang findet!

@Boris: Da kann ich Dir leider nicht weiterhelfen, vielleicht kann Matro da was machen, aber ich vermute, dass die Artikel einfach nicht in diesem Format vorliegen...

@CKone: Dankeschön, es sollte natürlich "echt zwischen 0 und 180 Grad" heissen, da hast du recht.

beste Grüße
Siah\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: hans_fakie am: Sa. 19. Juni 2004 22:33:59
\(\begingroup\)Hallo Thorsten,

danke für diesen guten Artikel. Ich kann immer noch nicht glauben
das ich die Diagonalisierbarkeit verstanden habe. Du hast genau
die richtige Mischung gefunden. Einfach cool.
by fakie
\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: Sirod am: Sa. 18. September 2004 23:38:47
\(\begingroup\)Danke!!!\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: Ex_Mitglied_40174 am: Mi. 01. Februar 2006 21:17:12
\(\begingroup\)wow danke! Super Bestätigung dass man es doch verstanden hat :>\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: Fenti am: Mo. 15. Mai 2006 12:21:25
\(\begingroup\) Dieser Artikel ist wirklich einsame Spitzenklasse! Da laufe ich seit einigen Wochen in verschiedenen Buchhandlungen umher, um ein geeignetes Nachschlagewerk zu finden, welches mir (2. Semester Physik) die Matrix-Rechnung etwas näher zu bringen vermag - und nun finde ich diesen grandiosen Beitrag! Vielen Dank. *verbeug* Fenti\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: Ex_Mitglied_40174 am: Fr. 16. Februar 2007 17:23:08
\(\begingroup\)einfach nur ein großes dankeschön. gruß sergej\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: Ex_Mitglied_40174 am: Mo. 26. März 2007 19:16:21
\(\begingroup\)Ja da kann man dem Meister der Erklärkunst nur wieder einmal gratulieren. Deine Beiträge sind wirklich hilfreich. Nur einmal hast du glaub ich beim charakteristischen Polynom ein - vergessen, und zwar bei (x-2)^2(x-1), aber ändert ja nichts an den Nullstellen :). Also nochmal vielen Dank. Lg Manuel\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: Ex_Mitglied_40174 am: Mo. 14. Mai 2007 22:45:14
\(\begingroup\)Ein beispielhafter Artikel. Ohne viel sinnloses Gelaber und direkt und zeilstrebig auf den Punkt gebracht..Weiter so!! GRüße ElCommandôre\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: Ernie am: Mi. 06. Juni 2007 14:51:27
\(\begingroup\) 😮 😮 Danke!! Sehr schöner Artikel. Hab vorher nicht ganz durchgeblickt, aber jetzt ist mir alles klar. Weiter so und beglücke uns mit weiteren Artikeln solcher Art. \(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: Ex_Mitglied_40174 am: Do. 09. August 2007 15:01:34
\(\begingroup\)Dank dir für dei schöne Darstellung, hat mir sehr geholfen! \(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: Ex_Mitglied_40174 am: Di. 27. Mai 2008 17:26:46
\(\begingroup\)Hallo, sehr hilfreicher Artikel, aber hat nicht eine Drehung um 180° den Eigenwert -1? (Im Artikel:"...zum Beispiel muss man sich nur eine Drehung des IR^2 um den Ursprung um einen Winkel echt zwischen 0 und 360 Grad vorstellen. Da wird kein vom Nullvektor verschiedener Vektor auf ein Vielfaches von sich abgebildet.")\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: Siah am: Di. 27. Mai 2008 19:45:03
\(\begingroup\)Hallo, vielen Dank für das Lob, der Fehler ist schon damals oben in dem Kommentar vom Sa. 01. Mai 2004 13:19:12 aufgefallen, wurde leider bis jetzt noch nicht korrigiert. Gruß Siah\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: Scav am: Mi. 13. August 2008 12:32:20
\(\begingroup\)Diese Artikelreihe hat mir sehr gut bei LA 1+2 geholfen. Besonders den Basiswechsel finde ich sehr gut erklärt. Ich hab das für schwer gehalten, bis ich deinen Artikel gefunden habe. ;) Danke!\(\endgroup\)
 

Re: Kapitel 5: Diagonalisierbarkeit
von: Ex_Mitglied_40174 am: Di. 29. April 2014 22:32:18
\(\begingroup\)Dieser Artikel hat mir sehr geholfen, vielen Dank an den Verfasser! \(\endgroup\)
 

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2021 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]