Matroids Matheplanet Forum Index
Moderiert von Fabi Dune ligning
Lineare Algebra » Eigenwerte » Eigenvektoren symmetrischer Matrizen
Autor
Universität/Hochschule Eigenvektoren symmetrischer Matrizen
Olli1208
Junior Letzter Besuch: im letzten Quartal
Dabei seit: 23.07.2021
Mitteilungen: 13
  Themenstart: 2021-08-01

Sei $A\in M(n\times n,\mathbb R$) symmetrisch und positiv definit. Zeigen Sie, dass $A$ und $A^2$ dieselben Eigenvektoren haben. Da $A$ symmetrisch ist, ist $A$ diagonalisierbar, d.h. es existiert ein $T\in Gl(n,\mathbb R)$ mit $T^{-1}AT=D \Longleftrightarrow A=TDT^{-1}$, wobei $D=diag(\lambda_1,\dots ,\lambda_n)$. Die Spalten von $T$ bilden eine Basis des $\mathbb R^n$ bestehend aus Eigenvektoren Von $A$. Dann gilt $A^2=TD^2T^{-1}$. Also haben $A$ und $A^2$ dieselbe Basis aus Eigenvektoren. Ich wollte fragen, ob mein Beweis so stimmt.


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 7796
Wohnort: Rosenfeld, BW
  Beitrag No.1, eingetragen 2021-08-01

Hallo, ja, das sollte IMO so passen. 👍 Wobei du streng genommen noch erwähnen solltest, wo man die positive Definitheit benötigt. Gruß, Diophant [Verschoben aus Forum 'Lineare Algebra' in Forum 'Eigenwerte' von Diophant]


   Profil
zippy
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 24.10.2018
Mitteilungen: 2659
  Beitrag No.2, eingetragen 2021-08-01

\quoteon(2021-08-01 14:16 - Diophant in Beitrag No. 1) Wobei du streng genommen noch erwähnen solltest, wo man die positive Definitheit benötigt. \quoteoff Nicht nur streng genommen. Da die Aussage ohne diese Voraussetzung falsch ist, kann auch der Beweis nicht richtig sein. --zippy


   Profil
Olli1208
Junior Letzter Besuch: im letzten Quartal
Dabei seit: 23.07.2021
Mitteilungen: 13
  Beitrag No.3, vom Themenstarter, eingetragen 2021-08-01

Ich muss ja 2 Inklusionen zeigen (jeder EV von $A$, ist auch EV von $A^2$ und umgekehrt). Die erste Inklusion ist klar. Die andere Inklusion: Da $A$ symmetrisch, positiv definit ist, ist auch $A^2$ symmetrisch, positiv definit. Dann existiert ein $T\in GL(n,\mathbb R)$, sodass $A=TDT^{-1}$ (Die Einträge auf der Diagonalen von $D$ sind alle positiv). Dann gilt $A=T^{-1}\sqrt{D}T$. Hierfür brauche ich, dass $A^2$ positiv definit ist, da ich sonst Wurzeln aus negativen Zahlen ziehen würde).Also hat $A$ die gleiche Basis aus Eigenvektoren wie $A^2$.


   Profil
zippy
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 24.10.2018
Mitteilungen: 2659
  Beitrag No.4, eingetragen 2021-08-01

\quoteon(2021-08-01 14:39 - Olli1208 in Beitrag No. 3) Da $A$ symmetrisch, positiv definit ist, ist auch $A^2$ symmetrisch, positiv definit. \quoteoff Dafür, dass $A^2$ positiv definit ist, muss $A$ nicht positiv definit sein. Du hast also die Voraussetzung, dass $A$ positiv definit ist, immer noch nicht benutzt. Schau dir mal das folgende Gegenbeispiel an, um das Problem zu verstehen: $A=\operatorname{diag}(1,-1)$ ist symmetrisch. $A^2$ hat den Eigenvektor $x=(1,1)^T$. Aber $x$ ist kein Eigenvektor von $A$.


   Profil
Olli1208
Junior Letzter Besuch: im letzten Quartal
Dabei seit: 23.07.2021
Mitteilungen: 13
  Beitrag No.5, vom Themenstarter, eingetragen 2021-08-01

Ist aber mein Ansatz richtig, oder auch falsch?


   Profil
zippy
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 24.10.2018
Mitteilungen: 2659
  Beitrag No.6, eingetragen 2021-08-01

\quoteon(2021-08-01 15:07 - Olli1208 in Beitrag No. 5) Ist aber mein Ansatz richtig, oder auch falsch? \quoteoff Du zeigst die falsche Aussage. * Die Aufgabe möchte von dir: "Zeigen Sie, dass $A$ und $A^2$ dieselben Eigenvektoren haben." * Du zeigst: "Es gibt eine Basis aus gemeinsamen Eigenvektoren von $A$ und $A^2$." Und mein Gegenbeispiel zeigt, dass diese beiden Aussagen nicht äquivalent sind.


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 7796
Wohnort: Rosenfeld, BW
  Beitrag No.7, eingetragen 2021-08-01

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) Hallo, ich war da vorhin etwas vorschnell. Ich denke, man kann deinen Beweis durch die eine oder andere Ergänzung reparieren bzw. vervollständigen. Schau dir doch das Beispiel von zippy einmal an. Es hat etwas mit den Eigenräumen zu tun. Beide Matrizen in diesem Beispiel haben die Vektoren \((1,0)^T\) und \((0,1)^T\) als Eigenvektor. Im Fall der Matrix \(A^2\) ist auch deren Linearkombination \((1,1)^T\) Eigenvektor, im Fall der Matrix \(A\) nicht. Warum? Gruß, Diophant [Die Antwort wurde nach Beitrag No.5 begonnen.]\(\endgroup\)


   Profil
Olli1208
Junior Letzter Besuch: im letzten Quartal
Dabei seit: 23.07.2021
Mitteilungen: 13
  Beitrag No.8, vom Themenstarter, eingetragen 2021-08-01

Sei $(v_1,\dots ,v_n)$ eine Basis des $\mathbb R^n$ bestehend aus Eigenvektoren von $A$. Sei $0\neq v \in \mathbb R^n$ ein beliebiger Eigenvektor von $A^2$ mit zugehörigem Eigenwert $\mu$. Dann kann man $v$ schreiben als $v=\sum_{i=1}^n a_iv_i$ mit $Av_i=\lambda_iv_i$. Wegen $v\neq 0$ ist mindestens ein $a_i\neq 0$. Dann ist $A^2v=A^2\sum_{i=1}^na_iv_i =\sum_{i=1}^n a_i\lambda_i^2v_i$ und $A^2v=\mu v=\sum_{i=1}^n \mu a_iv_i$ Weil die $v_j$ linear unabhängig sind, folgt $a_i(\lambda_i^2 -\mu)=0$ Weil ein $a_i$ nicht Null ist, ist $\lambda_i^2=\mu$ für ein $i$. Wie geht es jetzt weiter?


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 7796
Wohnort: Rosenfeld, BW
  Beitrag No.9, eingetragen 2021-08-01

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) Hallo, du hast das vermutlich immer noch nicht verstanden. Wenn du Eigenvektoren zu unterschiedlichen Eigenwerten hast, dann mögen die eine Basis des \(\IR^n\) bilden. Ihre Linearkombinationen sind dann aber i.a. keine Eigenvektoren mehr. Wann ist denn bspw. die Summe zweier Eigenvektoren selbst wieder ein Eigenvektor? Und was muss dann bei den beiden Matrizen \(A\) und \(A^2\) unbedingt gleich sein, damit wirklich jeder Eigenvektor von \(A\) auch ein Eigenvektor von \(A^2\) ist und umgekehrt? Gruß, Diophant \(\endgroup\)


   Profil
Olli1208
Junior Letzter Besuch: im letzten Quartal
Dabei seit: 23.07.2021
Mitteilungen: 13
  Beitrag No.10, vom Themenstarter, eingetragen 2021-08-01

es ist wichtig, dass $A$ genauso viele verschiedene Eigenwerte hat wie $A^2$. In dem Beispiel von zippy hat $A$ 2 verschiedene Eigenwerte, aber $A^2$ nur einen. $A$ hat genauso viele verschiedene Eigenwerte wie $A^2$, wenn die Eigenwerte von $A$ positiv sind, denn Quadrate verschiedener natürlicher Zahlen sind wieder verschieden. und das bedeutet gerade, dass $A$ positiv definit ist. Wenn das der Fall ist, haben die Eigenräume von $A$ und $A^2$ dieselbe Dimension.


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 7796
Wohnort: Rosenfeld, BW
  Beitrag No.11, eingetragen 2021-08-01

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) Hallo, \quoteon(2021-08-01 16:53 - Olli1208 in Beitrag No. 10) es ist wichtig, dass $A$ genauso viele verschiedene Eigenwerte hat wie $A^2$. In dem Beispiel von zippy hat $A$ 2 verschiedene Eigenwerte, aber $A^2$ nur einen. $A$ hat genauso viele verschiedene Eigenwerte wie $A^2$, wenn die Eigenwerte von $A$ positiv sind, denn Quadrate verschiedener natürlicher Zahlen sind wieder verschieden. und das bedeutet gerade, dass $A$ positiv definit ist. \quoteoff eventuell meinst du hier schon das richtige. Aber es reicht nicht aus, dass es gleich viele unterschiedliche Eigenwerte sind. Was muss darüberhinaus für jeden Eigenvektor gleich sein? Gruß, Diophant\(\endgroup\)


   Profil
Olli1208
Junior Letzter Besuch: im letzten Quartal
Dabei seit: 23.07.2021
Mitteilungen: 13
  Beitrag No.12, vom Themenstarter, eingetragen 2021-08-01

Ich habe schon gezeigt, dass $\lambda$ ein Eigenwert von $A$ ist, g.d.w. $\lambda^2$ Eigenwert zu $A^2$ ist. Ich muss also zeigen, dass Eig$(A,\lambda_i)$=Eig$(A^2,\lambda_i^2)$ Einfach zu zeigen ist, dass jeder Eigenvektor von $A$ auch Eigenvektor von $A^2$ ist. Also gilt schonmal Eig$(A,\lambda_i)\subseteq Eig(A^2,\lambda_i^2)$. Wenn die Dimension diesr Räume gleich ist, muss die Gleichheit gelten. und damit hätten $A$ und $A^2$ dieselben Eigenvektoren.


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 7796
Wohnort: Rosenfeld, BW
  Beitrag No.13, eingetragen 2021-08-01

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) Hallo, ja: du musst einfach die positive Definitheit nutzen um zu argumentieren, dass die zu einem Paar gleicher Eigenvektoren gehörenden Eigenwerte von \(A\) und \(A^2\) die gleiche algebraische Vielfachheit besitzen. Warum ist dann in diesem Fall auch die geometrische Vielfachheit gleich? Wie gesagt: wenn du in deine ursprüngliche Argumentation ein, zwei Sätze zu dieser Problematik an der richtigen Stelle einfügst, dann wird aus deiner Vorgehensweise über die Diagonalisierung schon ein Schuh draus. Gruß, Diophant\(\endgroup\)


   Profil
Olli1208
Junior Letzter Besuch: im letzten Quartal
Dabei seit: 23.07.2021
Mitteilungen: 13
  Beitrag No.14, vom Themenstarter, eingetragen 2021-08-01

Das charakteristische Polynom von $A$ hat die Form $P_A=(x-\lambda_1)\dots (x-\lambda_n)$ und das charakteristische Polynom von $A^2$ hat die Form $P_{A^2}=(x-\lambda_1^2)\dots (x-\lambda_n^2)$ Da die Eigenwerte von $A$ postiv sind, haben $A$ und $A^2$ dieselben verschiedenen Eigenwerte. Die algebraischen Vielfachheiten von $\lambda_i$ und $\lambda_i^2$ sind also gleich. Die geometrischen Vielfachheiten sind auch gleich, weil die Anzahl der verschiedenen Eigenwerte von $A$ auf der Diagonalen von $D$, gleich der Anzahl der verschiedenen Eigenwerte von $A^2$ auf der Diagonalen von $D^2$ ist. Also ist dim Eig$(A,\lambda_i)$=dim Eig$(A^2,\lambda_i^2)$ und mit Eig$(A,\lambda_i)\subseteq Eig(A^2,\lambda_i^2)$ folgt die Gleichheit.


   Profil
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 7796
Wohnort: Rosenfeld, BW
  Beitrag No.15, eingetragen 2021-08-01

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) Hallo, hm, das geht hier IMO etwas einfacher. Du brauchst hier garnicht mit charakteristischen Polynomen herumhantieren, da du doch weißt, dass die Einträge auf den Hauptdiagonalen von \(D\) und \(D^2\) die (sich entsprechenden, aber nicht gleichen!) Eigenwerte von \(A\) und \(A^2\) sind. Wegen der positiven Definitheit von \(A\) sind alle Eigenwerte von \(A\) positiv, daher bleiben die algebraischen Vielfachheiten beim Quadrieren erhalten. Zur geometrischen Vielfachheit könntest du auch nochmals die Eigenschaften reeller symmetrischer Matrizen studieren. (Ich denke mal, das man die fragliche Eigenschaft, die ich im Sinn habe, hier verwenden darf und nicht beweisen muss.) Gruß, Diophant\(\endgroup\)


   Profil
Olli1208
Junior Letzter Besuch: im letzten Quartal
Dabei seit: 23.07.2021
Mitteilungen: 13
  Beitrag No.16, vom Themenstarter, eingetragen 2021-08-01

um die geometrische Vielfachheit zu bestimmen, muss ich dim ker$(\lambda_i E_n-A)$ bestimmen. Da $A$ ähnlich ist zu $D$, ist der rang von $A$ gleich dem Rang von $D$. rang$(\lambda_iE_n-A)$=rang$(\lambda_iE_n-D)$. Es gilt rang$(\lambda_iE_n-D)$=rang$(\lambda_i^2E_n-D^2)$.Also ist nach dem Rangsatz auch die Dimension der Kerne gleich.


   Profil
zippy
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 24.10.2018
Mitteilungen: 2659
  Beitrag No.17, eingetragen 2021-08-01

\quoteon(2021-08-01 16:00 - Olli1208 in Beitrag No. 8) $v=\sum_{i=1}^n a_iv_i$ mit $Av_i=\lambda_iv_i$. \quoteoff Wenn man hiermit starten will, muss man sich zuerst überlegen, dass so ein Vektor genau dann ein Eigenvektor von $A$ zum Eigenwert $\lambda$ ist, wenn $a_i\ne0\implies\lambda_i=\lambda$ gilt. Dass diese Bedingung hinreichend ist, ist klar. Die Notwendigkeit ergibt sich daraus, dass aus $Av=\lambda v$ zuerst $\sum_{i=1}^n (\lambda-\lambda_i)\,a_i\,v_i=0$ und dann $a_i=0$ oder $\lambda=\lambda_i$ für alle $i$ folgt. Wenn man jetzt einen zweiten Operator $B$ mit $Bv=\sum_{i=1}^n\mu_i\,a_i\,v_i$ betrachtet, dann hat der offenbar dieselben Eigenvektoren wie $A$, wenn $\mu_i=\mu_j\iff\lambda_i=\lambda_j$ gilt. In unserem Fall ist $B=A^2$, $\mu_i=\lambda_i^2$ und diese Äquivalenz ergibt sich aus der Injektivität der Abbildung $\lambda\mapsto\lambda^2$ auf $[0,\infty)$. [Die Antwort wurde nach Beitrag No.15 begonnen.]


   Profil
Folgende Antworten hat der Fragesteller vermutlich noch nicht gesehen.
Diophant
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 18.01.2019
Mitteilungen: 7796
Wohnort: Rosenfeld, BW
  Beitrag No.18, eingetragen 2021-08-01

\(\begingroup\)\(\newcommand{\ba}{\begin{aligned}} \newcommand{\ea}{\end{aligned}} \newcommand{\bc}{\begin{cases}} \newcommand{\ec}{\end{cases}} \newcommand{\bpm}{\begin{pmatrix}} \newcommand{\epm}{\end{pmatrix}} \newcommand{\bvm}{\begin{vmatrix}} \newcommand{\evm}{\end{vmatrix}} \newcommand{\mb}[1]{\mathbb{#1}} \newcommand{\mc}[1]{\mathcal{#1}} \newcommand{\mf}[1]{\mathfrak{#1}} \newcommand{\ms}[1]{\mathscr{#1}} \newcommand{\on}{\operatorname} \newcommand{\ds}{\displaystyle}\) Hallo, \quoteon(2021-08-01 18:04 - Olli1208 in Beitrag No. 16) um die geometrische Vielfachheit zu bestimmen, muss ich dim ker$(\lambda_i E_n-A)$ bestimmen. Da $A$ ähnlich ist zu $D$, ist der rang von $A$ gleich dem Rang von $D$. rang$(\lambda_iE_n-A)$=rang$(\lambda_iE_n-D)$. Es gilt rang$(\lambda_iE_n-D)$=rang$(\lambda_i^2E_n-D^2)$.Also ist nach dem Rangsatz auch die Dimension der Kerne gleich. \quoteoff mache dir das Leben doch nicht so schwer. Und verwende, was du gegeben hast. Mit der Diagonalisierbarkeit weißt du bereits, dass alle Spalten von \(T\) Eigenvektoren von \(A\) und \(A^2\) sind. Da \(A\) positiv definit ist, müssen die algebraischen Vielfachheiten der entsprechenden Eigenwerte von \(A\) und \(A^2\) übereinstimmen. Da diese Eigenwerte ja den Spalten von \(T\) zugeordnet sind, folgt auch schon, dass die geometrischen Vielfachheiten gleich den algebraischen sind. Alternativ könnte man verwenden, dass dies bei reellen symmetrischen Matrizen grundsätzlich der Fall ist. Das baust du jetzt einfach noch in deinen Beweis aus dem Themenstart ein, dann sollte es gut sein. Gruß, Diophant [Die Antwort wurde nach Beitrag No.16 begonnen.]\(\endgroup\)


   Profil

Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2021 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]