Matroids Matheplanet Forum Index
Moderiert von Fabi Dune ligning
Lineare Algebra » Bilinearformen&Skalarprodukte » Orthogonalbasis
Druckversion
Druckversion
Autor
Universität/Hochschule J Orthogonalbasis
lisalu
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 28.02.2019
Mitteilungen: 89
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Themenstart: 2019-04-23


Hallo, ich soll die Orthogonalbasis von folgender Matrix bestimmen:

1 1
1 1

Nach Gram-Schmidt habe ich die Vektoren
1
1
und
0
0
raus.

Besteht die Orthogonalbasis also aus diesen 2 Vektoren?

Danke!



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 930
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.1, eingetragen 2019-04-23

\(\begingroup\)\(\newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align}#1\end{align}}\)
Hallo lisalu,

verstehe ich es richtig, dass du eine Orthogonalbasis bezüglich des Skalarprodukts $\left<v,w\right>:=v^TAw$ mit der von dir gegebenen Matrix als A bestimmen willst? Dann ist nämlich das Skalarprodukt der Vektoren $v=(v_1,v_2),~w=(w_1,w_2)$ gegeben durch

\[\left<v,w\right>=v_1w_1+v_1w_2+v_2w_1+v_2w_2\]
Entsprechend musst du im Gram-Schmidt-Verfahren dieses Skalarprodukt verwenden, und als ursprüngliche Basis die Standardbasis wählen (zumindest ist die Standardbasis so gut wie jede andere).

Dein Ergebnis ist auch nicht richtig (ich nehme an, du hast die Spalten der Matrix genommen als Ausgangsbasis, und das Standardskalarprodukt verwendet). Allein schon weil der Nullvektor niemals Teil einer Basis ist, da er niemals linear unabhängig von den anderen Basisvektoren ist.
\(\endgroup\)


Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
lisalu
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 28.02.2019
Mitteilungen: 89
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.2, vom Themenstarter, eingetragen 2019-04-24

\(\begingroup\)\(\newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align}#1\end{align}} \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align}#1\end{align}}\)
2019-04-23 21:14 - Vercassivelaunos in Beitrag No. 1 schreibt:
Hallo lisalu,

verstehe ich es richtig, dass du eine Orthogonalbasis bezüglich des Skalarprodukts $\left<v,w\right>:=v^TAw$ mit der von dir gegebenen Matrix als A bestimmen willst? Dann ist nämlich das Skalarprodukt der Vektoren $v=(v_1,v_2),~w=(w_1,w_2)$ gegeben durch

\[\left<v,w\right>=v_1w_1+v_1w_2+v_2w_1+v_2w_2\]
Entsprechend musst du im Gram-Schmidt-Verfahren dieses Skalarprodukt verwenden, und als ursprüngliche Basis die Standardbasis wählen (zumindest ist die Standardbasis so gut wie jede andere).

Dein Ergebnis ist auch nicht richtig (ich nehme an, du hast die Spalten der Matrix genommen als Ausgangsbasis, und das Standardskalarprodukt verwendet). Allein schon weil der Nullvektor niemals Teil einer Basis ist, da er niemals linear unabhängig von den anderen Basisvektoren ist.

Ich soll die Orthogonalbasis für die durch die Matrix definierten Bilinearformen auf R bilden.

Ich habe hierbei geschaut, ob Matrix pos. definit ist, was ja der Fall ist, wenn die Eigenwerte pos. sind.
Dann habe ich für Gram diese Formel genommen:


w1=w2=
1
1

v1=w1=
1
1

und v2=w2 - (Skalarprod. von v1, w1)/(Skalarprod. von v1, v1) * v1=
0
0



\(\endgroup\)


Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 930
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.3, eingetragen 2019-04-24

\(\begingroup\)\(\newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align}#1\end{align}}\)
Du solltest aber mit $w_1=(1,0)$ und $w_2=(0,1)$ starten, nicht mit den Spalten der Matrix. Die haben ja mit einer Basis nichts zu tun. Du willst eine bekannte Basis nehmen, und daraus eine Orthogonalbasis basteln. Dafür müssen deine Ausgangsvektoren $w_i$ auch tatsächlich eine Basis bilden.
\(\endgroup\)


Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
Greyfox
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 12.08.2003
Mitteilungen: 311
Aus: Berlin
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.4, eingetragen 2019-04-24


Hallo lisalu,

dann ist es vermutlich so, wie Vercassivelaunos schreibt.

Vermutlich sollst Du aber nicht "DIE" Orthogonalbasis für die Bilinearform bilden, sondern EINE.

Vermutlich sollst Du aber nicht "DIE" Orthogonalbasis für die Bilinearform bilden, sondern EINE.

Vermutlich meinst Du auch nicht eine AUF \(\IR\) definierte Bilinearform, sondern eine auf \(\IR^2\)definierte Bilinearform.

Da Du ein wenig unsicher mit den Begriffen scheinst, würde ich Dir vorschlagen, die Aufgabenstellung ein wenig ausführlicher aufzuschreiben:

Was genau ist eine Bilinearform?
Wie genau definiert A eine Bilinearform?
Wann genau sind zwei Vektoren bzgl. dieser Bilinearform "orthogonal"?

Zusatzfrage:
Können "orthogonale Vektoren" linear abhängig sein?

Wenn Du diese Fragen beantwortest (und Vercassivelaunos hat dies im Grunde schon für Dich getan), dann können wir Dir sicher leichter über die letzt kleine Hürde helfen.

Beste Grüße
Greyfox

[Die Antwort wurde nach Beitrag No.2 begonnen.]



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
lisalu
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 28.02.2019
Mitteilungen: 89
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.5, vom Themenstarter, eingetragen 2019-04-24


2019-04-24 15:23 - Greyfox in Beitrag No. 4 schreibt:
Hallo lisalu,

dann ist es vermutlich so, wie Vercassivelaunos schreibt.

Vermutlich sollst Du aber nicht "DIE" Orthogonalbasis für die Bilinearform bilden, sondern EINE.

Vermutlich sollst Du aber nicht "DIE" Orthogonalbasis für die Bilinearform bilden, sondern EINE.

Vermutlich meinst Du auch nicht eine AUF \(\IR\) definierte Bilinearform, sondern eine auf \(\IR^2\)definierte Bilinearform.

Da Du ein wenig unsicher mit den Begriffen scheinst, würde ich Dir vorschlagen, die Aufgabenstellung ein wenig ausführlicher aufzuschreiben:

Was genau ist eine Bilinearform?
Wie genau definiert A eine Bilinearform?
Wann genau sind zwei Vektoren bzgl. dieser Bilinearform "orthogonal"?

Zusatzfrage:
Können "orthogonale Vektoren" linear abhängig sein?

Wenn Du diese Fragen beantwortest (und Vercassivelaunos hat dies im Grunde schon für Dich getan), dann können wir Dir sicher leichter über die letzt kleine Hürde helfen.

Beste Grüße
Greyfox

[Die Antwort wurde nach Beitrag No.2 begonnen.]

Zu deiner Frage: Sie sollten l. unabhängig sein. Und ja, natürlich ist R^2 gemeint, hatte mich vertippt.



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
lisalu
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 28.02.2019
Mitteilungen: 89
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.6, vom Themenstarter, eingetragen 2019-04-24


2019-04-24 16:03 - lisalu in Beitrag No. 5 schreibt:
2019-04-24 15:23 - Greyfox in Beitrag No. 4 schreibt:
Hallo lisalu,

dann ist es vermutlich so, wie Vercassivelaunos schreibt.

Vermutlich sollst Du aber nicht "DIE" Orthogonalbasis für die Bilinearform bilden, sondern EINE.

Vermutlich sollst Du aber nicht "DIE" Orthogonalbasis für die Bilinearform bilden, sondern EINE.

Vermutlich meinst Du auch nicht eine AUF \(\IR\) definierte Bilinearform, sondern eine auf \(\IR^2\)definierte Bilinearform.

Da Du ein wenig unsicher mit den Begriffen scheinst, würde ich Dir vorschlagen, die Aufgabenstellung ein wenig ausführlicher aufzuschreiben:

Was genau ist eine Bilinearform?
Wie genau definiert A eine Bilinearform?
Wann genau sind zwei Vektoren bzgl. dieser Bilinearform "orthogonal"?

Zusatzfrage:
Können "orthogonale Vektoren" linear abhängig sein?

Wenn Du diese Fragen beantwortest (und Vercassivelaunos hat dies im Grunde schon für Dich getan), dann können wir Dir sicher leichter über die letzt kleine Hürde helfen.

Beste Grüße
Greyfox

[Die Antwort wurde nach Beitrag No.2 begonnen.]

Zu deiner Frage: Sie sollten l. unabhängig sein. Und ja, natürlich ist R^2 gemeint, hatte mich vertippt.


Wenn ich aber mit
1
0

und

0
1

starte, brauche ich doch die Mat. nicht gegeben haben?
Ich wäre dankbar, wenn mir mal jemand den allgem. Algorithmus zur Berechnung der Orthogonalbasis zeigen könnte (vielleicht mit anderer Mat.)



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
lisalu
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 28.02.2019
Mitteilungen: 89
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.7, vom Themenstarter, eingetragen 2019-04-24


2019-04-24 16:06 - lisalu in Beitrag No. 6 schreibt:
2019-04-24 16:03 - lisalu in Beitrag No. 5 schreibt:
2019-04-24 15:23 - Greyfox in Beitrag No. 4 schreibt:
Hallo lisalu,

dann ist es vermutlich so, wie Vercassivelaunos schreibt.

Vermutlich sollst Du aber nicht "DIE" Orthogonalbasis für die Bilinearform bilden, sondern EINE.

Vermutlich sollst Du aber nicht "DIE" Orthogonalbasis für die Bilinearform bilden, sondern EINE.

Vermutlich meinst Du auch nicht eine AUF \(\IR\) definierte Bilinearform, sondern eine auf \(\IR^2\)definierte Bilinearform.

Da Du ein wenig unsicher mit den Begriffen scheinst, würde ich Dir vorschlagen, die Aufgabenstellung ein wenig ausführlicher aufzuschreiben:

Was genau ist eine Bilinearform?
Wie genau definiert A eine Bilinearform?
Wann genau sind zwei Vektoren bzgl. dieser Bilinearform "orthogonal"?

Zusatzfrage:
Können "orthogonale Vektoren" linear abhängig sein?

Wenn Du diese Fragen beantwortest (und Vercassivelaunos hat dies im Grunde schon für Dich getan), dann können wir Dir sicher leichter über die letzt kleine Hürde helfen.

Beste Grüße
Greyfox

[Die Antwort wurde nach Beitrag No.2 begonnen.]

Zu deiner Frage: Sie sollten l. unabhängig sein. Und ja, natürlich ist R^2 gemeint, hatte mich vertippt.


Wenn ich aber mit
1
0

und

0
1

starte, brauche ich doch die Mat. nicht gegeben haben?
Ich wäre dankbar, wenn mir mal jemand den allgem. Algorithmus zur Berechnung der Orthogonalbasis zeigen könnte (vielleicht mit anderer Mat.)


... ansonsten hätte ich mit den o.g. Standardbasen nach Gram einfach wieder
0
1
als v2 raus. Und entsprechend
1
0
als v1. Dann wäre die (bzw. eine) Orthobasis ja einfach
1
0
und
0
1



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 930
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.8, eingetragen 2019-04-24

\(\begingroup\)\(\newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align}#1\end{align}}\)
Du benutzt hier aber das Standardskalarprodukt. Die Abbildung $\left<\cdot,\cdot\right>$ ist nicht das Standardskalarprodukt, sondern die von der gegebenen Matrix definierte Bilinearform. Wie berechnest du also $\left<v,w\right>$?
\(\endgroup\)


Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
Greyfox
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 12.08.2003
Mitteilungen: 311
Aus: Berlin
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.9, eingetragen 2019-04-24


fed-Code einblenden

Der Algorithmus ist z.B. hier dargestellt:


fed-Code einblenden



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
Greyfox
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 12.08.2003
Mitteilungen: 311
Aus: Berlin
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.10, eingetragen 2019-04-24


2019-04-24 14:51 - lisalu in Beitrag No. 2 schreibt:

Ich habe hierbei geschaut, ob Matrix pos. definit ist, was ja der Fall ist, wenn die Eigenwerte pos. sind.



Sind die Eigenwerte denn positiv?  

(Und fallst nicht, wie beantwortest Du dann die Frage, ob orthogonale Vektoren zwangsläufig linear unabhängig sind?)

@Vercassivelaunos:
Eventuell, sollten wir die Notation "<.;.>" vermeiden, denn die hier definierte Bilinearform ist ja kein Skalarprodukt.  



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
lisalu
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 28.02.2019
Mitteilungen: 89
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.11, vom Themenstarter, eingetragen 2019-04-24


2019-04-24 18:59 - Greyfox in Beitrag No. 10 schreibt:
2019-04-24 14:51 - lisalu in Beitrag No. 2 schreibt:

Ich habe hierbei geschaut, ob Matrix pos. definit ist, was ja der Fall ist, wenn die Eigenwerte pos. sind.



Sind die Eigenwerte denn positiv?  

(Und fallst nicht, wie beantwortest Du dann die Frage, ob orthogonale Vektoren zwangsläufig linear unabhängig sind?)

@Vercassivelaunos:
Eventuell, sollten wir die Notation "<.;.>" vermeiden, denn die hier definierte Bilinearform ist ja kein Skalarprodukt.  

Jetzt bin ich total verwirrt... Wenn <,> nicht das Skalarprodukt ist, weiß ich nicht, wie es berechnet wird... Wie soll das dann funktionieren?

Ja die EW sind pos. Wären sie es nicht, weiß ich, wie man die l. Abhängigkeit prüft. Aber wie soll man denn nun v2 berechnen? Ich habe es nach Wikipedia gemacht, wie oben schon gezeigt.



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
lisalu
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 28.02.2019
Mitteilungen: 89
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.12, vom Themenstarter, eingetragen 2019-04-24


2019-04-24 20:35 - lisalu in Beitrag No. 11 schreibt:
2019-04-24 18:59 - Greyfox in Beitrag No. 10 schreibt:
2019-04-24 14:51 - lisalu in Beitrag No. 2 schreibt:

Ich habe hierbei geschaut, ob Matrix pos. definit ist, was ja der Fall ist, wenn die Eigenwerte pos. sind.



Sind die Eigenwerte denn positiv?  

(Und fallst nicht, wie beantwortest Du dann die Frage, ob orthogonale Vektoren zwangsläufig linear unabhängig sind?)

@Vercassivelaunos:
Eventuell, sollten wir die Notation "<.;.>" vermeiden, denn die hier definierte Bilinearform ist ja kein Skalarprodukt.  

Jetzt bin ich total verwirrt... Wenn <,> nicht das Skalarprodukt ist, weiß ich nicht, wie es berechnet wird... Wie soll das dann funktionieren?

Ja die EW sind pos. Wären sie es nicht, weiß ich, wie man die l. Abhängigkeit prüft. Aber wie soll man denn nun v2 berechnen? Ich habe es nach Wikipedia gemacht, wie oben schon gezeigt.


Und ok, ich sehe, dass ich "0" für orthogonal brauche - macht Sinn. Heißt das, man könnte immer mit dem Standardvektor
1
0
anfangen? Und woher weiß ich, wie ich den 2. Vektor wähle? Muss er einfach "nur" so sein, dass die besagte 0 rauskommt? Kann man da beliebige Vektoren wählen?


Jetzt fehlt mir "nur noch" das Verständnis für die Berechnung von <,>. Ich weiß nur, wie ich das Skalarprodukt berechne. Und das wurde ja auch bei Wiki so gemacht?



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 930
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.13, eingetragen 2019-04-24

\(\begingroup\)\(\newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align}#1\end{align}}\)
Ich benutze die Notation $\left<\cdot,\cdot\right>$, weil sie im Gram-Schmidt-Verfahren eigentlich immer so auftaucht, und es hier um dieses Verfahren geht. Greyfox hat aber natürlich Recht, dass das eigentlich unschön ist, weil man die Notation gewöhnlich nur für Skalarprodukte verwendet. Hier geht es nicht um ein Skalarprodukt (insbesondere nicht um das Standardskalarprodukt), sondern um die durch $A$ definierte Bilinearform.

Also: Für unsere Bedürfnisse heißt das: $\left<v,w\right>$ ist definiert als $v^T Aw$. $A$ ist deine gegebene Matrix. Das ist die durch $A$ definierte Bilinearform. Du kannst das ja mal für ein paar Beispielvektoren berechnen, um ein Gefühl dafür zu bekommen: Was kommt zum Beispiel für $v=(1,0)$ und $w=(0,1)$ heraus?

So, wenn du ein Gefühl dafür hast, wie man mit dieser Bilinearform rechnet, wählst du eine Basis (völlig beliebig), die du orthogonalisieren willst. Da die Basis völlig beliebig ist (Hauptsache es ist wirklich eine Basis), bietet sich die Standardbasis an. Also wählst du als Ausgangsvektoren $(1,0)$ und $(0,1)$.
\(\endgroup\)


Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
Greyfox
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 12.08.2003
Mitteilungen: 311
Aus: Berlin
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.14, eingetragen 2019-04-24


fed-Code einblenden

[Die Antwort wurde nach Beitrag No.12 begonnen.]



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
lisalu
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 28.02.2019
Mitteilungen: 89
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.15, vom Themenstarter, eingetragen 2019-04-25


2019-04-24 22:31 - Greyfox in Beitrag No. 14 schreibt:
fed-Code einblenden

[Die Antwort wurde nach Beitrag No.12 begonnen.]

Vielen Dank für die ausführliche und tolle Erklärung! Diesen Weg habe ich nun sehr gut verstanden! :)

Mir wäre es nun noch lieb, den "allgemeinen Weg" mit Gram Schmidt zu verstehen. Mir würde auch hier ein Beispiel am Besten helfen.



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
lisalu
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 28.02.2019
Mitteilungen: 89
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.16, vom Themenstarter, eingetragen 2019-04-25


2019-04-25 11:12 - lisalu in Beitrag No. 15 schreibt:
2019-04-24 22:31 - Greyfox in Beitrag No. 14 schreibt:
fed-Code einblenden

[Die Antwort wurde nach Beitrag No.12 begonnen.]

Vielen Dank für die ausführliche und tolle Erklärung! Diesen Weg habe ich nun sehr gut verstanden! :)

Mir wäre es nun noch lieb, den "allgemeinen Weg" mit Gram Schmidt zu verstehen. Mir würde auch hier ein Beispiel am Besten helfen.

Hierzu mal das, was ich meine verstanden zu haben:
1. Wähle beliebige Basis (z.B. Standartbasis)
2. berechne v2 nach folgendem Schema:

sei w1= fed-Code einblenden
und w2= fed-Code einblenden


Dann ist v1=w1 und
v2= w2 - (<v1,w2>)/(<v1,v1>) * v1

wobei <,> nicht das Skalar, sondern die Bilinearform ist. Damit wäre
<v1,w2> = fed-Code einblenden fed-Code einblenden
und analog <v1,v1>=1


damit ist v2= fed-Code einblenden
3. Orthogonalbasis besteht dann aus v1 und v2



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 930
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.17, eingetragen 2019-04-25

\(\begingroup\)\(\newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align}#1\end{align}}\)
Das ist richtig. Du kannst dich auch selbst davon überzeugen, dass die beiden Vektoren auch wirklich orthogonal sind, indem du $v_1^TAv_2$ berechnest.
\(\endgroup\)


Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
lisalu
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 28.02.2019
Mitteilungen: 89
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.18, vom Themenstarter, eingetragen 2019-04-25

\(\begingroup\)\(\newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align}#1\end{align}} \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align}#1\end{align}}\)
2019-04-25 12:37 - Vercassivelaunos in Beitrag No. 17 schreibt:
Das ist richtig. Du kannst dich auch selbst davon überzeugen, dass die beiden Vektoren auch wirklich orthogonal sind, indem du $v_1^TAv_2$ berechnest.

In Ordnung, dann sollte ich es nun verstanden haben. Vielen Dank für eure Geduld und Hilfe!
\(\endgroup\)


Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
Greyfox
Wenig Aktiv Letzter Besuch: vor mehr als 3 Monaten
Dabei seit: 12.08.2003
Mitteilungen: 311
Aus: Berlin
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.19, eingetragen 2019-04-25


Super, dass wir Dir helfen konnten.

Bitte beachte nich zwei Dinge:

1)
Die Eigenwerte der Matrix sind 2 und 0. Schau nochmal, dass Du die richtig Berechnen kannst.

2)
Wenn Du zufrieden bist mit den Antworten findest Du unterhalb des Eingabefensters für eine Nachricht bei Optionen die Möglichkeit das Thema als beendet zu markieren. Dann erscheint im Forum ein kleines Häkchen und alle wissen Bescheid, dass Du versorgt bist.

Beste Grüße
Greyfox



Eine Notiz zu diese Forumbeitrag schreiben Notiz   Profil  Quote  Link auf diesen Beitrag Link
lisalu hat die Antworten auf ihre/seine Frage gesehen.
lisalu hat selbst das Ok-Häkchen gesetzt.
Neues Thema [Neues Thema]  Druckversion [Druckversion]

 


Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2020 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]