Die Mathe-Redaktion - 20.05.2019 15:09 - Registrieren/Login
Auswahl
ListenpunktHome
ListenpunktAktuell und Interessant ai
ListenpunktArtikelübersicht/-suche
ListenpunktAlle Links / Mathe-Links
ListenpunktFach- & Sachbücher
ListenpunktMitglieder / Karte
ListenpunktRegistrieren/Login
ListenpunktArbeitsgruppen
ListenpunktSchwätz / Top 15
ListenpunktWerde Mathe-Millionär!
ListenpunktAnmeldung MPCT Sept.
ListenpunktFormeleditor fedgeo
Schwarzes Brett
Aktion im Forum
Suche
Stichwortsuche in Artikeln und Links von Matheplanet
Suchen im Forum
Suchtipps

Bücher
Englische Bücher
Software
Suchbegriffe:
Mathematik bei amazon
Naturwissenschaft & Technik
In Partnerschaft mit Amazon.de
Kontakt
Mail an Matroid
[Keine Übungsaufgaben!]
Impressum

Bitte beachten Sie unsere Nutzungsbedingungen, die Distanzierung, unsere Datenschutzerklärung und
die Forumregeln.

Sie können Mitglied werden. Mitglieder können den Matheplanet-Newsletter bestellen, der etwa alle 2 Monate erscheint.

Der Newsletter Okt. 2017

Für Mitglieder
Mathematisch für Anfänger
Wer ist Online
Aktuell sind 719 Gäste und 23 Mitglieder online.

Sie können Mitglied werden:
Klick hier.

Über Matheplanet
 
Zum letzten Themenfilter: Themenfilter:
Matroids Matheplanet Forum Index
Moderiert von Fabi Dune ligning
Lineare Algebra » Bilinearformen&Skalarprodukte » Orthogonalbasis
Druckversion
Druckversion
Autor
Universität/Hochschule J Orthogonalbasis
lisalu
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 28.02.2019
Mitteilungen: 84
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Themenstart: 2019-04-23 21:00


Hallo, ich soll die Orthogonalbasis von folgender Matrix bestimmen:

1 1
1 1

Nach Gram-Schmidt habe ich die Vektoren
1
1
und
0
0
raus.

Besteht die Orthogonalbasis also aus diesen 2 Vektoren?

Danke!



  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 375
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.1, eingetragen 2019-04-23 21:14

\(\begingroup\)\(\newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\span}{\operatorname{span}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align*}#1\end{align*}}\)
Hallo lisalu,

verstehe ich es richtig, dass du eine Orthogonalbasis bezüglich des Skalarprodukts $\left<v,w\right>:=v^TAw$ mit der von dir gegebenen Matrix als A bestimmen willst? Dann ist nämlich das Skalarprodukt der Vektoren $v=(v_1,v_2),~w=(w_1,w_2)$ gegeben durch

\[\left<v,w\right>=v_1w_1+v_1w_2+v_2w_1+v_2w_2\]
Entsprechend musst du im Gram-Schmidt-Verfahren dieses Skalarprodukt verwenden, und als ursprüngliche Basis die Standardbasis wählen (zumindest ist die Standardbasis so gut wie jede andere).

Dein Ergebnis ist auch nicht richtig (ich nehme an, du hast die Spalten der Matrix genommen als Ausgangsbasis, und das Standardskalarprodukt verwendet). Allein schon weil der Nullvektor niemals Teil einer Basis ist, da er niemals linear unabhängig von den anderen Basisvektoren ist.
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
lisalu
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 28.02.2019
Mitteilungen: 84
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.2, vom Themenstarter, eingetragen 2019-04-24 14:51

\(\begingroup\)\( \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align}#1\end{align}}\)
2019-04-23 21:14 - Vercassivelaunos in Beitrag No. 1 schreibt:
Hallo lisalu,

verstehe ich es richtig, dass du eine Orthogonalbasis bezüglich des Skalarprodukts $\left<v,w\right>:=v^TAw$ mit der von dir gegebenen Matrix als A bestimmen willst? Dann ist nämlich das Skalarprodukt der Vektoren $v=(v_1,v_2),~w=(w_1,w_2)$ gegeben durch

\[\left<v,w\right>=v_1w_1+v_1w_2+v_2w_1+v_2w_2\]
Entsprechend musst du im Gram-Schmidt-Verfahren dieses Skalarprodukt verwenden, und als ursprüngliche Basis die Standardbasis wählen (zumindest ist die Standardbasis so gut wie jede andere).

Dein Ergebnis ist auch nicht richtig (ich nehme an, du hast die Spalten der Matrix genommen als Ausgangsbasis, und das Standardskalarprodukt verwendet). Allein schon weil der Nullvektor niemals Teil einer Basis ist, da er niemals linear unabhängig von den anderen Basisvektoren ist.

Ich soll die Orthogonalbasis für die durch die Matrix definierten Bilinearformen auf R bilden.

Ich habe hierbei geschaut, ob Matrix pos. definit ist, was ja der Fall ist, wenn die Eigenwerte pos. sind.
Dann habe ich für Gram diese Formel genommen:


w1=w2=
1
1

v1=w1=
1
1

und v2=w2 - (Skalarprod. von v1, w1)/(Skalarprod. von v1, v1) * v1=
0
0



\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 375
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.3, eingetragen 2019-04-24 15:21

\(\begingroup\)\(\newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\span}{\operatorname{span}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align*}#1\end{align*}}\)
Du solltest aber mit $w_1=(1,0)$ und $w_2=(0,1)$ starten, nicht mit den Spalten der Matrix. Die haben ja mit einer Basis nichts zu tun. Du willst eine bekannte Basis nehmen, und daraus eine Orthogonalbasis basteln. Dafür müssen deine Ausgangsvektoren $w_i$ auch tatsächlich eine Basis bilden.
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
Greyfox
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 12.08.2003
Mitteilungen: 304
Aus: Berlin
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.4, eingetragen 2019-04-24 15:23


Hallo lisalu,

dann ist es vermutlich so, wie Vercassivelaunos schreibt.

Vermutlich sollst Du aber nicht "DIE" Orthogonalbasis für die Bilinearform bilden, sondern EINE.

Vermutlich sollst Du aber nicht "DIE" Orthogonalbasis für die Bilinearform bilden, sondern EINE.

Vermutlich meinst Du auch nicht eine AUF \(\IR\) definierte Bilinearform, sondern eine auf \(\IR^2\)definierte Bilinearform.

Da Du ein wenig unsicher mit den Begriffen scheinst, würde ich Dir vorschlagen, die Aufgabenstellung ein wenig ausführlicher aufzuschreiben:

Was genau ist eine Bilinearform?
Wie genau definiert A eine Bilinearform?
Wann genau sind zwei Vektoren bzgl. dieser Bilinearform "orthogonal"?

Zusatzfrage:
Können "orthogonale Vektoren" linear abhängig sein?

Wenn Du diese Fragen beantwortest (und Vercassivelaunos hat dies im Grunde schon für Dich getan), dann können wir Dir sicher leichter über die letzt kleine Hürde helfen.

Beste Grüße
Greyfox

[Die Antwort wurde nach Beitrag No.2 begonnen.]



  Profil  Quote  Link auf diesen Beitrag Link
lisalu
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 28.02.2019
Mitteilungen: 84
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.5, vom Themenstarter, eingetragen 2019-04-24 16:03


2019-04-24 15:23 - Greyfox in Beitrag No. 4 schreibt:
Hallo lisalu,

dann ist es vermutlich so, wie Vercassivelaunos schreibt.

Vermutlich sollst Du aber nicht "DIE" Orthogonalbasis für die Bilinearform bilden, sondern EINE.

Vermutlich sollst Du aber nicht "DIE" Orthogonalbasis für die Bilinearform bilden, sondern EINE.

Vermutlich meinst Du auch nicht eine AUF \(\IR\) definierte Bilinearform, sondern eine auf \(\IR^2\)definierte Bilinearform.

Da Du ein wenig unsicher mit den Begriffen scheinst, würde ich Dir vorschlagen, die Aufgabenstellung ein wenig ausführlicher aufzuschreiben:

Was genau ist eine Bilinearform?
Wie genau definiert A eine Bilinearform?
Wann genau sind zwei Vektoren bzgl. dieser Bilinearform "orthogonal"?

Zusatzfrage:
Können "orthogonale Vektoren" linear abhängig sein?

Wenn Du diese Fragen beantwortest (und Vercassivelaunos hat dies im Grunde schon für Dich getan), dann können wir Dir sicher leichter über die letzt kleine Hürde helfen.

Beste Grüße
Greyfox

[Die Antwort wurde nach Beitrag No.2 begonnen.]

Zu deiner Frage: Sie sollten l. unabhängig sein. Und ja, natürlich ist R^2 gemeint, hatte mich vertippt.



  Profil  Quote  Link auf diesen Beitrag Link
lisalu
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 28.02.2019
Mitteilungen: 84
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.6, vom Themenstarter, eingetragen 2019-04-24 16:06


2019-04-24 16:03 - lisalu in Beitrag No. 5 schreibt:
2019-04-24 15:23 - Greyfox in Beitrag No. 4 schreibt:
Hallo lisalu,

dann ist es vermutlich so, wie Vercassivelaunos schreibt.

Vermutlich sollst Du aber nicht "DIE" Orthogonalbasis für die Bilinearform bilden, sondern EINE.

Vermutlich sollst Du aber nicht "DIE" Orthogonalbasis für die Bilinearform bilden, sondern EINE.

Vermutlich meinst Du auch nicht eine AUF \(\IR\) definierte Bilinearform, sondern eine auf \(\IR^2\)definierte Bilinearform.

Da Du ein wenig unsicher mit den Begriffen scheinst, würde ich Dir vorschlagen, die Aufgabenstellung ein wenig ausführlicher aufzuschreiben:

Was genau ist eine Bilinearform?
Wie genau definiert A eine Bilinearform?
Wann genau sind zwei Vektoren bzgl. dieser Bilinearform "orthogonal"?

Zusatzfrage:
Können "orthogonale Vektoren" linear abhängig sein?

Wenn Du diese Fragen beantwortest (und Vercassivelaunos hat dies im Grunde schon für Dich getan), dann können wir Dir sicher leichter über die letzt kleine Hürde helfen.

Beste Grüße
Greyfox

[Die Antwort wurde nach Beitrag No.2 begonnen.]

Zu deiner Frage: Sie sollten l. unabhängig sein. Und ja, natürlich ist R^2 gemeint, hatte mich vertippt.


Wenn ich aber mit
1
0

und

0
1

starte, brauche ich doch die Mat. nicht gegeben haben?
Ich wäre dankbar, wenn mir mal jemand den allgem. Algorithmus zur Berechnung der Orthogonalbasis zeigen könnte (vielleicht mit anderer Mat.)



  Profil  Quote  Link auf diesen Beitrag Link
lisalu
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 28.02.2019
Mitteilungen: 84
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.7, vom Themenstarter, eingetragen 2019-04-24 16:17


2019-04-24 16:06 - lisalu in Beitrag No. 6 schreibt:
2019-04-24 16:03 - lisalu in Beitrag No. 5 schreibt:
2019-04-24 15:23 - Greyfox in Beitrag No. 4 schreibt:
Hallo lisalu,

dann ist es vermutlich so, wie Vercassivelaunos schreibt.

Vermutlich sollst Du aber nicht "DIE" Orthogonalbasis für die Bilinearform bilden, sondern EINE.

Vermutlich sollst Du aber nicht "DIE" Orthogonalbasis für die Bilinearform bilden, sondern EINE.

Vermutlich meinst Du auch nicht eine AUF \(\IR\) definierte Bilinearform, sondern eine auf \(\IR^2\)definierte Bilinearform.

Da Du ein wenig unsicher mit den Begriffen scheinst, würde ich Dir vorschlagen, die Aufgabenstellung ein wenig ausführlicher aufzuschreiben:

Was genau ist eine Bilinearform?
Wie genau definiert A eine Bilinearform?
Wann genau sind zwei Vektoren bzgl. dieser Bilinearform "orthogonal"?

Zusatzfrage:
Können "orthogonale Vektoren" linear abhängig sein?

Wenn Du diese Fragen beantwortest (und Vercassivelaunos hat dies im Grunde schon für Dich getan), dann können wir Dir sicher leichter über die letzt kleine Hürde helfen.

Beste Grüße
Greyfox

[Die Antwort wurde nach Beitrag No.2 begonnen.]

Zu deiner Frage: Sie sollten l. unabhängig sein. Und ja, natürlich ist R^2 gemeint, hatte mich vertippt.


Wenn ich aber mit
1
0

und

0
1

starte, brauche ich doch die Mat. nicht gegeben haben?
Ich wäre dankbar, wenn mir mal jemand den allgem. Algorithmus zur Berechnung der Orthogonalbasis zeigen könnte (vielleicht mit anderer Mat.)


... ansonsten hätte ich mit den o.g. Standardbasen nach Gram einfach wieder
0
1
als v2 raus. Und entsprechend
1
0
als v1. Dann wäre die (bzw. eine) Orthobasis ja einfach
1
0
und
0
1



  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 375
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.8, eingetragen 2019-04-24 17:58

\(\begingroup\)\(\newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\span}{\operatorname{span}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align*}#1\end{align*}}\)
Du benutzt hier aber das Standardskalarprodukt. Die Abbildung $\left<\cdot,\cdot\right>$ ist nicht das Standardskalarprodukt, sondern die von der gegebenen Matrix definierte Bilinearform. Wie berechnest du also $\left<v,w\right>$?
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
Greyfox
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 12.08.2003
Mitteilungen: 304
Aus: Berlin
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.9, eingetragen 2019-04-24 18:32


fed-Code einblenden

Der Algorithmus ist z.B. hier dargestellt:
de.wikipedia.org/wiki/Gram-Schmidtsches_Orthogonalisierungsverfahren

fed-Code einblenden



  Profil  Quote  Link auf diesen Beitrag Link
Greyfox
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 12.08.2003
Mitteilungen: 304
Aus: Berlin
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.10, eingetragen 2019-04-24 18:59


2019-04-24 14:51 - lisalu in Beitrag No. 2 schreibt:

Ich habe hierbei geschaut, ob Matrix pos. definit ist, was ja der Fall ist, wenn die Eigenwerte pos. sind.



Sind die Eigenwerte denn positiv?  

(Und fallst nicht, wie beantwortest Du dann die Frage, ob orthogonale Vektoren zwangsläufig linear unabhängig sind?)

@Vercassivelaunos:
Eventuell, sollten wir die Notation "<.;.>" vermeiden, denn die hier definierte Bilinearform ist ja kein Skalarprodukt.  



  Profil  Quote  Link auf diesen Beitrag Link
lisalu
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 28.02.2019
Mitteilungen: 84
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.11, vom Themenstarter, eingetragen 2019-04-24 20:35


2019-04-24 18:59 - Greyfox in Beitrag No. 10 schreibt:
2019-04-24 14:51 - lisalu in Beitrag No. 2 schreibt:

Ich habe hierbei geschaut, ob Matrix pos. definit ist, was ja der Fall ist, wenn die Eigenwerte pos. sind.



Sind die Eigenwerte denn positiv?  

(Und fallst nicht, wie beantwortest Du dann die Frage, ob orthogonale Vektoren zwangsläufig linear unabhängig sind?)

@Vercassivelaunos:
Eventuell, sollten wir die Notation "<.;.>" vermeiden, denn die hier definierte Bilinearform ist ja kein Skalarprodukt.  

Jetzt bin ich total verwirrt... Wenn <,> nicht das Skalarprodukt ist, weiß ich nicht, wie es berechnet wird... Wie soll das dann funktionieren?

Ja die EW sind pos. Wären sie es nicht, weiß ich, wie man die l. Abhängigkeit prüft. Aber wie soll man denn nun v2 berechnen? Ich habe es nach Wikipedia gemacht, wie oben schon gezeigt.



  Profil  Quote  Link auf diesen Beitrag Link
lisalu
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 28.02.2019
Mitteilungen: 84
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.12, vom Themenstarter, eingetragen 2019-04-24 20:40


2019-04-24 20:35 - lisalu in Beitrag No. 11 schreibt:
2019-04-24 18:59 - Greyfox in Beitrag No. 10 schreibt:
2019-04-24 14:51 - lisalu in Beitrag No. 2 schreibt:

Ich habe hierbei geschaut, ob Matrix pos. definit ist, was ja der Fall ist, wenn die Eigenwerte pos. sind.



Sind die Eigenwerte denn positiv?  

(Und fallst nicht, wie beantwortest Du dann die Frage, ob orthogonale Vektoren zwangsläufig linear unabhängig sind?)

@Vercassivelaunos:
Eventuell, sollten wir die Notation "<.;.>" vermeiden, denn die hier definierte Bilinearform ist ja kein Skalarprodukt.  

Jetzt bin ich total verwirrt... Wenn <,> nicht das Skalarprodukt ist, weiß ich nicht, wie es berechnet wird... Wie soll das dann funktionieren?

Ja die EW sind pos. Wären sie es nicht, weiß ich, wie man die l. Abhängigkeit prüft. Aber wie soll man denn nun v2 berechnen? Ich habe es nach Wikipedia gemacht, wie oben schon gezeigt.


Und ok, ich sehe, dass ich "0" für orthogonal brauche - macht Sinn. Heißt das, man könnte immer mit dem Standardvektor
1
0
anfangen? Und woher weiß ich, wie ich den 2. Vektor wähle? Muss er einfach "nur" so sein, dass die besagte 0 rauskommt? Kann man da beliebige Vektoren wählen?


Jetzt fehlt mir "nur noch" das Verständnis für die Berechnung von <,>. Ich weiß nur, wie ich das Skalarprodukt berechne. Und das wurde ja auch bei Wiki so gemacht?



  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 375
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.13, eingetragen 2019-04-24 22:26

\(\begingroup\)\(\newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\span}{\operatorname{span}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align*}#1\end{align*}}\)
Ich benutze die Notation $\left<\cdot,\cdot\right>$, weil sie im Gram-Schmidt-Verfahren eigentlich immer so auftaucht, und es hier um dieses Verfahren geht. Greyfox hat aber natürlich Recht, dass das eigentlich unschön ist, weil man die Notation gewöhnlich nur für Skalarprodukte verwendet. Hier geht es nicht um ein Skalarprodukt (insbesondere nicht um das Standardskalarprodukt), sondern um die durch $A$ definierte Bilinearform.

Also: Für unsere Bedürfnisse heißt das: $\left<v,w\right>$ ist definiert als $v^T Aw$. $A$ ist deine gegebene Matrix. Das ist die durch $A$ definierte Bilinearform. Du kannst das ja mal für ein paar Beispielvektoren berechnen, um ein Gefühl dafür zu bekommen: Was kommt zum Beispiel für $v=(1,0)$ und $w=(0,1)$ heraus?

So, wenn du ein Gefühl dafür hast, wie man mit dieser Bilinearform rechnet, wählst du eine Basis (völlig beliebig), die du orthogonalisieren willst. Da die Basis völlig beliebig ist (Hauptsache es ist wirklich eine Basis), bietet sich die Standardbasis an. Also wählst du als Ausgangsvektoren $(1,0)$ und $(0,1)$.
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
Greyfox
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 12.08.2003
Mitteilungen: 304
Aus: Berlin
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.14, eingetragen 2019-04-24 22:31


fed-Code einblenden

[Die Antwort wurde nach Beitrag No.12 begonnen.]



  Profil  Quote  Link auf diesen Beitrag Link
lisalu
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 28.02.2019
Mitteilungen: 84
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.15, vom Themenstarter, eingetragen 2019-04-25 11:12


2019-04-24 22:31 - Greyfox in Beitrag No. 14 schreibt:
fed-Code einblenden

[Die Antwort wurde nach Beitrag No.12 begonnen.]

Vielen Dank für die ausführliche und tolle Erklärung! Diesen Weg habe ich nun sehr gut verstanden! :)

Mir wäre es nun noch lieb, den "allgemeinen Weg" mit Gram Schmidt zu verstehen. Mir würde auch hier ein Beispiel am Besten helfen.



  Profil  Quote  Link auf diesen Beitrag Link
lisalu
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 28.02.2019
Mitteilungen: 84
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.16, vom Themenstarter, eingetragen 2019-04-25 11:35


2019-04-25 11:12 - lisalu in Beitrag No. 15 schreibt:
2019-04-24 22:31 - Greyfox in Beitrag No. 14 schreibt:
fed-Code einblenden

[Die Antwort wurde nach Beitrag No.12 begonnen.]

Vielen Dank für die ausführliche und tolle Erklärung! Diesen Weg habe ich nun sehr gut verstanden! :)

Mir wäre es nun noch lieb, den "allgemeinen Weg" mit Gram Schmidt zu verstehen. Mir würde auch hier ein Beispiel am Besten helfen.

Hierzu mal das, was ich meine verstanden zu haben:
1. Wähle beliebige Basis (z.B. Standartbasis)
2. berechne v2 nach folgendem Schema:

sei w1= fed-Code einblenden
und w2= fed-Code einblenden


Dann ist v1=w1 und
v2= w2 - (<v1,w2>)/(<v1,v1>) * v1

wobei <,> nicht das Skalar, sondern die Bilinearform ist. Damit wäre
<v1,w2> = fed-Code einblenden fed-Code einblenden
und analog <v1,v1>=1


damit ist v2= fed-Code einblenden
3. Orthogonalbasis besteht dann aus v1 und v2



  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 375
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.17, eingetragen 2019-04-25 12:37

\(\begingroup\)\(\newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\span}{\operatorname{span}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align*}#1\end{align*}}\)
Das ist richtig. Du kannst dich auch selbst davon überzeugen, dass die beiden Vektoren auch wirklich orthogonal sind, indem du $v_1^TAv_2$ berechnest.
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
lisalu
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 28.02.2019
Mitteilungen: 84
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.18, vom Themenstarter, eingetragen 2019-04-25 12:48

\(\begingroup\)\( \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align}#1\end{align}}\)
2019-04-25 12:37 - Vercassivelaunos in Beitrag No. 17 schreibt:
Das ist richtig. Du kannst dich auch selbst davon überzeugen, dass die beiden Vektoren auch wirklich orthogonal sind, indem du $v_1^TAv_2$ berechnest.

In Ordnung, dann sollte ich es nun verstanden haben. Vielen Dank für eure Geduld und Hilfe!
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
Greyfox
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 12.08.2003
Mitteilungen: 304
Aus: Berlin
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.19, eingetragen 2019-04-25 22:54


Super, dass wir Dir helfen konnten.

Bitte beachte nich zwei Dinge:

1)
Die Eigenwerte der Matrix sind 2 und 0. Schau nochmal, dass Du die richtig Berechnen kannst.

2)
Wenn Du zufrieden bist mit den Antworten findest Du unterhalb des Eingabefensters für eine Nachricht bei Optionen die Möglichkeit das Thema als beendet zu markieren. Dann erscheint im Forum ein kleines Häkchen und alle wissen Bescheid, dass Du versorgt bist.

Beste Grüße
Greyfox



  Profil  Quote  Link auf diesen Beitrag Link
lisalu hat die Antworten auf ihre/seine Frage gesehen.
lisalu hat selbst das Ok-Häkchen gesetzt.
Neues Thema [Neues Thema]  Druckversion [Druckversion]

 


Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2019 by Matroids Matheplanet
This web site was made with PHP-Nuke, a web portal system written in PHP. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]