|
Autor |
Abbildungsmatrix einer anderen Basis bestimmen |
|
MasterWizz
Aktiv  Dabei seit: 24.10.2018 Mitteilungen: 179
 | Themenstart: 2023-09-29
|
Hi Leute,
ich brauche mal wieder eure Hilfe. Gegeben ist der Vektorraum $V:=L(\sin,\cos)\subset C^0([0,\pi/2],\mathbb{R})$ mit der geordneten Basis $B:=\{\sin,\cos\}$ und der symmetrischen Bilinearform
$$\beta:V\times V\rightarrow\mathbb{R},\quad \beta(f,g):=\int\limits_{0}^{\frac{\pi}{2}}\!f(x)g(x)\,\mathrm{d}x.$$
Für die Abbildungsmatrix $M_B(\beta)$ habe ich ausgerechnet
$$M_B(\beta)=\begin{pmatrix}\beta(\sin(x),\sin(x)) & \beta(\sin(x),\cos(x))\\ \beta(\cos(x),\sin(x)) & \beta(\cos(x),\cos(x))\end{pmatrix} = \frac{1}{4}\cdot \begin{pmatrix}\pi & 2\\ 2 & \pi\end{pmatrix}.$$
Die Frage ist jetzt nach der Abbildungsmatrix der Basis $B':=\{\sin+\cos,\sin-\cos\}$ und zwar mit Hilfe des Transformationssatzes!
Dafür habe ich die Transformationsmatrizen $T_{B'\rightarrow B}=\begin{pmatrix}1&1\\1&-1\end{pmatrix}$ und $T_{B\rightarrow B'}=\frac{1}{2}\begin{pmatrix}1&1\\1&-1\end{pmatrix}$ bestimmt und die Abbildungsmatrix
$$M_{B'}(\beta)=T_{B\rightarrow B'}\cdot M_B(\beta)\cdot T_{B'\rightarrow B} = \frac{1}{2}\begin{pmatrix}\frac{\pi}{2}+1 & 0\\ 0 & -1+\frac{\pi}{2}\end{pmatrix}$$
erhalten. Allerdings bin ich beim direkten Nachrechnen über die Integrale drauf gekommen, dass hier der Vorfaktor $\frac12$ falsch ist. Und ich erkenne einfach nicht wo genau mein Fehler ist...
|
Profil
|
zippy
Senior  Dabei seit: 24.10.2018 Mitteilungen: 5147
 | Beitrag No.1, eingetragen 2023-09-29
|
Eine Matrix, die eine Bilinearform in einer bestimmten Basis beschreibt, ist keine Abbildungsmatrix und transformiert sich aus diesem Grunde auch anders.
--zippy
|
Profil
|
MasterWizz
Aktiv  Dabei seit: 24.10.2018 Mitteilungen: 179
 | Beitrag No.2, vom Themenstarter, eingetragen 2023-09-29
|
\quoteon(2023-09-29 13:56 - zippy in Beitrag No. 1)
Eine Matrix, die eine Bilinearform in einer bestimmten Basis beschreibt, ist keine Abbildungsmatrix und transformiert sich aus diesem Grunde auch anders.
--zippy
\quoteoff
Wie genau sieht dann hier die richtige Transformation aus? Ist es Zufall, dass sich die Ergebnisse nur in dem Vorfaktor unterscheiden?
|
Profil
|
zippy
Senior  Dabei seit: 24.10.2018 Mitteilungen: 5147
 | Beitrag No.3, eingetragen 2023-09-29
|
\quoteon(2023-09-29 14:03 - MasterWizz in Beitrag No. 2)
Wie genau sieht dann hier die richtige Transformation aus?
\quoteoff
In einer Basis $B=(b_1,\ldots,b_n)$ hast du die Matrix $M_B$ mit $
(M_B)_{ij} = \beta(b_i,b_j)$.
Für eine Basis $B'=(b'_1,\ldots,b'_n)$ mit$$
b'_i=\sum_{j=1}^n t_{ji}\,b_j
$$hast du die Matrix $M_{B'}$ mit$$
(M_{B'})_{ij} = \beta(b'_i,b'_j) =
\sum_{r=1}^n t_{ri}\sum_{s=1}^n t_{sj}\;\beta(b_r,b_s) =
\sum_{r=1}^n t_{ri}\sum_{s=1}^n t_{sj}\;(M_B)_{rs} \;. $$Es ist also $
M_{B'} = T^TM_B\,T$ mit $T=(t_{ij})$.
Im Gegensatz dazu würde sich eine Abbildungsmatrix nach $
A_{B'} = T^{-1}A_B\,T$ transformieren.
|
Profil
|
MasterWizz
Aktiv  Dabei seit: 24.10.2018 Mitteilungen: 179
 | Beitrag No.4, vom Themenstarter, eingetragen 2023-09-29
|
Ok das hat mich verwirrt! In beiden Fällen geht es um darstellende Matrizen. Aber im Fall von Bilinearformen wird nicht die Transformationsmatrix nicht invertiert, sondern transponiert.
Ich komme allerdings beim Verständnis deiner Herleitung ein wenig mit den Indizies durcheinander. Mit
$$b_{i}'=\sum\limits_{j=1}^n t_{ji} b_j$$
meinst du die $i$-te Komponente des Vektors $b'_i$, richtig? Darunter nutzt du die Schreibweise für den gesamten Vektor. Die Idee hinter dem Beweis versteh ich, kriege es aber selbst nicht ordentlich aufgeschrieben. Und was genau ist bei den darstellenden Matrizen für Abbildungen anders, weshalb dort dann die Inverse der Transformationsmatrix vorkommt?
|
Profil
|
zippy
Senior  Dabei seit: 24.10.2018 Mitteilungen: 5147
 | Beitrag No.5, eingetragen 2023-09-29
|
\quoteon(2023-09-29 17:27 - MasterWizz in Beitrag No. 4)
Mit $b_{i}'=\sum\limits_{j=1}^n t_{ji} b_j$ meinst du die $i$-te Komponente des Vektors $b'_i$, richtig?
\quoteoff
Nein, diese Formel sagt, wie man den Vektor $b'_i$ als Linearkombination der Vektoren $b_j$ schreibt.
\quoteon(2023-09-29 17:27 - MasterWizz in Beitrag No. 4)
Und was genau ist bei den darstellenden Matrizen für Abbildungen anders, weshalb dort dann die Inverse der Transformationsmatrix vorkommt?
\quoteoff
Der Zusammenhang zwischen linearen Abbildungen und Bilinearformen ist, dass man eine linearen Abbildung $V\to V$ als Bilinearform auf $V^*\times V$ auffassen kann, wobei $V^*$ der Dualraum zu $V$ ist. Und eine Basistransformation in $V$ mit der Transformationsmatrix $T$ führt zu einer Transformation der dualen Basis in $V^*$ mit der der kontragredienten Transformationsmatrix $T^{-T}=\bigl({T^T}\bigr)^{-1}
=\bigl({T^{-1}}\bigr)^T$.
|
Profil
|
MasterWizz
Aktiv  Dabei seit: 24.10.2018 Mitteilungen: 179
 | Beitrag No.6, vom Themenstarter, eingetragen 2023-09-30
|
Ok vielen lieben Dank mal wieder! Das muss ich noch mal in Ruhe überdenken. Da hab ich wohl ein paar mehr Wissenslücken als gehofft. Und tut mir Leid für die späte Antwort, momentan gehts bei mir drunter und drüber. Du hast mir aber schon jetzt einiges an Arbeit abgenommen danke! :)
|
Profil
|
MasterWizz hat die Antworten auf ihre/seine Frage gesehen. MasterWizz hat selbst das Ok-Häkchen gesetzt. |
|
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2023 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen. Lesen Sie die
Nutzungsbedingungen,
die Distanzierung,
die Datenschutzerklärung und das Impressum.
[Seitenanfang]
|