Die Mathe-Redaktion - 18.08.2019 01:24 - Registrieren/Login
Auswahl
ListenpunktHome
ListenpunktAktuell und Interessant ai
ListenpunktArtikelübersicht/-suche
ListenpunktAlle Links / Mathe-Links
ListenpunktFach- & Sachbücher
ListenpunktMitglieder / Karte / Top 15
ListenpunktRegistrieren/Login
ListenpunktArbeitsgruppen
Listenpunkt? im neuen Schwätz
ListenpunktWerde Mathe-Millionär!
ListenpunktAnmeldung MPCT Sept.
ListenpunktFormeleditor fedgeo
Schwarzes Brett
Aktion im Forum
Suche
Stichwortsuche in Artikeln und Links von Matheplanet
Suchen im Forum
Suchtipps

Bücher
Englische Bücher
Software
Suchbegriffe:
Mathematik bei amazon
Naturwissenschaft & Technik
In Partnerschaft mit Amazon.de
Kontakt
Mail an Matroid
[Keine Übungsaufgaben!]
Impressum

Bitte beachten Sie unsere Nutzungsbedingungen, die Distanzierung, unsere Datenschutzerklärung und
die Forumregeln.

Sie können Mitglied werden. Mitglieder können den Matheplanet-Newsletter bestellen, der etwa alle 2 Monate erscheint.

Der Newsletter Okt. 2017

Für Mitglieder
Mathematisch für Anfänger
Wer ist Online
Aktuell sind 334 Gäste und 10 Mitglieder online.

Sie können Mitglied werden:
Klick hier.

Über Matheplanet
 
Zum letzten Themenfilter: Themenfilter:
Matroids Matheplanet Forum Index
Moderiert von Dixon Orangenschale
Physik » Atom-, Kern-, Quantenphysik » Operatoren, Eigenbasis, Kommutator, explizite Rechnungen
Druckversion
Druckversion
Antworten
Antworten
Autor
Universität/Hochschule Operatoren, Eigenbasis, Kommutator, explizite Rechnungen
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 437
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Themenstart: 2019-07-21 21:24


Hallo alle zusammen,

ich hätte eine Frage zur Aufgabe 9.2 hier, vor allem ab d).

ad (e). Ich habe jetzt folgende Matrix raus: \[\hat L_z \overset{\circ}{=} \begin{pmatrix} 1 & 0 & 0 \\ 0 & 0 & 0 \\ 0 & 0 & -1 \end{pmatrix},\] das $\circ$ über dem Gleichheitszeichen soll ,,wird repräsentiert durch" bedeuten.

So, aber $\hat L_z^2$ wird in der ONB dann aber durch dieselbe Matrix dargestellt, oder? Weil ich dann noch nicht ganz vertehe, warum (f) Sinn ergibt, denn bei mir kommutieren die Operatoren $\hat L_z^2$ und $\hat S$ nicht, wenn deren Kommutator dann einfach $[\hat L_z, \hat S] = L_z \cdot S - S \cdot L_z$ ist (damit meine ich dann aber hier die Matrizenmultiplikation).

Danke im Voraus.

Beste Grüße,
Neymar



  Profil  Quote  Link auf diesen Beitrag Link
zippy
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 24.10.2018
Mitteilungen: 574
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.1, eingetragen 2019-07-21 21:44


2019-07-21 21:24 - Neymar im Themenstart schreibt:
So, aber $\hat L_z^2$ wird in der ONB dann aber durch dieselbe Matrix dargestellt, oder?

Nein, denn $(-1)^2=1\ne-1$.



  Profil  Quote  Link auf diesen Beitrag Link
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 437
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.2, vom Themenstarter, eingetragen 2019-07-22 09:12


Morgen zippy,

ähm, ja, da hast du natürlich Recht. Damit erhalte ich für den Kommutator \[ \left[\hat L^2_z, \hat S \right] = 0.\]
ad (f). Ich hatte mich im letzten Post verschrieben, ich hatte dort (d) gemeint.  Ich weiß nicht, ob ich für (f) die Aufgabe (e) brauche - ich habe (e) nicht gemacht - aber auf jeden Fall weiß ich nicht, wie man die Eigenbasis bestimmt. Wie ist diese denn überhaupt definiert, als die Menge aller Eigenzustände von $\hat L^2_z$ und $\hat S$? Denn die gibt es ja hier nicht.

// Edit: Ist das hier die Definition (also Folie)? Die Menge der Eigenvektoren, die eine Basis von $\mathbb{R}^n$ bzw. $\mathbb{C}^n$ bildet, wenn man eine $n \times n$-Matrix gegeben hat?


Gruß,
Neymar



  Profil  Quote  Link auf diesen Beitrag Link
zippy
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 24.10.2018
Mitteilungen: 574
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.3, eingetragen 2019-07-22 09:42


2019-07-22 09:12 - Neymar in Beitrag No. 2 schreibt:
Wie ist diese denn überhaupt definiert, als die Menge aller Eigenzustände von $\hat L^2_z$ und $\hat S$?

Die ist definiert als eine Basis aus Zuständen, die sowohl Eigenzustände von $\hat L^2_z$ als auch von $\hat S$ sind.

Als einen dieser Basisvektoren kannst du offensichtlich $|2\rangle$ wählen. Die anderen beiden musst du ausrechnen, indem du in dem zweidimensionalen Eigenraum von $\hat L^2_z$ zum Eigenwert $1$ den Operator $\hat S$ diagonalisierst.



  Profil  Quote  Link auf diesen Beitrag Link
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 437
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.4, vom Themenstarter, eingetragen 2019-07-22 10:10


Die ist definiert als eine Basis aus Zuständen, die sowohl Eigenzustände von $\hat L^2_z$ als auch von $\hat S$ sind.

Als einen dieser Basisvektoren kannst du offensichtlich $|2\rangle$ wählen.

$>$ Also ist es kein Problem, dass $|2\rangle$ EZ von $\hat L^2_z$ zum Eigenwert $0$ ist und EZ von $\hat S$ zum Eigenwert $1$?

Die anderen beiden musst du ausrechnen, indem du in dem zweidimensionalen Eigenraum von $\hat L^2_z$ zum Eigenwert $1$ den Operator $\hat S$ diagonalisierst.

$>$ Wie macht man das denn? Also $\hat S$ kann ja diagonalisiert werden, aber wie soll das denn im 2D-Eigenraum von $\hat L^2_z$ gehen?  

Der zwei-dimensionale Eigenraum von $\hat L^2_z$ lautet bei mir $\{ t \cdot (1, 0, 0) + s \cdot (0, 0, 1) \}$.






  Profil  Quote  Link auf diesen Beitrag Link
zippy
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 24.10.2018
Mitteilungen: 574
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.5, eingetragen 2019-07-22 10:23


2019-07-22 10:10 - Neymar in Beitrag No. 4 schreibt:
$>$ Also ist es kein Problem, dass $|2\rangle$ EZ von $\hat L^2_z$ zum Eigenwert $0$ ist und EZ von $\hat S$ zum Eigenwert $1$?

Nein. Es kommt nur darauf an, dass der Zustand für beide Operatoren ein Eigenzustand ist. Die Eigenwerte müssen nicht dieselben sein.

2019-07-22 10:10 - Neymar in Beitrag No. 4 schreibt:
$>$ Wie macht man das denn? Also $\hat S$ kann ja diagonalisiert werden, aber wie soll das denn im 2D-Eigenraum von $\hat L^2_z$ gehen?  

$\hat S$ lässt diesen Eigenraum invariant (d.h. $\hat S$ bildet Elemente dieses Eigenraums wieder auf Elemente dieses Eigenraums ab). Also kannst du erstmal die Einschränkung von $\hat S$ auf diesen Eigenraum in der Basis $(|1\rangle,|3\rangle)$ als $2\times2$-Matrix hinschreiben und dann wie gewohnt diagonalisieren.



  Profil  Quote  Link auf diesen Beitrag Link
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 437
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.6, vom Themenstarter, eingetragen 2019-07-22 11:13


Also vermutlich muss dann die Matrix \[ \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix} \] diagonalisiert werden.

Aber nehmen wir mal an, dass \[ \hat S \overset{\circ}{=} \begin{pmatrix} a & b & c \\ d & e &  f \\ g & h & i
 \end{pmatrix} \] gegeben wäre. Wie würde dann die zu diagonalisierende $2 \times 2$-Matrix aussehen? Ich würde das mal gerne allgemein sehen.
$\hat S$ lässt diesen Eigenraum invariant (d.h. $\hat S$ bildet Elemente dieses Eigenraums wieder auf Elemente dieses Eigenraums ab). Also kannst du erstmal die Einschränkung von $\hat S$ auf diesen Eigenraum in der Basis $(|1\rangle,|3\rangle)$ als $2\times2$-Matrix hinschreiben und dann wie gewohnt diagonalisieren.
Ich wüsste nämlich noch nicht so ganz, wie die Einschränkung von $\hat S$ auf den Eigenraum $\{ t \cdot (1, 0, 0) + s \cdot (0, 0, 1) \}$ aussehen würde.


Gruß,
Neymar



  Profil  Quote  Link auf diesen Beitrag Link
zippy
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 24.10.2018
Mitteilungen: 574
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.7, eingetragen 2019-07-22 11:37


2019-07-22 11:13 - Neymar in Beitrag No. 6 schreibt:
Aber nehmen wir mal an, dass \[ \hat S \overset{\circ}{=} \begin{pmatrix} a & b & c \\ d & e &  f \\ g & h & i
 \end{pmatrix} \] gegeben wäre.

Dann müssten ein paar Zahlen $=0$ sein, weil wir ja wissen, dass $\hat S$ mit $\hat L_z^2$ vertauscht:$$\def\0{\color{red}0}
\hat S \overset{\circ}{=} \begin{pmatrix} a & \0 & c \\ \0 & e & \0 \\ g & \0 & i\end{pmatrix}
$$Die Einschränkung von $\hat S$ wäre dann die folgende $2\times2$-Matrix:$$
\begin{pmatrix} a & c \\ g & i\end{pmatrix}$$



  Profil  Quote  Link auf diesen Beitrag Link
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 437
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.8, vom Themenstarter, eingetragen 2019-07-22 14:13


Die Einschränkung von $\hat S$ wäre dann die folgende $2\times2$-Matrix:$$
\begin{pmatrix} a & c \\ g & i\end{pmatrix}$$
$>$ Warum ist das so? Wir haben ja als den Eigenraum $\{ t \cdot (1, 0, 0) + s \cdot (0, 0, 1)\}$ identifiziert.
Okay, die Diagonalisierung von $\hat S$ ergibt (Berechnung der Eigenwerte)
dann ja \[ \begin{pmatrix} 1 & 0 \\ 0 & -1\end{pmatrix}. \] Jetzt sind die Eigenvektoren dieser Matrix notwendig, oder?



  Profil  Quote  Link auf diesen Beitrag Link
zippy
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 24.10.2018
Mitteilungen: 574
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.9, eingetragen 2019-07-22 17:27


2019-07-22 14:13 - Neymar in Beitrag No. 8 schreibt:
$>$ Warum ist das so? Wir haben ja als den Eigenraum $\{ t \cdot (1, 0, 0) + s \cdot (0, 0, 1)\}$ identifiziert.

Dann nimm einfach die aus den beiden Vektoren $(1, 0, 0)^T$ und $(0, 0, 1)^T$ bestehende Basis und rechne nach, was $\hat S$ mit diesen Basisvektoren macht.

2019-07-22 14:13 - Neymar in Beitrag No. 8 schreibt:
Jetzt sind die Eigenvektoren dieser Matrix notwendig, oder?

Nicht die Eigenvektoren dieser Matrix, sondern die der noch nicht diagonalisierten.



  Profil  Quote  Link auf diesen Beitrag Link
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 437
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.10, vom Themenstarter, eingetragen 2019-07-22 18:21


Nicht die Eigenvektoren dieser Matrix, sondern die der noch nicht diagonalisierten.

$>$ Meinst du die von von $S$ ? Eigenwerte von $S$: $\lambda_{1,2} = \pm 1$. Eigenvektoren von $S$: \[\left\{ a \cdot  \begin{pmatrix} 1 \\ 0 \\ 1\end{pmatrix} + b \cdot \begin{pmatrix}  0 \\1 \\ 0\end{pmatrix} \right\} \quad \text{bzw.} \quad \left\{ a \cdot  \begin{pmatrix} 1 \\ 0 \\ -1\end{pmatrix} + b \cdot \begin{pmatrix}  0 \\1 \\ 0\end{pmatrix} \right\} \] Wie kann man jetzt weitermachen?




  Profil  Quote  Link auf diesen Beitrag Link
zippy
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 24.10.2018
Mitteilungen: 574
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.11, eingetragen 2019-07-23 08:23


2019-07-22 18:21 - Neymar in Beitrag No. 10 schreibt:
$>$ Meinst du die von von $S$ ?

Nein, ich meine die von der $2\times2$-Matrix am Ende von Beitrag Nr. 8.

2019-07-22 18:21 - Neymar in Beitrag No. 10 schreibt:
Wie kann man jetzt weitermachen?

Die Eigenvektoren dieser Matrix (sinnvollerweise hingeschrieben als Linearkombinationen von $|1\rangle$ und $|3\rangle$) bilden dann zusammen mit $|2\rangle$ die gesuchte Basis.



  Profil  Quote  Link auf diesen Beitrag Link
Neymar
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 03.01.2019
Mitteilungen: 437
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.12, vom Themenstarter, eingetragen 2019-07-23 09:18


Da ich mir nicht ganz sicher war, ob du die Matrix \[ \begin{pmatrix} 1 & 0 \\ 0 & -1\end{pmatrix} \quad \text{bzw.} \begin{pmatrix} 0 & 1 \\ 1 & 0 \end{pmatrix}  \] meinst, deshalb Eigenvektoren von beiden Matrizen:

\(\underline{\text{ad Matrix 1.}}\)
\[ a_0^{(1)} = \begin{pmatrix} 1 \\ 0 \end{pmatrix}, \quad a_0^{(2)} =  \begin{pmatrix} 0 \\ 1 \end{pmatrix}  \]
\(\underline{\text{ad Matrix 2.}}\)
\[ a_0^{(1)} = \sqrt{\frac{1}{2}} \begin{pmatrix} 1 \\ 1 \end{pmatrix}, \quad a_0^{(2)} = \sqrt{\frac{1}{2}} \begin{pmatrix} 1 \\ -1 \end{pmatrix}  \]
Ich gehe mal davon aus, dass \[|1\rangle \overset{\circ}{=} \begin{pmatrix} 1 \\ 0 \\ 0 \end{pmatrix} \] etc.

Die Frage, die sich mir dann noch stellt, ist, wie wir die 2D-Eigenvektoren als Linearkombination von $|1\rangle$ und $|3\rangle$ darstellen können. Wo fügen wir dann zu den 2D-Vektoren eine Null hinzu?



  Profil  Quote  Link auf diesen Beitrag Link
Folgende Antworten hat der Fragesteller vermutlich noch nicht gesehen.
zippy
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 24.10.2018
Mitteilungen: 574
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.13, eingetragen 2019-07-23 19:58


Gemeint war Matrix 2 (die noch nicht diagonalisierte).

2019-07-23 09:18 - Neymar in Beitrag No. 12 schreibt:
Die Frage, die sich mir dann noch stellt, ist, wie wir die 2D-Eigenvektoren als Linearkombination von $|1\rangle$ und $|3\rangle$ darstellen können. Wo fügen wir dann zu den 2D-Vektoren eine Null hinzu?

Du tust dir keinen Gefallen, wenn du $|1\rangle$ und $|3\rangle$ mit Vektoren in $\mathbb C^3$ identifizierst. Du solltest dir vielmehr klarmachen, dass alle hier vorkommenden Matrizen Darstellungen von Operatoren in irgendeiner Basis sind. Die $3\times3$-Matrizen in der Basis $|1\rangle$, $|2\rangle$, $|3\rangle$ und die $2\times2$-Matrizen in der Basis $|1\rangle$, $|3\rangle$.

Wenn du nun feststellst, dass $\sqrt{\frac{1}{2}} \begin{pmatrix} 1 \\ 1 \end{pmatrix}$ ein Eigenvektor einer $2\times2$-Matrix ist, bedeutet das, dass $\sqrt{\frac{1}{2}}\Bigl[|1\rangle+|3\rangle\Bigr]$ Eigenvektor des durch diese Matrix dargestellten Operators ist. Dafür musst du nirgendwo "Nullen hinzufügen".



  Profil  Quote  Link auf diesen Beitrag Link
Neues Thema [Neues Thema] Antworten [Antworten]    Druckversion [Druckversion]

 


Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2019 by Matroids Matheplanet
This web site was made with PHP-Nuke, a web portal system written in PHP. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]