Mathematik: Wie Differentialformen alles schöner und einfacher machen
Released by matroid on So. 27. November 2022 13:20:12 [Statistics]
Written by nzimme10 - 1102 x read [Outline] Printable version Printer-friendly version -  Choose language   
Analysis

\(\begingroup\)\(\renewcommand{\i}{\mathrm{i}} \renewcommand{\Re}{\operatorname{Re}} \renewcommand{\Im}{\operatorname{Im}} \newcommand{\e}{\mathrm{e}} \renewcommand{\d}{\mathrm{d}} \renewcommand{\dd}{\ \mathrm d} \newcommand{\ddz}{\frac{\mathrm{d}}{\mathrm{d}z}} \newcommand{\ddw}{\frac{\mathrm{d}}{\mathrm{d}w}} \newcommand{\ddt}{\frac{\mathrm{d}}{\mathrm{d}t}} \newcommand{\opn}{\operatorname} \renewcommand{\vec}[3]{\begin{pmatrix} #1 \\ #2\\ #3\end{pmatrix}} \newcommand{\rot}{\opn{rot}} \newcommand{\div}{\opn{div}}\)

Wie Differentialformen alles schöner und einfacher machen

Wir schreiben das Jahr 2022. Man findet im Internet einen alten Artikel des Mathematikers Jean Dieudonné und liest von einer "Perversion der schönsten Ideen von Graßmann". Tristan Needham spricht in seinem exzellenten Buch "Visual Differential Geometry and Forms" von einem jahrhundertlangen "Skandal" ohne Aussicht auf Besserung. Was wohl passiert sein mag? Konkret geht es sowohl Dieudonné als auch Needham um die Vektoranalysis im $\mathbb R^3$. Der "Skandal" dabei ist, dass es spätestens seit dem Jahre 1940 eine schönere, wesentlich allgemeinere und oftmals sehr viel einfachere Theorie gibt: die Differentialgeometrie mit Élie Cartan's Differentialformen. Dennoch arbeiten viele (vor allem) Physiker auch heute noch regelmäßig mit der "Perversion, die die Vektoranalysis ist". Der noch verrücktere "Skandal" ist, dass viele Physikstudenten und auch Mathematikstudenten im Laufe ihres Studiums manchmal gar keinen und oft nur sehr wenig Kontakt mit Differentialformen haben. (Zumindest ist das die Erfahrung, die ich regelmäßig mache.) Dieser Artikel möchte einen Beitrag dazu leisten, das zu ändern. Wir betrachten die schöne und einfache Theorie der Differentialformen auf dem $\mathbb R^n$ und zeigen, warum diese Theorie alles schöner und einfacher macht. Zum Abschluss demonstrieren wir diese Behauptung auch an den Maxwell-Gleichungen der Elektrodynamik. Dieser Artikel richtet sich in erster Linie an Physikstudenten.

Themenübersicht

$\bullet$ Der Vektorraum $\mathbb R^n$ vs. die Mannigfaltigkeit $\mathbb R^n$     $\bullet$ Einige wichtige Grundbegriffe     $\bullet$ Der abstrakte Tangentialraum $\bullet$ Differentialformen auf $\mathbb R^n$     $\bullet$ 1-Formen     $\bullet$ 2-Formen     $\bullet$ k-Formen     $\bullet$ Die äußere Algebra der Differentialformen $\bullet$ Die Cartan-Ableitung     $\bullet$ Die Cartan-Ableitung für 1-Formen     $\bullet$ Die Cartan-Ableitung für k-Formen     $\bullet$ Geschlossene und exakte Formen     $\bullet$ Ausblick: de Rham Kohomologie $\bullet$ Anwendung: Die Maxwell-Gleichungen der Elektrodynamik     $\bullet$ Vektoranalysis mit Differentialformen     $\bullet$ Das Setting der Elektrodynamik     $\bullet$ Die Maxwell-Gleichungen $\bullet$ Abschließende Bemerkungen Für das Verständnis dieses Artikels kann es von Vorteil sein, wenn man bereits den Artikel LinkTensoren und Tensorfelder in der Differentialgeometrie gelesen hat. Letzteres ist aber kein Muss.

Der Vektorraum $\mathbb R^n$ vs. die Mannigfaltigkeit $\mathbb R^n$

Bevor wir unser Abenteuer beginnen können, müssen wir uns über eine unglückliche Tatsache bewusst werden. Wir sind es gewohnt uns den $\mathbb R^n$ als Vektorraum vorzustellen mit all den zusätzlichen Strukturen, die es sonst noch gibt: eine Norm, eine Metrik, ein Skalarprodukt, eine Topologie etc. Wir müssen das vergessen. Zunächst ist $\mathbb R^n$ eine bloße Menge, bestehend aus $n$-Tupeln reeller Zahlen $(x_1,\dots,x_n)$. Nicht mehr und nicht weniger. Wir können diese Punktmenge $\mathbb R^n$ dann auf die übliche Weise zu einem $n$-dimensionalen $\mathbb R$-Vektorraum machen. Für die Analysis brauchen wir das aber zunächst gar nicht. Wir betrachten eigentlich zunächst die Mannigfaltigkeit $\mathbb R^n$, d.h. die Menge $\mathbb R^n$ versehen mit der euklidischen Topologie und dem maximalen glatten Atlas, der von der Karte $(\mathbb R^n,\opn{id}_{\mathbb R^n})$ erzeugt wird. Die Elemente der Mannigfaltigkeit $\mathbb R^n$ sind nach wie vor $n$-Tupel reeller Zahlen und keine Vektoren (im Sinne der Differentialgeometrie). Weiter haben wir darauf keine Rechenoperationen oder dergleichen. Wie bei jeder glatten Mannigfaltigkeit haben wir aber für jedes $p\in \mathbb R^n$ den Tangentialraum $T_p\mathbb R^n$. Da $T_p\mathbb R^n$ ebenfalls die Dimension $n$ hat, haben wir $T_p\mathbb R^n\cong \mathbb R^n$ (also der Vektorraum $\mathbb R^n$) für jedes $p\in \mathbb R^n$. Wir haben also an jedem Punkt $p\in \mathbb R^n$ einen eigenen Vektorraum $T_p\mathbb R^n$, der zum Vektorraum $\mathbb R^n$ isomorph ist. Bildlich gesprochen sind die Vektoren in $T_p\mathbb R^n$ die Vektoren (als Pfeile gedacht), die am Punkt $p$ starten. Der (mehr oder weniger) Zufall $T_p\mathbb R^n\cong \mathbb R^n$ ist dafür verantwortlich, dass man diese Unterscheidung häufig nicht vornimmt - bei allgemeineren glatten Mannigfaltigkeiten ist diese Unterscheidung aber sehr wichtig und es hilft daher, bereits bei $\mathbb R^n$ darauf zu achten. Wenn wir betonen wollen, dass wir es mit einem Vektor in $T_p\mathbb R^n$ zu tun haben, dann schreiben wir den Basispunkt $p$ manchmal als Index, i.e. $v_p$ für einen Vektor $v_p\in T_p\mathbb R^n$. Wenn in diesem Artikel von $\mathbb R^n$ die Rede ist, dann meinen wir die Mannigfaltigkeit - Vektoren leben in den Tangentialräumen.

Einige wichtige Grundbegriffe

Wir wollen in diesem Artikel zwar fast ausschließlich auf dem $\mathbb R^n$ bleiben, aber dennoch direkt die Begriffe der Differentialgeometrie verwenden, weil das den Übergang zu allgemeineren Mannigfaltigkeiten einfacher macht. Wir vereinbaren von nun an, dass wir die Punktmenge $\mathbb R^n$ mit der euklidischen Topologie versehen.
Definition. Eine Karte von $\mathbb R^n$ ist ein Paar $(U,\phi)$ bestehend aus einer offenen Menge $U\subseteq \mathbb R^n$ und einer Abbildung $\phi \colon U\to \mathbb R^n$, die ein Homöomorphismus auf ihr Bild $\phi(U)$ ist. D.h. $\phi\colon U\to \phi(U)$ ist bijektiv, stetig und $\phi^{-1}\colon \phi(U)\to U$ ist stetig. Ein Atlas von $\mathbb R^n$ ist eine Familie von Karten $(U_j,\phi_j)$ mit $\mathbb R^n=\bigcup_{j} U_j$.
Häufig schreiben wir $(U,x)$ für eine generische Karte (also $x$ anstatt $\phi$). Für $p\in U$ sind dann $x(p)=(x^1(p),x^2(p),\dots,x^n(p))$ die so genannten lokalen Koordinaten von $p$ bezüglich der Karte $(U,x)$. Dabei sind die Abbildungen $x^j\colon U\to \mathbb R$ die einzelnen Komponentenfunktionen der Kartenabbildung $x$. D.h. bezeichnet $\pi^j\colon \mathbb R^n\to \mathbb R, \ (v_1,\dots,v_n)\mapsto v_j$ die Projektion auf den $j$-ten Eintrag, dann ist $x^j:=\pi^j\circ x$. Wir schreiben dann oft auch $(U,x^1,\dots,x^n)$ anstatt $(U,x)$.
Beispiel. Es sei $x^j\colon \mathbb R^n\to \mathbb R$ die Projektion auf den $j$-ten Eintrag. Dann ist $(\mathbb R^n,x^1,\dots,x^n)=(\mathbb R^n,\opn{id}_{\mathbb R^n})$ eine Karte von $\mathbb R^n$. Die Funktionen $x^1,\dots,x^n$ sind gerade die kartesischen Koordinaten von $\mathbb R^n$.
Zwei Karten $(U,x)$ und $(V,y)$ von $\mathbb R^n$ mit $U\cap V\neq\emptyset$ heißen $C^\infty$-kompatibel, wenn die Kartenwechselabbildungen $$ \Psi_{UV}:=y\circ x^{-1}\colon x(U\cap V)\to y(U\cap V), \quad \Psi_{VU}:=x\circ y^{-1}\colon y(U\cap V)\to x(U\cap V) $$ $C^\infty$-Diffeomorphismen sind. D.h. $\Psi_{UV}$ ist bijektiv, unendlich oft differenzierbar (glatt) und $\Psi_{UV}^{-1}$ ist unendlich oft differenzierbar. Analog für $\Psi_{VU}$. Ein Atlas $\mathcal A$ von $\mathbb R^n$ heißt glatt, wenn alle Karten des Atlases untereinander $C^\infty$-kompatibel sind. Der glatte Atlas $\mathcal A$ heißt maximal, wenn es keinen glatten Atlas $\mathcal B$ mit $\mathcal A\subset \mathcal B$ gibt.
Satz und Definition. Ist $(U,x)$ eine Karte von $\mathbb R^n$, dann gibt es einen eindeutig bestimmten maximalen glatten Atlas $\mathcal A$ von $\mathbb R^n$, der die Karte $(U,x)$ enthält. Ein maximaler glatter Atlas von $\mathbb R^n$ heißt eine glatte bzw. $C^\infty$-Struktur auf $\mathbb R^n$. Die glatte Mannigfaltigkeit $\mathbb R^n$ ist für uns die Punktmenge $\mathbb R^n$ versehen mit der euklidischen Topologie und dem eindeutigen maximalen glatten Atlas, der die Karte $(\mathbb R^n,\opn{id}_{\mathbb R^n})$ enthält.

Der abstrakte Tangentialraum

Um die Unterscheidung zwischen dem Vektorraum $\mathbb R^n$ und der Mannigfaltigkeit $\mathbb R^n$ einfacher zu machen und um den konkreten Umgang mit Vektoren in diesem Kontext zu vereinfachen, wollen wir über die Tangentialräume etwas anders nachdenken. Man könnte sich den "konkreten" oben beschriebenen "geometrischen Tangentialraum" wie folgt vorstellen. Man betrachtet ein $p\in \mathbb R^n$ und eine glatte Kurve $\gamma\colon \mathbb R\to \mathbb R^n$ mit $\gamma(0)=p$. Der Vektor $\gamma'(0)$ wäre dann solch ein Tangentialvektor von $\mathbb R^n$ am Punkt $p$.
Definition. Es sei $p\in \mathbb R^n$ und $f\in C^\infty(\mathbb R^n)$ eine glatte Funktion. Für eine glatte Kurve $\gamma\colon \mathbb R\to \mathbb R^n$ mit $\gamma(0)=p$ definieren wir die Richtungsableitung von $f$ entlang $\gamma$ in $p$ durch $$ \nabla_{\gamma'(0)}f:=(f\circ \gamma)'(0). $$
Tatsächlich stellt sich heraus, dass diese Richtungsableitungen sehr schöne Eigenschaften haben. Für jede glatte Kurve $\gamma\colon \mathbb R\to \mathbb R^n$ mit $\gamma(0)=p$ haben wir mit obiger Definition einen Operator $$ X_{\gamma,p}\colon C^\infty(\mathbb R^n)\to \mathbb R, \ f\mapsto \nabla_{\gamma'(0)}f. $$
Satz. Die Menge $$ V_p:=\lbrace X_{\gamma,p} \colon C^\infty(\mathbb R^n)\to \mathbb R\mid \gamma\colon \mathbb R\to \mathbb R^n \text{ glatt}, \gamma(0)=p\rbrace $$ bildet mit den Verknüpfungen \[ \begin{align*} +&\colon V_p\times V_p\to V_p, \ (X_{\gamma_1,p},X_{\gamma_2,p})\mapsto X_{\gamma_1,p}+X_{\gamma_2,p} \\ \cdot&\colon \mathbb R\times V_p\to V_p, \ (\lambda,X_{\gamma,p})\mapsto \lambda\cdot X_{\gamma,p} \end{align*} \] einen $\mathbb R$-Vektorraum. Dabei sind $X_{\gamma_1,p}+X_{\gamma_2,p}$ die punktweise Addition von Abbildungen und $\lambda\cdot X_{\gamma,p}$ die punktweise Skalarmultiplikation von Abbildungen.
Damit die obige Definition sinnvoll ist muss man noch zeigen, dass es eine glatte Kurve $\delta$ mit $\delta(0)=p$ gibt, so dass $X_{\gamma_1,p}+X_{\gamma_2,p}=X_{\delta,p}$ gilt. Analog muss man das auch für die Skalarmultiplikation zeigen.
Definition. Es sei $(U,x^1,\dots,x^n)$ eine Karte von $\mathbb R^n$ mit $p\in U$. Dann definieren wir $$ \left(\frac{\partial}{\partial x^j}\right)_p\colon C^\infty(\mathbb R^n)\to \mathbb R, \ f\mapsto \left(\frac{\partial}{\partial x^j}\right)_pf := \frac{\partial f}{\partial x^j}(p):= \partial_j(f\circ x^{-1})(x(p)). $$ Dabei bezeichnet $\partial_j$ die gewöhnliche partielle Ableitung einer Funktion $\mathbb R^n\to \mathbb R$ nach dem $j$-ten Eintrag.
Man überlegt sich nun, dass die $n$ Abbildungen $\left(\frac{\partial}{\partial x^j}\right)_p$ eine Basis von $V_p$ bilden. Damit ist gezeigt, dass $V_p$ ein $n$-dimensionaler $\mathbb R$-Vektorraum ist. Diesen Vektorraum nennen wir von nun an den Tangentialraum von $\mathbb R^n$ in $p$ und schreiben $V_p=T_p\mathbb R^n$ dafür. Ein Tangentialvektor $X_{\gamma,p}$ ist also von nun an ein Operator, der angewendet auf eine glatte Funktion $f$ die Richtungsableitung von $f$ in $p$ entlang $\gamma$ liefert. Es besteht daher gar keine Verwechslungsgefahr mehr zwischen Punkten der Mannigfaltigkeit $\mathbb R^n$ und Vektoren in $T_p\mathbb R^n$.

Differentialformen auf $\mathbb R^n$

In diesem Kapitel beschäftigen wir uns mit den Differentialformen auf $\mathbb R^n$. Wir werden uns zunächst ansehen, was 1-Formen sind. Anschließend verallgemeinern wir unsere Erkenntnisse zu 2-Formen. Wenn wir das geschafft haben, dann liegt die Verallgemeinerung zu $k$-Formen bereits auf der Hand. Abschließend führen wir die so genannte äußere Algebra der Differentialformen ein, die die schöne algebraische Struktur der Differentialformen aufzeigt.

1-Formen

Wir bezeichnen mit $C^\infty(\mathbb R^n)$ die Menge aller glatten (i.e. unendlich oft differenzierbaren) Funktionen $f\colon \mathbb R^n\to \mathbb R$. Durch punktweise Addition und Multiplikation von Funktionen $$ (f+g)(p)=f(p)+g(p), \quad (fg)(p)=f(p)g(p) $$ bildet $C^\infty(\mathbb R^n)$ einen kommutativen Ring mit Eins.
Definition. Eine glatte Differentialform vom Grad 1 (kurz: eine glatte 1-Form) auf $\mathbb R^n$ ist ein glattes $(0,1)$-Tensorfeld $\omega\in \mathcal T^{0}_1(\mathbb R^n)$.
Die letzte Definition bedeutet im Prinzip einfach, dass wir für jedes $p\in \mathbb R^n$ eine $\mathbb R$-lineare Abbildung $\omega_p\colon T_p\mathbb R^n\to \mathbb R$ haben, die auf glatte Art und Weise vom Punkt $p$ abhängt. Wir schreiben, wie in der Literatur üblich, auch $\Omega^1(\mathbb R^n)$ für den $C^\infty(\mathbb R^n)$-Modul aller glatten 1-Formen, wobei die Addition von Formen und Multiplikation mit glatten Funktionen natürlich punktweise definiert ist. (Insbesondere ist $\Omega^1(\mathbb R^n)$ damit auf naheliegende Weise auch ein $\mathbb R$-Vektorraum).
Beispiel. Es sei $f\in C^\infty(\mathbb R^n)$ eine glatte Funktion. Dann ist das Differential von $f$ in $p\in \mathbb R^n$ die $\mathbb R$-lineare Abbildung $$ (\d f)_p\colon T_p\mathbb R^n\to \mathbb R, \ X_p\mapsto (\d f)_p(X_p):=X_p(f). $$ Die Abbildung $\d f$, die durch $p\mapsto (\d f)_p$ gegeben ist, ist eine glatte 1-Form und heißt das Differential von $f$.
Mit den Mitteln der mehrdimensionalen Differentialrechnung überlegt man sich den folgenden
Satz. Es seien $f,g\in C^\infty(\mathbb R^n)$. Dann gilt $\bullet$ $\d(f+g)=\d f+\d g$. $\bullet$ $\d(f\cdot g)=\d f\cdot g+f\cdot \d g$.
Auf der Mannigfaltigkeit $\mathbb R^n$ wählen wir für gewöhnlich die Karte $(\mathbb R^n,x^1,\dots,x^n)$, wobei die Abbildungen $x^j\colon \mathbb R^n\to \mathbb R$ jeweils die Projektion auf die $j$-te Koordinate bedeuten. D.h. zum Beispiel ist $x^3\colon \mathbb R^n\to \mathbb R$ gegeben durch $x^3(x_1,\dots,x_n)=x_3$. Die Koordinatenfunktionen $x^j$ sind $\mathbb R$-linear und daher insbesondere unendlich oft differenzierbar. Für jedes $j=1,\dots,n$ ist daher $\d x^j\in \Omega^1(\mathbb R^n)$ eine glatte 1-Form.
Beispiel. Sind $f_1,\dots,f_n\in C^\infty(\mathbb R^n)$ glatte Funktionen, dann ist $$ \omega:=f_j \dd x^j=\sum_{j=1}^n f_j \dd x^j $$ eine glatte 1-Form (Wir verwenden die Einstein Summationskonvention). Man überlegt sich, dass die 1-Formen $\d x^j$ eine Basis des $C^\infty(\mathbb R^n)$-Moduls $\Omega^1(\mathbb R^n)$ bilden.
Insbesondere kann man sich nach dem letzten Beispiel überlegen, dass für eine glatte Funktion $f\in C^\infty(\mathbb R^n)$ $$ \d f=\frac{\partial f}{\partial x^j} \dd x^j $$ gilt (Summationskonvention: der Index bei der partiellen Ableitung zählt hier als unterer Index).
Bemerkung. Versieht man $\mathbb R^n$ mit dem Standardskalarprodukt $\langle\cdot,\cdot\rangle$ und stellt einen Vektor $X\in T_p\mathbb R^n$ bezüglich den kartesischen Koordinaten in der Form $X=X^j\left(\frac{\partial}{\partial x^j}\right)_p$ dar, dann erhält man $$ (\d f)_p(X)=\langle (\nabla f)_p,\underline X\rangle, $$ wobei $(\nabla f)_p$ der Gradient von $f$ in $p$ aus der Vektoranalysis und $\underline X=(X^1,\dots,X^j)$ der "Vektor" bestehend aus den Komponenten von $X$ bezüglich den kartesischen Koordinaten ist. Hieran erkennt man bereits die Perversion, von der Dieudonné gesprochen hat. $(\d f)_p$ ist das wesentlich einfachere und natürlichere Objekt, das bereits alle Informationen enthält, die man sich von $(\nabla f)_p$ nur wünschen könnte. Es gibt keinen Grund das Skalarprodukt einzuführen um aus $(\d f)_p$ einen Vektor zu machen. Mehr dazu später.
Beispiel. Im Fall $n=2$ oder $n=3$ ist es üblich, die kartesischen Koordinatenfunktionen $x^1,x^2$ bzw. $x^1,x^2,x^3$ einfach mit $x,y$ bzw. $x,y,z$ zu bezeichnen. Wir betrachten den Fall $n=2$ und die 1-Form $\omega$ gegeben durch $$ \omega_{(x,y)}=y\, (\d x)_{(x,y)}+x\, (\d y)_{(x,y)}. $$ Weiter versehen wir $T_{(x,y)}\mathbb R^2$ jeweils mit der kanonischen Basis $\left(\frac{\partial}{\partial x^j}\right)_{(x,y)}$, die von der Karte mit den kartesischen Koordinaten erzeugt wird. Für den Vektor $X=2\left(\frac{\partial}{\partial x^1}\right)_{(x,y)}+3\left(\frac{\partial}{\partial x^2}\right)_{(x,y)}$ ist dann $$ \omega_{(x,y)}(X)=y\, (\d x)_{(x,y)}(X)+x\, (\d y)_{(x,y)}(X)=y\cdot 2+x\cdot 3=3x+2y. $$ Häufig lässt man (der Übersicht halber) auch den Basispunkt $(x,y)$ weg und würde dann z.B. einfach $$ \omega_{(x,y)}=y\dd x+x\dd y $$ schreiben, wenn klar ist, was der jeweilige Basispunkt ist.
Das letzte Beispiel liefert zugleich eine sehr einfache geometrische Interpretation von 1-Formen. Ist $\omega=f_j\dd x^j$ eine glatte 1-Form, dann ist der Effekt von $\omega_p$ auf einen Vektor $X\in T_p\mathbb R^n$ sehr simpel. $(\d x^j)_p(X)=:X^j$ ist die Komponente von $X$ in die $x^j$-Koordinatenrichtung, d.h. wir haben dann $X=X^j\left(\frac{\partial}{\partial x^j}\right)_p$. Die Form $\omega_p$ nimmt daher $X$ projiziert auf jede Koordinatenrichtung und gewichtet die Ergebnisse dieser Projektionen jeweils mit dem Faktor $f_j(p)$. Anschließend werden diese Zahlen noch addiert. Insbesondere ist damit ($(\d x^1)_p,\dots,(\d x^n)_p$) die zu $\left(\left(\frac{\partial}{\partial x^1}\right)_p,\dots,\left(\frac{\partial}{\partial x^n}\right)_p\right)$ duale Basis von $T_p^*\mathbb R^n:=(T_p\mathbb R^n)^*$ (Dualraum).
Beispiel. Im Fall $n=1$ bezeichnen wir die (einzige) Koordinatenfunktion suggestiv mit $x$ ($x$ ist also die Identität auf der Mannigfaltigkeit $\mathbb R$). Schon hier erkennt man, dass das Arbeiten mit Differentialformen sehr intuitiv und einfach ist. Betrachten wir zum Beispiel die Funktion $f\colon \mathbb R\to \mathbb R, \ x\mapsto x^2$. Dann ist für alle $p\in \mathbb R$ $$ (\d f)_p= f'(p) \, (\d x)_p=2p \, (\d x)_p $$ oder mit etwas nachlässigerer Notation $$ \d f=2x \dd x. $$ Anders als so häufig in der Physik oder den ersten Analysis Vorlesungen hat das nun aber eine sehr präzise mathematische Bedeutung und ist kein Handwaving mehr!
Bevor wir uns den 2-Formen widmen, wollen wir nochmal auf das Beispiel mit dem Gradienten $(\nabla f)_p$ eingehen. Es gibt einen Zusammenhang zwischen $1$-Formen und $n$-Tupeln reeller Zahlen (also den "Vektoren", wenn man $\mathbb R^n$ als Vektorraum betrachtet). $$ \omega=\omega_1 \, (\d x^1)_p+\dots+\omega_n \, (\d x^n)_p=\omega_j \, (\d x^j)_p \ \longleftrightarrow \ \underline \omega=\vec{\omega_1}{\vdots}{\omega_n}. $$ Bezüglich den kartesischen Koordinaten $x,y,z$ von $\mathbb R^3$ erhalten wir daher den Zusammenhang $$ (\d f)_p=\frac{\partial f}{\partial x}(p) \, (\d x)_p+\frac{\partial f}{\partial y}(p) \, (\d y)_p+\frac{\partial f}{\partial z}(p) \, (\d z)_p \ \longleftrightarrow \ \underline{(\d f)_p}=\vec{\frac{\partial f}{\partial x}(p)}{\frac{\partial f}{\partial y}(p)}{\frac{\partial f}{\partial z}(p)}=(\nabla f)_p. $$ Man könnte also behaupten (und wir werden noch sehen, dass dem in der Tat so ist), dass man auch in der Vektoranalysis die ganze Zeit mit $(\d f)_p$ arbeitet, aber $(\d f)_p$ wie oben beschrieben (grundlos) mit einem Vektor des $\mathbb R^3$ identifiziert hat. Diese Korrespondenz zwischen Formen und (nach der klassischen Sichtweise) Vektoren wird genauer durch den so genannten Hodge-Stern-Operator beschrieben, auf welchen wir später noch zu sprechen kommen.

2-Formen

Die 1 in 1-Form steht dafür, dass eine $1$-Form $\omega$ ein Vektorfeld $X$ (bzw. einen Vektor) "isst" und daraus eine glatte Funktion $\omega(X)$ (bzw. eine reelle Zahl) macht. Naheliegenderweise wird eine $2$-Form $\Psi$ daher zwei Vektorfelder $X$ und $Y$ "essen" und daraus eine glatte Funktion $\Psi(X,Y)$ machen.
Definition. Eine glatte $2$-Form $\Psi$ auf $\mathbb R^n$ ist ein glattes $(0,2)$-Tensorfeld $\Psi\in \mathcal T^0_2(\mathbb R^n)$ derart, dass $\Psi_p\in T^0_2(T_p\mathbb R^n)$ für jedes $p\in \mathbb R^n$ ein total antisymmetrischer $(0,2)$-Tensor ist. Den $C^\infty(\mathbb R^n)$-Modul aller glatten 2-Formen auf $\mathbb R^n$ bezeichnen wir mit $\Omega^2(\mathbb R^n)$.
Wenn $\Psi$ eine glatte 2-Form ist, dann haben wir also an jedem Punkt $p$ eine $\mathbb R$-bilineare Abbildung $\Psi_p\colon T_p\mathbb R^n\times T_p\mathbb R^n\to \mathbb R$, die zusätzlich antisymmetrisch ist, für die also jeweils $$ \Psi_p(X_p,Y_p)=-\Psi_p(Y_p,X_p) $$ für alle $X_p,Y_p\in T_p\mathbb R^n$ gilt. Bevor wir uns konkrete Beispiele für 2-Formen ansehen, wollen wir überlegen, ob man aus zwei 1-Formen auf irgendeine Art und Weise eine 2-Form basteln kann. Es seien dazu $\omega$ und $\eta$ glatte $1$-Formen. Als solche sind $\omega_p$ und $\eta_p$ für jedes $p\in \mathbb R^n$ insbesondere $(0,1)$-Tensoren und wir können daher den $(0,2)$-Tensor $\omega_p\otimes \eta_p$ durch $$ \omega_p\otimes \eta_p(X_p,Y_p):=\omega_p(X_p)\cdot \eta_p(Y_p) $$ definieren. Dadurch erhalten wir das glatte $(0,2)$-Tensorfeld $\omega\otimes \eta$, welches wir durch $$ \mathbb R^n\ni p\mapsto(\omega\otimes \eta)_p:=\omega_p\otimes \eta_p $$ definieren. Allerdings ist $\omega\otimes \eta$ keine 2-Form, da $\omega\otimes \eta$ symmetrisch und nicht antisymmetrisch ist. Dieses Problem lässt sich leicht beheben, denn offenbar ist $\omega\otimes \eta-\eta\otimes \omega$ antisymmetrisch.
Definition. Es seien $\omega,\eta\in \Omega^1(\mathbb R^n)$ glatte 1-Formen. Das äußere Produkt von $\omega$ und $\eta$ ist die 2-Form $\omega\wedge\eta$ gegeben durch $$ \omega\wedge\eta:=\omega\otimes \eta-\eta\otimes \omega. $$
Unmittelbar aus der obigen Definition folgt, dass $\omega\wedge \eta=-\eta\wedge\omega$ und $\omega\wedge \omega=0$ gilt. Man kann das äußere Produkt $\omega\wedge \eta$ auch mit Hilfe der Determinante einer $2\times 2$ Matrix darstellen. Für Vektoren $X_p,Y_p\in T_p\mathbb R^n$ hat man $$ (\omega\wedge \eta)_p(X_p,Y_p)=\omega_p(X_p)\cdot\eta_p(Y_p)-\eta_p(X_p)\cdot\omega_p(Y_p)= \det\begin{pmatrix} \omega_p(X_p) & \omega_p(Y_p)\\ \eta_p(X_p) & \eta_p(Y_p) \end{pmatrix}, $$ also $$ \omega\wedge \eta(X,Y)=\omega(X)\cdot\eta(Y)-\eta(X)\cdot\omega(Y)= \det\begin{pmatrix} \omega(X) & \omega(Y)\\ \eta(X) & \eta(Y) \end{pmatrix} $$ für Vektorfelder $X$ und $Y$. Bezüglich einer Karte liefert das eine schöne geometrische Interpretation von $\omega\wedge \eta$. Zum Beispiel auf $\mathbb R^2$ mit den kartesischen Koordinaten ist für Vektoren $X=X^1\left(\frac{\partial}{\partial x}\right)_p+X^2\left(\frac{\partial}{\partial y}\right)_p$ und $Y=Y^1\left(\frac{\partial}{\partial x}\right)_p+Y^2\left(\frac{\partial}{\partial y}\right)_p$ $$ (\d x\wedge \d y)_p(X,Y)=X^1\cdot Y^2-X^2\cdot Y^1 $$ und daher $(\d x\wedge \d y)_p(X,Y)$ der signierte Flächeninhalt des Parallelogramms, das von $(X^1,X^2)$ und $(Y^1,Y^2)$ im $\mathbb R^2$ aufgespannt wird. $\mathcal A=\d x\wedge \d y$ nennt man in diesem Fall deshalb auch das Flächenelement von $\mathbb R^2$.
Beispiel. Auf $\mathbb R^2$ können wir auch die Karte $(\mathbb R^2\setminus\lbrace (0,0)\rbrace,r,\varphi)$ mit den Polarkoordinaten $r$ und $\varphi$ betrachten. Der Zusammenhang zu den kartesischen Koordinaten $x$ und $y$ ist $$ x=r\cos(\varphi), \quad y=r\sin(\varphi). $$ Für das Flächenelement in Polarkoordinaten erhalten wir daher \[ \begin{align*} \d x\wedge\d y &=d(r\cos(\varphi))\wedge\d(r\sin(\varphi))= (\d r\cdot \cos(\varphi)+r\cdot \d \cos(\varphi))\wedge(\d r\cdot \sin(\varphi)+r\cdot \d \sin(\varphi)) \\ &=(\d r\cdot \cos(\varphi)+r\cdot (-\sin(\varphi) \dd \varphi))\wedge(\d r\cdot \sin(\varphi)+r\cdot (\cos(\varphi)\dd \varphi)) \\ &=r\cos^2(\varphi) \dd r\wedge \d\varphi-r\sin^2(\varphi) \dd \varphi \wedge \d r \\ &=r\cos^2(\varphi) \dd r\wedge \d\varphi+r\sin^2(\varphi) \dd r \wedge \d\varphi \\ &=r(\cos^2(\varphi)+\sin^2(\varphi))\dd r \wedge \d\varphi \\ &=r \dd r\wedge\d\varphi. \end{align*} \]
Wählt man eine Karte $(U,x^1,\dots,x^n)$ von $\mathbb R^n$ mit $p\in U$, dann kann man sich schnell überlegen, dass die 2-Formen $\d x^i\wedge \d x^j$ für $1\leq i\lt j\leq n$ eine Basis von $\Omega^2(U)$ bilden. Eine beliebige 2-Form $\Psi$ kann daher auf $U$ durch $$ \Psi=\Psi_{ij} \dd x^i\wedge \dd x^j=\Psi_{12} \dd x^1\wedge \dd x^2+\Psi_{13} \dd x^1\wedge \dd x^3+\dots+\Psi_{n-1,n} \dd x^{n-1}\wedge \dd x^{n} $$ mit glatten Funktionen $\Psi_{ij}\colon U\to \mathbb R$ dargestellt werden. Insbesondere haben wir also als $\mathbb R$-Vektorraum $$ \dim(\Omega^2(\mathbb R^n))=\text{Anzahl der Paare } (i,j) \text{ mit } 1\leq i\lt j\leq n=\binom n2=\frac{1}{2}n(n-1). $$ Für 2-Formen gibt es daher keine allgemeine Korrespondenz zu "Vektoren" des $\mathbb R^n$. Nur im Fall $n=3$ hat man $\frac{1}{2}n(n-1)=\frac{1}{2}\cdot 3\cdot (3-1)=3$ und somit haben "Vektoren" und 2-Formen die gleiche Anzahl an Komponenten. In diesem Fall hat man daher die Korrespondenz $$ \Psi=\Psi_{23} \dd y\wedge \d z+\Psi_{31} \dd z \wedge \d x +\Psi_{12}\dd x\wedge \d y \ \longleftrightarrow \ \underline\Psi=\vec{\Psi_{23}}{\Psi_{31}}{\Psi_{12}}, $$ wobei $x,y,z$ wie üblich die kartesischen Koordinaten auf $\mathbb R^3$ bezeichnet. Wir werden später sehen, dass die gesamte Vektoranalysis auf diesem numerischen "Unglück" basiert. Da man in diesem Fall auf dem $\mathbb R^3$ sowohl 1-Formen als auch 2-Formen mit "Vektoren" in Verbindung bringen kann, vereinbaren wir die folgende Notation: Wir schreiben $\underline\Psi$ für den "Vektor", der wie in obiger Korrespondenz zu der 2-Form $\Psi$ gehört. Haben wir umgekehrt einen "Vektor" $v=(v^1,v^2,v^3)$ im $\mathbb R^3$ gegeben, dann schreiben wir $\text{2-Form zu } v$ für die zugehörige 2-Form, i.e. $$ \text{2-Form zu } v= v^1\dd y\wedge \d z+v^2 \dd z \wedge \d x +v^3\dd x\wedge \d y. $$

k-Formen

Der Schritt zu allgemeinen $k$-Formen liegt nun auf der Hand. Völlig analog zu den 2-Formen definieren wir
Definition. Eine glatte $k$-Form $\omega$ auf $\mathbb R^n$ ist ein glattes $(0,k)$-Tensorfeld $\omega\in \mathcal T^0_k(\mathbb R^n)$ derart, dass $\omega_p\in T^0_k(T_p\mathbb R^n)$ für jedes $p\in \mathbb R^n$ ein total antisymmetrischer $(0,k)$-Tensor ist. Den $C^\infty(\mathbb R^n)$-Modul aller glatten $k$-Formen auf $\mathbb R^n$ bezeichnen wir mit $\Omega^k(\mathbb R^n)$.
Ist $\omega\in\Omega^k(\mathbb R^n)$, dann haben wir also für jedes $p\in \mathbb R^n$ einen $(0,k)$-Tensor $\omega_p\colon T_p\mathbb R^n\times\dots \times T_p\mathbb R^n\to \mathbb R$, der $k$ Vektoren "isst" und daraus auf multilineare Weise eine reelle Zahl macht. Ist zusätzlich $\pi\in S_k$ eine Permutation von $(1,2,\dots,k)$ dann gilt $$ \omega_p(X_{\pi(1)},\dots,X_{\pi(k)})=\opn{sgn}(\pi)\cdot\omega_p(X_1,\dots,X_k) $$ für Vektoren $X_1,\dots,X_k\in T_p\mathbb R^n$. Ebenfalls völlig analog zu den 2-Formen, können wir nun ein allgemeines äußeres Produkt $\omega\wedge \eta$ definieren, das aus einer $k$-Form $\omega$ und einer $\ell$-Form $\eta$ eine $(k+\ell)$-Form $\omega\wedge \eta$ macht.
Definition. Es sei $\omega\in \Omega^k(\mathbb R^n)$ und $\eta\in \Omega^\ell(\mathbb R^n)$. Dann definieren wir die $(k+\ell)$-Form $\omega\wedge\eta$ punktweise durch $$ (\omega\wedge\eta)_p(X_1,\dots,X_{k+\ell})=\frac{1}{k!\ell!}\sum_{\pi\in S_{k+\ell}} \opn{sgn}(\pi) \cdot\omega_p(X_{\pi(1)},\dots,X_{\pi(k)})\cdot \eta_p(X_{\pi(k+1)},\dots,X_{\pi(k+\ell)}). $$
Mit dem Tensorprodukt $\omega\otimes \eta$ können wir auch $$ (\omega\wedge\eta)_p(X_1,\dots,X_{k+\ell})=\frac{1}{k!\ell!}\sum_{\pi\in S_{k+\ell}} \opn{sgn}(\pi)\cdot \omega_p\otimes\eta_p(X_{\pi(1)},\dots,X_{\pi(k)},X_{\pi(k+1)},\dots,X_{\pi(k+\ell)}) $$ schreiben. Analog zu den 2-Formen nennt man in diesem Fall $\opn{Alt}(T)$ gegeben durch $$ \opn{Alt}(T)(X_1,\dots,X_k):=\frac{1}{k!}\sum_{\pi\in S_{k}} \opn{sgn}(\pi)\cdot T(X_{\pi(1)},\dots,X_{\pi(k)}) $$ die Antisymmetrisierung des $(0,k)$-Tensors $T$. Mit diesem Begriff könnten wir dann auch $$ (\omega\wedge\eta)_p=\frac{(k+\ell)!}{k!\ell!}\opn{Alt}(\omega_p\otimes \eta_p) $$ schreiben. Direkt mit der Definition erhält man den
Satz. Das äußere Produkt ist assoziativ, d.h. für beliebige Formen $\omega,\eta$ und $\theta$ gilt $$ (\omega\wedge\eta)\wedge\theta=\omega\wedge(\eta\wedge\theta). $$
Wir können daher problemlos etwas wie $\omega_1\wedge\omega_2\wedge\dots\wedge\omega_k$ schreiben. Auch in diesem Fall kann man analog zu den 2-Formen eine Basis für die $k$-Formen finden. Für eine Karte $(U,x^1,\dots,x^n)$ von $\mathbb R^n$ bilden die $k$-Formen $$ \d x^{i_1}\wedge\d x^{i_2}\wedge\dots\wedge \d x^{i_k} $$ für $1\leq i_1\lt i_2\lt\dots\lt i_k\leq n$ eine Basis für $\Omega^k(U)$. Eine $k$-Form $\omega$ kann daher bezüglich dieser Karte auf $U$ durch $$ \omega=\omega_{i_1i_2\dots i_k}\d x^{i_1}\wedge\d x^{i_2}\wedge\dots\wedge \d x^{i_k} $$ (hier versteht es sich, dass nur über Indizes mit $1\leq i_1\lt i_2\lt\dots\lt i_k\leq n$ summiert wird) mit glatten Funktionen $\omega_{i_1i_2\dots i_n}\colon U\to\mathbb R$ dargestellt werden. Insbesondere haben wir also $$ \dim(\Omega^k(\mathbb R^n))=\text{Anzahl der Tupel } (i_1,i_2,\dots,i_k) \text{ mit } 1\leq i_1\lt i_2\lt\dots\lt i_k\leq n=\binom nk. $$ Zuletzt hat man auch für das allgemeinere äußere Produkt von mehreren 1-Formen eine Darstellung mit Hilfe der Determinante, also wieder eine schöne geometrische Interpretation. Seien dazu $\omega_1,\dots,\omega_k\in \Omega^1(\mathbb R^n)$ glatte 1-Formen. Dann ist $$ \omega_1\wedge\omega_2\wedge\dots\wedge\omega_k(X_1,\dots,X_{k})=\det \begin{pmatrix} \omega_1(X_1) & \omega_1(X_2) & \dots & \omega_1(X_k) \\ \omega_2(X_1) & \omega_2(X_2) & \dots & \omega_2(X_k) \\ \vdots & \vdots & \ddots &\vdots \\ \omega_k(X_1) & \omega_k(X_2) & \dots & \omega_k(X_k) \end{pmatrix} $$ für Vektorfelder $X_1,\dots,X_{k}$. Sind $x^1,\dots,x^n$ die kartesischen Koordinaten auf $\mathbb R^n$, dann ist $$ \mathcal V:=\d x^1\wedge \d x^2\wedge \dots\wedge \d x^n $$ die so genannte Volumenform auf $\mathbb R^n$. Hat $\mathcal V$ diesen Namen verdient? Warum?

Die äußere Algebra der Differentialformen

Es ist algebraisch gesehen etwas unbefriedigend, dass das äußere Produkt zweier oder mehrerer Formen nicht wieder eine Form des selben "Typs" ist. Zum Beispiel ist ja das äußere Produkt einer $k$-Form und einer $\ell$-Form eine $(k+\ell)$-Form. Deshalb führt man häufig die so genannte äußere Algebra $\Omega(\mathbb R^n)$ ein (man sagt auch Grassmann-Algebra dazu). Konkret ist $$ \Omega(\mathbb R^n):=\bigoplus_{k=0}^n \Omega^k(\mathbb R^n)=\Omega^0(\mathbb R^n)\oplus\Omega^1(\mathbb R^n)\oplus\dots\oplus\Omega^n(\mathbb R^n). $$ Das bedeutet, dass die Elemente von $\Omega(\mathbb R^n)$ $(n+1)$-Tupel $(\omega_0,\omega_1,\dots,\omega_n)$ sind, wobei $\omega_j$ jeweils eine $j$-Form ist. Durch komponentenweise Addition und Skalarmultiplikation bildet $\Omega(\mathbb R^n)$ somit einen $\mathbb R$-Vektorraum der Dimension $$ \dim(\Omega^0(\mathbb R^n)\oplus\dots\oplus\Omega^n(\mathbb R^n))=\dim(\Omega^0(\mathbb R^n))+\dots+\dim(\Omega^n(\mathbb R^n))=\binom n0 +\dots +\binom nn=2^n. $$ Vermöge der kanonischen Inklusion $$ \Omega^k(\mathbb R^n)\hookrightarrow \Omega(\mathbb R^n), \ \omega_k\mapsto (0,\dots,0,\omega_k,0,\dots,0) $$ kann $(0,\dots,0,\omega_k,0,\dots,0)\in \Omega(\mathbb R^n)$ mit $\omega_k\in\Omega^k(\mathbb R^n)$ identifiziert werden. Mit dieser Identifikation kann nun jedes Element von $\Omega(\mathbb R^n)$ auf eindeutige Weise als Summe $$ f+\omega_1+\omega_2+\dots+\omega_n $$ dargestellt werden, wobei man $\Omega^0(\mathbb R^n)=C^\infty(\mathbb R^n)$ beachte. Man kann dann das äußere Produkt $\wedge$ durch lineare Fortsetzung zu einer bilinearen Abbildung $\wedge\colon \Omega(\mathbb R^n)\times\Omega(\mathbb R^n)\to\Omega(\mathbb R^n)$ fortsetzen. Ist zum Beispiel $\omega$ eine 1-Form, $\Psi$ eine 2-Form und $\theta$ eine 3-Form, dann bedeutet das $$ \omega\color{blue}{\wedge}(\Psi+\theta)=\omega\color{red}{\wedge} \Psi+\omega\color{red}{\wedge} \theta. $$ Dabei ist $\color{red}{\wedge}$ das bereits definierte äußere Produkt zwischen 1- und 2-Formen bzw. zwischen 1- und 3-Formen und $\color{blue}{\wedge}$ das neue fortgesetzte äußere Produkt auf $\Omega(\mathbb R^n)$. Wir halten abschließend noch einige Eigenschaften dieses "neuen" äußeren Produkts fest.
Satz. Das äußere Produkt $\wedge\colon \Omega(\mathbb R^n)\times\Omega(\mathbb R^n)\to\Omega(\mathbb R^n)$ besitzt die folgenden Eigenschaften: $\bullet$ $\wedge$ ist bilinear. $\bullet$ $\wedge$ ist assoziativ. $\bullet$ Für $\omega\in \Omega^k(\mathbb R^n)$ und $\eta\in \Omega^\ell(\mathbb R^n)$ ist $\omega\wedge \eta\in \Omega^{k+\ell}(\mathbb R^n)$ und es gilt $$ \omega\wedge \eta=(-1)^{k\ell}\eta\wedge\omega. $$ Mit $\wedge$ als Multiplikation bildet $\Omega(\mathbb R^n)$ somit eine assoziative antikommutativ-graduierte Algebra.

Die Cartan-Ableitung

Wir haben bereits gesehen, dass $\d f$ für jede glatte Funktion $f\in C^\infty(\mathbb R^n)$ eine glatte 1-Form ist, so dass $$ (\d f)_p(X)=X(f) $$ gilt. $X(f)$ ist dabei die Richtungsableitung von $f$ in $p$ entlang einer glatten Kurve $\gamma$ (nämlich solch eine Kurve $\gamma$ für die $X=X_{\gamma,p}$ gilt). Die 1-Form $\d f$ enthält daher die Informationen über die Richtungsableitungen von $f$ an jedem Punkt $p$ entlang jeder glatten Kurve $\gamma$ mit $\gamma(0)=p$. In diesem Kontext spricht man bei glatten Funktionen auch von 0-Formen. Wir setzen also $\Omega^0(\mathbb R^n)=C^\infty(\mathbb R^n)$. Wir können dieses $\d$ daher auch als eine Abbildung $$ \d\colon \Omega^0(\mathbb R^n)\to \Omega^1(\mathbb R^n), \ f\mapsto \d f $$ auffassen, die aus einer 0-Form $f$ (einer glatten Funktion) eine glatte 1-Form $\d f$ macht. So formuliert ist es eine natürliche Frage, ob es eine analoge Abbildung $\d$ gibt, die aus einer $k$-Form $\omega$ eine $(k+1)$-Form $\d\omega$ macht.

Die Cartan-Ableitung für 1-Formen

Betrachten wir eine $1$-Form $\omega$. Wie können wir daraus eine zugehörige $2$-Form $\d \omega$ machen? $\d \omega$ soll nun zwei Vektorfelder $X$ und $Y$ "essen" und daraus eine glatte Funktion $\d \omega(X,Y)$ machen. Als ersten Ansatz könnte man $$ \d \omega(X,Y)=X(\omega(Y)) $$ versuchen. $\omega(Y)$ ist eine glatte Funktion und wir können das Vektorfeld $X$ darauf anwenden, indem wir $X(\omega(Y))_p=X_p(\omega_p(Y_p))$ rechnen. Dann ist $X(\omega(Y))$ in der Tat eine glatte Funktion. Allerdings ist dann $\d \omega(X,Y)$ nicht antisymmetrisch, denn es ist $$ Y(\omega(X))\neq -X(\omega(Y)). $$ Wir können daher ähnlich wie beim äußeren Produkt eine Antisymmetrisierung vornehmen und als nächstes $$ \d \omega(X,Y)=X(\omega(Y))-Y(\omega(X)) $$ versuchen. Das kann aber immer noch nicht die Lösung sein. $\d \omega$ sollte in Analogie zu $\d f$ die Änderung von $\omega$ "in alle Richtungen" messen - die konkreten Vektorfelder $X$ und $Y$ sollten damit nichts zu tun haben. Aber offensichtlich ist die Änderung von $\omega(X)$ sowohl von $\omega$ als auch von $X$ abhängig. Analog ist die Änderung von $\omega(Y)$ sowohl von $\omega$ als auch von $Y$ abhängig. Wir müssen uns also noch überlegen, wie die Änderungen von $X$ und $Y$ in obige Formel eingehen und diesen Beitrag zur Formel eliminieren.
Definition. Die Lie-Klammer (auch: der differentialgeometrische Kommutator) von zwei glatten Vektorfeldern $X$ und $Y$ ist das glatte Vektorfeld $[X,Y]$ gegeben durch $$ [X,Y](f):=X(Y(f))-Y(X(f)) $$ für alle $f\in C^\infty(\mathbb R^n)$.
Die glatte Funktion $\omega([X,Y])$ enthält genau die Information, wie die Änderung von $X$ und $Y$ in unsere Formel für $\d \omega(X,Y)$ eingehen. Entfernen wir diesen Beitrag, dann erhalten wir das gewünschte Ergebnis.
Definition. Die Cartan-Ableitung (auch: äußere Ableitung) einer glatten 1-Form $\omega$ ist die glatte 2-Form $\d \omega$ gegeben durch $$ \d \omega(X,Y)=X(\omega(Y))-Y(\omega(X))-\omega([X,Y]). $$
Diese Formel ist unabhängig von irgendwelchen Koordinaten oder Karten und global gültig! Direkt aus der Formel für $\d \omega$ erhalten wir den folgenden
Satz. Es seien $\omega,\eta\in \Omega^1(\mathbb R^n)$ glatte 1-Formen und $f\in C^\infty(\mathbb R^n)$ eine glatte Funktion. Dann gilt $$ \d (f\omega+\eta)=\d f\wedge\omega+f\dd\omega+\d\eta. $$
Man kann die Aussage des obigen Satzes auch in zwei Gleichungen aufteilen: $$ \d (\omega+\eta)=\d\omega+\d\eta, \quad \d(f\omega)=\d f\wedge\omega+f\dd\omega. $$ Für konkrete Berechnungen ist es nun aber trotzdem wichtig, dass man einen Ausdruck für $\d \omega$ in Koordinaten hat. Sei dazu $(U,x^1,\dots,x^n)$ irgendeine Karte von $\mathbb R^n$. Bezüglich dieser Karte können wir eine $1$-Form $\omega$ auf $U$ durch $$ \omega=\omega_1 \dd x^1+\dots+\omega_n\dd x^n=\omega_j\dd x^j $$ darstellen, wobei die Komponentenfunktionen $\omega_j\colon U\to \mathbb R$ glatt sind. Mit Hilfe des letzten Satzes erhalten wir dann $$ \d\omega=\d(\omega_j\dd x^j)=\d\omega_j\wedge \d x^j=\left(\frac{\partial \omega_j}{\partial x^i}\dd x^i\right)\wedge \d x^j. $$ Weiter haben wir \[ \begin{align*} \left(\frac{\partial \omega_j}{\partial x^i}\dd x^i\right)\wedge \d x^j &=\left(\frac{\partial \omega_j}{\partial x^i}\dd x^i\right)\otimes \d x^j-\d x^j\otimes \left(\frac{\partial \omega_j}{\partial x^i}\dd x^i\right) \\ &=\frac{\partial \omega_j}{\partial x^i}\cdot (\d x^i\otimes \d x^j)-\frac{\partial \omega_j}{\partial x^i}\cdot (\d x^j\otimes \d x^i) \\ &=\frac{\partial \omega_j}{\partial x^i}\cdot (\d x^i\otimes \d x^j-\d x^j\otimes \d x^i) \\ &=\frac{\partial \omega_j}{\partial x^i} \dd x^i\wedge\d x^j. \end{align*} \] Insgesamt erhalten wir also auf $U$ $$ \d\omega=\d(\omega_j\dd x^j)=\frac{\partial \omega_j}{\partial x^i} \dd x^i\wedge\d x^j. $$ Man beachte dabei, dass der Index $j$ bei $\frac{\partial \omega_j}{\partial x^i}$ als unterer Index zählt. Ohne Summationskonvention hätten wir also $$ \d\omega=\sum_{i,j}\frac{\partial \omega_j}{\partial x^i} \dd x^i\wedge\d x^j. $$

Die Cartan-Ableitung für k-Formen

Der naheliegende nächste Schritt ist, das $\d$ auf 2-Formen zu erweitern. Dabei könnte man in Anbetracht der Koordinatendarstellung von $\d \omega$ für eine 1-Form $\omega$ direkt in Koordinaten hinschreiben, wie das $\d$ auf eine $2$-Form $\Psi$ wirken soll. Bezüglich einer Karte $(U,x^1,\dots,x^n)$ kann eine 2-Form in der Form $\Psi=\Psi_{ij} \dd x^i\wedge \d x^j$ mit glatten Funktionen $\Psi_{ij}\colon U\to \mathbb R$ dargestellt werden. Wir können dann lokal auf $U$ die 3-Form $\d\Psi$ durch $$ \d \Psi=\d (\Psi_{ij} \dd x^i\wedge \d x^j):=\d\Psi_{ij}\wedge\d x^i\wedge \d x^j $$ definieren. Daran erkennt man, wie das $\d$ wohl auf eine allgemeine $k$-Form $\omega$ wirken sollte. Bezüglich der Karte kann so eine Form $\omega$ durch $\omega=\omega_{j_1\dots j_k}\dd x^{j_1}\wedge\dots\wedge \d x^{j_k}$ dargestellt werden und wir können die $(k+1)$-Form $\d \omega$ dann durch $$ \d\omega=\d(\omega_{j_1\dots j_k}\dd x^{j_1}\wedge\dots\wedge \d x^{j_k}):=\d\omega_{j_1\dots j_k}\wedge\d x^{j_1}\wedge\dots\wedge \d x^{j_k} $$ definieren. Für praktische Zwecke ist das sehr hilfreich. Allerdings ist das zunächst nur eine lokale Definition (auch wenn das für $\mathbb R^n$ nicht so schlimm ist, da wir hier auch eine globale Karte mit den kartesischen Koordinaten haben) und außerdem wäre es schön, wenn wir auch hier eine globale koordinatenunabhängige Formel hätten. Diese gibt es auch!
Satz. Es sei $\omega\in \Omega^k(\mathbb R^n)$ eine $k$-Form. Dann gilt \[ \begin{align*} \d\omega(X_1,\dots,X_{k+1})=&\sum_{i=1}^{k+1}(-1)^{i+1}X_i(\omega(X_1,\dots,\widehat{X_i},\dots,X_{k+1})) +\sum_{i\lt j} (-1)^{i+j} \omega([X_i,X_j],X_1,\dots,\widehat{X_i},\dots,\widehat{X_j},\dots,X_{k+1}) \end{align*} \] für alle Vektorfelder $X_1,\dots,X_{k+1}$.
Die Notation $(X_1,\dots,\widehat{X_i},\dots,X_{k+1})$ bedeutet dabei, dass der Eintrag $X_i$ ausgelassen bzw. weggelassen wird.
Beispiel. Für eine $0$-Form $f$ (also eine glatte Funktion) erhalten wir mit obiger Formel $$ \d f(X)=X(f), $$ also einfach die ursprüngliche Definition des Differentials $\d f$. Für eine 1-Form $\omega$ erhalten wir $$ \d \omega(X,Y)=X(\omega(Y))-Y(\omega(X))-\omega([X,Y]), $$ also ebenfalls unsere ursprüngliche Definition von $\d\omega$. Für eine $2$-Form $\Psi$ erhalten wir $$ \d \Psi(X,Y,Z)=X(\Psi(Y,Z))-Y(\Psi(X,Z))+Z(\Psi(X,Y))-\Psi([X,Y],Z)+\Psi([X,Z],Y)-\Psi([Y,Z],X). $$
Man kann sich an dieser Stelle natürlich fragen, warum man das $\d$ ausgerechnet so definieren sollte bzw. warum man es nicht von Anfang an grundlegend anders gemacht hat. Der folgende Satz zeigt, warum unsere Definition von $\d$ die "natürlichste" bzw. die "richtige" ist. Zunächst kann man $\d$ durch lineare Fortsetzung zu einer $\mathbb R$-linearen Abbildung $\d\colon \Omega(\mathbb R^n)\to \Omega(\mathbb R^n)$ erweitern. Dann hat man den folgenden
Satz. Die Cartan-Ableitung $\d\colon \Omega(\mathbb R^n)\to \Omega(\mathbb R^n)$ ist die einzige $\mathbb R$-lineare Abbildung mit den folgenden Eigenschaften: $\bullet$ Für eine $0$-Form $f\in C^\infty(\mathbb R^n)$ und ein Vektorfeld $X$ gilt $\d f(X)=X(f)$. $\bullet$ Für jede $k$-Form $\omega$ ist $\d\omega$ eine $(k+1)$-Form. $\bullet$ Für jede $k$-Form $\omega$ gilt $\d(\d \omega)=0\in \Omega^{k+2}(\mathbb R^n)$. $\bullet$ $d(\omega\wedge \eta)=\d\omega\wedge\eta +(-1)^\ell\d \eta\wedge \omega$ für eine $\ell$-Form $\omega$ und eine beliebige Form $\eta$.

Geschlossene und exakte Formen

Nach dem letzten Satz des letzten Unterkapitels gilt $\d(\d\omega)=0$ für jede $k$-Form $\omega$. Man kürzt das gerne durch $\d^2=0$ ab. Wenn $\d\omega=0$ für eine Differentialform $\omega$ gilt, dann nennt man diese Form geschlossen. Wenn es für eine $k$-Form $\omega$ eine $(k-1)$-Form $\eta$ mit $\omega=\d\eta$ gibt, dann nennt man die Form $\omega$ exakt. Die Erkenntnis $\d^2=0$ besagt dann einfach, dass jede exakte Form auch geschlossen ist. Gilt $\omega=\d\eta$, dann würde man in der Physik sagen, dass $\eta$ ein Potential von $\omega$ ist. Man erkennt dann sofort, dass ein Potential niemals eindeutig sein kann: wenn $\eta\in \Omega^{k-1}(\mathbb R^n)$ ein Potential für $\omega$ und $\theta\in \Omega^{k-2}(\mathbb R^n)$ ist, dann haben wir $$ \d(\eta+\d\theta)=\d\eta+\d(\d\theta)=\d\eta+0=\d\eta=\omega $$ und somit ist $\eta+\d\theta$ ebenfalls ein Potential von $\omega$. Diese Freiheit bei der Wahl des Potentials nennt man in der Physik eine Eichfreiheit und die Transformation $\eta \to \eta+\d\theta$ eine Eichtransformation.
Beispiel. Auf $\mathbb R^2$ ist die 1-Form $$ \omega=2x\dd x+2y\dd y $$ exakt. Ein Potential für $\omega$ ist die 0-Form $f\in C^\infty(\mathbb R^2)$ gegeben durch $f(x,y)=x^2+y^2$. In der Tat ist $$ \d f=\frac{\partial f}{\partial x} \dd x+\frac{\partial f}{\partial y}\dd y=2x\dd x+2y\dd y=\omega. $$
Beispiel. Dieses Beispiel ist aus der Funktionentheorie. Es sei $U\subseteq \mathbb C$ offen und $f\colon U\to \mathbb C$ unendlich oft reell-differenzierbar. Nach den Cauchy-Riemann-Differentialgleichungen ist $f$ genau dann holomorph, wenn $$ \i\cdot\frac{\partial f}{\partial x}-\frac{\partial f}{\partial y}=0 $$ auf $U$ gilt, wobei wir $f(x+\i y)=u(x,y)+\i v(x,y)$ geschrieben haben. Betrachte nun die komplexe Differentialform $$ f \dd z=(u+\i v)(\d x+\i \cdot\d y). $$ Es ist \[ \begin{align*} \d(f\dd z) &=\d f\wedge \d z=\left(\frac{\partial f}{\partial x} \dd x+\frac{\partial f}{\partial y}\dd y\right)\wedge (\d x+\i \cdot\d y) \\ &=\frac{\partial f}{\partial x} \dd x\wedge \d x+\frac{\partial f}{\partial x} \dd x\wedge (\i\cdot \d y)+\frac{\partial f}{\partial y}\dd y\wedge \d x+\frac{\partial f}{\partial y}\dd y\wedge (\i\cdot \d y) \\ &=\frac{\partial f}{\partial x} \dd x\wedge (\i\cdot \d y)+\frac{\partial f}{\partial y}\dd y\wedge \d x \\ &=\i\cdot\frac{\partial f}{\partial x} \dd x\wedge \d y-\frac{\partial f}{\partial y}\dd x\wedge \d y \\ &=\left(\i\cdot\frac{\partial f}{\partial x}-\frac{\partial f}{\partial y}\right) \dd x\wedge \d y. \end{align*} \] Wir sehen also: $f$ ist genau dann holomorph, wenn die Differentialform $f\dd z$ geschlossen ist, also $\d(f\dd z)=0$ gilt.

Ausblick: de Rham Kohomologie

Wir wollen an dieser Stelle einen ganz kurzen Ausblick in die de Rham Kohomologie wagen. Betrachten wir eine offene Menge $U\subseteq \mathbb R$ und eine glatte Funktion $f\colon U\to \mathbb R$ mit $f'(x)=0$ für alle $x\in U$, also $\d f=0$. Können wir dann schließen, dass $f$ konstant ist? Nicht unbedingt. Wenn z.B. $U=(0,1)\cup (2,3)$ ist und wir $f(x)=0$ für $x\in (0,1)$ und $f(x)=1$ für $x\in (2,3)$ definieren, dann ist $f$ geschlossen - $\d f=0$ - aber $f$ ist nicht konstant. Die Tatsache, dass $f$ in diesem Fall nicht unbedingt konstant ist hängt also damit zusammen, dass der Definitionsbereich $U$ ein "Loch" haben könnte. Man erkennt daran bereits, dass bestimmte Eigenschaften von Differentialformen mit der globalen Topologie der jeweiligen Mannigfaltigkeit zu tun haben. Zum Beispiel könnten wir die obige Erkenntnis dazu hernehmen, um mathematisch präzise zu definieren, was wir mit einem "Loch im Definitionsbereich" überhaupt meinen. Allgemeiner beschäftigt sich die de Rham Kohomologie mit der Frage, inwiefern sich geschlossene und exakte Formen unterscheiden. Wegen $\d^2=0$ wissen wir bereits, dass jede exakte Form auch geschlossen ist. Die interessante Frage ist daher, ob jede geschlossene Form auch exakt ist und falls nicht, inwiefern sich die beiden Konzepte unterscheiden? Ist $U\subseteq \mathbb R^n$ offen, dann haben wir die folgende Sequenz $$ 0\longrightarrow \Omega^0(U)\overset{\d_0}{\longrightarrow}\Omega^1(U)\overset{\d_1}{\longrightarrow}\Omega^2(U)\overset{\d_2}{\longrightarrow}\dots\overset{\d_{n-1}}{\longrightarrow} \Omega^n(U)\overset{\d_n}{\longrightarrow}0. $$ Dabei ist mit $\d_k$ jeweils die Cartan-Ableitung $\d_k\colon \Omega^k(U)\to \Omega^{k+1}(U)$ gemeint. Oftmals bezeichnen wir alle Abbildungen $\d_k$ auch einfach mit $\d$. Die fundamentale Identität $\d^2=0$ (also $\d_k\circ\d_{k-1}=0$) liefert uns an dieser Stelle, dass $$ \opn{im}(\d_{k-1})=\lbrace \omega\in \Omega^{k}(U)\mid \exists \eta\in \Omega^{k-1}(U): \d\eta=\omega\rbrace\subseteq \lbrace \omega\in \Omega^{k}(U)\mid \d\omega=0\rbrace=\ker(\d_k) $$ gilt, was erneut nur eine andere Ausdrucksweise davon ist, dass jede exakte Form auch geschlossen ist. Wir können dann aber den Quotientenvektorraum $$ H^k(U):=\ker(\d_k)/\opn{im}(\d_{k-1}) $$ betrachten. Die Elemente von $H^k(U)$ sind Äquivalenzklassen $[\omega]$ von $k$-Formen, wobei zwei $k$-Formen $\omega$ und $\eta$ als äquivalent betrachtet werden, wenn sie sich um eine exakte Form unterscheiden. Man sagt dann auch, dass $\omega$ und $\eta$ kohomolog sind. Der so genannte $k$-te de Rham Kohomologie Vektorraum $H^k(U)$ quantifiziert also auf eine präzise Art und Weise, wie sehr sich die geschlossenen von den exakten $k$-Formen unterscheiden.
Satz. Es sei $U\subseteq \mathbb R^n$ offen und $\ell$ die Anzahl der Zusammenhangskomponenten von $U$. Dann gilt $$ H^0(U)\cong \mathbb R^{\ell}. $$
Der Beweis dieses Satzes ist allein mit Methoden der reellen Analysis möglich und somit eine nette Übungsaufgabe. An dieser Stelle wollen wir nur noch ein wichtiges Resultat in diesem Kontext formulieren.
Satz (Poincaré Lemma). Ist $U\subseteq \mathbb R^n$ offen und sternförmig, dann gilt $$ H^k(U)\cong\lbrace 0\rbrace $$ für alle $k\in \mathbb N$. Insbesondere ist in diesem Fall jede geschlossene Form auch exakt.
Für eine genauere Untersuchung der de Rham Kohomologie fehlen uns in diesem Artikel die Methoden und Begriffe. Es sei aber noch folgendes gesagt: Es stellt sich heraus, dass die de Rham Kohomologie Vektorräume Homotopieinvarianten sind! Das heißt, dass sie nur von der Topologie der Mannigfaltigkeit abhängen. Das ist in der Tat bemerkenswert, denn die Differentialformen hängen an und für sich natürlich fundamental mit der differenzierbaren Struktur zusammen.

Anwendung: Die Maxwell-Gleichungen der Elektrodynamik

In diesem Kapitel wollen wir zeigen, wie schön (und einfach!) die Elektrodynamik mit dem Formalismus der Differentialformen wird. Fast schon nebenbei zeigen wir, wie sich die gesamte Vektoranalysis als einfacher Spezialfall dieser viel allgemeineren Theorie entpuppt. Wir orientieren uns in diesem Kapitel oft an Act V von "Visual Differential Geometry and Forms" von Tristan Needham.

Vektoranalysis mit Differentialformen

Polemisch formuliert beruht die gesamte Vektoranalysis auf zwei reinen Zufällen: Die Theorie der Differentialformen funktioniert in jeder Dimension, aber $\bullet$ Nur im $\mathbb R^3$ kann man eine 2-Form mit einem Vektor identifizieren. $\bullet$ Nur im $\mathbb R^3$ kann das äußere Produkt von zwei 1-Formen mit dem Kreuzprodukt von zwei Vektoren identifiziert werden. Wir erinnern uns zunächst an die Korrespondenz zwischen Vektoren des $\mathbb R^3$ und 1-Formen bzw. zwischen Vektoren des $\mathbb R^3$ und 2-Formen. Es seien $x,y,z$ die kartesischen Koordinaten auf $\mathbb R^3$. Dann haben wir die Korrespondenzen $$ \omega=\omega_1 \dd x+\omega_2 \dd y+\omega_3 \dd z \ \longleftrightarrow \ \underline\omega=\vec{\omega_1}{\omega_2}{\omega_3} $$ und $$ \Psi=\Psi_{23} \dd y\wedge \d z+\Psi_{31} \dd z \wedge \d x +\Psi_{12}\dd x\wedge \d y \ \longleftrightarrow \ \underline\Psi=\vec{\Psi_{23}}{\Psi_{31}}{\Psi_{12}}. $$ Wir haben bereits gesehen, dass die äußere Ableitung einer 0-Form (also das Differential einer glatten Funktion) $f$ unter obiger Korrespondenz dem Gradienten der Vektoranalysis entspricht $$ \d f \ \longleftrightarrow \ \underline{\d f}=\nabla f. $$ Wir wollen uns nun der äußeren Ableitung $\d \omega$ einer 1-Form $\omega$ widmen. Schreiben wir bezüglich den kartesischen Koordinaten $\omega=\omega_1 \dd x+\omega_2 \dd y+\omega_3 \dd z$, dann haben wir \[ \begin{align*} \d\omega &=\d(\omega_1 \dd x+\omega_2 \dd y+\omega_3 \dd z)=\d\omega_1\wedge\d x+\d\omega_2\wedge \d y+\d\omega_3\wedge \d z \\ &=\left(\frac{\partial \omega_1}{\partial x} \dd x+\frac{\partial \omega_1}{\partial y} \dd y+\frac{\partial \omega_1}{\partial z} \dd z\right)\wedge \d x+\left(\frac{\partial \omega_2}{\partial x} \dd x+\frac{\partial \omega_2}{\partial y} \dd y+\frac{\partial \omega_2}{\partial z} \dd z\right)\wedge \d y+\left(\frac{\partial \omega_3}{\partial x} \dd x+\frac{\partial \omega_3}{\partial y} \dd y+\frac{\partial \omega_3}{\partial z} \dd z\right)\wedge \d z \\ &=\left(\frac{\partial \omega_1}{\partial y} \dd y+\frac{\partial \omega_1}{\partial z} \dd z\right)\wedge \d x+\left(\frac{\partial \omega_2}{\partial x} \dd x+\frac{\partial \omega_2}{\partial z} \dd z\right)\wedge \d y+\left(\frac{\partial \omega_3}{\partial x} \dd x+\frac{\partial \omega_3}{\partial y} \dd y\right)\wedge \d z \\ &=\frac{\partial \omega_1}{\partial y} \dd y\wedge \d x+\frac{\partial \omega_1}{\partial z} \dd z\wedge \d x+\frac{\partial \omega_2}{\partial x} \dd x\wedge \d y+\frac{\partial \omega_2}{\partial z} \dd z\wedge \d y+\frac{\partial \omega_3}{\partial x} \dd x\wedge \d z+\frac{\partial \omega_3}{\partial y} \dd y\wedge \d z \\ &=\frac{\partial \omega_3}{\partial y} \dd y\wedge \d z -\frac{\partial \omega_2}{\partial z} \dd y\wedge \d z+\frac{\partial \omega_1}{\partial z} \dd z\wedge \d x-\frac{\partial \omega_3}{\partial x} \dd z\wedge \d x +\frac{\partial \omega_2}{\partial x} \dd x\wedge \d y-\frac{\partial \omega_1}{\partial y} \dd x\wedge \d y \\ &=\left(\frac{\partial \omega_3}{\partial y}-\frac{\partial \omega_2}{\partial z}\right) \dd y\wedge \d z+\left(\frac{\partial \omega_1}{\partial z}-\frac{\partial \omega_3}{\partial x}\right)\dd z\wedge \d x+\left(\frac{\partial \omega_2}{\partial x}-\frac{\partial \omega_1}{\partial y}\right) \dd x\wedge \d y, \end{align*} \] also insgesamt $$ \d\omega=\left(\frac{\partial \omega_3}{\partial y}-\frac{\partial \omega_2}{\partial z}\right) \dd y\wedge \d z+\left(\frac{\partial \omega_1}{\partial z}-\frac{\partial \omega_3}{\partial x}\right)\dd z\wedge \d x+\left(\frac{\partial \omega_2}{\partial x}-\frac{\partial \omega_1}{\partial y}\right) \dd x\wedge \d y. $$ Man halte sich fest: unter der obigen Korrespondenz korrespondiert $\d \omega$ zu der Rotation $\rot(\underline\omega)$ von $\underline\omega$, also
$$ \d\omega \ \longleftrightarrow \ \rot(\underline \omega)=\nabla\times \underline\omega=\vec{\frac{\partial \omega_3}{\partial y}-\frac{\partial \omega_2}{\partial z}}{\frac{\partial \omega_1}{\partial z}-\frac{\partial \omega_3}{\partial x}}{\frac{\partial \omega_2}{\partial x}-\frac{\partial \omega_1}{\partial y}}. $$
Sind allgemeiner $\omega=\omega_1 \dd x+\omega_2\dd y+\omega_3 \dd z$ und $\eta=\eta_1 \dd x+\eta_2\dd y+\eta_3 \dd z$ zwei glatte 1-Formen, so erhalten wir \[ \begin{align*} \omega \wedge \eta &=(\omega_1 \dd x+\omega_2\dd y+\omega_3 \dd z)\wedge(\eta_1 \dd x+\eta_2\dd y+\eta_3 \dd z) \\ &=\omega_1\eta_2\dd x\wedge \d y+\omega_1\eta_3\dd x\wedge \d z+\omega_2\eta_1 \dd y\wedge \d x+\omega_2\eta_3\dd y\wedge \d z+\omega_3\eta_1 \dd z \wedge \d x+\omega_3\eta_2 \dd z\wedge \d y \\ &=(\omega_2\eta_3-\omega_3\eta_2)\dd y\wedge \d z+(\omega_3\eta_1-\omega_1\eta_3) \dd z \wedge \d x+(\omega_1\eta_2-\omega_2\eta_1)\dd x\wedge \d y. \end{align*} \] Wir erhalten also allgemeiner die Korrespondenz
$$ \omega\wedge\eta \ \longleftrightarrow \ \underline\omega\times\underline\eta=\vec{\omega_2\eta_3-\omega_3\eta_2}{\omega_3\eta_1-\omega_1\eta_3}{\omega_1\eta_2-\omega_2\eta_1}. $$
Nun betrachten wir eine $2$-Form $\Psi=\Psi_{23} \dd y\wedge \d z+\Psi_{31} \dd z \wedge \d x +\Psi_{12}\dd x\wedge \d y$. Dann haben wir \[ \begin{align*} \d\Psi &=\d(\Psi_{23} \dd y\wedge \d z+\Psi_{31} \dd z \wedge \d x +\Psi_{12}\dd x\wedge \d y) \\ &=\d\Psi_{23}\wedge \d y\wedge \d z+\d\Psi_{31} \wedge\d z \wedge \d x+\d\Psi_{12}\wedge\d x\wedge \d y \\ &=\frac{\partial \Psi_{23}}{\partial x}\dd x\wedge \d y\wedge \d z +\frac{\partial \Psi_{31}}{\partial y} \dd y \wedge\d z \wedge \d x+\frac{\partial \Psi_{12}}{\partial z}\dd z\wedge\d x\wedge \d y \\ &=\left(\frac{\partial \Psi_{23}}{\partial x}+\frac{\partial \Psi_{31}}{\partial y}+\frac{\partial \Psi_{12}}{\partial z}\right) \dd x\wedge\d y\wedge\d z, \end{align*} \] also insgesamt $$ \d\Psi=\left(\frac{\partial \Psi_{23}}{\partial x}+\frac{\partial \Psi_{31}}{\partial y}+\frac{\partial \Psi_{12}}{\partial z}\right) \dd x\wedge\d y\wedge\d z. $$ Man halte sich erneut fest: $\d \Psi$ korrespondiert unter der Korrespondenz $$ f(x,y,z) \dd x\wedge \d y\wedge \d z \ \longleftrightarrow \ f(x,y,z) $$ zu der Divergenz $\div(\underline\Psi)$ von $\underline\Psi$, also
$$ \d\Psi=\div(\underline\Psi)\mathcal V=(\nabla\cdot \underline \Psi)\mathcal V=\left(\frac{\partial \Psi_{23}}{\partial x}+\frac{\partial \Psi_{31}}{\partial y}+\frac{\partial \Psi_{12}}{\partial z}\right)\mathcal V $$
wobei $\mathcal V=\d x\wedge \d y\wedge \d z$ die Volumenform von $\mathbb R^3$ bezeichnet. Die fundamentale Identität $\d^2=0$ hat durch die obigen Erkenntnisse eine wichtige Bedeutung für die klassische Vektoranalysis. Betrachten wir $\omega=\d f$, dann erhalten wir sofort die folgende bekannte Aussage der Vektoranalysis
$$ \d\omega=\d^2f=0 \iff \rot(\opn{grad}(f))=\nabla\times\nabla f=0. $$
Nehmen wir stattdessen $\Psi=\d\omega$, dann erhalten wir
$$ \d\Psi=\d^2\omega=0 \iff \div(\rot(\underline\omega))=\nabla\cdot(\nabla\times\underline\omega)=0. $$
Wir können diese Erkenntnisse in folgendem Diagramm zusammenfassen, welches nochmal eindrucksvoll zeigt, wie viel schöner, einheitlicher und einfacher die Theorie der Differentialformen ist.
\begin{tikzcd} {\Omega^0(\mathbb R^3)} && {\Omega^1(\mathbb R^3)} && {\Omega^2(\mathbb R^3)} && {\Omega^3(\mathbb R^3)} \\ \\ {C^\infty(\mathbb R^3)} && {C^\infty(\mathbb R^3,\mathbb R^3)} && {C^\infty(\mathbb R^3,\mathbb R^3)} && {C^\infty(\mathbb R^3)} \arrow["{\mathrm d}", from=1-1, to=1-3] \arrow["{\mathrm d}", from=1-3, to=1-5] \arrow["{\operatorname{grad}}"', from=3-1, to=3-3] \arrow["{\operatorname{rot}}"', from=3-3, to=3-5] \arrow["{=}"{description}, tail reversed, from=1-1, to=3-1] \arrow["\omega\leftrightarrow\underline\omega"{description}, tail reversed, from=1-3, to=3-3] \arrow["\Psi\leftrightarrow\underline\Psi"{description}, tail reversed, from=1-5, to=3-5] \arrow["{\mathrm d}", from=1-5, to=1-7] \arrow["{\operatorname{div}}"', from=3-5, to=3-7] \arrow["{f\ \mathcal V \leftrightarrow f}"{description}, tail reversed, from=1-7, to=3-7] \end{tikzcd}
Wenn man mit Formen arbeitet, dann muss man sich diese und viele andere Identitäten der Vektoranalysis nicht mehr merken. Vielmehr, wenn man sie wirklich braucht, kann man solche Identitäten mit Hilfe von Differentialformen herleiten - oftmals sehr viel schneller und einfacher als mit den Methoden der Vektoranalysis.
Beispiel. Wir wollen die letzte Anmerkung an zwei Beispielen zeigen. Zunächst überlegt man sich als einfache Übung, dass für eine 1-Form $\omega$ und eine 2-Form $\Psi$ $$ \omega\wedge\Psi=(\underline \omega\cdot\underline\Psi)\mathcal V $$ gilt, wobei $\underline \omega\cdot\underline\Psi$ das Standardskalarprodukt auf $\mathbb R^3$ bezeichnet. Für eine glatte Funktion $f$ und eine 2-Form $\Psi$ haben wir nun $$ (\nabla\cdot(f\underline\Psi))\mathcal V=\d(f\Psi)=\d f\wedge \Psi+f\d\Psi=(\nabla f\cdot\underline\Psi+f\nabla\cdot\underline\Psi)\mathcal V $$ und erhalten dadurch die klassische Identität $$ \nabla\cdot(f\underline\Psi)=\nabla f\cdot\underline\Psi+f\nabla\cdot\underline\Psi. $$ Ist weiter $\omega$ eine 1-Form, dann haben wir $$ \d(f\omega)=\d f\wedge \omega+f\dd \omega $$ und erhalten mühelos die klassische Identität $$ \nabla\times(f\underline \omega)=\nabla f\times\underline\omega+f\nabla\times\underline\omega. $$
Zuletzt kann man als Faustregel festhalten: Je komplizierter die Vektoranalysis-Identitäten werden, desto größer wird die vereinfachende Kraft von Differentialformen.

Das Setting der Elektrodynamik

Wir sind nun bereit, die Maxwell-Gleichungen mit dem Formalismus der Differentialformen zu formulieren. In der klassischen Formulierung geht es dabei um das elektrische Feld $E=(E_x,E_y,E_z)$ und das Magnetfeld $B=(B_x,B_y,B_z)$, die beide von Raum und Zeit abhängig sind. Wir betrachten es allerdings etwas anders. Zunächst befinden wir uns nicht mehr im euklidischen $\mathbb R^3$, sondern können die Elektrodynamik direkt auf der Minkowski-Raumzeit $M$ formulieren. Diese ist die glatte Mannigfaltigkeit $\mathbb R^4$ mit Standardtopologie und dem glatten Atlas, der von der Karte $(\mathbb R^4,\opn{id}_{\mathbb R^4})$ erzeugt wird. Weiter haben wir auf $M$ eine Lorentz-Metrik $g$ mit der Signatur $(-,+,+,+)$. Bezeichnen wir die kartesischen Koordinaten auf $M$ mit $t,x,y,z$, dann ist die Metrik $g$ bezüglich diesen Koordinaten durch $$ g=-\d t\otimes\d t+\d x\otimes \d x+\d y\otimes \d y+\d z\otimes \d z $$ gegeben. Dabei verwenden wir Einheiten, in denen die Lichtgeschwindigkeit $c\equiv 1$ ist. Einsteins Entdeckung der speziellen Relativitätstheorie im Jahre 1905 war unmittelbar mit der Elektrodynamik verbunden. Am Anfang seines Papers von 1905 schreibt Einstein: "Daß die Elektrodynamik Maxwells - wie dieselbe gegenwärtig aufgefaßt zu werden pflegt - in ihrer Anwendung auf bewegte Körper zu Asymmetrien führt, welche den Phänomenen nicht anzuhaften scheinen, ist bekannt. Man denke z.B. an die elektrodynamische Wechselwirkung zwischen einem Magneten und einem Leiter. Das beobachtbare Phänomen hängt hier nur ab von der Relativbewegung von Leiter und Magnet, während nach der üblichen Auffassung die beiden Fälle, daß der eine oder der andere dieser Körper der bewegte sei, streng voneinander zu trennen sind. Bewegt sich nämlich der Magnet und ruht der Leiter, so entsteht in der Umgebung des Magneten ein elektrisches Feld von gewissem Energiewerte, welches an den Orten, wo sich Teile des Leiters befinden, einen Strom erzeugt. Ruht aber der Magnet und bewegt sich der Leiter, so entsteht in der Umgebung des Magneten kein elektrisches Feld, dagegen im Leiter eine elektromotorische Kraft, welcher an sich keine Energie entspricht, die aber - Gleichheit der Relativbewegung bei den beiden ins Auge gefassten Fällen vorausgesetzt - zu elektrischen Strömen von derselben Größe demselben Verlaufe Veranlassung gibt, wie im ersten Falle die elektrischen Kräfte" Einstein hat also realisiert, dass weder das klassische elektrische Feld noch das klassische Magnetfeld getrennt voneinander eine absolute Existenz haben - beide sind lediglich beobachterabhängige Realisierungen eines einzigen elektromagnetischen Felds. Dies führte ihn (unter anderem über Minkowski) zu der Erkenntnis, dass Raum und Zeit keine voneinander unabhängige absolute Existenz haben - beide sind lediglich beobachterabhängige Aspekte der Geometrie der Raumzeit, welche eine absolute Existenz besitzt. Anstatt also mit der unhaltbaren klassischen Formulierung des elektrischen und magnetischen Feldes zu arbeiten, setzen wir nun $$ E=E_x\dd y\wedge \d z+E_y \dd z\wedge \d x+E_z\dd x\wedge \d y $$ und $$ \varepsilon=E_x \dd x+E_y\dd y+E_z\dd z. $$ Weiter setzen wir $$ B=B_x \dd y\wedge \d z+B_y \dd z\wedge \d x+B_z\dd x\wedge \d y $$ und $$ \beta=B_x \dd x+B_y\dd y+B_z\dd z. $$ $\underline E$ bzw. $\underline \varepsilon$ sind dann also das klassische elektrische Feld und $\underline B$ bzw. $\underline\beta$ das klassische Magnetfeld. Mit diesen Bezeichnungen hat Einstein also entdeckt, dass keine der obigen Formen $E,\varepsilon,B,\beta$ eine absolute beobachterunabhängige Existenz hat. D.h. das Beobachter, die sich relativ zueinander in Bewegung befinden, nicht über die Stärke des elektrischen bzw. magnetischen Felds übereinstimmen. Gleichzeitig stimmen sie aber auch nicht über Raum und Zeit überein. Letzteres geschieht auf eine Weise, die die physikalischen Phänomene unabhängig von der Relativbewegung der Beobachter macht - schließlich gibt es nur eine einzige physikalische Realität. Bemerkenswerterweise gibt es aber eine Art und Weise die obigen Formen zu einem einzigen elektromagnetischen Feld zusammenzusetzen, welches eine absolute Existenz in der Raumzeit $M$ besitzt! Diese mit $F$ bezeichnete $2$-Form heißt die Faraday 2-Form und ist durch
$$ F:=\varepsilon\wedge\d t+B $$
gegeben.
Bemerkung. Innerhalb der Physik spricht man bei $F$ auch häufig vom so genannten elektromagnetischen Feldstärketensor. Man bedenke aber, dass es sich bei $F$ formal um ein Tensorfeld handelt, wobei ich zugeben muss, dass Feldstärketensorfeld auch absurd klingt.
Betrachten wir nun eine Ladung $q$ in dem durch $F$ beschriebenen elektromagnetischen Feld. Die Ladung $q$ habe eine 4-Geschwindigkeit $v$, einen 4-Impuls, der durch eine 1-Form $p$ beschrieben wird und die Eigenzeit $\tau$. Die $1$-Form $qF(\cdot,v)$ beschreibt nun die elektromagnetische Kraft, die auf die Ladung $q$ wirkt $$ \frac{\d p}{\d\tau}=qF(\cdot,v). $$ Durch Einsetzen eines Vektors $u$ in diese $1$-Form erhält man (physikalisch) den Betrag der Kraft, die in die Richtung des eingesetzten Vektors wirkt. Man vergleiche das mit dem komplizierten Gesetz der Lorentz-Kraft: Die Ableitung des räumlichen Impulses $p$ eines Teilchens mit der räumlichen Geschwindigkeit $v$ ist durch $$ \frac{\d p}{\d t}=q(\underline E+v\times\underline B) $$ gegeben. Man bedenke: Beobachter, die sich relativ zueinander bewegen, würden über $p$, $\underline E$, $v$ und $\underline B$ nicht übereinstimmen! Das geometrische (also beobachterunabhängige) Raumzeit-Gesetz $\frac{\d p}{\d\tau}=qF(\cdot,v)$ ist an dieser Stelle, wie ich finde, wesentlich eleganter und einfacher. Zuletzt können wir uns noch überlegen, wie die Komponenten von $F$ bezüglich der Karte $(\mathbb R^4,t,x,y,z)$ der Raumzeit $M$ aussehen. Wir wollen also $$ F=F_{\mu \nu} \dd x^\mu\wedge \d x^\nu $$ schreiben, wobei $\mu,\nu=0,1,2,3$ und $x^0=t,x^1=x,x^2=y,x^3=z$. Aufgrund der Antisymmetrie haben wir $F_{\mu\mu}=0$ und $F_{\mu \nu}=-F_{\nu\mu}$. Wir müssen daher nur $F_{01}, F_{02},F_{03},F_{12}, F_{13}$ und $F_{23}$ bestimmen. Wir haben \[ \begin{align*} F_{01}=F(\partial_t,\partial_x) &=\varepsilon\wedge\d t(\partial_t,\partial_x)+B(\partial_t,\partial_x)=\varepsilon(\partial_t)\cdot \d t(\partial_x)-\d t(\partial_t)\cdot \varepsilon(\partial_x)+B(\partial_t,\partial_x)=-E_x \\ F_{02}=F(\partial_t,\partial_y) &=-E_y \\ F_{03}=F(\partial_t,\partial_z) &=-E_z \\ F_{12}=F(\partial_x,\partial_y) &=\varepsilon(\partial_x)\cdot \d t(\partial_y)-\d t(\partial_x)\cdot \varepsilon(\partial_y)+B(\partial_x,\partial_y)=B_z \\ F_{13}=F(\partial_x,\partial_z) &=\varepsilon(\partial_x)\cdot \d t(\partial_z)-\d t(\partial_x)\cdot \varepsilon(\partial_z)+B(\partial_x,\partial_z)=-B_y \\ F_{23}=F(\partial_y,\partial_z) &=\varepsilon(\partial_y)\cdot \d t(\partial_z)-\d t(\partial_y)\cdot \varepsilon(\partial_z)+B(\partial_y,\partial_z)=B_x. \end{align*} \] Insgesamt haben wir also die folgenden Komponenten der Faraday 2-Form bezüglich unserer Karte: $$ (F_{\mu\nu})_{0\leq \mu,\nu\leq 3} =\begin{pmatrix} 0 & -E_x & -E_y & -E_z \\ E_x & 0 & B_z & -B_y \\ E_y & -B_z & 0 & B_x \\ E_z & B_y & -B_x & 0 \end{pmatrix}. $$ Mit der anderen Signatur $(+,-,-,-)$ würde man entsprechend die mit $-1$ multiplizierten Komponenten erhalten.

Die Maxwell-Gleichungen

Wir beginnen nun mit den quellenfreien Maxwell-Gleichungen, welche in der Vektoranalysis die Gestalt $$ \nabla\cdot\underline B=0, \quad \nabla\times\underline E+\frac{\partial}{\partial t}\underline B=0 $$ annehmen. Wir bezeichnen von nun an mit $\d_R$ den räumlichen Anteil der äußeren Ableitung auf $M$, so dass also $$ \d f=\d_Rf+\frac{\partial f}{\partial t}\dd t $$ gilt. Mit dieser nützlichen Bezeichnung betrachten wir nun die äußere Ableitung der Faraday 2-Form $F$. Es ist $$ \d F=\d(\varepsilon\wedge \d t)+\d B. $$ Weiter ist $$ \d(\varepsilon\wedge \d t)=\d\varepsilon\wedge \d t=\d_R\varepsilon\wedge \d t=(\text{2-Form zu } \nabla\times\underline E)\wedge \d t. $$ Zudem ist $$ \d B=\d_RB+\left(\frac{\partial B_x}{\partial t} \dd t\wedge \d y\wedge \d z+\dots\right)=(\nabla\cdot \underline B)\mathcal V+\d t\wedge\left(\frac{\partial B_x}{\partial t}\dd y\wedge \d z+\dots\right) $$ und somit $$ \d B=(\nabla\cdot \underline B)\mathcal V+\d t\wedge \frac{\partial}{\partial t}B. $$ Wegen $\d t\wedge \frac{\partial}{\partial t}B=\frac{\partial}{\partial t}B\wedge\d t$ und weil $$ \frac{\partial}{\partial t}B=\text{2-Form zu } \frac{\partial}{\partial t}\underline B, $$ erhalten wir insgesamt $$ \d F=(\nabla\cdot \underline B)\mathcal V+\left(\text{2-Form zu } \nabla\times\underline E+\frac{\partial}{\partial t}\underline B\right)\wedge\d t. $$ Ein Blick auf die quellenfreien Maxwell-Gleichungen zeigt uns nun, welche einfache und schöne Erkenntnis sie uns eigentlich liefern wollen:
Satz. Die quellenfreien Maxwell-Gleichungen besagen, dass die Faraday 2-Form geschlossen ist: $$ \d F=0. $$
Es stellt sich heraus (Poincaré Lemma), dass die Faraday 2-Form auch exakt ist. Es gibt daher eine 1-Form $A$ derart, dass $F=\d A$ gilt. In der klassischen Theorie betrachtet man das zugehörige Vektorpotential $\underline A$. Das erklärt auch direkt die Eichfreiheit, die man bei der Wahl des Potentials $A$ hat. Wir kommen nun zu den Maxwell-Gleichungen mit Quellen, also mit elektrischer Ladungsdichte $\rho$ und elektrischer Stromdichte $\underline j$. Diese nehmen mit den klassischen Schreibweisen folgende Gestalt an: $$ \nabla\cdot \underline E=4\pi\rho, \quad \nabla\times \underline B-\frac{\partial}{\partial t}\underline E=4\pi\underline j. $$ Zunächst können wir aus der Ladungsdichte und der Stromdichte eine 1-Form auf der Raumzeit machen. Wir setzen $$ J:=-\rho \dd t+j, $$ wobei $j$ die (räumliche) 1-Form ist, die zu dem (räumlichen) Vektorfeld $\underline j$ korrespondiert. Nun betrachten wir $\star J$, wobei $\star$ den Hodge-Stern-Operator bezeichnet. Letzterer bildet in unserem Fall eine $k$-Form auf der Raumzeit $M$ auf eine $(4-k)$-Form auf $M$ ab. Für die 1-Form $J$ erhält man dabei $$ \star J=-\rho \mathcal V+(\text{2-Form zu }\underline j)\wedge \d t. $$ Weiter ist die zur Faraday 2-Form duale sogenannte Maxwell 2-Form $\star F$ gegeben durch $$ \star F=\beta\wedge \d t-E. $$ Da $\star F$ sich von $F$ nur durch Ersetzen von $E$ und $B$ und durch ein zusätzliches Minuszeichen unterscheidet, können wir die obige Rechnung für $\d F$ übernehmen und erhalten $$ \d\star\! F=-(\nabla\cdot \underline E)\mathcal V+\left(\text{2-Form zu } \nabla\times\underline B-\frac{\partial}{\partial t}\underline E\right)\wedge\d t. $$ Durch die Maxwell-Gleichungen erhalten wir damit $$ \d\star\! F=4\pi\left(-\rho\mathcal V+\left(\text{2-Form zu }\underline j\right)\wedge \d t\right)=4\pi\star\! J. $$ Wir können all das zu folgender, sehr schönen, Erkenntnis zusammenfassen:
Satz. Die Maxwell-Gleichungen mit Quellen besagen, dass $$ \d\star \! F=4\pi\star \! J $$ gilt.
Abschließend wollen wir beide Erkenntnisse noch zusammenfassen:
Satz. Die klassischen Maxwell-Gleichungen \[ \begin{align*} \nabla\cdot\underline B &=0 \quad \nabla\times\underline E+\frac{\partial}{\partial t}\underline B=0 \\ \nabla\cdot \underline E &=4\pi\rho \quad \nabla\times \underline B-\frac{\partial}{\partial t}\underline E=4\pi\underline j \end{align*} \] sind äquivalent zu $$ \d F=0, \quad \d\star \! F=4\pi\star \! J. $$

Abschließende Bemerkungen

Ich hoffe, dass dieser Artikel vor allem den "Opfern" der Vektoranalysis einen ersten Eindruck geben konnte, dass man diesen Zustand nicht länger ertragen muss! ;) Persönlich kann ich es einfach nicht mehr nachvollziehen, warum die Vektoranalysis heutzutage immer noch so präsent ist, aber Physik- und Mathematikstudenten häufig keinen bis wenig Kontakt zu Differentialformen haben. An meiner Uni höre ich sogar öfter mal "weil Differentialformen zu schwer und kompliziert sind" oder "weil das niemand braucht" - dieser Artikel hat hoffentlich das absolute Gegenteil aufgezeigt. Die Kraft und Schönheit der Differentialformen ist bereits auf dem $\mathbb R^n$ nicht zu übersehen und da ist es doch bemerkenswert, dass der gleiche Formalismus auf völlig allgemeinen glatten Mannigfaltigkeiten anwendbar ist. Durch Differentialformen wird also wirklich alles schöner, allgemeiner und sehr oft auch einfacher. Doch dieser Artikel war erst der Anfang der Schönheit. Im nächsten Artikel, der sich an diesen anschließen wird, wollen wir uns mit der Integration von Differentialformen beschäftigen - das ist quasi der "echte" Lebenszweck von Differentialformen. Dabei werden wir auch den allgemeinen Satz von Stokes betrachten, der die klassischen Integralsätze der Vektoranalysis vereinheitlicht und sehr viel einfacher macht. Nebenbei wird der Satz noch viele weitere bemerkenswerte Konsequenzen haben. Wer es nicht aushalten kann, darf schonmal einen Blick auf diesen wunderschönen Satz werfen: $$ \int_M \d \omega=\int_{\partial M} \omega. $$ In diesem Sinne: Bis zum nächsten mal :) LG Nico Vielen Dank an PhysikRabe für das Korrekturlesen und deine Anregungen!

\(\endgroup\)
Get link to this article Get link to this article  Printable version Printer-friendly version -  Choose language     Kommentare zeigen Comments  
pdfFür diesen Artikel gibt es keine pdf-Datei


Arbeitsgruppe Alexandria Dieser Artikel ist im Verzeichnis der Arbeitsgruppe Alexandria eingetragen:
: Analysis :: Differentialgeometrie :: Differentialformen :: Cartan-Ableitung :: Elektrodynamik :: Spezielle Relativitätstheorie :: Vektoranalysis :: Physik :
Wie Differentialformen alles schöner und einfacher machen [von nzimme10]  
[Die Arbeitsgruppe Alexandria katalogisiert die Artikel auf dem Matheplaneten]

 
 
Aufrufzähler 1102
 
Aufrufstatistik des Artikels
Insgesamt 45 externe Seitenaufrufe zwischen 2022.12 und 2023.02 [Anzeigen]
DomainAnzahlProz
https://google.com48.9%8.9 %
https://google.de920%20 %
https://google.fr3168.9%68.9 %
https://suche.web.de12.2%2.2 %

Aufrufer der letzten 5 Tage im Einzelnen
Insgesamt 4 Aufrufe in den letzten 5 Tagen. [Anzeigen]
DatumAufrufer-URL
2023.02.01-2023.02.07 (4x)https://google.com/

Häufige Aufrufer in früheren Monaten
Insgesamt 39 häufige Aufrufer [Anzeigen]
DatumAufrufer-URL
202301-01 (31x)https://google.fr/
202212-12 (8x)https://google.de/

[Top of page]

"Mathematik: Wie Differentialformen alles schöner und einfacher machen" | 15 Comments
The authors of the comments are responsible for the content.

Re: Wie Differentialformen alles schöner und einfacher machen
von: Kezer am: So. 27. November 2022 21:49:13
\(\begingroup\)Wow, ich wusste gar nicht, dass Needham ein neues Buch veröffentlicht hat! Großen Dank schon mal dafür (... auch wenn ich nicht weiß, wo ich die Zeit finden soll, dieses Buch zu lesen)! Ich hoffe auch, dass ich bald mal Zeit finde, deine letzten Artikeln auf dem MP zu lesen - sie sehen auf jeden Fall großartig aus.\(\endgroup\)
 

Re: Wie Differentialformen alles schöner und einfacher machen
von: nzimme10 am: So. 27. November 2022 22:10:17
\(\begingroup\)@Kezer: Ja, ich habe das vor ein paar Monaten herausgefunden und war völlig aus dem Häuschen. Das Buch hat mich kein bisschen enttäuscht und sogar jede Erwartung übertroffen. Definitiv sehr lesenswerte knapp über 500 Seiten! :) Vielen Dank auch für deine netten Worte. LG Nico\(\endgroup\)
 

Re: Wie Differentialformen alles schöner und einfacher machen
von: AnnaKath am: So. 04. Dezember 2022 12:22:53
\(\begingroup\)Unlängst waren wir mit der Familie am See und die Sonne ging (da es Winter ist recht früh) unter. Stäbchen und Zäpfen hüpften unter den gemäss der Maxwell-Gleichungen eintreffenden Photonen, Neuronen feuerten und meldeten etwas, das der Rest der grauen Masse als sanftes Rot interpretierte, und genauso gehorchten die Nervenimpulse, die mir die Nähe der wichtigen weitern Person meldeten, jenen Gleichungen. Doch der Tag wäre nicht schön gewesen, wenn wir in Divrotgrad lebten, und so habe ich - zugegeben nach einem Gin Tonic - darüber nachgedacht, wie Differentialformen einfach alles schöner machen. Ohne Deinen unterhaltsamen und klugen Artikel wäre es wohl nur ein einfach traumhafter Sonnenuntergang gewesen. Danke, Nico!\(\endgroup\)
 

Re: Wie Differentialformen alles schöner und einfacher machen
von: nzimme10 am: So. 04. Dezember 2022 22:31:13
\(\begingroup\)Liebe AK, man sollte doch meinen, dass ein traumhafter Sonnenuntergang bereits alles ist, was man braucht - doch offenbar kann das täuschen ;) Danke für deinen sehr netten Kommentar. LG Nico\(\endgroup\)
 

Re: Wie Differentialformen alles schöner und einfacher machen
von: Hans-Juergen am: Mo. 05. Dezember 2022 21:54:06
\(\begingroup\)Hallo nzimme10, die 3D-Vektoranalysis als "pervers" und "skanadlös" zu bezeichnen, ist schon ein starkes Stück und stört mich als Physiker sehr. Auch sehe ich nicht, was an der Verwendung von Differentialformen an ihrer Stelle "einfacher" und "schöner" sein soll. Besonders letzteres ist ein rein subjektives Werturteil. Es gibt kein allgemein anerkanntes Maß für Schönheit in der Mathematik. Von den "Opfern" der Vektoranalysis zu sprechen, empfinde ich als überheblich und nehme an, dass Du den von Dir beklagten, gegenwärtigen Zustand noch eine Weile "ertragen" musst. Mit freundlichem Gruß Hans-Jürgen \(\endgroup\)
 

Re: Wie Differentialformen alles schöner und einfacher machen
von: nzimme10 am: Mo. 05. Dezember 2022 22:16:02
\(\begingroup\)Hallo Hans-Juergen, das darf dich natürlich stören. Sowohl "pervers" als auch "skandalös" sind aber an dieser Stelle nicht meine Worte, sondern eben Zitate von Dieudonné bzw. Needham, denen ich mich anschließe. Das genaue Zitat von Dieudonné lautet übrigens: "At the end of the nineteenth century, not much more could be credited to exterior algebra, and Engel concluded his biography on a melancholy note, relegating Grassmann to the rank of unheeded prophet of what was then the fashion among mathematicians (and has remained as popular with present day physicists), the horrible "Vector analysis", which we now see as a complete perversion of Grassmanns best ideas." Natürlich gibt es kein allgemeines Maß für Schönheit, aber sicher mein eigenes und meine eigene Meinung, die ich in diesem Artikel zum Ausdruck bringe und erläutere, warum ich das so sehe - das sollte aus dem Artikel auch klar hervorgehen, dass es um meine eigene Meinung geht. Allerdings finde ich es schon erstaunlich, wenn nicht spätestens der Abschnitt über Vektoranalysis mit Differentialformen bzw. über die Elektrodynamik klar zeigt, wie viel einfacher die Formulierungen mit Differentialformen werden. Die Formulierung der Elektrodynamik auf der Raumzeit funktioniert mit klassischer Vektoranalysis nebenbei eigentlich gar nicht. LG Nico\(\endgroup\)
 

Re: Wie Differentialformen alles schöner und einfacher machen
von: PhysikRabe am: Di. 06. Dezember 2022 00:23:41
\(\begingroup\)Hallo Hans-Jürgen & Nico, diese Wertung der üblichen Vektoranalysis ist im Kontext des Artikels zu verstehen, in dem es um die präzise Beschreibung in der Sprache der Differentialgeometrie geht. Es ist eine gewollt überspitzte Wortwahl, die an die in der Einleitung erwähnten Zitate anschließt, und zwischendurch auch offensichtlich humoristisch zu interpretieren ist (siehe Smiley im Text). Wie nzimme10 bereits klar gestellt hat handelt es sich dabei aber auch um seine persönliche Meinung. Davon muss man sich nicht angegriffen fühlen. Ich für meinen Teil sehe die Dinge nicht so extrem wie das in den Zitaten der Herren Dieudonné und Needham impliziert wird. Es ist richtig, dass die übliche drei-dimensionale Vektoranalysis ihre Schwächen hat und in der Art und Weise, wie sie seit längerer Zeit im Physik-Studium gelehrt wird, sehr viel von der allgemeinen Struktur verschleiert. Das verhindert ein tieferes Verständnis für die Thematik und erschwert das Studium fortgeschrittenerer Gebiete in der theoretischen Physik. Eine Präsentation der wichtigsten Begriffe der Analysis auf Mannigfaltigkeiten im Rahmen des Bachelor-Studiums Physik (und eine spätere Fortsetzung in der Form von unmittelbarer Anwendung in der theoretischen Physik) wäre nicht nur sehr hilfreich, sondern auch durchaus zeitgemäß. Das würde eine Überarbeitung der Curricula erfordern. Andererseits sollte die herkömmliche Vektoranalysis nicht gänzlich vernachlässigt werden. Ihre große Stärke liegt in der Anwendung, und zwar dort, wo es wirklich sinnvoll ist. Sie ist ein Werkzeug für die praktische Berechnung und Manipulation von Vektorfeldern, denen man z.B. in Praktika begegnet. Das ist auch der wesentliche Grund, warum das in dieser Form weiterhin gelehrt wird. Den Zusammenhang zu Tensoranalysis und Differentialformen -- so wichtig das für das prinzipielle Verständnis ist -- benötigt man in diesen Anwendungen kaum. (Wäre dem so, dann hätten sich die Vorlesungen bereits vor Jahrzehnten anders entwickelt.) An dieser scheinbaren Ambivalenz sehe ich aber nichts Verwerfliches. Es gibt für ein und die selbe Thematik im Allgemeinen verschiedene Perspektiven. Je nach Blickwinkel offenbart sich ein anderer Aspekt. Für ein umfassendes Verständnis muss man die Sache von allen Seiten einmal betrachtet haben. Man sollte diese Vielfalt begrüßen, und wertschätzen, dass die Dinge bunt und nicht schwarz-weiß sind. Am wichtigsten ist es zu erlernen, in welcher Situation man welche Perspektive einnimmt um möglichst effizient ein Problem bearbeiten zu können. In diesem Sinne sollte das Studium einfach nur ergänzt werden. Dass das noch nicht geschehen ist, mag man als "Skandal" bezeichnen, wenn man möchte. Ich persönlich finde übrigens, dass es nicht nur kein allgemeines Maß für "Schönheit" gibt, sondern dass die Schönheit eines Formalismus prinzipiell etwas Relatives ist, das sich an der Effizienz im Rahmen der jeweils vorliegenden Situation orientiert. Meine Meinung, aus der Sicht eines Mathematischen Physikers. Viele Grüße, PhysikRabe\(\endgroup\)
 

Re: Wie Differentialformen alles schöner und einfacher machen
von: nzimme10 am: Di. 06. Dezember 2022 00:47:07
\(\begingroup\)Hallo PhysikRabe, danke für deine ausführliche Einschätzung! Vielleicht sollte ich an dieser Stelle auch mal grundlegend etwas klarstellen: Meine Intention bzw. Absicht ist nicht, dass die Vektoranalysis von nun an ab Tag 1 des Studiums ersetzt werden sollte. Der "Skandal" aus Sicht von Needham (und dem schließe ich mich an) ist ja auch viel mehr, dass die Vektoranalysis häufig das einzige ist, was man sieht. Das ist, was ich nicht nachvollziehen kann. Man sollte meiner Meinung nach auch sehen, wie das ganze mit Mitteln der Differentialgeometrie aussehen könnte und wie das beim konzeptionellen Verständnis sehr helfen kann. Einige Teile der theoretischen Physik können (nicht müssen) in der Sprache der Differentialgeometrie formuliert werden. Ich denke da neben dem offensichtlichen Kunden der ART z.B. auch an Formulierungen der Quantenmechanik mit Hilfe von $\mathbb C$-Linienbündeln über dem jeweiligen Raum, Eichfeldtheorien mit Hilfe von Hauptfaserbündeln und Zusammenhängen darauf oder einfach nur die klassische Mechanik mit ihrem Phasenraum (Kotangentialbündel). Insofern finde ich absurd, dass man diese Sprache und Hilfsmittel (aus Sicht eines Physikers sind sie das wohl) nicht auch z.B. bei der Elektrodynamik oder anderen Bereichen sieht, wo momentan die Vektoranalysis vorherrscht. Das halte ich für einen Fehler und glaube, dass es vielen Studenten beim konzeptionellen Verständnis helfen würde und ganz nebenbei kann das ja auch einfach nur eine Bereicherung für die Anwendung der Vektoranalysis sein (z.B. haben 2-Formen eine sehr natürliche Interpretation als Fluss durch eine Oberfläche. Das ist sicherlich ein Konzept, das man in der Vektoranalysis auch häufig sieht, aber nur umständlich umsetzen kann) und muss diese nicht unbedingt direkt ersetzen. Ich sehe ein, dass der Artikel an vielen Stellen doch eher polemisch gegenüber der Vektoranalysis formuliert ist, aber das ist durchaus auch gewollt - ob es passend ist darf da natürlich jeder selbst entscheiden. LG Nico\(\endgroup\)
 

Re: Wie Differentialformen alles schöner und einfacher machen
von: PhysikRabe am: Di. 06. Dezember 2022 01:22:13
\(\begingroup\)Hallo Nico, ich stimme dir zu und halte es auch für einen Fehler, dass die Sprache der Differentialgeometrie den Studierenden vorenthalten wird. Sie fallen dann unweigerlich aus allen Wolken (ich spreche aus Erfahrung), sobald sie konkreten Anwendungen in der theoretischen Physik begegnen, wo das "state of the art" ist. Das selbe trifft aber auch auf andere Gebiete der Mathematik zu. Generell kommt die mathematische Ausbildung im Physik-Studium zu kurz, auch wenn es Unterschiede zwischen den Unis gibt. Sollte jemand mitlesen und interessiert sein: Die von nzimme10 erwähnte Anwendung in der klassischen Mechanik wird sehr schön im Buch "Mathematical Methods of Classical Mechanics" von V. I. Arnold präsentiert. Das Werk beinhaltet u.a. die Hamilton-Mechanik in der Sprache von symplektischen Mannigfaltigkeiten und Bündeln. Natürlich muss man diese Dinge nicht im Detail kennen (tue ich übrigens auch nicht), aber es sollte einem bewusst sein, wie fundamental dieser Formalismus tatsächlich ist. Viele Grüße, PhysikRabe\(\endgroup\)
 

Re: Wie Differentialformen alles schöner und einfacher machen
von: Lavendeltee am: Fr. 09. Dezember 2022 17:57:37
\(\begingroup\)Hallo, sollte man einmal die koordinatenfreie Formel für die Cartan-Ableitung einer $k$-Form vergessen haben – kann man sich diese dann leicht aus der charakterisierenden Eigenschaft, oder aus der Formel in lokalen Koordinaten herleiten? Viele Grüße Lavendeltee\(\endgroup\)
 

Re: Wie Differentialformen alles schöner und einfacher machen
von: nzimme10 am: Sa. 10. Dezember 2022 12:17:46
\(\begingroup\)Hallo Lavendeltee, die globale Formel für die äußere Ableitung einer 1-Form kann man sehr gut aus den charakterisierenden Eigenschaften zusammen mit der lokalen Darstellung herleiten. Dabei ist es am einfachsten, wenn man zunächst mit konstanten Vektorfeldern beginnt und sich dann überlegt, was sich ändert, wenn die Vektorfelder nicht konstant sind. Die allgemeine Formel geometrisch motiviert aus den Eigenschaften herzuleiten ist zwar möglich, aber das wären sehr aufwändige Rechnungen bei denen nicht wirklich klar ist, was eigentlich geometrisch genau passiert. Da würde ich mir lieber den Zusammenhang der äußeren Ableitung mit der Lie-Ableitung klarmachen und daraus die Formel herleiten. LG Nico\(\endgroup\)
 

Re: Wie Differentialformen alles schöner und einfacher machen
von: Lavendeltee am: Sa. 10. Dezember 2022 13:11:34
\(\begingroup\)Hallo, könntest Du vielleicht kurz skizzieren, welchen Zusammenhang zur Lie-Ableitung Du meinst, bzw. wie man daraus die Formel herleiten kann? Viele Grüße Lavendeltee\(\endgroup\)
 

Re: Wie Differentialformen alles schöner und einfacher machen
von: nzimme10 am: Sa. 10. Dezember 2022 14:16:19
\(\begingroup\)Hallo Lavendeltee, eine wirklich schöne Herleitung kann ich an dieser Stelle leider nicht bieten. Mit Hilfe von "Cartan's magischer Formel" $$ \mathcal L_X\omega=\iota_X(\mathrm d\omega)+\mathrm d(\iota_X\omega) $$ und einer entsprechenden globalen Formel für die Lie-Ableitung $\mathcal L_X\omega$ kann man induktiv die globale Formel für $\mathrm d\omega$ herleiten. Zugegeben ist das aber nur eine Verlagerung des Problems auf die globale Formel für die Lie-Ableitung. Von einem reinen "wie merkt man sich die Formel" Standpunkt aus würde ich mir daher einfach die Formel für die Cartan-Ableitung einer 1-Form merken und von deren Struktur aus die allgemeine Formel "zusammenbasteln". So viele Möglichkeiten hat man ohne Koordinaten ohnehin nicht, wenn man aus einer $k$-Form $\omega$ und $k+1$ Vektorfeldern $X_1,\dots,X_{k+1}$ eine Formel für $\mathrm d\omega(X_1,\dots,X_{k+1})$ hinschreiben möchte. Geometrisch am schönsten ist aber meiner Meinung nach die Darstellung der Cartan-Ableitung mit Hilfe von Integralen. Darauf werde ich dann im nächsten Artikel dieser Reihe eingehen. LG Nico\(\endgroup\)
 

Re: Wie Differentialformen alles schöner und einfacher machen
von: huHess am: Do. 26. Januar 2023 16:54:32
\(\begingroup\)Hallo Physik-Rabe, Hans-Jürgen und Nico, leider stieß ich erst jetzt auf Ihre Diskussion, aus der ich folgende Zitate herausgreife: " Eine Präsentation der wichtigsten Begriffe der Analysis auf Mannigfaltigkeiten im Rahmen des Bachelor-Studiums Physik (und eine spätere Fortsetzung in der Form von unmittelbarer Anwendung in der theoretischen Physik) wäre nicht nur sehr hilfreich, sondern auch durchaus zeitgemäß. Das würde eine Überarbeitung der Curricula erfordern. Andererseits sollte die herkömmliche Vektoranalysis nicht gänzlich vernachlässigt werden. Ihre große Stärke liegt in der Anwendung, und zwar dort, wo es wirklich sinnvoll ist. Sie ist ein Werkzeug für die praktische Berechnung und Manipulation von Vektorfeldern, denen man z.B. in Praktika begegnet. ... ... ich stimme dir zu und halte es auch für einen Fehler, dass die Sprache der Differentialgeometrie den Studierenden vorenthalten wird. Sie fallen dann unweigerlich aus allen Wolken ... Generell kommt die mathematische Ausbildung im Physik-Studium zu kurz, auch wenn es Unterschiede zwischen den Unis gibt" . Mehr Mathematik für Physik-Studierende. Ich denke, es geht um ein etwas tieferes Problem: Mathematikbücher (nicht nur der höheren Analysis) neigen dazu, den Bezug zur Realität von Physik und anderer Mathematik zu meiden; sodass Realitätsbezug schon für einen Mathematik-Studenten eine Herausforderung darstellt. Andererseits fragt sich ein Mathematiker bei der Lektüre von Physikbüchern oft, warum man so wenig die heute in der Mathematik übliche Kommunikationsweise übernimmt. Da klafft seit Jahren eine riesige Lücke, die selbst manch Gutmeinender nur im Laufe eines Lebens zu überbrücken lernt. Diese Überbrückung Studierenden aufzubürden, geht meiner Ansicht nach am Problem vorbei. Hier ein kleines Beispiel: Man hört oft, Thermodynamik fiele den Studierenden schwer. Schaue ich etwas näher hin, so kann ich mich nicht des Eindrucks erwehren, dass auch Fachleute hier Probleme haben. (siehe u.a. Making sense of statistical mechanics von Jean Bricmont usw.). Viele Grüße huhess \(\endgroup\)
 

Re: Wie Differentialformen alles schöner und einfacher machen
von: nzimme10 am: Fr. 27. Januar 2023 21:42:18
\(\begingroup\)Hallo huhess, sicherlich ist das auch ein Problem, was du ansprichst. Aber das ist meiner Meinung nach ein viel grundlegenderes Problem, als das Problem, welches ich mit meinem Artikel ansprechen möchte. Mir geht es eine Stufe weiter unten eigentlich zunächst einfach um den verwendeten Formalismus. LG Nico\(\endgroup\)
 

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2023 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]