Tensoren und Tensorfelder in der Differentialgeometrie
Von: nzimme10
Datum: Fr. 11. November 2022 09:17:20
Thema: Analysis
\(\renewcommand{\i}{\mathrm{i}} \renewcommand{\Re}{\operatorname{Re}} \renewcommand{\Im}{\operatorname{Im}} \newcommand{\e}{\mathrm{e}} \renewcommand{\d}{\mathrm{d}} \renewcommand{\dd}{\ \mathrm d} \newcommand{\ddz}{\frac{\mathrm{d}}{\mathrm{d}z}} \newcommand{\ddw}{\frac{\mathrm{d}}{\mathrm{d}w}} \newcommand{\ddt}{\frac{\mathrm{d}}{\mathrm{d}t}} \newcommand{\opn}{\operatorname} \renewcommand{\vec}[3]{\begin{pmatrix} #1 \\ #2\\ #3\end{pmatrix}} \newcommand{\rot}{\opn{rot}} \newcommand{\div}{\opn{div}}\)

Tensoren und Tensorfelder in der Differentialgeometrie

Ein Tensor ist ein Objekt, das wie ein Tensor transformiert. In etwa das ist die Definition in manchen Physikbüchern oder einführenden Vorlesungen. Diese "Definition" eignet sich zwar um Berechnungen durchführen zu können, aber wirklich verstehen kann man sie (zumindest am Anfang) nicht. Wenn man sich mit der Differentialgeometrie beschäftigt stellt man schnell fest, dass man in der Regel kein globales kanonisches Koordinatensystem mehr hat. Auf Mannigfaltigkeiten können daher nur Konzepte definiert werden, die unabhängig von den gewählten (lokalen) Koordinaten sind, die also intrinsisch definiert sind. Viele der Konzepte der Differentialgeometrie sind dafür gemacht, die Mittel der linearen und multilinearen Algebra darauf anzuwenden. Tensoren und Tensorfelder, das wird sich zeigen, sind dann genau die mathematischen Objekte, die diese koordinatenunabhängige Beschreibung verschiedener Eigenschaften möglich machen. Dieser Artikel möchte einen Beitrag zum Verständnis dieser Konzepte aus Sicht der Differentialgeometrie leisten.

Definitionen und Konstruktionen auf Ebene von Vektorräumen

Es seien $V$,$W$ und $U$ $\mathbb R$-Vektorräume. Dann heißt eine Abbildung $\beta\colon V\times W\to U$ $\mathbb R$-bilinear, wenn sowohl $\beta(v,\cdot)\colon W\to U, \ w\mapsto \beta(v,w)$ als auch $\beta(\cdot,w)\colon V\to U, \ v\mapsto \beta(v,w)$ für jede Wahl von $v\in V$ bzw. $w\in W$ $\mathbb R$-linear sind. Im Fall $U=\mathbb R$ (natürlich betrachtet als $\mathbb R$-Vektorraum) spricht man auch von einer Bilinearform.
Beispiele. Einige Beispiele für bilineare Abbildungen. $\bullet$ Die Multiplikation $\mu\colon \mathbb R\times \mathbb R\to\mathbb R, \ (x,y)\mapsto x\cdot y$. $\bullet$ Jedes Skalarprodukt $\langle\cdot,\cdot\rangle\colon V\times V\to \mathbb R$. $\bullet$ Das Kreuzprodukt aus der Vektoranalysis $\times \colon \mathbb R^3\times \mathbb R^3\to \mathbb R^3$. $\bullet$ Die Lie-Klammer $[\cdot,\cdot]\colon \mathfrak g\times \mathfrak g\to \mathfrak g$ einer Lie-Algebra $\mathfrak g$.
Wir bezeichnen mit $L(V,W;U)$ die Menge aller bilinearen Abbildungen $V\times W\to U$. Durch die naheliegenden punktweisen Verknüpfungen bildet $L(V,W;U)$ selbst einen $\mathbb R$-Vektorraum. Für einen Vektorraum $V$ bezeichne $V^*=L(V,\mathbb R)$ den Vektorraum aller linearen Abbildungen $V\to \mathbb R$ mit den punktweisen Verknüpfungen. $V^*$ heißt der (algebraische) Dualraum von $V$.
Beispiel. Sind $\omega\in V^*$ und $\eta\in W^*$, dann ist $\omega\otimes\eta\colon V\times W\to \mathbb R$ gegeben durch $$ \omega\otimes\eta(v,w):=\omega(v)\cdot\eta(w) $$ eine Bilinearform $V\times W\to \mathbb R$, also ein Element von $L(V,W;\mathbb R)$.
Es sei nun $v^1,\dots,v^n\in V^*$ eine Basis von $V^*$ und $w^1,\dots,w^m\in W^*$ eine Basis von $W^*$ (Potenzen werden in diesem Artikel selten vorkommen - die "Potenzen" sind natürlich einfach Indizes). Es ist dann eine sehr gute Übung sich zu überlegen, dass die Bilinearformen $v^i\otimes w^j$ für $1\leq i\leq n$ und $1\leq j\leq m$ eine Basis von $L(V,W;\mathbb R)$ bilden. Folglich lässt sich jede Bilinearform $\omega\in L(V,W;\mathbb R)$ eindeutig in der Form $$ \omega=\sum_{i=1}^n\sum_{j=1}^m \omega_{ij} \, v^i\otimes w^j=\omega_{ij} \, v^i\otimes w^j $$ schreiben, wobei $\omega_{ij}\in \mathbb R$ die Komponenten von $\omega$ bezüglich den jeweiligen Basen auf $V^*$ und $W^*$ sind (beim letzten Gleichheitszeichen verwenden wir die Einstein-Summationskonvention: wenn ein Index einmal unten und einmal oben "multiplikativ verknüpft" auftritt, dann wird über diesen Index summiert, wobei sich die Summationsgrenzen aus dem Kontext ergeben sollten).
Beispiel. Es sei $e_1,\dots,e_n$ die kanonische Basis des $\mathbb R^n$ und $\epsilon^1,\dots,\epsilon^n$ die dazu duale Basis von $(\mathbb R^n)^*$ (i.e. es gilt $\epsilon^i(e_j)=\delta^i_j$). Dann ist das Standardskalarprodukt $\langle\cdot,\cdot\rangle$ auf $\mathbb R^n$ die Bilinearform gegeben durch $$ \langle v,w\rangle=v_1w_1+v_2w_2+\dots+v_nw_n=\epsilon^1\otimes\epsilon^1(v,w)+\dots+\epsilon^n\otimes\epsilon^n(v,w), $$ also $$ \langle\cdot,\cdot\rangle=\sum_{j=1}^n \epsilon^j\otimes\epsilon^j. $$
Die obigen Beispiele können wir natürlich unmittelbar verallgemeinern.
Definition. Es seien $V_1,\dots,V_n,U$ $\mathbb R$-Vektorräume. Eine Abbildung $\omega\colon V_1\times\dots\times V_n\to U$ heißt multilinear (oder $n$-linear), wenn $\omega$ in jedem Argument bei festgehaltenen $n-1$ übrigen Argumenten eine $\mathbb R$-lineare Abbildung $V_i\to U$ ist. Wir schreiben $L(V_1,\dots,V_n;U)$ für den $\mathbb R$-Vektorraum aller $n$-linearen Abbildungen dieser Form.
Für $\omega\in L(V_1,\dots,V_n;\mathbb R)$ und $\eta\in L(W_1,\dots,W_m;\mathbb R)$ können wir dann eine $(n+m)$-lineare Abbildung $\omega\otimes \eta\in L(V_1,\dots,V_n,W_1,\dots,W_n;\mathbb R)$ durch $$ \omega\otimes\eta(v_1,\dots,v_n,w_1,\dots,w_m):=\omega(v_1,\dots,v_n)\cdot\eta(w_1,\dots,w_m) $$ definieren. Aufgrund der Assoziativität der Multiplikation auf $\mathbb R$ erkennt man direkt, dass dieses Tensorprodukt von Abbildungen ebenfalls assoziativ ist und wir daher problemlos etwas wie $\omega\otimes\eta\otimes \beta$ schreiben können. Ebenfalls analog zum bilinearen Fall findet man für diese allgemeineren Räume eine Basis: Wenn $v_{(i)}^1,\dots,v_{(i)}^{r_i}$ jeweils eine Basis von $V_i^*$ ist, dann bilden die Multilinearformen $$ v_{(1)}^{j_1}\otimes v_{(2)}^{j_2}\otimes \dots \otimes v_{(n)}^{j_n} $$ eine Basis von $L(V_1,\dots,V_n;\mathbb R)$. Eine $n$-lineare Abbildung $\omega\in L(V_1,\dots,V_n;\mathbb R)$ kann dann analog zum bilinearen Fall bezüglich diesen Basen eindeutig in der Form $$ \omega=\sum_{j_1=1}^{\dim(V_1)}\dots\sum_{j_n=1}^{\dim(V_n)} \omega_{j_1j_2\dots j_n} v_{(1)}^{j_1}\otimes v_{(2)}^{j_2}\otimes \dots \otimes v_{(n)}^{j_n}=\omega_{j_1j_2\dots j_n} v_{(1)}^{j_1}\otimes v_{(2)}^{j_2}\otimes \dots \otimes v_{(n)}^{j_n} $$ dargestellt werden. Mit all diesen Konzepten der linearen Algebra, können wir nun erklären, was man in der Differentialgeometrie unter einem Tensor versteht.
Definition. Ein $(r,s)$-Tensor auf $V$ ist eine $(r+s)$-lineare Abbildung $$ T\colon \underbrace{V^*\times \dots\times V^*}_{r}\times \underbrace{V\times \dots\times V}_{s}\to \mathbb R. $$ Den Vektorraum aller $(r,s)$-Tensoren auf $V$ bezeichnen wir mit $T^r_s(V)$.
Den Vektorraum $T^r_s(V)$ könnte man an dieser Stelle auch das Tensorprodukt von $r$ Kopien von $V$ und $s$ Kopien von $V^*$ nennen. Ein Algebraiker würde dieser Definition allerdings nur bedingt zustimmen. Wir werden es daher zunächst nicht so machen und uns im nächsten Unterkapitel ansehen, was mit dem Tensorprodukt von Vektorräumen eigentlich gemeint ist und was dieses abstrakte Tensorprodukt mit den obigen Tensoren zu tun hat.

Das Tensorprodukt der Algebraiker

Wir betrachten eine auf den ersten Blick etwas komische Konstruktion. Es seien $V$ und $W$ wieder $\mathbb R$-Vektorräume und $F(V\times W)$ der freie Vektorraum über $V\times W$. Das bedeutet, dass ein Element von $F(V\times W)$ eindeutig als endliche Linearkombination $$ \sum \lambda_i(v_i,w_i), \ \lambda_i\in \mathbb R, \ (v_i,w_i)\in V\times W $$ dargestellt werden kann. In $F(V\times W)$ können wir dann den Untervektorraum $S$ betrachten, der von Elementen der Form \[ \begin{align*} (v_1+v_2,w) &-(v_1,w)-(v_2,w), \\ (v,w_1+w_2) &-(v,w_1)-(v,w_2), \\ (\lambda v,w) &-\lambda(v,w), \\ (v,\lambda w) &-\lambda(v,w) \end{align*} \] für $v_1,v_2\in V$, $w_1,w_2\in W$ und $\lambda\in \mathbb R$ erzeugt wird.
Definition. Das Tensorprodukt $V\otimes W$ (über $\mathbb R$) von zwei $\mathbb R$-Vektorräumen $V$ und $W$ ist der Quotientenvektorraum $F(V\times W)/S$.
Wir bezeichnen die Äquivalenzklasse eines Paars $(v,w)\in V\times W$ mit $v\otimes w$ und nennen dies das Tensorprodukt von $v$ und $w$. Durch die spezielle Quotientenkonstruktion (das ist der Grund für die Definition von $S$) ist $v\otimes w$ bilinear: \[ \begin{align*} (v_1+v_2)\otimes w &=v_1\otimes w+v_2\otimes w, \\ v\otimes(w_1+w_2) &=v\otimes w_1+v\otimes w_2, \\ (\lambda v)\otimes w=\lambda( & v\otimes w)=v\otimes(\lambda w). \end{align*} \] Man kann das auch wie folgt ausdrücken: die Abbildung $\otimes\colon V\times W\to V\otimes W, \ (v,w)\mapsto v\otimes w$ ist bilinear. Nach Konstruktion als Quotientenvektorraum kann jedes Element in $V\otimes W$ in der Form $$ \sum \lambda_i(v_i\otimes w_i)=\sum (\lambda_i v_i)\otimes w_i $$ dargestellt werden. Diese Darstellung ist allerdings nicht eindeutig, denn z.B. ist $$ v_1\otimes w+v_2\otimes w=(v_1+v_2)\otimes w. $$ Man kann sich an dieser Stelle zurecht fragen, was diese (doch eher komische) Definition eines Tensorprodukts soll bzw. was das ganze bringt. Das wird durch die folgende Eigenschaft deutlich.
Satz (Universelle Abbildungseigenschaft). Es seien $V,W$ und $U$ $\mathbb R$-Vektorräume. Für jede $\mathbb R$-bilineare Abbildung $\beta\colon V\times W\to U$ gibt es eine eindeutig bestimmte $\mathbb R$-lineare Abbildung $\tilde \beta\colon V\otimes W\to U$ derart, dass $\beta=\tilde \beta\circ \otimes$ gilt, also das folgende Diagramm kommutiert:
\begin{tikzcd} {V\times W} && {V\otimes W} \\ \\ && U \arrow["\otimes", from=1-1, to=1-3] \arrow["\beta"', from=1-1, to=3-3] \arrow["{\tilde \beta}", from=1-3, to=3-3] \end{tikzcd}
Eigentlich war die obige Definition des Tensorprodukts ein bisschen gelogen. Wir sagen, dass ein Paar $(T,\mu)$ bestehend aus einem $\mathbb R$-Vektorraum $T$ und einer $\mathbb R$-bilinearen Abbildung $\mu\colon V\times W\to T$ die universelle Abbildungseigenschaft hat, wenn es zu jeder $\mathbb R$-bilinearen Abbildung $\beta\colon V\times W\to U$ in einen weiteren $\mathbb R$-Vektorraum $U$ eine eindeutig bestimmte $\mathbb R$-lineare Abbildung $\tilde \beta\colon T\to U$ derart gibt, dass $\beta=\tilde \beta\circ \mu$ gilt.
Satz. Es habe $(T,\mu)$ die universelle Abbildungseigenschaft in Bezug auf $V$ und $W$. Dann ist die eindeutig bestimmte $\mathbb R$-lineare Abbildung $\tilde \mu\colon V\otimes W\to T$ ein Isomorphismus.
Die Moral der Geschichte ist, dass die Konstruktion des Tensorprodukts eigentlich völlig irrelevant ist. Egal wie wir es konstruieren, wenn es die universelle Abbildungseigenschaft besitzt, dann ist es auf eine eindeutige Weise isomorph zu jeder anderen möglichen Konstruktion. (Siehe auch den sehr schönen Artikel LinkWie universelle Eigenschaften einem das Leben erleichtern). Mit Hilfe dieser Erkenntnis können wir einige sehr nützliche Identitäten für das Tensorprodukt formulieren – Beweise für diese Resultate findet man in der gängigen Literatur.
Satz. Seien $V$ und $W$ endlich-dimensionale $\mathbb R$-Vektorräume. Dann gibt es einen Isomorphismus $V^*\otimes W\cong L(V,W)$.
Satz. Seien $V$ und $W$ endlich-dimensionale $\mathbb R$-Vektorräume. Dann gibt es einen Isomorphismus $V^*\otimes W^*\cong (V\otimes W)^*$.
Zusammen mit dem letzten Satz und der universellen Abbildungseigenschaft erhalten wir dann auch $$ V^*\otimes W^*\cong (V\otimes W)^*\cong L(V\otimes W,\mathbb R)\cong L(V,W;\mathbb R), $$ also $L(V,W;\mathbb R)\cong V^*\otimes W^*$. Damit haben wir eine Verbindung des abstrakten Tensorprodukts zu unserem "konkreten" Tensorprodukt mittels bilinearen Abbildungen hergestellt. Man kann nun im Prinzip genau den selben Prozess auch für beliebig viele Vektorräume $V_1,\dots,V_n$ wiederholen und ein Tensorprodukt $V_1\otimes\dots\otimes V_n$ konstruieren. Auch hier stellt sich heraus, dass eine analoge universelle Abbildungseigenschaft gilt. Am Ende erhält man dann einen Isomorphismus $$ L(V_1,\dots,V_n;\mathbb R)\cong V_1^*\otimes\dots\otimes V_n^*. $$ Bei Interesse zu den algebraischen Hintergründen, kann ich an dieser Stelle auch den Artikel LinkWas ist das Tensorprodukt? sehr empfehlen. Für unsere Zwecke genügt es uns zu wissen, dass wir eigentlich einfach mit den $n$-linearen Abbildungen arbeiten können, und in der Tat ist das auch häufig die Sichtweise in der Differentialgeometrie. Man sollte die Verbindung zur "modernen" Definition eines Tensorprodukts von Vektorräumen aber schonmal gesehen haben.

 

Der Übergang zu Mannigfaltigkeiten

Nun wollen wir diese Konzepte auf glatte Mannigfaltigkeiten übertragen. Es sei dazu $(M,\mathcal T,\mathcal A)$ eine glatte Mannigfaltigkeit der (endlichen) Dimension $d\in \mathbb N$. An jedem Punkt $p\in M$ haben wir dann den Tangentialraum $T_pM$ von $M$ in $p$, welcher als Menge durch $$ T_pM:=\lbrace X_{\gamma,p}\colon C^\infty(M)\to \mathbb R\mid \gamma\colon \mathbb R\to M \text{ glatt}, \gamma(0)=p\rbrace $$ gegeben ist. Dabei ist $X_{\gamma,p}\colon C^\infty(M)\to \mathbb R$ auf den glatten Funktionen $f\colon M\to \mathbb R$ definiert durch $X_{\gamma,p}f:=(f\circ \gamma)'(0)$ mit $\gamma(0)=p$. Durch die punktweisen Verknüpfungen wird $T_pM$ dadurch zu einem $\mathbb R$-Vektorraum. Hat man nun eine Karte $(U,x^1,\dots,x^d)$ von $M$, dann kann man für jedes $p\in U$ die folgenden Abbildungen betrachten: $$ \left(\frac{\partial}{\partial x^j}\right)_p\colon C^\infty(M)\to \mathbb R, \ \left(\frac{\partial}{\partial x^j}\right)_pf:=\frac{\partial f}{\partial x^j}(p):=\partial_j(f\circ x^{-1})(x(p)), $$ wobei $\partial_j$ die gewöhnliche partielle Ableitung einer Funktion $\mathbb R^d\to \mathbb R$ nach dem $j$-ten Eintrag bedeutet. Die Abbildungen $\left(\frac{\partial}{\partial x^j}\right)_p$ für $j=1,\dots,d$ bilden eine Basis für $T_pM$. Bezüglich der gewählten Karte kann also jeder Vektor $X\in T_pM$ dargestellt werden durch $$ X=X^j\left(\frac{\partial}{\partial x^j}\right)_p, $$ wobei der Index $j$ bei $\left(\frac{\partial}{\partial x^j}\right)_p$ als unterer Index für die Summationskonvention betrachtet wird. Die reellen Zahlen $X^j$ heißen dann die Komponenten des Vektors $X$ bezüglich der Karte $(U,x)$. Es ist sehr instruktiv sich zu fragen, wie sich die Komponenten des Vektors $X$ ändern, wenn wir zu einer anderen Karte $(V,y)$ übergehen, die ebenfalls $p$ enthält. Bezüglich dieser Karte bezeichnen wir die Komponenten von $X$ mit $X_{(y)}^j$ und bezüglich der alten Karte nun mit $X_{(x)}^j$. Nun haben wir $$ X_{(x)}^j\left(\frac{\partial}{\partial x^j}\right)_p=X_{(y)}^j\left(\frac{\partial}{\partial y^j}\right)_p $$ und durch Auswerten beider Seiten auf der glatten Funktion $x^i\colon M\to \mathbb R$ einerseits $$ X_{(x)}^j\left(\frac{\partial}{\partial x^j}\right)_p x^i=X_{(x)}^j\frac{\partial x^i}{\partial x^j}(p)=X_{(x)}^j\partial_j(x^i\circ x^{-1})(x(p))=X_{(x)}^j\delta^i_j=X_{(x)}^i. $$ Andererseits ist $$ X_{(y)}^j\left(\frac{\partial}{\partial y^j}\right)_px^i=X_{(y)}^j\frac{\partial x^i}{\partial y^j}(p). $$ Insgesamt haben wir also $$ X_{(x)}^i=\frac{\partial x^i}{\partial y^j}(p)X_{(y)}^j. $$ Man sagt zu diesem Transformationsverhalten der Vektorkomponenten auch, dass diese kontravariant transformieren, wenn man die Karte wechselt. Analog zu den generischen Vektorräumen können wir natürlich auch den Kotangentialraum $T^*_pM:=(T_pM)^*$ betrachten, welcher aus allen $\mathbb R$-linearen Abbildungen $T_pM\to \mathbb R$ besteht.
Definition. Es sei $f\colon M\to \mathbb R$ eine glatte Funktion. Dann definieren wir das Differential $(\d f)_p$ von $f$ in $p\in M$ als die Abbildung $$ (\d f)_p\colon T_pM\to \mathbb R, \ X_p\mapsto (\d f)_p(X_p):=X_p(f). $$
Beispiel. Durch Wahl einer Karte $(U,x^1,\dots,x^d)$ von $M$ kann man für $p\in M$ die Differentiale der Koordinatenfunktionen $x^j$ betrachten. Man überlegt sich, dass die Differentiale $(\d x^1)_p,\dots,(\d x^d)_p\in T^*_pM$ eine Basis von $T^*_pM$ bilden. Weiter hat man $$ (\d x^i)_p\left(\left(\frac{\partial}{\partial x^j}\right)_p\right)=\left(\frac{\partial}{\partial x^j}\right)_px^i=\frac{\partial x^i}{\partial x^j}(p)=\delta^i_j. $$ Die Basis $((\d x^1)_p,\dots,(\d x^d)_p)$ ist daher die zu $\left(\left(\frac{\partial}{\partial x^1}\right)_p,\dots,\left(\frac{\partial}{\partial x^d}\right)_p\right)$ duale Basis von $T^*_pM$.
Nach dem letzten Beispiel kann jedes Element $\omega\in T^*_pM$ bezüglich der Karte $(U,x^1,\dots,x^d)$ in der Form $$ \omega=\omega_j \, (\d x^j)_p $$ geschrieben werden. Ist $(V,y^1,\dots,y^d)$ eine weitere Karte mit $p\in V$, dann haben wir also $$ \omega_j^{(x)} \, (\d x^j)_p=\omega_j^{(y)} \, (\d y^j)_p. $$ Durch Auswerten beider Seiten auf dem Vektor $\left(\frac{\partial}{\partial x^i}\right)_p$ erhalten wir einerseits $$ \omega_j^{(x)} \, (\d x^j)_p\left(\left(\frac{\partial}{\partial x^i}\right)_p\right)=\omega_j^{(x)}\frac{\partial x^j}{\partial x^i}(p)=\omega_j^{(x)}\delta^j_i=\omega_i^{(x)} $$ und andererseits $$ \omega_j^{(y)} \, (\d y^j)_p\left(\left(\frac{\partial}{\partial x^i}\right)_p\right)=\omega_j^{(y)}\frac{\partial y^j}{\partial x^i}(p). $$ Insgesamt haben wir daher $$ \omega_i^{(x)}=\frac{\partial y^j}{\partial x^i}(p)\cdot\omega_j^{(y)}. $$ Die Komponenten von $\omega$ transformieren also genau entgegengesetzt zu den Komponenten eines Vektors. Man sagt auch, dass die Komponenten von $\omega$ kovariant transformieren. Das jeweilige Transformationsverhalten geht auch mit der Position der Indizes der Komponenten einher: Komponenten eines Vektors haben die Indizes oben, während Komponenten eines Kovektors die Indizes unten haben. Hingegen haben Basisvektoren den Index unten und Basiskovektoren den Index oben. Hält man sich an diese Konventionen, dann funktioniert zum einen die Summationskonvention und zum anderen kann man eigentlich keinen Unsinn mehr aufschreiben, ohne das an den Indizes zu erkennen.

 

Von Vektoren und Kovektoren zu Vektorfeldern und Kovektorfeldern

Häufig betrachten wir nicht nur einzelne Vektoren $X_p\in T_pM$, sondern Zuordnungen $X\colon M\ni p\mapsto X_p\in T_pM$, die jedem $p\in M$ einen Vektor $X_p\in T_pM$ zuordnen. Von dieser Zuordnung fordern wir dann in der Regel auch, dass sie auf eine bestimmte Art und Weise glatt ist, wenn der Punkt $p$ variiert. Zunächst bemerken wir, dass die glatten Funktionen $C^\infty(M)$ zusammen mit der punktweisen Addition und Multiplikation von Funktionen einen kommutativen Ring mit Eins bilden. Haben wir solch eine Zuordnung $X\colon M\ni p\mapsto X_p\in T_pM$ und eine glatte Funktion $f\in C^\infty(M)$, dann können wir daraus eine Funktion $$ X(f)\colon M\to \mathbb R, \ p\mapsto X_p(f) $$ erhalten und von dieser fordern, dass sie glatt ist. Allgemeiner erhalten wir daraus eine Abbildung $$ \tilde X\colon C^\infty(M)\to C^\infty(M), \ f\mapsto X(f). $$ Mit Hilfe dieser Erkenntnisse definieren wir dann
Definition. Ein glattes Vektorfeld $X$ auf $M$ ist eine Zuordnung $X\colon M\ni p\mapsto X_p\in T_pM$, derart, dass die Abbildungen $X(f)$ für jedes $f\in C^\infty(M)$ glatt sind und die resultierende Abbildung $$ \tilde X\colon C^\infty(M)\to C^\infty(M), \ f\mapsto X(f) $$ $C^\infty(M)$-linear ist. Die Menge aller glatten Vektorfelder auf $M$ bezeichnen wir mit $\Gamma(TM)$.
Ist nun $X\in \Gamma(TM)$ und $(U,x)$ eine Karte von $M$, dann haben wir für alle $p\in U$ $$ X_p=X^i(p) \, \left(\frac{\partial}{\partial x^i}\right)_p. $$ Lassen wir den Punkt $p$ variieren, dann erhalten wir also (zumindest auf $U$) $$ X=X^i\, \left(\frac{\partial}{\partial x^i}\right), $$ wobei die Komponenten $X^i$ nun als glatte Funktionen $X^i\colon U\to \mathbb R, \ p\mapsto X^i(p)$ zu verstehen sind.
Bemerkung. Auf $\Gamma(TM)$ können wir punktweise die folgenden Verknüpfungen definieren: $$ +\colon \Gamma(TM)\times\Gamma(TM)\to \Gamma(TM), \ (X,Y)\mapsto X+Y, $$ wobei das Vektorfeld $X+Y$ punktweise durch $(X+Y)_p:=X_p+Y_p$ definiert ist. Analog können wir eine Multiplikation von Vektorfeldern mit glatten Funktionen definieren: $$ \cdot \colon C^\infty(M)\times \Gamma(TM)\to \Gamma(TM), \ (f,X)\mapsto fX, $$ wobei das Vektorfeld $fX$ punktweise durch $(fX)_p:=f(p)\cdot X_p$ definiert ist. Mit diesen Verknüpfungen wird $\Gamma(TM)$ zu einem $C^\infty(M)$-Modul.
Völlig analog können wir nun auch Zuordnungen $\omega\colon M\ni p\mapsto \omega_p\in T^*_pM$ betrachten. Ist $X\in \Gamma(TM)$ ein glattes Vektorfeld, dann erhalten wir auf diese Weise eine Funktion $$ \omega(X)\colon M\to \mathbb R, \ p\mapsto \omega_p(X_p) $$ und können auch hier wieder fordern, dass diese glatt ist. Daraus erhalten wir dann analog zu Vektorfeldern eine resultierende Abbildung $$ \tilde \omega\colon \Gamma(TM)\to C^\infty(M), \ X\mapsto \omega(X). $$ Mit Hilfe dieser Erkenntnisse definieren wir dann
Definition. Ein glattes Kovektorfeld $\omega$ auf $M$ ist eine Zuordnung $\omega\colon M\ni p\mapsto \omega_p\in T^*_pM$ derart, dass die Abbildungen $\omega(X)$ für jedes $X\in \Gamma(TM)$ glatt sind und die resultierende Abbildung $$ \tilde \omega\colon \Gamma(TM)\to C^\infty(M), \ X\mapsto \omega(X) $$ $C^\infty(M)$-linear ist. Die Menge aller glatten Kovektorfelder auf $M$ bezeichnen wir mit $\Gamma(T^*M)$.
Bemerkung. Anstatt glattes Kovektorfeld sagt man auch glatte Differentialform vom Grad $1$ zu $\omega\in \Gamma(T^*M)$.
Ist nun $\omega\in \Gamma(T^*M)$ und $(U,x)$ eine Karte von $M$, dann haben wir für alle $p\in U$ $$ \omega_p=\omega_j(p)\, (\d x^j)_p. $$ Lassen wir den Punkt $p$ variieren, dann erhalten wir also (zumindest auf $U$) $$ \omega=\omega_j \, (\d x^j), $$ wobei die Komponenten $\omega_j$ nun als glatte Funktionen $\omega_j\colon U\to \mathbb R, \ p\mapsto \omega_j(p)$ zu verstehen sind.
Bemerkung. Ähnlich wie bei $\Gamma(TM)$ bildet auch $\Gamma(T^*M)$, vermöge $(\omega+\eta)_p:=\omega_p+\eta_p$ und $(f\omega)_p:=f(p)\cdot\omega_p$, einen $C^\infty(M)$-Modul.
Sowohl für Vektorfelder als auch für Kovektorfelder kann man sich nun überlegen, wie die Komponentenfunktionen sich bei Kartenwechsel verhalten. Wir werden das in einem späteren Kapitel durch eine allgemeinere Überlegung mit abdecken, aber es ist an dieser Stelle eine empfehlenswerte Überlegung.

 

Tensoren auf $T_pM$

Mit dem Tangentialraum $T_pM$ und dem Kotangentialraum $T^*_pM$ können wir jetzt an jedem Punkt der Mannigfaltigkeit $M$ von multilinearen Abbildungen sprechen. Wir definieren dann
Definition. Ein $(r,s)$-Tensor auf $M$ in $p$ ist eine $(r+s)$-lineare Abbildung $$ T\colon \underbrace{T^*_pM\times \dots \times T^*_pM}_{r}\times\underbrace{T_pM\times \dots \times T_pM}_{s}\to \mathbb R. $$ Den Vektorraum aller $(r,s)$-Tensoren auf $M$ in $p$ bezeichnen wir mit $T^r_s(T_pM)$.
Bemerkung. Durch unser Wissen über das Tensorprodukt haben wir daher $$ T^r_s(T_pM)=L(T^*_pM,\dots,T^*_pM,T_pM,\dots,T_pM;\mathbb R)\cong \underbrace{T_pM\otimes\dots\otimes T_pM}_{r}\otimes \underbrace{T^*_pM\otimes\dots\otimes T^*_pM}_{s}=:(T_pM)^{\otimes r} \otimes (T^*_pM)^{\otimes s}, $$ also $$ T^r_s(T_pM)\cong (T_pM)^{\otimes r} \otimes (T^*_pM)^{\otimes s}. $$
Beispiel. Eine Differentialform vom Grad $k$ in $p\in M$ (kurz: $k$-Form) ist ein (total) antisymmetrischer $(0,k)$-Tensor $\omega_p\in T^0_k(T_pM)$.
Bezüglich einer Karte $(U,x)$ von $M$ mit $p\in U$ kann ein $(r,s)$-Tensor $T\in T^r_s(T_pM)$ nach unseren bisherigen Überlegungen in der Form $$ T=T^{i_1i_2 \dots i_r}_{j_1j_2\dots j_s} \, \left(\frac{\partial}{\partial x^{i_1}}\right)_p\otimes \dots \otimes \left(\frac{\partial}{\partial x^{i_r}}\right)_p\otimes(\d x^{j_1})_p \otimes \dots \otimes (\d x^{j_s})_p $$ dargestellt werden. Die reellen Zahlen $T^{i_1i_2 \dots i_r}_{j_1j_2\dots j_s}$ heißen auch hier die Komponenten des Tensors $T$ bezüglich der Karte $(U,x)$. Die Positionen der Indizes geben also Auskunft darüber, von welcher Art Tensor das die Komponenten sind. Häufig werden Tensoren (z.B. in einführenden Veranstaltungen für Physiker) einfach als solche indizierten Objekte eingeführt und das Transformationsverhalten dieser Komponenten bei Kartenwechsel betont. Wir wollen uns zunächst für einen $(1,1)$-Tensor $T$ überlegen, wie sich die Komponenten bei Wechsel zu einer neuen Karte $(V,y)$ mit $p\in V$ verändern. Wir bezeichnen die Komponenten von $T$ bezüglich der Karte $(U,x)$ mit $T^{i}_{j}$ und bezüglich der Karte $(V,y)$ mit $\tilde T^{i}_{j}$. Dann haben wir also $$ T^{i}_{j} \, \left(\frac{\partial}{\partial x^{i}}\right)_p\otimes(\d x^{j})_p =\tilde T^{i}_{j} \, \left(\frac{\partial}{\partial y^{i}}\right)_p\otimes(\d y^{j})_p. $$ Auswerten dieser Gleichung auf $\left((\d x^k)_p,\left(\frac{\partial}{\partial x^{\ell}}\right)_p\right)$ liefert einerseits \[ \begin{align*} T^{i}_{j} \, \left(\frac{\partial}{\partial x^{i}}\right)_p\otimes(\d x^{j})_p\left((\d x^k)_p,\left(\frac{\partial}{\partial x^{\ell}}\right)_p\right) &=T^{i}_{j} \, \frac{\partial x^k}{\partial x^{i}}(p)\cdot \frac{\partial x^j}{\partial x^{\ell}}(p) =T^{i}_{j} \, \delta^k_i \delta^j_\ell=T^k_\ell. \end{align*} \] Andererseits ist \[ \begin{align*} \tilde T^{i}_{j} \, \left(\frac{\partial}{\partial y^{i}}\right)_p\otimes(\d y^{j})_p\left((\d x^k)_p,\left(\frac{\partial}{\partial x^{\ell}}\right)_p\right) =\tilde T^{i}_{j} \, \frac{\partial x^k}{\partial y^{i}}(p)\cdot\frac{\partial y^{j}}{\partial x^\ell}(p). \end{align*} \] Insgesamt haben wir also $$ T^k_\ell=\frac{\partial x^k}{\partial y^{i}}(p)\cdot\frac{\partial y^{j}}{\partial x^\ell}(p) \, \tilde T^{i}_{j}. $$ Der obere Index von $T$ transformiert also wie die Komponenten von Vektoren und der untere Index wie Komponenten von Kovektoren. Man überlegt sich damit relativ schnell, dass das kein Zufall war und im Allgemeinen der folgende Satz gilt.
Satz. Es sei $T\in T^r_s(T_pM)$ und $(U,x)$ sowie $(V,y)$ Karten von $M$ mit $p\in U\cap V$. Bezeichnen $T^{i_1i_2 \dots i_r}_{j_1j_2\dots j_s}$ die Komponenten von $T$ bezüglich $(U,x)$ und $\tilde T^{i_1i_2 \dots i_r}_{j_1j_2\dots j_s}$ die Komponenten von $T$ bezüglich $(V,y)$, dann gilt $$ T^{k_1k_2 \dots k_r}_{\ell_1\ell_2\dots \ell_s}=\frac{\partial x^{k_1}}{\partial y^{i_1}}(p) \cdot \frac{\partial x^{k_2}}{\partial y^{i_2}}(p)\cdot\cdot\cdot \frac{\partial x^{k_r}}{\partial y^{i_r}}(p)\cdot \frac{\partial y^{j_1}}{\partial x^{\ell_1}}(p)\cdot \frac{\partial y^{j_2}}{\partial x^{\ell_2}}(p)\cdot\cdot\cdot\frac{\partial y^{j_s}}{\partial x^{\ell_s}}(p)\, \tilde T^{i_1i_2\dots i_r}_{j_1j_2\dots j_s}. $$

 

Von Tensoren zu Tensorfeldern

Analog zu Vektorfeldern und Kovektorfeldern können wir nun auch zu Tensorfeldern übergehen. Auf glatten Mannigfaltigkeiten ist es in der Regel so, dass man nicht nur einzelne Tensoren auf einem einzigen Tangentialraum betrachten will. Oftmals betrachtet man Objekte, die jedem Punkt $p\in M$ einen Tensor in $T^{r}_s(T_pM)$ zuordnen. Man hat also einen Tensor an jedem Punkt der Mannigfaltigkeit und spricht daher auch von einem Tensorfeld. Dabei soll diese Zuordnung in der Regel von Punkt zu Punkt auf eine gewisse Weise glatt und nicht völlig beliebig sein. Hat man solch eine Zuordnung $\omega$, die jedem $p\in M$ einen $(r,s)$-Tensor $\omega_p\in T^r_s(T_pM)$ zuordnet und hat man $\eta_1,\dots,\eta_r\in \Gamma(T^*M)$ sowie $X_1,\dots,X_s\in \Gamma(TM)$, so erhält man eine Funktion $$ \omega(\eta_1,\dots,\eta_r,X_1,\dots,X_s)\colon M\to \mathbb R, \ p\mapsto \omega_p(\eta_1(p),\dots,\eta_r(p),X_1(p),\dots,X_s(p)). $$ Von dieser Funktion kann man dann fordern, dass sie glatt ist. Allgemeiner hat man also eine Abbildung $$ \tilde\omega\colon \Gamma(T^*M)\times\dots\times\Gamma(T^*M)\times\Gamma(TM)\times\dots\times \Gamma(TM)\to C^\infty(M), \ (\eta_1,\dots,\eta_r,X_1,\dots,X_s)\mapsto \omega(\eta_1,\dots,\eta_r,X_1,\dots,X_s), $$ die je $r$ Kovektorfeldern und $s$ Vektorfeldern auf $M$ eine glatte Funktion $M\to \mathbb R$ zuordnet.
Definition. Ein glattes $(r,s)$-Tensorfeld auf einer glatten Mannigfaltigkeit $M$ ist eine Zuordnung $\omega\colon M\ni p\mapsto \omega_p\in T^r_s(T_pM)$ derart, dass die induzierten Abbildungen $$ \omega(\eta_1,\dots,\eta_r,X_1,\dots,X_s)\colon M\to \mathbb R, \ p\mapsto \omega_p(\eta_1(p),\dots,\eta_r(p),X_1(p),\dots,X_s(p)) $$ für alle $\eta_1,\dots,\eta_r\in \Gamma(T^*M)$ sowie $X_1,\dots,X_s\in \Gamma(TM)$ glatt sind und die resultierende Abbildung $$ \tilde\omega\colon \underbrace{\Gamma(T^*M)\times\dots\times\Gamma(T^*M)}_{r}\times\underbrace{\Gamma(TM)\times\dots\times \Gamma(TM)}_{s}\to C^\infty(M), \ (\eta_1,\dots,\eta_r,X_1,\dots,X_s)\mapsto \omega (\eta_1,\dots,\eta_r,X_1,\dots,X_s) $$ $C^\infty(M)$-multilinear ist. Die Menge aller glatten $(r,s)$-Tensorfelder auf $M$ bezeichnen wir mit $\mathcal T^r_s(M)$.
Oft ist es innerhalb der Differentialgeometrie so, dass man das Tensorfeld $\omega$ mit der resultierenden Abbildung $\tilde \omega$ identifiziert und für diese auch einfach $\omega$ schreibt. An dieser Stelle ist es aber wichtig zu betonen, dass Tensoren und Tensorfelder etwas völlig unterschiedliches sind. Ein Tensor ist eine $\mathbb R$-multilineare Abbildung auf einem bestimmten Tangentialraum $T_pM$ von $M$. Ein Tensorfeld hingegen ist eine Zuordnung, die jedem Punkt $p\in M$ solch einen Tensor auf $T_pM$ zuordnet. Oft ist es üblich, dass man auch zu Tensorfeldern einfach nur Tensoren sagt - in diesem Artikel werden wir das nicht tun.
Beispiel. Einige der Mengen $\mathcal T^r_s(M)$ sind uns schon bekannt. $\bullet$ Konventionell setzt man $\mathcal T^0_0(M)=C^\infty(M)$. $\bullet$ Es ist $\mathcal T^1_0(M)=\Gamma(TM)$. Glatte $(1,0)$-Tensorfelder sind also nichts anderes, als glatte Vektorfelder auf $M$. $\bullet$ Es ist $\mathcal T^0_1(M)=\Gamma(T^*M)$. Glatte $(0,1)$-Tensorfelder sind also nichts anderes, als glatte Kovektorfelder auf $M$. $\bullet$ Wir haben bereits Differentialformen vom Grad $k$ auf $M$ in $p\in M$ betrachtet. Eine glatte $k$-Form ist nun ein glattes $(0,k)$-Tensorfeld $\omega\in \mathcal T^0_k(M)$ derart, dass $\omega_p\in T^0_k(T_pM)$ für jedes $p\in M$ ein total antisymmetrischer $(0,k)$-Tensor ist.
Es sei nun $\omega\in \mathcal T^r_s(M)$ ein glattes $(r,s)$-Tensorfeld. Für jedes $p\in M$ haben wir daher einen $(r,s)$-Tensor $\omega_p\in T^r_s(T_pM)$. Es sei weiter $(U,x)$ eine Karte von $M$. Für jedes $p\in U$ können wir dann $$ \omega_p=\omega^{i_1i_2 \dots i_r}_{j_1j_2\dots j_s}(p) \, \left(\frac{\partial}{\partial x^{i_1}}\right)_p\otimes \dots \otimes \left(\frac{\partial}{\partial x^{i_r}}\right)_p\otimes(\d x^{j_1})_p \otimes \dots \otimes (\d x^{j_s})_p $$ schreiben. Lassen wir $p$ variieren, dann haben wir also (zumindest auf $U$) $$ \omega=\omega^{i_1i_2 \dots i_r}_{j_1j_2\dots j_s} \, \left(\frac{\partial}{\partial x^{i_1}}\right)\otimes \dots \otimes \left(\frac{\partial}{\partial x^{i_r}}\right)\otimes(\d x^{j_1}) \otimes \dots \otimes (\d x^{j_s}), $$ wobei die Komponenten $\omega^{i_1i_2 \dots i_r}_{j_1j_2\dots j_s}$ von $\omega$ nun als glatte Funktionen $\omega^{i_1i_2 \dots i_r}_{j_1j_2\dots j_s}\colon U\to \mathbb R$ zu verstehen sind. Völlig analog zum Fall von einfachen Tensoren überlegt man sich dann den folgenden
Satz. Es sei $\omega\in \mathcal T^r_s(M)$ und $(U,x)$ sowie $(V,y)$ Karten von $M$ mit $U\cap V\neq \emptyset$. Bezeichnen $\omega^{i_1i_2 \dots i_r}_{j_1j_2\dots j_s}\colon U\to \mathbb R$ die Komponentenfunktionen (auf $U$) von $\omega$ bezüglich $(U,x)$ und $\tilde \omega^{i_1i_2 \dots i_r}_{j_1j_2\dots j_s}\colon V\to \mathbb R$ die Komponentenfunktionen (auf $V$) von $\omega$ bezüglich $(V,y)$, dann gilt auf $U\cap V$ $$ \omega^{k_1k_2 \dots k_r}_{\ell_1\ell_2\dots \ell_s}=\frac{\partial x^{k_1}}{\partial y^{i_1}} \cdot \frac{\partial x^{k_2}}{\partial y^{i_2}}\cdot\cdot\cdot \frac{\partial x^{k_r}}{\partial y^{i_r}}\cdot \frac{\partial y^{j_1}}{\partial x^{\ell_1}}\cdot \frac{\partial y^{j_2}}{\partial x^{\ell_2}}\cdot\cdot\cdot\frac{\partial y^{j_s}}{\partial x^{\ell_s}}\, \tilde \omega^{i_1i_2\dots i_r}_{j_1j_2\dots j_s}. $$
Dieses Transformationsverhalten der Komponentenfunktionen von Tensorfeldern ist für "Tensoren sind Objekte, die wie Tensoren transformieren" verantwortlich. Arbeitet man oft innerhalb von Karten, dann sind die Komponentenfunktionen von Tensorfeldern häufig die einzigen Objekte, mit denen man hantiert und es hat sich manchmal eingebürgert, diese Komponentenfunktionen selbst als die Tensorfelder zu betrachten und dann eben dieses spezifische Transformationsverhalten zu fordern.

 

Ein kleiner Ausblick

Abschließend wollen wir uns noch ein paar konkretere Tensorfelder anschauen, die innerhalb der Differentialgeometrie (also z.B. auch in der Physik) eine wichtige Rolle spielen.

Der Metriktensor der Relativitätstheorie

Wir betrachten für dieses Beipiel eine glatte Mannigfaltigkeit $(M,\mathcal T,\mathcal A)$ der Dimension $d\in \mathbb N$. Auf solch einer Mannigfaltigkeit hat man zunächst keine Möglichkeit über Längen von Kurven oder innerhalb der Tangentialräume von Längen und Winkeln von bzw. zwischen Vektoren zu sprechen. Deshalb fügt man seiner Mannigfaltigkeit $M$ oft eine so genannte Metrik $g$ hinzu (Achtung: das ist etwas anderes als eine Metrik im Sinne der metrischen Räume). Erst an dieser Stelle kommt die Geometrie in die Differentialgeometrie! Zunächst brauchen wir eine Vorüberlegung. Es sei $g\in \mathcal T^0_2(M)$ ein glattes $(0,2)$-Tensorfeld. Zu dem Tensorfeld $g$ gehört eine natürliche Abbildung $$ \flat_g\colon \Gamma(TM)\to \Gamma(T^*M), \ X\mapsto \flat_g(X):=g(X,\cdot). $$ Mit Hilfe dieser Abbildung definieren wir dann:
Definition. Eine Metrik $g$ auf $M$ ist ein glattes $(0,2)$-Tensorfeld $g\in \mathcal T^0_2(M)$ mit den folgenden Eigenschaften: $\bullet$ Symmetrie: Für alle $X,Y\in \Gamma(TM)$ gilt $g(X,Y)=g(Y,X)$. $\bullet$ Nicht-ausgeartet: Die musikalische Abbildung $\flat_g\colon \Gamma(TM)\to \Gamma(T^*M)$ ist ein Isomorphismus von $C^\infty(M)$-Moduln. Die inverse Abbildung bezeichnen wir in diesem Fall mit $\sharp_g:=\flat_g^{-1}$.
Solch eine Metrik $g$ definiert also auf jedem Tangentialraum ein inneres Produkt $g_p\colon T_pM\times T_pM\to \mathbb R$, also einen symmetrischen $(0,2)$-Tensor $g_p\in T^0_2(T_pM)$ derart, dass aus $g_p(X_p,Y_p)=0$ für alle $Y_p\in T_pM$ stets $X_p=0\in T_pM$ folgt. Es sei nun weiter $(U,x)$ eine Karte von $M$. Auf $U$ haben wir dann $$ g=g_{\mu \nu} \, \d x^\mu \otimes \d x^\nu, $$ beziehungsweise punktweise für $p\in U$ $$ g_p=g_{\mu \nu}(p) \, (\d x^\mu)_p \otimes (\d x^\nu)_p. $$ Es ist der Trägheitssatz von Sylvester aus der linearen Algebra, der folgende Erkenntnis liefert.
Satz. Es sei $M$ eine glatte Mannigfaltigkeit und $g$ eine Metrik auf $M$. Für jedes $p\in M$ gibt es eine Karte $(U,x)$ von $M$ mit $p\in U$ derart, dass $$ (g_{\mu \nu}(p))=\opn{diag}(1,\dots,1,-1,\dots,-1) $$ gilt. Das bedeutet, dass $g_{\mu \nu}(p)$ der Eintrag in der $\mu$-ten Zeile und $\nu$-ten Spalte der Matrix ist. Die Anzahl $r$ der $+1$ auf der Diagonalen und die Anzahl $s$ der $-1$ auf der Diagonalen ist unabhängig von $p\in M$ und der konkreten Karte $(U,x)$, die $g$ auf diese Form bringt. Wir sagen in diesem Fall, dass $g$ die Signatur $(r,s)$ bzw. $(\underbrace{+,\dots,+}_{r},\underbrace{-,\dots,-}_{s})$ hat.
Im Falle der Signatur $(+,+,\dots,+)$ heißt $g$ eine Riemannsche Metrik. In allen anderen Fällen eine Pseudo-Riemannsche Metrik. Im Spezialfall der Signatur $(+,-,-,\dots,-)$ oder $(-,+,+,\dots,+)$ spricht man auch (vor allem innerhalb der Relativitätstheorie) von einer Lorentz-Metrik auf $M$.
Beispiel. In der speziellen Relativitätstheorie befindet man sich auf dem so genannten Minkowski-Raum $\mathbb R^{3,1}$. Dieser ist eine Lorentz-Mannigfaltigkeit bestehend aus der glatten Mannigfaltigkeit $\mathbb R^4$ (mit Standardtopologie und dem glatten Atlas erzeugt von der Karte $(\mathbb R^4,\opn{id}_{\mathbb R^4}))$ zusammen mit einer Lorentz-Metrik $g$ der Signatur $(-,+,+,+)$ (manche Verwenden auch $(+,-,-,-)$). Auf $\mathbb R^{3,1}$ haben wir den großen Vorteil, dass wir nur eine einzige Karte benötigen, um die gesamte Mannigfaltigkeit abzudecken. Wir wählen dafür die Karte $(\mathbb R^4,t,x,y,z)$ (mit $t$ ist eigentlich die Abbildung $\mathbb R^4\to \mathbb R, \ (x_1,x_2,x_3,x_4)\mapsto x_1$ und mit $x$ ist dann die Abbildung $\mathbb R^4\to \mathbb R, \ (x_1,x_2,x_3,x_4)\mapsto x_2$ gemeint etc.) In diesem Fall kann man die Metrik bezüglich dieser (globalen) Karte global durch $$ g=- \d t\otimes \d t+\d x\otimes \d x+\d y\otimes \d y+\d z\otimes \d z $$ darstellen. (Im Allgemeinen hat man natürlich kein globales Koordinatensystem und solch eine Darstellung einer Metrik ist deshalb in der Regel nur lokal gültig). In Physikbüchern wird das gerne als $$ \d s^2=-\d t^2+\d x^2+\d y^2+\d z^2 $$ geschrieben. Wir verstehen nun, was damit eigentlich gemeint ist.
Abschließend noch ein Hinweis zu dieser Thematik. Oftmals sieht man in diesem Zusammenhang auch $g^{ab}$, also mit Indizes oben. Man spricht dann von der so genannten "inversen Metrik". Die Komponenten sind in diesem Fall für $\omega \in \Gamma(T^*M)$ durch $$ (\sharp_g(\omega))^a=g^{ab} \omega_b $$ definiert. Analog dazu hat man für $X \in \Gamma(TM)$ $$ (\flat_g(X))_a=g_{ab}X^b. $$ Rein in Termini der Komponenten der Metrik hat man daher $g_{ab}g^{bc}=\delta_a^c$. Mit einer echten Inversen hat das aber nichts zu tun.

Die Riemann-, Ricci- und Einstein-Krümmung

Auf jeder glatten Mannigfaltigkeit $M$ hat man die Möglichkeit, die Richtungsableitung einer glatten Funktion $f\colon M\to \mathbb R$ entlang eines Vektors $X_p\in T_pM$ zu definieren. Ist $f\in C^\infty(M)$ und $X_p\in T_pM$, dann kann man immer $\nabla_{X_p}f:=X_p(f)$ setzen und hat eine Art Richtungsableitung für Funktionen entlang Vektoren definiert. Hier hört es dann aber auch auf. Da die verschiedenen Tangentialräume $T_pM$ und $T_qM$ für $p\neq q$ nichts miteinander zu tun haben, kann man nicht ohne weiteres eine Richtungsableitung von Vektorfeldern entlang Vektorfeldern definieren, da man Vektoren aus verschiedenen Tangentialräumen nicht miteinander vergleichen kann. Ein typischer Ansatz ist nun, dass man sich die Eigenschaften der Richtungsableitung auf $\mathbb R^n$ ansieht und definiert:
Definition. Ein affiner Zusammenhang (kovariante Ableitung) auf einer glatten Mannigfaltigkeit $M$ ist eine $\mathbb R$-bilineare Abbildung $$ \nabla\colon \Gamma(TM)\times \Gamma(TM)\to \Gamma(TM), \quad (X,Y)\mapsto \nabla_X Y $$ mit den folgenden Eigenschaften: $\bullet$ $\nabla_X Y$ ist $C^\infty(M)$-linear in $X$, $\bullet$ Es gilt die Leibnizregel: Für $f\in C^\infty(M)$ gilt $\nabla_X(fY)=(X(f))Y+f\nabla_XY$.
Basierend darauf definiert man für Vektorfelder $X,Y\in \Gamma(TM)$
$\bullet$ Die Torsion (von/bzgl. $\nabla$) $T(X,Y):=\nabla_XY-\nabla_YX-[X,Y]\in \Gamma(TM)$, $\bullet$ Die Riemann-Krümmung (von/bzgl. $\nabla$) $R(X,Y):=[\nabla_X,\nabla_Y]-\nabla_{[X,Y]}\in \opn{End}(\Gamma(TM))$.
Hat man nun zusätzlich eine Metrik $g$ auf $M$, dann gibt es genau einen affinen Zusammenhang $\nabla^{L.C.}$ auf $(M,g)$, welcher die folgenden Bedingungen erfüllt: $\bullet$ Torsionsfreiheit: $T\equiv 0$. $\bullet$ Kompatibilität mit der Metrik: Für alle $X,Y,Z\in \Gamma(TM)$ gilt $Z(g(X,Y))=g(\nabla^{L.C.}_ZX,Y)+g(X,\nabla^{L.C.}_ZY)$. $\nabla^{L.C.}$ heißt der Levi-Civita-Zusammenhang auf $(M,g)$. Wenn man eine Mannigfaltigkeit $(M,g)$ mit einer Metrik $g$ hat, dann ist in der Regel stillschweigend davon auszugehen, dass diese mit dem Levi-Civita-Zusammenhang ausgestattet ist. Man schreibt dann einfach nur $\nabla$ anstatt $\nabla^{L.C.}$. Für Vektorfelder $X,Y,Z\in \Gamma(TM)$ ist $R(X,Y)Z\in \Gamma(TM)$ ebenfalls ein Vektorfeld. Ist nun $(U,x)$ eine Karte von $M$, dann können wir für $p\in U$ definieren $$ R^a_{bcd}(p):=(\d x^a)_p\left(R\left(\left(\frac{\partial}{\partial x^c}\right)_p,\left(\frac{\partial}{\partial x^d}\right)_p\right)\left(\frac{\partial}{\partial x^b}\right)_p\right) $$ und erhalten eine Funktion $R^a_{bcd}\colon U\to \mathbb R$ durch $$ R^a_{bcd}=\d x^a\left(R\left(\frac{\partial}{\partial x^c},\frac{\partial}{\partial x^d}\right)\frac{\partial}{\partial x^b}\right). $$ Diese Funktionen sind die Komponenten eines $(1,3)$-Tensorfelds, welches der Riemannsche Krümmungstensor genannt wird (man sollte eigentlich Krümmungstensorfeld sagen). Durch so genannte Kontraktion des ersten mit dem dritten Index erhält man die Komponentenfunktionen $\opn{Ric}_{ab}$ eines $(0,2)$-Tensorfelds - die des so genannten Ricci-Krümmungstensors (Tensorfeld...): $$ \opn{Ric}_{ab}:=R^{c}_{acb} =\sum_{c}R^{c}_{acb}. $$ Mit der so genannten "inversen Metrik" erhält man dadurch zuletzt den so genannten Ricci-Skalar $R$ durch $$ R=g^{ab}\opn{Ric}_{ab}=\sum_{a,b}g^{ab}\opn{Ric}_{ab}. $$ Diese drei Objekte konstituieren die Einstein-Feldgleichungen (im Vakuum) der allgemeinen Relativitätstheorie: $$ G_{ab}:=\opn{Ric}_{ab}-\frac 12 Rg_{ab}=0. $$ Die Funktionen $G_{ab}$ sind dabei die Komponentenfunktionen des so genannten Einstein-Tensors (Tensorfeld...).

 

Was sonst noch kommt

Für den Abschluss dieses Artikels sei noch darauf hingewiesen, dass viele dieser Konzepte sehr elegant mit der Theorie der Vektorbündel formuliert werden können. In diesem Artikel habe ich mit Absicht darauf verzichtet, weil das am Anfang eigentlich nicht zu einem besseren Verständnis beiträgt und dieser Aspekt der "Zuordnungen" eine gute Vorstellung ist. Wenn man dann aber mal ein bisschen Erfahrung mit diesen Konzepten gesammelt hat, dann ist es ein bisschen unbefriedigend immer von irgendwelchen "Zuordnungen" sprechen zu müssen, die dann über mehrere induzierte Abbildungen verteilt verschiedene Eigenschaften haben sollen. Im Rahmen einer Serie zu Artikeln über Differentialgeometrie (zu welcher dann auch dieser Artikel zählt) beabsichtige ich, die Theorie der Vektorbündel und allgemeiner der Faserbündel im Kontext der Differentialgeometrie ebenfalls näher zu beleuchten. Wenn der entsprechende Artikel in der Zukunft existiert, dann verweise ich an dieser Stelle darauf. Abschließend bleibt mir noch, mich für das Lesen des Artikels zu bedanken und wie immer die herzliche Einladung auszusprechen, Feedback, Fragen oder Anregungen jeglicher Art in den Kommentaren unter diesem Artikel auszusprechen :) LG Nico

 


Dieser Artikel kommt von Matroids Matheplanet
https://matheplanet.de

Die Url für diesen Artikel ist:
https://matheplanet.de/default3.html?article=1970