Ableitungen mit dualen Zahlen
Von: Triceratops
Datum: Di. 04. April 2017 16:19:13
Thema: Mathematik


Ableitungen mit dualen Zahlϵn

In diesem Artikel geht es um den Ring der dualen Zahlen <math>R[\varepsilon]</math> und wie sich mit ihm elegant ohne einen Limesprozess Ableitungen von Polynomen, rationalen Funktionen und Potenzreihen definieren und berechnen lassen. Grundlage dafür ist die Gleichung <math>f(T+\varepsilon)=f(T) + f'(T) \varepsilon</math>. Dieses Vorgehen hat Anwendungen auf das automatische Differenzieren und kann zugleich als elementarer Einstieg in die glatte infinitesimale Analysis gesehen werden.

Der Ring der dualen Zahlen

Sei <math>R</math> ein kommutativer Ring, zum Beispiel <math>R=\mathds{R}</math>. Dann können wir aus dem Polynomring <math>R[X]</math> das Ideal <math>\langle X^2 \rangle</math> herausteilen und erhalten den kommutativen Ring <math>R[X]/\langle X^2 \rangle</math>. Bezeichnen wir mit <math>\varepsilon</math> das Bild von <math>X</math> im Quotientenring, so hat jedes Element dieses Ringes eine eindeutige Schreibweise als

<math>\displaystyle a + b \varepsilon</math>

mit <math>a,b \in R</math>. Ferner gilt

<math>\displaystyle \varepsilon^2=0,</math>

wobei trotzdem <math>\varepsilon \neq 0</math> gilt (sofern <math>R \neq 0</math>). Gerechnet wird mit der gewöhnlichen Addition

<math>\displaystyle (a+b \varepsilon) + (c + d \varepsilon) = (a+c) + (b+d) \varepsilon</math>

sowie mit der Multiplikation

<math>\displaystyle (a+b \varepsilon) \cdot (c + d \varepsilon) = ac + (ad+bc) \varepsilon,</math>

weil der Term <math>bd \varepsilon^2</math> verschwindet. Man bezeichnet diesen Ring auch als <math>R[\varepsilon]</math> und nennt ihn den Ring der dualen Zahlen über <math>R</math> (wobei der Begriff der Zahlen nur dann wirklich sinnvoll ist, wenn <math>R</math> selbst ein Ring ist, dessen Elemente man Zahlen nennt). Er besitzt die Matrixdarstellung

<math>R[\varepsilon] \cong \left\{\begin{pmatrix} a & b \\ 0 & a \end{pmatrix} : a,b \in R\right\} \subseteq M_2(R).</math>

Die Vorstellung hinter der Relation <math>\varepsilon^2=0</math> ist, dass <math>\varepsilon</math> so klein ist, dass es bei der Multiplikation mit sich selbst verschwindet. Außerdem bedingt diese Relation, dass wir uns auf lineare Polynome in <math>\varepsilon</math> beschränken können; alle Polynome höheren Grades werden abgeschnitten. Das legt bereits rein algebraisch nahe, dass <math>R[\varepsilon]</math> etwas mit Ableitungen zu tun hat, die ja lineare Approximationen darstellen. Ein geometrischer Anhaltspunkt dafür ist, dass man sich die Lösungsmenge der Gleichung <math>x^2=0</math> als tangentiale Schnittmenge der Parabel <math>y=x^2</math> mit der <math>x</math>-Achse <math>y=0</math> vorstellen kann:

<math>\begin{tikzpicture}
\draw [gray,dotted,thick] (0,0) circle [radius=4pt];
\draw[very thick,red] plot[variable=\x,samples=100,domain=-1.5:1.5] (\x,{\x*\x});
\draw[very thick,blue] plot[variable=\x,samples=100,domain=-1.5:1.5] (\x,{0});
\end{tikzpicture}</math>


Eigenschaften des Ringes der dualen Zahlen

Es gibt Ringhomomorphismen <math>R \hookrightarrow R[\varepsilon]</math> und <math>R[\varepsilon] \twoheadrightarrow R</math>, <math>a+b \varepsilon \mapsto a</math>. Die Komposition <math>R \to R[\varepsilon] \to R</math> ist die Identität. Der Kern von <math>R[\varepsilon] \twoheadrightarrow R</math> ist das Ideal <math>\langle \varepsilon \rangle</math>.

Ein Element <math>a+b \varepsilon \in R[\varepsilon]</math> ist genau dann invertierbar, wenn <math>a \in R</math> invertierbar ist (Beweis). Explizit gilt <math>(a+b \varepsilon)^{-1} = a^{-1} - b a^{-2} \varepsilon</math>.

Der Ring <math>R[\varepsilon]</math> hat die folgende universelle Eigenschaft: Wenn <math>S</math> ein kommutativer Ring und <math>s \in S</math> ein Element mit <math>s^2=0</math> ist, und <math> f : R \to S</math> ein Ringhomomorphismus ist, so gibt es genau einen Ringhomomorphismus <math>\overline{f} : R[\varepsilon] \to S</math> mit <math> \overline{f}|_R = f</math> und <math>\overline{f}(\varepsilon)=s</math>.

Wenn <math>R</math> ein Körper ist, dann ist <math>R[\varepsilon]</math> ein lokaler Ring mit maximalem Ideal <math>\langle \varepsilon \rangle</math>.

Ableitung von Polynomen

Es sei <math>f \in R[T]</math> ein Polynom. Dann können wir <math>T+\varepsilon</math> für <math>T</math> einsetzen und erhalten ein Polynom <math>f(T+\varepsilon) \in R[T][\varepsilon]</math>. Wenden wir die Projektion <math>R[T][\varepsilon] \twoheadrightarrow R[T]</math>, <math>\varepsilon \mapsto 0</math> auf <math>f(T+\varepsilon)</math> an, erhalten wir das ursprüngliche Polynom <math>f(T)</math> zurück. Es gibt daher genau ein Polynom <math>f' \in R[T]</math>, die Ableitung von <math>f</math>, mit

<math>\displaystyle f(T+\varepsilon) =  f(T) + f'(T) \varepsilon.</math>

Man könnte das, wenn man möchte, auch als

<math>\displaystyle f'(T) = \frac{f(T+\varepsilon)-f(T)}{\varepsilon}</math>

schreiben, damit die Nähe zur üblichen Definition der Ableitung aus der Analysis deutlicher wird, allerdings ist eine solche Schreibweise mit Vorsicht zu genießen, weil <math>\varepsilon</math> nicht invertierbar, ja sogar ein Nullteiler ist. Wir werden mit der impliziten Gleichung <math>f(T+\varepsilon)=f(T) + f'(T) \varepsilon</math> arbeiten. Die Ableitung <math>f'(T)</math> drückt also aus, wie sich <math>f(T)</math> verändert, wenn man zum Argument <math>T</math> die infinitesimale Größe <math>\varepsilon</math> addiert.

Man kann die Ableitung auch ad hoc durch

<math>(\sum_{n=0}^{d} a_n T^n)' = \sum_{n=0}^{d-1} a_{n+1} (n+1) T^n</math>
 
definieren, aber diese Definition hat im Vergleich zur obigen keine geometrische bzw. analytische Motivation und würde auch keine derart eleganten Beweise der Ableitungsregeln wie im folgenden Abschnitt zulassen.

Ableitungsregeln

Man kann die Ableitung auch konkret ausrechnen, sobald man die Ableitungsregeln bewiesen hat. Zunächst einmal gilt die Summenregel

<math>\displaystyle (f+g)'(T) = f'(T) + g'(T),</math>

weil nämlich die rechte Seite die definierende Gleichung der linken Seite erfüllt (Beweis). Außerdem kann man sich

<math>\displaystyle (\lambda \cdot f)'(T) = \lambda \cdot f'(T)</math>

für <math>\lambda \in R</math> klarmachen. Es reicht also, was Polynome angeht, die Ableitung für Monome <math>f(T) = T^n</math> auszurechnen. Der binomische Lehrsatz liefert uns aber

<math>\displaystyle (T + \varepsilon)^n = T^n + n T^{n-1} \varepsilon + \text{ höhere Terme},</math>

wobei die höheren Terme wegen <math>\varepsilon^2=0</math> verschwinden. Die Ableitung ist demnach

<math>(T^n)' = n T^{n-1}.</math>

Weisen wir nun noch mit der Definition der Ableitung die restlichen Ableitungsregeln nach, nämlich die Produkt- und die Kettenregel. Für <math>f,g \in R[T]</math> gilt

<math>\displaystyle (f \cdot g)(T + \varepsilon) = f(T+\varepsilon) \cdot g(T+\varepsilon) = (f(T) + f'(T) \varepsilon) (g(T) + g'(T) \varepsilon) \medskip\\
~~~~~~~~~~~~~~~~~~\,= f(T) g(T) + (f(T) g'(T) + f'(T) g(T)) \varepsilon</math>

und daher die Produktregel

<math>\displaystyle (f \cdot g)'(T) = f(T) g'(T) + f'(T) g(T).</math>

Zum Beweis der Kettenregel müssen wir zunächst anmerken, dass für Polynome <math>g,h \in R[T]</math> auch die Gleichung

<math>\displaystyle f(g(T) +  h(T) \varepsilon) =  f(g(T)) + f'(g(T)) h(T) \varepsilon.</math>

gilt. Denn man kann auf die definierende Gleichung der Ableitung den Homomorphismus <math>R[T][\varepsilon] \to R[T][\varepsilon]</math>, <math>T \mapsto g(T)</math>, <math>\varepsilon \mapsto h(T) \varepsilon </math> anwenden, der wegen der universellen Eigenschaft tatsächlich existiert. Daraus folgt

<math>\displaystyle (f \circ g)(T + \varepsilon) = f(g(T) + g'(T) \varepsilon) = f(g(T)) + f'(g(T)) g'(T) \varepsilon</math>

und damit

<math>\displaystyle (f \circ g)'(T + \varepsilon) = f'(g(T)) g'(T).</math>

Ableitung von rationalen Funktionen

Es sei <math>K</math> ein Körper. Wir wissen bereits, wie wir Polynome in <math>K[T]</math> ableiten können, und möchten nun auch rationale Funktionen, also Elementes des Quotientenkörpers <math>K(T)</math> ableiten. Wir können dabei im Prinzip genauso wie bei Polynomen vorgehen, müssen allerdings uns kurz überlegen, warum <math>f(T+\varepsilon) \in K(T)[\varepsilon]</math> für <math>f \in K(T)</math> wohldefiniert ist. Betrachten wir dazu den Ringhomomorphismus

<math>\displaystyle K[T] \to K[T][\varepsilon] \hookrightarrow K(T)[\varepsilon],\quad f \mapsto f(T+\varepsilon).</math>

Wir behaupten, dass hierbei jedes Polynom <math>0 \neq f \in K[T]</math> auf eine Einheit abgebildet wird. Dazu reicht es aber, die Projektion nach <math>K(T)[\varepsilon] \twoheadrightarrow K(T)</math> nachzuschalten (weil ein Element <math>a+b \varepsilon</math> genau dann invertierbar ist, wenn es <math>a</math> ist). Das führt uns zu <math>f \in K(T)</math>, was invertierbar ist. Aus der universellen Eigenschaft der Lokalisierung <math>K(T) = (K[T] \setminus \{0\})^{-1} K[T]</math> ergibt sich daher ein Ringhomomorphismus

<math>\displaystyle K(T) \to K(T)[\varepsilon], \quad f \mapsto f(T + \varepsilon).</math>

Nun können wir wieder die Ableitung durch die Gleichung

<math>\displaystyle f'(T + \varepsilon) = f(T) + f'(T) \varepsilon</math>

definieren und die Ableitungsregeln genauso beweisen. Aus der allgemeinen Formel <math>(a+b \varepsilon)^{-1} = a^{-1} - b a^{-2} \varepsilon</math> ergibt sich in <math>K(T)[\varepsilon]</math> die Gleichung

<math>\displaystyle (T + \varepsilon)^{-1} = T^{-1} - T^{-2} \varepsilon</math>

und daher die Ableitung

<math>\displaystyle (T^{-1})' = - T^{-2}.</math>

Mit der Produktregel folgt dann induktiv <math>(T^{-n})' = -n T^{-n-1}</math>. Außerdem kann man daraus in Verbindung mit der Produkt- und der Kettenregel die Quotientenregel herleiten. Diese kann auch als ad hoc Definition der Ableitung auf <math>K(T)</math> dienen.
 

Ableitung von formalen Potenzreihen

Wenn <math>R</math> ein kommutativer Ring ist, so können wir den Ring der formalen Potenzreihen <math>R \llbracket T \rrbracket</math> bilden. Es gibt genau einen Homomorphismus von <math>R</math>-Algebren <math>R \llbracket T \rrbracket \to R \llbracket T \rrbracket [\varepsilon]</math> mit <math>T \mapsto T + \varepsilon</math>. Die Existenz kann man sich entweder abstrakt mithilfe einer universellen Eigenschaft von <math>R \llbracket T \rrbracket</math> in der Kategorie der topologischen Ringe überlegen. Oder man benutzt die Beschreibung von <math>R \llbracket T \rrbracket</math> als projektiven Limes <math>\varprojlim_n R[T]/\langle T^n \rangle</math> und überlegt sich, dass die Bildung des Ringes der dualen Zahlen mit projektiven Limiten vertauscht. Die Homomorphismen <math>R[T] / \langle T^n \rangle \to R[T] / \langle T^n \rangle [\varepsilon]</math>, <math>\overline{T} \mapsto \overline{T} + \varepsilon</math> liefern im projektiven Limes dann den gewünschten Homomorphismus.
 
Die Komposition dieses Homomorphismus <math>R \llbracket T \rrbracket \to R \llbracket T \rrbracket [\varepsilon]</math> mit der Projektion <math>R \llbracket T \rrbracket [\varepsilon] \to R \llbracket T \rrbracket</math> ist wieder die Identität, sodass man also die Ableitung einer formalen Potenzreihe <math>f \in R \llbracket T \rrbracket</math> wieder durch die Gleichung

<math>\displaystyle f(T+\varepsilon) = f(T) + f'(T) \varepsilon</math>

in <math>R \llbracket T \rrbracket[\varepsilon]</math> definieren kann. Explizit ist die Ableitung von <math>\sum_{n=0}^{\infty} a_n T^n</math> gleich <math>\sum_{n=0}^{\infty} a_{n+1} (n+1) T^n</math>, was auch als ad hoc Definition dienen könnte.

Berechnen wir mit der Definition der Ableitung ein paar Beispiele, auch wenn es mit der expliziten Formel schneller ginge. Sei dazu <math>R=\mathds{Q}</math> oder allgemeiner <math>R</math> eine kommutative <math>\mathds{Q}</math>-Algebra. Dann definieren wir die Exponentialreihe
 
<math>\displaystyle \exp(T) = \sum_{n=0}^{\infty} \frac{1}{n!} T^n.</math>

Es gilt in <math>R \llbracket S,T \rrbracket</math> die Relation

<math>\displaystyle \exp(S+T) = \exp(S) \exp(T).</math>

Es folgt durch Einsetzen (also Anwendung eines Einsetzungshomomorphismus) in <math>R \llbracket T \rrbracket [\varepsilon]</math> die Gleichung

<math>\displaystyle \exp(T + \varepsilon) = \exp(T) \exp(\varepsilon),</math>

und außerdem gilt offensichtlich

<math>\displaystyle \exp(\varepsilon) = 1 + \varepsilon.</math>

Daraus folgt <math>\exp'(T) = \exp(T)</math>.
 
Sinus und Kosinus lassen sich als formale Potenzreihen definieren durch

<math>\displaystyle \sin(T) = \sum_{n=0}^{\infty} \frac{(-1)^n}{(2n+1)!} T^{2n+1}, \quad \cos(T) = \sum_{n=0}^{\infty} \frac{(-1)^n}{(2n)!} T^{2n}.</math>

Es gelten die Additionstheoreme

<math>\displaystyle \sin(S+T) = \sin(S) \cos(T) + \cos(S) \sin(T),\medskip\\
\cos(S + T) = \cos(S) \cos(T) - \sin(S) \sin(T),</math>

die man aus der Euler'schen Gleichung

<math>\displaystyle \exp(iT) = \cos(T) + i \sin(T)</math>

in <math>R[i] \llbracket T \rrbracket</math> ableiten kann. Ferner gilt offenbar

<math>\displaystyle \sin(\varepsilon) = \varepsilon,\quad \cos(\varepsilon) = 1.</math>

Daraus folgt

<math>\displaystyle \sin(T + \varepsilon) = \sin(T) \cos(\varepsilon) + \cos(T) \sin(\varepsilon) = \sin(T) + \cos(T) \varepsilon,</math>

also <math>\sin'(T) = \cos(T)</math>, sowie

<math>\displaystyle \cos(T + \varepsilon) = \cos(T) \cos(\varepsilon) - \sin(T) \sin(\varepsilon) = \cos(T) - \sin(T) \varepsilon,</math>

also <math>\cos'(T)=-\sin(T)</math>.

Höhere Ableitungen

Sei <math>n \geq 1</math>. Wir können dann mit dem kommutativen Ring <math>R[X]/\langle X^{n+1} \rangle</math> höhere Ableitungen definieren. Bezeichnen wir das Bild von <math>X</math> wieder mit <math>\varepsilon</math>, so hat jedes Element eine eindeutige Zerlegung als

<math>\displaystyle a_0 + a_1 \varepsilon + \dotsc + a_n \varepsilon^n</math>

mit <math>a_0,a_1,\dotsc,a_n \in R</math>. Wenn <math>f \in R[T]</math> ein Polynom ist, so lassen sich seine ersten <math>n</math> Ableitungen <math>f^{(1)},\dotsc,f^{(n)}</math> definieren durch die Gleichung

<math>\displaystyle f(T + \varepsilon) = f(T) + f^{(1)} (T)\varepsilon + \dotsc + f^{(n)}(T) \varepsilon^n.</math>
 

Ausblick

Es gibt Möglichkeiten, Ableitungen von beliebigen reellen Funktionen formal mit Hilfe einer infinitesimalen Größe zu definieren, zum Beispiel in der Nichtstandard-Analysis (Robinson) und der glatten infinitesimalen Analysis bzw. darauf aufbauend der synthetischen Differentialgeometrie (Lawvere, Kock). Eine für Schüler verständliche Einführung von Ingo Blechschmidt gibt es hier. In der glatten infinitesimalen Analysis ist tatsächlich jede Funktion unendlich-oft differenzierbar, also glatt, und die Ableitung ist erklärt durch die Gleichung

<math>\displaystyle f(x + \varepsilon) = f(x) + f'(x) \varepsilon</math>

für alle <math>x \in \mathds{R}</math> und <math>\varepsilon \in \mathds{R}</math> mit <math>\varepsilon^2=0</math>. Der Körper der reellen Zahlen ist in dieser Theorie so gemacht, dass daraus nicht <math>\varepsilon=0</math> gefolgert werden kann, was an der intuitionistischen Logik liegt. Für Polynome, rationale Funktionen und Potenzreihen haben wir gesehen, dass man diese Form der synthetischen Ableitung auch ohne eine solche Theorie bekommt.


Dieser Artikel kommt von Matroids Matheplanet
http://matheplanet.com

Die Url für diesen Artikel ist:
http://matheplanet.com/default3.html?article=1791