Die Mathe-Redaktion - 27.01.2020 04:20 - Registrieren/Login
Auswahl
ListenpunktHome
ListenpunktAktuell und Interessant ai
ListenpunktArtikelübersicht/-suche
ListenpunktAlle Links / Mathe-Links
ListenpunktFach- & Sachbücher
ListenpunktMitglieder / Karte / Top 15
ListenpunktRegistrieren/Login
ListenpunktArbeitsgruppen
Listenpunkt? im neuen Schwätz
ListenpunktWerde Mathe-Millionär!
ListenpunktZur Award-Gala
ListenpunktFormeleditor fedgeo
Schwarzes Brett
Aktion im Forum
Suche
Stichwortsuche in Artikeln und Links von Matheplanet
Suchen im Forum
Suchtipps

Bücher
Englische Bücher
Software
Suchbegriffe:
Mathematik bei amazon
Naturwissenschaft & Technik
In Partnerschaft mit Amazon.de
Kontakt
Mail an Matroid
[Keine Übungsaufgaben!]
Impressum

Bitte beachten Sie unsere Nutzungsbedingungen, die Distanzierung, unsere Datenschutzerklärung und
die Forumregeln.

Sie können Mitglied werden. Mitglieder können den Matheplanet-Newsletter bestellen, der etwa alle 2 Monate erscheint.

Der Newsletter Okt. 2017

Für Mitglieder
Mathematisch für Anfänger
Wer ist Online
Aktuell sind 388 Gäste und 1 Mitglieder online.

Sie können Mitglied werden:
Klick hier.

Über Matheplanet
 
Zum letzten Themenfilter: Themenfilter:
Matroids Matheplanet Forum Index
Moderiert von Curufin epsilonkugel
Differentiation » Mehrdim. Differentialrechnung » Produkt s-mal stetig differenzierbarer Funktionen f,g ist wieder s-mal stetig differenzierbar
Druckversion
Druckversion
Autor
Ausbildung J Produkt s-mal stetig differenzierbarer Funktionen f,g ist wieder s-mal stetig differenzierbar
lanaluise
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 27.11.2019
Mitteilungen: 39
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Themenstart: 2019-12-07


Hallo liebe Community,
ich bin gerade bei der Bearbeitung einer Aufgabe zur Stetigkeit:

Seien n ∈N, s ∈N∪{+∞}, die offene Menge Ω⊆Rn und Funktionen f,g ∈ Cs(Ω) gegeben. Zeigen Sie, dass dann auch fg ∈ Cs(Ω) gilt.

Meine Überlegungen sind:
Wenn f und g s-mal stetig differenzierbar sind, so existieren ja alle partiellen Ableitungen fed-Code einblenden
und fed-Code einblenden
fed-Code einblenden

Demnach kann ich die Funktionalmatrix von f(x) und g(x) aufstellen und diese miteinander multiplizieren oder?



  Profil  Quote  Link auf diesen Beitrag Link
Wally
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 02.11.2004
Mitteilungen: 8632
Aus: Dortmund, Old Europe
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.1, eingetragen 2019-12-07

\(\begingroup\)\( \newcommand{\D}{\displaystyle}\)
Hallo lanaluise,

wie sieht das denn für \(n=1\) und \(s=1\) aus?

Wally
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 697
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.2, eingetragen 2019-12-07

\(\begingroup\)\( \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\span}{\operatorname{span}} \newcommand{\im}{\operatorname{im}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align*}#1\end{align*}} \newcommand{\ket}[1]{\left\vert#1\right>} \newcommand{\bra}[1]{\left<#1\right\vert} \newcommand{\braket}[2]{\left<#1\middle\vert#2\right>} \newcommand{\braketop}[3]{\left<#1\middle\vert#2\middle\vert#3\right>} \newcommand{\mean}[1]{\left<#1\right>} \newcommand{\lvert}{\left\vert} \newcommand{\rvert}{\right\vert} \newcommand{\lVert}{\left\Vert} \newcommand{\rVert}{\right\Vert}\)
Hallo lanaluise,

zunächst einmal kannst du hier die Funktionalmatrizen nicht miteinander multiplizieren, weil es sich um zwei $s\times 1$-Matrizen handelt. Da passen Spalten und Zeilenzahlen nicht zueinander.
Grundsätzlich kannst du aber schon über die partiellen Ableitungen argumentieren, da es hier um Differenzierbarkeit auf einer offenen Menge geht. Für den Fall $s=1$ kannst du zum Beispiel sagen, dass die partiellen Ableitungen $\partial_i(fg)=f\partial_i g+g\partial_i f$ sind. Überlege aber nochmal genauer, wieso daraus totale Differenzierbarkeit folgt. Es gibt da ein nützliches Kriterium, welches eine Verbindung zwischen totaler und partieller Differenzierbarkeit herstellt.
Für den Fall $s>1$ sollte sich Induktion anbieten.

Viele Grüße,
Vercassivelaunos

[Die Antwort wurde vor Beitrag No.1 begonnen.]
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
lanaluise
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 27.11.2019
Mitteilungen: 39
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.3, vom Themenstarter, eingetragen 2019-12-07


Okay, ich werde diesen Ansatz dann mal weiter verfolgen, danke!
Als Kriterium könnte ich doch das Hinreichende Kriterium für Differenzierbarkeit nehmen.



  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 697
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.4, eingetragen 2019-12-07


Ich denke, du meinst das richtige, auch wenn es viele hinreichende Kriterien dafür gibt. Stetige partielle Differenzierbarkeit in einer offenen Umgebung ist hier das geeignete Kriterium.



  Profil  Quote  Link auf diesen Beitrag Link
lanaluise
Aktiv Letzter Besuch: im letzten Monat
Dabei seit: 27.11.2019
Mitteilungen: 39
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.5, vom Themenstarter, eingetragen 2019-12-07


Okay, also das Kriterium besagt, dass wenn B eine offene Menge im R^n ist und f eine Funktion von B->R und x ein Punkt in B, dass dann falls eine Umgebung U existiert von x, sodass alle partiellen Ableitungen in dieser existieren und diese in x stetig sind, dann ist f in x total differenzierbar.

Bei der Induktion komme ich leider nicht ganz weiter. Ich wähle als Induktionsanfang s=1 und erhalte dann :
fed-Code einblenden

Ich verstehe hier nun nicht ganz, welche Induktionsvoraussetzung ich wählen soll, da für s=s ja gelten muss:
fed-Code einblenden

also natürlich auch dort wieder mit fg, aber muss ich dort dann auch immer wieder die Kettenregel anwenden? Ich kann mir gerade wirklich nicht vorstellen wie das dann aussehen soll, kannst du mir das einmal erklären?Das wäre wirklich super, danke :)





  Profil  Quote  Link auf diesen Beitrag Link
Vercassivelaunos
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 28.02.2019
Mitteilungen: 697
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.6, eingetragen 2019-12-07

\(\begingroup\)\( \newcommand{\N}{\mathbb{N}} \newcommand{\Z}{\mathbb{Z}} \newcommand{\Q}{\mathbb{Q}} \newcommand{\R}{\mathbb{R}} \newcommand{\C}{\mathbb{C}} \newcommand{\F}{\mathbb{F}} \newcommand{\K}{\mathbb{K}} \newcommand{\D}{\mathrm{D}} \newcommand{\d}{\mathrm{d}} \newcommand{\i}{\mathrm{i}} \newcommand{\e}{\mathrm{e}} \newcommand{\diag}{\operatorname{diag}} \newcommand{\span}{\operatorname{span}} \newcommand{\im}{\operatorname{im}} \newcommand{\matrix}[1]{\left(\begin{matrix}#1\end{matrix}\right)} \newcommand{\vector}[1]{\left(\begin{array}{c}#1\end{array}\right)} \newcommand{\align}[1]{\begin{align*}#1\end{align*}} \newcommand{\ket}[1]{\left\vert#1\right>} \newcommand{\bra}[1]{\left<#1\right\vert} \newcommand{\braket}[2]{\left<#1\middle\vert#2\right>} \newcommand{\braketop}[3]{\left<#1\middle\vert#2\middle\vert#3\right>} \newcommand{\mean}[1]{\left<#1\right>} \newcommand{\lvert}{\left\vert} \newcommand{\rvert}{\right\vert} \newcommand{\lVert}{\left\Vert} \newcommand{\rVert}{\right\Vert}\)
Höhere Ableitungen in mehreren Dimensionen sind tatsächlich nicht so leicht. Ich hole dafür mal ein wenig aus.

In einer Dimension sind höhere Ableitungen relativ einfach: Wenn $f:B\to\R$ mit $B\subseteq\R$ offen eine differenzierbare Funktion ist, dann existiert an jedem Punkt die Ableitung $f'(x)$ (eine reelle Zahl), und die Ableitungsfunktion ist dann definiert als die Funktion $f':B\to\R$, die jedem Punkt die entsprechende Ableitung zuordnet, also $x\mapsto f'(x)$. Es ist also wieder eine Funktion, die eine reelle Zahl auf eine reelle Zahl abbildet. Das lässt sich problemlos weiterspinnen: Wenn auch diese Funktion $f'$ differenzierbar ist, dann kann man sich eine zweite Ableitungsfunktion $f'':B\to\R$ definieren, die jedem Punkt $x\in B$ die Ableitung von $f'$ in dem Punkt zuordnet, also $x\mapsto f''(x)$. Auch das ist wieder eine Funktion, die in die reellen Zahlen abbildet, und das geht immer so weiter. Jede höhere Ableitungsfunktion ist wieder eine Abbildung in die reellen Zahlen.
Das funktioniert in höheren Dimensionen nicht. Wenn $B\subseteq\R^n$ ist, dann ist die Ableitung nicht mehr eine reelle Zahl, sondern eine Matrix (eigentlich eine lineare Abbildung, die durch diese Matrix dargestellt wird). Die erste Ableitung $\D f(x)$ ist eine $n\times 1$-Matrix. Die Ableitungsfunktion ist dann nicht mehr eine Abbildung nach $\R$, sondern eine Abbildung in die Menge $\R^{n\times1}$ der $n\times 1$-Matrizen. Es ist also $\D f:B\to\R^{n\times1}$.
Jetzt ist aber $\R^{n\times 1}$ isomorph zur Menge $\R^n$. $n\times1$-Matrizen sind ja von der Struktur her nicht wirklich was anderes als Zeilenvektoren, die man mit Spaltenvektoren aus $\R^n$ identifizieren kann. Und die Komponenten dieser Vektoren sind dann gerade die partiellen Ableitungen von $f$. Man kann die Ableitung also als $\D f(x)=(\partial_1 f(x),\dots,\partial_n f(x))$ schreiben, und die Ableitungsfunktion bildet dann jedes $x$ auf den Vektor $(\partial_1 f(x),\dots,\partial_n f(x))$ ab. Das ist also im Prinzip eine Abbildung $B\to\R^n$, im Vergleich zur ursprünglichen Abbildung $f$, die $B\to\R$ abgebildet hat.
Nun nennt man $f$ zweimal differenzierbar, wenn diese Abbildung $\D f:B\to\R^n,~x\mapsto(\partial_1 f(x),\dots,\partial_n f(x))$ differenzierbar ist. Deren Ableitung $\D^2f$ ist jetzt eine $n\times n$-Matrix (einfach die Jacobi-Matrix), in deren ersten Spalte die partiellen Ableitungen der ersten Komponente stehen, in der zweiten Spalte die partiellen Ableitungen der zweiten Komponente, und so weiter. Die $i$-te Komponente ist ja gerade $\partial_i f$, die Jacobimatrix ist also

\[\D^2 f(x)=\matrix{\partial_1\partial_1 f(x)&\dots&\partial_n\partial_1 f(x)\\
\vdots & \ddots & \vdots \\
\partial_1\partial_n f(x)&\dots&\partial_n\partial_n f(x)}.\]
Wenn man jetzt die zweite Ableitungsfunktion betrachtet, dann ist das also eine Abbildung, die jedem Punkt $x\in B$ diese Matrix $\D^2 f(x)$ zuordnet, es ist also eine Abbildung $B\to\R^{n\times n}$. Jetzt wirds natürlich langsam schwierig. Die 0-te Ableitung, also die Funktion $f$ selbst, ist eine Abbildung auf Zahlen. Die erste Ableitung ist eine Abbildung auf Vektoren. Die zweite Ableitung ist eine Abbildung auf Matrizen. Die dritte Ableitung ist eine Abbildung auf... komplexere Objekte. Oder auch nicht. Wir hatten ja zuerst die erste Ableitung als $n\times1$-Matrix betrachtet, und dann gesagt, dass man diese ja als Vektor identifizieren kann. Das kann man auch mit $n\times n$-Matrizen machen: Man identifiziert die $n\times n$-Matrix

\[\matrix{\partial_1\partial_1 f(x)&\dots&\partial_n\partial_1 f(x)\\
\vdots & \ddots & \vdots \\
\partial_1\partial_n f(x)&\dots&\partial_n\partial_n f(x)}\]
mit dem $n^2$-komponentigen Vektor

\[\vector{\partial_1\partial_1 f(x)\\\vdots\\\partial_n\partial_1 f(x)\\\vdots\\\partial_1\partial_n f(x)\\\vdots\\\partial_n\partial_n f(x)}\]
Man packt also jeden Eintrag der Matrix in eine Komponente des Vektors. Jetzt ist die zweite Ableitungsfunktion $\D^2 f$ also eine Abbildung $B\to\R^{n^2}$, und die Komponenten des Vektors, auf den abgebildet wird, sind gerade alle zweiten partiellen Ableitungen von $f$. Diese Funktion kann man wieder ableiten, man erhält eine $n\times n^2$-Matrix (hat also $n\cdot n^2=n^3$ Einträge), die man mit einem $n^3$-komponentigen Vektor identifiziert. Die Komponenten sind jetzt gerade alle dritten partiellen Ableitungen von $f$. Auf diese Weise kann man die $k$-te Ableitungsfunktion von $f$ immer als Abbildung $\D^kf:B\to\R^{n^k}$ identifizieren, und die Komponenten dieser Abbildung sind dann immer die $k$-ten partiellen Ableitungen von $f$.

So, jetzt zur eigentlichen Aufgabe: Als Induktionsstart zeigst du, dass wenn $f$ und $g$ einmal stetig differenzierbar sind, dann auch $fg$ stetig differenzierbar ist. Als Induktionsschritt kannst du so vorgehen: Wenn $f$ und $g$ $k+1$-mal stetig differenzierbar sind, dann sind sie natürlich auch $k$-mal stetig differenzierbar. Nach Induktionsvoraussetzung ist dann $fg$ ebenfalls $k$-mal stetig differenzierbar. Du musst dann herausfinden, wie die Komponenten der $k$-ten Ableitung $D^k(fg)$ aussehen und zeigen, dass diese Komponenten allesamt stetig partiell differenzierbar in einer offenen Menge sind. Damit folgt dann nämlich, dass $\D^k(fg)$ in besagter offener Menge stetig differenzierbar ist, womit $fg$ $k+1$-mal stetig differenzierbar ist.
\(\endgroup\)


  Profil  Quote  Link auf diesen Beitrag Link
lanaluise hat die Antworten auf ihre/seine Frage gesehen.
lanaluise hat selbst das Ok-Häkchen gesetzt.
Neues Thema [Neues Thema]  Druckversion [Druckversion]

 


Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2019 by Matroids Matheplanet
This web site was made with PHP-Nuke, a web portal system written in PHP. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]