Bearbeiten von: Abschnitt [Änderungshistorie]
  Zeilenumbrüche automatisch mache ich selbst mit HTML    

Ich möchte eine Mail an , nachdem mein Vorschlag bearbeitet ist.
  Nachricht zur Änderung:

Input assistance tools (JavaScript): [Link extern intern] [MathML?] [$$?]
[fed-area] [LaTeX-inline] [LaTeX-display] [Tikz] [hide-area][show-area] [Source code [num.]][?]
[Link zurück zum Artikelabschnitt]

Vorschau:
Eindimensionale Normalverteilung

Vorbemerkung: In diesem Artikel wird mit Matrizen gerechnet. Wenn eine Matrix als positiv (semi)definit bezeichnet wird ist damit gemeint, dass diese Matrix auch symmetrisch ist.

1. Eindimensionale Normalverteilung

Zuerst ist es notwendig, die Normalverteilung korrekt zu definieren.
1.1 Definition: Normalverteilung
Eine Zufallsvariable <math>X</math> nennt man standardnormalverteilt, falls ihre Verteilung die Lebesgue-Dichte
<math>\displaystyle f_X(x) = \frac{1}{\sqrt{2\pi}} \exp\left(-\frac{x^2}{2}\right) </math>
besitzt. Man nennt eine Zufallsvariable <math>Y</math> normalverteilt mit Erwartungswert <math>\mu</math> und Varianz <math>\sigma^2</math>, falls für eine standardnormalverteilte Zufallsvariable <math>X</math>
<math>Y \stackrel{d}{=} \mu + \sigma X</math>
gilt. Man verwendet in diesem Fall die Notation
<math>Y \sim \mathcal{N}(\mu, \sigma^2)</math>
Hierbei müssen einige Feinheiten beachtet werden:
  • <math>f_X</math> ist eine Dichte. Dies ist eine klassische Übungsaufgabe im Zusammenhang mit dem Transformationssatz und folgt durch Transformation in Polarkoordinaten aus der Gleichung
    <math>\displaystyle \left(\int \limits_{\mathbb{R}} f_X(x) \; dx\right)^2 = \int \limits_{\mathbb{R}^2} f_X(x) f_X(y) \; dx \; dy</math>
  • Die Definition ist eindeutig. Da die Standardnormalverteilung eine symmetische Verteilung ist, gilt <math>\mu + \sigma X \stackrel{d}{=} \mu - \sigma X</math>. Die Verteilung hängt daher nicht von der Wahl ab, ob <math>\sigma</math> die positive oder negative Wurzel von <math>\sigma^2</math> ist.
  • Die Wahl der Begriffe Erwartungswert und Varianz ist gerechtfertigt. Wie im folgenden gezeigt wird, besitzt die Standardnormalverteilung einen Erwartungswert von 0 und eine Varianz von 1. Aus den Rechenregeln des Erwartungswerts und der Varianz folgt für <math>Y \sim \mathcal{N}(\mu, \sigma^2)</math> damit <math>\mathbb{E}[Y] = \mu</math> und <math>\operatorname{Var}(Y) = \sigma^2</math>.
  • Die Definition lässt auch die Wahl <math>\sigma = 0</math> zu. Eine konstante Zufallsvariable <math>X = c</math> ist damit normalverteilt mit Erwartungswert <math>c</math> und Varianz 0.
Im gesamten ersten Abschnitt sei stets <math>X \sim \mathcal{N}(0, 1)</math> und <math>Y \sim \mathcal{N}(\mu, \sigma^2)</math>.

Ist <math>\sigma^2 \ne 0</math>, so besitzt Y eine Lebesgue-Dichte. Mit dem Transformationssatz für Dichten lässt sich diese zu
<math>\displaystyle f_Y(x) = \frac{1}{\sqrt{2\pi\sigma^2}} \exp \left(-\frac{(x - \mu)^2}{2\sigma^2}\right)</math>
berechnen. Häufig wird diese Dichte zur Definition der Normalverteilung verwendet. Dieser Ansatz hat jedoch zwei Nachteile:
  1. Der Spezialfall <math>\sigma = 0</math> muss gesondert betrachtet werden. Dieser Fall ist jedoch wichtig bei der Betrachtung der mehrdimensionalen Normalverteilung. Definiert man konstante Zufallsvariablen nicht als normalverteilt, so müssen bei der mehrdimensionalen Normalverteilung an vielen Stellen Ausnahmen betrachtet werden.
  2. Wählt man die Definition über die Dichte, so sind viele Rechnungen im Zusammenhang mit der Normalverteilung sehr umständlich. Dazu gehört beispielsweise die Berechnung der Momente und der charakteristischen Funktion. Mit der Definition aus diesem Artikel kann man viele Aussagen auf die Standardnormalverteilung zurückführen, bei der wesentlich einfachere Terme auftreten.
Wir bestimmen nun die Momente der Normalverteilung. Aufgrund des binomischen Lehrsatzes genügt es hierbei nur die Momente der Standardnormalverteilung zu berechnen:
<math>\displaystyle \mathbb{E}[Y^n] = \mathbb{E}[(\mu + \sigma X)^n] = \sum \limits_{i = 0}^n \binom{n}{i} \mathbb{E}[X^i]\sigma^i\mu^{n - i}</math>
1.2 Satz: Momente der Standardnormalverteilung
Es gilt die folgende Formel für die Momente der Standardnormalverteilung:
<math>\mathbb{E}[X^n] = \begin{cases} 0 &n = 2k + 1 \\ \frac{(2k)!}{2^k k!} & n = 2k \end{cases}</math>
Beweis: Aus dem asymptotischen Verhalten der Exponentialfunktion ist klar, dass sämtliche Momente der Standardnormalverteilung existieren. Die ungeraden Momente verschwinden, da die Verteilung symmetrisch ist. Partielle Integration liefert die folgende Rekursionsformel für die ungeraden Momente:
<math>\displaystyle \mathbb{E}[X^{2k}] = \frac{1}{\sqrt{2\pi}}\int \limits_{-\infty}^\infty x^{2k - 1} \left(x e^{-\frac{x^2}{2}}\right) \; dx = (2k - 1) \frac{1}{\sqrt{2\pi}}\int \limits_{-\infty}^\infty x^{2k - 2} e^{-\frac{x^2}{2}} \; dx = (2k - 1)\mathbb{E}[X^{2k - 2}]</math>
Daraus folgt mittels Induktion die gesuchte Formel.

Damit können wir nun zeigen:
1.3 Satz: Charakteristische Funktion der Normalverteilung
Die Charakteristische Funktion der Normalverteilung lautet:
<math>\varphi_Y(t) = \mathbb{E}\left[e^{itY}\right] = \exp\left(it\mu - \frac{\sigma^2 t^2}{2}\right)</math>
Beweis: Wegen
<math>\varphi_Y(t) = \mathbb{E}\left[e^{itY}\right] = \mathbb{E}[e^{it(\mu + \sigma X)}] = e^{it\mu}\varphi_X(t\sigma)</math>
genügt es auch hier, nur den Fall einer standardnormalverteilten Zufallsvariable zu betrachten. In diesem Fall gilt
<math>\displaystyle \varphi_X(t) = \mathbb{E}\left[e^{itX}\right] = \mathbb{E}\left[\sum \limits_{n = 0}^\infty \frac{(itX)^n}{n!}\right] = \sum \limits_{n = 0}^\infty \mathbb{E}\left[\frac{(itX)^n}{n!}\right] = \sum \limits_{n = 0}^\infty \frac{(it)^{2n}}{(2n)!} \frac{(2n)!}{2^n n!} = \exp\left(-\frac{t^2}{2}\right)</math>
womit die Aussage bewiesen ist. Man beachte hierbei, dass die Summe mit dem Erwartungswert gemäß dem Satz von der dominierten Konvergenz vertauscht werden darf. Als Majorante kann hier <math>e^{|tX|}</math> verwendet werden.

1.4 Korollar: Summe normalverteilter Zufallsvariablen
Sind <math>Y_1, Y_2</math> unabhängige Zufallsvariablen mit <math>Y_i \sim \mathcal{N}(\mu_i, \sigma_i^2)</math>, so ist ihre Summe ebenfalls normalverteilt:
<math>Y_1 + Y_2 \sim \mathcal{N}(\mu_1 + \mu_2, \sigma_1^2 + \sigma_2^2)</math>
Beweis: Dies folgt unter Ausnutzung der Unabhängigkeit der Zufallsvariablen direkt durch Einsetzen in die charakteristische Funktion.

Mit der Kenntnis der charakteristischen Funktion der Normalverteilung können wir das vermutlich wichtigste Resultat im Zusammenhang mit der Normalverteilung nachweisen, den zentralen Grenzwertsatz:
1.5. Satz: Zentraler Grenzwertsatz
Es sei <math>X_1, X_2, ...</math> eine i.i.d. Folge von Zufallsvariablen mit Erwartungswert 0 und Varianz <math>\sigma^2</math>. Die Folge der Zufallsvariablen
<math>\displaystyle S_n = \frac{1}{\sqrt{n}}\left(\sum \limits_{i = 1}^n X_i\right)</math>
konvergiert schwach gegen eine Normalverteilung:
<math>S_n \xrightarrow{d} \mathcal{N}(0, \sigma^2)</math>
Beweis: Da die zweiten Momente der Zufallsvariablen per Voraussetzung existieren, ist ihre charakteristische Funktion zweimal stetig differenzierbar mit Ableitung:
<math>\varphi^{(k)}_{X_1}(t) = \mathbb{E}\left[(iX_1)^k e^{itX_1}\right]</math>
Dieses Resultat kann leicht mittels Induktion nachgewiesen werden. Hierzu benötigt man lediglich die für reelle t gültige Abschätzung <math>|e^{it} - 1| = \left| 2 \sin\left(\frac{t}{2}\right)\right| \le |t|</math> und den Satz von der dominierten Konvergenz.

Insbesondere kann die Taylor-Näherung für die charakteristische Funktion verwendet werden:
<math>\varphi_{X_1}(t) = 1 - \frac{\sigma^2 t^2}{2} + o(t^2), \quad t \to 0</math>
Daraus folgt:
<math>\displaystyle \varphi_{S_n}(t) = \mathbb{E}\left[\exp\left(i\frac{t}{\sqrt{n}}\left(\sum \limits_{j = 1}^n X_j\right)\right)\right] = \prod \limits_{j = 1}^n \varphi_{X_j}\left(\frac{t}{\sqrt{n}}\right) = \left(1 - \frac{\sigma^2 t^2}{2n} + o\left(\frac{t^2}{2n}\right)\right)^n</math>

Für beliebiges <math>\epsilon > 0</math> kann für hinreichend große n der Restterm in der Form
<math>o\left(\frac{t^2}{2n}\right) \le \epsilon \frac{t^2}{2n}</math>
abgeschätzt werden. Damit folgt:
<math>\displaystyle \limsup \limits_{n \to \infty} \varphi_{S_n}(t) \le \exp \left(-\frac{\sigma^2 t^2}{2} + \epsilon t^2\right)</math>
Schätzt man den Limes inferior der Folge auf analoge Weise nach unten ab, so folgt mit dem Grenzübergang <math>\epsilon \to 0</math>
<math>\displaystyle \lim \limits_{n \to \infty}\varphi_{S_n}(t) = \exp \left(-\frac{\sigma^2 t^2}{2}\right)</math>
womit die Aussage bewiesen ist.

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2021 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]