Die Mathe-Redaktion - 30.08.2014 18:12
Auswahl
Aktion im Forum
Suche
Stichwortsuche in Artikeln und Links von Matheplanet
Suchen im Forum
Suchtipps

Bücher
Englische Bücher
Software
Suchbegriffe:
Mathematik bei amazon
Naturwissenschaft & Technik
In Partnerschaft mit Amazon.de
Kontakt
Mail an Matroid
[Keine Übungsaufgaben!]
Impressum

Bitte beachten Sie unsere Nutzungsbedingungen, die Distanzierung, unsere Datenschutzerklärung und
die Forumregeln.

Sie können Mitglied werden oder den Newsletter bestellen.

Der Newsletter August 2014

Für Mitglieder
Mathematisch für Anfänger
Wer ist Online
Aktuell sind 277 Gäste und 31 Mitglieder online.

Sie können Mitglied werden:
Klick hier.

Über Matheplanet
 
Zum letzten Themenfilter: Themenfilter:
Matroids Matheplanet Forum Index
Moderiert von Kleine_Meerjungfrau Monkfish epsilonkugel
Mathematik » Stochastik und Statistik » Folge integrierbarer Zufallsvariablen
Druckversion
Druckversion
Autor
Universität/Hochschule J Folge integrierbarer Zufallsvariablen
Hantel
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 20.07.2013
Mitteilungen: 104
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Themenstart: 2013-12-17 17:45


Guten Abend,

mit folgender Aufgabe tue ich mich schwer:
Sei X1, X2, ... eine Folge von integrierbaren iid Zufallsvariablen mit P(X_n < \epsilon)=0, \epsilon>0. Was können Sie über die Verteilung von (\prod_{k=1}^n X_k)^{1/n} für große n sagen?

Ansatz: Habe zunächst so argumentiert. Da die Xi iid gilt E(Xi)=E(X1)=m.
Sei S_n = \sum_k X_k, X_i \text{integrierbar} \, \, \Rightarrow E(X_i)<\infty \Rightarrow \frac1n \sum_k (X_k - E(X_k)) = \frac1n S_n - m \Rightarrow  \frac1n S_n \rightarrow m. Ist das so okay? Habe mir den Kram irgendwie zusammengeworfen..
Danke für jeden Beitrag, würde mich freuen wenn jemand Richtungen vorschlägt...



  Profil  Quote  Link auf diesen Beitrag Link
Calculus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 10.08.2012
Mitteilungen: 4819
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.1, eingetragen 2013-12-17 17:49


Soll die letzte Bedingungen bedeuten dass es ein ε > 0 gibt, sodass P(Xi < ε) = 0?


Deine Betrachtung bringt dich nicht weiter, denn du hast hier ein Produkt statt einer Summe. Wenn du das Produkt aber logarithmierst, kannst du das Gesetz der großen Zahlen anwenden.



  Profil  Quote  Link auf diesen Beitrag Link
Hantel
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 20.07.2013
Mitteilungen: 104
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.2, vom Themenstarter, eingetragen 2013-12-17 18:14


In der Aufgabe ist ein P(X_n<\epsilon) = 0 genannt, ja. Kann man daraus folgern, dass dies für alle Xi, i=1,...,n, gilt?

Verstehe deinen Hinweis nicht so richtig. Soll ich das Gesetz vom iterierten Logarithmus zur Anwendung kommen lassen, und zunächst zeigen, dass m=0? Sorry für die Rückfrage..

EDIT: Oder soll ich einfach umstellen a la \log(\prod_k X_k)^{1/n} = \frac1n( \log X_1 + ... + \log X_n)?



  Profil  Quote  Link auf diesen Beitrag Link
Calculus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 10.08.2012
Mitteilungen: 4819
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.3, eingetragen 2013-12-17 18:28


Die Xi haben alle die gleiche Verteilung, daher gilt die Aussage für alle Xi. Es ist nur wichtig, wo hier welche Quantoren stehen. Hier gilt wohl: Es gibt ein ε > 0 mit P(Xi < ε) = 0, d.h. die Zufallsvariablen sind nach unten durch eine positive Konstante beschränkt.


Vom iterierten Logarithmus hat niemand etwas gesagt. Du musst den Ausdruck einfach logarithmieren, wie du es in #2 getan hast. Überlege nun, wie man weiterrechnen kann.



  Profil  Quote  Link auf diesen Beitrag Link
Hantel
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 20.07.2013
Mitteilungen: 104
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.4, vom Themenstarter, eingetragen 2013-12-17 19:07


Deinem Hinweis zur Folge könnte ich folgende Abschätzung machen:
\frac1n \sum_{i=1}^n \log (X_i) \geq \frac{1}{n} \sum_{i=1}^n \cdot \log a = \log a, a \in \mathbb{R}.

Außerdem:

0 = P(\log X_i < \log \epsilon) \geq P(\log a < \log \epsilon) \Rightarrow P(a<\epsilon) = 0

Kann hier wirklich nur so Häppchen durch die Luft werfen... wenn das alles totaler Murks ist sorry, bin immer noch im Dunkeln, was hier eigentlich abgehen soll. Dennoch natürlich 1000 Dank für deine Antworten bis hierhin



  Profil  Quote  Link auf diesen Beitrag Link
Calculus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 10.08.2012
Mitteilungen: 4819
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.5, eingetragen 2013-12-17 19:14


Das bringt dich nicht sonderlich weiter.


Du hast also neue Zufallsvariablen Yi = log(Xi) und kannst nun untersuchen, was mit den Partialsummen S_n = \frac{1}{n} \sum \limits_{k = 1}^n Y_i für große n passiert. Fällt dir ein Satz ein, der etwas darüber aussagen kann? Sind die Voraussetzungen dafür erfüllt?



  Profil  Quote  Link auf diesen Beitrag Link
Hantel
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 20.07.2013
Mitteilungen: 104
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.6, vom Themenstarter, eingetragen 2013-12-17 19:47


Du hattest ja obig bereits angedeutet: Das Gesetz der großen Zahlen gilt es hier zu überprüfen. Da die Yi iid sind (erfüllt die Bedingungen für obiges Gesetz) könnte man formulieren:
\frac{S_n}n \rightarrow_{f.s.} m

Schlauere Sachen kommen mir auch hier nicht. Kann/soll ich hieraus jetzt ein konkretes m folgern?



  Profil  Quote  Link auf diesen Beitrag Link
Calculus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 10.08.2012
Mitteilungen: 4819
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.7, eingetragen 2013-12-17 19:50


Das Gesetz der großen Zahlen hat noch eine weitere Bedingung, die du nicht vergessen solltest.


Außerdem: Die Sn aus #5 sind bereits durch n dividiert, wenn also Yi eine Folge ist, die dem Gesetz der großen Zahlen genügt, dann konvergiert Sn fast sicher gegen eine Konstante.



  Profil  Quote  Link auf diesen Beitrag Link
Hantel
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 20.07.2013
Mitteilungen: 104
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.8, vom Themenstarter, eingetragen 2013-12-17 20:17


2013-12-17 19:50 - Calculus in Beitrag No. 7 schreibt:
Das Gesetz der großen Zahlen hat noch eine weitere Bedingung, die du nicht vergessen solltest.
Ich hatte mich dabei an folgendem Eintrag Wikipedias orientiert:
Ein starkes Gesetz der großen Zahlen gilt beispielsweise, wenn die Folge unabhängig ist und die Zufallsvariablen identisch verteilt sind (Zweites Gesetz der Großen Zahlen nach Kolmogorow). In meinem Skript ist noch notiert: sup_k E(X_k^4) < \infty. Meinst du das?
2013-12-17 19:50 - Calculus in Beitrag No. 7 schreibt:
Außerdem: Die Sn aus #5 sind bereits durch n dividiert, wenn also Yi eine Folge ist, die dem Gesetz der großen Zahlen genügt, dann konvergiert Sn fast sicher gegen eine Konstante.
Das wusste ich nicht, dank dir für den Hinweis.

Wenn jetzt Sn gegen m konvergiert, dann konvergiert auch die Summe der logXi gegen diese. Wenn ich m exponiere kann ich dann Rückschlüsse auf die Verteilung selbst machen (also der anfänglichen Frage begegnen)?



  Profil  Quote  Link auf diesen Beitrag Link
Calculus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 10.08.2012
Mitteilungen: 4819
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.9, eingetragen 2013-12-17 20:25


1) Die Bedingung auf die ich hinaus will, ist dass die Erwartungswerte der Yi existieren müssen. Wenn die Erwartungswerte nämlich nicht existieren, konvergiert die Reihe nicht fast sicher.


Die Bedingung mit den vierten Momenten ist übrigens nicht notwendig. Der Beweis des Gesetzes der großen Zahlen ist unter dieser Annahme allerdings einfacher zu führen, weswegen sie oft vorausgesetzt wird.


2) Ja, das folgt aus dem Satz von der stetigen Abbildung. Falls Zn eine Folge von Zufallsvariablen ist, die gegen die Zufallsvariable Z konvergieren, so konvergiert für alle stetigen Funktionen f auch f(Zn) fast sicher gegen f(Z). In diesem Fall ist die Folge Sn und die Funktion die Exponentialfunktion.



  Profil  Quote  Link auf diesen Beitrag Link
Hantel
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 20.07.2013
Mitteilungen: 104
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.10, vom Themenstarter, eingetragen 2013-12-18 11:14


Hey, alles klar, dann ist der Sache ja mittlerweile recht nahe gekommen:
Mit der folgenden Aussage, die ja durch die Aufgabe ggb ist, würde ich anfangen:
E(|X|) < \infty. |X| > |Y| \Rightarrow_{Monotonie} E(|X|) > E(|Y|). \Rightarrow E(|Y|) \, \, \text{ex.}

Zulässig? Danke für deine Geduld!



  Profil  Quote  Link auf diesen Beitrag Link
Calculus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 10.08.2012
Mitteilungen: 4819
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.11, eingetragen 2013-12-18 11:26


Das ist nicht zulässig, da i.A. nicht |log(x)| < |x| gilt. Schau dir den Positiv- und den Negativteil von Y einzeln an.



  Profil  Quote  Link auf diesen Beitrag Link
Hantel
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 20.07.2013
Mitteilungen: 104
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.12, vom Themenstarter, eingetragen 2013-12-18 11:47


Über den Positivteil kann ich nichts sagen.
Laut Wikipedia reicht aber, dass einer der beiden Teile endlich ist, nun:
Der Negativteil von Y ist endlich, weil die Xi durch eine Konstante von unten beschränkt sind und deshalb nicht gegen null konvergieren.

Damit Ex. gezeigt? Gruß



  Profil  Quote  Link auf diesen Beitrag Link
Calculus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 10.08.2012
Mitteilungen: 4819
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.13, eingetragen 2013-12-18 11:59


Wenn einer der beiden Integrale über Positiv- bzw. Negativteil endlich ist, dann nennt man eine Zufallsvariable quasiintegrierbar. Erst wenn beide Werte endlich sind, ist eine Zufallsvariable integrierbar. Für das Gesetz der großen Zahlen reicht Quasiintegrierbarkeit nicht aus.



Deine Begründung für die Integrierbarkeit des Negativteils musst du nochmal überdenken. Hier geht es nicht um irgendeine Art von Konvergenz, sondern um eine einzelne Zufallsvariable.


Für den Positivteil kannst du die Ungleichung log(x) < x für x > 0 verwenden.



  Profil  Quote  Link auf diesen Beitrag Link
Hantel
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 20.07.2013
Mitteilungen: 104
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.14, vom Themenstarter, eingetragen 2013-12-18 12:12


Aber gilt nicht folgendes: Da die Xi iid, und für ein X_n: P(X_n <\epsilon) = 0 folgt für alle Xi <1: \log X_i\geq \log \epsilon <-\infty \Rightarrow |Y_i| < \infty \Rightarrow |Y^-|<\infty.

Mit der Abschätzung nach oben wird's klar: Hier dann einfach die Monotonie des Erwartungswerts verwenden.



  Profil  Quote  Link auf diesen Beitrag Link
Calculus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 10.08.2012
Mitteilungen: 4819
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.15, eingetragen 2013-12-18 12:21


Es stimmt schon, dass du Yi nach unten durch log(ε) abschätzen musst, aber deine weitere Rechnung reicht nicht aus. Nicht alle endlichen Zufallsvariablen haben auch einen endlichen Erwartungswert.


Außerdem ist die Bezeichnung Xi < 1 ungünstig. Stattdessen kannst du schreiben: Yi- = -log(Xi) * I{Xi < 1}.



  Profil  Quote  Link auf diesen Beitrag Link
Hantel
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 20.07.2013
Mitteilungen: 104
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.16, vom Themenstarter, eingetragen 2013-12-18 12:44


Geht das so, oder verpasse ich etwas fundamentaleres?

E(|Y^-|) = \int \underbrace{|\log X_i 1_{X<1}|}_{\geq \log \epsilon <\infty} d\underbrace{P(|\log X_i 1_{X<1}|)}_{\in [0,1]} < \infty.



  Profil  Quote  Link auf diesen Beitrag Link
Calculus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 10.08.2012
Mitteilungen: 4819
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.17, eingetragen 2013-12-18 12:46


Du musst den Betrag natürlich nach oben, nicht nach unten abschätzen. Am Ende des Integrals kannst du nur dP schreiben, nicht dP([...]). Letzteres macht keinen Sinn.


Beachte aber, dass jede beschränkte Zufallsvariable integrierbar ist.



  Profil  Quote  Link auf diesen Beitrag Link
Hantel
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 20.07.2013
Mitteilungen: 104
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.18, vom Themenstarter, eingetragen 2013-12-18 12:57


2013-12-18 12:46 - Calculus in Beitrag No. 17 schreibt:
Du musst den Betrag natürlich nach oben, nicht nach unten abschätzen. Am Ende des Integrals kannst du nur dP schreiben, nicht dP([...]). Letzteres macht keinen Sinn.
Ja sorry, die Abschätzung ist natürlich komplett schwachsinnig.

2013-12-18 12:46 - Calculus in Beitrag No. 17 schreibt:
Beachte aber, dass jede beschränkte Zufallsvariable integrierbar ist.

Was dann obiges mit bearbeiteter Abschätzung klappen lässt?

E(|Y^-|) = \int |\log X_i 1_{X_i <1}|dP \leq \int |\log \epsilon |dP < \infty
\\ E(|Y^+|) = \int |\log X_i 1_{X_i \geq 1}| dP\leq \int |X_i1_{X_i \geq 1}| dP < \infty
\\ E(|Y|) = E(|Y^-|)+E(|Y^+|) < \infty \Rightarrow \text{Erwartungswert von Y ex.} \Rightarrow S_n \rightarrow m \Rightarrow ...\text{usw}



  Profil  Quote  Link auf diesen Beitrag Link
Calculus
Senior Letzter Besuch: in der letzten Woche
Dabei seit: 10.08.2012
Mitteilungen: 4819
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.19, eingetragen 2013-12-18 15:22


Genau. m ist nun der Erwartungswert der Yi; gegen welchen Wert konvergiert daher das Produkt aus #1?



  Profil  Quote  Link auf diesen Beitrag Link
Hantel
Aktiv Letzter Besuch: in der letzten Woche
Dabei seit: 20.07.2013
Mitteilungen: 104
Aus:
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag  Beitrag No.20, vom Themenstarter, eingetragen 2013-12-18 17:31


2013-12-18 15:22 - Calculus in Beitrag No. 19 schreibt:
Genau. m ist nun der Erwartungswert der Yi; gegen welchen Wert konvergiert daher das Produkt aus #1?

Ist m tatsächlich der Erwartungswert von Yi? Ich dachte Sn konvergiert über n gegen m. Dann kann man die umkehrfit. (e()) auf Sn/n und m anwenden und erhält damit den Wert m* gegen welchen das Produkt aus #1 konvergiert. Ok?

EDIT: Sehe gerade dass E(Yi) und der Wert gegen den konvergiert wird übereinstimmen, alles klar.



  Profil  Quote  Link auf diesen Beitrag Link
Hantel hat die Antworten auf ihre/seine Frage gesehen.
Hantel hat selbst das Ok-Häkchen gesetzt.
Bewerte diesen Thread:
[Was sonst bewertet wurde]
 Neues Thema [Neues Thema]

 Druckversion [Druckversion]

 


Wechsel in ein anderes Forum:
 Suchen    
 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2014 by Matroids Matheplanet
This web site was made with PHP-Nuke, a web portal system written in PHP. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]