Suchwörter   (werden UND-verknüpft)
Keines der folgenden   keine eigenen Beiträge
Name des Autors 
resp. Themenstellers 

nur dessen Startbeiträge
auch in Antworten dazu
Forum 
 Suchrichtung  Auf  Ab Suchmethode  Sendezeit Empfehlungbeta [?]
       Die Suche erfolgt nach den angegebenen Worten oder Wortteilen.   [Suchtipps]

Link auf dieses Suchergebnis hier

Forum
Thema Eingetragen
Autor

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Mathefreund123
Rückwärts-stochastische Riccati-Differenzialgleichung  
Beitrag No.3 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-22 17:50
AnnaKath
 

Huhu Mathefreund,

dann hake ich doch noch einmal nach: Was ist denn $P$? Davon musst Du doch eine Vorstellung haben, wenn Du $P\leq 0$ formulierst.

Meine Anmerkung soll darauf hinweisen, dass es keine Lösung geben wird*, für die das ein im geläufigen Sinne gültiger Ausdruck ist. Eine Lösung $P$ der SDE wird kein (klassischer) stochastischer Prozess sein...

In gewisser Weile ähnelt Deine Frage der Folgenden: Ist $x$ die Lösung von $\int_{\mathbb{R}} x = \Theta$ (der Heavyside-Funktion), welchen Wert hat dann $x(-2)$?

lg, AK

*) Sieht man trivialen Grenzfällen wie $\Lambda_t = 0$ f.s. ab

Stochastik und Statistik
Schule 
Thema eröffnet von: Sokuban
Wahrscheinlichkeit beim wiederholten Würfeln  
Beitrag No.7 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-22 17:43
AnnaKath
J

@topic
Mit der vollständigen Aufgabenstllung im Blick fällt mir auf, dass hinter dem "bzw." wohl nur "B" fehlt und somit das Spiel natürlich doch schultauglich ist (da ja maximal 10 Runden gespielt werden).

---

Huhu lieber (gar nicht so sehr) Einfältiger,
2021-01-22 11:48 - DerEinfaeltige in Beitrag No. 4 schreibt:
@AnnaKath:
Irgendwo hast du dich vertippt.
Dein (richtiges) Ergebnis passt nicht zur Rechnung.

Ich würde schreiben:
$G = p + (1-p)(1-G) \Rightarrow G = \frac{1}{2-p}$

Natürlich ist Deine Lösung richtig und beim Lösen der Aufgabe habe ich selbst ebenfalls so gerechnet; aber auch meine Formulierung aus #2 ist korrekt und soll die homogene Markovstruktur des Spiels demonstrieren: Die Kette beginnt mit Spieler A am Zug; dies ist natürlich zu reproduzieren um die Gewinnwahrscheinlichkeit aus der Markoveigenschaft zu berechnen. Gewinnt Spieler A also nicht mit seinem Zug (dafür steht der Summand $p$), was mit W'keit $(1-p)$ eintritt, so darf Spieler B ebenfalls nicht gewinnen (das gibt einen weiteren Faktor von $1-p$) um den Ausgangszustand "(Spiel läuft, A am Zug)" herzustellen, kurz: $G=p+(1-p)^2 G \rightarrow G=\frac6{11}$.

lg, AK

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Mathefreund123
Rückwärts-stochastische Riccati-Differenzialgleichung  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-22 11:17
AnnaKath
 

Huhu Mathefreund123,

in welchem Sinne versuchst Du diese SDE (bzw. das Anfangswertproblem) denn zu lösen?
Für nichtdeterministisches $\kappa_t$ ist $P$ doch kein Ito-Prozess (aka "nicht differenzierbar")...

Es gibt wohl eines (Hida-)distributionelle Lösung der Gleichung, ich kann aber nicht erkennen, dass diese regulär wäre und bin mir auch nicht sicher, dass sie negativ (semi-)definit wäre. Wenn Du das aber nachweisen willst, solltest Du es mit dem Satz von Bochner/Minlos versuchen.

lg, AK

Stochastik und Statistik
Schule 
Thema eröffnet von: Sokuban
Wahrscheinlichkeit beim wiederholten Würfeln  
Beitrag No.2 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-22 10:57
AnnaKath
J

Huhu Sokuban und herzlich Willkommen auf dem Matheplaneten!

Danke für diese Aufgabe; ich verstehe Deine Verwunderung durchaus.
Natürlich habe ich die Aufgabe sogleich meiner Tochter (9. Klasse) vorgelegt*.

Nach etwa einer halben Stunde hatte sie zwar den Aufgabenteil mit einer fixen Rundenzahl (also hier 10) durch rohe Gewalt (aka Ecxeltabelle) gelöst; konnte jedoch den Teil, die Wahrscheinlichkeiten bei unendlicher Wiederholung zu bestimmen, nicht lösen.
Mit ein paar Hinweisen konnte sie dies dann zumindest für die Version [1] lösen und hat wohl** der (zugegeben herumgestocherten) Lösung von Version [3] durch die Mütter*** folgen können und sich dann schmunzelnd**** zurückgelehnt, als wir beide nach einer Viertelstunde und zahlreichen "Eins-Daneben-Fehlern" Version [2] durch ein kleines Computerprogramm gelöst haben...

Zusammengefasst: Ich halte es für völlig ausgeschlossen, dass diese Aufgabe eine normale Aufgabe für die 8. Klasse darstellen soll!

Möglicherweise ist die Aufgabe darstellbar, wenn "bzw." in der Aufgabenstellung einfach überlesen werden soll***** und lediglich die Gewinnwahrscheinlichkeiten für den Gewinn von A innerhalb von 10 Runden durch reinen Fleiss gelöst werden sollen.

Dann jedenfalls ist es natürlich möglich, die betreffende Wahrscheinlichkeit durch z.B. einen Baum zu bestimmen (auch für Schuler*innen).


Noch eine kurze Anmerkung:
2021-01-22 10:14 - Sokuban im Themenstart schreibt:
Vorüberlegung: Die Wahrscheinlichkeit, dass A gewinnt, müsste ja von Runde zu Runde steigen und sich dann irgendwann seinem Maximum nähern, was ein wenig über 0,5 liegen müsste. Oder?
Das ist natürlich so formal nicht korrekt; auch die (auf den bisherigen Verlauf des Spiels) bedingte Wahrscheinlichkeit, dass A gewinnt, steigt nicht notwendig. In Version [1] ist es sogar ein probter Lösungsweg, auszunutzen, dass diese sich nicht verändert******. So kann man die Wahrscheinlichkeit $G$, dass A gewinnt also etwa durch Lösen von $G = \frac16 + \frac56 \cdot(\frac56 \cdot G) = \frac6{11}$ bestimmen.

lg, AK


*) sie liebt das Homeschooling nun noch mehr...
**) breit grinsend
***) die immerhin beide einen Hochschulabschluss in Mathematik haben
****) ein Euphemismus für "noch breiter grinsend"
*****) grammatikalisch ist das ohnehin ein Graus
******) Das Spiel ist technisch gesehen in dieser Version ein homogener Markovprozess


[Die Antwort wurde vor Beitrag No.1 begonnen.]

Spiel & Spaß
  
Thema eröffnet von: cramilu
Zotige Reime mit altbackenen Maßeinheiten  
Beitrag No.14 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-17 12:26
AnnaKath
 

Hallo ihr beiden,

da habt ihr euch ein sehr spezielles Thema ausgesucht und die Anforderungen recht hoch geschraubt...

Anbei ein Auszug aus H. W. Longfellows romantischem* Epos "Evangeline, A Tale of Acadie" (2. Teil, 5. Gesang, zitiert nach dieser Quelle).


Suddenly, as if arrested by fear or a feeling of wonder,
Still she stood, with her colorless lips apart, while a shudder
Ran through her frame, and, forgotten, the flowerets dropped from her fingers,
And from her eyes and cheeks the light and bloom of the morning.
Then there escaped from her lips a cry of such terrible anguish,
That the dying heard it, and started up from their pillows.
On the pallet before her was stretched the form of an old man.
Long, and thin, and gray were the locks that shaded his temples;
But, as he lay in the in morning light, his face for a moment
Seemed to assume once more the forms of its earlier manhood;
So are wont to be changed the faces of those who are dying.
Hot and red on his lips still burned the flush of the fever,
As if life, like the Hebrew, with blood had besprinkled its portals,
That the Angel of Death might see the sign, and pass over.
Motionless, senseless, dying, he lay, and his spirit exhausted
Seemed to be sinking down through infinite depths in the darkness,
Darkness of slumber and death, forever sinking and sinking.
Then through those realms of shade, in multiplied reverberations,
Heard he that cry of pain, and through the hush that succeeded
Whispered a gentle voice, in accents tender and saint-like,
"Gabriel! O my beloved!" and died away into silence.
Then he beheld, in a dream, once more the home of his childhood;
Green Acadian meadows, with sylvan rivers among them,
Village, and mountain, and woodlands; and, walking under their shadow,
As in the days of her youth, Evangeline rose in his vision.
Tears came into his eyes; and as slowly he lifted his eyelids,
Vanished the vision away, but Evangeline knelt by his bedside.
Vainly he strove to whisper her name, for the accents unuttered
Died on his lips, and their motion revealed what his tongue would have spoken.
Vainly he strove to rise; and Evangeline, kneeling beside him,
Kissed his dying lips, and laid his head on her bosom.
Sweet was the light of his eyes; but it suddenly sank into darkness,
As when a lamp is blown out by a gust of wind at a casement.

All was ended now, the hope, and the fear, and the sorrow,
All the aching of heart, the restless, unsatisfied longing,
All the dull, deep pain, and constant anguish of patience!
And, as she pressed once more the lifeless head to her bosom,
Meekly she bowed her own, and murmured, "Father, I thank thee!"

Zumindest annähernd sind eure Kriterien hier wohl erfüllt:
- Der Hexameter ist hörbar bzw. ersichtlich;
- Irgendwas mit Mann und Frau, Küssen und an die Brust drücken kommt vor;
- Das Wort "multiplied" stellt sogar einen sehr vagen Bezug zu einer weiteren fremden** Welt, dem Matheplaneten, her.

Einen schönen Sonntag,
AK

*) d.h. furchtbar schmalzigem...
**) aber besseren!

Stochastik und Statistik
Beruf 
Thema eröffnet von: sulky
Darstellung einer Markovkette, die bei Null beginnt  
Beitrag No.5 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-14 18:39
AnnaKath
 

Huhu sulky,

vielleicht kannst Du zu zunächst einmal hier nachschlagen; hoffentlich klären sich dann Deine Fragen.

Deine Situation mit (unendlichem, zinslosen) Bankkredit ist im Übrigen genau das im Artikel behandelte Beispiel einer Irrfahrt ("random walk") auf $\mathbb{Z}$.

Ein Markov-Prozess ist natürlich im Falle endlicher Zustandsräume durch eine Übergangsmatrix bestimmt; für abzählbare Zustandsräume funktioniert das nur noch, indem man unendliche "Matrizen" akzeptiert.

Für eine allgemeinere Betrachtung benötigt man jedoch das ganze Instrumentarium der Übergangskerne; so sehr die Anschauung anhand einfacher Beispiele nett ist - das definierende eines Markovprozesses ist keine "Matrix"...

lg, AK

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: luvo
Gleichverteilte stochastische Prozesse  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-14 18:20
AnnaKath
J

Huhu Iuvo,

einmal integrierst Du über den ursprünglichen Wahrscheinlichkeitsraum, einmal über den Bildraum.

Im Grunde fragst Du Folgendes: Ist $X : \Omega \rightarrow \mathbb{R}^n$ eine Zufallsvariable, warum ist dann $\int_{\Omega} 1_{X^{-1}(A)}(\omega) \: dP(\omega) = \int_{\mathbb{R}^n} 1_A(x) \: dP_X(x)$?
Und diese Frage wirst Du Dir selbst beantworten können.

lg, AK

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: sulky
richtiges Verständnis der stationären Verteilung einer Markovkette  
Beitrag No.11 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-11 22:37
AnnaKath
J

Huhu Sulky,

Du verrechnest Dich hier bloss:

$\mathbb{P}(X_1=2)=\sum_{n\in E} \mathbb{P}(X_1=2, X_0=n) = \sum_{n\in E} p_{n,2} \pi_n = p_{1,2} \cdot 1 = \frac12$.

Beachte: $\pi=(1,0,0)$ ist hier die Startverteilung!

lg, AK

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: sulky
richtiges Verständnis der stationären Verteilung einer Markovkette  
Beitrag No.9 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-11 20:41
AnnaKath
J

Huhu sulky,

2021-01-11 19:48 - sulky in Beitrag No. 8 schreibt:
$p_{n,k} \cdot \pi_n= P(X_{j+1}=k | X_{j} = n) $
Ich habe keine Ahnung wie sich dieses $\pi_n$ in die Gleichung schleichen konnte.

Beachte, $P(X_{j+1}=k | X_{j} = n)$ ist nicht das Gleiche wie $P(X_{j+1}=k, X_{j} = n)$.
Hier verwechselst Du etwas.
Das $\pi_n$ schleicht sich durch den Satz von der totalen Wahrscheinlichkeit hinein.


Du verwendest den Index $k$ von $\pi_k$ als die Nummerierung der Verteilungen. Also $\pi_k$ ist die Verteilung nach dem $k$-ten Schritt.
Bisher dachte ich dass $\pi_k $ die $k$-te Komponente des Zeilenvektores $\pi$ ist.

Notation ist Schall und Rauch; wenn ich zwei Verteilungen bezeichnen will, kann ich diese $\pi$ und $\nu$, $\pi_1$ und $\pi_2$ oder auch $\pi^{(1)}$ und $\pi^{(2)}$ nennen. Letzteres ist etwa dann sinnvoll, wenn man auch von einzelnen Komponenten des Vektors sprechen will, die man dann z.B. mit $\pi^{(k)}_j$ (o.ä.) bezeichnen könnte (und einigermassen konsistent zu "Deiner" Notation zu bleiben).

lg, AK

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: sulky
richtiges Verständnis der stationären Verteilung einer Markovkette  
Beitrag No.7 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-11 16:31
AnnaKath
J

Huhu sulky,

das zweite Gleichheitszeichen ist doch schlicht die Definition der Übergangsmatrix. $p_{n,k} = P(X_{j+1}=k | X_{j} = n)$.

Worin besteht denn nun noch Dein Problem bezüglich der stationären Verteilung?

Du startest in #4 mit einer nicht-stationären Verteilung $\pi_0 = (1,0,0)$. Nach einem Schritt ergibt sich eine weitere nicht-stationäre Verteilung $\pi_1= (0, \frac12 , \frac12 )$... Nichts Überraschendes!

Hier (die Kette ist aperiodisch, irreduzibel und positiv-rekurrent) ist die einzige stationäre Verteilung auch die Grenzverteilung und Deine zunächst ausgeführte intuitive Vorstellung greift:
$\mathrm{lim}_{n\rightarrow \infty} \pi_0 P^n = \pi = ( \frac13 , \frac13 , \frac13 )$.

Es ändert aber nichts an dem bisher Gesagten: $\pi$ ist stationär als Eigenvektor zum Eigenwert $1$ von $P$, d.h. es gilt $\pi = P \pi$. Und natürlich gilt auch, falls $X_0 \sim \pi$, dass $X_n \sim \pi$ für alle $n\in\mathbb{N}$, insbesondere also auch für $X_1$.

lg, AK

Stochastik und Statistik
Beruf 
Thema eröffnet von: sulky
Anwendungsbeispiel zu einer Markovkette  
Beitrag No.8 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-11 14:26
AnnaKath
J

Huhu sulky,

Du darfst die beiden erwarteten Austrittszeiten einfach addieren. Dies ist gerade eine Folgerung aus der Markov-Eigenschaft (wieso?).

Bezüglich der zweiten Summe: Um zum Beispiel nach genau $3$ Schritten den Zustand $4$ zu verlassen beträgt die Wahrscheinlichkeit $\frac23 \cdot \frac13 \cdot \frac13$. Allgemein ist die Austrittszeit aus diesem Zustand geometrisch mit Parameter $p=\frac23$ verteilt (siehst Du das)?

Somit wäre die erwartete Austrittszeit $\mathbb{E} A_4 = \frac23 \cdot \sum_{k=0}^\infty (k+1) \cdot (\frac13)^k = \ldots = \frac32$.
Etwas leichter sieht man das aus der impliziten Beziehung $\mathbb{E} A_4 = 1 + \frac13 \cdot \mathbb{E} A_4$ (wieso gilt das?).

Insgesamt wirst Du dann als Austrittszeit der Kette, die f.s. in Zustand $5$ startet, $A_{\{4,5\}} = \frac72$ erhalten.

lg, AK

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: sulky
richtiges Verständnis der stationären Verteilung einer Markovkette  
Beitrag No.5 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-11 08:51
AnnaKath
J

Huhu sulky,

hier hast Du mich vermutlich nur falsch verstanden. Was ich meine ist das folgende: Die Anschauung einer stationären Verteilung als eine schliessliche stabile Verteilung einer Markovkette (nach einer "Einschwingzeit") ist zwar durchaus gelegentlich nützlich, entspricht aber nicht der formalen Anforderung.

Was ich meine ist das folgende: Aufgrund der Markoveigenschaft ist die Vergangenheit der Kette ja unbedeutend, wenn eine Verteilung $\pi$ sich also ab einem Index $N$ als Grenzverteilung ergibt, so ist sie auch Grenzverteilung einer Kette, die bereits in $\pi$ startet. Für die Überprüfung der Stationärität einer Verteilung ist also völlig unbedeutend, wie die Kette diese erreicht.

Eine stationäre Verteilung (geschrieben als Zeilenvektor) ist also einfach ein Linkseigenvektor zum Eigenwert $1$ der Übergangsmatrix.

In Deinem Beispiel ist natürlich $\pi=(\frac13 , \frac13 , \frac13 )$ die (einzige) stationäre Verteilung. In diesem Falle ist sie auch die Grenzverteilung der Markovkette unabhängig von der Anfangsverteilung. Das ist aber natürlich nicht immer so.

So besitzt z.B. die denkbar einfache Markovkette mit der Übergangsmatrix $I=\left ( \begin{array}{cc} 1 & 0 \\ 0 & 1 \\ \end{array} \right )$ jede Verteilung $\pi=(a,1-a)$ als stationäre Verteilung, die Grenzverteilung einer konkreten, in $\nu$ startenden Markovkette ist aber natürlich nur $\nu$.

lg, AK

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: sulky
richtiges Verständnis der stationären Verteilung einer Markovkette  
Beitrag No.3 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-10 22:51
AnnaKath
J

Huhu,

2021-01-10 22:16 - sulky in Beitrag No. 2 schreibt:
Was ich aber jetzt schon nicht verstehe aus der Tehorie ist dass wenn für $X_0$ die Verteilung $\pi$ ist, dann ist für alle $n$ die Verteilung $X_n$ auch $\pi$.
Das verstehe ich nicht.
Ich dachte nun eben, dass die Verteilung einer einzelnen Variablen und die Verteilung der ganzen Kette zwei verschiedene Sachen seien.

das ist es natürlich auch.

Eine stationäre Verteilung ist eben eine solche, die, wenn sie einmal erreicht wird, sich nicht mehr ändert. Aufgrund der Markoveigenschaft kann man alles was vorher passiert ist vergessen und z.B. die Markovkette neu starten lassen. Für eine stationäre Verteilung ist es also ausreichend, dass diese als Anfangsverteilung stationär ist.

lg, AK

Stochastik und Statistik
Beruf 
Thema eröffnet von: sulky
Anwendungsbeispiel zu einer Markovkette  
Beitrag No.3 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-10 22:48
AnnaKath
J

Huhu,

oh, ich wollte nicht anregen, nicht formal zu sein; aber Du solltest zunächst einmal eie Vorstellung haben, was denn herauskommen wird...

Für die nächste Teilaufgabe hilft natürlich auch ein bisschen Überlegung; startet die Markovkette f.s. in Zustand $5$, so ist offenbar $T_{\{1,2,3\}}=T_{\{1,3\}}$, was aber auch die Austrittszeit aus $\{4,5\}$ ist...

lg, AK

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: RunicLight
Wahrscheinlichkeitsberechnung mit 2 exponentialverteilten ZV  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-10 21:38
AnnaKath
 

Huhu RunicLight und herzlich willkommen auf dem Matheplaneten!

Deine verwendete Formel ergibt sich einerseits aus Marginalisierung (der Darstellung der bedingten Dochte $f_Y$ der gemeinsamen Dichte der beiden Zufallsvariablen) und andererseits aus Faktorisierung der Bedingten Erwartung (bzw. der bedingten Wahrscheinlichkeit). Unter diesen Begriffen kannst Du die Konzepte überall in den Untiefen des Netzes finden.

Vielleicht hilft es auch, sich den Term auf der rechten Seite einmal für zwei diskrete Zufallsvariablen vorzustellen.

lg, AK

Stochastik und Statistik
Beruf 
Thema eröffnet von: sulky
Anwendungsbeispiel zu einer Markovkette  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-10 19:45
AnnaKath
J

Huhu sulky,

bevor Du Dich in Formalismen verlierst* hilft es sicher, sich kurz zu überlegen, was denn herauskommen muss. Kannst Du das nach einen Blick auf Deinen Graphen nicht bereits sagen?

lg, AK

*) z.B. ist das Ungleichheitszeichen in Deiner "Definition" der Erwartungszeit $\mathbb{E}_5 T_6 wohl nicht sonderlich sinnvoll.

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: sulky
richtiges Verständnis der stationären Verteilung einer Markovkette  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-10 19:37
AnnaKath
J

Huhu sulky,

Deine Vorstellung einer stationären Verteilung ist zwar nicht völlig falsch, aber gelegentlich irreführend. Sie ist im vielleicht "hübschesten" Falle einer positiv-rekurrenten, irreduziblen und aperiodischen Markovkette natürlich völlig korrekt; in diesem Falle existiert allerdings auch eine eindeutige stationäre Verteilung.
Im Prinzip kann man an den o.a. Einschränkungen ablesen, was an der von dir genannten Anschauung, dass eine stationäre Verteilung irgendwie eine "Grenzverteilung" sei, "schief gehen" kann.

Doch bleiben wir zunächst konkret bei Deiner Aufgabe.
Offensichtlich sind $\pi_4=\pi_5$ keine Verteilungen (die Summe der Einträge beträgt nicht $1$...).
Und dann ist natürlich jede Konvexkombination zweier stationären Verteilungen wieder eine stationäre Verteilung*. Eine Markovkette muss ja nicht f.s. in einem Zustand starten...

Vielleicht hilft Dir das schon einmal.

lg, AK

*) Sind $\pi_1, \pi_2$ stationäre Verteilungen einer Markov-Kette mit Übergangsmatrix $P$ und sind $a,b\in [0,1]$ mit $a+b=1$, so ist $(a\pi_1 + b\pi_2)P = a\pi_1 P + b\pi_2 P = a\pi_1 + b\pi_2$ ebenfalls stationär.

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: hanuta2000
Kopplung von Zufallsvariablen  
Beitrag No.14 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-10 16:41
AnnaKath
 

Huhu,

natürlich darfst Du weiter fragen. Dafür ist dieses Forum schlisslich da.

Einen schönen Sonntag,
AK

Sonstiges
  
Thema eröffnet von: gonz
Was hört ihr so?  
Beitrag No.93 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-10 09:13
AnnaKath
 

Huhu,

zum Einschlafen bevorzuge ich ebenfalls gesprochenes Wort. So zum Beispiel dies hier.*

Die Drei Fragezeichen sind mir zu aufregend...

lg, AK

*) Lt. meiner Frau ist das "noch langweiliger als wenn Du berichtest, was Du so am Tag herumgenerdet hast"... Ich sehe das als Qualitätssiegel!

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: hanuta2000
Kopplung von Zufallsvariablen  
Beitrag No.12 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2021-01-10 09:02
AnnaKath
 

Huhu,

nun, das ist doch genau das erwartete Ergebnis.

Das fundamentale Problem der Modellierung ist das Folgende: Die Poisson-Verteilung ist eine Verteilung über $\mathbb{N}_0$ (mit der Potenzmenge). Demzufolge besteht für eine Zufallsvariable $X\sim\mathrm{Pois} (\lambda)$ eine (wenn auch geringe Chance) jede beliebig grossen Wert anzunehmen. Insbesondere auch z.B. Werte grösser als $n-1$, was aber bereits der maximale Knotengrad ist (sofern der Graph ungerichtet und schlingenfrei ist, wovon ich ausgehe).

Die Knotengrade können also gar nicht poissonverteilt sein; sie sind tatsächlich (verallgemeinert) binomialverteilt (allerdings nicht unabhängig*).

Betrachten wir einen Zufallsgraphen mit 2 Knoten (und jeweiligen Gewichten von $1$). Die W'keit, dass die einzig mögliche Kante Teil des Graphen ist, beträgt dann meinem Verständnis nach $\frac12$. Offensichtlich besitzen dann beide Knoten jeweils den Grad $1$ oder jeweils den Grad $0$.
Das ist recht weit von zwei unabhängigen Poissonverteilungen (selbst mit dem "richtigen" Parameter $\lambda=\mathbb{E} D_i = 0.5$) entfernt...

Nach Konstruktion des Graphen sinkt die Wahrscheinlichkeit für das Vorhandensein einer speziellen Kante, sofern man die Knotenmenge erweitert (und die Gewichte nicht gleichzeitig wild "aufpumpt").
Somit funktioniert die Poissonapproximation der (verallg.) Binomialverteilung (s.oben) rasch (also bereits für moderate $n$) sehr gut**.

lg, AK

*) was im Übrigen ebenfalls ein Grund ist, die Kopplung zu betrachten
**) Des Weiteren sinkt die Korrelation der Knotengrade mit grösser werdendem $n$ ebenfalls, was der Modellierung durch unabhängige Poisson-Verteilungen zusätzlich fundiert.
 

Sie haben sehr viele Suchergebnisse
Bitte verfeinern Sie die Suchkriterien

[Die ersten 20 Suchergebnisse wurden ausgegeben]
Link auf dieses Suchergebnis hier
(noch mehr als 20 weitere Suchergebnisse)

-> [Suche im Forum fortsetzen]
 
 

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2021 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]

used time 0.064716