Suchwörter   (werden UND-verknüpft)
Keines der folgenden   keine eigenen Beiträge
Name des Autors 
resp. Themenstellers 

nur dessen Startbeiträge
auch in Antworten dazu
Forum 
 Suchrichtung  Auf  Ab Suchmethode  Sendezeit Empfehlungbeta [?]
       Die Suche erfolgt nach den angegebenen Worten oder Wortteilen.   [Suchtipps]

Link auf dieses Suchergebnis hier

Forum
Thema Eingetragen
Autor

Programmieren
Universität/Hochschule 
Thema eröffnet von: Neymar
Python: CSV-Datei einlesen klappt nicht  
Beitrag No.4 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2019-09-01
b_p
J

Für pandas.read_csv() kannst du den Parameter sep angeben, welcher das Trennzeichen festlegt. Also bspw.
Python
import pandas as pd
 
df = pd.read_csv('datei.csv', sep=';')

Die Änderung der Regionseinstellung, um Excel zur Verwendung des Kommas als Trennzeichen zu bewegen, mutet doch etwas umständlich an.

Programmieren
Universität/Hochschule 
Thema eröffnet von: Lucky_7
Python: Cumulative Distribution Function implementieren  
Beitrag No.6 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2019-07-12
b_p
 

2019-07-11 22:03 - Lucky_7 in Beitrag No. 5 schreibt:
python
stat_gauss, pvalue_gauss = kstest(pdf, 'norm', args=(mean(pdf), np.std(pdf)))
, wobei pdf natürlich die geschätzte PDF aus den Datenpunkten entspricht.

Was ist pdf genau? Sofern es sich nicht um die Liste der Realisationen handeln sollte, hätten wir den Fehler bereits gefunden.

Ungeachtet dessen, machst du aber genau den Fehler, den ich in meinem vorherigen Beitrag beschrieben habe: (zweiseitiger) KS-Test bei zusammengesetzter Hypothese unter Beibehaltung der für diesen Fall nicht vorgesehenen kritischen Werte, d. h. das Ergebnis wird nicht verwertbar sein.

Algorithmen / Datenstrukturen
Universität/Hochschule 
Thema eröffnet von: Lucky_7
Backpropagation in Convolutional Neural Networks  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2019-07-03
b_p
J

Es handelt sich lediglich um Anwendung der Kettenregel der Differentialrechnung.

In deinem Beispiel haben wir <math>L(a, y)</math>, <math>a = \sigma(z)</math> sowie <math>z = w_1 x_1 + w_2 x_2 + b</math>. Um nun <math>\frac{\partial L(a, y)}{\partial w_1}</math> zu berechnen, schauen wir uns an, von wo <math>w_1</math> in L einfließt. Das geschieht über <math>a</math> und da wiederum über <math>z</math>. Also leiten wir entsprechend ab, nämlich <math>\frac{\partial L(a, y)}{\partial w_1} = \frac{\partial L(a, y)}{\partial a} \cdot \frac{\partial a(z)}{\partial z} \cdot \frac{\partial z}{\partial w_1}</math>.

Bei deinem zweiten Beispiel geht das ganz genau so: <math>\frac{\partial L(a_2, y)}{\partial w_1} = \frac{\partial L(a_2, y)}{\partial a_2} \cdot \frac{\partial a_2(z_2)}{\partial z_2} \cdot \frac{\partial z_2}{\partial a_1} \cdot \frac{\partial a_1(z_1)}{\partial z_1} \cdot \frac{\partial z_1}{\partial w_1}</math>.

Programmieren
Universität/Hochschule 
Thema eröffnet von: Lucky_7
Python: Cumulative Distribution Function implementieren  
Beitrag No.4 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2019-07-01
b_p
 

Kurze Anmerkung am Rande: pdf scheint eine Liste bzw. ein Array mit den Beobachtungen zu sein. Die hypothetische Verteilung soll eine Normalverteilung sein, wobei deren Parameter offenbar nicht bekannt sind. Letztere werden folglich einfach aus den Beobachtungen geschätzt und dann für die hypothetische Verteilung verwendet.

Betrachten wir mal ganz allgemein die zwei grundsätzlich möglichen Fälle bei einem Anpassungstest:

Im ersten Fall sind sowohl die Verteilungsfamilie als auch ihre Parameter bekannt, d. h. die Nullhypothese ist vollständig spezifiziert und somit einfach. Dieser Fall ist in der Regel gut untersucht und die Verteilung der Teststatistik (zumindest asymptotisch) bekannt. Folglich entspricht dies auch dem in Lehre und Standardliteratur am häufigsten dargestellten Fall.

Im zweiten Fall, welcher eher der Praxis entspricht, liegt zwar das Wissen um die Verteilungsfamilie, nicht aber um deren Parameter vor. Die Nullhypothese ist folglich unvollständig spezifiziert und somit zusammengesetzt. Die Verteilung der Teststatistik weicht in der Regel erheblich von der aus dem vollständig spezifizierten Fall ab, wodurch das Festhalten an der alten Prüfverteilung in einem wesentlich geringeren, tatsächlichen Fehler 1. Art resultieren würde (vgl. S. 73f in Büning, H. und G. Trenkler (1994). Nichtparametrische statistische Methoden (2., erweiterte und völlig überarbeitete Auflage). Berlin, de Gruyter). Die korrekte Prüfverteilung hängt vom Stichprobenumfang, der hypothetischen Verteilung, den wahren Parameterwerten und der verwendeten Schätzmethode ab (vgl. S. 102 in D'Agostino, R. B. und M. A. Stephens (1986). Goodness-of-Fit Techniques. New York, Marcel Dekker). Handelt es sich um Lage- oder Skalenparameter, so werden bei einer Schätzung durch die "richtige" Methode zumindest die beiden zuletzt genannten Abhängigkeit eliminiert. Oftmals ist die Prüfverteilung jedoch nicht einmal bekannt, so dass Quantile und p-Werte mühsam über MC-Simulationen berechnet werden müssen.


Aus obigem wird klar, dass hier leider der zweite Fall vorliegt und somit der ursprüngliche KS-Test nicht verwendet werden kann/darf. Es gibt jedoch entsprechende Anpassungen, welche im Buch von D'Agostino und Stephens beschrieben sind. Da der KS-Test jedoch die geringste Güte von allen EDF-Tests aufweist (vgl. Büning und Trenkler, S. 84), scheint er weniger empfehlenswert.

Btw: Die zweiseitige Variante sollte niemals verwendet werden, da sie verfälscht ist, d. h. die richtige Hypothese kann mit höherer Wahrscheinlichkeit abgelehnt werden als eine falsche ("worser than useless", vgl. S. 196 und S. 23 in Rüger, B. (2002). Statistische Tests, Band 2 aus Test- und Schätztheorie. München, Oldenbourg Wissenschaftsverlag).

Nimm lieber den Anderson-Darling-Test in der Variante für zusammengesetzte Hypothesen oder - noch besser - einen Normalitätstest, d. h. einen Test, welcher speziell für den Fall einer Normalverteilung ausgelegt ist. (Aber nicht den Lilliefors-Test, der aus dem KS-Test hervorgegangen ist.)

Wobei die Grafiken deiner KDE im verlinkten Thread weniger nach Normalverteilung aussahen. Ein Q-Q Plot ist vielleicht die schnellere und einfachere Alternative, wenn keine Signifikanz nachgewiesen werden muss.

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: StudyKathi
Konfidenz-Intervall  
Beitrag No.3 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2018-07-21
b_p
 

Hm, diese Formeln helfen bei der Aufgabe nicht wirklich weiter. Ich dachte eher an folgendes: Wikipedia. So etwas müsste irgendwo vorgekommen sein. Du müsstest dann nur noch entscheiden, welche Situation vorliegt, d. h. welche der beiden in Frage kommenden Formeln die richtige ist.

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: StudyKathi
Lösungsansatz zu Konfidenz-Intervallen  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2018-07-01
b_p
J

Zunächst solltest du deinen anderen Beitrag zum Thema Konfidenzintervalle abschließen, um ein besseres Verständnis dafür zu entwickeln.


Hier haben wir nun folgende Situation: der Hersteller hat bereits ein 99 % Konfidenzintervall berechnet, welches [0,295; 0,305] lautet.

Wenn du dir nun die Formel für das Konfidenzintervall aufschreibst, dann hast du zwar die Standardabweichung und das Quantil gegeben, aber Mittelwert und das gesuchte n fehlen.

Davon ausgehend, dass wir uns im Normalverteilungsfall befinden, ist das Konfidenzintervall symmetrisch um den Mittelwert. Seine Breite nimmt mit steigendem Konfidenzniveau zu und umgekehrt.

Es stellt sich die Frage, ob der Mittelwert hier überhaupt benötigt wird, oder ob es nicht vielmehr um die Breite geht.

Kannst du obige Punkte durch Formeln ergänzen und die im letzten Satz aufgeworfene Frage vielleicht auch schon durchdenken und ggf. auch schon eine Formel für die sich ergebende Folgerung aufschreiben?

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: StudyKathi
Konfidenz-Intervall  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2018-07-01
b_p
 

Hi,

fangen wir doch mal ganz einfach an:
  1. Ihr habt doch sicher ein paar Formeln für Konfidenzintervalle aufgeschrieben. Welche sind das?
  2. Wie unterscheiden sich diese Formeln voneinander?
  3. Welche Situation liegt hier vor?

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Phantomhive
Varianzminimierender Schätzer  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2018-07-01
b_p
 

Hi,

sagt dir die Cramér-Rao-Schranke etwas? Sie gibt ja an, wie klein die Varianz eines erwartungstreuen Schätzers maximal werden kann.

Zunächst stellt sich die Frage, ob dein ML-Schätzer erwartungstreu ist, sonst gilt diese Schranke nicht. (Gut, die Antwort lautet natürlich "ja", sonst wäre der Rest meines Beitrags sinnlos.) Entweder habt ihr einen Satz zur Erwartungstreue des ML-Schätzers gehabt oder du weist die Erwartungstreue schnell selbst nach (also <math>E\left[T_{ML}\right] = E\left[\frac{1}{n}\sum_{i=1}^n X_i\right]</math> berechnen).

Dann berechnest du die Cramér-Rao-Schranke für ein Bernoulli-Experiment und die Varianz deines ML-Schätzers <math>VAR\left[T_{ML}\right] = VAR\left[\frac{1}{n}\sum_{i=1}^n X_i\right]</math>. Nun vergleichst du die Schranke mit der von dir berechneten Varianz. Sollten beide übereinstimmen, hast du deine Antwort, falls nicht, hast du dich verrechnet ;) .


Erfahrungsaustausch
Universität/Hochschule 
Thema eröffnet von: LaLe
Ein zweiter Master, in Informatik?  
Beitrag No.3 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2017-07-20
b_p
J

@susi0815:
Die Fernuni behandelt künstliche Intelligenz kaum bis gar nicht. Das finde ich persönlich sehr schade, da Machine Learning/Deep Learning zurzeit DIE Themen sind. Der aus meiner Sicht letzte Kurs aus diesem Gebiet, 01830 - Neuronale Netze, wurde beispielsweise vor zwei Jahren eingestellt. Die Schwerpunkte der Professoren liegen leider in anderen Bereichen.

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: aiquita
Negative Binomialverteilung Schätzer  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2017-07-12
b_p
 

Die Definition des Erwartungswertes lautet ja im diskreten Fall <math>E[X] = \sum x \cdot f(x)</math>, wobei f die Wahrscheinlichkeitsfunktion bezeichnet. Wenn du nun den Erwartungswert für g(X) berechnen möchtest, dann geht das ganz analog, nämlich <math>E[g(X)] = \sum g(x) \cdot f(x)</math>. Letzteres wurde hier gemacht, sprich <math>\hat{\theta}</math> ist dein g(X) und f ist die Wahrscheinlichkeitsfunktion der negativen Binomialverteilung.

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Tycross
reguläre bedingte Verteilung  
Beitrag No.2 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2017-07-12
b_p
J

Weder im Buch noch im Internet wird jemals eine Normalisierungskonstante erwähnt.
Eine Dichte/Wahrscheinlichkeitsfunktion f(x) kannst du in den Kern und die Normalisierungskonstante unterteilen. Der Kern beschreibt die eigentliche Gestalt der Verteilung und hängt von x ab (wenn die Variable denn so heißt). Die Normalisierungskonstante ist ein multiplikativer und von x unabhängiger Teil, welcher den Kern bei Integration/Summation auf 1 normiert.

Beispiel Standardnormalverteilung:
Dichte <math>f(x) = (2\pi)^{-1/2}\,\exp(-x^2/2)</math>
Kern <math>\exp(-x^2/2)</math>
Normalisierungskonstante <math>(2\pi)^{-1/2}</math>.

Beispiel Poissonverteilung:
Wahrscheinlichkeitsfunktion <math>f(x) = \frac{x^{\lambda}}{\lambda!}\,\exp(-\lambda)</math>
Kern <math>\frac{x^{\lambda}}{\lambda!}</math>
Normalisierungskonstante <math>\exp(-\lambda)</math>


Zur Normalisierungskonstante aus dem zitierten Buchausschnitt: Da das genaue Aussehen hier nicht interessiert, hat der Autor diese einfach C_x genannt. Man kann sie aus dem vorigen Schritt natürlich auch ausrechnen, aber der Fokus liegt in diesem Beispiel auf dem Kern und daher kann man sich die Mühe auch sparen.

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Basti2890
Kerndichteschätzer vs. empirische Verteilung  
Beitrag No.3 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2017-06-20
b_p
 

Ist ein Parameterschätzer (...) also offenbar der Kerndichteschätzer asymptotisch einen besseren MSE als die empirische Verteilung.
Parameterschätzung setzt voraus, dass du die Verteilungsfamilie kennst. Bei der Dichteschätzung (nichtparametrische Statistik!) ist das hingegen nicht der Fall. Hier wird lediglich vorausgesetzt, dass die Verteilung dominiert ist, ggf. gewissen Glattheitsforderungen genügt usw.

Weiter schätzt du mit dem Kerndichteschätzer, wie der Name es suggeriert, eine Dichtefunktion und keine Verteilungsfunktion.


Betrachtet man die asymptotische Konvergenz, so ist der Kerndichteschätzer besser als der Histogrammschätzer.

Beim Kerndichteschätzer gibt es aber noch weitere Stellschrauben, wie etwa den Kern und die davon untrennbare Bandweite. Hier gilt es die Balance zwischen under- und oversmoothing zu halten. Und bei Gütebetrachtungen kommt es natürlich immer darauf an, welches Gütekriterium (Fehlermaße wie ISE, MISE, AMISE, Totalvariationsabstand, ...?) man verwendet. So wäre ein direkter Vergleich eines Kreuzvalidierungsverfahrens mit einem Plugin-Verfahren bei zugrunde gelegtem MISE-Abstand etwas unfair, weil letzteres diesen optimiert, ersteres aber den ISE. Auch bedeutet ein niedriges Fehlermaß noch lange keine gute Anpassung (aber wie will man die überhaupt messen?).

Für die Praxis sind derartige Betrachtungen eher nicht so wichtig - bei unimodalen und nicht zu schiefen Verteilungen kannst du den Gaußkern mit der Regel von Silverman für eine initiale Bandweite verwenden und diese dann manuell nachjustieren. Kompliziertere Verfahren liefern dir auch nur einen educated guess, in welchem Bereich eine gute Bandweite liegt.

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Basti2890
Kerndichteschätzer vs. empirische Verteilung  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2017-06-19
b_p
 

Beim Histogramm hast du das Problem, dass du neben der Bandweite (das muss man beim Kerndichteschätzer aber auch) auch den Startpunkt der ersten Bin vorgeben musst. Je nach gewähltem Startpunkt kann das Histogramm komplett anders aussehen. Aus diesem Grund wird zu average shifted histogramms geraten, was ein Zwischenschritt zu den Kerndichteschätzern darstellt.

Weiter ist ein stetiger Schätzer wie der Kerndichteschätzer von der Anschauung her oftmals etwas intuitiver.

David W. Scott hat ein ganz gutes Buch zum Thema rausgebraucht. Bis vor zwei Jahren gab es auch große Auszüge aus diesem in den Materialien der entsprechenden Vorlesung, aber die wurden mittlerweile offenbar entfernt.


Zu 2) kann ich leider nichts sagen, da ich mich damit noch nicht beschäftigt habe.

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Rinchen21
Gemeinsame Verteilung  
Beitrag No.3 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2017-06-11
b_p
 

Gut, versuchen wir es anders:

Nehmen wir mal an, Ω sei der Ausgangsraum des Experiments "Würfeln mit einem Würfel". Ω enthält die Augenzahlen von 1 bis 6, also Ω = {⚀, ⚁, ⚂, ⚃, ⚄, ⚅}. (Ich hoffe, die Würfelsymbole werden korrekt angezeigt.) Als Übung könntest du die Sigma-Algebra über Ω angeben.

Wenn wir nun n Würfel werfen und unterstellen, dass diese n Würfe sich gegenseitig nicht beeinflussen, dann haben wir einen n-dimensionalen Produkt- bzw. Potenzraum. Das Ω in diesem Raum ist dann {⚀, ⚁, ⚂, ⚃, ⚄, ⚅}n.

Nun wird die Abbildung X1 auf unser n-dimensionales Ω losgelassen. Diese Abbildung zählt die Anzahl der ⚅. Für n = 3 ist bspw. X1(⚁, ⚅, ⚃) = 1 oder X1(⚅, ⚅, ⚅) = 3. Formal sei X1: Ω → Ω'. Welche Werte kann X1 liefern und wie sieht der Bildraum Ω' demnach aus? Was bedeutet das wiederum für die Sigma-Algebra über Ω'?

Mit der Antwort auf die letzten beiden Fragen hast du Teilaufgabe a) für X1 gelöst.


Für Teilaufgabe b) müsstest du nun überlegen, welche der dir bekannten Verteilungen hier infrage kommen kann. Ist X1 eine diskrete oder eine stetige Zufallsvariable? Welche Verteilung passt hier dann per definitionem?

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Rinchen21
Gemeinsame Verteilung  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2017-06-08
b_p
 

Sei Y die Zufallsvariable, welche einen Wurf beschreibt. Als Werte kommen 0 (Augenzahl < 6) oder 1 (Augenzahl = 6) infrage. Wie sieht der entsprechende Raum <math>(\Omega, \mathcal{A})</math> aus und welche Verteilung <math>P</math> besitzt Y?

Wenn du nun n-mal würfelst, haben wir ja einen n-dimensionalen Produktraum (aufgrund der Unabhängigkeit der einzelnen Würfe). Jetzt müssen wir uns etwas um die Notation kümmern. Sei <math>(\Omega_i, \mathcal{A}_i, P_i)</math> der W-Raum des i-ten Wurfs. Da die Räume alle identisch sind, gilt <math>\Omega_1 = \ldots = \Omega_n = \Omega</math> und für die σ-Algebra und das W-Maß entsprechend.

Unser Produktraum sieht nun wie folgt aus: <math>(\Omega^n := \times_{j=1}^n \Omega_i, \mathcal{A}^n := \otimes_{j=1}^n \mathcal{A}_i, P^n := \otimes_{j=1}^n P_i)</math>. Da die Randräume sämtlich identisch sind, können wir auch <math>(\Omega^n = \times_{j=1}^n \Omega, \mathcal{A}^n = \otimes_{j=1}^n \mathcal{A}, P^n = \otimes_{j=1}^n P)</math> schreiben, was den selten gebräuchlichen Ausdruck Potenzraum und die von mir gewählte Schreibweise mit dem "hoch n" erklärt.

Ein <math>\omega^n \in \Omega^n</math> ist dabei das Ergebnis von n Würfen, also für n = 3 etwa (Augenzahl 1, Augenzahl 4, Augenzahl 6). Entsprechend ist <math>y^n := (Y_1(\omega_1), \ldots, Y_n(\omega_n)) = (Y_1, \ldots, Y_n)(\omega^n)</math>. Für dieses Beispiel erhalten wir yn = (0, 0, 1) als Realisation, da nur beim dritten Wurf eine 6 auftrat.

Die Anzahl der Würfe mit der Augenzahl 6, was der gesuchten Zufallsvariable X1 entspricht, könnte man nun beispielsweise durch Addieren der Yi erhalten. Da für jede Komponente yi der Realisation yn nur die Werte 0 oder 1 infrage kommen, ist die Summe der einzelnen Komponenten ja gerade die gesuchte Anzahl.

Die Verteilung von X1 ist also die Summe der n unabhängigen Verteilungen Pi. Wenn du Pi hast, dann sollte klar sein, was dieses sogenannte Faltungsprodukt für eine Verteilung rausspuckt.

Jetzt müsstest du "nur" noch den zugehörigen W-Raum und die Abbildung, welche vom Ursprungsraum zu diesem Raum geführt hat (also die beschriebene Summe), formal beschreiben.


Für X2 gehe mal deine diskreten Verteilungen durch und überlege, welche Verteilung das Warten auf den ersten Erfolg beschreibt. Für den hier gefragten zweiten Erfolg müsstest du die Überlegungen, welche zu jener Verteilung geführt haben, recyceln.

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: DavidSo
Verwerfen von H_0 anhand von p-Wert  
Beitrag No.1 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2016-12-16
b_p
 

Deine zweite Folgerung erschließt sich mir nicht.


Man kann auch unabhängig von einem LQ-Test argumentieren:

Sei P* diejenige Verteilung aus der Hypothese, welche für die Teststatistik T den größten Wert annimmt. Diese Verteilung ist also das, was bei der Hypothese schlimmstenfalls passieren kann und heißt entsprechend ungünstigste Verteilung.

Wir ziehen nun eine Stichprobe x := X(ω) und berechnen den Wert der Teststatistik t := T(x) = T(X(ω)). Die beobachtete Überschreitenswahrscheinlichkeit bzw. der beobachtete p-Wert ist dann p(x) := P*[T ≥ t].

Sei nun k der kritische Wert des Tests φ. Die Niveau-alpha-Bedingung lautet ja <math>\sup\limits_{P \in H_0} P[T > k] = \sup\limits_{P \in H_0} E_P[\varphi(X)] \leq \alpha</math>. Die Verteilung, welche die Wahrscheinlichkeit für T > k maximiert, ist gerade unsere ungünstigste Verteilung P*. Folglich haben wir die Äquivalenz <math>p(x) \leq \alpha \iff t > k</math>.

Programmieren
Universität/Hochschule 
Thema eröffnet von: monade25
Python: Zeichenpaare in String ersetzen  
Beitrag No.2 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2016-12-09
b_p
 
Python
import re
 
re.sub('(\w)\\1', '', deinString) # oder: re.sub(r'(\w)\1', '', deinString)

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: hAM1t
Gleichverteilung auf dem Intervall [a,b]  
Beitrag No.3 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2016-11-07
b_p
J

Betrachte doch mal die Verteilungsfunktion von F(X), also für u ∈ [0, 1] den Ausdruck FF(X)(u) = P[F(X) ≤ u].

Kannst du das irgendwie auf etwas bekanntes zurückführen? Und welche Voraussetzung benötigst du für diese algebraische Umformung?

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Limesine
Wahrscheinlichkeitsräume und Wahrscheinlichkeiten  
Beitrag No.5 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2016-11-07
b_p
J

... schreibt: einen Würfel mit 6 Seiten und einen "Würfel" mit 5 Seiten hätten? Wäre die Mächtigkeit dann (...) <math>6\cdot5</math>?
Ja.


Meine Ideen zu "keine 1 oder keine 6" (...) <math>\frac{186}{216}</math>.
Die Idee mit Inklusion-Exklusion ist gut und die Zahlen scheinen auch zu stimmen.

Stochastik und Statistik
Universität/Hochschule 
Thema eröffnet von: Limesine
Wahrscheinlichkeitsräume und Wahrscheinlichkeiten  
Beitrag No.3 im Thread
Zum letzten BeitragZum nächsten BeitragZum vorigen BeitragZum erstem Beitrag2016-11-04
b_p
J

1. In diesem Fall hier sollte Ω = {1,2,3,4,5,6}³ gelten.
Genau. Es handelt sich um das Produkt von drei unabhängigen Würfelexperimenten mit Ωi = {1, ..., 6} und damit haben wir Ω = Ω1 × Ω2 × Ω3 = {1, ..., 6}³.


2. (...) Potenzmenge (...) dann wären das in diesem Fall alle möglichen Kombinationen der Augenzahlen. Diese sind jeweils Tripel und weil die Würfel unterscheidbar sind, ist z.B. {1,1,2} nicht gleichzusetzen mit {1,2,1}.
Ja. Das Aufschreiben wird hier sicherlich keiner Verlangen, da es zu aufwändig ist: <math>|\mathcal{P}(\Omega)| = 2^{|\Omega|} = 2^{216}</math> - das ist eine Zahl mit 66 Stellen.


3. Sieht eine formal korrektere Definition vielleicht so aus? <math>P(X=A_i)=\frac{1}{216} \forall i\in\{1,2,3,...,216\}</math>
Nein. Das "X = Ai" ist nicht richtig und wohl auf einen Fehler in meinem vorigen Beitrag zurückzuführen. Ich habe die Abschnitte "Wahrscheinlichkeitsmaß" und "Zusammenfassung" überarbeitet und hoffe, dass die Unklarheiten dadurch beseitigt werden können. Auch entschuldige mich für die dadurch aufgekommenen Probleme.

Betrachten wir zunächst den 1-dimensionalen Fall, so haben wir

<math>P(X = x) = \begin{cases}\frac{1}{|\Omega|} &\text{falls } x \in \Omega\\ 0 &\text{sonst}\end{cases} = \begin{cases}\frac{1}{6} &\text{falls } x \in \{1, \ldots, 6\}\\ 0 &\text{sonst}\end{cases}</math>.

Es ist x ∈ Ω = {1, ..., 6}.


Bei zwei Würfeln haben wir Ω = Ω1 × Ω2 = {1, ..., 6}² und X = (X1, X2) sowie x = (x1, x2) sind nun Vektoren. Wir haben somit in Vektornotation

<math>P(X = x) = \begin{cases}\frac{1}{|\Omega|} &\text{falls } x \in \Omega\\ 0 &\text{sonst}\end{cases}</math>,

oder vielleicht etwas anschaulicher

<math>P(X_1 = x_1, X_2 = x_2) = \begin{cases}\frac{1}{|\Omega|} &\text{falls } (x_1, x_2) \in \Omega_1 \times \Omega_2 \\ 0 &\text{sonst}\end{cases} =\begin{cases}\frac{1}{6^2} &\text{falls } (x_1, x_2) \in \{1, \ldots, 6\} \times \{1, \ldots, 6\}\\ 0 &\text{sonst}\end{cases}</math>.


Das kann man nun auf den n-dimensionalen Fall ausdehnen:

<math>P(X_1 = x_1, \ldots, X_n = x_n) = \begin{cases}\frac{1}{|\Omega|} &\text{falls } (x_1, \ldots, x_n) \in \prod_{i=1}^n \Omega_i \\ 0 &\text{sonst}\end{cases} =\begin{cases}\frac{1}{6^n} &\text{falls } (x_1, \ldots, x_n) \in \{1, \ldots, 6\}^n\\ 0 &\text{sonst}\end{cases}</math>.

Anmerkung: Es liegt die Vermutung nahe, dass <math>P(X_1 = x_1, \ldots, X_n = x_n) = \prod_{i=1}^n P_i(X_i = x_i)</math> gelten könnte und - in der Tat - so ist es sogar. Das ist eine Konsequenz der stochastischen Unabhängigkeit der Experimente: Die Würfel beeinflussen sich nicht gegenseitig, so dass das Gesamtexperiment in seine Einzelexperimente zerlegt werden kann.


Versuche das Wahrscheinlichkeitsmaß für den Fall mit drei Würfeln jetzt nochmals zu definieren.



Meine Ideen zu "keine 1 oder keine 6" (...)
Hierauf muss ich später eingehen, da ich gerade keine Zeit mehr habe.
 

Sie haben sehr viele Suchergebnisse
Bitte verfeinern Sie die Suchkriterien

[Die ersten 20 Suchergebnisse wurden ausgegeben]
Link auf dieses Suchergebnis hier
(noch mehr als 20 weitere Suchergebnisse)

-> [Suche im Forum fortsetzen]
 
 

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2020 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]

used time 0.054312