|
Link auf dieses Suchergebnis hier
|
Forum |
|
Grenzwerte | |
|
Vielen Dank Küstenkind! Die Information hat mir gefehlt. |
|
Grenzwerte | |
|
Hallo zusammen,
ich möchte folgendes zeigen:
$\frac{f(x)+O(h_n)}{1+O(h_n)} =f(x)+O(h_n)$, wobei $h_n\longrightarrow 0$ für $n \longrightarrow \infty$.
Ich weiß, dass $\frac{1}{1+O(h_n)}=1+O(h_n)$ gilt.
Damit würde ich obiges so umschreiben können:
$\frac{f(x)+O(h_n)}{1+O(h_n)}=(f(x)+O(h_n))(\frac{1}{1+O(h_n)})= (f(x)+O(h_n))(1+O(h_n))= f(x)+f(x)O(h_n)+O(h_n)+(O(h_n))^2$.
Ich glaube, dass für ein festes $x$ gilt: $f(x)O(h_n)=O(f(x) h_n)= O(h_n)$
und damit $2 O(h_n)=O(h_n)$ gilt. Aber ist nicht $(O(h_n))^2=O(h_n)O(h_n)=O(h_n h_n)=O(h^2_n)$? Dann gilt meine obige Aussage nämlich nicht.
Kann mir jemand sagen, wo mein Fehler ist?
|
|
Stochastik und Statistik | |
 |
Alles klar. Also wenn
$X_i$~$Y_i$ gilt, dann gilt auch $Var(X_i)=Var(Y_i)$,
Und auch $\sum Var(X_i)=\sum Var(Y_i)$?
Und wenn gezeigt wird, dass auch $\sum X_i$~$\sum Y_i$ gilt, dann folgt
$Var(\sum X_i) = Var(\sum Y_i)$ aber nicht unbedingt $\sum Var(X_i)=\sum Var(Y_i)$? |
|
Stochastik und Statistik | |
 |
Hallo zusammen,
seien $X_i$ iid. und $Y_i$ iid. $i=1,\dots, n$. $X_i$ und $Y_i$ haben die gleiche Verteilung $(X_i$~$Y_i)$.
Gilt dann
$\sum_{i=1}^n E(X_i)=\sum_{i=1}^n E(Y_i)$, da $X_i$~$Y_i$
oder muss dafür vorher gezeigt werden, dass auch die Summe von $X_i$ die gleiche Verteilung hat wie die Summe von $Y_i$ (also $\sum_{i=1}^n X_i$ ~ $\sum_{i=1}^n Y_i)?$
Wenn es reicht, dass $X_i$~$Y_i$, dann sollte ja auch folgendes gelten oder?:
Für $X_i$ nicht unabhängig bzw. nicht paarweise unkorreliert, $Y_i$ weiterhin iid. mit $X_i$~$Y_i$ (Also sind die $Y_i$'s unabhängige Kopien der $X_i$'s). Dann gilt
$\sum_{i=1}^n Var(X_i)=\sum_{i=1}^n Var(Y_i)$.
Oder habe ich einen Gedankenfehler?
Viele Grüße
MAlipe |
|
Stochastik und Statistik | |
 |
Hallo Kampfpudel,
vielen Dank für deine Antwort und die Erklärungen! Jetzt fühle ich mich sicherer bei dem Thema. |
|
Stochastik und Statistik | |
 |
Hallo zusammen.
1) Sei $X_1, \dots, X_n$ unabhängig und identisch verteilt (iid). Oft lese ich in dem Zusammenhang, dass $E(X_i)=E(X_1)$ bzw. $\frac{1}{n}E[\sum_{i=1}^n X_i]=\frac{1}{n} \sum_{i=1}^n E(X_i)=\frac{1}{n} \sum_{i=1}^n E(X_1) =\frac{1}{n}n E(X_1)=E(X_1),$ da wir iid haben. Aber eigentlich reicht doch dafür die "identisch verteilt" Argumentation richtig? Selbst wenn die $X_i$'s abhängig wären, würde $E(X_i)=E(X_1)$ gelten?
Da wo die Unabhängigkeit/Abhängigkeit eine Rolle spielt, ist, wenn man die Summe aus der Varianz rausziehen möchte:
$Var(\sum_{i=1}^n X_i)= \sum_{i=1}^n Var(X_i) + 2 \sum_{1 \leq i < j \leq n} Cov(X_i,X_j).$
Aber auch hier würde aufgrund der "identisch verteilt" Eigenschaft wieder
$\sum_{i=1}^n Var(X_i)= \sum_{i=1}^n Var(X_1)= n Var(X_1)$ gelten.
Habe ich das richtig verstanden oder ist irgendwo ein Gedankenfehler?
2) F sei die Verteilungsfunktion der X's.
Sind dann die X's identisch verteilt?
|
|
|