Note 1: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: /b$ZHw)x<
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::1._Unabhängigkeit_von_Zufallsvariablen
Zufallsvariablen \(X_1, \ldots, X_n\) heissen unabhängig genau dann, wenn für alle \((\alpha_1, \ldots, \alpha_n) \in W_{X_1} \times \cdots \times W_{X_n}\) gilt:\[\Pr[X_1 = \alpha_1, \ldots, X_n = \alpha_n] = \Pr[X_1 = \alpha_1] \cdot \ldots \cdot \Pr[X_n = \alpha_n].\]
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::1._Unabhängigkeit_von_Zufallsvariablen
Zufallsvariablen \(X_1, \ldots, X_n\) heissen unabhängig genau dann, wenn für alle \((\alpha_1, \ldots, \alpha_n) \in W_{X_1} \times \cdots \times W_{X_n}\) gilt:\[\Pr[X_1 = \alpha_1, \ldots, X_n = \alpha_n] = \Pr[X_1 = \alpha_1] \cdot \ldots \cdot \Pr[X_n = \alpha_n].\]
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Zufallsvariablen \(X_1, \ldots, X_n\) heissen {{c1::<b>unabhängig</b>}} genau dann, wenn für alle \((\alpha_1, \ldots, \alpha_n) \in W_{X_1} \times \cdots \times W_{X_n}\) gilt:\[\Pr[X_1 = \alpha_1, \ldots, X_n = \alpha_n] = {{c2::\Pr[X_1 = \alpha_1] \cdot \ldots \cdot \Pr[X_n = \alpha_n]}}.\] |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::1._Unabhängigkeit_von_Zufallsvariablen
Note 2: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: C1eNFQ(i0E
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::7._Abschätzen_von_Wahrscheinlichkeiten::1._Die_Ungleichungen_von_Markov_und_Chebyshev
Für jede nicht-negative Zufallsvariable \(X\) und alle \(t > 0\), gilt\[\Pr\left[X \geq t\right] \leq {{c2::\frac{\mathbb{E}[X]}{t} }}.\]
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::7._Abschätzen_von_Wahrscheinlichkeiten::1._Die_Ungleichungen_von_Markov_und_Chebyshev
Für jede nicht-negative Zufallsvariable \(X\) und alle \(t > 0\), gilt\[\Pr\left[X \geq t\right] \leq {{c2::\frac{\mathbb{E}[X]}{t} }}.\]
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Für jede {{c1::nicht-negative}} Zufallsvariable \(X\) und alle \(t > 0\), gilt\[\Pr\left[X \geq t\right] \leq {{c2::\frac{\mathbb{E}[X]}{t} }}.\] |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::7._Abschätzen_von_Wahrscheinlichkeiten::1._Die_Ungleichungen_von_Markov_und_Chebyshev
Note 3: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: D%mQ~QZJ/m
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::7._Abschätzen_von_Wahrscheinlichkeiten::1._Die_Ungleichungen_von_Markov_und_Chebyshev
Für eine beliebige Zufallsvariable \(X\) und alle \(t > 0\), gilt\[\Pr\left[|X - \mathbb{E}[X]| \geq t\right] \leq {{c2::\frac{\text{Var}[X]}{t^2} }}.\]
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::7._Abschätzen_von_Wahrscheinlichkeiten::1._Die_Ungleichungen_von_Markov_und_Chebyshev
Für eine beliebige Zufallsvariable \(X\) und alle \(t > 0\), gilt\[\Pr\left[|X - \mathbb{E}[X]| \geq t\right] \leq {{c2::\frac{\text{Var}[X]}{t^2} }}.\]
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Für eine {{c1::beliebige}} Zufallsvariable \(X\) und alle \(t > 0\), gilt\[\Pr\left[|X - \mathbb{E}[X]| \geq t\right] \leq {{c2::\frac{\text{Var}[X]}{t^2} }}.\] |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::7._Abschätzen_von_Wahrscheinlichkeiten::1._Die_Ungleichungen_von_Markov_und_Chebyshev
Note 4: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: Fqu%{734*j
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit
Seien \(A\), \(B\) und \(C\) unabhängige Ereignisse.
Dann sind \(A \cap B\) und \(C\) unabhängig.
Ausserdem sind \(A \cup B\) und \(C\) unabhängig.
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit
Seien \(A\), \(B\) und \(C\) unabhängige Ereignisse.
Dann sind \(A \cap B\) und \(C\) unabhängig.
Ausserdem sind \(A \cup B\) und \(C\) unabhängig.
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Seien \(A\), \(B\) und \(C\) unabhängige Ereignisse.<br>Dann sind \(A \cap B\) und \(C\) {{c1::unabhängig}}.<br>Ausserdem sind \(A \cup B\) und \(C\) {{c2::unabhängig}}. |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit
Note 5: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: GcPsw.`g,2
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::1._Unabhängigkeit_von_Zufallsvariablen
Seien \(f_1, \ldots, f_n\) reellwertige Funktionen (\(f_i \colon \mathbb{R} \to \mathbb{R}\) für \(i = 1, \ldots, n\)).
Wenn die Zufallsvariablen \(X_1, \ldots, X_n\) unabhängig sind, dann gilt dies auch für \(f_1(X_1), \ldots, f_n(X_n)\).
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::1._Unabhängigkeit_von_Zufallsvariablen
Seien \(f_1, \ldots, f_n\) reellwertige Funktionen (\(f_i \colon \mathbb{R} \to \mathbb{R}\) für \(i = 1, \ldots, n\)).
Wenn die Zufallsvariablen \(X_1, \ldots, X_n\) unabhängig sind, dann gilt dies auch für \(f_1(X_1), \ldots, f_n(X_n)\).
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Seien \(f_1, \ldots, f_n\) reellwertige Funktionen (\(f_i \colon \mathbb{R} \to \mathbb{R}\) für \(i = 1, \ldots, n\)).<br><br>Wenn die Zufallsvariablen \(X_1, \ldots, X_n\) unabhängig sind, dann gilt dies auch für \({{c1::f_1(X_1), \ldots, f_n(X_n)}}\). |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::1._Unabhängigkeit_von_Zufallsvariablen
Note 6: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: Kij67BF)?^
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::3._Geometrische_Verteilung
Ist \(X \sim \text{Geo}(p)\), so gilt für alle \(s, t \in \mathbb{N}\):\[\Pr[X \geq s + t \mid X > s] = \Pr[X \geq t]\]
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::3._Geometrische_Verteilung
Ist \(X \sim \text{Geo}(p)\), so gilt für alle \(s, t \in \mathbb{N}\):\[\Pr[X \geq s + t \mid X > s] = \Pr[X \geq t]\]
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Ist \(X \sim \text{Geo}(p)\), so gilt für alle \(s, t \in \mathbb{N}\):\[\Pr[X \geq s + t \mid X > s] = {{c1::\Pr[X \geq t]}}\] |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::3._Geometrische_Verteilung
Note 7: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: PcB%cga![I
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::1._Unabhängigkeit_von_Zufallsvariablen
Sind \(X_1, \ldots, X_n\) unabhängige Zufallsvariablen und
sind \(S_1, \ldots, S_n \subseteq \mathbb{R}\) beliebige Mengen, dann gilt:\[\Pr[X_1 \in S_1, \ldots, X_n \in S_n] = \Pr[X_1 \in S_1] \cdot \ldots \cdot \Pr[X_n \in S_n].\]
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::1._Unabhängigkeit_von_Zufallsvariablen
Sind \(X_1, \ldots, X_n\) unabhängige Zufallsvariablen und
sind \(S_1, \ldots, S_n \subseteq \mathbb{R}\) beliebige Mengen, dann gilt:\[\Pr[X_1 \in S_1, \ldots, X_n \in S_n] = \Pr[X_1 \in S_1] \cdot \ldots \cdot \Pr[X_n \in S_n].\]
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Sind \(X_1, \ldots, X_n\) unabhängige Zufallsvariablen und <br>sind \(S_1, \ldots, S_n \subseteq \mathbb{R}\) beliebige Mengen, dann gilt:\[\Pr[X_1 \in S_1, \ldots, X_n \in S_n] = {{c1::\Pr[X_1 \in S_1] \cdot \ldots \cdot \Pr[X_n \in S_n]}}.\] |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::1._Unabhängigkeit_von_Zufallsvariablen
Note 8: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: a1rkJfjyfd
modified
Before
Front
basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::4._Verteilungen
Eine Zufallsvariable \(X \sim \text{Bernoulli}(p)\) nimmt Werte an:
\[\Pr[X = 1] = p, \qquad \Pr[X = 0] = 1-p.\]Erwartungswert: \(\mathbb{E}[X] = p\).
Back
basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::4._Verteilungen
Eine Zufallsvariable \(X \sim \text{Bernoulli}(p)\) nimmt Werte an:
\[\Pr[X = 1] = p, \qquad \Pr[X = 0] = 1-p.\]Erwartungswert: \(\mathbb{E}[X] = p\).
Modelliert einen einzelnen Münzwurf (mit verzerrter Münze).
Indikator-ZV \(X_A\) ist genau \(\text{Bernoulli}(\Pr[A])\).
After
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::1._Bernoulli-Verteilung
Eine Zufallsvariable \(X\) mit Wertebereich \(W_X = \{0, 1\}\) und Dichte\[f_X(\alpha) = \begin{cases} p & {{c1::\text{für } \alpha = 1}} \\ 1 - p & {{c1::\text{für } \alpha = 0}} \\ 0 & \text{sonst} \end{cases}\]heisst Bernoulli-verteilt mit Erfolgswahrscheinlichkeit \(p\).
Man schreibt dann auch \({{c4::X \sim \text{Bernoulli}(p)}}\).
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::1._Bernoulli-Verteilung
Eine Zufallsvariable \(X\) mit Wertebereich \(W_X = \{0, 1\}\) und Dichte\[f_X(\alpha) = \begin{cases} p & {{c1::\text{für } \alpha = 1}} \\ 1 - p & {{c1::\text{für } \alpha = 0}} \\ 0 & \text{sonst} \end{cases}\]heisst Bernoulli-verteilt mit Erfolgswahrscheinlichkeit \(p\).
Man schreibt dann auch \({{c4::X \sim \text{Bernoulli}(p)}}\).
Modelliert einen einzelnen Münzwurf (mit verzerrter Münze).
Indikator-ZV \(X_A\) ist genau \(\text{Bernoulli}(\Pr[A])\).
Field-by-field Comparison
| Field |
Before |
After |
| Text |
Eine Zufallsvariable \(X \sim \text{Bernoulli}(p)\) nimmt Werte an:<br>\[\Pr[X = 1] = {{c1::p}}, \qquad \Pr[X = 0] = {{c1::1-p}}.\]Erwartungswert: \(\mathbb{E}[X] = {{c2::p}}\). |
Eine Zufallsvariable \(X\) mit Wertebereich \(W_X = \{0, 1\}\) und Dichte\[f_X(\alpha) = \begin{cases} p & {{c1::\text{für } \alpha = 1}} \\ 1 - p & {{c1::\text{für } \alpha = 0}} \\ 0 & {{c1::\text{sonst}}} \end{cases}\]heisst {{c2::Bernoulli-verteilt}} mit {{c3::<b>Erfolgswahrscheinlichkeit</b>}} \(p\).<br><br>Man schreibt dann auch \({{c4::X \sim \text{Bernoulli}(p)}}\). |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::4._Verteilungen
basic
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::1._Bernoulli-Verteilung
Note 9: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: fGG8Kkoi@H
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::4._Waldsche_Identität
\(N\) und \(X\) seien zwei unabhängige Zufallsvariablen mit \(W_N \subseteq \mathbb{N}\).
Weiter sei\[Z := \sum_{i=1}^{N} X_i,\]wobei \(X_1, X_2, \ldots\) unabhängige Kopien von \(X\) sind.
Dann gilt:\[\mathbb{E}[Z] = {{c1::\mathbb{E}[N] \cdot \mathbb{E}[X]}}.\]
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::4._Waldsche_Identität
\(N\) und \(X\) seien zwei unabhängige Zufallsvariablen mit \(W_N \subseteq \mathbb{N}\).
Weiter sei\[Z := \sum_{i=1}^{N} X_i,\]wobei \(X_1, X_2, \ldots\) unabhängige Kopien von \(X\) sind.
Dann gilt:\[\mathbb{E}[Z] = {{c1::\mathbb{E}[N] \cdot \mathbb{E}[X]}}.\]
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
\(N\) und \(X\) seien zwei unabhängige Zufallsvariablen mit \(W_N \subseteq \mathbb{N}\). <br>Weiter sei\[Z := \sum_{i=1}^{N} X_i,\]wobei \(X_1, X_2, \ldots\) unabhängige Kopien von \(X\) sind.<br><br>Dann gilt:\[\mathbb{E}[Z] = {{c1::\mathbb{E}[N] \cdot \mathbb{E}[X]}}.\] |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::4._Waldsche_Identität
Note 10: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: gcAH|#L6Y,
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::2._Zusammengesetzte_Zufallsvariablen
Für zwei unabhängige Zufallsvariablen \(X\) und \(Y\) sei \(Z := X + Y\).
Es gilt:\[f_Z(\alpha) = {{c1::\sum_{\beta \in W_X} f_X(\beta) \cdot f_Y(\alpha - \beta)}}.\]
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::2._Zusammengesetzte_Zufallsvariablen
Für zwei unabhängige Zufallsvariablen \(X\) und \(Y\) sei \(Z := X + Y\).
Es gilt:\[f_Z(\alpha) = {{c1::\sum_{\beta \in W_X} f_X(\beta) \cdot f_Y(\alpha - \beta)}}.\]
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Für zwei unabhängige Zufallsvariablen \(X\) und \(Y\) sei \(Z := X + Y\). <br>Es gilt:\[f_Z(\alpha) = {{c1::\sum_{\beta \in W_X} f_X(\beta) \cdot f_Y(\alpha - \beta)}}.\] |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::2._Zusammengesetzte_Zufallsvariablen
Note 11: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: hGlg2[91.,
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::2._Binomialverteilung
Eine Zufallsvariable \(X\) mit Wertebereich \(W_X = \{0, 1, \ldots, n\}\) und Dichte\[f_X(k) = \begin{cases} {{c1::\binom{n}{k} \cdot p^k \cdot (1 - p)^{n-k}}} & \text{für } k \in \{0, 1, \ldots, n\} \\ 0 & \text{sonst} \end{cases}\]heisst binomialverteilt mit Parametern \(p\) und \(n\).
Man schreibt das auch als \({{c3::X \sim \text{Bin}(n, p)}}\).
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::2._Binomialverteilung
Eine Zufallsvariable \(X\) mit Wertebereich \(W_X = \{0, 1, \ldots, n\}\) und Dichte\[f_X(k) = \begin{cases} {{c1::\binom{n}{k} \cdot p^k \cdot (1 - p)^{n-k}}} & \text{für } k \in \{0, 1, \ldots, n\} \\ 0 & \text{sonst} \end{cases}\]heisst binomialverteilt mit Parametern \(p\) und \(n\).
Man schreibt das auch als \({{c3::X \sim \text{Bin}(n, p)}}\).
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Eine Zufallsvariable \(X\) mit Wertebereich \(W_X = \{0, 1, \ldots, n\}\) und Dichte\[f_X(k) = \begin{cases} {{c1::\binom{n}{k} \cdot p^k \cdot (1 - p)^{n-k}}} & \text{für } k \in \{0, 1, \ldots, n\} \\ 0 & \text{sonst} \end{cases}\]heisst {{c2::<b>binomialverteilt</b>}} mit Parametern \(p\) und \(n\).<br><br>Man schreibt das auch als \({{c3::X \sim \text{Bin}(n, p)}}\). |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::2._Binomialverteilung
Note 12: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: i+r
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::1._Unabhängigkeit_von_Zufallsvariablen
Sind \(X_1, \ldots, X_n\) unabhängige Zufallsvariablen und \(I \subseteq [n]\).
Dann sind die Zufallsvariablen \((X_i)_{i \in I}\) ebenfalls unabhängig.
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::1._Unabhängigkeit_von_Zufallsvariablen
Sind \(X_1, \ldots, X_n\) unabhängige Zufallsvariablen und \(I \subseteq [n]\).
Dann sind die Zufallsvariablen \((X_i)_{i \in I}\) ebenfalls unabhängig.
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Sind \(X_1, \ldots, X_n\) unabhängige Zufallsvariablen und \(I \subseteq [n]\). <br>Dann sind die Zufallsvariablen \((X_i)_{i \in I}\) {{c1::ebenfalls unabhängig}}. |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::1._Unabhängigkeit_von_Zufallsvariablen
Note 13: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: l5#JU93:X(
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::7._Abschätzen_von_Wahrscheinlichkeiten::1._Die_Ungleichungen_von_Markov_und_Chebyshev
Sei \(X\) eine Zufallsvariable und \(t \in \mathbb{R}\) mit \(t > 0\).
Dann gilt\[\Pr\left[|X - \mathbb{E}[X]| \geq t\right] \leq {{c1::\frac{\text{Var}[X]}{t^2} }}\]oder äquivalent\[\Pr\left[|X - \mathbb{E}[X]| \geq t \cdot \sigma\right] \leq {{c2::\frac{1}{t^2} }},\]wobei \(\sigma := \sqrt{\text{Var}[X]}\) die Standardabweichung von \(X\) ist.
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::7._Abschätzen_von_Wahrscheinlichkeiten::1._Die_Ungleichungen_von_Markov_und_Chebyshev
Sei \(X\) eine Zufallsvariable und \(t \in \mathbb{R}\) mit \(t > 0\).
Dann gilt\[\Pr\left[|X - \mathbb{E}[X]| \geq t\right] \leq {{c1::\frac{\text{Var}[X]}{t^2} }}\]oder äquivalent\[\Pr\left[|X - \mathbb{E}[X]| \geq t \cdot \sigma\right] \leq {{c2::\frac{1}{t^2} }},\]wobei \(\sigma := \sqrt{\text{Var}[X]}\) die Standardabweichung von \(X\) ist.
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Sei \(X\) eine Zufallsvariable und \(t \in \mathbb{R}\) mit \(t > 0\). <br>Dann gilt\[\Pr\left[|X - \mathbb{E}[X]| \geq t\right] \leq {{c1::\frac{\text{Var}[X]}{t^2} }}\]oder äquivalent\[\Pr\left[|X - \mathbb{E}[X]| \geq t \cdot \sigma\right] \leq {{c2::\frac{1}{t^2} }},\]wobei \(\sigma := \sqrt{\text{Var}[X]}\) die Standardabweichung von \(X\) ist. |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::7._Abschätzen_von_Wahrscheinlichkeiten::1._Die_Ungleichungen_von_Markov_und_Chebyshev
Note 14: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: ms@ofzVlpa
modified
Before
Front
basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Wie heißen die vier Terme im Satz von Bayes? \[\Pr[H \mid E] = \dfrac{\Pr[E \mid H] \cdot \Pr[H]}{\Pr[E]}\]
- \(\Pr[H]\) Prior (Vorab-Wahrscheinlichkeit): Glaube an \(H\) vor Beobachtung von \(E\).
- \(\Pr[E \mid H]\) Likelihood: Wie wahrscheinlich ist die Evidenz \(E\), wenn \(H\) gilt?
- \(\Pr[H \mid E]\) Posterior: Aktualisierter Glaube an \(H\) nach Beobachtung von \(E\)
- \(\Pr[E]\) Evidenz (Normierungskonstante): Gesamtwahrscheinlichkeit der Beobachtung
Back
basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Wie heißen die vier Terme im Satz von Bayes? \[\Pr[H \mid E] = \dfrac{\Pr[E \mid H] \cdot \Pr[H]}{\Pr[E]}\]
- \(\Pr[H]\) Prior (Vorab-Wahrscheinlichkeit): Glaube an \(H\) vor Beobachtung von \(E\).
- \(\Pr[E \mid H]\) Likelihood: Wie wahrscheinlich ist die Evidenz \(E\), wenn \(H\) gilt?
- \(\Pr[H \mid E]\) Posterior: Aktualisierter Glaube an \(H\) nach Beobachtung von \(E\)
- \(\Pr[E]\) Evidenz (Normierungskonstante): Gesamtwahrscheinlichkeit der Beobachtung
After
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Wie heissen die vier Terme im Satz von Bayes? \[\Pr[H \mid E] = \dfrac{\Pr[E \mid H] \cdot \Pr[H]}{\Pr[E]}\]
- \(\Pr[H]\) Prior (Vorab-Wahrscheinlichkeit): Glaube an \(H\) vor Beobachtung von \(E\).
- \(\Pr[E \mid H]\) Likelihood: Wie wahrscheinlich ist die Evidenz \(E\), wenn \(H\) gilt?
- \(\Pr[H \mid E]\) Posterior: Aktualisierter Glaube an \(H\) nach Beobachtung von \(E\)
- \(\Pr[E]\) Evidenz (Normierungskonstante): Gesamtwahrscheinlichkeit der Beobachtung
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Wie heissen die vier Terme im Satz von Bayes? \[\Pr[H \mid E] = \dfrac{\Pr[E \mid H] \cdot \Pr[H]}{\Pr[E]}\]
- \(\Pr[H]\) Prior (Vorab-Wahrscheinlichkeit): Glaube an \(H\) vor Beobachtung von \(E\).
- \(\Pr[E \mid H]\) Likelihood: Wie wahrscheinlich ist die Evidenz \(E\), wenn \(H\) gilt?
- \(\Pr[H \mid E]\) Posterior: Aktualisierter Glaube an \(H\) nach Beobachtung von \(E\)
- \(\Pr[E]\) Evidenz (Normierungskonstante): Gesamtwahrscheinlichkeit der Beobachtung
Field-by-field Comparison
| Field |
Before |
After |
| Text |
Wie heißen die vier Terme im Satz von Bayes? \[\Pr[H \mid E] = \dfrac{\Pr[E \mid H] \cdot \Pr[H]}{\Pr[E]}\]<ul><li>\(\Pr[H]\) {{c1::<strong>Prior</strong> (Vorab-Wahrscheinlichkeit): Glaube an \(H\) vor Beobachtung von \(E\).}}</li><li>\(\Pr[E \mid H]\) {{c2::<strong>Likelihood</strong>: Wie wahrscheinlich ist die Evidenz \(E\), wenn \(H\) gilt?}}</li><li>\(\Pr[H \mid E]\) {{c3::<strong>Posterior</strong>: Aktualisierter Glaube an \(H\) nach Beobachtung von \(E\)}}</li><li>\(\Pr[E]\) {{c4::<strong>Evidenz</strong> (Normierungskonstante): Gesamtwahrscheinlichkeit der Beobachtung}}</li></ul> |
Wie heissen die vier Terme im Satz von Bayes? \[\Pr[H \mid E] = \dfrac{\Pr[E \mid H] \cdot \Pr[H]}{\Pr[E]}\]<ul><li>\(\Pr[H]\) {{c1::<strong>Prior</strong> (Vorab-Wahrscheinlichkeit): Glaube an \(H\) vor Beobachtung von \(E\).}}</li><li>\(\Pr[E \mid H]\) {{c2::<strong>Likelihood</strong>: Wie wahrscheinlich ist die Evidenz \(E\), wenn \(H\) gilt?}}</li><li>\(\Pr[H \mid E]\) {{c3::<strong>Posterior</strong>: Aktualisierter Glaube an \(H\) nach Beobachtung von \(E\)}}</li><li>\(\Pr[E]\) {{c4::<strong>Evidenz</strong> (Normierungskonstante): Gesamtwahrscheinlichkeit der Beobachtung}}</li></ul> |
Tags:
basic
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Note 15: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: n+]C=OF`VZ
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::3._Geometrische_Verteilung
Für \(n \geq 2\) heisst eine Zufallsvariable \(X\) mit Dichte\[f_X(k) = \begin{cases} {{c1::\binom{k-1}{n-1} \cdot p^n \cdot (1 - p)^{k-n}}} & \text{für } k = 1, 2, \ldots \\ 0 & \text{sonst} \end{cases}\]negativ binomialverteilt mit Ordnung \(n\).
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::3._Geometrische_Verteilung
Für \(n \geq 2\) heisst eine Zufallsvariable \(X\) mit Dichte\[f_X(k) = \begin{cases} {{c1::\binom{k-1}{n-1} \cdot p^n \cdot (1 - p)^{k-n}}} & \text{für } k = 1, 2, \ldots \\ 0 & \text{sonst} \end{cases}\]negativ binomialverteilt mit Ordnung \(n\).
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Für \(n \geq 2\) heisst eine Zufallsvariable \(X\) mit Dichte\[f_X(k) = \begin{cases} {{c1::\binom{k-1}{n-1} \cdot p^n \cdot (1 - p)^{k-n}}} & \text{für } k = 1, 2, \ldots \\ 0 & \text{sonst} \end{cases}\]{{c2::negativ binomialverteilt}} mit {{c3::<b>Ordnung</b>}} \(n\). |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::3._Geometrische_Verteilung
Note 16: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: pZ{-.]DTX_
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::7._Abschätzen_von_Wahrscheinlichkeiten::1._Die_Ungleichungen_von_Markov_und_Chebyshev
Sei \(X\) eine Zufallsvariable, die nur nicht-negative Werte annimmt.
Dann gilt für all \(t \in \mathbb{R}\) mit \(t > 0\), dass\[{{c1::\Pr\left[X \geq t\right] \leq \frac{\mathbb{E}[X]}{t}.}}\]Oder äquivalent dazu,\[{{c2::\Pr\left[X \geq t \cdot \mathbb{E}[X]\right] \leq \frac{1}{t}.}}\]
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::7._Abschätzen_von_Wahrscheinlichkeiten::1._Die_Ungleichungen_von_Markov_und_Chebyshev
Sei \(X\) eine Zufallsvariable, die nur nicht-negative Werte annimmt.
Dann gilt für all \(t \in \mathbb{R}\) mit \(t > 0\), dass\[{{c1::\Pr\left[X \geq t\right] \leq \frac{\mathbb{E}[X]}{t}.}}\]Oder äquivalent dazu,\[{{c2::\Pr\left[X \geq t \cdot \mathbb{E}[X]\right] \leq \frac{1}{t}.}}\]
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Sei \(X\) eine Zufallsvariable, die nur nicht-negative Werte annimmt. <br>Dann gilt für all \(t \in \mathbb{R}\) mit \(t > 0\), dass\[{{c1::\Pr\left[X \geq t\right] \leq \frac{\mathbb{E}[X]}{t}.}}\]Oder äquivalent dazu,\[{{c2::\Pr\left[X \geq t \cdot \mathbb{E}[X]\right] \leq \frac{1}{t}.}}\] |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::7._Abschätzen_von_Wahrscheinlichkeiten::1._Die_Ungleichungen_von_Markov_und_Chebyshev
Note 17: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: sA@Oz?tBv)
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::1._Unabhängigkeit_von_Zufallsvariablen
Ereignisse \(A_1, \ldots, A_n\) sind genau dann unabhängig, wenn ihre Indikatorvariablen \(I_{A_1}, \ldots, I_{A_n}\) unabhängig sind.
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::1._Unabhängigkeit_von_Zufallsvariablen
Ereignisse \(A_1, \ldots, A_n\) sind genau dann unabhängig, wenn ihre Indikatorvariablen \(I_{A_1}, \ldots, I_{A_n}\) unabhängig sind.
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Ereignisse \(A_1, \ldots, A_n\) sind genau dann unabhängig, wenn ihre Indikatorvariablen \(I_{A_1}, \ldots, I_{A_n}\) {{c1::unabhängig}} sind. |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::1._Unabhängigkeit_von_Zufallsvariablen
Note 18: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: s[rv=5+OM8
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::3._Momente_zusammengesetzter_Zufallsvariablen
Für unabhängige Zufallsvariablen \(X_1, \ldots, X_n\) gilt:\[\text{Var}[X_1 + \ldots + X_n] = {{c1::\text{Var}[X_1] + \ldots + \text{Var}[X_n]}}.\]
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::3._Momente_zusammengesetzter_Zufallsvariablen
Für unabhängige Zufallsvariablen \(X_1, \ldots, X_n\) gilt:\[\text{Var}[X_1 + \ldots + X_n] = {{c1::\text{Var}[X_1] + \ldots + \text{Var}[X_n]}}.\]
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Für unabhängige Zufallsvariablen \(X_1, \ldots, X_n\) gilt:\[\text{Var}[X_1 + \ldots + X_n] = {{c1::\text{Var}[X_1] + \ldots + \text{Var}[X_n]}}.\] |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::3._Momente_zusammengesetzter_Zufallsvariablen
Note 19: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: sc_1de913c2
modified
Before
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
Für \(X=a_1X_1+\cdots+a_nX_n+b\):
\[ \mathbb{E}[X] = {{c1::a_1\mathbb{E}[X_1]+\cdots+a_n\mathbb{E}[X_n]+b}}\]Proof Included
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
Für \(X=a_1X_1+\cdots+a_nX_n+b\):
\[ \mathbb{E}[X] = {{c1::a_1\mathbb{E}[X_1]+\cdots+a_n\mathbb{E}[X_n]+b}}\]Proof Included
(Linearität)
Gilt auch wenn \(X_1,\ldots,X_n\) nicht unabhängig sind.
Proof:
Mit Lemma 2.29 (\(\mathbb{E}[X]=\sum_\omega X(\omega)\Pr[\omega]\)):
\[ \mathbb{E}[X]=\sum_\omega(a_1X_1(\omega)+\cdots+a_nX_n(\omega)+b)\Pr[\omega] =a_1\underbrace{\sum_\omega X_1(\omega)\Pr[\omega]}_{=\mathbb{E}[X_1]}+\cdots+b\underbrace{\sum_\omega\Pr[\omega]}_{=1}.\quad\square \]
Der Schlüssel ist, dass die äussere Summe \(\sum_\omega\) sich über die Linearkombination verteilt.
After
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Für Zufallsvariablen \(X_1, \ldots, X_n\) und\[X := a_1 \cdot X_1 + \cdots + a_n \cdot X_n + b\]mit \(a_1, \ldots, a_n, b \in \mathbb{R}\) gilt\[\mathbb{E}[X] = {{c1::a_1 \cdot \mathbb{E}[X_1] + \cdots + a_n \cdot \mathbb{E}[X_n] + b}}.\]Proof Included
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Für Zufallsvariablen \(X_1, \ldots, X_n\) und\[X := a_1 \cdot X_1 + \cdots + a_n \cdot X_n + b\]mit \(a_1, \ldots, a_n, b \in \mathbb{R}\) gilt\[\mathbb{E}[X] = {{c1::a_1 \cdot \mathbb{E}[X_1] + \cdots + a_n \cdot \mathbb{E}[X_n] + b}}.\]Proof Included
"Erwartungswert einer Summe = Summe der Erwartungswerte".
Gilt auch wenn \(X_1,\ldots,X_n\) nicht unabhängig sind.
Proof:
Mit Lemma 2.29 (\(\mathbb{E}[X]=\sum_\omega X(\omega)\Pr[\omega]\)):
\[ \mathbb{E}[X]=\sum_\omega(a_1X_1(\omega)+\cdots+a_nX_n(\omega)+b)\Pr[\omega] =a_1\underbrace{\sum_\omega X_1(\omega)\Pr[\omega]}_{=\mathbb{E}[X_1]}+\cdots+b\underbrace{\sum_\omega\Pr[\omega]}_{=1}.\quad\square \]
Der Schlüssel ist, dass die äussere Summe \(\sum_\omega\) sich über die Linearkombination verteilt.
Field-by-field Comparison
| Field |
Before |
After |
| Text |
Für \(X=a_1X_1+\cdots+a_nX_n+b\):<br>\[ \mathbb{E}[X] = {{c1::a_1\mathbb{E}[X_1]+\cdots+a_n\mathbb{E}[X_n]+b}}\]<em>Proof Included</em> |
Für Zufallsvariablen \(X_1, \ldots, X_n\) und\[X := a_1 \cdot X_1 + \cdots + a_n \cdot X_n + b\]mit \(a_1, \ldots, a_n, b \in \mathbb{R}\) gilt\[\mathbb{E}[X] = {{c1::a_1 \cdot \mathbb{E}[X_1] + \cdots + a_n \cdot \mathbb{E}[X_n] + b}}.\]<em>Proof Included</em> |
| Extra |
(Linearität)<br><br>Gilt auch wenn \(X_1,\ldots,X_n\) <b>nicht unabhängig</b> sind.<br><br><b>Proof:</b><br>Mit Lemma 2.29 (\(\mathbb{E}[X]=\sum_\omega X(\omega)\Pr[\omega]\)):<br>\[ \mathbb{E}[X]=\sum_\omega(a_1X_1(\omega)+\cdots+a_nX_n(\omega)+b)\Pr[\omega] =a_1\underbrace{\sum_\omega X_1(\omega)\Pr[\omega]}_{=\mathbb{E}[X_1]}+\cdots+b\underbrace{\sum_\omega\Pr[\omega]}_{=1}.\quad\square \]<br>Der Schlüssel ist, dass die äussere Summe \(\sum_\omega\) sich über die Linearkombination verteilt. |
"Erwartungswert einer Summe = Summe der Erwartungswerte".<br><br>Gilt auch wenn \(X_1,\ldots,X_n\) <b>nicht unabhängig</b> sind.<br><br><b>Proof:</b><br>Mit Lemma 2.29 (\(\mathbb{E}[X]=\sum_\omega X(\omega)\Pr[\omega]\)):<br>\[ \mathbb{E}[X]=\sum_\omega(a_1X_1(\omega)+\cdots+a_nX_n(\omega)+b)\Pr[\omega] =a_1\underbrace{\sum_\omega X_1(\omega)\Pr[\omega]}_{=\mathbb{E}[X_1]}+\cdots+b\underbrace{\sum_\omega\Pr[\omega]}_{=1}.\quad\square \]<br>Der Schlüssel ist, dass die äussere Summe \(\sum_\omega\) sich über die Linearkombination verteilt. |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Note 20: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: sc_35dcd411
modified
Before
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
Für jede Zufallsvariable \(X\):
\[ \mathbb{E}[X] = {{c1::\sum_{\omega\in\Omega} X(\omega)\cdot\Pr[\omega]::\text{Summe} }} \]Proof Included
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
Für jede Zufallsvariable \(X\):
\[ \mathbb{E}[X] = {{c1::\sum_{\omega\in\Omega} X(\omega)\cdot\Pr[\omega]::\text{Summe} }} \]Proof Included
(Erwartungswert als Summe)
Proof:
\[\begin{align} \mathbb{E}[X] &= \sum_{x\in W_X}x\cdot\Pr[X=x] \\ &=\sum_{x\in W_X}x\cdot\sum_{\omega: X(\omega)=x}\Pr[\omega] \\&=\sum_{\omega\in\Omega}X(\omega)\cdot\Pr[\omega].\quad \end{align}\]
(Summationsreihenfolge vertauschen: nach \(\omega\) gruppieren statt nach Wert \(x\).)
After
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Ist \(X\) eine Zufallsvariable, so gilt:
\[ \mathbb{E}[X] = {{c1::\sum_{\omega\in\Omega} X(\omega)\cdot\Pr[\omega]::\text{Summe} }} \]Proof Included
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Ist \(X\) eine Zufallsvariable, so gilt:
\[ \mathbb{E}[X] = {{c1::\sum_{\omega\in\Omega} X(\omega)\cdot\Pr[\omega]::\text{Summe} }} \]Proof Included
(Erwartungswert als Summe)
Proof:
\[\begin{align} \mathbb{E}[X] &= \sum_{x\in W_X}x\cdot\Pr[X=x] \\ &=\sum_{x\in W_X}x\cdot\sum_{\omega: X(\omega)=x}\Pr[\omega] \\&=\sum_{\omega\in\Omega}X(\omega)\cdot\Pr[\omega].\quad \end{align}\]
(Summationsreihenfolge vertauschen: nach \(\omega\) gruppieren statt nach Wert \(x\).)
Field-by-field Comparison
| Field |
Before |
After |
| Text |
Für jede Zufallsvariable \(X\):<br>\[ \mathbb{E}[X] = {{c1::\sum_{\omega\in\Omega} X(\omega)\cdot\Pr[\omega]::\text{Summe} }} \]<em>Proof Included</em> |
Ist \(X\) eine Zufallsvariable, so gilt:<br>\[ \mathbb{E}[X] = {{c1::\sum_{\omega\in\Omega} X(\omega)\cdot\Pr[\omega]::\text{Summe} }} \]<em>Proof Included</em> |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Note 21: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: sc_38dbfe49
modified
Before
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
Für eine Zufallsvariable \(X\) mit \(W_X\subseteq\mathbb{N}_0\) gilt:\[ \mathbb{E}[X] = {{c1::\sum_{i=1}^{\infty}\Pr[X\ge i] :: \text{Schrankenform} }} \]Proof Included
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
Für eine Zufallsvariable \(X\) mit \(W_X\subseteq\mathbb{N}_0\) gilt:\[ \mathbb{E}[X] = {{c1::\sum_{i=1}^{\infty}\Pr[X\ge i] :: \text{Schrankenform} }} \]Proof Included
Proof:\[ \mathbb{E}[X]=\sum_{i=0}^{\infty}i\cdot\Pr[X=i]=\sum_{i=0}^{\infty}\sum_{j=1}^{i}\Pr[X=i]=\sum_{j=1}^{\infty}\sum_{i=j}^{\infty}\Pr[X=i]=\sum_{j=1}^{\infty}\Pr[X\ge j].\quad\square \](Der Schlüsselschritt ist das Vertauschen der Summationsreihenfolge: Statt über \(i\) zu summieren und für jedes \(j\le i\) eine 1 zu zählen, wird über \(j\) summiert und alle \(i\ge j\) gezählt.)
After
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Sei \(X\) eine Zufallsvariable mit Wertebereich \(W_X\subseteq\mathbb{N}_0\).
Dann gilt:\[ \mathbb{E}[X] = {{c1::\sum_{i=1}^{\infty}\Pr[X\ge i] :: \text{Schrankenform} }} \]Proof Included
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Sei \(X\) eine Zufallsvariable mit Wertebereich \(W_X\subseteq\mathbb{N}_0\).
Dann gilt:\[ \mathbb{E}[X] = {{c1::\sum_{i=1}^{\infty}\Pr[X\ge i] :: \text{Schrankenform} }} \]Proof Included
Proof:\[ \mathbb{E}[X]=\sum_{i=0}^{\infty}i\cdot\Pr[X=i]=\sum_{i=0}^{\infty}\sum_{j=1}^{i}\Pr[X=i]=\sum_{j=1}^{\infty}\sum_{i=j}^{\infty}\Pr[X=i]=\sum_{j=1}^{\infty}\Pr[X\ge j].\quad\square \](Der Schlüsselschritt ist das Vertauschen der Summationsreihenfolge: Statt über \(i\) zu summieren und für jedes \(j\le i\) eine 1 zu zählen, wird über \(j\) summiert und alle \(i\ge j\) gezählt.)
Field-by-field Comparison
| Field |
Before |
After |
| Text |
Für eine Zufallsvariable \(X\) mit \(W_X\subseteq\mathbb{N}_0\) gilt:\[ \mathbb{E}[X] = {{c1::\sum_{i=1}^{\infty}\Pr[X\ge i] :: \text{Schrankenform} }} \]<em>Proof Included</em> |
Sei \(X\) eine Zufallsvariable mit Wertebereich \(W_X\subseteq\mathbb{N}_0\).<br>Dann gilt:\[ \mathbb{E}[X] = {{c1::\sum_{i=1}^{\infty}\Pr[X\ge i] :: \text{Schrankenform} }} \]<em>Proof Included</em> |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Note 22: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: sc_4064b971
modified
Before
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit
\(A_1,\ldots,A_n\) sind gegenseitig unabhängig gdw. für alle \((s_1,\ldots,s_n)\in\{0,1\}^n\):\[ {{c1:: \Pr\!\left[A_1^{s_1}\cap\cdots\cap A_n^{s_n}\right] = \Pr[A_1^{s_1}]\cdots\Pr[A_n^{s_n}]}} \]wobei \(A_i^1 = A_i\) und \(A_i^0 = \bar{A}_i\).
Proof Included
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit
\(A_1,\ldots,A_n\) sind gegenseitig unabhängig gdw. für alle \((s_1,\ldots,s_n)\in\{0,1\}^n\):\[ {{c1:: \Pr\!\left[A_1^{s_1}\cap\cdots\cap A_n^{s_n}\right] = \Pr[A_1^{s_1}]\cdots\Pr[A_n^{s_n}]}} \]wobei \(A_i^1 = A_i\) und \(A_i^0 = \bar{A}_i\).
Proof Included
Beweisskizze (⇒):
Induktion über die Anzahl Nullen in \((s_1,\ldots,s_n)\).
Basisfall (\(s_i=1\) für alle \(i\)): direkt aus der Definition.
Induktionsschritt (z.B. \(s_1=0\)):
\(\Pr[\bar{A}_1\cap A_2^{s_2}\cap\cdots] = \Pr[A_2^{s_2}\cap\cdots]-\Pr[A_1\cap A_2^{s_2}\cap\cdots]\)
\(= \Pr[A_2^{s_2}]\cdots\Pr[A_n^{s_n}]-\Pr[A_1]\Pr[A_2^{s_2}]\cdots\Pr[A_n^{s_n}]\)
\(= (1-\Pr[A_1])\Pr[A_2^{s_2}]\cdots\Pr[A_n^{s_n}] = \Pr[\bar{A}_1]\Pr[A_2^{s_2}]\cdots\Pr[A_n^{s_n}]\). \(\square\)
After
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit
\(A_1,\ldots,A_n\) sind gegenseitig unabhängig gdw. für alle \((s_1,\ldots,s_n)\in\{0,1\}^n\) gilt, dass:\[ {{c1:: \Pr\!\left[A_1^{s_1}\cap\cdots\cap A_n^{s_n}\right] = \Pr[A_1^{s_1}]\cdots\Pr[A_n^{s_n}]}} \]wobei \(A_i^1 = A_i\) und \(A_i^0 = \bar{A}_i\).
Proof Included
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit
\(A_1,\ldots,A_n\) sind gegenseitig unabhängig gdw. für alle \((s_1,\ldots,s_n)\in\{0,1\}^n\) gilt, dass:\[ {{c1:: \Pr\!\left[A_1^{s_1}\cap\cdots\cap A_n^{s_n}\right] = \Pr[A_1^{s_1}]\cdots\Pr[A_n^{s_n}]}} \]wobei \(A_i^1 = A_i\) und \(A_i^0 = \bar{A}_i\).
Proof Included
Beweisskizze (⇒):
Induktion über die Anzahl Nullen in \((s_1,\ldots,s_n)\).
Basisfall (\(s_i=1\) für alle \(i\)): direkt aus der Definition.
Induktionsschritt (z.B. \(s_1=0\)):
\(\Pr[\bar{A}_1\cap A_2^{s_2}\cap\cdots] = \Pr[A_2^{s_2}\cap\cdots]-\Pr[A_1\cap A_2^{s_2}\cap\cdots]\)
\(= \Pr[A_2^{s_2}]\cdots\Pr[A_n^{s_n}]-\Pr[A_1]\Pr[A_2^{s_2}]\cdots\Pr[A_n^{s_n}]\)
\(= (1-\Pr[A_1])\Pr[A_2^{s_2}]\cdots\Pr[A_n^{s_n}] = \Pr[\bar{A}_1]\Pr[A_2^{s_2}]\cdots\Pr[A_n^{s_n}]\). \(\square\)
Field-by-field Comparison
| Field |
Before |
After |
| Text |
\(A_1,\ldots,A_n\) sind <b>gegenseitig</b> unabhängig gdw. für <b>alle</b> \((s_1,\ldots,s_n)\in\{0,1\}^n\):\[ {{c1:: \Pr\!\left[A_1^{s_1}\cap\cdots\cap A_n^{s_n}\right] = \Pr[A_1^{s_1}]\cdots\Pr[A_n^{s_n}]}} \]wobei \(A_i^1 = A_i\) und \(A_i^0 = \bar{A}_i\). <br><em><br>Proof Included</em> |
\(A_1,\ldots,A_n\) sind <b>gegenseitig</b> unabhängig gdw. für <b>alle</b> \((s_1,\ldots,s_n)\in\{0,1\}^n\) gilt, dass:\[ {{c1:: \Pr\!\left[A_1^{s_1}\cap\cdots\cap A_n^{s_n}\right] = \Pr[A_1^{s_1}]\cdots\Pr[A_n^{s_n}]}} \]wobei \(A_i^1 = A_i\) und \(A_i^0 = \bar{A}_i\). <br><em><br>Proof Included</em> |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit
Note 23: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Classic
GUID: sc_59ff89ba
modified
Before
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
Wann ist der Erwartungswert \(\mathbb{E}[X] = \sum_{x\in W_X} x\cdot\Pr[X=x]\) undefiniert?
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
Wann ist der Erwartungswert \(\mathbb{E}[X] = \sum_{x\in W_X} x\cdot\Pr[X=x]\) undefiniert?
Falls die Summe nicht absolut konvergiert (z.B. positiver und negativer Anteil beide divergieren).
Der Erwartungswert ist nur definiert, wenn die Summe absolut konvergiert, d.h. \(\sum_{x\in W_X}|x|\cdot\Pr[X=x]<\infty\).
In endlichen Wahrscheinlichkeitsräumen ist dies immer erfüllt (endlich viele Terme). Bei unendlichen Räumen muss man aufpassen.
After
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Wann ist der Erwartungswert \(\mathbb{E}[X] = \sum_{x\in W_X} x\cdot\Pr[X=x]\) undefiniert?
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Wann ist der Erwartungswert \(\mathbb{E}[X] = \sum_{x\in W_X} x\cdot\Pr[X=x]\) undefiniert?
Falls die Summe nicht absolut konvergiert (z.B. positiver und negativer Anteil beide divergieren).
Bemerkung:
In der Vorlesung betrachten wir nur Zufallsvariablen mit definiertem Erwartungswert.
Der Erwartungswert ist nur definiert, wenn die Summe absolut konvergiert, d.h. \(\sum_{x\in W_X}|x|\cdot\Pr[X=x]<\infty\).
In endlichen Wahrscheinlichkeitsräumen ist dies immer erfüllt (endlich viele Terme). Bei unendlichen Räumen muss man aufpassen.
Field-by-field Comparison
| Field |
Before |
After |
| Back |
Falls <b>die Summe nicht absolut konvergiert</b> (z.B. positiver und negativer Anteil beide divergieren).<br><br>Der Erwartungswert ist nur definiert, wenn die Summe <b>absolut konvergiert</b>, d.h. \(\sum_{x\in W_X}|x|\cdot\Pr[X=x]<\infty\).<br><br>In <b>endlichen</b> Wahrscheinlichkeitsräumen ist dies immer erfüllt (endlich viele Terme). Bei unendlichen Räumen muss man aufpassen. |
Falls <b>die Summe nicht absolut konvergiert</b> (z.B. positiver und negativer Anteil beide divergieren).<br><br><b>Bemerkung:</b><br>In der Vorlesung betrachten wir nur Zufallsvariablen mit definiertem Erwartungswert.<br><br>Der Erwartungswert ist nur definiert, wenn die Summe <b>absolut konvergiert</b>, d.h. \(\sum_{x\in W_X}|x|\cdot\Pr[X=x]<\infty\).<br><br>In <b>endlichen</b> Wahrscheinlichkeitsräumen ist dies immer erfüllt (endlich viele Terme). Bei unendlichen Räumen muss man aufpassen. |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Note 24: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: sc_d882e53b
modified
Before
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
Falls \(X\) und \(Y\) stochastisch unabhängige Zufallsvariablen sind, gilt:
\[ \mathbb{E}[XY] = {{c1::\mathbb{E}[X]\cdot\mathbb{E}[Y]}}. \]Proof Included
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
Falls \(X\) und \(Y\) stochastisch unabhängige Zufallsvariablen sind, gilt:
\[ \mathbb{E}[XY] = {{c1::\mathbb{E}[X]\cdot\mathbb{E}[Y]}}. \]Proof Included
(Produktregel des Erwartungswertes)
Proof:\[ \mathbb{E}[XY] = \sum_{x,y} xy\cdot\Pr[X=x, Y=y] \overset{\text{indep.}}{=} \sum_{x,y} xy\cdot\Pr[X=x]\Pr[Y=y] = \left(\sum_x x\Pr[X=x]\right)\!\left(\sum_y y\Pr[Y=y]\right) = \mathbb{E}[X]\mathbb{E}[Y]. \quad\square \]Der Schlüsselschritt nutzt Unabhängigkeit: \(\Pr[X=x, Y=y]=\Pr[X=x]\cdot\Pr[Y=y]\), wodurch sich die Doppelsumme faktorisieren lässt.
Kontrast zur Linearität: \(\mathbb{E}[X+Y]=\mathbb{E}[X]+\mathbb{E}[Y]\) gilt immer (keine Unabhängigkeit nötig). \(\mathbb{E}[XY]=\mathbb{E}[X]\mathbb{E}[Y]\) braucht Unabhängigkeit.
Gegenbeispiel (ohne Unabhängigkeit): Sei \(X=Y\sim\text{Bernoulli}(1/2)\). Dann \(\mathbb{E}[XY]=\mathbb{E}[X^2]=1/2\), aber \(\mathbb{E}[X]\mathbb{E}[Y]=(1/2)^2=1/4\neq 1/2\).
After
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::3._Momente_zusammengesetzter_Zufallsvariablen
Für unabhängige Zufallsvariablen \(X_1, \ldots, X_n\) gilt\[\mathbb{E}[X_1 \cdot \ldots \cdot X_n] = {{c1::\mathbb{E}[X_1] \cdot \ldots \cdot \mathbb{E}[X_n]}}.\]Proof Included
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::3._Momente_zusammengesetzter_Zufallsvariablen
Für unabhängige Zufallsvariablen \(X_1, \ldots, X_n\) gilt\[\mathbb{E}[X_1 \cdot \ldots \cdot X_n] = {{c1::\mathbb{E}[X_1] \cdot \ldots \cdot \mathbb{E}[X_n]}}.\]Proof Included
Proof:\[ \mathbb{E}[XY] = \sum_{x,y} xy\cdot\Pr[X=x, Y=y] \overset{\text{indep.}}{=} \sum_{x,y} xy\cdot\Pr[X=x]\Pr[Y=y] = \left(\sum_x x\Pr[X=x]\right)\!\left(\sum_y y\Pr[Y=y]\right) = \mathbb{E}[X]\mathbb{E}[Y]. \quad\square \]Der Schlüsselschritt nutzt Unabhängigkeit: \(\Pr[X=x, Y=y]=\Pr[X=x]\cdot\Pr[Y=y]\), wodurch sich die Doppelsumme faktorisieren lässt.
Kontrast zur Linearität: \(\mathbb{E}[X+Y]=\mathbb{E}[X]+\mathbb{E}[Y]\) gilt immer (keine Unabhängigkeit nötig). \(\mathbb{E}[XY]=\mathbb{E}[X]\mathbb{E}[Y]\) braucht Unabhängigkeit.
Gegenbeispiel (ohne Unabhängigkeit): Sei \(X=Y\sim\text{Bernoulli}(1/2)\). Dann \(\mathbb{E}[XY]=\mathbb{E}[X^2]=1/2\), aber \(\mathbb{E}[X]\mathbb{E}[Y]=(1/2)^2=1/4\neq 1/2\).
Field-by-field Comparison
| Field |
Before |
After |
| Text |
Falls \(X\) und \(Y\) {{c2::<strong>stochastisch unabhängige}}</strong> Zufallsvariablen sind, gilt:<br>\[ \mathbb{E}[XY] = {{c1::\mathbb{E}[X]\cdot\mathbb{E}[Y]}}. \]<em>Proof Included</em> |
Für {{c2::unabhängige}} Zufallsvariablen \(X_1, \ldots, X_n\) gilt\[\mathbb{E}[X_1 \cdot \ldots \cdot X_n] = {{c1::\mathbb{E}[X_1] \cdot \ldots \cdot \mathbb{E}[X_n]}}.\]<em>Proof Included</em> |
| Extra |
(Produktregel des Erwartungswertes)<br><br><b>Proof:</b>\[ \mathbb{E}[XY] = \sum_{x,y} xy\cdot\Pr[X=x, Y=y] \overset{\text{indep.}}{=} \sum_{x,y} xy\cdot\Pr[X=x]\Pr[Y=y] = \left(\sum_x x\Pr[X=x]\right)\!\left(\sum_y y\Pr[Y=y]\right) = \mathbb{E}[X]\mathbb{E}[Y]. \quad\square \]Der Schlüsselschritt nutzt Unabhängigkeit: \(\Pr[X=x, Y=y]=\Pr[X=x]\cdot\Pr[Y=y]\), wodurch sich die Doppelsumme faktorisieren lässt.<br><br><strong>Kontrast zur Linearität:</strong> \(\mathbb{E}[X+Y]=\mathbb{E}[X]+\mathbb{E}[Y]\) gilt immer (keine Unabhängigkeit nötig). \(\mathbb{E}[XY]=\mathbb{E}[X]\mathbb{E}[Y]\) braucht Unabhängigkeit.<br><br><strong>Gegenbeispiel (ohne Unabhängigkeit):</strong> Sei \(X=Y\sim\text{Bernoulli}(1/2)\). Dann \(\mathbb{E}[XY]=\mathbb{E}[X^2]=1/2\), aber \(\mathbb{E}[X]\mathbb{E}[Y]=(1/2)^2=1/4\neq 1/2\). |
<b>Proof:</b>\[ \mathbb{E}[XY] = \sum_{x,y} xy\cdot\Pr[X=x, Y=y] \overset{\text{indep.}}{=} \sum_{x,y} xy\cdot\Pr[X=x]\Pr[Y=y] = \left(\sum_x x\Pr[X=x]\right)\!\left(\sum_y y\Pr[Y=y]\right) = \mathbb{E}[X]\mathbb{E}[Y]. \quad\square \]Der Schlüsselschritt nutzt Unabhängigkeit: \(\Pr[X=x, Y=y]=\Pr[X=x]\cdot\Pr[Y=y]\), wodurch sich die Doppelsumme faktorisieren lässt.<br><br><strong>Kontrast zur Linearität:</strong> \(\mathbb{E}[X+Y]=\mathbb{E}[X]+\mathbb{E}[Y]\) gilt immer (keine Unabhängigkeit nötig). \(\mathbb{E}[XY]=\mathbb{E}[X]\mathbb{E}[Y]\) braucht Unabhängigkeit.<br><br><strong>Gegenbeispiel (ohne Unabhängigkeit):</strong> Sei \(X=Y\sim\text{Bernoulli}(1/2)\). Dann \(\mathbb{E}[XY]=\mathbb{E}[X^2]=1/2\), aber \(\mathbb{E}[X]\mathbb{E}[Y]=(1/2)^2=1/4\neq 1/2\). |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::6._Mehrere_Zufallsvariablen::3._Momente_zusammengesetzter_Zufallsvariablen
Note 25: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: sc_deaab462
modified
Before
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
Für ein Ereignis \(A\subseteq\Omega\) gilt für die Indikatorvariable \(X_A\):
\[ \mathbb{E}[X_A] = \Pr[A]. \]Proof Included
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
Für ein Ereignis \(A\subseteq\Omega\) gilt für die Indikatorvariable \(X_A\):
\[ \mathbb{E}[X_A] = \Pr[A]. \]Proof Included
Proof: \(\mathbb{E}[X_A]=1\cdot\Pr[X_A=1]+0\cdot\Pr[X_A=0]=\Pr[A].\quad\square\)
Das ist die Brücke zwischen Ereignissen (Wahrscheinlichkeit) und Zufallsvariablen (Erwartungswert): Die Wahrscheinlichkeit eines Ereignisses entspricht dem Erwartungswert seiner Indikatorvariable.
After
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Für die Indikatorvariable \(X_A\) eines Ereignisses \(A\) gilt:\[ \mathbb{E}[X_A] = \Pr[A]. \]Proof Included
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Für die Indikatorvariable \(X_A\) eines Ereignisses \(A\) gilt:\[ \mathbb{E}[X_A] = \Pr[A]. \]Proof Included
Proof: \(\mathbb{E}[X_A]=1\cdot\Pr[X_A=1]+0\cdot\Pr[X_A=0]=\Pr[A].\quad\square\)
Das ist die Brücke zwischen Ereignissen (Wahrscheinlichkeit) und Zufallsvariablen (Erwartungswert): Die Wahrscheinlichkeit eines Ereignisses entspricht dem Erwartungswert seiner Indikatorvariable.
Field-by-field Comparison
| Field |
Before |
After |
| Text |
Für ein Ereignis \(A\subseteq\Omega\) gilt für die Indikatorvariable \(X_A\):<br>\[ \mathbb{E}[X_A] = {{c1::\Pr[A]}}. \]<em>Proof Included</em> |
Für die Indikatorvariable \(X_A\) eines Ereignisses \(A\) gilt:\[ \mathbb{E}[X_A] = {{c1::\Pr[A]}}. \]<em>Proof Included</em> |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Note 26: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: tAAR6BM315
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::4._Poisson-Verteilung
Eine Zufallsvariable \(X\) mit Dichte\[f_X(i) = \begin{cases}{{c1:: \frac{e^{-\lambda} \lambda^i}{i!} }} & \text{für } i \in \mathbb{N}_0 \\ 0 & \text{sonst} \end{cases}\]heisst poisson-verteilt mit Parameter \(\lambda\).
Man schreibt das auch als \({{c3::X \sim \text{Po}(\lambda)}}\).
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::4._Poisson-Verteilung
Eine Zufallsvariable \(X\) mit Dichte\[f_X(i) = \begin{cases}{{c1:: \frac{e^{-\lambda} \lambda^i}{i!} }} & \text{für } i \in \mathbb{N}_0 \\ 0 & \text{sonst} \end{cases}\]heisst poisson-verteilt mit Parameter \(\lambda\).
Man schreibt das auch als \({{c3::X \sim \text{Po}(\lambda)}}\).
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Eine Zufallsvariable \(X\) mit Dichte\[f_X(i) = \begin{cases}{{c1:: \frac{e^{-\lambda} \lambda^i}{i!} }} & \text{für } i \in \mathbb{N}_0 \\ 0 & \text{sonst} \end{cases}\]heisst {{c2::poisson-verteilt}} mit Parameter \(\lambda\).<br><br>Man schreibt das auch als \({{c3::X \sim \text{Po}(\lambda)}}\). |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::4._Poisson-Verteilung
Note 27: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: tZx1g.NSmW
modified
Before
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::3._Varianz
Für eine Zufallsvariable \(X\) nennen wir {{c2::\(\mathbb{E}[X^k]\)}} das \(k\)-te Moment.
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::3._Varianz
Für eine Zufallsvariable \(X\) nennen wir {{c2::\(\mathbb{E}[X^k]\)}} das \(k\)-te Moment.
Der Erwartungswert ist also das erste Moment.
After
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Varianz
Für eine Zufallsvariable \(X\) nennen wir \(\mathbb{E}[X^k]\) das \(k\)-te Moment und \(\mathbb{E}[(X - \mathbb{E}[X])^k]\) das \(k\)-te zentrale Moment.
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Varianz
Für eine Zufallsvariable \(X\) nennen wir \(\mathbb{E}[X^k]\) das \(k\)-te Moment und \(\mathbb{E}[(X - \mathbb{E}[X])^k]\) das \(k\)-te zentrale Moment.
Der Erwartungswert ist also das erste Moment.
Field-by-field Comparison
| Field |
Before |
After |
| Text |
Für eine Zufallsvariable \(X\) nennen wir {{c2::\(\mathbb{E}[X^k]\)}} {{c1::das \(k\)-te Moment}}. |
Für eine Zufallsvariable \(X\) nennen wir \(\mathbb{E}[X^k]\) das {{c1::<b>\(k\)-te Moment</b>}} und \(\mathbb{E}[(X - \mathbb{E}[X])^k]\) das {{c2::<b>\(k\)-te zentrale Moment</b>}}. |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::3._Varianz
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Varianz
Note 28: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: w*/xE<*JB@
added
Previous
Note did not exist
New Note
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::3._Geometrische_Verteilung
Eine Zufallsvariable \(X\) mit Dichte\[f_X(i) = \begin{cases} p \cdot (1 - p)^{i-1} & \text{für } i \in \mathbb{N} \\ 0 & \text{sonst} \end{cases}\]heisst geometrisch verteilt mit Erfolgswahrscheinlichkeit \(p\).
Man schreibt das auch als \({{c3::X \sim \text{Geo}(p)}}\).
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::3._Geometrische_Verteilung
Eine Zufallsvariable \(X\) mit Dichte\[f_X(i) = \begin{cases} p \cdot (1 - p)^{i-1} & \text{für } i \in \mathbb{N} \\ 0 & \text{sonst} \end{cases}\]heisst geometrisch verteilt mit Erfolgswahrscheinlichkeit \(p\).
Man schreibt das auch als \({{c3::X \sim \text{Geo}(p)}}\).
Field-by-field Comparison
| Field |
Before |
After |
| Text |
|
Eine Zufallsvariable \(X\) mit Dichte\[f_X(i) = \begin{cases} {{c1::p \cdot (1 - p)^{i-1}}} & \text{für } i \in \mathbb{N} \\ 0 & \text{sonst} \end{cases}\]heisst {{c2::geometrisch verteilt}} mit <b>Erfolgswahrscheinlichkeit</b> \(p\).<br><br>Man schreibt das auch als \({{c3::X \sim \text{Geo}(p)}}\). |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::5._Wichtige_diskrete_Verteilungen::3._Geometrische_Verteilung
Note 29: ETH::2. Semester::A&W
Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: xx#lC]f(3E
modified
Before
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
Der Erwartungswert einer Zufallsvariable \(X\) ist:
\[\mathbb{E}[X] := {{c2:: \sum_{x} x \cdot \Pr[X = x]}},\]
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
Der Erwartungswert einer Zufallsvariable \(X\) ist:
\[\mathbb{E}[X] := {{c2:: \sum_{x} x \cdot \Pr[X = x]}},\]
Intuition:
Gewichteter Durchschnitt aller möglichen Werte.
After
Front
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Zu einer Zufallsvariablen \(X\) mit Wertebereich \(W_X\) definieren wir {{c2::den Erwartungswert \(\mathbb{E}[X]\)}} durch\[{{c2::\mathbb{E}[X]}} := {{c1::\sum_{\alpha \in W_X} \alpha \cdot \Pr[X = \alpha]}},\]sofern die Summe absolut konvergiert.
Back
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Zu einer Zufallsvariablen \(X\) mit Wertebereich \(W_X\) definieren wir {{c2::den Erwartungswert \(\mathbb{E}[X]\)}} durch\[{{c2::\mathbb{E}[X]}} := {{c1::\sum_{\alpha \in W_X} \alpha \cdot \Pr[X = \alpha]}},\]sofern die Summe absolut konvergiert.
Ansonsten sagen wir, dass der Erwartungswert undefiniert ist.
Intuition:
Gewichteter Durchschnitt aller möglichen Werte.
Field-by-field Comparison
| Field |
Before |
After |
| Text |
Der {{c1::Erwartungswert}} einer Zufallsvariable \(X\) ist:<br>\[\mathbb{E}[X] := {{c2:: \sum_{x} x \cdot \Pr[X = x]}},\] |
Zu einer Zufallsvariablen \(X\) mit Wertebereich \(W_X\) definieren wir {{c2::den <b>Erwartungswert</b> \(\mathbb{E}[X]\)}} durch\[{{c2::\mathbb{E}[X]}} := {{c1::\sum_{\alpha \in W_X} \alpha \cdot \Pr[X = \alpha]}},\]sofern die Summe absolut konvergiert.<br> |
| Extra |
<b>Intuition:</b> <br>Gewichteter Durchschnitt aller möglichen Werte. |
Ansonsten sagen wir, dass der Erwartungswert undefiniert ist.<b><br><br>Intuition:</b> <br>Gewichteter Durchschnitt aller möglichen Werte. |
Tags:
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::2._Erwartungswert
ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen::1._Erwartungswert
Note 30: ETH::2. Semester::PProg
Deck: ETH::2. Semester::PProg
Note Type: Horvath Classic
GUID: nvfkOuvf3v
modified
Before
Front
ETH::2._Semester::PProg::10._Parallel_Algorithms::3._Parallel_algorithms
Compare Big \(O\) of work, span and parallelism for these parallel quicksort strategies:
- Parallelize only the recursive calls
- Also parallelize the partition step (via pack)
Back
ETH::2._Semester::PProg::10._Parallel_Algorithms::3._Parallel_algorithms
Compare Big \(O\) of work, span and parallelism for these parallel quicksort strategies:
- Parallelize only the recursive calls
- Also parallelize the partition step (via pack)
- Parallel recursive calls only: Work \(O(n \log n)\), Span \(O(n)\), Parallelism \(O(\log n)\)
- + parallel partition (pack): Work \(O(n \log n)\), Span \(O(\log^2 n)\), Parallelism \(O(n/\log n)\)
Parallelizing the partition reduces span from \(O(n)\) to \(O(\log^2 n)\), dramatically increasing parallelism.
After
Front
ETH::2._Semester::PProg::10._Parallel_Algorithms::3._Parallel_algorithms
Compare Big \(O\) of work, span and parallelism for these parallel quicksort strategies:
- Parallelize only the recursive calls
- Also parallelize the partition step (via pack)
Back
ETH::2._Semester::PProg::10._Parallel_Algorithms::3._Parallel_algorithms
Compare Big \(O\) of work, span and parallelism for these parallel quicksort strategies:
- Parallelize only the recursive calls
- Also parallelize the partition step (via pack)
| Variant | Work | Span | Parallelism |
|---|
| Parallel recursive calls only | \(O(n \log n)\) | \(O(n)\) | \(O(\log n)\) |
| + parallel partition (pack) | \(O(n \log n)\) | \(O(\log^2 n)\) | \(O(n/\log n)\) |
Parallelizing the partition reduces span from \(O(n)\) to \(O(\log^2 n)\), dramatically increasing parallelism.
Field-by-field Comparison
| Field |
Before |
After |
| Back |
<ol><li>Parallel recursive calls only: Work \(O(n \log n)\), Span \(O(n)\), Parallelism \(O(\log n)\)</li><li>+ parallel partition (pack): Work \(O(n \log n)\), Span \(O(\log^2 n)\), Parallelism \(O(n/\log n)\)</li></ol>Parallelizing the partition reduces span from \(O(n)\) to \(O(\log^2 n)\), dramatically increasing parallelism. |
<table style="width:100%; border-collapse:collapse; text-align:center;"><thead><tr><th style="border:1px solid #ccc; padding:4px;">Variant</th><th style="border:1px solid #ccc; padding:4px;">Work</th><th style="border:1px solid #ccc; padding:4px;">Span</th><th style="border:1px solid #ccc; padding:4px;">Parallelism</th></tr></thead><tbody><tr><td style="border:1px solid #ccc; padding:4px;">Parallel recursive calls only</td><td style="border:1px solid #ccc; padding:4px;">\(O(n \log n)\)</td><td style="border:1px solid #ccc; padding:4px;">\(O(n)\)</td><td style="border:1px solid #ccc; padding:4px;">\(O(\log n)\)</td></tr><tr><td style="border:1px solid #ccc; padding:4px;">+ parallel partition (pack)</td><td style="border:1px solid #ccc; padding:4px;">\(O(n \log n)\)</td><td style="border:1px solid #ccc; padding:4px;">\(O(\log^2 n)\)</td><td style="border:1px solid #ccc; padding:4px;">\(O(n/\log n)\)</td></tr></tbody></table><br>Parallelizing the partition reduces span from \(O(n)\) to \(O(\log^2 n)\), dramatically increasing parallelism. |
Tags:
ETH::2._Semester::PProg::10._Parallel_Algorithms::3._Parallel_algorithms