Anki Deck Changes

Commit: 6f84b048 - pffffffff..

Author: lhorva <lhorva@student.ethz.ch>

Date: 2026-03-31T15:47:13+02:00

Changes: 55 note(s) changed (0 added, 55 modified, 0 deleted)

ℹ️ Cosmetic Changes Hidden: 6 note(s) had formatting-only changes and are not shown below • 5 HTML formatting changes

Note 1: ETH::2. Semester::A&W

Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: 1V$+8N)nVy
modified

Before

Front

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen
Die Indikator-Zufallsvariable (Bernoulli-Variable) für Ereignis \(A\) ist:
\[X_A(\omega) := {{c1:: \begin{cases} 1 & \omega \in A \\ 0 & \omega \notin A \end{cases} }}\]

Back

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen
Die Indikator-Zufallsvariable (Bernoulli-Variable) für Ereignis \(A\) ist:
\[X_A(\omega) := {{c1:: \begin{cases} 1 & \omega \in A \\ 0 & \omega \notin A \end{cases} }}\]

Es gilt: \(\mathbb{E}[X_A] = \).

Beweis: \(\mathbb{E}[X_A] = 1 \cdot \Pr[A] + 0 \cdot \Pr[A^c] = \Pr[A]\).

After

Front

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen
Die Indikator-Zufallsvariable (Bernoulli-Variable) für Ereignis \(A\) ist:
\[X_A(\omega) := {{c1:: \begin{cases} 1 & \omega \in A \\ 0 & \omega \notin A \end{cases} }}\]

Back

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen
Die Indikator-Zufallsvariable (Bernoulli-Variable) für Ereignis \(A\) ist:
\[X_A(\omega) := {{c1:: \begin{cases} 1 & \omega \in A \\ 0 & \omega \notin A \end{cases} }}\]

Es gilt: \(\mathbb{E}[X_A] = \Pr[A]\).

Beweis: \(\mathbb{E}[X_A] = 1 \cdot \Pr[A] + 0 \cdot \Pr[A^c] = \Pr[A]\).
Field-by-field Comparison
Field Before After
Extra Es gilt:&nbsp;\(\mathbb{E}[X_A] = {{c3::\Pr[A]}}\).<br><br>Beweis: \(\mathbb{E}[X_A] = 1 \cdot \Pr[A] + 0 \cdot \Pr[A^c] = \Pr[A]\). Es gilt:&nbsp;\(\mathbb{E}[X_A] = \Pr[A]\).<br><br>Beweis: \(\mathbb{E}[X_A] = 1 \cdot \Pr[A] + 0 \cdot \Pr[A^c] = \Pr[A]\).
Tags: ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::4._Zufallsvariablen basic

Note 2: ETH::2. Semester::A&W

Deck: ETH::2. Semester::A&W
Note Type: Horvath Classic
GUID: FY+KJ_cd2]
modified

Before

Front

ETH::2._Semester::A&W::1._Graphentheorie::7._Färbungen
Was besagt der Vierfarbensatz?

Back

ETH::2._Semester::A&W::1._Graphentheorie::7._Färbungen
Was besagt der Vierfarbensatz?

Jeder planare Graph (jede Landkarte) lässt sich mit \(\leq 4\) Farben färben.

Formal:
Für jeden planaren Graphen \(G\) gilt \(\chi(G) \leq 4\).
(Appel & Haken, 1976 — erster computergestützter Beweis)

After

Front

ETH::2._Semester::A&W::1._Graphentheorie::7._Färbungen
Was besagt der Vierfarbensatz?

Back

ETH::2._Semester::A&W::1._Graphentheorie::7._Färbungen
Was besagt der Vierfarbensatz?

Jeder planare Graph (jede Landkarte) lässt sich mit \(\leq 4\) Farben färben.

Formal:
Für jeden planaren Graphen \(G\) gilt \(\chi(G) \leq 4\).
(Appel & Haken, 1976 - erster computergestützter Beweis)
Field-by-field Comparison
Field Before After
Back Jeder planare Graph (jede Landkarte) lässt sich mit \(\leq 4\) Farben färben.<br><br>Formal: <br>Für jeden planaren Graphen \(G\) gilt \(\chi(G) \leq 4\).<br>(Appel &amp; Haken, 1976 erster computergestützter Beweis) Jeder planare Graph (jede Landkarte) lässt sich mit \(\leq 4\) Farben färben.<br><br><b>Formal:</b> <br>Für jeden planaren Graphen \(G\) gilt \(\chi(G) \leq 4\).<br>(Appel &amp; Haken, 1976 - erster computergestützter Beweis)
Tags: ETH::2._Semester::A&W::1._Graphentheorie::7._Färbungen

Note 3: ETH::2. Semester::A&W

Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: JF0l2bCbMG
modified

Before

Front

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik
Die Anzahl der Möglichkeiten, \(k\) Objekte aus \(n\) Sorten mit Zurücklegen zu wählen (Reihenfolge egal) (Multiset) ist:
\[{{c2::\binom{n + k - 1}{k} }} = {{c1::\frac{(n+k-1)!}{k!\,(n-1)!} }} \]

Back

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik
Die Anzahl der Möglichkeiten, \(k\) Objekte aus \(n\) Sorten mit Zurücklegen zu wählen (Reihenfolge egal) (Multiset) ist:
\[{{c2::\binom{n + k - 1}{k} }} = {{c1::\frac{(n+k-1)!}{k!\,(n-1)!} }} \]

Auch bekannt als „Sterne und Striche“ (Stars and Bars).

Beispiel:
Wie viele Möglichkeiten, 3 Kugeln aus {rot, blau, grün} mit Zurücklegen zu ziehen?
\(\binom{3+3-1}{3} = \binom{5}{3} = 10\).

After

Front

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik
Die Anzahl der Möglichkeiten, \(k\) Objekte aus \(n\) Sorten mit Zurücklegen zu wählen (Reihenfolge egal, Multiset) ist:
\[{{c2::\binom{n + k - 1}{k} }} = {{c1::\frac{(n+k-1)!}{k!\,(n-1)!} }} \]

Back

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik
Die Anzahl der Möglichkeiten, \(k\) Objekte aus \(n\) Sorten mit Zurücklegen zu wählen (Reihenfolge egal, Multiset) ist:
\[{{c2::\binom{n + k - 1}{k} }} = {{c1::\frac{(n+k-1)!}{k!\,(n-1)!} }} \]

Auch bekannt als „Sterne und Striche“ (Stars and Bars).

Beispiel:
Wie viele Möglichkeiten, 3 Kugeln aus {rot, blau, grün} mit Zurücklegen zu ziehen?
\(\binom{3+3-1}{3} = \binom{5}{3} = 10\).
Field-by-field Comparison
Field Before After
Text Die Anzahl der Möglichkeiten, \(k\) Objekte aus \(n\) Sorten&nbsp;<strong>mit Zurücklegen</strong> zu wählen (Reihenfolge egal) (Multiset) ist:<br>\[{{c2::\binom{n + k - 1}{k} }} = {{c1::\frac{(n+k-1)!}{k!\,(n-1)!} }} \] Die Anzahl der Möglichkeiten, \(k\) Objekte aus \(n\) Sorten&nbsp;<strong>mit Zurücklegen</strong> zu wählen (Reihenfolge egal, Multiset) ist:<br>\[{{c2::\binom{n + k - 1}{k} }} = {{c1::\frac{(n+k-1)!}{k!\,(n-1)!} }} \]
Extra Auch bekannt als „Sterne und Striche“ (Stars and Bars).<br><br>Beispiel: <br>Wie viele Möglichkeiten, 3 Kugeln aus {rot, blau, grün} mit Zurücklegen zu ziehen?<br>\(\binom{3+3-1}{3} = \binom{5}{3} = 10\). Auch bekannt als „Sterne und Striche“ (Stars and Bars).<br><br><b>Beispiel:</b> <br>Wie viele Möglichkeiten, 3 Kugeln aus {rot, blau, grün} mit Zurücklegen zu ziehen?<br>\(\binom{3+3-1}{3} = \binom{5}{3} = 10\).
Tags: ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik basic

Note 4: ETH::2. Semester::A&W

Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: MrF3sR7oMk
modified

Before

Front

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik
Wie viele Möglichkeiten gibt es, \(k\) Objekte aus \(n\) zu wählen?

Reihenfolge wichtigReihenfolge egal
Ohne Zurücklegen{{c1::\(\dfrac{n!}{(n-k)!}\)}}{{c2::\(\dbinom{n}{k}\)}}
Mit Zurücklegen\(n^k\){{c4::\(\dbinom{n+k-1}{k}\)}}

Back

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik
Wie viele Möglichkeiten gibt es, \(k\) Objekte aus \(n\) zu wählen?

Reihenfolge wichtigReihenfolge egal
Ohne Zurücklegen{{c1::\(\dfrac{n!}{(n-k)!}\)}}{{c2::\(\dbinom{n}{k}\)}}
Mit Zurücklegen\(n^k\){{c4::\(\dbinom{n+k-1}{k}\)}}

Eselsbrücke: geordnet ohne = Permutation, ungeordnet ohne = Kombination,
geordnet mit = Wort über Alphabet, ungeordnet mit = Multiset (Sterne & Striche).

After

Front

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik
Wie viele Möglichkeiten gibt es, \(k\) Objekte aus \(n\) zu wählen?

Reihenfolge wichtig  Reihenfolge egal
Ohne Zurücklegen
{{c1::
\(\dfrac{n!}{(n-k)!}\)}}
{{c2::
\(\dbinom{n}{k}\)}}
Mit Zurücklegen
\(n^k\)
{{c4::
\(\dbinom{n+k-1}{k}\)}}

Back

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik
Wie viele Möglichkeiten gibt es, \(k\) Objekte aus \(n\) zu wählen?

Reihenfolge wichtig  Reihenfolge egal
Ohne Zurücklegen
{{c1::
\(\dfrac{n!}{(n-k)!}\)}}
{{c2::
\(\dbinom{n}{k}\)}}
Mit Zurücklegen
\(n^k\)
{{c4::
\(\dbinom{n+k-1}{k}\)}}

Eselsbrücke:
  • Reihenfolge wichtig, ohne Zurücklegen → Permutation
  • Reihenfolge egal, ohne Zurücklegen → Kombination
  • Reihenfolge wichtig, mit Zurücklegen → Wort über Alphabet
  • Reihenfolge egal, mit Zurücklegen → Multiset (Sterne & Striche)
Field-by-field Comparison
Field Before After
Text Wie viele Möglichkeiten gibt es, \(k\) Objekte aus \(n\) zu wählen?<br><br><table><tbody><tr><th></th><th>Reihenfolge wichtig</th><th>Reihenfolge egal</th></tr><tr><th>Ohne Zurücklegen</th><td>{{c1::\(\dfrac{n!}{(n-k)!}\)}}</td><td>{{c2::\(\dbinom{n}{k}\)}}</td></tr><tr><th>Mit Zurücklegen</th><td>{{c3::\(n^k\)}}</td><td>{{c4::\(\dbinom{n+k-1}{k}\)}}</td></tr></tbody></table> Wie viele Möglichkeiten gibt es, \(k\) Objekte aus \(n\) zu wählen?<br><br><table><tbody><tr><th></th><th>Reihenfolge wichtig&nbsp;</th><th>&nbsp;Reihenfolge egal</th></tr><tr><th>Ohne Zurücklegen</th><td style="text-align: center; "><div style="text-align: center;">{{c1::</div>\(\dfrac{n!}{(n-k)!}\)}}</td><td style="text-align: center; "><div style="text-align: center;">{{c2::</div>\(\dbinom{n}{k}\)}}</td></tr><tr><th>Mit Zurücklegen</th><td style="text-align: center; "><div style="text-align: center;">{{c3::</div>\(n^k\)}}</td><td style="text-align: center; "><div style="text-align: center;">{{c4::</div>\(\dbinom{n+k-1}{k}\)}}</td></tr></tbody></table>
Extra Eselsbrücke: geordnet ohne = Permutation, ungeordnet ohne = Kombination,<br>geordnet mit = Wort über Alphabet, ungeordnet mit = Multiset (Sterne &amp; Striche). <b>Eselsbrücke:</b> <br><ul><li>Reihenfolge wichtig, ohne Zurücklegen → Permutation</li><li>Reihenfolge egal, ohne Zurücklegen → Kombination</li><li>Reihenfolge wichtig, mit Zurücklegen → Wort über Alphabet</li><li>Reihenfolge egal, mit Zurücklegen → Multiset (Sterne &amp; Striche)</li></ul>
Tags: ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik basic

Note 5: ETH::2. Semester::A&W

Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: RxK1aiA$%s
modified

Before

Front

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik
Die Anzahl der geordneten Auswahlen von \(k\) aus \(n\) Objekten
ohne Zurüclegen (Reihenfolge wichtig) ist:

\[P(n, k) = {{c1::\frac{n!}{(n-k)!} = n \cdot (n-1) \cdots (n-k+1) }}\]

Back

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik
Die Anzahl der geordneten Auswahlen von \(k\) aus \(n\) Objekten
ohne Zurüclegen (Reihenfolge wichtig) ist:

\[P(n, k) = {{c1::\frac{n!}{(n-k)!} = n \cdot (n-1) \cdots (n-k+1) }}\]


Beispiel: Wie viele 3-stellige PINs aus den Ziffern 0–9 ohne Wiederholung?
\(P(10,3) = 10 \cdot 9 \cdot 8 = 720\).

After

Front

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik
Die Anzahl der geordneten Auswahlen von \(k\) aus \(n\) Objekten
ohne Zurücklegen (Reihenfolge wichtig) ist:
\[P(n, k) = {{c1::\frac{n!}{(n-k)!} = n \cdot (n-1) \cdots (n-k+1) }}\]

Back

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik
Die Anzahl der geordneten Auswahlen von \(k\) aus \(n\) Objekten
ohne Zurücklegen (Reihenfolge wichtig) ist:
\[P(n, k) = {{c1::\frac{n!}{(n-k)!} = n \cdot (n-1) \cdots (n-k+1) }}\]

Beispiel:
Wie viele 3-stellige PINs aus den Ziffern 0–9 ohne Wiederholung?
\(P(10,3) = 10 \cdot 9 \cdot 8 = 720\).
Field-by-field Comparison
Field Before After
Text Die Anzahl der geordneten Auswahlen von \(k\) aus \(n\) Objekten<br><strong>ohne Zurüclegen</strong> (Reihenfolge wichtig) ist:<br><br>\[P(n, k) = {{c1::\frac{n!}{(n-k)!} = n \cdot (n-1) \cdots (n-k+1) }}\]<br><br> Die Anzahl der geordneten Auswahlen von \(k\) aus \(n\) Objekten<br><strong>ohne Zurücklegen</strong> (Reihenfolge wichtig) ist:<br>\[P(n, k) = {{c1::\frac{n!}{(n-k)!} = n \cdot (n-1) \cdots (n-k+1) }}\]
Extra Beispiel: Wie viele 3-stellige PINs aus den Ziffern 0–9 ohne Wiederholung?<br>\(P(10,3) = 10 \cdot 9 \cdot 8 = 720\). <b>Beispiel:</b> <br>Wie viele 3-stellige PINs aus den Ziffern 0–9 ohne Wiederholung?<br>\(P(10,3) = 10 \cdot 9 \cdot 8 = 720\).
Tags: ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik basic

Note 6: ETH::2. Semester::A&W

Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: X%!FejeNGl
modified

Before

Front

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Der Satz von Bayes lässt sich als Update-Regel schreiben:
\[{{c1::\text{Posterior} }} \propto {{c2::\text{Likelihood} \times \text{Prior} }}\]

Back

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Der Satz von Bayes lässt sich als Update-Regel schreiben:
\[{{c1::\text{Posterior} }} \propto {{c2::\text{Likelihood} \times \text{Prior} }}\]

\(\Pr[H \mid E] \propto \Pr[E \mid H] \cdot \Pr[H]\).

Das \(\propto\) (proportional zu) bedeutet: durch \(\Pr[E]\) normieren.
Intuition: Der Prior ist die Ausgangsmeinung; die Likelihood gewichtet, wie stark die
Evidenz diese Meinung in Richtung \(H\) verschiebt.

After

Front

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Der Satz von Bayes lässt sich als Update-Regel schreiben:
\[{{c1::\text{Posterior} }} \propto {{c2::\text{Likelihood} \times \text{Prior} }}\]

Back

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Der Satz von Bayes lässt sich als Update-Regel schreiben:
\[{{c1::\text{Posterior} }} \propto {{c2::\text{Likelihood} \times \text{Prior} }}\]

\(\Pr[H \mid E] \propto \Pr[E \mid H] \cdot \Pr[H]\).

Das \(\propto\) (proportional zu) bedeutet, dass die Normierungskonstante \(\Pr[E]\) im Nenner fehlt.

Intuition:
Der Prior \(\Pr[H]\) ist unsere Ausgangsmeinung über \(H\). Die Likelihood \(\Pr[E \mid H]\) gewichtet, wie stark die beobachtete Evidenz \(E\) diese Meinung in Richtung \(H\) verschiebt.
Field-by-field Comparison
Field Before After
Extra \(\Pr[H \mid E] \propto \Pr[E \mid H] \cdot \Pr[H]\).<br><br>Das \(\propto\) (proportional zu) bedeutet: durch \(\Pr[E]\) normieren.<br>Intuition: Der Prior ist die Ausgangsmeinung; die Likelihood gewichtet, wie stark die<br>Evidenz diese Meinung in Richtung \(H\) verschiebt. \(\Pr[H \mid E] \propto \Pr[E \mid H] \cdot \Pr[H]\).<br><br>Das \(\propto\) (proportional zu) bedeutet, dass die Normierungskonstante \(\Pr[E]\) im Nenner fehlt. <br><br><b>Intuition:</b> <br>Der Prior \(\Pr[H]\) ist unsere Ausgangsmeinung über \(H\). Die Likelihood \(\Pr[E \mid H]\) gewichtet, wie stark die beobachtete Evidenz \(E\) diese Meinung in Richtung \(H\) verschiebt.
Tags: ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten basic

Note 7: ETH::2. Semester::A&W

Deck: ETH::2. Semester::A&W
Note Type: Horvath Classic
GUID: [baaJj9miG
modified

Before

Front

ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit
Was ist der Unterschied zwischen paarweiser und stochastischer (gegenseitiger) Unabhängigkeit von \(n\) Ereignissen?

Back

ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit
Was ist der Unterschied zwischen paarweiser und stochastischer (gegenseitiger) Unabhängigkeit von \(n\) Ereignissen?

Paarweise: \(\Pr[A_i \cap A_j] = \Pr[A_i]\Pr[A_j]\) für alle \(i \neq j\).
Stochastisch (mutual): Bedingung gilt für ALLE nichtleeren Teilmengen \(I \subseteq [n]\).

Paarweise Unabhängigkeit \(\not\Rightarrow\) stochastische Unabhängigkeit!

After

Front

ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit
Was ist der Unterschied zwischen paarweiser und stochastischer (gegenseitiger) Unabhängigkeit von \(n\) Ereignissen?

Back

ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit
Was ist der Unterschied zwischen paarweiser und stochastischer (gegenseitiger) Unabhängigkeit von \(n\) Ereignissen?

Stochastische Unabhängigkeit ist die stärkere Forderung: Paarweise Unabhängigkeit allein reicht dafür nicht aus.

Paarweise Unabhängigkeit:
Für je zwei der \(n\) Ereignisse gilt, dass das eine keinen Einfluss auf die Wahrscheinlichkeit des anderen hat: \[\Pr[A_i \cap A_j] = \Pr[A_i]\,\Pr[A_j] \quad \text{für alle } i \neq j.\]Stochastische (gegenseitige) Unabhängigkeit:
Egal welche Teilmenge der \(n\) Ereignisse man betrachtet – ob Paare, Tripel, oder alle gleichzeitig – die Ereignisse beeinflussen sich gegenseitig nicht. Das heisst, das Wissen über beliebig viele der Ereignisse ändert die Wahrscheinlichkeit der übrigen nicht: \[\Pr\!\Big[\bigcap_{i \in I} A_i\Big] = \prod_{i \in I} \Pr[A_i] \quad \text{für alle } \emptyset \neq I \subseteq [n].\]
Field-by-field Comparison
Field Before After
Back Paarweise: \(\Pr[A_i \cap A_j] = \Pr[A_i]\Pr[A_j]\) für alle \(i \neq j\).<br>Stochastisch (mutual): Bedingung gilt für ALLE nichtleeren Teilmengen \(I \subseteq [n]\).<br><br>Paarweise Unabhängigkeit \(\not\Rightarrow\) stochastische Unabhängigkeit! <b>Stochastische Unabhängigkeit ist die stärkere Forderung:</b>&nbsp;Paarweise Unabhängigkeit allein reicht dafür nicht aus.<br><br>Paarweise Unabhängigkeit: <br>Für je zwei der \(n\) Ereignisse gilt, dass das eine keinen Einfluss auf die Wahrscheinlichkeit des anderen hat: \[\Pr[A_i \cap A_j] = \Pr[A_i]\,\Pr[A_j] \quad \text{für alle } i \neq j.\]Stochastische (gegenseitige) Unabhängigkeit: <br>Egal welche Teilmenge der \(n\) Ereignisse man betrachtet – ob Paare, Tripel, oder alle gleichzeitig – die Ereignisse beeinflussen sich gegenseitig nicht. Das heisst, das Wissen über beliebig viele der Ereignisse ändert die Wahrscheinlichkeit der übrigen nicht: \[\Pr\!\Big[\bigcap_{i \in I} A_i\Big] = \prod_{i \in I} \Pr[A_i] \quad \text{für alle } \emptyset \neq I \subseteq [n].\]
Tags: ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit

Note 8: ETH::2. Semester::A&W

Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: _0Pe(qekc5
modified

Before

Front

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik
Es gilt:
\[{{c1::\sum_{k=0}^{n} \binom{n}{k}::binomial}} = 2^n\]

Back

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik
Es gilt:
\[{{c1::\sum_{k=0}^{n} \binom{n}{k}::binomial}} = 2^n\]

Beweis: Setze \(x = y = 1\) im Binomialsatz: \((1+1)^n = \sum_{k=0}^n \binom{n}{k}\).
Interpretation: Anzahl aller Teilmengen einer \(n\)-elementigen Menge ist \(2^n\).

After

Front

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik
Es gilt:
\[{{c1::\sum_{k=0}^{n} \binom{n}{k}::\text{Binomialsatz} }} = 2^n\]

Back

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik
Es gilt:
\[{{c1::\sum_{k=0}^{n} \binom{n}{k}::\text{Binomialsatz} }} = 2^n\]

Beweis: Setze \(x = y = 1\) im Binomialsatz: \((1+1)^n = \sum_{k=0}^n \binom{n}{k}\).
Interpretation: Anzahl aller Teilmengen einer \(n\)-elementigen Menge ist \(2^n\).
Field-by-field Comparison
Field Before After
Text Es gilt:<br>\[{{c1::\sum_{k=0}^{n} \binom{n}{k}::binomial}} = {{c1::2^n}}\] Es gilt:<br>\[{{c1::\sum_{k=0}^{n} \binom{n}{k}::\text{Binomialsatz} }} = {{c2::2^n}}\]
Tags: ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::0._Kombinatorik basic

Note 9: ETH::2. Semester::A&W

Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: h&$`q|@{5C
modified

Before

Front

ETH::2._Semester::A&W::1._Graphentheorie::7._Färbungen


Die Heuristik findet eine Färbung mit \(\leq 6\) Farben für planare Graphen.

Back

ETH::2._Semester::A&W::1._Graphentheorie::7._Färbungen


Die Heuristik findet eine Färbung mit \(\leq 6\) Farben für planare Graphen.

After

Front

ETH::2._Semester::A&W::1._Graphentheorie::7._Färbungen


Heuristik:
\(v_n\) := Knoten vom kleinsten Grad. Lösche \(v_n\).
\(v_{n-1}\) := Knoten vom kleinsten Grad im Restgraph. Lösche \(v_{n-1}\). Iteriere.

Die Heuristik findet eine Färbung mit \(\leq 6\) Farben für planare Graphen.

Back

ETH::2._Semester::A&W::1._Graphentheorie::7._Färbungen


Heuristik:
\(v_n\) := Knoten vom kleinsten Grad. Lösche \(v_n\).
\(v_{n-1}\) := Knoten vom kleinsten Grad im Restgraph. Lösche \(v_{n-1}\). Iteriere.

Die Heuristik findet eine Färbung mit \(\leq 6\) Farben für planare Graphen.
Field-by-field Comparison
Field Before After
Text <img src="paste-7df7c4f76513b8f48a5f5c4a0fbf613a27433cfe.jpg"><br><br>Die Heuristik findet eine Färbung mit \({{c1::\leq 6}}\) Farben für planare Graphen. <img src="paste-7df7c4f76513b8f48a5f5c4a0fbf613a27433cfe.jpg"><br><br>Heuristik:<br>\(v_n\) := Knoten vom kleinsten Grad. Lösche \(v_n\).<br>\(v_{n-1}\) := Knoten vom kleinsten Grad im Restgraph. Lösche \(v_{n-1}\). Iteriere.<br><br>Die Heuristik findet eine Färbung mit \({{c1::\leq 6}}\) Farben für planare Graphen.
Tags: ETH::2._Semester::A&W::1._Graphentheorie::7._Färbungen

Note 10: ETH::2. Semester::A&W

Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: hFx`}69EnK
modified

Before

Front

ETH::2._Semester::A&W::1._Graphentheorie::6._Matchings::1._Algorithmen
Der Algorithmus von Hopcroft-Karp (bipartiter Graph) verbessert den augmentierenden-Pfad-Algorithmus,
indem er pro Iteration nicht nur einen, sondern eine
inklusionsmaximale Menge paarweise disjunkter kürzester augmentierender Pfade
findet und simultan augmentiert.

Die while-Schleife wird nur \(O(\sqrt{|V|})\) mal durchlaufen.
Proof Sketch Included

Back

ETH::2._Semester::A&W::1._Graphentheorie::6._Matchings::1._Algorithmen
Der Algorithmus von Hopcroft-Karp (bipartiter Graph) verbessert den augmentierenden-Pfad-Algorithmus,
indem er pro Iteration nicht nur einen, sondern eine
inklusionsmaximale Menge paarweise disjunkter kürzester augmentierender Pfade
findet und simultan augmentiert.

Die while-Schleife wird nur \(O(\sqrt{|V|})\) mal durchlaufen.
Proof Sketch Included

Gesamtlaufzeit: \(O(\sqrt{|V|} \cdot (|V| + |E|))\).

Proof Sketch
Augmentieren mit kürzestem Pfad \(P\) erhöht die Länge des nächsten kürzesten Pfades um mindestens 2.
  • Sei M ein Matching, für das der kürzeste augmentierende Pfad Länge k hat und M' ein anderes beliebiges Matching. Dann gilt \(|M'| \le |M| + \frac{|V|}{k + 1}\)

After

Front

ETH::2._Semester::A&W::1._Graphentheorie::6._Matchings::1._Algorithmen
Der Algorithmus von Hopcroft-Karp (bipartiter Graph) verbessert den augmentierenden-Pfad-Algorithmus, indem er pro Iteration nicht nur einen, sondern eine inklusionsmaximale Menge paarweise disjunkter kürzester augmentierender Pfade findet und simultan augmentiert.

Die while-Schleife wird nur \(O({{c2::\sqrt{|V|} }})\) mal durchlaufen.

Proof Sketch Included

Back

ETH::2._Semester::A&W::1._Graphentheorie::6._Matchings::1._Algorithmen
Der Algorithmus von Hopcroft-Karp (bipartiter Graph) verbessert den augmentierenden-Pfad-Algorithmus, indem er pro Iteration nicht nur einen, sondern eine inklusionsmaximale Menge paarweise disjunkter kürzester augmentierender Pfade findet und simultan augmentiert.

Die while-Schleife wird nur \(O({{c2::\sqrt{|V|} }})\) mal durchlaufen.

Proof Sketch Included

Gesamtlaufzeit: \(O(\sqrt{|V|} \cdot (|V| + |E|))\).

Proof Sketch
Augmentieren mit kürzestem Pfad \(P\) erhöht die Länge des nächsten kürzesten Pfades um mindestens 2.
  • Sei M ein Matching, für das der kürzeste augmentierende Pfad Länge k hat und M' ein anderes beliebiges Matching. Dann gilt \(|M'| \le |M| + \frac{|V|}{k + 1}\)
Field-by-field Comparison
Field Before After
Text Der Algorithmus von Hopcroft-Karp (<b>bipartiter Graph</b>)&nbsp;verbessert den augmentierenden-Pfad-Algorithmus,<br>indem er pro Iteration nicht nur einen, sondern eine<br>{{c1::inklusionsmaximale Menge paarweise disjunkter kürzester augmentierender Pfade}}<br>findet und simultan augmentiert.<br><br>Die while-Schleife wird nur \(O({{c2::\sqrt{|V|}}})\) mal durchlaufen.<br><i>Proof Sketch Included</i> Der Algorithmus von Hopcroft-Karp (<b>bipartiter Graph</b>)&nbsp;verbessert den augmentierenden-Pfad-Algorithmus, indem er pro Iteration nicht nur einen, sondern eine {{c1::inklusionsmaximale Menge paarweise disjunkter kürzester augmentierender Pfade}} findet und simultan augmentiert.<br><br>Die while-Schleife wird nur \(O({{c2::\sqrt{|V|} }})\) mal durchlaufen.<br><br><i>Proof Sketch Included</i>
Tags: ETH::2._Semester::A&W::1._Graphentheorie::6._Matchings::1._Algorithmen

Note 11: ETH::2. Semester::A&W

Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: hk@olmS7-#
modified

Before

Front

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::1._Grundbegriffe_und_Notationen
Für Ereignisse \(A, B\) mit \(\Pr[A], \Pr[B] > 0\) gilt:
\[\Pr[A \cap B] = \Pr[A] \cdot \Pr[B \mid A] = \Pr[B] \cdot \Pr[A \mid B]\]
Umgestellt ergibt sich direkt der Satz von Bayes.

Back

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::1._Grundbegriffe_und_Notationen
Für Ereignisse \(A, B\) mit \(\Pr[A], \Pr[B] > 0\) gilt:
\[\Pr[A \cap B] = \Pr[A] \cdot \Pr[B \mid A] = \Pr[B] \cdot \Pr[A \mid B]\]
Umgestellt ergibt sich direkt der Satz von Bayes.

Beide Seiten sind gleich, weil \(\Pr[A \cap B]\) symmetrisch in \(A\) und \(B\) ist.

After

Front

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::1._Grundbegriffe_und_Notationen
Für Ereignisse \(A, B\) mit \(\Pr[A], \Pr[B] > 0\) gilt:
\[\Pr[A \cap B] = \Pr[A] \cdot \Pr[B \mid A] = \Pr[B] \cdot \Pr[A \mid B]\]

Back

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::1._Grundbegriffe_und_Notationen
Für Ereignisse \(A, B\) mit \(\Pr[A], \Pr[B] > 0\) gilt:
\[\Pr[A \cap B] = \Pr[A] \cdot \Pr[B \mid A] = \Pr[B] \cdot \Pr[A \mid B]\]

Umgestellt ergibt sich direkt der Satz von Bayes.

Beide Seiten sind gleich, weil \(\Pr[A \cap B]\) symmetrisch in \(A\) und \(B\) ist.
Field-by-field Comparison
Field Before After
Text Für Ereignisse \(A, B\) mit \(\Pr[A], \Pr[B] &gt; 0\) gilt:<br>\[\Pr[A \cap B] = {{c1::\Pr[A] \cdot \Pr[B \mid A] = \Pr[B] \cdot \Pr[A \mid B]}}\]<br>Umgestellt ergibt sich direkt der Satz von Bayes. Für Ereignisse \(A, B\) mit \(\Pr[A], \Pr[B] &gt; 0\) gilt:<br>\[\Pr[A \cap B] = {{c1::\Pr[A] \cdot \Pr[B \mid A] = \Pr[B] \cdot \Pr[A \mid B]}}\]
Extra Beide Seiten sind gleich, weil \(\Pr[A \cap B]\) symmetrisch in \(A\) und \(B\) ist. Umgestellt ergibt sich direkt der Satz von Bayes.<br><br>Beide Seiten sind gleich, weil \(\Pr[A \cap B]\) symmetrisch in \(A\) und \(B\) ist.
Tags: ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::1._Grundbegriffe_und_Notationen basic

Note 12: ETH::2. Semester::A&W

Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: jc@5=H8@[9
modified

Before

Front

ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Satz von Bayes: Seien \(A, B\) Ereignisse mit \(\Pr[B] > 0\). Dann gilt:
\[\Pr[A|B] = {{c1::\frac{\Pr[B|A] \cdot \Pr[A]}{\Pr[B]}}}.\]

Back

ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Satz von Bayes: Seien \(A, B\) Ereignisse mit \(\Pr[B] > 0\). Dann gilt:
\[\Pr[A|B] = {{c1::\frac{\Pr[B|A] \cdot \Pr[A]}{\Pr[B]}}}.\]

Folgt direkt: \(\Pr[A|B] = \frac{\Pr[A \cap B]}{\Pr[B]} = \frac{\Pr[B|A]\cdot\Pr[A]}{\Pr[B]}\).
Verallgemeinerung (Partition \(A_1,\ldots,A_n\)):

\(\Pr[A_i|B] = \frac{\Pr[B|A_i]\Pr[A_i]}{\sum_j \Pr[B|A_j]\Pr[A_j]}\).

After

Front

ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Seien \(A, B\) Ereignisse mit \(\Pr[B] > 0\).
Dann gilt:
\[\Pr[A\mid B] = {{c1::\frac{\Pr[B\mid A] \cdot \Pr[A]}{\Pr[B]} }}.\]

Back

ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Seien \(A, B\) Ereignisse mit \(\Pr[B] > 0\).
Dann gilt:
\[\Pr[A\mid B] = {{c1::\frac{\Pr[B\mid A] \cdot \Pr[A]}{\Pr[B]} }}.\]

(Satz von Bayes)

Es folgt direkt: \(\Pr[A\mid B] = \frac{\Pr[A \cap B]}{\Pr[B]} = \frac{\Pr[B\mid A]\cdot\Pr[A]}{\Pr[B]}\).
Verallgemeinerung (Partition \(A_1,\ldots,A_n\)):

\(\Pr[A_i\mid B] = \frac{\Pr[B\mid A_i]\Pr[A_i]}{\sum_j \Pr[B\mid A_j]\Pr[A_j]}\).
Field-by-field Comparison
Field Before After
Text Satz von Bayes: Seien \(A, B\) Ereignisse mit \(\Pr[B] &gt; 0\). Dann gilt:<br>\[\Pr[A|B] = {{c1::\frac{\Pr[B|A] \cdot \Pr[A]}{\Pr[B]}}}.\] Seien \(A, B\) Ereignisse mit \(\Pr[B] &gt; 0\). <br>Dann gilt:<br>\[\Pr[A\mid B] = {{c1::\frac{\Pr[B\mid A] \cdot \Pr[A]}{\Pr[B]} }}.\]
Extra Folgt direkt: \(\Pr[A|B] = \frac{\Pr[A \cap B]}{\Pr[B]} = \frac{\Pr[B|A]\cdot\Pr[A]}{\Pr[B]}\).<br>Verallgemeinerung (Partition \(A_1,\ldots,A_n\)):<br><br>\(\Pr[A_i|B] = \frac{\Pr[B|A_i]\Pr[A_i]}{\sum_j \Pr[B|A_j]\Pr[A_j]}\). (Satz von Bayes)<br><br>Es folgt direkt: \(\Pr[A\mid B] = \frac{\Pr[A \cap B]}{\Pr[B]} = \frac{\Pr[B\mid A]\cdot\Pr[A]}{\Pr[B]}\).<br>Verallgemeinerung (Partition \(A_1,\ldots,A_n\)):<br><br>\(\Pr[A_i\mid B] = \frac{\Pr[B\mid A_i]\Pr[A_i]}{\sum_j \Pr[B\mid A_j]\Pr[A_j]}\).
Tags: ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten

Note 13: ETH::2. Semester::A&W

Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: mNSCrvA/%f
modified

Before

Front

ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::1._Grundbegriffe_und_Notationen
Ein diskreter Wahrscheinlichkeitsraum ist bestimmt durch eine Ergebnismenge \(\Omega = \{\omega_1, \omega_2, \ldots\}\)von Elementarereignissen.

Back

ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::1._Grundbegriffe_und_Notationen
Ein diskreter Wahrscheinlichkeitsraum ist bestimmt durch eine Ergebnismenge \(\Omega = \{\omega_1, \omega_2, \ldots\}\)von Elementarereignissen.

After

Front

ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::1._Grundbegriffe_und_Notationen
Ein diskreter Wahrscheinlichkeitsraum ist bestimmt durch eine Ergebnismenge \(\Omega = \{\omega_1, \omega_2, \ldots\}\) von Elementarereignissen.

Back

ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::1._Grundbegriffe_und_Notationen
Ein diskreter Wahrscheinlichkeitsraum ist bestimmt durch eine Ergebnismenge \(\Omega = \{\omega_1, \omega_2, \ldots\}\) von Elementarereignissen.
Field-by-field Comparison
Field Before After
Text Ein diskreter Wahrscheinlichkeitsraum ist bestimmt durch eine Ergebnismenge \(\Omega = \{\omega_1, \omega_2, \ldots\}\)von {{c1::Elementarereignissen}}. Ein diskreter Wahrscheinlichkeitsraum ist bestimmt durch eine Ergebnismenge \(\Omega = \{\omega_1, \omega_2, \ldots\}\)&nbsp;von {{c1::Elementarereignissen}}.
Tags: ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::1._Grundbegriffe_und_Notationen

Note 14: ETH::2. Semester::A&W

Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: ms@ofzVlpa
modified

Before

Front

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Wie heißen die vier Terme im Satz von Bayes
\(\Pr[H \mid E] = \dfrac{\Pr[E \mid H] \cdot \Pr[H]}{\Pr[E]}\)?

  • \(\Pr[H]\)  Prior (Vorab-Wahrscheinlichkeit): Glaube an \(H\) vor Beobachtung von \(E\).
  • \(\Pr[E \mid H]\) Likelihood: Wie wahrscheinlich ist die Evidenz \(E\), wenn \(H\) gilt?
  • \(\Pr[H \mid E]\) Posterior: Aktualisierter Glaube an \(H\) nach Beobachtung von \(E\)
  • \(\Pr[E]\) Evidenz (Normierungskonstante): Gesamtwahrscheinlichkeit der Beobachtung

Back

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Wie heißen die vier Terme im Satz von Bayes
\(\Pr[H \mid E] = \dfrac{\Pr[E \mid H] \cdot \Pr[H]}{\Pr[E]}\)?

  • \(\Pr[H]\)  Prior (Vorab-Wahrscheinlichkeit): Glaube an \(H\) vor Beobachtung von \(E\).
  • \(\Pr[E \mid H]\) Likelihood: Wie wahrscheinlich ist die Evidenz \(E\), wenn \(H\) gilt?
  • \(\Pr[H \mid E]\) Posterior: Aktualisierter Glaube an \(H\) nach Beobachtung von \(E\)
  • \(\Pr[E]\) Evidenz (Normierungskonstante): Gesamtwahrscheinlichkeit der Beobachtung

After

Front

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Wie heißen die vier Terme im Satz von Bayes? \[\Pr[H \mid E] = \dfrac{\Pr[E \mid H] \cdot \Pr[H]}{\Pr[E]}\]
  • \(\Pr[H]\)  Prior (Vorab-Wahrscheinlichkeit): Glaube an \(H\) vor Beobachtung von \(E\).
  • \(\Pr[E \mid H]\) Likelihood: Wie wahrscheinlich ist die Evidenz \(E\), wenn \(H\) gilt?
  • \(\Pr[H \mid E]\) Posterior: Aktualisierter Glaube an \(H\) nach Beobachtung von \(E\)
  • \(\Pr[E]\) Evidenz (Normierungskonstante): Gesamtwahrscheinlichkeit der Beobachtung

Back

basic ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten
Wie heißen die vier Terme im Satz von Bayes? \[\Pr[H \mid E] = \dfrac{\Pr[E \mid H] \cdot \Pr[H]}{\Pr[E]}\]
  • \(\Pr[H]\)  Prior (Vorab-Wahrscheinlichkeit): Glaube an \(H\) vor Beobachtung von \(E\).
  • \(\Pr[E \mid H]\) Likelihood: Wie wahrscheinlich ist die Evidenz \(E\), wenn \(H\) gilt?
  • \(\Pr[H \mid E]\) Posterior: Aktualisierter Glaube an \(H\) nach Beobachtung von \(E\)
  • \(\Pr[E]\) Evidenz (Normierungskonstante): Gesamtwahrscheinlichkeit der Beobachtung
Field-by-field Comparison
Field Before After
Text Wie heißen die vier Terme im Satz von Bayes<br>\(\Pr[H \mid E] = \dfrac{\Pr[E \mid H] \cdot \Pr[H]}{\Pr[E]}\)?<br><br><ul><li>\(\Pr[H]\)&nbsp; {{c1::<strong>Prior</strong> (Vorab-Wahrscheinlichkeit): Glaube an \(H\) vor Beobachtung von \(E\).}}</li><li>\(\Pr[E \mid H]\)&nbsp;{{c22::<strong>Likelihood</strong>: Wie wahrscheinlich ist die Evidenz \(E\), wenn \(H\) gilt?}}</li><li>\(\Pr[H \mid E]\)&nbsp;{{c3::<strong>Posterior</strong>: Aktualisierter Glaube an \(H\) nach Beobachtung von \(E\)}}</li><li>\(\Pr[E]\)&nbsp;{{c4::<strong>Evidenz</strong> (Normierungskonstante): Gesamtwahrscheinlichkeit der Beobachtung}}</li></ul> Wie heißen die vier Terme im Satz von Bayes?&nbsp;\[\Pr[H \mid E] = \dfrac{\Pr[E \mid H] \cdot \Pr[H]}{\Pr[E]}\]<ul><li>\(\Pr[H]\)&nbsp; {{c1::<strong>Prior</strong> (Vorab-Wahrscheinlichkeit): Glaube an \(H\) vor Beobachtung von \(E\).}}</li><li>\(\Pr[E \mid H]\)&nbsp;{{c2::<strong>Likelihood</strong>: Wie wahrscheinlich ist die Evidenz \(E\), wenn \(H\) gilt?}}</li><li>\(\Pr[H \mid E]\)&nbsp;{{c3::<strong>Posterior</strong>: Aktualisierter Glaube an \(H\) nach Beobachtung von \(E\)}}</li><li>\(\Pr[E]\)&nbsp;{{c4::<strong>Evidenz</strong> (Normierungskonstante): Gesamtwahrscheinlichkeit der Beobachtung}}</li></ul>
Tags: ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::2._Bedingte_Wahrscheinlichkeiten basic

Note 15: ETH::2. Semester::A&W

Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: o78LP-Mw-W
modified

Before

Front

ETH::2._Semester::A&W::1._Graphentheorie::7._Färbungen
Für alle \(k \geq 2\) gibt es einen dreiecksfreien Graphen \(G_k\) mit
\(\chi(G_k) \geq k\).

(Mycielski-Konstruktion)

Back

ETH::2._Semester::A&W::1._Graphentheorie::7._Färbungen
Für alle \(k \geq 2\) gibt es einen dreiecksfreien Graphen \(G_k\) mit
\(\chi(G_k) \geq k\).

(Mycielski-Konstruktion)

Konstruktion: Aus \(G_k = (V_k, E_k)\) mit \(V_k = \{v_1,\ldots,v_n\}\) bilde \(G_{k+1}\):
Füge Knoten \(w_1,\ldots,w_n, z\) hinzu. \(w_i\) ist mit allen Nachbarn von \(v_i\) verbunden (aber nicht mit \(v_i\) selbst). \(z\) ist mit allen \(w_i\) verbunden.
Der neue Graph ist dreiecksfrei und braucht eine Farbe mehr als \(G_k\).

After

Front

ETH::2._Semester::A&W::1._Graphentheorie::7._Färbungen
Für alle \(k \geq 2\) gibt es einen dreiecksfreien Graphen \(G_k\) mit \(\chi(G_k) \geq k\).

Back

ETH::2._Semester::A&W::1._Graphentheorie::7._Färbungen
Für alle \(k \geq 2\) gibt es einen dreiecksfreien Graphen \(G_k\) mit \(\chi(G_k) \geq k\).

(Mycielski-Konstruktion)

Konstruktion:

Aus \(G_k = (V_k, E_k)\) mit \(V_k = \{v_1,\ldots,v_n\}\) bilde \(G_{k+1}\):
Füge Knoten \(w_1,\ldots,w_n, z\) hinzu. \(w_i\) ist mit allen Nachbarn von \(v_i\) verbunden (aber nicht mit \(v_i\) selbst). \(z\) ist mit allen \(w_i\) verbunden.
Der neue Graph ist dreiecksfrei und braucht eine Farbe mehr als \(G_k\).
Field-by-field Comparison
Field Before After
Text Für alle \(k \geq 2\) gibt es einen {{c1::dreiecksfreien}} Graphen \(G_k\) mit<br>\(\chi(G_k) \geq {{c2::k}}\).<br><br>({{c3::Mycielski-Konstruktion}}) Für alle \(k \geq 2\) gibt es einen {{c1::dreiecksfreien}} Graphen \(G_k\) mit&nbsp;\(\chi(G_k) \geq {{c2::k}}\).
Extra Konstruktion: Aus \(G_k = (V_k, E_k)\) mit \(V_k = \{v_1,\ldots,v_n\}\) bilde \(G_{k+1}\):<br>Füge Knoten \(w_1,\ldots,w_n, z\) hinzu. \(w_i\) ist mit allen Nachbarn von \(v_i\) verbunden (aber nicht mit \(v_i\) selbst). \(z\) ist mit allen \(w_i\) verbunden.<br>Der neue Graph ist dreiecksfrei und braucht eine Farbe mehr als \(G_k\). (Mycielski-Konstruktion)<b><br><br>Konstruktion:</b> <br>Aus \(G_k = (V_k, E_k)\) mit \(V_k = \{v_1,\ldots,v_n\}\) bilde \(G_{k+1}\):<br>Füge Knoten \(w_1,\ldots,w_n, z\) hinzu. \(w_i\) ist mit allen Nachbarn von \(v_i\) verbunden (aber nicht mit \(v_i\) selbst). \(z\) ist mit allen \(w_i\) verbunden.<br>Der neue Graph ist dreiecksfrei und braucht eine Farbe mehr als \(G_k\).
Tags: ETH::2._Semester::A&W::1._Graphentheorie::7._Färbungen

Note 16: ETH::2. Semester::A&W

Deck: ETH::2. Semester::A&W
Note Type: Horvath Cloze
GUID: tHY-Qji=0u
modified

Before

Front

ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit
Zwei Ereignisse \(A\) und \(B\) heißen stochastisch unabhängig, falls
\[\Pr[A \cap B] = \Pr[A] \cdot \Pr[B] \]

Back

ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit
Zwei Ereignisse \(A\) und \(B\) heißen stochastisch unabhängig, falls
\[\Pr[A \cap B] = \Pr[A] \cdot \Pr[B] \]

Intuition: Das Eintreten von \(B\) gibt keine Information über \(A\).

After

Front

ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit
Zwei Ereignisse \(A\) und \(B\) heißen stochastisch unabhängig, falls
\[\Pr[A \cap B] = \Pr[A] \cdot \Pr[B] \]

Back

ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit
Zwei Ereignisse \(A\) und \(B\) heißen stochastisch unabhängig, falls
\[\Pr[A \cap B] = \Pr[A] \cdot \Pr[B] \]

Intuition:
Das Eintreten von \(B\) beeinflusst die Wahrscheinlichkeit von \(A\) nicht.
Field-by-field Comparison
Field Before After
Extra Intuition: Das Eintreten von \(B\) gibt keine Information über \(A\). <b>Intuition: <br></b>Das Eintreten von \(B\) beeinflusst die Wahrscheinlichkeit von&nbsp;\(A\)&nbsp;nicht.
Tags: ETH::2._Semester::A&W::2._Wahrscheinlichkeitstheorie_und_randomisierte_Algorithmen::3._Unabhängigkeit

Note 17: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: ,$5trcvO/g
modified

Before

Front

ETH::2._Semester::Analysis::2._Folgen::2._Konvergenz::2._Properties
Form Umformung Methode
{{c1::\(\dfrac{0}{0}\)}} L'Hôpital, kürzen, Taylor
{{c2::\(\dfrac{\infty}{\infty}\)}} L'Hôpital, führende Terme
\(0 \cdot \infty\) {{c3::\(\dfrac{0}{1/\infty} = \dfrac{0}{0}\)  oder  \(\dfrac{\infty}{1/0} = \dfrac{\infty}{\infty}\)}} Umschreiben → L'Hôpital
\(\infty - \infty\) gemeinsamer Nenner, Konjugat, ausklammern {{c4::→ \(\dfrac{0}{0}\) oder \(\dfrac{\infty}{\infty}\)}}
\(0^0\) {{c5::\(e^{0 \cdot \ln 0} = e^{0 \cdot (-\infty)}\)}} Logarithmieren → \(0 \cdot \infty\)
\(\infty^0\) {{c6::\(e^{0 \cdot \ln \infty} = e^{0 \cdot \infty}\)}} Logarithmieren → \(0 \cdot \infty\)
\(1^\infty\) {{c7::\(e^{\infty \cdot \ln 1} = e^{\infty \cdot 0}\)}} Logarithmieren → \(0 \cdot \infty\)

Back

ETH::2._Semester::Analysis::2._Folgen::2._Konvergenz::2._Properties
Form Umformung Methode
{{c1::\(\dfrac{0}{0}\)}} L'Hôpital, kürzen, Taylor
{{c2::\(\dfrac{\infty}{\infty}\)}} L'Hôpital, führende Terme
\(0 \cdot \infty\) {{c3::\(\dfrac{0}{1/\infty} = \dfrac{0}{0}\)  oder  \(\dfrac{\infty}{1/0} = \dfrac{\infty}{\infty}\)}} Umschreiben → L'Hôpital
\(\infty - \infty\) gemeinsamer Nenner, Konjugat, ausklammern {{c4::→ \(\dfrac{0}{0}\) oder \(\dfrac{\infty}{\infty}\)}}
\(0^0\) {{c5::\(e^{0 \cdot \ln 0} = e^{0 \cdot (-\infty)}\)}} Logarithmieren → \(0 \cdot \infty\)
\(\infty^0\) {{c6::\(e^{0 \cdot \ln \infty} = e^{0 \cdot \infty}\)}} Logarithmieren → \(0 \cdot \infty\)
\(1^\infty\) {{c7::\(e^{\infty \cdot \ln 1} = e^{\infty \cdot 0}\)}} Logarithmieren → \(0 \cdot \infty\)

After

Front

ETH::2._Semester::Analysis::2._Folgen::2._Konvergenz::2._Properties
Form Umformung Methode
{{c1::\(\dfrac{0}{0}\)}} L'Hôpital, kürzen, Taylor
{{c2::\(\dfrac{\infty}{\infty}\)}} L'Hôpital, führende Terme
\(0 \cdot \infty\) {{c3::\(\dfrac{0}{1/\infty} = \dfrac{0}{0}\)  oder  \(\dfrac{\infty}{1/0} = \dfrac{\infty}{\infty}\)}} Umschreiben → L'Hôpital
\(\infty - \infty\) gemeinsamer Nenner, Konjugat, ausklammern {{c4::→ \(\dfrac{0}{0}\) oder \(\dfrac{\infty}{\infty}\)}}
\(0^0\) {{c5::\(e^{0 \cdot \ln 0} = e^{0 \cdot (-\infty)}\)}} Logarithmieren → \(0 \cdot \infty\)
\(\infty^0\) {{c6::\(e^{0 \cdot \ln \infty} = e^{0 \cdot \infty}\)}} Logarithmieren → \(0 \cdot \infty\)
\(1^\infty\) {{c7::\(e^{\infty \cdot \ln 1} = e^{\infty \cdot 0}\)}} Logarithmieren → \(0 \cdot \infty\)

Back

ETH::2._Semester::Analysis::2._Folgen::2._Konvergenz::2._Properties
Form Umformung Methode
{{c1::\(\dfrac{0}{0}\)}} L'Hôpital, kürzen, Taylor
{{c2::\(\dfrac{\infty}{\infty}\)}} L'Hôpital, führende Terme
\(0 \cdot \infty\) {{c3::\(\dfrac{0}{1/\infty} = \dfrac{0}{0}\)  oder  \(\dfrac{\infty}{1/0} = \dfrac{\infty}{\infty}\)}} Umschreiben → L'Hôpital
\(\infty - \infty\) gemeinsamer Nenner, Konjugat, ausklammern {{c4::→ \(\dfrac{0}{0}\) oder \(\dfrac{\infty}{\infty}\)}}
\(0^0\) {{c5::\(e^{0 \cdot \ln 0} = e^{0 \cdot (-\infty)}\)}} Logarithmieren → \(0 \cdot \infty\)
\(\infty^0\) {{c6::\(e^{0 \cdot \ln \infty} = e^{0 \cdot \infty}\)}} Logarithmieren → \(0 \cdot \infty\)
\(1^\infty\) {{c7::\(e^{\infty \cdot \ln 1} = e^{\infty \cdot 0}\)}} Logarithmieren → \(0 \cdot \infty\)

(\(0\) und \(\infty\) sind hier Kurzschreibweisen für das Verhalten im Grenzwert: \(0\) steht für „geht gegen \(0\)" und \(\infty\) für „geht gegen \(\infty\)".)
Field-by-field Comparison
Field Before After
Text <table style="border-collapse:collapse;width:100%;font-size:0.95em;"> <thead> <tr style="background:#2d2d2d;color:#fff;"> <th style="padding:8px 12px;border:1px solid #555;">Form</th> <th style="padding:8px 12px;border:1px solid #555;">Umformung</th> <th style="padding:8px 12px;border:1px solid #555;">Methode</th> </tr> </thead> <tbody> <tr> <td style="padding:8px 12px;border:1px solid #555;text-align:center;">{{c1::\(\dfrac{0}{0}\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c1:: —}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c1::L'Hôpital, kürzen, Taylor}}</td> </tr> <tr style="background:#1a1a1a;"> <td style="padding:8px 12px;border:1px solid #555;text-align:center;">{{c2::\(\dfrac{\infty}{\infty}\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c2::—}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c2::L'Hôpital, führende Terme}}</td> </tr> <tr> <td style="padding:8px 12px;border:1px solid #555;text-align:center;">{{c3::\(0 \cdot \infty\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c3::\(\dfrac{0}{1/\infty} = \dfrac{0}{0}\) &nbsp;oder&nbsp; \(\dfrac{\infty}{1/0} = \dfrac{\infty}{\infty}\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c3::Umschreiben → L'Hôpital}}</td> </tr> <tr style="background:#1a1a1a;"> <td style="padding:8px 12px;border:1px solid #555;text-align:center;">{{c4::\(\infty - \infty\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c4::gemeinsamer Nenner, Konjugat, ausklammern}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c4::→ \(\dfrac{0}{0}\) oder \(\dfrac{\infty}{\infty}\)}}</td> </tr> <tr> <td style="padding:8px 12px;border:1px solid #555;text-align:center;">{{c5::\(0^0\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c5::\(e^{0 \cdot \ln 0} = e^{0 \cdot (-\infty)}\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c5::Logarithmieren → \(0 \cdot \infty\)}}</td> </tr> <tr style="background:#1a1a1a;"> <td style="padding:8px 12px;border:1px solid #555;text-align:center;">{{c6::\(\infty^0\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c6::\(e^{0 \cdot \ln \infty} = e^{0 \cdot \infty}\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c6::Logarithmieren → \(0 \cdot \infty\)}}</td> </tr> <tr> <td style="padding:8px 12px;border:1px solid #555;text-align:center;">{{c7::\(1^\infty\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c7::\(e^{\infty \cdot \ln 1} = e^{\infty \cdot 0}\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c7::Logarithmieren → \(0 \cdot \infty\)}}</td> </tr> </tbody> </table> <table style="border-collapse:collapse;width:100%;font-size:0.95em;"> <thead> <tr> <th style="padding:8px 12px;border:1px solid #555;">Form</th> <th style="padding:8px 12px;border:1px solid #555;">Umformung</th> <th style="padding:8px 12px;border:1px solid #555;">Methode</th> </tr> </thead> <tbody> <tr> <td style="padding:8px 12px;border:1px solid #555;text-align:center;">{{c1::\(\dfrac{0}{0}\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c1:: —}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c1::L'Hôpital, kürzen, Taylor}}</td> </tr> <tr> <td style="padding:8px 12px;border:1px solid #555;text-align:center;">{{c2::\(\dfrac{\infty}{\infty}\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c2::—}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c2::L'Hôpital, führende Terme}}</td> </tr> <tr> <td style="padding:8px 12px;border:1px solid #555;text-align:center;">{{c3::\(0 \cdot \infty\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c3::\(\dfrac{0}{1/\infty} = \dfrac{0}{0}\) &nbsp;oder&nbsp; \(\dfrac{\infty}{1/0} = \dfrac{\infty}{\infty}\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c3::Umschreiben → L'Hôpital}}</td> </tr> <tr> <td style="padding:8px 12px;border:1px solid #555;text-align:center;">{{c4::\(\infty - \infty\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c4::gemeinsamer Nenner, Konjugat, ausklammern}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c4::→ \(\dfrac{0}{0}\) oder \(\dfrac{\infty}{\infty}\)}}</td> </tr> <tr> <td style="padding:8px 12px;border:1px solid #555;text-align:center;">{{c5::\(0^0\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c5::\(e^{0 \cdot \ln 0} = e^{0 \cdot (-\infty)}\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c5::Logarithmieren → \(0 \cdot \infty\)}}</td> </tr> <tr> <td style="padding:8px 12px;border:1px solid #555;text-align:center;">{{c6::\(\infty^0\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c6::\(e^{0 \cdot \ln \infty} = e^{0 \cdot \infty}\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c6::Logarithmieren → \(0 \cdot \infty\)}}</td> </tr> <tr> <td style="padding:8px 12px;border:1px solid #555;text-align:center;">{{c7::\(1^\infty\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c7::\(e^{\infty \cdot \ln 1} = e^{\infty \cdot 0}\)}}</td> <td style="padding:8px 12px;border:1px solid #555;">{{c7::Logarithmieren → \(0 \cdot \infty\)}}</td> </tr> </tbody> </table>
Extra (\(0\) und \(\infty\) sind hier Kurzschreibweisen für das Verhalten im Grenzwert: \(0\) steht für „geht gegen \(0\)" und \(\infty\) für „geht gegen \(\infty\)".)
Tags: ETH::2._Semester::Analysis::2._Folgen::2._Konvergenz::2._Properties

Note 18: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: ,z5^ljjVx0
modified

Before

Front

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Quotientenkriterium: Sei \(a_n \neq 0\) und \(\rho = \lim_{n\to\infty} \left|\frac{a_{n+1}}{a_n}\right|\).
  • \(\rho < 1\) \(\implies\) absolut konvergent
  • \(\rho > 1\) \(\implies\) divergent
  • \(\rho = 1\) \(\implies\) keine Aussage (z.B. \(1/n\) und \(1/n^2\) liefern beide \(1\))

Back

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Quotientenkriterium: Sei \(a_n \neq 0\) und \(\rho = \lim_{n\to\infty} \left|\frac{a_{n+1}}{a_n}\right|\).
  • \(\rho < 1\) \(\implies\) absolut konvergent
  • \(\rho > 1\) \(\implies\) divergent
  • \(\rho = 1\) \(\implies\) keine Aussage (z.B. \(1/n\) und \(1/n^2\) liefern beide \(1\))

Proof:
  1. \(\sum a_n \geq 0\), \(\displaystyle L = \lim_{n\to\infty} \left| \frac{a_{n+1}}{a_n} \right|< 1\)
    1. Choose \(q\) with \(L < q < 1\). Since \(\left| \frac{a_{n+1}}{a_n} \right| \to L\), there exists \(N\) such that for all \(n \geq N: \left|\frac{a_{n+1}}{a_n} \right| \leq q\) \(\implies\) \(\left|a_{N+k}\right|\leq \left|a_N \right|\cdot q^k\)
    2. So \(\sum_{k=0}^{\infty} \left| a_{N+k} \right|\) \(\leq \left| a_N \right| \sum_{k=0}^{\infty} q^k\)\(= \frac{\left| a_N \right|}{1-q}\)\(< \infty\) (geometric series, \(q < 1\) ).
    3. Hence \(\sum a_n\) converges.
  2. \(\sum a_n \geq 0, \displaystyle L\)   \(= \lim_{n\to\infty} \left| \frac{a_{n+1}}{a_n} \right|\)   \(> 1\).
    1. Choose \(q\) with \(1 < q < L\). There exists \(N\) such that for all \(n \geq N: \left| \frac{a_{n+1}}{a_n} \right|\)   \(\geq q > 1\)    \(\implies \left| a_{N+k} \right|\) \(\geq \left| a_N \right| \cdot q^k \to \infty\)
    2. So \(\left| a_n\right| \not\to 0\), hence \(\sum a_n\) diverges.

After

Front

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Sei \(a_n \neq 0\) und \(\rho = \lim_{n\to\infty} \left|\frac{a_{n+1}}{a_n}\right|\).
  • \(\rho < 1\) \(\implies\) absolut konvergent
  • \(\rho > 1\) \(\implies\) divergent
  • \(\rho = 1\) \(\implies\) keine Aussage (z.B. \(1/n\) und \(1/n^2\) liefern beide \(1\))

Back

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Sei \(a_n \neq 0\) und \(\rho = \lim_{n\to\infty} \left|\frac{a_{n+1}}{a_n}\right|\).
  • \(\rho < 1\) \(\implies\) absolut konvergent
  • \(\rho > 1\) \(\implies\) divergent
  • \(\rho = 1\) \(\implies\) keine Aussage (z.B. \(1/n\) und \(1/n^2\) liefern beide \(1\))

(Quotientenkriterium)

Proof:
  1. \(\sum a_n \geq 0\), \(\displaystyle L = \lim_{n\to\infty} \left| \frac{a_{n+1}}{a_n} \right|< 1\)
    1. Choose \(q\) with \(L < q < 1\). Since \(\left| \frac{a_{n+1}}{a_n} \right| \to L\), there exists \(N\) such that for all \(n \geq N: \left|\frac{a_{n+1}}{a_n} \right| \leq q\) \(\implies\) \(\left|a_{N+k}\right|\leq \left|a_N \right|\cdot q^k\)
    2. So \(\sum_{k=0}^{\infty} \left| a_{N+k} \right|\) \(\leq \left| a_N \right| \sum_{k=0}^{\infty} q^k\)\(= \frac{\left| a_N \right|}{1-q}\)\(< \infty\) (geometric series, \(q < 1\) ).
    3. Hence \(\sum a_n\) converges.
  2. \(\sum a_n \geq 0, \displaystyle L\)   \(= \lim_{n\to\infty} \left| \frac{a_{n+1}}{a_n} \right|\)   \(> 1\).
    1. Choose \(q\) with \(1 < q < L\). There exists \(N\) such that for all \(n \geq N: \left| \frac{a_{n+1}}{a_n} \right|\)   \(\geq q > 1\)    \(\implies \left| a_{N+k} \right|\) \(\geq \left| a_N \right| \cdot q^k \to \infty\)
    2. So \(\left| a_n\right| \not\to 0\), hence \(\sum a_n\) diverges.
Field-by-field Comparison
Field Before After
Text Quotientenkriterium: Sei \(a_n \neq 0\) und \(\rho = \lim_{n\to\infty} \left|\frac{a_{n+1}}{a_n}\right|\).<br><ul><li>\(\rho &lt; 1\) \(\implies\) {{c1::absolut konvergent}}</li><li>\(\rho &gt; 1\) \(\implies\) {{c1::divergent}}</li><li>\(\rho = 1\) \(\implies\)&nbsp;{{c1::keine Aussage (z.B. \(1/n\) und \(1/n^2\) liefern beide \(1\))}}</li></ul> Sei \(a_n \neq 0\) und \(\rho = \lim_{n\to\infty} \left|\frac{a_{n+1}}{a_n}\right|\).<br><ul><li>\(\rho &lt; 1\) \(\implies\) {{c1::absolut konvergent}}</li><li>\(\rho &gt; 1\) \(\implies\) {{c1::divergent}}</li><li>\(\rho = 1\) \(\implies\)&nbsp;{{c1::keine Aussage (z.B. \(1/n\) und \(1/n^2\) liefern beide \(1\))}}</li></ul>
Extra <div><strong>Proof:</strong></div> <ol> <li>\(\sum a_n \geq 0\),&nbsp;\(\displaystyle L = \lim_{n\to\infty} \left| \frac{a_{n+1}}{a_n} \right|&lt; 1\)</li><ol><li>Choose \(q\) with \(L &lt; q &lt; 1\). Since \(\left| \frac{a_{n+1}}{a_n} \right| \to L\), there exists \(N\) such that for all&nbsp;\(n \geq N: \left|\frac{a_{n+1}}{a_n} \right| \leq q\)&nbsp;\(\implies\)&nbsp;\(\left|a_{N+k}\right|\leq \left|a_N \right|\cdot q^k\)</li><li>So \(\sum_{k=0}^{\infty} \left| a_{N+k} \right|\)&nbsp;\(\leq \left| a_N \right| \sum_{k=0}^{\infty} q^k\)\(= \frac{\left| a_N \right|}{1-q}\)\(&lt; \infty\) (geometric series, \(q &lt; 1\) ).</li> <li>Hence \(\sum a_n\) converges. </li> </ol> <li> <div>\(\sum a_n \geq 0, \displaystyle L\)&nbsp; &nbsp;\(= \lim_{n\to\infty} \left| \frac{a_{n+1}}{a_n} \right|\)&nbsp; &nbsp;\(&gt; 1\).</div> <ol> <li>Choose \(q\) with \(1 &lt; q &lt; L\). There exists \(N\) such that for all \(n \geq N: \left| \frac{a_{n+1}}{a_n} \right|\)&nbsp; &nbsp;\(\geq q &gt; 1\)&nbsp; &nbsp; \(\implies \left| a_{N+k} \right|\) \(\geq \left| a_N \right| \cdot q^k \to \infty\)</li> <li>So \(\left| a_n\right| \not\to 0\), hence \(\sum a_n\) diverges.</li></ol></li></ol> <div>(Quotientenkriterium)<strong><br></strong></div><div><strong><br></strong></div><div><strong>Proof:</strong></div> <ol> <li>\(\sum a_n \geq 0\),&nbsp;\(\displaystyle L = \lim_{n\to\infty} \left| \frac{a_{n+1}}{a_n} \right|&lt; 1\)</li><ol><li>Choose \(q\) with \(L &lt; q &lt; 1\). Since \(\left| \frac{a_{n+1}}{a_n} \right| \to L\), there exists \(N\) such that for all&nbsp;\(n \geq N: \left|\frac{a_{n+1}}{a_n} \right| \leq q\)&nbsp;\(\implies\)&nbsp;\(\left|a_{N+k}\right|\leq \left|a_N \right|\cdot q^k\)</li><li>So \(\sum_{k=0}^{\infty} \left| a_{N+k} \right|\)&nbsp;\(\leq \left| a_N \right| \sum_{k=0}^{\infty} q^k\)\(= \frac{\left| a_N \right|}{1-q}\)\(&lt; \infty\) (geometric series, \(q &lt; 1\) ).</li> <li>Hence \(\sum a_n\) converges. </li> </ol> <li> <div>\(\sum a_n \geq 0, \displaystyle L\)&nbsp; &nbsp;\(= \lim_{n\to\infty} \left| \frac{a_{n+1}}{a_n} \right|\)&nbsp; &nbsp;\(&gt; 1\).</div> <ol> <li>Choose \(q\) with \(1 &lt; q &lt; L\). There exists \(N\) such that for all \(n \geq N: \left| \frac{a_{n+1}}{a_n} \right|\)&nbsp; &nbsp;\(\geq q &gt; 1\)&nbsp; &nbsp; \(\implies \left| a_{N+k} \right|\) \(\geq \left| a_N \right| \cdot q^k \to \infty\)</li> <li>So \(\left| a_n\right| \not\to 0\), hence \(\sum a_n\) diverges.</li></ol></li></ol>
Tags: ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien

Note 19: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: 1cHWc3lNeG
modified

Before

Front

ETH::2._Semester::Analysis::2._Folgen::2._Konvergenz::2._Properties
Eine divergente Folge kann trotzdem konvergente Teilfolgen besitzen.

Back

ETH::2._Semester::Analysis::2._Folgen::2._Konvergenz::2._Properties
Eine divergente Folge kann trotzdem konvergente Teilfolgen besitzen.

Beispiel: 
\(a_n = (-1)^n\) divergiert, aber \(a_{2n} = 1\) und \(a_{2n+1} = -1\) konvergieren.

Umkehrung: 
Eine Folge konvergiert gegen \(L\) genau dann, wenn jede Teilfolge gegen \(L\) konvergiert.

After

Front

ETH::2._Semester::Analysis::2._Folgen::2._Konvergenz::2._Properties
Eine divergente Folge kann trotzdem konvergente Teilfolgen besitzen.

Back

ETH::2._Semester::Analysis::2._Folgen::2._Konvergenz::2._Properties
Eine divergente Folge kann trotzdem konvergente Teilfolgen besitzen.

Beispiel: 
\(a_n = (-1)^n\) divergiert, aber \(a_{2n} = 1\) und \(a_{2n+1} = -1\) konvergieren.

Umkehrung: 
Eine Folge konvergiert gegen \(L\) genau dann, wenn jede Teilfolge gegen \(L\) konvergiert.
Field-by-field Comparison
Field Before After
Text Eine <b>divergente</b> Folge kann trotzdem {{c1::konvergente Teilfolgen besitzen}}. Eine <b>divergente</b> Folge kann trotzdem {{c1::konvergente Teilfolgen}}&nbsp;besitzen.
Tags: ETH::2._Semester::Analysis::2._Folgen::2._Konvergenz::2._Properties

Note 20: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Classic
GUID: 9r2wQ@.hKx
modified

Before

Front

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Unterschied Wurzel- vs. Quotientenkriterium?

Back

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Unterschied Wurzel- vs. Quotientenkriterium?

Wurzelkriterium ist stärker: wenn Quotient anwendbar, liefert Wurzel mindestens genauso gutes Ergebnis.

Quotientenkriterium einfacher bei Termen mit \(n!\) oder Potenzen.

Beide versagen für \(\rho = 1\) (z.B. \(p\)-Reihen).

Merke: Wenn Quotient versagt (\(\rho=1\)), versagt auch Wurzel.

After

Front

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Unterschied Wurzel- vs. Quotientenkriterium?

Back

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Unterschied Wurzel- vs. Quotientenkriterium?

Das Wurzelkriterium ist stärker: Liefert der Quotient ein Ergebnis, so auch die Wurzel - aber nicht umgekehrt.

In der Praxis ist das Quotientenkriterium oft bequemer, besonders bei \(n!\) oder Potenzen.

Beide versagen bei \(\rho = 1\), z.B. bei \(p\)-Reihen.
Field-by-field Comparison
Field Before After
Back <b>Wurzelkriterium</b> ist <b>stärker</b>: wenn Quotient anwendbar, liefert Wurzel mindestens genauso gutes Ergebnis.<br><br><b>Quotientenkriterium</b> einfacher bei Termen mit \(n!\) oder Potenzen.<br><br>Beide versagen für \(\rho = 1\) (z.B. \(p\)-Reihen).<br><br><b>Merke:</b> Wenn Quotient versagt (\(\rho=1\)), versagt auch Wurzel. Das <b>Wurzelkriterium ist stärker</b>: Liefert der Quotient ein Ergebnis, so auch die Wurzel - aber nicht umgekehrt. <br><br>In der Praxis ist das <b>Quotientenkriterium</b> oft bequemer, besonders bei \(n!\) oder Potenzen. <br><br>Beide versagen bei \(\rho = 1\), z.B. bei \(p\)-Reihen.
Tags: ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien

Note 21: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: :{+=c#C^*:
modified

Before

Front

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Quotient- und Wurzelkriterium versagen (\(\rho = 1\)) bei Reihen vom Typ p-Reihen \(\sum 1/n^s\).

Back

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Quotient- und Wurzelkriterium versagen (\(\rho = 1\)) bei Reihen vom Typ p-Reihen \(\sum 1/n^s\).

In diesem Fall: Verdichtungssatz oder Grenzwertkriterium verwenden.

After

Front

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Quotient- und Wurzelkriterium versagen bei Reihen vom Typ {{c1::\(\sum \frac{1}{n^s}\) (p-Reihen)}}, da aufeinanderfolgende Terme asymptotisch gleich schnell wachsen (\(\rho = 1\)).

Back

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Quotient- und Wurzelkriterium versagen bei Reihen vom Typ {{c1::\(\sum \frac{1}{n^s}\) (p-Reihen)}}, da aufeinanderfolgende Terme asymptotisch gleich schnell wachsen (\(\rho = 1\)).

In diesem Fall: Verdichtungssatz oder Grenzwertkriterium verwenden.
Field-by-field Comparison
Field Before After
Text Quotient- und Wurzelkriterium versagen (\(\rho = 1\)) bei Reihen vom Typ {{c1::p-Reihen \(\sum 1/n^s\)}}. Quotient- und Wurzelkriterium versagen bei Reihen vom Typ {{c1::\(\sum \frac{1}{n^s}\) (p-Reihen)}}, da aufeinanderfolgende Terme asymptotisch gleich schnell wachsen (\(\rho = 1\)).
Tags: ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien

Note 22: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: =wRp[:z20n
modified

Before

Front

ETH::2._Semester::Analysis::3._Reihen::4._Umordnung
Sei \(\sum a_n\) {{c1::bedingt konvergent und \(L \in \mathbb{R} \cup \{+\infty, -\infty\}\)}}.

Dann {{c2::gibt es eine Bijektion \(\phi\) so dass:
\[\sum_{n=0}^\infty a_{\phi(n)} = L\]}}

Back

ETH::2._Semester::Analysis::3._Reihen::4._Umordnung
Sei \(\sum a_n\) {{c1::bedingt konvergent und \(L \in \mathbb{R} \cup \{+\infty, -\infty\}\)}}.

Dann {{c2::gibt es eine Bijektion \(\phi\) so dass:
\[\sum_{n=0}^\infty a_{\phi(n)} = L\]}}

(Riemannscher Umordnungssatz für bedingt konvergente Reihen)

Merke: Bedingt konvergente Reihen können durch Umordnung jeden Grenzwert annehmen!

After

Front

ETH::2._Semester::Analysis::3._Reihen::4._Umordnung
Sei \(\sum a_n\) {{c1::bedingt konvergent und \(L \in \mathbb{R} \cup \{+\infty, -\infty\}\)}}.

Dann {{c2::gibt es eine Bijektion \(\phi\), so dass:
\[\sum_{n=0}^\infty a_{\phi(n)} = L\]}}

Back

ETH::2._Semester::Analysis::3._Reihen::4._Umordnung
Sei \(\sum a_n\) {{c1::bedingt konvergent und \(L \in \mathbb{R} \cup \{+\infty, -\infty\}\)}}.

Dann {{c2::gibt es eine Bijektion \(\phi\), so dass:
\[\sum_{n=0}^\infty a_{\phi(n)} = L\]}}

(Riemannscher Umordnungssatz für bedingt konvergente Reihen)

Merke: Bedingt konvergente Reihen können durch Umordnung jeden Grenzwert annehmen!
Field-by-field Comparison
Field Before After
Text Sei&nbsp;\(\sum a_n\)&nbsp;{{c1::<b>bedingt konvergent</b>&nbsp;und&nbsp;\(L \in \mathbb{R} \cup \{+\infty, -\infty\}\)}}.<br><br>Dann {{c2::gibt es eine Bijektion&nbsp;\(\phi\)&nbsp;so dass:<br>\[\sum_{n=0}^\infty a_{\phi(n)} = L\]}} Sei&nbsp;\(\sum a_n\)&nbsp;{{c1::<b>bedingt konvergent</b>&nbsp;und&nbsp;\(L \in \mathbb{R} \cup \{+\infty, -\infty\}\)}}.<br><br>Dann {{c2::gibt es eine Bijektion&nbsp;\(\phi\),&nbsp;so dass:<br>\[\sum_{n=0}^\infty a_{\phi(n)} = L\]}}
Tags: ETH::2._Semester::Analysis::3._Reihen::4._Umordnung

Note 23: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Classic
GUID: @0zVayKX4N
modified

Before

Front

ETH::2._Semester::Analysis::3._Reihen::1._Definitionen
Kann eine Reihe konvergieren, ohne absolut zu konvergieren?

Back

ETH::2._Semester::Analysis::3._Reihen::1._Definitionen
Kann eine Reihe konvergieren, ohne absolut zu konvergieren?

Ja — bedingte Konvergenz.

Beispiel: \(\sum \frac{(-1)^n}{n}\) konvergiert (Leibniz), aber \(\sum \frac{1}{n}\) divergiert.

Konsequenz: Bei bedingt konvergenten Reihen darf man nicht umordnen (Riemann'scher Umordnungssatz).

After

Front

ETH::2._Semester::Analysis::3._Reihen::1._Definitionen
Kann eine Reihe konvergieren, ohne absolut zu konvergieren?

Back

ETH::2._Semester::Analysis::3._Reihen::1._Definitionen
Kann eine Reihe konvergieren, ohne absolut zu konvergieren?

Ja, dies nennt man bedingte Konvergenz.

Beispiel: \(\sum \frac{(-1)^n}{n}\) konvergiert (Leibniz), aber \(\sum \frac{1}{n}\) divergiert.

Konsequenz: Bei bedingt konvergenten Reihen darf man nicht umordnen (Riemann'scher Umordnungssatz).
Field-by-field Comparison
Field Before After
Back Ja<b>bedingte Konvergenz</b>.<br><br>Beispiel: \(\sum \frac{(-1)^n}{n}\) konvergiert (Leibniz), aber \(\sum \frac{1}{n}\) divergiert.<br><br><b>Konsequenz:</b> Bei bedingt konvergenten Reihen darf man <b>nicht</b> umordnen (Riemann'scher Umordnungssatz). Ja, dies nennt man&nbsp;<b>bedingte Konvergenz</b>.<br><br>Beispiel: \(\sum \frac{(-1)^n}{n}\) konvergiert (Leibniz), aber \(\sum \frac{1}{n}\) divergiert.<br><br><b>Konsequenz:</b> Bei bedingt konvergenten Reihen darf man <b>nicht</b> umordnen (Riemann'scher Umordnungssatz).
Tags: ETH::2._Semester::Analysis::3._Reihen::1._Definitionen

Note 24: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: @U-YmkA@*:
modified

Before

Front

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Cauchy-Verdichtungssatz: Sei \((a_n)\) monoton fallend, \(a_n \geq 0\):
\[\sum_{n=0}^\infty a_n \text{ conv.} \iff {{c1::\sum_{n=0}^\infty 2^n a_{2^n} \text{ conv.} }}\]Proof Included

Back

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Cauchy-Verdichtungssatz: Sei \((a_n)\) monoton fallend, \(a_n \geq 0\):
\[\sum_{n=0}^\infty a_n \text{ conv.} \iff {{c1::\sum_{n=0}^\infty 2^n a_{2^n} \text{ conv.} }}\]Proof Included

Anwendung: \(\sum 1/n^s\) für \(s > 1\) konvergiert: \(\sum 2^n \cdot 2^{-ns} = \sum 2^{n(1-s)}\) geometrisch mit \(q = 2^{1-s} < 1\).

Proof
  • Weil a_n monoton fällt gilt \(2^n a_{2^n} \ge a_{2^k + 1} + a_{2^k + 2} + \dots + a_{2^{k + 1} - 1}\).
  • Wir benutzen das Majorantenkriterium mit\[\begin{align} \sum^n_{k = 0} 2^k a_{2^k} &\ge \sum_{k = 0}^n (a_{2^k + 1} + a_{2^k + 2} + \dots + a_{2^{k + 1} - 1}) \\ &= \sum^{2^n + 1}_{j = 1} a_j \\ &\ge \sum_{k = 0}^n 2^k a_{2^{k+1}} = \frac{1}{2} \sum_{k = 1}^{n + 1} 2^k a_{2^k} \end{align}\]
  • Konvergiert \(\sum a_n\) konvergiert auch \((s_n)\) die Folge der Partialsummen und damit auch die Folge der Partialsummen \((s_{2^{n + 1} })\). Damit konvergiert auch die Folge der Partialsummen \((S_{n + 1})\), \(S_{n + 1} = \sum_{k = 1}^{n + 1} 2^k a_{2^k}\).
  • Und dann konvergiert auch \(\sum^\infty 2^k a_{2^k}\) nach dem Majorantenkriterium.

After

Front

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Cauchy-Verdichtungssatz:
Sei \((a_n)\) monoton fallend, \(a_n \geq 0\):
\[\sum_{n=0}^\infty a_n \text{ conv.} \iff {{c1::\sum_{n=0}^\infty 2^n a_{2^n} \text{ conv.} }}\]Proof Included

Back

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Cauchy-Verdichtungssatz:
Sei \((a_n)\) monoton fallend, \(a_n \geq 0\):
\[\sum_{n=0}^\infty a_n \text{ conv.} \iff {{c1::\sum_{n=0}^\infty 2^n a_{2^n} \text{ conv.} }}\]Proof Included

Anwendung:
\(\sum 1/n^s\) für \(s > 1\) konvergiert: \(\sum 2^n \cdot 2^{-ns} = \sum 2^{n(1-s)}\) geometrisch mit \(q = 2^{1-s} < 1\).

Proof
  • Weil \(a_n\) monoton fällt gilt \(2^n a_{2^n} \ge a_{2^k + 1} + a_{2^k + 2} + \dots + a_{2^{k + 1} - 1}\).
  • Wir benutzen das Majorantenkriterium mit\[\begin{align} \sum^n_{k = 0} 2^k a_{2^k} &\ge \sum_{k = 0}^n (a_{2^k + 1} + a_{2^k + 2} + \dots + a_{2^{k + 1} - 1}) \\ &= \sum^{2^n + 1}_{j = 1} a_j \\ &\ge \sum_{k = 0}^n 2^k a_{2^{k+1}} = \frac{1}{2} \sum_{k = 1}^{n + 1} 2^k a_{2^k} \end{align}\]
  • Konvergiert \(\sum a_n\) konvergiert auch \((s_n)\) die Folge der Partialsummen und damit auch die Folge der Partialsummen \((s_{2^{n + 1} })\). Damit konvergiert auch die Folge der Partialsummen \((S_{n + 1})\), \(S_{n + 1} = \sum_{k = 1}^{n + 1} 2^k a_{2^k}\).
  • Und dann konvergiert auch \(\sum^\infty 2^k a_{2^k}\) nach dem Majorantenkriterium.
Field-by-field Comparison
Field Before After
Text <b>Cauchy-Verdichtungssatz</b>: Sei \((a_n)\) <b>monoton fallend</b>, \(a_n \geq 0\):<br>\[\sum_{n=0}^\infty a_n \text{ conv.} \iff {{c1::\sum_{n=0}^\infty 2^n a_{2^n} \text{ conv.} }}\]<i>Proof Included</i> <b>Cauchy-Verdichtungssatz</b>: <br>Sei \((a_n)\) <b>monoton fallend</b>, \(a_n \geq 0\):<br>\[\sum_{n=0}^\infty a_n \text{ conv.} \iff {{c1::\sum_{n=0}^\infty 2^n a_{2^n} \text{ conv.} }}\]<i>Proof Included</i>
Extra Anwendung: \(\sum 1/n^s\) für \(s &gt; 1\) konvergiert: \(\sum 2^n \cdot 2^{-ns} = \sum 2^{n(1-s)}\) geometrisch mit \(q = 2^{1-s} &lt; 1\).<br><br><div><strong>Proof</strong> </div> <ul> <li>Weil a_n monoton fällt gilt \(2^n a_{2^n} \ge a_{2^k + 1} + a_{2^k + 2} + \dots + a_{2^{k + 1} - 1}\).</li> <li>Wir benutzen das Majorantenkriterium mit\[\begin{align} \sum^n_{k = 0} 2^k a_{2^k} &amp;\ge \sum_{k = 0}^n (a_{2^k + 1} + a_{2^k + 2} + \dots + a_{2^{k + 1} - 1}) \\ &amp;= \sum^{2^n + 1}_{j = 1} a_j \\ &amp;\ge \sum_{k = 0}^n 2^k a_{2^{k+1}} = \frac{1}{2} \sum_{k = 1}^{n + 1} 2^k a_{2^k} \end{align}\]</li> <li>Konvergiert \(\sum a_n\) konvergiert auch \((s_n)\) die Folge der Partialsummen und damit auch die Folge der Partialsummen \((s_{2^{n + 1} })\). Damit konvergiert auch die Folge der Partialsummen \((S_{n + 1})\), \(S_{n + 1} = \sum_{k = 1}^{n + 1} 2^k a_{2^k}\).</li> <li>Und dann konvergiert auch \(\sum^\infty 2^k a_{2^k}\) nach dem Majorantenkriterium.</li></ul> Anwendung: <br>\(\sum 1/n^s\) für \(s &gt; 1\) konvergiert: \(\sum 2^n \cdot 2^{-ns} = \sum 2^{n(1-s)}\) geometrisch mit \(q = 2^{1-s} &lt; 1\).<br><br><div><strong>Proof</strong> </div> <ul> <li>Weil&nbsp;\(a_n\)&nbsp;monoton fällt gilt \(2^n a_{2^n} \ge a_{2^k + 1} + a_{2^k + 2} + \dots + a_{2^{k + 1} - 1}\).</li> <li>Wir benutzen das Majorantenkriterium mit\[\begin{align} \sum^n_{k = 0} 2^k a_{2^k} &amp;\ge \sum_{k = 0}^n (a_{2^k + 1} + a_{2^k + 2} + \dots + a_{2^{k + 1} - 1}) \\ &amp;= \sum^{2^n + 1}_{j = 1} a_j \\ &amp;\ge \sum_{k = 0}^n 2^k a_{2^{k+1}} = \frac{1}{2} \sum_{k = 1}^{n + 1} 2^k a_{2^k} \end{align}\]</li> <li>Konvergiert \(\sum a_n\) konvergiert auch \((s_n)\) die Folge der Partialsummen und damit auch die Folge der Partialsummen \((s_{2^{n + 1} })\). Damit konvergiert auch die Folge der Partialsummen \((S_{n + 1})\), \(S_{n + 1} = \sum_{k = 1}^{n + 1} 2^k a_{2^k}\).</li> <li>Und dann konvergiert auch \(\sum^\infty 2^k a_{2^k}\) nach dem Majorantenkriterium.</li></ul>
Tags: ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien

Note 25: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: A5(n/HbG$,
modified

Before

Front

ETH::2._Semester::Analysis::1._Logik,_Mengen,_Zahlen::3._Zahlen::4._Komplexe_Zahlen::3._Eulersche_Formel
Argument ausrechnen:
  • \(\varphi = {{c1:: \arctan(\frac{y}{x}) }}\) falls \(x > 0\).
  • \(\varphi = {{c3:: \arctan(\frac{y}{x}) + \pi }}\) falls \(x < 0\) und \(y \ge 0\)
  • \(\varphi = {{c2:: \arctan(\frac{y}{x}) - \pi }}\) falls \(x < 0\) und \(y < 0\).

Back

ETH::2._Semester::Analysis::1._Logik,_Mengen,_Zahlen::3._Zahlen::4._Komplexe_Zahlen::3._Eulersche_Formel
Argument ausrechnen:
  • \(\varphi = {{c1:: \arctan(\frac{y}{x}) }}\) falls \(x > 0\).
  • \(\varphi = {{c3:: \arctan(\frac{y}{x}) + \pi }}\) falls \(x < 0\) und \(y \ge 0\)
  • \(\varphi = {{c2:: \arctan(\frac{y}{x}) - \pi }}\) falls \(x < 0\) und \(y < 0\).

Achtung: Bei der Umrechnung von Normal- in Polarform ist der Fall \(x=y=0\) ausgeschlossen.

After

Front

ETH::2._Semester::Analysis::1._Logik,_Mengen,_Zahlen::3._Zahlen::4._Komplexe_Zahlen::3._Eulersche_Formel
Argument ausrechnen:
  • \(\varphi = {{c1:: \arctan(\frac{y}{x}) }}\) falls \(x > 0\).
  • \(\varphi = {{c1:: \arctan(\frac{y}{x}) + \pi }}\) falls \(x < 0\) und \(y \ge 0\)
  • \(\varphi = {{c1:: \arctan(\frac{y}{x}) - \pi }}\) falls \(x < 0\) und \(y < 0\).

Back

ETH::2._Semester::Analysis::1._Logik,_Mengen,_Zahlen::3._Zahlen::4._Komplexe_Zahlen::3._Eulersche_Formel
Argument ausrechnen:
  • \(\varphi = {{c1:: \arctan(\frac{y}{x}) }}\) falls \(x > 0\).
  • \(\varphi = {{c1:: \arctan(\frac{y}{x}) + \pi }}\) falls \(x < 0\) und \(y \ge 0\)
  • \(\varphi = {{c1:: \arctan(\frac{y}{x}) - \pi }}\) falls \(x < 0\) und \(y < 0\).

Achtung: Bei der Umrechnung von Normal- in Polarform ist der Fall \(x=y=0\) ausgeschlossen.
Field-by-field Comparison
Field Before After
Text <div>Argument ausrechnen:</div><ul> <li>\(\varphi = {{c1:: \arctan(\frac{y}{x}) }}\) falls \(x &gt; 0\).</li> <li>\(\varphi = {{c3:: \arctan(\frac{y}{x}) + \pi }}\) falls \(x &lt; 0\) und \(y \ge 0\)</li> <li>\(\varphi = {{c2:: \arctan(\frac{y}{x}) - \pi }}\) falls \(x &lt; 0\) und \(y &lt; 0\).</li></ul> <div>Argument ausrechnen:</div><ul> <li>\(\varphi = {{c1:: \arctan(\frac{y}{x}) }}\) falls \(x &gt; 0\).</li> <li>\(\varphi = {{c1:: \arctan(\frac{y}{x}) + \pi }}\) falls \(x &lt; 0\) und \(y \ge 0\)</li> <li>\(\varphi = {{c1:: \arctan(\frac{y}{x}) - \pi }}\) falls \(x &lt; 0\) und \(y &lt; 0\).</li></ul>
Tags: ETH::2._Semester::Analysis::1._Logik,_Mengen,_Zahlen::3._Zahlen::4._Komplexe_Zahlen::3._Eulersche_Formel

Note 26: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: B$gN}}gsw^
modified

Before

Front

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Cauchy-Kriterium: 
\(\sum a_n\) konvergiert \(\iff\) für jedes \(\varepsilon > 0\) \(\exists N\) so dass für alle \(n > m > N\) gilt:
\[{{c1::\left|\sum_{k=m+1}^n a_k\right| = |S_n - S_m| < \varepsilon}}\]Proof Included

Back

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Cauchy-Kriterium: 
\(\sum a_n\) konvergiert \(\iff\) für jedes \(\varepsilon > 0\) \(\exists N\) so dass für alle \(n > m > N\) gilt:
\[{{c1::\left|\sum_{k=m+1}^n a_k\right| = |S_n - S_m| < \varepsilon}}\]Proof Included

Direktes Cauchy-Kriterium auf die Partialsummenfolge.

Man kann \(\sum_{k = m+1}^n a_k \) auch als \(S_n - S_{m} \) schreiben. Und für die Folge \(S_n\) gilt dann der Cauchy Satz. Falls also \(\exists N \in \mathbb{N}_0\) sodass \(\forall n > m > N gilt |S_n - S_m| < \epsilon\), konvergiert die Folge \(S_n\).
Die gilt per Annahme und deswegen konvergiert \(S_n\). Da die Folge der Partialsummen konvergiert, konvergiert die Reihe.

After

Front

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Cauchy-Kriterium:
\(\sum a_n\) konvergiert \(\iff\) für jedes \(\varepsilon > 0\) existiert ein \(N\), so dass für alle \(n > m \geq N\) gilt: \[{{c1::\left|\sum_{k=m+1}^n a_k\right| = |S_n - S_m| < \varepsilon}}\] Proof Included

Back

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Cauchy-Kriterium:
\(\sum a_n\) konvergiert \(\iff\) für jedes \(\varepsilon > 0\) existiert ein \(N\), so dass für alle \(n > m \geq N\) gilt: \[{{c1::\left|\sum_{k=m+1}^n a_k\right| = |S_n - S_m| < \varepsilon}}\] Proof Included

Direktes Cauchy-Kriterium auf die Partialsummenfolge.

Man kann \(\sum_{k = m+1}^n a_k \) auch als \(S_n - S_{m} \) schreiben. Und für die Folge \(S_n\) gilt dann der Cauchy Satz. Falls also \(\exists N \in \mathbb{N}_0\) sodass \(\forall n > m > N gilt |S_n - S_m| < \epsilon\), konvergiert die Folge \(S_n\).
Die gilt per Annahme und deswegen konvergiert \(S_n\). Da die Folge der Partialsummen konvergiert, konvergiert die Reihe.
Field-by-field Comparison
Field Before After
Text Cauchy-Kriterium:&nbsp;<br>\(\sum a_n\) konvergiert \(\iff\) für jedes \(\varepsilon &gt; 0\) \(\exists N\) so dass für alle \(n &gt; m &gt; N\) gilt:<br>\[{{c1::\left|\sum_{k=m+1}^n a_k\right| = |S_n - S_m| &lt; \varepsilon}}\]<i>Proof Included</i> Cauchy-Kriterium:<br>\(\sum a_n\) konvergiert \(\iff\) für jedes \(\varepsilon &gt; 0\) existiert ein \(N\), so dass für alle \(n &gt; m \geq N\) gilt: \[{{c1::\left|\sum_{k=m+1}^n a_k\right| = |S_n - S_m| &lt; \varepsilon}}\] <i>Proof Included</i>
Tags: ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien

Note 27: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: Fsw^30o!oG
modified

Before

Front

ETH::2._Semester::Analysis::3._Reihen::1._Definitionen
Seien \(\sum a_n\) und \(\sum b_n\) konvergente Reihen, \(C \in \mathbb{R}\). Dann gilt:\[\sum_{n=0}^\infty (a_n + b_n) = {{c1::\sum_{n=0}^\infty a_n + \sum_{n=0}^\infty b_n}}\]\[\sum_{n=0}^\infty C \cdot a_n = {{c2::C \cdot \sum_{n=0}^\infty a_n}}\]

Back

ETH::2._Semester::Analysis::3._Reihen::1._Definitionen
Seien \(\sum a_n\) und \(\sum b_n\) konvergente Reihen, \(C \in \mathbb{R}\). Dann gilt:\[\sum_{n=0}^\infty (a_n + b_n) = {{c1::\sum_{n=0}^\infty a_n + \sum_{n=0}^\infty b_n}}\]\[\sum_{n=0}^\infty C \cdot a_n = {{c2::C \cdot \sum_{n=0}^\infty a_n}}\]

Gilt nur für konvergente Reihen!

After

Front

ETH::2._Semester::Analysis::3._Reihen::1._Definitionen
Seien \(\sum a_n\) und \(\sum b_n\) konvergente Reihen, \(C \in \mathbb{R}\). Dann gilt:\[\sum_{n=0}^\infty (a_n + b_n) = {{c1::\sum_{n=0}^\infty a_n + \sum_{n=0}^\infty b_n}}\]\[\sum_{n=0}^\infty C \cdot a_n = {{c2::C \cdot \sum_{n=0}^\infty a_n}}\]

Back

ETH::2._Semester::Analysis::3._Reihen::1._Definitionen
Seien \(\sum a_n\) und \(\sum b_n\) konvergente Reihen, \(C \in \mathbb{R}\). Dann gilt:\[\sum_{n=0}^\infty (a_n + b_n) = {{c1::\sum_{n=0}^\infty a_n + \sum_{n=0}^\infty b_n}}\]\[\sum_{n=0}^\infty C \cdot a_n = {{c2::C \cdot \sum_{n=0}^\infty a_n}}\]

Gilt wirklich nur für konvergente Reihen!
Field-by-field Comparison
Field Before After
Extra Gilt nur für <b>konvergente</b> Reihen! Gilt wirklich nur für <b>konvergente</b> Reihen!
Tags: ETH::2._Semester::Analysis::3._Reihen::1._Definitionen

Note 28: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: J@bX7xcg0D
modified

Before

Front

ETH::2._Semester::Analysis::3._Reihen::1._Definitionen
Absolut konvergente Reihen:\[ | \sum_{n = 0}^\infty a_n | {{c1::\le \sum_{n = 0}^\infty |a_n| }}\]

Back

ETH::2._Semester::Analysis::3._Reihen::1._Definitionen
Absolut konvergente Reihen:\[ | \sum_{n = 0}^\infty a_n | {{c1::\le \sum_{n = 0}^\infty |a_n| }}\]

 (verallgemeinerte Dreiecksungleichung)

After

Front

ETH::2._Semester::Analysis::3._Reihen::1._Definitionen
Für absolut konvergente Reihen:\[ | \sum_{n = 0}^\infty a_n | \le {{c1::\sum_{n = 0}^\infty |a_n| }}\]

Back

ETH::2._Semester::Analysis::3._Reihen::1._Definitionen
Für absolut konvergente Reihen:\[ | \sum_{n = 0}^\infty a_n | \le {{c1::\sum_{n = 0}^\infty |a_n| }}\]

 (verallgemeinerte Dreiecksungleichung)
Field-by-field Comparison
Field Before After
Text Absolut konvergente Reihen:\[ | \sum_{n = 0}^\infty a_n | {{c1::\le \sum_{n = 0}^\infty |a_n| }}\]<br> Für absolut konvergente Reihen:\[ | \sum_{n = 0}^\infty a_n | \le {{c1::\sum_{n = 0}^\infty |a_n| }}\]
Tags: ETH::2._Semester::Analysis::3._Reihen::1._Definitionen

Note 29: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Classic
GUID: JUJrK@Y7/&
modified

Before

Front

ETH::2._Semester::Analysis::3._Reihen::5._Cauchy_Produkt
Warum darf man bei Doppelreihen nicht einfach die Summationsreihenfolge tauschen?

Back

ETH::2._Semester::Analysis::3._Reihen::5._Cauchy_Produkt
Warum darf man bei Doppelreihen nicht einfach die Summationsreihenfolge tauschen?

Ohne Voraussetzung kann die Reihenfolge das Ergebnis ändern. Gegenbeispiel:
\[a_{ij} = \begin{cases} 1 & j = i \\ -1 & j = i+1 \\ 0 & \text{sonst} \end{cases}\]
  • Zeilensummen: jede Zeile \(= 0\) → Gesamt \(= 0\)
  • Spaltensummen: erste Spalte \(= 1\), Rest \(= 0\) → Gesamt \(= 1\)
Bedingung zum Tauschen: \(\sum_{i=0}^m \sum_{j=0}^m |a_{ij}| \leq B\) für alle \(m\).

After

Front

ETH::2._Semester::Analysis::3._Reihen::5._Cauchy_Produkt
Warum darf man bei Doppelreihen nicht einfach die Summationsreihenfolge tauschen?

Back

ETH::2._Semester::Analysis::3._Reihen::5._Cauchy_Produkt
Warum darf man bei Doppelreihen nicht einfach die Summationsreihenfolge tauschen?

Ohne die Bedingung, dass \(\sum_{i=0}^m \sum_{j=0}^m |a_{ij}| \leq B\) für alle \(m\), kann die Reihenfolge das Ergebnis ändern. Das ist im Wesentlichen die Forderung, dass die Doppelreihe absolut konvergiert.

Gegenbeispiel:

\[a_{ij} = \begin{cases} 1 & j = i \\ -1 & j = i+1 \\ 0 & \text{sonst} \end{cases}\]
  • Zeilensummen: jede Zeile \(= 0\) → Gesamt \(= 0\)
  • Spaltensummen: erste Spalte \(= 1\), Rest \(= 0\) → Gesamt \(= 1\)
Field-by-field Comparison
Field Before After
Back Ohne Voraussetzung kann die Reihenfolge das Ergebnis ändern. Gegenbeispiel:<br>\[a_{ij} = \begin{cases} 1 &amp; j = i \\ -1 &amp; j = i+1 \\ 0 &amp; \text{sonst} \end{cases}\]<ul><li><b>Zeilensummen:</b> jede Zeile \(= 0\) → Gesamt \(= 0\)</li><li><b>Spaltensummen:</b> erste Spalte \(= 1\), Rest \(= 0\) → Gesamt \(= 1\)</li></ul><b>Bedingung zum Tauschen:</b> \(\sum_{i=0}^m \sum_{j=0}^m |a_{ij}| \leq B\) für alle \(m\). Ohne die Bedingung, dass&nbsp;\(\sum_{i=0}^m \sum_{j=0}^m |a_{ij}| \leq B\)&nbsp;für alle&nbsp;\(m\),&nbsp;kann die Reihenfolge das Ergebnis ändern. Das ist im Wesentlichen <b>die Forderung, dass die Doppelreihe absolut konvergiert.<br><br>Gegenbeispiel:</b><br>\[a_{ij} = \begin{cases} 1 &amp; j = i \\ -1 &amp; j = i+1 \\ 0 &amp; \text{sonst} \end{cases}\]<ul><li>Zeilensummen: jede Zeile \(= 0\) → Gesamt \(= 0\)</li><li>Spaltensummen: erste Spalte \(= 1\), Rest \(= 0\) → Gesamt \(= 1\)</li></ul>
Tags: ETH::2._Semester::Analysis::3._Reihen::5._Cauchy_Produkt

Note 30: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: KYS^r9uI5z
modified

Before

Front

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Leibniz-Kriterium (alternierende Reihen)

Sei \((a_n)\) monoton fallend, \(a_n \geq 0\), \(\lim a_n = 0\).
Dann konvergiert \({{c1:: \displaystyle\sum_{n=0}^\infty (-1)^n a_n }}\).

Proof Sketch included

Back

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Leibniz-Kriterium (alternierende Reihen)

Sei \((a_n)\) monoton fallend, \(a_n \geq 0\), \(\lim a_n = 0\).
Dann konvergiert \({{c1:: \displaystyle\sum_{n=0}^\infty (-1)^n a_n }}\).

Proof Sketch included

Beachte: Liefert i.A. nur bedingte Konvergenz, nicht absolute.

Proof Sketch:
  1. Die Folge der geraden Partialsummen \(S_{2n}\) ist monoton wachsend und beschränkt, konvergiert also gegen \(L_1\)
  2. Die Folge der ungeraden Partialsummen \(S_{2n + 1}\) ist monoton fallend und beschränkt, konvergiert also gegen \(L_2\)
  3. Da aber gilt \(S_{2n - 1} - S_{2n} = a_{2n} \rightarrow_\infty = 0 \text{gilt} L_1 - L_2 = 0\) und so konvergieren beide gegen den selben Grenzwert.

After

Front

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Leibniz-Kriterium (alternierende Reihen)

Sei \((a_n)\) monoton fallend, \(a_n \geq 0\), \(\lim a_n = 0\).
Dann konvergiert \({{c1:: \displaystyle\sum_{n=0}^\infty (-1)^n a_n }}\).

Proof Sketch included

Back

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Leibniz-Kriterium (alternierende Reihen)

Sei \((a_n)\) monoton fallend, \(a_n \geq 0\), \(\lim a_n = 0\).
Dann konvergiert \({{c1:: \displaystyle\sum_{n=0}^\infty (-1)^n a_n }}\).

Proof Sketch included

Beachte: Liefert i.A. nur bedingte Konvergenz, nicht absolute.

Proof Sketch:
  1. Die Folge der geraden Partialsummen \(S_{2n}\) ist monoton wachsend und beschränkt, konvergiert also gegen \(L_1\)
  2. Die Folge der ungeraden Partialsummen \(S_{2n + 1}\) ist monoton fallend und beschränkt, konvergiert also gegen \(L_2\)
  3. Da aber gilt \(S_{2n - 1} - S_{2n} = a_{2n} \rightarrow_\infty = 0 \text{gilt} L_1 - L_2 = 0\) und so konvergieren beide gegen den selben Grenzwert.
Tags: ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien

Note 31: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: Kxv]M:Ve}-
modified

Before

Front

ETH::2._Semester::Analysis::3._Reihen::2._Standard_Reihen::1._Potenzreihe
Formel von Hadamard: Sei \(\rho = {{c1:: \limsup_{n\to\infty} |c_n|^{1/n} }}\). Dann:
\[R = {{c1:: \begin{cases} 0 & \rho = \infty \\ \rho^{-1} & 0 < \rho < \infty \\ \infty & \rho = 0 \end{cases} }}\]

Back

ETH::2._Semester::Analysis::3._Reihen::2._Standard_Reihen::1._Potenzreihe
Formel von Hadamard: Sei \(\rho = {{c1:: \limsup_{n\to\infty} |c_n|^{1/n} }}\). Dann:
\[R = {{c1:: \begin{cases} 0 & \rho = \infty \\ \rho^{-1} & 0 < \rho < \infty \\ \infty & \rho = 0 \end{cases} }}\]

Proof (Die Hadamard-Formel ist einfach das Wurzelkriterium umgestellt für |z|)
  • Potenzreihe \(\sum c_k z^k = \sum a_k\) für \(a_k = c_k z^k\)
  • Wurzelkriterium: \(|a_k|^{1/k} = |(c_k)^{1/k}| \ |z|\) - \(\limsup |(c_k)^{1/k}| \ |z| = |z| \limsup |(c_k)^{1/k}| < 1\)
  • \(\implies |z| < \frac{1}{\limsup |c_k|^{1/k}}\) Konvergiert also genau wenn \(|z| < \rho\) also innerhalb des Kreises mit Radius \(\rho\).

After

Front

ETH::2._Semester::Analysis::3._Reihen::2._Standard_Reihen::1._Potenzreihe
Sei \(\rho = {{c1:: \limsup_{n\to\infty} |c_n|^{1/n} }}\).
Dann:
\[R = {{c2:: \begin{cases} 0 & \rho = \infty\\ \infty & \rho = 0 \\ \rho^{-1} & 0 < \rho < \infty \end{cases} }}\]

Back

ETH::2._Semester::Analysis::3._Reihen::2._Standard_Reihen::1._Potenzreihe
Sei \(\rho = {{c1:: \limsup_{n\to\infty} |c_n|^{1/n} }}\).
Dann:
\[R = {{c2:: \begin{cases} 0 & \rho = \infty\\ \infty & \rho = 0 \\ \rho^{-1} & 0 < \rho < \infty \end{cases} }}\]

(Formel von Hadamard)

Proof (Die Hadamard-Formel ist einfach das Wurzelkriterium umgestellt für |z|)
  • Potenzreihe \(\sum c_k z^k = \sum a_k\) für \(a_k = c_k z^k\)
  • Wurzelkriterium: \(|a_k|^{1/k} = |(c_k)^{1/k}| \ |z|\) - \(\limsup |(c_k)^{1/k}| \ |z| = |z| \limsup |(c_k)^{1/k}| < 1\)
  • \(\implies |z| < \frac{1}{\limsup |c_k|^{1/k}}\) Konvergiert also genau wenn \(|z| < \rho\) also innerhalb des Kreises mit Radius \(\rho\).
Field-by-field Comparison
Field Before After
Text <b>Formel von Hadamard</b>: Sei \(\rho = {{c1:: \limsup_{n\to\infty} |c_n|^{1/n} }}\). Dann:<br>\[R = {{c1:: \begin{cases} 0 &amp; \rho = \infty \\ \rho^{-1} &amp; 0 &lt; \rho &lt; \infty \\ \infty &amp; \rho = 0 \end{cases} }}\] Sei \(\rho = {{c1:: \limsup_{n\to\infty} |c_n|^{1/n} }}\). <br>Dann:<br>\[R = {{c2:: \begin{cases} 0 &amp; \rho = \infty\\ \infty &amp; \rho = 0 \\ \rho^{-1} &amp; 0 &lt; \rho &lt; \infty \end{cases} }}\]
Extra <b>Proof</b>&nbsp;(Die Hadamard-Formel ist einfach das Wurzelkriterium umgestellt für |z|)<br><ul><li>Potenzreihe \(\sum c_k z^k = \sum a_k\) für \(a_k = c_k z^k\)</li><li>Wurzelkriterium: \(|a_k|^{1/k} = |(c_k)^{1/k}| \ |z|\) - \(\limsup |(c_k)^{1/k}| \ |z| = |z| \limsup |(c_k)^{1/k}| &lt; 1\)</li><li>\(\implies |z| &lt; \frac{1}{\limsup |c_k|^{1/k}}\) Konvergiert also genau wenn \(|z| &lt; \rho\) also innerhalb des Kreises mit Radius \(\rho\).</li></ul> (Formel von Hadamard)<br><br><b>Proof</b>&nbsp;(Die Hadamard-Formel ist einfach das Wurzelkriterium umgestellt für |z|)<br><ul><li>Potenzreihe \(\sum c_k z^k = \sum a_k\) für \(a_k = c_k z^k\)</li><li>Wurzelkriterium: \(|a_k|^{1/k} = |(c_k)^{1/k}| \ |z|\) - \(\limsup |(c_k)^{1/k}| \ |z| = |z| \limsup |(c_k)^{1/k}| &lt; 1\)</li><li>\(\implies |z| &lt; \frac{1}{\limsup |c_k|^{1/k}}\) Konvergiert also genau wenn \(|z| &lt; \rho\) also innerhalb des Kreises mit Radius \(\rho\).</li></ul>
Tags: ETH::2._Semester::Analysis::3._Reihen::2._Standard_Reihen::1._Potenzreihe

Note 32: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: OVw=KsU!rA
modified

Before

Front

ETH::2._Semester::Analysis::3._Reihen::2._Standard_Reihen
Die harmonische Reihe \({{c1:: \displaystyle\sum_{n=1}^\infty \frac{1}{n} }}\) divergiert.

Back

ETH::2._Semester::Analysis::3._Reihen::2._Standard_Reihen
Die harmonische Reihe \({{c1:: \displaystyle\sum_{n=1}^\infty \frac{1}{n} }}\) divergiert.

Beweis: \(\frac{1}{3}+\frac{1}{4} > \frac{1}{2}\), \(\frac{1}{5}+\cdots+\frac{1}{8} > \frac{1}{2}\), usw. Pakete mit \(> 1/2\) bilden, dann mit \(> 1\) etc...

After

Front

ETH::2._Semester::Analysis::3._Reihen::2._Standard_Reihen
Die harmonische Reihe \({{c1:: \displaystyle\sum_{n=1}^\infty \frac{1}{n} }}\) divergiert.

Back

ETH::2._Semester::Analysis::3._Reihen::2._Standard_Reihen
Die harmonische Reihe \({{c1:: \displaystyle\sum_{n=1}^\infty \frac{1}{n} }}\) divergiert.

Beweis: \(\frac{1}{3}+\frac{1}{4} > \frac{1}{2}\), \(\frac{1}{5}+\cdots+\frac{1}{8} > \frac{1}{2}\), usw. Pakete mit \(> 1/2\) bilden, dann mit \(> 1\) etc...
Field-by-field Comparison
Field Before After
Text Die harmonische Reihe \({{c1:: \displaystyle\sum_{n=1}^\infty \frac{1}{n} }}\) {{c1::divergiert::Konvergenz?}}. Die harmonische Reihe \({{c1:: \displaystyle\sum_{n=1}^\infty \frac{1}{n} }}\) {{c2::divergiert::Konvergenz?}}.
Tags: ETH::2._Semester::Analysis::3._Reihen::2._Standard_Reihen

Note 33: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: WwY@Is}Rhe
modified

Before

Front

ETH::2._Semester::Analysis::3._Reihen::1._Definitionen
\(\sum a_n\) heißt absolut konvergent, falls {{c1::die Reihe \(\sum_{n=0}^\infty |a_n|\) konvergiert}}.

Back

ETH::2._Semester::Analysis::3._Reihen::1._Definitionen
\(\sum a_n\) heißt absolut konvergent, falls {{c1::die Reihe \(\sum_{n=0}^\infty |a_n|\) konvergiert}}.

After

Front

ETH::2._Semester::Analysis::3._Reihen::1._Definitionen
\(\sum a_n\) heisst absolut konvergent, falls {{c1::die Reihe \(\sum_{n=0}^\infty |a_n|\) konvergiert}}.

Back

ETH::2._Semester::Analysis::3._Reihen::1._Definitionen
\(\sum a_n\) heisst absolut konvergent, falls {{c1::die Reihe \(\sum_{n=0}^\infty |a_n|\) konvergiert}}.
Field-by-field Comparison
Field Before After
Text \(\sum a_n\) heißt <b>absolut konvergent</b>, falls {{c1::die Reihe \(\sum_{n=0}^\infty |a_n|\) konvergiert}}. \(\sum a_n\) heisst <b>absolut konvergent</b>, falls {{c1::die Reihe \(\sum_{n=0}^\infty |a_n|\) konvergiert}}.
Tags: ETH::2._Semester::Analysis::3._Reihen::1._Definitionen

Note 34: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: ^XO)+qiLKO
modified

Before

Front

ETH::2._Semester::Analysis::3._Reihen::2._Standard_Reihen::1._Potenzreihe
Eine Potenzreihe hat die Form \({{c5:: \displaystyle\sum_{k=0}^\infty c_k (x - a)^k }}\), wobei:
  • \(a\) heißt Entwicklungspunkt (Zentrum)
  • \(c_0, c_1, \ldots\) heißen Koeffizienten
  • \(x\) heißt Argument
  • \((a - R,\, a + R)\) heißt Konvergenzintervall

Back

ETH::2._Semester::Analysis::3._Reihen::2._Standard_Reihen::1._Potenzreihe
Eine Potenzreihe hat die Form \({{c5:: \displaystyle\sum_{k=0}^\infty c_k (x - a)^k }}\), wobei:
  • \(a\) heißt Entwicklungspunkt (Zentrum)
  • \(c_0, c_1, \ldots\) heißen Koeffizienten
  • \(x\) heißt Argument
  • \((a - R,\, a + R)\) heißt Konvergenzintervall

Spezialfall \(a = 0\): \(\sum c_k x^k\) — Entwicklungspunkt im Ursprung.

After

Front

ETH::2._Semester::Analysis::3._Reihen::2._Standard_Reihen::1._Potenzreihe
Eine Potenzreihe hat die Form \({{c5:: \displaystyle\sum_{k=0}^\infty c_k (x - a)^k }}\), wobei:
  • \(a\) heisst Entwicklungspunkt (Zentrum)
  • \(c_0, c_1, \ldots\) heissen Koeffizienten
  • \(x\) heisst Argument
  • \((a - R,\, a + R)\) heisst Konvergenzintervall

Back

ETH::2._Semester::Analysis::3._Reihen::2._Standard_Reihen::1._Potenzreihe
Eine Potenzreihe hat die Form \({{c5:: \displaystyle\sum_{k=0}^\infty c_k (x - a)^k }}\), wobei:
  • \(a\) heisst Entwicklungspunkt (Zentrum)
  • \(c_0, c_1, \ldots\) heissen Koeffizienten
  • \(x\) heisst Argument
  • \((a - R,\, a + R)\) heisst Konvergenzintervall

Spezialfall \(a = 0\):
\(\sum c_k x^k\) - Entwicklungspunkt im Ursprung.
Field-by-field Comparison
Field Before After
Text Eine <b>Potenzreihe</b> hat die Form \({{c5:: \displaystyle\sum_{k=0}^\infty c_k (x - a)^k }}\), wobei:<br><ul><li>\(a\) heißt {{c1::Entwicklungspunkt}} (Zentrum)</li><li>\(c_0, c_1, \ldots\) heißen {{c2::Koeffizienten}}</li><li>\(x\) heißt {{c3::Argument}}</li><li>\((a - R,\, a + R)\) heißt {{c4::Konvergenzintervall}}</li></ul> Eine <b>Potenzreihe</b> hat die Form \({{c5:: \displaystyle\sum_{k=0}^\infty c_k (x - a)^k }}\), wobei:<br><ul><li>\(a\) heisst {{c1::Entwicklungspunkt (Zentrum)}}</li><li>\(c_0, c_1, \ldots\) heissen {{c2::Koeffizienten}}</li><li>\(x\) heisst {{c3::Argument}}</li><li>\((a - R,\, a + R)\) heisst {{c4::Konvergenzintervall}}</li></ul>
Extra Spezialfall \(a = 0\): \(\sum c_k x^k\) Entwicklungspunkt im Ursprung. Spezialfall \(a = 0\): <br>\(\sum c_k x^k\)&nbsp;- Entwicklungspunkt im Ursprung.
Tags: ETH::2._Semester::Analysis::3._Reihen::2._Standard_Reihen::1._Potenzreihe

Note 35: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: a(2w#VKag=
modified

Before

Front

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Grenzwertkriterium (Limitenvergleich): Seien \(a_n, b_n > 0\). Dann:
  1. {{c1::\(\lim \frac{a_n}{b_n} = g\) mit \(0 < g < \infty\)}} \(\implies\) \(\sum a_n\) und \(\sum b_n\) haben dasselbe Konvergenzverhalten
  2. {{c2::\(\lim \frac{a_n}{b_n} = 0\) und \(\sum b_n\) konvergiert}} \(\implies\) \(\sum a_n\) konvergiert
  3. {{c3::\(\lim \frac{a_n}{b_n} = \infty\) und \(\sum b_n\) divergiert }}\(\implies\) \(\sum a_n\) divergiert

Back

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Grenzwertkriterium (Limitenvergleich): Seien \(a_n, b_n > 0\). Dann:
  1. {{c1::\(\lim \frac{a_n}{b_n} = g\) mit \(0 < g < \infty\)}} \(\implies\) \(\sum a_n\) und \(\sum b_n\) haben dasselbe Konvergenzverhalten
  2. {{c2::\(\lim \frac{a_n}{b_n} = 0\) und \(\sum b_n\) konvergiert}} \(\implies\) \(\sum a_n\) konvergiert
  3. {{c3::\(\lim \frac{a_n}{b_n} = \infty\) und \(\sum b_n\) divergiert }}\(\implies\) \(\sum a_n\) divergiert

Beispiel: \(\sum \frac{1}{n^2+3n}\): Vergleich mit \(1/n^2\), Grenzwert \(= 1\) → konvergiert.

Proof Sketch
  • Ist \(\lim_{n \to \infty} \frac{a_n}{b_n} = g\) mit \(0 < g < \infty\)
  • So gilt \(\frac{a_n}{b_n} \leq g + \varepsilon\) und daher \(a_n \leq (g + \varepsilon) \, b_n\) für ein geeignetes \(\varepsilon > 0\) und alle genügend großen \(n\).
  • Nach dem Majorantenkriterium folgt aus der Konvergenz von \(\sum b_n\) die Konvergenz von \(\sum a_n\).

After

Front

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Seien \(a_n, b_n > 0\). Dann:
  1. {{c1::\(\lim \frac{a_n}{b_n} = g\) mit \(0 < g < \infty\)}} \(\implies\) \(\sum a_n\) und \(\sum b_n\) haben dasselbe Konvergenzverhalten
  2. {{c2::\(\lim \frac{a_n}{b_n} = 0\) und \(\sum b_n\) konvergiert}} \(\implies\) \(\sum a_n\) konvergiert
  3. {{c3::\(\lim \frac{a_n}{b_n} = \infty\) und \(\sum b_n\) divergiert }}\(\implies\) \(\sum a_n\) divergiert

Back

ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien
Seien \(a_n, b_n > 0\). Dann:
  1. {{c1::\(\lim \frac{a_n}{b_n} = g\) mit \(0 < g < \infty\)}} \(\implies\) \(\sum a_n\) und \(\sum b_n\) haben dasselbe Konvergenzverhalten
  2. {{c2::\(\lim \frac{a_n}{b_n} = 0\) und \(\sum b_n\) konvergiert}} \(\implies\) \(\sum a_n\) konvergiert
  3. {{c3::\(\lim \frac{a_n}{b_n} = \infty\) und \(\sum b_n\) divergiert }}\(\implies\) \(\sum a_n\) divergiert

Grenzwertkriterium (Limitenvergleich)

Beispiel:
\[\sum \frac{1}{n^2+3n}\]Vergleich mit \(1/n^2\), Grenzwert \(= 1\) → konvergiert.

Proof Sketch
  • Ist \(\lim_{n \to \infty} \frac{a_n}{b_n} = g\) mit \(0 < g < \infty\)
  • So gilt \(\frac{a_n}{b_n} \leq g + \varepsilon\) und daher \(a_n \leq (g + \varepsilon) \, b_n\) für ein geeignetes \(\varepsilon > 0\) und alle genügend großen \(n\).
  • Nach dem Majorantenkriterium folgt aus der Konvergenz von \(\sum b_n\) die Konvergenz von \(\sum a_n\).
Field-by-field Comparison
Field Before After
Text Grenzwertkriterium (Limitenvergleich): Seien&nbsp;\(a_n, b_n &gt; 0\). Dann:<br><ol><li>{{c1::\(\lim \frac{a_n}{b_n} = g\)&nbsp;mit&nbsp;\(0 &lt; g &lt; \infty\)}}&nbsp;\(\implies\)&nbsp;\(\sum a_n\)&nbsp;und&nbsp;\(\sum b_n\)&nbsp;haben&nbsp;<b>dasselbe</b>&nbsp;Konvergenzverhalten</li><li>{{c2::\(\lim \frac{a_n}{b_n} = 0\)&nbsp;und&nbsp;\(\sum b_n\)&nbsp;konvergiert}}&nbsp;\(\implies\)&nbsp;\(\sum a_n\)&nbsp;konvergiert</li><li>{{c3::\(\lim \frac{a_n}{b_n} = \infty\)&nbsp;und&nbsp;\(\sum b_n\)&nbsp;divergiert }}\(\implies\)&nbsp;\(\sum a_n\)&nbsp;divergiert</li></ol> Seien&nbsp;\(a_n, b_n &gt; 0\). Dann:<br><ol><li>{{c1::\(\lim \frac{a_n}{b_n} = g\)&nbsp;mit&nbsp;\(0 &lt; g &lt; \infty\)}}&nbsp;\(\implies\)&nbsp;\(\sum a_n\)&nbsp;und&nbsp;\(\sum b_n\)&nbsp;haben&nbsp;<b>dasselbe</b>&nbsp;Konvergenzverhalten</li><li>{{c2::\(\lim \frac{a_n}{b_n} = 0\)&nbsp;und&nbsp;\(\sum b_n\)&nbsp;konvergiert}}&nbsp;\(\implies\)&nbsp;\(\sum a_n\)&nbsp;konvergiert</li><li>{{c3::\(\lim \frac{a_n}{b_n} = \infty\)&nbsp;und&nbsp;\(\sum b_n\)&nbsp;divergiert }}\(\implies\)&nbsp;\(\sum a_n\)&nbsp;divergiert</li></ol>
Extra <b>Beispiel:</b> \(\sum \frac{1}{n^2+3n}\): Vergleich mit \(1/n^2\), Grenzwert \(= 1\) → konvergiert.<br><br><div><div><strong>Proof Sketch</strong></div> <ul> <li>Ist \(\lim_{n \to \infty} \frac{a_n}{b_n} = g\) mit \(0 &lt; g &lt; \infty\)</li> <li>So gilt \(\frac{a_n}{b_n} \leq g + \varepsilon\) und daher \(a_n \leq (g + \varepsilon) \, b_n\) für ein geeignetes \(\varepsilon &gt; 0\) und alle genügend großen \(n\). </li> <li>Nach dem <em>Majorantenkriterium</em> folgt aus der Konvergenz von \(\sum b_n\) die Konvergenz von \(\sum a_n\).</li></ul></div> Grenzwertkriterium (Limitenvergleich)<b><br><br>Beispiel:</b>\[\sum \frac{1}{n^2+3n}\]Vergleich mit \(1/n^2\), Grenzwert \(= 1\) → konvergiert.<br><br><div><div><strong>Proof Sketch</strong></div> <ul> <li>Ist \(\lim_{n \to \infty} \frac{a_n}{b_n} = g\) mit \(0 &lt; g &lt; \infty\)</li> <li>So gilt \(\frac{a_n}{b_n} \leq g + \varepsilon\) und daher \(a_n \leq (g + \varepsilon) \, b_n\) für ein geeignetes \(\varepsilon &gt; 0\) und alle genügend großen \(n\). </li> <li>Nach dem <em>Majorantenkriterium</em> folgt aus der Konvergenz von \(\sum b_n\) die Konvergenz von \(\sum a_n\).</li></ul></div>
Tags: ETH::2._Semester::Analysis::3._Reihen::3._Konvergenzkriterien

Note 36: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Classic
GUID: cBrH,`+B0!
modified

Before

Front

ETH::2._Semester::Analysis::1._Logik,_Mengen,_Zahlen::3._Zahlen::4._Komplexe_Zahlen::5._Komplexe_Polynome
Für \(p(z) = a_n z^n + a_{n - 1}z^{n - 1} + \dots + a_1 z + 1_0\) gilt \(p(z) = (z - z_1)(z - z_2)\dots(z - z_n)\)?

Back

ETH::2._Semester::Analysis::1._Logik,_Mengen,_Zahlen::3._Zahlen::4._Komplexe_Zahlen::5._Komplexe_Polynome
Für \(p(z) = a_n z^n + a_{n - 1}z^{n - 1} + \dots + a_1 z + 1_0\) gilt \(p(z) = (z - z_1)(z - z_2)\dots(z - z_n)\)?

Nein, es fehlt der Faktor \(a_n\) am Anfang!

After

Front

ETH::2._Semester::Analysis::1._Logik,_Mengen,_Zahlen::3._Zahlen::4._Komplexe_Zahlen::5._Komplexe_Polynome
Gilt für \(p(z) = a_n z^n + a_{n - 1}z^{n - 1} + \dots + a_1 z + 1_0\), dass \(p(z) = (z - z_1)(z - z_2)\dots(z - z_n)\)?

Back

ETH::2._Semester::Analysis::1._Logik,_Mengen,_Zahlen::3._Zahlen::4._Komplexe_Zahlen::5._Komplexe_Polynome
Gilt für \(p(z) = a_n z^n + a_{n - 1}z^{n - 1} + \dots + a_1 z + 1_0\), dass \(p(z) = (z - z_1)(z - z_2)\dots(z - z_n)\)?

Nein, es fehlt der Faktor \(a_n\) am Anfang!
Field-by-field Comparison
Field Before After
Front Für&nbsp;\(p(z) = a_n z^n + a_{n - 1}z^{n - 1} + \dots + a_1 z + 1_0\)&nbsp;gilt&nbsp;\(p(z) = (z - z_1)(z - z_2)\dots(z - z_n)\)? Gilt für&nbsp;\(p(z) = a_n z^n + a_{n - 1}z^{n - 1} + \dots + a_1 z + 1_0\), dass&nbsp;\(p(z) = (z - z_1)(z - z_2)\dots(z - z_n)\)?
Tags: ETH::2._Semester::Analysis::1._Logik,_Mengen,_Zahlen::3._Zahlen::4._Komplexe_Zahlen::5._Komplexe_Polynome

Note 37: ETH::2. Semester::Analysis

Deck: ETH::2. Semester::Analysis
Note Type: Horvath Cloze
GUID: kUJh#91|>(
modified

Before

Front

ETH::2._Semester::Analysis::2._Folgen::1._Folgen::1._Properties
Eine Folge nennen wir monoton fallend/monoton wachsend falls gilt {{c1::\[ \forall n, m \in \mathbb{N}_0 \ : \ m > n \implies a_m \le a_n \]}} respektive {{c1::\[ \forall n, m \in \mathbb{N}_0 \ : \ m > n \implies a_m >
\ge a_n \]}}

Back

ETH::2._Semester::Analysis::2._Folgen::1._Folgen::1._Properties
Eine Folge nennen wir monoton fallend/monoton wachsend falls gilt {{c1::\[ \forall n, m \in \mathbb{N}_0 \ : \ m > n \implies a_m \le a_n \]}} respektive {{c1::\[ \forall n, m \in \mathbb{N}_0 \ : \ m > n \implies a_m >
\ge a_n \]}}

After

Front

ETH::2._Semester::Analysis::2._Folgen::1._Folgen::1._Properties
Eine Folge nennen wir monoton fallend/wachsend, falls gilt {{c1::\[ \forall n, m \in \mathbb{N}_0 \ : \ m > n \implies a_m \le a_n \]}} beziehungsweise {{c1::\[ \forall n, m \in \mathbb{N}_0 \ : \ m > n \implies a_m \ge a_n }}\]

Back

ETH::2._Semester::Analysis::2._Folgen::1._Folgen::1._Properties
Eine Folge nennen wir monoton fallend/wachsend, falls gilt {{c1::\[ \forall n, m \in \mathbb{N}_0 \ : \ m > n \implies a_m \le a_n \]}} beziehungsweise {{c1::\[ \forall n, m \in \mathbb{N}_0 \ : \ m > n \implies a_m \ge a_n }}\]
Field-by-field Comparison
Field Before After
Text Eine Folge nennen wir <b>monoton fallend/monoton wachsend</b>&nbsp;falls gilt {{c1::\[ \forall n, m \in \mathbb{N}_0 \ : \ m &gt; n \implies a_m \le a_n \]}} respektive {{c1::\[ \forall n, m \in \mathbb{N}_0 \ : \ m &gt; n \implies a_m &gt;<div>\ge a_n \]}}</div> Eine Folge nennen wir <b>monoton fallend/wachsend,</b>&nbsp;falls gilt {{c1::\[ \forall n, m \in \mathbb{N}_0 \ : \ m &gt; n \implies a_m \le a_n \]}} beziehungsweise {{c1::\[ \forall n, m \in \mathbb{N}_0 \ : \ m &gt; n \implies a_m \ge a_n }}\]
Tags: ETH::2._Semester::Analysis::2._Folgen::1._Folgen::1._Properties

Note 38: ETH::2. Semester::PProg

Deck: ETH::2. Semester::PProg
Note Type: Horvath Cloze
GUID: #G4wpQ?X^2
modified

Before

Front

ETH::2._Semester::PProg::07._Concepts::2._Parallel_performance
In practice, \(T_p\) \(> T_1/p\) because of synchronization overhead, scheduling overhead, load imbalance, and memory contention.

Back

ETH::2._Semester::PProg::07._Concepts::2._Parallel_performance
In practice, \(T_p\) \(> T_1/p\) because of synchronization overhead, scheduling overhead, load imbalance, and memory contention.

Perfect efficiency (E = 1, S_p = p) is rarely achievable. Sub-linear speedup is the normal situation; super-linear is exceptional.

After

Front

ETH::2._Semester::PProg::07._Concepts::2._Parallel_performance
In practice, \(T_p\) \(> T_1/p\) because of synchronization overhead, scheduling overhead, load imbalance, and memory contention.

Back

ETH::2._Semester::PProg::07._Concepts::2._Parallel_performance
In practice, \(T_p\) \(> T_1/p\) because of synchronization overhead, scheduling overhead, load imbalance, and memory contention.

Perfect efficiency (\(E = 1,\ S_p = p\)) is rarely achievable. Sub-linear speedup is the normal situation; super-linear is exceptional.
Field-by-field Comparison
Field Before After
Text In practice, \(T_p\) {{c1::\(&gt; T_1/p\)::bound}} because of {{c2::synchronization overhead, scheduling overhead, load imbalance, and memory contention}}. In practice, \(T_p\) \(&gt; {{c1::T_1/p}}\)&nbsp;because of {{c2::synchronization overhead, scheduling overhead, load imbalance, and memory contention}}.
Extra Perfect efficiency (E = 1, S_p = p) is rarely achievable. Sub-linear speedup is the normal situation; super-linear is exceptional. Perfect efficiency (\(E = 1,\ S_p = p\)) is rarely achievable. Sub-linear speedup is the normal situation; super-linear is exceptional.
Tags: ETH::2._Semester::PProg::07._Concepts::2._Parallel_performance

Note 39: ETH::2. Semester::PProg

Deck: ETH::2. Semester::PProg
Note Type: Horvath Cloze
GUID: $lOO8/w@3@
modified

Before

Front

ETH::2._Semester::PProg::05._Java_Threads::2._synchronized
A static synchronized method acquires a lock on the Class object (MyClass.class) — a global (class-level) lock, shared across all instances.

Back

ETH::2._Semester::PProg::05._Java_Threads::2._synchronized
A static synchronized method acquires a lock on the Class object (MyClass.class) — a global (class-level) lock, shared across all instances.

A non-static synchronized method locks this (the instance). The two locks are independent — a static and a non-static synchronized method on the same class can execute concurrently.

After

Front

ETH::2._Semester::PProg::05._Java_Threads::2._synchronized
A static synchronized method acquires a lock on the Class object (MyClass.class).

Back

ETH::2._Semester::PProg::05._Java_Threads::2._synchronized
A static synchronized method acquires a lock on the Class object (MyClass.class).

This is a global (class-level) lock, shared across all instances.

A non-static synchronized method locks this (the instance). The two locks are independent — a static and a non-static synchronized method on the same class can execute concurrently.
Field-by-field Comparison
Field Before After
Text A <code>static synchronized</code> method acquires a lock on {{c1::the <code>Class</code> object (<code>MyClass.class</code>)}} — a {{c2::global (class-level) lock}}, shared across all instances. A <code>static synchronized</code> method acquires a lock on {{c1::the <code>Class</code> object (<code>MyClass.class</code>)}}.
Extra A non-static <code>synchronized</code> method locks <code>this</code> (the instance). The two locks are independent — a static and a non-static synchronized method on the same class can execute concurrently. This is a global (class-level) lock, shared across all instances.<br><br>A non-static <code>synchronized</code> method locks <code>this</code> (the instance). The two locks are independent — a static and a non-static synchronized method on the same class can execute concurrently.
Tags: ETH::2._Semester::PProg::05._Java_Threads::2._synchronized

Note 40: ETH::2. Semester::PProg

Deck: ETH::2. Semester::PProg
Note Type: Horvath Classic
GUID: )Ln/^}M1}?
modified

Before

Front

ETH::2._Semester::PProg::07._Concepts::2._Parallel_performance
Under what conditions does Amdahl's bound \(S_p \leq \frac{1}{f + (1-f)/p}\) become an equality?

Back

ETH::2._Semester::PProg::07._Concepts::2._Parallel_performance
Under what conditions does Amdahl's bound \(S_p \leq \frac{1}{f + (1-f)/p}\) become an equality?

The bound is achieved when:
  • (1) the parallel part scales perfectly (no synchronization overhead, no load imbalance), 
  • (2) \(T_p = f \cdot T_1 + \frac{(1-f) \cdot T_1}{p}\) exactly. 
In practice the bound is never reached, Amdahl gives an idealized upper bound, not a prediction.

After

Front

ETH::2._Semester::PProg::07._Concepts::2._Parallel_performance
Under which conditions does Amdahl's bound \(S_p \leq \frac{1}{f + (1-f)/p}\) become an equality?

Back

ETH::2._Semester::PProg::07._Concepts::2._Parallel_performance
Under which conditions does Amdahl's bound \(S_p \leq \frac{1}{f + (1-f)/p}\) become an equality?

When the parallel part scales perfectly, i.e. there is no synchronization overhead and no load imbalance, so that \(T_p = f \cdot T_1 + \frac{(1-f) \cdot T_1}{p}\) holds exactly.

 In practice this is never reached - Amdahl gives an idealized upper bound, not a prediction.
Field-by-field Comparison
Field Before After
Front Under what conditions does Amdahl's bound \(S_p \leq \frac{1}{f + (1-f)/p}\) become an <b>equality</b>? Under which conditions does Amdahl's bound \(S_p \leq \frac{1}{f + (1-f)/p}\) become an <b>equality</b>?
Back The bound is achieved when:<br><ul><li>(1) the parallel part scales <b>perfectly</b> (no synchronization overhead, no load imbalance),&nbsp;</li><li>(2) \(T_p = f \cdot T_1 + \frac{(1-f) \cdot T_1}{p}\) exactly.&nbsp;</li></ul>In practice the bound is never reached, Amdahl gives an idealized <b>upper bound</b>, not a prediction. <b>When the parallel part scales perfectly,</b> i.e. there is no synchronization overhead and no load imbalance, so that \(T_p = f \cdot T_1 + \frac{(1-f) \cdot T_1}{p}\) holds exactly. <br><br>&nbsp;In practice this is never reached - Amdahl gives an idealized upper bound, not a prediction.
Tags: ETH::2._Semester::PProg::07._Concepts::2._Parallel_performance

Note 41: ETH::2. Semester::PProg

Deck: ETH::2. Semester::PProg
Note Type: Horvath Classic
GUID: )|$CP#Zb3O
modified

Before

Front

ETH::2._Semester::PProg::05._Java_Threads::3._Wait,_Notify,_NotifyAll
What is a "lost notification" and when does it occur?

Back

ETH::2._Semester::PProg::05._Java_Threads::3._Wait,_Notify,_NotifyAll
What is a "lost notification" and when does it occur?

If notify() is called before any thread has called wait(), the notification is silently discarded — it is not buffered. Any thread that subsequently calls wait() will block indefinitely. Fix: always protect the condition with a flag variable and check it before waiting.

After

Front

ETH::2._Semester::PProg::05._Java_Threads::3._Wait,_Notify,_NotifyAll
What is a "lost notification" and when does it occur?

Back

ETH::2._Semester::PProg::05._Java_Threads::3._Wait,_Notify,_NotifyAll
What is a "lost notification" and when does it occur?

If notify() is called before any thread has called wait(). The notification simply is discarded.

Any thread that subsequently calls wait() will block indefinitely. Fix: always protect the condition with a flag variable and check it before waiting.
Field-by-field Comparison
Field Before After
Back If <code>notify()</code> is called <b>before</b> any thread has called <code>wait()</code>, the notification is silently discarded — it is <b>not buffered</b>. Any thread that subsequently calls <code>wait()</code> will block indefinitely. Fix: always protect the condition with a flag variable and check it before waiting. If <code>notify()</code> is called before any thread has called <code>wait()</code>. The notification simply is discarded.<br><br>Any thread that subsequently calls <code>wait()</code> will block indefinitely. Fix: always protect the condition with a flag variable and check it before waiting.
Tags: ETH::2._Semester::PProg::05._Java_Threads::3._Wait,_Notify,_NotifyAll

Note 42: ETH::2. Semester::PProg

Deck: ETH::2. Semester::PProg
Note Type: Horvath Classic
GUID: //c-)1n-D%
modified

Before

Front

ETH::2._Semester::PProg::05._Java_Threads::3._Wait,_Notify,_NotifyAll
Why must wait() always be called inside a while loop, not an if?

Back

ETH::2._Semester::PProg::05._Java_Threads::3._Wait,_Notify,_NotifyAll
Why must wait() always be called inside a while loop, not an if?

Because of spurious wakeups — a thread can wake from wait() without notify() ever being called (allowed by the JVM for performance reasons). If the condition is checked only once with if, the thread proceeds even when the condition is still false. A while loop re-checks the condition after every wakeup.

After

Front

ETH::2._Semester::PProg::05._Java_Threads::3._Wait,_Notify,_NotifyAll
Why must wait() always be called inside a while loop, not an if?

Back

ETH::2._Semester::PProg::05._Java_Threads::3._Wait,_Notify,_NotifyAll
Why must wait() always be called inside a while loop, not an if?

Because of spurious wakeups. 

A thread can wake from wait() without notify() ever being called (allowed by the JVM for performance reasons).

If the condition is checked only once with if, the thread proceeds even when the condition is still false. A while loop re-checks the condition after every wakeup.
Field-by-field Comparison
Field Before After
Back Because of <b>spurious wakeups</b> — a thread can wake from <code>wait()</code> without <code>notify()</code> ever being called (allowed by the JVM for performance reasons). If the condition is checked only once with <code>if</code>, the thread proceeds even when the condition is still false. A <code>while</code> loop re-checks the condition after every wakeup. Because of <b>spurious wakeups.</b>&nbsp;<br><br>A thread can wake from <code>wait()</code> without <code>notify()</code> ever being called (allowed by the JVM for performance reasons). <br><br>If the condition is checked only once with <code>if</code>, the thread proceeds even when the condition is still false. A <code>while</code> loop re-checks the condition after every wakeup.
Tags: ETH::2._Semester::PProg::05._Java_Threads::3._Wait,_Notify,_NotifyAll

Note 43: ETH::2. Semester::PProg

Deck: ETH::2. Semester::PProg
Note Type: Horvath Cloze
GUID: 1(+0hH>|3h
modified

Before

Front

ETH::2._Semester::PProg::10._Parallel_Algorithms::1._Task_graphs_and_performance_measures
A Fork/Join task graph (DAG) is dynamic, it unfolds as execution proceeds, since which tasks are spawned depends on runtime values.

Back

ETH::2._Semester::PProg::10._Parallel_Algorithms::1._Task_graphs_and_performance_measures
A Fork/Join task graph (DAG) is dynamic, it unfolds as execution proceeds, since which tasks are spawned depends on runtime values.

Independent nodes in the DAG can but do not have to execute in parallel — it depends on the scheduler and available threads.

After

Front

ETH::2._Semester::PProg::10._Parallel_Algorithms::1._Task_graphs_and_performance_measures
A Fork/Join task graph (DAG) is dynamic (it unfolds as execution proceeds), since which tasks are spawned depends on runtime parameters (e.g. input size).

Back

ETH::2._Semester::PProg::10._Parallel_Algorithms::1._Task_graphs_and_performance_measures
A Fork/Join task graph (DAG) is dynamic (it unfolds as execution proceeds), since which tasks are spawned depends on runtime parameters (e.g. input size).

Independent nodes in the DAG can but do not have to execute in parallel. This always depends on the scheduler and available threads.
Field-by-field Comparison
Field Before After
Text A Fork/Join task graph (DAG) is {{c1::dynamic, it unfolds as execution proceeds}}, since {{c2::which tasks are spawned depends on runtime values}}. A Fork/Join task graph (DAG) is {{c1::dynamic (it unfolds as execution proceeds)}}, since {{c2::which tasks are spawned depends on runtime parameters (e.g. input size)}}.
Extra Independent nodes in the DAG <i>can</i> but do not <i>have to</i>&nbsp;execute in parallel — it depends on the scheduler and available threads. Independent nodes in the DAG <i>can</i> but do not <i>have to</i>&nbsp;execute in parallel. This always depends on the scheduler and available threads.
Tags: ETH::2._Semester::PProg::10._Parallel_Algorithms::1._Task_graphs_and_performance_measures

Note 44: ETH::2. Semester::PProg

Deck: ETH::2. Semester::PProg
Note Type: Horvath Cloze
GUID: 3h>LP|0z)0
modified

Before

Front

ETH::2._Semester::PProg::09._Divide_and_conquer::4._Java's_ForkJoin_framework
In a RecursiveTask, you should fork() one subtask and  compute() the other directly in the current thread (rather than forking both).

Back

ETH::2._Semester::PProg::09._Divide_and_conquer::4._Java's_ForkJoin_framework
In a RecursiveTask, you should fork() one subtask and  compute() the other directly in the current thread (rather than forking both).

Forking both sides creates two new tasks and leaves the current thread idle waiting for both.
By calling compute() on one side directly, the current thread does useful work instead of idling - halving the number of tasks created and reducing scheduling overhead.
Always join() the forked task after compute() finishes.

After

Front

ETH::2._Semester::PProg::09._Divide_and_conquer::4._Java's_ForkJoin_framework
In a recursive task, you should fork() one subtask and  compute() the other directly in the current thread (rather than forking both).

Back

ETH::2._Semester::PProg::09._Divide_and_conquer::4._Java's_ForkJoin_framework
In a recursive task, you should fork() one subtask and  compute() the other directly in the current thread (rather than forking both).

Forking both sides creates two new tasks and leaves the current thread idle waiting for both.

By calling compute() on one side directly, the current thread does useful work instead of idling - halving the number of tasks created and reducing scheduling overhead.

Always join() the forked task after compute() finishes.
Field-by-field Comparison
Field Before After
Text In a RecursiveTask, you should&nbsp;<code>fork()</code> one subtask and {{c1::&nbsp;<code>compute()</code> the other directly in the current thread (rather than forking both)}}. In a recursive task, you should&nbsp;<code>fork()</code> one subtask and {{c1::&nbsp;<code>compute()</code> the other directly in the current thread (rather than forking both)}}.
Extra Forking both sides creates two new tasks and leaves the current thread idle waiting for both.<br>By calling <code>compute()</code> on one side directly, the current thread does useful work instead of idling - halving the number of tasks created and reducing scheduling overhead.<br>Always <code>join()</code> the forked task after <code>compute()</code> finishes. Forking both sides creates two new tasks and leaves the current thread idle waiting for both.<br><br>By calling <code>compute()</code> on one side directly, the current thread does useful work instead of idling - halving the number of tasks created and reducing scheduling overhead.<br><br>Always <code>join()</code> the forked task after <code>compute()</code> finishes.
Tags: ETH::2._Semester::PProg::09._Divide_and_conquer::4._Java's_ForkJoin_framework

Note 45: ETH::2. Semester::PProg

Deck: ETH::2. Semester::PProg
Note Type: Horvath Cloze
GUID: 6X!+L
modified

Before

Front

ETH::2._Semester::PProg::06._Parallel_Architecture::3._Pipelining
Pipeline throughput bound (infinite stream, one execution unit per stage) \(= {{c1::\dfrac{1}{\max_i(\text{stage_time}_i)} }}\)

Back

ETH::2._Semester::PProg::06._Parallel_Architecture::3._Pipelining
Pipeline throughput bound (infinite stream, one execution unit per stage) \(= {{c1::\dfrac{1}{\max_i(\text{stage_time}_i)} }}\)

Throughput is limited by the slowest (bottleneck) stage. For a balanced pipeline all stage times are equal, so throughput = 1/stage_time.

After

Front

ETH::2._Semester::PProg::06._Parallel_Architecture::3._Pipelining
Pipeline throughput bound \(= {{c1::\dfrac{1}{\max_i(\text{stage_time}_i)} }}\)

(infinite stream, one execution unit per stage)

Back

ETH::2._Semester::PProg::06._Parallel_Architecture::3._Pipelining
Pipeline throughput bound \(= {{c1::\dfrac{1}{\max_i(\text{stage_time}_i)} }}\)

(infinite stream, one execution unit per stage)

Throughput is limited by the slowest (bottleneck) stage. For a balanced pipeline all stage times are equal, so throughput = 1/stage_time.
Field-by-field Comparison
Field Before After
Text Pipeline throughput bound (infinite stream, one execution unit per stage) \(= {{c1::\dfrac{1}{\max_i(\text{stage_time}_i)} }}\) Pipeline throughput bound&nbsp;\(= {{c1::\dfrac{1}{\max_i(\text{stage_time}_i)} }}\)<br><br>(infinite stream, one execution unit per stage)
Tags: ETH::2._Semester::PProg::06._Parallel_Architecture::3._Pipelining

Note 46: ETH::2. Semester::PProg

Deck: ETH::2. Semester::PProg
Note Type: Horvath Cloze
GUID:
modified

Before

Front

ETH::2._Semester::PProg::10._Parallel_Algorithms::3._Parallel_algorithms
Pack has \(O(n)\) work and \(O(\log n)\) span.

Back

ETH::2._Semester::PProg::10._Parallel_Algorithms::3._Parallel_algorithms
Pack has \(O(n)\) work and \(O(\log n)\) span.

Each of the 3 steps (flag, prefix sum, scatter) is O(n) work and O(log n) span. The steps can be partially combined without changing asymptotic complexity.

After

Front

ETH::2._Semester::PProg::10._Parallel_Algorithms::3._Parallel_algorithms
Pack has \(O(n)\) work and \(O(\log n)\) span.

Back

ETH::2._Semester::PProg::10._Parallel_Algorithms::3._Parallel_algorithms
Pack has \(O(n)\) work and \(O(\log n)\) span.

Each of the 3 steps (flag, prefix sum, scatter) is \(O(n)\) work and \(O(\log n)\) span.

The steps can be partially combined without changing asymptotic complexity.
Field-by-field Comparison
Field Before After
Text Pack has {{c1::\(O(n)\) work}} and {{c1::\(O(\log n)\) span}}. Pack has \(O({{c1::n}})\) work and \(O({{c1::\log n}})\) span.
Extra Each of the 3 steps (flag, prefix sum, scatter) is O(n) work and O(log n) span. The steps can be partially combined without changing asymptotic complexity. Each of the 3 steps (flag, prefix sum, scatter) is&nbsp;\(O(n)\)&nbsp;work and&nbsp;\(O(\log n)\)&nbsp;span. <br><br>The steps can be partially combined without changing asymptotic complexity.
Tags: ETH::2._Semester::PProg::10._Parallel_Algorithms::3._Parallel_algorithms

Note 47: ETH::2. Semester::PProg

Deck: ETH::2. Semester::PProg
Note Type: Horvath Cloze
GUID: ?aiVa43NDU
modified

Before

Front

ETH::2._Semester::PProg::10._Parallel_Algorithms::2._Parallel_patterns
Summing an array of n elements in parallel has work \(O(n)\), span \(O(\log n)\), and parallelism \(O(n / \log n)\).

Back

ETH::2._Semester::PProg::10._Parallel_Algorithms::2._Parallel_patterns
Summing an array of n elements in parallel has work \(O(n)\), span \(O(\log n)\), and parallelism \(O(n / \log n)\).

Work = O(n) (same as sequential).
Span = O(log n) (tree depth).
Parallelism = work/span = O(n/log n), meaning you benefit from up to O(n/log n) processors before hitting the span bottleneck.

After

Front

ETH::2._Semester::PProg::10._Parallel_Algorithms::2._Parallel_patterns
Summing an array of n elements in parallel has work \(O(n)\), span \(O(\log n)\), and parallelism \(O(n / \log n)\).

Back

ETH::2._Semester::PProg::10._Parallel_Algorithms::2._Parallel_patterns
Summing an array of n elements in parallel has work \(O(n)\), span \(O(\log n)\), and parallelism \(O(n / \log n)\).

Work = \(O(n)\) (same as sequential).
Span = \(O(\log n)\) (tree depth).
Parallelism = work/span = \(O(n/\log n)\), meaning you benefit from up to \(O(n/\log n)\) processors before hitting the span bottleneck.
Field-by-field Comparison
Field Before After
Text Summing an array of n elements in parallel has work \({{c1::O(n)}}\), span \({{c2::O(\log n)}}\), and parallelism \({{c3::O(n / \log n)}}\). Summing an array of n elements in parallel has work&nbsp;\(O({{c1::n}})\),&nbsp;span&nbsp;\(O({{c2::\log n}})\), and&nbsp;parallelism&nbsp;\(O({{c3::n / \log n}})\).
Extra Work = O(n) (same as sequential). <br>Span = O(log n) (tree depth). <br>Parallelism = work/span = O(n/log n), meaning you benefit from up to O(n/log n) processors before hitting the span bottleneck. Work =&nbsp;\(O(n)\)&nbsp;(same as sequential). <br>Span =&nbsp;\(O(\log n)\)&nbsp;(tree depth). <br>Parallelism = work/span =&nbsp;\(O(n/\log n)\), meaning you benefit from up to&nbsp;\(O(n/\log n)\)&nbsp;processors before hitting the span bottleneck.
Tags: ETH::2._Semester::PProg::10._Parallel_Algorithms::2._Parallel_patterns

Note 48: ETH::2. Semester::PProg

Deck: ETH::2. Semester::PProg
Note Type: Horvath Cloze
GUID: I>a
modified

Before

Front

ETH::2._Semester::PProg::10._Parallel_Algorithms::2._Parallel_patterns
Reduction always achieve \(O(\log n)\) parallel time.

Back

ETH::2._Semester::PProg::10._Parallel_Algorithms::2._Parallel_patterns
Reduction always achieve \(O(\log n)\) parallel time.

After

Front

ETH::2._Semester::PProg::10._Parallel_Algorithms::2._Parallel_patterns
Reductions always achieve \(O(\log n)\) parallel time.

Back

ETH::2._Semester::PProg::10._Parallel_Algorithms::2._Parallel_patterns
Reductions always achieve \(O(\log n)\) parallel time.
Field-by-field Comparison
Field Before After
Text Reduction always achieve \(O({{c1::\log n}})\) parallel time. Reductions always achieve \(O({{c1::\log n}})\) parallel time.
Tags: ETH::2._Semester::PProg::10._Parallel_Algorithms::2._Parallel_patterns

Note 49: ETH::2. Semester::PProg

Deck: ETH::2. Semester::PProg
Note Type: Horvath Cloze
GUID: n1QrJ:]#vj
modified

Before

Front

ETH::2._Semester::PProg::10._Parallel_Algorithms::1._Task_graphs_and_performance_measures
FJ work stealing scheduler big O: \(T_p = O(T_1 / p + T_\infty)\)

Back

ETH::2._Semester::PProg::10._Parallel_Algorithms::1._Task_graphs_and_performance_measures
FJ work stealing scheduler big O: \(T_p = O(T_1 / p + T_\infty)\)

After

Front

ETH::2._Semester::PProg::10._Parallel_Algorithms::1._Task_graphs_and_performance_measures
FJ work stealing scheduler: \[T_p = O(T_1 / p + T_\infty)\]

Back

ETH::2._Semester::PProg::10._Parallel_Algorithms::1._Task_graphs_and_performance_measures
FJ work stealing scheduler: \[T_p = O(T_1 / p + T_\infty)\]
Field-by-field Comparison
Field Before After
Text FJ work stealing scheduler big O: \(T_p = {{c1::O(T_1 / p + T_\infty)}}\) FJ work stealing scheduler: \[T_p = O({{c1::T_1 / p + T_\infty}})\]
Tags: ETH::2._Semester::PProg::10._Parallel_Algorithms::1._Task_graphs_and_performance_measures
↑ Top