Bedingte Unabhängigkeit

Die bedingte Unabhängigkeit ist in der Wahrscheinlichkeitstheorie eine Verallgemeinerung der stochastischen Unabhängigkeit von Ereignissen, Mengensystemen und Zufallsvariablen mittels der bedingten Wahrscheinlichkeit und des bedingten Erwartungswertes. Die bedingte Unabhängigkeit findet beispielsweise Anwendung bei Aussagen über austauschbare Familien von Zufallsvariablen.

Definition

Gegeben sei ein Wahrscheinlichkeitsraum (\Omega ,\Sigma ,P), sowie eine Unter-σ-Algebra  \mathcal A von  \Sigma . Sei {\displaystyle P(\cdot |{\mathcal {A}})} die bedingte Wahrscheinlichkeit gegeben  \mathcal A .

Eine Familie von Teil-σ-Algebren {\displaystyle ({\mathcal {A}}_{i})_{i\in I}} von  \Sigma heißt bedingt unabhängig gegeben  \mathcal A , wenn für jede endliche Teilmenge  J von I und jede beliebige Wahl von  A_j \in \mathcal A_j mit j\in J gilt, dass

{\displaystyle P\left(\bigcap _{j\in J}A_{j}|{\mathcal {A}}\right)=\prod _{j\in J}P(A_{j}|{\mathcal {A}})}.

Aufgrund der Eigenschaften der bedingten Wahrscheinlichkeit ist die Identität als P-fast sicher zu verstehen.

Eine Familie von Zufallsvariablen (X_{i})_{{i\in I}} heißt bedingt unabhängig gegeben  \mathcal A , wenn die Familie der erzeugten σ-Algebren {\displaystyle (\sigma (X_{i}))_{i\in I}} bedingt unabhängig gegeben  \mathcal A ist.

Bemerkungen und Eigenschaften

Literatur

Trenner
Basierend auf einem Artikel in: Extern Wikipedia.de
Seitenende
Seite zurück
© biancahoegel.de
Datum der letzten Änderung: Jena, den: 24.01. 2021