 
Die Wahrscheinlichkeitstheorie oder Wahrscheinlichkeitsrechnung ist ein Teilgebiet der Mathematik, das aus der Formalisierung der Modellierung und der Untersuchung von Zufallsgeschehen hervorgegangen ist. Gemeinsam mit der mathematischen Statistik, die anhand von Beobachtungen zufälliger Vorgänge Aussagen über das zugrunde liegende Modell trifft, bildet sie das mathematische Teilgebiet der Stochastik. Die zentralen Objekte der Wahrscheinlichkeitstheorie sind zufällige Ereignisse, Zufallsvariablen und stochastische Prozesse.
Wie jedes Teilgebiet der modernen Mathematik wird auch die Wahrscheinlichkeitstheorie mengentheoretisch formuliert und auf axiomatischen Vorgaben aufgebaut. Ausgangspunkt der Wahrscheinlichkeitstheorie sind Ereignisse, die als Mengen aufgefasst werden und denen Wahrscheinlichkeiten zugeordnet sind; Wahrscheinlichkeiten sind reelle Zahlen zwischen 0 und 1; die Zuordnung von Wahrscheinlichkeiten zu Ereignissen muss gewissen Mindestanforderungen genügen.
Diese Definitionen geben keinen Hinweis darauf, wie man die Wahrscheinlichkeiten einzelner Ereignisse ermitteln kann; sie sagen auch nichts darüber aus, was Zufall und was Wahrscheinlichkeit eigentlich sind. Die mathematische Formulierung der Wahrscheinlichkeitstheorie ist somit für verschiedene Interpretationen offen, ihre Ergebnisse sind dennoch exakt und vom jeweiligen Verständnis des Wahrscheinlichkeitsbegriffs unabhängig.
Konzeptionell wird als Grundlage der mathematischen Betrachtung von einem 
Zufallsvorgang oder Zufallsexperiment 
ausgegangen. Alle möglichen Ergebnisse dieses Zufallsvorgangs fasst man in der 
Ergebnismenge  
zusammen. Häufig interessiert man sich jedoch gar nicht für das genaue Ergebnis 
, 
sondern nur dafür, ob es in einer bestimmten Teilmenge der Ergebnismenge liegt 
was so interpretiert werden kann, dass ein Ereignis eingetreten ist oder nicht. 
Ein Ereignis ist also als eine Teilmenge 
von 
 
definiert. Enthält das Ereignis genau ein Element der Ergebnismenge, handelt es 
sich um ein Elementarereignis. 
Zusammengesetzte Ereignisse enthalten mehrere Ergebnisse. Das Ergebnis ist also 
ein Element der Ergebnismenge, das Ereignis jedoch eine Teilmenge.
Damit man den Ereignissen in sinnvoller Weise Wahrscheinlichkeiten zuordnen 
kann, werden sie in einem Mengensystem aufgeführt, der Ereignisalgebra oder dem 
Ereignissystem  
über 
, 
einer Menge von Teilmengen von 
, 
für die gilt: Sie enthält 
 
und ist ein σ-Körper, 
d.h., sie ist gegenüber den Mengenoperationen der Vereinigung und der 
Komplementbildung (relativ bzgl. 
) 
abgeschlossen genauso wie gegenüber der unendlichen Vereinigung abzählbar vieler 
Mengen. Die Wahrscheinlichkeiten sind dann Bilder einer gewissen Abbildung 
 
des Ereignisraums in das Intervall [0,1]. Solch eine Abbildung heißt Wahrscheinlichkeitsmaß. 
Das Tripel 
 
wird als Wahrscheinlichkeitsraum 
bezeichnet.
Die axiomatische Begründung der Wahrscheinlichkeitstheorie wurde in den 1930er Jahren von Andrei Nikolajewitsch Kolmogorow entwickelt. Ein Wahrscheinlichkeitsmaß muss demnach folgende drei Axiome erfüllen:
Axiome:
Beispiel: Im Rahmen einer physikalischen Modellbildung wird ein Wahrscheinlichkeitsmaß zur Beschreibung des Ergebnisses eines Münzwurfes angesetzt, die möglichen Ergebnisse (Ereignisse genannt) mögen Zahl und Kopf lauten.
Zusätzliche physikalische Annahmen über die Beschaffenheit der Münze können 
nun etwa zur Wahl  
führen.
Aus den Axiomen ergeben sich unmittelbar einige Folgerungen:
1. Aus der Additivität der Wahrscheinlichkeit disjunkter Ereignisse folgt, 
dass komplementäre Ereignisse (Gegenereignisse) komplementäre 
Wahrscheinlichkeiten (Gegenwahrscheinlichkeiten) haben: .
2. Daraus folgt, dass das unmögliche Ereignis, die leere Menge, die 
Wahrscheinlichkeit Null hat: .
3. Für die Vereinigung nicht notwendig disjunkter Ereignisse folgt: .


Im Weiteren ist zwischen abzählbaren und überabzählbaren Ergebnismengen zu unterscheiden.
 
 
Bei einer abzählbaren Ergebnismenge kann jedem Elementarereignis eine 
positive Wahrscheinlichkeit zugewiesen werden. Wenn  
endlich oder abzählbar unendlich ist, kann man für die σ-Algebra 
 
die Potenzmenge von 
 
wählen. Die Summe der Wahrscheinlichkeiten aller Elementarereignisse aus 
 
ist hier 1.
 
 
Ein Prototyp einer überabzählbaren Ergebnismenge ist die Menge der reellen 
Zahlen. In vielen Modellen ist es nicht möglich, allen Teilmengen der 
reellen Zahlen sinnvoll eine Wahrscheinlichkeit zuzuordnen. Als Ereignissystem 
wählt man statt der Potenzmenge der reellen Zahlen hier meist die Borelsche 
σ-Algebra, das ist die kleinste σ-Algebra, die alle Intervalle von reellen 
Zahlen als Elemente enthält. Die Elemente dieser σ-Algebra nennt man Borelsche 
Mengen oder auch (Borel)-messbar. 
Wenn die Wahrscheinlichkeit  
jeder Borelschen Menge 
 
als Integral
über eine Wahrscheinlichkeitsdichte 
 
geschrieben werden kann, wird 
 
absolut 
stetig genannt. In diesem Fall (aber nicht nur in diesem) haben alle 
Elementarereignisse {x} die Wahrscheinlichkeit 0. Die Wahrscheinlichkeitsdichte 
eines absolut stetigen Wahrscheinlichkeitsmaßes 
 
ist nur fast überall eindeutig bestimmt, d.h., sie kann auf einer 
beliebigen Lebesgue-Nullmenge, 
also einer Menge vom Lebesgue-Maß 
0, abgeändert werden, ohne dass 
 
verändert wird. Wenn die erste Ableitung der Verteilungsfunktion 
von 
 
existiert, so ist sie eine Wahrscheinlichkeitsdichte von P. Die Werte der 
Wahrscheinlichkeitsdichte werden jedoch nicht als Wahrscheinlichkeiten 
interpretiert.
Wenn man annimmt, dass nur endlich viele Elementarereignisse 
möglich und alle gleichberechtigt sind, d.h. mit der gleichen 
Wahrscheinlichkeit eintreten (wie zum Beispiel beim Werfen einer idealen Münze, 
wobei {Zahl} und {Kopf} jeweils die Wahrscheinlichkeit 0,5 besitzen), so spricht 
man von einem Laplace-Experiment. 
Dann lassen sich Wahrscheinlichkeiten einfach berechnen: Wir nehmen eine 
endliche Ergebnismenge  
an, die die Mächtigkeit 
 
besitzt, d.h., sie hat 
 
Elemente. Dann ist die Wahrscheinlichkeit jedes Elementarereignisses einfach 
.
Als Konsequenz folgt, dass für Ereignisse, die sich aus mehreren 
Elementarereignissen zusammensetzen, die entsprechend vielfache 
Wahrscheinlichkeit gilt. Ist  
ein Ereignis der Mächtigkeit 
, 
so ist 
 
die Vereinigung von 
 
Elementarereignissen. Jedes davon hat die Wahrscheinlichkeit 
, 
also ist 
. 
Man erhält also den einfachen Zusammenhang
Bei Laplace-Versuchen ist die Wahrscheinlichkeit eines Ereignisses gleich der Zahl der für dieses Ereignis günstigen Ergebnisse, dividiert durch die Zahl der insgesamt möglichen Ergebnisse.
Nachstehend ein Beispiel beim Würfeln mit einem idealen Würfel.
Das Ereignis  
= Hohe Augenzahl (5 oder 6) hat die Wahrscheinlichkeit 1/3.
Ein typischer Laplace-Versuch ist auch das Ziehen einer Karte aus einem Spiel 
mit  
Karten oder das Ziehen einer Kugel aus einer Urne 
mit 
 
Kugeln. Hier hat jedes Elementarereignis die gleiche Wahrscheinlichkeit. Um die 
Anzahl der Elementarereignisse bei Laplace-Versuchen zu bestimmen, werden häufig 
Methoden der Kombinatorik 
verwendet.
Das Konzept der Laplace-Experimente lässt sich auf den Fall einer stetigen Gleichverteilung verallgemeinern.
Unter einer bedingten 
Wahrscheinlichkeit versteht man die Wahrscheinlichkeit für das Eintreten 
eines Ereignisses  
unter der Voraussetzung, dass das Eintreten eines anderen Ereignisses 
 
bereits bekannt ist. Natürlich muss 
 
eintreten können, es darf also nicht das unmögliche Ereignis sein. Man schreibt 
dann 
 
oder seltener 
 
für „Wahrscheinlichkeit von 
 
unter der Voraussetzung 
“, 
kurz „
 
von 
, 
vorausgesetzt 
“.
Beispiel: Die Wahrscheinlichkeit, aus einem Skatblatt 
eine Herz-Karte zu ziehen (Ereignis ), 
beträgt 1/4, denn es gibt 32 Karten und darunter 8 Herz-Karten. Dann ist 
. 
Das Gegenereignis ist dann Karo, Pik oder Kreuz und hat deshalb die 
Wahrscheinlichkeit 
.

Wenn nun aber bereits das Ereignis  
„Die Karte ist rot“ eingetreten ist (es wurde eine Herz- oder Karo-Karte 
gezogen, es ist aber nicht bekannt, welche der beiden Farben), man also nur noch 
die Auswahl unter den 16 roten Karten hat, dann ist 
 
die Wahrscheinlichkeit, dass es sich dann um das Herz-Blatt handelt.
Diese Überlegung galt für einen Laplaceversuch. Für den allgemeinen Fall 
definiert man die bedingte Wahrscheinlichkeit von „, 
vorausgesetzt 
“ 
als
Dass diese Definition sinnvoll ist, zeigt sich daran, dass die so definierte 
Wahrscheinlichkeit den Axiomen von Kolmogorow genügt, wenn man sich auf  
als neue Ergebnismenge beschränkt; d.h., dass gilt:
Beweis:
Beispiel: Es sei wie oben  
das Ereignis „Ziehen einer Herz-Karte“ und 
 
das Ereignis „Es ist eine rote Karte“. Dann ist:
und
Folglich gilt:
Aus der Definition der bedingten Wahrscheinlichkeit ergeben sich folgende Konsequenzen:
Das gleichzeitige Eintreten zweier Ereignisse  
und 
 
entspricht mengentheoretisch dem Eintreten des Verbund-Ereignisses 
. 
Die Wahrscheinlichkeit hiervon berechnet sich zur gemeinsamen 
Wahrscheinlichkeit oder Verbundwahrscheinlichkeit
Beweis: Nach Definition der bedingten Wahrscheinlichkeit ist einerseits
und andererseits auch
Umstellen nach  
liefert dann sofort die Behauptung.
Beispiel: Es wird eine Karte aus 32 Karten gezogen.  
sei das Ereignis: „Es ist ein König“. 
 
sei das Ereignis: „Es ist eine Herz-Karte“. Dann ist 
 
das gleichzeitige Eintreten von 
 
und 
, 
also das Ereignis: „Die gezogene Karte ist ein Herz-König“. Offenbar ist 
. 
Ferner ist 
, 
denn es gibt nur eine Herz-Karte unter den vier Königen. Und in der Tat ist dann 
 
die Wahrscheinlichkeit für den Herz-König.
Die bedingte Wahrscheinlichkeit von  
unter der Bedingung 
 
lässt sich durch die bedingte Wahrscheinlichkeit von 
 
unter der Bedingung 
 
durch
ausdrücken, wenn man die totalen 
Wahrscheinlichkeiten  
und 
 
kennt (Satz 
von Bayes).
Ereignisse nennt man unabhängig voneinander, wenn das Eintreten des einen die Wahrscheinlichkeit des anderen nicht beeinflusst. Im umgekehrten Fall nennt man sie abhängig. Man definiert:
Dass dies dem Begriff „Unabhängigkeit“ gerecht wird, erkennt man durch 
Umstellen nach :
Das bedeutet: Die totale Wahrscheinlichkeit für  
ist ebenso groß wie die Wahrscheinlichkeit für 
, 
vorausgesetzt 
; 
das Eintreten von 
 
beeinflusst also die Wahrscheinlichkeit von 
 
nicht.
Beispiel: Es wird eine aus 32 Karten gezogen.  
sei das Ereignis „Es ist eine Herz-Karte“. 
 
sei das Ereignis „Es ist eine Bild-Karte“. Diese Ereignisse sind unabhängig, 
denn das Wissen, dass man eine Bild-Karte zieht, beeinflusst nicht die 
Wahrscheinlichkeit, dass es eine Herz-Karte ist (Der Anteil der Herz-Karten 
unter den Bilder-Karten ist ebenso groß wie der Anteil der Herz-Karten an allen 
Karten). Offenbar ist 
 
und 
. 
 
ist das Ereignis „Es ist eine Herz-Bildkarte“. Da es davon drei gibt, ist 
. 
Und in der Tat stellt man fest, dass 
 
ist.
Die klassische Wahrscheinlichkeitsrechnung betrachtet nur Wahrscheinlichkeiten auf diskreten Wahrscheinlichkeitsräumen und stetige Modelle mit Dichtefunktionen. Diese beiden Ansätze lassen sich durch die moderne Formulierung der Wahrscheinlichkeitstheorie, die auf den Konzepten und Ergebnissen der Maß- und Integrationstheorie beruht, vereinheitlichen und verallgemeinern.
In dieser Sichtweise ist ein Wahrscheinlichkeitsraum  
ein Maßraum 
mit einem Wahrscheinlichkeitsmaß 
. 
Das bedeutet, die Ergebnismenge 
 
ist eine beliebige Menge, der Ereignisraum 
 
ist eine σ-Algebra 
mit Grundmenge 
 
und 
 
ist ein Maß, 
das durch 
 
normiert ist.
Wichtige Standardfälle von Wahrscheinlichkeitsräumen sind:
Eine Zufallsvariable ist das mathematische Konzept für eine Größe, deren Wert 
vom Zufall abhängig ist. Aus maßtheoretischer Sicht handelt es sich um eine messbare Funktion 
 
auf einem Wahrscheinlichkeitsraum 
 
in einen Messraum 
 
bestehend aus einer Menge 
 
und einer σ-Algebra 
 
auf 
. 
Messbarkeit bedeutet dabei, dass für alle 
 
das Urbild 
 
ein Element der σ-Algebra 
 
ist. Die Verteilung 
von 
 
ist dann nichts anderes als das Bildmaß
das von  
auf dem Messraum 
 
induziert wird und diesen zu einem Wahrscheinlichkeitsraum 
 
macht.
Der Erwartungswert 
einer reellwertigen Zufallsvariable  
mittelt die möglichen Ergebnisse. Er lässt sich abstrakt definieren als Integral von 
 
bezüglich des Wahrscheinlichkeitsmaßes 
:
Wahrscheinlichkeitstheorie und mathematische Statistik werden zusammenfassend auch als Stochastik bezeichnet. Beide Gebiete stehen in enger wechselseitiger Beziehung:
Die Wahrscheinlichkeitstheorie entstand aus dem Problem der gerechten Verteilung des Einsatzes bei abgebrochenen Glücksspielen. Auch andere frühe Anwendungen stammen aus dem Bereich des Glücksspiels.
Heute ist die Wahrscheinlichkeitstheorie eine Grundlage der mathematischen Statistik. Die angewandte Statistik nutzt Ergebnisse der Wahrscheinlichkeitstheorie, um Umfrageergebnisse zu analysieren oder Wirtschaftsprognosen zu erstellen.
Große Bereiche der Physik wie die Thermodynamik und die Quantenmechanik nutzen die Wahrscheinlichkeitstheorie zur theoretischen Beschreibung ihrer Resultate.
Sie ist ferner die Grundlage für mathematische Disziplinen wie die Zuverlässigkeitstheorie, die Erneuerungstheorie und die Warteschlangentheorie und das Werkzeug zur Analyse in diesen Bereichen.
Auch in der Mustererkennung ist die Wahrscheinlichkeitstheorie von zentraler Bedeutung.

 Wikipedia.de
 
    Wikipedia.de
