7.5 Erwartungswert, Varianz

Transcription

7.5 Erwartungswert, Varianz
7.5
Erwartungswert, Varianz
Beispiel 7.5.1: Es werden drei ideale Münzen geworfen, und der Gewinn sei X := Anzahl von
”W ”. In Beispiel 7.4.1 hatten wir dazu eine Wahrscheinlichkeitverteilung ermittelt:
X
Wahrscheinlichkeit
0
1/8
1
3/8
2
3/8
3
1/8
Nun werde eine ”große” Zahl m von solchen Würfen durchgeführt. Wie groß muss dann der
Einsatz y pro Wurf sein, damit das Spiel ”fair” ist?
Dazu müssen wir erst einmal klären, mit welchem Gewinn man rechnen kann: fm (k) sei die
(absolute) Häufigkeit von Gewinn k bei m Würfen. Der Gesamtgewinn beträgt dann:
gm = 0 · fm (0) + 1 · fm (1) + 2 · fm (2) + 3 · fm (3) =
3
X
k=0
k · fm (k)
Dies können wir mit Wahrscheinlichkeiten in Verbindung bringen. Für die relative Häufigkeit
von Gewinn k bei m Würfen gilt nämlich (vergl. die Statistische Definition 7.2.6 der Wahrscheinlichkeit):
fm (k)
≈ P (X = k)
für ”große” m
m
↑ wird bei ”vielen” Würfen ”erwartet”
Einsatz sollte, da das Spiel ”fair” sein sollte, in etwa gleich dem Gewinn pro Wurf bei ”vielen”
Würfen sein, also
3
3
k=0
k=0
X
gm
3
3
1
12
fm (k) X
1
=
≈
= 1.5
y≈
k·
k · P (X = k) = 0 · + 1 · + 2 · + 3 · =
m
m
8
8
8
8
8
!
3
X
k=0
k · P (X = k)
ist nun der Gewinn, den man pro Wurf “erwartet”, und daher bezeichnet man diesen Ausdruck
als Erwartungswert von der ZV X. Bei unserem Spiel sollte also der Einsatz y ≈ dem Erwartungswert 1.5 von dem Gewinn bei einem einzelnen Wurf sein.
Def. 7.5.1:
a) X sei eine diskrete ZV, die bei unendl. vielen Werten xk folgende Zusatzbedingung erfüllt:
∞
P
|xk | pk < ∞. Dann heißt:
k=0
E(X) :=
n
P
xk pk bzw. E(X) :=
k=0
der Erwartungswert von X
∞
X
xk pk
k=0
b) Es sei X eine stetige
R ∞ ZV mit der Verteilungsdichte f (x), die die folgenden Zusatzbedingungen erfüllt: −∞ |x| f (x) dx < ∞.
Dann heißt
E(X) :=
der Erwartungswert von X
R∞
−∞ x
79
f (x) dx
Bem.:
a) Im Folgenden seien die Zusatzbedingungen für alle behandelten ZV erfüllt.
b) Es kann vorkommen, dass E(X) von der ZV X gar nicht angenommen wird. E(X) ist i.a.
nicht der wahrscheinlichste Wert von X.
c) E(X) ist meist näherungsweise gleich dem Durchschnittswert der Realisierungen der ZV
X, wenn man ein Zufallsexperiment oft durchführt, aber i.A. nicht gleich diesem Durchschnittswert
Beispiel 7.5.2:
i)
X=
0(=: x0 ) mit der Wahrscheinlichkeit q(=: p0 )
1(=: x1 ) mit der Wahrscheinlichkeit p(=: p1 )
mit p, q ≥ 0 und p + q = 1. Die Bedingungen von Satz 7.4.1 für eine Wahrscheinlichkeitsverteilung sind also erfüllt.
E(X) := x0 · p0 + x1 · p1 = 0 · q + 1 · p = p
ii) X habe Standard-Normalverteilung (vergl. Unterabschnitt 7.6.3)
2
1
Wahrscheinlichkeitdichte: ϕ(x) := √ e−x /2
2π
Die Bedingungen von Satz 7.4.3 für eine Verteilungsdichte sind erfüllt (ohne Beweis).
Z ∞
Z ∞
1
2
xe−x /2 dx = 0
xϕ(x)dx = √ ·
E(X) =
2π −∞
−∞
da der Integrand eine ungerade Funktion ist.
Für dieses Beispiel werden wir ausnahmsweise nachweisen, dass die Zusatzbedingung in Definition 5.6.1 für die Existenz des Erwartungswertes erfüllt ist:
Sei b > 0; dann gilt:
Z
b
0
|x| e−x
|{z}
2 /2
ib
h
2
2
dx = −e−x /2 = e−b /2 + 1
0
−→ −0 + 1 für b → ∞
= x, da x ≥ 0
Z
=⇒
∞
0
|x| · e−x
2 /2
dx
ist konvergent
Sei a < 0; dann gilt mit der Substitution (−x) = u:
Z
0
a
−x2 /2
|x| ·e
|{z}
dx
=
Z
0
−u2 /2
ue
(−1)du =
Z
0
a
−a
u · e−u
2 /2
du
= −x, da x ≤ 0
=⇒
Z
0
−∞
|x| · e−x
2 /2
dx
80
ist konvergent
−→ 1 für − a → ∞
Also ist die Zusatzbedingung erfüllt, was nur bei diesem Beispiel ausgeführt wird und sonst ohne
Beweis angenommen wird.
Satz 7.5.1: Für die Bildung des Erwartungswerts einer Funktion einer ZV gilt:
Z ∞
n
∞
X
X
E(g(X)) =
g(x) f (x) dx
g(xk ) pk
bzw. =
g(xk ) pk
bzw. =
k=0
−∞
k=0
Def. 7.5.2:
a) V (X) := E[(X − E(X))2 ] heißt Varianz von X.
p
b) σ(X) := + V (X) heißt Standardabweichung von X.
Beispiel 7.5.3:
X sei ZV aus Beispiel 7.5.2 i):
X=
0 mit der Wahrscheinlichkeit q
1 mit der Wahrscheinlichkeit p
V (X) = E (X − E(X))2 = E (X − p)2 = (0−p)2 ·q+(1−p)2 ·p = p2 ·q+q 2 ·p = p·q·(p + q) = pq
| {z }
σ(X) =
√
=1
pq
Satz 7.5.2:
a) E(a + bX) = a + b E(X),
E(X + Y ) = E(X) + E(Y ) (vergl. (7.8.1))
b) V (a + bX) = b2 V (X)
c) V (X) = E(X 2 ) − (E(X))2
d) V (X) = 0 ⇐⇒ X = E(X) (fast sicher)
e) Für jedes beliebige a ∈ IR gilt: V (X) ≤ E[(X − a)2 ]
Bem.: Aus c) und d) folgt: E(X 2 ) 6= (E(X))2 i. a.
Beweis von Satz 7.5.2 (teilweise):
a) X sei eine ZV, die nur die Werte 0,1,2, . . . , n annehmen kann (für andere ZV verläuft der
Beweis analog):
n
n
X
X
n
P
(a + b k)pk = a
E(a + b X) =
pk + b
(pk := P (X = k))
k pk = a · 1 + b E(X)
k=0
|k=0
{z }
|k=0{z }
=1
E(X)
a)
b) V (a + b X) = E[(a + b X − E(a + b X))2 ] = E[(a + b X − a − b E(X))2 ]
a)
= E[b2 (X − E(X))2 ] = b2 E[(X − E(X))2 ] = b2 V (X)
c) V (X) := E[(X − E(X))2 ] = E[X 2 − 2X · E(X) + (E(X))2 ]
a)
= E(X 2 ) − 2 E(X) E(X) + (E(X))2 = E(X 2 ) − (E(X))2
81
i
i
h
h
e) E (X − a)2 = E (X − E(X) + E(X) − a)2
i
h
= E (X − E(X))2 + 2(X − E(X)) (E(X) − a) + (E(X) − a)2
a)
= V (X) + 2(E(X) − a) E(X − E(X)) + (E(X) − a)2 ≥ V (X)
{z
} |
{z
}
|
=0
≥0
Beispiel 7.5.4: X sei die ZV aus Beispiel 7.5.1, sie hat also die Wahrscheinlichkeitsverteilung:
X
0 1
1 3
Wahrscheinlichkeit
8 8
Als Erwartungswert erhielten
2
3
8
wir
3
1
8
E(X) = 1.5.
E(X 2 ) =
02 · 1 + 12 · 3 + 22 · 3 + 12 · 1
=3
8
V (X) = 3 − 1.52 = 0.75
σ(X) = 0.87
P (|X − E(X)| ≤ σ(X)) = P (E(X) − σ(X) ≤ X ≤ E(X) + σ(X))
6
= 0.75
8
Mit 75% Wahrscheinlichkeit weicht also der Gewinn X um höchstens die Standardabweichung
von seinem Erwartungswert ab.
= P (0.63 ≤ X ≤ 2.37) = p1 + p2 =
7.6
7.6.1
Spezielle Verteilungen
Binomialverteilung
Def. 7.6.1: Ein Zufallsexperiment habe nur zwei mögliche Ergebnisse, die wir mit ”Erfolg” oder
”Fehlschlag” bezeichnen.
Die Wahrscheinlichkeit für einen Erfolg sei p und für einen Fehlschlag sei q = 1 − p. Wird dieses
Zufallsexperiment unter den gleichen Bedingungen n-mal wiederholt, so nennt man das ganze
Bernoulli-Experiment.
Beispiel 7.6.1: Eine Münze werde n–mal geworfen.
Bei dem einzelnen Wurf: Erfolg: “W ”, Fehlschlag: “Z” ( z.B.)
1
Wahrscheinlichkeit für einen Erfolg: p = bei einer idealen Münze, sonst unbekannt
2
1
Wahrscheinlichkeit für einen Fehlschag: q = 1 − p = bei einer idealen Münze
2
Dies ist ein Bernoulli–Experiment, weil jeder Wurf unter den gleichen Bedingungen erfolgt.
Satz 7.6.1: X sei die ZV, die die Anzahl von Erfolgen bei einem Bernoulli-Experiment beschreibt. Dann besitzt X eine Binomialverteilung mit den Parametern p und n, d.h.
n k n−k
(7.6.1) P (X = k) =
p q
(k = 0, 1, . . .) (⇒ P (X = k) = 0 für k ≥ n + 1)
k
Dass dies wirklich eine Wahrscheinlichkeitsverteilung (vergl. Satz 7.4.1) ist, ist leicht nachzuprüfen:
P (X = k) ≥ 0
82
n
X
k=0
P (X = k) =
n X
n
k=0
k
pk q n−k
Satz 7.1.1
=
(p + q)n = 1
Außerdem gilt: P (X = k) = 0 für k ≥ n + 1
Erläuterung von Satz 7.6.1 für den Sonderfall, dass die Zahl n der Versuche = 3 ist.
Wie groß ist die Wahrscheinlichkeit für X = 2, d.h. für 2 Erfolge?
Mit der Konvention
1 für Erfolg und 0 für Fehlschlag,
hat man bei dem Ereignis “X = 2” folgende Situationen :
Ergebnis bei
P
Einzelversuch
1
2
3
1
1
0
1
0
1
0
1
0
×
×
×
Wahrscheinlichkeit
p · p · q (⇐ Unabhängigkeit)
p·q·p
q·p·p
3p2 q
Für denFaktor “3” vor p2 q gilt:
3
3=
ist die Anzahl der Möglichkeiten, 2 Erfoge aus 3 Einzelversuchen auszuwählen.
2
3 2
p q ist also die gesuchte Wahrscheinlichkeit für X = 2, d.h. für 2 Erfolge.
2
Satz 7.6.2: Für eine binomialverteilte ZV X mit den Parametern n und p gilt:
a) E(X) = n · p
b) V (X) = n · p · q
(⇒ σ(X) =
√
n · p · q)
Beispiel 7.6.2: Wir erhalten eine Lieferung von N Stück, M seinen davon defekt. N und M
sind hier ausnahmsweise keine ZV. Wir ziehen n–mal ein Stück mit Zurücklegen. Dies ist ein
Bernoulli-Experiment; denn jede Ziehung ist ein Zufallsexperiment mit der Wahrscheinlichkeit
p = M/N für einen ”Erfolg”(= Ziehung eines defekten Stückes) und
q := 1 − p für einen ”Fehlschlag” (= Ziehung eines nicht defekten Stückes),
und durch ”m. Z.” werden nach jeder Ziehung die alten Bedingungen wiederhergestellt. Die ZV
X := Anzahl der Ziehungen von defekten Stücken
ist also binomialverteilt mit p = M/N und n = Anzahl der Ziehungen insgesamt. Für den
Erwartungswert und die Varianz gilt also:
M N −M
M
,
V (X) = n ·
·
N
N
N
Zahlenbeispiel: Wir erhalten eine Lieferung von 1000 Stück, 10 davon seien defekt. Wir ziehen
20–mal ein Stück m.Z.
“m. Z.”⇒ Bernoulli–Experiment
M
= 0.01 ∧ q = 0.99,
N = 1000, M = 10 ⇒ p =
N
n = 20,
X := Anzahl der Ziehungen von defekten Stücken
(7.6.2)
E(X) = n ·
83
Wahrscheinlichkeit für genau 2 Ziehungen von defekten Stücken:
20
20 · 19
P (X = 2) =
· 0.012 · 0.9920−2 =
· 10−4 · 0.9918 = 0.016
2
1·2
Wahrscheinlichkeit für höchstens 2 Ziehungen von defekten Stücken:
P (X ≤ 2) =
2 X
20
k
k=0
k
20−k
· 0.01 · 0.99
20
= 0.99
2 X
20
0.01 k
k=0
k
0.99
= 0.999
Wahrscheinlichkeit für keine Ziehung eines defekten Stückes:
20
P (X = 0) =
0.010 · 0.9920 = 0.818
0
E(X) = 20 · 0.01 = 0.2
V (X) = √
20 · 0.01 · 0.99 = 0.198
σ(X) = 0.198 = 0.445
7.6.2
Poisson-Verteilung
Def. 7.6.2: Eine diskrete ZV X heißt Poisson-verteilt mit dem Parameter λ > 0, wenn gilt:
P (X = k) = e−λ
λk
,
k!
k = 0, 1, 2, . . .
Satz 7.6.3: Für eine Poisson-verteilte ZV mit dem Parameter λ gilt:
a) E(X) = λ
b) V (X) = λ
Beweis:
E(X) =
∞
P
k=0
∞
P
λk−1
k·
(⇒ σ(X) =
e−λ
λk
k!
=
∞
X
k=1
√
k · λk
e−λ
(k − 1)!
λ)
e−λ
k!
−λ
′
∞
X
λk
= λe−λ eλ = λ
′!
k
′
=
λe
k =0
↑
′
k − 1 =: k
∞
−λ
X
∞
P
e−λ
e
k2 λk
=
k 2 · λk
E(X 2 ) =
k!
k!
k=0
k=1
∞
X
∞
P
e−λ
e−λ
(k − 1 + 1) λk
k λk
=
=
(k − 1)!
(k − 1)!
k=1
k=1
∞
−λ
X
∞
P
e−λ
e
1 · λk
(k − 1) λk
+
=
(k − 1)!
(k − 1)!
k=1
=λ
k=1
k=1
84
∞
=
λ2
∞ λk−2 e−λ
X λk−1 e−λ
P
+λ
(k − 1)!
k=2 (k − 2)!
k=1
= λ2 + λ
2 −λ
=
λ e
↑
k′ := k − 1
k′′ := k − 2
′
′′
∞
∞
X
X
λk
λk
−λ
+λe
k′′ !
k′ !
′
′′
k =0
k =0
V (X) = E(X 2 ) − (E(X))2 = λ
Beispiel 7.6.3: Fernsprechvermittlung kann maximal 10 Verbindungen pro Mimute herstellen.
Pro Stunde erwartet man im Durchschnitt 330 Anrufe. Wie groß ist Wahrscheinlichkeit für eine
Überlastung in einer Minute? Es sei X := Zahl der Anrufe in einer Minute. Wie groß ist also
P (X > 10)?
Annahme: X ist Poisson–verteilt. Dann gilt
5.5k −5.5
330
Satz 7.6.3
= 5.5,
P (X = k) =
e
=
E(X) =
60
k!
Die gesuchte Wahrscheinlichkeit rechnet man wie bei einigen früheren Beispielen über die Wahrscheinlichkeit des komplementären Ereignisses aus:
λ
P (X > 10) = 1 − P (X ≤ 10) = 1 −
10
X
5.5k
k=0
k!
−5.5
e
−5.5
=1−e
10
X
5.5k
k=0
k!
= 1 − 4.09 · 10−3 · 238.5 = 0.025 =2.5%
ˆ
Satz 7.6.4: Es sei X eine binomialverteilte ZV mit den Parametern p, n. Dann gilt:
P (X = k) ≈ e−λ
λk
k!
λ = np
Dabei sollten folgende Bedingungen erfüllt sein: n ≥ 50 und λ = n p ≤ 5
Beispiel 7.6.4:
Lieferung: 10000 Stück, 100 davon defekt ⇒ p = 0.01
250 Ziehungen m.Z.: n = 250 ≥ 50, λ = n · p = 2.5 ≤ 5
Wahrscheinlichkeit für höchstens 2 Ziehungen von defekten Stücken:
P (X ≤ 2) =
2
X
k=0
P (X = k) ≈ e−2.5
2
X
2.5k
k=0
k!
= 0.0821 · 6.63 = 0.544
Zum Vergleich: Die Binomialverteilung liefert:
P (X ≤ 2) = 0.544
Bem.: Bei der Binomialverteilung sollte der Versuchsausgang mit “ Erfolg” bezeichnet werden,
der die deutlich kleinere Wahrscheinlichkeit hat, insbesondere dann, wenn die Poisson–Näherung
angewendet werden soll. Sind die Wahrscheinlichkeiten für beide Versuchsausgänge nahe bei 1/2,
können die Bezeichnungen “Erfolg” oder “Fehlschlag” beliebig vergeben werden.
85
7.6.3
Normalverteilung oder Gauß-Verteilung
Def. 7.6.3:
a) Eine ZV heißt normalverteilt mit dem Mittelwert µ und der Varianz σ 2 (Abk. N (µ, σ)verteilt), wenn sie folgende Verteilungsdichte besitzt (exp x := ex ):
!
1 x−µ 2
1
exp −
f (x) := √
,
x ∈ IR
2
σ
2 πσ
b) Eine ZV X mit der Verteilungsdichte
1
exp
ϕ(x) := √
2π
1
− x2
2
bezeichnet man als standard-normalverteilt oder N (0, 1)-verteilt.
Z x
ϕ(u) du
Φ(x) :=
−∞
ist die zugehörige Verteilungsfunktion.
Bem.: Φ(x) ist eine höhere transzendente Funktion. Daher sind Tabellen nötig. In diesem Verzeichnis ist eine solche Tabelle bereitgestellt (normal.pdf).
Skizzen:
6
1
6
1
Φ(x)
ϕ(x)
-
Vert.dichte zur N(1.5,2)-Vert.:
x
1
- x
Vert.dichte zur N(3,0.5)-Vert.:
61
1
6
f(x)
f(x)
- x
1.5
Satz 7.6.5: Für eine N (µ, σ) - verteilte ZV X gilt:
a) E(X) = µ
b) V (X) = σ 2
(⇒ σ(X) = σ)
86
3
- x
Beweis: Wir beginnen mit einer Hilfsformel für die Verteilungsdichte der Standardnormalverteilung:
2
2 x
d 1
x
1
2x
′
√ exp −
(7.6.3)
ϕ (x) =
= √ exp −
· −
= −xϕ(x)
dx 2π
2
2
2
2π
Für die Verteilungsdichte einer N (µ, σ)-verteilten ZV erhalten wir:
1 x − µ 2 x−µ
1
1
√
= ϕ
exp −
f (x) =
2
σ
σ
σ
2πσ
Mit der Substitution (x − µ)/σ =: u,
(1/σ) dx = du erhalten wir:
E(X) =
Z∞
1
x· ϕ
σ
−∞
=
Z∞
x−µ
ϕ
σ
−∞
x−µ
σ
x−µ
σ
Z∞
dx + µ
1
ϕ
σ
−∞
dx =
Z∞
1
(x − µ + µ) ϕ
σ
Z∞
−∞
x−µ
σ
dx =
x−µ
σ
dx
Z∞
u ϕ(u) du + µ
−∞
ϕ(u) du = u
−∞
= 0 + µ · 1 = µ.
Dabei haben wir benutzt,
• dass
R∞
ϕ(u) du = 1 ist, da ϕ(u) eine Verteilungsdichte ist,
−∞
• und dass der erste Summand ein Integral über ein symmetrisches Intevall und eine ungerade
Funktion ((−u)ϕ(−u) = (−u)ϕ(u) = −uϕ(u)) ist.
Mit der Substitution (x−µ)/σ =: u,
und mit (7.6.3) erhalten wir:
V (X) := E (X − E(X))
=
Z∞
2 2
σ u ϕ(u)du = σ
2
2
(1/σ) dx = du), der Regel über die partielle Integration
= E (X − µ)
lim
a→(−∞), b→∞
Zb
a
−∞
= σ2
lim
a→(−∞), b→∞
2
=
Z∞
21
(x − µ)
σ
ϕ
−∞
u · (uϕ(u)) du = σ
2
lim
a→(−∞), b→∞
x−µ
σ
Zb
a
dx
u · (−ϕ′ (u))du


Zb
b
 u · (−ϕ(u)) − 1 · (−ϕ(u))du
a
a

= σ 2 − lim b · ϕ(b) +
b→∞
lim
a→(−∞)
a · ϕ(a) +
Z∞
−∞

ϕ(u) du = σ 2 · (0 + 0 + 1) = σ 2 ,
wobei wir bei den Grenzwertbestimmungen benutzt haben, dass für x → ±∞ die Funktion ϕ(x)
schneller als jede Potenz von x gegen Null strebt.
Satz 7.6.6:
a) Für jede N (0, 1) - verteilte ZV Z gilt: (−Z) ist auch N (0, 1) - verteilt.
b) Φ(−x) = 1 − Φ(x) (Anwendung: Berechnung von Φ(x) für x < 0)
87
c) Für eine N (µ, σ) - verteilte ZV X, deren Verteilungsfunktion wir mit F (x) und deren
Verteilungsdichte wir mit f (x) bezeichnen, gilt:
i)
ii)
iii)
iv)
v)
X −µ
σ
ist N (0, 1) - verteilt
x−µ
x−µ
1
F (x) = Φ
,
f (x) = ϕ
σ
σ
σ
b−µ
a−µ
P (a ≤ X ≤ b) = Φ
−Φ
σ
σ
a−µ
,
P (X < a) = P (X ≤ a) = Φ
σ
a−µ
P (X > a) = P (X ≥ a) = 1 − Φ
σ
P (|X − µ| ≤ t · σ) = Φ(t) − Φ(−t) = 2 Φ(t) − 1 (t ≥ 0)
insbesondere = 0.683 für t = 1,
= 0.995 für t = 2,
= 0.997 für t = 3
Beweis: Es wird ohne Beweis verwendet, dass mit X auch die ZV α X + β, α 6= 0, β ∈ IR,
normalverteilt ist.
Z −∞
Z ∞
u = −z
ϕ(−z)
ϕ(u)du = −
dz =
a) P (−Z ≤ x) = P (Z ≥ −x) =
| {z }
x
−x
= ϕ(z)(gerade Funktion)
Z
x
ϕ(z) d z
−∞
= P (Z ≤ x)
a)
b) Φ(−x) = P (Z ≤ −x) = P (−Z ≥ x) = P (Z ≥ x) = 1 − P (Z < x)
Z stet.ZV
=
= 1 − Φ(x)
X − µ Satz 7.5.2 a) b)
c)
i) E
=
σ X − µ Satz 6.5.2 a) b)
=
V
σ
1
(E(X) − µ) = 0 (nach Satz 7.6.5)
σ
1
V (X) = 1 (nach Satz 7.6.5)
σ2
X −µ
Damit ist auf Grund der o. g. allgemeinen Eigenschaft
σ



ii) F (x) = P (X ≤ x) = P 

1
f (x) = F ′ (x) = Φ′
σ
iii) P (a ≤ X ≤ b)
X −µ
σ }
| {z
≤
N (0,1)−vert. nach i)
x−µ
σ
1
= ϕ
σ
x−µ
σ
x − µ
=Φ
σ 
ii)
X stet.ZV
=
P (a < X ≤ b) = F (b) − F (a) = Φ
a−µ
ii)
,
iv) P (X ≤ a) = F (a) = Φ
σ
P (X ≥ a) = 1 − P (X < a)
X stet. ZV
=
x−µ
σ
b−µ
σ
1 − P (X ≤ a) = 1 − Φ
iii)
N (0, 1)-vert.
1 − P (Z ≤ x)
a−µ
σ
b)
−Φ
a−µ
σ
v) P (|X − µ| ≤ t σ) = P (µ − t σ ≤ X ≤ µ + t σ) = Φ(t) − Φ(−t) = 2 · Φ(t) − 1
88
Bem.:
2
a) Es giltauch allgemein:
E(X)
= µ ∧V (X) = σ
X −µ
X −µ
X −µ
=⇒ E
ist eine standardisierte ZV
= 0, V
= 1;
σ
σ
σ
b) Die Aussage in Satz 7.6.6 c) v) gilt für allgemeine ZV höchstens näherungsweise. Eine
exakte, aber z. T. wesentlich schlechtere Abschätzung liefert Satz 6.9.1
Beispiel 7.6.5: Eine Firma stellt Luftpostumschläge her, deren Gewicht X erfahrungsgemäß
normalverteilt ist, mit dem Erwartungswert µ = 1.95g und der Standardabweichung σ = 0.05g.
Wie groß ist die Wahrscheinlichkeit dafür, dass ein Briefumschlag mehr als 2g wiegt?
2 − 1.95
Tabelle
) = 1 − Φ(1) = 1 − 0.8413 = 0.1587
0.05
Satz 7.6.7: X sei eine binomialverteilte ZV mit den Parametern p und n. Dann gilt für
0 ≤ k1 ≤ k2 ≤ n:
k1 − n p
k2 − n p
−Φ √
(7.6.4)
P (k1 ≤ X ≤ k2 ) ≈ Φ √
npq
npq
P (X > 2) = 1 − Φ(
(vergl. Satz 7.10.1) oder mit höherer Genauigkeit, wenn k1 und k2 ganze Zahlen sind:
k1 − 0.5 − n p
k2 + 0.5 − n p
−
Φ
(7.6.5)
P (k1 ≤ X ≤ k2 ) ≈ Φ
√
√
npq
npq
Dabei sollten folgende Bedingungen erfüllt sein:
n ≥ 50 ∧ n p ≥ 5 ∧ n q ≥ 5.
Erläuterung zu Satz 7.6.7:
X sei binomialverteilt mit Parametern n, p, q
√
⇒ E(X) = n · p, σ(X) = n · p · q
Sei 0 ≤ k1 ≤ X ≤ k2 ≤ n. Dann gilt
P (k1 ≤ X ≤ k2 ) = P
k1 − np
X − np
k2 − np
≤√
≤√
√
n·p·q
n·p·q
n·p·q
!
Für die dabei gebildete ZV
X − np
X − E(X)
Y := √
=
n·p·q
σ(X)
gilt E(Y ) = 0, σ(Y ) = 0.
Y ist also zwar nicht exakt, aber näherungsweis N (0, 1)–vert.
Wir erhalten so die Näherungsformel
!
!
k2 − np
k2 − np
(7.6.4)P (k1 ≤ X ≤ k2 ) ≈ Φ √
−Φ √
.
n·p·q
n·p·q
Bem. 7.6.1:
a) Unter den Voraussetzungen von Satz 7.6.7 sind auch die folgenden Wahrscheinlichkeiten
mit Hilfe von (7.6.4) oder (7.6.5) zu bestimmen:
P (X ≥ k0 ) = P (k0 ≤ X ≤ n),
P (X ≤ k0 ) = P (0 ≤ X ≤ k0 )
89
(k0 = 0, 1, 2 . . . , n)
b) Wird der Bereich der Argumentwerte von Φ in einer Tabelle wie etwa der ausgegebenen
überschritten, so kann man z.B. folgende Eigenschaften benutzen:
Für x ≥ 3.90 gilt 0 < 1 − Φ(x) < 0.5 · 10−4 und damit Φ(x) = 1.0000 auf 4 Stellen nach
dem Dezimalpunkt genau,
für x ≤ −3.90 gilt 0 < Φ(x) < 0.5 · 10−4 und damit Φ(x) = 0.0000 auf 4 Stellen nach dem
Dezimalpunkt genau.
Beispiel 7.6.6: Vertreter verkauft bei Erstbesuchen mit der Wahrscheinlichkeit p = 0.05. Er
plant 200 Erstbesuche.
Dies ist ein Bernoulli–Experiment:
Erfolg: Verkauf, Wahrscheinlichkeit: p = 0.05
Fehlschlag: kein Verkauf, Wahrscheinlichkeit: q = 0.95
“X :=Anzahl der Verkäufe bei 200 Erstbesuchen” ist eine binomialverteilte ZV mit den Parametern n = 200, p, q.
Eine Anwendung von Satz 7.6.7 ist möglich; denn n = 200 ≥ 50, n · p = 200 · 0.05 = 10 ≥ 5 und
n · q = 200 · 0.95 = 190 ≥ 5.
Für die gesuchte Wahrscheinlichkeit für 10 Verkäufe oder mehr erhalten wir also, da X höchstens
gleich 200 sein kann:
200 + 0.5 − 10 10 − 0.5 − 10 √
P (X ≥ 10) = P (10 ≤ X ≤ 200) ≈ Φ
−Φ √
10 · 0.95
10 · 0.95
= Φ(61.81) − Φ(−0.162) = 1.0000 − (1 − Φ(0.162)) = Φ(0.162)
61.81 ≥ 3.90 und deshalb stimmt – wie unter der Tabelle angegeben – Φ(61.81) mit 1.0000 auf
4 Stellen nach dem Dezimalpunkt überein.
Benutzte Tabellenwerte: Φ(0.16) = 0.5636, Φ(0.17) = 0.5675
Mit der Interpolationsformel
(2.2.1)
y = y1 +
x − x1
(y2 − y1 )
x2 − x1
erhalten wir damit für die gesuchte Wahrscheinlichkeit:
0.162 − 0.16 Φ(0.17) − Φ(0.16)
P (X ≥ 10) ≈ Φ(0.162) ≈ Φ(0.16) +
0.17 − 0.16
= 0.5636 + 0.2 · (0.5675 − 0.5636) ⇒
P (X ≥ 10) ≈ 0.564
Zum Vergleich: Exakter Wert: P (X ≥ 10) = 0.545
7.6.4
Hypergeometrische Verteilung
Ausgangsproblem: Lieferung von N Stück, M davon defekt (N, M keine ZV); zufällige Auswahl
einer Stichprobe von n Stücken und deren Untersuchung (o. Z. o. B. d. A.). Wie groß ist die
90
Wahrscheinlichkeit, das m Stücke in der Stichprobe defekt sind?.
Bem.: Dieses Verfahren ist günstiger als das Verfahren in 7.6.1.
Für die ZV ”X := Anzahl der defekten Stücke in der Stichprobe” gilt:
M
N −M
n
N −n
m
n−m
m M −m
(7.6.6)
P (X = m) =
=
N
N
n
M
Def. 7.6.4: Die in (7.6.6) beschriebene Verteilung heißt hypergeometrische Verteilung mit
den Parametern N, M, n.
Bedingungen: N, M, n, m ∈ Z, 0 ≤ n ≤ N, 0 ≤ m ≤ M ≤ N, 0 ≤ n−m ≤ N −M
(⇒ m ≤ n)
Herleitung von Formel (7.6.6):
Nach Satz 7.2.3 a) haben alle Kombinationen o. Z. o. B. d. A. von n aus N Stücken die Wahrscheinlichkeit 1/ N
n . Das Ereignis ”X = m” erfasst dann alle Kombinationen, bei denen genau m
defekte und damit (n − m) nicht defekte Stücke ausgewählt werden. Die Anzahl der Möglichkeiten, m defekte
Stücke für die Stichprobe aus M defekten Stücken der Lieferungen auszuwählen,
beträgt M
m , da dabei wie oben nach der Vorschrift ”o. Z. o. B. d. A.” vorgegangen wird. Bei
jeder solchen Auswahl muss dann die Stichprobe mit (n − m)
aus den (N − M ) nicht defekten
−M
Stücken der Lieferung aufgefüllt werden. Dafür gibt es Nn−m
Möglichkeiten, und zwar bei jeder
N −M Auswahl vom m defekten Stücken. Damit gibt es insgesamt M
m
n−m Möglichkeiten für die
Auswahl (o. Z. o. B. d. A.) von m defekten und (n − m) nicht defekten Stücken. Dies ist also
die Anzahl der Kombinationen o. Z. o. B. d. A., die von dem Ergebnis ”X = m” erfasst werden,
die dann nur mit der Wahrscheinlichkeit 1/ N
n für jede dieser Kombinationen multipliziert zu
werden braucht.
Bem.: Eine ähnlich Herleitung für der Binomialverteilung ist nicht möglich (vergl.
Satz 7.2.3 b)).
Beispiel 7.6.7: Lieferung: 1000 Stück, 10 davon defekt, zufällige Stichprobe von 20 Stück
N = 100, M = 10, n = 20
X := Anzahl der defekten Stücke in der Stichprobe
Wahrscheinlichkeit für (genau) 2 defekte Stücke in der Stichprobe:
10 990
2
18
= 0.015, (m = 2)
P (X = 2) = 1000
20
Wahrscheinlichkeit für höchstens 2 defekte Stücke der Stichprobe:
10
990
2
2
X
X
m
20 − m
= 0.999
P (X = m) =
P (X ≤ 2) =
1000
m=0
m=0
20
91
Wahrscheinlichkeit für kein defektes Stück in der Stichprobe:
10 990
0
20
= 0.816
P (X = 0) = 1000
20
Vergleich mit Beispiel 7.6.2:
M
= 0.01,
N
P (Y = 2) = 0.015, P (Y ≤ 2) = 0.999, P (Y = 0) = 0.818
Y sei binomialverteilt mit n = 20, p =
Satz 7.6.8: Es sei X eine hypergeometrisch verteilte ZV mit den Parametern N, M, n und Y
M
und n. Dann gilt:
eine binomialverteilte ZV mit den Parametern p =
N
n m
P (X = m) ≈ P (Y = m) =
p (1 − p)n−m
m
n
≤ 0.1.
N
Zur Näherung der Binominalverteilung vergl. die Sätze 7.6.4/7
Dabei sollten folgende Bedingungen erfüllt sein: N ≥ 1000 ∧
Satz 7.6.9 Für die ZV X aus Satz 7.6.8 gilt:
E(X) = n ·
M
,
N
V (X) = n ·
92
M N −M N −n
·
·
N
N
N −1