IntroToProbability-FormulaSheet-v1.1
Transcription
IntroToProbability-FormulaSheet-v1.1
מבוא להסתברות :סיכום ודף נוסחאות n X n k = 2n−1 n k k=0 n X n k2 )= 2n−2 n (n + 1 k גרסה ,1.1נובמבר 2010 ברק שושני [email protected] | http://baraksh.co.il/ k=0 1 1.1 סכום על האינדקס העליון: n X k n+1 = m m+1 קומבינטוריקה עקרון הספירה k=0 אם בשלב הראשון של ניסוי כלשהו יש nתוצאות אפשריות, ולכל מספר זהויות שימושיות נוספות: יש אז אחת מתוצאות אלה יש mתוצאות אפשריות בשלב השני, בסה"כ nmתוצאות אפשריות לניסוי. n n−1 n−1 = + k k−1 k 1.2סידור nעצמים בשורה :פרמוטציות n n n−1 = k k−1 k n! = n · (n − 1) · · · 3 · 2 · 1 n k n n−m יש ! nדרכים שונות לסדר nעצמים בשורה n :אפשרויות לעצם = הראשון n − 1 ,אפשרויות לשני וכך הלאה עד שלעצם האחרון k m m k−m נשארת רק אפשרות אחת. n X m+k m+n+1 יש !) (n − 1דרכים לסדר nעצמים במעגל :אם נסדר קודם את = העצמים בשורה ואז נצמיד את הראשון והאחרון נקבל מעגל .אך k n k=0 לאותו מעגל ניתן להגיע ב־ nצורות שונות )למשל עבור :n = 3 123, 231, 312כולם מייצגים את אותו המעגל( ולכן יש לחלק ב־ .nקיימים גם מקדמים מולטינומיים: לעצרת )קירוב סטירלינג( כאשר ∞ → n ניתן לקבל קירוב טוב √ n .n! ∼ ne באמצעות הנוסחה 2πn n !n = ! k1 ! · · · km k1 , . . . , k m 1.3בחירת kעצמים מתוך nללא החזרה ועם חשיבות n לסדר אם k1 + · · · + km = nאז יש k1 ,...,kmחלוקות שונות של קבוצה בעלת nעצמים ל־ mקבוצות זרות בעלות k1 , . . . , kmעצמים. !n = )nk = n · (n − 1) · · · (n − k + 1 1.5בחירת kעצמים מתוך nעם החזרה ועם חשיבות !)(n − k לסדר יש nkדרכים שונות לבחור kעצמים מתוך קבוצה של nולסדר אותם בשורה n :אפשרויות לעצם הראשון n − 1 ,אפשרויות לשני יש nkדרכים שונות לבחור kעצמים מתוך קבוצה בעלת nעצמים וכך הלאה עד שלעצם האחרון נשארות n − k + 1אפשרויות .נשים עם החזרה n :אפשרויות לעצם הראשון n ,אפשרויות לשני וכך הלאה .ניסוח אחר :אם בכל שלב בניסוי יש nתוצאות אפשריות, לב כי !.nn = n אז לאחר kשלבים יש nkתוצאות אפשריות בסה"כ. 1.4בחירת kעצמים מתוך nללא החזרה וללא חשיבות לסדר :מקדמים בינומיים n !n nk = = k !k !(n − k)!k יש nkדרכים שונות לבחור kעצמים מתוך nעצמים כאשר אין חשיבות לסדר :ראשית נבחר את העצמים ב־ nkדרכים .אך כל )כמספר הפרמוטציות שלה(, קבוצה של kעצמים מופיעה ! kפעמים לכן יש לחלק ב־! .kכמו כן נשים לב כי יש nkתת־קבוצות שונות בגודל kשל קבוצה בגודל .n הבינום של ניוטון: n X n k n−k x y k n = )(x + y k=0 תכונות של האינדקס התחתון: n n = k n−k = 2n k k=0 n k+n−1 k+n−1 = = k k n−1 הוכחה )בקטן כי היא ארוכה( :לכל אחד מ־ nהעצמים בקבוצה נשייך מספר בין 0 ל־ kהקובע את מספר הפעמים שאותו עצם נבחר ,כאשר סכום המספרים המשויכים חייב להסתכם ל־ .kצורה נוחה למצוא את מספר האפשרויות לעשות זאת היא לסדר kכוכבים בשורה ולהפריד ביניהם באמצעות n − 1חוצצים ,כך שנוצרות nקבוצות )רצפים של כוכבים( אשר עשויות להיות בגודל 0עד .kלדוגמה ,עבור k = 5ו־ ,n = 4מיקום אפשרי של חוצצים הוא: ?| ? ? ? ||? משמעות הסידור :ניקח את העצם הראשון בקבוצה פעם אחת ,את העצם השני אפס פעמים ,את העצם השלישי שלוש פעמים ואת העצם הרביעי פעם אחת -בסה"כ 5 מיקום ל־ n − 1החוצצים מתוך עצמים ,כנדרש .כעת ,מספר האפשרויות לבחור . k+n−1 k + n − 1מיקומים אפשריים )כולל הקצוות( הוא n−1 1.7סידור kעצמים ב־ nתאים כך שבכל תא יש לפחות עצם אחד n n = = 1, 0 n k−1 n−1 כמו בסעיף הקודם ,נסדר kכוכבים בשורה ונפריד ביניהם באמצעות n−1חוצצים ,כאשר הפעם בין כל שני כוכבים יכול להיות רק חוצץ אחד וכל חוצץ חייב להיות בין שני כוכבים -בסה"כ k−1אפשרויות למיקום החוצצים. סכומים על האינדקס התחתון: n X n 1.6 לסדר בחירת kעצמים מתוך nעם החזרה וללא חשיבות n = 0, k k )(−1 n X k=0 1 הסתברות 2 2.1 2.4 המאורעות A, Bהם בלתי־תלויים אם ורק אם: אקסיומות ונוסחאות בסיסיות )P (A ∩ B) = P (A) P (B יהי Sמרחב מדגם ויהי A ∈ Sמאורע ,אז: P (A) ∈ [0, 1] , )P A = 1 − P (A P (S) = 1, או באופן שקול: כאשר Aהוא המשלים של .Aאם Sמרחב סופי וסימטרי אז: ||A = )P (A ||S 2.2 )P (B|A) = P (B יהיו ,1 ≤ i ≤ m ,Ai ∈ Sמאורעות זרים בזוגות ,אז: ! n n [ X P = Ai ) P (Ai i=1 i=1 i=1 i=1 אם Aiאינם זרים בזוגות אז )עקרון ההכלה וההפרדה(: ! n X X Ai = P (Ai ) − P (Ai ∩ Aj ) + . . . i<j ! P (A|B) = P (A) , כלומר הידע ש־ Bקרה לא משנה את ההסתברות ש־ Aיקרה ולהפך. המאורעות ,1 ≤ i ≤ n ,Aiהם בלתי־תלויים אם ורק אם לכל תת־ קבוצה Ai1 , . . . , Airשלהם מתקיים: ! r r \ Y P = Ai ) P (Ai ההסתברות של איחוד מאורעות n \ מאורעות בלתי־תלויים 3 n [ הגדרה :משתנה מקרי X : Ω → Rהוא פונקציה ממרחב המדגם Ωלשדה המספרים הממשיים .Rמסמנים: P i=1 i=1 משתנה מקרי )}P (X = k) = P ({ω ∈ Ω|X (ω) = k n+1 )· · · + (−1 P Ai כלומר ההסתברות ש־ Xמקבל ערך מסוים )או טווח של ערכים( i=1 היא ההסתברות של קבוצת כל המאורעות ωבמרחב המדגם כך כאשר | |Aמציין את מספר האיברים בקבוצה .Aאי־שוויון בול ש־) X (ωמקבל את הערך או טווח הערכים הנדרש. קובע כי: ! n n X [ 3.1תוחלת ) P (Ai P ≤ Ai יהי Xמשתנה מקרי .התוחלת של Xהיא: i=1 i=1 X = )E (X )x · P (X = x 2.3 הסתברות מותנית x יהיו A, Bמאורעות .אם P (B) > 0אז ההסתברות המותנית של Aבהינתן Bהיא: )P (A ∩ B )P (B = )P (A|B מכאן: כאשר הסכום הוא על כל הערכים האפשריים של .Xמכאן, התוחלת היא למעשה ממוצע משוקלל של כל ערכי .Xבאופן כללי הביטוי ) E (X nנקרא "המומנט ה־ nשל ;"Xהתוחלת היא המומנט הראשון .לכל פונקציה f : R → Rמתקיים: X = ))E (f (X )f (x) P (X = x )P (A ∩ B) = P (A|B) P (B x ובאופן כללי יותר: ! · · · ) P (A1 ) P (A2 |A1 ) P (A3 |A2 ∩ A1 = Ai n \ כאשר הסכימה היא על כל הערכיים האפשריים של ) Xולא של ) .(f (Xהתוחלת היא לינארית: P E (aX + b) = aE (X) + b i=1 ) · · · P (An |An−1 ∩ · · · ∩ A1 U נוסחת ההסתברות השלמה -אם ) B = i Biאיחוד זר( אז: ) P (A|Bi ) P (Bi n X אם מתקיים ) P (a ≤ X ≤ bאז בהכרח גם .a ≤ E (X) ≤ b יתרה מזאת ,אם X ≥ Yאז בהכרח ) .E (X) ≥ E (Y = )P (A 3.2 i=1 יהי Xמשתנה מקרי .השונות של Xהיא: 2 2 ])Var (X) = E [X − E (X)] = E X 2 − [E (X נוסחת בייס: )P (B|A) P (A )P (B שונות = )P (A|B נוסחת בייס +נוסחת ההסתברות השלמה: )P (B|A) P (A = )P (A|B P (B|A) P (A) + P B A P A U או במקרה הכללי ,אם :A = i Ai השונות מעלה קבועים בריבוע ,ואינה מושפעת מהזזות: )Var (aX + b) = a2 Var (X סטיית התקן מוגדרת להיות השורש של השונות: p )σX = Var (X ) P (B|Ai ) P (Ai P (Ai |B) = Pn ) j=1 P (B|Aj ) P (Aj 2 3.3 פונקציה יוצרת מומנטים קל לראות כי: יהי Xמשתנה מקרי .הפונקציה יוצרת המומנטים היא: X tx = MX (t) = E etX )e P (X = x )Cov (X, X) = Var (X Cov (X, a) = 0 )Cov (X, Y ) = Cov (Y, X ) Cov (aX, bY ) = abCov (X, Y )Cov (X + Y, Z) = Cov (X, Z) + Cov (Y, Z n n n X n X X X Cov Xi , = Yj ) Cov (Xi , Yj x מתקיים: 00 MX (0) = E X 2 0 MX (0) = E (X) , MX (0) = 1, וכך הלאה ,כאשר הגזירה היא לפי .tלכן השונות היא: 2 i=1 j=1 i=1 j=1 אם המשתנים X, Yהם בלתי־תלויים ,אז: 00 0 Var (X) = MX (0) − [MX ])(0 Cov (X, Y ) = 0 אם Xו־ Yבלתי־תלויים אז: אבל ההפך אינו בהכרח נכון .כמו כן מתקיים הקשר: )MX+Y (t) = MX (t) MY (t ) Var (X + Y ) = Var (X) + Var (Y ) + 2 Cov (X, Y הפונקציה יוצרת המומנטים קובעת את ההתפלגות באופן יחיד ,לכן ניתן להשתמש בנוסחה זה למציאת ההתפלגות של סכום משתנים ובאופן כללי: מקריים .דרך נוספת היא באמצעות נוסחת הקונבולוציה: ! n n X X X X Var = Xi Var (Xi ) + 2 ) Cov (Xi , Xj = )P (X + Y = m )P (X = k) P (Y = m − k|X = k i<j k 3.4 שכיח i=1 מספר משתנים מקריים ) E (Xi n X ! = Xi i=1 תוחלת מותנית יהיו X, Yמשתנים מקריים .התוחלת של Xבהינתן ש־Y = y היא: X = )E (X|Y = y )x · P (X = x|Y = y מתקיים: n X = ρX,Y מתקיים תמיד ,−1 ≤ ρX,Y ≤ 1כאשר 1משמעותו שמתקיים קשר לינארי חיובי בין המשתנים −1 ,משמעותו שקיים קשר לינארי שלילי ו־ 0משמעותו שאין קשר לינארי. 4.3 תוחלת i=1 מקדם המתאם של X, Yהוא: ) Cov (X, Y σX σY שני משתנים מקריים Xו־ Yהם בלתי־תלויים אם ורק אם לכל a, b ∈ Rהמאורעות } {X ≤ aו־} {Y ≤ bהם בלתי־תלויים .אי־ תלות של מספר משתנים מקריים מוגדרת בדומה לאי־תלות של מספר מאורעות. 4.1 i=1 בפרט ,אם המשתנים Xiבלתי־תלויים: ! n n X X ) Var (Xi Var = Xi השכיח הוא הערך הנפוץ ביותר בהתפלגות ,כלומר הערך של המשתנה המקרי שמתקבל בהסתברות הגבוהה ביותר .ערך זה אינו בהכרח יחיד )לדוגמה :התפלגות אחידה(. 4 i=1 E x i=1 כאשר הסכום הוא על כל הערכים האפשריים של .Xחשוב לשים לב כי ) E (X|Y = yהוא מספר .ניתן גם להגדיר את הפונקציה לכל סט של משתנים מקריים )המוגדרים על אותו מרחב מדגם( ,גם ) ,E (X|Yשהיא משתנה מקרי בפני עצמה .זהות חשובה )נוסחת אם אינם בלתי־תלויים .מכאן ,אם ניתן לרשום: התוחלת השלמה( היא: Xi n X )) E (X) = E (E (X|Y =X כלומר: i=1 כאשר Xiהם אינדיקטורים שמקבלים את הערך 1בהסתברות pi ו־ 0אחרת ,אז נקבל: pi n X )E (X|Y = y) P (Y = y X = )E (X y כמו כן מתקיים: = )E (X )E (g (X) Y |X) = g (X) E (Y |X i=1 מכאן עם g (X) = Xושימוש בנוסחת התוחלת השלמה נקבל: 4.2 ))E (XY ) = E (X · E (Y |X שונות משותפת לכן אם X, Yבלתי־תלויים: יהיו X, Yמשתנים מקריים .אז השונות המשותפת שלהם היא: )]) E ([X − E (X)] [Y − E (Y ) E (XY ) − E (X) E (Y = = ) E (XY ) = E (X) E (Y ) Cov (X, Y 3 4.4 5.3 שונות מותנית וסכום משתנים באורך מקרי יהיו X, Yמשתנים מקריים .השונות של Xבהינתן Yהיא: 2 Var (X|Y ) = E [X − E (X|Y )] Y 2 ]) = E X 2 Y − [E (X|Y התפלגות בינומית שלילית וגאומטרית התפלגות בינומית שלילית: Xהוא מספר הניסויים עד להצלחה ה־) nכולל( ,כשהניסויים בלתי־ תלויים והסיכוי להצלחה בכל אחד מהם הוא .p )X ∼ NB (n, p נבחר n − 1מתוך k − 1הניסויים הראשונים .ניסויים אלה הצליחו, מכאן )נוסחת השונות השלמה(: בהסתברות ,pn−1וה־ k − nהנותרים נכשלו ,בהסתברות .1 − p ]) Var (X) = E [Var (X|Y )] + Var [E (X|Y לאחר מכן עלינו להכפיל את התוצאה ב־ pמשום שהניסוי האחרון יהי Nמשתנה מקרי המקבל ערכים שלמים אי־שליליים ויהיו Xiהצליח .לכן ההתפלגות היא: משתנים מקריים בלתי־תלויים ,שווי־התפלגות ובלתי־תלויים ב־ ,N k−1 n k−n אז מתקיים: = )P (X = k )p (1 − p ! n−1 N X E ) Xi = E (N ) E (Xi התוחלת והשונות הן: i=1 ! 2 ) = E (N ) Var (Xi ) + [E (Xi )] Var (N Xi N X 1−p Var (X) = n 2 p Var והפונקציה יוצרת המומנטים היא: n pet 1 − (1 − p) et i=1 5 5.1 התפלגויות n E (X) = , p = )MX (t אם ) X ∼ NB (n, pו־) Y ∼ NB (m, pהם בלתי־תלויים ,אז מתקיים: התפלגות אחידה Xהוא מספר שלם בין aל־ bהנבחר באקראי. )X + Y ∼ NB (n + m, p )X ∼ Uni (a, . . . , b יש בסה"כ n = b−a+1אפשרויות וכל אחת בעלת הסתברות שווה ,התפלגות גאומטרית: לכן ההתפלגות ,התוחלת ,השונות והפונקציה יוצרת המומנטים הן :זהו מקרה פרטי של התפלגות בינומית שלילית כאשר .n = 1 )X ∼ Geo (p) ≡ NB (1, p 1 1 = = )P (X = k b−a+1 n ההתפלגות היא: a+b 2 k−1 )P (X = k) = p (1 − p = )E (X 2 (b − a + 1) − 1 n2 − 1 = 12 12 eat − e(b+1)t ) n (1 − et 5.2 k )P (X ≤ k) = 1 − (1 − p התוחלת והשונות הן: = )Var (X 1−p = )Var (X p2 = )MX (t 1 E (X) = , p והשכיח הוא ,1כי ההסתברות יורדת ככל ש־ kעולה .הפונקציה יוצרת המומנטים היא: התפלגות בינומית Xהוא מספר ההצלחות ב־ nניסויים בלתי־תלויים אשר סיכוי ההצלחה בכל אחד מהם הוא .p pet 1 − (1 − p) et = )MX (t )X ∼ Bin (n, p נבחר kמתוך nהניסויים .ניסויים אלה הצליחו ,בהסתברות ,pו־ אם ) Xi ∼ Geo (pעבור 1 ≤ i ≤ nהם בלתי־תלויים ,אז מתקיים: n − kהניסויים הנותרים נכשלו ,בהסתברות .1 − pלכן ההתפלגות n X היא: )Xi ∼ NB (n, p n n−k i=1 = )P (X = k )pk (1 − p k ההתפלגות הגאומטרית היא ההתפלגות הבדידה היחידה שהיא "חסרת זיכרון" ,כלומר ,בכל שלב בניסוי יש אותו סיכוי להצלחה התוחלת והשונות הן: ללא תלות בכמות או בתוצאות הניסויים הקודמים )למשל ,למטבע E (X) = np, )Var (X) = np (1 − p שמוטל אין "זיכרון" של ההטלות הקודמות( .ניתן לתאר תכונה זו באמצעות הנוסחה: השכיח הוא: Mode (X) = b(n + 1) pc or b(n + 1) pc − 1 )P (X > m + n|X > m) = P (X > n והפונקציה יוצרת המומנטים היא: כלומר ,לכל ,n, m ∈ Nאם ידוע לנו שכבר נערכו mניסויים n כושלים ,ההסתברות ש־ nניסויים נוספים ייכשלו שווה להסתברות MX (t) = 1 − p + pet ש־ nניסויים ייכשלו אם נתחיל את התהליך מהתחלה .מכאן ,אם אם ) X ∼ Bin (n, pו־) Y ∼ Bin (m, pהם בלתי־תלויים ,אז מצאנו התפלגות המקיימת: מתקיים: )P (X = k + 1) = cP (X = k )X + Y ∼ Bin (n + m, p כאשר cקבוע כלשהו ,התפלגות זו בהכרח תהיה גאומטרית )הקבוע cהוא פשוט ההסתברות לכישלון בניסוי(. 4 5.4 התפלגות היפרגאומטרית או באופן שקול: 1 Xהוא מספר הפריטים "המיוחדים" שנמצאו בדגימה )ללא החזרה( בגודל nמתוך אוכלוסייה בגודל Nהכוללת Dפרטים מיוחדים. k2 קיימת גם גרסה חד־צדדית של שוויון זה: )X ∼ HG (N, D, n ≤ )P (|X − E (X)| ≥ kσ נבחר kפריטים מיוחדים מתוך Dהמיוחדים שבאוכלוסייה ,ונבחר את n − kהפריטים הלא־מיוחדים שנשארו מתוך N − Dהלא־ מיוחדים באוכלוסייה .נחלק את מספר האפשרויות בגודל מרחב המדגם ,שהוא nפריטים כלשהם שנדגמו מאוכלוסייה בגודל .N לכן ההתפלגות היא: D N −D k n−k N n = )P (X = k σ2 σ2 + k2 ≤ )P (X − E (X) ≥ k או באופן שקול: 1 1 + k2 ≤ )P (X − E (X) ≥ kσ אבחנה חשובה -אם המשתנה המקרי הוא סימטרי סביב התוחלת, כלומר ) ,P (X − E (X)) = P (E (X) − Xאז ניתן לרשום: 1 )P (|X − E (X)| ≥ k 2 התוחלת והשונות הן: D D N −n Var (X) = n 1− N N N −1 k j והשכיח הוא ). (n+1)(D+1 N +2 D , N E (X) = n 6.3 אי־שוויון צ'רנוף יהי Xמשתנה מקרי ותהי: tX 5.5 = )P (X − E (X) ≥ k התפלגות פואסונית Xהוא מספר ההצלחות בתהליך בינומי כאשר ,n → ∞ ,p → 0 אך המכפלה λ = npקבועה .לכן ההתפלגות משמשת לקירוב של תהליכים בהם יש הסתברות נמוכה להצלחה ומספר רב של ניסיונות, לדוגמה מספר טעויות ההדפסה בספר או מספר האנשים שמגיעים לגיל 100באוכלוסייה. )X ∼ Pois (λ MX (t) = E e הפונקציה יוצרת המומנטים שלו .אז מתקיים: P (X ≥ a) ≤ e−ta MX (t) , t>0 P (X ≤ a) ≤ e−ta MX (t) , t<0 באמצעות מציאת ה־) tהחיובי או השלילי לפי המקרה( שנותן את הערך הנמוך ביותר לפונקציה ) ,e−ta MX (tנוכל למצוא את החסם הטוב ביותר. ההתפלגות ,התוחלת והשונות הן: E (X) = Var (X) = λ e−λ λk , !k 6.4 = )P (X = k 00 הגדרה :פונקציה ) f (xנקראת קמורה אם f (x) ≥ 0לכל ,x וקעורה אם .f 00 (x) ≤ 0אם ) f (xקמורה אז מתקיים: והשכיח הוא ,bλcאו λ−1אם .λ ∈ Zהפונקציה יוצרת המומנטים היא: )−1 t אי־שוויון ינסן ])E [f (X)] ≥ f [E (X MX (t) = eλ(e אם ) X ∼ Pois (λו־) Y ∼ Pois (µהם בלתי־תלויים ,אז מתקיים: 6.5 קירוב לינארי יהיו X, Yמשתנים מקריים .התחזית הלינארית האופטימלית,Yˆ , של Yלפי Xניתנת באמצעות הנוסחה: )X + Y ∼ Pois (λ + µ )X − E (X ) Yˆ − E (Y = ρX,Y σY σX 6 6.1 אי־שוויונים ,קירובים ומשפטי גבול כאשר: ) Cov (X, Y σX σY אי־שוויון מרקוב יהי Xמשתנה מקרי אי־שלילי ,אז לכל a > 0מתקיים: )E (X a הוא מקדם המתאם )ע"ע( .ביטוי מפורש ל־ ˆ Yהוא: Yˆ = aX + b ≤ )P (X ≥ a ניתן לבצע הזזה של המשתנה ,כלומר ) ,P (X − b ≥ a − bכדי לשפר את החסם -כל עוד X − bאי־שלילי .כמו כן ,במקרה של מספרים שלמים ).P (X > a) = P (X ≥ a + 1 6.2 אי־שוויון צ'בישב 2 יהי Xמשתנה מקרי בעל שונות ) ,σ = Var (Xאז לכל k > 0 מתקיים: σ2 k2 = ρX,Y כאשר: ) Cov (X, Y )E (X )Var (X b = E (Y ) − ) Cov (X, Y , )Var (X =a השגיאה הריבועית הממוצעת ) (MSEשל התחזית ˆ Yהיא: 2 MSE Yˆ = E Yˆ − Y מספקת מדד למידת הדיוק של הקירוב הלינארי. והיא MSE Yˆ = 0הקירוב הוא מדויק. ≤ )P (|X − E (X)| ≥ k 5 אם עבור קירוב של משתנה מקרי בינומי שלילי ,נציג אותו כסכום של 6.6חוק המספרים הגדולים משתנים גאומטריים; עבור קירוב של משתנה מקרי פואסוני ,נציג יהיו X1 , X2 , . . . משתנים מקריים בלתי־תלויים ושווי־התפלגות אותו כסכום של משתנים פואסוניים עם ;λ = 1עבור קירוב של בעלי תוחלת µושונות .σ 2אז מתקיים: משתנה מקרי בינומי ,נציג אותו כסכום של אינדיקטורים )משתנים בינומיים עם .(n = 1במקרה האחרון הקירוב נחשב טוב אם ! n n np (1 − p) ≥ 10בערך. 1X 1 1X E = Xi E (Xi ) = · nµ = µ כמו כן ,אם המשתנה המקרי שלנו מקבל ערכים שלמים בלבד n n n )זה בדר"כ המצב( ,ואנו רוצים לבדוק למשל מתי ) ,P (X > bאז i=1 i=1 ניתן להפוך את הקירוב לקצת יותר טוב אם משנים את bלמספר ! n n בתחום ,למשל עבור הקרוב ביותר ל־ bכך ש־ bנכלל P החצי־שלם P 1X 1X 1 σ2 ) P ( Xi ≥ 100אפשר לחשב ).P ( Xi ≥ 99.5 Var = Xi = Var (Xi ) = 2 · nσ 2 n i=1 n i=1 n n 7 לכן לכל ε > 0מתקיים ,לפי אי־שוויון צ'בישב: ! n 1 X σ2 Xi − µ ≥ ε ≤ 2 n nε i=1 ובגבול ∞ → nנקבל: ! n 1 X Xi − µ ≥ ε = 0 n i=1 7.1 P סכומים נפוצים )n (n + 1 2 lim P Pn i=1 1 n של =k q m − q n+1 1−q או: 3 lim P )(1 − q = qk = k2 qk n X k=m ∞ X k=0 1 − q n+1 , 1−q 2, q )(1 − q ∞→n k · k! = (n + 1)! − 1 כאשר: 2 1 e− 2 x dx ∞− k=0 (n + 1 − m) 2n2 + 2m2 + 2nm + n − m = k 6 1 Pn a n X 2 )q (1 + q ˆ n X k=m )n (n + 1) (2n + 1 = k 6 יהיו X1 , X2 , . . .משתנים מקריים בלתי־תלויים ושווי־התפלגות בעלי תוחלת µושונות .σ 2אז לכל a ∈ Rמתקיים: Pn i=1 Xi − nµ √ lim P )≤ a = Φ (a ∞→n σ n n k=0 2 משפט הגבול המרכזי i=1 Xi − µ √ )≤ a = Φ (a σ/ n =k n X )(n + m) (n + 1 − m 2 ∞→n מכאן ,ככל שנגדיל את מספר הניסויים ,nהממוצע Xi תוצאות הניסויים יתקרב לתוחלת .µ 6.7 שונות = qk = kq k n X k=m n X k=0 ∞ X k=0 n X k=1 1 √ = )Φ (a 2π 7.2 Pשהיא התפלגות רציפה היא ההתפלגות הנורמלית הסטנדרטית, n המקיימת .Φ (∞) = 1יהי An = n1 i=1 Xiהממוצע של תוצאות nהניסויים הראשונים .קל לראות כי למשתנה המקרי: An − µ √ σ/ n טיפים לפתרון בעיות • אם מצאנו הסתברויות של מאורעות שהאיחוד הזר שלהם הוא כל מרחב המדגם ,כדאי לבדוק שסכום ההסתברויות הוא אכן .1 • אם צריך למצוא את ההסתברות ש"לפחות איבר אחד מתוך קבוצה כלשהי מקיים תנאי כלשהו" אז לרוב עדיף למצוא את אחד מינוס ההסתברות המשלימה ,כלומר ההסתברות "לא קיים אף איבר בקבוצה המקיים את התנאי" .אחרת יש סכנה לספירות כפולות. = Yn יש תוחלת 0ושונות ,1ומתקיים: )lim P (Yn ≤ a) = Φ (a ∞→n • לפונקציה ) p (1 − pיש נקודת מקסימום ב־ ,p = 21וערכה שם הוא . 41 מכאן ,ככל שנגדיל את מספר הניסויים ,nהתפלגות הממוצע "המתוקנן" Ynתתקרב להתפלגות הנורמלית הסטנדרטית. אם ברשותנו טבלת התפלגות נורמלית בעלת ערכים חיוביים בלבד, נוכל להשתמש בנוסחה: • למציאת התוחלת של מכפלת משתנים מקריים ) E (XYניתן להתנות באחד מהם ולהשתמש בנוסחת התוחלת השלמה. )Φ (−a) = 1 − Φ (a • אם קיבלנו התפלגות שהיא סימטרית סביב ערך ) cכלומר ) P (X = c + k) = P (X = c − kאז .E (X) = c כמו כן נשים לב כי קיים קירוב גם לאי־שוויון בכיוון ההפוך )ההסתברות המשלימה(: • כדי להראות ששני משתנים מקריים X, Yהם תלויים מספיק למצוא kמסוים שעבורו ).P (X|Y = k) 6= P (X • אם צריך למצוא את היחס בין שני ערכים )למשל הסתברויות(, לפעמים חלק מהביטויים מצטמצמים ואין צורך לחשב אותם. לדוגמה :בחישוב יחס בין הסתברויות מותנות המכנה עשוי להצטמצם. )lim P (Yn ≥ a) = 1 − Φ (a ∞→n ולאי שוויון דו־צדדי ):(|Yn | ≤ a lim P (−a ≤ Yn ≤ a) = Φ (a) − Φ (−a) = 2Φ (a) − 1 ∞→n 6