סיכומים . (עודכן 1.12.2014)

Transcription

סיכומים . (עודכן 1.12.2014)
‫תורת ההסתברות ‪) :2‬או הסתברות ותהליכים סטוכסטים(‬
‫סוכם על ידי תום חן ־‬
‫‪[email protected]‬‬
‫‪ 1‬בדצמבר ‪2014‬‬
‫שימו לב ־ יתכנו שגיאות בטקסט עידכונים יתבצעו במהלך הסמסטר‬
‫נא לדווח שגיאות ל ‪ [email protected]‬או לחלופין שלשמור כהערות בקובץ ולשלוח לי חזרה‬
‫תקציר‬
‫סיכום ההרצאות בקורס בתורת ההסתברות ‪ 2‬־ סמסטר ב' ‪ 2014‬מהרצאותיו של אורי גוראל־גורביץ‪.‬‬
‫‪1‬‬
‫תוכן עניינים‬
‫תוכן עניינים‬
‫תוכן עניינים‬
‫‪1‬‬
‫כמה דוגמאות ראשונות לשאלות הסתברותיות‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪3‬‬
‫סילבוס הקורס‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪4‬‬
‫חזרה על תורת המידה‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫הסתברות בסיסית )יחסית(‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪5‬‬
‫‪7‬‬
‫‪3.1‬‬
‫כמה טענות בסיסיות בהסתברות‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪7‬‬
‫‪3.2‬‬
‫משתנים מקריים‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪10‬‬
‫‪1.1‬‬
‫‪2‬‬
‫‪3‬‬
‫‪4‬‬
‫‪3.3‬‬
‫סדרות של משתנים מקריים‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪11‬‬
‫‪3.4‬‬
‫התפלגויות של משתנים מקריים‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪15‬‬
‫‪3.5‬‬
‫תוחלת של משתנה מקרי וכמה תכונות‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪16‬‬
‫‪3.6‬‬
‫התכנסות בהסתברות של משתנים מקריים‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪17‬‬
‫ריכוז מידה של סדרות משתנים מקריים‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪20‬‬
‫‪4.1‬‬
‫הקדמה ודוגמאות ראשונות‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪20‬‬
‫‪4.2‬‬
‫החוק החלש והחזק של המספרים הגדולים‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪23‬‬
‫כמה דוגמאות משעשעות‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪26‬‬
‫חזרה לריכוז מידה‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪27‬‬
‫מרטינגלים‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪32‬‬
‫‪5.1‬‬
‫מרטינגלים בדידים‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪32‬‬
‫‪5.2‬‬
‫‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .‬‬
‫‪34‬‬
‫‪5.3‬‬
‫פילטרציות ומרטינגלים‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪37‬‬
‫‪5.4‬‬
‫זמני עצירה‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪39‬‬
‫‪5.5‬‬
‫על\תת־מרטינגלים‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪41‬‬
‫‪5.6‬‬
‫מרטינגלים וריכוז מידה‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪41‬‬
‫‪5.7‬‬
‫דוגמאות משעשעות עם מרטינגלים‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪42‬‬
‫‪5.8‬‬
‫התכנסות של מרטינגלים‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪45‬‬
‫שרשראות מרקוב‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪47‬‬
‫‪6.1‬‬
‫מחזוריות והתכנסות לסטציונריות‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪51‬‬
‫‪6.2‬‬
‫נשנות של שרשראות מרקוב‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪53‬‬
‫משפט הגבול המרכזי‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪55‬‬
‫‪7.1‬‬
‫התכנסות חלשה‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪55‬‬
‫‪7.2‬‬
‫משפט הגבול המרכזי‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫קצת הקדמה להוכחה‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪7.2.1‬‬
‫‪57‬‬
‫‪57‬‬
‫‪7.2.2‬‬
‫פונקציות אופייניות‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪58‬‬
‫‪7.2.3‬‬
‫התכנסות של פונקציות אופייניות‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪60‬‬
‫‪7.2.4‬‬
‫הוכחת משפט הגבול המרכזי‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪63‬‬
‫תנועה בראונית‪. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . :‬‬
‫‪64‬‬
‫‪4.2.1‬‬
‫‪4.3‬‬
‫‪5‬‬
‫‪6‬‬
‫‪7‬‬
‫‪8‬‬
‫תוחלת מותנית‪:‬‬
‫‪2‬‬
‫‪1‬‬
‫כמה דוגמאות ראשונות לשאלות הסתברותיות‪:‬‬
‫ספרים‪:‬‬
‫‪• Durrett: Probability Theory & Examples.‬‬
‫‪• Varadhan: Porbability Theory.‬‬
‫‪• Williams - Probability with Martingales.‬‬
‫‪1‬‬
‫כמה דוגמאות ראשונות לשאלות הסתברותיות‪:‬‬
‫להלן כמה דוגמאות לשאלות מעניינות בהסתברות‪:‬‬
‫דוגמה ‪ 1.1‬הכד של פוליה )‪ ::(Polya’s Urn‬בכד בשלב ראשון יש שני כדורים‪ ,‬שחור ולבן‪ .‬בכל שלב מוציאים כדור באקראי‬
‫)באופן אחיד( ומחזירים אותו ועוד כדור באותו צבע‪ .‬נסמן ב־ ‪ an‬את מספר הכדורים הלבנים בצעד ה־ ‪ .n‬נשאלת השאלה מה‬
‫‪an a.s‬‬
‫‪ n+2‬כאשר )‪.U ∼ Uniform (0, 1‬‬
‫ההתפלגות של סדרת המשתנים המקריים ‪ .a1 , a2 , ...‬מתברר ש־ ‪−→ U‬‬
‫תרגיל‪ :‬עבור ‪ N ∈ N‬קבוע מתקיים }‪.aN ∼ U {1, ..., N + 1‬‬
‫דוגמה ‪ 1.2‬הילוך השיכור )‪ :(Random Walk‬נגדיר ‪ X0 = 0‬ובאינדוקציה‪:‬‬
‫(‬
‫‪Xn + 1 P = 12‬‬
‫= ‪Xn+1‬‬
‫‪Xn − 1 P = 12‬‬
‫שאלות אפשריות שעולות‪:‬‬
‫• מה ההסתברות שקיים ‪ N > 0‬כך ש־ ‪ XN = 0‬־ התשובה היא ‪ 1‬ומכך בהסתברות ‪ 1‬קיימים אינסוף ערכי ‪ N‬כך ש־ ‪.XN = 0‬‬
‫• מהי ההתפלגות של זמן החזרה הראשונה ובפרט מהי התוחלת שלה ־ מתברר שהתוחלת היא ∞‪.‬‬
‫ניתן להכליל את הבעיה הזו למהלך על שריג דו־ממדי כאשר נגדיר )‪ X0 = (0, 0‬ובאינדוקציה‪:‬‬
‫‪‬‬
‫)‪Xn + (0, 1‬‬
‫‪P = 14‬‬
‫‪‬‬
‫‪‬‬
‫‪‬‬
‫‪X + (0, −1) P = 1‬‬
‫‪n‬‬
‫‪4‬‬
‫= ‪Xn‬‬
‫‪1‬‬
‫‪‬‬
‫‪X‬‬
‫‪+‬‬
‫‪(1,‬‬
‫)‪0‬‬
‫‪P‬‬
‫=‬
‫‪n‬‬
‫‪‬‬
‫‪4‬‬
‫‪‬‬
‫‪‬‬
‫‪Xn + (−1, 0) P = 14‬‬
‫וכן הלאה ניתן להכליל את התהליך למימדים יותר גבוהים‪ .‬בפרט מתברר שעבור ‪ n = 1, 2‬ההילוך הוא נשנה )‪ (Recurrent‬כלומר‬
‫בהסתברות ‪ 1‬קיים ‪ N > 0‬כך ש־ ‪ .XN = X0‬מאידך עבור ‪ n > 3‬הנ"ל כבר לא מתרחש בהסתברות ‪ .1‬אפשר להראות שמבחינה‬
‫‪1‬‬
‫‪ 2n‬עבור ‪.n > 3‬‬
‫אסימפטוטית הסיכוי לחזור לנקודת ההתחלה מתנהג כמו‬
‫דוגמה ‪ 1.3‬פרקולציה על שריג‪:‬‬
‫נתבונן בשריג הדו־ממדי ‪ Z2‬ובהסתברות )‪ p ∈ (0, 1‬כל אחת מהצלעות בשריג נמחקת או נשארת בהסתברות )‪ .(1 − p‬נשאלת‬
‫השאלה מה קורה לשריג‪ .‬למשל ניתן לשאול כתלות ב־ ‪ p‬האם יהיה רכיב קשירות אינסופי בגרף שנשאר‪ .‬ניתן להראות שעבור ‪p < 21‬‬
‫בהסתברות ‪ 1‬לא נשאר רכיב קשירות אינסופי ועבור ‪ p > 12‬בהסתברות ‪ 1‬נשאר רכיב קשירות אינסופי והוא יחיד‪ .‬בנוסף עבור‬
‫‪ p = 12‬מתברר שאין רכיב קשירות אינסופי‪.‬‬
‫דוגמה ‪ 1.4‬השרדות של שם משפחה‪:‬‬
‫נניח שמספר הצאצאים הזכרים של אדם מפולג בהתפלגות ‪ F‬כלשהי )למשל }‪ (U {1, 2, ..., n‬והנ"ל נכון גם עבור הצאצאים וצאצאי‬
‫הצאצאים וכן הלאה באופן בלתי תלוי‪ .‬נשאלת השאלה מה הסיכוי שקיים דור שבו לא יוולדו צאצאים זכרים בכלל או לחילופין הסיכוי‬
‫ששם המשפחה ישרוד לעד‪ .‬אפשר להראות שאם התוחלת של ההתפלגות גדולה מ־ ‪ 1‬אז בהסתברות חיובית אז שם המשפחה ישרוד‬
‫לעד ואם התוחלת קטנה מ־ ‪ 1‬אז השם לא שורד‪ .‬כמו כן אם התוחלת היא ‪ 1‬אז יש שרידות רק אם בכל שלב יש צאצא אחד בדיוק‪.‬‬
‫‪3‬‬
‫‪1.1‬‬
‫‪1‬‬
‫סילבוס הקורס‪:‬‬
‫כמה דוגמאות ראשונות לשאלות הסתברותיות‪:‬‬
‫הערה ‪ 1.5‬ניתן לייצג את הבעיה הזו בתור עץ אינסופי שמבצעים עליו פרקולציה ונשאלת השאלה האם נשאר מסלול אינסופי‪.‬‬
‫דוגמה ‪ 1.6‬ערבוב של חפיסת קלפים‪ :‬נניח שיש לנו חבילת כלפים מסודרת )בת ‪ 52‬קלפים( ואנחנו חותכים את החפיסה במקום מקרי‬
‫לפי התפלגות מסוימת ואז מערבבים באופן מסוים שגם נתון על ידי חוקיות מסוימת‪ .‬נשאלת כמה ערבובים צריך לבצע כדי ששיטת‬
‫הערבוב תהיה שקולה לבחירה מקרית ואחידה מ־ ‪) S52‬פרמוטציות של ‪ 52‬איברים(‪ .‬בפועל באף שיטה סבירה לא נקבל אף פעם‬
‫באמת פילוג אחיד מ־ ‪ S52‬אבל אפשר לשאול עד כמה שיטת הערבוב מתקרבת לכך אחרי מספר מסוים של ערבובים וכמה צעדים‬
‫נדרשים כדי להתקרב מספיק )כאשר מגדירים מרחק בין התפלגויות באופן מסוים(‪.‬‬
‫דוגמה ‪ 1.7‬הקלדה של רצף אותיות מסוים‪ :‬קופים מקלידים אותיות ב־ ‪ ABC‬באופן אחיד ואקראי וכבר ידוע לנו שכל רצף של‬
‫אותיות יוקלד בשלב מסוים בהסתברות ‪ .1‬נשאל לדוגמה כמה זמן צריך לחכות )בתוחלת( עד שנראה את הרצף ‪.ABRAKEDABRA‬‬
‫לכל רצף של ‪ 11‬אותיות מתוך ‪ 26‬אותיות יש הסתברות של ‪ 26111‬לצאת אבל מאחר ואנחנו מקלידים ברצף )בניגוד לבחירת רצף כל‬
‫פעם מחדש ללא המשכיות( וגם מאחר ויש חפיפה בין הסוף וההתחלה של הרצף יקח דווקא יותר זמן עד שנראה את הרצף הזה‪.‬‬
‫באופן כללי לרצפים שיש בהם פחות חפיפה יקח פחות זמן להופיע מאשר לרצפים שיש בהם יותר חפיפה‪.‬‬
‫דוגמה ‪ 1.8‬חידה‪ :‬נתונה חפיסת קלפים מעורבבת ושולפים קלפים זה אחר זה מראש הערימה ומסתכלים בהם ובכל שלב ניתן להחליט‬
‫שעוצרים ולא שולפים יותר‪ .‬כאשר עוצרים מקבלים ‪ ±1‬לפי צבע הקלף הבא‪ .‬נשאלת השאלה מה האסטרטגיה האופטימלית כדי‬
‫למקסם את הרווח‪.‬‬
‫‪1.1‬‬
‫סילבוס הקורס‪:‬‬
‫‪ .1‬תהליכים סטוכסטיים )סדרות של משתנים מקריים( והתכנסויות‪.‬‬
‫‪ .2‬פונקציות אופיניות ומשפט הגבול המרכזי‪.‬‬
‫‪ .3‬מרטינגלים )שם קוד לסדרה של הימורים הוגנים(‪.‬‬
‫‪ .4‬שרשראות מרקוב‪.‬‬
‫‪ .5‬סטיות גדולות‪.‬‬
‫‪ .6‬ריכוז מידה )‪.(Concentration of Measure‬‬
‫‪ .7‬תנועה בראונית‪.‬‬
‫‪4‬‬
‫‪2‬‬
‫‪2‬‬
‫חזרה על תורת המידה‪:‬‬
‫חזרה על תורת המידה‪:‬‬
‫הגדרה ‪ 2.1‬אלגברה על קבוצה‪:‬‬
‫בהנתן קבוצה ‪ Ω‬משפחת קבוצות )‪ F ⊆ P (Ω‬תקרא אלגברה אם היא מקיימת‪:‬‬
‫‪.∅ ∈ F .1‬‬
‫‪ .2‬אם ‪ A ∈ F‬אז ‪.Ac ∈ F‬‬
‫‪ .3‬אם ‪ A, B ∈ F‬אז ‪.(A ∪ B) ∈ F‬‬
‫לפעמים דורשים סגירות לחיתוך במקום לאיחוד והנ"ל שקול שכן יש סגירות למשלים‪ .‬כמו כן באינדוקציה מקבלים שאלגברה סגורה‬
‫לאיחודים וחיתוכים סופיים‪.‬‬
‫דוגמה ‪ 2.2‬דוגמאות‪:‬‬
‫‪ .1‬אוסף האיחודים של קטעים חצי פתוחים ]‪ (a, b] ⊆ [0, 1‬הוא אלגברה‪.‬‬
‫‪N‬‬
‫‪ .2‬בהנתן }‪ Ω = {0, 1‬נגדיר קבוצת צילינדר בסיסית ע"י‪:‬‬
‫‪o‬‬
‫‪N‬‬
‫‪∈ {0, 1} | ai = bi ∀ 1 ≤ i ≤ k‬‬
‫‪n‬‬
‫∞‬
‫‪Cb1 ,...,bk = (an )n=1‬‬
‫כלומר קבוצת כל הסדרות ש־ ‪ k‬המקומות הראשונים שלהן הם ‪ b1 , ..., bk‬עבור }‪ b1 , ..., bk ∈ {0, 1‬נתונים‪ .‬אוסף כל האיחודים‬
‫‪N‬‬
‫הסופיים של כל קבוצות הצילנידר הוא אלגברה על }‪.{0, 1‬‬
‫‪ .3‬אוסף כל תת־הקבוצות הסופיות\קו־סופיות של ‪ Ω‬הוא אלגברה‪.‬‬
‫הגדרה ‪ 2.3‬סיגמה אלגברה‪:‬‬
‫בהנתן קבוצה ‪ Ω‬משפחת קבוצות )‪ F ⊆ P (Ω‬תקרא סיגמה־אלגברה אם היא אלגברה והיא סגורה גם לאיחודים בני־מנייה‪.‬‬
‫הגדרה ‪ 2.4‬סיגמה אלגברה נוצרת‪:‬‬
‫בהנתן ‪ S ⊆ Ω‬ה־ ‪σ‬־אלגברה הנוצרת על ידי ‪ S‬שתסומן )‪ σ (S‬היא ה־ ‪σ‬־אלגברה המינימלית שמכילה את ‪ S‬ובאופן שקול חיתוך‬
‫כל ה־ ‪σ‬־אלגבראות המכילות את ‪.S‬‬
‫הגדרה ‪ 2.5‬סיגמה אלגברת בורל‪:‬‬
‫בהנתן מרחב טופולוגי ) ‪ (X, T‬נגדיר את ‪σ‬־אלגברת בורל על ‪ X‬שתסומן )‪ B (X‬בתור ) ‪ .B (X) := σ (T‬כלומר ה־ ‪σ‬־אלגברה‬
‫שנוצרת על ידי כל הקבוצות הפתוחות )באופן שקול אפשר להגדיר גם באמצעות סגורות(‪.‬‬
‫הגדרה ‪ 2.6‬מרחב מדיד‪:‬‬
‫מרחב מדיד הוא זוג )‪ (Ω, F‬כאשר ‪ Ω‬היא קבוצה ו־ ‪ F‬היא ‪σ‬־אלגברה על ‪.Ω‬‬
‫דוגמה ‪ 2.7‬נגדיר את )‪ S ⊆ P (N‬להיות אוסף הקבוצות ‪ A ⊆ N‬שיש להן צפיפות אסימפטוטית‪ ,‬כלומר קיים הגבול‪:‬‬
‫|}‪|A ∩ {1, ...., n‬‬
‫∞→‪n‬‬
‫‪n‬‬
‫‪lim‬‬
‫בפרט ‪ S‬איננה ‪σ‬־אלגברה שכן ניתן לבחור קבוצה בת־מנייה שאין לה צפיפות אסימפטוטית והיא תהיה איחוד בן־מנייה של יחידונים‬
‫שכמובן יש להם צפיפות אסימפטוטית ולכן ‪ S‬לא סגורה לאיחודים בני־מנייה בבירור‪ .‬אפשר להראות גם ש־ ‪ S‬איננה אלגברה ולשם‬
‫כך מספיק למצוא שתי קבוצות בעלות צפיפות אסימפטוטית שלאיחוד או לחיתוך שלהם אין צפיפות אסימפטוטית‪.‬‬
‫פתרון‪ :‬נקח את ‪ A‬להיות כל הזוגיים ואת ‪ B‬להיות הקבוצה שמכילה את כל הזוגיים עד מיליון‪ ,‬כל האי־זוגיים בין מיליון ומיליארד‪,‬‬
‫כל הזוגיים בין מיליארד למיליארד ומאה מיליון וכן הלאה‪ .‬לשתי הקבוצות הללו תהיה צפיפות אסימפטוטית אולם לחיתוך יהיו‬
‫פלקטואציות בצפיפות שתשתנה בין ‪ 0‬לבערך ‪ 21‬ולכן לא תהיה צפיפות אסימפטוטית‪.‬‬
‫‪5‬‬
‫‪2‬‬
‫חזרה על תורת המידה‪:‬‬
‫הגדרה ‪ 2.8‬מידה על מרחב מדיד‪:‬‬
‫בהנתן מרחב מדיד )‪ (Ω, F‬פונקציה ]∞ ‪ µ : F → [0,‬תקרא מידה אם היא מקיימת את התכונות הבאות‪:‬‬
‫‪.µ (∅) = 0 .1‬‬
‫‪ µ (A) ≥ 0 .2‬לכל ‪.A ∈ F‬‬
‫∞‪S‬‬
‫∞‪P‬‬
‫‪ .3‬סיגמה אדיטיביות‪ :‬בהנתן קבוצות זרות ‪ A1 , A2 , .. ∈ F‬מתקיים ) ‪.µ ( · n=1 An ) = n=1 µ (An‬‬
‫בפרט אם ∞ < )‪ µ (Ω‬נאמר כי ‪ µ‬היא מידה סופית ואם ‪ µ (Ω) = 1‬אז זוהי מידת הסתברות‪.‬‬
‫הגדרה ‪ 2.9‬מרחב מידה\הסתברות‪:‬‬
‫מרחב מידה הוא שלשה )‪ (Ω, F, µ‬כאשר )‪ (Ω, F‬הוא מרחב מדיד ו־ ‪ µ‬היא מידה על )‪.(Ω, F‬‬
‫הערה ‪ 2.10‬בפרט אם ‪ µ‬היא מידת הסתברות נאמר כי המרחב הוא מרחב הסתברות‪.‬‬
‫תזכורת ‪ 2.11‬כמה תכונות של מידה‪:‬‬
‫יהא )‪ (Ω, F, µ‬מרחב מידה‪ ,‬מתקיימים הדברים הבאים‪:‬‬
‫‪ .1‬מונוטוניות‪ :‬עבור ‪ A, B ∈ F‬כך ש־ ‪ A ⊆ B‬מתקיים )‪.µ (A) ≤ µ (B‬‬
‫∞‪S‬‬
‫∞‪P‬‬
‫‪ .2‬תת־אדיטיביות‪ :‬בהנתן ‪ A1 , A2 , ... ∈ F‬מתקיים ) ‪.µ ( n=1 An ) ≤ n=1 µ (An‬‬
‫‪ .3‬רציפות מלמטה‪ :‬בהנתן סדרה עולה ‪ An ↑∈ F‬מתקיים‪:‬‬
‫!‬
‫∞‬
‫[‬
‫‪An‬‬
‫‪lim µ (An ) = µ‬‬
‫∞→‪n‬‬
‫‪n=1‬‬
‫‪ .4‬רציפות מלמעלה‪ :‬בהנתן סדרה יורדת ‪ An ↓∈ F‬כך שקיים ‪ N‬שעבורו ∞ < ) ‪ µ (AN‬מתקיים‪:‬‬
‫!‬
‫∞‬
‫\‬
‫‪lim µ (An ) = µ‬‬
‫‪An‬‬
‫∞→‪n‬‬
‫‪n=1‬‬
‫הערה ‪ 2.12‬פונקציית קבוצות ]∞ ‪µ : F → [0,‬שהינה אדיטיבית סופית ומקיימת ‪ µ (∅) = 0‬היא מידה אמ"מ היא מקיימת את תכונה‬
‫‪ 3‬או ‪.4‬‬
‫הגדרה ‪ 2.13‬מידה על אלגברה )‪:(Pre-Measure‬‬
‫תקרא מידה על האלגברה אם ‪ µ (∅) = 0‬וגם לכל ‪ A1 , A2 , ... ∈ A‬זרות כך‬
‫‪µ‬‬
‫‪:‬‬
‫‪A‬‬
‫‪→ [0,‬‬
‫בהנתן אלגברה ‪ SA‬פונקציית קבוצות‬
‫∞‪S‬‬
‫]∞‪P‬‬
‫∞‬
‫∞‬
‫ש־ ‪ · n=1 An ∈ A‬מתקיים ) ‪.µ ( · n=1 An ) = n=1 µ (An‬‬
‫משפט ‪ 2.14‬משפט ההרחבה של ‪:Caratheodory‬‬
‫תהא ‪ F0‬היא אלגברה ותהא ‪ µ0‬מידה עליה‪ .‬אזי קיימת מידה ‪ µ‬על ) ‪ F := σ (F0‬כך ש־ ‪ .µ|F0 = µ0‬הנ"ל מכונה הרחבה של המידה‬
‫‪ µ0‬מהאלגברה ‪ F0‬ל־ ‪σ‬־אלגברה הנוצרת ממנה‪ .‬בפרט אם ‪ µ0‬היא מידה סופית )למעשה גם ‪σ‬־סופית( אז ההרחבה הנ"ל יחידה‪.‬‬
‫הערה ‪ 2.15‬באמצעות המשפט הנ"ל ניתן להרחיב מידות שמוגדרות על אלגברה לסיגמה אלגברה הנוצרת‪ .‬לדוגמה‪:‬‬
‫‪ .1‬הרחבת מידת האורך ‪ µ0 ([a, b]) = b − a‬מהאלגברה שנוצרת על ידי תת־קטעים ל־ ‪σ‬־אלגברה שהם יוצרים שהיא )‪.B (R‬‬
‫‪ .2‬הרחבת מידת הטלת מטבעות מהאלגברה הנוצרת על ידי צילינדרים ל־ ‪σ‬־אלגברה הנוצרת‪.‬‬
‫‪6‬‬
‫‪3‬‬
‫הסתברות בסיסית )יחסית(‪:‬‬
‫משפט ‪ 2.16‬מסקנה ממשפט ‪) π − λ‬משפט דינקין(‪:‬‬
‫יהא )‪ (Ω, F‬מרחב מדיד כך ש־ ) ‪ F = σ (F0‬ויהיו ‪ µ1 , µ2‬מידות סופיות על )‪ .(Ω, F‬אזי אם ‪ F0‬סגורה לחיתוכים וגם )‪µ1 (E) = µ2 (E‬‬
‫לכל ‪ E ∈ F0‬אז )‪ µ1 (E) = µ2 (E‬לכל ‪.E ∈ F‬‬
‫משפט ‪ 2.17‬משפט ־ תנאי למדידות )תרגיל(‪:‬‬
‫יהא )‪ (Ω, F, µ‬מרחב מידה כך ש־ ) ‪ F = σ (F0‬כאשר ‪ F0‬היא אלגברה‪ .‬אזי לכל ‪ A ∈ F‬ולכל ‪ ε > 0‬קיימת ‪ A0 ∈ F0‬כך ש‪:‬‬
‫‪µ (A4A0 ) = µ ((A\A0 ) ∪ (A0 \A)) < ε‬‬
‫המשמעות היא שבמובן מסוים ניתן לקרב קבוצות ב־ ‪σ‬־אלגברה ע"י קבוצות באלגברה‪.‬‬
‫הסתברות בסיסית )יחסית(‪:‬‬
‫‪3‬‬
‫‪3.1‬‬
‫כמה טענות בסיסיות בהסתברות‪:‬‬
‫הגדרה ‪ 3.1‬ה ־ ‪ Limsup/Liminf‬של סדרת מאורעות‪:‬‬
‫יהא )‪ (Ω, F‬מרחב מדיד‪ ,‬בהנתן סדרה ‪ E1 , E2 , ... ∈ F‬נגדיר‪:‬‬
‫[ ∞‬
‫\‬
‫‪En‬‬
‫‪En‬‬
‫= ‪lim sup En‬‬
‫∞→‪n‬‬
‫‪m=1 n>m‬‬
‫\ ∞‬
‫[‬
‫= ‪lim inf En‬‬
‫∞→‪n‬‬
‫‪m=1 n>m‬‬
‫למספר סופי של ערכי ‪ n‬וה־ ‪ Limsup‬הוא אוסף ה־‬
‫בפרט ה־ ‪ Liminf‬של הסדרה הוא אוסף ה־ ‪ ω ∈ Ω‬כך ש־ ‪ ω ∈En‬פרט ‬
‫‪ ω ∈ Ω‬כך ש־ ‪ ω ∈ En‬עבור אינסוף ערכי ‪ .n‬בפרט אם ∞ = ‪ P lim sup En‬אז אינסוף מהמאורעות ‪ En‬קורים כמעט תמיד‬
‫∞→‪n‬‬
‫‬
‫‬
‫ואם ‪ P lim inf En = 1‬אז כל המאורעות ‪ En‬פרט למספר סופי קורים כמעט־תמיד‪.‬‬
‫∞→‪n‬‬
‫משפט ‪ 3.2‬הלמה של ‪:Fatou‬‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות ויהיו ‪ ,E1 , E2 , ... ∈ F‬אזי‪:‬‬
‫‬
‫‬
‫) ‪P lim inf En ≤ lim inf P (En‬‬
‫∞→‪n‬‬
‫∞→‪n‬‬
‫‬
‫‬
‫) ‪P lim sup En ≥ lim sup P (En‬‬
‫∞→‪n‬‬
‫∞→‪n‬‬
‫הוכחה‪:‬‬
‫‪ .1‬נגדיר ‪En‬‬
‫‪n>m‬‬
‫‪T‬‬
‫=‪ Am :‬ונקבל כי ‪ ,Am ↑ lim inf En‬לכן מרציפות של מידה נקבל כי‪:‬‬
‫∞→‪n‬‬
‫‬
‫‬
‫∞→‪m‬‬
‫‪lim inf P (En ) ≥ P (Am ) −→ P lim inf En‬‬
‫∞→‪n‬‬
‫∞→‪n‬‬
‫כאשר א"ש המסומן נובע מכך ש־ ‪ Am ⊆ En‬לכל ‪ n > m‬ולכן ) ‪ P (Am ) ≤ P (En‬לכל ‪.n > m‬‬
‫‬
‫‪c‬‬
‫‪ .2‬נשים לב כי ‪ lim sup En = lim inf Enc‬ומכך על סמך הטענה הראשונה נקבל כי‪:‬‬
‫∞→‪n‬‬
‫∞→‪n‬‬
‫‬
‫‬
‫‬
‫ ‪c‬‬
‫‪1 − P lim sup En = P lim inf En‬‬
‫) ‪≤ lim inf (1 − P (Enc )) = 1 − lim inf P (Enc ) = 1 − lim sup P (En‬‬
‫∞→‪n‬‬
‫∞→‪n‬‬
‫∞→‪n‬‬
‫‪7‬‬
‫∞→‪n‬‬
‫∞→‪n‬‬
‫‪3.1‬‬
‫כמה טענות בסיסיות בהסתברות‪:‬‬
‫הסתברות בסיסית )יחסית(‪:‬‬
‫‪3‬‬
‫מעבירים אגפים ומקבלים את הנדרש‪.‬‬
‫למה ‪ 3.3‬הלמה הראשונה של בורל קנטלי‪:‬‬
‫‬
‫‬
‫∞‪P‬‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות ותהא ‪ E1 , E2 , ... ∈ F‬כך ש־ ∞ < ) ‪ n=1 P (En‬אזי ‪.P lim sup En = 0‬‬
‫∞→‪n‬‬
‫הוכחה‪ :‬נשים לב כי לכל ‪ m ∈ N‬מתקייים ‪En‬‬
‫‪n>m‬‬
‫‪S‬‬
‫⊆ ‪ ,lim sup En‬מכך נקבל כי‪:‬‬
‫∞→‪n‬‬
‫!‬
‫∞→‪m‬‬
‫‪P (En ) −→ 0‬‬
‫‪X‬‬
‫‪n>m‬‬
‫≤‬
‫[‬
‫‪En‬‬
‫‬
‫‬
‫‪P lim sup En ≤ P‬‬
‫∞→‪n‬‬
‫‪n>m‬‬
‫‬
‫‬
‫∞‪P‬‬
‫הערה ‪ 3.4‬נשים לב כי הטענה הזו איננה אמ"מ‪ ,‬כלומר אם ∞ = ) ‪ n=1 P (En‬לא בהכרח נובע ש־ ‪ .P lim sup En > 0‬למשל‬
‫∞→‪n‬‬
‫‬
‫∞‪P‬‬
‫∞‪P‬‬
‫עבור ‪ En = 0, n1‬ו־ ]‪ Ω = (0, 1‬עם מידת הסתברות אחידה נקבל כי ∅ = ‪ lim sup En‬אולם ∞ = ‪. n=1 P (En ) = n=1 n1‬‬
‫∞→‪n‬‬
‫הגדרה ‪ 3.5‬אי־תלות של סדרת ‪σ‬־אלגבראות ושל סדרת מאורעות‪:‬‬
‫∞‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות ותהא תהא ‪ {Fi }i=1‬סדרה של תת־‪σ‬־אלגבראות ‪:Fi ⊆ F‬‬
‫‪Tn‬‬
‫‪Qn‬‬
‫∞‬
‫‪ .1‬נאמר ש־ ‪ {Fi }i=1‬בלתי תלויה אם לכל ‪ n ∈ N‬ולכל בחירה של ‪ (i = 1, ..., n) Ai ∈ Fi‬מתקיים ) ‪.P ( i=1 Ai ) = i=1 P (Ai‬‬
‫‪ .2‬נאמר שסדרת מאורעות ‪ A1 , A2 , ... ∈ F‬היא בלתי תלויה אם הסדרה } ‪ σ ({Ai }) = {∅, Ω, Ai , Aci‬בלתי־תלויה‪.‬‬
‫הערה ‪ 3.6‬בשני המקרים הסדרות יכולות להיות סופיות בשינוי מתאים של ההגדרה‪.‬‬
‫טענה ‪ 3.7‬הגדרה שקולה לאי־תלות של אוסף וסדרת מאורעות )תוספת(‪:‬‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות‪:‬‬
‫‬
‫‪ .1‬מאורעות ‪ A1 , ..., AN ∈ F‬הם ב"ת אם לכל ‪ 1 ≤ k1 < ... < km ≤ N‬מתקיים ‪P Akj‬‬
‫‪Qm‬‬
‫‪j=1‬‬
‫=‬
‫‬
‫‪Akj‬‬
‫‪T‬‬
‫‪m‬‬
‫‪j=1‬‬
‫‪.P‬‬
‫‪ .2‬מאורעות ‪ A1 , A2 , ... ∈ F‬הם ב"ת אם לכל ‪ N ∈ N‬המאורעות ‪ A1 , ..., AN‬בלתי תלויים‪.‬‬
‫הגדרה ‪ 3.8‬אי־תלות בזוגות של סדרת ‪σ‬־אלגבראות וסדרת מאורעות‪:‬‬
‫∞‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות נאמר שסדרה ‪ {Fi }i=1‬של תת־‪σ‬־אלגבראות ‪ Fi ⊆ F‬בלתי־תלויה בזוגות אם לכל ‪ i 6= j‬ו־‬
‫‪ A ∈ Fi‬ו־ ‪ B ∈ Fj‬מתקיים )‪ .P (A ∩ B) = P (A) · P (B‬באופן מתאים נאמר שסדרת מאורעות ‪ E1 , E2 , ... ∈ F‬בלתי תלויים‬
‫בזוגות אם אם הסדרה } ‪ σ ({Ei }) = {∅, Ω, Ei , Eic‬בלתי־תלויה בזוגות‪.‬‬
‫הערה ‪ 3.9‬אי־תלות כמובן תמיד גוררת אי־תלות בזוגות אבל ההפך לא נכון‪.‬‬
‫למה ‪ 3.10‬תנאי לאי־תלות של שתי תת־‪σ‬־אלגבראות במרחב הסתברות‪:‬‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות ויהיו ‪ S1 , S2 ⊆ F‬תת־קבוצות סגורות לחיתוכים כך שלכל ‪ A ∈ S1‬ו־ ‪ B ∈ S1‬מתקיים‬
‫)‪P (A ∩ B) = P (A) P (B‬‬
‫אזי ) ‪ σ (S1‬ו־ ) ‪ σ (S2‬הן ב"ת‪.‬‬
‫‪8‬‬
‫‪3‬‬
‫‪3.1‬‬
‫הסתברות בסיסית )יחסית(‪:‬‬
‫כמה טענות בסיסיות בהסתברות‪:‬‬
‫הערה ‪ 3.11‬באופן כללי יותר אם ‪ S1 , S2 , ..., Sn ⊆ F‬סגורות לחיתוכים ומתקיים‪:‬‬
‫!‬
‫‪n‬‬
‫‪n‬‬
‫\‬
‫‪Y‬‬
‫‪P‬‬
‫= ‪Ai‬‬
‫) ‪P (Ai‬‬
‫‪i=1‬‬
‫‪i=1‬‬
‫לכל ‪ Ai ∈ Si‬אז ) ‪ σ (S1 ) , ..., σ (Sn‬ב"ת‪.‬‬
‫הוכחה‪ :‬נקבע ‪ A ∈ S1‬ונגדיר )‪ P1 (B) = P (B) P (A‬ו־ )‪ P2 (B) = P (B ∩ A‬עבור כל ) ‪ .B ∈ σ (S2‬נשים לב כי ‪ P1 , P2‬הן מידות‬
‫סופיות על )) ‪ (Ω, σ (S2‬ומתקיים )‪ P2 (B) = P1 (B‬לכל ‪ .B ∈ S2‬לכן ממשפט דינקין מאחר ש־ ‪ S2‬סגורה לחיתוכים נובע שהשוויון‬
‫מתקיים לכל ) ‪ .B ∈ σ (S2‬כעת נסמן ) ‪ T1 = σ (S1‬ו־ ) ‪ ,T2 = σ (S2‬גם אלו הן קבוצות שסגורות לחיתוכים‪ ,‬נקבע ‪ B ∈ T2‬ונגדיר‬
‫)‪ P1 (A) = P (B) P (A‬ו־ )‪ P2 (A) = P (B ∩ A‬עבור כל ) ‪ .A ∈ σ (S1‬אלו הן מידות סופיות על )) ‪ (Ω, σ (S1‬ועל סמך מה שהוכחנו‬
‫מתקיים )‪ P2 (A) = P1 (A‬לכל ‪ .A ∈ S1‬לכן שוב ממשפט דינקין מתקיים השוויון הנ"ל לכל ) ‪ .A ∈ σ (S1‬סה"כ ניתן לראות שלכל‬
‫) ‪ B ∈ σ (S2‬ולכל ) ‪ A ∈ σ (S1‬מתקיים )‪ P (A) P (B) = P (A ∩ B‬ומכך ישנה אי־תלות כנדרש‪.‬‬
‫למה ‪ 3.12‬הלמה השנייה של בורל־קנטלי‪:‬‬
‫‬
‫‬
‫∞‪P‬‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות ותהא ‪ E1 , E2 , ... ∈ F‬סדרת מאורעות ב"ת כך ש־ ∞ = ) ‪ n=1 P (En‬אזי ‪.P lim sup En = 1‬‬
‫∞→‪n‬‬
‫‬
‫‬
‫הוכחה‪ :‬מספיק שנראה כי ‪ .P lim inf Enc = 0‬נשים לב כי‪:‬‬
‫∞→‪n‬‬
‫‪=0‬‬
‫) ‪P(En‬‬
‫‪P‬‬
‫‪n>m‬‬
‫!‬
‫‪−‬‬
‫‪e−P(En ) = e‬‬
‫‪Y‬‬
‫≤ )) ‪(1 − P (En‬‬
‫‪n>m‬‬
‫‪Y‬‬
‫=‬
‫‪n>m‬‬
‫∞→‪n‬‬
‫‪Enc‬‬
‫\‬
‫‪P‬‬
‫‪n>m‬‬
‫כאשר השתמשנו בכך ש־ ) ‪ 1 − P (En ) ≤ e−P(En‬וגם ∞ →‪P (En ) −‬‬
‫!‬
‫\ ∞‬
‫‬
‫‬
‫[‬
‫‪P lim inf Enc = P‬‬
‫‪Enc = 0‬‬
‫‪P‬‬
‫‪n>m‬‬
‫‪ .‬בפרט מכך נסיק כי‪:‬‬
‫∞→‪n‬‬
‫‪n=1 n>m‬‬
‫הגדרה ‪σ 3.13‬־אלגברת זנב של סדרת ‪σ‬־אלגבראות‪:‬‬
‫∞‬
‫יהא )‪ (Ω, F‬מרחב מדיד ותהא ‪ {Fn }n=1‬סדרת ‪σ‬־אלגבראות חלקיות של ‪ ,F‬נגדיר‪:‬‬
‫!‬
‫[‬
‫‪Tn = σ ({Fn , Fn+1 , ...}) = σ‬‬
‫‪Fn‬‬
‫‪n>m‬‬
‫כמו כן נגדיר ‪Tn‬‬
‫∞‪T‬‬
‫‪n=1‬‬
‫∞‬
‫= ‪ ,T‬הנ"ל מכונה ‪σ‬־אלגברת הזנב של הסדרה ‪) {Fn }n=1‬נשים לב כי ‪ {∅, Ω} ⊆ T‬ולכן הנ"ל לא ריקה(‪.‬‬
‫הערה ‪ 3.14‬כל מאורע של ‪ T‬מכונה גם "מאורע זנב"‪.‬‬
‫∞‬
‫תרגיל‪ :‬אם נקח סדרת מאורעות ‪ {En }n=1‬כך ש־ ‪ En ∈ Fn‬לכל ‪ n‬אז ‪ lim inf En ∈ T‬וגם ‪.lim sup En ∈ T‬‬
‫∞→‪n‬‬
‫∞→‪n‬‬
‫משפט ‪ 3.15‬משפט ‪1‬־‪ 0‬של קולמוגורוב‪:‬‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות ותהא )‪⊆ P (F‬‬
‫∞‬
‫‪{Fn }n=1‬‬
‫סדרה ב"ת של ‪σ‬־אלגבראות אזי לכל ‪ A ∈ T‬מתקיים }‪.P (A) ∈ {0, 1‬‬
‫דוגמה ‪ 3.16‬דוגמה קנונית שבד"כ משתמשים בה כדי להתבונן בהתנהגות של סדרה ב"ת של ‪σ‬־אלגבראות ומאורעות זנב בה היא‬
‫‪N‬‬
‫הדוגמה שבה }‪ Ω = {0, 1‬ו־ )}‪.Fn = σ ({ω : ωn = 0‬‬
‫‪9‬‬
‫‪3‬‬
‫‪3.2‬‬
‫הסתברות בסיסית )יחסית(‪:‬‬
‫משתנים מקריים‪:‬‬
‫הוכחה‪) :‬חסרים פרטים( ראשית נראה ש־ ‪ T , F1 , F2 , ...‬ב"ת‪ .‬בהנתן ‪ A ∈ T‬לכל ‪ n ∈ N‬מתקיים ‪ A ∈ Tn‬ולכן בהנתן מאורעות‬
‫‪ Ai ∈ Fi‬נקבל כי‪:‬‬
‫!‬
‫‪n−1‬‬
‫‪n−1‬‬
‫\‬
‫‪Y‬‬
‫∩‪P A‬‬
‫)‪Ai = P (A‬‬
‫) ‪P (Ai‬‬
‫‪i=1‬‬
‫‪i=1‬‬
‫כאשר השוויון הנ"ל נובע מכך ש־ ‪ Tn , F1 , ..., Fn−1‬הן ב"ת על סמך הגרסה הכללית יותר של למה ‪ .3.10‬כעת שהראינו ש־‬
‫נסיק ש־ ‪ T‬ב"ת ב־ )}‪ σ ({F1 , F2 , ...‬כאשר הנ"ל נובע שוב מלמה ‪ 3.10‬כאשר משתמשים באי־תלות‪ ,‬בכך ש־ ‪T‬‬
‫‪, F1 , F2 , ...‬‬
‫‪ TS‬ב"ת∞‪S‬‬
‫‪n‬‬
‫ו־ ) ‪) n=1 σ ( i=1 Fi‬זוהי איננה ‪σ‬־אלגברה אך כן אלגברה( סגורות לחיתוכים ובכך שמתקיים‪:‬‬
‫!!‬
‫∞‬
‫‪n‬‬
‫[‬
‫[‬
‫‪σ ({F1 , F2 , ...}) = σ‬‬
‫‪σ‬‬
‫‪Fi‬‬
‫‪i=1‬‬
‫‪n=1‬‬
‫לסיום מאחר ש־ )}‪ T ⊆ σ ({F1 , F2 , ...‬ומאי־התלות הנ"ל נקבל שלכל ‪ A ∈ T‬מתקיים )‪ P (A) = P (A ∩ A) = P (A) · P (A‬ולכן‬
‫}‪.P (A) ∈ {0, 1‬‬
‫תרגיל‪ :‬האם הטענה נכונה גם במקרה שהסדרה ב"ת רק בזוגות?‬
‫‪3.2‬‬
‫משתנים מקריים‪:‬‬
‫הגדרה ‪ 3.17‬פונקציה מדידה‪:‬‬
‫יהיו )‪ (X, F‬ו־ )‪ (Y, G‬מרחבים מדידים‪ .‬העתקה ‪ g : X → Y‬תקרא )‪(F, G‬־מדידה אם ‪ g −1 (B) ∈ F‬לכל ‪.B ∈ G‬‬
‫הערה ‪ 3.18‬בד"כ ה־ ‪σ‬־אלגברה בטווח פחות רלוונטית ולכן נרשום באופן מקוצר שההעתקה היא ‪F‬־מדידה‪.‬‬
‫הערה ‪ 3.19‬העתקה מדידה ) ‪ f : (Rn , B n ) → (Rm , B m‬תקרא מדידה־בורל‪ .‬בפרט כל רציפה היא מיידית מדידה־בורל‪.‬‬
‫הגדרה ‪ 3.20‬משתנה מקרי‪:‬‬
‫יהיו )‪ (Ω, F, P‬מרחב הסתברות‪ ,‬משתנה מקרי )מ"מ( הוא פונקציה ‪F‬־מדידה מ־ )‪ (Ω, F‬למרחב מדיד )‪ (Y, G‬כלשהו‪ .‬משתנה מקרי‬
‫ממשי הוא פונקציה ‪F‬־מדידה מ־ )‪ (Ω, F‬ל־ )‪.(R, B‬‬
‫הערה ‪ 3.21‬כאשר נרשום ש־ ‪ X‬הוא מ"מ הכוונה תמיד תהיה שהתחום הוא מרחב הסתברות והטווח הוא )‪.(R, B‬‬
‫תזכורת ‪ 3.22‬תנאי מספיק למדידות )ראינו במידה(‪:‬‬
‫יהיו )‪ (X, F‬ו־ )‪ (Y, G‬מרחבים מדידים ותהא ‪ .g : X → Y‬תהא ‪ S ⊆ G‬כך ש־ ‪ g −1 [A] ∈ F‬לכל ‪ A ∈ S‬אז ‪ g‬היא‬
‫))‪(F, σ (S‬־מדידה‪ .‬בפרט אם ‪ σ (S) = G‬אז ‪ g‬היא ‪F‬־מדידה‪.‬‬
‫מסקנה ‪ 3.23‬תנאי מספיק למדידות של מ"מ ממשי‪:‬‬
‫יהיו )‪ (Ω, F‬מרחב מדיד ותהא )‪ .f : (Ω, F) → (R, B‬אזי ‪ f‬היא ‪F‬־מדידה אמ"מ ‪ f −1 [(−∞, t]] ∈ F‬לכל ‪.t ∈ R‬‬
‫הוכחה‪ :‬מיידי מהטענה הקודמת ומכך ש־ }‪ {(−∞, t] | t ∈ R‬יוצרת את ‪.B‬‬
‫הערה ‪ 3.24‬מתקיים )‪ B n = σ (B × · · · × B‬ובפרט‪:‬‬
‫)}‪B n = σ ({(−∞, t1 ] × · · · × (−∞, tn ] | t1 , ..., tn ∈ R‬‬
‫כלומר ‪σ‬־אלגברת בורל ב־ ‪ Rn‬היא ה־ ‪σ‬־אלגברה שנוצרת על ידי מכפלות של קבוצות בורל ובפרט של קרנות‪.‬‬
‫מסקנה ‪ 3.25‬וקטור מקרי הוא משתנה מקרי מדיד ‪:Ω → R2‬‬
‫‬
‫יהא )‪ (Ω, F‬מרחב מדיד ויהיו ‪ X, Y‬משתנים מקריים‪ .‬אזי ‪ (X, Y ) : Ω → R2‬הוא וקטור מקרי למרחב ‪. R2 , B 2‬‬
‫‪10‬‬
‫‪3‬‬
‫‪3.3‬‬
‫הסתברות בסיסית )יחסית(‪:‬‬
‫סדרות של משתנים מקריים‪:‬‬
‫הערה ‪ 3.26‬כמובן שהנ"ל נכון גם עבור וקטור מקרי ‪ (X1 , ..., Xn ) : Ω → Rn‬והנ"ל מדיד כפונקציה ) ‪.(Ω, F) → (Rn , B n‬‬
‫הוכחה‪ :‬מספיק להראות ש־ ]]‪[(−∞, t] × (−∞, s‬‬
‫‪−1‬‬
‫) ‪ (X, Y‬היא ‪F‬־מדידה לכל ‪ t, s ∈ R‬וזה נובע מיידית מכך ש‪:‬‬
‫]]‪[(−∞, t] × (−∞, s]] = X −1 [(−∞, t]] ∩ Y −1 [(−∞, s‬‬
‫‪−1‬‬
‫) ‪(X, Y‬‬
‫טענה ‪ 3.27‬הרכבת פונקציות מדידות היא מדידה‪:‬‬
‫יהיו )‪ (X, F) , (Y, G) , (Z, H‬מרחבים מדידים‪ .‬תהא ‪ f : X → Y‬העתקה ‪F‬־מדידה ותהא ‪ g : Y → Z‬העתקה ‪G‬־מדידה‪ .‬אזי‬
‫‪ g ◦ f : X → Z‬היא ‪F‬־מדידה‪.‬‬
‫הוכחה‪ :‬תהא ‪ ,A ∈ H‬מההנחה כי ‪ g‬היא ‪G‬־מדידה נקבל כי ‪ .g −1 (A) ∈ G‬מההנחה כי ‪ f‬היא ‪F‬־מדידה נובע כי‪:‬‬
‫‬
‫‪−1‬‬
‫‪(g ◦ f ) (A) = f −1 g −1 (A) ∈ F‬‬
‫מכך ניתן לראות כי ‪ g ◦ f‬היא ‪F‬־מדידה כנדרש‪.‬‬
‫מסקנה ‪ 3.28‬מסקנה מיידית מהטענה הקודמת‪:‬‬
‫יהא )‪ (Ω, F‬מרחב מדיד ויהיו ‪ X, Y‬משתנים מקריים אזי ‪ X + Y‬הוא משתנה מקרי )כלומר הוא ‪F‬־מדיד(‪.‬‬
‫הוכחה‪ :‬מיידי מכך שהעתקת החיבור ‪ + : R2 → R‬היא רציפה ולכן מדידה־בורל‪.‬‬
‫טענה ‪ 3.29‬אריתמטיקה כללית יותר של פונקציות מדידות )ללא הוכחה(‪:‬‬
‫יהיו )‪ f, g : (X, F) → (R, B‬פונקציות ‪F‬־מדידות ויהיו ‪ α, β ∈ R‬אזי‪:‬‬
‫‪ .1‬הקבוצה })‪ {x ∈ X | f (x) > g (x‬היא ‪F‬־מדידה )כנ"ל עבור =‪.(≤, ≥, <, =, 6‬‬
‫‪ .2‬הפונקציות ‪ αf , f + α‬ו־ ‪ αf + βg‬הן ‪F‬־מדידות‪.‬‬
‫‪ .3‬הפונקציה ‪ f · g‬היא ‪F‬־מדידה ואם ‪ g 6= 0‬אז‬
‫‪f‬‬
‫‪g‬‬
‫היא ‪F‬־מדידה‪.‬‬
‫‪ .4‬הפונקציות }‪ max {f, g‬ו־ }‪ min {f, g‬הן ‪F‬־מדידות‪.‬‬
‫‪ .5‬הפונקציה ‪ f 2‬היא ‪F‬־מדידה‪.‬‬
‫‪ .6‬הפונקציות ‪ f +‬ו־ ‪ f −‬הן ‪F‬־מדידות‪.‬‬
‫‪ .7‬הפונקציה | ‪ |f‬היא ‪F‬־מדידה‪.‬‬
‫‪3.3‬‬
‫סדרות של משתנים מקריים‪:‬‬
‫את חלק מההגדרות בקטע הבא אני הוספתי מאחר והן רלוונטיות לדיון שהתקיים בהרצאה‪.‬‬
‫טענה ‪ 3.30‬כמה תכונות בסיסיות של סדרות משתנים מקריים‪:‬‬
‫יהא )‪ (X, F‬מרחב מדיד ותהא )‪ fn : (X, F) → (R, B‬סדרת פונקציות ‪F‬־מדידות אזי הפונקציות‪:‬‬
‫)‪lim inf fn (x‬‬
‫∞→‪n‬‬
‫‪lim sup fn (x) ,‬‬
‫∞→‪n‬‬
‫‪inf fn (x) ,‬‬
‫‪n∈N‬‬
‫‪sup fn (x) ,‬‬
‫הן פונקציות ‪F‬־מדידות )יש לשים לב כי הפונקציות הללו יכולות לקבל גם את הערכים ∞‪.(±‬‬
‫‪11‬‬
‫‪n∈N‬‬
‫‪3.3‬‬
‫‪3‬‬
‫סדרות של משתנים מקריים‪:‬‬
‫הסתברות בסיסית )יחסית(‪:‬‬
‫הוכחה‪ :‬נשים לב כי לכל ‪ a ∈ R‬מתקיים‪:‬‬
‫‬
‫∞‬
‫∞‬
‫\‬
‫\‬
‫= ‪x ∈ X | sup fn (x) < a‬‬
‫= }‪{x ∈ X | fn (x) < a‬‬
‫‪fn−1 [(−∞, a)] ∈ F‬‬
‫‬
‫∞‬
‫∞‬
‫[‬
‫[‬
‫= ‪x ∈ X | inf fn (x) < a‬‬
‫= }‪{x ∈ X | fn (x) < a‬‬
‫‪fn−1 [(−∞, a)] ∈ F‬‬
‫‪n∈N‬‬
‫‪n=1‬‬
‫‪n=1‬‬
‫‬
‫‪sup fn‬‬
‫= ]]‪[(−∞, a‬‬
‫‪n∈N‬‬
‫‪n=1‬‬
‫‪n=1‬‬
‫‪−1‬‬
‫‬
‫‪n∈N‬‬
‫‪−1‬‬
‫‬
‫= ]]‪[(−∞, a‬‬
‫‬
‫‪inf fn‬‬
‫‪n∈N‬‬
‫מכך ‪ sup, inf‬הם ‪F‬־מדידים על סמך למה ‪ 3.23‬ולכן מיידית גם ‪ lim sup‬וגם ‪ lim inf‬הן ‪F‬־מדידות שכן‪:‬‬
‫‬
‫‬
‫)‪lim sup fn (x) = inf sup fk (x‬‬
‫‪n∈N‬‬
‫‪k≥n‬‬
‫‬
‫)‪inf fk (x‬‬
‫∞→‪n‬‬
‫‬
‫‪k≥n‬‬
‫‪lim inf fn (x) = sup‬‬
‫∞→‪n‬‬
‫‪n∈N‬‬
‫טענה ‪ 3.31‬אוסף נקודות ההתכנסות של סדרת משתנים מקריים היא קבוצה מדידה‪:‬‬
‫‪n‬‬
‫‪o‬‬
‫∞‬
‫יהא )‪ (Ω, F‬מרחב מדיד ותהא ‪ {Xn }n=1‬סדרת מ"מ אזי ‪ ω ∈ Ω | lim Xn (ω) exists‬היא ‪F‬־מדידה‪.‬‬
‫∞→‪n‬‬
‫הוכחה‪ :‬אם )‪ Xn (ω‬לא מתכנסת ל־ ∞‪ ±‬באף ‪ ω ∈ Ω‬אז פשוט נקבל כי‪:‬‬
‫‬
‫‪n‬‬
‫ ‪o‬‬
‫)‪ω ∈ Ω | lim Xn (ω) exists = ω ∈ Ω | lim inf Xn (ω) = lim sup Xn (ω‬‬
‫∞→‪n‬‬
‫∞→‪n‬‬
‫∞→‪n‬‬
‫מאחר ש־ ‪ lim sup Xn‬ו־ ‪ lim inf Xn‬הן ‪F‬־מדידות ידוע שקבוצת הנקודות שעליהן הן משתוות היא קבוצה מדידה‪ ,‬כנדרש‪.‬‬
‫הערה ‪ 3.32‬אם מאפשרים לסדרה להתכנס ל־ ∞‪ ±‬צריך לעבוד קצת יותר אבל הטענה נשארת נכונה‪.‬‬
‫הגדרה ‪ 3.33‬התכנסות כמעט תמיד של סדרת משתנים מקריים‪:‬‬
‫∞‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות ותהא ‪ {Xn }n=1‬סדרת מ"מ‪ .‬נאמר כי הנ"ל מתכנסת כמעט־תמיד )כ"ת( למ"מ ‪ X‬אם‪:‬‬
‫‪n‬‬
‫‪o‬‬
‫)‪P ω ∈ Ω | lim Xn (ω) 6= X (ω‬‬
‫‪=0‬‬
‫∞→‪n‬‬
‫‪a.s‬‬
‫כלומר ‪ Xn‬מתכנסת נקודתית ל־ ‪ X‬פרט אולי על תת־קבוצה מהסתברות אפס‪ .‬נסמן זאת ‪.Xn −→ X‬‬
‫הגדרה ‪ 3.34‬סיגמה אלגברה הנוצרת ע"י משתנה מקרי וע"י סדרת משתנים מקריים‪:‬‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות ויהא ‪ X‬משתנה מקרי‪:‬‬
‫‪ .1‬נגדיר את )‪ σ (X‬להיות ה־ ‪ σ‬אלגברה המינימלית על ‪ Ω‬שעבורה ‪ X‬מדיד‪ .‬באופן שקול‬
‫∞‬
‫‬
‫‪X −1 (B) | B ∈ B‬‬
‫‬
‫‪.σ (X) = σ‬‬
‫∞‬
‫‪ .2‬עבור סדרת מ"מ ‪ {Xn }n=1‬נגדיר את ) ‪ σ ({Xn }n=1‬להיות ה־ ‪σ‬־אלגברה המינימלית על ‪ Ω‬כך ש־ ‪ Xn‬מדיד לכל ‪.n‬‬
‫הגדרה ‪ 3.35‬אי־תלות של סדרת משתנים מקריים‪:‬‬
‫∞‬
‫∞‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות נאמר כי סדרת מ"מ ‪ {Xn }n=1‬היא ב"ת אם ‪ {σ (Xn )}n=1‬היא סדרה ב"ת של ‪σ‬־אלגבראות‪.‬‬
‫הערה ‪ 3.36‬גם כאן אפשר לדבר כמובן על אי־תלות של מספר סופי של מ"מ בשינוי מיידי של ההגדרה‪.‬‬
‫‪12‬‬
‫‪3.3‬‬
‫‪3‬‬
‫סדרות של משתנים מקריים‪:‬‬
‫הסתברות בסיסית )יחסית(‪:‬‬
‫טענה ‪ 3.37‬הגדרה שקולה לאי־תלות של אוסף וסדרת משתנים מקריים )תוספת(‪:‬‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות‪:‬‬
‫‪−1‬‬
‫‪ X1−1 [B1 ] , ..., XN‬ב"ת‪.‬‬
‫‪ .1‬משתנים מקריים ‪ X1 , ..., XN‬הם ב"ת אם לכל ‪ B1 , ..., BN ∈ F‬המאורעות ] ‪[BN‬‬
‫‪ .2‬משתנים מקריים ‪ X1 , X2 , ...‬הם ב"ת אם לכל ‪ N ∈ N‬המשתנים ‪ X1 , ..., XN‬ב"ת‪.‬‬
‫הגדרה ‪ 3.38‬אי־תלות של מ"מ בסדרת מ"מ‪:‬‬
‫∞‬
‫∞‬
‫תהא ‪ {Xn }n=1‬סדרת מ"מ‪ .‬נאמר כי מ"מ ‪ Y‬ב"ת בסדרה אם ) ‪ σ (Y‬ו־ ) ‪ σ ({Xn }n=1‬ב"ת‪.‬‬
‫הגדרה ‪ 3.39‬אי־תלות של מאורע בסדרת מ"מ‪:‬‬
‫∞‬
‫∞‬
‫תהא ‪ {Xn }n=1‬סדרת מ"מ‪ .‬נאמר כי ‪ A ∈ F‬ב"ת בסדרה אם )}‪ σ ({A‬ו־ ) ‪ σ ({Xn }n=1‬ב"ת‪.‬‬
‫הגדרה ‪ 3.40‬סיגמת־אלגברת זנב של סדרת משתנים מקריים‪:‬‬
‫∞‬
‫‪T‬‬
‫ונגדיר‬
‫‪T‬‬
‫תהא ‪ {Xn }n=1‬סדרת מ"מ נגדיר )}‪:= σ ({Xn , Xn+1 , ...‬‬
‫‪n‬‬
‫‪n‬‬
‫‪n=1‬‬
‫כל מאורע ‪ A ∈ T‬יכונה מאורע זנב של הסדרה‪.‬‬
‫∞‪T‬‬
‫= ‪ ,T‬הנ"ל היא ‪σ‬־אלגברת הזנב של הסדרה‪ .‬בפרט‬
‫∞‬
‫∞‬
‫הערה ‪ 3.41‬נשים לב שאם ‪ Y‬הוא מ"מ ‪T‬־מדיד אז הוא מיידית גם ) ‪σ ({Xn }n=1‬־מדיד שכן ) ‪.T ⊆ σ ({Xn }n=1‬‬
‫למה ‪ 3.42‬משתנים מקריים ‪T‬־מדידים הם ב"ת בסדרה ב"ת )ללא הוכחה(‪:‬‬
‫∞‬
‫∞‬
‫תהא ‪ {Xn }n=1‬סדרת מ"מ ב"ת ותהא ‪σ T‬־אלגברת הזנב של הסדרה‪ .‬אזי אם ‪ Y‬הוא מ"מ ‪T‬־מדיד אזי ‪ Y‬ב"ת ב־ ‪.{Xn }n=1‬‬
‫הערה ‪ 3.43‬אפשר להראות גם שכל מאורע זנב של סדרה הוא ב"ת בסדרה )ללא צורך שהסדרה תהיה ב"ת(‪.‬‬
‫משפט ‪ 3.44‬גרסה של חוק ‪1‬־‪ 0‬של קולמוגורוב )תרגיל(‪:‬‬
‫∞‬
‫∞‬
‫תהא ‪ {Xn }n=1‬סדרת מ"מ ב"ת ויהא ‪ Y‬משתנה מקרי ) ‪σ ({Xn }n=1‬־מדיד כך ש־ ‪ Y, X1 , X2 , ...‬הם בלתי־תלויים‪ .‬אזי ‪ Y‬קבוע כ"ת‬
‫)כלומר קיים ‪ c ∈ R‬כך ש־ ‪ P ({ω ∈ Ω | Y (ω) = c}) = 1‬ובפרט ניתן להראות ש‪:‬‬
‫‬
‫‬
‫‬
‫‪c = sup a ∈ R : P Y −1 [(−∞, a]] = 0‬‬
‫הערה ‪ 3.45‬נזכיר שבמשפט ‪ 0-1‬הקודם הראינו שמאורע זנב של סדרת מאורעות הוא ב"ת בסדרה ומכך הסקנו שהוא ב"ת תלוי‬
‫בעצמו ולכן טריוויאלי‪ .‬במשפט הזה התנאים קצת שונים ונתון לנו מ"מ שהוא ב"ת בסדרה שהיא בעצמה ב"ת וצריך להסיק שהמשתנה‬
‫הנ"ל טריוויאלי‪.‬‬
‫∞‬
‫הערה ‪ 3.46‬להיות מדיד ביחס ל־ ) ‪ σ ({Xn }n=1‬היא דרישה חלשה בהרבה מאשר להיות מדיד ביחס ל־ ) ‪ σ (Xn‬לכל ‪.n‬‬
‫דוגמה ‪ 3.47‬דוגמאות‪:‬‬
‫∞‬
‫‪ .1‬בהנתן סדרת מ"מ ‪ {Xn }n=1‬הקבוצה‪:‬‬
‫)‬
‫∞ < )‪Xn (ω‬‬
‫∞‬
‫‪X‬‬
‫(‬
‫|‪ω ∈ Ω‬‬
‫=‪A :‬‬
‫‪n=1‬‬
‫∞‬
‫היא ‪F‬־מדידה וגם מהווה מאורע זנב של הסדרה‪ .‬בנוסף )‪ 1A (ω‬הוא משתנה מקרי ) ‪σ ({Xn }n=1‬־מדיד וב"ת ב־ ‪.X1 , X2 , ...‬‬
‫לכן אם ‪ X1 , X2 , ...‬היא סדרה ב"ת אז ‪ 1A‬הוא קבוע כ"ת‪ .‬הנ"ל שקול לכך שהמאורע ‪ A‬מתרחש בהסתברות ‪ 0‬או ‪) 1‬הטור‬
‫מתכנס על קבוצה ממידה ‪ 1‬או לא מתכנס על קבוצה ממידה ‪.(1‬‬
‫‪13‬‬
‫‪3.3‬‬
‫‪3‬‬
‫סדרות של משתנים מקריים‪:‬‬
‫הסתברות בסיסית )יחסית(‪:‬‬
‫∞‬
‫‪ .2‬בהנתן סדרת מ"מ ‪ {Xn }n=1‬הקבוצה‪:‬‬
‫)‬
‫∞‬
‫‪1X‬‬
‫‪ω ∈ Ω | lim‬‬
‫‪Xi (ω) exists‬‬
‫‪n→∞ n‬‬
‫‪n=1‬‬
‫(‬
‫=‪A :‬‬
‫היא מאורע זנב‪ .‬לכן אם הסדרה ב"ת אז ‪ P (A) = 0, 1‬וכאשר ‪ P (A) = 1‬אפשר להגדיר מ"מ )‪Xi (ω‬‬
‫בפרט הנ"ל הוא ‪T‬־מדיד ולכן ב"ת ב־ ‪ X1 , X2 , ...‬ומכך קבוע כ"ת‪.‬‬
‫∞‪P‬‬
‫‪n=1‬‬
‫‪1‬‬
‫‪n→∞ n‬‬
‫‪.Y (ω) = lim‬‬
‫תרגיל‪ :‬נתבונן בסדרה המוגדרת ע"י‪:‬‬
‫‪1‬‬
‫‪2‬‬
‫‪1‬‬
‫‪2‬‬
‫=‪P‬‬
‫=‪P‬‬
‫‪1‬‬
‫‪n‬‬
‫‪− n1‬‬
‫(‬
‫= ‪Xn‬‬
‫∞‪P‬‬
‫∞‬
‫נניח ש־ ‪ {Xn }n=1‬היא סדרה ב"ת מהו הערך של )}∞ < )‪) P ({ω ∈ Ω | n=1 Xn (ω‬האפשרויות הן ‪ .(0, 1‬מתברר שהתשובה‬
‫היא ‪ 1‬והדרך להראות זאת משתמשת בא"ש צ'בישב ובכך שסכום השוניות של המשתנים המקריים הללו מתכנס‪.‬‬
‫תרגיל‪ :‬משתנה מקרי שמדיד ביחס למשתנה מקרי אחר הוא פונקציה שלו‪:‬‬
‫יהא )‪ (Ω, F, P‬ויהיו )‪ X, Y : (Ω, F) → (R, B‬מ"מ כך ש־ ‪ Y‬הוא )‪σ (X‬־מדיד אזי קיימת ‪ f : R → R‬מדידה כך ש־ )‪.Y = f (X‬‬
‫דוגמה ‪ 3.48‬דוגמה מעניינת לשאלות על מאורעות זנב ־ פרקולציה בגרף אינסופי‪:‬‬
‫נתבונן בשריג אינסופי בן־מנייה )‪) G = (V, E‬גם ‪ E‬וגם ‪ V‬בני־מנייה( שבו דרגת הקודקודים היא חסומה‪ .‬בהנתן מנייה = ‪E‬‬
‫פרקולציה על השריג עם הסתברות ‪) p‬נמחק כל קשת בהסתברות ‪ 1 − p‬ונשאיר אותה בהסתברות ‪ p‬באופן בלתי‬
‫}‪ {e1 , e2 , ..‬נבצע‬
‫‬
‫‪0‬‬
‫‪0‬‬
‫‪0‬‬
‫תלוי( ונקבל גרף חדש ‪ G = V, E‬כאשר ‪ E ⊆ E‬כמובן‪ .‬כעת נגדיר סדרת מ"מ } ‪ Xn = 1{en ∈E 0‬ונגדיר סדרת ‪σ‬־אלגבראות‬
‫∞‪T‬‬
‫על ידי ) ‪ ,Fn = σ (X1 , ..., Xn‬נתבונן בזנב ‪ .T = n=1 Fn‬בפרט עבור כל קשת ‪ en‬מתקיים‪:‬‬
‫‪n‬‬
‫‪n 0‬‬
‫‪o n 0‬‬
‫‪oo‬‬
‫‪0‬‬
‫‪0‬‬
‫∈ ‪σ (Xn ) = Ω, ∅, E | en ∈ E , E | en‬‬
‫‪/E‬‬
‫‪0‬‬
‫הערה ‪ 3.49‬נשים לב שעבור קודקוד ‪ v ∈ V‬כלשהו המאורע "הקודקוד שייך לרכיב קשירות אינסופי בגרף ‪ "G‬הוא מאורע מדיד‬
‫ביחס לזנב שכן הוא המשלים של איחוד המאורעות "‪ v‬שייך לרכיב קשירות מגודל ‪ k‬עבור ‪ k ∈ N‬כלשהו"‪ .‬לכן המאורע "קיים רכיב‬
‫קשירות אינסופי" הוא גם כן מדיד ביחס לזנב כאיחוד על פני כל ‪ v ∈ V‬של המאורעות הללו‪) .‬למעשה נרצה לחשוב על רכיבי‬
‫הקשירות כמיוצגים על ידי צלעות ולא על ידי קודקודים שכן כל הפורמליזם של הבעיה מנוסח על פי מצב הקשתות בגרף(‪.‬‬
‫לאחר שהשתכנענו שהמאורע ‪" = A‬קיים רכיב קשירות אינסופי" הוא מדיד ביחד לזנב נקבל ממשפט קולמוגורוב שהוא בעל הסתברות‬
‫}‪ .P (A) ∈ {0, 1‬כעת אפשר להראות ש־ )‪ P (A‬יכולה רק לעלות כאשר ‪ p‬גדל‪ .‬כלומר )‪ ϕ (p) = Pp (A‬היא פונקציה עולה ולכן‬
‫מכך ש־ }‪ Pp (A) ∈ {0, 1‬לכל ‪ p‬נסיק שקיים ערך קריטי ]‪ pc ∈ [0, 1‬כך ש־ } ‪ .ϕp (A) = 1{p>pc‬אפשר להראות שתמיד מתקיים‬
‫‪ . 13 ≤ pc ≤ 32‬נתבונן במקרה הפרטי של השריג ‪) Z2‬במקרה הזה אפשר להראות ש־ ‪.(pc = 21‬‬
‫• נבצע פרקולציה עם ‪ .p < 13‬נשים לב שמספר המסלולים הפשוטים מאורך ‪ n‬ב־ ‪ Z2‬שמתחילים בראשית הוא לכל היותר‬
‫‪ .4 · 3n−1‬הסיכוי של מסלול כנ"ל לשרוד את הפרקולציה הוא כמובן ‪ pn‬ולכן תוחלת מספר המסלולים מאורך ‪ n‬שמתחילים‬
‫∞→‪n‬‬
‫בראשית ושורדים את הפרקולציה היא לכל היותר ‪ .4 · 3n−1 · pn‬עבור ‪ p < 31‬נקבל כי ‪ 4 · 3n−1 · pn −→ 0‬ומכך בהכרח‬
‫ההסתברות שהראשית תהיה שייכת לרכיב קשירות אינסופי היא אפס )אחרת התוחלת הזו הייתה שואפת למשהו גדול מאפס(‪.‬‬
‫מאחר והנ"ל נכון לא רק לראשית אלא עבור כל קודקוד נסיק שהסיכוי של כל קודקוד להופיע ברכיב קשירות אינסופי הוא‬
‫אפס ולכן כאשר ‪ p < 13‬ההסתברות שקיים רכיב קשירות אינסופי היא אפס‪.‬‬
‫• עבור ‪ p > 23‬נראה שבהסתברות חיובית קיים רכיב קשירות שמכיל את הראשית‪ .‬נתבונן בגרף הדואלי ל־ ‪) Z2‬הגרף שבו הפאות‬
‫הן קודקודים וקשרתות עוברות בין פאות סמוכות בגרף המקורי(‪ .‬רכיב הקשירות של הראשית הוא סופי אמ"מ קייים מסלול‬
‫בגרף הדואלי מאורך שמקיף את הראשית‪ .‬אפשר להראות שמספר המסלולים הדואליים מאורך ‪ n‬שמקיפים את הראשית הוא‬
‫‪n‬‬
‫לכל היותר ‪ n2 · 3n−1‬והסיכוי של מסלול כזה לחסום את הראשית הוא )‪ .(1 − p‬עבור ‪ p > 23‬נקבל כי‪:‬‬
‫∞‬
‫‪X‬‬
‫‪n n−1‬‬
‫‪n‬‬
‫‪3‬‬
‫∞ < )‪· (1 − p‬‬
‫‪2‬‬
‫‪n=1‬‬
‫‪14‬‬
‫‪3.4‬‬
‫‪3‬‬
‫התפלגויות של משתנים מקריים‪:‬‬
‫הסתברות בסיסית )יחסית(‪:‬‬
‫לכן מבורל קנטלי יש רק מספר סופי של ערכי ‪ n‬ככה שיש מסלול דואלי מאורך ‪ n‬סביב הראשית‪ .‬מהמסקנה הזו אפשר‬
‫להראות שבהכרח קיים רכיב קשירות אינסופי )לא בהכח שמכיל את הראשית( עבור כל ‪.p > 23‬‬
‫• התובנה העיקרית שצריך כדי להראות ש־‬
‫‪3.4‬‬
‫‪1‬‬
‫‪2‬‬
‫= ‪ pc‬היא שהגרף הדואלי ל־ ‪ Z2‬הוא גם כן ‪ Z2‬אבל ההוכחה מסובכת‪.‬‬
‫התפלגויות של משתנים מקריים‪:‬‬
‫הגדרה ‪ 3.50‬התפלגות של משתנה מקרי‪:‬‬
‫‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות ויהא ‪ X‬מ"מ ממשי‪ ,‬אזי ‪ X‬משרה מידת הסתברות על ‪ R‬שנתונה ע"י )‪ µ (A) = P X −1 (A‬לכל‬
‫‪ .A ∈ B‬בפרט מוגדרת פונקציית ההתפלגות המצטברת )‪ (CDF‬של ‪ X‬שנתונה ע"י‪:‬‬
‫‬
‫‪def‬‬
‫)‪FX (t) = µ ((−∞, t]) = P X −1 (−∞, t] = P (X ≤ t‬‬
‫טענה ‪ 3.51‬תכונות של ה־ ‪ CDF‬של משתנה מקרי ממשי‪:‬‬
‫יהא ‪ X‬מ"מ ממשי עם התפלגות מצטברת ‪ FX‬אזי‪:‬‬
‫‪ FX .1‬היא מונוטונית עולה )חלש(‪.‬‬
‫∞→‪t‬‬
‫∞→‪t‬‬
‫‪ FX (t) −→ 1 .2‬ו־ ‪.FX (t) −→ −1‬‬
‫‪t↓s‬‬
‫‪ F .3‬רציפה מימין )‪.FX (t) −→ FX (s‬‬
‫בנוסף כל פונקציה ‪ F‬שמקיימת את תכונות ‪ 1 − 3‬היא ‪ CDF‬של משתנה מקרי ממשי‪ .‬כלומר קיימת מידת הסתברות ‪ µF‬כך ש‪:‬‬
‫)‪∀ x ∈ R : µF ((−∞, x]) = F (x‬‬
‫ובפרט לכל ‪ [a, b] ⊆ R‬מתקיים )‪.µF ([a, b]) = F (b) − F (a‬‬
‫הוכחה‪ :‬להלן ההוכחה מהקורס בתורת המידה‪:‬‬
‫‪ .1‬יהיו ∞ < ‪ ,−∞ < a < b‬נשים לב כי‪:‬‬
‫‪FX (b) − FX (a) = µ ((−∞, b]) − µ ((−∞, a]) = µ ((a, b]) ≥ 0‬‬
‫מונוטונית לא יורדת‪ .‬נראה רציפות מימין‪ ,‬יהא ‪ x ∈ R‬ותהא ‪ {xn } ⊆ R‬סדרה כך ש־ ‪ .xn ↓ x‬מכך נקבל כי‬
‫לכן ‪F‬‬
‫∞‪T‬‬
‫] ‪ (−∞, x] = n=1 (−∞, xn‬ומכך מרציפות מלמטה של מידות )כאשר כאן משתמשים בסופיות של המידה בפרט( נקבל‪:‬‬
‫)‪lim FX (xn ) = lim µ ((−∞, xn ]) = µ ((−∞, x]) = FX (x‬‬
‫∞→‪n‬‬
‫∞‬
‫כעת תהא ‪ {xn }n=1 ⊆ R‬כך ש־ ∞‪ .xn ↓ −‬מכך נקבל כי ∅ = ] ‪(−∞, xn‬‬
‫∞→‪n‬‬
‫∞‪T‬‬
‫‪n=1‬‬
‫ולכן‪:‬‬
‫‪lim FX (xn ) = lim µ ((−∞, xn ]) = µ (∅) = 0‬‬
‫∞→‪n‬‬
‫∞→‪n‬‬
‫מאחר והנ"ל נכון לכל סדרה כך ש־ ∞‪ xn ↓ −‬נסיק כי ‪ lim FX (x) = 0‬ובאופן דומה מראים את הגבול השני‪.‬‬
‫∞‪x→−‬‬
‫‪ .2‬נגדיר }∞ ≤ ‪ S := {(a, b] | − ∞ ≤ a < b‬ונגדיר ‪ F (∞) = 1‬ו־ ‪ .F (−∞) = 0‬לכל ‪ (a, b] ∈ S‬נגדיר‪:‬‬
‫)‪µF ((a, b]) = F (b) − F (a‬‬
‫זוהי מידה ‪σ‬־אדיטיבית על ‪ S‬ולכן נוכל להרחיב את המידה הזו ל־ ‪ B‬באמצעות משפט ‪ Caratheodory‬ובכך נסיים‪.‬‬
‫‪Z‬‬
‫תרגיל‪ :‬חידה‪ :‬יהיו ‪ X, Y, Z‬מ"מ ב"ת אחידים בקטע ]‪ [0, 1‬הראו ש־ ]‪.(XY ) ∼ U [0, 1‬‬
‫‪15‬‬
‫‪3‬‬
‫‪3.5‬‬
‫הסתברות בסיסית )יחסית(‪:‬‬
‫תוחלת של משתנה מקרי וכמה תכונות‪:‬‬
‫הגדרה ‪ 3.52‬התכנסות בהתפלגות )‪:(Convergence in Distribution/Law‬‬
‫תהא ‪ Xn‬סדרת מ"מ )לא בהכרח באותו מרחב הסתברות( נאמר ש־ ‪ Xn‬מתכנסת בהתפלגות למ"מ ‪ X‬ונסמן ‪ Xn −→ X‬או‬
‫∞→‪n‬‬
‫∞→‪n‬‬
‫)‪ L (Xn ) −→ L (X‬אם )‪ Fn (t) −→ F (t‬בכל ‪ t‬שהיא נקודת רציפות של ‪.F‬‬
‫‪D‬‬
‫המשתנים מוגדרים באותו מרחב הסתברות היא שיש התכנסות חלשה של סדרת המידות‬
‫הערה ‪ 3.53‬הגדרה חילופית כאשר כל‬
‫‬
‫המושרות )‪ µn (A) = P Xn−1 (A‬למידה )‪.µ (A) = P X −1 (A‬‬
‫‪3.5‬‬
‫תוחלת של משתנה מקרי וכמה תכונות‪:‬‬
‫הגדרה ‪ 3.54‬תוחלת של משתנה מקרי )אינטגרציה(‪:‬‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות ויהא ‪ X‬מ"מ‪ ,‬נגדיר את התוחלת של ‪ X‬ע"י‪:‬‬
‫ˆ‬
‫ˆ‬
‫= ]‪E [X‬‬
‫= ‪XdP‬‬
‫‪xdµX‬‬
‫‪Ω‬‬
‫‪R‬‬
‫כאשר האינטגרלים הם אינטגרלי לבג ו־ ‪ µX‬היא המידה שמשרה ‪ X‬על ‪.R‬‬
‫הערה ‪ 3.55‬בפרט נאמר ש־ ‪ X‬בעל תוחלת אם ∞ < ]|‪ E [|X‬או לחילופין )‪.X ∈ L1 (Ω, P‬‬
‫הערה ‪ 3.56‬התוחלת של משתנה מקרי ‪ X‬תלויה רק בהתפלגות של ‪ X‬ולא במרחב ההסתברות‪.‬‬
‫הגדרה ‪ 3.57‬מומנט של משתנה מקרי‪:‬‬
‫‪h‬‬
‫‪i‬‬
‫‪ k‬‬
‫‪k‬‬
‫יהא ‪ X‬מ"מ נגדיר את המומנט ה־ ‪ k ∈ N‬של ‪ X‬ע"י ‪ E X‬כאשר נאמר שהנ"ל קיים כאשר ∞ < |‪.E |X‬‬
‫הערה ‪ 3.58‬אפשר להראות שאם ל־ ‪ X‬קיים מומנט ‪ k‬אז קיימים כל המומנטים עבור ‪.l ≤ k‬‬
‫הגדרה ‪ 3.59‬שונות של משתנה מקרי‪:‬‬
‫יהא ‪ X‬מ"מ נגדיר את השונות של ‪ X‬על ידי‪:‬‬
‫‪h‬‬
‫‪i‬‬
‫ ‬
‫‪def‬‬
‫‪2‬‬
‫‪2‬‬
‫]‪Var (X) = E (X − E [X]) = E X 2 − E [X‬‬
‫בפרט הנ"ל קיימת אמ"מ ‪ X‬בעל מומנט שני‪.‬‬
‫משפט ‪ 3.60‬אי־שוויון ינסן )‪:(Jensen Inequality‬‬
‫תהא ‪ ϕ‬פונקציה ממשית קמורה בקטע )‪ (a, b‬ויהא ‪ X‬מ"מ בעל תוחלת שמקבל את ערכיו ב־ )‪ (a, b‬אזי‪:‬‬
‫])‪ϕ (E (X)) ≤ E [ϕ (X‬‬
‫בתנאי ש־ ])‪ E [ϕ (X‬קיים )אפילו במובן הרחב( ובפרט אם ∞ < ]|)‪. E [|ϕ (X‬‬
‫הערה ‪ 3.61‬ברור שעבור פונקציה קעורה אי־השוויון מתהפך‪.‬‬
‫הוכחה‪ :‬מההנחה כי ‪ a < X < b‬ומכך ש־ ‪ P‬היא מידת הסתברות נקבל כי‪:‬‬
‫‪a = E (a) < E [X] < E [b] = b‬‬
‫מכך ש־ ‪ ϕ‬קמורה קיים ‪ βx ∈ R‬כך שעבור )‪ x := E [X] ∈ (a, b‬לכל )‪ X (z) ∈ (a, b‬מתקיים‪:‬‬
‫)]‪ϕ (X (z)) ≥ ϕ (E [X]) + βx (X (z) − E [X‬‬
‫‪16‬‬
‫‪3‬‬
‫‪3.6‬‬
‫הסתברות בסיסית )יחסית(‪:‬‬
‫התכנסות בהסתברות של משתנים מקריים‪:‬‬
‫נקח את האינטגרל ‪ dP‬על שני האגפים ונקבל‪:‬‬
‫ˆ‬
‫)]]‪[ϕ (E [X])] dP + βx (E [X] − E [E [X‬‬
‫ˆ‬
‫≥ ‪(ϕ ◦ X) dP‬‬
‫‪Ω‬‬
‫‪Ω‬‬
‫ˆ‬
‫)]]‪dP + βx (E [X] − E [E [X‬‬
‫= ])‪E [ϕ (X‬‬
‫)]‪= ϕ (E [X‬‬
‫‪Ω‬‬
‫)]‪= ϕ (E [X]) · 1 + β (x) · 0 = ϕ (E [X‬‬
‫‪h√ i p‬‬
‫√‬
‫הערה ‪ 3.62‬בפרט ‪ |x| , x2 , ex‬כולן קמורות ולכן מקבלים את אי־השוויונות המתאימים‪ .‬כמו כן ‪ x‬קעורה ולכן ]‪X ≤ E [X‬‬
‫‪h√ i‬‬
‫תרגיל‪ :‬האם אפשר לקבל חסם תחתון מעניין על ‪X‬‬
‫‪.E‬‬
‫‪ E‬במקרה ש־ ‪ X‬הוא מ"מ פואסוני עם פרמטר ‪?λ‬‬
‫משפט ‪ 3.63‬אי־שוויון הלדר‪:‬‬
‫יהיו ‪ p, q > 1‬אקספוננטים צמודים )‪= 1‬‬
‫‪1‬‬
‫‪q‬‬
‫‪p‬‬
‫‪p‬‬
‫‪p‬‬
‫‪q‬‬
‫‪ ( p1 +‬ויהיו ‪ X, Y‬מ"מ אזי ] | ‪.E [|X · Y |] ≤ p E [|X| ] · q E [|Y‬‬
‫‪h‬‬
‫‪i‬‬
‫‪q‬‬
‫‪P‬‬
‫הוכחה‪ :‬בה"כ אפשר להניח ש־ ‪ X, Y ≥ 0‬ומהומוגניות בשני האגפים אפשר להצטמצם למקרה שבו ‪ E |X| = 1‬וגם ‪.E [|Y | ] = 1‬‬
‫מכך מספיק להראות ש־ ‪ .E [|X · Y |] ≤ 1‬מא"ש ‪ Young‬ידוע לנו ש־‬
‫‪yq‬‬
‫‪q‬‬
‫‪+‬‬
‫] ‪E [X p ] E [Y q‬‬
‫‪1 1‬‬
‫‪+‬‬
‫‪= + =1‬‬
‫‪p‬‬
‫‪q‬‬
‫‪p q‬‬
‫עבור הוכחת א"ש ‪ Young‬נשים לב כי עבור ‪ y ≥ 0‬קבוע הפונקציה ‪− xy‬‬
‫‪xp‬‬
‫‪p‬‬
‫≤ ‪ xy‬ומכך נקבל כי‪:‬‬
‫≤ ) ‪E (XY‬‬
‫‪yq‬‬
‫‪q‬‬
‫‪+‬‬
‫‪xp‬‬
‫‪p‬‬
‫‪0‬‬
‫= )‪ f (x‬מקיימת ‪ f (x) = xp−1 − y‬וגם‬
‫‪1‬‬
‫‪) f ” (x) = (p − 1) xp−2 > 0‬לכל ‪ (x > 0‬מכך הנקודה ‪ x = y p−1 = y q−1‬היא נקודת מינימום של הפונקציה שבה ערך הפונקציה‬
‫הוא ‪ 0‬ומהעברת אגפים מקבלים את הנדרש‪.‬‬
‫תרגיל‪ :‬א"ש מינקובסקי‪ :‬יהיו ‪ p, q > 1‬אקספוננטים צמודים )‪= 1‬‬
‫‪1‬‬
‫‪q‬‬
‫‪ ( p1 +‬ויהיו ‪ X, Y‬מ"מ אזי‪:‬‬
‫‪q‬‬
‫‪q‬‬
‫‪q‬‬
‫‪p‬‬
‫‪p‬‬
‫‪p‬‬
‫‪p‬‬
‫] | ‪E (|X + Y | ) ≤ p E [|X| ] + p E [|Y‬‬
‫‪p‬‬
‫ובפרט ] |‪E [|X‬‬
‫‪3.6‬‬
‫‪p‬‬
‫‪p‬‬
‫‪p‬‬
‫= ‪ kxk‬מגדירה נורמה על )‪) Lp (Ω, P‬מרחב המשתנים המקריים ‪ X : Ω → R‬כך ש־ ∞ < ] |‪.(E [|X‬‬
‫התכנסות בהסתברות של משתנים מקריים‪:‬‬
‫הגדרה ‪ 3.64‬התכנסות בהסתברות‪:‬‬
‫‪P‬‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות‪ .‬נאמר שסדרת מ"מ ‪ Xn‬מתכנסת בהסתברות ונסמן ‪ Xn −→ X‬אם לכל ‪:ε > 0‬‬
‫∞→‪n‬‬
‫‪P (|Xn − X| > ε) −→ 0‬‬
‫או לחילופין לכל ‪ ε > 0‬קיים ‪ N ∈ N‬כך שלכל ‪ n ≥ N‬מתקיים ‪.P (|Xn − X| > ε) < ε‬‬
‫למה ‪ 3.65‬התכנסות בהסתברות גוררת התכנסות כ"ת של תת־סדרה‪:‬‬
‫‪a.s‬‬
‫‪P‬‬
‫תהא ‪ Xn‬סדרת מ"מ כך ש־ ‪ Xn −→ X‬אזי קיימת ת"ס ‪ Xnk‬כך ש־ ‪.Xnk −→ X‬‬
‫‪17‬‬
‫‪3.6‬‬
‫‪3‬‬
‫התכנסות בהסתברות של משתנים מקריים‪:‬‬
‫הסתברות בסיסית )יחסית(‪:‬‬
‫הוכחה‪ :‬מהתכנסות בהסתברות בהנתן ‪ k ∈ N‬קיים ‪ Nk‬כך שלכל ‪ n ≥ Nk‬מתקיים‪:‬‬
‫‬
‫‬
‫‪P |X (x) − Xn (x)| > 2−k < 2−k‬‬
‫‬
‫‬
‫נגדיר ‪ Ek := |X (ω) − XNk (ω)| > 2−k‬ונקבל כי ‪ .P (Ek ) < 2−k‬נשים לב כי אם ‪Ei‬‬
‫∞‪S‬‬
‫‪i=k‬‬
‫∈ ‪ ω‬אז ‪Eic‬‬
‫‪/‬‬
‫∞‪T‬‬
‫‪i=k‬‬
‫∈ ‪ ω‬ולכן‬
‫∞→‪i‬‬
‫∈‪ω‬‬
‫‪ |X (ω) − XNi (ω)| < 2−i‬לכל ‪ k ≥ i‬כלומר )‪ .XNi (ω) −→ X (ω‬כעת נגדיר ‪ ,A := lim sup Ek‬על סמך מה שראינו אם ‪/ A‬‬
‫∞→‪k‬‬
‫∞→‪i‬‬
‫אז )‪ XNi (ω) −→ X (ω‬וכמו כן ניתן לראות כי לכל ‪ k ∈ N‬מתקיים‪:‬‬
‫!‬
‫!‬
‫[ ∞‬
‫∞‬
‫∞‬
‫∞‬
‫\‬
‫[‬
‫‪X‬‬
‫‪Ei ≤ P‬‬
‫≤ ‪Ei‬‬
‫‪2−i = 2−k+1‬‬
‫‪i=k‬‬
‫‪i=k‬‬
‫‪P (A) = P‬‬
‫‪k=1 i=k‬‬
‫‪a.s‬‬
‫לכן בהכרח ‪ P (A) = 0‬ומכך ‪ ,XNk −→ X‬כנדרש‪.‬‬
‫משפט ‪ 3.66‬התכנסות כ"ת גוררת התכנסות בהסתברות גוררת התכנסות בהתפלגות‪:‬‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות ותהא ‪ Xn‬סדרת מ"מ ו־ ‪ X‬מ"מ‪ .‬אזי‪:‬‬
‫‪a.s‬‬
‫‪P‬‬
‫∞→‪n‬‬
‫)‪Xn −→ X =⇒ Xn −→ X =⇒ L (Xn ) −→ L (X‬‬
‫הוכחה‪ :‬ניתן סקיצה של ההוכחות‪:‬‬
‫גוררת‬
‫התכנסות בהסתברות‪ .‬נגדיר }‪ Aεn = {|Xn − X| < ε‬ונקבל שהתכנסות כ"ת שקולה לכך שעבור‬
‫‬
‫‪ .1‬נראה שהתכנסות כ"ת ‬
‫‪ε‬‬
‫כל ‪ ε > 0‬מתקיים ‪ .P lim inf An = 1‬כעת מהלמה של ‪ Fatou‬נקבל כי‪:‬‬
‫∞→‪n‬‬
‫‬
‫‪P‬‬
‫‬
‫‪1 = P lim inf Aεn ≤ lim inf P (Aεn ) =⇒ lim inf P (Aεn ) = 1 =⇒ Xn −→ X‬‬
‫∞→‪n‬‬
‫∞→‪n‬‬
‫∞→‪n‬‬
‫‪ .2‬נראה שהתכנסות בהסתברות גוררת התכנסות בהתפלגות‪ .‬נשים לב כי‪:‬‬
‫‪Xn ≤ a ⇐⇒ |Xn − X| > ε ∧ X ≤ a + ε‬‬
‫מכך נקבל כי‪:‬‬
‫)‪P (Xn ≤ a) ≤ P (X ≤ a + ε) + P (|Xn − X| > ε‬‬
‫מכך מהתכנסות בהסתברות לכל ‪ ε > 0‬קיים ‪ N‬מספיק גדול כך שלכל ‪ n ≥ N‬מתקיים‪:‬‬
‫‪F (a + ε) − ε ≤ Fn (a) ≤ F (a + ε) + ε‬‬
‫בפרט נקבל כי‪:‬‬
‫)‪lim sup Fn (a) ≤ lim F (a + ε) = F (a‬‬
‫‪ε→0‬‬
‫=‬
‫)‪F (a‬‬
‫}‪|{z‬‬
‫‪continuity points‬‬
‫∞→‪n‬‬
‫)‪lim inf Fn (a) ≥ lim F (a + ε‬‬
‫‪ε→0‬‬
‫לכן נקבל כי בנקודות רציפות של ‪ F‬מתקיים )‪. lim Fn (a) = F (a‬‬
‫∞→‪n‬‬
‫‪18‬‬
‫∞→‪n‬‬
‫‪3.6‬‬
‫‪3‬‬
‫התכנסות בהסתברות של משתנים מקריים‪:‬‬
‫הסתברות בסיסית )יחסית(‪:‬‬
‫הערה ‪ 3.67‬התכנסות כ"ת איננה תכונה טופולוגית )במרחב של משתנים מקריים(‪:‬‬
‫‪n‬‬
‫‪o‬‬
‫• עובדה‪ :‬במרחב טופולוגי ‪ {xn } ⊆ X‬מתכנסת ל־ ‪ x ∈ X‬אמ"מ לכל ת"ס } ‪ {xnk‬קיימת ת"ס ‪ xnkl‬כך ש־ ‪→ x‬‬
‫‪.xnkl‬‬
‫שמתכנסת‪ n‬בהסתברות ולא מתכנסת כ"ת‪ .‬בהנתן ת"ס } ‪ {Xnk‬גם היא מתכנסת בהסתברות ולכן‬
‫• ניתן למצוא סדרה ‪o {Xn }n‬‬
‫מהלמה שהוכחנו יש לה ת"ס ‪ Xnkl‬שמתכנסת כ"ת‪ .‬כלומר הסדרה } ‪ {Xn‬מקיימת את התכונה שלכל ת"ס שלה יש ת"ס‬
‫מתכנסת כ"ת אבל היא בעצמה לא מתכנסת כ"ת ולכן לא ייתכן שהתכנסות כ"ת מגיעה מטופולוגיה‪.‬‬
‫משפט ‪ 3.68‬משפט ההתכנסות החסומה )‪:(Bounded Convergence Theorem‬‬
‫∞→‪n‬‬
‫‪P‬‬
‫‪a.s‬‬
‫תהא ‪ Xn‬סדרת מ"מ כך ש־ ‪ Xn −→ X‬או ‪ Xn −→ X‬וגם ‪ |Xn | ≤ M‬לכל ‪ n‬אזי ]‪.E [Xn ] −→ E [X‬‬
‫משפט ‪ 3.69‬משפט ההתכנסות המונוטונית )‪:(Monotone Convergence Theorem‬‬
‫∞→‪n‬‬
‫‪P‬‬
‫‪a.s‬‬
‫תהא ‪ Xn‬סדרה עולה של מ"מ כך ש־ ‪ Xn −→ X‬או ‪ Xn −→ X‬אזי ]‪.E [Xn ] −→ E [X‬‬
‫משפט ‪ 3.70‬משפט ההתכנסות הנשלטת )‪:(Dominated Convergence Theorem‬‬
‫∞→‪n‬‬
‫‪P‬‬
‫‪a.s‬‬
‫תהא ‪ Xn‬סדרת מ"מ כך ש־ ‪ Xn −→ X‬או ‪ .Xn −→ X‬יהא ‪ Y‬מ"מ בעל תוחלת כך ש־ ‪ |Xn | ≤ Y‬לכל ‪ n‬אזי ]‪.E [Xn ] −→ E [X‬‬
‫‪19‬‬
‫‪4‬‬
‫‪4‬‬
‫ריכוז מידה של סדרות משתנים מקריים‪:‬‬
‫ריכוז מידה של סדרות משתנים מקריים‪:‬‬
‫‪4.1‬‬
‫הקדמה ודוגמאות ראשונות‪:‬‬
‫ריכוז מידה של מ"מ מתעניין בכמה משתנה מקרי מפוזר סביב התוחלת שלו‪ ,‬כלומר בחסמים על )‪.P (|X − E [X]| > ε‬‬
‫תזכורת ‪ 4.1‬א"ש מרקוב וצ'בישב‪:‬‬
‫עבור משתנה מקרי ‪ X‬מתקיימים הדברים הבאים‪:‬‬
‫‪ .1‬א"ש מרקוב‪ :‬לכל ‪ a > 0‬מתקיים‬
‫)|‪E(|X‬‬
‫‪a‬‬
‫≤ )‪P (|X| ≥ a‬‬
‫ ‬
‫] ‪E[X 2‬‬
‫‪ .2‬א"ש צ'בישב‪ :‬לכל ‪ a > 0‬מתקיים ‪ P (|X| ≥ a) ≤ a2‬ובפרט אם ∞ < ‪ E X 2‬אז‪:‬‬
‫)‪Var (X‬‬
‫‪a2‬‬
‫≤ )‪P (|X − E [X]| ≥ a‬‬
‫‪ .3‬עבור פונקציה ‪ g : R → R‬לא יורדת ואי־שלילית בטווח של ‪ X‬ולכל ‪ a > 0‬מתקיים‪:‬‬
‫])‪E [g (X‬‬
‫)‪g (a‬‬
‫≤ )‪P (|X| ≥ a‬‬
‫בפרט אי השוויון הקודם הוא מקרה פרטי של כך עבור ‪.g (t) = t2‬‬
‫תזכורת ‪ 4.2‬משפט פוביני )בגרסת הסתברותית(‪:‬‬
‫אם ‪ X, Y‬הם משתנים מקריים ב"ת ובעלי תוחלת אזי ] ‪.E [X · Y ] = E [X] · E [Y‬‬
‫הערה ‪ 4.3‬הניסוח הזה לא נראה כמו הניסוח הקלאסי של משפט פוביני בתורת המידה אבל הוא נובע מהמשפט הכללי יותר‪.‬‬
‫הגדרה ‪ 4.4‬שונות משותפת ומ"מ בלתי־מתואמים‪:‬‬
‫יהיו ‪ X, Y‬מ"מ בעלי תוחלת נגדיר את השונות המשותפת של ‪ X, Y‬ע"י‪:‬‬
‫])] ‪Cov (X, Y ) = E [(X − E [X]) · (Y − E [Y‬‬
‫אפשר בקלות להראות שמתקיים‪:‬‬
‫] ‪Cov (X, Y ) = E [X · Y ] − E [X] · E [Y‬‬
‫ובפרט ‪ Cov (X, Y ) = 0‬אמ"מ ] ‪ ,E [X · Y ] = E [X] · E [Y‬במקרה זה נאמר ש־ ‪ X‬ו־ ‪ Y‬בלתי־מתואמים )‪.(Uncorrelated‬‬
‫הערה ‪ 4.5‬בפרט ניתן לראות שאי־תלות גוררת חוסר־תיאום אולם ההפך לא בהכרח נכון‪.‬‬
‫דוגמה ‪ 4.6‬יהיו ‪ X1 , X2 , ...‬מ"מ כך ש־‬
‫‪=0‬‬
‫‪1‬‬
‫‪2‬‬
‫= )‪ ,P (Xi = 1) = P (Xi = −1‬נגדיר ‪Xi‬‬
‫‪=0‬‬
‫{ |} ‪z }| { z‬‬
‫‪E [Xi ] E [Xj ] = n‬‬
‫‪X‬‬
‫‪1≤i<j<n‬‬
‫‪Independence X‬‬
‫‪n‬‬
‫{|}‪z‬‬
‫] ‪E [Xi Xj‬‬
‫=‬
‫‪1+2‬‬
‫‪i=1‬‬
‫‪Pn‬‬
‫‪i=1‬‬
‫‪X‬‬
‫‪1≤i<j<n‬‬
‫מכך מא"ש צ'בישב נקבל כי‪:‬‬
‫‪n‬‬
‫‪λ2‬‬
‫≤ )‪P (|S| > λ‬‬
‫‪20‬‬
‫‪1‬‬
‫‪n‬‬
‫= ‪ Sn‬ונשים לב כי ‪ E [S] = 0‬וגם‪:‬‬
‫‪n‬‬
‫‪ X‬‬
‫ ‬
‫= ‪E S2‬‬
‫‪E Xi2 + 2‬‬
‫‪i=1‬‬
‫‪4.1‬‬
‫הקדמה ודוגמאות ראשונות‪:‬‬
‫בפרט ברור שעבור ‪n‬‬
‫√‬
‫‪4‬‬
‫ריכוז מידה של סדרות משתנים מקריים‪:‬‬
‫< ‪ λ‬החסם הנ"ל חסר תועלת והוא משתפר ככל ש־ ‪ λ‬גדל‪ .‬כמו כן עבור ‪ λ = n‬נקבל כי‪:‬‬
‫‪1‬‬
‫‪n‬‬
‫≤ )‪P (|S| = n) = P (|S| ≥ n‬‬
‫כאשר בפרט ‪ |S| = n‬רק כאשר ‪.X1 = ... = Xn‬‬
‫‪21‬‬
‫‪4.1‬‬
‫‪4‬‬
‫הקדמה ודוגמאות ראשונות‪:‬‬
‫ריכוז מידה של סדרות משתנים מקריים‪:‬‬
‫שאלה‪ :‬השתמשנו כאן באי־תלות כדי לקבל את החסם‪ ,‬נבחן מה קורה אם יש רק אי־תלות בזוגות‪.‬‬
‫תרגיל‪ :‬שיטה לבניית מ"מ ב"ת בזוגות‪:‬‬
‫‪1‬‬
‫‪Y‬‬
‫נגדיר‬
‫∅‬
‫‪6‬‬
‫=‬
‫‪A‬‬
‫∈‬
‫‪P‬‬
‫‪({1,‬‬
‫‪...,‬‬
‫)}‪m‬‬
‫כל‬
‫עבור‬
‫‪.‬‬
‫בהסתברות‬
‫‪Y‬‬
‫∈‬
‫}‪{±1‬‬
‫יהיו ‪ Y1 , ..., Ym‬מ"מ ב"ת כך ש־‬
‫‪i‬‬
‫‪j∈A j‬‬
‫‪2‬‬
‫כל ‪ B 6= A‬המ"מ ‪ XA‬ו־ ‪ XB‬הם ב"ת כלומר האוסף }}‪ {XA | A ⊆ {1, ..., m‬ב"ת בזוגות‪.‬‬
‫‪Q‬‬
‫=‪ .XA :‬אזי עבור‬
‫הערה ‪ 4.7‬מאידך כבר לא מתקיימת אי־תלות בשלשות שכן למשל }‪.X{1,2} = X{1} X{2‬‬
‫הערה ‪ 4.8‬באמצעות וריאציה על השיטה הזו אפשר לבנות אוספים של משתנים מקריים ב"ת בשלשות‪ ,‬רבעיות וכו'‪.‬‬
‫מסקנה ‪4.9‬‬
‫בהנחה שהוכחנו את התרגיל הנ"ל נשים לב כי‪:‬‬
‫• ניתן להגדיר ‪ 2m − 1‬משתנים מקריים שונים מהצורה ‪ XA‬שכולם ב"ת בזוגות‪.‬‬
‫• מתקיים ‪ XA = 1‬לכל }‪ A ⊆ {1, ..., m‬רק אם ‪ Y1 = ... = Ym = 1‬והנ"ל קורה בהסתברות ‪.2−m‬‬
‫• במקרה שבו ‪ Y1 = ... = Ym = 1‬נקבל כי‪:‬‬
‫‪XA = 2m − 1‬‬
‫‪X‬‬
‫=‪S‬‬
‫}‪A⊆{1,...,m‬‬
‫• קיבלנו שעבור ‪ n = 2m − 1‬אי־תלות בזוגות הספיקה לנו כדי לקבל ש‪:‬‬
‫‪1‬‬
‫‪n+1‬‬
‫= )‪P (|S| = n‬‬
‫הנ"ל מראה לנו שהחסם ‪ P (|S| = n) ≤ n1‬שראינו בדוגמה הקודמת הוא כמעט הדוק אפילו אם דורשים רק אי־תלות בזוגות )כי‬
‫יש דוגמה שמשיגה את החסם ולכן לא יכול להיות חסם הרבה יותר טוב עבור אי־תלות בזוגות(‪.‬‬
‫דוגמה ‪ 4.10‬נשים לב כי עבור מ"מ ‪ X1 , ..., Xn‬כך ש־ }‪ Xi ∈ {±1‬עם הסתברות‬
‫או אפילו אי־תלות ברביעיות )מספיק אפילו אי־תיאום ברביעיות( אז מתקיים‪:‬‬
‫‪=1‬‬
‫{ |} ‪z‬‬
‫)‪n (n − 1‬‬
‫‪E Xi2 Xj2 = n + 6‬‬
‫‪≤ 3n2‬‬
‫‪2‬‬
‫מכך נקבל כי‬
‫‪3n2‬‬
‫‪λ4‬‬
‫‪X‬‬
‫‪1≤i<j≤n‬‬
‫‪1‬‬
‫‪2‬‬
‫ו־ ‪Xi‬‬
‫‪Pn‬‬
‫‪i=1‬‬
‫= ‪ Sn‬נקבל כי אם יש אי־תלות‬
‫ ‬
‫‪Independence X‬‬
‫‪n‬‬
‫‪ 4‬‬
‫‪4‬‬
‫{|}‪z‬‬
‫‪E Xi +‬‬
‫=‬
‫‪2‬‬
‫‪i=1‬‬
‫ ‬
‫‪E S4‬‬
‫≤ )‪ P (|S| > λ‬ובפרט‪:‬‬
‫‪3‬‬
‫‪n2‬‬
‫≤ )‪P (|S| = n‬‬
‫ההסתברות ש־ )‪ P (|S| = n‬מאשר במקרה שהנחנו אי־תלות רק‬
‫לכן ניתן לראות שקיבלנו חסם יותר קטן שדועך יותר מהר על‬
‫‬
‫בזוגות‪ .‬אפשר להראות שבמקרה של אי־תלות בשלשות מקבלים ש־ ‪ E S 3 = 0‬ולכן לא ניתן להשיג חסם מעניין בשיטה הזו‪.‬‬
‫שאלה‪ :‬מה ההתנהגות של )‪ P (|S| = n‬במקרה זה‪ ,‬האם היא דומה לזו של אי־תלות בזוגות או לזו של אי־תלות ברביעיות?‬
‫‪22‬‬
‫‪4‬‬
‫‪4.2‬‬
‫‪4.2‬‬
‫ריכוז מידה של סדרות משתנים מקריים‪:‬‬
‫החוק החלש והחזק של המספרים הגדולים‪:‬‬
‫החוק החלש והחזק של המספרים הגדולים‪:‬‬
‫תרגיל‪ :‬עבור זוג מאורעות ‪ A, B‬מתקיים ש־ ‪ A, B‬ב"ת אמ"מ המ"מ המציינים ‪ 1A , 1B‬הם בלתי־מתואמים‪.‬‬
‫למה ‪ 4.11‬הלמה השנייה של בורל קנטלי עבור מ"מ ב"ת בזוגות‪:‬‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות ויהיו ‪ A1 , A2 , ... ∈ F‬מאורעות ב"ת בזוגות כך ש־ ∞ = ) ‪P (Ai‬‬
‫הוכחה‪ :‬נגדיר ‪ Xi := 1Ai‬ו־ ‪Xi‬‬
‫‪Pn‬‬
‫‪i=1‬‬
‫∞‪P‬‬
‫‪i=1‬‬
‫‬
‫אזי ‪= 1‬‬
‫‬
‫‪.P lim sup An‬‬
‫∞→‪n‬‬
‫= ‪ .Sn‬מאחר שהנחנו אי־תלות בזוגות נקבל כי ‪ Cov (Xi , Xj ) = δij‬ומכך נקבל כי‪:‬‬
‫‪=0‬‬
‫) ‪Var(Xi‬‬
‫|}‬
‫{‬
‫‪z‬‬
‫‪n‬‬
‫‪n z‬‬
‫|}‬
‫‪{ X‬‬
‫‪X‬‬
‫‪1X‬‬
‫= ) ‪Var (Sn‬‬
‫≤ )) ‪P (Ai ) (1 − P (Ai‬‬
‫‪Var (Xi ) +‬‬
‫= ) ‪Cov (Xi , Xj‬‬
‫) ‪P (Ai‬‬
‫‪2‬‬
‫‪i=1‬‬
‫‪i=1‬‬
‫‪i=1‬‬
‫‪n‬‬
‫‪X‬‬
‫‪i6=j‬‬
‫נשים לב כי‬
‫) ‪P (Ai‬‬
‫‪n‬‬
‫‪X‬‬
‫= ] ‪E [Xi‬‬
‫‪i=1‬‬
‫‪n‬‬
‫‪X‬‬
‫‪#‬‬
‫= ‪Xi‬‬
‫‪i=1‬‬
‫‪" n‬‬
‫‪X‬‬
‫‪E [Sn ] = E‬‬
‫‪i=1‬‬
‫מכך מא"ש צ'בישב נקבל כי‪:‬‬
‫‬
‫‬
‫!‬
‫‬
‫‬
‫‬
‫‪n‬‬
‫‪n‬‬
‫‬
‫‬
‫‪X‬‬
‫‪X‬‬
‫‬
‫‬
‫‪Sn‬‬
‫‬
‫‬
‫) ‪P (Ai‬‬
‫‪P (Ai ) > ε‬‬
‫‪− 1 > ε = P Sn −‬‬
‫‪P Pn‬‬
‫‬
‫‬
‫) ‪i=1 P (Ai‬‬
‫‪i=1‬‬
‫‪i=1‬‬
‫‪Pn‬‬
‫) ‪Var (Sn‬‬
‫‪1‬‬
‫∞→‪n‬‬
‫) ‪i=1 P (Ai‬‬
‫‪Pn‬‬
‫‪≤ Pn‬‬
‫≤‬
‫‪−→ 0‬‬
‫‪Pn‬‬
‫‪2‬‬
‫‪2 = 2‬‬
‫‪ε‬‬
‫‪P‬‬
‫‪(A‬‬
‫)‬
‫‪i‬‬
‫)) ‪(ε i=1 P (Ai‬‬
‫)) ‪(ε i=1 P (Ai‬‬
‫‪i=1‬‬
‫‪P‬‬
‫מאחר והנ"ל נכון לכל ‪ ε > 0‬קיבלנו כי ‪−→ 1‬‬
‫‪Sn‬‬
‫] ‪E[Sn‬‬
‫ומכך בהנתן ‪ ε > 0‬קיים ‪ n‬כך ש‪:‬‬
‫‬
‫‬
‫‬
‫‪ Sn‬‬
‫‬
‫ ‪P‬‬
‫‪− 1 < ε ≤ 1 − ε‬‬
‫] ‪E [Sn‬‬
‫∞→‪n‬‬
‫‪P‬‬
‫הנ"ל בשילוב עם כך ש־ ∞ →‪ E [Sn ] −‬גורר ש־ ∞ →‪ Sn −‬ולכן עבור כל ‪ ε > 0‬וכל ‪ M > 0‬קיים ‪ n‬גדול מספיק כך ש־‬
‫‪a.s‬‬
‫‪ P (|Sn | > M ) ≤ 1 − ε‬כלומר למעשה ∞ →‪ Sn −‬ומהגדרת ‪ Sn‬המשמעות של כך היא שאינסוף ‪ Ai‬קורים כמעט תמיד‪.‬‬
‫למה ‪4.12‬‬
‫יהא ‪ X ≥ 0‬מ"מ אי־שלילי בעל תוחלת אזי לכל ‪ ε > 0‬קיים ‪ K ∈ N‬כך ש‪:‬‬
‫‬
‫‪E X · 1{X≥K} < ε‬‬
‫בנוסף }‪ X · 1{X<K‬הוא בעל מומנט שני סופי‪.‬‬
‫הוכחה‪ :‬נתבונן ב־ }‪ ,YK = X1{x<K‬מאחר ש־ ‪ X‬אי־שלילי ברור כי ‪ Yk ↑ X‬כאשר ∞ ↑ ‪ K‬ולכן ממשפט ההתכנסות המונוטונית‪:‬‬
‫‬
‫∞→‪K‬‬
‫∞→‪K‬‬
‫‪E [YK ] −→ E [X] =⇒ E X · 1{X≥K} = E [X − YK ] = E [X] − E [YK ] −→ 0‬‬
‫בנוסף ניתן לראות כי‪:‬‬
‫‬
‫‬
‫ ‬
‫∞ < ‪= E X 2 1{X<K} ≤ E K 2 = K 2‬‬
‫‪23‬‬
‫‪2 i‬‬
‫}‪X · 1{X<K‬‬
‫‪h‬‬
‫‪E‬‬
‫‪4.2‬‬
‫‪4‬‬
‫החוק החלש והחזק של המספרים הגדולים‪:‬‬
‫ריכוז מידה של סדרות משתנים מקריים‪:‬‬
‫משפט ‪ 4.13‬החוק החלש של המספרים הגדולים‪:‬‬
‫תהא ‪ Xi‬סדרת מ"מ שווי התפלגות‪ ,‬ב"ת בזוגות ובעלי תוחלת ‪ .E [Xi ] = µ‬נסמן ‪Xi‬‬
‫‪Pn‬‬
‫‪i=1‬‬
‫‪P‬‬
‫= ‪ ,Sn‬אזי ‪. n1 Sn −→ µ‬‬
‫הוכחה‪ :‬מקרה ראשון‪ :‬ראשית נניח ש־ ‪ Xi‬בעלי מומנט שני סופי כך ש־ ∞ < ) ‪ ,Var (Xi‬מכך מא"ש צ'בישב נקבל כי‪:‬‬
‫) ‪n · Var (X1‬‬
‫∞→‪Var (X1 ) n‬‬
‫=‬
‫‪−→ 0‬‬
‫‪2‬‬
‫‪2‬‬
‫‪ε n‬‬
‫‪ε2 n‬‬
‫≤ )‪P (|Sn − µn| > εn‬‬
‫כאשר השתמשנו בכך שמאי־תלות בזוגות של ‪ Xi‬נובע כי‪:‬‬
‫) ‪Var (Xi ) = nVar (X1‬‬
‫‪n‬‬
‫‪X‬‬
‫= ) ‪Var (Sn‬‬
‫‪i=1‬‬
‫כעת באופן כללי יותר‪ :‬מאחר ו־ ‪ Xi = Xi+ − Xi−‬בה"כ נניח כי ‪ .Xi ≥ 0‬יהא ‪ ,ε > 0‬על סמך הלמה הקודמת קיים ‪ K ∈ N‬כך ש‪:‬‬
‫‬
‫‪E Xi · 1{Xi ≥K} < ε2‬‬
‫נשים לב כי }‪ Xi = Xi · 1{Xi ≥K} + Xi · 1{Xi <K‬ומכך‪:‬‬
‫‪0‬‬
‫”‬
‫‪Sn‬‬
‫{‬
‫|}‬
‫}‪Xi · 1{Xi ≥K‬‬
‫‪Sn‬‬
‫‪z‬‬
‫‪n‬‬
‫‪X‬‬
‫{‬
‫|}‬
‫‪Xi · 1{Xi <K} +‬‬
‫‪i=1‬‬
‫‪z‬‬
‫‪n‬‬
‫‪X‬‬
‫= ‪Sn‬‬
‫‪i=1‬‬
‫‬
‫‬
‫‬
‫‬
‫‪0‬‬
‫‪0‬‬
‫נסמן }‪ µ = E Xi · 1{Xi <K‬ו־ }‪ .µ” = E Xi · 1{Xi ≥K‬מכך ש־ ”‪ µ = µ + µ‬נקבל כי‪:‬‬
‫ ‪ ε‬‬
‫‪ 0‬‬
‫‬
‫‪ ε‬‬
‫ ‪0‬‬
‫‬
‫> ‪P (|Sn − µn| > εn) ≤ P Sn − µ n > n + P Sn” − µ” n‬‬
‫‪2‬‬
‫‪2‬‬
‫‪ 0‬‬
‫‪0‬‬
‫‪0‬‬
‫כעת מאחר ש־ ‪ Xi‬הוא בעל מומנט שני ובפרט ‪ Var Sn = nµ‬נקבל מא"ש צ'בישב כי‪:‬‬
‫‪Chebyshev‬‬
‫‪0‬‬
‫{|}‪z‬‬
‫‪nµ‬‬
‫‪4µ‬‬
‫≤‬
‫‪2 ≤ 2‬‬
‫‪ε‬‬
‫‪ε‬‬
‫‪n‬‬
‫‪2n‬‬
‫‬
‫ ‬
‫‬
‫כמו כן מאחר ו־ ‪ µ” = E Xi · 1{Xi ≥K} < ε2‬נקבל כי ‪ E Sn” ≤ ε2 n‬ולכן‪:‬‬
‫ ‪ ε‬‬
‫‪ 0‬‬
‫ ‪0‬‬
‫‬
‫‪P Sn − µ n > n‬‬
‫‪2‬‬
‫‬
‫‪ Markov‬‬
‫‬
‫‪z}|{ ε2 n‬‬
‫ ‪ ε‬‬
‫‪ε‬‬
‫”‬
‫”‬
‫”‬
‫‪P Sn − µ n > n ≤ P Sn > n‬‬
‫≤‬
‫‪= 2ε‬‬
‫‪ε‬‬
‫‪2‬‬
‫‪2‬‬
‫‪2n‬‬
‫מכך ניתן לראות כי‪:‬‬
‫‪4µ‬‬
‫∞→‪n‬‬
‫‪+ 2ε −→ 2ε‬‬
‫‪ε2 n‬‬
‫≤ )‪P (|Sn − µn| > εn‬‬
‫מאחר והנ"ל נכון לכל ‪ ε > 0‬נסיק את השאיפה בהסתברות‪ ,‬כנדרש‪.‬‬
‫הערה ‪ 4.14‬נשים לב שכאשר ‪ Xi‬הם מ"מ בעלי מומנט ראשון ושני חסומים באופן אחיד )אבל לא בהכרח זהים( החוק החלש נובע‬
‫מיידית מא"ש צ'בישב ולא צריך לדרוש שוויון התפלגות‪.‬‬
‫‪24‬‬
‫‪4‬‬
‫ריכוז מידה של סדרות משתנים מקריים‪:‬‬
‫החוק החלש והחזק של המספרים הגדולים‪:‬‬
‫‪4.2‬‬
‫משפט ‪ 4.15‬החוק החזק של המספרים הגדולים‪:‬‬
‫‪a.s‬‬
‫תהא ‪ Xi‬סדרת משתנים מקריים ש"ה‪ ,‬ב"ת בזוגות ובעלי תוחלת ‪ E [Xi ] = µ‬אזי ‪. n1 Sn −→ µ‬‬
‫הערה ‪ 4.16‬אם מניחים אי־תלות ברביעיות וקיום של מומנט רביעי אז אפשר להוכיח את המשפט באותם כלים שהשתמשנו בהם בחוק‬
‫החלש באמצעות פירוק של המשתנים המקריים ושימוש בחסמים‪ .‬בפרט מקבלים חסם מהצורה של ‪ nK2‬שמסתכם לערך סופי ולכן‬
‫מהלמה הראשונה של מבורל־קנטלי תהיה סטייה של ‪ n1 Sn‬מ־ ‪ µ‬רק מספר סופי של פעמים‪.‬‬
‫ראשון‪ :‬ראשית נניח כי ‪ |Xi | ≤ 1‬ולכן כל המומנטים סופיים ובנוסף בה"כ ‪ .E [Xi ] = 0‬באופן מיידי כך ש־ ‪|Xi | ≤ 1‬‬
‫הוכחה‪:‬‬
‫מקרה ‬
‫‬
‫נובע כי ‪ Var (Xi ) ≤ E Xi2 ≤ 1‬ומכך מא"ש צ'בישב נקבל כי‪:‬‬
‫†‬
‫‪n‬‬
‫‪1‬‬
‫) ‪Var (Sn ) z}|{ nVar (Xi‬‬
‫‪≤ 2 2 = 2‬‬
‫=‬
‫‪2‬‬
‫‪2‬‬
‫‪2‬‬
‫‪2‬‬
‫‪ε n‬‬
‫‪ε n‬‬
‫‪ε n‬‬
‫‪ε n‬‬
‫≤ )‪P (|Sn | > εn‬‬
‫‪1‬‬
‫‪ε2 k 2‬‬
‫‬
‫≤ ‪>ε‬‬
‫| ‪|Sk2‬‬
‫‬
‫∞‪P‬‬
‫‪1‬‬
‫‪k=1 ε2 k2‬‬
‫כאשר המעבר המסומן נובע מא"ת בזוגות‪ .‬נתבונן בת"ס ‪ nk = k 2‬עבורה‬
‫‪n‬‬
‫‪o‬‬
‫נסיק מהלמה הראשונה של בורל קנטלי שהמאורע ‪ |Skn2 | > ε‬בהסתברות ‪ 1‬קורה רק מספר סופי של פעמים ומאחר והנ"ל נכון לכל‬
‫‪a.s‬‬
‫‪S‬‬
‫‪2‬‬
‫‪ ε > 0‬נסיק כי ‪ . kk22 −→ 0‬כעת נשים לב כי אם )‪ k 2 ≤ n ≤ (k + 1‬נקבל כי‪:‬‬
‫‬
‫‬
‫‪|Xi |≤1‬‬
‫‬
‫‪ n‬‬
‫‪n‬‬
‫‪X‬‬
‫{|}‪z‬‬
‫‬
‫‪ X‬‬
‫‪2‬‬
‫‬
‫‬
‫≤ ‪Xi‬‬
‫‪|Xi | ≤ (k + 1) − k 2 + 1 = 2k‬‬
‫ = | ‪|Sn − Sk2‬‬
‫‪i=k2 +1 i=k2 +1‬‬
‫‪k2‬‬
‫‪ .P‬מאחר ש־ ∞ <‬
‫מכך נקבל כי‪:‬‬
‫√‬
‫‪|S 2 | 2k‬‬
‫‪|S 2 | 2 n‬‬
‫| ‪|S 2‬‬
‫| ‪|Sn‬‬
‫‪2 a.s‬‬
‫‪≤ k +‬‬
‫‪≤ k +‬‬
‫‪= k2 + √ −→ 0‬‬
‫‪n‬‬
‫‪n‬‬
‫‪n‬‬
‫‪n‬‬
‫‪n‬‬
‫‪k‬‬
‫‪n‬‬
‫מקרה שני‪ :‬בה"כ אפשר להניח כי ‪ ,X ≥ 0‬נסמן ] ‪ µ = E [Xi‬ונראה כי ‪ lim sup Snn ≤ 4µ‬בהסתברות ‪ .1‬בהנתן ‪ k ∈ N‬נסמן‬
‫‪0‬‬
‫∞→‪n‬‬
‫‪0‬‬
‫”‪ Xi = Xi + Xi‬כאשר } ‪ Xi = Xi 1{Xi ≤2k‬ו־ } ‪ .Xi” = Xi 1{Xi >2k‬כמו כן נסמן‪:‬‬
‫‪k‬‬
‫”‪Xi‬‬
‫‪2‬‬
‫‪X‬‬
‫‪k‬‬
‫‪0‬‬
‫‪Xi +‬‬
‫‪i=1‬‬
‫‪2‬‬
‫‪X‬‬
‫=‬
‫‪S2”k‬‬
‫‪0‬‬
‫‪S2k = S2k +‬‬
‫‪i=1‬‬
‫‪0‬‬
‫מאחר ש־ ‪ S2k = S2k + S2”k‬נקבל כי‪:‬‬
‫‬
‫‪ 0‬‬
‫‬
‫‬
‫‬
‫‪S2k‬‬
‫‪k‬‬
‫‪k‬‬
‫>‬
‫‪2µ‬‬
‫=‬
‫‪P‬‬
‫‪S‬‬
‫≤‬
‫‪P‬‬
‫‪S‬‬
‫‪+ P S2”k > 0‬‬
‫‪k > 2µ2‬‬
‫‪k ≥ 2µ2‬‬
‫‪2‬‬
‫‪2‬‬
‫‪2k‬‬
‫‪h 0i‬‬
‫‪h 0 i Pk‬‬
‫‪0‬‬
‫‪2‬‬
‫כמו כן ‪ E S2k = i=1 E Xi = 2k µ‬ולכן מא"ש צ'בישב נקבל כי‪:‬‬
‫‬
‫‪P‬‬
‫‪0‬‬
‫‪≤µ‬‬
‫‬
‫{|}‪ µz‬‬
‫‪ 0‬‬
‫‬
‫‪0‬‬
‫‬
‫‬
‫‪k‬‬
‫‪k‬‬
‫‪k‬‬
‫‪≥ 2µ2 = P S2k − µ2 ≥ µ2‬‬
‫‪≤ P S2k − µ 2k ≥ µ2k‬‬
‫ ‬
‫ ‪ 0‬‬
‫‪ 0‬‬
‫‪0 2‬‬
‫‪k‬‬
‫‪E‬‬
‫‪Xi‬‬
‫†‬
‫‪Var S2k z}|{ 2 Var Xi‬‬
‫≤‬
‫=‬
‫≤‬
‫‪:= αk‬‬
‫‪µ2 22k‬‬
‫‪µ2 22k‬‬
‫‪µ2 2k‬‬
‫‪0‬‬
‫‬
‫‬
‫‪0‬‬
‫‬
‫‪P S2k‬‬
‫כאשר המעבר המסומן נובע מא"ת בזוגות‪ .‬כמו כן ניתן לראות כי‪:‬‬
‫‪ k‬‬
‫‪‬‬
‫‪2‬‬
‫‪2k‬‬
‫‪X‬‬
‫‪X‬‬
‫‬
‫‬
‫‬
‫‬
‫‪> 0 = P‬‬
‫≤ ‪Xi” > 0‬‬
‫‪P Xi” > 0 = 2k P Xi” > 0 = 2k P Xi ≥ 2k‬‬
‫‪i=1‬‬
‫‪25‬‬
‫‪i=1‬‬
‫‪P S2”k‬‬
‫‪4.2‬‬
‫‪4‬‬
‫החוק החלש והחזק של המספרים הגדולים‪:‬‬
‫ריכוז מידה של סדרות משתנים מקריים‪:‬‬
‫‬
‫נסמן ‪) Xi := X‬הנחנו שוויון התפלגות( ונסמן ‪ .pi = P 2i ≤ X ≤ 2i+1‬נשים לב כי‪:‬‬
‫∞‬
‫∞‬
‫∞‬
‫‪i‬‬
‫∞‬
‫‪X‬‬
‫‪X‬‬
‫‪X‬‬
‫‪X‬‬
‫‪ X‬‬
‫= ‪2k P Xi ≥ 2k‬‬
‫‪2k‬‬
‫= ‪pi‬‬
‫‪pi‬‬
‫≈ ‪2k‬‬
‫∞ < ]‪pi 2i ≈ E [X‬‬
‫‪i=1‬‬
‫‪k=1‬‬
‫‪i=1‬‬
‫‪k=1‬‬
‫‪k=1‬‬
‫‪i=k‬‬
‫∞‬
‫‪X‬‬
‫כמו כן ניתן לראות כי‪:‬‬
‫‬
‫‬
‫‪∞ k‬‬
‫∞‬
‫‪k‬‬
‫∞‬
‫‪X‬‬
‫} ‪E Xi2 1{Xi ≤2k‬‬
‫‪1 X X pi 22i‬‬
‫‪1 X −k X‬‬
‫≈‬
‫=‬
‫‪2‬‬
‫‪pi 22i‬‬
‫= ‪αk‬‬
‫‪k‬‬
‫‪2‬‬
‫‪µ2 2k‬‬
‫‪µ2‬‬
‫‪2‬‬
‫‪µ‬‬
‫‪i=1‬‬
‫‪i=1‬‬
‫‪k=1‬‬
‫‪k=1‬‬
‫‪k=1‬‬
‫∞‬
‫‪X‬‬
‫‪k=1‬‬
‫‪≤1‬‬
‫{ |} ‪z‬‬
‫∞‬
‫∞‬
‫∞‬
‫‪X‬‬
‫‪1 X‬‬
‫‪1‬‬
‫‪1 X‬‬
‫‪= 2‬‬
‫‪pi 2i‬‬
‫∞ < ]‪pi 2i ≈ 2 E [X‬‬
‫‪2−k ≤ 2‬‬
‫‪µ i=1‬‬
‫‪µ i=1‬‬
‫‪µ‬‬
‫‪k=i‬‬
‫‬
‫מכך נסיק כי ∞ < ‪> 2µ‬‬
‫‪S2k‬‬
‫‪2k‬‬
‫‬
‫∞‪P‬‬
‫‪k=1 P‬‬
‫ולכן מהלמה הראשונה של בורל קנטלי בהסתברות ‪ 1‬קיים ‪ k0‬כך שלכל ‪ k > k0‬מתקיים‬
‫‪S‬‬
‫‪S2k+1‬‬
‫‪2k‬‬
‫‪Sn‬‬
‫‪n‬‬
‫ולכן ‪ lim sup Snn ≤ 4µ‬בהסתברות ‪ .1‬לסיום‬
‫‪ . 22kk ≤ 2µ‬מכך עבור כל ‪ k ≥ k0‬ו־ ‪ 2k ≤ n ≤ 2k+1‬מתקיים ‪≤ 4µ‬‬
‫‬
‫‬
‫‪0‬‬
‫‪0‬‬
‫בהנתן ‪ ε > 0‬נבחר ‪ K‬כך ש־ ‪ E Xi 1{K>k} < ε‬ונסמן ”‪ Xi = Xi + Xi‬ו־ ”‪ Sn = Sn + Sn‬כמו קודם‪ .‬על סמך המקרה הראשון‬
‫‪0‬‬
‫‪a.s 0‬‬
‫‪S‬‬
‫נקבל כי ‪ nn −→ µ‬ועל סמך מה שראינו כעת נקבל כי בהסתברות ‪ 1‬מתקיים‪:‬‬
‫” ‬
‫ ‪S‬‬
‫‪lim sup n ≤ 4µ” ≤ 4ε‬‬
‫‪n‬‬
‫∞→‪n‬‬
‫≤‬
‫∞→‪n‬‬
‫מכך נקבל כי בהסתברות ‪ 1‬מתקיים‪:‬‬
‫‬
‫‬
‫‬
‫‪ Sn‬‬
‫‬
‫ ‪lim sup‬‬
‫‪− µ ≤ 5ε‬‬
‫‪n‬‬
‫∞→‪n‬‬
‫‪a.s‬‬
‫מאחר והנ"ל נכון לכל ‪ ε > 0‬נסיק כי ‪ , Snn −→ µ‬כנדרש‪.‬‬
‫‪a.s‬‬
‫תרגיל‪ :‬נניח ש־ ‪ Xi‬ב"ת וש"ה )אך לא בהכרח בעלי תוחלת סופית( האם ‪−→ µ‬‬
‫‪Sn‬‬
‫‪n‬‬
‫אמ"מ ‪?E [Xi ] = µ‬‬
‫הערה ‪ 4.17‬החוק החלש\חזק של המשתנים הגדולים מאששים את האינטואיציה שמשחק שבו תוחלת הרווח היא פונקציה של התפלגות‬
‫מסוימת נעדיף לשחק משחק שבו ההתפלגות היא בעלת תוחלת גדולה יותר במיוחד אם נעשה חזרות רבות על המשחק‪.‬‬
‫‪4.2.1‬‬
‫כמה דוגמאות משעשעות‪:‬‬
‫דוגמה ‪ 4.18‬פרדוקס שתי המעטפות‪:‬‬
‫• נניח שישנן שתי מעטפות שבאחת יש ‪ X‬כסף ובשנייה יש ‪ 2X‬כסף )‪ X‬משתנה מקרי מפולג בצורה כלשהי(‪ .‬נותנים לנו מעטפה‬
‫באקראי )הסתברות ‪ ( 12‬שבה יש ‪ Y‬כסף )‪ X‬או ‪ 2X‬בהסתברות ‪ .( 21‬אנחנו מסתכלים בתוכן של המעטפה ושואלים אותנו‬
‫האם נרצה לשמור את המעטפה או להחליף למעטפה השנייה‪ .‬לכאורה בהסתברות ‪ 12‬מתקיים ‪ Y = X‬ואז החלפה תתן לנו‬
‫‪0‬‬
‫‪0‬‬
‫‪ Y = 2Y‬ובהסתברות ‪ 12‬מתקיים ‪ Y = 2X‬ואז החלפה תתן לנו ‪ ,Y = Y2‬מכך נקבל כי לכאורה אם נחליף אז מתקיים‪:‬‬
‫‪h 0 i 1‬‬
‫‪h 0i‬‬
‫‪h h 0 ii‬‬
‫‪1Y‬‬
‫‪1‬‬
‫‪1‬‬
‫] ‪= 1 Y =⇒ E Y = E E Y |Y = 1 E [Y‬‬
‫‪E Y | Y = 2Y +‬‬
‫‪2‬‬
‫‪22‬‬
‫‪4‬‬
‫‪4‬‬
‫‪h 0i‬‬
‫‪0‬‬
‫אולם ‪ Y‬היא גם הסכום של מעטפה מקרית ולכן צריך להתקיים ] ‪ E Y = E [Y‬ובפרט נגיע למסקנה הלא הגיונית שתמיד‬
‫צריך להחליף‪ .‬הסיבה שאין כאן פרדוקס היא שהחישוב שעשינו כאן איננו תקין מאחר ולא לקחנו בחשבון את האינפורמציה‬
‫שגלומה בכך שראינו את ‪) Y‬כלומר את הפילוג של ‪.(X‬‬
‫‪26‬‬
‫‪4‬‬
‫‪4.3‬‬
‫ריכוז מידה של סדרות משתנים מקריים‪:‬‬
‫חזרה לריכוז מידה‪:‬‬
‫• נתבונן במקרה שבו ‪ X = 3N‬כאשר ‪ P (N = n) = 2−n‬ונשים במעטפות ‪ X‬ו־ ‪ .3X‬נניח שקיבלנו מעטפה וראינו ‪,Y = 3k‬‬
‫הנ"ל קורה בשני מקרים‪:‬‬
‫– אם ‪ X = 3k‬וקיבלנו את המעטפה עם ‪ X‬־ הנ"ל קורה בהסתברות ‪.p = 2−k · 2−1‬‬
‫– אם ‪ X = 3k−1‬וקיבלנו את המעטפה עם ‪ 3X‬־ הנ"ל קורה בהסתברות ‪.p = 2−k−1 · 2−1‬‬
‫– בפרט ניתן לראות שהמאורע הראשון סביר פי ‪ 2‬מהמאורע השני‪.‬‬
‫‪0‬‬
‫כעת אם נחליף ונסמן ב־ ‪ Y‬את הסכום שנקבל אז מנוסחת ‪ Bayes‬נקבל כי‪:‬‬
‫‪h 0‬‬
‫‪i‬‬
‫‪1‬‬
‫‪2−k−1 · 2−1‬‬
‫=‬
‫‪P Y = 3Y | Y = 3k = −k−1 −1‬‬
‫‪2‬‬
‫‪· 2 + 2−k · 2−1‬‬
‫‪3‬‬
‫‬
‫‬
‫‪−k‬‬
‫‪−1‬‬
‫‪0‬‬
‫‪Y‬‬
‫‪2‬‬
‫‪2‬‬
‫·‬
‫‪2‬‬
‫‪P Y = | Y = 3k = −k−1 −1‬‬
‫=‬
‫‪3‬‬
‫‪2‬‬
‫‪· 2 + 2−k · 2−1‬‬
‫‪3‬‬
‫מכך נקבל כי‪:‬‬
‫‪h 0i‬‬
‫‪h h 0 ii‬‬
‫‪h 0 i 1‬‬
‫‪2 Y‬‬
‫‪2‬‬
‫‪2‬‬
‫] ‪= 1 Y =⇒ E Y = E E Y |Y = 1 E [Y‬‬
‫· ‪E Y |Y = · 3Y +‬‬
‫‪3‬‬
‫‪3 3‬‬
‫‪9‬‬
‫‪9‬‬
‫‪0‬‬
‫שלכאורה כדאי לנו תמיד להחליף לא משנה מה ראינו‪ .‬מצד שני ‪ Y‬ו־ ‪ Y‬הם בעלי אותה התפלגות ולכן צריך‬
‫לכן ניתן לראות ‪h 0 i‬‬
‫להתקיים ] ‪ .E Y = E [Y‬הסיבה שאין כאן פרדוקס למרות שכאן בניגוד למקרה קודם כן ידועה לנו ההתפלגות של ‪ X‬היא‬
‫‪h 0i‬‬
‫‪h 0i‬‬
‫פשוט שמתקיים ∞ = ] ‪ E [Y‬ולכן השוויון ] ‪ E Y = 1 29 E [Y‬הוא תקין לחלוטין שכן לא נובע ממנו ש־ ] ‪.E Y > E [Y‬‬
‫תרגיל‪ :‬נניח שישנו משחק שבו בכל שלב אם מהמרים על סכום ‪ x‬אז בהסתברות חצי נפסיד את הכל ובהסתברות ‪ 12‬נכפיל את מה‬
‫שהימרנו‪ .‬כעת בהנתן שיש לנו סכום התחלתי ‪ x0‬ומשחקים ‪ k‬סיבובים על המשחק שבכל סיבוב ‪ 1 ≤ j ≤ k‬נהמר על ‪) xj‬שהוא חלקי‬
‫ל־ ‪ xj−1‬שהוא הסכום שהיה לנו בסוף הסיבוב הקודם(‪ .‬נשאלת השאלה מהי אסטרטגיית ההימור )החלק היחסי מ־ ‪ xj−1‬שנרצה‬
‫להמר עליה במשחק ה־ ‪ (j‬כך שנמקסם את חציון הסכום שיהיה לנו אחרי ‪ k‬סיבובים )שאותו נסמן ‪.(xk‬‬
‫‪4.3‬‬
‫חזרה לריכוז מידה‪:‬‬
‫‬
‫מקרי‪ :‬‬
‫הגדרה ‪ 4.19‬פונקציה יוצרת מומנטים של משתנה ‬
‫‬
‫יהא ‪ X‬מ"מ הפונקציה יוצרת מומנטים של ‪ X‬היא ‪ ϕX (t) := E etX‬כאשר הנ"ל מוגדרת בכל נקודה שבה ∞ < ‪.E etX‬‬
‫הערה ‪ 4.20‬אפשר לראות ש־ ‪ ϕX (0) = 1‬בהכרח ולכן ‪ ϕX‬תמיד מוגדרת באפס‪.‬‬
‫הערה ‪ 4.21‬עבור משתנה מקרי ‪ X‬אפשר להגדיר‬
‫‪tk X k‬‬
‫!‪k‬‬
‫∞‪P‬‬
‫‪k=0‬‬
‫= ‪ etX‬ומכך בתנאי התכנסות מסוימים נקבל כי‪:‬‬
‫‪∞ k k‬‬
‫‪ tX X‬‬
‫‪t E X‬‬
‫‪E e‬‬
‫=‬
‫!‪k‬‬
‫‪k=0‬‬
‫ ‬
‫)‪(k‬‬
‫∞‬
‫מכך ניתן לראות ‪ ϕX‬היא הפונקציה היוצרת שמוגדרת על ידי הסדרה ‪ {E [X n ]}n=1‬ובפרט לכל ‪ k ∈ N‬מתקיים ‪.ϕX (0) = E X k‬‬
‫הערה ‪ 4.22‬ישנם מקרים שבהם ל־ ‪ X‬יש את כל המומנטים שלו והם סופיים אך ‪ ϕX‬לא מוגדרת באף נקודה פרט לאפס‪.‬‬
‫למה ‪4.23‬‬
‫ ‪ tX‬‬
‫‪i‬‬
‫יהיו ‪ X1 , ..., Xn‬מ"מ ב"ת‪ ,‬נסמן‬
‫‪ ϕi (t) = E e‬ו־ ‪i=1 Xi‬‬
‫‪Pn‬‬
‫= ‪ ,Sn‬אזי )‪ϕi (t‬‬
‫הוכחה‪ :‬באינדוקציה פשוטה‪.‬‬
‫‪27‬‬
‫‪Qn‬‬
‫‪i=1‬‬
‫= )‪.ϕSn (t‬‬
‫‪4.3‬‬
‫‪4‬‬
‫חזרה לריכוז מידה‪:‬‬
‫ריכוז מידה של סדרות משתנים מקריים‪:‬‬
‫דוגמה ‪ 4.24‬נניח ש־ ‪ Xn‬היא סדרת מ"מ ב"ת המקבלים את הערכים ‪ ±1‬בהסתברות ‪ , 21‬מכך נקבל כי‪:‬‬
‫!‬
‫∞‬
‫∞‬
‫∞‬
‫‪k‬‬
‫‪X‬‬
‫‪ tX e−t + et‬‬
‫‪t2‬‬
‫‪1 X (−1) tk + tk‬‬
‫‪1 X t2k‬‬
‫‪t2k‬‬
‫‪E e‬‬
‫=‬
‫=‬
‫=‬
‫≤‬
‫‪=e2‬‬
‫‪k‬‬
‫‪2‬‬
‫‪2‬‬
‫!‪k‬‬
‫‪2‬‬
‫!)‪(2k‬‬
‫!‪2 k‬‬
‫‪k=0‬‬
‫‪k=0‬‬
‫‪k=0‬‬
‫‪Pn‬‬
‫נסמן ‪ Sn = i=1 Xi‬ונקבל כי לכל ‪ t > 0‬מתקיים‪:‬‬
‫‪Independence Y‬‬
‫‪n‬‬
‫‪n‬‬
‫‪Y‬‬
‫‬
‫‬
‫‪t2‬‬
‫{|}‪z‬‬
‫=‬
‫= )‪ϕi (t‬‬
‫‪E etXi ≤ e 2 ·n‬‬
‫)‪ϕSn (t‬‬
‫‪i=1‬‬
‫‪i=1‬‬
‫לכן נקבל כי‪:‬‬
‫ ‪Markov‬‬
‫‬
‫‪t2‬‬
‫‪ z}|{ E etSn‬‬
‫‪t2‬‬
‫‪e 2 ·n‬‬
‫‪≤ tλ = e 2 ·n−tλ‬‬
‫‪>e‬‬
‫≤‬
‫‪etλ‬‬
‫‪e‬‬
‫‪tλ‬‬
‫‪t2‬‬
‫הפונקציה ‪ f (t) = e 2 ·n−tλ‬מקבלת מינימום בנקודה‬
‫‪λ‬‬
‫‪n‬‬
‫‪tSn‬‬
‫‪P (Sn > λ) = P e‬‬
‫‪λ2‬‬
‫= ‪ t‬שערכו ‪ e− n2‬ומכך נסיק כי‪:‬‬
‫‪λ2‬‬
‫‪P (Sn > λ) ≤ e− n2‬‬
‫נכליל את הדוגמה הזו‪:‬‬
‫דוגמה ‪ 4.25‬נניח ש־ ‪ Xi‬היא סדרת מ"מ ב"ת כך ש־ ‪ |Xi | ≤ 1‬וגם ‪.E [Xi ] = 0‬‬
‫‪Pn‬‬
‫• נסמן ‪ Sn = i=1 Xi‬ועבור ‪ λ ≥ 0‬כלשהו נרצה לחסום את ההסתברות )‪.P (Sn ≥ λ‬‬
‫• ראשית ניתן לראות כי לכל ‪ t ≥ 0‬מתקיים‪:‬‬
‫ ‪Markov‬‬
‫‬
‫‪ z}|{ E etSn‬‬
‫‪= ϕSn (t) · e−tλ‬‬
‫‪≥e‬‬
‫≤‬
‫‪etλ‬‬
‫‪tλ‬‬
‫• מאחר ש־ ‪ etx‬קמורה ב־ ‪ t‬ומכך שלכל ‪ |x| ≤ 1‬מתקיים ]‪∈ [0, 1‬‬
‫‪1 − x −t 1 + x t‬‬
‫‪e +‬‬
‫‪e‬‬
‫‪2‬‬
‫‪2‬‬
‫≤‬
‫‪1−x‬‬
‫‪2‬‬
‫‪tSn‬‬
‫‪P (Sn ≥ λ) = P e‬‬
‫נקבל כי‪:‬‬
‫‪1−x‬‬
‫‪1+x‬‬
‫)‪2 (−t)+ 2 (t‬‬
‫‪etx = e‬‬
‫מכך נקבל שלכל ‪ i‬מתקיים‪:‬‬
‫‪=0‬‬
‫‬
‫‪ 1 − E [Xi ] −t 1 + E [Xi ] t‬‬
‫‪e−t + et z }| { e−t + et‬‬
‫≤ ‪E etXi‬‬
‫‪e +‬‬
‫= ‪e‬‬
‫] ‪+ E [Xi‬‬
‫‪2‬‬
‫‪2‬‬
‫‪2‬‬
‫‪2‬‬
‫‬
‫‬
‫‪t2‬‬
‫‪t2‬‬
‫• כבר ראינו ש־ ‪ 12 (e−t + et ) ≤ e 2‬ולכן קיבלנו שלכל ‪ i‬מתקיים ‪ ϕXi (t) = E etXi ≤ e 2‬ומכך‪:‬‬
‫!‬
‫‪n‬‬
‫‪n‬‬
‫‪Y‬‬
‫‪Y‬‬
‫‪t2‬‬
‫‪n 2‬‬
‫‪−tλ‬‬
‫‪P (Sn ≥ λ) ≤ ϕSn (t) · e‬‬
‫=‬
‫≤ ‪ϕXi (t) · e−tλ‬‬
‫‪e 2 · e−tλ = e 2 t −tλ‬‬
‫‪i=1‬‬
‫‪i=1‬‬
‫• בפרט‬
‫‪λ‬‬
‫‪n‬‬
‫= ‪ t‬היא נקודת מינימום של‬
‫‪−tλ‬‬
‫‪n 2‬‬
‫‪ e 2 t‬ומכך נקבל כי‪:‬‬
‫‪2‬‬
‫‪−λ‬‬
‫‪2n‬‬
‫‪=e‬‬
‫‪2‬‬
‫‪− λn‬‬
‫‪n λ2‬‬
‫‪2 · n2‬‬
‫‪P (Sn ≥ λ) ≤ e‬‬
‫הערה ‪ 4.26‬נשים לב שחייבים לדרוש ש־ ‪ λ ≥ 0‬שכן האנליזה שעשינו הייתה עבור ‪.t ≥ 0‬‬
‫הערה ‪ 4.27‬בפרט ניתן לראות שהמקרה שבו ‪ Xi = ±1‬בהסתברות‬
‫‪28‬‬
‫‪1‬‬
‫‪2‬‬
‫משיג את החסם הנ"ל‪.‬‬
‫‪4‬‬
‫‪4.3‬‬
‫ריכוז מידה של סדרות משתנים מקריים‪:‬‬
‫חזרה לריכוז מידה‪:‬‬
‫על סמך הדוגמה הזו ננסח את המשפט הבא )שכרגע הוכחנו למעשה(‪:‬‬
‫משפט ‪ 4.28‬משפט חסם הופדינג )‪:(Hoeffding Bound‬‬
‫‪Pn‬‬
‫‪λ2‬‬
‫תהא ‪ Xi‬סדרת מ"מ ב"ת כך ש־ ‪ |Xi | ≤ 1‬וגם ‪ E [Xi ] = 0‬אזי לכל ‪ λ ≥ 0‬מתקיים ‪.P ( i=1 Xi ≥ λ) ≤ e− 2n‬‬
‫‪λ2‬‬
‫הערה ‪ 4.29‬נשים לב שהדעיכה של ‪ e− 2n‬כפונקציה של ‪ λ‬מתחילה רק ב־ ‪n‬‬
‫‪ P (Sn ≥ λ) = 1‬וזה כמובן טריוויאלי‪.‬‬
‫√‬
‫= ‪ λ‬ולכן עבור ‪n‬‬
‫√‬
‫< ‪ λ‬החסם הנ"ל נותן ש־‬
‫הערה ‪ 4.30‬אם במקום ההנחה ש־ ‪ |Xi | ≤ 1‬נניח ש־ ‪ |Xi | ≤ Ci‬לכל ‪ i‬אז אפשר להראות באמצעות אותה אנליזה שמתקיים‪:‬‬
‫‪ n‬‬
‫‬
‫!‬
‫‪P‬‬
‫‪2‬‬
‫‪n‬‬
‫‪X‬‬
‫‪−‬‬
‫‪Ci · λ‬‬
‫‪2n‬‬
‫‪i=1‬‬
‫‪P‬‬
‫‪Xi ≥ λ ≤ e‬‬
‫‪i=1‬‬
‫דוגמה ‪ 4.31‬נתבונן במקרה של ‪ ,λ = an‬במקרה הנ"ל נקבל כי‪:‬‬
‫‬
‫‪a2‬‬
‫‪Sn‬‬
‫‪≥ a ≤ e− 2 n‬‬
‫‪P‬‬
‫‪n‬‬
‫‬
‫אפשר להראות שקיים הגבול ‪) I (a) := lim n1 log P Snn ≥ a‬מכונה ה־ ‪.(Rate Function‬‬
‫‬
‫∞→‪n‬‬
‫דוגמה ‪ 4.32‬במובן מסוים חסם הופדינג עשוי להיות רחוק מאופטימלי‪ ,‬נסתכל למשל במקרה שבו‪:‬‬
‫‪‬‬
‫‪‬‬
‫‪P=p‬‬
‫‪1‬‬
‫‪Xi = −1 P = p‬‬
‫‪‬‬
‫‪‬‬
‫‪0‬‬
‫‪P = 1 − 2p‬‬
‫√‬
‫‪1‬‬
‫‪1‬‬
‫‪2‬‬
‫‪1‬‬
‫עבור ‪ p = n− 3‬נקבל ש־ ‪ Var (Sn ) = 2n 3‬וסטיית התקן היא ‪ . 2 · n 6‬מאידך הדעיכה של חסם הופדינג מתחילה רק ב־ ‪λ = n 2‬‬
‫שזה הרבה מעבר לסדר של סטיית תקן אחת של ‪ Sn‬כאשר ‪ n‬גדול‪) .‬היינו רוצים לקבל אומדן טוב לריכוז המידה סביב התוחלת‬
‫באזור של כמה סטיות תקן בודדות מהתוחלת(‪.‬‬
‫משפט ‪ 4.33‬משפט חסם צ'רנוף )‪:(Chernoff Bound‬‬
‫תהא ‪ Xi‬סדרת מ"מ ב"ת כך ש־ ‪ E [Xi ] = 0 ,|Xi | ≤ 1‬ו־ ∞ < ‪ .Var (Xi ) = Vi‬נסמן‪:‬‬
‫‪Vi‬‬
‫‪n‬‬
‫‪X‬‬
‫= ) ‪V := Var (Sn‬‬
‫‪i=1‬‬
‫אזי לכל ‪ λ ≥ 0‬מתקיים‪:‬‬
‫‪n λ2‬‬
‫‪o‬‬
‫‪λ‬‬
‫‪≤ max e− 4V , e− 2‬‬
‫!‬
‫‪Xi ≥ λ‬‬
‫‪n‬‬
‫‪X‬‬
‫‪P‬‬
‫‪i=1‬‬
‫‪1‬‬
‫הערה ‪ 4.34‬בפרט בדוגמה הקודמת עבור ‪ λ‬מסדר של ‪2K · n 6‬‬
‫התוחלת‪.‬‬
‫√‬
‫כדי לקבל חסם על ריכוז המידה באזור של ‪ K‬סטיות תקן סביב‬
‫הוכחה‪ :‬ראשית על סמך הפיתוח של ‪ etx‬לטור חזקות נקבל כי לכל ‪ i‬מתקיים‪:‬‬
‫‪=0‬‬
‫‪∞ k k‬‬
‫‪z }| { X‬‬
‫ ‪ tXi‬‬
‫‪t E Xi‬‬
‫‪E e‬‬
‫‪= 1 + t E [Xi ] +‬‬
‫!‪k‬‬
‫‪k=2‬‬
‫‪29‬‬
‫‪4.3‬‬
‫חזרה לריכוז מידה‪:‬‬
‫ריכוז מידה של סדרות משתנים מקריים‪:‬‬
‫‪4‬‬
‫ ‬
‫ ‬
‫מכך ש־ ‪ |Xi | ≤ 1‬ו־ ‪ E [Xi ] = 0‬נקבל כי לכל ‪ k ≥ 2‬מתקיים ‪ Vi = E Xi2 ≥ E Xik‬ולכן‪:‬‬
‫‪1+x≤ex‬‬
‫‪∞ k k‬‬
‫‪∞ k‬‬
‫‪X‬‬
‫‪X‬‬
‫{|}‪z‬‬
‫ ‪ tXi‬‬
‫‬
‫‪t E Xi‬‬
‫‪t‬‬
‫‪t‬‬
‫‪E e‬‬
‫‪=1+‬‬
‫‪≤ 1 + Vi‬‬
‫‪= 1 + V i et − 1 − t‬‬
‫)‪≤ eVi (e −1−t‬‬
‫!‪k‬‬
‫!‪k‬‬
‫‪k=2‬‬
‫‪k=2‬‬
‫‬
‫כעת לא קשה להראות שעבור ‪ 0 ≤ t ≤ 1‬מתקיים ‪ et−1−t ≤ t2‬ומכך עבור ‪ t‬כנ"ל נקבל כי‪:‬‬
‫‬
‫‬
‫‪t‬‬
‫‪2‬‬
‫‪E etXi ≤ eVi (e −1−t) ≤ eVi t‬‬
‫⇓‬
‫‪n‬‬
‫‪P‬‬
‫‪n‬‬
‫‪Vi t2‬‬
‫‬
‫‪ Y‬‬
‫‪2‬‬
‫‪2‬‬
‫≤ ‪E etXi‬‬
‫‪eVi t = ei=1‬‬
‫‪= eV t‬‬
‫‪n‬‬
‫‪Y‬‬
‫‬
‫‬
‫= ‪E etSn‬‬
‫‪i=1‬‬
‫‪i=1‬‬
‫לכן על סמך פיתוחים שעשינו קודם נקבל שאם ‪ 0 ≤ t ≤ 1‬אז לכל ‪ λ ≥ 0‬מתקיים‪:‬‬
‫‬
‫‬
‫‪2‬‬
‫‪2‬‬
‫‪P (Sn ≥ λ) ≤ E etSn · e−tλ ≤ eV t · e−tλ = eV t −tλ‬‬
‫כמו כן הפונקציה‬
‫‪−tλ‬‬
‫‪2‬‬
‫‪λ‬‬
‫‪2V‬‬
‫‪ eV t‬מקבלת מינימום כאשר‬
‫‪λ2‬‬
‫‪λ2‬‬
‫‪λ2‬‬
‫= ‪ t‬שערכו הוא ‪ .e 4V − 2V = e− 4V‬לסיום נפריד לשני מקרים‪:‬‬
‫‪λ2‬‬
‫• אם ‪ λ ≤ 2V‬אז ‪ 0 ≤ t ≤ 1‬ולכן על סמך האנליזה הזו נקבל כי ‪.P (Sn ≥ λ) ≤ e− 4V‬‬
‫‪λ‬‬
‫• אם ‪ λ ≥ 2V‬אז נקח ‪ t = 1‬ונקבל כי ‪.P (Sn ≥ λ) ≤ e− 2‬‬
‫מכך סה"כ נקבל את המסקנה הנדרשת‪.‬‬
‫הערה ‪ 4.35‬נשים לב שללא הניתוח שעשינו כדי לקבל ש־ ‪ (et − 1 − t) ≤ t2‬עדיין נקבל שבכל מקרה מתקיים‪:‬‬
‫‪−1−t)−λt‬‬
‫‪t‬‬
‫‪P (Sn ≥ λ) ≤ eV (e‬‬
‫ניתן לראות כי‪:‬‬
‫‬
‫ ‪d V (et −1−t)−λt‬‬
‫‪e‬‬
‫‪= V et − 1 − λ‬‬
‫‪dt‬‬
‫‬
‫הנ"ל מקבל מינימום ב־ ‪+ 1‬‬
‫‪λ‬‬
‫‪V‬‬
‫‪ .t = log‬אם נציב זאת נקבל כי‪:‬‬
‫)‪P (Sn ≥ λ) ≤ eV ( V +1−1−log( V +1))−λ log( V +1) = eλ−(λ+V ) log( V +1‬‬
‫‪λ‬‬
‫‪λ‬‬
‫‪λ‬‬
‫‪λ‬‬
‫אם ‪ λ < 2V‬נוכל להשתמש באנליזה שעשינו קודם‪ .‬מאידך אם ‪ λ > 2V‬אז נקבל כי‪:‬‬
‫)‪P (Sn ≥ λ) ≤ eλ−(λ+V ) log( V +1) ≤ eλ−λ log( V +1) = e−λ(log( V +1)−1‬‬
‫‪λ‬‬
‫‪λ‬‬
‫‪λ‬‬
‫אפשר להראות שכאשר ‪ λ > 2V‬אז מתקבל החסם הבא‪:‬‬
‫) ‪( Vλ‬‬
‫‪−λ log‬‬
‫‪8‬‬
‫‪P (Sn ≥ λ) ≤ e−λ(log( V +1)−1) ≤ e‬‬
‫‪λ‬‬
‫לכן סה"כ נקבל את החסם‪:‬‬
‫)‬
‫) ‪( Vλ‬‬
‫‪−λ log‬‬
‫‪8‬‬
‫‪λ2‬‬
‫(‬
‫‪P (Sn ≥ λ) ≤ max e− 4V , e‬‬
‫‪30‬‬
‫‪4.3‬‬
‫חזרה לריכוז מידה‪:‬‬
‫דוגמה ‪ 4.36‬נרצה להראות שבמובן מסוים החסם הנ"ל הוא הדוק‪ .‬נתבונן במקרה שבו‬
‫‬
‫‪1‬‬
‫‪n‬‬
‫‪1‬‬
‫‪n‬‬
‫‪1−‬‬
‫• ניתן לראות כי ‪ E [Xi ] = 0‬וגם‬
‫‬
‫• כמו כן ‪ Sn ∼ Bin n, n1 − 1 ≈ Pois (1) − 1‬ובפרט‬
‫‪1‬‬
‫‪n‬‬
‫‪4‬‬
‫ריכוז מידה של סדרות משתנים מקריים‪:‬‬
‫‪−‬‬
‫‪1‬‬
‫‪n‬‬
‫‬
‫‪:Xi ∼ Ber‬‬
‫= ) ‪.Var (Xi‬‬
‫‪1‬‬
‫‪n‬‬
‫‪.Var (Sn ) = 1 −‬‬
‫על סמך כך ש־ ‪ Sn‬מפולג בקירוב ‪ Pois (1) − 1‬נקבל כי לכל ‪ 0 ≤ k ≤ n‬מתקיים‪:‬‬
‫‪e−1‬‬
‫‪∼ e−1 e−(λ+1) log((λ+1)−1) = e−(λ+1) log(λ)−1‬‬
‫!)‪(λ + 1‬‬
‫= )‪P (Sn ≥ λ) ≥ P (Sn = λ‬‬
‫∞→‪n‬‬
‫מאחר ש־ ‪ Var (Sn ) −→ 1‬אז החל מ־ ‪ λ = 2‬מתקיים ‪ λ > 2V‬ולכן על סמך החסם שפיתחנו נקבל כי‪:‬‬
‫) ‪( Vλ‬‬
‫‪−λ log‬‬
‫‪8‬‬
‫‪e−(λ+1) log(λ)−1 ≤ P (Sn ≥ λ) ≤ e‬‬
‫הנ"ל מראה ש־ ))‪ log (P (Sn ≥ λ‬דועך בסדר גודל של‬
‫‬
‫‪λ‬‬
‫‪V‬‬
‫‪.−λ log‬‬
‫דוגמה ‪ 4.37‬מודל הצפרדעים‪ :‬יש גרף אינסופי שעל כל קודקוד בו יושבת צפרדע‪ ,‬בהתחלה כולן ישנות‪ ,‬מעירים צפרדע כלשהי והיא‬
‫מתחילה לעשות הילוך מקרי על הגרף )מעבר לקודקוד סמוך בהסתברות אחידה(‪ .‬כל פעם שצפרדע מגיעה לקודקוד שיש בו צפרדע‬
‫שעוד לא התעוררה היא מתעוררת ומתחילה מהלך מקרי זהה‪ .‬אפשר לשאול כתלות בגרף האם כל הצפרדעים מתעוררות‪ .‬כמו כן‬
‫אפשר לעשות ווריאציה של השאלה שבה יש יותר מצפרדע אחת בכל קודקוד‪ .‬בפרט ידוע שעבור עץ ‪100‬־רגולרי )שבו יש הרבה‬
‫התפצלויות( כאשר יש צפרדע אחת בכל קודקוד לא כל הצפרדעים מתעוררות‪ .‬נעשה קצת אנליזה פשוטה של הבעיה‪:‬‬
‫• נשים לב כי בכל שלב לכל היותר מספר הצפרדעים הערות מוכפל במקרה שכל הצפרדעים העירו צפרדע ישנה‪.‬‬
‫• לכן לאחר ‪ n‬צעדים של הבעיה מספר הצפרדעים שהתעוררו הוא לכל היותר ‪.2n‬‬
‫• נתבונן בעץ ‪ 100‬רגולרי שבו ‪ 99‬קשתות עולות למעלה וקשת אחת יורדת למטה בכל קודקוד‪.‬‬
‫• אפשר לראות שלאחר ‪ n‬צעדים תוחלת הגובה של הצפרדע שהתחילה את התהליך ביחס לגובה שבו היא התחילה היא‬
‫‪ E [Sn ] = 0.98n‬כאשר‪:‬‬
‫}‪1{The frog went up on the i’th step‬‬
‫‪n‬‬
‫‪X‬‬
‫= ‪Sn‬‬
‫‪i=1‬‬
‫• מכך על סמך חסם צ'רנוף אפשר להסיק שעבור הצפרדע המקורית צפרדע הסיכוי להיות בגובה ‪) 0‬הגובה שבו היא התחילה(‬
‫לאחר ‪ n‬צעדים דועך בצורה אקספוננציאלית כפונקציה של ‪ .n‬כלומר‪:‬‬
‫‪P (Sn = 0) ≤ e−Kn‬‬
‫עבור קבוע ‪ K‬שנתון מהחסם והוא פונקציה של ‪) d = 100‬דרגת כל הקודקודים( והעובדה ש־ ‪ 99‬קשתות עולות‪ .‬אפשר‬
‫להראות שעבור דרגת קודקודים ‪ d = 99‬מתקיים ש־ ‪.e−Kn ≤ 3−n‬‬
‫• נשים לב שעבור כל צפרדע שמתעוררת ההתפלגות של הגובה שלה לאחר שהתהליך עבור ‪ n‬צעדים היא זהה להתפלגות של ‪Sn‬‬
‫)שכן אנחנו מעירים כל צפרדע בגובה התחלתי מתאים( ‪.‬‬
‫• מאחר שיש ‪ 2n‬צפרדעים ערות לכל היותר לאחר ‪ n‬צעדים וההסתברות לרדת לגבהים נמוכים היא כל כך נמוכה כך שלמשל‬
‫שההסתברות לרדת לגובה ‪ −n‬שואפת לאפס כאשר ∞ → ‪ .n‬לכן לא נכסה את כל עץ במקרה הנ"ל‪.‬‬
‫‪31‬‬
‫‪5‬‬
‫‪5‬‬
‫‪5.1‬‬
‫מרטינגלים‪:‬‬
‫מרטינגלים‪:‬‬
‫מרטינגלים בדידים‪:‬‬
‫‬
‫מרחב הסתברות ‪ Ω, 2Ω , P‬עם ‪ Ω‬סופית\בת־מנייה ומאורע ‪ B ∈ 2Ω‬כך ש־ ‪ P (B) 6= 0‬ניתן להגדיר מידת‬
‫תזכורת ‪ 5.1‬בהנתן ‬
‫הסתברות מותנית על ‪ Ω, 2Ω‬ע"י‪:‬‬
‫)‪P (A ∩ B‬‬
‫)‪P (B‬‬
‫= )‪PB (A) = P (A|B‬‬
‫‬
‫בפרט לכל מ"מ ‪ X : Ω, 2Ω → R‬מוגדרת התוחלת של ‪ X‬בהנתן ‪ B‬שתסומן ]‪ E [X|B‬בתור התוחלת ביחס למידה ‪.PB‬‬
‫‪2‬‬
‫דוגמה ‪ 5.2‬נתבונן בהסתברות הבאה המוגדרת על }‪ Ω : {1, 2, 3‬כאשר נייצג את הקוארדינטות כמ"מ ‪:X, Y‬‬
‫‪3‬‬
‫‪2‬‬
‫‪1‬‬
‫‪9‬‬
‫‪1‬‬
‫‪9‬‬
‫‪1‬‬
‫‪9‬‬
‫‪1‬‬
‫‪6‬‬
‫‪1‬‬
‫‪0‬‬
‫‪0‬‬
‫‪1‬‬
‫‪3‬‬
‫‪1‬‬
‫‪6‬‬
‫‪0‬‬
‫‪Y \X‬‬
‫‪1‬‬
‫‪2‬‬
‫‪3‬‬
‫ניתן לראות ש־ }‪ X ∼ U {1, 2, 3‬עם ‪ E [X] = 2‬וניתן לשאול מהי ]‪) E [Y |X = a‬כלומר לכל }‪ a ∈ {1, 2, 3‬ניתן לשאול מה התוחלת‬
‫של ‪ Y‬בהנתן המאורע ‪ .(X = a‬אפשר לחשב ולהראות ש־ ‪ E [Y |X = a] = 2‬לכל }‪ .a ∈ {1, 2, 3‬כמו כן אפשר להראות ש־‬
‫‪ E [X · Y ] = 4‬ומתקיים‪:‬‬
‫]‪E [XY ] = E [E [Y |X] · X‬‬
‫‬
‫כאשר ‪ E [Y |X] : Ω, 2Ω → R‬היא הפונקציה כך ש‪:‬‬
‫]‪E [Y |X] (a) = E [Y |X = a‬‬
‫‬
‫כאשר נחשוב עליה כפונקציה שתלויה רק בקוארדינטה הראשונה והיא מדידה ביחס ל־ ‪σ‬־אלגברה על ‪ Ω, 2Ω‬שנוצרת ע"י ‪X‬‬
‫תזכורת ‪ 5.3‬משתנה מקרי בדיד אם התמונה שלו בת־מנייה )בפרט סופית( או באופן שקול‪:‬‬
‫• ‪ Im (X) ⊆ R‬היא קבוצה בת־מנייה כך שלכל )‪ a ∈ Im (X‬מתקיים ‪.P (X = ai ) > 0‬‬
‫• קיימת קבוצה בת־מנייה ‪ A ⊆ R‬כך ש־ ‪.P (X ∈ A) = 1‬‬
‫נזכיר שאם התמונה של משתנה מקרי איננה בת־מנייה אז לא ייתכן שלכל )‪ a ∈ Im (X‬מתקיים ‪.P (X = a) > 0‬‬
‫דוגמה ‪ 5.4‬בהנתן מרחב הסתברות )‪ (Ω, F, P‬וסדרת מ"מ בדידים ‪ X1 , X2 , ...‬נניח שמתקיים‪:‬‬
‫‪? E [Xk+1 |X1 = a1 , ..., Xk = ak ] = 0‬‬
‫עבור כל ‪ k ∈ N‬ועבור כל ‪ a1 , ..., ak‬בטווח של ‪ .X1 , ..., Xk‬נתבונן בסכום ‪Xi‬‬
‫‪Pk‬‬
‫‪i=1‬‬
‫= ‪ Sk‬ונתבונן בתוחלת המותנית הבאה‪:‬‬
‫] ‪E [Sk+1 |∀i ≤ k Si = ti‬‬
‫נשים לב כי‪:‬‬
‫] ‪E [Sk + Xk+1 |∀i ≤ k Si = ti ] = E [Sk + Xk+1 |∀i ≤ k Si = ti‬‬
‫] ‪= E [Sk |∀i ≤ k Si = ti ] + E [Xk+1 |∀i ≤ k Si = ti‬‬
‫‪= tk + E [Xk+1 |∀i ≤ k Si = ti ] = tk + 0 = tk‬‬
‫כאשר המעבר לפני האחרון נובע מכך שמהסדרה } ‪ {S1 , ..., Sk‬ניתן לשחזר בדיוק את } ‪ {X1 , ..., Xk‬ומההנחה ?‪.‬‬
‫‪32‬‬
‫‪5.1‬‬
‫מרטינגלים בדידים‪:‬‬
‫מרטינגלים‪:‬‬
‫‪5‬‬
‫הערה ‪ 5.5‬בקונטקסט של החלק הבא שנדבר על סדרות של משתנים מקריים המשתנים שבסדרה כולם יהיו באותו מרחב הסתברות‪.‬‬
‫הגדרה ‪ 5.6‬מרטינגל )הגדרה ראשונית ולא מלאה(‪:‬‬
‫∞‬
‫סדרת משתנים מקריים בדידים ‪ {Mi }i=1‬תקרא מרטינגל אם לכל ‪ n ∈ N‬ולכל ‪ a1 , ..., an‬בטווח של ‪ X1 , ..., Xn‬מתקיים‪:‬‬
‫] ‪P (M1 = a1 , ..., Mn = an ) > 0 =⇒ an = E [Mn+1 | ∀ i ≤ n Mi = ai‬‬
‫כאשר ההסתברויות והתוחלות נלקחות ביחס למרחב ההסתברות שבו מוגדרים ‪.Mi‬‬
‫דוגמה ‪ 5.7‬מהלך מקרי סטנדרטי‪ :‬עבור }‪ Xi ∈ {±1‬בהסתברות‬
‫מרטינגל‪.‬‬
‫‪1‬‬
‫‪2‬‬
‫ובלתי תלויים סדרת המשתנים המקריים ‪Xi‬‬
‫דוגמה ‪ 5.8‬בהנתן סדרת מ"מ בדידים וב"ת ‪ Xi‬כך ש־ ‪ Xi ≥ 0‬ו־ ‪ E [Xi ] = 1‬נתבונן בסדרה ‪Xi‬‬
‫‪Qn‬‬
‫‪i=1‬‬
‫‪Pn‬‬
‫‪i=1‬‬
‫= ‪ Sn‬היא‬
‫= ‪ .Sn‬נשים לב כי‪:‬‬
‫‪E [Sn+1 | ∀ i ≤ n Si = ti ] = E [Sn · Xn+1 | ∀ i ≤ n Si = ti ] = tn E [Xn+1 | ∀ i ≤ n Si = ti ] = tn E [Xn+1 ] = tn‬‬
‫לכן ניתן לראות שזהו גם כן מרטינגל‪.‬‬
‫מוציאים כדור באקראי )באופן אחיד( ומחזירים‬
‫דוגמה ‪ 5.9‬הכד של פוליה‪ :‬בכד בשלב ראשון יש שני כדורים‪ ,‬שחור ולבן‪ .‬בכל שלב ‪Pn‬‬
‫אותו ועוד כדור באותו צבע‪ .‬נגדיר }‪ Xn = 1{The n’th ball is black‬ונגדיר ‪ Bn = i=1 Xi‬שהוא מספר הכדורים השחורים‬
‫בשלב ה־ ‪ .n‬נראה ש־ ‪ Mn = Bnn‬הוא מרטינגל‪ ,‬ניתן לראות כי‪:‬‬
‫‬
‫‬
‫‬
‫‬
‫‪Xn+1‬‬
‫‪Bn+1‬‬
‫‪Bn‬‬
‫‪| B1 = a1 , ..., Bn = an = E‬‬
‫‪+‬‬
‫‪|B1 = a1 , ..., Bn = an‬‬
‫‪E‬‬
‫‪n+1‬‬
‫‪n+1 n+1‬‬
‫‬
‫‬
‫‬
‫‬
‫‪Bn‬‬
‫‪Xn+1‬‬
‫‪|B1 = a1 , ..., Bn = an + E‬‬
‫‪|B1 = a1 , ..., Bn = an‬‬
‫‪=E‬‬
‫‪n+1‬‬
‫‪n+1‬‬
‫‪an‬‬
‫‪1‬‬
‫=‬
‫‪+‬‬
‫] ‪E [Xn+1 |B1 = a1 , ..., Bn = an‬‬
‫‪n+1 n+1‬‬
‫‬
‫‬
‫†‬
‫‪1 an‬‬
‫‪an‬‬
‫‪1‬‬
‫‪an‬‬
‫‪z}|{ an‬‬
‫=‬
‫‪+‬‬
‫=‬
‫‪1+‬‬
‫=‬
‫‪n+1 n+1 n‬‬
‫‪n+1‬‬
‫‪n‬‬
‫‪n‬‬
‫כאשר המעבר המסומן נובע מכך שההסתברות לשלוף כדור שחור בשלב ה־ ‪ n‬בהנתן ש־ ‪ Bn = an‬היא בדיוק‬
‫הכדורים השחורים בשלב ה־ ‪.(n‬‬
‫‪an‬‬
‫‪n‬‬
‫)פרופרוציית‬
‫דוגמה ‪ 5.10‬יש חפיסת קלפים ושולפים קלפים בלי החזרה עד שעוצרים וצריך להחליט האם הקלף הבא הוא אדום או שחור‪ .‬שאלנו‬
‫את השאלה האם יש אסטרטגיה מועדפת שתעלה את תוחלת ההצלחה בניחוש‪ .‬נסמן ב־ ‪ Rn‬את מספר הקלפים האדומים שנותרו‬
‫‪Rn‬‬
‫‪ Mn = 52−n‬עבור ‪ n = 1, ..., 51‬ונראה שזהו מרטינגל‪ .‬נסמן‬
‫בחפיסה לאחר ‪ n‬סיבובים )בפרט ‪ .(R0 = 26‬נתבונן בסדרה‬
‫}‪ Xn = 1{the n’th card was red‬ונקבל‪:‬‬
‫‪Xn‬‬
‫‪n‬‬
‫‪X‬‬
‫‪Rn = 26 −‬‬
‫‪i=1‬‬
‫כעת ניתן לראות כי‪:‬‬
‫‬
‫‬
‫‬
‫‪Rn+1‬‬
‫‪Rn − Xn+1‬‬
‫‪| R0 = a0 , ..., Rn = an = E‬‬
‫‪|R0 = a0 , ..., Rn = an‬‬
‫)‪52 − (n + 1‬‬
‫)‪52 − (n + 1‬‬
‫‪an‬‬
‫‪1‬‬
‫‪−‬‬
‫] ‪E [Xn+1 |R0 = a0 , ..., Rn = an‬‬
‫)‪52 − (n + 1) 52 − (n + 1‬‬
‫‪an‬‬
‫‪1‬‬
‫=‬
‫‪−‬‬
‫] ‪P [Xn+1 = red| R0 = a0 , ..., Rn = an‬‬
‫)‪52 − (n + 1) 52 − (n + 1‬‬
‫‪an‬‬
‫‪1‬‬
‫‪52 − an‬‬
‫‪an‬‬
‫=‬
‫‪−‬‬
‫=‬
‫‪52 − (n + 1) 52 − (n + 1) 52 − n‬‬
‫‪52 − n‬‬
‫‪33‬‬
‫‬
‫‪E‬‬
‫‪5.2‬‬
‫‪5‬‬
‫תוחלת מותנית‪:‬‬
‫מרטינגלים‪:‬‬
‫בקרוב נראה איך מסיקים מכך שזהו מרטינגל שלכל אסטרטגיה שנבחר נקבל שהסיכוי שהקלף הבא יהיה אדום הוא ‪ . 21‬באופן שקול‬
‫אם נרוויח ‪ 1‬כל פעם שננחש נכון ונפסיד ‪ 1‬כל פעם שנטעה עבור כל אסטרטגיית עצירה נקבל שתוחלת הרווח היא אפס‪.‬‬
‫דוגמה ‪ 5.11‬נזכיר שפונקציה ‪ f : R2 → R‬תקרא הרמונית אם ‪= 0‬‬
‫‪∂2f‬‬
‫‪∂y 2‬‬
‫‪+‬‬
‫‪∂2f‬‬
‫‪∂x2‬‬
‫= ‪ ∆f‬בכל נקודה‪.‬‬
‫הערה ‪ 5.12‬זה שקול לכך שהאינטגרל המסילתי של ‪ f‬על פני מעגלים שווה לערך הפונקציה במרכז המעגל‪.‬‬
‫בהנתן גרף )‪ G = (V, E‬פונקציה ‪ f : V → R‬תקרא הרמונית אם ממוצע הערכים מסביב לכל קודקוד הוא ערך הקודקוד‪.‬‬
‫תרגיל‪ :‬עבור ‪ Xn‬הילוך מקרי על ‪ Z2‬ו־ ‪ f‬הרמונית על ‪ Z2‬הסדרה ) ‪ f (Xn‬היא מרטינגל‪.‬‬
‫עוד נראה בהמשך באמצעות מרטינגלים שפונקציה הרמונית וחסומה על ‪ Z2‬היא בהכרח קבועה )אנלוגי למשפט ליוויל(‪.‬‬
‫‪5.2‬‬
‫תוחלת מותנית‪:‬‬
‫היינו רוצים שבאופן כללי יותר גם במקרה הלא בדיד וגם כאשר יש מאורעות עם הסתברות אפס נוכל איכשהו להתנות בהם‪ ,‬לקחת‬
‫תוחלת מותנית ולקבל את אותן תוצאות שיש במקרה שתיארנו עד עכשיו‪ .‬במציאות לצערנו יש דוגמאות שעבורן גישה נאיבית כזו לא‬
‫עובדת וההגדרות שנתנו לא עובדות‪.‬‬
‫דוגמה ‪ 5.13‬נניח שיש לנו זוג מ"מ ) ‪ (X, Y‬שההתפלגות המשותפת שלהם היא התפלגות אחידה על כדור היחידה ‪.B 1 ⊆ R2‬‬
‫הערה ‪ 5.14‬כלומר לכל ‪ A ⊆ B 1‬מתקיים )‪ P ((X, Y ) ∈ A) = V (A‬כאשר ‪ V‬הוא הנפח לפי מידת לבג‪.‬‬
‫היינו מצפים שאם נתנה במאורע ‪) Y = 0‬שהוא מאורע מהסתברות אפס( אז ההתפלגות של ‪ X|Y = 0‬תהיה ]‪ .U [−1, 1‬מאידך‪,‬‬
‫אם נעבור לקוארדינטות פולריות נקבל מהזוג ) ‪ (X, Y‬את הזוג )‪ (θ, r‬כאשר ‪ θ, r‬בלתי תלויים‪ θ ∼ U [0, 2π] ,‬ו־ ‪ r‬הוא בעל צפיפות‬
‫‪ f (r) = 2r‬על הקטע ]‪ .[0, 1‬לאחר מעבר הקוארדינטות המאורע ‪ Y = 0‬שקול למאורע }‪ θ ∈ {0, π‬ולכן מאחר ש־ ‪ X = r‬כאשר‬
‫‪ θ = 0‬ו־ ‪ X = −r‬כאשר ‪ θ = π‬נצפה שערכי ‪ X|Y = 0‬יהיו בעלי צפיפות בקטע ]‪ [−1, 1‬שנתונה על ידי‪:‬‬
‫)‪f (X = x|Y = 0) = x · sgn (x‬‬
‫הדוגמה הזו מראה לנו שיש שני פילוגים שנראים לכאורה הגיוניים עבור ‪ X|Y = 0‬והנ"ל נובע מכך שאנחנו למעשה רוצים להתנות‬
‫במאורע שההסתברות שלו היא אפס‪.‬‬
‫המטרה שלנו‪ :‬בהנתן מרחב הסתברות )‪ (Ω, F, P‬ועבור כל ‪ A ∈ F‬נרצה להגדיר את ההסתברות )‪ P (A|G‬כאשר ‪ G ⊆ F‬היא‬
‫תת־‪σ‬־אלגברה כלשהי‪.‬‬
‫הערה ‪ 5.15‬למעשה נרצה להגדיר פונקציה ‪G‬־מדידה ]‪.P (·|G) : F → [0, 1‬‬
‫באופן הנ"ל נוכל להגדיר לכל ‪ A ∈ F‬את התוחלת המותנית )‪ E [1A |G] = P (A|G‬ואם ההגדרה הזו היא לינארית נוכל להרחיב‬
‫אותה באופן הסטנדרטי ולהגדיר את ]‪ E [X|G‬לכל ‪ X : (Ω, F) → R‬כך ש־ ∞ < ]|‪ .E [|X‬בפרט בהנתן מ"מ ‪Y : (Ω, F) → R‬‬
‫אם נקח את ) ‪ G = σ (Y‬אז נקבל הגדרה של תוחלת מותנית במשתנה מקרי ע"י ]) ‪.E [X|Y ] = E [X|σ (Y‬‬
‫הגדרה ‪ 5.16‬תוחלת מותנית )הגדרה מלאה(‪:‬‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות‪ ,‬תהא ‪ G ⊆ F‬תת־‪σ‬־אלגברה ויהא ‪ X‬מ"מ ‪F‬־מדיד כך ש־ ∞ < ]|‪.(X ∈ L1 (Ω, F, P)) E [|X‬‬
‫נאמר שמ"מ ‪ Y‬הוא תוחלת מותנית של ‪ X‬בהנתן ‪ G‬ונסמן ]‪ Y = E [X|G‬אם‪:‬‬
‫‪ Y ∈ L1 (Ω, G, P) .1‬ובפרט ‪ Y‬הוא ‪G‬־מדיד‪.‬‬
‫‪ .2‬לכל ‪ A ∈ G‬מתקיים ] ‪) E [Y · 1A ] = E [X · 1A‬לכל ‪ A ∈ G‬מתקיים ‪XdP‬‬
‫´‬
‫‪A‬‬
‫= ‪Y dP‬‬
‫´‬
‫‪A‬‬
‫(‪.‬‬
‫מיד נוכיח קיום של ‪ Y‬כנ"ל ויחידות שלו עד כדי שינוי על קבוצה עם הסתברות אפס ) ‪ Y‬הוא נציג של מחלקת השקילות ב־ )‪.(L1 (Ω, G‬‬
‫הערה ‪ 5.17‬כמקרה פרטי עבור ‪ A = Ω‬נקבל שמתקיים‪:‬‬
‫]]‪E [X] = E [X · 1Ω ] = E [E [X|G] · 1Ω ] = E [E [X|G‬‬
‫‪34‬‬
‫‪5‬‬
‫‪5.2‬‬
‫מרטינגלים‪:‬‬
‫תוחלת מותנית‪:‬‬
‫תזכורת ‪ 5.18‬יהא )‪ (Ω, F‬מרחב מדיד ויהיו ‪ µ, ν‬מידות עליו‪:‬‬
‫‪ .1‬נאמר ש־ ‪ ν‬רציפה בהחלט ביחס ל־ ‪ µ‬ונסמן ‪ ν µ‬אם לכל ‪ A ∈ F‬מתקיים ‪.µ (A) = 0 =⇒ ν (A) = 0‬‬
‫רדון־ניקודים‪ :‬אם ‪ ν, µ‬הן מידות ‪σ‬־סופיות ו־ ‪ ν µ‬אז קיימת )‪ f ∈ L1 (F, µ‬כך שלכל ‪ A ∈ F‬מתקיים‬
‫‪ .2‬משפט‬
‫´‬
‫)‪ . A f dµ = ν (A‬בנוסף ‪ f‬הנ"ל מוגדרת ביחידות עד כדי שינוי על קבוצה עם ‪µ‬־מידה אפס‪.‬‬
‫הוכחה‪ ´ :‬הוכחת קיום של תוחלת מותנית‪ :‬בהנתן )‪ X ∈ L1 (Ω, F‬בה"כ נניח כי ‪) X ≥ 0‬שכן ‪ (X = X + − X −‬ונגדיר‬
‫‪ .ν (A) = A XdP‬זוהי מידת הסתברות על )‪ (Ω, F‬והיא באופן מיידי רציפה בהחלט ביחס ל־ ‪ .P‬כעת מאחר ש־ ‪G ⊆ F‬‬
‫נקבל ש־ ‪ P, ν‬הן מידות על )‪ (Ω, G‬כך ש־ ‪ ν P‬ולכן ממשפט רדון ניקודים קיימת )‪ f ∈ L1 (Ω, G‬כך ש‪:‬‬
‫ˆ‬
‫ˆ‬
‫= )‪f dP = ν (A‬‬
‫‪XdP‬‬
‫‪A‬‬
‫‪A‬‬
‫לכן ]‪ f = E [X|G‬והנ"ל מוגדרת ביחידות עד כדי שינוי על קבוצה עם הסתברות אפס‪.‬‬
‫הוכחה‪ :‬נביא הוכחה אלטרנטיבית לקיום של תוחלת מותנית )ההוכחה המלאה בספר של וויליאמס(‪:‬‬
‫‪h‬‬
‫‪i‬‬
‫‪2‬‬
‫תזכורת ‪ 5.19‬נזכיר שאם ‪ X‬הוא מ"מ בעל מומנט שני אז )‪.E [X] = inf a∈R E (X − a‬‬
‫‪h‬‬
‫‪i‬‬
‫‪2‬‬
‫כעת בהנתן )‪ X ∈ L1 (Ω, F, P‬ותת־‪σ‬־אלגברה ‪ G ⊆ F‬נחפש מ"מ ‪ Y‬שהינו ‪G‬־מדיד וממזער את ) ‪ .E (X − Y‬נשים לב שאם‬
‫)‪ X ∈ L2 (Ω, F, P‬אז קיום של ‪ Y‬כנ"ל הוא מיידי מאחר ש־ )‪ L2 (Ω, G, P‬הוא מרחב הילברט עם מכפלה פנימית = ‪hX, Y i‬‬
‫] ‪ .E [X · Y‬כעת מאחר ש־ ‪ Y ⊥X‬נקבל כי לכל )‪ Z ∈ L2 (Ω, G, P‬מתקיים‪:‬‬
‫‪hX − Y, Zi = E [(X − Y ) · Z] = 0‬‬
‫בפרט עבור ‪ Z = 1A‬כאשר ‪ A ∈ G‬נקבל כי‪:‬‬
‫] ‪E [(X − Y ) 1A ] = 0 =⇒ E [X1A ] = E [Y 1A‬‬
‫‪h‬‬
‫‪i‬‬
‫‪2‬‬
‫לכן ‪ Y‬הנ"ל שממזער את ) ‪ E (X − Y‬הוא התוחלת המותנית של ‪ .X‬לסיום גם במקרה שבו ‪ X‬איננו בעל מומנט שני אפשר‬
‫להרחיב את ההוכחה הזו ולקבל את אותה תוצאה‪.‬‬
‫נביא שתי דוגמאות פשוטות שבהן ניתן למצוא בקלות את התוחלת המותנית במפורש‪:‬‬
‫דוגמה ‪ 5.20‬עבור }‪ G = {∅, Ω‬פונקציה היא ‪G‬־מדידה אמ"מ היא קבועה ולכן ברור ש־ ]‪.E [X|G] = E [X‬‬
‫דוגמה ‪ 5.21‬עבור ‪ A ∈ F‬כך ש־ ‪ P (A) > 0‬ועבור } ‪ G = σ (A) = {∅, Ω, A, Ac‬לא קשה להראות ש‪:‬‬
‫(‬
‫‪1‬‬
‫] ‪E [X1A‬‬
‫‪x∈A‬‬
‫)‪E [X|G] = P(A‬‬
‫‪1‬‬
‫‪c‬‬
‫‪c‬‬
‫‪P(Ac ) E [X1A ] x ∈ A‬‬
‫במובן מסוים אפשר לחשוב על חישוב התוחלת המותנית של מ"מ בהנתן ‪σ‬־אלגברה כעל התוחלת שתתקבל בהינתן "אינפורמציה"‬
‫שניתנת לנו מכך שאנחנו מסתכלים רק על מאורעות שנמצאים באותה ‪σ‬־אלגברה‪ .‬אולם צריך להזהר מנקודת המבט הזו שכן לא‬
‫תמיד ברור מהי האינפורמציה הזו שתמונה ב־ ‪σ‬־אלגברה שבה אנו מתנים‪.‬‬
‫‪Z‬‬
‫דוגמה ‪ 5.22‬נקח }‪ Ω = {0, 1‬ונגדיר )}‪ Fn = σ ({ω ∈ Ω | an = 1‬לכל ‪ .n ∈ Z‬נגדיר ‪σ‬־אלגבראות זנב עבור הסדרה הזו‪:‬‬
‫)‪σ (Fn , Fn+1 , ...‬‬
‫∞‬
‫\‬
‫= ‪TR‬‬
‫‪n=1‬‬
‫∞‬
‫\‬
‫)‪σ (F−n , F−n−1 , ...‬‬
‫‪n=1‬‬
‫‪35‬‬
‫= ‪TL‬‬
‫‪5.2‬‬
‫‪5‬‬
‫תוחלת מותנית‪:‬‬
‫אפשר להראות שמתקיים‪:‬‬
‫∞‬
‫\‬
‫) ‪σ (Fn , F−n , Fn+1 , F−n−1‬‬
‫= ‪σ (TL , TR ) ( TRL‬‬
‫‪n=1‬‬
‫כלומר ה־‪σ‬־אלגברה שנוצרת על ידי שתי הזנבות לא זהה לזנב הדו־צדדי‪.‬‬
‫‪36‬‬
‫מרטינגלים‪:‬‬
‫‪5.3‬‬
‫‪5‬‬
‫פילטרציות ומרטינגלים‪:‬‬
‫מרטינגלים‪:‬‬
‫טענה ‪ 5.23‬שלל תכונות של תוחלת מותנית‪:‬‬
‫יהא )‪ (Ω, F, P‬מרחב הסתברות‪ ,‬תהא ‪ G ⊆ F‬ויהיו )‪ ,X, Y ∈ L1 (Ω, F, P‬אזי‪:‬‬
‫‪ .1‬מתקיים ]‪.E [E [X|G]] = E [X‬‬
‫‪ .2‬אם ‪ X‬הוא ‪G‬־מדיד אז ‪.E [X|G] = X‬‬
‫‪ .3‬לינאריות‪E [X + Y |G] = E [X|G] + E [Y |G] :‬‬
‫‪ .4‬חיוביות‪ :‬אם ‪ X ≥ 0‬אז ‪.E [X|G] ≥ 0‬‬
‫‪ .5‬א"ש ינסן‪ :‬אם ‪ ϕ : R → R‬היא פונקציה קמורה אז ]‪ ϕ (E [X|G]) ≤ E [ϕ (X) |G‬כ"ת‪.‬‬
‫‪ .6‬תכונת ההרכבה‪ :‬עבור ‪ H ⊆ G ⊆ F‬מתקיים ]‪.E [E [X|G] |H] = E [X|H‬‬
‫‪ .7‬תכונות ‪ :TOWIK‬אם ‪ Z‬הוא ‪G‬־מדיד אז ]‪.E [Z · X|G] = Z · E [X|G‬‬
‫‪ .8‬אי־תלות‪ :‬אם ‪ X‬ב"ת ב־ ‪ G‬אז ]‪.E [X|G] = E [X‬‬
‫עבור סדרת מ"מ )‪ Xn ∈ L1 (Ω, F, P‬מתקיים‪:‬‬
‫‪ .1‬התכנסות מונוטונית‪ :‬אם ‪ Xn ≥ 0‬ו־ ‪ Xn ↑ X‬כ"ת אז ]‪.E [Xn |G] ↑ E [X|G‬‬
‫‪a.s‬‬
‫‪a.s‬‬
‫‪ .2‬התכנסות נשלטת‪ :‬אם ‪ Xn −→ X‬וגם קיים )‪ Z ∈ L1 (Ω, F, P‬כך ש־ ‪ |Xn | ≤ Z‬אז ]‪.E [Xn |G] −→ E [X|G‬‬
‫‪ .3‬הלמה של פאטו‪ :‬אם ‪ Xn ≥ 0‬אז )]‪.E [lim inf Xn |G] ≤ lim inf (E [Xn |G‬‬
‫‪5.3‬‬
‫פילטרציות ומרטינגלים‪:‬‬
‫הגדרה ‪ 5.24‬פילטרציה‪:‬‬
‫בהנתן מרחב הסתברות )‪ (Ω, F, P‬פילטרציה היא סדרה עולה ‪ F0 ⊆ F1 ⊆ ...‬של תת־‪σ‬־אלגבראות של ‪.F‬‬
‫הגדרה ‪ 5.25‬תהליך סטוכסטי מותאם )‪:(Adapted Process‬‬
‫תהליך סטוכסטי ‪ Xn‬יקרא מותאם ביחס לפילטרציה ‪ Fn‬אם ‪ Xn‬הוא ‪Fn‬־מדיד לכל ‪.n‬‬
‫‪N‬‬
‫נגדיר סדרת פונקציות ‪ fn : Ω → R‬ע"י ‪ fn (ω) = ωn‬ונגדיר את הפילטרציה ) ‪.Fn = σ (f1 , ..., fn‬‬
‫דוגמה ‪ 5.26‬עבור }‪Pn Ω = {0, 1‬‬
‫באופן הנ"ל נקבל שהסדרה ‪ Xn = i=1 fi‬היא ‪Fn‬־מותאמת‪.‬‬
‫הערה ‪ 5.27‬לכל תהליך ‪ Xn‬יש פילטרציה טבעית שמתאימה לו וביחס אליה הוא מתואם והיא נתונה פשוט ע"י ) ‪.Fn = σ (X1 , ..., Xn‬‬
‫זוהי כמובן הפילטרציה המינימלית שעבורה התהליך הנ"ל מתואם‪.‬‬
‫הגדרה ‪ 5.28‬מרטינגל )הגדרה מלאה(‪:‬‬
‫תהליך סטוכסטי )‪ Xn ∈ L1 (Ω, F, P‬יקרא מרטינגל ביחס לפילטרציה ‪ Fn‬אם ‪ Xn‬הוא ‪Fn‬־מותאם ובנוסף‪:‬‬
‫‪a.s‬‬
‫‪E [Xn+1 |Fn ] = Xn‬‬
‫הערה ‪ 5.29‬הנ"ל מתלכד עם ההגדרה שנתנו עבור מ"מ בדידים כאשר ‪ Xn‬בדידים ו־ ‪ Fn‬היא הפילטרציה הטבעית‪.‬‬
‫דוגמה ‪ 5.30‬הצטברות מידע‪ :‬יהא ‪ X‬מ"מ עם תוחת ותהא ‪ Fn‬פילטרציה כלשהי‪ .‬נגדיר ] ‪ ,Xn := E [X|Fn‬זהו מרטינגל שכן‪:‬‬
‫‪Fn ⊆Fn+1‬‬
‫‪E [Xn |Fn ] = Xn‬‬
‫{|}‪z‬‬
‫=‬
‫] ‪E [Xn+1 |Fn ] = E [E [X|Fn+1 ] |Fn‬‬
‫‪37‬‬
‫‪5.3‬‬
‫‪5‬‬
‫פילטרציות ומרטינגלים‪:‬‬
‫מרטינגלים‪:‬‬
‫הערה ‪ 5.31‬אפשר להראות שכל מרטינגל ‪ Xn‬ביחס לפילטרציה ‪ Fn‬שהינו חסום ) ‪ (|Xn | ≤ M‬קיים מ"מ ‪ X‬כך ש־ ] ‪.Xn = E [X|Fn‬‬
‫תזכורת ‪ 5.32‬צביעה של קודקודי גרף תקרא צביעה חוקית אם כל שני קודקודים המחוברים בקשת צבועים בצבעים שונים‪ .‬מספר‬
‫הצביעה של גרף סופי הוא מספר הצבעים המינימלי שנדרשים כדי לצבוע את הגרף באופן חוקי‪.‬‬
‫‬
‫דוגמה ‪ 5.33‬נסמן ב־ ‪ Ω‬את כל הגרפים בעלי ‪ n‬קודקודים } ‪ {v1 , ..., vk‬ונסמן ב־ ‪ G n, 21‬גרף מקרי ב־ ‪ Ω‬שבו כל קשת אפשרית‬
‫נמצאת בהסתברות ‪) 21‬הנ"ל שקול לכך לבחירה מקרית אחידה של גרף ב־ ‪ .(Ω‬בהנתן ‪ G ∼ G n, 21‬נסמן ב־ )‪ X = χ (G‬את‬
‫מספר הצביעה של ‪) G‬זהו מ"מ(‪ .‬נגדיר פילטרציה על ידי‪:‬‬
‫) ‪Fk = σ (Induced graph on v1 , ..., vk‬‬
‫נגדיר תהליך סטוכסטי ‪ X1 , ..., Xn‬על ידי ] ‪) Xk = E [X|Fk‬בפרט ‪ . (Xn = X‬ידוע שמתקיים‪:‬‬
‫‪n‬‬
‫))‪(1 + o (1‬‬
‫‪2 log2 n‬‬
‫= ]‪E [X‬‬
‫כפי שראינו בדוגמה הקודמת ‪ Xk‬הוא מרטינגל ביחס ל־ ‪ ,Fk‬אפשר להראות )תרגיל( שמכך נובע כי ‪)|Xk+1 − Xk | ≤ 1‬באופן‬
‫אינטואטיבי בהנתן שראינו את מה שקורה על הקודקודים ‪ v1 , ..., vk‬השינוי בערך הצפוי של ‪ X‬לאחר שראינו מה שקורה גם על‬
‫‪ v1 , ..., vk+1‬הוא לכל היותר ‪ ,1‬כלומר או שנוסף צבע אחד או שלא(‪ .‬בפרט מא"ש אזומה )מופיע בהמשך( אפשר להסיק כי‪:‬‬
‫‪λ2‬‬
‫‪P (|X − E [X]| ≥ λ) ≤ 2e− 2n‬‬
‫דוגמה ‪ 5.34‬הכד של פוליה ־ תיאור אלטרנטיבי‪:‬‬
‫מגרילים ]‪ X ∼ U [0, 1‬ואחר כך מגרילים סדרה ]‪ {Yn } ∈ [0, 1‬באמצעות הגרלה של ]‪ Yn ∼ U [0, 1‬ב"ת‪ .‬נגדיר‪:‬‬
‫(‬
‫‪black ball Yn ≤ X‬‬
‫= ‪an‬‬
‫‪white ball Yn > X‬‬
‫‪N‬‬
‫אפשר להראות שבהנתן ‪ X‬הסדרה } ‪ {an‬היא סדרה ב"ת‪ .‬נגדיר ) ‪ Fn = σ (a1 , ..., an‬ונגדיר מרטינגל ע"י ] ‪.Xn = E [X|Fn‬‬
‫תרגיל‪ :‬המרטינגל הנ"ל זהה למרטינגל של כפרופורציית הכדורים השחורים בתיאור המקורי של הכד של פוליה‪ .‬כלומר מתקיים‪:‬‬
‫!‬
‫‪n‬‬
‫‪X‬‬
‫‪1‬‬
‫= ‪Xn‬‬
‫‪1{ai =black} + 1‬‬
‫‪n+2‬‬
‫‪i=1‬‬
‫בנוסף המודל כולו זהה למודל הקודם של הכד של פולייה במובן שהפילוג של סדרת הצבעים של הכדורים שנגריל\נשלוף היא זהה‪.‬‬
‫הגדרה ‪ 5.35‬תהליך סטוכסטי צפוי )‪:(previsible‬‬
‫תהליך סטוכסטי } ‪ {Cn‬יקרא צפוי ביחס ל־ ‪ Fn‬אם ‪ Cn‬הוא ‪Fn−1‬־מדיד לכל ‪.n‬‬
‫הגדרה ‪ 5.36‬טרנספורם־מרטינגל )‪:(Martingale Transform‬‬
‫∞‬
‫יהא ‪ Xn‬מרטינגל ביחס לפילטרציה ‪ Fn‬ויהא ‪ Cn‬תהליך צפוי ביחס ל־ ‪ .Fn‬נגדיר תהליך ‪ {(C • X)n }n=1‬ע"י‪:‬‬
‫) ‪Ck (Xk − Xk−1‬‬
‫‪n‬‬
‫‪X‬‬
‫= ‪(C • X)n‬‬
‫‪k=1‬‬
‫התהליך הנ"ל מכונה ה־ ‪.Martingale Transform‬‬
‫הערה ‪ 5.37‬למשל ‪ Xn‬יכול להיות מרטינגל כלשהו שמייצג משחק ו־ ‪ Cn‬יכול להיות "הימור" על הערך של ‪.Xn‬‬
‫‪38‬‬
‫‪5.4‬‬
‫זמני עצירה‪:‬‬
‫מרטינגלים‪:‬‬
‫‪5‬‬
‫טענה ‪ 5.38‬טרנספורם־מרטינגל של תהליך צפוי וחסום הוא מרטינגל‪:‬‬
‫אם ‪ Cn‬צפוי וחסום אז התהליך ‪ Yn := (C • X)n‬הוא מרטינגל שמתחיל באפס‪.‬‬
‫הוכחה‪ :‬נשתמש בתכונות של תוחלת מותנית ונקבל‪:‬‬
‫] ‪E [Yn+1 |Fn ] = E [Yn + Cn+1 (Xn+1 − Xn ) |Fn ] = E [Yn |Fn ] + E [Cn+1 (Xn+1 − Xn ) |Fn‬‬
‫‪Cn is Fn −measurable‬‬
‫] ‪Yn + Cn+1 E [Xn+1 − Xn |Fn‬‬
‫‪Fn −measurable‬‬
‫] ‪Yn + E [Cn+1 (Xn+1 − Xn ) |Fn‬‬
‫{|}‪z‬‬
‫=‬
‫‪is‬‬
‫‪Yn‬‬
‫{|}‪z‬‬
‫=‬
‫‪Xn =martingale‬‬
‫)] ‪Yn + Cn+1 (Xn + E [Xn |Fn‬‬
‫)] ‪= Yn + Cn+1 (E [Xn+1 |Fn ] − E [Xn |Fn‬‬
‫{|}‪z‬‬
‫=‬
‫‪Xn is Fn −measurable‬‬
‫‪Yn + Cn+1 (Xn − Xn ) = Yn‬‬
‫{|}‪z‬‬
‫=‬
‫הערה ‪ 5.39‬נשים לב שכאשר ‪ Xn‬הוא מרטינגל עבור ‪ m < n‬מתקיים‪:‬‬
‫‪E[Xn |Fn−1 ]=martingale‬‬
‫‪E [Xn−1 |Fm ] = ... = E [Xm+1 |Fm ] = Xm‬‬
‫{|}‪z‬‬
‫=‬
‫‪Fm ⊆Fn−1‬‬
‫] ‪E [E [Xn |Fn−1 ] |Fm‬‬
‫{|}‪z‬‬
‫=‬
‫] ‪E [Xn |Fm‬‬
‫כלומר תוחלת הערך של ‪ Xn‬בהנתן שראינו עד השלב ה־ ‪ m‬הוא פשוט הערך של ‪.Xm‬‬
‫‪5.4‬‬
‫זמני עצירה‪:‬‬
‫הגדרה ‪ 5.40‬זמן עצירה ביחס לפילטרציה‪:‬‬
‫בהנתן מרחב הסתברות )‪ (Ω, F, P‬ופילטרציה ‪ Fn‬משתנה מקרי }∞{ ∪ ‪ T : Ω → N‬יקרא זמן עצירה אם ‪ {T ≤ n} ∈ Fn‬לכל ‪.n‬‬
‫הערה ‪ 5.41‬אפשר להראות שמספיק לדרוש ש־ ‪.{T = n} ∈ Fn‬‬
‫הערה ‪ 5.42‬לחילופין אפשר להגדיר זמן עצירה בכך שנקח סדרת פונקציות }‪ fn : Ω → {0, 1‬שהינה ‪Fn‬־מותאמת ונגדיר‪:‬‬
‫}‪T = min {n | fn = 1‬‬
‫למה ‪ 5.43‬מינימום ומקסימום של זמני עצירה הם זמן עצירה )ללא הוכחה(‪:‬‬
‫אם ‪ T1 , T2‬הם זמני עצירה ביחס לפילטרציה ‪ Fn‬אז } ‪ max {T1 , T2‬ו־ } ‪ min {T1 , T2‬הם גם כן זמני עצירה‪.‬‬
‫הגדרה ‪ 5.44‬בהנתן ‪ Xn‬מרטינגל ו־ ‪ T‬זמן עצירה )שניהם ביחס לפילטרציה ‪ (Fn‬נגדיר את התהליך "שעוצר בזמן ‪ "T‬ע"י‪:‬‬
‫)‪XT ∧n := Xmin(T,n‬‬
‫כלומר כאשר ‪ T ≥ n‬מתקיים ‪ XT ∧n = Xn‬וכאשר ‪ T ≤ n‬מתקיים ‪.XT ∧n = XT‬‬
‫טענה ‪5.45‬‬
‫התהליך )‪ XT ∧n := Xmin(T,n‬הוא מרטינגל‪.‬‬
‫הוכחה‪ :‬נגדיר }‪ ,Cn = 1{T ≥n} = 1 − 1{T ≤n−1‬ברור שזהו תהליך צפוי וחסום ולכן ‪ (C • X)n‬הוא מרטינגל כפי שראינו‪ .‬אולם‬
‫ניתן לראות כי‪:‬‬
‫‪(C • X)n = ... = XT ∧n‬‬
‫‪39‬‬
‫‪5.4‬‬
‫‪5‬‬
‫זמני עצירה‪:‬‬
‫מרטינגלים‪:‬‬
‫למה ‪5.46‬‬
‫‪a.s‬‬
‫‪a.s‬‬
‫אם ‪ T‬הוא זמן עצירה כך ש־ ∞ < ‪ T‬אזי מתקיים ‪.Xmin(T,n) −→ XT‬‬
‫∞→‪n‬‬
‫‪a.s‬‬
‫הוכחה‪ :‬מכך ש־ ∞ < ‪ T‬נקבל שכ"ת קיים ‪ N‬כך שלכל ‪ n ≥ N‬מתקיים ‪.Xmin(T,n) = XT‬‬
‫משפט ‪ 5.47‬משפט ־ ‪:(OST) Doob’s Optional Stopping Theorem‬‬
‫יהיו ‪ Xn‬מרטינגל ו־ ‪ T‬זמן עצירה ביחס לפילטרציה ‪ Fn‬כך שמתקיים אחד מהתנאים הבאים‪:‬‬
‫‪a.s‬‬
‫‪) T ≤ K .1‬כלומר ‪.(∃ K P (T ≤ K) = 1‬‬
‫‬
‫‬
‫‬
‫‪a.s‬‬
‫‪ T < ∞ .2‬ו־ )‪ Xmin(T,n‬חסום יוניפורמית כ"ת )כלומר ‪.(∃K ∀ n P Xmin(T,n) ≤ K = 1‬‬
‫‬
‫‬
‫‪ E [T ] < ∞ .3‬וההפרשים )‪ Xmin(T,n+1) − Xmin(T,n‬חסומים יוניפורמית כ"ת‪.‬‬
‫אזי ‪ XT‬מוגדר היטב כמעט תמיד ומתקיים ] ‪.E [XT ] = E [X0‬‬
‫‪a.s‬‬
‫הערה ‪ 5.48‬דוגמה נגדית פשוטה לזמן עצירה כך ש־ ∞ < ‪ T‬אולם )‪ Xmin(T,n‬לא חסום יוניפורמית הוא מהלך מקרי פשוט שעוצר‬
‫כאשר מגיעים חזרה לאפס )המאורע הזה מתרחש בהסתברות ‪.(1‬‬
‫הוכחה‪:‬‬
‫‪a.s‬‬
‫‪ .1‬מכך ש־ ‪ T ≤ K‬נקבל ש־‬
‫‪a.s‬‬
‫)‪ XT = Xmin(T,K‬ומכך‪:‬‬
‫‬
‫‬
‫)‪E [XT ] = E Xmin(T,K‬‬
‫‬
‫‬
‫כעת מאחר ש־ )‪ Xmin(T,n‬הוא מרטינגל נקבל כפי שראינו בהערה ‪ 5.39‬שמתקיים ‪ E Xmin(T,n) |F0 = X0‬ומכך‪:‬‬
‫‬
‫ ‬
‫‬
‫‬
‫] ‪E Xmin(T,K) = E E Xmin(T,n) |F0 = E [X0‬‬
‫לכן סה"כ מתקבל‪:‬‬
‫‬
‫‬
‫] ‪E [XT ] = E Xmin(T,K) = E [X0‬‬
‫‪a.s‬‬
‫‪a.s‬‬
‫‪ .2‬ראינו בלמה ‪ 5.46‬שכאשר ∞ < ‪ T‬מתקיים ‪ .Xmin(T,n) −→ XT‬לכן מאחר והנחנו ש־ )‪ Xmin(T,n‬חסום יוניפרומית נוכל‬
‫∞→‪n‬‬
‫להשתמש במשפט ההתכנסות החסומה ונקבל כי‪:‬‬
‫∞→‪ n‬‬
‫‬
‫] ‪E [X0 ] = E Xmin(T,n) −→ E [XT ] =⇒ E [XT ] = E [X0‬‬
‫‪a.s‬‬
‫‪ .3‬מההנחה ש־ ‪ |Xn+1 − Xn | ≤ K‬נקבל כי‪:‬‬
‫‪X‬‬
‫‬
‫)‪ min(T,n‬‬
‫≤ ‪Xmin(T,n) − X0‬‬
‫‪|Xi − Xi−1 | ≤ K · min (T, n) ≤ K · T‬‬
‫‪i=1‬‬
‫‬
‫‬
‫לכן ‪ Xmin(T,n) − X0‬חסום ע"י מ"מ אינטגרבילי ‪) K · T‬שכן הנחנו ש־ ∞ < ] ‪ (E [T‬וממשפט ההתכנסות הנשלטת נקבל כי‪:‬‬
‫∞→‪ n‬‬
‫‬
‫‬
‫∞→‪ n‬‬
‫] ‪E Xmin(T,n) − X0 −→ 0 =⇒ E Xmin(T,n) −→ E [X0‬‬
‫מצד שני מאחר ש־ ∞ < ] ‪ E [T‬בהכרח ‪ P (T < ∞) = 1‬ולכן‪:‬‬
‫∞→‪ n‬‬
‫] ‪E Xmin(T,n) −→ E [XT‬‬
‫‬
‫מכך נסיק כי ] ‪ ,E [XT ] = E [X0‬כנדרש‪.‬‬
‫‪40‬‬
‫‪5.5‬‬
‫על\תת־מרטינגלים‪:‬‬
‫‪5.5‬‬
‫‪5‬‬
‫מרטינגלים‪:‬‬
‫על\תת־מרטינגלים‪:‬‬
‫הגדרה ‪ 5.49‬על\תת־מרטינגל‪:‬‬
‫תהליך סטוכסטי ‪ Xn‬יקרא‪:‬‬
‫‪ .1‬על־מרטינגל ביחס לפילטרציה ‪ Fn‬אם ‪ E [Xn+1 |Fn ] ≤ Xn‬לכל ‪.n‬‬
‫‪ .2‬תת־מרטינגל ביחס לפילטרציה ‪ Fn‬אם ‪ E [Xn+1 |Fn ] ≥ Xn‬לכל ‪.n‬‬
‫הערה ‪ 5.50‬נשים לב שאם ‪ Xn‬הוא על־מרטינגל אז לכל ‪ n < m‬מתקיים‪:‬‬
‫‪‬‬
‫‪‬‬
‫‪≤Xn−1‬‬
‫‪z‬‬
‫|}‬
‫{‬
‫‪‬‬
‫‪‬‬
‫‪E [Xn |Fm ] = E E [Xn |Fn−1 ] |Fm  ≤ ... ≤ Xm‬‬
‫טענה ‪5.51‬‬
‫אם ‪ Xn‬הוא על־מרטינגל ו־ ‪ 0 ≤ Cn ≤ K‬הוא תהליך חסום אז התהליך ‪ Yn := (C • X)n‬הוא על־מרטינגל‪.‬‬
‫הוכחה‪ :‬אותה הוכחה כמו במקרה של מרטינגל רגיל‪.‬‬
‫מסקנה ‪5.52‬‬
‫אם ‪ T‬הוא זמן עצירה ו־ ‪ Xn‬הוא על־מרטינגל אז )‪ Xmin(T,n‬הוא על־מרטינגל‪.‬‬
‫הוכחה‪ :‬אותה הוכחה כמו במקרה של מרטינגל רגיל‪.‬‬
‫מסקנה ‪ 5.53‬משפט ‪ OST‬עבור על־מרטינגלים‪:‬‬
‫אם ‪ T‬הוא זמן עצירה ו־ ‪ Xn‬הוא על־מרטינגל אזי‪:‬‬
‫• התנאים של משפט ‪ OST‬גוררים ש־ ] ‪.E [XT ] ≤ E [X0‬‬
‫‪a.s‬‬
‫‪a.s‬‬
‫• במקום תנאי ‪ 2‬מספיק לדרוש ש־ ∞ < ‪ T‬ו־ ‪ Xn ≥ 0‬לכל ‪.n‬‬
‫הוכחה‪ :‬נוכיח את החיזוק‪:‬‬
‫‪h‬‬
‫‪i Fatou‬‬
‫{|}‪z‬‬
‫‬
‫‬
‫)‪= E lim inf Xmin(T,n‬‬
‫] ‪≤ lim inf E Xmin(T,n) ≤ E [X0‬‬
‫∞→‪n‬‬
‫∞→‪n‬‬
‫‪i‬‬
‫‪h‬‬
‫)‪E [XT ] = E lim Xmin(T,n‬‬
‫‬
‫‬
‫כאשר המעבר האחרון נובע מכך שלכל ‪ n‬מתקיים ] ‪ E Xmin(T,n) ≤ E [X0‬מאחר ש־‬
‫∞→‪n‬‬
‫)‪ Xmin(T,n‬הוא על־מרטינגל‪.‬‬
‫הערה ‪ 5.54‬כל הדברים האלה נכונים באופן סימטרי בשינוי מתאים של התנאים עבור תת־מרטינגלים‪.‬‬
‫‪5.6‬‬
‫מרטינגלים וריכוז מידה‪:‬‬
‫‪Pn‬‬
‫נזכיר שהחסמים שפיתחנו בנושא הקודם השתמשו באי־תלות רק כדי לחסום את הפונקציה יוצרת מומנטים של ‪Sn = i=1 Xn‬‬
‫באמצעות העובדה שהפונקציה הנ"ל שווה למכפלת היוצרות של ‪ .Xi , ..., Xn‬באופן כללי יותר גם במקרה שקיימת תלות אם היינו‬
‫יודעים את התוחלות המותנות של כל ‪ Xn‬בהנתן ‪ X1 , ..., Xn−1‬היינו יכולים לקבל פירוק דומה ואולי להשיג חסם דומה‪ .‬המשפט‬
‫הבא נותן תנאי שבו אכן ניתן לקבל תוצאה כזו‪:‬‬
‫משפט ‪ 5.55‬אי־שוויון הופדינג־אזומה‪:‬‬
‫‪41‬‬
‫‪5‬‬
‫‪5.7‬‬
‫מרטינגלים‪:‬‬
‫דוגמאות משעשעות עם מרטינגלים‪:‬‬
‫∞‬
‫אם ‪ {Mi }i=1‬הוא על־מרטינגל כך ש ‪ |Mi+1 − Mi | ≤ K‬כ"ת‪ .‬אז לכל ‪ k ∈ N‬ולכל ‪ λ > 0‬מתקיים‪:‬‬
‫‪λ2‬‬
‫‪P (Mk − M0 ≥ λ) ≤ e− 2k‬‬
‫∞‬
‫אם ‪ {Mi }i=1‬הוא תת־מרטינגל כך ש ‪ |Mi+1 − Mi | ≤ K‬כ"ת‪ .‬אז לכל ‪ k ∈ N‬ולכל ‪ λ > 0‬מתקיים‪:‬‬
‫‪λ2‬‬
‫‪P (Mk − M0 ≤ −λ) ≤ e− 2kK 2‬‬
‫∞‬
‫כתוצאה אם ‪ {Mi }i=1‬הוא מרטינגל כך ש ‪ |Mi+1 − Mi | ≤ K‬כ"ת מתקבל חסם דו־צדדי מהצורה‪:‬‬
‫‪λ2‬‬
‫‪P (|Mk − E [Mk ]| ≥ λ) = P (|Mk − M0 | ≥ λ) ≤ 2e− 2kK 2‬‬
‫כאשר ] ‪ M0 = E [Mk‬מאחר ומדובר במרטינגל שהפרשיו חסומים כ"ת‪.‬‬
‫הערה ‪ 5.56‬א"ש הופדינג הוא מקרה פרטי שכן עבור ‪ |Xi | ≤ 1‬ב"ת ‪Xi‬‬
‫‪5.7‬‬
‫‪Pn‬‬
‫‪i=1‬‬
‫= ‪ Sn‬הוא מרטינגל שמקיים את התנאים‪.‬‬
‫דוגמאות משעשעות עם מרטינגלים‪:‬‬
‫דוגמה ‪ 5.57‬מהלך מקרי פשוט ומאוזן‪:‬‬
‫נתבונן ב־ ‪ Xn‬שמתאר מהלך מקרי פשוט על ‪ Z‬שמתחיל ב־ ‪ a‬כאשר ‪:0 < a < b ∈ Z‬‬
‫(‬
‫‪n‬‬
‫‪X‬‬
‫‪+1 21‬‬
‫‪i.i.d‬‬
‫= ‪Yk ; Yk ∼ Y‬‬
‫‪Xn = a +‬‬
‫‪−1 12‬‬
‫‪k=1‬‬
‫ראינו ש־ ‪ Xn‬הוא מרטינגל‪ .‬נסמן ב־ ‪ Fn‬את הפילטרציה הטבעית ביחס ל־ ‪) Xn‬שהיא גם הפילטרציה הטבעית ביחס לסדרה ‪(Yn‬‬
‫ונגדיר‪:‬‬
‫}‪T = min {n | Xn = 0 ∨ Xn = b‬‬
‫זהו זמן עצירה שכן }‪ Tc = min {n | Xn = c‬הוא זמן עצירה לכל ‪ c ∈ Z‬ובפרט מתקיים } ‪.T = min {T0 , Tb‬‬
‫‬
‫‬
‫‪a.s‬‬
‫• נשאל מהי ) ‪ :Pa (Tb < T0‬מאחר ש־ ∞ < ‪ T‬ו־ ‪ Xmin(T,n) ≤ b‬מתקיים תנאי ‪ 2‬של משפט ‪ OST‬ומכך נקבל כי‪:‬‬
‫‪Doob‬‬
‫{|}‪z‬‬
‫) ‪a = E [X0 ] = E [XT ] = b · P (Tb < T0 ) + 0 · P (T0 ≤ Tb ) = bP (Tb < T0‬‬
‫לכן ניתן לראות כי‬
‫‪a‬‬
‫‪b‬‬
‫= ) ‪.P (Tb < T0‬‬
‫• נשאל מהו ] ‪ E [T‬ונסיק ש־ ‪ .P (T0 < ∞) = 1‬ראשית נגדיר ‪ Mn = Xn2 − n‬ונראה שזהו מרטינגל‪:‬‬
‫‪h‬‬
‫‪i‬‬
‫‪ 2‬‬
‫‬
‫‪ 2‬‬
‫‬
‫‪2‬‬
‫‪E Xn+1‬‬
‫‪− (n + 1) |Fn = E Xn+1‬‬
‫)‪|Fn − (n + 1) = E (Xn + Yn+1 ) |Fn − (n + 1‬‬
‫‬
‫‬
‫‬
‫‬
‫‪ 2‬‬
‫‬
‫‪2‬‬
‫‪= E Xn2 + 2Xn Yn + Yn+1‬‬
‫‪|Fn − (n + 1) = E Xn2 |Fn + 2E [Xn Yn+1 |Fn ] + E Yn+1‬‬
‫‪|Fn‬‬
‫‪= Xn2 + 2Xn E [Yn+1 |Fn ] +1 − (n + 1) = Xn2 − n‬‬
‫|‬
‫‪{z‬‬
‫}‬
‫‪=E[Yn+1 ]=0‬‬
‫כאשר השתמשנו בכך ש־ ‪ Yn+1‬ב"ת ב־ ‪ .Fn‬כמו כן ‪ Mn‬מקיים את תנאי )‪ (3‬של משפט ‪ OST‬שכן‪:‬‬
‫‬
‫‬
‫ ‬
‫‬
‫ ‬
‫‪ 2‬‬
‫‬
‫‪2‬‬
‫‪2‬‬
‫‪Mmin(T,n+1) − Mmin(T,n) = X 2‬‬
‫‪−‬‬
‫‪(n‬‬
‫‪+‬‬
‫)‪1‬‬
‫‪−‬‬
‫‪X‬‬
‫‪−‬‬
‫‪n‬‬
‫=‬
‫‪−‬‬
‫‪X‬‬
‫‪−‬‬
‫‪1‬‬
‫‬
‫‪X‬‬
‫‪≤1‬‬
‫)‪min(T,n+1‬‬
‫)‪min(T,n‬‬
‫)‪min(T,n+1‬‬
‫)‪min(T,n‬‬
‫‬
‫‬
‫מכך ‪ .E XT2 − T = E [MT ] = E [M0 ] = a2‬כמו כן ניתן לראות כי‪:‬‬
‫ ‬
‫) ‪E XT2 = b2 · P (Tb < T0 ) + 02 · P (T0 ≤ Tb ) = b2 P (Tb < T0‬‬
‫‪42‬‬
‫‪5‬‬
‫‪5.7‬‬
‫מרטינגלים‪:‬‬
‫דוגמאות משעשעות עם מרטינגלים‪:‬‬
‫מכך נקבל כי‪:‬‬
‫‪=a‬‬
‫‪b‬‬
‫‪z‬‬
‫|}‬
‫{‬
‫ ‬
‫‬
‫‬
‫)‪E [T ] = E XT2 − E XT2 − T = b2 P (Tb < T0 ) −a2 = ab − a2 = a (b − a‬‬
‫מכך שהתוחלת הזו סופית נסיק ש־ ‪ .P (T < ∞) = 1‬כמו כן‬
‫) ‪P (T < ∞) ≤ P (T0 < ∞) + P (Tb < T0‬‬
‫מכך ניתן לראות כי‪:‬‬
‫‪a‬‬
‫‪b‬‬
‫‪P (T0 < ∞) ≥ P (T < ∞) − P (Tb < T0 ) = 1 −‬‬
‫אולם הנ"ל נכון לכל ‪ b‬ומכך אפשר להסיק ‪ .P (T0 < ∞) = 1‬מכך אפשר למעשה להסיק שהתהליך יבקר בנקודה ‪) 0‬ובכל‬
‫נקודה בין ‪ a‬ל־ ‪ (b‬אינסוף פעמים בהסתברות ‪.1‬‬
‫‬
‫תרגיל‪ :‬הוכח ש־ ‪ Ea [Tb |Tb < T0 ] = b2 −a2‬ע"י הוכחה ש־ ‪ Mn := Xn3 − 3nXn‬הוא מרטינגל ושימוש בכך ש־ ≤ ‬
‫‪3‬‬
‫‪ b3 + 3bTb‬ובטריק דומה להוכחה של תנאי ‪ 3‬במשפט ‪.OST‬‬
‫)‪b ,n‬‬
‫‬
‫‪Mmin(T‬‬
‫דוגמה ‪ 5.58‬מהלך מקרי לא מאוזן‪:‬‬
‫נשתמש באותם הגדרות וסימונים של הדוגמה הקודמת בשינוי יחיד‪:‬‬
‫(‬
‫‪+1 p‬‬
‫‪i.i.d‬‬
‫= ‪; Yk ∼ Y‬‬
‫‪−1 q = 1 − p‬‬
‫‪Yk‬‬
‫‪n‬‬
‫‪X‬‬
‫‪Xn = a +‬‬
‫‪k=1‬‬
‫לא קשה לראות ש־ ‪ Xn‬איננו מרטינגל ומאידך )‪ Mn := Xn − n (p − q‬הוא כן‪.‬‬
‫• נשאל מהו ) ‪ :Pa (Tb < T0‬התהליך ‪ Mn‬לא יועיל לנו עבור החישוב הנ"ל ולכן נגדיר תהליך‬
‫‪ Xn‬‬
‫‪q‬‬
‫‪p‬‬
‫= ‪ ,Nn‬זהו מרטינגל שכן‪:‬‬
‫ "‬
‫‪#‬‬
‫ "‬
‫‪#‬‬
‫ "‬
‫‪#‬‬
‫‪Xn+1‬‬
‫‪Xn +Yn+1‬‬
‫‪Xn Yn+1‬‬
‫‪q‬‬
‫‪q‬‬
‫‪q‬‬
‫‪q‬‬
‫‪E [Nn+1 |Fn ] = E‬‬
‫‪|Fn = E‬‬
‫‪|Fn = E‬‬
‫·‬
‫‪|Fn‬‬
‫‪p‬‬
‫‪p‬‬
‫‪p‬‬
‫‪p‬‬
‫ "‬
‫ ‪#‬‬
‫ ‪#‬‬
‫‪ Xn " Yn+1‬‬
‫‪ Xn‬‬
‫‪ Xn‬‬
‫‪Xn‬‬
‫‪Y‬‬
‫‪Xn‬‬
‫‪p‬‬
‫‪q‬‬
‫‪q‬‬
‫‪q n+1‬‬
‫‪q‬‬
‫‪q‬‬
‫‪q‬‬
‫‪q‬‬
‫‪q‬‬
‫=‬
‫‪E‬‬
‫= ‪|Fn‬‬
‫‪E‬‬
‫=‬
‫‪p +q‬‬
‫=‬
‫= )‪(p + q‬‬
‫‪= Nn‬‬
‫‪p‬‬
‫‪p‬‬
‫‪p‬‬
‫‪p‬‬
‫‪p‬‬
‫‪p‬‬
‫‪q‬‬
‫‪p‬‬
‫‪p‬‬
‫כמו כן )‪ Nmin(T,n‬חסום יוניפורמית כ"ת ולכן ממשפט ‪ OST‬נקבל כי‪:‬‬
‫‪" #‬‬
‫‪ b‬‬
‫‪ 0‬‬
‫‪ b‬‬
‫‪ a‬‬
‫‪OST‬‬
‫‪XT‬‬
‫‪p‬‬
‫‪p‬‬
‫‪p‬‬
‫‪p‬‬
‫‪p‬‬
‫{|}‪z‬‬
‫‪= E [N0 ] = E [NT ] = E‬‬
‫)‪= P (XT = b‬‬
‫)‪+ P (XT = 0‬‬
‫) ‪= P (Tb < T0‬‬
‫) ‪+ P (T0 < Tb‬‬
‫|‬
‫‪{z‬‬
‫‪} q‬‬
‫|‬
‫‪{z‬‬
‫}‬
‫‪q‬‬
‫‪q‬‬
‫‪q‬‬
‫‪q‬‬
‫‪pb‬‬
‫‪1−pb‬‬
‫ומכך לסיכום‪:‬‬
‫‪ a‬‬
‫‪−1‬‬
‫‪q‬‬
‫‪p‬‬
‫‪−1‬‬
‫‪q‬‬
‫‪p‬‬
‫‪P (Tb < T0 ) = b‬‬
‫תרגיל‪ :‬להשתמש ב־ ‪ Mn‬כדי לחשב את ] ‪.E [T‬‬
‫‪43‬‬
‫‪5.7‬‬
‫‪5‬‬
‫דוגמאות משעשעות עם מרטינגלים‪:‬‬
‫מרטינגלים‪:‬‬
‫הערה ‪ 5.59‬ניתן לראות שכאשר ‪ p 6= q‬מספר הפעמים שנגיע לכל נקודה הוא סופי )כלומר התהליך הוא חולף(‪ .‬מאידך כאשר‬
‫ההילוך יבקר בכל נקודה אינסוף פעמים‪.‬‬
‫‪1‬‬
‫‪2‬‬
‫=‪p‬‬
‫דוגמה ‪ 5.60‬ממתינים להופעת תבנית‪:‬‬
‫נתבונן ברצפים אינסופים המגיעים מ־ }‪ {A, ..., Z‬ונדגמים עם התפלגות אחידה וב"ת להופעה של כל אות‪ .‬נסמן ב־ ‪ Li‬את האות‬
‫ה־ ‪ i‬ברצף ונשאל מהי תוחלת הזמן להופעה של רצף אותיות מסוים‪.‬‬
‫‪N‬‬
‫• עבור רצף מאורך ‪ 1‬ידוע לנו שזמן ההמתנה מתפלג גיאומטרית עם פרמטר‬
‫‪1‬‬
‫‪26‬‬
‫= ‪ p‬ולכן התוחלת היא ‪.26‬‬
‫האות "‪ "I‬נראה זאת גם באמצעות מרטינגל‪ ,‬נגדיר }‪ Yn = 261{Ln =I‬ונגדיר מרטינגל עם הפרשים חסומים ע"י‬
‫• בפרט עבור‪Pn‬‬
‫‪ .Xn = k=1 Yk − n‬כמו כן נגדיר זמן עצירה }‪ ,T = min {n | Ln = I‬הנ"ל מקיים ∞ < ] ‪ E [T‬ולכן ממשפט ‪ OST‬נקבל‪:‬‬
‫‪OST‬‬
‫{|}‪z‬‬
‫‪0 = E [X0 ] = E [XT ] = E [26 − T ] =⇒ E [T ] = 26‬‬
‫• כעת עבור מילה כלשהי ‪ λ1 λ2 ...λk‬נגדיר‪:‬‬
‫‪if n ≥ m ∧ n − m ≤ k ∧ Lm ...Ln = λ1 ...λn+1−m‬‬
‫‪if n ≥ m ∧ n − m > k ∧ Lm ...Lm+k = λ1 ....λk‬‬
‫‪Otherwise‬‬
‫‪‬‬
‫‪n+1−m‬‬
‫‪‬‬
‫‪26‬‬
‫‪= 26k‬‬
‫‪‬‬
‫‪‬‬
‫‪0‬‬
‫‪Ynm‬‬
‫נטען שעבור ‪ m‬כלשהו התהליך‪:‬‬
‫}‪Ynm − 1{n≥m‬‬
‫הא מרטינגל ביחס לפילטרציה ) ‪ .Fn = σ (L1 ...Ln‬כמו כן סכום סופי של מרטינגלים הוא גם כן מרטינגל ולכן‪:‬‬
‫‪=0‬‬
‫∞‬
‫‪n‬‬
‫{|}‪z‬‬
‫‪X‬‬
‫‪X‬‬
‫‪m‬‬
‫‪m‬‬
‫‪Yn +‬‬
‫= ‪Yn −n‬‬
‫‪Ynm − m‬‬
‫‪m=n+1‬‬
‫‪m=1‬‬
‫‪n‬‬
‫‪X‬‬
‫= ‪Ynm − n‬‬
‫‪m=1‬‬
‫∞‬
‫‪X‬‬
‫= ‪Xn‬‬
‫‪m=1‬‬
‫הוא גם כן מרטינגל‪ .‬נגדיר זמן עצירה על ידי‪:‬‬
‫} ‪T = min {n | Ln−k ...Ln = λ1 ...λk‬‬
‫הנ"ל מקיים ∞ < ] ‪ E [T‬וכמו כן )‪ Xmin(T,n‬הוא בעל הפרשים חסומים יוניפורמית ולכן ממשפט ‪:OST‬‬
‫‪" T‬‬
‫‪#‬‬
‫‪T‬‬
‫‪T‬‬
‫‪X‬‬
‫‪X‬‬
‫‪X‬‬
‫‬
‫‬
‫‪m‬‬
‫‪0 = E [X0 ] = E [XT ] = E‬‬
‫= ] ‪YT − T =⇒ E [T‬‬
‫= ] ‪E [YTm‬‬
‫‪E YTT −i‬‬
‫‪i=1‬‬
‫‪m=1‬‬
‫‪m=1‬‬
‫‬
‫‬
‫מההגדרה ‪ E YTT −i = 0‬כאשר ‪ i > k‬וכאשר ‪ i ≤ k‬נקבל כי‪:‬‬
‫‪λ1 ...λi = λk−i+1 ...λk‬‬
‫‪otherwise‬‬
‫(‬
‫‪26i+1‬‬
‫=‬
‫‪0‬‬
‫‪YTT −i‬‬
‫לכן סה"כ נקבל כי‪:‬‬
‫} ‪26i+1 1{λ1 ...λi =λk−i+1 ...λk‬‬
‫‪k−1‬‬
‫‪X‬‬
‫‪k‬‬
‫‪1{λ1 ...λi =λk−i+1 ...λk } = 26 +‬‬
‫‪i=1‬‬
‫‪i+1‬‬
‫‪26‬‬
‫‪k‬‬
‫‪X‬‬
‫= ] ‪E [T‬‬
‫‪i=1‬‬
‫הערה ‪ 5.61‬כדי להראות ש־ ∞ < ] ‪ E [T‬מספיק להבחין שיש פילוג גיאומטרי על הזמן עד שאחד מהרצפים הב"ת מאורך ‪) k‬כלומר‬
‫‪ Lk+1 ....L2k+1 ,L1 ....Lk‬וכן הלאה( יהיה זהה למילה ‪ .λ1 ...λk‬לכן מאחר שתוחלת הזמן עד שרצף כלשהו מאורך ‪ k‬יהיה זהה‬
‫למילה המבוקשת קטנה מתוחלת הזמן )הסופית( עד שרצף בלתי תלוי יהיה שווה למילה נסיק ש־ ∞ < ] ‪. E [T‬‬
‫‪44‬‬
‫‪5‬‬
‫מרטינגלים‪:‬‬
‫‪5.8‬‬
‫‪5.8‬‬
‫התכנסות של מרטינגלים‪:‬‬
‫התכנסות של מרטינגלים‪:‬‬
‫נרצה להוכיח את המשפט הבא‪:‬‬
‫משפט ‪ 5.62‬מרטינגל חסום מתכנס כמעט תמיד‪:‬‬
‫‪a.s‬‬
‫יהא ‪ Xn‬מרטינגל חסום )‪ (∃ K : ∀ n P (|Xn | ≤ K) = 1‬אזי קיים מ"מ ‪ Y‬כך ש־ ‪.Xn −→ Y‬‬
‫הערה ‪ 5.63‬יש תנאים הרבה יותר חלשים להתכנסות של מרטינגלים כגון מומנט שני חסום‪.‬‬
‫הוכחה‪ :‬נוכיח טענה יותר חזקה לפיה על־מרטינגל אי־שלילי מתכנס כ"ת‪:‬‬
‫למה ‪5.64‬‬
‫יהא ‪ Xn‬על־מרטינגל אי־שלילי כך ש־ ‪ .X0 ≡ a > 0‬בהנתן ‪ b > a‬נגדיר }‪ Tb = min {n | Xn ≥ b‬אזי‬
‫‪a‬‬
‫‪b‬‬
‫≤ )∞ < ‪.Pa (Tb‬‬
‫הוכחה‪ :‬בהנתן ‪ N ∈ N‬נתבונן ב־ )‪ Xmin(Tb ,n‬שהינו על־מרטינגל אי־שלילי עבור ‪ .n = 0, ..., N‬עבור הנ"ל מתקיים‪:‬‬
‫‬
‫‬
‫‪bP (Tb ≤ N ) ≤ E Xmin(Tb ,N ) ≤ E [X0 ] = a‬‬
‫כאשר אי־השוויון השמאלי נובע מכך ש־ ‪ Tb ≤ N‬אמ"מ ‪ Xmin(Tb ,N ) ≥ b‬ומכך ש־ ‪ () Xn ≥ 0‬לכן‬
‫ולכן ‪ Pa (Tb < ∞) ≤ ab‬כנדרש‪.‬‬
‫‪a‬‬
‫‪b‬‬
‫≤ ) ‪ P (Tb ≤ N‬לכל ‪N ∈ N‬‬
‫על סמך הלמה הזו נסיק ש־ ‪ Xn‬בהסתברות ‪ 1‬לא שואף לאינסוף שכן כאשר ∞ → ‪ b‬מתקבל ש־ ‪ . Pa (Tb < ∞) → 0‬לכן כדי‬
‫להראות ש־ ‪ Xn‬מתכנס מספיק להראות שהוא לא עושה פלקטואציות‪ .‬עבור ‪ 0 < a < b‬כלשהם נגדיר את מספר החציות מעלה‬
‫)‪ (upcreasing‬של ]‪ [a, b‬על ידי‪:‬‬
‫}‪u (a, b) = max {n | ∃ t1 < s1 < t2 < ... < sn s.t ∀ i = 1, ..., n Xti ≤ a, Xsi ≥ b‬‬
‫טענה ‪5.65‬‬
‫מתקיים‬
‫‬
‫‪a k‬‬
‫‪b‬‬
‫≤ )‪.P (u (a, b) ≥ k‬‬
‫הוכחה‪ :‬באינדוקציה‪ .‬עבור ‪ k = 1‬המסקנה היא תוצאה של הלמה הקודמת התרחשה חצייה אמ"מ ∞ < ‪ Tb‬והנ"ל מתרחש‬
‫‪a‬‬
‫‪ u (a,‬אם המאורע שירדנו שוב מתחת ל־ ‪ a‬התרחש אז ההסתברות שעלינו מחדש‬
‫בהסתברות הקטנה מ־ ‪ . b‬כעת בהנתן ש־ ‪ b) ≥ k‬‬
‫‪a‬‬
‫מעל ‪ b‬חסומה שוב על סמך הלמה הקודמת על ידי ‪ b‬ולכן מתקבלת המסקנה הנדרשת‪.‬‬
‫על סמך הטענה הזו )‪ u (a, b‬סופי כ"ת לכל ‪ a < b‬שכן ההסתברות ש־ ‪ u (a, b) ≥ k‬שואפת אקספוננציאלית לאפס עם ‪ .k‬מכך נסיק ש־‬
‫‪ Xn‬מתכנס כ"ת שכן אם הוא לא היה מתכנס אז למשל עבור ‪ a = lim inf Xn < lim sup Xn = b‬היינו מקבלים שלכל ‪a < c < d < b‬‬
‫המרטינגל חייב לחצות את )‪ (c, d‬אינסוף פעמים אולם כפי שראינו הנ"ל לא קורה‪ .‬לכן בהכרח ‪ lim inf Xn = lim sup Xn‬ויש‬
‫התכנסות כ"ת כנדרש‪.‬‬
‫דוגמה ‪ 5.66‬הכד של פולייה‪ :‬אם ‪ Xn‬הוא המרטינגל שמוגדר ע"י פרופורציית הכדורים השחורים אז מהיותו חסום המשפט הקודם‬
‫‪a.s‬‬
‫נותן לנו את זה ש־ ‪ Xn −→ X‬למ"מ ‪ X‬כלשהו‪ .‬בפרט מתקבל ש־ ]‪.X ∼ U [0, 1‬‬
‫דוגמה ‪ 5.67‬יהא ‪ X‬מ"מ חסום ותהא ‪ Fn‬פילטרציה‪ .‬נתבונן במרטינגל ] ‪ ,Xn = E [X|Fn‬זהו מרטינגל חסום ולכן ‪ lim Xn‬קיים‬
‫∞→‪n‬‬
‫כ"ת על סמך המשפט הקודם‪ .‬נשאלת השאלה האם ‪ . lim Xn = X‬התשובה היא "לא בהכרח" אולם בתנאי מסוים הנ"ל כן מתקיים‬
‫∞→‪n‬‬
‫כמו שמעיד המשפט הבא‪:‬‬
‫משפט ‪ 5.68‬משפט ־ ‪:Levy’s Upward Theorem‬‬
‫‬
‫‪S‬‬
‫יהא ‪ X‬מ"מ חסום ותהא ‪ Fn‬פילטרציה אזי ] ∞‪ lim E [X|Fn ] = E [X|F‬כאשר ‪.F∞ = σ n∈N Fn‬‬
‫∞→‪n‬‬
‫‪45‬‬
‫‪5.8‬‬
‫‪5‬‬
‫התכנסות של מרטינגלים‪:‬‬
‫מרטינגלים‪:‬‬
‫הוכחה‪ :‬נסמן ] ‪ Xn = E [X|Fn‬ו־ ‪) X∞ = lim Xn‬קיים שכן ‪ Xn‬הוא מרטינגל חסום(‪ .‬בה"כ אפשר להניח ש־ ‪F∞ X‬־מדיד שכן‬
‫∞→‪n‬‬
‫אחרת נקח ] ∞‪ X = E [X|F‬ונקבל ש־ ‪ Xn‬נשארים אותו דבר לפי תכונת המגדל‪ .‬כעת בהנתן ‪ n ∈ N‬ו־ ‪ A ∈ Fn‬נקבל כי‪:‬‬
‫)‪(1‬‬
‫)‪(2‬‬
‫{|}‪z‬‬
‫{|}‪z‬‬
‫] ‪E [X∞ 1A ] = E [Xn 1A ] = E [X1A‬‬
‫המעבר השני נובע פשוט מהגדרת התוחלת המותנית ומכך ש־ ] ‪ Xn = E [X|Fn‬והמעבר הראשון נובע מכך שאם נסתכל על ‪Xm 1A‬‬
‫ולכן ממשפט ההתכנסות החסומה נובעת גם התכנסות‬
‫עבור ‪ m = n, n + 1, ...‬נקבל כי זהו מרטינגל חסום המתכנס כ"ת ל־ ‪S X∞ 1A‬‬
‫של התוחלות‪ .‬בכך הראינו ש־ ∞‪ X‬ו־ ‪" X‬מסכימים" בתוחלת עבור כל ‪ A ∈ n∈N Fn‬שהיא קבוצה סגורה לחיתוכים‪ .‬העובדה הזו‬
‫‪a.s‬‬
‫מספיקה כדי להסיק ש־ ∞‪ X = X‬על סמך הלמה הבאה שאותה לא נוכיח‪:‬‬
‫למה ‪5.69‬‬
‫‪a.s‬‬
‫יהיו ‪ X, Y‬מ"מ חסומים ותהא ‪ S‬קבוצה סגורה לחיתוכים היוצרת את הסיגמה אלגברה ‪ F‬אזי ‪ X = Y‬אמ"מ‪:‬‬
‫] ‪∀ A ∈ S : E [X1A ] = E [Y 1A‬‬
‫דוגמה ‪ 5.70‬נגדיר את המשתנים המקריים הבאים‪:‬‬
‫(‬
‫‪1 pn‬‬
‫= ‪, Yn‬‬
‫‪0 1 − pn‬‬
‫‪1‬‬
‫‪2‬‬
‫‪1‬‬
‫‪2‬‬
‫(‬
‫‪0‬‬
‫=‪X‬‬
‫‪1‬‬
‫כמו כן נגדיר ‪ .Zn = X + Yn mod 2‬אפשר לחשוב על המודל הנ"ל כעל מצב שבו ‪ X‬מייצג ביט של אינפורמציה ו־ ‪Yn‬‬
‫מייצג רעש מקרי שמפריע לנו לקלוט את האינפורמציה הרלוונטית כאשר ‪ Zn‬הוא הקלט שמתקבל‪ .‬נגדיר ) ‪Fn = σ (Z1 , ..., Zn‬‬
‫ו־ ] ‪) Xn = E [X|Fn‬כלומר ‪ Xn‬הוא הצפייה שלנו ביחס לערך של ‪ X‬בהנתן הקלט שהתקבל ב־ ‪ n‬המקרים הראשונים(‪.‬‬
‫‪a.s‬‬
‫‪a.s‬‬
‫אם ‪ pn ≡ p 6= 21‬אז ‪ Xn −→ X‬והנ"ל לא קורה אם ‪ pn‬מתכנס מהר ל־ ‪) 12‬באופן מדויק ‪ Xn −→ X‬אמ"מ‬
‫תרגיל‪:‬‬
‫‬
‫‪P‬‬
‫‪1 2‬‬
‫(‪.‬‬
‫∞ = ‪pn − 2‬‬
‫‪46‬‬
‫‪6‬‬
‫‪6‬‬
‫שרשראות מרקוב‪:‬‬
‫שרשראות מרקוב‪:‬‬
‫ספר מומלץ ־ ‪.Markov Chains and Mixing Times by Yuval Peres‬‬
‫הגדרה ‪ 6.1‬שרשרת מרקוב )בזמן בדיד(‪:‬‬
‫סדרת משתנים מקריים בדידים ‪ Xn : Ω → S‬המקבלים ערכים בקבוצה ‪ S‬תקרא שרשרת מרקוב אם ההתפלגות של ‪ Xn+1‬בהנתן‬
‫‪ X0 , ..., Xn‬היא פונקציה של ‪ Xn‬בלבד במובן שקיימת מטריצה\פונקציה ]‪ P : S × S → [0, 1‬כך ש‪:‬‬
‫)‪P (Xn+1 = y | X0 = a0 , X1 = a1 , ..., Xn = x) = P (x, y‬‬
‫התכונה הזו מכונה תכונת מרקוב‪.‬‬
‫הערה ‪ 6.2‬הקבוצה ‪ S‬מכונה מרחב המצבים ו־ ‪ P‬מכונה מטריצת\פונקציית המעבר ולמעשה הזוג ) ‪ (S, P‬מאפיין את השרשרת בלי‬
‫צורך להתייחס להתפלגויות של המשתנים המקריים ‪ Xn‬עצמם‪.‬‬
‫הערה ‪ 6.3‬אפשר לראות ש־ ‪ P‬היא מטריצה סטוכסטית כלומר‪:‬‬
‫‪X‬‬
‫‪∀ x, y ∈ S P (x, y) ≥ 0 ∧ ∀x ∈ S :‬‬
‫‪P (x, y) = 1‬‬
‫‪y∈S‬‬
‫הערה ‪ 6.4‬כרגע אנחנו עוסקים בשרשראות מרקוב עם מרחב מצבים סופי\בן־מנייה וסט אינדקסים בן־מנייה‪ ,‬הנ"ל מכונות שרשראות‬
‫מרקוב עם מרחב מצבים דיסקרטי בזמן דיסקרטי‪ .‬יש גם הכללה לשרשראות מרקוב עם קבוצת אינדקסים שאיננה בת מנייה אשר‬
‫מכונות שרשראות מרקוב בזמן רציף‪.‬‬
‫דוגמה ‪ 6.5‬דוגמאות פשוטות‪:‬‬
‫‪ .1‬סדרת מ"מ בלתי תלויים היא מיידית שרשרת מרקוב‪.‬‬
‫‪ .2‬סדרת הסכומים\מכפלות החלקיים של סדרת מ"מ בלתי תלויים‪ .‬למעשה הנ"ל נכון עבור כל פעולה מצטברת ולמשל עבור‬
‫הרכבת פרמוטציות כאשר ‪ Xn‬הן פרמוטציות ב"ת על ‪ N‬איברים ונגדיר ‪.Sn = X0 ◦ X1 ◦ ... ◦ Xn‬‬
‫דוגמה ‪ 6.6‬נשאל האם הכד של פולייה הוא שרשרת מרקוב‪:‬‬
‫• אם מסתכלים על תיאור הבעיה כך ש־ ‪ Xn‬מכיל בכל שלב את סדרת הצבעים שנשלפו עד כה אז כמובן שמתקבלת שרשרת‬
‫מרקוב‪.‬‬
‫• אם נסתכל על תיאור הבעיה כך ש־ ‪ Xn‬מכיל בכל שלב כמה כדורים יש מכל צבע ))‪ (Xn = (#black, #white‬או כך ש־ ‪Xn‬‬
‫היא פרופורציית הכדורים השחורים שנשלפו אז לא מתקבלת שרשרת מרקוב‪.‬‬
‫הערה ‪ 6.7‬לפעמים מסתכלים על שרשראות מרקוב שבהן מטריצת המעבר ‪ P‬יכולה להיות תלויה ב־ ‪) n‬מכונות שרשראות מרקוה לא‬
‫אחידות בזמן( ובמקרה הנ"ל גם התיאור השני מהווה שרשרת מרקוב‪.‬‬
‫דוגמה ‪ 6.8‬צפרדע יושבת על אחד משני עלים ‪ W, E‬ובכל יום היא בוחרת האם לעבור מהעלה שהיא נמצאת בו לעלה השני כפי‬
‫שמתואר במטריצת המעברים הבאה‪:‬‬
‫‪W‬‬
‫‪p‬‬
‫‪1−q‬‬
‫‪E‬‬
‫‪1−p‬‬
‫‪q‬‬
‫‪47‬‬
‫‪P = E‬‬
‫‪W‬‬
‫‪6‬‬
‫שרשראות מרקוב‪:‬‬
‫∞‬
‫‪N‬‬
‫נתבונן בסדרת המשתנים המקריים } ‪ {Xt }t=0 ∈ {E, W‬אשר מתארת את מיקום הצפרדע בזמן ‪ .t‬נניח שבזמן ‪ t‬ההתפלגות של‬
‫הצפרדע להיות במיקום מסוים נתונה על ידי‪:‬‬
‫)) ‪µt = (µt (E) , µt (W )) = (P (Xt = E) , P (Xt = W‬‬
‫נשים לב שמנוסחת ההסתברות השלמה מתקיים‪:‬‬
‫)‪P (X0 = a0 , ..., Xt = at , Xt+1 = E‬‬
‫‪X‬‬
‫= )‪µt+1 (E) = P (Xt+1 = E‬‬
‫} ‪a0 ,a1 ,...,at ∈{E,W‬‬
‫)‪P (X0 = a0 , ..., Xt = W, Xt+1 = E‬‬
‫‪X‬‬
‫‪X‬‬
‫‪P (X0 = a0 , ..., Xt = E, Xt+1 = E) +‬‬
‫} ‪a0 ,a1 ,...,at ∈{E,W‬‬
‫=‬
‫} ‪a0 ,a1 ,...,at ∈{E,W‬‬
‫‪X‬‬
‫)‪P (X0 = a0 , ..., Xt = E) · P (Xt+1 = E|X0 = a0 , ..., Xt = E‬‬
‫=‬
‫} ‪a0 ,a1 ,...,at ∈{E,W‬‬
‫‪X‬‬
‫)‪P (X0 = a0 , ..., Xt = W ) · P (Xt+1 = E|X0 = a0 , ..., Xt = E‬‬
‫‪+‬‬
‫} ‪a0 ,a1 ,...,at ∈{E,W‬‬
‫)‪= P (Xt = E) P (Xt+1 = E|X0 = a0 , ..., Xt = E) + P (Xt = W ) P (Xt+1 = E|X0 = a0 , ..., Xt = E‬‬
‫=‬
‫‪µt (E) · P (E, E) + µt (W ) · P (W, E) = µt (E) · (1 − p) + µt (W ) · q‬‬
‫}‪|{z‬‬
‫‪Markov Property‬‬
‫מכך ניתן לראות שבזמן ‪ t + 1‬ההתפלגות כולה מתקבלת על ידי המכפלה‪:‬‬
‫‬
‫>‬
‫‪µt (E) (1 − p) + µt (W ) q‬‬
‫= )) ‪= W‬‬
‫‪= µ0 P‬‬
‫)‪µt (E) p + µt (W ) (1 − q‬‬
‫‪µt+1 = (P (Xt+1 = E) , P (Xt+1‬‬
‫באופן כללי יותר נקבל באינדוקציה שההתפלגות בזמן ‪ t + 1‬נתונה על ידי‪:‬‬
‫‪µt+1 = µt P = µ0 P t+1‬‬
‫∞→‪t‬‬
‫כעת נניח שסדרת הפילוגים ‪ µt‬מתכנסת לפילוג ‪ π‬כאשר ∞ → ‪ .t‬מכך ש־ ‪ µt P = µt+1‬נסיק שגם ‪ µt P −→ π‬ולכן מכך ש־ ‪P‬‬
‫היא פונקציה רציפה על מרחב קומפקטי )כי ‪ S‬סופית או בת־מנייה עם טופולוגיה דיסקרטית( נקבל כי ‪.π = πP‬‬
‫הערה ‪ 6.9‬בפרט נאמר במקרה כנ"ל ש־ ‪ π‬היא מידה סטציונרית וש־ ‪ µt‬מתכנסת למידה סטציונרית‪.‬‬
‫‬
‫‬
‫‪q‬‬
‫‪p‬‬
‫‪) π = p+q‬פרט למקרה שבו ‪ p = q = 0‬שבו כל‬
‫‪, p+q‬‬
‫נשים לב שפתרון של המשוואה ‪ π = πP‬מתקבל רק עבור ‪ π‬שנתונה על ידי‬
‫‬
‫‬
‫‪q‬‬
‫‪p‬‬
‫‪,π = p+q‬‬
‫‪, p+q‬‬
‫וקטור הוא פתרון(‪ .‬אם כן הראינו שבמקרה שבו לא מתקיים ‪ p = q = 0‬אז אם יש התכנסות בהכרח הגבול הוא‬
‫נראה מתי באמת מתקיימת התכנסות כנ"ל‪ .‬נסמן ) ‪ ,µt = (xt , 1 − xt‬נגדיר‬
‫‪ µt+1 = µt P‬נקבל כי‪:‬‬
‫‪p‬‬
‫‪p+q‬‬
‫∞→‪t‬‬
‫‪ ∆t = xt −‬ונבדוק מתי ־ ‪ .∆t −→ 0‬מאחר ש־‬
‫‪xt+1 = xt (1 − p) + (1 − xt ) q = xt (1 − p − q) + q‬‬
‫לכן נקבל כי‪:‬‬
‫‪q‬‬
‫‪q‬‬
‫‪= xt (1 − p − q) + q −‬‬
‫‪p+q‬‬
‫‪p+q‬‬
‫‪q‬‬
‫‪q‬‬
‫‪= ∆t (1 − p − q) +‬‬
‫‪(1 − p − q) + q −‬‬
‫)‪= ∆t (1 − p − q‬‬
‫‪p+q‬‬
‫‪p+q‬‬
‫|‬
‫‪{z‬‬
‫}‬
‫‪∆t+1 = xt+1 −‬‬
‫‪=0‬‬
‫∞→‪t‬‬
‫∞→‪t‬‬
‫מאחר ש־ ‪ ∆t −→ 0‬אמ"מ ‪ µt −→ π‬נסיק שמתקיימת התכנסות אלא אם ‪ p = q = 0‬או ‪ ,p = q = 1‬נבחן את המקרים הללו‪:‬‬
‫‪ .1‬אם ‪ p = q = 0‬אז ‪ µt+1 = µt = ... = µ0‬אולם כל התפלגות היא סטציונרית שכן ‪.P = I‬‬
‫‪48‬‬
‫‪6‬‬
‫שרשראות מרקוב‪:‬‬
‫‪t‬‬
‫‪ .2‬אם ‪ p = q = 1‬אז )‪ ∆t = ∆0 (−1‬ולכן אין התכנסות אלא אם ‪ µ0‬עצמה סטציונרית‪.‬‬
‫נגדיר כעת את המושגים מהדוגמה הקודמת בצורה פורמלית‪:‬‬
‫הגדרה ‪ 6.10‬מידה סטציונרית‪:‬‬
‫בהנתן שרשרת מרקוב ) ‪ (S, P‬נאמר ש־ ‪ π‬היא מידה סטציונרית על ‪ S‬אם ‪.π = πP‬‬
‫הערה ‪ 6.11‬בפרט אם ‪ π‬היא מידת הסתברות נאמר ש־ ‪ π‬היא התפלגות סטציונרית‪.‬‬
‫משפט ‪ 6.12‬לשרשרת מרקוב עם מרחב מצבים סופי קיימת התפלגות סטציונרית‪:‬‬
‫בהנתן שרשרת מרקוב ) ‪ (S, P‬כך ש־ ‪ S‬סופית קיימת התפלגות סטציונרית על ‪.S‬‬
‫הוכחה‪ :‬הוכחה ראשונה‪ :‬במקרה שבו ‪ S‬סופי הכפלה מימין ב־ ‪ P‬היא פונקציה רציפה מהסימפלקס )שקול טופולוגית לכדור(‪:‬‬
‫(‬
‫)‬
‫‪X‬‬
‫| ]‪∆ (S) = µ : S → [0, 1‬‬
‫‪µ (s) = 1‬‬
‫‪s∈S‬‬
‫לעצמו‪ .‬לכן על פי משפט נקודת השבת של ברואר יש לה נקודת שבת ולכן קיימת )‪ π ∈ ∆ (S‬כך ש־ ‪.π = πP‬‬
‫‪µ0‬‬
‫‪n+1‬‬
‫הוכחה שנייה‪ :‬נתבונן במידות מהצורה ) ‪(I + P + ... + P n‬‬
‫מתכנסת למידה סטציונרית שכן‪:‬‬
‫‬
‫‪ n+1‬‬
‫‪P‬‬
‫~ ∞→‪− I n‬‬
‫‪νn (P − I) = µ0‬‬
‫‪−→ 0‬‬
‫‪n+1‬‬
‫=‪ .νn :‬אם הסדרה הזו הייתה מתכנסת אז היינו מקבלים שהיא‬
‫כאשר עושים שימוש בכך ש־ ‪ P n‬הן מטריצות סטוכסטיות שערכיהן חסומים ע"י ‪ .1‬בכל מקרה מדובר בסדרה חסומה ולכן קיימת‬
‫לה תת־סדרה מתכנסת לאיזושהי מידה ‪ π‬וזוהי מידה סטציונרית שכן מרציפות של )‪ (P − I‬מתקבל ש‪:‬‬
‫‪π (P − 1) = lim νnk (P − I) = 0‬‬
‫∞→‪n‬‬
‫הוכחה שלישית )חלקית(‪ :‬מאחר ש־ ‪ P‬היא מטריצה סטוכסטית ‪ 1‬הוא ערך עצמי ימני שלה עם וקטור עצמי ‪ .~1‬לכן יש ל־ ‪ P‬וקטור‬
‫עצמי שמאלי המקיים ‪ π = πP‬אולם לא ברור באופן מיידי ש־ )‪ .π ∈ ∆ (S‬מאידך משפט פרון־פורבניוס נותן את התוצאה הזו‪.‬‬
‫תרגיל‪ :‬נתבונן במהלך מקרי פשוט ‪ {Xt }t‬על גרף לא מכוון וסופי )‪ G = (V, E‬כאשר הערך של ‪ Xt+1‬נבחר בהתפלגות אחידה‬
‫)‪ π (x) = deg(x‬מהווה מידת הסתברות סטציונרית כאשר ערכי מטריצת המעברים נתונים על ידי‪:‬‬
‫מבין השכנים של ‪ .Xt‬אזי |‪2|E‬‬
‫‪1‬‬
‫}‪1{x∼y‬‬
‫))‪deg ((x, y‬‬
‫= )‪P (x, y‬‬
‫אם הגרף איננו סופי אך קשיר ועם דרגות קודקודים סופיות )‪ π (x) = deg (x‬היא מידה סטציונרית אך איננה מידה סופית‪.‬‬
‫דוגמה ‪ 6.13‬נתבונן בשרשרת מרקוב עם מרחב מצבים ‪ N‬ופונקציית מעברים ‪ .P (n, n + 1) = 1‬במקרה הנ"ל לא קיימת התפלגות‬
‫סטציונרית שכן אם הייתה קיימת התפלגות אז היה מתקיים ‪ π (0) = πP (0) = 0‬וכנ"ל ‪ π (1) = πP 2 (1) = 0‬וכן הלאה‬
‫‪ π (n) = πP n (n) = 0‬ומכך ‪ π ≡ 0‬וזוהי כמובן איננה מידת הסתברות‪.‬‬
‫הגדרה ‪ 6.14‬שרשרת מרקוב אי־פריקה‪:‬‬
‫שרשרת מרקוב ) ‪ (S, P‬תקרא אי־פריקה אם לכל ‪ x, y ∈ S‬קיים ‪ n ∈ N‬כך ש־ ‪.P n (x, y) > 0‬‬
‫הערה ‪ 6.15‬אי־פריקות לא תלויה בהסתברויות המעברים אלא רק בגרף המעברים של השרשרת )הגרף המכוון שבו קיימת קשת‬
‫‪ x → y‬אמ"מ ‪ (P (x, y) > 0‬ולמעשה אי־פריקות שקולה לקשירות חזקה של הגרף הנ"ל‪.‬‬
‫‪49‬‬
‫‪6‬‬
‫שרשראות מרקוב‪:‬‬
‫הגדרה ‪ 6.16‬פונקציה הרמונית על שרשרת מרקוב‪:‬‬
‫בהנתן שרשרת מרקוב ) ‪ (S, P‬פונקציה ‪ h : S → R‬תקרא הרמונית אם ‪.h = P h‬‬
‫הערה ‪ 6.17‬בפועל נתייחס ל־ ‪ h‬בתור וקטור ב־ ‪.RS‬‬
‫הערה ‪ 6.18‬אם ‪ µ‬היא התפלגות על ‪ S‬ו־ ‪ f : S → R‬היא פונקציה אז מתקיים‪:‬‬
‫‪X‬‬
‫= ))‪Eµ (f (Z‬‬
‫‪µ (x) f (x) = µ · f‬‬
‫‪x∈S‬‬
‫כאשר ‪ Z‬הוא מ"מ עם התפלגות ‪.µ‬‬
‫דוגמה ‪ 6.19‬בהנתן שרשרת מרקוב ) ‪ (S, P‬ו־ ‪ x ∈ S‬נתבונן במידת ההסתברות ]‪ ex : S → [0, 1‬הנתונה ע"י‪:‬‬
‫(‬
‫‪1 z=x‬‬
‫= )‪ex (z‬‬
‫‪0 z 6= x‬‬
‫נשים לב שבהגדרה הזו בהנתן פונקציה ‪) h : S → R‬וקטור ‪ (h ∈ RS‬נקבל כי )‪ ex · h = h (x‬וכמו כן‪:‬‬
‫‪X‬‬
‫= ‪(ex P ) · h‬‬
‫)) ‪(ex P ) (x) h (x) = Eµ0 (h (X1‬‬
‫‪x∈S‬‬
‫כאשר ‪ X0 , X1 , ..‬היא שרשרת מרקוב עם מטריצת מעברים ‪ P‬המתחילה ב־ ‪ X0 ≡ x‬ו־ ‪ µ0‬הוא הפילוג של ‪.X0‬‬
‫הערה ‪ 6.20‬במילים אחרות ניתן לראות ש־ ) ‪ h (Xn‬הוא מרטינגל )לכל תנאי התחלה(‪:‬‬
‫] ‪P (Xn+1 = y|X1 = x1 , ..., Xn = xn ) h (y) = E [h (Xn+1 ) | X1 = x1 , ..., Xn = xn‬‬
‫‪X‬‬
‫= )‪P (Xn , y) h (y‬‬
‫‪y∈S‬‬
‫‪X‬‬
‫= ) ‪h (Xn‬‬
‫‪y∈S‬‬
‫כאשר זוהי התוחלת המותנית על סמך תכונת מרקוב של השרשרת‪:‬‬
‫משפט ‪ 6.21‬פונקציה הרמונית על שרשרת מרקוב סופית ואי פריקה היא קבועה‪:‬‬
‫תהא ) ‪ (S, P‬שרשרת מרקוב אי־פריקה עם מרחב מצבים סופי ותהא ‪ h : S → R‬פונקציה הרמונית על ‪ P‬אזי ‪ h‬קבועה‪.‬‬
‫הוכחה‪ :‬יהא ‪ M‬המקסימום של ‪ h‬ונניח כי ‪ h (x) = M‬עבור ‪ x ∈ S‬כלשהו‪ .‬כעת ניתן לראות כי‪:‬‬
‫‪X‬‬
‫‪X‬‬
‫‪X‬‬
‫= )‪M = h (x‬‬
‫≤ )‪P (x, y) h (y‬‬
‫‪P (x, y) · M = M‬‬
‫‪P (x, y) = M‬‬
‫‪y∈S‬‬
‫‪y∈S‬‬
‫‪y∈S‬‬
‫בפרט שוויון מתקיים רק אם לכל ‪ y‬כך ש־ ‪ P (x, y) > 0‬מתקיים ‪ h (y) = M‬ולכן מאי־פריקות ‪ h (y) = M‬לכל ‪) y ∈ S‬יש צורך‬
‫להשתמש בטיעון אינדוקטיבי כדי להגיע למסקנה הסופית(‪.‬‬
‫מסקנה ‪ 6.22‬שרשרת מרקוב אי־פריקה עם מרחב מצבים סופי היא בעלת התפלגות סטציונרית יחידה‪:‬‬
‫לשרשרת מרקוב ) ‪ (S, P‬אי־פריקה ובעלת מרחב מצבים סופי קיימת התפלגות סטציונרית יחידה‪.‬‬
‫הוכחה‪ :‬נתבונן במרחב הוקטורים העצמיים הימניים עם ערך עצמי ‪ 1‬שהוא בדיוק מרחב הפונקציות ההרמונית }‪ ,{h | h = P h‬הראינו‬
‫במשפט הקודם שהמרחב הנ"ל הוא חד־ממדי שכן כל הפונקציות ההרמוניות הללו הן קבועות‪ .‬לכן גם המרחב של הוקטורים העצמיים‬
‫השמאליים עם ערך עצמי ‪ 1‬הוא חד ממדי והמרחב הנ"ל } ‪ {π | π = πP‬הוא בדיוק מרחב המידות הסטציונריות המסומנות‪ .‬מאחר‬
‫שהראינו כבר קיום של התפלגות סטציונרית עבור שרשרת מרקוב סופית נסיק שמידת ההסתברות הזו היא יחידה )שכן כפל שלה‬
‫בקבוע לא יהיה מידת הסתברות(‪.‬‬
‫‪50‬‬
‫‪6‬‬
‫‪6.1‬‬
‫שרשראות מרקוב‪:‬‬
‫מחזוריות והתכנסות לסטציונריות‪:‬‬
‫מסקנה ‪6.23‬‬
‫במקרה של מהלך מקרי פשוט על גרף לא מכוון וסופי ‪ G‬אי־פריקות של השרשרת שקולה לקשירות של ‪ G‬עצמו ולכן על סמך המסקנה‬
‫אגב‪ :‬על גרף לא מכוון סופי וקשיר יש התפלגות סטציונרית יחידה‪.‬‬
‫הערות פשוט‬
‫מהלך מקרי‬
‫הקודמת לכל‬
‫‪ 6.24‬שתי‬
‫הערה‬
‫• באופן כללי עבור שרשרת מרוקב סופית התפלגות סטציונרית יחידה לא גוררת אי־פריקות של השרשרת ואפשר להביא דוגמה‬
‫פשוטה עם שרשרת בעלת גרף מעברים עם שני קודקודים בלבד‪.‬‬
‫• אפשר להראות שלשרשרת מרקוב סופית יש התפלגות סטציונרית יחידה רק אם בגרף רכיבי הקשירות החזקים של גרף המעברים‬
‫של השרשרת יש רק עלה יחיד )עבור כל עלה קיימת התפלגות סטציונרית על רכיב הקשירות שמתאים לו וכל צירוף קמור של‬
‫התפלגויות הללו מגדיר התפלגות סטציונרית על השרשרת כולה ־ כל מה שהוא לא עלה יהיה בגבול אפס(‪.‬‬
‫‪6.1‬‬
‫מחזוריות והתכנסות לסטציונריות‪:‬‬
‫הגדרה ‪ 6.25‬בהנתן שרשרת מרקוב ) ‪ (S, P‬ו־ ‪ x ∈ S‬נסמן‪:‬‬
‫}‪Ax = {n ≥ 0 | P n (x, x) > 0‬‬
‫נגדיר ) ‪ ax = gcd (Ax‬הנ"ל מכונה המחזור של ‪.x‬‬
‫טענה ‪6.26‬‬
‫תרגיל בתורת המספרים‪ :‬אם ‪ A ⊆ N‬סגורה לחיבור אז ∞ < |)‪.|A4 (gcd (A) N‬‬
‫למה ‪ 6.27‬בשרשרת מרקוב אי־פריקה כל המחזורים שווים‪:‬‬
‫אם ) ‪ (S, P‬היא שרשרת מרקוב אי־פריקה אז כל המחזורים שווים ) ‪ ax = ay‬לכל ‪.(x, y ∈ S‬‬
‫הוכחה‪ :‬בהנתן ‪ x, y ∈ S‬מאי־פריקות קיימים ‪ m, l‬כך ש־ ‪ P m (x, y) > 0‬ו־ ‪ .P l (y, x) > 0‬מכך נקבל כי ‪Ay + m + l ⊆ Ax‬‬
‫ולכן על סמך טענה ‪ 6.26‬מקבלים כי ) ‪ .gcd (Ax ) ≤ gcd (Ay‬מטעמי סימטריה מתקיים גם השוויון ההפוך ולכן מתקיימת המסקנה‬
‫הנדרשת‪.‬‬
‫הגדרה ‪ 6.28‬שרשרת מרקוב לא מחזורית‪:‬‬
‫שרשרת מרקוב ) ‪ (S, P‬תקרא לא־מחזורית אם ‪ ax = 1‬לכל ‪.x ∈ S‬‬
‫תרגיל‪ :‬מהלך מקרי פשוט על גרף לא מכוון הוא מחזורי אמ"מ הגרף הוא דו־צדדי‪.‬‬
‫טענה ‪ 6.29‬תכונה של שרשרת מרקוב אי־פריקה ולא מחזורית‪:‬‬
‫תהא ) ‪ (S, P‬שרשרת מרקוב אי־פריקה סופית ולא־מחזורית אזי קיים ‪ r > 0‬כך שלכל ‪ x, y ∈ S‬מתקיים ‪.P r (x, y) > 0‬‬
‫הוכחה‪ :‬מאי־מחזוריות לכל ‪ x ∈ S‬מתקיים ‪ gcd (Ax ) = ax = 1‬ולכן טענה ‪ .|N\Ax | < ∞ 6.26‬כעת בהנתן ‪ x, y ∈ S‬נתבונן ב‪:‬‬
‫}‪Axy = {n ≥ 0 | P n (x, y) > 0‬‬
‫מאי־פריקות קיים ‪ m ∈ Axy‬ולכן ‪ m + Ax ⊆ Axy‬ומכך ∞ < | ‪ |N\Axy‬ובפרט נוכל לקחת את ‪Axy‬‬
‫‪T‬‬
‫‪.r = max‬‬
‫‪x,y‬‬
‫הערה ‪ 6.30‬הקשר המשמעותי בין מחזוריות והתכנסות לסטציונריות הוא שלא תתכן התכנסות לסטציונריות כאשר יש מחזוריות שכן‬
‫אם למשל יש מחזור ‪ 3‬ב־ ‪ x ∈ S‬אז ידוע לנו שבכל הזמנים שלא מתחלקים ב־ ‪ 3‬לא נוכל להגיע ל־ ‪ .x‬אולם ראינו שבמקרה של‬
‫∞→‪n‬‬
‫אי־פריקות אם קיימת התפלגות הסטציונרית היא נותנת הסתברות חיובית לכל המעברים האפשריים ולא ייתכן ש־ ‪µ0 P n −→ π‬‬
‫כאשר ‪ πi > 0‬לכל ‪ i‬אם ‪ (pn )ii = 0‬לכל ‪ n‬שמתחלק ב־ ‪ .3‬המשפט הבא מפרמל את הקשר הנ"ל‪.‬‬
‫משפט ‪ 6.31‬עבור שרשרת מרקוב סופית‪ ,‬אי־פריקה ולא מחזורית קיימת התכנסות להתפלגות סטציונרית‪:‬‬
‫∞→‪n‬‬
‫תהא ) ‪ (S, P‬שרשרת מרקוב אי־פריקה ולא מחזורית עם ‪ S‬סופית‪ .‬אזי קיים התפלגות ‪ π‬כך שלכל התפלגות ‪ µ‬מתקיים ‪.µP n −→ π‬‬
‫ליתר דיוק קיים ‪ 0 < α < 1‬כך שלכל ‪ µ0‬מתקיים ‪.kµP n − πkL1 ≤ 2αn‬‬
‫‪51‬‬
‫‪6.1‬‬
‫‪6‬‬
‫מחזוריות והתכנסות לסטציונריות‪:‬‬
‫שרשראות מרקוב‪:‬‬
‫הוכחה‪ :‬על סמך טענות קודמות ידוע לנו כבר שקיימת התפלגות סטציונרית יחידה על ) ‪ (S, P‬שנסמנה ‪ .π‬על סמך טענה ‪ 6.29‬קיים‬
‫‪ r > 0‬כך שלכל ‪ x, y ∈ S‬מתקיים ‪ P r (x, y) > 0‬ונניח ראשית ש־ ‪ .r = 1‬מאחר ש־ ‪ S‬סופית קיים ‪ β > 0‬כך שלכל ‪x, y ∈ S‬‬
‫מתקייים )‪ .P (x, y) ≥ βπ (y‬כעת לכל ‪ x‬ניתן להציג את )‪ P (x, y‬בצורה‪:‬‬
‫)·( ‪P (x, ·) = βπ (·) + ανx‬‬
‫כאשר ‪ α = 1 − β‬ו־ ‪ νx‬היא התפלגות על ‪ .S‬כנ"ל לכל ‪ µ‬ניתן לרשום ‪ µP = βπ + ανµ‬כאשר ‪ νµ‬היא גם כן התפלגות על ‪.S‬‬
‫נתחיל ב־ ‪ µ0‬ונקבל ש‪:‬‬
‫‪µ1 = µ0 P = βπ + αν1‬‬
‫כאשר ‪ .ν1 = νπ0‬נמשיך ונקבל‪:‬‬
‫‪µ2 = µ1 P = (βπ + αν1 ) P = βπP + αν1 P = βπ + αν1 P‬‬
‫כעת ניתן לפרק באופן דומה את ‪ ν1 P‬ולקבל ‪ ν1 P = βπ + αν2‬ולכן נקבל‪:‬‬
‫‬
‫‪µ2 = βπ + α (βπ + αν2 ) = (β + αβ) π + α2 ν2 = 1 − α2 π + α2 ν2‬‬
‫נמשיך באופן הנ"ל ונקבל כי‪:‬‬
‫‬
‫‬
‫‪µ3 = µ2 P = 1 − α2 π + α2 ν2 P = 1 − α3 π + α3 ν3‬‬
‫ובאינדוקציה‪:‬‬
‫‪νn−1 P − βπ‬‬
‫‪α‬‬
‫= ‪νn‬‬
‫; ‪µn = (1 − αn ) π + αn νn‬‬
‫מכך נקבל כי‪:‬‬
‫‪kµn − πkL1 = k(1 − αn ) π + αn νn − πkL1 = k−αn π + αn νn kL1 = αn kνn − πkL1 ≤ 2αn‬‬
‫כאשר ‪ kνn − πkL1‬שכן ‪ νn , π‬הן מידות הסתברות‪ .‬במקרה בו ‪ r 6= 1‬נתבונן בשרשרת ) ‪ (S, P r‬שהינה גם שרשרת אי־פריקה‬
‫∞→‪n‬‬
‫ולא־מחזורית ונקבל על סמך מה שהוכחנו ש־ ‪) µP rn −→ π‬עבור אותה ‪ π‬שכן ‪ π‬סטציונרית ביחס ל־ ‪ P r‬ויש יחידות(‪ .‬באותו‬
‫∞→‪n‬‬
‫אופן לכל ‪ 0 ≤ k < r‬נקבל ש ‪ µP rn+k −→ π‬במובן שבו‪:‬‬
‫‪ 0 rn+k‬‬
‫‬
‫‪ rn+k‬‬
‫‪µP‬‬
‫‪− π L1 ≤ 2αn = 2 α‬‬
‫‪0‬‬
‫∞→‪n‬‬
‫עבור ‪ 0 < α < 1‬ולכן ‪ ,µP n −→ π‬כנדרש‪.‬‬
‫הגדרה ‪ 6.32‬בהנתן שתי מידות הסתברות ‪ µ, ν‬על קבוצה סופית ‪ S‬נוכל להתבונן ב־ ‪ Total Variation Distance‬המוגדר ע"י‪:‬‬
‫|)‪dT V (µ, ν) = max |µ (A) − ν (A‬‬
‫‪A⊆S‬‬
‫אפשר להראות כי ‪kµ − vkL1‬‬
‫‪1‬‬
‫‪2‬‬
‫= )‪ dT V (µ, ν‬באמצעות התבוננות ב־ })‪.A = {x | µ (x) > ν (x‬‬
‫על סמך ההגדרה הזו אפשר לראות שנהיה יותר ויותר קשה להבחין בין המידות ‪ µP n‬והמידה הסטציונרית ‪.π‬‬
‫הערה ‪ 6.33‬מאחר ש־ ‪ S‬היא קבוצה סופית התכנסות של ההתפלגויות היא למעשה התכנסות של סדרות וקטורים ב־ ‪ RS‬ומבחינה‬
‫טופולוגית לא חשוב באיזה נורמה נבחר שכן המרחב הוא סוף ממדי‪.‬‬
‫‪52‬‬
‫‪6.2‬‬
‫‪6.2‬‬
‫‪6‬‬
‫נשנות של שרשראות מרקוב‪:‬‬
‫שרשראות מרקוב‪:‬‬
‫נשנות של שרשראות מרקוב‪:‬‬
‫הגדרה ‪ 6.34‬מצב נשנה בשרשרת מרקוב‪:‬‬
‫בהנתן שרשרת מרקוב ) ‪ (S, P‬מצב ‪ s ∈ S‬יקרא נשנה אם ‪ Ps (Ts+ < ∞) = 1‬כאשר‪:‬‬
‫}‪Ts+ = min {n ≥ 1 | Xn = s‬‬
‫הערה ‪ 6.35‬משמעות הסימון ‪ Ps‬הוא שהשרשרת מתחילה ב־ ‪.(X0 = s) s‬‬
‫הערה ‪ 6.36‬מצב שאיננו נשנה מכונה מצב חולף‪ .‬כמו כן מאופן ההגדרה ברור שמצב נשנה הוא מצב שבו נבקר אינסוף פעמים ומצב‬
‫חולף הוא מצב שבו נבקר רק מספר סופי של פעמים‪.‬‬
‫תרגיל‪ :‬בשרשרת מרקוב אי־פריקה כל המצבים נשנים או חולפים ביחד‪ .‬מעבר לכך לכל ‪ x, y ∈ S‬מתקיים‪:‬‬
‫‬
‫‪Px Ty+ < ∞ = 1‬‬
‫כלומר ההסתברות להגיע ל־ ‪ y‬בהנתן שהתחלנו ב־ ‪ x‬בזמן סופי היא ‪ 1‬לכל ‪.x, y ∈ S‬‬
‫משפט ‪ 6.37‬אפיון של המצבים בשרשרת מרקוב אי־פריקה‪:‬‬
‫בהנתן ) ‪ (S, P‬שרשרת מרקוב אי־פריקה לכל ‪ s ∈ S‬מתקיים‪:‬‬
‫‪−1‬‬
‫∞ = ‪Es (#visits to s) = Ps Ts+‬‬
‫הוכחה‪ :‬המשפט הוא תוצאה של כך שמספר הביקורים ב־ ‪ s ∈ S‬הוא גיאומטרי עם פרמטר )∞ = ‪) Ps (Ts+‬כאשר הצלחה משמעותה‬
‫שלא חזרנו ל־ ‪ s‬יותר(‪ .‬זוהי תוצאה של תכונת מרקוב החזקה לפיה אם ‪ T‬הוא זמן עצירה אז ‪ Yk = XT +k‬היא שרשרת מרקוב עם‬
‫אותן הסתברויות מעבר‪ ,‬כלומר‪:‬‬
‫)‪P ((XT , XT +1 , ..., XT +k ) ∈ A | X1 , ..., XT ) = Pµ ((X0 , ..., Xk ) ∈ A‬‬
‫כאשר ‪ µ‬היא ההתפלגות של ‪.XT‬‬
‫דוגמה ‪ 6.38‬נתבונן במהלך מקרי פשוט על ‪ ,Z‬ראינו כבר משיקולים של מרטינגלים שזוהי שרשרת מרקוב נשנית וזוהי כמובן גם‬
‫שרשרת אי־פריקה‪ .‬נשים לב כי‪:‬‬
‫)‪P0 (Xn = 0‬‬
‫∞‬
‫‪X‬‬
‫= }‪1{Xn =0‬‬
‫‪n=0‬‬
‫∞‬
‫‪X‬‬
‫= )‪E0 (#visits to 0‬‬
‫‪n=0‬‬
‫מאחר שזוהי שרשרת עם מחזור ‪ 2‬לא ניתן לחזור ל־ ‪ 0‬בזמנים אי־זוגיים ולכן נקבל‪:‬‬
‫‬
‫∞‬
‫ ∞‬
‫‪X‬‬
‫‪X‬‬
‫‪2n −2n‬‬
‫= )‪E0 (#visits to 0‬‬
‫= )‪P0 (X2n = 0‬‬
‫‪2‬‬
‫‪n‬‬
‫‪n=1‬‬
‫‪n=1‬‬
‫‪2n −2n‬‬
‫√ ∞‬
‫√ ∞‬
‫∞‬
‫‪X‬‬
‫‪X‬‬
‫‪4πn 2n‬‬
‫‪2‬‬
‫‪4πn X 1‬‬
‫‪e‬‬
‫√‬
‫≈‬
‫=‬
‫=‬
‫∞=‬
‫√‬
‫‪n 2‬‬
‫‪2πn‬‬
‫‪πn‬‬
‫‪2πn ne‬‬
‫‪n=1‬‬
‫‪n=1‬‬
‫‪n=1‬‬
‫בכך קיבלנו הוכחה נוספת לכך שזוהי שרשרת מרקוב נשנית‪.‬‬
‫דוגמה ‪ 6.39‬נתבונן במהלך מקרי פשוט על ‪ .Z2‬אם ציר ‪ X‬ו־ ‪ Y‬היו בלתי־תלויים אז על סמך הדוגמה הקודמת היינו מקבלים ש‪:‬‬
‫‪1‬‬
‫‪1‬‬
‫‪1‬‬
‫√ ≈ )‪P0 (X2n = 0‬‬
‫√·‬
‫=‬
‫‪πn‬‬
‫‪πn‬‬
‫‪πn‬‬
‫‪53‬‬
‫‪6.2‬‬
‫‪6‬‬
‫נשנות של שרשראות מרקוב‪:‬‬
‫שרשראות מרקוב‪:‬‬
‫מכך היינו מסיקים ש־ ∞ = )‪ E0 (#visits to 0‬ולכן השרשרת נשנית‪ .‬נתבונן בתהליך אחר ‪ Yn‬שבו בכל שלב תמיד עושים צעד אחד‬
‫בציר ה־ ‪ X‬וצעד אחד בציר ה־ ‪ ,Y‬בתהליך הנ"ל נקבל שזזים על האלכסונים בגריד של ‪ Z2‬ולמעשה מתקבל שיקוף ב־ ‪ 45‬מעלות של‬
‫הגריד ‪ Z2‬אולם בגריד הנ"ל ציר ה־ ‪ X‬וציר ה־ ‪ Y‬כן בלתי־תלויים ולכן ההסתברות שנגיע לקודקוד מסוים שווה למכפלת ההסתברויות‬
‫‪1‬‬
‫‪1‬‬
‫‪P0 (X2n = 0) ≈ πn‬‬
‫‪ . P (Y2n = 0) = πn‬מאחר שכיוון הגריד לא משנה נסיק שגם מתקיים‬
‫שנגיע לשיעורי ה־ ‪ X, Y‬שלו ובפרט‬
‫ולכן אפס הוא מצב נשנה של השרשרת המקורית‪.‬‬
‫דוגמה ‪ 6.40‬באופן כללי יותר במהלך מקרי פשוט על ‪ Zd‬אפשר להראות שכאשר מבצעים ‪ n‬צעדים מספר הצעדים בכל ציר מרוכז‬
‫‪n‬‬
‫סביב ‪ nd‬והסיכוי לעשות פחות מ־‬
‫‪ 2d‬צעדים בציר מסוים קטן אקספוננציאלית ב־ ‪ .n‬בפרט עבור ‪ d = 3‬בהנתן שעשינו ‪ 2n1‬צעדים‬
‫בציר ה־ ‪ 2n2 ,X‬צעדים בציר ה־ ‪ Y‬ו־ ‪ 2n3‬צעדים בציר ה־ ‪) Z‬שזהו המקרה הסביר( נקבל כי‪:‬‬
‫‬
‫‬
‫‬
‫‬
‫‪C‬‬
‫‪2n1‬‬
‫‪2n2‬‬
‫‪2n3‬‬
‫‪1‬‬
‫‪≤ 3‬‬
‫√ ‪· 2−2(n1 +n2 +n3 ) ≈ 3‬‬
‫‪n1‬‬
‫‪n2‬‬
‫‪n3‬‬
‫‪π 2 n1 n2 n3‬‬
‫‪n2‬‬
‫לכן נקבל כי‪:‬‬
‫∞<‬
‫∞‬
‫‪X‬‬
‫‪C‬‬
‫‪3‬‬
‫‪n2‬‬
‫≤ )‪=⇒ E0 (#visits to 0‬‬
‫‪n=1‬‬
‫‪C‬‬
‫‪3‬‬
‫‪2‬‬
‫‪n‬‬
‫≤ )‪P (X2n = 0‬‬
‫לכן נסיק שההילוך המקרי הפשוט על ‪ Zd‬עבור ‪ d ≥ 3‬הוא חולף‪.‬‬
‫תזכורת ‪ 6.41‬בהנתן שרשרת מרקוב ) ‪ (S, P‬פונקציה ‪ h : S → R‬תקרא הרמונית אם ‪ h = P h‬או לחילופין לכל ‪:x ∈ S‬‬
‫‪X‬‬
‫= )‪h (x‬‬
‫)‪P (x, y) h (y‬‬
‫‪y∈S‬‬
‫הגדרה ‪ 6.42‬תכונת ליוביל של שרשרת מרקוב‪:‬‬
‫שרשרת מרקוב ) ‪ (S, P‬תקרא ליוביל אם הפונקציות ההרמוניות החסומות היחידות הן הקבועות‪.‬‬
‫הערה ‪ 6.43‬ראינו במשפט ‪ 6.21‬ששרשרת מרקוב סופית ואי־פריקה היא ליוביל‪.‬‬
‫משפט ‪ 6.44‬שרשרת מרקוב אי־פריקה ונשנית היא ליוביל‪:‬‬
‫אם ) ‪ (S, P‬היא שרשרת מרקוב אי־פריקה ונשנית אז היא ליוביל‪.‬‬
‫‬
‫הוכחה‪ :‬נקבע ‪ ,x, y ∈ S‬מההנחה שהשרשרת אי־פריקה ונשנית ידוע לנו על סמך תרגיל ש־ ‪ .Px Ty+ < ∞ = 1‬נתחיל שרשרת‬
‫מרקוב ב־ ‪ ,X0 = x‬ידוע לנו ש־ ) ‪ f (Xn‬הוא מרטינגל חסום‪ .‬לכן מאחר ש־ ‪ Ty+‬הוא זמן עצירה סופי נקבל ממשפט ‪ OST‬שמתקיים‪:‬‬
‫ ‪h‬‬
‫‪i‬‬
‫)‪f (x) = f (X0 ) = E f XTy+ =E [f (y)] = f (y‬‬
‫מסקנה ‪6.45‬‬
‫ראינו כבר שמהלך מקרי פשוט על ‪ Z‬ו־ ‪ Z2‬הוא נשנה ואי־פריק ולכן הן ליוביל‪ .‬מאידך ראינו שמהלך מקרי פשוט על ‪ Zd‬עבור ‪d ≥ 3‬‬
‫איננו נשנה אולם מתברר שהוא עדיין ליוביל )הוכחה קשה(‪.‬‬
‫תרגיל‪ :‬אם ) ‪ (S, P‬היא שרשרת מרקוב אי־פריקה ונשנית אז לא קיימות פונקציות הרמוניות חיוביות ולא קבועות על ‪.S‬‬
‫הערה ‪ 6.46‬הטענה הזו נכונה גם עבור ‪ Zd‬לכל ‪ d‬גם כאשר השרשרת לא נשנית אבל ההוכחה לא פשוטה‪.‬‬
‫‪54‬‬
‫‪7‬‬
‫‪7‬‬
‫‪7.1‬‬
‫משפט הגבול המרכזי‪:‬‬
‫משפט הגבול המרכזי‪:‬‬
‫התכנסות חלשה‪:‬‬
‫תזכורת ‪ 7.1‬בהנתן סדרת מ"מ ‪) Xn ∼ Fn‬כלומר ‪ Fn‬היא ה־ ‪ CDF‬של ‪ (Xn‬נאמר ש־ ‪ Xn‬מתכנסת בהתפלגות למ"מ ‪ X ∼ F‬ונסמן‬
‫∞→‪n‬‬
‫‪D‬‬
‫‪D‬‬
‫‪ Xn −→ X‬או ‪ Fn −→ F‬אם )‪ Fn (t) −→ F (t‬בכל ‪ t‬שהיא נקודת רציפות של ‪.F‬‬
‫הגדרה ‪ 7.2‬התכנסות חלשה‪:‬‬
‫‪W‬‬
‫נאמר שסדרת מידות ‪) µn‬המוגדרות באותו מרחב( מתכנסת חלש למידה ‪ µ‬ונסמן ‪ µn −→ µ‬אם לכל ]‪ h : R → [0, 1‬רציפה חסומה‪:‬‬
‫‪X∼µ‬‬
‫∞→‪n‬‬
‫; ])‪E [h (Xn )] −→ E [h (X‬‬
‫‪Xn ∼ µn‬‬
‫כאשר משמעות הסימון ‪ Xn ∼ µn‬היא ש־ ‪ Xn‬הוא מ"מ כך שלכל ‪ A ∈ F‬מתקיים )‪.P (Xn ∈ A) = µn (A‬‬
‫‪W‬‬
‫‪W‬‬
‫הערה ‪ 7.3‬סימון‪ :‬אם ‪ Xn ∼ µn‬ו־ ‪ Xn ∼ µ‬ו־ ‪ µn −→ µ‬אז נסמן גם ‪.Xn −→ X‬‬
‫הערה ‪ 7.4‬עבור מ"מ ממשי ‪ X ∼ F‬ישנה מידת הסתברות ]‪ µ : R → [0, 1‬המוגדרת ע"י )‪ µ ((−∞, x]) = F (x‬והרחבה על סמך‬
‫משפט קרטיאודורי‪ .‬לחילופין כל מידת הסתברות ]‪ µ : B (R) → [0, 1‬מגדירה משתנה מקרי ממשי עם התפלגות מצטברת הנתונה על‬
‫ידי )]‪) F (x) = µ ((−∞, x‬תמיד אפשר למצוא מרחב הסתברות מתאים ככה שמוגדר משתנה מקרי כנ"ל(‪.‬‬
‫משפט ‪ 7.5‬התכנסות חלשה שקולה להתכנסות בהתפלגות‪:‬‬
‫‪W‬‬
‫‪D‬‬
‫תהא ‪ Xn ∼ Fn‬סדרת מ"מ אזי ‪ Xn −→ X ∼ F‬אמ"מ ‪.Xn −→ X‬‬
‫∞→‪n‬‬
‫‪W‬‬
‫הוכחה‪ ⇐= :‬נניח כי ‪ µn −→ µ‬ויהיו ‪ X ∼ µ ,Xn ∼ µn‬ו־ ‪ x‬נקודת רציפות של ‪ ,F‬נראה כי )‪ .Fn (x) −→ F (x‬נתבונן‬
‫בפונקציה‪:‬‬
‫‪‬‬
‫‪‬‬
‫‪y≤x‬‬
‫‪1‬‬
‫‪y−x‬‬
‫‪hδ (y) = 1 − δ‬‬
‫‪x<y <x+δ‬‬
‫‪‬‬
‫‪‬‬
‫‪0‬‬
‫‪y ≥x+δ‬‬
‫עבור ‪ δ > 0‬כלשהו‪ .‬זוהי פונקציה רציפה וחסומה ולכן מהתכנסות חלשה נקבל כי‪:‬‬
‫‬
‫‬
‫‬
‫‬
‫∞→‪n‬‬
‫)‪Fn (x) = E 1{Xn ≤x} ≤ E [hδ (Xn )] −→ E [hδ (X)] ≤ E 1{X≤x+δ} = F (x + δ‬‬
‫מכך מרציפות מימין של ‪ F‬ומכך שהנ"ל נכון לכל ‪ δ > 0‬נסיק כי‪:‬‬
‫‪δ→0‬‬
‫)‪lim sup Fn (x) ≤ F (x + δ) −→ F (x‬‬
‫∞→‪n‬‬
‫מאידך נתבונן בפונקציה‪:‬‬
‫‪y ≤x−δ‬‬
‫‪x−δ <y <x‬‬
‫‪y≥x‬‬
‫)‪y−(x−δ‬‬
‫‪δ‬‬
‫‪‬‬
‫‪‬‬
‫‪1‬‬
‫‪gδ (y) = 1 −‬‬
‫‪‬‬
‫‪‬‬
‫‪0‬‬
‫מרציפות של ‪ F‬ב־ ‪ x‬ושיקולים דומים לכיוון השני נקבל כי‪:‬‬
‫∞→‪n‬‬
‫)‪Fn (x) ≥ E [gδ (Xn )] −→ E [gδ (X)] ≥ F (x − δ‬‬
‫‪δ→0‬‬
‫)‪=⇒ lim inf Fn (x) ≥ F (x − δ) −→ F (x‬‬
‫∞→‪n‬‬
‫לכן קיבלנו את הנדרש‪:‬‬
‫)‪lim inf Fn (x) = F (x) = lim sup Fn (x) =⇒ lim Fn (x) = F (x‬‬
‫∞→‪n‬‬
‫∞→‪n‬‬
‫‪55‬‬
‫∞→‪n‬‬
‫‪7‬‬
‫‪7.1‬‬
‫משפט הגבול המרכזי‪:‬‬
‫התכנסות חלשה‪:‬‬
‫‪a.s‬‬
‫‪D‬‬
‫⇒= נניח ש־ ‪ ,Fn −→ F‬נראה שקיימים מ"מ ‪ Xn , X‬כך ש־ ‪ X ∼ F ,Xn ∼ Fn‬ובנוסף ‪ .Xn −→ X‬נגדיר‪:‬‬
‫]‪X + (w) = inf {z ∈ R | F (z) > w} , w ∈ [0, 1‬‬
‫]‪Xn+ (w) = inf {z ∈ R | Fn (z) > w} , w ∈ [0, 1‬‬
‫אלו הן ה־ ‪ Psuedo-Inverse‬של ‪ F‬ו־ ‪ Fn‬בהתאמה‪ .‬נקבע ]‪ w ∈ [0, 1‬ונשים לב שעבור ‪ z‬כלשהו מתקיים )‪ z > X + (w‬אמ"מ‬
‫∞→‪n‬‬
‫‪ .F (z) < w‬כעת אם ‪ z‬היא לא אטום )נקודת רציפות( של ‪ F‬אז מההנחה )‪ Fn (z) −→ F (z‬ולכן עבור ‪ n‬מספיק גדול )‪w < Fn (z‬‬
‫)כאשר מסתמכים על כך ש־ ‪ Fn‬הן פונקציות עולות חלש( ומכך ‪ . Xn+ (w) ≤ z‬מאחר שיש לכל היותר מספר בן־מנייה של אטומים‬
‫של ‪ F‬אפשר לבחור סדרה )‪ zk & X + (w‬שכולם לא אטומים ולקבל כי‪:‬‬
‫)‪lim sup Xn+ (w) ≤ zk & X −1 (w‬‬
‫∞→‪n‬‬
‫מאידך נוכל להגדיר‪:‬‬
‫]‪X − (w) = inf {z ∈ R | F (z) ≥ w} , w ∈ [0, 1‬‬
‫]‪Xn− (w) = inf {z ∈ R | Fn (z) ≥ w} , w ∈ [0, 1‬‬
‫באמצעות שיקולים דומים נקבל כי‪:‬‬
‫)‪lim inf Xn− (w) ≥ X − (w‬‬
‫∞→‪n‬‬
‫אולם נשים לב ש־ )‪ Xn+ (w) = Xn− (w‬פרט למספר בן־מנייה של נקודות שכן עבור כל ‪ w‬כנ"ל יש קטע ])‪ [Xn− (w) , Xn+ (w‬שבו‬
‫‪a.s‬‬
‫‪a.s‬‬
‫‪ Fn‬שקבועה והקטעים האלו הם זרים‪ .‬לכן ‪ Xn+ = Xn−‬ומכך ‪ .Xn+ −→ X‬כעת בהנתן ‪ Xn ∼ Fn‬ו־ ‪ X ∼ F‬כנ"ל ופונקציה רציפה‬
‫‪a.s‬‬
‫]‪ h : R → [0, 1‬מרציפות נקבל כי )‪ h (Xn ) −→ h (X‬ומכך ש־ ‪ h‬חסומה נקבל ממשפט ההתכנסות החסומה ש‪:‬‬
‫∞→‪n‬‬
‫])‪E [h (Xn )] −→ E [h (X‬‬
‫‬
‫הערה ‪ 7.6‬אם נתבונן ב־ ]∞ ‪ R = [−∞,‬ונתבונן במרחב ‪ C R‬של פונקציות רציפות )ולכן חסומות( משפט ריס אומר לנו שהמרחב‬
‫הדואלי הוא מרחב המידות הסופיות המסומנות על ‪ .R‬מידות הסתברות הן תת־קבוצה סגורה של כדור היחידה במרב הזה ולכן‬
‫משפט´ בנך־אלאוגולו´ אומר שזוהי קבוצה קומפקטית ביחס לטופולוגיה החלשה־* שהיא הטופולוגיה שבה התכנסות נתונה על ידי‬
‫∞→‪n‬‬
‫‪ hdµn −→ hdµ‬לכל ‪.h ∈ C R‬‬
‫למה ‪ 7.7‬הלמה של ‪:Helly-Bray‬‬
‫∞‬
‫תהא ‪ {Fn }n=1‬סדרה של ‪ CDF‬אז קיימת ת"ס ‪ nk‬ופונקציה עולה חלש ורציפה מימין ‪ F‬כך שלכל ‪ x‬שהיא נקודת רציפות של ‪F‬‬
‫∞→‪k‬‬
‫מתקיים )‪.Fnk (x) −→ F (x‬‬
‫∞‬
‫הוכחה‪ :‬נקבע מנייה של הרציונליים ‪ {ri }i=1‬ונקח תת־סדרה ‪ n1k‬שעבורה ) ‪ Fn1k (r1‬מתכנס ואז בטיעון אלכסון סטנדרטי תת־סדרה‬
‫‪ n2k ⊆ n1k‬שעבורה ) ‪ Fn2k (r2‬מתכנס‪ .‬לבסוף נקח את האלכסון ‪ nk := nkk‬ועבורו נגדיר לכל ‪ r ∈ Q‬פונקציה ‪ G‬על ידי‪:‬‬
‫)‪G (r) = lim Fnk (r‬‬
‫∞→‪k‬‬
‫זוהי פונקציה עולה חלש כגבול של פונקציות עולות חלש‪ .‬נגדיר‪:‬‬
‫}‪F (x) = inf {G (r) | r > x, r ∈ Q‬‬
‫‪56‬‬
‫‪7‬‬
‫‪7.2‬‬
‫משפט הגבול המרכזי‪:‬‬
‫משפט הגבול המרכזי‪:‬‬
‫זוהי פונקציה עולה חלש ורציפה מימין‪ .‬נניח ש־ ‪ x‬היא נקודת רציפות של ‪ ,F‬מכך לכל ‪ ε > 0‬קיימים ‪ r1 < x < r2‬רציונליים כך ש־‬
‫‪ .|F (r1 ) − F (r2 )| < ε‬מהגדרת ‪ F‬קיימים ‪ r3 < x < r4‬רציונליים כך ש־ ‪ |G (r3 ) − G (r4 )| < 2ε‬ומכך מהגדרת ‪ G‬נקבל‪:‬‬
‫‬
‫‬
‫‬
‫‬
‫‪ lim Fn (r3 ) − lim Fn (rr ) < 2ε‬‬
‫‪k‬‬
‫‪k‬‬
‫‬
‫‬
‫∞→‪k‬‬
‫∞→‪k‬‬
‫מכך נסיק כי‪:‬‬
‫‬
‫‬
‫‬
‫‬
‫‪lim sup Fn (x) − lim inf Fn (x) < 2ε‬‬
‫‪k‬‬
‫‪k‬‬
‫‬
‫‬
‫∞→‪k‬‬
‫∞→‪k‬‬
‫∞→‪k‬‬
‫מאחר והנ"ך נכון לכל ‪ ε > 0‬נקבל כי הגבולות שווים ולכן )‪.Fnk (x) −→ F (x‬‬
‫הגדרה ‪ 7.8‬סדרת הדוקה של פונקציות ‪:CDF‬‬
‫∞‬
‫סדרת פונקציות ‪ {Fn }n=1 CDF‬תקרא הדוקה אם לכל ‪ ε > 0‬קיים ‪ K‬כך שלכל ‪ n‬מתקיים‪:‬‬
‫‪Fn (k) − Fn (−K) = µ ([−K, K]) ≥ 1 − ε‬‬
‫מסקנה ‪ 7.9‬מסקנה מהלמה של ‪) Helly-Bray‬ללא הוכחה(‪:‬‬
‫‪D‬‬
‫∞‬
‫אם ‪ {Fn }n=1‬היא סדרה הדוקה של פונקציות ‪ CDF‬אז קיימת ‪ F CDF‬ותת־סדרה ‪ nk‬כך ש־ ‪ .Fnk −→ F‬מאידך אם קיימת ת"ס‬
‫‪D‬‬
‫∞‬
‫‪ Fnk‬כך ש־ ‪ Fnk −→ F‬אז ‪ {Fn }n=1‬היא הדוקה‪.‬‬
‫‪7.2‬‬
‫משפט הגבול המרכזי‪:‬‬
‫משפט ‪ 7.10‬משפט הגבול המרכזי‪:‬‬
‫ ‬
‫‪i.i.d‬‬
‫בהנתן סדרת משתנים מקריים ‪ Xn ∼ F‬עם ‪ E [Xn ] = 0‬ו־ ‪ E Xn2 = 1‬אזי‪:‬‬
‫!‬
‫‪n‬‬
‫‪1 X‬‬
‫‪D‬‬
‫√ ‪L‬‬
‫)‪Xi −→ N (0, 1‬‬
‫‪n i=1‬‬
‫הנחה נוספת שקיים מומנט שלישי סופי מתקבל‬
‫הערה ‪ 7.11‬המשפט הנ"ל לא נותן לנו אינפורמציה על קצב ההתכנסות‪ .‬בתוספת ‪i‬של‬
‫‪h‬‬
‫‪3‬‬
‫משפט ‪ Berry-Esseen‬לפיו בתנאים של המשפט הקודם אם בנוסף ∞ < ‪ E |Xn | = M3‬אז קיים ‪ C ∈ R‬כך ש‪:‬‬
‫‪CM3‬‬
‫√ ≤ |)‪∀ n ∈ N : |Fn (x) − F (x‬‬
‫‪n‬‬
‫כאשר ‪ F‬היא ה־ ‪ CDF‬של מ"מ )‪.N (0, 1‬‬
‫‪ 7.2.1‬קצת הקדמה להוכחה‪:‬‬
‫ ‪ tX‬‬
‫‪) ϕX (t) = E e‬אם יש התכנסות( ובפרט‪:‬‬
‫נזכיר את הפונקציה יוצרת מומנטים של מ"מ ‪ X‬הנתונה ע"י‬
‫• כאשר ‪ X, Y‬ב"ת מתקבל ש־ )‪. ϕX+Y (t) = ϕX (t) · ϕY (t‬‬
‫• לכל ‪ a, b ∈ R‬מתקיים )‪.ϕaX+b (t) = etb ϕx (at‬‬
‫‪57‬‬
‫‪7.2‬‬
‫‪7‬‬
‫משפט הגבול המרכזי‪:‬‬
‫משפט הגבול המרכזי‪:‬‬
‫‪i.i.d‬‬
‫נניח ש־ ‪ Xn ∼ F‬עם תוחלת ‪ 0‬ושונות ‪ ,1‬במקרה שישנה התכנסות נקבל כי‪:‬‬
‫‬
‫‬
‫‬
‫‬
‫‬
‫‪t2 X 2‬‬
‫ ‪t2‬‬
‫‪t2‬‬
‫‪ϕX1 (t) = E etX = E 1 + tX +‬‬
‫‪+ ... = 1 + tE [X] + E X 2 + ... = 1 + + o t2‬‬
‫‪2‬‬
‫‪2‬‬
‫‪2‬‬
‫‪Pn‬‬
‫מכך נקבל כי עבור ‪ Sn = i=1 Xi‬מתקיים‪:‬‬
‫‬
‫‬
‫ ‪n‬‬
‫‬
‫‪ n n→∞ t2‬‬
‫‪t‬‬
‫‪t2‬‬
‫‪2‬‬
‫√‬
‫‪= ϕX1‬‬
‫‪= 1+ +o t‬‬
‫‪−→ e 2‬‬
‫‪2‬‬
‫‪n‬‬
‫‬
‫‪t‬‬
‫√‬
‫‪n‬‬
‫‬
‫‪Sn (t) = ϕS‬‬
‫√‪ϕ‬‬
‫‪n‬‬
‫‪n‬‬
‫‪t2‬‬
‫כאשר ידוע ש־ ‪ e 2‬היא הפונקציה יוצרת מומנטים של מ"מ )‪ .N (0, 1‬שתי שאלות שראוי לשאול הן‪:‬‬
‫‪ .1‬האם התכנסות של פונקציות יוצרות מומנטים גוררת התכנסות בהתפלגות?‬
‫‪ .2‬האם שוויון של כל המומנטים של שתי התפלגויות גורר שוויון של ההתפלגויות?‬
‫כמה עובדות‪:‬‬
‫• במידה והיא קיימת הפונקציה היוצרת מומנטים כן קובעת את ההתפלגות של משתנה מקרי‪.‬‬
‫• קיימות התפלגויות שיש להן מומנטים מכל סדר אבל הפונקציה יוצרת מומנטים לא מוגדרת לכל ‪) t 6= 0‬תרגיל(‪.‬‬
‫• באופן כללי המומנטים של ההתפלגות לא קובעים את ההתפלגויות )קיימים מ"מ עם התפלגויות שונות ומומנטים זהים(‪.‬‬
‫• עבור מ"מ חסום המומנטים כן קובעים את ההתפלגות של ‪) X‬רמז ־ להשתמש במשפט ויירשטראס על צפיפות הפולינומים(‪.‬‬
‫‪7.2.2‬‬
‫פונקציות אופייניות‪:‬‬
‫‬
‫הגדרה ‪ 7.12‬פונקציה אופיינית )‪ :(Characteristic Function‬‬
‫עבור מ"מ ‪ X‬הפונקציה האופיינית שלו ‪ ϕ : R → C‬מוגדרת ע"י ‪ .ϕX (t) = E eitX‬כמה תכונות שלה הן‪:‬‬
‫‪ .1‬מתקיים ‪ |ϕX (t)| ≤ 1‬לכל ‪ t‬ובפרט הנ"ל מוגדרת היטב תמיד עבור כל מ"מ‪.‬‬
‫‪ .2‬עבור ‪ X, Y‬ב"ת מתקיים )‪.ϕX+Y (t) = ϕX (t) · ϕY (t‬‬
‫‪ .3‬לכל ‪ a‬מתקיים )‪ ϕaX+b (t) = eitb ϕX (at‬ובפרט )‪.ϕ−X (t) = ϕX (−t) = ϕX (t‬‬
‫‪ ϕX .4‬רציפה במ"ש בכל ‪.R‬‬
‫‪ ϕX .5‬היא פונקציה ממשית אמ"מ ‪ X‬הוא מ"מ סימטרי ))‪ P (X > x) = P (X < −x‬לכל ‪.(x‬‬
‫תרגיל‪ :‬הוכח שלא קיימים מ"מ ‪ X, Y‬ב"ת כך ש־ ]‪.X − Y ∼ U [−1, 1‬‬
‫‪58‬‬
‫‪7.2‬‬
‫‪7‬‬
‫משפט הגבול המרכזי‪:‬‬
‫משפט הגבול המרכזי‪:‬‬
‫הערה ‪ 7.13‬עבור פונקציה ‪ f : R → R‬טרנספורם פורייה שלה נתון ע"י‪:‬‬
‫∞ˆ‬
‫= )‪fˆ (t‬‬
‫‪f (x) eitx dx‬‬
‫∞‪−‬‬
‫אם ‪ F‬היא ה־ ‪ CDF‬של מ"מ ‪ X‬אז באינטגרציית לבג־סטליג'ס מתקבל ש‪:‬‬
‫∞ˆ‬
‫‪eitx dF‬‬
‫= )‪ϕX (t‬‬
‫∞‪−‬‬
‫אם יש ל־ ‪ X‬יש צפיפות ‪ f = dF‬אז הפונקציה האופיינית היא ממש טרנספורם פורייה של הצפיפות‪:‬‬
‫∞ˆ‬
‫‪f (x) eitx dx‬‬
‫= )‪ϕX (t‬‬
‫∞‪−‬‬
‫דוגמה ‪ 7.14‬כמה דוגמאות‪:‬‬
‫‪ .1‬עבור מ"מ ‪ X = ±1‬עם הסתברות‬
‫‪1‬‬
‫‪2‬‬
‫נקבל כי‪:‬‬
‫‪eit + e−it‬‬
‫‪= cos t‬‬
‫‪2‬‬
‫= )‪ϕX (t‬‬
‫‪ .2‬עבור מ"מ )‪ X ∼ exp (1‬עם צפיפות }‪ f (x) = e−x 1{x≥0‬נקבל כי‪:‬‬
‫∞ˆ‬
‫∞ˆ‬
‫)‪ex(it−1‬‬
‫‪1‬‬
‫‪−x itx‬‬
‫= ‪ϕX (t) = e e dx‬‬
‫=‬
‫‪it − 1‬‬
‫‪1 − it‬‬
‫‪0‬‬
‫‪0‬‬
‫‪ .3‬עבור מ"מ אקספוננציאלי כפול המוגדר ע"י‪:‬‬
‫‪1‬‬
‫‪1‬‬
‫)‪Y1 Z − Y2 (1 − Z‬‬
‫‪2‬‬
‫‪2‬‬
‫כאשר ‪ Z = 0, 1‬עם הסתברות‬
‫‪1‬‬
‫‪2‬‬
‫=‪X‬‬
‫ו־ )‪ Y1 , Y2 ∼ exp (1‬ב"ת מתקבלת צפיפות |‪ f (x) = 21 e−|x‬ומקבלים כי‪:‬‬
‫‬
‫‬
‫‪1‬‬
‫‪1‬‬
‫‪1‬‬
‫‪1‬‬
‫= )‪ϕX (t‬‬
‫‪+‬‬
‫=‬
‫‪2 1 − it 1 + it‬‬
‫‪1 + t2‬‬
‫‪ .4‬עבור מ"מ נורמלי )‪ X ∼ N (0, 1‬נקבל כי‪:‬‬
‫‪t2‬‬
‫‪1 (x−it)2‬‬
‫‪√ e 2 dx = e− 2‬‬
‫‪2π‬‬
‫‪{z‬‬
‫}‬
‫∞ˆ‬
‫∞‪−‬‬
‫‪x2‬‬
‫‪t2‬‬
‫‪1‬‬
‫‪√ e− 2 eitx dx = e− 2‬‬
‫‪2π‬‬
‫∞ˆ‬
‫∞‪−‬‬
‫|‬
‫‪=1‬‬
‫כאשר האינטגרל המסומן שווה ל־ ‪ 1‬משיקולים של פונקציות מרוכבות‪.‬‬
‫הערה ‪ 7.15‬ניתן לראות בפרט כי הצפיפות של התפלגות נורמלית מהווה עד כדי נרמול נקודת שבת של טרנספורם פורייה‪.‬‬
‫‪59‬‬
‫‪7.2‬‬
‫‪7.2.3‬‬
‫‪7‬‬
‫משפט הגבול המרכזי‪:‬‬
‫משפט הגבול המרכזי‪:‬‬
‫התכנסות של פונקציות אופייניות‪:‬‬
‫טענה ‪7.16‬‬
‫יהא ‪ X ∼ µ‬מ"מ )‪ µ‬מידת הסתברות על ‪ (R‬אזי לכל ‪ a ∈ R‬מתקיים‪:‬‬
‫‪ˆT‬‬
‫‪e−ita ϕX (t) dt‬‬
‫‪1‬‬
‫‪T →∞ 2T‬‬
‫‪µ ({a}) = lim‬‬
‫‪−T‬‬
‫הוכחה‪ :‬על סמך משפט פוביני נקבל כי‪:‬‬
‫‪‬‬
‫‪ˆT‬‬
‫∞ˆ‬
‫‪−ita‬‬
‫‪eitX dµ (x) dt‬‬
‫‪ˆT‬‬
‫‪‬‬
‫‪ 1‬‬
‫‪2T‬‬
‫)‪eit(X−a) dt dµ (x‬‬
‫‪−T‬‬
‫‪‬‬
‫‪1‬‬
‫‪ϕX (t) dt = lim ‬‬
‫∞→ ‪T‬‬
‫‪2T‬‬
‫‪e‬‬
‫∞‪−‬‬
‫‪‬‬
‫‪ˆT‬‬
‫‪−ita‬‬
‫‪e‬‬
‫‪−T‬‬
‫‪1‬‬
‫‪lim‬‬
‫‪T →∞ 2T‬‬
‫‪−T‬‬
‫∞ˆ‬
‫‪ˆT‬‬
‫‪‬‬
‫‪e−ita eitX dt dµ (x) = lim‬‬
‫∞→ ‪T‬‬
‫∞‪−‬‬
‫‪‬‬
‫‪ 1‬‬
‫‪2T‬‬
‫‪−T‬‬
‫∞ˆ‬
‫‪= lim‬‬
‫∞→ ‪T‬‬
‫∞‪−‬‬
‫ממשפט ההתכנסות החסומה ניתן להכניס את הגבול לתוך האינטגרל החיצוני )התוחלת( שכן ‪eit(X−a) dt‬‬
‫‪‬‬
‫‪ˆT‬‬
‫‪‬‬
‫‪ lim 1‬‬
‫‪T →∞ 2T‬‬
‫)‪eit(X−a) dt dtdµ (x‬‬
‫∞ˆ‬
‫‪ˆT‬‬
‫‪‬‬
‫= )‪eit(X−a) dt dµ (x‬‬
‫∞‪−‬‬
‫‪−T‬‬
‫‪‬‬
‫‪ 1‬‬
‫‪2T‬‬
‫‪−T‬‬
‫‪´T‬‬
‫‪−T‬‬
‫‪1‬‬
‫‪2T‬‬
‫חסומה ומכך‪:‬‬
‫∞ˆ‬
‫‪lim‬‬
‫∞→ ‪T‬‬
‫∞‪−‬‬
‫נשים לב כי‪:‬‬
‫‪ˆT‬‬
‫‪‬‬
‫‪eit(X−a) dt |X=a ≡ 1‬‬
‫‪‬‬
‫‪ 1‬‬
‫‪2T‬‬
‫‪−T‬‬
‫מאידך אם ‪ X 6= a‬נקבל משיקולי מחזוריות וחסימות של הפונקציה מתחת לאינטגרל שמתקיים‪:‬‬
‫‪bounded and periodic‬‬
‫‪z‬‬
‫|}‬
‫{‬
‫‪ˆT‬‬
‫‪1‬‬
‫‪lim‬‬
‫‪eit(X−a) dt‬‬
‫‪=0‬‬
‫‪T →∞ 2T‬‬
‫‪−T‬‬
‫לכן סה"כ נקבל כי‪:‬‬
‫∞ˆ‬
‫‬
‫‬
‫)}‪1{X=a} (x) dµ (x) = Eµ 1{X=a} (x) = µ ({a‬‬
‫‪ˆT‬‬
‫‪‬‬
‫= ‪dt dtdµ‬‬
‫)‪it(X−a‬‬
‫‪e‬‬
‫∞‪−‬‬
‫‪−T‬‬
‫משפט ‪ 7.17‬נוסחת ההיפוך של לוי‪:‬‬
‫בהנתן מ"מ ‪ X ∼ µ‬ו־ ‪ a < b ∈ R‬מתקיים‪:‬‬
‫‪e−ita − eitb‬‬
‫‪1‬‬
‫)}‪ϕX (t) dt = µ ((a, b)) + µ ({a, b‬‬
‫‪it‬‬
‫‪2‬‬
‫‪ˆT‬‬
‫‪1‬‬
‫‪lim‬‬
‫∞→ ‪2π T‬‬
‫‪−T‬‬
‫‪60‬‬
‫‪‬‬
‫‪ lim 1‬‬
‫‪T →∞ 2T‬‬
‫∞ˆ‬
‫∞‪−‬‬
:‫משפט הגבול המרכזי‬
7
:‫משפט הגבול המרכזי‬
7.2
:‫ ראשית נשים לב כי‬:‫הוכחה‬
b
ˆ
−ity e−ita − e−itb dy = b−a≥ e
it
a
:‫משיקולים דומים להוכחה הקודמת באמצעות משפט פוביני וחסימות נקבל כי‬


1
lim
2π T →∞
ˆT
e
−ita
−itb
−e
it
−T



ˆ∞  ˆT −ita
−itb


−e
1
itX 
 e
ϕX (t) dt =
lim
e
dt
 dµ (x)

2π T →∞
it


−∞ −T

{z
}
|
=IT (x)
1
1
=
lim Eµ (IT (x)) =
Eµ lim IT (x)
T →∞
2π T →∞
2π
:‫כעת נשים לב כי‬
ˆT
IT (x) =
e−ita − e−itb itX
e dt =
it
−T
ˆT
=
ˆT
e−it(X−a) − e−it(X−b)
dt
it
−T
sin (t (X − a)) − sin (t (X − b))
dt = 2 (S (T (X − a)) − S (T (X − b)))
t
−T
s→±∞
:‫ ומכך נובע כי‬S (0) = 0 ‫ ו־‬S (s) −→ ± π2 ‫ היא פונקציה המקיימת‬S (T ) =
´T
0
sin t
t dt
‫כאשר‬
:‫ אז‬a < b < X ‫• אם‬
π
π
T →∞
IT (x) = 2 (S (T (X − a)) − S (T (X − b))) −→ 2
−
=0
2
2
:‫ אז‬X < a < b ‫• אם‬
π π T →∞
=0
IT (x) = 2 (S (T (X − a)) − S (T (X − b))) −→ 2 − − −
2
2
:‫ אז‬a < X < b ‫• אם‬
π
π T →∞
IT (x) = 2 (S (T (X − a)) − S (T (X − b))) −→ 2
− −
= 2π
2
2
:‫ אז‬X = a, b ‫• אם‬
T →∞
IT (x) = 2 (S (T (X − a)) − S (T (X − b))) −→ π
61
‫‪7.2‬‬
‫‪7‬‬
‫משפט הגבול המרכזי‪:‬‬
‫מכך סה"כ נקבל כי‪:‬‬
‫‬
‫‬
‫‬
‫‪1‬‬
‫‪1‬‬
‫= )‪Eµ lim IT (x‬‬
‫)‪Eµ 2π1{X∈(a,b)} (x) + π1{X=a,b} (x‬‬
‫∞→ ‪T‬‬
‫‪2π‬‬
‫‪2π‬‬
‫‪1‬‬
‫‪1‬‬
‫=‬
‫)}‪[2πµ ((a, b)) + πµ (a, b)] = µ ((a, b)) + µ ({a, b‬‬
‫‪2π‬‬
‫‪2‬‬
‫הערה ‪ 7.18‬הפונקציה ) ‪ S (T‬ידועה בתור אינטגרל דירכלה‪.‬‬
‫‪62‬‬
‫משפט הגבול המרכזי‪:‬‬
‫‪7‬‬
‫‪7.2‬‬
‫משפט הגבול המרכזי‪:‬‬
‫מסקנה ‪7.19‬‬
‫אם בתנאים של המשפט הקודם מתקיים ∞ < ‪|ϕX (t)| dt‬‬
‫שלכל ‪ a, b‬שהם לא אטומים של ‪ X‬מתקיים‪:‬‬
‫‪e−ita − eitb‬‬
‫‪ϕX (t) dt‬‬
‫‪it‬‬
‫‪{z‬‬
‫}‬
‫|‬
‫‪≥b−a‬‬
‫∞ˆ‬
‫∞´‬
‫∞‪−‬‬
‫משפט הגבול המרכזי‪:‬‬
‫)כלומר ‪ ϕ‬אינטגרבילית לבג( אז אפשר ישירות לקחת ∞ → ‪ T‬ולקבל‬
‫‪1‬‬
‫= ))‪FX (b) − FX (a) = µ ((a, b]) = µ ((a, b‬‬
‫‪2π‬‬
‫∞‪−‬‬
‫על סמך כך לכל ‪ x0‬ניתן לבחור ‪ a < x0 < b‬ולקבל שכאשר ‪ a → x0 ← b‬האינטגרל שואף לאפס ולכן ‪ x0‬הוא לא אטום‪ .‬כמו כן‪:‬‬
‫∞ˆ‬
‫‪e−ita ϕX (t) dt‬‬
‫‪e−ita − eitb‬‬
‫‪b→a 1‬‬
‫→‪ϕX (t) dt −‬‬
‫)‪it (b − a‬‬
‫‪2π‬‬
‫∞‪−‬‬
‫∞ˆ‬
‫)‪FX (b) − FX (a‬‬
‫‪1‬‬
‫=‬
‫‪b−a‬‬
‫‪2π‬‬
‫∞‪−‬‬
‫בפרט מקבלים ש־ ‪ ,F‬כלומר יש צפיפות הנתונה על ידי‪:‬‬
‫∞ˆ‬
‫‪e−ita ϕX (t) dt‬‬
‫‪1‬‬
‫)‪FX (b) − FX (a‬‬
‫=‬
‫‪F (a) = lim‬‬
‫‪b→a‬‬
‫‪b−a‬‬
‫‪2π‬‬
‫‪0‬‬
‫∞‪−‬‬
‫‪1‬‬
‫‪) f (x) = π(1+x‬מ"מ מפולג קושי( מתקיים |‪ ϕX (t) = e−|t‬אולם ל־ ‪ X‬אין תוחלת‪ .‬כמו כן אם‬
‫תרגיל‪:‬‬
‫עבור ‪ X‬בעל צפיפות ) ‪2‬‬
‫‪P‬‬
‫‪i.i.d‬‬
‫‪n‬‬
‫‪ X1 , ..., Xn ∼ Cauchy‬אז ‪. n1 i=1 Xi ∼ Cauchy‬‬
‫משפט ‪ 7.20‬משפט הרציפות של לוי‪:‬‬
‫בהנתן ‪ Fn‬סדרה הדוקה של פונקציות ‪ CDF‬נסמן ב־ ‪ ϕn‬את סדרת הפונקציות האופייניות המתאימות להן ) ‪eitx dFn‬‬
‫‪D‬‬
‫∞→‪t‬‬
‫∞´‬
‫∞‪−‬‬
‫= )‪.(ϕn (t‬‬
‫‪W‬‬
‫נניח כי )‪ ,ϕn (t) −→ ϕ (t‬אזי קיימת פונקציית ‪ F CDF‬כך ש־ ‪) Fn −→ F‬באופן שקול ‪ (Fn −→ F‬כאשר בפרט ‪) ϕF‬הפונקציה‬
‫האופיינית המתאימה ל־ ‪ (F‬היא ‪.ϕ‬‬
‫‪D‬‬
‫הוכחה‪ :‬מההנחה כי הסדרה הדוקה על סמך מסקנה ‪ 7.9‬קיימת פונקציית ‪ F CDF‬ותת־סדרה ‪ Fnk‬כך ש ‪ Fnk −→ F‬ולכן‬
‫‪W‬‬
‫‪ .Fnk −→ F‬מאחר שלכל ‪ t‬הפונקציה ‪ eit‬היא פונקציה רציפה וחסומה נקבל מההתכנסות החלשה שמתקיים‪:‬‬
‫ ‪ n→∞ itX‬‬
‫‪−→ E e‬‬
‫)‪= ϕF (t‬‬
‫‪ϕnk (t) = E eitXnk‬‬
‫כאשר ‪ Xnk ∼ Fnk‬ו־ ‪ X ∼ F‬הם מ"מ עם ההתפלגויות המתאימות‪ .‬מאחר שיש ת"ס של ‪ ϕn‬שמתכנס ל־ ‪ ϕF‬נסיק ש־ ‪.ϕF = ϕ‬‬
‫הערה ‪ 7.21‬הערות‪:‬‬
‫‪ .1‬הדרישה של הדיקות של הסדרה איננה הכרחית והמשפט נכון גם בלעדיה‪.‬‬
‫‪ .2‬המשפט הנ"ל מראה שהתכנסות נקודתית של פונקציות אופייניות גוררת התכנסות חלשה של פונקציות ההתפלגות‪.‬‬
‫‪ 7.2.4‬הוכחת משפט הגבול המרכזי‪:‬‬
‫משפט ‪ 7.22‬משפט הגבול המרכזי‪:‬‬
‫ ‬
‫‪i.i.d‬‬
‫בהנתן סדרת משתנים מקריים ‪ Xn ∼ F‬עם ‪ E [Xn ] = 0‬ו־ ‪ E Xn2 = 1‬מתקיים‬
‫!‬
‫‪n‬‬
‫‪1 X‬‬
‫‪D‬‬
‫√ ‪L‬‬
‫)‪Xi −→ N (0, 1‬‬
‫‪n i=1‬‬
‫‪63‬‬
‫‪8‬‬
‫תנועה בראונית‪:‬‬
‫הוכחה‪ :‬נשים לב כי על סמך תכונות של פונקציות אופייניות מתקיים‪:‬‬
‫ ‪ I.I.D‬‬
‫‬
‫‪n‬‬
‫‪t‬‬
‫{|}‪z‬‬
‫=‬
‫√ ‪ϕX1‬‬
‫‪n‬‬
‫בנוסף נעזר בעובדה שלכל ‪ x ∈ R‬מתקיים‪:‬‬
‫!‬
‫‪t‬‬
‫√‬
‫‪n‬‬
‫‬
‫) ‪Sn (t) = ϕ(X +...+X‬‬
‫√‪ϕ‬‬
‫‪1‬‬
‫‪n‬‬
‫‪n‬‬
‫‬
‫‬
‫‬
‫‪3‬‬
‫ ‪2‬‬
‫‪ ix‬‬
‫|‪e − 1 + ix − x ≤ min |x|2 , |x‬‬
‫‬
‫ ‪2‬‬
‫‪6‬‬
‫בהנתן העובדה הזו עבור ‪ X ∼ F‬אם נקח תוחלת על אי השוויון הנ"ל נקבל כי‪:‬‬
‫!‬
‫‬
‫‬
‫ ‬
‫ ‪2‬‬
‫ ‪2‬‬
‫‬
‫)‪(tX‬‬
‫‪t‬‬
‫‬
‫‬
‫‪itX‬‬
‫‪ = E e‬‬
‫‪ϕX (t) − 1 −‬‬
‫‪− 1 + itX −‬‬
‫‬
‫‬
‫‬
‫ ‪2‬‬
‫‪2‬‬
‫"‬
‫"‬
‫‪!#‬‬
‫‪!#‬‬
‫‪3‬‬
‫‪3‬‬
‫‪3‬‬
‫‪ 2‬‬
‫‪t→0‬‬
‫‪2‬‬
‫|‪2 |t| |X‬‬
‫|‪2 |t| |X‬‬
‫‬
‫‬
‫‪≤ E min |t| |X| ,‬‬
‫‪= t E min |X| ,‬‬
‫‪−→ 0‬‬
‫‪6‬‬
‫‪6‬‬
‫‬
‫‬
‫‪3‬‬
‫‪2‬‬
‫‪2‬‬
‫|‪ Y := min |X| , |t||X‬הוא מ"מ החסום על ידי המשתנה המקרי האינטגרבילי |‪ |X‬וכמו כן לכל ‪ ω‬מתקיים‬
‫כעת נשים לב כי‬
‫‪6‬‬
‫‪0‬‬
‫∞→‪|t||X(ω)|3 t‬‬
‫→‪−‬‬
‫‪6‬‬
‫∞→‪t‬‬
‫שכן ‪ .‬לכן ‪ Y −→ 0‬ומכך ממשפט ההתכנסות החסומה‪:‬‬
‫"‬
‫‪!#‬‬
‫‪3‬‬
‫‪t→0‬‬
‫|‪2 |t| |X‬‬
‫‪E min |X| ,‬‬
‫‪−→ E [0] = 0‬‬
‫‪6‬‬
‫‬
‫מכך נסיק כי ‪+ o t2‬‬
‫‪t2‬‬
‫‪2‬‬
‫‪ ϕX (t) = 1 −‬ולכן‪:‬‬
‫‪ 2 n‬‬
‫‬
‫‪t‬‬
‫‪t2‬‬
‫‪n→∞ − t2‬‬
‫‪+o‬‬
‫)‪−→ e 2 = ϕN (0,1) (t‬‬
‫‪= 1−‬‬
‫‪2n‬‬
‫‪n‬‬
‫‪n‬‬
‫‪t‬‬
‫√‬
‫‪n‬‬
‫‬
‫‬
‫‪ϕX1‬‬
‫= )‪Sn (t‬‬
‫√‪ϕ‬‬
‫‪n‬‬
‫בכך הראינו התכנסות של הפונקציות האופיינייות ולכן על סמך משפט הרציפות גם התכנסות חלשה כאשר הנ"ל נובע מכך שסדרת‬
‫‪Sn‬‬
‫‪Sn‬‬
‫√ יש שונות השווה‬
‫√ היא סדרה הדוקה על סמך א"ש צ'בישב והעובדה שלכל ‪ n‬למשתנה המקרי‬
‫פונקציות ההתפלגות של הסדרה‬
‫‪n‬‬
‫‪n‬‬
‫ל־ ‪.1‬‬
‫‪8‬‬
‫תנועה בראונית‪:‬‬
‫הגדרה ‪ 8.1‬תנועת בראון‪:‬‬
‫תנועת בראון היא תהליך סטוכסטי בזמן רציף ‪ {B (t)}t≥0‬המקיים את התנאים הבאים‪:‬‬
‫‪ .1‬לכל ‪ 0 ≤ s < t‬מתקיים )‪.B (t) − B (s) ∼ N (0, t − s‬‬
‫‪ .2‬לכל ‪ 0 ≤ t1 < t2 < ... < tk‬המ"מ ‪ {B (ti+1 ) − B (ti )}1≤i≤k−1‬בלתי תלויים‪.‬‬
‫‪ .3‬הפונקציה )‪ t 7→ B (t‬היא רציפה כ"ת )כלומר לכמעט כל ‪ ω ∈ Ω‬הפונקציה )‪ B (t) (ω‬רציפה כפונקציה של ‪.(t‬‬
‫הערה ‪ 8.2‬אם ‪ B (0) = 0‬אז נאמר שזוהי תנועת בראון סטנדרטית‪.‬‬
‫הערה ‪ 8.3‬בשלב זה לא ברור שקיים בכלל תהליך כנ"ל וזה עיקר מה שנרצה להראות‪.‬‬
‫נוכיח קיום של תנועת בראון‪:‬‬
‫‪64‬‬
‫‪8‬‬
‫תנועה בראונית‪:‬‬
‫∞‬
‫תהא ‪ {Xi }i=1‬סדרת מ"מ ב"ת מפולגים )‪ .N (0, 1‬נגדיר את ‪ B‬על קבוצת השברים הדיאדיים כך שראשית‪:‬‬
‫ ‬
‫‪1‬‬
‫‪B (1) X2‬‬
‫‪B (0) = 0 , B (1) = X1 , B‬‬
‫=‬
‫‪+‬‬
‫‪2‬‬
‫‪2‬‬
‫‪2‬‬
‫‬
‫‬
‫‬
‫על סמך תכונות של ההתפלגות הרב נורמלית נקבל שהמ"מ )‪ B 21 − B (0‬ו־ ‪ B (1) − B 12‬הם מ"מ ב"ת המפולגים ‪N 0, 12‬‬
‫)כטרנספורמציה לינארית של הוקטור הרב־נורמלי ) ‪ .((X1 , X2‬נמשיך ונגדיר‪:‬‬
‫‬
‫ ‬
‫‪B (0) + B 12‬‬
‫‪1‬‬
‫‪X3‬‬
‫‪B‬‬
‫=‬
‫√‪+‬‬
‫‪4‬‬
‫‪2‬‬
‫‪8‬‬
‫‬
‫ ‬
‫‪1‬‬
‫‪B 2 + B (1) X4‬‬
‫‪3‬‬
‫‪B‬‬
‫=‬
‫√‪+‬‬
‫‪4‬‬
‫‪2‬‬
‫‪8‬‬
‫מכך נקבל כי‪:‬‬
‫‬
‫‪1‬‬
‫ ‬
‫ ‬
‫‬
‫‬
‫‪B 2 − B (0) X3‬‬
‫‪1‬‬
‫‪1‬‬
‫‪1‬‬
‫‪−B‬‬
‫=‬
‫‪− √ ∼ N 0,‬‬
‫‪2‬‬
‫‪4‬‬
‫‪2‬‬
‫‪4‬‬
‫‪8‬‬
‫‬
‫ ‬
‫‬
‫‬
‫‪1‬‬
‫‪−B (0) + B 2‬‬
‫‪1‬‬
‫‪X3‬‬
‫‪1‬‬
‫‪B‬‬
‫= )‪− B (0‬‬
‫‪− √ ∼ N 0,‬‬
‫‪4‬‬
‫‪2‬‬
‫‪4‬‬
‫‪8‬‬
‫‬
‫‬
‫כאשר שוב משתמשים בכך שזוהי טרנפורמציה לינארית של הוקטור הרב־נורמלי ‪ . B 12 , X3‬כעת באופן כללי נגדיר‪:‬‬
‫‬
‫‬
‫‬
‫‬
‫‪k‬‬
‫‪B 2k−1‬‬
‫‪+ B 2n−1‬‬
‫‪X n−1‬‬
‫‪2k − 1‬‬
‫‪n−1‬‬
‫‪+ 2 n+1+k‬‬
‫=‬
‫‪B‬‬
‫‪2‬‬
‫‪2‬‬
‫‪2 2‬‬
‫‪B‬‬
‫∞‬
‫באופן זה הגדרנו את ‪ B‬על הרציונליים הדיאדיים בקטע ]‪ [0, 1‬באמצעות הסדרה ‪ .{Xi }i=1‬נגדיר סדרת פונקציות‪:‬‬
‫‪ X2n +k‬‬
‫‪x = 2k−1‬‬
‫‪‬‬
‫‪2n‬‬
‫‪ 2 n+1‬‬
‫‪2‬‬
‫‪2k‬‬
‫‪Fn (x) = 0‬‬
‫‪x = 2n‬‬
‫‪‬‬
‫‪‬‬
‫‪piecewise linear otherwise‬‬
‫זוהי סדרת פונקציות מקריות אשר כל אחת מהן היא רציפה בקטע ]‪ [0, 1‬בהסתברות ‪ 1‬ובפרט לכל שבר דיאדי מתקיים‪:‬‬
‫‬
‫‪ X‬‬
‫‬
‫‬
‫‪n‬‬
‫‪2k + 1‬‬
‫‪2k + 1‬‬
‫‪B‬‬
‫=‬
‫‪F‬‬
‫‪i‬‬
‫‪2n‬‬
‫‪2n‬‬
‫‪i=0‬‬
‫בפרט אם הטור הנ"ל מתכנס במידה שוווה )בנורמת סופרמום( בהסתברות ‪ 1‬אז נקבל כי עבור כל שבר דיאדי מתקיים‪:‬‬
‫ ‪ def‬‬
‫‬
‫‪2k + 1‬‬
‫{|}‪z‬‬
‫‪= F‬‬
‫‪2n‬‬
‫‪2k + 1‬‬
‫‪2n‬‬
‫‬
‫‪Fi‬‬
‫∞‬
‫‪X‬‬
‫‬
‫=‬
‫‪i=0‬‬
‫‪2k + 1‬‬
‫‪2n‬‬
‫‬
‫‪B‬‬
‫מכך נסיק ש־ ‪ F‬היא פונקציה רציפה כגבול במ"ש של פונקציות רציפות והיא גם עבור השברים הדיאדיים בעלת יתר התכונות שרצינו‬
‫מתנועת בראון ‪ .‬אם כן כדי להראות את ההתכנסות נשים לב כי‪:‬‬
‫| ‪|X2n +k‬‬
‫‪max‬‬
‫‪k=1,...,2n‬‬
‫‪n+1‬‬
‫‪2‬‬
‫‪2‬‬
‫= ∞‪kFn k‬‬
‫אם נסמן ב־ )‪ fX (x‬את הצפיפות הנורמלית הסטנדרטית נקבל כי לכל ‪ C > 0‬מתקיים‪:‬‬
‫‪ˆ−λ‬‬
‫∞ˆ‬
‫‪C2 n‬‬
‫‪fX (x) dx + fX (x) dx ≤ e− 2‬‬
‫∞‪−‬‬
‫‪λ‬‬
‫‪65‬‬
‫ √‬
‫= ‪P |Xi | > C n‬‬
‫‪8‬‬
‫תנועה בראונית‪:‬‬
‫מכך באמצעות חסם איחוד נקבל כי‪:‬‬
‫‬
‫√‬
‫‪C2 n‬‬
‫‪max n |X2n +k | > C n ≤ 2n e− 2‬‬
‫‬
‫‪k=1,...,2‬‬
‫‪P‬‬
‫הנ"ל דועך אקספוננציאלית ולכן‪:‬‬
‫‬
‫∞<‬
‫√‬
‫‪|X2n +k | > C n‬‬
‫‪n‬‬
‫‬
‫∞‬
‫‪X‬‬
‫‪P‬‬
‫‪max‬‬
‫‪k=1,...,2‬‬
‫‪n=1‬‬
‫מכך מהלמה הראשונה של בורל קנטלי נסיק כי בהסתברות ‪ 1‬קיים ‪ N‬כך שלכל ‪ n ≥ N‬מתקיים‪:‬‬
‫√‬
‫∞→‪C n n‬‬
‫‪kFn k∞ ≤ n+1 −→ 0‬‬
‫‪2 2‬‬
‫לכן מקריטריון ויישרטראס הטור מתכנס במ"ש ובפרט ‪ F‬היא פונקציה רציפה‪ .‬באופן כללי יותר אם ‪ t1 < t2 < ... < tk‬אז נקח‬
‫∞→‪i‬‬
‫סדרות של דיאדיים ‪ tij −→ tj‬ונקבל על סמך מה שהוכחנו שההפרשים באינדקסים הללו הם ב"ת ומפולגים‪:‬‬
‫‬
‫‬
‫‬
‫‪B tij+1 − B tij ∼ N 0, tij+1 − tij‬‬
‫ואפשר להראות שמתקיימת התכנסות של הוקטור הרב־נורמלי‬
‫‬
‫‬
‫‬
‫∞→‪ i‬‬
‫)) ‪B ti2 − B ti1 , ..., B tik − B tik−1 −→ (B (t2 ) − B (t1 ) , ..., B (tk ) − B (tk−1‬‬
‫לוקטור רב־נורמלי‪ :‬כך ש‪:‬‬
‫) ‪B (tj ) − B (tj−1 ) ∼ N (0, tj − tj−1‬‬
‫הערה ‪ 8.4‬זה בקירוב מוכיח את הקיום של תנועת בראון על ]‪ [0, 1‬ואפשר להרחיב את זה לכל הישר על ידי שרשור של תהליכים‬
‫זהים המוגדרים על כל הקטעים מהצורה ]‪ ) .[n, n + 1‬בנוסף כדי להיות פורמלי לחלוטין צריך לדבר גם על ה־ ‪σ‬־אלגברה שעובדים‬
‫איתה במרחב הפונקציות הרציפות וכו'(‪.‬‬
‫נתעניין כעת בהתנהגות של )‪∼ N (0, 1‬‬
‫)‪B(t‬‬
‫√‬
‫‪t‬‬
‫כאשר ‪ t‬גדול מאוד או קטן מאוד‪.‬‬
‫טענה ‪8.5‬‬
‫מתקיים ∞ =‬
‫)‪B(t‬‬
‫√‬
‫‪t‬‬
‫‪ lim sup‬כ"ת‪.‬‬
‫∞→‪t‬‬
‫הוכחה‪ :‬נתבונן בסדרה‬
‫‪ |B (tn )| ≤ tn‬שכן‪:‬‬
‫‪2n‬‬
‫∞→‪n‬‬
‫‪ . tn+1‬אפשר להראות שקיים ‪ N‬כך שלכל ‪ n ≥ N‬מתקיים‬
‫‪ tn = 22‬אשר עבורה מתקיים ∞ →‪−‬‬
‫‪t2‬‬
‫‪n‬‬
‫ √‬
‫‪tn‬‬
‫‪λ2‬‬
‫‪P B (tn ) ≥ λ tn ≤ e− 2 =⇒ P (B (tn ) ≥ tn ) ≤ e− 2‬‬
‫והמסקנה נובעת מהלמה הראשונה של בורל קנטלי‪ .‬כעת ידוע לנו כי‪:‬‬
‫) ‪B (tn+1 ) − B (tn ) ∼ N (0, tn+1 − tn‬‬
‫לכן לכל ‪ K > 0‬קיים ‪ aK‬קבוע כך ש‪:‬‬
‫‬
‫‪tn+1 > aK > 0‬‬
‫‪p‬‬
‫‬
‫‪P B (tn+1 ) − B (tn ) > K‬‬
‫מאחר וזוהי סדרה של מ"מ בלתי־תלויים נסיק מהלמה הראשונה של בורל־קנטלי שעבור אינסוף ערכי ‪ n‬מתקיים‪:‬‬
‫‪Kp‬‬
‫∞→‪n‬‬
‫∞ →‪tn+1 −‬‬
‫‪2‬‬
‫≥ ‪tn+1 − tn‬‬
‫‪p‬‬
‫‪B (tn+1 ) = B (tn+1 ) − B (tn ) + B (tn ) ≥ K‬‬
‫‪66‬‬
‫‪8‬‬
‫תנועה בראונית‪:‬‬
‫נשאל כעת מה ההתפלגות של )‪ ,M := max B (t‬נתבונן בזמן עצירה )בהגדרה מתאימה לתהליך רציף( שנתון על ידי‪:‬‬
‫]‪t∈[0,1‬‬
‫}‪Tλ = min {t | B (t) = λ‬‬
‫באופן זה נקבל כי‪:‬‬
‫)‪P (M ≥ λ) = P (Tλ ≤ 1‬‬
‫מאחר ש־ ) ‪ B (1) − B (Tλ ) ∼ N (0, 1 − Tλ‬וזוהי התפלגות סימטרית נסיק כי‪:‬‬
‫)‪P (B (1) ≥ 1‬‬
‫)‪P (B (1) ≥ λ | Tλ ≤ 1‬‬
‫‪1‬‬
‫‪1‬‬
‫⇒=‬
‫=‬
‫=‬
‫‪2‬‬
‫)‪P (Tλ ≤ 1‬‬
‫)‪P (Tλ ≤ 1‬‬
‫‪2‬‬
‫)‪=⇒ P (Tλ ≤ 1) = 2P (B (1) ≥ λ) = P (|B (1)| ≥ λ‬‬
‫= )‪P (B (1) ≥ λ | Tλ ≤ 1‬‬
‫מכך ניתן לראות כי |‪ max B (t) ∼ |Z‬כאשר )‪.Z ∼ N (0, 1‬‬
‫]‪t∈[0,1‬‬
‫טענה ‪8.6‬‬
‫נראה באמצעות מה שהראינו ש־ ‪= 0‬‬
‫|)‪|B(t‬‬
‫√‬
‫‪t log t‬‬
‫‪.lim sup‬‬
‫∞→‪t‬‬
‫הוכחה‪ :‬נגדיר |)‪ M (t) := max |B (s‬ונקבל באופן דומה למה שעשיה ש־ )‪ M (t) ∼ N (0, t‬ומכך‪:‬‬
‫]‪s∈[0,t‬‬
‫‬
‫‬
‫‪p‬‬
‫‪K 2 log t‬‬
‫‪K2‬‬
‫‪P M (t) > K t log t ≤ e− 2 = t− 2‬‬
‫בפרט עבור ‪ tn = n‬נקבל כי‪:‬‬
‫‬
‫‬
‫‪p‬‬
‫‪K2‬‬
‫‪P M (n) > K n log n = n− 2‬‬
‫√‬
‫הטור של איברי אגף ימין מתכנס ולכן מבורל קנטלי המאורע ש־ ‪ M (n) > K n log n‬קורה רק מספר סופי של פעמים עבור כל‬
‫)‪(n‬‬
‫|)‪ .lim sup √|B(t‬כמו כן‬
‫‪ √M‬קורה מספר סופי של פעמים לכל ‪ K > 0‬ומכך אפשר להסיק ש־ ‪= 0‬‬
‫‪ K‬ומכל המאורע ש־ ‪> K‬‬
‫‪t log t‬‬
‫‪n log n‬‬
‫∞→‪t‬‬
‫אפשר לקחת סדרה עולה אקספוננציאלית ולקבל ש‪:‬‬
‫)‪B (t‬‬
‫‪1‬‬
‫∞< √ =‬
‫‪t log log t‬‬
‫‪2‬‬
‫√ ‪lim sup‬‬
‫∞→‪t‬‬
‫עוד כמה תכונות מעניינות של תנועת בראון‪:‬‬
‫‬
‫‪0‬‬
‫‪ .1‬התהליך ‪ B (t) = tB 1t‬הוא תנועת בראון‪.‬‬
‫‬
‫‪ .2‬התהליך ‪ a1 B a2 t‬הוא תנועת בראון לכל ‪.a‬‬
‫‪ .3‬בכל נקודה ‪ t‬ההסתברות ש־ ‪ B‬גזיר בנקודה ‪ t‬היא אפס‪.‬‬
‫‪ B (t) .4‬לא גזירה באף נקודה בהסתברות ‪) 1‬לא נובע מהטענה הקודמת(‪.‬‬
‫‪67‬‬