introducción a la teoría de teletráfico
Transcription
introducción a la teoría de teletráfico
Universidad Nacional de Colombia INTRODUCCIÓN A LA TEORÍA DE TELETRÁFICO ESTADÍSTICA DE LAS TELECOMUNICACIONES Jorge Eduardo Ortiz Triviño 21/02/2012 2 TABLA DE CONTENIDO 1 INTRODUCCIÓN A LA TEORÍA DE TELETRÁFICO ............................................................. 9 1.1 TELETRÁFICO COMO DISCIPLINA .................................................................................. 10 1.2 MODELAMIENTO DE SISTEMAS DE TELECOMUNICACIONES ........................... 11 1.3 LA UIT Y LA INGENIERÍA DE TELETRÁFICO ............................................................. 12 1.4 LAS UNIDADES DE TRÁFICO Y LOS “ERLANGS” . ..................................................... 14 1.5 LA HORA DE OCUPACIÓN Y EL BLOQUEO ................................................................... 18 1.6 MODELOS DE TRÁFICO ........................................................................................................ 22 1.6.1 Erlang B .............................................................................................................................. 22 1.6.2 Erlang B Extendido ........................................................................................................ 22 1.6.3 Erlang C............................................................................................................................... 22 1.7 RESUMEN DEL CAPÍTULO .................................................................................................. 22 2 COMPENDIO DE TEORÍA DE PROBABILIDADES ............................................................. 24 2.1 INTRODUCCIÓN ...................................................................................................................... 25 2.2 ESPACIOS DE PROBABILIDAD .......................................................................................... 25 2.3 PRINCIPIOS FUNDAMENTALES DE LA TEORÍA DE LA MEDIDA ....................... 32 2.3.1 Reglas de la medida continua.................................................................................... 33 2.3.2 Reglas del conteo ............................................................................................................ 36 2.4 PROBABILIDAD CONDICIONAL E INDEPENDENCIA ESTOCÁSTICA................ 38 2.5 VECTOR ALEATORIO Y FUNCIÓN DE DISTRIBUCIÓN CONJUNTA .................... 46 2.5.1 Introducción ..................................................................................................................... 46 2.5.2 Definiciones ...................................................................................................................... 46 2.6 FUNCIONES DE DENSIDAD CONJUNTAS ...................................................................... 47 2.6.1 Vectores aleatorios discretos .................................................................................... 47 2.6.2 Vectores Aleatorios continuos .................................................................................. 48 2.6.3 Otras clases de vectores aleatorios......................................................................... 48 3 2.7 DISTRIBUCIONES CONDICIONALES E INDEPENDENCIA ESTOCÁSTICA ....... 49 2.7.1 Vectores Aleatorios Continuos ................................................................................. 49 2.7.1.1 Distribuciones Marginales ................................................................................ 49 2.7.1.2 Distribuciones Condicionales .......................................................................... 49 2.7.2 Vectores Aleatorios Discretos ................................................................................... 52 2.7.2.1 Distribuciones Marginales ................................................................................ 52 2.7.2.2 Distribuciones Condicionales .......................................................................... 52 2.7.3 Independencia ................................................................................................................. 52 2.8 ESPERANZA MATEMÁTICA Y MOMENTOS ................................................................. 53 2.8.1 Valor Esperado de Funciones de Variables Aleatorias ................................... 53 2.8.2 Momentos .......................................................................................................................... 54 2.8.3 Covarianza y Coeficiente de Correlación .............................................................. 56 2.8.4 Funciones generadoras de Momentos .................................................................. 57 2.8.5 Esperanza e Independencia ....................................................................................... 57 2.9 TRANSFORMACIONES .......................................................................................................... 58 2.9.1 CASO UNIVARIADO........................................................................................................ 58 2.9.1.1 Transformación lineal univariada ................................................................. 58 2.9.1.2 Suma de dos variables aleatorias ................................................................... 58 2.9.1.3 Cuadrado de una variable aleatoria .............................................................. 58 2.9.2 VECTORES ALEATORIOS DISCRETOS ................................................................... 59 2.9.3 VECTORES ALEATORIOS CONTINUOS................................................................. 60 2.9.3.1 Formulación ............................................................................................................ 60 2.9.3.2 Transformación continua general ................................................................. 61 2.10 FAMILIA DE GAUSS MULTIDIMENSIONAL ............................................................. 63 2.10.1 Función de densidad ................................................................................................. 63 2.10.2 Integral De Aitken ...................................................................................................... 63 4 2.10.3 Función Generadora De Momentos .................................................................... 64 2.10.4 Distribuciones Marginales ...................................................................................... 65 2.10.5 Distribuciones Condicionales ................................................................................ 67 2.10.6 Independencia ............................................................................................................. 69 2.11 FAMILIAS DE DISTRIBUCIONES UNIVARIADAS................................................... 69 2.11.1 Introducción ................................................................................................................. 69 2.11.2 Familias de Distribuciones Discretas ................................................................. 70 2.11.2.1 Bernoulli ................................................................................................................. 70 2.11.2.2 Con restitución: Modelo binomial ............................................................... 70 2.11.2.3 Sin restitución: Modelo Hipergeométrico ................................................ 73 2.11.2.4 Poisson .................................................................................................................... 74 2.11.2.5 Geométrica ............................................................................................................ 74 2.11.3 Familias de Distribuciones Continuas ............................................................... 74 2.11.3.1 Uniforme ................................................................................................................ 74 2.11.3.2 Gauss ........................................................................................................................ 76 2.11.3.3 Exponencial........................................................................................................... 76 2.11.3.4 Erlang ...................................................................................................................... 76 2.11.3.5 Gamma .................................................................................................................... 77 2.11.4 3 RELACIONES ENTRE FAMILIAS ........................................................................... 77 2.12 EJERCICIOS............................................................................................................................ 78 2.13 RESUMEN DEL CAPÍTULO .............................................................................................. 78 PROCESOS ESTOCÁSTICOS ....................................................................................................... 80 3.1 INTRODUCCIÓN ...................................................................................................................... 80 3.2 DEFINICIÓN .............................................................................................................................. 80 3.3 LAS FUNCIONES DE AUTOCOVARIANZA Y AUTOCORRELACIÓN ..................... 86 3.4 FUNCION DE AUTOCORRELACIÓN PARCIAL ............................................................. 86 5 3.5 PROCESOS CON RUIDO BLANCO ..................................................................................... 86 3.6 CADENAS DE MARKOV EN TIEMPO DISCRETO ........................................................ 86 3.6.1 Introducción ..................................................................................................................... 86 3.6.2 Ecuaciones de Chapman–Kolmogorov .................................................................. 86 3.6.3 Clasificación de los Estados ....................................................................................... 86 3.7 CADENAS DE MARKOV DE TIEMPO CONTINUO ....................................................... 86 3.7.1 Introducción ..................................................................................................................... 86 3.7.2 Definición ........................................................................................................................... 86 3.7.3 Procesos de Nacimiento y Muerte........................................................................... 86 3.7.4 Función de Transición de Probabilidad ................................................................ 87 3.7.5 Reversibilidad .................................................................................................................. 87 3.8 DISTRIBUCIÓN EXPONENCIAL Y EL PROCESO DE POISSON .............................. 87 3.8.1 Introducción ..................................................................................................................... 87 3.8.2 Definición de Proceso de Poisson............................................................................ 87 3.8.3 Distribuciones de los Tiempos entre llegadas y de Esperas ........................ 87 3.8.4 proceso de Poisson no homogéneo ........................................................................ 87 3.9 **TEORÍA DE RENOVACIÓN .............................................................................................. 87 4 3.10 EJERCICIOS............................................................................................................................ 87 3.11 RESUMEN DEL CAPÍTULO .............................................................................................. 87 MODELOS DE TRÁFICO ............................................................................................................... 88 4.1 ERLANG B: SISTEMA DE PÉRDIDA DE ERLANG ....................................................... 88 4.2 ERLANG B EXTENDIDO: EXTENDIDO............................................................................ 88 4.3 ERLANG C: SISTEMA CON RETARDO ............................................................................. 88 4.4 **REDES DE COLAS ................................................................................................................ 88 5 DIMENSIONAMIENTO DE REDES DE TELECOMUNICACIONES ................................ 88 6 MEDIDAS DE TRÁFICO ................................................................................................................ 88 6 7 REFERENCIAS BIBLIOGRÁFICAS ............................................................................................ 89 7 LISTA DE FIGURAS Figura 1—1: Abstracción del proceso de una llamada en un sistema telefónico. ..... 13 Figura 1—2: Recomendaciones de la UIT sobre Ingeniería de teletráfico. .................. 14 Figura 1—3_ Tráfico transportado (Intensidad) ..................................................................... 16 Figura 1—4: Número de llamadas por minuto en un centro de conmutación un lunes en la mañana. .............................................................................................................................. 19 Figura 1—5: Número promedio de llamadas por minuto en un centro de conmutación. ........................................................................................................................................... 19 Figura 1—6: Tiempo medio de ocupación de una línea troncal en función de la hora del día. ........................................................................................................................................................ 21 Figura 2—1: Espacio muestral y eventos de interés del ejemplo de Galois ................ 34 Figura 2—2: Espacio muestral y eventos de interés del ejemplo de las raíces .......... 35 Figura 2—3: Factores importantes en el proceso de contar .............................................. 37 Figura 2—4: Diagramas de medida para el ejemplo de probabilidad combinatoria ....................................................................................................................................................................... 38 Figura 2—5: Representación gráfica de las propiedades de los eventos B.................. 39 Figura 2—6: Función de densidad uniforme............................................................................. 75 Figura 2—7: Función de Distribución uniforme. ..................................................................... 75 Figura 2—8: Probabilidad uniforme............................................................................................. 75 8 1 INTRODUCCIÓN A LA TEORÍA DE TELETRÁFICO Agner Krarup Erlang (1878 - 1929), conocido como “El Padre de la Teoría de Teltráfico”, ingreso a la Universidad de Copenhague en 1896. Dada su notable capacidad intelectual obtuvo una beca para la universidad y se graduó en matemáticas en 1901. Se desempeñó como profesor, actividad que le permitió mantener su interés por las matemáticas aplicadas. Fue miembro de la asociación danesa de matemáticas, por medio de la cual conoció a Johan Jensen, el ingeniero jefe de la Copenhagen Telephone Company (CTC), la cual era una subsidiaria de International Bell Telephone Company. Erlang trabajó por casi 20 años para CTC, desde 1908 hasta su muerte en Copenhague en 1928. Erlang abordó el problema clásico de la determinación de cuántos circuitos eran necesarios para proveer un servicio telefónico aceptable. Erlang desarrolló su teoría del tráfico telefónico a través de varios años. Entre sus publicaciones más importantes sobre la materia, se encuentran: En 1909 - "La teoría de las probabilidades y las conversaciones telefónicas" - la cual demostró que la Distribución de Poisson se aplica para tráfico telefónico aleatorio. En 1917 - "Solución de algunos problemas en la teoría de probabilidades de importancia en centrales telefónicas automáticas" - el cual contiene su fórmula clásica para el cálculo de pérdidas y tiempos de espera. Hacia 1944 el "Erlang" era usado en los países escandinavos para denotar la unidad de tráfico telefónico. Esta unidad de medida fue reconocida internacionalmente al final de la segunda guerra mundial. Así mismo una distribución estadística y un lenguaje de programación llevan su nombre. Entre aquéllos que continuaron con las ideas de Erlang, debemos mencionar al sueco Conny Palm, cuyos aportes durante el período 1936 - 1946 (1957) contribuyeron a dar a la teoría de trafico su actual rigor. En este capítulo se hace presentan las bases de la teoría de teletráfico, se establecen las definiciones básicas y se presentan algunos ejemplos que ilustran la forma de trabajo en esta disciplina. 9 1.1 TELETRÁFICO COMO DISCIPLINA Definición 1—1: Teletráfico. Disciplina1 que se encarga de aplicar rigurosamente la teoría de probabilidades y la teoría de estadísticas al estudio de la estructura estocástica y el comportamiento2 en la actividad de un sistema de telecomunicaciones en todas las etapas de su ciclo de vida. Como cualquier sistema, bien sea vivo o artificial, un sistema de telecomunicaciones se concibe para cumplir uno o varios fines, nace, crece, procura cumplir su fin, intenta reproducirse, muere y posiblemente trasciende. Por lo anterior, algunos de los objetivos de esta disciplina son: 1. Concebir nuevos sistemas de telecomunicaciones que cumplan con características estructurales, medidas de desempeño y criterios de optimización predefinidos y claramente establecidos. 2. Diseñar y/o adaptar el contexto en el cual se desenvolverá dicho sistema complejo. 3. Planear, Diseñar e implementar un nuevo sistema de telecomunicaciones que cumpla con algunas medidas de servicio, robustez y desempeño deseados y claramente establecidas. 4. Planear su evolución y adaptación dentro del entorno para el cual fue concebido. 5. Generar políticas claras de mantenimiento y control que garanticen su fin teleológico. 6. Planear su fin o expiración. 1 Arte, facultad o ciencia. 2 Véase [5] 10 Para cumplir con estos y otros fines, y responder preguntas tales como ¿cuánto equipo debe proveerse para que la proporción de llamadas que experimentan retardos esté por debajo de un nivel aceptable específico? o bien ¿cuántos terminales de datos pueden ser conectados a un servicio de computadora de tiempo compartido?, el teletráfico requiere métodos de pronóstico de demandas y flujos de información, métodos para calcular la capacidad del sistema y la construcción de medidas de desempeño para medir el grado de servicio; por ello, se sirve de varias herramientas formales, entre las que vale incluir las siguientes: 1. 2. 3. 4. 5. 6. 7. La teoría de probabilidades, La Teoría de estadísticas, Proceso estocásticos, Simulación de sistema, Métodos numéricos, Teoría de colas y Teoría redes de colas, Teoría de decisiones y teoría de juegos. Axioma 1—1: Estacionariedad. La teoría aquí presentada se basa en el supuesto del equilibrio estadístico, esto es, que ésta sólo puede tratar con sistemas de telecomunicaciones sujetos a condiciones estacionarias. Aún no se ha propuesto métodos teóricos de uso práctico para comprender los Sistemas de Telecomunicaciones bajo condiciones no estacionarias. Sin embargo, el primer trabajo teórico (pero no general) para abordar tales casos se presentó en la tesis doctoral de Palm, realizada en 1943. En ese trabajo se presentó un estudio de variaciones en la intensidad de llamadas. En la actualidad, mediante simulaciones computarizadas es posible tratar estudiar sistemas de telecomunicaciones con en el cual fluye tráfico no estacionario. Sin embargo, las teorías aquí consideradas se limitarán a las condiciones estacionarias, a menos que se indique lo contrario. 1.2 MODELAMIENTO DE SISTEMAS DE TELECOMUNICACIONES 11 Abstraer las principales características de un sistema de telecomunicaciones real requiere la consideración de tres elementos fundamentales: 1. La estructura del Sistema de Telecomunicaciones (hardware). En este nivel se pueden presentar fallas relativamente aleatorias, 2. La estrategia operacional (Software). Aquí se consideran las reglas de operación del sistema y 3. Las propiedades estadísticas del tráfico (Demanda de los usuarios). En este aspecto se consideran las propiedades de las estructuras probabilísticas del tráfico; por ejemplo, un proceso estocástico de de Poisson nacimiento y muerte. Un modelo3 es satisfactorio si cumple simultáneamente las siguientes cuatro condiciones[1]: 1. Es elegante, 2. Contiene pocos elementos arbitrarios o ajustables, 3. Concuerda con las observaciones existentes y proporciona una explicación de ellas, 4. Realiza predicciones detalladas sobre observaciones futuras que permitirán refutar o falsear el modelo si no son confirmadas. El Ejemplo 1—1 ilustra la idea de modelo 1.3 LA UIT Y LA INGENIERÍA DE TELETRÁFICO Las recomendaciones sobre la ingeniería de tráfico se pueden clasificar de acuerdo con cuatro tareas: 3 Se entiende por modelo a un esquema teórico, generalmente en forma matemática, de un sistema o de una realidad compleja, como la abstracción simplificada de un sistema de telecomunicaciones a través de una maqueta, que se elabora para facilitar su comprensión y el estudio de su comportamiento. 12 1. 2. 3. 4. Caracterización de la demanda de tráfico, Objetivos del grado de servicio (GoS), Controles de tráfico y dimensionamiento, y Supervisión del rendimiento. La interacción entre estos cuatro elementos se presenta en la Figura 1—2. Ejemplo 1—1: Modelo de una llamada. A desea hablar con B llamada tiempo para el nuevo intento ocupado error de A B ? congestión, avería immediatamente más tarde desiste sin intentarlo respuesta Sistema de telecomunicación conversación no hay respuesta lo intento de nuevo ¿Que hace A? desiste Figura 1—1: Abstracción del proceso de una llamada en un sistema telefónico. El objetivo en la planificación de un sistema de telecomunicaciones consiste en dimensionar la infraestructura del sistema, es decir la cantidad y características de equipos necesarios así como las características de los canales de comunicación de tal manera que las variaciones en las respuestas a las demandas de sus usuarios sea satisfactorio o, en el peor de los casos, sin notable molestias, optimizando, al mismo tiempo, los costos de las instalaciones. En otras palabras, la infraestructura de la red de telecomunicaciones debe ser utilizada tan eficientemente como sea posible. 13 1.4 LAS UNIDADES DE TRÁFICO Y LOS “ERLANGS” . Usualmente la palabra tráfico se emplea en esta teoría para denotar la Intensidad del flujo de paquetes que circulan en una red de telecomunicaciones. La Definición 1—2, dada por la UIT establece el concepto Intensidad de tráfico. Caracterización de la demanda Modelo Objetivos del grado de servicio QoS Medida GoS Pronóstico Componentes de Red Controles de tráfico y dimensionamiento Controles de tráfico dimensionamiento Supervisión del rendimiento Supervisión del rendimiento Figura 1—2: Recomendaciones de la UIT sobre Ingeniería de teletráfico. Definición 1—2: Intensidad de Tráfico. La Intensidad de tráfico instantánea en un Sistema de Telecomunicaciones compuesto por un conjunto de Recursos (tales como Servidores, Circuitos, líneas, 14 troncales, Canales, etc) es el número de recursos ocupados en un instante de tiempo dado. Formalmente, la intensidad instantánea se denota por la función n t . Definición 1—3: Unidad de medida de tráfico ( U .T ). La unidad de medida de la intensidad del tráfico n t en un Sistema de telecomunicaciones se denomina el Erlang. En forma abreviada se escribe E o bien Erl. En sentido estricto un Erlang representa el uso continuo de un canal de voz; pero en la práctica se emplea para medir el volumen de tráfico en una hora. Los Erlangs son adimensionales. En la caracterización del tráfico es necesario el cálculo de los momentos estadísticos, tales como la media y la varianza, de la intensidad de tráfico instantánea. Definición 1—4: Intensidad media del tráfico en el periodo T . En un periodo de tiempo T en el cual la intensidad del tráfico está dada por n t , la intensidad media del tráfico se define como Y T 1 n t dt T T Definición 1—5: Tráfico Transportado AC . Denotado por Y AC corresponde al tráfico transportado (cursado) por el grupo de servidores en el periodo de tiempo T . El tráfico transportado nunca excede al número de canales (líneas). Nótese que un canal puede a lo más transportar un Erlang. 15 Figura 1—3_ Tráfico transportado (Intensidad) Definición 1—6: Volumen de Tráfico Transportado. El tráfico total transportado en un periodo de tiempo T se denomina un volumen de tráfico transportado. Este volumen se mide en Erlangs–Horas ( Eh ). Dependiendo del sistema en estudio, es posible hablar mejor de Erlangs–Segundos. Obsérvese que el volumen es igual a la suma de los tiempos de ocupación del sistema durante el periodo T . Definición 1—7: Tráfico Ofrecido A . Corresponde al tráfico transportado cuando no hay solicitudes rechazadas a causa de falta de capacidad del sistema. Es decir cuando el número de servidores es ilimitado. Equivalentemente, el tráfico ofrecido se define como el número promedio de intentos de utilización del sistema (Canal) por el tiempo medio de ocupación. Matemáticamente hablando se expresa como A s donde es intensidad de los intentos (llamadas) y s es el tiempo medio de servicio. En este último caso es necesario tener cuidado pues las unidades de tiempo de ambos parámetros debe ser igual. Esta expresión también muestra de una manera más sencilla que la unidad de tráfico no tiene dimensiones. También puede 16 observarse que esta medida es teórica y no puede ser calculada de forma exacta para un sistema simplemente se puede estimar. Definición 1—8: Tráfico Perdido o rechazado Al . El tráfico perdido en un Sistema de Telecomunicaciones corresponde a la diferencia entre el tráfico Ofrecido y el tráfico transportado. Esto es Al A AC . Claramente, el tráfico perdido se puede disminuir al incrementar la capacidad del sistema. Ejemplo 1—2: Cálculo del tráfico. Si un grupo de personas hacen 30 llamadas en una hora y cada llamada tiene una duración de 5 minutos, dicho grupo ha tenido un tráfico de 2,5 Erlangs. Esta cifra resulta de lo siguiente: Minutos de tráfico en una hora = número de llamadas x duración Minutos de tráfico en esa hora = 30 x 5 Minutos de tráfico en esa hora = 150 Horas de tráfico por hora = 150 / 60 Horas de tráfico por hora = 2.5 Valor del Tráfico = 2.5 Erlangs Las medidas de tráfico Erlang sirven para que los diseñadores de redes entiendan bien las pautas de tráfico que se produce en su red y, en consecuencia, diseñen la topología adecuada y dimensionen bien los enlaces. En sistemas de transmisión de datos no se habla de tiempos de servicio sino de demandas de transmisión. En este caso se habla de paquetes de s unidades tales como bits o bytes. La capacidad del sistema se expresa o mide en unidades por segundo (Por ejemplo bits/seg). El tiempo de servicio para un trabajo es s cuyas unidades son en segundos. De esta manera si en promedio son atendidos por 17 unidad de tiempo entonces la utilización del sistema es s . La utilización es una medida que siempre se encuentra en el intervalo 0,1 . La capacidad de este tipo de sistemas basados en datos se mide en unidades denominadas BBU (Unidades de ancho de banda básicas) o simplemente canales. Se elige esta unidad de manera que todos los servicios requieren un número entero de unidades de ancho de banda. Cuando un número N de tipos de tráfico ocupan d j canales el tráfico ofrecido esta N dado por A j s j d j Erlangs–Canales. Aquí j y s j son la tasa de llegadas y el j 1 tiempo medio de ocupación del tráfico tipo j . En este caso tanto el tráfico transportado como el tráfico ofrecido se miden en BBU. Definición 1—9: Tráfico potencial. Es el tráfico ofrecido cuando no hay restricciones de recuersos tales como el costo o la disponibilidad. 1.5 LA HORA DE OCUPACIÓN Y EL BLOQUEO Varios estudios muestran que, conocidos el contexto, la estructura y la actividad principal a la cual se dedica el sistema de telecomunicaciones, el comportamiento del tráfico, aunque estocástico, presenta patrones regulares que permiten modelarlo para poder hacer predicciones sobre el sistema. Las investigaciones muestran que en estos comportamientos conviven dos tipos de comportamientos: Una parte determinística y una estocástica. La Figura 1—4 muestra esta idea. En un día completo de 24 horas también se pueden establecer patrones que pueden ser modelados. La Figura 1—5 evidencia este hecho. 18 Figura 1—4: Número de llamadas por minuto en un centro de conmutación un lunes en la mañana. Figura 1—5: Número promedio de llamadas por minuto en un centro de conmutación. Definición 1—10: Hora de ocupación. 19 El periodo de tiempo del día de una hora de longitud en el cual se presenta, en promedio, la máxima ocupación del sistema se denomina la Hora de ocupación consistente del sistema de telecomunicaciones. Obsérvese que, dado que corresponde a la media, es posible que ciertos días presenten picos por encima de este tiempo, sin embargo, es de esperarse que generalmente este sea más grande en todo el tiempo de vida del sistema. Esta medida es de suma importancia en el dimensionamiento de un sistema de telecomunicaciones. Las variaciones determinísticas del teletráfico se pueden dividir en: 1. 2. 3. 4. Las variaciones de las 24 horas. Las variaciones semanales. Las variaciones anuales. El tráfico incrementa año a año debido, principalmente, al desarrollo tecnológico o también por la estabilidad o inestabilidad de la economía mundial. 5. El tipo de sistema de telecomunicaciones. 6. El tipo de servicio o servicios ofrecidos, entre otros factores. Se discutió antes que no es posible ni técnica ni económicamente conectar directamente a todos los abonados mediante canales dedicados con todos los demás suscriptores, en consecuencia existe la posibilidad de que en determinado momentos un usuario que desee usar el sistema de telecomunicaciones no pueda hacerlo por falta de recursos técnicos disponibles (tales como canales). Para poder hacer un estudio apropiado de los modelos es necesario distinguir entre aquellos sistemas de pérdidas (canales) y sistemas de tiempos de espera (servidores) o sistemas mixtos es decir aquellos que tienen una capacidad limitada de almacenamiento. Algunos inconvenientes que se encuentran en los sistemas con pérdidas se definen a continuación. 20 Figura 1—6: Tiempo medio de ocupación de una línea troncal en función de la hora del día. Definición 1—11: Congestión de llamadas B. Corresponde a la fracción de intentos de llamadas que encuentran el sistema ocupado. Definición 1—12: Tiempo de congestión E. Se define como la fracción de tiempos en que los servidores se encuentran ocupados. Definición 1—13: Congestión de tráfico C. Es la fracción del tráfico ofrecido que no es transportado. Por su parte el principal inconveniente que se presenta en los sistemas con retardos está en los tiempos de espera que causan por la necesidad de hacer fila mientras que los servidores se desocupan. 21 1.6 MODELOS DE TRÁFICO Existen varios modelos de tráfico que emplean el término Erlang. Son fórmulas que se emplean para calcular cuantas líneas de enlace son precisas en un sistema de telecomunicaciones. Por ejemplo, entre una central telefónica pequeña privada y una central pública, o para calcular los enlaces entre centrales públicas. También se emplea el término Erlang en la teoría de colas para estimar el número de personas que hay que poner a trabajar en los centros de llamadas. Los principales modelos de tráficos son los siguientes: 1.6.1 ERLANG B Es el modelo más común se emplea para calcular cuantas líneas son precisas para una cifra de tráfico (en Erlangs) determinada en la hora cargada. Este modelo supone que las llamadas bloqueadas se liberan inmediatamente. 1.6.2 ERLANG B EXTENDIDO Es similar al anterior, salvo que en este caso tiene en cuenta cual es el porcentaje de llamadas bloqueadas (que reciben señal de ocupado) y se puede especificar el porcentaje de reintentos. 1.6.3 ERLANG C Este modelo supone que las llamadas bloqueadas permanecen a la espera hasta que sean atendidas. Sirve, por ejemplo, para calcular las necesidades de personal de un centro de llamadas, donde aquellas llamadas que no se pueden atender de inmediato se ponen en cola. 1.7 RESUMEN DEL CAPÍTULO En este capítulo se presentaron las principales definiciones utilizadas en un estudio de teletráfico en redes de telecomunicaciones. Se discutió el concepto de Erlangs y su rol en el dimensionamiento, la concepción, la implementación de sistemas de telecomunicaciones. Se concluyó que aunque el tráfico en una red es de naturaleza 22 estocástica, existen patrones totalmente determinísticos que caracterizan a este tipo de sistemas complejos. 23 2 COMPENDIO DE TEORÍA DE PROBABILIDADES Pierre de Fermnat 1601 1665 Pierre Fermat, uno de los más influyentes matemáticos del siglo XVII, nació en Beaumont de Lomagne, en Francia, el 17 de Agosto de 1601, realizó estudios elementales en el colegio de los padres franciscanos. Su padre, comerciante de cueros, después de haberle dado una instrucción sólida adicional en su familia, le envió a estudiar Derecho a Tolousse, disciplina de la cual se graduó en el año de 1631. Allí pasó gran parte de su vida, ejerciendo Derecho. A partir de 1631, sirvió en el Parlamento local, llegando a ser consejero en 1634, finalmente murió en Castres en 1665. Fermat tuvo una carrera apacible, caracterizada por un cuidado ejemplar de hacer bien su tarea y, en sus momentos de ocio, supo crearse ocupaciones literarias y apasionarse por las matemáticas. Fermat, nunca mostró una inclinación hacia la escritura de libros más bien practicó la comunicación con sus colegas vía cartas escritas. Su intercambio de correspondencia, con otro grande como él llamado Pascal, marcó el punto de inicio para el desarrollo de la teoría matemática de la probabilidad. Fermat comparte, junto con Descartes, crédito por la invención de la geometría analítica, sin embargo, su máximo trabajo se ha reconocido en Teoría de Números. Fermat publicó rara vez sus descubrimientos, apenas algunas notas como apéndices a tratados escritos por otros autores. Su gran inspirador fue Diofanto y su libro de Aritmética. Como trabajaba para entretenerse, sus resultados más interesantes aparecen en los márgenes de estos tratados, y desgraciadamente un gran número de sus trabajos se han perdido. Mantuvo correspondencia con todos los científicos de su época; su reputación de matemático competente fue muy grande, y la estima en la que se le tuvo fue general. Pascal confesó que era aquél que tengo por el gran geómetra de toda Europa , y este personaje tan atrayente, de un carácter constante, afable, poco susceptible, sin orgullo, contribuyó ampliamente a la evolución de las matemáticas en campos tan variados como la geometría analítica, el cálculo diferencial e integral, la teoría de números y la teoría de las probabilidades. Los principales escritos de Pierre Fermat fueron publicados, después de su muerte, por su hijo mayor Clement-Samuel en 1679, bajo el título de Varia opera mathematica. Aunque esta publicación no encierra más que una parte de su producción como matemático, basta por sí sola para clasificar al célebre habitante de Tolousse como el más importante matemático francés del siglo XVII. 24 2.1 INTRODUCCIÓN Azar4 Se habla de azar cuando las causas de un acontecimiento se atribuyen a las leyes de la probabilidad, o en un sentido más amplio, cuando las causas de ese acontecimiento se desconocen. Aleatoriedad Se dice que un suceso es aleatorio cada vez que depende únicamente de la suerte o del azar. Esto significa que cada posible resultado tiene la misma posibilidad de resultar en la eventual ejecución del experimento. A este hecho se le denomina formalmente el principio de la razón insuficiente Incertidumbre Se emplea este término cuando un suceso no tiene certidumbre, es decir, que no es determinístico. Cada vez que un posible resultado no haya sido cuantificado desde la óptica del azar se dice que existe incertidumbre 2.2 ESPACIOS DE PROBABILIDAD Para esta sección es necesario tener en cuenta que: 1. El objetivo es formular un modelo probabilístico que pueda ser usado para describir eventos en el mundo real. 2. Es necesario superar los problemas que presentan las probabilidades a priori y a posteriori, e intentar responder preguntas tales como ¿Cuál es la probabilidad de que el tiempo entre llegadas de dos paquetes en 4 El concepto de azar es seguramente la idea clave en la construcción de la teoría que aquí se introduce. Una buena visión de este concepto desde la literatura se puede encontrar en el cuento La lotería en Babilonia escrito por Jorge Luís Borges 25 una red de telecomunicaciones sea menor que 10 min.? 3. El modelo incluirá los resultados encontrados hasta el momento. Definición 2—1: Experimento aleatorio Un procedimiento que tiene la propiedad que al ser ejecutado bajo las mismas condiciones puede arrojar diferentes resultados se denomina experimento aleatorio. Definición 2—2: Diseño experimental A la infraestructura necesaria para la ejecución de un experimento aleatorio se le denomina diseño experimental y se denota por la . Para garantizar el pleno cumplimiento de los supuestos de la experimentación se requiere una organización sistemática de los elementos que componen esa infraestructura. En otras palabras, el diseño experimental alude al contexto en el cual se realizará el experimento aleatorio. Ejemplo 2—1: Algunos experimentos aleatorios en computación Los experimentos aleatorios más empleados son, sin duda, aquellos relacionados con los juegos de azar. Tal es el caso de, por ejemplo, 1 : El lanzamiento de dados, 2 : Extraer una carta de un naipe, 3 : Extraer una bola de una urna, etc. Sin embargo, en ingeniería de la computación también los hay de sobra, algunos casos son, 4 : En una red de computadores con bus compartido, el acceso al bus puede ser considerado un experimento aleatorio, 5 : El número de correos que llegan a un servidor, 6 : El número de conexiones que apuntan a una determinada página Web en Internet, etc.. Lo más interesante es que a pesar de que el resultado de cada experimento es incierto, la realización de un alto número de ellos puede predecirse. Definición 2—3: Espacio Muestral 26 Es el conjunto de todos los posibles resultados de un experimento aleatorio. El espacio muestral se denota por la letra , de esta manera, i iI . Observación 2—1 1. El conjunto puede ser discreto o continuo 2. Sus elementos se pueden escribir con tuplas. 3. Cada tupla puede escribirse como i 1,1 , 1,2 ,, 1, j ,, 1,n i Ejemplo 2—2 Los siguientes son casos típicos de espacios muestrales: a. Si el experimento consiste en el lanzamiento de 2 monedas y registrar el número de la cara de cada una de las monedas. Entonces c, s , c, c , s, c , s, s . Aquí, en particular, 3 s, c y n2 2 b. Si el experimento aleatorio consiste en registrar el número de intentos que un computador debe realizar para acceder al bus compartido en una red de computadores. Entonces 1, 2,3,... . c. Si el experimento consiste en registrar el tiempo del primer daño de un computador nuevo. Entonces t t 0 . Definición 2—4: Evento A En general, se dice que un evento A es un subconjunto de , el espacio muestral. Cada evento se denota por una letra mayúscula. Se dice que un evento A ocurrió, una vez se ejecute el experimento , cuando el resultado obtenido i A . Ejemplo 2—3: Monedas 27 En el caso del experimento que consiste en lanzar 2 monedas, los siguientes son eventos válidos. A1: La primera moneda cae en cara, es decir A1 c, s , c, c ; A2: Las dos monedas coinciden en su resultado, es decir A2 c, c , s, s . Observación 2—2 1. No es discutible el hecho de que y, . Es decir, el conjunto vacío y su muestral) también son eventos. 2. conjunto completo (espacio Por razones que se discutirán más adelante, a se le denomina el evento imposible mientras que es el evento seguro. Ejemplo 2—4 En el experimento de lanzar un dado de 6 cara numeradas de 1 a 6, , , , , , y de esta manera m 6 . Así que el experimento cuenta con 26 64 Eventos posibles. Definición 2—5: Espacio de eventos Se define como la colección, denotada por , de todos los posibles eventos de un experimento aleatorio. Matemáticamente hablando, la colección satisface los siguientes axiomas (propiedades): 1. . 2. Si A entonces A . 28 3. Si A1 , A2 , , Ai , Entonces A + Ai . i=1 Cada vez que un conjunto de conjuntos cumple estos axiomas se dice que es una algebra . Ejemplo 2—5 Para algún experimento aleatorio con espacio de eventos , se tiene una algebra . Estas propiedades del espacio de eventos dan origen a una serie de resultados interesantes. Teorema 2—1 Si es una algebra entonces Demostración 1. Por el primer axioma . 2. Por el segundo axioma . 3. Dado que , se sigue el resultado. Teorema 2—2 Si A1 , A2 , , Ai , , An Entonces 1. A n Ai i 1 2. B n Ai i 1 Demostración (Queda como ejercicio para el estudiante). 29 Definición 2—6: Función de probabilidad Una función P cuyo conjunto de partida es el espacio de eventos y el de llegada el intervalo 0,1 , es decir, P: A 0,1 de suerte que P cumple las propiedades: P A 1. PA 0 para todo A . 2. P 1 . 3. Si A1 , A2 , , An con Ai Aj para i j . Entonces P Ai PAi . n i 1 n i 1 De esta definición se desprenden los las siguientes propiedades: Teorema 2—3: Complemento Si A entonces PA 1 PA . Demostración 1. AA 2. AA 3. PA A P PA PA 4. Dado que P 1 el teorema queda demostrado. Teorema 2—4: Probabilidad de la unión de eventos Para cada dos eventos A y B , P A B P A P B P AB . Más general, para eventos A1 , A2 , , An n n P Ai P Aj P Ai Aj i j i 1 j 1 30 P A A A i j k i j k 1 P A1 A2 n 1 An Demostración (de la primera parte se deja la segunda parte como ejercicio) A B A AB, y A AB ; entonces P A B P A P AB P A P B P AB. Definición 2—7: Evento fundamental A cada uno de los eventos conformados por un solo posible resultado se les denomina eventos fundamentales. Matemáticamente Ai i 1 En muchas situaciones se supone que P Ai n es decir, que los eventos fundamentales son equiprobables. Sin embargo, el Ejemplo 2—16 y el Ejemplo 2— 6 muestran que no siempre los eventos fundamentales son equiprobales. Ejemplo 2—6: Eventos fundamentales no equiprobables. Sea un experimento aleatorio con n posibles resultados 1 2 , , n . Se sabe que las probabilidades de los eventos fundamentales se comportan de tal manera que el evento (fundamental) j 1 ésimo es el doble de probable que el j ésimo . Sea Ak , 2 , , k ¿Cuál es la P Ak ? Para encontrar la respuesta, es necesario tener en consideración varios aspectos y resultados importantes en el análisis. 1. Una serie X t aX t 1 con condición de frontera X 1 tiene una solución general dada por la expresión X t X1at 1 2. n 1 1 rn Es importante recordar la serie geométrica finita. ar j a j 0 1 r 31 3. Con esos resultados en mente, es claro que p j 1 2 p j y, en consecuencia, p j p1 2 j 1 . La condición de frontera p1 puede encontrarse con relativa facilidad teniendo en cuenta que n p j 1 n n 1 1 2n n p1 2 j 1 p1 2 j p1 p1 2 1 1 . 1 2 j 1 j 0 Por lo tanto, p1 Este último resultado sugiere, entonces, que p j P Ak 2 j 1 . 2n 1 j 1 . 2 1 n Finalmente, k 1 2 j 1 2j 2k 1 pj n . n n 2 1 j 1 j 1 2 1 j 0 2 1 n k Definición 2—8: Espacio de probabilidad El objeto matemático descrito por , , P en el que es el espacio muestral, representa la álgebra de eventos y P la función de probabilidad, se denomina espacio de probabilidad. 2.3 PRINCIPIOS FUNDAMENTALES DE LA TEORÍA DE LA MEDIDA Definición 2—9: Una función de probabilidad de uso común Una función particular que cumple las propiedades establecidas en la Definición medida A 2—6 y que se constituye en la función más usada es P A . medida Observación 2—3 Para espacios muestrales discretos la función de medida apropiada es el conteo, es decir, el cardinal de los eventos involucrados medida A A ; mientras que para espacios muestrales continuos se debe considerar la dimensión de cada posible resultado experimental así: 1. 1 i iI La medida apropiada es la longitud de eventos. 32 2. 1 , 2 i 3. 1 , 2 , 3 i La medida apropiada es el área de los eventos. iI iI La medida apropiada es el volumen de los eventos. 2.3.1 REGLAS DE LA MEDIDA CONTINUA Tan importante como saber contar para espacios muestrales discretos, es recordar algunas leyes generales del cálculo integral y diferencial para encontrar medidas en espacios continuos. Dos ejemplos sencillos ilustran esta idea. Ejemplo 2—7: Galois En la ciudad de la Discreción los duelos son raramente fatales. Allí, cada contrincante llega aleatoriamente entre las 5 a.m. y las 6 a.m. el día acordado y espera exactamente 1 0,1 minutos (¡Honor servido!) a menos que su oponente llegue en ese intervalo de tiempo (o haya llegado antes y lo esté esperando) caso en el cual habrá pelea y uno de ellos morirá. ¿Cuál es la probabilidad de muerte? Solución (Teórica) a priori: 1. X i : Hora de llegada del i ésimo duelista con i 1,2 sin pérdida de generalidad puede considerarse que X i 0,1 y por lo tanto el espacio muestral está dado por x1, x2 x1, x2 0,1 y definiendo el evento A : los dos duelistas se encuentran. entonces A x1, x2 x1, , x2 , x1, x2 1 donde 1 , de ésta manera se pide calcular FX P A 2. P A medida A medida Dado que el evento A es bidimensional continuo, la medida apropiada es el área, entonces P A área A área 33 X2 1 1 1 1 1 x2 x1 1 A x2 x1 1 1 X1 0 1 1 Figura 2—1: Espacio muestral y eventos de interés del ejemplo de Galois 3. Es fácil ver que el área 1 y que el área A 1 1 1 21 12 2 4. En consecuencia la P A 21 12 , en particular si el tiempo de espera es de 5 minutos, 1 23 1 0.16 , es decir en la ciudad de la y la P A 12 144 Discreción las muertes debidas a los duelos son poco frecuentes De esta manera se concluye que el cálculo integral y diferencial juegan un papel importante en el cálculo de probabilidades para espacios muestrales continuos. Ejemplo 2—8: Raíces complejas (Tarea) ¿Cuál es la probabilidad de que la ecuación cuadrática x2 2bx c 0 tenga raíces complejas si b ~ U 1 , 1 y c ~ U 1 , 1 y se sabe que son independientes? Solución analítica: 34 1. Un supuesto que no resulta cuestionable está en que el experimento b ~ U 1 , 1 y c ~ U 1 , 1 aleatorio es tal que con 1 y b independiente de c . 2. Dada la pareja b, c es claro que la ecuación generaría raíces complejas si b 2 c 0 . Y, en consecuencia, la ecuación de la parábola c b 2 determina un límite entre las raíces reales y complejas. 3. Esta situación puede observarse en la representación cartesiana de la Figura 2—2. c c b2 1 Raíces Complejas 1 , 1 A 1 1 b Raíces Reales A 1 Figura 2—2: Espacio muestral y eventos de interés del ejemplo de las raíces 4. En consecuencia, definiendo el evento A b, c | b2 c 0, , b, c 1 , 1 2 35 así mismo, el espacio (b, c) | b 1 , 2 , , c 1 , 2 1 4 3 área( A) . Claramente, área( A) 2 1 1 b2 db 12 , mientras que 3 área() 1 área() 412 , así que P( A) 1 3 1 . 5. En particular si 1 4 , entonces 6. muestral esta dado por y por lo tanto P( A) P( Raíces com plejas ) También es claro que P( A) 1 . 6 1 Lim P( A) Lim 1 1 3 1 0 Equivalente la ___ 1 P( A ) P( Raices reales) 1 . 2.3.2 REGLAS DEL CONTEO 1. La actividad de contar es más complicada de lo que parece a simple vista y requiere especial cuidado y seriedad en su tratamiento. 2. La Mayoría de los problemas en probabilidad son relativamente sencillos de formular, pero generalmente, complicados de resolver. En la Figura 2—3 se proponen dos factores importantes que deben tenerse en cuenta cada vez que se lleva a cabo una actividad de conteo. Esos elementos clave son las tareas (filas en el diagrama) y las etapas (columnas). El número de etapas depende de la tarea, sin embargo es usual que sean constantes para toda tarea. En un sentido amplio, las tareas son realizaciones en las que, de una manera disyuntiva, puede realizarse el conteo. De esta manera se emplea el conectivo o, mientras que se usa el y para las etapas. 36 Proposición 2—1: Cálculo del número de elementos de un evento Si un experimento aleatorio genera un espacio muestral de naturaleza ni discreto, y A entonces A eij . i 1 j 1 m TAREAS De este esquema simple pueden deducirse alrededor de cinco reglas fundamentales del conteo. A T1 T2 Ti Tm e11 e12 e13 e1 j e21 e22 e23 e2 j ei1 ei 2 ei 3 eij em1 em 2 em3 emj e1n1 e2n2 eini emnm ETAPAS Figura 2—3: Factores importantes en el proceso de contar Ejemplo 2—9: Probabilidad combinatoria Por un estudio de 120 pasajeros, una línea aérea supo que 48 pasajeros (Clase A) prefirieron tomar vino con la comida, 78 (Clase B) prefirieron jugos, y 66 (Clase C), té con hielo. Además, 36 pasajeros tomaron dos tipos de bebidas y 24 tomaron de todas. Si en la muestra anterior se seleccionan dos pasajeros al azar, ¿Cuál es la probabilidad de que (Evento D) los dos pasajeros quieran solo té con hielo? ¿(Evento E) los dos tomen exactamente dos de las tres bebidas ofrecidas? 37 A partir de la información proporcionada se elaboro el diagrama de Venn de la Figura 2—4. El espacio muestral consta de las parejas de pasajeros que se 120 pueden seleccionar de la muestra de 120, de modo que 7140 . El 2 diagrama de Venn indica que hay 18 pasajeros que beben sólo té con hielo, por 18 51 3 tanto D y P D . De manera similar P E . 2380 34 2 A C 12 0 18 24 12 12 30 B Figura 2—4: Diagramas de medida para el ejemplo de probabilidad combinatoria 2.4 PROBABILIDAD CONDICIONAL E INDEPENDENCIA ESTOCÁSTICA Definición 2—10: Probabilidad Condicional Si es un evento aleatorio que genera el espacio de probabilidad , , P y A y B dos eventos de tomados de entonces de dice que la probabilidad condicional del evento A dado que se sabe que ha ocurrido B , y que se denotado P AB por P A B , se define como P A B siempre que P B 0 . P B Teorema 2—5: Probabilidad total Si es un experimento aleatorio que genera un espacio de probabilidad Bi con i 1, 2,3, , n una colección de eventos tomados de , , P , A y que cumplen las condiciones: 38 1. 2. Bj . Bi n Bi . i 1 3. P B j 0 para j 1, 2,3, ,n . n Entonces P A P A Bi P Bi . i 1 B1 A B3 B2 ... Bn Figura 2—5: Representación gráfica de las propiedades de los eventos B. Demostración: 1. Como A n A Bi y los eventos A Bi son disyuntos, y i 1 2. Por el tercer axioma de la función de probabilidad n n n P A P A Bi P A Bi P A Bi P Bi . i 1 i 1 i 1 NOTA: 1. En particular P A =P A B P B P A B P B . 39 2. Un nombre generalmente aceptado para referirse a las probabilidades condicionales que pueden calcularse con base en la información disponible de la situación a resolver, es verosimilitudes del problema. Ejemplo 2—10: Juego de Craps. El juego de Craps se practica dejando que un jugador lance dos dados hasta que gana o pierde, el jugador gana en el primer lanzamiento si tiene como total 7 u 11, pierde en el primer lanzamiento si tiene un total de 2, 3 o 12, si el jugador obtiene cualquier otro total en su primer lanzamiento, ese total se denomina su punto. Continúa haciendo lanzamiento hasta que obtenga 7 o su punto. El jugador ganará si obtiene su punto y pierde si obtiene 7. ¿Cuál es la probabilidad de ganar el juego? 1. Algoritmo Ver Algoritmo 2—1. 2. Solución analítica 1. Definiendo los eventos: G: Ganar el juego. C: Ganar el juego en el primer intento. A: Ganar el juego después del primer intento. Entonces la probabilidad de ganar el juego está dada por la expresión PG PC A PC PA. A continuación se realiza un análisis detallado para el cálculo de cada una de estas probabilidades. 2. Primero deben calcularse las probabilidades asociadas con los totales del experimento aleatorio. Debe notarse que hay 6 6 36 posibles resultados igualmente probables que se muestran en la tabla que sigue. En esta tabla cada fila indica el resultado del dado uno mientras las columnas representan el resultado del dado dos. 40 1 2 3 4 5 6 1 2 3 4 5 6 7 2 3 4 5 6 7 8 3 4 5 6 7 8 9 4 5 6 7 8 9 10 5 6 7 8 9 10 11 6 7 8 9 10 11 12 3. Contando las celdas en la tabla pueden obtenerse las siguientes probabilidades de los totales: Total 2 3 4 5 6 7 8 9 PTotal1 36 2 36 3 36 4 36 5 36 6 36 5 36 4 36 4. La probabilidad PC es entonces PC P7 P11 10 11 12 3 36 2 36 1 36 6 2 8 0.22222 36 36 36 (Obsérvese que la probabilidad de perder en el primer intento es igual a P2 P3 P12 1 2 1 4 ). 36 36 36 36 5. Para calcular la PA se definen los eventos: B1: El puntaje del jugador es 4. B4: El puntaje del jugador es 8. B2: El puntaje del jugador es 5. B5: El puntaje del jugador es 9. 41 B3: El puntaje del jugador es 6. B6: El puntaje del jugador es 10. Observe que de la tabla de probabilidades del total (dada previamente) es claro que, por ejemplo, PB 5 4 36 . 6. Para calcular PA puede usarse un razonamiento como el que sigue. Puesto que solamente existen las opciones de ganar con el puntaje y perder obteniendo 7, se pueden calcular las probabilidades condicionales de ganar dado un puntaje es decir calcular PA Bi con i 1,2,3,4,5,6 . Por ejemplo, cuando el puntaje es 9, hay 4 formas de obtener ese total y 6 de alcanzar un 7, de esta manera, la probabilidad de que en el experimento se gane dado un puntaje 9 es PA B5 4 4 . 4 6 10 En la tabla que sigue se resumen esas probabilidades condicionales. 1 i PA Bi 3 3 3 6 9 2 3 4 5 6 5 5 3 3 4 4 5 5 4 4 4 6 10 5 6 11 5 6 11 4 6 10 3 6 9 7. utilizando el teorema de la probabilidad total se concluye que 6 3 3 4 4 5 5 5 5 PA PA Bi PBi i 1 9 36 10 36 11 36 11 36 4 4 3 3 0.27071. 10 36 9 36 8. Finalmente, la PG PC A PC PA 0.22222 0.27071 0.49293 . Lo que permite concluir que el juego es muy justo, ¡la probabilidad de ganar es casi igual a la de perder! 42 INICIO t←Total_Dos_Dados() SI NO t==7||t==11 SI Gana←1 (t==2)|| (t==3)|| (t==12) NO Gana←0 Punto←t Salir←0 t←Total_Dos_Dados() SI NO t==Punto SI Gana←1 NO t==7 Gana←0 Salir←1 Salir←1 NO Salir==1 SI Retornar(Gana) FIN Algoritmo 2—1: Simulador para el juego de Craps. 43 Teorema 2—6: Bayes Si es un experimento aleatorio que genera un espacio de probabilidad Bi con i 1, 2,3, , n una colección de eventos , , P , A , P A 0 y tomados de que cumplen las condiciones: 1. 2. Bi n Bj . Bi . i 1 3. P B j 0 para j 1, 2,3, Entonces P Bk A ,n . P A Bk P Bk n P A B P B i i 1 . i Demostración: 1. Con base en la definición de probabilidad condicional P Bk A P Bk P[ A] A . 2. También es claro que P Bk A P A Bk P Bk . 3. Por el teorema de la probabilidad total es claro que n P A P A Bi P Bi con lo cual queda demostrado el teorema de i 1 Bayes. NOTA: 1. En particular P[ B | A] P A B P B P A | B P B P A | B P B . 44 2. Sin duda, el teorema de Bayes se constituye en uno de los resultados más frecuentemente empleado en el modelamiento de sistemas computacionales. Una sola aplicación corrobora esta afirmación: las denominadas redes Bayesianas, empleadas en la construcción de sistemas inteligentes, es un caso representativo. Ejemplo 2—11: Transmisión satelital. Un satélite del clima está enviando un código binario de 0’s y 1’s describiendo el desarrollo de una tormenta tropical. El ruido en el canal puede esperarse que introduzca cierta cantidad de errores de transmisión. Suponga que el mensaje que esta siendo transmitido está compuesto en un 70% de 0’s y existe un 80% de probabilidad de que un 0 o 1 enviados sean recibido correctamente. Si un “1” es recibido, ¿Cuál es la probabilidad que un “0” haya sido enviado? Solución: Definiendo los eventos Bi “Un i fue enviado,” i 0,1, y definiendo el evento Ai como “Un i fue recibido”, se desea encontrar la P B0 A1 . Asimismo, de acuerdo con los datos, es fácil verificar que: P B0 0.7 , P B1 0.3 , P A0 B0 0.8 , P A1 B0 0.2 , P A1 B1 0.8 , y que P A0 B1 0.2 . habiendo sido enviado dado En consecuencia, la probabilidad de un 0 que 1 fue recibido es P B0 A1 P A1 B0 P B0 0.2 0.7 0.37 P A1 B0 P B0 P A1 B1 P B1 0.2 0.7 0.8 0.3 Definición 2—11: Eventos independientes Sea un experimento aleatorio que genera un espacio de probabilidad , , P , A y B dos eventos tomados de , Entonces se dice que A es independiente de B si y sólo si 1. P[AB] P[A] * P[B] 45 2. P[A | B] P[A] Si P[B] > 0 3. P[B | A] P[B] Si P[A] > 0. 2.5 VECTOR ALEATORIO Y FUNCIÓN DE DISTRIBUCIÓN CONJUNTA 2.5.1 INTRODUCCIÓN Definición 2—12: Función indicadora La función I: 0,1 de forma que I A 1 Si A se denomina función I A 0 Si A indicadora. 2.5.2 DEFINICIONES Definición 2—13: Variables aleatorias Dado un espacio de probabilidad , , P , asociado con un experimento aleatorio , se define variable aleatoria a una función X cuyo dominio es el espacio muestral y su recorrido los números reales R . Es decir, X: R X . NOTAS 1. Se emplean siempre letras mayúsculas para denotar a cada una de las variables aleatorias. 2. Si los posibles valores de la variable aleatoria es un número finito o contablemente infinito se dice que la variable aleatoria es discreta. 3. Si los posibles valores de la variable aleatoria pertenecen a un intervalo de los números reales se dice que la variable aleatoria es continua. 46 Definición 2—14: Vector aleatorio Dado un espacio de probabilidad , , P , asociado con un experimento aleatorio , se define a un conjunto de n variables aleatorias X X1 , X 2 , , X n para las cuales x x1 , x2 , , xn , representa un conjunto de valores determinados se le denomina vector aleatorio. Definición 2—15: Distribución conjunta la Distribución Conjunta para un vector aleatorio se define como FX1 , X 2 , , Xn x1 , x2 ,..., xn P X1 x1, X 2 x2 ,..., X n xn (1— 1) 2.6 FUNCIONES DE DENSIDAD CONJUNTAS 2.6.1 VECTORES ALEATORIOS DISCRETOS Definición 2—16: Densidad conjunta discreta La función de densidad conjunta discreta se define como: f X1 , X 2 , , Xn x1, x2 ,..., xn P X1 x1, X 2 x2 ,..., X n xn Las condiciones que f X1 , X 2 , , Xn x1 , x2 ,..., xn debe satisfacer son: x1, x2 ,..., xn 0,1 para 2. f X , X , , X x1 , x2 ,..., xn 1 1. f X , X , 1 2 , Xn 1 x1 2 (1— 2) xi para todo i n xn Ejemplo 2—12: Familia multinomial. Un experimento aleatorio con espacio muestral 1 , 2 , , k 1 , con pi P i así k 1 que p 1 . Si se realizan n ensayos independientes y se define el vector aleatorio i 1 i 47 X X1 , X 2 , , X k 1 con X i definido como el número de veces que apareció i . Se puede verificar que f X , X 1 2, , X k 1 x1 , x2 , , xk 1 k 1 n! k 1 xi ! p i 1 xi i k 1 donde xi 0,1, , n y x n . i 1 i i 1 2.6.2 VECTORES ALEATORIOS CONTINUOS Definición 2—17: Densidad conjunta continua La función de densidad está dada por: f X1 , X 2 , n FX , X , , X n x1 , x2 ,..., xn x1x2 ...xn 1 2 Las condiciones que f X1 , X 2 , , Xn ,Xn x1 , x2 ,..., xn (1— 3) x1 , x2 ,..., xn debe satisfacer son: 1. f x1 , x 2 ,..., x n 0 para xi para todo i 2. ... f x1 , x 2 ,..., x n dx1 dx 2 ...dx n 1 2.6.3 OTRAS CLASES DE VECTORES ALEATORIOS Definición 2—18: Vector aleatorio mixto Dado un espacio de probabilidad , , P , asociado con un experimento aleatorio , se dice que el vector aleatorio X X1 , X 2 , , X n es mixto cuando algunas de sus variables son continuas y las restantes discretas. 48 2.7 DISTRIBUCIONES ESTOCÁSTICA CONDICIONALES E INDEPENDENCIA 2.7.1 VECTORES ALEATORIOS CONTINUOS 2.7.1.1 Distribuciones Marginales Definición 2—19: Densidad marginal continua. Para un vector aleatorio X X1 , X 2 , , X k , , X n con función de densidad conjunta continua f X1 , X 2 , , Xn x1 , x2 ,..., xn se define la función de densidad marginal de las “últimas n k x ’s" como : f X k 1 , 2.7.1.2 ,Xn xk 1 ,..., xn ... f X1 , X 2 , ,Xn x1 ,..., xk , xk 1,..., xn dx1...dxk (1— 4) Distribuciones Condicionales Definición 2—20: Densidad condicional continua. Para un vector aleatorio X X1 , X 2 , , X k , , X n con función de densidad conjunta continua f X1 , X 2 , , Xn x1 , x2 ,..., xn se define a función de densidad condicional para las "primeras k x 's" dados los “últimos n k x 's" como la función: f X1 , , X k X k 1 , , X n x ,..., x 1 k xk 1 ,..., xn función de densidad de todas las n's densidad marginal de las "últimas n k x" f X1 , f X k 1 , x1 , x2 ..., xn , X xk 1 ,..., xn (1— 5) ,Xn n El uso las palabras "primero" y "último" en estas descripciones no implica ninguna secuencia rígida de las variables; son meramente ayudas convenientes para la identificación. 49 Observación 2—4 La correspondiente función de densidad condicional es: c x Y yh F c x Y y h x f b x, yg f b yg f X X Y Y esta es la forma comúnmente más usada. Intercambiando X y Y tenemos: h ff b xb,xygg c (3-11) fY yX x X Cuando no hay peligro de ambigüedad, las funciones de densidad condicional serán escritas como c h ffb xb,yygg f b x, yg f c y xh f b yg f xy Y X De estas dos ecuaciones una puede obtener la versión continua del teorema de Bayes, eliminando f y, x de la última expresión nos conduce directamente a: b g c h f c xf yhbfxgb yg f yx Y X Este resultado también posibilita la obtención de otra expresión para la función de densidad de la probabilidad marginal notando que b xg z f b x, ygdy f X zc h bg f x y f Y y dy 50 Y bg fY y zc zb h b xgdx f yx f g f x , y dx X Ejemplo 2—13 Para un vector aleatorio bidimensional con: b g 65 c1 x yh f x, y 0 x 1,0 y 1 2 0 en otra parte Determinar sus marhinales y sus condicionales . Solución Integrando esta función solo con respecto a y y solo con respecto a x produce las dos funciones de densidad marginal como f X b g FGH x 6 x2 1 5 2 IJ K 0 x 1 Y b g 65 FGH1 3y IJK fY y 0 y 1 De (3-12) y (3-13) las dos funciones de densidad condicional pueden ahora ser escritas como c h f xy 1 x 2y y 1 3 0 x 1,0 y 1 Y c h f yx 1 x 2y x2 1 2 0 x 1,0 y 1 51 2.7.2 VECTORES ALEATORIOS DISCRETOS 2.7.2.1 Distribuciones Marginales Definición 2—21: Densidad marginal discreta. Para un vector aleatorio X X1 , X 2 , , X k , , X n con función de densidad conjunta discreta f X1 , X 2 , , Xn x1 , x2 ,..., xn se define la función de densidad marginal de las “últimas n k x ’s" como : f X k 1 , ,Xn xk 1 ,..., xn f X , X , 1 xn xn1 2.7.2.2 2 ,Xn x1 , , xk , , xn xk 1 (1— 6) Distribuciones Condicionales Definición 2—22: Densidad condicional discreta. Para un vector aleatorio X X1 , X 2 , , X k , , X n con función de densidad conjunta discreta f X1 , X 2 , , Xn x1 , x2 ,..., xn se define a función de densidad condicional para las "primeras k x 's" dados los “últimos n k x 's" como la función: f X1 , , X k X k 1 , , X n x ,..., x 1 k xk 1 ,..., xn función de densidad de todas las n's densidad marginal de las "últimas n k x" f X1 , f X k 1 , x1 , x2 ..., xn , X xk 1 ,..., xn (1— 7) ,Xn n El uso las palabras "primero" y "último" en estas descripciones no implica ninguna secuencia rígida de las variables; son meramente ayudas convenientes para la identificación. 2.7.3 INDEPENDENCIA Definición 2—23: Independencia estocástica. 52 Un vector aleatorio X X1 , X 2 , , X k , , X n , bien sea discreto o continuo, denomina n estocásticamente independiente cuando f X1 , X 2 , ,Xn x1 , x2 ,..., xn f X xi i 1 i , o n bien, FX1 , X 2 , ,Xn x1 , x2 ,..., xn FX xi . i i 1 2.8 ESPERANZA MATEMÁTICA Y MOMENTOS 2.8.1 VALOR ESPERADO DE FUNCIONES DE VARIABLES ALEATORIAS Definición 2—24: Esperanza matemática de una función. Para un vector aleatorio X X1 , X 2 , , X k , , X n con función de densidad conjunta f X1 , X 2 , , Xn x1 , x2 ,..., xn n como: g: E g X1, X1, y se define la esperanza matemática de una funcuón , X n g x , 1 xn xn1 , xk , , xn f X1 , X 2 , ,Xn x1 , , xk , , xn Discreto xk 1 g x , 1 , xk , , xn f X1 , X 2 , ,Xn x1 , , xk , , xn dx1dx2 dxn Continuo Teorema 2—7: Chebyshev Sea X ~ f X x , g : P g x k una función no negativa y k 0 Entonces E g x k Demostración: 1. E g x g x f x x dx 53 x:g g x f x dx g x f x dx x x x k x: g x k x: g x: g g x f x dx x x k k f x dx x x k kP g x k 2. Finalmente dividiendo entre k se sigue el resultado. NOTAS: Observación 2—5 1. Es claro que 2. E g X Es fácil ver que: P g X k 1 k ¡Error! No se pueden crear objetos modificando . códigos de campo. 2.8.2 MOMENTOS Definición 2—25: Momentos alrededor de cero. k El k -ésimo momento en cero de la i -ésima variable es E X i , el valor esperado de la k -ésima potencia de x i : 54 k X i k xi f Xi xi dxi k E Xi xik f X i xi xi Si X es continuo Si X es discreto y sustituyendo de (1— 4) para f X i xi resulta en k X i k ... xi f X1 , X 2 , , X n x1 , x2 ,..., xn dx1dx2 ...dxn xik f X1 , X 2 , , X n x1 , x2 ,..., xn xn xn Si X Continuo (1— 8) Si X Discreto Observación 2—6 1. En particular, cuando n 1 , el exponente k normalmente se omite y i se escribe en lugar de i 1 . 2. El vector de medias que corresponde a X X1 , X 2 , , Xn es E X 1 , 2 , , j , , n . Definición 2—26: Momentos alrededor de una constante. Definición 2—27: Covarianza. La covarianza entre las i -ésima y la j -ésima variables para i j es ij E X i i X j j , (1— 9) Observación 2—7 Se dice que las variables X i y X j son no correlacionadas cuando ij 0 . Definición 2—28: Varianza. La varianza de la i -ésima variable es 55 i2 E X i i 2 (1— 10) Definición 2—29: Matriz de Varianzas–Covarianzas. Las varianzas y covarianzas entre las variables en el vector X X1 , X 2 , , Xn están dadas por (1— 9) y (1— 10). Organizando estas varianzas y covarianzas como elementos de una matriz se obtiene la matriz de varianza-covarianza de X como: var X V ij para i, j 1, 2, ,n Observación 2—8 1. Los elementos diagonales de V son las varianzas y los elementos que no están en la diagonal son las covarianzas. 2. La varianza de una variable aleatoria escalar X i se escribirá como v X i , |considerando que la matriz de varianza-covarianza V de un vector de variables aleatorias X X1 , X 2 , , X n se denotará como var X . 2.8.3 COVARIANZA Y COEFICIENTE DE CORRELACIÓN Definición 2—30: Matriz de correlación R. La correlación entre la i -ésima y la j -ésima variables se define como ij ij , la i j matriz de correlación es 1 1 R ij D VD para i, j 1,..., n i i j j (1— 11) Observación 2—9 56 1. Donde las D son las matrices diagonales con los elementos i 1, 2, 1 i para ,n. 2. Claramente los elementos diagonales de R son todos la unidad, y R es simétrica. 3. La matriz V es definida no negativa. 2.8.4 FUNCIONES GENERADORAS DE MOMENTOS Definición 2—31: Función generadora de momentos. Dado un vector aleatorio X X1 , X 2 , , X n con función de densidad conjunta f X1 , X 2 , , Xn x1 , x2 ,..., xn , se define la función generadora de momentos (f.g.m.) densidad conjunta para un vector de parámetros t t1 , t2 , M X t E et1x1 t2 x2 ...tn xn E et x Y la f.g.m. de una función escalar g : n ,t j , de la , tn : (1— 12) de los elementos de X X1 , X 2 , , X n , como: g X t M g X t E e (1— 13) 2.8.5 ESPERANZA E INDEPENDENCIA Teorema 2—8: Independencia. Si X X1 , X 2 , , X n es un vector aleatorio conformado por variables aleatorias independientes y sean gi : n un conjunto de m funciones de valor real m m entonces E gi X E gi X . i 1 i 1 Demostración: Se deja como ejercicio. 57 2.9 TRANSFORMACIONES Es natural requerir el cálculo de alguna estructura probabilística conjunta de muchas variables aleatorias que se obtienen como funciones de otro conjunto dado de variables aleatorias del que se conoce su comportamiento probabilístico. 2.9.1 CASO UNIVARIADO Se presenta a continuación un resumen de algunos resultados de uso frecuente en los casos continuo y discreto. No se incluyen las demostraciones puesto que, al final del capitulo se extienden los resultados y se incluyen las demostraciones más importantes. 2.9.1.1 Transformación lineal univariada Teorema 2—9 Si X ~ f X x , a 0 y b constantes reales y definiendo Y aX b entonces 1 y b y b fX fY y f X cuando X es cuando X es discreta o bien fY y a a a continua. 2.9.1.2 Suma de dos variables aleatorias Teorema 2—10 Si X1 ~ f X x y X 2 ~ f X x independientes y definiendo la transformación Z X1 X 2 1 2 entonces f Z z f X1 x f X 2 z x cuando X1 y X2 son discretas o bien Todo x fZ z f X1 x f X 2 z x dx cuando X 1 y X 2 son continuas. Las sumatorias e integrales presentadas en este teorema se denominan las sumatorias o integrales de convolución, que son de utilidad no solamente en probabilidad sino también en otros campos de la ingeniería de la computación. 2.9.1.3 Cuadrado de una variable aleatoria 58 Si X ~ f X x continua y definiendo Y X 2 entonces fY y 1 2 y f y f y . X X 2.9.2 VECTORES ALEATORIOS DISCRETOS Proposición 2—2: Método de cálculo Suponga un vector aleatorio discreto de n variables discretas aleatorias X1 , , X n con estructura probabilística f X , 1 ,Xn x1 , , xn . denota el espacio de posibles realizaciones de X1 , , X n ; es decir, x1 , , xn : f X , 1 , Xn x1, , xn 0 . Se desea obtener la densidad conjunta de Y1 g1 X1 , , X n , , Yk gk X1 , , X n . Cuando Y1 , , Yk es conjuntamente discreto su estructura probabilística puede ser calculada como Y1 y1; ;Yk yk fY , 1 ,Yk y1 , , yk f X1 , , X n x1 , xn , donde la sumatoria se realiza sobre los x1 , , xn pertenecientes a por cada elemento del nuevo vector de forma que y1 , , yk g1 x1 , , xn , , gn x1 , , xn . Ejemplo 2—14 Se sabe que X1 , X 2 , X 3 tienen una función densidad discreta conjunta dada por: x1 , x2 , x3 0, 0, 0 0, 0,1 0,1,1 1, 0,1 1,1, 0 1,1,1 f X1 , X 2 , X 3 x1 , x2 , x3 1 8 3 8 1 8 1 8 1 8 1 8 Encontrar la densidad conjunta de Y1 g1 X1 , X 2 , X 3 X1 X 2 X 3 y de Y2 g2 X1 , X 2 , X 3 X 3 X 2 . Solución: Resulta claro que 0,0,0 , 0,0,1 , 0,1,1 , 1,0,1 , 1,1,0 , 1,1,1 y que, en consecuencia, 59 y1 , y2 0, 0 1,1 2, 0 2,1 3, 0 fY1 ,Y2 y1 , y2 1 8 3 8 1 8 2 8 1 8 Puesto que, por ejemplo, fY ,Y 0,0 f X , X 1 f X1 , X 2 , X 3 1,1, 0 2 1 2 , X3 0, 0, 0 1 , 8 y fY ,Y 2,1 f X , X 1 2 1 2 , X3 1,0,1 2 , de forma similar se han calculado los restantes valores de la 8 tabla. 2.9.3 VECTORES ALEATORIOS CONTINUOS 2.9.3.1 Formulación Proposición 2—3: Método de cálculo Supongamos ahora que se tiene una estructura probabilística conjunta (función de densidad) f X , , X x1 , xn del vector aleatorio n dimensional X1 , , X n , con espacio 1 n de posibles realizaciones: x1 , , xn : f X 1, , Xn x1, , xn 0 (1— 14) (38) De nuevo se asume que se desea calcular la densidad conjunta del vector compuesto por las variables aleatorias Y1 g1 X1 , , X n , , Yk gk X1 , , X n , donde k es algún entero que satisface la restricción 1 k n . Nota: 1. Si k n, se introducirá adicionalmente, nuevas variables aleatorias gk 1 X1 , , X n , , Yn gn X1 , , X n Yk 1 para seleccionar adecuadamente las funciones gk 1 , , gn ; 2. Cuando se encuentre la distribución conjunta de Y1 , , Yn , finalmente 60 se puede calcular la distribución marginal de Y1 , , Yk de la distribución conjunta de Y1 , , Yn . Este uso de dar la posibilidad de introducir variables aleatorias convierte a la transformación y1 g1 x1 , , xn , , yn gn x1 , , xn en una transformación de un espacio n a otro espacio n dimensional, necesario en el método de cálculo propuesto. 3. Se puede asumir que se esta buscando la distribución conjunta de Y1 g1 X1 , , X n , , Yn gn X1 , , X n (en tanto sea la distribución conjunta de Y1 , , Yk ) cuando se ha dado la probabilidad conjunta de densidad de X1 , , X n . En primera instancia se presentan los resultados para n 2 y después se generaliza para n 2 . 2.9.3.2 Transformación continua general Teorema 2—11 Sea X X1 , X 2 , , X n un vector aleatorio continuo con estructura probabilística f X1 , ,Xn x1 , , xn . Donde x1 , , xn : f X , 1 ,X x1, , xn 0 es el espacio de posibles valores o realizaciones del vector. Supóngase que puede ser descompuesta en conjuntos 1 , ,m tal que y1 g1 x1 , , xn , y2 g2 x1 , , xn , , yn gn x1 , , xn es una transformación uno a uno de i sobre , i 1, , m. y que x1 g1i1 y1 , , yn , , xn gni1 y1 , , yn denota la transformación inversa de sobre i , i 1, , m. Se define como 61 g1i1 y1 g 1 2i i y1 g ni1 y1 g1i1 yn g 2i1 yn g ni1 yn g1i1 y2 g 2i1 y2 g ni1 y2 para i 1, , m. y se asume que todas las derivadas parciales en J i son continuas sobre y el determinante J i , i 1, , m. Entonces: para y1 , , yn en . fY1 , Yn m y1 , , yn i f X1 , i 1 ,Xn g y , 1 1i 1 , yn , , yn , g ni1 y1 , (42) Ejemplo 2—15 Sean X 1 , X 2 y X 3 son variables aleatorias independientes estándar y1 x1 , y2 x1 x2 y 2 y3 x1 x2 x3 . Entonces 3 x1 y1 , x2 2y2 y1 y x3 3 y3 2 y2 ; así la 0 0 1 transformación es uno a uno. ( m 1 en el teorema 3) 1 2 0 6 , por lo 0 2 3 tanto fY1 ,Y2 ,Y3 y1 , y2 , y3 f X1 , X 2 , X 3 x1 , x2 , x3 1 6 2 3 2 2 exp 12 y12 2 y2 y1 3 y3 2 y2 3 1 2 2 2 1 6 exp 2 2 y1 4 y1 y2 8 y2 12 y2 y3 9 y3 . 2 Las distribuciones marginales se pueden obtener de la distribución conjunta; por ejemplo, fY3 y3 exp 1 2 2 y 2 1 fY1 ,Y2 ,Y3 y1 , y2 , y3 dy1dy2 4 y1 y2 2 y dy1 dy2 2 2 1 6 2 3 exp 12 6 y22 12 y2 y3 9 y32 6 1 2 2 2 62 exp 12 6 y22 12 y2 y3 6 y32 exp 12 3 y32 dy2 3 2 exp 32 y3 finalmente es claro 2 que Y3 presenta una estructura probabilística normal con media 0 y varianza. 2.10 FAMILIA DE GAUSS MULTIDIMENSIONAL 2.10.1 FUNCIÓN DE DENSIDAD Definición 2—32: Densidad gaussiana (normal). Un vector aleatorio X X1 , X 2 , , X n con vector de medias 1 , 2 , , n donde j E X j y matriz de la varianza-covarianza V ij , pertenece a la familia gaussiana o normal cuando su función de densidad de probabilidad conjunta está dada por la expresión: f X1 , X 2 , Xn x1 , x2 , , xn e 1 x ' V 1 x 2 2 1 n 2 V 1 2 (1— 15) Observación 2—10 1. Se escribe X es N , V (y se lee el vector X tiene estructura probabilística de Gauss) o, simplemente, X N ,V . 2. Cuando E X i para todo i entonces 1 ; y si los X i son mutuamente independientes, todos con la misma varianza 2 , entonces V 2 I y escribimos " x es N 1, 2 I ". Esto es equivalente a la notación más usual DNI , 2 , pero manteniendo la notación de matriz de N 1, 2 I se da énfasis a que éste es simplemente un caso particular del modelo normal multivariado general N , V . 3. La matriz V es definida positiva. 2.10.2 INTEGRAL DE AITKEN 63 Un resultado del cálculo integral que es particularmente aplicable a cualquier problema de la familia de Gauss multivariada es la integral de Aitken. Para A una matriz simétrica definida positiva de orden n ... e 1 xAx 2 dx1 ...dx n 2 1 n 2 A 1 2 (1— 16) Para establecer este resultado, note que debido a que A es definida positiva existe una matriz no-singular P tal que P AP I n . De P AP P A 1 y para que P A 2 1 2 ; y sea x Py da x Ax y PAPy y y y para que, ... e 1 x Ax 2 dx1 ...dx n ... e 1 y y 2 dy1 ...dy n P 1 1 n P ... exp y i2 dy1 ...dy n 2 i 1 1 1 n y i2 A 2 e 2 dy i i 1 2 2 n 1 A 1 2 La aplicación directa de este resultado a (1— 15) muestra que ... f x1 , x 2 ,..., x n dx1 ...dx n 2 V 1 n 2 1 1 2 2 V n 1 2 1 como uno esperaría. 2.10.3 FUNCIÓN GENERADORA DE MOMENTOS Como en (1— 12) la f.g.m. para la distribución normal multivariada es M x t 2 1 n 2 V 1 2 ... 1 exp t x x V 1 x dx1 ...dx n 2 Reformulando el exponencial éste se vuelve 64 M x t 1 1 2 2 n V 2 ... exp 1 x Vt V 1 x Vt t 1 t Vt dx1 ...dx n 2 2 e 1 t t Vt 2 2 2 n V 1 1 2 1 1 ...exp 2 x Vt V x Vt dx1 ...dx n Haciendo la transformación y x Vt de x a y para la cual el Jacobiano es la unidad, la integral se reduce entonces a la integral de Aitken con matriz V 1 . De donde: M x t e 1 t t Vt 2 2 2 1 n 2 1 n 2 V V 1 2 1 1 2 e 1 t t Vt 2 (1— 17) Diferenciando esto de la manera descrita en ¡Error! No se encuentra el origen de la referencia. se muestra que el vector de medias es y la matriz de varianzacovarianza es V . 2.10.4 DISTRIBUCIONES MARGINALES La definición de la distribución marginal de x1 , x 2 ,..., x n a partir de los primeros k x , es, de acuerdo con (1— 4), f x1 ,..., x k ... f x1 , x 2 ,..., x n dx k 1 ...dx n , La f.g.m. de esta distribución es, por (1— 12), M x1 ...xk t ... e t1 x1 ...t k xk f x1 ,..., x n dx1 ...dx k y sustituyendo para f x1 ,..., x n se convierte en 65 M x1 ...xk t t x ... t x ... e 1 1 k k f x1 ,..., x n dx1 ...dx k f.g.m. de x1 , x x ,..., x n , con t k 1 ... t n 0 e 1 t t Vt 2 (1— 18) , con t k 1 ... t n 0 Para hacer las substituciones t k 1 ... t n 0 dividimos x , , V y t , definiendo, x1 x1 x2 . . . x k y x 2 x k 1 . . . x n para que x x1 x2 ; entonces, conforme con esto, 1 2 , t t1 t 2 y V12 V V 11 . V21 V22 Ahora colocando t 2 0 en (1— 18) da M x1 ,...,xk t1 e 1 t1 1 t1V11t1 2 Por analogía con (1— 17) y (1— 12) tenemos por consiguiente la función de densidad marginal como f x 1 f x1 ,..., x k 1 exp x1 1 V111 x1 1 2 1 2 2 k V11 2 1 66 En comparación con (1— 15) vemos que f x1 es una distribución normal multivariada. similarmente, también es f x 2 f x k 1 ,..., x n 1 exp x 2 2 V221 x 2 2 2 2 1 n k 2 V22 1 2 (1— 19) Así vemos que las densidades marginales de la distribución normal multivariada son normales multivariadas. Así pues V se toma como definida positiva para que lo sean también V11 y V22 . Además, en estas expresiones, su uso puede hacerse de la forma dividida de V . Así si V 1 V12 V 11 V21 V22 1 W12 W 11 , W21 W22 entonces V111 W11 W12W221W12 y V221 W22 W12 W111W12 2.10.5 DISTRIBUCIONES CONDICIONALES Sea f x la que denota la función de densidad de todos los n valores de x . Entonces la ecuación (1— 5) da la distribución condicional de los primeros k x 's tal como f x1 x 2 f x g x 2 y sustituyendo de (1— 15) y (1— 19) f x1 x 2 1 exp x V 1 x x 2 2 V221 x 2 2 2 2 2 k V 1 V22 (1— 20) 1 2 Ahora, en términos de la partición de V y su inversa dada anteriormente, tenemos 67 W11 V11 V12V221V12 1 (1— 21) y W W11V12V221 V 1 1 11 . 1 1 1 V V V V V V W V V 22 12 11 22 22 12 11 12 22 Por consiguiente el exponente en (1— 20) se vuelve x1 1 W11 W11V12V221 x 2 2 V221 x 2 2 1 1 1 1 V22 V12 V11 V22 V22 V12 W11V12V22 x 2 2 x 1 1 x 2 2 lo que se simplifica a x 1 W11 I V12V221 1 V V x 2 2 x1 1 V12V221 x 2 2 W11 x1 1 V12V221 x 2 2 x1 1 x 2 2 I 1 22 12 (1— 22) Además, usando el resultado para el determinante de una matriz dividida [por ejemplo, Searle (1966, p.96)], V V22 V11 V12V221V12 V22 W111 , de (1— 21). De V V22 W111 (1— 23) Sustituyendo (1— 22) y (1— 23) en (1— 20) da f x1 x 2 1 exp x1 1 V12V221 x 2 2 W11 x1 1 V12V221 x 2 2 2 2 1 k 2 1 1 2 11 (1— 24) W 68 mostrando, en la comparación con (1— 15), que la distribución condicional también es normal: x1 x2 ~ N 1 V12V221 x2 2 , W111 2.10.6 INDEPENDENCIA Suponga que el vector x x1 x 2 . . . x n se divide en p subvectores x x1 x 2 . . . x p . Entonces una condición necesaria y suficiente para que los vectores sean mutuamente independiente es, que en la partición correspondiente de V Vij para i, j 1,2,..., p , Vij 0 , para i j . Prueba de esto es formulada a continuación. La f.g.m. de x es, por (1— 17), M x t e 1 t t Vt 2 p 1 p p exp t i i t iVij t j 2 i 1 j 1 i 1 y si Vij 0 para i j esta se reduce a p 1 1 M x t exp ti i tiVii ti exp ti i tiVii ti 2 2 i 1 i 1 p Invocando la propiedad de que la f.g.m. de la distribución conjunta de colecciones de variables independientes es el producto de sus f.g.m., concluimos que las x i son independientes. Recíprocamente, si ellos son independientes, cada uno con su varianza-covarianza K ii se dice, entonces que la f.g.m. de la distribución conjunta es p 1 1 1 exp t t K t exp t i i t iK ii t i exp t t Vt i i i ii i 2 2 2 i 1 i 1 p donde V diag K11 , K 22 ,..., K pp . De Vij 0 para i j . 2.11 FAMILIAS DE DISTRIBUCIONES UNIVARIADAS 2.11.1 INTRODUCCIÓN 69 En esta sección se estudian las principales familias de distribuciones uniparamétricas de frecuente uso en teletráfico. 2.11.2 FAMILIAS DE DISTRIBUCIONES DISCRETAS 2.11.2.1 Bernoulli Ejemplo 2—16: Ensayos de Bernoulli5 Un experimento aleatorio con espacio muestral 1 , 2 , espacio de eventos , 1 , 2 , 1 , 2 , con eventos fundamentales no equiprobables A1 1 y A2 2 y función de probabilidad P A1 p 0,1 y P A2 q 1 p cumple las propiedades para una función de probabilidad dadas en la Definición 2—6. A p se le llama probabilidad de éxito mientras que a su complemento q probabilidad de fracaso. A este tipo de experimentos aleatorios se les denomina Ensayos de Bernoulli. Para las dos familias que siguen considérese el experimento aleatorio para el cual el diseño experimental consiste de una urna que contiene r bolas rojas y b negras, todas idénticas salvo por su color y número asignado. Se extraen n bolas de la urna. Si se define el evento Ak : Al realizar el experimento se obtienen exactamente k bolas rojas. Para el cálculo de la P Ak existen básicamente dos caminos que conducen a resultados ligeramente diferentes dependiendo de la forma en que se realice el muestreo: con restitución o bien sin restitución. 2.11.2.2 Con restitución: Modelo binomial n r b P Ak k r b r b k nk En honor al matemático Jacob I hijo mayor de Nicolous Bernoulli. En su epitafio dice "Eadem mutata resurgo" (Mutante y permanente, vuelvo a resurgir siendo el mismo). Escogió la espiral logarítmica como símbolo de su tumba. 5 70 Ejemplo 2—17: Ayuda de Isaac Newton a su amigo Pepys. Una carta interesante6 índica que Pepys le escribió a Newton preguntándole ¿Cuál de los tres eventos es más probable: Que una persona obtenga B1 : al menos un cuando 6 dados se lanzan; B2 : al menos dos al menos tres Newton? cuando 12 dados son lanzados; B3 : cuando 18 dados son lanzados? ¿Cuál sería la respuesta de Una solución apresurada puede conducir a respuesta erradas como esta: Puede pensarse, equivocadamente, que las probabilidades de los 3 eventos deben ser iguales., es decir que la P n _ numeros _ 6 _ al _ lazar _ 6n _ dados 12 , sin embargo, en realidad eso no es verdad. El procedimiento que sigue ilustra una idea de solución correcta a esta pregunta. 1. Al definir el evento Ai : Exactamente i c se obtienen al lanzar n i dados, es claro que Bk nk Ai . i k 2. nk nk Ai P Ai . De i 1 i k Dado que los eventos Ai son disjuntos, P Bk P esta manera es posible encontrar las probabilidades de los Ai y con ellas obtener las probabilidades de Bk . 3. Es claro que si se lanzan m dados, la probabilidad de exactamente m 1 5 es x 6 6 x x la P Bk 6 nk m x P Ai i k y que, en consecuencia, de esta misma forma, 6k 1 5 xk x 6 6 6k x 6k x 6k 1 5 1 x 0 x 6 6 k 1 x 6k x , Reproducida por American Statistician Vol. 14, No 4 de Octubre de 1960. 71 recordando que P A 1 P A . 4. En particular, la probabilidad de 1 o más tras el lanzamiento de 6 dados es el complemento de la probabilidad de 0 seis, es decir 6 1 5 1 0.665 0 6 6 0 5. 6 Finalmente, empleando una herramienta como Mathematica puede encontrarse fácilmente la distribución binomial para este caso: k 6k 1 6 P Bk 0.665 2 12 0.619 3 18 0.597 4 24 0.584 6. ¿Cuál fue, entonces, la respuesta de Newton? La afirmación de que P(n _ numeros _ 6 _ al _ lazar _ 6n _ dados) 12 es verdadera cuando n , pero no para valores de k pequeños. Ejemplo 2—18: El problema del estudiante vago. Un estudiante va a responder aleatoriamente un examen de 10 preguntas de selección múltiple. Cada pregunta tiene 6 opciones y una única opción correcta. ¿Cuál es la probabilidad de que el estudiante apruebe el examen? Solución 72 Podemos redefinir la pregunta como: ¿Cuál es la probabilidad de que el estudiante obtenga por lo menos 6 respuestas correctas de las 10 posibles? Entonces definimos los eventos Bi y A6 como “El estudiante obtiene exactamente i respuestas correctas” y “El estudiante obtiene por lo menos seis respuestas correctas”, respectivamente. Tenemos que: P A6 P B6 P B7 P B8 P B9 P B10 Entonces, aplicamos el modelo binomial, a saber: n P Bk p k q n k k Donde p es la probabilidad de obtener la opción correcta en una pregunta ( 1 6 ), q es la probabilidad de no obtenerla ( 5 6 ), n es el número de preguntas (10) y k es el número de respuestas correctas a las cuales queremos hallar la probabilidad. 10 k 10 1 5 En este caso: P Bk k 6 6 k 10 i 10 10 10 1 5 Entonces: P A6 P Bi i 6 i 6 6 i 6 i 6 4 7 3 8 2 10 1 5 10 1 5 10 1 5 6 6 6 7 6 6 8 6 6 10 1 5 1 9 6 6 6 9 1 10 1.6538 P A6 Es decir, el estudiante vago tiene una probabilidad de de pasar el examen. 2.11.2.3 Sin restitución: Modelo Hipergeométrico 73 r b k n k P Ak r b n Ejemplo 2—19: Juego de cartas En particular, este modelo puede ser empleado para calcular ciertas probabilidades sobre juegos de cartas. Por ejemplo, si se desea calcular la probabilidad de que en una mano de 13 cartas se obtengan exactamente 6 espadas. Hay r 13 , b 39 , r b 52 cartas en total, k 6 y n 13 Definiendo A6 como el evento de exactamente 13 52 13 6 13 6 6 espadas entonces P[ A6 ] . 52 13 2.11.2.4 Poisson 2.11.2.5 Geométrica 2.11.3 FAMILIAS DE DISTRIBUCIONES CONTINUAS 2.11.3.1 Uniforme Se dice que X ~ U a, b cuando su estructura probabilística está guiada por la función de densidad f X x; a, b para todo x y que 1 I x . b a a ,b Es fácil comprobar que f X x; a, b 0 1 b a Ia,b x dx 1 . En consecuencia, 1 xa es dt ba ba a x FX x; a, b su función de distribución. f X x a 1 ba b X 74 Figura 2—6: Función de densidad uniforme FX x a b X Figura 2—7: Función de Distribución uniforme. Notas: 1. Tiene sentido hablar de uniformidad debido a que todos los valores en ese intervalo son igualmente posibles de ser seleccionados en un experimento aleatorio. Formalmente, esto significa que 1 1 P x x X x x 2 2 1 x x 2 1 x x 2 1 x no depende de x únicamente dt ba ba del ancho del intervalo. 2. El hecho anterior puede visualizarse gráficamente como en la Figura 2—8. f X x a 1 x x 2 x 1 x x 2 b X Figura 2—8: Probabilidad uniforme. 2. Un caso particular de especial interés en simulación se presenta 75 cuando a 0 y b 1 caso en el que se escribe que U ~ U 0,1 . 2.11.3.2 Gauss Cuando la variable aleatoria X tiene una distribución normal con media y 2 varianza 2 , escribiremos " x es N , 2 ", o X ~ N , . La función de densidad de X es entonces 1 2 x 1 2 fX x e 2 2 para x , en donde la aplicación de (1— 8) y (1— 10) mostrará que E X y 2 E x 2 . Y la f.g.m. es M x t 1 1 2 2 exp tx 12 x e 2 dx exp 12 x t 2t 2 1 t t 2 2 2 2 1 2 2 exp x t 2 2 2 t 2 4 2 dx 2 2 dx e 1 t t 2 2 2 Se establece entonces fácilmente que x1 , y x2 2 2 , para que Ex x2 2 2 2 2.11.3.3 Exponencial 2.11.3.4 Erlang 76 2.11.3.5 Gamma 2.11.4 RELACIONES ENTRE FAMILIAS 77 2.12 EJERCICIOS 1. Dos urnas contienen el mismo número de bolas, algunas de color blanco y algunas de color negro. De cada urna se extraen n (n ≥ 3) bolas con restitución. Encuentre el número de extracciones y la composicion de las dos urnas de forma que la probabilidad de que todas las bolas blancas extraidas de la primera urna sea igual a la probabilidad de que las extracciones en la segunda sean todas blancas o todas negras. 2. Epitafio de Diofanto : 'Dios le concedió ser niño la sexta parte de su vida, una duodécima parte de ella más tarde cubrió de vello sus mejillas; encendió en él la antorcha del matrimonio tras una séptima parte, y cinco años después le concedió un hijo. Un hijo de nacimiento tardío, que el destino se llevó cuando alcanzó la edad de la mitad de la vida de su padre. Éste consoló su aflicción con la ciencia de los números durante los cuatro años siguientes, tras los cuales su vida se extinguió.' 2.13 RESUMEN DEL CAPÍTULO 78 79 3 PROCESOS ESTOCÁSTICOS Ejemplo 3—1: Borrachito. Suponga que un borracho se encuentra en el borde de un precipicio, si da un paso hacia delante, él caerá en el abismo. El borracho da pasos aleatorios a izquierda y a derecha, es decir hacia el precipicio o en sentido contrario indiferentemente, si la probabilidad de que el borracho de el paso hacia el precipicio es q 1 y la 3 2 3 probabilidad de que se aleje de este es p , ¿cuál es la probabilidad de que el borracho se salve? 3.1 INTRODUCCIÓN Una generalización interesante del concepto de vector aleatorio se encuentra en la idea de proceso estocástico. En un proceso estocástico, las estructuras probabilísticas de los vectores aleatorios dependen del tiempo y del espacio en el cual se desenvuelvan las variables del vector. 3.2 DEFINICIÓN Definición 3—1: Proceso Estocástico. Un Proceso estocástico es una familia de variables aleatorias indexadas por el tiempo Z ,t , donde pertenece al espacio muestral y t pertenece al conjunto de índices. Observación 3—1 Para un t fijo, Z ,t es una variable aleatoria. Mientras que para un dado, Z ,t es una función de t , llamada función muestral o realización. La población que consiste en todas las posibles realizaciones se denomina el conjunto de series de tiempo del proceso. 80 Se asume que el conjunto de índices serán los enteros, a menos que se establezca lo contrario. Considere un conjunto finito de variables aleatorias Zt , Zt , , Zt de un 1 proceso Z estocástico ,t : t 0, 1, 2, , La 2 n distribución n -dimensional (conjunta)está definida como F zt1 , , ztn p : z , t1 zt1 , , z , tn ztn Definición 3—2: Proceso Estocástico estacionario. 1. Se dice que un proceso estocástico es estacionario en distribución de primer orden si su función de distribución uni -dimensional es invariante al tiempo, es decir, si F zt1 F zt1 k para todo t1 y k en los enteros, 2. estacionario en distribución si F zt1 , zt2 F zt1 k , zt2 k , y estacionario de n - ésimo orden si F zt1 , y k en los enteros. 3. Un proceso F zt1 , , ztn F zt1k , , ztn F zt1k , se dice , ztn k , Para cualquier n -úpla t1 , , tn estrictamente estacionario , ztn k es valido para todo n , es decir, n 1, 2, si . También denotada por estacionariedad fuerte o completa. Observación 3—2 1. Claramente si F zt1 , , ztn F zt1k , , ztn k es valida para n m , también será verdadera para n m porque la función de distribución de orden m determina todas las funciones de distribución de orden menor. Por lo tanto, que una función de distribución de orden superior sea estacionaria, siempre determina que las funciones de distribución que sean de orden menor que ella también lo sean. 2. Es posible entender adecuadamente lo que es ser un proceso estocástico Z ,t , como un conjunto de variables aleatorias definidas sobre un espacio muestral indexadas por el tiempo. Usualmente se suprime y simplemente se escribe Z ,t como Z t o Z t , también denotamos la variable aleatoria por X 81 o por X . El proceso estocástico es llamado proceso de valor real, si solamente asume valores en , el conjunto de los números reales, a menos que se establezca lo contrario, solo trabajaremos con procesos de valor real. Definición 3—3: Función de media del proceso estocástico. Para un proceso de valor real Zt : t 0, 1, 2, , definimos la función de media del proceso como t E Zt . Definición 3—4: Función de varianza del proceso estocástico. Para un proceso de valor real Zt : t 0, 1, 2, , definimos la función de e varianza 2 del proceso t E Zt t Definición 3—5: Función de covarianza del proceso estocástico. Para un proceso de valor real Zt : t 0, 1, 2, , definimos La función de covarianza del proceso entre Z t y Z t t1, t2 E Zt1 t1 Zt2 t2 1 2 Y la función de correlación entre Z t y Z t t1 , t2 1 2 t 1 , t 2 t2 t2 1 2 Observación 3—3 1. Para un proceso estacionario estricto, la función de distribución es la misma para todo t , la función de media t es una constante, siempre que E Zt . 2. Igualmente, si E Zt entonces 2 2 para todo t , por lo tanto es también 1 una constante. 82 3. Además, puesto que F zt , zt F zt k , zt k para todo t1 , t2 en los enteros y k , 1 2 1 2 tenemos t1 , t2 t1 k , t2 k y t1 , t2 t1 k , t2 k tomando t1 t k y t2 t , tenemos t2 , t1 t k , t t , t k k y t1 , t2 t k , t t , t k k . 4. Entonces, para un proceso estrictamente estacionario, con los dos primeros momentos finitos, la covarianza y la correlación entre Z t y Zt k , depende solo de la diferencia del tiempo k . Un ejemplo trivial de estacionariedad fuerte es una secuencia de experimentos relacionados a variables aleatorias independientes e idénticamente distribuidas. Esta secuencia de variables aleatorias independientes usualmente no existe o no interesan en procesos estocásticos o series de tiempo. Sin embargo distinto de este simple caso, en el que son independientes e idénticamente distribuidas, es muy difícil o imposible actualmente, verificar la función de distribución, particularmente la distribución conjunta de una serie de tiempo observada. Entonces, en análisis de procesos estocásticos (series de tiempo), frecuentemente usamos estacionariedad más débil en términos de los momentos del proceso. Un proceso se dice de orden n -ésimo débil si todos los momentos conjuntos de orden superior a n existen y son invariantes al tiempo, por ejemplo, independientes del momento de origen. Por lo tanto, un proceso de segundo orden tendrá media y varianza constantes, y la función de covarianzas y correlación solo dependerá de la diferencia en el tiempo. Algunas veces, el sentido de estacionariedad en el sentido débil, o varianza estacionaria, son también utilizados para describir procesos de segundo orden débil. Se sigue de las definiciones que los procesos estrictamente estacionarios con los dos primeros momentos finitos también son procesos de segundo orden débil, o de covarianza estacionaria. Sin embargo, un proceso estrictamente estacionario, podria no tener momentos finitos, por lo tanto, no tendría covarianza estacionaria. Un ejemplo trivial es el proceso que consiste en una secuencia de variables aleatorias independientes e idénticamente distribuidas con distribución Cauchy. Claramente el proceso es estrictamente estacionario, pero no es débilmente estacionario, de cualquier orden, pues no existen los momentos conjuntos de ningún orden. Ejemplo 3—2 83 Considere la siguiente secuencia en el tiempo: Zt Asen t Donde a A es una variable aleatoria con media cero y varianza uno y es una variable aleatoria con distribución uniforme en el intervalo , , independiente de A . Entonces: E Zt E A E sen t 0 E Zt Zt k E A2 sen t sen t k 1 E A2 E cos k cos 2t k 2 2 1 1 cos k E cos 2t k 2 2 2 1 1 1 cos k cos 2t k 2 d 2 2 2 1 1 sen 2t k 2 cos k 2 8 1 cos k 2 El cual depende solo de la diferencia en el tiempo k . Entonces el proceso es de varianza estacionaria Ejemplo 3—3 Sea Z t una secuencia de variables aleatorias independientes provenientes, alternadamente, de una distribución normal estándar N 0,1 y dos valores 1 y 1 cada uno con probabilidad 1 , claramente, E Zt 0 y E Z t2 1 para todo t . Ahora 2 84 0, E Zt , Z s 1, si t s si t s Y t, s E Zt Z s E Zt2 E Z s2 0, 1, si t s si t s De donde, el proceso es de varianza estacionaria. Sin embargo, el proceso no es estrictamente estacionario. De hecho, no es estacionario en distribución de ningún orden. En nuestra discusión y ejemplos anteriores, es claro que la “covarianza estacionaria”, es una estacionariedad mas débil que la “Estacionariedad estricta” o que la “estacionariedad en distribución”. Sin embargo, frecuentemente trabajaremos con procesos con covarianza estacionaria o procesos de segundo orden con estacionariedad débil en análisis de series de tiempo, pues será fácil verificar los dos primeros momentos. Por la tanto, a menos qeue se mencione lo contrario, usaremos el termino estacionariedad, para referirnnos a procesos que tengan covariana estacionaria, por esto tenemos la siguiente importante observación: Un proceso estocástico se dice normal o procesdo Gaussiano si su función de distribución conjunta es normal . como una distribución normal esta caracterizada por sus dos primeros momentos, la estacionariedad estricta y la estacionariedad débil son equivalentes en un proceso Gaussiano. A menos que se mencione lo contrario, los procesos que discutiremos se asumiran Gaussianos. Esto es por que la función de Autocorrelación y la función de Autocorrelación parcial en las proximas secciones se convertiran en herramientas fundamentales en el analisis de series de tiempo. 85 3.3 LAS FUNCIONES DE AUTOCOVARIANZA Y AUTOCORRELACIÓN 3.4 FUNCION DE AUTOCORRELACIÓN PARCIAL 3.5 PROCESOS CON RUIDO BLANCO 3.6 CADENAS DE MARKOV EN TIEMPO DISCRETO 3.6.1 INTRODUCCIÓN 3.6.2 ECUACIONES DE CHAPMAN–KOLMOGOROV 3.6.3 CLASIFICACIÓN DE LOS ESTADOS 3.7 CADENAS DE MARKOV DE TIEMPO CONTINUO 3.7.1 INTRODUCCIÓN 3.7.2 DEFINICIÓN 3.7.3 PROCESOS DE NACIMIENTO Y MUERTE 86 3.7.4 FUNCIÓN DE TRANSICIÓN DE PROBABILIDAD 3.7.5 REVERSIBILIDAD 3.8 DISTRIBUCIÓN EXPONENCIAL Y EL PROCESO DE POISSON 3.8.1 INTRODUCCIÓN 3.8.2 DEFINICIÓN DE PROCESO DE POISSON 3.8.3 DISTRIBUCIONES DE LOS TIEMPOS ENTRE LLEGADAS Y DE ESPERAS 3.8.4 PROCESO DE POISSON NO HOMOGÉNEO 3.9 **TEORÍA DE RENOVACIÓN 3.10 EJERCICIOS 3.11 RESUMEN DEL CAPÍTULO 87 4 MODELOS DE TRÁFICO 4.1 ERLANG B: SISTEMA DE PÉRDIDA DE ERLANG 4.2 ERLANG B EXTENDIDO: EXTENDIDO. 4.3 ERLANG C: SISTEMA CON RETARDO 4.4 **REDES DE COLAS 5 DIMENSIONAMIENTO TELECOMUNICACIONES DE REDES DE 6 MEDIDAS DE TRÁFICO 88 7 REFERENCIAS BIBLIOGRÁFICAS [1] S. Hawking y L. Mlodinow, El Gran Diseño, Barcelona: Crítica, 2010. [2] Rosss y S. M. Ross, Introduction to Probability Models, Amsterdam: Academic Press, 2003. [3] R. D. Yates y D. J. Goodman, Probability and Estochastic Processes: A friendly Introduction for Electrical and Computer Engineers., Boston: Jhon Wiley & Sons, Inc., 2005. [4] A. M. Law y W. D. Kelton, Simulation Modeling and Analysis, Boston: McGrawHill, 2000. [5] IUT, Teletraffic Engineering HandBook, Dinamarca: Technical Unversity of Denmark, 2001. 89