introducción a la teoría de teletráfico

Transcription

introducción a la teoría de teletráfico
Universidad Nacional de Colombia
INTRODUCCIÓN A LA
TEORÍA DE
TELETRÁFICO
ESTADÍSTICA DE LAS TELECOMUNICACIONES
Jorge Eduardo Ortiz Triviño
21/02/2012
2
TABLA DE CONTENIDO
1
INTRODUCCIÓN A LA TEORÍA DE TELETRÁFICO ............................................................. 9
1.1 TELETRÁFICO COMO DISCIPLINA .................................................................................. 10
1.2 MODELAMIENTO DE SISTEMAS DE TELECOMUNICACIONES ........................... 11
1.3 LA UIT Y LA INGENIERÍA DE TELETRÁFICO ............................................................. 12
1.4 LAS UNIDADES DE TRÁFICO Y LOS “ERLANGS” . ..................................................... 14
1.5 LA HORA DE OCUPACIÓN Y EL BLOQUEO ................................................................... 18
1.6 MODELOS DE TRÁFICO ........................................................................................................ 22
1.6.1
Erlang B .............................................................................................................................. 22
1.6.2
Erlang B Extendido ........................................................................................................ 22
1.6.3
Erlang C............................................................................................................................... 22
1.7 RESUMEN DEL CAPÍTULO .................................................................................................. 22
2
COMPENDIO DE TEORÍA DE PROBABILIDADES ............................................................. 24
2.1 INTRODUCCIÓN ...................................................................................................................... 25
2.2 ESPACIOS DE PROBABILIDAD .......................................................................................... 25
2.3 PRINCIPIOS FUNDAMENTALES DE LA TEORÍA DE LA MEDIDA ....................... 32
2.3.1
Reglas de la medida continua.................................................................................... 33
2.3.2
Reglas del conteo ............................................................................................................ 36
2.4 PROBABILIDAD CONDICIONAL E INDEPENDENCIA ESTOCÁSTICA................ 38
2.5 VECTOR ALEATORIO Y FUNCIÓN DE DISTRIBUCIÓN CONJUNTA .................... 46
2.5.1
Introducción ..................................................................................................................... 46
2.5.2
Definiciones ...................................................................................................................... 46
2.6 FUNCIONES DE DENSIDAD CONJUNTAS ...................................................................... 47
2.6.1
Vectores aleatorios discretos .................................................................................... 47
2.6.2
Vectores Aleatorios continuos .................................................................................. 48
2.6.3
Otras clases de vectores aleatorios......................................................................... 48
3
2.7 DISTRIBUCIONES CONDICIONALES E INDEPENDENCIA ESTOCÁSTICA ....... 49
2.7.1
Vectores Aleatorios Continuos ................................................................................. 49
2.7.1.1 Distribuciones Marginales ................................................................................ 49
2.7.1.2 Distribuciones Condicionales .......................................................................... 49
2.7.2
Vectores Aleatorios Discretos ................................................................................... 52
2.7.2.1 Distribuciones Marginales ................................................................................ 52
2.7.2.2 Distribuciones Condicionales .......................................................................... 52
2.7.3
Independencia ................................................................................................................. 52
2.8 ESPERANZA MATEMÁTICA Y MOMENTOS ................................................................. 53
2.8.1
Valor Esperado de Funciones de Variables Aleatorias ................................... 53
2.8.2
Momentos .......................................................................................................................... 54
2.8.3
Covarianza y Coeficiente de Correlación .............................................................. 56
2.8.4
Funciones generadoras de Momentos .................................................................. 57
2.8.5
Esperanza e Independencia ....................................................................................... 57
2.9 TRANSFORMACIONES .......................................................................................................... 58
2.9.1
CASO UNIVARIADO........................................................................................................ 58
2.9.1.1 Transformación lineal univariada ................................................................. 58
2.9.1.2 Suma de dos variables aleatorias ................................................................... 58
2.9.1.3 Cuadrado de una variable aleatoria .............................................................. 58
2.9.2
VECTORES ALEATORIOS DISCRETOS ................................................................... 59
2.9.3
VECTORES ALEATORIOS CONTINUOS................................................................. 60
2.9.3.1 Formulación ............................................................................................................ 60
2.9.3.2 Transformación continua general ................................................................. 61
2.10
FAMILIA DE GAUSS MULTIDIMENSIONAL ............................................................. 63
2.10.1
Función de densidad ................................................................................................. 63
2.10.2
Integral De Aitken ...................................................................................................... 63
4
2.10.3
Función Generadora De Momentos .................................................................... 64
2.10.4
Distribuciones Marginales ...................................................................................... 65
2.10.5
Distribuciones Condicionales ................................................................................ 67
2.10.6
Independencia ............................................................................................................. 69
2.11
FAMILIAS DE DISTRIBUCIONES UNIVARIADAS................................................... 69
2.11.1
Introducción ................................................................................................................. 69
2.11.2
Familias de Distribuciones Discretas ................................................................. 70
2.11.2.1 Bernoulli ................................................................................................................. 70
2.11.2.2 Con restitución: Modelo binomial ............................................................... 70
2.11.2.3 Sin restitución: Modelo Hipergeométrico ................................................ 73
2.11.2.4 Poisson .................................................................................................................... 74
2.11.2.5 Geométrica ............................................................................................................ 74
2.11.3
Familias de Distribuciones Continuas ............................................................... 74
2.11.3.1 Uniforme ................................................................................................................ 74
2.11.3.2 Gauss ........................................................................................................................ 76
2.11.3.3 Exponencial........................................................................................................... 76
2.11.3.4 Erlang ...................................................................................................................... 76
2.11.3.5 Gamma .................................................................................................................... 77
2.11.4
3
RELACIONES ENTRE FAMILIAS ........................................................................... 77
2.12
EJERCICIOS............................................................................................................................ 78
2.13
RESUMEN DEL CAPÍTULO .............................................................................................. 78
PROCESOS ESTOCÁSTICOS ....................................................................................................... 80
3.1 INTRODUCCIÓN ...................................................................................................................... 80
3.2 DEFINICIÓN .............................................................................................................................. 80
3.3 LAS FUNCIONES DE AUTOCOVARIANZA Y AUTOCORRELACIÓN ..................... 86
3.4 FUNCION DE AUTOCORRELACIÓN PARCIAL ............................................................. 86
5
3.5 PROCESOS CON RUIDO BLANCO ..................................................................................... 86
3.6 CADENAS DE MARKOV EN TIEMPO DISCRETO ........................................................ 86
3.6.1
Introducción ..................................................................................................................... 86
3.6.2
Ecuaciones de Chapman–Kolmogorov .................................................................. 86
3.6.3
Clasificación de los Estados ....................................................................................... 86
3.7 CADENAS DE MARKOV DE TIEMPO CONTINUO ....................................................... 86
3.7.1
Introducción ..................................................................................................................... 86
3.7.2
Definición ........................................................................................................................... 86
3.7.3
Procesos de Nacimiento y Muerte........................................................................... 86
3.7.4
Función de Transición de Probabilidad ................................................................ 87
3.7.5
Reversibilidad .................................................................................................................. 87
3.8 DISTRIBUCIÓN EXPONENCIAL Y EL PROCESO DE POISSON .............................. 87
3.8.1
Introducción ..................................................................................................................... 87
3.8.2
Definición de Proceso de Poisson............................................................................ 87
3.8.3
Distribuciones de los Tiempos entre llegadas y de Esperas ........................ 87
3.8.4
proceso de Poisson no homogéneo ........................................................................ 87
3.9 **TEORÍA DE RENOVACIÓN .............................................................................................. 87
4
3.10
EJERCICIOS............................................................................................................................ 87
3.11
RESUMEN DEL CAPÍTULO .............................................................................................. 87
MODELOS DE TRÁFICO ............................................................................................................... 88
4.1 ERLANG B: SISTEMA DE PÉRDIDA DE ERLANG ....................................................... 88
4.2 ERLANG B EXTENDIDO: EXTENDIDO............................................................................ 88
4.3 ERLANG C: SISTEMA CON RETARDO ............................................................................. 88
4.4 **REDES DE COLAS ................................................................................................................ 88
5
DIMENSIONAMIENTO DE REDES DE TELECOMUNICACIONES ................................ 88
6
MEDIDAS DE TRÁFICO ................................................................................................................ 88
6
7
REFERENCIAS BIBLIOGRÁFICAS ............................................................................................ 89
7
LISTA DE FIGURAS
Figura 1—1: Abstracción del proceso de una llamada en un sistema telefónico. ..... 13
Figura 1—2: Recomendaciones de la UIT sobre Ingeniería de teletráfico. .................. 14
Figura 1—3_ Tráfico transportado (Intensidad) ..................................................................... 16
Figura 1—4: Número de llamadas por minuto en un centro de conmutación un
lunes en la mañana. .............................................................................................................................. 19
Figura 1—5: Número promedio de llamadas por minuto en un centro de
conmutación. ........................................................................................................................................... 19
Figura 1—6: Tiempo medio de ocupación de una línea troncal en función de la hora
del día. ........................................................................................................................................................ 21
Figura 2—1: Espacio muestral y eventos de interés del ejemplo de Galois ................ 34
Figura 2—2: Espacio muestral y eventos de interés del ejemplo de las raíces .......... 35
Figura 2—3: Factores importantes en el proceso de contar .............................................. 37
Figura 2—4: Diagramas de medida para el ejemplo de probabilidad combinatoria
....................................................................................................................................................................... 38
Figura 2—5: Representación gráfica de las propiedades de los eventos B.................. 39
Figura 2—6: Función de densidad uniforme............................................................................. 75
Figura 2—7: Función de Distribución uniforme. ..................................................................... 75
Figura 2—8: Probabilidad uniforme............................................................................................. 75
8
1 INTRODUCCIÓN A LA TEORÍA DE TELETRÁFICO
Agner Krarup Erlang (1878 - 1929), conocido como “El
Padre de la Teoría de Teltráfico”, ingreso a la Universidad
de Copenhague en 1896. Dada su notable capacidad
intelectual obtuvo una beca para la universidad y se graduó
en matemáticas en 1901. Se desempeñó como profesor,
actividad que le permitió mantener su interés por las
matemáticas aplicadas. Fue miembro de la asociación
danesa de matemáticas, por medio de la cual conoció a
Johan Jensen, el ingeniero jefe de la Copenhagen Telephone
Company (CTC), la cual era una subsidiaria de International
Bell Telephone Company. Erlang trabajó por casi 20 años
para CTC, desde 1908 hasta su muerte en Copenhague en
1928.
Erlang abordó el problema clásico de la determinación de cuántos circuitos
eran necesarios para proveer un servicio telefónico aceptable. Erlang
desarrolló su teoría del tráfico telefónico a través de varios años. Entre sus
publicaciones más importantes sobre la materia, se encuentran: En 1909 - "La
teoría de las probabilidades y las conversaciones telefónicas" - la cual
demostró que la Distribución de Poisson se aplica para tráfico telefónico
aleatorio. En 1917 - "Solución de algunos problemas en la teoría de
probabilidades de importancia en centrales telefónicas automáticas" - el cual
contiene su fórmula clásica para el cálculo de pérdidas y tiempos de espera.
Hacia 1944 el "Erlang" era usado en los países escandinavos para denotar la
unidad de tráfico telefónico. Esta unidad de medida fue reconocida
internacionalmente al final de la segunda guerra mundial. Así mismo una
distribución estadística y un lenguaje de programación llevan su nombre.
Entre aquéllos que continuaron con las ideas de Erlang, debemos mencionar al
sueco Conny Palm, cuyos aportes durante el período 1936 - 1946 (1957)
contribuyeron a dar a la teoría de trafico su actual rigor.
En este capítulo se hace presentan las bases de la teoría de teletráfico, se establecen
las definiciones básicas y se presentan algunos ejemplos que ilustran la forma de
trabajo en esta disciplina.
9
1.1 TELETRÁFICO COMO DISCIPLINA
Definición 1—1: Teletráfico.
Disciplina1 que se encarga de aplicar rigurosamente la teoría de probabilidades y la
teoría de estadísticas al estudio de la estructura estocástica y el comportamiento2
en la actividad de un sistema de telecomunicaciones en todas las etapas de su ciclo
de vida.
Como cualquier sistema, bien sea vivo o artificial, un sistema de
telecomunicaciones se concibe para cumplir uno o varios fines, nace, crece, procura
cumplir su fin, intenta reproducirse, muere y posiblemente trasciende.
Por lo anterior, algunos de los objetivos de esta disciplina son:
1. Concebir nuevos sistemas de telecomunicaciones que cumplan con
características estructurales, medidas de desempeño y criterios de
optimización predefinidos y claramente establecidos.
2. Diseñar y/o adaptar el contexto en el cual se desenvolverá dicho
sistema complejo.
3. Planear, Diseñar e implementar un nuevo sistema de
telecomunicaciones que cumpla con algunas medidas de servicio,
robustez y desempeño deseados y claramente establecidas.
4. Planear su evolución y adaptación dentro del entorno para el cual fue
concebido.
5. Generar políticas claras de mantenimiento y control que garanticen su
fin teleológico.
6. Planear su fin o expiración.
1
Arte, facultad o ciencia.
2
Véase [5]
10
Para cumplir con estos y otros fines, y responder preguntas tales como ¿cuánto
equipo debe proveerse para que la proporción de llamadas que experimentan
retardos esté por debajo de un nivel aceptable específico? o bien ¿cuántos
terminales de datos pueden ser conectados a un servicio de computadora de
tiempo compartido?, el teletráfico requiere métodos de pronóstico de demandas y
flujos de información, métodos para calcular la capacidad del sistema y la
construcción de medidas de desempeño para medir el grado de servicio; por ello, se
sirve de varias herramientas formales, entre las que vale incluir las siguientes:
1.
2.
3.
4.
5.
6.
7.
La teoría de probabilidades,
La Teoría de estadísticas,
Proceso estocásticos,
Simulación de sistema,
Métodos numéricos,
Teoría de colas y Teoría redes de colas,
Teoría de decisiones y teoría de juegos.
Axioma 1—1: Estacionariedad.
La teoría aquí presentada se basa en el supuesto del equilibrio estadístico, esto es,
que ésta sólo puede tratar con sistemas de telecomunicaciones sujetos a
condiciones estacionarias.
Aún no se ha propuesto métodos teóricos de uso práctico para comprender los
Sistemas de Telecomunicaciones bajo condiciones no estacionarias. Sin embargo, el
primer trabajo teórico (pero no general) para abordar tales casos se presentó en la
tesis doctoral de Palm, realizada en 1943. En ese trabajo se presentó un estudio de
variaciones en la intensidad de llamadas. En la actualidad, mediante simulaciones
computarizadas es posible tratar estudiar sistemas de telecomunicaciones con en
el cual fluye tráfico no estacionario. Sin embargo, las teorías aquí consideradas se
limitarán a las condiciones estacionarias, a menos que se indique lo contrario.
1.2 MODELAMIENTO DE SISTEMAS DE TELECOMUNICACIONES
11
Abstraer las principales características de un sistema de telecomunicaciones real
requiere la consideración de tres elementos fundamentales:
1. La estructura del Sistema de Telecomunicaciones (hardware). En este
nivel se pueden presentar fallas relativamente aleatorias,
2. La estrategia operacional (Software). Aquí se consideran las reglas de
operación del sistema y
3. Las propiedades estadísticas del tráfico (Demanda de los usuarios). En
este aspecto se consideran las propiedades de las estructuras
probabilísticas del tráfico; por ejemplo, un proceso estocástico de de
Poisson nacimiento y muerte.
Un modelo3 es satisfactorio si cumple simultáneamente las siguientes cuatro
condiciones[1]:
1. Es elegante,
2. Contiene pocos elementos arbitrarios o ajustables,
3. Concuerda con las observaciones existentes y proporciona una
explicación de ellas,
4. Realiza predicciones detalladas sobre observaciones futuras que
permitirán refutar o falsear el modelo si no son confirmadas.
El Ejemplo 1—1 ilustra la idea de modelo
1.3 LA UIT Y LA INGENIERÍA DE TELETRÁFICO
Las recomendaciones sobre la ingeniería de tráfico se pueden clasificar de acuerdo
con cuatro tareas:
3
Se entiende por modelo a un esquema teórico, generalmente en forma matemática, de un sistema o de una realidad
compleja, como la abstracción simplificada de un sistema de telecomunicaciones a través de una maqueta, que se elabora
para facilitar su comprensión y el estudio de su comportamiento.
12
1.
2.
3.
4.
Caracterización de la demanda de tráfico,
Objetivos del grado de servicio (GoS),
Controles de tráfico y dimensionamiento, y
Supervisión del rendimiento.
La interacción entre estos cuatro elementos se presenta en la Figura 1—2.
Ejemplo 1—1: Modelo de una llamada.
A
desea hablar
con B
llamada
tiempo para el
nuevo intento
ocupado
error de A
B ?
congestión,
avería
immediatamente
más
tarde
desiste sin
intentarlo
respuesta
Sistema de
telecomunicación
conversación
no hay
respuesta
lo intento
de nuevo
¿Que hace A?
desiste
Figura 1—1: Abstracción del proceso de una llamada en un sistema
telefónico.
El objetivo en la planificación de un sistema de telecomunicaciones consiste en
dimensionar la infraestructura del sistema, es decir la cantidad y características de
equipos necesarios así como las características de los canales de comunicación de
tal manera que las variaciones en las respuestas a las demandas de sus usuarios sea
satisfactorio o, en el peor de los casos, sin notable molestias, optimizando, al
mismo tiempo, los costos de las instalaciones. En otras palabras, la infraestructura
de la red de telecomunicaciones debe ser utilizada tan eficientemente como sea
posible.
13
1.4 LAS UNIDADES DE TRÁFICO Y LOS “ERLANGS” .
Usualmente la palabra tráfico se emplea en esta teoría para denotar la Intensidad
del flujo de paquetes que circulan en una red de telecomunicaciones. La Definición
1—2, dada por la UIT establece el concepto Intensidad de tráfico.
Caracterización de la
demanda
Modelo
Objetivos del grado de
servicio
QoS
Medida
GoS
Pronóstico
Componentes
de Red
Controles de tráfico y dimensionamiento
Controles de tráfico
dimensionamiento
Supervisión del rendimiento
Supervisión del rendimiento
Figura 1—2: Recomendaciones de la UIT sobre Ingeniería de teletráfico.
Definición 1—2: Intensidad de Tráfico.
La Intensidad de tráfico instantánea en un Sistema de Telecomunicaciones
compuesto por un conjunto de Recursos (tales como Servidores, Circuitos, líneas,
14
troncales, Canales, etc) es el número de recursos ocupados en un instante de
tiempo dado. Formalmente, la intensidad instantánea se denota por la función n  t 
.
Definición 1—3: Unidad de medida de tráfico ( U .T ).
La unidad de medida de la intensidad del tráfico n  t  en un Sistema de
telecomunicaciones se denomina el Erlang. En forma abreviada se escribe E o
bien Erl. En sentido estricto un Erlang representa el uso continuo de un canal de
voz; pero en la práctica se emplea para medir el volumen de tráfico en una hora.
Los Erlangs son adimensionales.
En la caracterización del tráfico es necesario el cálculo de los momentos
estadísticos, tales como la media y la varianza, de la intensidad de tráfico
instantánea.
Definición 1—4: Intensidad media del tráfico en el periodo T .
En un periodo de tiempo T en el cual la intensidad del tráfico está dada por n  t  , la
intensidad media del tráfico se define como Y T  
1
n  t  dt
T T
Definición 1—5: Tráfico Transportado AC .
Denotado por Y  AC corresponde al tráfico transportado (cursado) por el grupo de
servidores en el periodo de tiempo T . El tráfico transportado nunca excede al
número de canales (líneas). Nótese que un canal puede a lo más transportar un
Erlang.
15
Figura 1—3_ Tráfico transportado (Intensidad)
Definición 1—6: Volumen de Tráfico Transportado.
El tráfico total transportado en un periodo de tiempo T se denomina un volumen
de tráfico transportado.
Este volumen se mide en Erlangs–Horas ( Eh ).
Dependiendo del sistema en estudio, es posible hablar mejor de Erlangs–Segundos.
Obsérvese que el volumen es igual a la suma de los tiempos de ocupación del
sistema durante el periodo T .
Definición 1—7: Tráfico Ofrecido A .
Corresponde al tráfico transportado cuando no hay solicitudes rechazadas a causa
de falta de capacidad del sistema. Es decir cuando el número de servidores es
ilimitado. Equivalentemente, el tráfico ofrecido se define como el número
promedio de intentos de utilización del sistema (Canal) por el tiempo medio de
ocupación. Matemáticamente hablando se expresa como A    s donde  es
intensidad de los intentos (llamadas) y s es el tiempo medio de servicio.
En este último caso es necesario tener cuidado pues las unidades de tiempo de
ambos parámetros debe ser igual. Esta expresión también muestra de una manera
más sencilla que la unidad de tráfico no tiene dimensiones. También puede
16
observarse que esta medida es teórica y no puede ser calculada de forma exacta
para un sistema simplemente se puede estimar.
Definición 1—8: Tráfico Perdido o rechazado Al .
El tráfico perdido en un Sistema de Telecomunicaciones corresponde a la
diferencia entre el tráfico Ofrecido y el tráfico transportado. Esto es Al  A  AC .
Claramente, el tráfico perdido se puede disminuir al incrementar la capacidad del
sistema.
Ejemplo 1—2: Cálculo del tráfico.
Si un grupo de personas hacen 30 llamadas en una hora y cada llamada tiene una
duración de 5 minutos, dicho grupo ha tenido un tráfico de 2,5 Erlangs. Esta cifra
resulta de lo siguiente:
Minutos de tráfico en una hora = número de llamadas x duración
Minutos de tráfico en esa hora = 30 x 5
Minutos de tráfico en esa hora = 150
Horas de tráfico por hora = 150 / 60
Horas de tráfico por hora = 2.5
Valor del Tráfico = 2.5 Erlangs
Las medidas de tráfico Erlang sirven para que los diseñadores de redes entiendan
bien las pautas de tráfico que se produce en su red y, en consecuencia, diseñen la
topología adecuada y dimensionen bien los enlaces.
En sistemas de transmisión de datos no se habla de tiempos de servicio sino de
demandas de transmisión. En este caso se habla de paquetes de s unidades tales
como bits o bytes. La capacidad del sistema  se expresa o mide en unidades por
segundo (Por ejemplo bits/seg). El tiempo de servicio para un trabajo es
s
cuyas

unidades son en segundos. De esta manera si en promedio  son atendidos por
17
unidad de tiempo entonces la utilización  del sistema es  
s
. La utilización es

una medida que siempre se encuentra en el intervalo 0,1 .
La capacidad de este tipo de sistemas basados en datos se mide en unidades
denominadas BBU (Unidades de ancho de banda básicas) o simplemente canales.
Se elige esta unidad de manera que todos los servicios requieren un número entero
de unidades de ancho de banda.
Cuando un número N de tipos de tráfico ocupan d j canales el tráfico ofrecido esta
N
dado por A    j  s j  d j Erlangs–Canales. Aquí  j y s j son la tasa de llegadas y el
j 1
tiempo medio de ocupación del tráfico tipo j . En este caso tanto el tráfico
transportado como el tráfico ofrecido se miden en BBU.
Definición 1—9: Tráfico potencial.
Es el tráfico ofrecido cuando no hay restricciones de recuersos tales como el costo o
la disponibilidad.
1.5 LA HORA DE OCUPACIÓN Y EL BLOQUEO
Varios estudios muestran que, conocidos el contexto, la estructura y la actividad
principal a la cual se dedica el sistema de telecomunicaciones, el comportamiento
del tráfico, aunque estocástico, presenta patrones regulares que permiten
modelarlo para poder hacer predicciones sobre el sistema.
Las investigaciones muestran que en estos comportamientos conviven dos tipos de
comportamientos: Una parte determinística y una estocástica. La Figura 1—4
muestra esta idea.
En un día completo de 24 horas también se pueden establecer patrones que pueden
ser modelados. La Figura 1—5 evidencia este hecho.
18
Figura 1—4: Número de llamadas por minuto en un centro de conmutación
un lunes en la mañana.
Figura 1—5: Número promedio de llamadas por minuto en un centro de
conmutación.
Definición 1—10: Hora de ocupación.
19
El periodo de tiempo del día de una hora de longitud en el cual se presenta, en
promedio, la máxima ocupación del sistema se denomina la Hora de ocupación
consistente del sistema de telecomunicaciones.
Obsérvese que, dado que corresponde a la media, es posible que ciertos días
presenten picos por encima de este tiempo, sin embargo, es de esperarse que
generalmente este sea más grande en todo el tiempo de vida del sistema. Esta
medida es de suma importancia en el dimensionamiento de un sistema de
telecomunicaciones.
Las variaciones determinísticas del teletráfico se pueden dividir en:
1.
2.
3.
4.
Las variaciones de las 24 horas.
Las variaciones semanales.
Las variaciones anuales.
El tráfico incrementa año a año debido, principalmente, al desarrollo
tecnológico o también por la estabilidad o inestabilidad de la economía
mundial.
5. El tipo de sistema de telecomunicaciones.
6. El tipo de servicio o servicios ofrecidos, entre otros factores.
Se discutió antes que no es posible ni técnica ni económicamente conectar
directamente a todos los abonados mediante canales dedicados con todos los
demás suscriptores, en consecuencia existe la posibilidad de que en determinado
momentos un usuario que desee usar el sistema de telecomunicaciones no pueda
hacerlo por falta de recursos técnicos disponibles (tales como canales).
Para poder hacer un estudio apropiado de los modelos es necesario distinguir entre
aquellos sistemas de pérdidas (canales) y sistemas de tiempos de espera
(servidores) o sistemas mixtos es decir aquellos que tienen una capacidad limitada
de almacenamiento.
Algunos inconvenientes que se encuentran en los sistemas con pérdidas se definen a
continuación.
20
Figura 1—6: Tiempo medio de ocupación de una línea troncal en función de
la hora del día.
Definición 1—11: Congestión de llamadas B.
Corresponde a la fracción de intentos de llamadas que encuentran el sistema
ocupado.
Definición 1—12: Tiempo de congestión E.
Se define como la fracción de tiempos en que los servidores se encuentran
ocupados.
Definición 1—13: Congestión de tráfico C.
Es la fracción del tráfico ofrecido que no es transportado.
Por su parte el principal inconveniente que se presenta en los sistemas con
retardos está en los tiempos de espera que causan por la necesidad de hacer fila
mientras que los servidores se desocupan.
21
1.6 MODELOS DE TRÁFICO
Existen varios modelos de tráfico que emplean el término Erlang. Son fórmulas que
se emplean para calcular cuantas líneas de enlace son precisas en un sistema de
telecomunicaciones. Por ejemplo, entre una central telefónica pequeña privada y
una central pública, o para calcular los enlaces entre centrales públicas. También se
emplea el término Erlang en la teoría de colas para estimar el número de personas
que hay que poner a trabajar en los centros de llamadas. Los principales modelos
de tráficos son los siguientes:
1.6.1 ERLANG B
Es el modelo más común se emplea para calcular cuantas líneas son precisas para
una cifra de tráfico (en Erlangs) determinada en la hora cargada. Este modelo
supone que las llamadas bloqueadas se liberan inmediatamente.
1.6.2 ERLANG B EXTENDIDO
Es similar al anterior, salvo que en este caso tiene en cuenta cual es el porcentaje de
llamadas bloqueadas (que reciben señal de ocupado) y se puede especificar el
porcentaje de reintentos.
1.6.3 ERLANG C
Este modelo supone que las llamadas bloqueadas permanecen a la espera hasta que
sean atendidas. Sirve, por ejemplo, para calcular las necesidades de personal de un
centro de llamadas, donde aquellas llamadas que no se pueden atender de
inmediato se ponen en cola.
1.7 RESUMEN DEL CAPÍTULO
En este capítulo se presentaron las principales definiciones utilizadas en un estudio
de teletráfico en redes de telecomunicaciones. Se discutió el concepto de Erlangs y
su rol en el dimensionamiento, la concepción, la implementación de sistemas de
telecomunicaciones. Se concluyó que aunque el tráfico en una red es de naturaleza
22
estocástica, existen patrones totalmente determinísticos que caracterizan a este
tipo de sistemas complejos.
23
2 COMPENDIO DE TEORÍA DE PROBABILIDADES
Pierre de Fermnat
1601  1665
Pierre Fermat, uno de los más influyentes matemáticos del siglo
XVII, nació en Beaumont de Lomagne, en Francia, el 17 de Agosto
de 1601, realizó estudios elementales en el colegio de los padres
franciscanos. Su padre, comerciante de cueros, después de haberle
dado una instrucción sólida adicional en su familia, le envió a
estudiar Derecho a Tolousse, disciplina de la cual se graduó en el
año de 1631. Allí pasó gran parte de su vida, ejerciendo Derecho. A
partir de 1631, sirvió en el Parlamento local, llegando a ser
consejero en 1634, finalmente murió en Castres en 1665. Fermat
tuvo una carrera apacible, caracterizada por un cuidado ejemplar
de hacer bien su tarea y, en sus momentos de ocio, supo crearse
ocupaciones literarias y apasionarse por las matemáticas. Fermat,
nunca mostró una inclinación hacia la escritura de libros más bien
practicó la comunicación con sus colegas vía cartas escritas. Su
intercambio de correspondencia, con otro grande como él llamado Pascal, marcó el punto de inicio
para el desarrollo de la teoría matemática de la probabilidad. Fermat comparte, junto con Descartes,
crédito por la invención de la geometría analítica, sin embargo, su máximo trabajo se ha reconocido
en Teoría de Números.
Fermat publicó rara vez sus descubrimientos, apenas algunas notas como apéndices a tratados
escritos por otros autores. Su gran inspirador fue Diofanto y su libro de Aritmética. Como trabajaba
para entretenerse, sus resultados más interesantes aparecen en los márgenes de estos tratados, y
desgraciadamente un gran número de sus trabajos se han perdido. Mantuvo correspondencia con
todos los científicos de su época; su reputación de matemático competente fue muy grande, y la
estima en la que se le tuvo fue general.
Pascal confesó que era aquél que tengo por el gran geómetra de toda Europa , y este personaje tan
atrayente, de un carácter constante, afable, poco susceptible, sin orgullo, contribuyó ampliamente a
la evolución de las matemáticas en campos tan variados como la geometría analítica, el cálculo
diferencial e integral, la teoría de números y la teoría de las probabilidades. Los principales escritos
de Pierre Fermat fueron publicados, después de su muerte, por su hijo mayor Clement-Samuel en
1679, bajo el título de Varia opera mathematica. Aunque esta publicación no encierra más que
una parte de su producción como matemático, basta por sí sola para clasificar al célebre habitante
de Tolousse como el más importante matemático francés del siglo XVII.
24
2.1 INTRODUCCIÓN
Azar4
Se habla de azar cuando las causas de un acontecimiento se
atribuyen a las leyes de la probabilidad, o en un sentido más
amplio, cuando las causas de ese acontecimiento se desconocen.
Aleatoriedad
Se dice que un suceso es aleatorio cada vez que depende
únicamente de la suerte o del azar. Esto significa que cada posible
resultado tiene la misma posibilidad de resultar en la eventual
ejecución del experimento. A este hecho se le denomina
formalmente el principio de la razón insuficiente
Incertidumbre Se emplea este término cuando un suceso no tiene certidumbre,
es decir, que no es determinístico. Cada vez que un posible
resultado no haya sido cuantificado desde la óptica del azar se
dice que existe incertidumbre
2.2 ESPACIOS DE PROBABILIDAD
Para esta sección es necesario tener en cuenta que:
1.
El objetivo es formular un modelo probabilístico que pueda ser usado
para describir eventos en el mundo real.
2.
Es necesario superar los problemas que presentan las probabilidades a
priori y a posteriori, e intentar responder preguntas tales como ¿Cuál
es la probabilidad de que el tiempo entre llegadas de dos paquetes en
4
El concepto de azar es seguramente la idea clave en la construcción de la teoría que aquí se introduce. Una buena visión
de este concepto desde la literatura se puede encontrar en el cuento La lotería en Babilonia escrito por Jorge Luís Borges
25
una red de telecomunicaciones sea menor que 10 min.?
3.
El modelo incluirá los resultados encontrados hasta el momento.
Definición 2—1: Experimento aleatorio 
Un procedimiento  que tiene la propiedad que al ser ejecutado bajo las mismas
condiciones puede arrojar diferentes resultados se denomina experimento
aleatorio.
Definición 2—2: Diseño experimental 
A la infraestructura necesaria para la ejecución de un experimento aleatorio  se le
denomina diseño experimental y se denota por la  . Para garantizar el pleno
cumplimiento de los supuestos de la experimentación se requiere una organización
sistemática de los elementos que componen esa infraestructura. En otras palabras,
el diseño experimental alude al contexto en el cual se realizará el experimento
aleatorio.
Ejemplo 2—1: Algunos experimentos aleatorios en computación
Los experimentos aleatorios más empleados son, sin duda, aquellos relacionados
con los juegos de azar. Tal es el caso de, por ejemplo, 1 : El lanzamiento de dados,  2
: Extraer una carta de un naipe,  3 : Extraer una bola de una urna, etc. Sin embargo,
en ingeniería de la computación también los hay de sobra, algunos casos son,  4 : En
una red de computadores con bus compartido, el acceso al bus puede ser
considerado un experimento aleatorio,  5 : El número de correos que llegan a un
servidor,  6 : El número de conexiones que apuntan a una determinada página Web
en Internet, etc..
Lo más interesante es que a pesar de que el resultado de cada experimento es
incierto, la realización de un alto número de ellos puede predecirse.
Definición 2—3: Espacio Muestral 
26
Es el conjunto de todos los posibles resultados de un experimento aleatorio. El
espacio muestral se denota por la letra  , de esta manera,   i iI .
Observación 2—1
1.
El conjunto  puede ser discreto o continuo
2.
Sus elementos se pueden escribir con tuplas.
3.
Cada tupla puede escribirse como i  1,1 , 1,2 ,, 1, j ,, 1,n
i

Ejemplo 2—2
Los siguientes son casos típicos de espacios muestrales:
a.
Si el experimento  consiste en el lanzamiento de 2 monedas y
registrar el número de la cara de cada una de las monedas. Entonces
  c, s , c, c , s, c , s, s . Aquí, en particular, 3   s, c  y n2  2
b.
Si el experimento aleatorio  consiste en registrar el número de
intentos que un computador debe realizar para acceder al bus
compartido en una red de computadores. Entonces   1, 2,3,... .
c.
Si el experimento  consiste en registrar el tiempo del primer daño de
un computador nuevo. Entonces   t t  0 .
Definición 2—4: Evento A
En general, se dice que un evento A es un subconjunto de  , el espacio muestral.
Cada evento se denota por una letra mayúscula.
Se dice que un evento A ocurrió, una vez se ejecute el experimento  , cuando el
resultado obtenido i  A .
Ejemplo 2—3: Monedas
27
En el caso del experimento  que consiste en lanzar 2 monedas, los siguientes son
eventos válidos. A1: La primera moneda cae en cara, es decir A1  c, s , c, c   ; A2:
Las dos monedas coinciden en su resultado, es decir A2  c, c , s, s    .
Observación 2—2
1.
No es discutible el hecho de que
   y,
   .
Es decir, el conjunto vacío y su
muestral) también son eventos.
2.
conjunto completo (espacio
Por razones que se discutirán más adelante, a  se le denomina el
evento imposible mientras que  es el evento seguro.
Ejemplo 2—4
En el experimento de lanzar un dado de 6 cara numeradas de 1 a 6,
 
, 
,
,
,
,
  y de esta manera m    6 . Así
que el experimento cuenta con 26  64 Eventos posibles.
Definición 2—5: Espacio de eventos 
Se define como la colección, denotada por  , de todos los posibles eventos de un
experimento aleatorio.
Matemáticamente hablando, la colección  satisface los siguientes axiomas
(propiedades):
1.
 .
2.
Si A  entonces A   .
28
3.
Si A1 , A2 , , Ai ,  Entonces A 
+
Ai   .
i=1
Cada vez que un conjunto de conjuntos  cumple estos axiomas se dice que  es
una   algebra .
Ejemplo 2—5
Para algún experimento aleatorio con espacio de eventos    ,  se tiene una
  algebra .
Estas propiedades del espacio de eventos dan origen a una serie de resultados
interesantes.
Teorema 2—1
Si  es una   algebra entonces   
Demostración
1.
Por el primer axioma   .
2.
Por el segundo axioma   .
3.
Dado que    , se sigue el resultado.
Teorema 2—2
Si A1 , A2 , , Ai , , An  Entonces
1.
A
n
Ai  
i 1
2.
B
n
Ai  
i 1
Demostración (Queda como ejercicio para el estudiante).
29
Definición 2—6: Función de probabilidad
Una función P cuyo conjunto de partida es el espacio de eventos y el de llegada el
intervalo 0,1 , es decir,
P:  
A 
0,1 de suerte que P cumple las propiedades:

P  A
1.
PA  0 para todo A  .
2.
P    1 .
3.
Si A1 , A2 , , An  con Ai  Aj   para i  j . Entonces P  Ai    PAi  .

n
 i 1

n

i 1
De esta definición se desprenden los las siguientes propiedades:
Teorema 2—3: Complemento
Si A   entonces PA  1  PA .
Demostración
1.
AA 
2.
AA 
3.
PA  A  P  PA  PA
4.
Dado que P  1 el teorema queda demostrado.
Teorema 2—4: Probabilidad de la unión de eventos
Para cada dos eventos A y B   , P  A  B  P  A  P  B   P  AB . Más general, para
eventos A1 , A2 , , An 
n  n
P  Ai    P  Aj    P  Ai Aj 
i j
 i 1  j 1
30

  P  A A A  
i  j k
i
j
k
  1 P  A1 A2
n 1
An 
Demostración (de la primera parte se deja la segunda parte como ejercicio)
A  B  A  AB, y A  AB   ; entonces
P  A  B   P  A  P  AB   P  A  P  B  P  AB.
Definición 2—7: Evento fundamental
A cada uno de los eventos conformados por un solo posible resultado se les
denomina eventos fundamentales. Matemáticamente Ai  i   
1
En muchas situaciones se supone que P  Ai   n es decir, que los eventos
fundamentales son equiprobables. Sin embargo, el Ejemplo 2—16 y el Ejemplo 2—
6 muestran que no siempre los eventos fundamentales son equiprobales.
Ejemplo 2—6: Eventos fundamentales no equiprobables.
Sea  un experimento aleatorio con n posibles resultados   1 2 , , n  . Se sabe
que las probabilidades de los eventos fundamentales se comportan de tal manera
que el evento (fundamental)  j  1  ésimo es el doble de probable que el j  ésimo .
Sea Ak   , 2 , , k  ¿Cuál es la P  Ak  ?
Para encontrar la respuesta, es necesario tener en consideración varios aspectos y
resultados importantes en el análisis.
1.
Una serie X t  aX t 1 con condición de frontera X 1 tiene una solución
general dada por la expresión X t  X1at 1
2.
n 1
 1 rn 
Es importante recordar la serie geométrica finita.  ar j  a 

j 0
 1 r 
31
3.
Con esos resultados en mente, es claro que p j 1  2 p j y, en
consecuencia, p j  p1 2 j 1 .
La condición de frontera p1 puede
encontrarse con relativa facilidad
teniendo en cuenta que
n
p
j 1
n
n 1
 1  2n 
n
  p1 2 j 1   p1 2 j  p1 
  p1  2  1  1 .
1

2
j 1
j 0


Por lo tanto, p1 
Este último resultado sugiere, entonces, que p j 
P  Ak 
2 j 1
.
2n  1
j
1
.
2 1
n
Finalmente,
k 1
2 j 1
2j
2k  1
  pj   n
.
 n
 n
2 1
j 1
j 1 2  1
j 0 2  1
n
k
Definición 2—8: Espacio de probabilidad 
El objeto matemático descrito por   , , P   en el que  es el espacio muestral,
 representa la   álgebra de eventos y P 
 la función de probabilidad, se
denomina espacio de probabilidad.
2.3 PRINCIPIOS FUNDAMENTALES DE LA TEORÍA DE LA MEDIDA
Definición 2—9: Una función de probabilidad de uso común
Una función particular que cumple las propiedades establecidas en la Definición
medida  A
2—6 y que se constituye en la función más usada es P  A 
.
medida   
Observación 2—3
Para espacios muestrales  discretos la función de medida apropiada es el conteo,
es decir, el cardinal de los eventos involucrados medida  A  A ; mientras que para
espacios muestrales  continuos se debe considerar la dimensión de cada posible
resultado experimental así:
1.
  1 i 
iI
La medida apropiada es la longitud de eventos.
32
2.
  1 , 2 i 
3.
  1 , 2 , 3 i 
La medida apropiada es el área de los eventos.
iI
iI
La medida apropiada es el volumen de los eventos.
2.3.1 REGLAS DE LA MEDIDA CONTINUA
Tan importante como saber contar para espacios muestrales discretos, es recordar
algunas leyes generales del cálculo integral y diferencial para encontrar medidas en
espacios continuos. Dos ejemplos sencillos ilustran esta idea.
Ejemplo 2—7: Galois
En la ciudad de la Discreción los duelos son raramente fatales. Allí, cada
contrincante llega aleatoriamente entre las 5 a.m. y las 6 a.m. el día acordado y
espera exactamente 1   0,1 minutos (¡Honor servido!) a menos que su oponente
llegue en ese intervalo de tiempo (o haya llegado antes y lo esté esperando) caso en
el cual habrá pelea y uno de ellos morirá. ¿Cuál es la probabilidad de muerte?
Solución (Teórica) a priori:
1.
X i : Hora de llegada del i  ésimo duelista con i  1,2
sin pérdida de
generalidad puede considerarse que X i  0,1 y por lo tanto el espacio
muestral está dado por   x1, x2  x1, x2  0,1 y definiendo el evento A : los

dos duelistas se encuentran. entonces A   x1, x2   x1, , x2  , x1,  x2  1

donde 1  , de ésta manera se pide calcular   FX   P  A
2.
P  A 
medida  A
medida   
Dado que el evento A es bidimensional continuo, la
medida apropiada es el área, entonces P A 
área A
área 
33
X2
1  1
1

1  1
x2  x1  1
A
x2  x1  1
1
X1
0
1
1
Figura 2—1: Espacio muestral y eventos de interés del ejemplo de
Galois
3. Es fácil ver que el
área  1 y que el área  A  1  1  1   21  12
2
4. En consecuencia la P  A  21  12 , en particular si el tiempo de espera es
de 5 minutos, 1 
23
1
 0.16 , es decir en la ciudad de la
y la P A 
12
144
Discreción las muertes debidas a los duelos son poco frecuentes
De esta manera se concluye que el cálculo integral y diferencial juegan un papel
importante en el cálculo de probabilidades para espacios muestrales continuos.
Ejemplo 2—8: Raíces complejas (Tarea)
¿Cuál es la probabilidad de que la ecuación cuadrática x2  2bx  c  0 tenga raíces
complejas si b ~ U  1 , 1  y c ~ U  1 , 1  y se sabe que son independientes?
Solución analítica:
34
1. Un supuesto que no resulta cuestionable está en que el experimento
b ~ U  1 , 1  y c ~ U  1 , 1 
aleatorio es tal que
con 1  y b
independiente de c .
2. Dada la pareja b, c  es claro que la ecuación generaría raíces complejas si
b 2  c  0 . Y, en consecuencia, la ecuación de la parábola c  b 2 determina
un límite entre las raíces reales y complejas.
3. Esta situación puede observarse en la representación cartesiana de la
Figura 2—2.
c
c  b2
1

Raíces
Complejas
1 , 1

A
1
1
b
Raíces
Reales
A
1
Figura 2—2: Espacio muestral y eventos de interés del ejemplo de las
raíces
4. En consecuencia, definiendo el evento

A   b, c  | b2  c  0, ,  b, c    1 , 1 
2

35
así
mismo,
el
espacio

  (b, c) | b   1 , 2  , , c   1 , 2 




1
4 3
área( A)
. Claramente, área( A)  2 1  1   b2 db  12 , mientras que
3
área()
 1
área()  412 , así que P( A) 
1
3 1
.
5. En particular si 1  4 , entonces
6.
muestral
esta
dado
por
y por lo tanto P( A)  P( Raíces com plejas )
También
es
claro
que
P( A) 
1
.
6
 1
Lim P( A)  Lim 
1 
1   3 
1


0


Equivalente
la
___
1 
P( A )  P( Raices reales) 
1 .
2.3.2 REGLAS DEL CONTEO
1.
La actividad de contar es más complicada de lo que parece a simple
vista y requiere especial cuidado y seriedad en su tratamiento.
2.
La Mayoría de los problemas en probabilidad son relativamente
sencillos de formular, pero generalmente, complicados de resolver.
En la Figura 2—3 se proponen dos factores importantes que deben tenerse en
cuenta cada vez que se lleva a cabo una actividad de conteo. Esos elementos clave
son las tareas (filas en el diagrama) y las etapas (columnas). El número de etapas
depende de la tarea, sin embargo es usual que sean constantes para toda tarea.
En un sentido amplio, las tareas son realizaciones en las que, de una manera
disyuntiva, puede realizarse el conteo. De esta manera se emplea el conectivo o,
mientras que se usa el y para las etapas.
36
Proposición 2—1: Cálculo del número de elementos de un evento
Si un experimento aleatorio  genera un espacio muestral  de naturaleza
 ni 
discreto, y A  entonces A    eij  .
i 1  j 1

m
TAREAS
De este esquema simple pueden deducirse alrededor de cinco reglas fundamentales
del conteo.
A
T1
T2
Ti
Tm
e11
e12
e13
e1 j
e21
e22
e23
e2 j
ei1
ei 2
ei 3
eij
em1
em 2
em3
emj
e1n1
e2n2
eini
emnm
ETAPAS
Figura 2—3: Factores importantes en el proceso de contar
Ejemplo 2—9: Probabilidad combinatoria
Por un estudio de 120 pasajeros, una línea aérea supo que 48 pasajeros (Clase A)
prefirieron tomar vino con la comida, 78 (Clase B) prefirieron jugos, y 66 (Clase C),
té con hielo. Además, 36 pasajeros tomaron dos tipos de bebidas y 24 tomaron de
todas. Si en la muestra anterior se seleccionan dos pasajeros al azar, ¿Cuál es la
probabilidad de que (Evento D) los dos pasajeros quieran solo té con hielo?
¿(Evento E) los dos tomen exactamente dos de las tres bebidas ofrecidas?
37
A partir de la información proporcionada se elaboro el diagrama de Venn de la
Figura 2—4. El espacio muestral  consta de las parejas de pasajeros que se
120 
pueden seleccionar de la muestra de 120, de modo que      7140 . El
 2 
diagrama de Venn indica que hay 18 pasajeros que beben sólo té con hielo, por
18 
51
3
tanto D    y P  D  
. De manera similar P  E   .
2380
34
2

A
C
12
0
18
24
12
12
30
B
Figura 2—4: Diagramas de medida para el ejemplo de probabilidad
combinatoria
2.4 PROBABILIDAD CONDICIONAL E INDEPENDENCIA ESTOCÁSTICA
Definición 2—10: Probabilidad Condicional
Si  es un evento aleatorio que genera el espacio de probabilidad   , , P  y
A y B dos eventos de tomados de  entonces de dice que la probabilidad
condicional del evento A dado que se sabe que ha ocurrido B , y que se denotado
P  AB 
por P  A B  , se define como P  A B  
siempre que P  B  0 .
P  B
Teorema 2—5: Probabilidad total
Si  es un experimento aleatorio que genera un espacio de probabilidad
Bi con i  1, 2,3, , n una colección de eventos tomados de
  , , P  , A  y
 que cumplen las condiciones:
38
1.
2.
Bj   .
Bi
n
Bi   .
i 1
3.
P  B j   0 para j  1, 2,3,
,n .
n
Entonces P  A   P  A Bi  P  Bi  .
i 1

B1
A
B3
B2
...
Bn
Figura 2—5: Representación gráfica de las propiedades de los eventos B.
Demostración:
1.
Como A 
n
A
Bi  y los eventos A Bi son disyuntos, y
i 1
2.
Por
el
tercer
axioma
de
la
función
de
probabilidad
n
n
 n

P  A  P   A Bi      P  A Bi    P  A Bi P  Bi  .
i 1
i 1

 i 1
NOTA:
1.
En particular P  A =P  A B  P  B  P  A B  P  B  .
39
2.
Un nombre generalmente aceptado para referirse a las probabilidades
condicionales que pueden calcularse con base en la información
disponible de la situación a resolver, es verosimilitudes del problema.
Ejemplo 2—10: Juego de Craps.
El juego de Craps se practica dejando que un jugador lance dos dados hasta que
gana o pierde, el jugador gana en el primer lanzamiento si tiene como total 7 u 11,
pierde en el primer lanzamiento si tiene un total de 2, 3 o 12, si el jugador obtiene
cualquier otro total en su primer lanzamiento, ese total se denomina su punto.
Continúa haciendo lanzamiento hasta que obtenga 7 o su punto. El jugador ganará
si obtiene su punto y pierde si obtiene 7. ¿Cuál es la probabilidad de ganar el juego?
1. Algoritmo
Ver Algoritmo 2—1.
2. Solución analítica
1. Definiendo los eventos:
G: Ganar el juego.
C: Ganar el juego en el primer intento.
A: Ganar el juego después del primer intento.
Entonces la probabilidad de ganar el juego está dada por la expresión
PG  PC  A  PC   PA. A continuación se realiza un análisis detallado
para el cálculo de cada una de estas probabilidades.
2. Primero deben calcularse las probabilidades asociadas con los totales
del experimento aleatorio. Debe notarse que hay 6  6  36 posibles
resultados igualmente probables que se muestran en la tabla que sigue.
En esta tabla cada fila indica el resultado del dado uno mientras las
columnas representan el resultado del dado dos.
40
1
2
3
4
5
6
1
2
3
4
5
6
7
2
3
4
5
6
7
8
3
4
5
6
7
8
9
4
5
6
7
8
9
10
5
6
7
8
9
10
11
6
7
8
9
10
11
12
3. Contando las celdas en la tabla pueden obtenerse las siguientes
probabilidades de los totales:
Total 2
3
4
5
6
7
8
9
PTotal1
36
2
36
3
36
4
36
5
36
6
36
5
36
4
36
4. La probabilidad PC  es entonces PC  P7  P11
10 11 12
3
36

2
36
1
36
6
2
8
 0.22222


36 36 36
(Obsérvese que la probabilidad de perder en el primer intento es igual a
P2  P3  P12 
1
2
1
4
).



36 36 36 36
5. Para calcular la PA se definen los eventos:
B1: El puntaje del jugador es 4. B4: El puntaje del jugador es 8.
B2: El puntaje del jugador es 5. B5: El puntaje del jugador es 9.
41
B3: El puntaje del jugador es 6. B6: El puntaje del jugador es 10.
Observe que de la tabla de probabilidades del total (dada previamente)
es claro que, por ejemplo, PB 5  
4
36
.
6. Para calcular PA puede usarse un razonamiento como el que sigue.
Puesto que solamente existen las opciones de ganar con el puntaje y
perder obteniendo 7, se pueden calcular las probabilidades
condicionales de ganar dado un puntaje es decir calcular PA Bi  con
i  1,2,3,4,5,6 .
Por ejemplo, cuando el puntaje es 9, hay 4 formas de
obtener ese total y 6 de alcanzar un 7, de esta manera, la probabilidad de
que en el experimento se gane dado un puntaje 9 es PA B5  
4
4
 .
4  6 10
En la tabla que sigue se resumen esas probabilidades condicionales.
1
i
PA Bi 
3
3

3 6 9
2
3
4
5
6
5
5
3
3
4
4
5
5
4
4





4  6 10 5  6 11 5  6 11 4  6 10 3  6 9
7. utilizando el teorema de la probabilidad total se concluye que
6
 3  3   4   4   5   5   5   5 
PA   PA Bi   PBi                         
i 1
 9   36   10   36 
 11   36   11   36 
 4   4   3  3 
             0.27071.
 10   36   9   36 
8. Finalmente, la PG  PC  A  PC  PA  0.22222  0.27071  0.49293 .
Lo
que permite concluir que el juego es muy justo, ¡la probabilidad de ganar
es casi igual a la de perder!
42
INICIO
t←Total_Dos_Dados()
SI
NO
t==7||t==11
SI
Gana←1
(t==2)||
(t==3)||
(t==12)
NO
Gana←0
Punto←t
Salir←0
t←Total_Dos_Dados()
SI
NO
t==Punto
SI
Gana←1
NO
t==7
Gana←0
Salir←1
Salir←1
NO
Salir==1
SI
Retornar(Gana)
FIN
Algoritmo 2—1: Simulador para el juego de Craps.
43
Teorema 2—6: Bayes
Si  es un experimento aleatorio que genera un espacio de probabilidad
Bi con i  1, 2,3, , n una colección de eventos
  , , P  , A  , P  A  0 y
tomados de  que cumplen las condiciones:
1.
2.
Bi
n
Bj   .
Bi   .
i 1
3.
P  B j   0 para j  1, 2,3,
Entonces P  Bk A 
,n .
P  A Bk  P  Bk 
n
 P  A B  P  B 
i
i 1
.
i
Demostración:
1.
Con base en la definición de probabilidad condicional
P  Bk A 
P  Bk
P[ A]
A
.
2.
También es claro que P  Bk
A  P  A Bk  P  Bk  .
3.
Por el teorema de la probabilidad total es claro que
n
P  A   P  A Bi P  Bi  con lo cual queda demostrado el teorema de
i 1
Bayes.
NOTA:
1.
En particular P[ B | A] 
P  A B  P  B 
P  A | B  P  B   P  A | B  P  B 
.
44
2.
Sin duda, el teorema de Bayes se constituye en uno de los resultados
más frecuentemente empleado en el modelamiento de sistemas
computacionales. Una sola aplicación corrobora esta afirmación: las
denominadas redes Bayesianas, empleadas en la construcción de
sistemas inteligentes, es un caso representativo.
Ejemplo 2—11: Transmisión satelital.
Un satélite del clima está enviando un código binario de 0’s y 1’s describiendo el
desarrollo de una tormenta tropical. El ruido en el canal puede esperarse que
introduzca cierta cantidad de errores de transmisión. Suponga que el mensaje que
esta siendo transmitido está compuesto en un 70% de 0’s y existe un 80% de
probabilidad de que un 0 o 1 enviados sean recibido correctamente. Si un “1” es
recibido, ¿Cuál es la probabilidad que un “0” haya sido enviado?
Solución:
Definiendo los eventos Bi “Un i fue enviado,” i  0,1, y definiendo el evento Ai como
“Un i fue recibido”, se desea encontrar la P  B0 A1  . Asimismo, de acuerdo con los
datos, es fácil verificar que: P  B0   0.7 , P  B1   0.3 , P  A0 B0   0.8 , P  A1 B0   0.2 ,
P  A1 B1   0.8 , y que P  A0 B1   0.2 .
habiendo

sido
enviado
dado
En consecuencia, la probabilidad de un 0
que
1
fue
recibido
es
P  B0 A1 
P  A1 B0  P  B0 
 0.2  0.7 
 0.37

P  A1 B0  P  B0   P  A1 B1  P  B1   0.2  0.7    0.8 0.3
Definición 2—11: Eventos independientes
Sea  un experimento aleatorio que genera un espacio de probabilidad
  , , P  , A y B dos eventos tomados de  , Entonces se dice que A es
independiente de B si y sólo si
1.
P[AB]  P[A] * P[B]
45
2.
P[A | B]  P[A]
Si P[B] > 0
3.
P[B | A]  P[B]
Si P[A] > 0.
2.5 VECTOR ALEATORIO Y FUNCIÓN DE DISTRIBUCIÓN CONJUNTA
2.5.1 INTRODUCCIÓN
Definición 2—12: Función indicadora
La función

I:
 
0,1
de forma que
I A  
1 Si   A
se denomina función
I A    
0 Si   A
indicadora.
2.5.2 DEFINICIONES
Definición 2—13: Variables aleatorias
Dado un espacio de probabilidad   , , P  , asociado con un experimento
aleatorio  , se define variable aleatoria a una función X cuyo dominio es el espacio
muestral y su recorrido los números reales R . Es decir,
X:  
R
  X  
.
NOTAS
1.
Se emplean siempre letras mayúsculas para denotar a cada una
de las variables aleatorias.
2.
Si los posibles valores de la variable aleatoria es un número
finito o contablemente infinito se dice que la variable aleatoria es
discreta.
3.
Si los posibles valores de la variable aleatoria pertenecen a un
intervalo de los números reales se dice que la variable aleatoria
es continua.
46
Definición 2—14: Vector aleatorio
Dado un espacio de probabilidad   , , P   , asociado con un experimento
aleatorio  , se define a un conjunto de n variables aleatorias X   X1 , X 2 , , X n  para
las cuales x   x1 , x2 , , xn  , representa un conjunto de valores determinados se le
denomina vector aleatorio.
Definición 2—15: Distribución conjunta
la Distribución Conjunta para un vector aleatorio se define como
FX1 , X 2 ,
, Xn
 x1 , x2 ,..., xn   P  X1  x1, X 2  x2 ,..., X n  xn 
(1— 1)
2.6 FUNCIONES DE DENSIDAD CONJUNTAS
2.6.1 VECTORES ALEATORIOS DISCRETOS
Definición 2—16: Densidad conjunta discreta
La función de densidad conjunta discreta se define como:
f X1 , X 2 ,
, Xn
 x1, x2 ,..., xn   P  X1  x1, X 2  x2 ,..., X n  xn 
Las condiciones que f X1 , X 2 ,
, Xn
 x1 , x2 ,..., xn  debe satisfacer son:
 x1, x2 ,..., xn  0,1 para
2.   f X , X , , X  x1 , x2 ,..., xn   1
1. f X , X ,
1
2
, Xn
1
x1
2
(1— 2)
   xi   para todo i
n
xn
Ejemplo 2—12: Familia multinomial.
Un experimento aleatorio con espacio muestral   1 , 2 , , k 1 , con pi  P i  así
k 1
que
 p  1 . Si se realizan n ensayos independientes y se define el vector aleatorio
i 1
i
47
X   X1 , X 2 ,
, X k 1  con X i definido como el número de veces que apareció i . Se
puede verificar que f X , X
1
2,
, X k 1
 x1 , x2 ,
, xk 1  
k 1
n!
k 1
 xi !
p
i 1
xi
i
k 1
donde xi  0,1, , n y
x  n .
i 1
i
i 1
2.6.2 VECTORES ALEATORIOS CONTINUOS
Definición 2—17: Densidad conjunta continua
La función de densidad está dada por:
f X1 , X 2 ,
n
FX , X ,
, X n  x1 , x2 ,..., xn  
x1x2 ...xn 1 2
Las condiciones que f X1 , X 2 ,
, Xn
,Xn
 x1 , x2 ,..., xn 
(1— 3)
 x1 , x2 ,..., xn  debe satisfacer son:
1. f x1 , x 2 ,..., x n   0 para    xi   para todo i
2.




 ...  f x1 , x 2 ,..., x n dx1 dx 2 ...dx n  1
2.6.3 OTRAS CLASES DE VECTORES ALEATORIOS
Definición 2—18: Vector aleatorio mixto
Dado un espacio de probabilidad   , , P   , asociado con un experimento
aleatorio  , se dice que el vector aleatorio X   X1 , X 2 , , X n  es mixto cuando
algunas de sus variables son continuas y las restantes discretas.
48
2.7 DISTRIBUCIONES
ESTOCÁSTICA
CONDICIONALES
E
INDEPENDENCIA
2.7.1 VECTORES ALEATORIOS CONTINUOS
2.7.1.1
Distribuciones Marginales
Definición 2—19: Densidad marginal continua.
Para un vector aleatorio X   X1 , X 2 , , X k , , X n  con función de densidad conjunta
continua f X1 , X 2 ,
, Xn
 x1 , x2 ,..., xn  se
define la función de densidad marginal de las
“últimas n  k x ’s" como :

f X k 1 ,
2.7.1.2
,Xn

 xk 1 ,..., xn    ... 


f X1 , X 2 ,
,Xn
 x1 ,..., xk , xk 1,..., xn  dx1...dxk
(1— 4)
Distribuciones Condicionales
Definición 2—20: Densidad condicional continua.
Para un vector aleatorio X   X1 , X 2 , , X k , , X n  con función de densidad conjunta
continua f X1 , X 2 ,
, Xn
 x1 , x2 ,..., xn  se define a función de densidad condicional para las
"primeras k x 's" dados los “últimos n  k x 's" como la función:
f X1 ,
, X k X k 1 , , X n
 x ,..., x
1
k
xk 1 ,..., xn  

función de densidad de todas las n's
densidad marginal de las "últimas  n  k  x"
f X1 ,
f X k 1 ,
 x1 , x2 ..., xn 
, X  xk 1 ,..., xn 
(1— 5)
,Xn
n
El uso las palabras "primero" y "último" en estas descripciones no implica ninguna
secuencia rígida de las variables; son meramente ayudas convenientes para la
identificación.
49
Observación 2—4
La correspondiente función de densidad condicional es:
c x Y  yh
F c x Y  y h

x
f b x, yg

f b yg
f
X
X
Y
Y esta es la forma comúnmente más usada. Intercambiando X y Y tenemos:
h ff b xb,xygg
c
(3-11)
fY yX x 
X
Cuando no hay peligro de ambigüedad, las funciones de densidad condicional serán
escritas como
c h ffb xb,yygg
f b x, yg
f c y xh 
f b yg
f xy 
Y
X
De estas dos ecuaciones una puede obtener la versión continua del teorema de
Bayes, eliminando f y, x de la última expresión nos conduce directamente a:
b g
c h f c xf yhbfxgb yg
f yx 
Y
X
Este resultado también posibilita la obtención de otra expresión para la función de
densidad de la probabilidad marginal notando que
b xg  z f b x, ygdy

f
X
zc



h bg
f x y f Y y dy

50
Y
bg
fY y 
zc


zb


h b xgdx
f yx f

g
f x , y dx
X
Ejemplo 2—13
Para un vector aleatorio bidimensional con:
b g 65 c1  x yh
f x, y 
0  x  1,0  y  1
2
0
en otra parte
Determinar sus marhinales y sus condicionales .
Solución
Integrando esta función solo con respecto a y y solo con respecto a x produce las
dos funciones de densidad marginal como
f
X
b g FGH
x 
6
x2
1
5
2
IJ
K
0 x 1 Y
b g 65 FGH1  3y IJK
fY y 
0 y 1
De (3-12) y (3-13) las dos funciones de densidad condicional pueden ahora ser
escritas como
c h
f xy 
1  x 2y
y
1
3
0  x  1,0  y  1
Y
c h
f yx 
1  x 2y
x2
1
2
0  x  1,0  y  1
51
2.7.2 VECTORES ALEATORIOS DISCRETOS
2.7.2.1
Distribuciones Marginales
Definición 2—21: Densidad marginal discreta.
Para un vector aleatorio X   X1 , X 2 , , X k , , X n  con función de densidad conjunta
discreta f X1 , X 2 ,
, Xn
 x1 , x2 ,..., xn  se
define la función de densidad marginal de las
“últimas n  k x ’s" como :
f X k 1 ,
,Xn
 xk 1 ,..., xn     f X , X ,
1
xn xn1
2.7.2.2
2
,Xn
 x1 ,
, xk ,
, xn 
xk 1
(1— 6)
Distribuciones Condicionales
Definición 2—22: Densidad condicional discreta.
Para un vector aleatorio X   X1 , X 2 , , X k , , X n  con función de densidad conjunta
discreta f X1 , X 2 ,
, Xn
 x1 , x2 ,..., xn  se define a función de densidad condicional para las
"primeras k x 's" dados los “últimos n  k x 's" como la función:
f X1 ,
, X k X k 1 , , X n
 x ,..., x
1
k
xk 1 ,..., xn  

función de densidad de todas las n's
densidad marginal de las "últimas  n  k  x"
f X1 ,
f X k 1 ,
 x1 , x2 ..., xn 
, X  xk 1 ,..., xn 
(1— 7)
,Xn
n
El uso las palabras "primero" y "último" en estas descripciones no implica ninguna
secuencia rígida de las variables; son meramente ayudas convenientes para la
identificación.
2.7.3 INDEPENDENCIA
Definición 2—23: Independencia estocástica.
52
Un vector aleatorio X   X1 , X 2 , , X k , , X n  , bien sea discreto o continuo, denomina
n
estocásticamente independiente cuando
f X1 , X 2 ,
,Xn
 x1 , x2 ,..., xn    f X  xi 
i 1
i
, o
n
bien, FX1 , X 2 ,
,Xn
 x1 , x2 ,..., xn    FX  xi  .
i
i 1
2.8 ESPERANZA MATEMÁTICA Y MOMENTOS
2.8.1 VALOR ESPERADO DE FUNCIONES DE VARIABLES ALEATORIAS
Definición 2—24: Esperanza matemática de una función.
Para un vector aleatorio X   X1 , X 2 , , X k , , X n  con función de densidad conjunta
f X1 , X 2 ,
, Xn
 x1 , x2 ,..., xn 
n

como:
g:
E  g  X1, X1,
y se define la esperanza matemática de una funcuón


, X n     
 
 
  g  x ,
1
xn xn1
, xk ,
, xn  f X1 , X 2 ,
,Xn
 x1 ,
, xk ,
, xn 
Discreto
xk 1

 g x ,
1
, xk ,

, xn  f X1 , X 2 ,
,Xn
 x1 ,
, xk ,
, xn  dx1dx2
dxn Continuo
Teorema 2—7: Chebyshev
Sea X ~ f X x  , g :
P  g  x   k  


una
función
no
negativa
y k  0 Entonces
E  g  x  
k
Demostración:
1.

E  g  x     g x  f x x dx

53

x:g
 g x  f x dx    g x  f x dx
x
x
x k
x: g x  k

x: g

x: g
 g x  f x dx
x
x k
 k  f x dx
x
x k
 kP  g  x   k 
2.
Finalmente dividiendo entre k se sigue el resultado.
NOTAS:
Observación 2—5
1.
Es claro que
2.
E  g  X 
Es fácil ver que: P  g  X   k   1  
k
¡Error! No se pueden crear objetos modificando
.
códigos de campo.
2.8.2 MOMENTOS
Definición 2—25: Momentos alrededor de cero.
k
El k -ésimo momento en cero de la i -ésima variable es E  X i  , el valor esperado de
la k -ésima potencia de x i :
54
k 
X
i
 k

 xi f Xi  xi  dxi

k
 E  Xi   
  xik f X i  xi 

 xi
Si X es continuo
Si X es discreto
y sustituyendo de (1— 4) para f X i  xi  resulta en
k 
X
i
  k

 ... xi f X1 , X 2 , , X n  x1 , x2 ,..., xn  dx1dx2 ...dxn



xik f X1 , X 2 , , X n  x1 , x2 ,..., xn 



xn
xn

Si X Continuo
(1— 8)
Si X Discreto
Observación 2—6
1. En particular, cuando n  1 , el exponente  k  normalmente se omite y  i se

escribe en lugar de  i 1 .
2. El
vector
de
medias
que
corresponde
a
X   X1 , X 2 ,
, Xn 
es
   E  X    1 , 2 , ,  j , , n  .
Definición 2—26: Momentos alrededor de una constante.
Definición 2—27: Covarianza.
La covarianza entre las i -ésima y la j -ésima variables para i  j es
 ij  E  X i  i   X j   j  ,
(1— 9)
Observación 2—7
Se dice que las variables X i y X j son no correlacionadas cuando  ij  0 .
Definición 2—28: Varianza.
La varianza de la i -ésima variable es
55
 i2  E  X i  i 
2
(1— 10)
Definición 2—29: Matriz de Varianzas–Covarianzas.
Las varianzas y covarianzas entre las variables en el vector X   X1 , X 2 ,
, Xn 
están dadas por (1— 9) y (1— 10). Organizando estas varianzas y covarianzas
como elementos de una matriz se obtiene la matriz de varianza-covarianza de X
como:
var  X   V   ij  para i, j  1, 2,
,n
Observación 2—8
1. Los elementos diagonales de V son las varianzas y los elementos que no están
en la diagonal son las covarianzas.
2. La varianza de una variable aleatoria escalar X i se escribirá como v  X i  ,
|considerando que la matriz de varianza-covarianza V de un vector de
variables aleatorias X   X1 , X 2 , , X n  se denotará como var  X  .
2.8.3 COVARIANZA Y COEFICIENTE DE CORRELACIÓN
Definición 2—30: Matriz de correlación R.
La correlación entre la i -ésima y la j -ésima variables se define como ij 
 ij
, la
 i j
matriz de correlación es

1 
  

1

R   ij   D  VD   para i, j  1,..., n

 i  
 i j 

 j 

(1— 11)
Observación 2—9
56
1. Donde las D son las matrices diagonales con los elementos
i  1, 2,
1
i
para
,n.
2. Claramente los elementos diagonales de R son todos la unidad, y R es
simétrica.
3. La matriz V es definida no negativa.
2.8.4 FUNCIONES GENERADORAS DE MOMENTOS
Definición 2—31: Función generadora de momentos.
Dado un vector aleatorio X   X1 , X 2 , , X n  con función de densidad conjunta
f X1 , X 2 ,
, Xn
 x1 , x2 ,..., xn  , se define la función generadora de momentos (f.g.m.)
densidad conjunta para un vector de parámetros t   t1 , t2 ,
M X  t   E et1x1 t2 x2 ...tn xn   E et x 
Y la f.g.m. de una función escalar g :
n

,t j ,
de la
, tn  :
(1— 12)
de los elementos de X   X1 , X 2 , , X n  ,
como:
g X t
M g  X   t   E e   
(1— 13)
2.8.5 ESPERANZA E INDEPENDENCIA
Teorema 2—8: Independencia.
Si X   X1 , X 2 , , X n  es un vector aleatorio conformado por variables aleatorias
independientes y sean gi :
n

un conjunto de m funciones de valor real
 m
 m
entonces E  gi  X     E  gi  X  .
 i 1
 i 1
Demostración: Se deja como ejercicio.
57
2.9 TRANSFORMACIONES
Es natural requerir el cálculo de alguna estructura probabilística conjunta de
muchas variables aleatorias que se obtienen como funciones de otro conjunto
dado de variables aleatorias del que se conoce su comportamiento probabilístico.
2.9.1 CASO UNIVARIADO
Se presenta a continuación un resumen de algunos resultados de uso frecuente en
los casos continuo y discreto. No se incluyen las demostraciones puesto que, al
final del capitulo se extienden los resultados y se incluyen las demostraciones más
importantes.
2.9.1.1
Transformación lineal univariada
Teorema 2—9
Si X ~ f X  x  , a  0 y b constantes reales y definiendo Y  aX  b entonces
1
 y b 
 y b 
fX 
fY  y   f X 
 cuando X es
 cuando X es discreta o bien fY  y  
a
 a 
 a 
continua.
2.9.1.2
Suma de dos variables aleatorias
Teorema 2—10
Si X1 ~ f X  x  y X 2 ~ f X  x  independientes y definiendo la transformación Z  X1  X 2
1
2
entonces f Z  z  

f X1  x  f X 2  z  x  cuando
X1 y
X2
son
discretas
o
bien
Todo x
fZ  z  



f X1  x  f X 2  z  x  dx cuando X 1 y X 2 son continuas.
Las sumatorias e integrales presentadas en este teorema se denominan las
sumatorias o integrales de convolución, que son de utilidad no solamente en
probabilidad sino también en otros campos de la ingeniería de la computación.
2.9.1.3
Cuadrado de una variable aleatoria
58
Si X ~ f X  x  continua y definiendo Y  X 2 entonces fY  y  
1
2 y
 f  y   f   y  .
X
X
2.9.2 VECTORES ALEATORIOS DISCRETOS
Proposición 2—2: Método de cálculo
Suponga un vector aleatorio discreto de n variables discretas aleatorias  X1 , , X n 
con estructura probabilística f X ,
1
,Xn
 x1 ,
, xn  .  denota el espacio de posibles
realizaciones de  X1 , , X n  ; es decir,    x1 , , xn  : f X ,
1
, Xn
 x1,

, xn   0 .
Se desea
obtener la densidad conjunta de Y1  g1  X1 , , X n  , , Yk  gk  X1 , , X n  . Cuando
Y1 ,
, Yk es conjuntamente discreto su estructura probabilística puede ser calculada
como  Y1  y1; ;Yk  yk   fY ,
1
,Yk
 y1 ,
, yk  
f
X1 , , X n
 x1 ,
xn  , donde la sumatoria se
realiza sobre los  x1 , , xn  pertenecientes a  por cada elemento del nuevo vector
de forma que  y1 , , yk    g1  x1 , , xn  , , gn  x1 , , xn   .
Ejemplo 2—14
Se sabe que  X1 , X 2 , X 3  tienen una función densidad discreta conjunta dada por:
 x1 , x2 , x3 
 0, 0, 0
 0, 0,1
 0,1,1
1, 0,1
1,1, 0 
1,1,1
f X1 , X 2 , X 3  x1 , x2 , x3 
1
8
3
8
1
8
1
8
1
8
1
8
Encontrar la densidad conjunta de Y1  g1  X1 , X 2 , X 3   X1  X 2  X 3 y de Y2 
g2  X1 , X 2 , X 3   X 3  X 2 .
Solución:
Resulta
claro
que

 0,0,0 ,  0,0,1 ,  0,1,1 , 1,0,1 , 1,1,0 , 1,1,1
y
que,
en
consecuencia,
59
 y1 , y2 
 0, 0 
1,1
 2, 0 
 2,1
 3, 0 
fY1 ,Y2  y1 , y2 
1
8
3
8
1
8
2
8
1
8
Puesto que, por ejemplo, fY ,Y  0,0   f X , X
1
 f X1 , X 2 , X 3 1,1, 0  
2
1
2 , X3
 0, 0, 0  
1
,
8
y fY ,Y  2,1  f X , X
1
2
1
2 , X3
1,0,1
2
, de forma similar se han calculado los restantes valores de la
8
tabla.
2.9.3 VECTORES ALEATORIOS CONTINUOS
2.9.3.1
Formulación
Proposición 2—3: Método de cálculo
Supongamos ahora que se tiene una estructura probabilística conjunta (función de
densidad) f X , , X  x1 , xn  del vector aleatorio n dimensional  X1 , , X n  , con espacio
1
n
de posibles realizaciones:
   x1 ,
, xn  : f X 1,
, Xn
 x1,

, xn   0
(1— 14)
(38)
De nuevo se asume que se desea calcular la densidad conjunta del vector
compuesto por las variables aleatorias Y1  g1  X1 , , X n  , , Yk  gk  X1 , , X n  , donde
k es algún entero que satisface la restricción 1  k  n .
Nota:
1.
Si k  n, se introducirá adicionalmente, nuevas variables aleatorias
gk 1  X1 , , X n  , , Yn 
gn  X1 , , X n 
Yk 1 
para
seleccionar
adecuadamente las funciones gk 1 , , gn ;
2.
Cuando se encuentre la distribución conjunta de Y1 , , Yn , finalmente
60
se puede calcular la distribución marginal de Y1 , , Yk de la
distribución conjunta de Y1 , , Yn . Este uso de dar la posibilidad de
introducir variables aleatorias convierte a la transformación y1 
g1  x1 ,
, xn  ,
, yn  gn  x1 ,
, xn  en una transformación de un espacio n
a otro espacio n dimensional, necesario en el método de cálculo
propuesto.
3.
Se puede asumir que se esta buscando la distribución conjunta de
Y1  g1  X1 , , X n  , , Yn  gn  X1 , , X n  (en tanto sea la distribución
conjunta de Y1 , , Yk ) cuando se ha dado la probabilidad conjunta de
densidad de  X1 , , X n  .
En primera instancia se presentan los resultados para n  2 y después se generaliza
para n  2 .
2.9.3.2
Transformación continua general
Teorema 2—11
Sea X   X1 , X 2 , , X n  un vector aleatorio continuo con estructura probabilística
f X1 ,
,Xn
 x1 ,
, xn  .
Donde    x1 , , xn  : f X ,
1
,X
 x1,

, xn   0 es el espacio de posibles
valores o realizaciones del vector. Supóngase que  puede ser descompuesta en
conjuntos 1 , ,m tal que y1  g1  x1 , , xn  , y2  g2  x1 , , xn  , , yn  gn  x1 , , xn  es una
transformación uno a uno de i sobre  , i  1, , m. y que x1  g1i1  y1 , , yn  , , xn 
gni1  y1 ,
, yn  denota la transformación inversa de  sobre i , i  1,
, m. Se define
como
61
 g1i1

 y1
 g 1
 2i
i   y1


 g ni1

 y1
g1i1 

yn 
g 2i1 

yn 


g ni1 

yn 
g1i1
y2
g 2i1
y2
g ni1
y2
para i  1, , m. y se asume que todas las derivadas parciales en J i son continuas
sobre  y el determinante J i , i  1, , m. Entonces: para  y1 , , yn  en  .
fY1 ,
Yn
m
 y1 ,
, yn    i f X1 ,
i 1
,Xn
g  y ,
1
1i
1
, yn  ,
, yn  
, g ni1  y1 ,
(42)
Ejemplo 2—15
Sean X 1 , X 2 y X 3 son variables aleatorias independientes estándar y1  x1 , y2 
 x1  x2  y
2
y3 
 x1  x2  x3  . Entonces
3
x1  y1 , x2  2y2  y1 y x3  3 y3  2 y2 ; así la
0 0
 1

transformación es uno a uno. ( m  1 en el teorema 3)    1 2 0   6 , por lo
 0 2 3 


tanto
fY1 ,Y2 ,Y3  y1 , y2 , y3    f X1 , X 2 , X 3  x1 , x2 , x3 
 1 
 6

 2 
3


2
2
exp  12  y12   2 y2  y1    3 y3  2 y2  


3
 1 
2
2
2
1
 6
 exp  2  2 y1  4 y1 y2  8 y2  12 y2 y3  9 y3  .
 2 
Las distribuciones marginales se
pueden obtener de la distribución conjunta; por ejemplo,
fY3  y3 



exp  




 
1
2
2 y
2
1
fY1 ,Y2 ,Y3  y1 , y2 , y3  dy1dy2
 4 y1 y2  2 y  dy1 dy2
2
2

 1 
 6

 2 
3



exp  12  6 y22  12 y2 y3  9 y32 
6  1 



2  2 
2
62



exp  12  6 y22  12 y2 y3  6 y32  exp  12  3 y32  dy2
 3 
2
 
 exp   32 y3  finalmente es claro
2



que Y3 presenta una estructura probabilística normal con media 0 y varianza.
2.10 FAMILIA DE GAUSS MULTIDIMENSIONAL
2.10.1
FUNCIÓN DE DENSIDAD
Definición 2—32: Densidad gaussiana (normal).
Un vector aleatorio X   X1 , X 2 , , X n  con vector de medias    1 , 2 ,
, n 
donde  j  E  X j  y matriz de la varianza-covarianza V   ij  , pertenece a la
familia gaussiana o normal cuando su función de densidad de probabilidad
conjunta está dada por la expresión:
f X1 , X 2 ,
Xn
 x1 , x2 ,
, xn  
e

1
 x   ' V 1  x   
2
 2 
1
n
2
V
1
2
(1— 15)
Observación 2—10
1. Se escribe X es N  , V  (y se lee el vector X tiene estructura probabilística
de Gauss) o, simplemente, X N   ,V  .
2. Cuando E  X i    para todo i entonces   1 ; y si los X i son mutuamente
independientes, todos con la misma varianza  2 , entonces V   2 I y
escribimos " x es N 1,  2 I  ". Esto es equivalente a la notación más usual


DNI  ,  2 , pero manteniendo la notación de matriz de N 1,  2 I  se da
énfasis a que éste es simplemente un caso particular del modelo normal
multivariado general N  , V  .
3. La matriz V es definida positiva.
2.10.2
INTEGRAL DE AITKEN
63
Un resultado del cálculo integral que es particularmente aplicable a cualquier
problema de la familia de Gauss multivariada es la integral de Aitken. Para A una
matriz simétrica definida positiva de orden n


 ...  e

1
 xAx
2
dx1 ...dx n  2 
1
n
2
A

1
2
(1— 16)

Para establecer este resultado, note que debido a que A es definida positiva existe
una matriz no-singular P tal que P AP  I n . De P AP  P A  1 y para que P  A
2

1
2
;
y sea x  Py da x Ax  y PAPy  y y y para que,


 ...  e

1
 x Ax
2

dx1 ...dx n


 ...  e





1
 y y
2
dy1 ...dy n P 1



 1 n

P  ...  exp    y i2 dy1 ...dy n
 2 i 1 
 
1
1 n  
 y i2


A 2   e 2 dy i 

i 1 

2  2 n
1
A

1
2
La aplicación directa de este resultado a (1— 15) muestra que


...



f x1 , x 2 ,..., x n dx1 ...dx n  2  V
1
n
2
1
1  2

2
V
n
1
2
1
como uno esperaría.
2.10.3
FUNCIÓN GENERADORA DE MOMENTOS
Como en (1— 12) la f.g.m. para la distribución normal multivariada es
M x t   2 
1
 n
2
V

1
2

 ...

1



exp t x  x    V 1 x    dx1 ...dx n
2


Reformulando el exponencial éste se vuelve
64
M x t 

1 
1



2  2 n V  2  ...  exp  1 x    Vt  V 1 x    Vt   t   1 t Vt  dx1 ...dx n
2
 2

e
1
t   t Vt
2
2  2 n V
1

1
2


 1

 1
...exp  2 x    Vt  V x    Vt  dx1 ...dx n
Haciendo la transformación y  x    Vt de x a y para la cual el Jacobiano es la
unidad, la integral se reduce entonces a la integral de Aitken con matriz V 1 . De
donde:
M x t  
e
1
t   t Vt
2
2 
2 
1
n
2
1
n
2
V
V
1
2
1
1  2
e
1
t   t Vt
2
(1— 17)
Diferenciando esto de la manera descrita en ¡Error! No se encuentra el origen de
la referencia. se muestra que el vector de medias es  y la matriz de varianzacovarianza es V .
2.10.4
DISTRIBUCIONES MARGINALES
La definición de la distribución marginal de x1 , x 2 ,..., x n a partir de los primeros k x ,
es, de acuerdo con (1— 4),




f x1 ,..., x k    ...  f x1 , x 2 ,..., x n dx k 1 ...dx n ,
La f.g.m. de esta distribución es, por (1— 12),




M x1 ...xk t    ...  e t1 x1 ...t k xk f x1 ,..., x n dx1 ...dx k
y sustituyendo para f x1 ,..., x n  se convierte en
65
M x1 ...xk t  




t x ... t x
 ...  e 1 1 k k f x1 ,..., x n dx1 ...dx k
 f.g.m. de x1 , x x ,..., x n , con t k 1  ...  t n  0
 e
1
t   t Vt
2
(1— 18)
, con t k 1  ...  t n  0
Para hacer las substituciones t k 1  ...  t n  0 dividimos x ,  , V y t , definiendo,

x1  x1
x2
. . . x k  y x 2  x k 1 . . . x n 
para que
x    x1



x2  ;

entonces, conforme con esto,
   1  2  ,
t   t1 t 2 
y
V12 
V
V   11
.
V21 V22 
Ahora colocando t 2  0 en (1— 18) da
M x1 ,...,xk t1   e
1
t1 1  t1V11t1
2
Por analogía con (1— 17) y (1— 12) tenemos por consiguiente la función de
densidad marginal como
f x 1   f x1 ,..., x k  
 1


exp  x1  1  V111 x1   1 
 2

1
2  2 k V11 2
1
66
En comparación con (1— 15) vemos que f x1  es una distribución normal
multivariada. similarmente, también es
f x 2   f x k 1 ,..., x n  
 1


exp  x 2   2  V221 x 2   2 
 2

2 
1
n  k 
2
V22
1
2
(1— 19)
Así vemos que las densidades marginales de la distribución normal multivariada
son normales multivariadas.
Así pues V se toma como definida positiva para que lo sean también V11 y V22 .
Además, en estas expresiones, su uso puede hacerse de la forma dividida de V . Así
si
V
1
V12 
V
  11

V21 V22 
1
W12 
W
  11
,
W21 W22 
entonces
V111  W11  W12W221W12 y V221  W22  W12 W111W12
2.10.5
DISTRIBUCIONES CONDICIONALES
Sea f x  la que denota la función de densidad de todos los n valores de x . Entonces
la ecuación (1— 5) da la distribución condicional de los primeros k x 's tal como
f x1 x 2   f x  g x 2 
y sustituyendo de (1— 15) y (1— 19)
f x1 x 2  
 1



exp  x    V 1 x     x 2   2  V221 x 2   2  



 2
2  2 k V
1
V22

(1— 20)
1
2
Ahora, en términos de la partición de V y su inversa dada anteriormente, tenemos
67

W11  V11  V12V221V12

1
(1— 21)
y
 W

 W11V12V221
V 1   1 11
.
1
1
1 



V
V
V
V

V
V
W
V
V
22
12
11
22
22
12
11
12
22


Por consiguiente el exponente en (1— 20) se vuelve
  x1  1  
W11
 W11V12V221


 x 2   2  V221 x 2   2 
1
1
1
1  
  V22 V12 V11 V22  V22 V12 W11V12V22  x 2   2 

x   
1
 1
x 2   2   
lo que se simplifica a

 x  1  
W11 I  V12V221  1


  V V  
x 2   2 
x1  1   V12V221 x 2   2   W11 x1  1   V12V221 x 2   2 

 x1  1 




x 2   2   

I

1
22 12


(1— 22)

Además, usando el resultado para el determinante de una matriz dividida [por
ejemplo, Searle (1966, p.96)],
V  V22 V11  V12V221V12  V22 W111 , de (1— 21).
De
V V22  W111
(1— 23)
Sustituyendo (1— 22) y (1— 23) en (1— 20) da
f x1 x 2  





 1

exp  x1  1   V12V221 x 2   2  W11 x1  1   V12V221 x 2   2  
 2

2 
1
k
2
1
1 2
11
(1— 24)
W
68
mostrando, en la comparación con (1— 15), que la distribución condicional
también es normal:

x1 x2 ~ N 1  V12V221 x2   2 , W111
2.10.6

INDEPENDENCIA
Suponga que el vector x   x1 x 2 . . . x n  se divide en p subvectores

x   x1
x 2

. . . x p . Entonces una condición necesaria y suficiente para que los
vectores sean mutuamente independiente es, que en la partición correspondiente
de V  Vij  para i, j  1,2,..., p , Vij  0 , para i  j .
Prueba de esto es formulada a continuación. La f.g.m. de x es, por (1— 17),
M x t   e
1
t   t Vt
2
 p

1 p p
 exp   t i i   t iVij t j 
2 i 1 j 1
 i 1

y si Vij  0 para i  j esta se reduce a
p
1
1
 



M x t   exp   ti  i  tiVii ti    exp  ti i  tiVii ti 
2
2
 i 1


i 1 
p
Invocando la propiedad de que la f.g.m. de la distribución conjunta de colecciones
de variables independientes es el producto de sus f.g.m., concluimos que las x i son
independientes. Recíprocamente, si ellos son independientes, cada uno con su
varianza-covarianza K ii se dice, entonces que la f.g.m. de la distribución conjunta es
p
1
1
1








exp
t


t
K
t

exp


 t i i  t iK ii t i   exp  t   t Vt 


i i
i
ii i
2
2
2





i 1 
i 1
p
donde V  diag K11 , K 22 ,..., K pp . De Vij  0 para i  j .
2.11 FAMILIAS DE DISTRIBUCIONES UNIVARIADAS
2.11.1
INTRODUCCIÓN
69
En esta sección se estudian las principales familias de distribuciones
uniparamétricas de frecuente uso en teletráfico.
2.11.2
FAMILIAS DE DISTRIBUCIONES DISCRETAS
2.11.2.1
Bernoulli
Ejemplo 2—16: Ensayos de Bernoulli5
Un experimento aleatorio con espacio muestral   1 , 2  , espacio de eventos
    , 1 , 2  , 1 , 2  , con eventos fundamentales no equiprobables
A1  1
y
A2  2 
y función de probabilidad P  A1   p  0,1
y P  A2   q  1  p
cumple las propiedades para una función de probabilidad dadas en la Definición
2—6. A p se le llama probabilidad de éxito mientras que a su complemento q
probabilidad de fracaso. A este tipo de experimentos aleatorios se les denomina
Ensayos de Bernoulli.
Para las dos familias que siguen considérese el experimento aleatorio  para el
cual el diseño experimental  consiste de una urna que contiene r bolas rojas y b
negras, todas idénticas salvo por su color y número asignado. Se extraen n bolas
de la urna. Si se define el evento Ak : Al realizar el experimento se obtienen
exactamente k bolas rojas. Para el cálculo de la P  Ak  existen básicamente dos
caminos que conducen a resultados ligeramente diferentes dependiendo de la
forma en que se realice el muestreo: con restitución o bien sin restitución.
2.11.2.2
Con restitución: Modelo binomial
 n r   b 
P  Ak    
 

 k  r  b   r  b 
k
nk
En honor al matemático Jacob I hijo mayor de Nicolous Bernoulli. En su epitafio dice "Eadem mutata resurgo"
(Mutante y permanente, vuelvo a resurgir siendo el mismo). Escogió la espiral logarítmica como símbolo de su
tumba.
5
70
Ejemplo 2—17: Ayuda de Isaac Newton a su amigo Pepys.
Una carta interesante6 índica que Pepys le escribió a Newton preguntándole ¿Cuál
de los tres eventos es más probable: Que una persona obtenga B1 : al menos un
cuando 6 dados se lanzan; B2 : al menos dos
al menos tres
Newton?
cuando 12 dados son lanzados; B3 :
cuando 18 dados son lanzados? ¿Cuál sería la respuesta de
Una solución apresurada puede conducir a respuesta erradas como esta: Puede
pensarse, equivocadamente, que las probabilidades de los 3 eventos deben ser
iguales., es decir que la P  n _ numeros _ 6 _ al _ lazar _ 6n _ dados   12 , sin embargo, en
realidad eso no es verdad. El procedimiento que sigue ilustra una idea de solución
correcta a esta pregunta.
1.
Al definir el evento Ai : Exactamente i c se obtienen al lanzar n  i
dados, es claro que Bk 
nk
Ai .
i k
2.
 nk
nk

Ai    P  Ai  . De
 i 1  i k
Dado que los eventos Ai son disjuntos, P  Bk   P 
esta manera es posible encontrar las probabilidades de los Ai y con
ellas obtener las probabilidades de Bk .
3.
Es claro que si se lanzan m dados, la probabilidad de exactamente
 m 1
5
es     
 x  6   6 
x
x
la P  Bk  
6
nk
m x
  P  Ai 
i k
y que, en consecuencia, de esta misma forma,
 6k   1   5 
      
xk  x   6   6 
6k
x
6k  x
 6k   1   5 
 1       
x 0  x   6   6 
k 1
x
6k  x
,
Reproducida por American Statistician Vol. 14, No 4 de Octubre de 1960.
71
recordando que P  A  1  P  A .
4.
En particular, la probabilidad de 1 o más
tras el lanzamiento de 6
dados es el complemento de la probabilidad de 0 seis, es decir
6 1   5 
1        0.665
0 6   6 
0
5.
6
Finalmente, empleando una herramienta como Mathematica puede
encontrarse fácilmente la distribución binomial para este caso:
k
6k
1 6
P  Bk 
0.665
2 12 0.619
3 18 0.597
4 24 0.584
6.
¿Cuál fue, entonces, la respuesta de Newton?
La afirmación de que P(n _ numeros _ 6 _ al _ lazar _ 6n _ dados)  12 es verdadera cuando
n   , pero no para valores de k pequeños.
Ejemplo 2—18: El problema del estudiante vago.
Un estudiante va a responder aleatoriamente un examen de 10 preguntas de
selección múltiple. Cada pregunta tiene 6 opciones y una única opción correcta.
¿Cuál es la probabilidad de que el estudiante apruebe el examen?
Solución
72
Podemos redefinir la pregunta como: ¿Cuál es la probabilidad de que el estudiante
obtenga por lo menos 6 respuestas correctas de las 10 posibles? Entonces
definimos los eventos Bi y A6 como “El estudiante obtiene exactamente i respuestas
correctas” y “El estudiante obtiene por lo menos seis respuestas correctas”,
respectivamente. Tenemos que:
P  A6   P  B6   P  B7   P  B8   P  B9   P  B10 
Entonces, aplicamos el modelo binomial, a saber:
n
P  Bk     p k q n k
k 
Donde p es la probabilidad de obtener la opción correcta en una pregunta ( 1 6 ), q
es la probabilidad de no obtenerla ( 5 6 ), n es el número de preguntas (10) y k es el
número de respuestas correctas a las cuales queremos hallar la probabilidad.
10  k
10  1
5
En este caso: P  Bk       
 k  6   6 
k
10 i
10 10
10
  1
5
Entonces: P  A6    P  Bi        
i 6  i   6   6 
i 6
i
6
4
7
3
8
2
10   1   5  10   1   5  10   1   5 
                 
 6  6   6   7  6   6   8  6   6 
10   1   5   1 
        
 9  6   6   6 
9
1
10
       1.6538 
P  A6   
Es decir, el estudiante vago tiene una probabilidad de  de pasar el
examen.
2.11.2.3
Sin restitución: Modelo Hipergeométrico
73
 r  b 
 

k  n  k 

P  Ak  
r  b


 n 
Ejemplo 2—19: Juego de cartas
En particular, este modelo puede ser empleado para calcular ciertas probabilidades
sobre juegos de cartas. Por ejemplo, si se desea calcular la probabilidad de que en
una mano de 13 cartas se obtengan exactamente 6 espadas. Hay r  13 , b  39 ,
r  b  52 cartas en total, k  6 y n  13 Definiendo A6 como el evento de exactamente
13  52  13 
 

6  13  6 

6 espadas entonces P[ A6 ] 
.
 52 
 
 13 
2.11.2.4
Poisson
2.11.2.5
Geométrica
2.11.3
FAMILIAS DE DISTRIBUCIONES CONTINUAS
2.11.3.1
Uniforme
Se dice que X ~ U  a, b  cuando su estructura probabilística está guiada por la
función de densidad f X  x; a, b  
para todo x y que

1
I  x .
b  a  a ,b 
Es fácil comprobar que f X  x; a, b   0
1
 b  a Ia,b  x dx  1 . En consecuencia,
1
xa
es
dt 
ba
ba
a
x
FX  x; a, b   
su función de distribución.
f X  x
a
1
ba
b
X
74
Figura 2—6: Función de densidad uniforme
FX  x 
a
b
X
Figura 2—7: Función de Distribución uniforme.
Notas:
1.
Tiene sentido hablar de uniformidad debido a que todos los valores en
ese intervalo son igualmente posibles de ser seleccionados en un
experimento aleatorio.
Formalmente, esto significa que
1
1 

P  x  x  X  x  x  
2
2 

1
x  x
2

1
x  x
2
1
x
no depende de x únicamente
dt 
ba
ba
del ancho del intervalo.
2.
El hecho anterior puede visualizarse gráficamente como en la Figura
2—8.
f X  x
a
1
x  x
2
x
1
x  x
2
b
X
Figura 2—8: Probabilidad uniforme.
2.
Un caso particular de especial interés en simulación se presenta
75
cuando a  0 y b  1 caso en el que se escribe que U ~ U  0,1 .
2.11.3.2
Gauss
Cuando la variable aleatoria X tiene una distribución normal con media  y


2
varianza  2 , escribiremos " x es N  ,  2 ", o X ~ N   ,   . La función de densidad
de X es entonces
1
2
  x 
1
2
fX  x 
e
 2
2
para    x   ,
en donde la aplicación de (1— 8) y (1— 10) mostrará que E  X    y
2
E  x       2 . Y la f.g.m. es


M x t  

1 
1 
2
2

  exp tx  12 x   



 e


 2  dx
  exp  12 x    t   2t
2

1
t  t 2 2
2
2
1 
2
2
  exp  x    t 

2 2
2

 t 2 4   2 dx

2 2 dx

 e
1
t  t 2 2
2
Se establece entonces fácilmente que  x1   , y  x2    2   2 , para que
Ex      x2    2   2
2
2.11.3.3
Exponencial
2.11.3.4
Erlang
76
2.11.3.5
Gamma
2.11.4
RELACIONES ENTRE FAMILIAS
77
2.12 EJERCICIOS
1.
Dos urnas contienen el mismo número de bolas, algunas de color blanco y
algunas de color negro. De cada urna se extraen n (n ≥ 3) bolas con
restitución. Encuentre el número de extracciones y la composicion de las
dos urnas de forma que la probabilidad de que todas las bolas blancas
extraidas de la primera urna sea igual a la probabilidad de que las
extracciones en la segunda sean todas blancas o todas negras.
2.
Epitafio de Diofanto : 'Dios le concedió ser niño la sexta parte de su vida,
una duodécima parte de ella más tarde cubrió de vello sus mejillas;
encendió en él la antorcha del matrimonio tras una séptima parte, y cinco
años después le concedió un hijo. Un hijo de nacimiento tardío, que el
destino se llevó cuando alcanzó la edad de la mitad de la vida de su padre.
Éste consoló su aflicción con la ciencia de los números durante los cuatro
años siguientes, tras los cuales su vida se extinguió.'
2.13 RESUMEN DEL CAPÍTULO
78
79
3 PROCESOS ESTOCÁSTICOS
Ejemplo 3—1: Borrachito.
Suponga que un borracho se encuentra en el borde de un precipicio, si da un paso
hacia delante, él caerá en el abismo. El borracho da pasos aleatorios a izquierda y a
derecha, es decir hacia el precipicio o en sentido contrario indiferentemente, si la
probabilidad de que el borracho de el paso hacia el precipicio es q 
1
y la
3
2
3
probabilidad de que se aleje de este es p  , ¿cuál es la probabilidad de que el
borracho se salve?
3.1 INTRODUCCIÓN
Una generalización interesante del concepto de vector aleatorio se encuentra en la
idea de proceso estocástico.
En un proceso estocástico, las estructuras
probabilísticas de los vectores aleatorios dependen del tiempo y del espacio en el
cual se desenvuelvan las variables del vector.
3.2 DEFINICIÓN
Definición 3—1: Proceso Estocástico.
Un Proceso estocástico es una familia de variables aleatorias indexadas por el
tiempo Z ,t  , donde  pertenece al espacio muestral y t pertenece al conjunto de
índices.
Observación 3—1
Para un t fijo, Z ,t  es una variable aleatoria. Mientras que para un  dado, Z ,t  es
una función de t , llamada función muestral o realización. La población que
consiste en todas las posibles realizaciones se denomina el conjunto de series de
tiempo del proceso.
80
Se asume que el conjunto de índices serán los enteros, a menos que se establezca lo
contrario. Considere un conjunto finito de variables aleatorias Zt , Zt , , Zt  de un
1
proceso
Z
estocástico
 ,t 

: t  0, 1, 2,
,
La
2
n
distribución n -dimensional
(conjunta)está definida como

F zt1 ,


, ztn  p  : z , t1   zt1 ,
, z , tn   ztn

Definición 3—2: Proceso Estocástico estacionario.
1. Se dice que un proceso estocástico es estacionario en distribución de primer
orden si su función de distribución uni -dimensional es invariante al tiempo,
 


es decir, si F zt1  F zt1  k para todo t1 y k en los enteros,




2. estacionario en distribución si F zt1 , zt2  F zt1 k , zt2 k , y estacionario de n -

ésimo orden si F zt1 ,
y k en los enteros.
3. Un
proceso

F zt1 ,


, ztn  F zt1k ,


, ztn  F zt1k ,
se
dice


, ztn k , Para cualquier n -úpla  t1 , , tn 
estrictamente
estacionario
, ztn k es valido para todo n , es decir, n  1, 2,
si
.
También denotada por estacionariedad fuerte o completa.
Observación 3—2

1. Claramente si F zt1 ,


, ztn  F zt1k ,

, ztn k es valida para n  m , también
será verdadera para n  m porque la función de distribución de orden m
determina todas las funciones de distribución de orden menor. Por lo tanto,
que una función de distribución de orden superior sea estacionaria, siempre
determina que las funciones de distribución que sean de orden menor que
ella también lo sean.
2. Es posible entender adecuadamente lo que es ser un proceso estocástico Z ,t 
, como un conjunto de variables aleatorias definidas sobre un espacio
muestral indexadas por el tiempo. Usualmente se suprime  y simplemente
se escribe Z ,t  como Z t  o Z t , también denotamos la variable aleatoria por X 
81
o por X   . El proceso estocástico es llamado proceso de valor real, si
solamente asume valores en , el conjunto de los números reales, a menos
que se establezca lo contrario, solo trabajaremos con procesos de valor real.
Definición 3—3: Función de media del proceso estocástico.
Para un proceso de valor real Zt : t  0, 1, 2,  , definimos la función de media del
proceso como t  E  Zt  .
Definición 3—4: Función de varianza del proceso estocástico.
Para un proceso de valor real Zt : t  0, 1, 2,  , definimos la función de e varianza
2
del proceso  t  E  Zt  t 
Definición 3—5: Función de covarianza del proceso estocástico.
Para un proceso de valor real Zt : t  0, 1, 2,  , definimos La función de covarianza


del proceso entre Z t y Z t   t1, t2   E Zt1  t1 Zt2  t2
1
2
Y la función de correlación entre Z t y Z t   t1 , t2  
1
2

 t 1 , t 2 
 t2  t2
1
2
Observación 3—3
1. Para un proceso estacionario estricto, la función de distribución es la misma
para todo t , la función de media t   es una constante, siempre que
E  Zt    .
2. Igualmente, si E  Zt    entonces  2   2 para todo t , por lo tanto es también
1
una constante.
82
3. Además, puesto que F  zt , zt   F  zt k , zt k  para todo t1 , t2 en los enteros y k ,
1
2
1
2
tenemos   t1 , t2     t1  k , t2  k  y   t1 , t2     t1  k , t2  k  tomando t1  t  k y t2  t ,
tenemos   t2 , t1     t  k , t    t , t  k    k y   t1 , t2     t  k , t    t , t  k   k .
4. Entonces, para un proceso estrictamente estacionario, con los dos primeros
momentos finitos, la covarianza y la correlación entre Z t y Zt  k , depende solo
de la diferencia del tiempo k .
Un ejemplo trivial de estacionariedad fuerte es una secuencia de experimentos
relacionados a variables aleatorias independientes e idénticamente distribuidas.
Esta secuencia de variables aleatorias independientes usualmente no existe o no
interesan en procesos estocásticos o series de tiempo. Sin embargo distinto de este
simple caso, en el que son independientes e idénticamente distribuidas, es muy
difícil o imposible actualmente, verificar la función de distribución, particularmente
la distribución conjunta de una serie de tiempo observada. Entonces, en análisis de
procesos estocásticos (series de tiempo), frecuentemente usamos estacionariedad
más débil en términos de los momentos del proceso.
Un proceso se dice de orden n -ésimo débil si todos los momentos conjuntos de
orden superior a n existen
y son invariantes al tiempo, por ejemplo,
independientes del momento de origen. Por lo tanto, un proceso de segundo orden
tendrá media y varianza constantes, y la función de covarianzas y correlación solo
dependerá de la diferencia en el tiempo. Algunas veces, el sentido de
estacionariedad en el sentido débil, o varianza estacionaria, son también utilizados
para describir procesos de segundo orden débil. Se sigue de las definiciones que
los procesos estrictamente estacionarios con los dos primeros momentos finitos
también son procesos de segundo orden débil, o de covarianza estacionaria. Sin
embargo, un proceso estrictamente estacionario, podria no tener momentos finitos,
por lo tanto, no tendría covarianza estacionaria. Un ejemplo trivial es el proceso
que consiste en una secuencia de variables aleatorias independientes e
idénticamente distribuidas con distribución Cauchy. Claramente el proceso es
estrictamente estacionario, pero no es débilmente estacionario, de cualquier orden,
pues no existen los momentos conjuntos de ningún orden.
Ejemplo 3—2
83
Considere la siguiente secuencia en el tiempo:
Zt  Asen t   
Donde a A es una variable aleatoria con media cero y varianza uno y  es una
variable aleatoria con distribución uniforme en el intervalo   ,   , independiente
de A . Entonces:
E  Zt   E  A E  sen t     0


E  Zt Zt k   E A2 sen t    sen   t  k    
1

 E  A2  E  cos k   cos   2t  k   2  
2



1
1
 cos k   E cos   2t  k   2 
2
2

1
1
1
 cos  k    cos   2t  k   2 
d
2
2 
2

1
1
 sen   2t  k   2 
 cos k  

2
8
1
 cos  k 
2
El cual depende solo de la diferencia en el tiempo k . Entonces el proceso es de
varianza estacionaria
Ejemplo 3—3
Sea Z t una secuencia de variables aleatorias independientes provenientes,
alternadamente, de una distribución normal estándar N  0,1 y dos valores 1 y 1
cada uno con probabilidad
 
1
, claramente, E  Zt   0 y E Z t2  1 para todo t . Ahora
2
84
0,
E  Zt , Z s   
1,
si t  s
si t  s
Y
 t, s  
E  Zt Z s 
E  Zt2  E  Z s2 
0,

1,
si t  s
si t  s
De donde, el proceso es de varianza estacionaria. Sin embargo, el proceso no es
estrictamente estacionario. De hecho, no es estacionario en distribución de ningún
orden.
En nuestra discusión y ejemplos anteriores, es claro que la “covarianza
estacionaria”, es una estacionariedad mas débil que la “Estacionariedad estricta” o
que la “estacionariedad en distribución”. Sin embargo, frecuentemente
trabajaremos con procesos con covarianza estacionaria o procesos de segundo
orden con estacionariedad débil en análisis de series de tiempo, pues será fácil
verificar los dos primeros momentos. Por la tanto, a menos qeue se mencione lo
contrario, usaremos el termino estacionariedad, para referirnnos a procesos que
tengan covariana estacionaria, por esto tenemos la siguiente importante
observación:
Un proceso estocástico se dice normal o procesdo Gaussiano si su función de
distribución conjunta es normal . como una distribución normal esta caracterizada
por sus dos primeros momentos, la estacionariedad estricta y la estacionariedad
débil son equivalentes en un proceso Gaussiano. A menos que se mencione lo
contrario, los procesos que discutiremos se asumiran Gaussianos. Esto es por que
la función de Autocorrelación y la función de Autocorrelación parcial en las
proximas secciones se convertiran en herramientas fundamentales en el analisis de
series de tiempo.
85
3.3 LAS FUNCIONES DE AUTOCOVARIANZA Y AUTOCORRELACIÓN
3.4 FUNCION DE AUTOCORRELACIÓN PARCIAL
3.5 PROCESOS CON RUIDO BLANCO
3.6 CADENAS DE MARKOV EN TIEMPO DISCRETO
3.6.1 INTRODUCCIÓN
3.6.2 ECUACIONES DE CHAPMAN–KOLMOGOROV
3.6.3 CLASIFICACIÓN DE LOS ESTADOS
3.7 CADENAS DE MARKOV DE TIEMPO CONTINUO
3.7.1 INTRODUCCIÓN
3.7.2 DEFINICIÓN
3.7.3 PROCESOS DE NACIMIENTO Y MUERTE
86
3.7.4 FUNCIÓN DE TRANSICIÓN DE PROBABILIDAD
3.7.5 REVERSIBILIDAD
3.8 DISTRIBUCIÓN EXPONENCIAL Y EL PROCESO DE POISSON
3.8.1 INTRODUCCIÓN
3.8.2 DEFINICIÓN DE PROCESO DE POISSON
3.8.3 DISTRIBUCIONES DE LOS TIEMPOS ENTRE LLEGADAS Y DE ESPERAS
3.8.4
PROCESO DE POISSON NO HOMOGÉNEO
3.9 **TEORÍA DE RENOVACIÓN
3.10 EJERCICIOS
3.11 RESUMEN DEL CAPÍTULO
87
4 MODELOS DE TRÁFICO
4.1 ERLANG B: SISTEMA DE PÉRDIDA DE ERLANG
4.2 ERLANG B EXTENDIDO: EXTENDIDO.
4.3 ERLANG C: SISTEMA CON RETARDO
4.4 **REDES DE COLAS
5 DIMENSIONAMIENTO
TELECOMUNICACIONES
DE
REDES
DE
6 MEDIDAS DE TRÁFICO
88
7 REFERENCIAS BIBLIOGRÁFICAS
[1] S. Hawking y L. Mlodinow, El Gran Diseño, Barcelona: Crítica, 2010.
[2] Rosss y S. M. Ross, Introduction to Probability Models, Amsterdam: Academic
Press, 2003.
[3] R. D. Yates y D. J. Goodman, Probability and Estochastic Processes: A friendly
Introduction for Electrical and Computer Engineers., Boston: Jhon Wiley & Sons,
Inc., 2005.
[4] A. M. Law y W. D. Kelton, Simulation Modeling and Analysis, Boston:
McGrawHill, 2000.
[5] IUT, Teletraffic Engineering HandBook, Dinamarca: Technical Unversity of
Denmark, 2001.
89