Sei sulla pagina 1di 35

Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.

Tema 2. Variables aleatorias


unidimensionales
1. Introducción

En el tema de probabilidad hemos considerado experimentos aleatorios en los que defini-


mos los sucesos de forma cualitativa, independientemente de la naturaleza del experimento. Por
ejemplo, un suceso A podı́a referirse a un error de transmisión en un sistema de comunicación o
a que ha salido el número siete al lanzar un dado. En todo caso, siempre se aplicó la teorı́a a un
conjunto de sucesos cualitativos a los que nos referı́amos mediante letras mayúsculas (A, B, C,
etc).
En la práctica, existen muchos experimentos donde se manejan variables cuantitativas. En
el campo de las telecomunicaciones tiene interés realizar medidas de ruido en un sistema de
transmisión o conocer el número de llamadas que se encaminan a través de una central telefónica.
En estos casos se suelen plantear preguntas acerca de la probabilidad que existe de que el ruido
o el número de llamadas encaminadas superen un cierto umbral. Los sucesos ası́ definidos se
corresponden con un intervalo de valores de la variable observada. Emplear una notación basada
en sucesos cualitativos para definir este tipo de sucesos asociados a variables cuantitativas es poco
práctico. Resulta mucho más natural e intuitivo asignar un nombre a la variable de interés, por
ejemplo X, y definir los sucesos de la forma {X ≥ u}, donde u serı́a el umbral. Esta notación
es mucho más versátil para referirse a variables cuantitativas y permite fácilmente designar a los
posibles sucesos de interés, que generalmente serán del tipo {X = x1 }, {x1 < X ≤ x2 }, {X < x1 },
etc. Como la variable X está asociada a un experimento no determinista y no se conoce el valor
concreto que va a tomar en una realización determinada (aunque se conozca el rango), se dice
que es una variable aleatoria.
Como veremos a continuación, una variable aleatoria es, matemáticamente hablando, una
función que asigna a los resultados de un experimento un número real. Cuando se manejan ex-
perimentos cuantitativos no es necesario realizar esta asignación y el hecho de que la variable
aleatoria sea una función queda totalmente difuminado (se puede pensar que es la función iden-
tidad). Se trabaja directamente con los valores que toma la variable. Sin embargo, las variables
aleatorias también se pueden utilizar con experimentos cualitativos. En ese caso se realiza una
transformación del espacio de probabilidad, asignando a cada resultado cualitativo del experi-
mento un número real. De este modo, la variable aleatoria aporta una representación equivalente
del problema en términos cuantitativos, que en algunos casos puede resultar más manejable.

2. Definición de Variable Aleatoria

Definición: Variable Aleatoria (VA):


Dado  : (Ω, F, P), consideramos:
X : Ω −→ RX
donde RX es un subconjunto de R. Entonces diremos que X es una variable aleatoria si:
el conjunto X −1 ((−∞, x]) = {ω ∈ Ω tales que X(ω) ≤ x} es un suceso ∀x.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.2

!3 X(!3")#
!2" #
# X(!2")#
!1
# X(!1")#
R

RX se denomina rango de X, y es el conjunto de los posibles valores que puede tomar la


VA. Si A = X −1 (B) entonces se dice que A y B son sucesos equivalentes.
Cuando se manejan variables aleatorias, el espacio muestral original Ω se transforma en un
nuevo espacio muestral RX definido sobre los números reales. En este nuevo espacio los sucesos
suelen estar definidos como intervalos pertenecientes a la recta real. Todos estos sucesos tienen
su suceso equivalente en el espacio muestral original. Por ejemplo:

{X ≤ x} = {ω ∈ Ω/X(ω) ≤ x} = X −1 ((−∞, x])

Notación: las letras mayúsculas (X) se emplean para representar VA y las minúsculas (x)
representan valores concretos que toman dichas VA.
La transformación que se define mediante una VA conserva la medida de probabilidad asig-
nando probabilidades iguales a sucesos equivalentes. A (RX , FX ) se le asocia una medida de
probabilidad PX tal que:
PX (B) = P(X −1 (B)) ∀B ∈ FX

La terna (RX , FX , PX ) constituye un espacio de probabilidad.


Ejemplo: Sea : “Lanzar una moneda”. Se definen los sucesos A: “Salir cara” y B: “Salir
cruz”, el espacio muestral es Ω = {A, B}. Si se define X: “Número de caras que han salido”,
entonces X(A) = 1 y X(B) = 0. La VA X aporta una representación equivalente del problema
donde el nuevo espacio muestral es ΩX = {0, 1}. Las probabilidades se asignan conservando la
medida de probabilidad: PX (X = 0) = P(B) = 1/2; PX (X = 1) = P(A) = 1/2.
Ejemplo: Sea : “Transmisión de un bit”. Se definen los sucesos A: “Se transmite un 0” y
B: “Se transmite un 1”, el espacio muestral es Ω = {A, B}. Si se define X: “Número de veces que
se transmite un bit 0”, entonces X(A) = 1 y X(B) = 0. A pesar de que el experimento es cuali-
tativamente distinto al del ejemplo anterior, la VA resultante es equivalente y las consideraciones
realizadas son igualmente aplicables a este caso.
Definición: Una VA compleja es de la forma Z=X+jY, donde X e Y son VA reales.

3. Clasificación de variables aleatorias

Existen distintos tipos de VA en función del número de posibles valores que pueden tomar,
que son un reflejo de la distinta naturaleza de las variables observadas en experimentos reales. Si,
por ejemplo, se mide el número de bits transmitidos con error en una trama de N bits, el conjunto
de posibles valores es finito. Cada uno de ellos llevará asociada una determinada probabilidad
mayor que cero. Lo mismo ocurre si se mide el número de transmisiones hasta que se produce
un error. En este caso el rango de la variable es infinito y numerable y todos los posibles valores
tienen una probabilidad no nula.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.3

Definición: Se dice que una VA es discreta si su rango es finito o infinito numerable.


El número de intentos necesarios para transmitir sin error un conjunto de bits se puede
modelar mediante una VA discreta.
Existe otro tipo de variables cuyos posibles valores son todos los pertenecientes a uno o varios
intervalos de la recta real. Por ejemplo, el nivel de ruido en un sistema de comunicación o el tiempo
de espera en una cola hasta que se puede emplear un determinado servicio. El rango resultante
es un conjunto infinito no numerable de puntos. Como hemos visto en el capı́tulo anterior, en
cualquier espacio muestral de este tipo se puede demostrar que es imposible asignar probabilidades
no nulas a todos los subconjuntos del espacio muestral, de tal forma que se verifiquen los axiomas.
Concretamente, en los espacios muestrales no numerables definidos sobre la recta real, se asignan
probabilidades no nulas a los sucesos del tipo {X ≤ x}. Las probabilidades de los demás sucesos
se derivan mediante la teorı́a de la probabilidad. Como consecuencia, solamente un conjunto
numerable de sucesos del tipo {X = x} puede tener probabilidad no nula.
Por ejemplo la variable que mide el tiempo de espera hasta que se puede emplear un deter-
minado servicio, el suceso {X = 0}, que ocurre cuando el servicio está desocupado, tiene asignada
una probabilidad mayor que cero. En el resto del rango se asigna a los intervalos {X ≤ x} una
probabilidad mediante una función continua de x que verifique los axiomas. Como consecuencia,
P(X=x)=0 para todos los valores de X excepto el ya mencionado x=0.
Definición: Se dice que una VA es continua si su rango es no numerable y todos los sucesos
del tipo {X = x} tienen asignada probabilidad cero.
El nivel de ruido en un sistema de comunicación puede modelarse mediante una VA continua.
Definición: Se dice que una VA es mixta si su rango es no numerable y todos los sucesos del
tipo {X = x} tienen asignada probabilidad cero, excepto un conjunto numerable de ellos. Es una
combinación de una VA continua y otra discreta.
El tiempo que transcurre desde que un paquete de datos llega a una central de comunica-
ciones hasta que es encaminado puede modelarse mediante una VA mixta.

4. Funciones de distribución y de densidad

En los experimentos aleatorios se desconoce el resultado que se va a obtener en una realiza-


ción concreta. Sin embargo, se puede llegar a conocer el conjunto de los posibles resultados y la
frecuencia de aparición a largo plazo de los mismos, es decir, su probabilidad. De hecho, describir
completamente un experimento aleatorio consiste precisamente en indicar todos sus resultados
posibles y sus probabilidades. En el caso de las variables aleatorias se emplean dos funciones que
contienen toda esta información, que son la función de distribución de probabilidad y la función
de densidad de probabilidad. Estas funciones constituyen dos formas distintas de almacenar la
misma información relativa a un experimento aleatorio. Ambas permiten calcular probabilidades y
su representación gráfica resulta útil para ilustrar visualmente las caracterı́sticas más importantes
de la variable observada en el experimento.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.4

4.1. Función de distribución

Definición: Función de distribución de una VA:


Sea X una VA. Se define la función FX como

FX : R −→ [0, 1]
x ,→ FX (x) = P(X ≤ x)

FX (x) se denomina Función de Distribución (FD) de X, y representa, para cada valor de x,


la probabilidad acumulada desde menos infinito hasta x. La FD es una función que está definida
en todo R y cuya imagen es un valor de probabilidad. Escribiremos F (x) si no hay ambigüedad.
La FD en un valor de x determinado se interpreta desde un punto de vista frecuencial del
mismo modo que la probabilidad de un suceso, puesto que FX (x) es igual a la probabilidad del
suceso {X ≤ x}. Por tanto, si realizamos muchas veces el experimento a partir del que se define
X, FX (x) coincidirá asintóticamente con el cociente entre el número de veces en que el resultado
obtenido es menor o igual que x y el número total de veces que se realice el experimento.
Observación: Las VA complejas carecen de FD (en el conjunto de los números complejos no
hay orden); aunque existe la FD de la parte real y de la parte imaginaria.

Ejemplo 2.1: Sea X: “Número de caras obtenidas al lanzar dos monedas”. Calcula su FD y
represéntala gráficamente.

Propiedades de la FD:

1) F (−∞) = P(X ≤ −∞) = 0; F (+∞) = P(X ≤ +∞) = 1

2) Si x1 ≤ x2 entonces F (x1 ) ≤ F (x2 ) (F es no decreciente)

3) F (x+ ) = F (x) (F es continua por la derecha, ver la demostración a continuación)

4) P(X = x) = F (x) − F (x− ) (ver demostración a continuación). Esto implica:


Si F (x) es continua en x0 entonces P(X = x0 ) = 0
Si F (x) es discontinua en x0 entonces P(X = x0 ) 6= 0

5) Si x1 < x2 entonces P(x1 < X ≤ x2 ) = F (x2 ) − F (x1 )


F(x) F(x)
1 1
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.5

x x
6) Análogamente a la propiedad anterior:
P(x1 < X < x2 ) =Obs:
F (xLas
− VA discretas se caracterizan por FD escalonadas. Cada uno de los valores que forman
2 ) − F (x1 )
parte del
P(x1 ≤ X < x2 ) = F (x−rango de una− VA discreta tiene una probabilidad que da lugar a un salto x en la FD
2 ) − F (x1 )
x

P(x1 ≤ X ≤ x(propiedad
2 ) = F (x 24).
)−
Obs: Por(xotra
FVA
Las ) parte,seentre
1discretas
dos valores
caracterizan por FD adyacentes
escalonadas. del
Cadarango
uno deno
losse acumula
valores ninguna
que forman
probabilidad,
parte del yrango
la FDde presenta tramos tiene
una VA discreta de valor
una constante.
probabilidadLaque
alternancia
da lugar adeunsaltos conlatramos
salto en FD
constantes
Demostraciones da a la4).
de(propiedad
algunas deFDPor
deotra
las las VA discretas
propiedades
parte, aspecto
entre dos escalonado.
valores adyacentes del rango no se acumula ninguna
Obs: Las VAycontinuas
probabilidad, se caracterizan
la FD presenta tramos de por tener
valor FD continuas.
constante. Las FD
La alternancia deson continuas
saltos por la
con tramos
demostración de prop2 Si x1 ≤ x2 entonces F (x1 ) ≤ F (x2 )
derecha (propiedad
constantes 3),FDy de
da a la en el VA
Slas casodiscretas
de las VA continuas
aspecto P(X=x)=0 para todo x, por lo que sus FD
escalonado.
Si x1 ≤ x2 entonces: (−∞,
son también x
Obs:] = (−∞,
Las VA por
2continuas x ] (x
continuas x
1 se] siendo una
2 caracterizan
1 la izquierda (propiedadunión
por 4),
tenerdisjunta,
FD lo
y, por por tanto:
continuas.
tanto, Las FD son continuas por la
continuas.
P((−∞, x2 ]) = P((−∞, x1 ]) + P((x1 x2 ]) de dónde:
derecha (propiedad 3), yconstituyen
en el caso de lascombinación
VA continuas de P(X=x)=0 para todo x, por lo que sus FDFD
F (x2 ) = F (x1 ) + P((xObs: Las VA mixtas una las discretas y las
1 x2 ]) siendo esta última probabilidad mayor o igual que cero, por lo que se cumple la
continuas. Sus
desigualdad. son también continuas por la
alternan tramos continuos con escalones.izquierda (propiedad 4), y, por lo tanto, continuas.
Obs: Las VA mixtas constituyen una combinación de las discretas y las continuas. Sus FD
demostración de prop3 F (x+ ) = F (x)
alternan tramos continuos con+escalones.
Dem: Propiedad 3) de la FD: F(x )=F(x) !"0
Por definición, F (x+ ) = lı́m F (x + )
Por →0 +
definición, F(x + ) = lim F(x + ") #
F (x + ) = P(X ≤ x + ) = P(X
Dem: ≤ x) +
Propiedad P (x
3) de
"#0 la +FD:
<X + x + )
F(x ≤)=F(x) ( !"0 ]
+ F(x+!)
Cuando  → 0 , {x tales que = P(X
x<X≤! x+!)
Por definición, = P(X
F(xx +
+ ! x)
) =}lim +
→F(x P(x<
{x/x X ! x+!)
+ ") < X ≤ x} = ∅, con
X X+!
+ + ( # ]
lo que su probabilidadCuando
es cero.
!"0Por tanto:
, {x/ "#0
x< X ! x+!}"{x/ x< X ! x}=Ø, con lo que su probabilidad es cero. #
F(x+!) = P(X ! x+!) = P(X ! x) + P(x< X ! x+!) X X+!
F (x+ ) = lı́m F (x + ) = !P(X ≤ + x) = F (x) como querı́amos demostrar.
Por tanto F(x ) = lim F(x + ") = P(X $ x) = F(x) como queríamos demostrar.
→0+ + #
Cuando !"0 "#0
, {x/ +x< X ! x+!}"{x/ x< X ! x}=Ø, con lo que su probabilidad es cero.
! F(x + ) = lim F(x + ") = P(X $ x) = F(x) como queríamos demostrar.
Por tanto
La FD es, por tanto,La continua portanto,
FD es, por la derecha.
continua
+
No lasederecha.
por puede Noasegurar,
se puedesin embargo,
asegurar, que seaque
sin embargo, continua por por la
sea continua
"#0
la izquierda. Si P(X = x0 ) > 0 no es posible encontrar un valor de  suficientemente pequeño como para que la
diferencia P(X ≤ x0 ) −izquierda.
P(X!≤ xSiLa P(X=x 0)>0,
FD es,
0 − ) sea
no
portan es posible
tanto, continuaencontrar
pequeña por la se
como un valor
derecha. No de
desee. suficientemente
se !puede asegurar, sinpequeño como
embargo, que para que la diferencia
sea continua por la

P(X ! izquierda.
! x0)– P(X Si
! xP(X=x 0)>0,
0-!) sea tanno es posible
pequeña comoencontrar un valor de ! suficientemente pequeño como para que la diferencia
se desee.
demostración de prop4 P(X = x) = F (x) − F (x− )
P(X ! x0)– P(X ! x0-!) sea tan pequeña como se desee.

Por definición, F (x )Dem:
= lı́m F (x −
Propiedad
+
) -
4) de la FD: P(X=x)=F(x)-F(x )
→0
-
F (x − ) = P(X ≤ x − Por)definición,
= P(X
Dem: ≤F(xx)" )−
Propiedad P(x
4)=de −F(x
la FD:
lim " #)X ≤ x) )
P(X=x)=F(x)-F(x
< !"0
+
Cuando  → 0 , {x tales Por x −  <F(x
quedefinición, "
X#$0 )≤
+
= x}lim →F(x{x" #) tales que x ≤ X ≤ !" 0
x} = {X = x}. #$0 + (#
#(X- ]
F(x-!)=P(X ! x-!) = P(X ! x)–P(x-!< X ! x) ! # ]X
Por tanto F (x− ) = F (x) −F(x-!)=P(X
P(X += x) como
! x-!) = P(Xquerı́amos
! x)–P(x-!< Xdemostrar.
! x) X-! # X
Cuando !"0 , {x/+ x-! < X ! x}"{x/ x ! X ! x} = {X=x}
!
Cuando !"0 , {x/ x-! < X ! x}"{x/ x ! X ! x} = {X=x}
Como consecuencia dePoresta !- se verifica que P(X = x) = 0 ∀x.
tantopropiedad, en las como
F(x )=F(x)–P(X=x)
-
VA continuas
queríamos demostrar
Por tanto F(x )=F(x)–P(X=x) como queríamos demostrar
Teorema: Como
Cualquier consecuencia
función que deverifique
esta propiedad,
las enpropiedades
las VA continuas1),
se verifica
2) y que3) P(X=x)=0.
de las FD es una FD
Como consecuencia de esta propiedad, en las VA continuas se verifica que P(X=x)=0.
de alguna VA. Por tanto, el aspecto de una FD será como el de las figuras siguientes o como una
combinación de ambas.
F(x) F(x)
1 1

x x

Observación: Las VA discretas se caracterizan por FD escalonadas. Cada uno de los valores
que forman parte del rango de una VA discreta tiene una probabilidad que da lugar a un salto
en la FD (propiedad 4). Por otra parte, entre dos valores adyacentes del rango no se acumula
ninguna probabilidad, y la FD presenta tramos de valor constante. La alternancia de saltos con
tramos constantes da a la FD de las VA discretas aspecto escalonado.
Observación: Las VA continuas se caracterizan por tener FD continuas. Todas las FD son
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.6

continuas por la derecha (propiedad 3), y en el caso de las VA continuas, P(X = x) = 0 ∀x, por
lo que sus FD son también continuas por la izquierda (propiedad 4), y, por lo tanto, continuas.
Observación: Las VA mixtas constituyen una combinación de las discretas y las continuas.
Sus FD alternan tramos continuos con escalones.
Observación: VA continuas y P(X = x) = 0
Este es un hecho que llama bastante la atención y que parece bastante artificial. Si estamos
realizando un experimento fı́sico, siempre obtenemos una medida concreta de la variable obser-
vada, aunque sea una variable de las que denominamos continuas. Por tanto, nuestra intuición
nos dice que un valor concreto cualquiera puede aparecer, es un valor posible y por tanto tiene
una cierta probabilidad. Esta idea choca con el modelo probabilı́stico que se emplea para las VA
continuas, que se caracteriza por asignar probabilidades nulas a sucesos del tipo {X = x}. Sin
embargo, esta aparente limitación del modelo probabilı́stico basado en una VA continua para
describir un experimento real, no supone un verdadero problema. Cuando se mide una variable
continua, en la práctica siempre se discretiza su valor al realizar la lectura de los sistemas de
medida. Por tanto, al especificar la medida no estamos indicando un valor único y especı́fico,
sino identificando, implı́citamente, un intervalo al que pertenece. Las variables continuas no se
miden con precisión infinita y el suceso {X = x} no tiene utilidad práctica en este contexto. Las
probabilidades se asignan a intervalos, y, por tanto, las VA continuas constituyen una herramienta
perfectamente válida para caracterizar este tipo de experimentos.
En el esquema siguiente se representan los distintos tipos de VA que existen en función del
rango de la variable que describen. También se indican las caracterı́sticas de las FD que resultan
en cada caso.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.7

4.2. Función de densidad

Definición: Función de densidad de probabilidad de una VA. Sea X una VA. Se define:

dFX (x)
fX (x) =
dx
fX (x) se denomina función de densidad de probabilidad (fdp) de X.
La fdp no siempre se puede obtener de acuerdo con la definición anterior. Analizaremos los
distintos casos que se pueden dar en función del tipo de VA (continua, discreta o mixta). Además,
propondremos métodos alternativos para definir la fdp cuando la derivada de la FD no existe. En
todo caso, la fdp de una VA es una función que se caracteriza por una serie de propiedades que
veremos a continuación.
Propiedades de la fdp:

1) f (x) ≥ 0 puesto que F (x) es no decreciente.


R +∞
2) −∞ f (x)dx = 1. Es decir, el área bajo la curva es igual a una unidad.

0.2

0.15
f(x)

0.1

0.05 Area =1

0
−10 −5 0 5 10
x

Rx
3) F (x) = −∞
fX (y)dy

0.2

0.15
F(x)=P(X ≤ 3)
f(x)

0.1

0.05

0
−10 −5 0 3 5 10
x

R x2
4) P(x1 < X ≤ x2 ) = F (x2 ) − F (x1 ) = x1
fX (x)dx
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.8

0.2

0.15

f(x)
0.1
P(!5<X ! !3)

0.05

0
!10 !5 0 5 10
x

Teorema: Cualquier función que verifique las propiedades 1) y 2) de las fdp es una fdp de
alguna VA.
Observación: La fdp es una función que, al igual que la FD, permite calcular probabilidades
asociadas a cualquier suceso relativo a una VA. El valor concreto de la FD en un punto x es la
probabilidad acumulada hasta x, es decir P(X ≤ x). Por su parte el valor de la fdp en un punto
representa el incremento instantáneo de probabilidad, aunque no se trate de la probabilidad de
ningún suceso (por ejemplo, podrı́a ser mayor que uno). La interpretación más sencilla de la fdp
consiste en tener presente que su integral entre dos puntos es igual a la probabilidad del intervalo
definido por ambos (propiedad 4 de la fdp).
A continuación indicaremos las caracterı́sticas de las fdp de las VA continuas, discretas y
mixtas.

4.2.1. fdp de las VA continuas

Las VA continuas se caracterizan por FD continuas, pudiendo darse dos situaciones:

1) FD derivable en todo el rango: en este caso la fdp se calcula directamente aplicando la


definición.
2) FD es no derivable en un conjunto numerable de puntos: en la figura que se representa a
continuación, la FD presenta tres cambios de pendiente donde la función no es derivable
(puntos x = 2, x = 6 y x = 9). En estos casos se asigna a f (x) un valor arbitrario positivo,
puesto que no va a afectar a los cálculos que se realicen. Estos puntos conflictivos pueden
ignorarse a la hora de determinar y representar la fdp pues al ser continua la VA tienen
probabilidad cero. Recordemos que para obtener una probabilidad con la fdp se calcula una
integral en el intervalo de interés. La probabilidad es igual al área bajo la curva, que no
depende de un valor aislado de f (x).

F(x) f(x)
1
0.2

0.1
0.4

0
0
2 6 9 2 6 9
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.9

En las VA continuas, como P(X=x)=0, se verifica:


Z x2
P(x1 < X ≤ x2 ) = P(x1 < X < x2 ) = P(x1 ≤ X ≤ x2 ) = P(x1 ≤ X < x2 ) = fX (x)dx
x1

Ejercicio 2.1: (Stark, Problema 2.2, Pag. 100) En un restaurante conocido por su inusual servicio,
el tiempo X, en minutos, que un cliente tiene que esperar hasta que es atendido por un camarero
viene especificado por la siguiente FD:
 2

 x /4 si 0 ≤ x ≤ 1
 x/4 si 1 ≤ x ≤ 2


F (x) = 1/2 si 2 ≤ x ≤ 10
x/20 si 10 ≤ x ≤ 20




1 si x ≥ 20

a) Representa gráficamente F (x).


b) Calcula y representa gráficamente f (x). Verifica que el área bajo la curva es igual a la unidad.
c) ¿Cuál es la probabilidad de que el cliente tenga que esperar al menos 10 minutos?
d) ¿Cuál es la probabilidad de que el cliente tenga que esperar menos de 5 minutos?
e) ¿Cuál es la probabilidad de que el cliente tenga que esperar entre 5 y 10 minutos?
f)¿ Cuál es la probabilidad de que el cliente tenga que esperar exactamente 1 minuto?
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.10

4.2.2. fdp de las VA discretas

Las VA discretas se caracterizan por FD escalonadas, es decir, o son constantes o son


discontinuas siendo el salto de discontinuidad siempre finito e inferior a una unidad. Por lo tanto,
la derivada de la FD o bien es nula, o bien no está definida. Para poder definir la fdp en el
caso discreto, de tal forma que verifique las propiedades caracterı́sticas que definen a una fdp, se
recurre a la función delta o función impulso.
Definición: Función delta o Impulso δ(x) es una función generalizada que se define por la
siguiente propiedad: Z
φ(x)δ(x − x0 )dx = φ(x0 )
A
donde φ es cualquier función continua en x0 y el punto x0 ∈ A (dominio de integración). Se dice
que la δ está centrada o ubicada en el punto x0 .
La función delta nos permite definir la derivada generalizada de una función. Sea G una
función discontinua en x0 . Se define su derivada generalizada:

dG(x)  + −

= G(x 0 ) − G(x 0 ) δ(x − x0 )
dx x=x0

La idea de la función delta es que, a la hora de integrar, nos permita recuperar el valor del
salto en el punto x0 .
Ejemplo: La función escalón unidad se define como:

0 si x < 0
U (x) =
1 si x > 0

U (x) es una función discontinua en x = 0. Su derivada generalizada es precisamente δ(x),


esto es, una delta centrada en x = 0.
Se puede definir la f (x) en un punto de discontinuidad de F (x) a partir de la derivada
generalizada:

f (x0 ) = F (x+
 
0 ) − F (x0 δ(x − x0 ) = P(x = x0 )δ(x − x0 )

La magnitud del impulso coincide con la magnitud del escalón de la FD, que a su vez
coincide con la probabilidad de que la VA tome el valor x0 .
Observación: La función delta, en lo que se refiere a su aplicación en el campo de las VA, no
encierra un significado cualitativo intrı́nseco. Es simple y únicamente, una herramienta matemáti-
ca que nos permite caracterizar y representar los resultados de un experimento discreto. Como en
todo experimento aleatorio nos interesa conocer los posibles valores y sus probabilidades. En len-
guaje matemático expresamos esta situación mediante un conjunto de deltas, cada una centrada
en cada valor de la VA y con magnitud igual a su probabilidad. Además, la propiedad que define
a la función delta, permite que la suma de todos estos impulsos sea una fdp, verificando todas
las propiedades caracterı́sticas. Al hacer la integral de una delta agregamos el valor del salto de
la discontinuidad en el punto en el que la delta está centrada.
Observación: Otra forma equivalente a la fdp de representar la información acerca de un
experimento aleatorio discreto es mediante la función de masa de probabilidad. Simplemente es la
función que, definida en los valores del rango de la VA, asigna a cada uno de ellos su probabilidad
(P(X = xi ) = pi ). No emplea la función delta, pero conocer una es equivalente a conocer la otra.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.11

En la siguiente figura se representa una FD y una fdp genéricas de una VA discreta X. La función
de masa de probabilidad serı́a:

RX = {x1 , x2 , ...., xn , ..}; P(X = xi ) = pi con pi > 0 ∀i

Evidentemente: X
pi = 1
∀i

La FD presenta discontinuidades en los puntos xi . Para definir la fdp se recurre a la derivada


generalizada: X X
F (xi ) − F (x−

f (x) = pi δ(x − xi ) = i ) δ(x − xi )
∀i ∀i

Observación: La fdp de una VA discreta y su función de masa de probabilidad son equivalen-


tes. Para conocer la fdp necesitamos conocer dónde están ubicadas las deltas (lo cual es el rango
de la VA RX ) y la magnitud de cada delta (lo cual es la probabilidad asociada a cada punto, pi ),
por lo que conociendo la fdp conocemos automáticamente la función de masa de probabilidad y
viceversa.
Observación: En las VA discretas, la probabilidad de un determinado intervalo puede variar
en función de que sea abierto, cerrado o semiabierto. Calcular la probabilidad de un intervalo
consiste en sumar la magnitud de las deltas incluidas en dicho intervalo, por lo que el problema
se reduce precisamente a identificar cuáles están incluidas.

Ejemplo 2.2: Demuestra las propiedades 1), 2) y 3) de las fdp para el caso discreto.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.12

Ejemplo 2.3: Sea X: “Número de caras obtenidas al lanzar dos monedas”. Calcula su fdp y
represéntala gráficamente (su FD se calculó en el ejemplo 2.1). Comprueba que se trata de una
fdp.

4.2.3. fdp de las VA mixtas

Las VA mixtas son una combinación de las discretas y las continuas. Globalmente presentan
un rango no numerable, pero algunos de los valores de su rango tienen probabilidades no nulas.
Como consecuencia, la FD alterna escalones con regiones continuas, siendo al menos una de
ellas no constante. Para calcular la fdp basta con identificar los escalones, que se representarán
mediante una función delta. En los demás puntos se calcula la derivada de la FD. Por ejemplo,
en las figuras siguientes se representan la FD y la fdp de una VA mixta con un impulso en x = 0.
F(x) f(x)
1
1
0.8
0.8
0.6
0.6

0.4 0.4

0.2 0.2

0
0
0 2 4 6 0 2 4 6
x x

5. Distribuciones notables

En la naturaleza existen experimentos que son prácticamente equivalentes desde el punto


de vista probabilı́stico a pesar de que pertenezcan a ámbitos cientı́ficos completamente distintos.
Por ejemplo, existe un cierto paralelismo entre una variable que mide el número de caras que
se obtienen al lanzar una moneda 10 veces, y una segunda variable definida como el número de
bits que se transmiten correctamente en una trama de 10 bits. Como consecuencia, existen distri-
buciones de probabilidad que aparecen con frecuencia en la práctica. Estas distribuciones sirven
para describir el comportamiento probabilı́stico de VA asociadas a situaciones experimentales de
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.13

caracterı́sticas similares. En este apartado estudiaremos las más comunes, distinguiendo entre
discretas y continuas. Realmente, estudiaremos familias de distribuciones que en función del valor
o valores de uno o más parámetros dan lugar a distribuciones diferentes.

5.1. Distribuciones discretas notables

5.1.1. Distribución de Bernoulli

Definición: Distribución de Bernoulli: Ber(p) con p ∈ [0, 1]


Dado  : (Ω, F, P), sea un suceso A ∈ F tal que P(A) = p y P(Ac ) = 1 − p. Se realiza una
vez el experimento y se define la VA X: “Número de veces que ocurre A”. Entonces X ∼ Ber(p).

 1 si ω ∈ A
X(ω) =
 0 si ω ∈ /A

Entonces, RX = {0, 1} con probabilidades: P(X = 1) = P(A) = p; P(X = 0) = 1 − P(A) = 1 − p


Una vez conocida la función de masa de probabilidad conocemos la fdp:

f (x) = (1 − p)δ(x − 0) + pδ(x − 1)

FD de X~Ber(p) fdp de X~Ber(p)


1
1

1!p 1!p

0
0 1
0 1
x

La distribución de Bernoulli describe una situación muy sencilla en la que nos interesa
observar si ha ocurrido un determinado tipo de suceso o su complementario. Por ejemplo, en una
cadena de producción podrı́an ser los sucesos defectuoso y no defectuoso, y en un sistema de
transmisión podrı́an ser transmisión correcta o errónea.

5.1.2. Distribución binomial

Definición: Distribución Binomial: Bi(n, p) con n ∈ N, p ∈ [0, 1]


Dado  : (Ω, F, P), sea un suceso A ∈ F tal que P(A) = p y P(Ac ) = 1 − p. Se repite
el experimento n veces de modo independiente, es decir, el valor de p es constante en todas las
repeticiones. Se define la VA X: “Número de veces que ocurre A en n realizaciones”. Entonces
X ∼Bi (n, p).
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.14

Observación: Generalmente al suceso A se le denomina éxito, y ası́, se dice que la VA mide


el número de éxitos en n intentos.
Vamos a calcular la fdp de esta distribución. Evidentemente, el rango viene dado por:
RX = {0, 1, 2, . . . , n}

Para calcular P (X = k) hay que tener en cuenta que existen distintos resultados elementales
del experimento incluidos en el suceso {X = k}. Este suceso se refiere al número total de veces
que ocurre el suceso A durante las n realizaciones, independientemente del orden en que hayan
aparecido. Supongamos n = 4. El suceso {X = 2} incluye todos los resultados siguientes:
AAAc Ac , AAc AAc , AAc Ac A, Ac Ac AA, Ac AAc A, Ac AAAc
Cualquiera de estos sucesos tienen la misma probabilidad. Cada uno de ellos es una inter-
sección de sucesos independientes, por tanto:
P(AAAc Ac ) = P(AAc AAc ) = · · · = P(Ac AAAc ) = P(A)2 P(Ac )2 = p2 (1 − p)2
Como el suceso {X = 2} es la unión de todos los sucesos anteriores, y éstos son disjuntos
entre sı́, P(X = 2) se obtendrá mediante la suma de las probabilidades. Como todos los términos
son equiprobables:
P(X = 2) = (Número de ordenaciones posibles) ∗ p2 (1 − p)2
El número de ordenaciones posibles es el número de combinaciones de 4 elementos tomados
de 2 en 2:  
4 4!
C4,2 = = =6
2 (4 − 2)!2!
En el caso general un suceso elemental con k éxitos y (n − k) fracasos tiene una probabilidad
pk (1 − p)n−k . El número de ordenaciones posibles son las combinaciones de k elementos en n:
 
n n!
Cn,k = =
k (n − k)!k!
Por tanto:
 
n
P(X = k) = pk (1 − p)n−k con k = 0, 1, 2, . . . , n
k
Una vez conocida la función de masa de probabilidad conocemos la fdp:
n  
X n
f (x) = pk (1 − p)n−k δ(x − k)
k
k=0

fdp de X~Bi(7,0.5) fdp de X~Bi(7,0.9)


0.5 0.5

0.4 0.4

0.3 0.3

0.2 0.2

0.1 0.1

0 0
0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7

Observación: Por el Binomio de Newton se comprueba que las probabilidades suman 1. Esta
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.15

propiedad da nombre a la distribución:


n n  
X X n
P(X = k) = pk (1 − p)n−k = (p + 1 − p)n = 1
k
k=0 k=0

Observación: Una VA binomial se puede ver como una suma de VA de Bernoulli asociada
cada una de ellas a un realización independiente del experimento:
n
X
X= Xk , donde Xk ∼ Ber(p)
k=0

La distribución binomial se emplea en diversos ámbitos. Surge, por ejemplo, al medir el


número de errores que se producen en n transmisiones independientes de un sistema de comuni-
cación, el número de unidades defectuosas que aparecen en n elegidas al azar en una cadena de
producción, el número de mutaciones que se producen en un conjunto de genes, etc.

5.1.3. Distribución geométrica

Definición: Distribución Geométrica: Geo(p) con p ∈ [0, 1]


Dado  : (Ω, F, P), sea un suceso A ∈ F tal que P(A) = p y P(Ac ) = 1 − p. Al suceso A se
le denomina éxito.
Se repite el experimento, de forma independiente, un número indeterminado de veces; es
decir, p es constante para todas las repeticiones. Se define la VA X: “Número de intentos hasta
que ocurre el primer éxito”. Entonces X ∼ Geo(p).

RX = {1, 2, ..., n, ...}. X tiene rango infinito numerable.

Para que ocurra el suceso {X = k} tienen que producirse (k − 1) fracasos en los (k − 1) primeros
intentos, y, posteriormente, un éxito en el intento k-ésimo (especı́ficamente en ese orden). Se
trata de una intersección de sucesos. Cada éxito ocurre con probabilidad p y cada fracaso con
probabilidad (1 − p). Por tanto:
P (X = k) = (1 − p)k−1 p
Una vez conocida la función de masa de probabilidad, la fdp será:

X
f (x) = (1 − p)k−1 p δ(x − k)
k=1

fdp de X~Geo(0.5) fdp de X~Geo(0.9)

0.8 0.8

0.6 0.6

0.4 0.4

0.2 0.2

0 0
1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.16

Observación: Existe otra versión de la distribución geométrica que cuenta el número de


fracasos antes del primer éxito. Evidentemente ambas VA son equivalentes, tan solo están despla-
zadas una unidad. La distribución geométrica también se conoce con el nombre de distribución
de Pascal.
Ejercicio 2.2: Demuestra que la expresión de la fdp de la geométrica cumple las propiedades que
definen a una fdp.

La distribución geométrica también es de uso común. Variables como el número de veces que
hay que transmitir un paquete de datos hasta que llega a su destino o el número de veces que se
necesita participar en un juego de azar hasta que se consigue un premio, siguen una distribución
geométrica.
Ejemplo 2.4: En un sistema de transmisión binario se puede producir un error, en cada transmi-
sión, con probabilidad p. Sabiendo que las transmisiones son independientes, calcula:
a) La probabilidad de que no se produzca ningún error en 6 transmisiones.
b) La probabilidad de que el primer error se produzca en la sexta transmisión.
c) La probabilidad de que se produzca exactamente un error en 6 transmisiones.

5.1.4. Distribución de Poisson

Definición: Distribución de Poisson: P(λ) con λ > 0


La distribución de Poisson está asociada a variables que miden el número de sucesos de
un determinado tipo que ocurren por unidad de tiempo. Para que este tipo de variables tengan
una distribución de Poisson, se tienen que dar determinadas circunstancias en el experimento
(independencia de ocurrencias, número medio de ocurrencias por unidad de tiempo constante,
etc). La función de masa de probabilidad viene dada por:
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.17

RX = {0, 1, ..., n, ...}. X tiene rango infinito numerable.


 k
−λ λ
P (X = k) = e
k!

Una vez establecida la función de masa de probabilidad, la fdp será:



λk
X  
−λ
f (x) = e δ(x − k)
k=0
k!

fdp de X~P(5) fdp de X~P(8)


0.2 0.2

0.15 0.15

0.1 0.1

0.05 0.05

0 0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17

Ejercicio 2.3: Demuestra que la expresión de la fdp de una VA con distribución de Poisson
cumple las propiedades que definen a una fdp.

5.2. Distribuciones continuas notables

5.2.1. Distribución uniforme

Definición: Distribución Uniforme: U(a, b) con a < b


Sea X una VA tal que RX = (a, b). La variable será uniforme si la probabilidad de un
intervalo es proporcional a la longitud del mismo. Esto es, dado un intervalo (x, x + 4x) ⊂ (a, b),
P(x < X ≤ x + 4x) = k4x, independientemente de x. Entonces X ∼ U (a, b).
La distribución uniforme es una generalización al caso continuo de los espacios discretos
equiprobables. En el caso continuo la equiprobabilidad se manifiesta en los intervalos, cuya pro-
babilidad sólo depende de su longitud (siempre que estén incluidos en el rango de la VA).
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.18

fdp de X~U(a,b)
1/(b!a)

1

 si a < x < b
f (x) = b−a

0 otro caso

0
a b

FD de X~U(a,b)
1



 0 si x ≤ a


x−a

F (x) = si a < x < b


 b−a

1 si x ≥ b

0
a b

La distribución uniforme se emplea en casos en los que la probabilidad se reparte de forma


homogénea en todo el rango de una VA continua, es decir, cuando intervalos iguales tienen la
misma probabilidad. En el campo de las telecomunicaciones se utiliza, por ejemplo, para modelar
el error de cuantificación que se produce en la digitalización de señales o para modelar la fase de
una señal.
Ejercicio 2.4: Demuestra que la expresión de la fdp de una VA con distribución uniforme cumple
las propiedades que definen a una fdp.

5.2.2. Distribución exponencial

Definición: Distribución exponencial: exp(α) con α > 0


La distribución exponencial está ligada a la distribución de Poisson. Si el número de ocu-
rrencias de un determinado tipo de suceso en una unidad de tiempo sigue una distribución de
Poisson, entonces el tiempo que transcurre entre dos ocurrencias consecutivas sigue una distri-
bución exponencial, y viceversa. Por ejemplo, si el número de demandas de lı́nea que llegan a
una central telefónica sigue una distribución de Poisson, el tiempo que pasa entre dos demandas
consecutivas se distribuye exponencialmente.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.19

fdp de X" exp(! = 1)

!=1

0.8

 αe−αx si x > 0 0.6
f (x) =
 0 otro caso 0.4

0.2

0
0 2 4 6

FD de X !exp(" = 1)

0.8

 0 si x < 0 0.6
F (x) = 0.4
 1 − e−αx si x ≥ 0
0.2

0 2 4 6

Ejercicio 2.5: Demuestra que la expresión de la fdp de una VA con distribución exponencial
cumple las propiedades que definen a una fdp.

La distribución exponencial también está ligada a la distribución geométrica. Recordemos


que la geométrica es una distribución discreta que surge al medir el número de intentos hasta que
ocurre un determinado suceso (éxito), siempre que en cada intento su probabilidad sea la misma.
La exponencial se utiliza en situaciones similares en las que en lugar de medir número de intentos,
se mide una magnitud continua (tiempo, distancia, etc.). Por ejemplo, si la probabilidad de que
se produzca una llamada a través de una lı́nea telefónica se supone constante para cualquier
instante de tiempo, el tiempo que pasa hasta que se produce una llamada sigue una distribución
exponencial.
Ambas distribuciones, exponencial y geométrica, comparten una propiedad; son distribu-
ciones sin memoria. Esta propiedad se deriva del tipo de experimento a partir del cuál se han
definido. En el caso de una geométrica, el saber que se han producido, por ejemplo, 4 intentos sin
éxito, no nos proporciona ninguna información sobre los intentos que quedan. Lo mismo ocurre
si en el caso de la exponencial han pasado 3.25 segundos sin que ocurra el suceso de interés. Es
decir, el tiempo que queda hasta que ocurre un éxito después de un número cualquiera de fracasos
sigue teniendo una distribución geométrica o exponencial respectivamente.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.20

5.2.3. Distribución normal

Definición: Distribución normal o gaussiana: N(µ, σ) con µ, σ ∈ R; σ > 0.


La distribución gaussiana constituye un modelo probabilı́stico adecuado para muchas va-
riables reales y muy variadas: el ruido en un sistema de comunicación, los errores de medida
en determinado tipo de observaciones, la altura de un conjunto de individuos, etc. En todos los
ámbitos cientı́ficos existen variables aproximadamente normales. De hecho, el término “normal”
se le dio como consecuencia de su aparición tan frecuente. Este fenómeno es debido, en parte, a
que una variable, definida como la suma de muchos efectos aleatorios independientes y de similar
peso, sigue aproximadamente una distribución gaussiana.

La distribución normal es simétrica con respecto al parámetro µ, es decir, f (µ−x) = f (µ+x),


y tiene forma de campana, de ahı́ el nombre de campana de Gauss. La probabilidad se concentra
en el eje de simetrı́a y decae exponencialmente hacia los extremos. El parámetro σ es proporcional
a la dispersión de la distribución con respecto al eje de simetrı́a. Aproximadamente el 95 % de
la probabilidad se concentra en un intervalo centrado en µ de radio 2σ. Para un radio de 3σ, la
probabilidad pasa a ser algo más del 99 %.
La expresión analı́tica de la fdp de una N(µ, σ) es:

1 (x − µ)2
 
1 −
f (x) = √ e 2 σ2
σ 2π

Proposición: La expresión anterior de f (x) cumple las propiedades de toda fdp, es decir, es
Z +∞
no negativa y verifica que f (x)dx = 1.
−∞

La función que define la fdp de la normal no tiene primitiva, por lo que no existe una ex-
presión analı́tica exacta para la FD. Sus valores se pueden calcular numéricamente por ordenador
o consultar en tablas. Aunque existen infinitas distribuciones gaussianas distintas (pues exis-
ten infinitas combinaciones de parámetros) es suficiente una única tabla de la FD para calcular
probabilidades asociadas a cualquiera de ellas. Esto es debido a la siguiente propiedad:
X −µ
Proposición: Sea X ∼ N(µ, σ). Se define Z = . Entonces Z ∼ N(0,1).
σ
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.21

Esta proposición será demostrada en la sección de transformaciones de VA. Esta propiedad


permite transformar un suceso cualquiera de una distribución N(µ, σ) en otro suceso equivalen-
te, con la misma probabilidad, asociado a una N(0,1). A la distribución N(0,1) se le denomina
normal estándar o normal tipo, y su FD es la que se tabula habitualmente.
Observación: La notación que se emplea para la distribución normal no es universal. Aunque
nosotros utilizaremos N(µ, σ), no es raro encontrar fuentes bibliográficas donde se utiliza N(µ, σ 2 ).
En la figura siguiente se observa la influencia de los parámetros en el aspecto de la distribu-
ción. Un cambio en µ produce un desplazamiento del eje de simetrı́a de la distribución mientras
que el aumento de σ produce un incremento de la dispersión de la distribución con respecto al
eje de simetrı́a.

fdp de X~N(0,3) e Y~N(5,1)


0.4

0.3

0.2

0.1

0
!10 !5 µx=0 µy=5 10

5.2.4. Distribución Rayleigh

Definición: Distribución Rayleigh: Ray(σ) con σ > 0


La distribución de Rayleigh es una distribución asimétrica cuya fdp es no nula únicamente
para valores positivos. Una de las variables que sigue esta distribución es el módulo de un vector
de componentes aleatorias cuyas distribuciones son normales de media cero y varianza común.
fdp de Rayleigh(1)

0.6

0.5
2
  
1 x 0.4
x − 2 σ2



f (x) = e si x > 0 0.3
 σ2

 0.2
0 otro caso
0.1

0
0 1 2 3 4 5
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.22

FD de Rayleigh(1)
1

0.8


 0 si x < 0 0.6

F (x) = 1 x2
 
0.4
 − 2
1− e 2 σ

si x ≥ 0

0.2

0
0 1 2 3 4 5

6. Transformación de variables aleatorias

En general, cualquier magnitud fı́sica que dependa de una VA también será una VA. Supon-
gamos un sistema formado por una resistencia sometida a una diferencia de potencial constante.
Si el valor de la resistencia varı́a aleatoriamente en función de distintos factores, como por ejemplo
la temperatura, la intensidad de corriente resultante también será una VA. Si el tiempo que un
vehı́culo emplea en realizar un recorrido se puede modelar mediante una VA como consecuencia
de las fluctuaciones del tráfico, la velocidad media resultante también es aleatoria. Estos ejemplos
se pueden modelar mediante un sistema que obtiene una señal de salida tras transformar una
cierta señal de entrada. Como la señal de entrada es una VA, también lo es la señal de salida.
El problema general que se plantea consiste en determinar la distribución de la señal (VA)
de salida en función de la distribución de la señal (VA) de entrada, que se supone conocida.
En esta sección analizaremos distintos métodos para resolver este problema, cuya complejidad
varı́a mucho en función de las distribuciones de probabilidad y las transformaciones implicadas.
Evidentemente los sistemas pueden tener múltiples entradas y múltiples salidas, con lo que el
cálculo se puede complicar indefinidamente.
Una vez comprendidos estos contenidos podremos calcular, por ejemplo, la distribución del
tiempo que pasa hasta que un sistema se averı́a en función de su arquitectura y de las distribuciones
análogas de sus componentes. También podremos llegar a evaluar estadı́sticamente los errores
cometidos en un sistema de cuantificación o conocer la distribución del tiempo que un usuario
emplea para poder disfrutar de un servicio en función de la distribución del tiempo de espera y
del tiempo de uso del servicio.
Planteamiento del problema
Dada una VA X, se define Y = g(X), donde g define una transformación de X. En general,
Y va ser también una VA, pues recordemos que una VA no era más que una función de un espacio
de probabilidad en R. Obviamente Y = g(X) es una composición de las dos funciones g y X por
lo que sigue siendo una función de un espacio de probabilidad en R, es decir, una VA.
Para tener un espacio de probabilidad sobre RY necesitamos definir una medida de proba-
bilidad. La manera de hacerlo es asignar la misma probabilidad a los sucesos equivalentes. En
general, la fdp de X será conocida y por lo tanto también lo serán las probabilidades asociadas
a cualquier suceso A ∈ FX . La probabilidad de un suceso B ∈ FY es por definición igual a la
probabilidad del suceso equivalente correspondiente en X. Por tanto la clave para calcular la
probabilidad de un suceso B relativo a Y está en calcular el suceso equivalente en RX , es decir,
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.23

en conocer g −1 (B).
Sea B ∈ FY . Entonces: PY (B) = PX (g −1 (B))
Observación Dado que la medida de probabilidad se conserva en una transformación, habitual-
mente notaremos directamente P(A) o P(B) en lugar de PX (A) o PY (B).
A continuación veremos cómo aplicar esta idea sencilla al cálculo de la FD de la VA Y y
posteriormente enunciaremos un teorema para el cálculo de su fdp.

6.1. Cálculo de la FD de Y = g(X)

Para calcular la probabilidad de un suceso relativo a Y se debe determinar el suceso equi-


valente en X, es decir la imagen inversa del suceso para la transformación definida. En el caso
concreto de la FD el suceso de interés es {Y ≤ y}, y por tanto:
FY (y) = P(Y ≤ y) = P({x/g(x) ≤ y}) = P(X ∈ g −1 ((−∞, y]))

Conceptualmente se trata de una operación sencilla pero en la práctica la dificultad para


obtener este suceso equivalente depende de cómo esté definida la VA X y fundamentalmente de
la transformación g. En el caso particular de que X sea discreta la FD serı́a:
X X X
FY (y0 ) = P(Y ≤ y0 ) = P(Y = yi ) = P(X = xj )
{i/yi ≤y0 } {i/yi ≤y0 } {j/g(xj )=yi }

es decir, P(Y = yi ) se calcula como la suma de las probabilidades de todos los valores de X
tales que g(xj ) = yi . Por definición FY (y0 ) se calcula como la suma de todas las probabilidades
asociadas a valores de Y menores o iguales que y0 .

Ejemplo 2.5: Sea X una VA discreta cuyo rango es RX = {−2, −1, 0, 1, 2}. Se define Y = X 2 .
Calcula la función de masa de probabilidad de Y sabiendo que los posibles valores de X son
equiprobables.

A continuación vamos a ver una serie de situaciones que se pueden dar dependiendo de la forma
de la transformación:
g(x) continua y no constante:
Para cada valor Y = y puede haber varias inversas. En el ejemplo de
la figura hay 3 imágenes inversas y el suceso equivalente de {Y ≤ y0 }
se define a partir de la unión de 2 intervalos en X:

g −1 ((−∞, y0 ]) = (−∞, x1 ]) ∪ [x2 , x3 ]

y por tanto:

FY (y0 ) = P({X ≤ x1 )}∪{x2 ≤ X ≤ x3 }) = FX (x1 )+FX (x3 )−FX (x+


2)
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.24

g(x) escalonada:
Esta transformación se corresponde por ejemplo con la función de
transferencia de un conversor analógico-digital. La VA resultante Y
es discreta. Para calcular la probabilidad asociada a cada uno de
sus valores hay que obtener la imagen inversa correspondiente. Por
ejemplo, {Y = y1 } y {x1 < X ≤ x2 } son sucesos equivalentes y por
tanto:
P(Y = y1 ) = FX (x2 ) − FX (x1 )
g(x) constante en [x0 , x1 ]:
Este caso se puede considerar como una mezcla de los anteriores.
Aunque no es escalonada presenta un tramo constante. Como conse-
cuencia {Y = y0 } tiene como suceso equivalente el intervalo [x0 , x1 ].
Por tanto:

P(Y = y0 ) = P(x0 ≤ X ≤ x1 ) = FX (x1 ) − FX (x−


0)

Si X es continua la expresión anterior es equivalente a:

P(Y = y0 ) = FX (x1 ) − FX (x0 )

y la VA Y resultante será mixta.

Ejemplo 2.6: Sea X ∼ U (−C, C). Se define Y = 1/X 2 . Calcula FY (y).


Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.25

Ejemplo 2.7: Un vehı́culo realiza a diario un trayecto de longitud L metros. Como consecuencia
de las fluctuaciones del tráfico y de las condiciones meteorológicas, la velocidad que desarrolla es
una VA V ∼ U(a, b). Sea T el tiempo que tarda en realizar el trayecto.
a) Representa gráficamente la relación entre T y V .
b) Determina la función de distribución de probabilidad de T .

6.2. Cálculo de la fdp de Y = g(X). Teorema fundamental

Sea X una VA continua.


Se define Y = g(X), siendo g una función real, derivable y no constante en RX .
Para cada Y = y sean x1 , x2 , . . . , xn , . . . las raı́ces reales de y = g(x). Entonces:
X fX (xi )
fY (y) =
∀i
|g 0 (xi )|

Observaciones:

a) Si g(x) es discontinua, no derivable o con derivada nula en una cantidad numerable de


puntos, el teorema se puede aplicar en todo el rango de X excepto en dichos puntos. Como
X es una VA continua (si no, el teorema no serı́a aplicable), la imagen de un conjunto de
puntos aislados tiene probabilidad cero y por lo tanto no tiene repercusión en la distribución
de probabilidad de Y . A la fdp de Y en la imagen de dichos puntos se le puede asignar un
valor arbitrario.
b) Si X es mixta el teorema es aplicable únicamente a la parte continua.
c) Si g(x) es constante en un intervalo el teorema no es aplicable en dicho intervalo. Como ya
hemos visto anteriormente, en estos casos la VA Y será mixta. Si g(x) = y0 en el intervalo
[x1 , x2 ] la fdp de Y presentará un impulso δ(y − y0 ) de magnitud [FX (x2 ) − FX (x1 )].
d) Si no existe ningún valor de x tal que g(x) = y0 , entonces fY (y0 ) = 0.
e) El número de raı́ces de y=g(x) puede ser infinito numerable.

Ejemplo resuelto 2.1:


Sea X una VA continua de fdp conocida. RX = [x0 , x1 ]. Se define Y = aX + b (a > 0).
Calcula fY (y).
Resolveremos este problema aplicando el teorema fundamental (también se puede calcular
la FD mediante la obtención del suceso equivalente y después derivar). Una vez que se decide
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.26

abordar un problema de transformaciones desde esta perspectiva, es recomendable dar una serie
de pasos que vamos a ver a continuación:

1) Comprobar si se verifican las hipótesis del teorema.


En este caso es evidente que sı́. La VA X es continua (dato del problema) y la función g es
derivable, real y no constante en todo el conjunto de los números reales.
2) Representar gráficamente la transformación
Según cuál sea la transformación que se presente, pueden
variar aspectos fundamentales para el cálculo de la nueva
fdp, como por ejemplo el rango de Y o el número de
imágenes inversas correspondientes a cada uno de sus
valores.

La representación gráfica nos obliga a realizar un análisis


en profundidad de la transformación y posteriormente nos
proporciona de un vistazo la información más significativa
que necesitamos para aplicar el teorema fundamental.
3) Determinar el rango de la VA Y
A la vista de la transformación gráfica queda claro que los posibles valores de Y pertenecen
al intervalo [ax0 + b, ax1 + b].
4) Obtener la imagen o imágenes inversas
Claramente para cada valor de y hay una única imagen inversa, se trata de una transfor-
mación biyectiva. La representación gráfica nos ayuda a ver claramente esta condición.
Nuestro objetivo es obtener una expresión para fY (y) y por tanto dicha expresión debe
de escribirse en función de y además de otras cantidades o parámetros que se consideren
conocidos (en todo caso la expresión no debe quedar en función de x, que es la variable que
se transforma). Por tanto, la imagen inversa de Y = y (que evidentemente se trata de un
valor de X) debe quedar expresada en función de y.
En nuestro caso particular sabemos que y = ax + b
Por tanto el valor de x correspondiente a y se puede expresar como: x = (y − b)/a
La expresión que emplearemos para la imagen inversa será pues (y − b)/a
En el caso general puede ocurrir que la expresión de la imagen inversa cambie para cada
valor de y, que haya varias imágenes inversas, que el número de imágenes inversas varı́e de
unos valores de y a otros, etc.
5) Calcular la derivada de la transformación. Expresarla en función de y.
En este caso la derivada de la transformación es g 0 (x) = a. Por tratarse de un parámetro
conocido se puede utilizar directamente en la expresión de fY (y). Si g 0 (x) queda en función
de x ésta debe sustituirse por el valor correspondiente de y (del mismo modo que en la
expresión de la imagen inversa).
6) Obtener la fdp mediante la aplicación del teorema.
Con la información recogida en los pasos anteriores, obtenemos la fdp de Y :

fX ( y−b
a
)
fY (y) = ∀y ∈ RY = [ax0 + b, ax1 + b]
a
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.27

donde en el denominador figura directamente a, puesto que en este ejemplo se ha supuesto


a > 0 y coincide con su valor absoluto.
Además de escribir la expresión de fY (y) es imprescindible indicar el rango de Y , el con-
junto de valores de y para los que es válida. Para el resto de valores no especificados se
sobreentenderá que es nula.

Ejemplo 2.8: Sea X ∼ N(µ, σ). Se define Y = aX + b. Calcula fY (y). Estudia el caso particular
en que a = (1/σ) y b = (−µ/σ).

A continuación vamos a aplicar el teorema fundamental a distintas transformaciones de uso


común en ingenierı́a. La transformación del Ejemplo 2.9 es la que se aplica en un detector de ley
cuadrática y la del Ejemplo 2.10 es equivalente a la función de transferencia de un rectificador de
media onda.
Ejemplo 2.9: Sea X una VA continua con fdp conocida. Se define Y = aX 2 (a > 0). Calcula
fY (y).
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.28

Ejemplo 2.10: Sea X una VA continua con fdp conocida. Se define Y = (X + |X|)/2. Calcula
fY (y).

Ejemplo 2.11: Sea X una VA continua con fdp conocida. Se define Y = c exp(−αx)U (x) con
α > 0, c > 0. Calcula fY (y).

Ejemplo 2.12: Sea X una VA continua con FD FX continua. Se define la transformación


Y = FX (X). Calcula fY (y) bajo los siguientes supuestos:
a) FX (x) es estrictamente creciente
b) FX (x) no es estrictamente creciente
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.29

Resultado: Si X es una VA continua, la VA U = FX (X) sigue una distribución U(0,1).


Este resultado se utiliza a menudo en simulación para generar números aleatorios. En oca-
siones sólo se dispone de un generador de números aleatorios U∼ U(0,1). Si conocemos la FX (x)
de la VA que queremos generar, bastará con aplicar a estos números aleatorios la transformación
inversa FX–1 (u).

Ejemplo 2.13: Se desea generar una muestra aleatoria con distribución exp(α) Para ello se
dispone únicamente de un generador de números aleatorios con distribución U(0,1). Calcula la
transformación que se debe aplicar a los números obtenidos con el generador para obtener la
distribución de probabilidad deseada.

Observación: Cuando se transforma una VA la relación que existe entre los sucesos equiva-
lentes del dominio original y del transformado (de X e Y ) puede ser muy variada. Según cuál sea
la ley de transformación puede haber diferencias muy importantes entre los rangos y la distri-
bución de probabilidad de ambas VA. En este sentido para conocer cuál es la fdp o la FD de la
nueva VA es necesario realizar un estudio minucioso de la transformación y de cómo aplicar las
diferentes técnicas que se estudian en este capı́tulo. Deben evitarse en cualquier caso las suposi-
ciones cómodas y poco rigurosas de que a pesar de que ha habido una transformación se mantiene
el tipo de distribución de probabilidad (por ejemplo suponer que al transformar una uniforme se
mantiene la distribución uniforme y sólo cambian los parámetros que determinan su rango).

7. Caracterı́sticas de una variable aleatoria

A menudo es interesante resumir ciertas propiedades de una VA y de su distribución de


probabilidad en unos cuantos números. Estas cantidades deterministas no identificarán de forma
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.30

única a la VA, pero nos darán una idea de sus principales caracterı́sticas. En esta sección se
estudiarán los principales parámetros de una VA; fundamentalmente ı́ndices de localización y de
dispersión.

7.1. Esperanza

Definición: Llamaremos Esperanza (Media o Valor esperado) de una VA:


Z +∞
E(X) = µ = xfX (x)dx
−∞

En el caso discreto, esta integral se convierte en:


X
E(X) = µ = xi P(X = xi )
∀i

Evidentemente, en un espacio equiprobable este es el concepto intuitivo y habitual de pro-


medio. La media es un parámetro de localización, nos da una idea de dónde puede estar situada
la variable estudiada.
Interpretación frecuencial
Supongamos que X es una VA discreta tomando valores {x1 , x2 , . . . , xk , . . .}. Repetimos el
experimento n veces (siendo n suficientemente grande) y observamos ni = {número de veces que
obtenemos el valor xi }; con lo que fr (xi ) = ni /n. La esperanza de X serı́a:
X n 1 x1 + · · · + n k xk + . . .
E(X) ≈ xi fr (xi ) =
∀i
n

La media puede entenderse desde el punto de vista frecuencial como el lı́mite del promedio
de muestras de la misma VA, cuando el número de muestras tiende a infinito.
Observación: La esperanza se define como una integral (o como una serie en el caso discreto).
Esta integral puede que no siempre exista. De hecho, algunas VA carecen de media.
Ejemplo: Sea X: “Valor obtenido en el lanzamiento de un dado”. X toma valores en
{1, 2, . . . , 6} con probabilidad 1/6. Por tanto: E(X) = (1 + 2 + . . . + 6)/6 = 3.5.
Ejemplo: Sea X ∼ U(a, b). Entonces:
b
1 b 2 − a2
Z
x b+a
E(X) = µ = dx = =
a b−a b−a 2 2

Las principales propiedades de la esperanza son:

1) Si la fdp es simétrica respecto a un punto, ese punto ha de ser necesariamente la media.


Es decir, si f (a + x) = f (a − x) ∀x, entonces E(X) = a. En particular, si la fdp es par
entonces la media es cero. Por ejemplo, una uniforme es simétrica respecto al punto medio
del intervalo donde está definida, por lo que este punto es la media.
2) La media de una VA no tiene porqué ser uno de los posibles valores de la variable. En el
ejemplo del lanzamiento de un dado, la media (3.5) no pertenece al rango de la VA.
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.31

3) Teorema fundamental para esperanzas


Bajo las mismas hipótesis del teorema fundamental. Si Y = g(X) entonces:
Z +∞ Z +∞
E(Y ) = yfY (y)dy = g(x)fX (x)dx
−∞ −∞

El teorema también es cierto en el caso discreto:


X X
E(Y ) = yj P(Y = yj ) = g(xi )P(X = xi )
∀j ∀i

El teorema fundamental para esperanzas nos permite calcular la media de una transforma-
ción sin necesidad de calcular la fdp de la variable transformada.
4) La esperanza es un operador lineal, es decir: E(aX + b) = aE(X) + b

Ejemplo resuelto 2.2: Sea X una VA N(0, σ). Hacemos la transformación Y = X 2 . Calcula E(Y )

Z +∞ Z +∞ Z +∞
1 − x2 ∗ 1 2 /2 ∗∗
E(Y ) = E(g(X)) = g(x)fX (x)dx = √ 2
x e 2σ 2 dx = √ σ 2 z 2 e−z dz =
−∞ σ 2π −∞ 2π −∞


z = u ⇒ dz = du
∗ z = x/σ ⇒ dz = dx/σ (tipificamos) ∗∗ −z 2 /2 2
ze dz = dv ⇒ v = −e−z /2
 
 
+∞ +∞ +∞
σ2
 Z  Z Z
∗∗

−z 2 /2
i+∞ 2
− z2
 1 z2
=√ −ze − −e dz =σ 2
√ e− 2 dz = σ 2 f (z)dz = σ 2
2π 
|
 {z −∞} −∞ 

 −∞ 2π −∞
=0

Por tanto, E(Y ) = E(X 2 ) = σ 2

Otros ı́ndices de localización son la moda: el valor en el que se alcanza el máximo de la fdp
o, lo que es lo mismo en el caso discreto, el valor más probable; y la mediana, aquel punto que
deja la mitad de la probabilidad a cada lado, es decir, el punto en el que la FD vale 1/2.

Ejemplo 2.14: Sea X una VA N(µ, σ). Determina la media, la moda y la mediana de X
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.32

Ejemplo 2.15: Sea X una VA exp(α). Determina la media, la moda y la mediana de X

7.2. Varianza

De entre los parámetros de dispersión, el más importante quizá sea la varianza, que mide la
concentración de una variable aleatoria respecto a su media. Se define:
Z +∞
2 2
Var(X) = σ = E{(X − µ) } = (x − µ)2 fX (x)dx
−∞

En el caso discreto, esta integral se convierte en:


X
Var(X) = σ 2 = (xi − µ)2 P(X = xi )
∀i

Las principales propiedades de la varianza son:

1) Var(X) = E(X 2 ) − E2 (X)


2) Si X = c (constante o determinista) entonces Var(X) = 0
3) V ar(aX + b) = a2 V ar(X); con a y b números reales.

Ejercicio 2.6: Demuestra las propiedades anteriores


Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.33

Ejemplo 2.16: Sea X una VA que toma valores en -1 y en +1 con probabilidad 1/2. Calcula su
media y su varianza. Sea Y una VA que toma valores en -10 y en +10 con probabilidad 1/2.
Calcula su media y su varianza. Compara las medias y las varianzas de X e Y .

Otro parámetro importante de dispersión es la desviación tı́pica: la raı́z cuadrada (positiva)


de la varianza. Tiene especial interés por estar expresada en la mismas unidades que la variable.
Habitualmente se denota por σ.

7.3. Cálculo de las medias y varianzas para las distribuciones notables

En esta sección veremos ejemplos de cálculo de medias y varianzas. En algunos casos, como
las distribuciones normal, exponencial o uniforme ya se calculó la media en ejemplos anteriores,
por lo que sólo calcularemos la varianza. Existen distribuciones, como la binomial, la geométrica
o la Poisson, en las que es difı́cil calcular su media y varianza utilizando la definición. Existen
técnicas alternativas para el cálculo de medias y varianzas, basadas en la denominada función
caracterı́stica, que permiten determinar fácilmente los parámetros de esas distribuciones. Esos
contenidos exceden los objetivos de esta asignatura, por lo que no serán introducidos. Sin embargo,
al final de la sección se incluye una tabla en la que se facilitan los parámetros de las distribuciones
más importantes.

Ejemplo 2.17: Sea X una VA Ber(p). Determina la media y la varianza de X.

Ejemplo 2.18: Sea X una VA N(µ, σ). Determina la varianza de X.


Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.34

Ejemplo 2.19: Sea X una VA U(a, b). Determina la varianza de X.

Ejemplo 2.20: Sea X una VA exp(α). Determina la varianza de X.

Ejemplo resuelto 2.3: Sea X una VA Ray(σ). Determina la media y la varianza de X.


Z ∞ 2 #∞ Z
Z +∞ ∞
x − x22 ∗ − x2 2
− x2
E(X) = xfX (x)dx = e 2σ dx = −x e 2σ 2 + e 2σ dx =

−∞ 0 σ2 | {z } 0
=0 0

√ (
√ Z ∞
σ 2π x = u ⇒ dx = du
= σ 2π fN (0,1) (x)dx = ∗ 2
− x2 x2
0 2 x
σ2
e 2σ dx = dv ⇒ v = −e− 2σ2

+∞ ∞ ∞
x3 − x22
Z Z Z
2 2 ∗∗ t − t2 1
E(X ) = x fX (x)dx = 2
e 2σ dx = 2
e 2σ dt = E(exp(
2
)) = 2σ 2
−∞ 0 σ 0 2σ 2σ

∗ ∗ x2 = t ⇒ 2xdx = dt

π 2 4−π 2
Por tanto, Var(X) = E(X 2 ) − E2 (X) = 2σ 2 − σ = σ
2 2
Universidad de Vigo. PyE. Tema 2: Variables aleatorias unidimensionales 2.35

Medias y varianzas de las distribuciones más importantes

Distribución Parámetros Rango Media Varianza

Bernoulli p {0, 1} p p(1 − p)

Binomial n, p {0, 1, 2, ..., n} np np(1 − p)

Poisson λ {0, 1, 2, 3, ....} λ λ

1 (1 − p)
Geométrica p {1, 2, 3, ....}
p p2
(a + b) (b − a)2
Uniforme a, b (a, b)
2 12

Normal µ, σ (−∞, +∞) µ σ2

1 1
Exponencial α (0, +∞)
α α2
σ√ 4−π 2
Rayleigh σ (0, +∞) 2π σ
2 2

EJERCICIOS PROPUESTOS:
Cuestiones básicas de variables aleatorias. Li. Problemas de autoevaluación 3.1. Pag. 139.
Propiedades de la función de distribución. Li. Problemas. 3.2. Pag. 130.
Propiedades de la función de densidad. Li. Problemas. 3.9 y 3.10. Pag. 131.
Función de distribución y de densidad. Cao. Problema 4.5, apartados a), b) y c). Pag. 192.
Función de densidad. Cao. Problema 4.9. Pag. 196.
Distribución Gaussiana. Li. Problemas. 3.22. Pag. 133
Teorema fundamental.Ejemplo 5.13 (Papoulis).
Teorema fundamental. Problema 3.8 de (Stark, 1994). Pag. 154.
Esperanzas y varianzas. Cao. Problema 4.6. Pag. 181; Problema 4.12. Pag 198.
Esperanza y varianza. Li. Problemas de autoevaluación 3.4. Pag. 140.
Varianza. Li. Problemas de autoevaluación 3.2. Pag. 139.
Esperanza de funciones de una VA. Li. Problema 3.41. Pag. 135.

LECTURAS RECOMENDADAS:
Concepto de variable aleatoria. Papoulis. Apartado 4.1
Funciones de distribución y densidad. Papoulis. Apartado 4.2
Introducción a las transformaciones de VA. Apartado 3.1. Stark.
Esperanzas y varianzas. Cao. Capı́tulos 4.6 y 4.7.

INFORMACIÓN Y DOCUMENTACIÓN ADICIONAL:


La documentación de este tema se complementa con un boletı́n de problemas.