Sei sulla pagina 1di 15

TEORIA DE LA PROBABILIDAD Y PROCESOS ESTOCASTICOS

La teoría de la probabilidad es, junto con la teoría de señales, uno de los dos pilares matemáticos
sobre los que se asienta el análisis de sistemas de comunicaciones digitales. En este capítulo se
presentan nociones básicas de probabilidad y procesos aleatorios. Se revisan los conceptos de
variable aleatoria y procesos estocásticos y sus propiedades, en particular aquellas de interés en
comunicaciones digitales.

PROBABILIDAD

El concepto de probabilidad está ligado a realización (física o mental) de un experimento


“aleatorio”, entendiéndose por tal un experimento cuyo resultado es desconocido (es decir, no
predecible) por un observador. Suele ponerse el ejemplo de lanzamiento de un dado: el resultado
puede ser cualquier número entre 1 y 6, pero es a priori impredecible ni siquiera por el lanzador.
La probabilidad es una medida de la incertidumbre que, para un observador, tiene el resultado de
un experimento, y es, por tanto, una medida subjetiva: así, por ejemplo, el contenido de un
mensaje enviado a través de un canal de comunicaciones digitales es completamente
desconocido por el receptor antes de iniciarse la comunicación, pero no por el transmisor, que
puede predecirlo con exactitud en la medida que “conoce” el mensaje transmitido.

El desconocimiento puede ser total o parcial. Si consideramos el experimento “lanzar dos dados y
sumar sus puntos”, cualquier resultado entre 2 (1+1) y 12 (6+6) es posible, pero también sabemos
que el 7 es un resultado más “esperable” que el 2. Lo sabemos por naturaleza del experimento o
por información estadística.

La probabilidad es pues esencialmente, una medida de incertidumbre sobre el resultado del


experimento y es, por tanto, dependiente de la cantidad de información disponible por el
observador en cada momento. Para acercarnos a una definición más formal, se precisan varios
elementos:

Un espacio muestral, Ω, que es el conjunto de todos los resultados posibles de un experimento


aleatorio.

Un conjunto de sucesos, Φ= {S, S ⊂ Ω}. Un suceso es cualquier subconjunto de Ω1. Ejemplos de


sucesos en el ejemplo de los dados son que la suma sea: 2, un número impar, un número menor
que 8, etc. En total hay 211 posibles sucesos.

Definimos ahora una medida de probabilidad Pr como toda una funcion que, aplicada sobre
cualquier suceso S ⊂ Ω, devuelve un numero real Pr{S} que verifica las siguientes propiedades

P1. 0< Pr {S}<1

P2. Pr {φ}=0

P3. Pr {Ω}=1
P4. Dado un conjunto finito (o infinito numerable) de sucesos Si ε Φ disjuntos (Si ∩ Sj = φ), se
verifica

    = 

 

Asignación de probabilidades a sucesos

Supongamos que el experimento aleatorio puede repetirse un número indefinido de veces, y que
el resultado de cada experimento es independiente de los demás. Diremos que una probabilidad
Pr es un buen modelo de incertidumbre para dicho experimento en la medida en que sea capaz de
predecir con exactitud la frecuencia con la que se repiten los diferentes sucesos del experimento.

Es decir, Pr es una buena medida de incertidumbre sobre el resultado del experimento si dado
cualquier suceso S ⊂ Ω, tras N repeticiones del experimento, denominado Ns al número de veces
que se produce algún resultado que está en S, el cociente Ns/N converge a P{S} cuando N tiende a
infinito.

Ejemplo 3.1

Considere el experimento consistente en lanzar un dado no cargado y mirar el resultado: un


número entero entre 1 y 6. ¿Cómo asignar probabilidades al suceso “5”? la física del problema
sugiere que, siendo un dado no cargado esencialmente simétrico, no hay razón para pensar que
uno de los resultados tenga mayores oportunidades de producirse que el otro, lo que nos invita a
hacer la asignación Pr {1} = Pr {2} =… = Pr {6} = 1/6. En apoyo de esta asignación está el hecho de
que ha resultado ser razonablemente acertada con otros muchos dados anteriormente. Si,
además, tenemos la oportunidad de ensayar el lanzamiento de este dado cierto numero N de
veces, podremos comprobar si, efectivamente, la frecuencia de “5” o de cualquier otro resultado
se parece a 1/6. Si es así, podemos confiar en la bondad de esta asignación. Pero, en todo caso,
piénsese que ninguna de estas evidencias es definitiva a favor del modelo equiprobable frente a
todos los posibles.

Ejemplo 3.2

La asignación de probabilidades a los 6 resultados posibles del lanzamiento del dado permite
calcular un valor de probabilidad para cualquier otro suceso. Así, por ejemplo, suponiendo que la
probabilidad de cada posible resultado es 1/6, la probabilidad de que se obtenga un número par
será

1

2 ∪
4 ∪
6  = 
2 + 
4 + 
6 =
2
VARIABLES ALEATORIAS

cada posible resultado un numero. Dado el resultado  ∈ Ω, la variable aleatoria X tomara un valor
Estrictamente hablando, variable aleatoria es toda aplicación de Ω en la recta real, que asigna a

() ∈ ℝ. En la práctica, la notación suele simplificarse y, de forma general escribiremos X,


omitiendo el argumento.

Mediante el uso de variables aleatorias, el espacio muestral original se proyecta sobre un


subconjunto de la recta real, que llamaremos espacio muestral imagen.

Ejemplo 3.3

Un transmisor envía una secuencia de dígitos binarios (ceros y unos),


,  = 0, … , " − 1 , a un

imperfecciones del canal, la secuencia de dígitos binarios detectada en recepción,


$,  =
receptor distante a través de un canal de comunicaciones digitales. A consecuencia de

0, … , " − 1 , es posiblemente diferente a la transmitida. Para evaluar el rendimiento de la

recibida y determinar cuál de los resultados siguientes se ha producido: % = “Hay errores de


comunicación, considere el experimento consistente en comparar las secuencias transmitida y

transmisión”, o bien & = “No hay errores de transmisión”. Puede definirse la variable aleatoria Z
dada por Ζ(% ) = 0 y Ζ(()=1. De este modo, 
Ζ = 1 es la probabilidad de que se haya
producido algún error en la transmisión.

Si llamamos Ω’ al espacio muestral imagen ( es decir, Ω) =


X(ξ), ξ ∈ Ω ⊂ ℝ), podemos distinguir
entre:

Variables aleatorias discretas:Ω’ es discreto (es decir, finito o infinito numerable).

Variables aleatorias continuas:Ω’ es continuo, o contiene algún subconjunto continuo.

La diferencia entre variables discretas y continuas es sustancial. Como hemos visto anteriormente,
si el espacio muestral imagen es finito o infinito numerable, para caracterizar la variable aleatoria
en términos probabilísticos es suficiente con asignar un valor de probabilidad a cada posible
resultado (que, de acuerdo con la definición anterior, es también un suceso) respetando las
propiedades 1 a 3, y calcular las probabilidades de los demás sucesos aplicando la propiedad 4. Lo
último es posible porque puede construirse cualquier suceso mediante la unión contable de
sucesos atómicos (esto es, sucesos formados por un solo resultado posible). Sin embargo, siΩ’ es
continuo, aquellos sucesos que contengan un conjunto infinito y no numerable de resultados
posibles no pueden construirse como unión contable de sucesos atómicos y, por tanto, no es
posible calcular su probabilidad a partir de las probabilidades de los sucesos atómicos. Además, ¡la
mayoría de los sucesos atómicos tienen probabilidad nula!

de la forma
 ≤ . . La función que devuelve la probabilidad de este suceso para cada valor de X
Cuando Ω’ es continuo, suele preferirse caracterizar la variable aleatoria X a partir de los sucesos

se denomina función de distribución acumulada o, simplemente, función de distribución


/0 (.) = 
 ≤ .

La función de distribución tiene las siguientes propiedades, que se deducen directamente de su


definición:

P1. 0 ≤ /0 (.) ≤ 1

P2. /0 (∞) = 1

P3. /0 (−∞) = 0

P4. /0 (.) es una función monótona creciente (/0 (& ) ≤ /0 (2 ) si & < 2 ).

Distribución de probabilidades y función de densidad de probabilidad

distribución), que llamaremos 40 (.), como aquella que, para cada posible valor x de X, devuelve
Dada una variable aleatoria discreta X, se define su distribución de probabilidades (o simplemente

su probabilidad. Así, por ejemplo,

45 (3) = 
 = 3

Obviamente, si X puede tomar los valores


. , 0 ≤ 7 ≤ 8 − 1 resulta
9:&

45 ( . ) = 1
;%

Probabilidad y distribución de probabilidades son esencialmente lo mismo, aunque la primera se


aplica a sucesos y la segunda a números. Si la variable es discreta, conociendo su distribución
puede calcularse la probabilidad de cualquier caso. Por el contrario, si la variable aleatoria es
continua, la distribución de probabilidades no resulta útil, y suele recurrirse a la función de
distribución acumulada o bien a su derivada, que se conoce como función de densidad de
probabilidad (abreviadamente, fdp)

$/5 (.)
<5 (.) =
$.

Las siguientes propiedades son una consecuencia inmediata de esta definición, y de las
propiedades de la función de distribución enunciadas anteriormente:

P1. <5 (.) ≥ 0

P2. /5 (.) = >:@ <5 (?)$?


0

P3. >:@ <5 (?)$? = 1


@

Además, la densidad de probabilidad define completamente una variable aleatoria, en el sentido


de que permite calcular la probabilidad de cualquier suceso. Por ejemplo, la probabilidad del
suceso
 <  ≤ A se puede calcular teniendo en cuenta que el conjunto
 ≤ A admite la
partición


 ≤ A =
 ≤ B ∪
B <  ≤ A

Luego, en virtud de la propiedad 4,


 ≤ A = 
 ≤ B + 
B <  ≤ A

Y, por tanto


B <  ≤ A = /5 (A) − /5 (B) = >D <5 (.)$.
C

De forma general, la probabilidad del suceso


 ∈  se puede calcular como


 ∈  = E <5 (.)$.
F

La propiedad (3.9) puede ayudarnos a interpretar la función <0 (.): partiendo de la definición de
derivada,

/5 (. + ∆) − /5 (.) 
. <  ≤ . + ∆
<5 (.) = lim = lim
∆→% ∆ ∆→% ∆

La expresión final explica la denominación de “densidad de probabilidad” para <5 (.).

Resumiendo, las variables aleatorias discretas pueden caracterizarse mediante su distribución de


probabilidades, y las continuas mediante su función de densidad de probabilidad. Para completar

acumulada (o de distribución) de una variable discreta, dada por /5 (.) = 


 ≤ . =
el paralelismo entre variables discretas y continuas, puede definirse la función de probabilidad

∑0O P0 45 (.). La función de distribución cumple /5 (.QD0 ) = 1, donde .QD0 es el máximo valor
posible de X (estrictamente hablando, el valor supremo).

.% < .& < ⋯ < .9:& , puede escribirse 45 (. ) = /5 (. ) − /5 (.:& ).
Asimismo, las probabilidades pueden expresarse a partir de la función de distribución. Suponiendo

Esperanza matemática

Ω =
xT , 0 ≤ i ≤ M − 1 se define como
La media o esperanza matemática de la variable aleatoria discreta X de espacio muestral

9:&

V. = W
 = . 45 (. )
;%

que se observan N realizaciones . X , Y = 0, … , " − 1 de la variable aleatoria X; el promedio de


La esperanza matemática también tiene una interpretación frecuencial. Supongamos, por ejemplo,

todas ellas será


[:&
1
Z = .X
"
X;%

Agrupando los sumandos iguales, resulta


9:&
"
Z = .
" 
;%

Siendo " el numero de sumandos iguales a . . Dado que el cociente Ni/N se aproxima a 4.(. ) a
medida que aumenta N, el promedio se aproxima a la media.

La esperanza matemática puede aplicarse a cualquier función de X,


9:&

W
\() = \(. )45 (. )
;%

Existiendo algunos casos particulares de especial interés:

Valor cuadrático medio: W


 2
Varianza: ]52 = W
( − V.)2 = W
 2 − V52

Momento de orden : W
 ^

Momento central de orden : W


( − V.)2

De modo análogo se escribe la esperanza matemática de una variable aleatoria continua:


@

V. = W
 = E .<5 (.)$.
:@

Y, en general,
@

W
\() = E \(.)<5 (.)$.
:@

Los casos particulares definidos anteriormente también son de aplicación a variables continuas.
DISTRIBUCIONES DE INTERES

Variables Aleatorias Discretas

elementos: Ω =
.% , .& , con probabilidades
Bernoulli. Una variable aleatoria X se dice de Bernoulli si su espacio muestral tiene solamente dos

45 (.% ) = 4

45 (.& ) = 1 − 4

Habitualmente, .% = 0 y .& = 1, en cuyo caso la distribución de probabilidades admite una


representación más compacta:

45 (.) = (1 − 4)0 4&:0

La ocurrencia o no de cierto suceso S en un experimento aleatorio puede modelarse como una


variable de Bernoulli dada por

• X(“se ha producido S”) = 1


• X(“no se ha producido S”) = 0

Así, por ejemplo, esta variable aleatoria resulta útil en comunicaciones para analizar sucesos del
tipo “Se ha transmitido un bit de valor 1” o bien “El mensaje recibido contiene errores”.

desea evaluarse el número de veces que se produce cierto suceso S de probabilidad 


 = 4.
Binomial. Supongamos que cierto experimento aleatorio se repite n veces (independientes), y

puede demostrarse que, en tal caso, X es una variable aleatoria de espacio muestral Ω =
Considerando la variable aleatoria X que toma el valor k si el suceso S se ha producido k veces,

0,1,2, … ,  , con distribución de probabilidades

45 (_) = `^ab4a (1 − 4)^:a _ = 0, … , 

 !
c d=
_ _! ( − _)!

Su media es 4. Las distribuciones de esta forma se denominan binomiales.

Geométrica. El espacio muestral de la distribución geométrica es el conjunto de todos los enteros


no negativos. La distribución de probabilidades viene dada por

45 (_) = (1 − 4)a 4 _≥0

Donde 4 es un parámetro de la distribución.

La distribución geométrica surge, por ejemplo, cuando se desea evaluar la primera vez que se
produce un suceso S de probabilidad p es una sucesión infinita de realizaciones independientes de
cierto experimento aleatorio. Su valor medio (que es el tiempo medido de aparición del suceso)
puede calcularse como
@ @

W
 = _45 (_) = 4 (1 − 4) _(1 − 4)a:&
a;% a;&

Sabiendo que _(1 − 4)a:& = − fg (1 − 4)a , podemos escribir


f

@
$
W
 = −4(1 − 4) (1 − 4)a
$4
a;&

$ 1
−4(1 − 4) h − 1i
$4 4

1
= h − 1i
4

La distribución geométrica es útil en comunicaciones digitales para estimar el tiempo medido


transcurrido antes de producirse un error en una transmisión digital.

Poisson. La variable aleatoria de Poisson también toma valores enteros no negativos, y su función
de probabilidad se define como

45 (_) = _≥0
j kl mn
a!

Su medida y su varianza coinciden con λ.

Variables aleatorias continuas

Uniforme. Una variable continua X se denomina uniforme si su función de densidad de


probabilidad tiene la forma

1
<5 (.) = A − B , B≤.≤A u
0, o qBr qrstBt7r

Su media es
C
1 B+A
V5 = W
 = E .$. =
A−B 2
D

Y su varianza
C
2
1 1 (A − V5 )w (B − V5 )w
W
( − V5 ) = E(. − V5 )2 $. = v − x
A−B A−B 3 3
D
1
= (A − B)2
12

Gausiana. Una variable continua X se dice gausiana o normal si su función de densidad de


probabilidad tiene la forma

1 (0:{)|
<5 (.) = o
:
2} |
]√2z

Su media coincide con el valor del parámetro µ y su varianza con ] 2 .

La distribución gausiana es un buen modelo para muchos procesos aleatorios presentes en la


naturaleza. En particular, es un buen modelo del ruido en numerosos dispositivos eléctricos y
electrónicos, y en sistemas de comunicaciones digitales.

La variable gausiana de media cero y varianza unidad se conoce como una variable normal
unitaria. La probabilidad de que supere un valor x se calcula como
@ @
1 |

 ≥ . = E <5 (~)$~ = E o : 2 $~
√2z
0 0

La integral en la ecuación anterior no tiene solución analítica, sin embargo se dispone de la


solución en forma de una función tabulada, conocida por función de Q, que se define como
@
1 |
€(.) = E o : 2 $~
√2z
0

Una alternativa al uso de tablas o aproximaciones numéricas de la función Q consiste en el


establecimiento de cotas superiores e inferiores de la misma. Las cotas superiores más utilizadas
son

|
€(.) ≤ 2 o : | .≥0
&

|
€(.) < o .≥0
& :

|
0√2‚

Y una inferior es

|
€(.) < 0 c1 − 0|d o : | .≥0
& &
√2‚

La figura 3.2 muestra estas cotas junto a la función Q, donde podemos apreciar que tanto las
ecuaciones anteriores con muy ajustadas para valores grandes de x. observe además que el
|
termino dominante para valores grandes de x en las tres cotas es el mismo, o : | .
Weibull. Una variable Weibull de parámetros q ≥ 0 y ƒ ≥ 0 se caracteriza por una función de
densidad de probabilidad

<5 (.) = qƒ„ . „:& o :(m0) , .≥0


…

Que es la derivada de una función de distribución de expresión más sencilla:

/5 (.) = 1 − o :(m0) , .≥0


…

En el caso q = 2 y ƒ = 1/√‡, la fdp en la ecuación se simplifica en una distribución conocida como


Rayleigh
|
<5 (.) = o ‰, .≥0
20 :
ˆ

gausianas: si .% y & son gausianas independientes de media cero y varianza ] 2 , la variable dada
Alternativamente, podemos definir una variable aleatoria de tipo Rayleigh a partir de dos variables

por Š = ‹.%2 + .&2 sigue una distribución Rayleigh con ‡ = 2] 2 . Variables de este tipo las
encontramos con frecuencia en ciertos detectores en comunicación digitales.

Lognormal. La función densidad de probabilidad lognormal de parámetros V y ] se define por


|
<5 (.) = o .>0
(Œ kŽ)
& :
||
}√2‚0
,

Gamma. La variable aleatoria de tipo gamma de parámetros b y ƒ > 0 se define por

<5 (.) = ‘(C) ƒC . C:& o :m0 .>0


&

Donde Γ(A) = >% ~ C:& o : $~ es la función de Gamma.


@

Hay dos casos particulares de especial interés:

• Distribución exponencial. Es la distribución Gamma de parámetro A = 1, resultando

<5 (.) = ƒo :m0 , .>0

La distribución exponencial se utiliza frecuentemente para el modelado de la duración media


de paquetes de datos.

Distribución Chi-cuadrado (“” ). Se dice que una variable aleatoria tiene una distribución
. 2 con t grados de libertad si se ajusta a una distribución Gamma con los parámetros

ƒ = 1/2 y A = t/2. En este caso, la fdp en la ecuación de Gamma antes mencionada se


reduce a
•

<5 (.) = . |:& o :| 0≤.<∞


k
2 | • 
•
‘c d
|
También podemos definir una variable aleatoria tipo . 2 con t grados de libertad como la
suma de los cuadrados de t variables aleatorias normales unitarias independientes: sean
% , … , :& variables aleatorias gausianas de media nula y varianza unidad independientes
entre sí; si definimos la variable aleatoria como Š = %2 + ⋯ + :&
2

distribución  con t grados de libertad. A partir de aquí podemos también definir la


2
, esta posee una

distribución , que seria la que posee la variable – = √Š. Note que la distribución  con
dos grados de libertad (t = 2) es un caso particular de una distribución de Rayleigh.

Función de una variable aleatoria

Cualquier transformación sobre una variable aleatoria es, a su vez, otra variable aleatoria,
caracterizable por su función de probabilidad o de densidad de probabilidad, según se trate de una
variable discreta o continua, respectivamente.

Si  es una variable discreta de espacio muestral Ω. =


.% , … , .9:& , Š = \() es otra variable
aleatoria de dominio Ω. =
—% = \(.% ), … , —9:& = \(.9:& ) . Además, si la transformación \ es
invertible, resulta

4˜ (— ) = 
Š = — = 
 = . = 4.(. )

Si la transformación no es uno a uno (porque para uno o mas . se verifica que \(. ) = \(.a ) con
_ ≠ 7), se comprueba fácilmente que

4˜ (— ) = 4.(.a )
ua|›(0n );œO

El análisis en el caso continuo es algo más complejo. Sea  una variable aleatoria continua e
Š = \(). Entonces, puede escribirse

/˜ (—) = 
Š ≤ — = 
\() ≤ —

Supongamos, en primer lugar, que \ es una función estrictamente creciente. En tal caso, puede
definirse la función inversa . = ℎ(—) = \:& (—), y la ecuación anterior se reescriben como

/˜ (—) = 
 ≤ ℎ(—) = /5 (ℎ(—))

Por el contrario, si \ es estrictamente decreciente, un razonamiento análogo conduce a

/˜ (—) = 
Š ≤ — = 
 ≥ ℎ(—) = 1 − /5 (ℎ(—))
Derivando las dos ecuaciones inmediatas anteriores, según se trate de una función creciente o
decreciente, resulta

$ℎ(—)
<˜ (—) = <5 (ℎ(—)) ž ž

Ejemplo 3.4

Si  es una variable aleatoria gausiana de media V y varianza ], la variable Š = o 5 tiene una


distribución

(Œ(¡)kŽ)|
<˜ (—) = <5 (ln(—))     = o —>0
& & :
||
œ œ} √2‚

Y por tanto, es una variable lognormal.

Sabiendo que, para — = \(.).

$ℎ(—) $\(.) :&


ž ž=ž ž
$— $.

La ecuación <˜ (—) = <5 (ℎ(—))    


f¢(œ)

puede reescribirse como

$\(.)
:&
<˜ (—) = <5 (.) £ £ q¤B$r . = ℎ(—)
$.

Esta expresión puede generalizarse para funciones \ con tramos crecientes y decrecientes, de
modo análogo al caso discreto: la fdp resulta de la suma

$\(.) :&
<˜ (—) = <5 (.) ž ž
u0|›(0);œ
$.
Ejemplo 3.5

Considere la variable aleatoria  con fdp <5 (.) y la variable aleatoria Š = \() =  2 . La función
\(.) tiene como derivada = 2. y un tramo decreciente (. < 0) y un tramo creciente
f›(0)
f0
(. > 0). En el tramo decreciente la función inversa es . = ℎ(—) = −‹— y en el tramo creciente es
. = ℎ(—) = ‹—. Aplicando

$\(.)
:&
<˜ (—) = <5 (.) £ £
u0|›(0);œ
$.

Obtenemos

<5 (.) <5 (.) <5 (−‹—) <5 (‹—)


<˜ (—) = + = +
−2. 2. 2‹— 2‹—

Si  es una variable aleatoria gausiana de media V y varianza ] 2 ,

1 ( ϴ{)|
: √ |
( œ:{)|
: √ |
<˜ (—) = vo 2} + o 2} x
2‹2z—]

Esperanza matemática

De acuerdo con la definición de esperanza matemática, la media de Š = \() puede calcularse


por dos procedimientos: como esperanza matemática de Š.
@

W
Š = E —<˜ (—)$—
:@

O bien como esperanza matemática de \().


@

W
\() = E \(.)<5 (.)$.
:@

supondremos que \ es una función estrictamente creciente. Llamando ℎ = \:& a su inversa, y


Cabe preguntarse si ambos procedimientos conducen al mismo resultado. Para simplificar,

haciendo el cambio de variable — = \(.), la integral inmediata anterior puede escribirse como
@
$\ :&
W
\() = E —<5 (ℎ(—)) h (ℎ(—))i $—
$.
:@
Sabiendo que

$\ :&
$ℎ(—)
h (ℎ(—))i =
$. $—

Resulta
@
$ℎ(—)
W
\() = E —<5 (ℎ(—)) $—

:@

Por último, en virtud de <˜ (—) = <5 (ℎ(—))     y teniendo en cuenta que, si \ es estrictamente
f¢(œ)

creciente, su inversa también lo es, de modo que <5 `ℎ(—)b = <5 `ℎ(—)b     = <˜ (—),
f¢(œ) f¢(œ)
fœ fœ
resulta

W
\() = W
Š

propiedad es válida para cualquier función \, no necesariamente creciente.


Por tanto, el valor medio es independiente de la variable que se utilice para su cálculo. Esta

Supongamos, por ejemplo, que la variable aleatoria continua  tiene media V5 y varianza ]52 , y se
Un caso particular de interés es aquel en el que la relación entre las variables es lineal.

define la variable Š = B + A, siendo B y A constantes conocidas. De acuerdo con la ecuación


inmediata anterior, la media de Š es
@ @

V˜ = W
Š = W
B + A = E (B. + A)<5 (.)$. = B E .<5 (.)$. + A
:@ :@

= BV5 + A

Y su varianza

W
(Š − V˜ )2 = W
(B + A − BV5 − A)2 = W
B2 ( − V5 )2 = B2 ]52

Variables aleatorias conjuntamente distribuidas

Considere el experimento consistente en lanzar dos dados y observar el resultado. Si estamos


interesados en el valor que toma cada dado, el “resultado” es la combinación de los resultados de

simultanea de dos dados específicos. Por ejemplo, si & es el resultado de lanzar el dado 1 y 2 es
cada dado, y su probabilidad puede medirse recurriendo a la probabilidad de la ocurrencia

el resultado de lanzar el dado 2, podemos calcular las probabilidades de la configuración “& = 6”,
“2 = 4” como 
& = 6, 2 = 4 . De forma general, podemos definir la función de probabilidad
conjunta 4& , 2 (.& , .2 ) que, para cada posible valor de .& y .2 , devuelve la probabilidad del
suceso “& = .& ” y “2 = .2 ”.

Variables discretas

De forma general, dada una colección de variables aleatorias  =


 , 7 = 0, … , " − 1 de
espacios muestrales W ∈ ℝ, respectivamente, se define la función de probabilidad conjunta de
las variables en  como aquella función que devuelve, para cada configuración posible de valores

función como 4% , … , [:& (.% , … , .[:& ). Asimismo, puede construirse el vector aleatorio
de las variables, su probabilidad de ocurrencia simultanea. De forma general, denotaremos esta

%

=¦ & ¨

[:&

En cuyo caso la función de probabilidad conjunta admite la representación 4© (.).

subconjunto de las variables en  se puede obtener a partir de la probabilidad conjunta, mediante


A partir de esta definición, no es difícil demostrar que la función de probabilidad asociada a un

suma sobre todos los valores posibles de las otras variables. Esta operación suele denominarse
marginalización. Así, por ejemplo,

4% , … , [:2 (.% , … , .[:2 ) = 4% , … , [:& (.% , … , .[:2 , .[:& )


0ªk« ∈¬ªk«

4 (. ) = … … 4% , … , [:& (.% , … , .[:2 , .[:& )


0­ ∈¬­ 0Ok« ∈¬Ok« 0O®« ∈¬O®« 0ªk« ∈¬ªk«

La media V5 de un vector aleatorio  tiene una definición similar al de una variable escalar

V5 = W
 = … .45 (.)
0­ ∈¬­ 0ªk« ∈¬ªk«

Potrebbero piacerti anche