Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
ALUMNO
Ethetson Pineda (edpineda_535_@hotmail.com)
DOCENTE:
Ing. Paulo Samaniego
ENTROPIA CONJUNTA
(, ) = ( , )
=1 =1
1
( , )
DEFINICION
Se define la entropa conjunta de las variables aleatorias X e Y como la entropa
de la variable bidimensional (X, Y)
( ) = ( , )
( ) = ( , )
Entonces
() = ( , )
() = ( , )
1
( )
1
( )
Por tanto
() + () = ( , )
( , )
1
( )( )
1
( )( )
= () + ()
Donde la desigualdad se sigue de la desigualdad de Gibbs; por lo que se tiene,
adems, que se cumplir la igualdad si y solo si se verifica que
( , ) = ( )( ) ( , )
EJEMPLO
Sea (X, Y) una variable aleatoria bidimensional con la siguiente distribucin
conjunta
1
1
8 16
1
1
p ( x, y ) 16 8
1
1
16 16
1
0
1
32
1
32
1
16
0
1
32
1
32
1
16
( , ) = 1
1
1
1 1
+4
+ =1
( , ) = 2 + 6
8
16
32 4
( ) = ( , )
( ) = ( , )
1 1 1
1
+ +
+0=
16 8 16
4
1
1
1
1
+
+
+0=
32 32 16
8
1
1
1
1
+
+
+0=
32 32 16
8
1 1 1 1
( ) = ( , ) = ( , , , )
2 4 8 8
=1
1 1 1
1
1
+ +
+
=
16 8 32 32 4
1
1
1
1
1
+
+
+
=
16 16 16 16 4
1
1
+0+0+0 =
4
4
1 1 1 1
( ) = ( , ) = ( , , , )
4 4 4 4
1 1 1 1
1
1
() = ( , , , ) = 4 ( 2 ) = 2
4 4 4 4
4
4
La entropa conjunta podemos calcularla directamente de la matriz
1
1
1
1
1
1
(, ) = 2 ( 2 ) 2 6 ( 2 ) 4
8
8
4
4
16
16
1
1
27
( 2 ) =
= 3,37
32
32
8
(, ) () + ()
3.37 1.75 + 2
3.37 3.75
REFERECIAS BIBLIOGRAFICAS