Sei sulla pagina 1di 63

Teoría de la Información y Codificación.

Abramson, Norman.
Teoría General de Sistemas.
Van Gich, John P.
La información y su probabilidad
 El servicio meteorológico emite los siguientes mensajes
sobre la ciudad:
 Mensaje 1 : Nublado.
 Mensaje 2: Bruma.
 Mensaje 3: Lluvia.
 Mensaje 4: Soleado.
 ¿Cuál nos da más información sobre cómo funciona el
tiempo atmosférico?
 Sería el mensaje 2 ya que es lo menos habitual.
La información y su probabilidad
 La cuestión a resolver es cómo calcular la cantidad de
información que nos proporciona el conocimiento de un
determinado suceso.
 Una manera acorde con nuestra experiencia de valorarla, es
mediante el nivel de sorpresa, o lo que es lo mismo,
mediante el grado de desconocimiento que se tenga a priori
del suceso:

Cuanto más probable sea Menor será la sorpresa que


un suceso (1) cause el acontecimiento

Cuanto menos esperado sea Mayor será cantidad de


un suceso (2) información proporcionada
La información y su probabilidad
 En una organización, el supervisor de la línea pide un
informe de todas las máquinas.
 Qué informe provoca mayor sorpresa?
 Todas funcionan Ok.
 Hay una parada en una de ellas.
 Hay un corte de energía en toda la planta.

 Cuál de los tres mensaje aporta más información?


La información y su probabilidad
 ¿ Cómo medir el grado de sorpresa de un determinado
suceso? Por su probabilidad de aparición.

 Uniendo lo indicado en los puntos (1) y (2), se puede


concluir que la cantidad de información proporcionada por
un suceso es una función inversa de su probabilidad:
Concepto matemático de información
 Hemos dicho que un suceso menos probable nos aporta más información que uno más
probable, por lo que la información debe ser inversamente proporcional a la
probabilidad.
 Es decir, a menor probabilidad, más información.
 Pero debe de cumplir otra propiedad.
 Supongamos que estamos considerando la información de dos sucesos independientes,
es decir, que uno no depende del otro. Si tiro un dado y obtengo un 6 y tiro otro dado y
obtengo otro 6, ambos sucesos son independientes ya que el resultado del segundo dado
no está influenciado por el primero. La probabilidad de que ocurra esto se calcula
multiplicando ambas probabilidades
 Si A y B son eventos independientes, P(A y B) = P(A) • P(B).
 En general, para cualquier número de eventos independientes, la probabilidad de que
todos los eventos sucedan es el producto de las probabilidades de que sucedan los
eventos individuales.
Concepto matemático de
información
 ¿Qué podemos decir de la cantidad de información contenida en estos
dos sucesos? Pues si queremos que nos salga un 6 y nos sale, nos
sorprendemos. Aunque no mucho. Pero, si nos sale otro 6 a
continuación la sorpresa es mayor.
 Así, la información total contenida en estos dos acontecimientos debe
ser la suma de ambas.
 En consecuencia, la fórmula de la información tiene que ser una
función tal que la información del producto de dos probabilidades sea
igual a la suma de la información contenida en los acontecimientos
individuales.

 Hay solamente una función así, y es la función logarítmica o el

logaritmo (log).
Concepto matemático de
información
 Así, la definición moderna y matemática de la
información de un acontecimiento es proporcional al
logaritmo de la inversa de la probabilidad del
acontecimiento.
1
I ( E )  Log n
P( E )
 Otra forma de expresar esto mismo es:

I ( E )  log n 1  log n P ( E )  0  log n P ( E )   log n P ( E )


Codificación de la información
 La siguiente tabla muestra un ejemplo sencillo de representación de información
no binaria en función de los dígitos binarios 0 y 1.

Mensaje Representación Probabilidad


binaria
Nublado 00 1/4
Bruma 01 1/4
Lluvia 10 1/4
Soleado 11 1/4

 A la correspondencia entre mensajes y representación binaria la llamaremos


Código A
 Con esta codificación se necesitan 2 dígitos binarios (BINary digIT) por mensaje.
Codificación de la información
 Durante el desarrollo del tema emplearemos la
contracción binit para designar un dígito binario. Es
importante establecer una distinción entre binit (BINary
digIT ) y bit (unidad de información) que definiremos más
adelante. Como veremos, en algunas circunstancias, un
binit puede contener un bit de información.
Codificación de la información
 Utilicemos ahora otra codificación, y supongamos otras
probabilidades

Mensaje Representación Probabilidad


binaria
Nublado 10 1/4
Bruma 110 1/8
Lluvia 1110 1/8
Soleado 0 1/2

 ¿Cuántos binit se necesitarían en promedio para transmitir


un mensaje?
2 P(nublado)  3P(bruma)  4 P(lluvia)  1P( soleado)
Codificación de la información
 Utilicemos ahora otra codificación, y supongamos otras probabilidades

Mensaje Representación Probabilidad


binaria
Nublado 10 1/4
Bruma 110 1/8
Lluvia 1110 1/8
Soleado 0 1/2

 ¿Cuántos binit se necesitarían en promedio para transmitir un mensaje?

2 P(nublado)  3P(bruma)  4 P(lluvia)  1P ( soleado)


MP  _ binit _ por _ mensaje
P( nublado)  P( Bruma)  P(lluvia)  P ( soleado)
Codificación de la información
 ¿Cuántos binit se necesitarían en promedio para transmitir un mensaje?

2 P (nublado)  3P (bruma )  4 P (lluvia )  1P ( soleado)


MP 
P (nublado)  P ( Bruma)  P (lluvia )  P ( soleado)

1 1 1 1 1 3 1 1 43 4 4
2  3  4 1   
4 8 8 2 2 8 2 2 8 15
Mp    
1 1 1 1 2 11 4 8 8
  
4 8 8 2 8 8

Binit por mensaje


Codificación de la información
 Es posible recolectar, almacenar, procesar o transmitir el
mismo tipo de información con un menor número de
binits en promedio.
 Es decir, teniendo el cuenta la probabilidades de los
mensajes podemos definir la cantidad de dígitos binarios
que necesitamos para recolectar, almacenar , procesar o
transportar cada mensaje cuando representamos los
mensajes en un código binario.
Definición de información
 Sea A un suceso que puede presentarse con Probabilidad
P(A). Cuando A tiene lugar, decimos que hemos recibido

1
I ( A)  log n unidades _ de _ inf ormación
P ( A)
 La definición moderna y matemática de la información de
un acontecimiento es proporcional al logaritmo de la
inversa de su probabilidad.
Definición de información
1
I ( A)  log n unidades _ de _ inf ormación
P ( A)

 La base del logaritmo determina las unidades de medida de


la información, si n=e la unidad es nats, si n=2 la unidad es
el bits y si n= 10 la unidad es el Hartley.
1
I ( A)  log 2   log 2 P ( A)bits
P ( A)

 nat = contracción de NAtural uniT (unidad natural)


 Bit = contracción de BInary uniT (Unidad binaria)
Definición de información
 Regresemos a nuestro ejemplo y calculemos la cantidad
de información que aporta cada mensaje
Mensaje Representación Probabilidad
binaria
Nublado 10 1/4
Bruma 110 1/8
Lluvia 1110 1/8
Soleado 0 1/2

1 1 1 1
I (10)  log 2  log 2  2 _ bits I (110)  log 2  log 2  3 _ bits
P(10) 1 4 P (110) 1 8

I (110)  I (1110) I (0)  log 2


1
 log 2
1
 1 _ bit
P (0) 1 2
Definición de información
 Regresemos a nuestro ejemplo y revisemos la cantidad de dígitos
binarios que se necesitan para transmitir cada mensaje y la
cantidad de información que aporta cada mensaje.

Mensaje Código Probabilidad Binit para Unidad de


binario de transmitir información que
ocurrencia aporta (bit)
Nublado 10 1/4 2 2
Bruma 110 1/8 3 3
Lluvia 1110 1/8 4 3
Soleado 0 1/2 1 1
Definición de información
 Consideremos ahora otro ejemplo… el de una fuente que puede emitir sólo
2 mensajes

Mensaje Código Probabilidad Binit para Unidad de


binario de transmitir información que
ocurrencia aporta (bit)
Nublado 0 ½ 1 1
Soleado 1 1/2 1 1

 En el caso de una fuente que emita dos mensajes equiprobables, cada dígito
binario (binit) lleva 1 bit de información .
Definición de información
 Consideremos ahora otro ejemplo… el de una fuente que puede emitir sólo
2 mensajes, pero las probabilidades son diferentes

Mensaje Código Probabilidad Binit para Unidad de


binario de transmitir información que
ocurrencia aporta (bit)
Nublado 0 ¼ 1 2
Soleado 1 3/4 1 0,41

 En este caso, mientras el dígito binario 0 lleva 2 bits de información, el

dígito binario 1 lleva menos información que un bit por ser el más probable.
Definición de información
 Atención: un dígito binario puede llevar más de 1 bit de
información, o menos, dependiendo de su probabilidad de
ocurrencia.
 Por ello, no siempre es correcto decir que un 1 ó un 0 es un
bit, ya que esto puede interpretarse como la unidad de
información. Esto sólo es cierto para sucesos equiprobables,
o sea que la probabilidad de que ocurra un 0 es igual a la
probabilidad de que ocurra un 1 y es igual al 50%.
Entropía
 Imaginemos una fuente emitiendo secuencia s de símbolos
pertenecientes a un alfabeto finito y fijo S={s1, s2,…, sn}.

 Los símbolos emitidos sucesivamente son estadísticamente


independientes. Tal fuente de información se conoce como
fuente de memoria nula y puede describirse
completamente mediante el alfabeto fuente S y las
propiedades con que los símbolos se presentan : P(s1),
P(s2),…, P(sn)
Entropía
 La presencia de un símbolo si corresponde a una
cantidad de información igual a

1
I ( si )  log 2 bits
P( si )
 De modo que la cantidad media de información por
símbolo de la fuente es

H ( S )   P ( si )I ( si )bits
S
Entropía
H ( S )   P ( si )I ( si )bits
S

 Esta magnitud, cantidad media de información por


símbolo de la fuente, recibe el nombre de entropía
H(S) de la fuente de memoria nula.
Entropía  P(s )I (s )bits
i i
S

 Donde
 s indica la suma extendida a n símbolos

de la fuente S.
 Esta magnitud, cantidad media de información por
símbolo de la fuente recibe el nombre de Entropía
H(S) de la fuente de memoria nula.
1
H ( S )   P ( si ) log 2 bits
S P ( si )
Entropía
 Ejemplo:
 Consideremos la fuente S={s1, s2, s3} con P(s1) = ½
y P(s2) = P(s3)= 1/4 . Entonces

H(S) puede ser bien el valor medio de la información por


símbolo suministrada por la fuente, o el valor medio de
la incertidumbre de un observador ante de conocer la
salida de la fuente.
Entropía
 Imagine ahora que se tienen 4 sucesos equiprobables… cuál cree
que será la entropía? La situación será de mayor incertidumbre
en cuanto P(s1)= P(s2) = P(s3) = P(s4)

1 1
H ( S )   log 2  2bits
S 4
1 4
Entropía
 En sistema cerrados esta es la situación de máximo desorden,
variedad.
 Un sistema muestra alta o baja entropía (variedad,
incertidumbre, desorden).
 Reducir la entropía de un sistema, es reducir la cantidad de
incertidumbre que prevalece.
 La incertidumbre se disminuye al obtener información. La
Información, en el sentido de la teoría sobre la información,
posee un significado especial que está ligado al número de
alternativas en el sistema.
Entropía
 Si uno se enfrenta a elegir entre 8 alternativas equiprobables, la
entropía de la incertidumbre que existe es de 3 bits.

 4 elecciones entre las 8 alternativas, reducirá la incertidumbre a


2 dígitos binarios.

 Otras 2 elecciones estrecharán la incertidumbre a 2 alternativas y


la entropía a 1 dígito binario. Con sólo 2 alternativas restante, una
elección final elimina la incertidumbre y la entropía se reduce a
0.
Dualidad de Entropía-Información
Justo como la cantidad de información en un sistema, es una
medida de su grado de organización, de la misma manera la
entropía de un sistema es una medida de su grado de
desorganización; y una es simplemente lo negativo de la
otra.
Por lo tanto asociamos la entropía con desorganización, e
información con organización.
También se dice que la entropía es el desgaste que el sistema
presenta por el transcurso del tiempo o por el
funcionamiento del mismo
En un sistema aislado (cerrado) la entropía siempre tiende a
aumentar y nunca a reducirse. Siempre será positiva
Entropía negativa (neguentropia)
 En sistemas abiertos biológicos o sociales, le entropía
puede ser reducida o mejor, convertirse en entropía
negativa (un proceso hacia una organización más
completa y capaz.).
 Esto es posible porque en los sistemas abiertos los
recursos usados para reducir el proceso de entropía se
toman del medio externo.
Conceptos de Repaso

1. Probabilidades
2. Media y Media ponderada
3. Logaritmo
Probabilidad
• Si dejamos caer una piedra o la lanzamos, y conocemos las
condiciones iniciales de altura, velocidad, etc., sabremos
con seguridad dónde caerá, cuánto tiempo tardará, etc.
Esta es una experiencia determinista.

• Si echamos un dado sobre una mesa, ignoramos qué cara quedará


arriba. El resultado depende del azar. Esta es una experiencia
aleatoria.
– Experimentos o fenómenos aleatorios son los que pueden dar
lugar a varios resultados, sin que pueda ser previsible enunciar
con certeza cuál de éstos va a ser observado en la realización
del experimento.
– Suceso aleatorio es un acontecimiento que ocurrirá o no,
dependiendo del azar.
Probabilidad
• Espacio muestral es el conjunto formado por
todos los posibles resultados de un
experimento aleatorio. En adelante lo
designaremos por E.
Ejemplos:
– En un dado, E={1,2,3,4,5,6}
– En una moneda, E={C,+}
Probabilidad
• Cada elemento de E se llama suceso individual o suceso
elemental.

• Un hecho importante es que el comportamiento del azar es


impredecible en pocas repeticiones pero presenta un
comportamiento regular y predecible con muchas
repeticiones.

Pocas repeticiones Comportamiento Impredecible

Muchas repeticiones Comportamiento Regular


Probabilidad
• Un experimento aleatorio se caracteriza porque repetido
muchas veces y en idénticas condiciones el cociente entre el
número de veces que aparece un resultado (suceso) y el
número total de veces que se realiza el experimento tiende a
un número fijo.

• Sea A un suceso de E, entonces la frecuencia relativa del


suceso A:
número _ de _ veces _ que _ aparece _ A
f ( A) 
número _ de _ veces _ que _ se _ realiza _ el _ exp erimiento
Probabilidad
• Probabilidad de un suceso es el número al que tiende la frecuencia
relativa asociada al suceso a medida que el número de veces que se
realiza el experimento crece.
• Definición de Laplace. En el caso de que todos los sucesos
elementales del espacio muestral E sean equiprobables, la
probabilidad del suceso A es el cociente entre el número de
resultados favorables en que ocurra el suceso A en el experimento y
el número de resultados posibles del experimento.
Probabilidad
Ejemplo 1:
• Probabilidad de que al lanzar un dado salga el número 2: el
caso favorable (f) es tan sólo uno (que salga el 2), mientras
que los casos posibles (n) son 6 (puede salir cualquier número
del 1 al 6).
f 1
P(2)    0.166  16.6%
n 6
Probabilidad
Ejemplo 2:
• Probabilidad de que al lanzar un dado salga un número par:
en este caso los casos favorables (f) son tres (que salga el 2, el
4 o el 6), mientras que los casos posibles (n) siguen siendo 6.

f 3
P(2,4,6)    0.50  50%
n 6
Probabilidad
Ejemplo 3:
• Si tiramos una moneda que no esté trucada puede ocurrir que
salga cara o cruz (despreciemos el canto). Entonces, la
probabilidad se calcula de la siguiente manera:

f 1
P (cara)    0.5  50%
n 2
Esto quiere decir, que si hago un largo número de tiradas o, si
tiro mil veces una moneda hay muchas posibilidades de que
500 sean cara y 500 cruz. Aunque se puede obtener 590 caras
y 410 cruces.
Probabilidad
• Regla 1: La probabilidad P(A) de cualquier suceso A cumple
que:
0 ≤ P(A) ≤ 1
Cualquier probabilidad es un número entre 0 y 1.
Un suceso con una probabilidad 0 no ocurre nunca.
Mientras que un suceso con una probabilidad 1 ocurre en
todas las repeticiones.
Un suceso con una probabilidad de 0,5 ocurre, después de
muchas repeticiones, la mitad de las veces.
Probabilidad
• Regla 2: Si S es el espacio muestral de una modelos de
probabilidad, entonces :
P(S) = 1
La probabilidad de todos los resultados posible, considerados
conjuntamente, tiene que ser 1. Debido a que en cada
repetición siempre obtenemos algún resultado, la suma de las
probabilidades de todos los resultados posibles tiene que ser
exactamente 1.
Probabilidad
• Regla 3: Para cualquier suceso A :
P(no ocurra A) = 1 – P(A)
La probabilidad de que un suceso no ocurra es 1 menos la
probabilidad de este suceso ocurra.
Si un suceso ocurre en, digamos, el 70% de las repeticiones,
deja de ocurrir en el 30% de las mismas. La probabilidad de un
suceso ocurra y la probabilidad de que no ocurra siempre
llega hasta el 100%, es decir, es 1.
Probabilidad
• Regla 4: Dos sucesos A y B son disjuntos si no tienen resultados en
común, es decir, no pueden ocurrir nunca de forma simultánea. Si A
y B son disjuntos:
P(A o B) = P(A) + P(B)
Si un suceso ocurre el 20% de todas las repeticiones y otro suceso
diferente ocurre el 30% de todas las repeticiones, y los dos sucesos
no se pueden producir simultáneamente, entonces la probabilidad de
que ocurra uno de ellos es del 50%, ya que 20% + 30% = 50%.
Esta es la regla de la suma de sucesos disjuntos.
Probabilidad
• Regla 5: Dos sucesos A y B son estadística independientes cuando la
ocurrencia de un suceso no se ve afectado por la ocurrencia del otro
suceso. Si A y B son sucesos independientes:
P(A y B) = P(A) * P(B)
Si un suceso ocurre el 20% de todas las repeticiones y otro suceso
diferente ocurre el 30% de todas las repeticiones, y los dos sucesos
son estadísticamente independientes, entonces la probabilidad de
que ocurra ambos es del 6%, ya que 20% * 30% = 6%.
Media aritmética y Media aritmética
ponderada
• La media aritmética corresponde a un valor representativo de
un conjunto de datos numéricos. Se trata de una medida que
aporta una cifra con un valor medio. La media
aritmética también recibe el nombre de promedio o
simplemente media
• El símbolo de la media aritmética es este X
• Se representa con una "x" con un guión en su parte superior.
La medida intenta equilibrar las cifras por exceso y por
defecto.
• La fórmula de la media aritmética es esta:
x1  x 2  ...  x n
Media( X )  x 
n
Media aritmética y Media aritmética
ponderada
• Ejemplo: 10 alumnos rindieron un examen, habiendo
obtenido las siguientes nota: 2,4,6,7,4,5,7,8,10,9.

2  4  .6  7  4  5  7  8  10  9
Media ( X )  x   6,2
10
Media aritmética y Media aritmética
ponderada
• Imagina que tenemos un dado de seis caras, donde en
tres de las caras tenemos al valor 2 y en las otras tres el
valor 4. Es decir, que los resultados posibles son 2 y 4. Si
calculo la media de los resultados que obtengo, si hago
muchas tiradas el valor promedio se acercará a la media
aritmética:

 Xi
222444
X i 1
 3
n 6
Media aritmética y Media aritmética
ponderada
• La media aritmética ponderada es una medida de tendencia
central, que se da asignándole a cada clase un peso,
y obteniendo un promedio de los pesos, teniendo estos
pesos valores diferentes.
• Es decir, algunos tienen una importancia relativa (peso)
respecto a los demás elementos. La diferencia cuando
calculamos la media aritmética es que a todos los pesos se les
da el mismo valor.
• La media aritmética ponderada consiste en otorgar a cada
observación del conjunto de datos unos pesos según la
importancia de cada elemento. Teniendo en cuenta que
cuanto más grande sea el peso de un elemento, más
importante se considerará.
Media aritmética y Media aritmética
ponderada
• Para entender mejor el significado de la media
aritmética ponderada podemos basarnos en el
ejemplo de la nota final de una asignatura en la
que varios factores interfieren en la calificación última,
pero no todos ellos tienen el mismo "peso", hablamos
de: exámenes, trabajos, asistencia, prácticas, etc.
• Si el examen es lo más valioso y la asistencia lo que
menos contará obtendremos la calificación
final hallando la media aritmética ponderada de los
valores totales de todas las notas obtenidas,
pero diferenciando la nota obtenida del término más
importante del que menos.
Media aritmética y Media aritmética
ponderada
 Para calcular el valor esperado debemos sumar el producto de cada
valor por su probabilidad, según la siguiente ecuación:

Imaginemos que los pesos otorgados a examen, trabajos prácticos y


asistencias son 5, 3 y 1 respectivamente y que un alumno obtuvo las
siguientes notas por cada uno de dichos ítems: 8, 9 y 9. Entonces su
promedio es:
5 * 8  3 * 9  1 * 9 40  27  9
MP    8,44
5  3 1 9
Media aritmética y Media aritmética
ponderada
• Imagina ahora que tenemos un dado de tres caras, donde en dos de
ellas tengo el valor 4 y en la otra el valor 2.
• La probabilidad de obtener un 2 es de 1/3 y de sacar un 4 de 2/3.
• Ahora, si hacemos muchas tiradas, la media o el valor esperado no se
acerca a 3 sino a 3,333… Es lógico, ya que hay un número menor que
3 (un dos) y dos mayor que 3 (dos cuatros).

1 2 2 8
*2  4 
3 3 3 3 10
MP     3,33333
1 2 3 3

3 3 3
Media aritmética y Media aritmética
ponderada
• Para una variable aleatoria discreta X con valores posibles
x1, x2,…, xn y sus probabilidades representadas por la
función de probabilidad p(xi) la media se calcula como:

n
E ( X )  p 1 x 1  p 2 x 2  ...  p n x n   i 1
pi xi

• Es decir, la media se define como la suma del producto de


cada valor de la variable aleatoria considerada por
su probabilidad.
• En el caso anterior los valores que puede tomar la variable
aleatoria son: 2 y 4. Y sus probabilidades respectivas son
1/3 y 2/3.
Media aritmética y Media aritmética
ponderada
• También se define como el promedio ponderado de los
valores que puede asumir la variable aleatoria.
• Las ponderaciones están dadas por las probabilidades de que
tome los distintos valores.
• E(X) representa la cantidad media que se "espera" como
resultado de un experimento aleatorio cuando la probabilidad
de cada suceso se mantiene constante y el experimento se
repite un elevado número de veces.
Media aritmética y Media aritmética
ponderada
Meses Niños
Un pediatra obtuvo la siguiente tabla sobre los meses de
edad de 50 niños de su consulta en el momento de andar
9 1 por primera vez:

10 4
• Según esta tabla, cuál niño tiene mayor probabilidad
de caminar: el de 9 o el 12 meses?
11 9
• 2 mamás consultan al pediatra, sus hijos tienen 13 y
12 16
15 meses. Respectivamente. Ninguno camina aún. El
pediatra solicita una radiografía de cadera para el niño
13 11 de 15 meses ¿Por qué no toma esta decisión sobre el
de 13 meses?
14 8
• Según estos datos a qué edad se espera que camine
15 1 un niño?
Media aritmética y Media aritmética
ponderada
En un maternal los nenes de la sala bebes
Meses Niños aprendieron a camino entre los 9 y 15 meses.

9 2 • Según esta tabla, cuál niño tiene mayor


probabilidad de caminar: el de 9 o el 11
10 2
meses?
11 3
• Según estos datos a qué edad se espera que
12 2 camine un niño?

13 2 • Qué diferencias puede notar respecto del


caso anterior?
14 2

15 2
Logaritmo y sus propiedades
Se define logaritmo como el exponente de una potencia con
cierta base, es decir, el número al cual se debe elevar una base
dada para obtener un resultado determinado.
Por ejemplo:
50=1
51 = 5
52 = 25
53 = 125, etc.
Luego, siendo la base 5, el logaritmo de 1 (que se escribe log5 1)
es 0, por que 0 es el exponente al que hay que elevar
la base 5 para que dé 1; el log5 5 es 1; el log5 25 es 2, el log5 125
es 3, etc.
Logaritmo y sus propiedades
• No existe el logaritmo de los números negativos.
• El argumento y la base de un logaritmo son números reales
positivos. Además, la base no puede ser 1. Es decir, en la expresión logb a,
siempre, por definición, a R+ y b R+ – {1}.
• La expresión logb a , se lee como: “logaritmo de a en base b”.
Ejemplo1:
Calcula el valor de log7 343 equivale a resolver la ecuación:
log7 343 = x
Entonces, ya que la base del logaritmo es 7, el exponente no se conoce y
343 es el argumento, es decir, el valor de la potencia, se puede escribir:
7x =343
7x = 7 3
luego, igualando los exponentes, se concluye que
x= 3
Luego, log7 343 = 3
Logaritmo y sus propiedades
• Para una definición más completa de logaritmos, se
determinarán restricciones respecto de su base y su
argumento.

Propiedades
1. Logaritmo de la unidad
El logaritmo de 1 en cualquier base es igual a 0.
logb (1) = 0 ; con b ≠ 1.
Ej: log5 (1) = 0 porque 50 =1
log7 (1) = 0 porque 70 = 1
log20 1 = 0 200 = 1
Logaritmo y sus propiedades
Propiedades
2- Logaritmos de la base
El logaritmo de la base es igual a 1.
logb (b) = 1 ; con b ≠ 1.
Ej:
log5 (5) = 1 51 = 5
log6 (6) = 1 61 = 6
log12 (12) = 1 121 = 12
Logaritmo y sus propiedades
Propiedades
3- Logaritmo de una potencia con igual base:
El logaritmo de una potencia de un número es igual al
producto entre el exponente de la potencia y el logaritmo
del número.
logb bn = n, con b ≠ 1

Ejemplo: log6 6 3 = 3
Logaritmo y sus propiedades
Propiedades
4- Logaritmo de un producto
El logaritmo de un producto es igual a la suma de los
logaritmos de los factores.
logb (a • c) = logb a + logb c

Ejemplo: logb (5 • 2) = logb 5 + logb 2


Logaritmo y sus propiedades
Propiedades
5- Logaritmos de un cociente
El logaritmo de un cociente es igual al logaritmo del
dividendo, menos el logaritmo del divisor.

Ejemplo:

Potrebbero piacerti anche