Sei sulla pagina 1di 283

1

MAESTRÍA DE SALUD PÚBLICA

MÓDULO 3

ESTADÍSTICA

PROGRAMA

La Habana/Caracas
2007
2

Módulo 3. Estadística

Objetivos:

• Elaborar, procesar, analizar y presentar datos estadísticos derivados de la


gestión o investigación en salud pública, así como de situaciones
modeladas análogas.

• Seleccionar, calcular e interpretar los principales indicadores sanitarios y


demográficos que se utilizan en la toma de decisión e investigación en
el ámbito sanitario.

• Identificar las leyes de distribución de probabilidades más usadas, a


través del análisis de sus propiedades, para ser aplicadas en procesos
de inferencia estadística en el ámbito sanitario.

• Dominar los conceptos básicos de la Inferencia Estadística que permite


fundamentar y emplear los métodos que se utilizan en el campo de las
investigaciones de salud y biomédicas.

Plan Temático:

3.1 Estadística Descriptiva

3.2 Estadística de Salud

3.2 Introducción a la Teoría de Probabilidades

3.4 Introducción a la Inferencia Estadística

1
3

Contenido:

3.1 Conceptos básicos. Distribuciones de frecuencia. Métodos de representación


estadística: tabular y gráfico. Medidas de resumen para variables
cualitativas. Medidas de resumen para variables cuantitativas. Análisis de
Series Cronológicas. Uso de paquetes computacionales.

3.2 Estadísticas de Salud. Introducción. Clasificación de las Estadísticas de


Salud. Indicadores sanitarios y demográficos más utilizados. Uso de
paquetes computacionales.

3.3 Probabilidad. Conceptos básicos. Experimentos y sucesos aleatorios.


Variables aleatorias. Distribuciones de probabilidades de una variable
aleatoria. La distribución Binomial, Poisson, Normal, Ji Cuadrado y t de
Student. Uso de paquetes computacionales.

3.4 Distribuciones muestrales de la media, de la proporción y de la diferencia


entre medias y proporciones. Estimación de parámetros: puntual y por
intervalos de confianza, para una media, para la diferencia entre dos medias
poblacionales, así como para la proporción y para la diferencia entre dos
proporciones poblacionales. Prueba de hipótesis para una media, para la
diferencia entre dos medias poblacionales. Análisis de la varianza de una
vía. Prueba de hipótesis para una proporción poblacional y para la diferencia
entre dos proporciones. Pruebas de homogeneidad e independencia.
Regresión y Correlación Lineal. Uso de paquetes computacionales.

Evaluación:

La evaluación del tema, forma parte del sistema evaluativo del curso; este
incluye la evaluación, por parte del profesor, de las respuestas a los trabajos
individuales y de grupo. A ello se le adicionará una prueba escrita de los
contenidos del tema. La Evaluación Final se realizará mediante la integración
de todos los componentes de ésta, en escala cualitativa (excelente, bien,
aprobado, desaprobado)

2
4

Selección de lecturas

1. Estadística descriptiva. En: Bayarre Vea H, Oliva Pérez M, Horsford


Saing R, Ranero Aparicio V, Coutin Marie G, Díaz Llanes G et al. Libro
de Texto de Metodología de la Investigación. Maestrías para
profesionales de la Atención Primaria de Salud. La Habana; 2004.

2. Astraín Rodríguez ME. Estadísticas de Salud y Población. Material


Docente. ENSAP; 2000.

3. Teoría elemental de Probabilidades. En: Bayarre Vea H, Oliva Pérez M.


Estadística Inferencial. La Habana: ECIMED; 2005. p. 5-46.

4. Introducción a la Inferencia Estadística. En: Bayarre Vea H, Oliva Pérez


M. Estadística Inferencial. La Habana: ECIMED; 2005. p. 75-129.

5. Bayarre Vea H, Ranero Aparicio V. En: Métodos y Técnicas aplicados a


la Investigación en Atención Primaria de Salud. Parte III. Material
Docente. ENSAP; 2002

Bibliografía Complementaria:

1. Estadística Descriptiva. En: Torres Delgado JA, Rubén Quesada M,


Bayarre Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática
Médica. Tomo 2. Bioestadística. La Habana: ECIMED; 2004. p. 211-300.

2. Estadísticas de Salud. En: Torres Delgado JA, Rubén Quesada M,


Bayarre Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática
Médica. Tomo 2. Bioestadística. La Habana: ECIMED; 2004. p. 459-473.

3. Inferencia Estadística. En: Torres Delgado JA, Rubén Quesada M,


Bayarre Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática
Médica. Tomo 2. Bioestadística. La Habana: ECIMED; 2004. p. 388-454.

4. Métodos estadísticos para el análisis de datos cualitativos. Análisis de


Tablas de Contingencia. En: Torres Delgado JA, Rubén Quesada M,
Bayarre Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática
Médica. Tomo 2. Bioestadística. La Habana: ECIMED; 2004. p. 459-473.

3
5

MAESTRÍA DE SALUD PÚBLICA

MÓDULO 3
ESTADÍSTICA

GUÍA DE ESTUDIO

La Habana/Caracas
2007
6

Guía de Estudio

Estimado cursista:

La guía que le presentamos a continuación contiene las orientaciones necesarias


para el estudio, tanto individual como grupal, del módulo de Estadística de la
Maestría de Salud Pública. Con ella pretendemos contribuir a la formación de las
habilidades que se esperan alcance al final del mismo.

La guía consta con la estructura siguiente: orientaciones generales, objetivos


generales, contenidos, descripción de actividades para cada contenido, entre las
que se incluyen los trabajos individuales, los trabajos de grupo; y la bibliografía a
utilizar. Al final de la guía aparece el sistema de evaluación del módulo.

I. Orientaciones Generales:

Los contenidos de Estadística Descriptiva constituyen los primeros a estudiar en el


curso. A este tema se le dedicará la mayor cantidad del tiempo del módulo. Le
siguen los contenidos relacionados con las Estadísticas Sanitarias, elementos de
la Teoría de Probabilidades, y de la Inferencia Estadística.

El estudio de cada uno de los contenidos de cada tema deberá comenzar por la
revisión de la Bibliografía Básica, luego conteste la tarea independiente planteada
para cada contenido; finalmente reúnase con el resto de los integrantes del grupo
de estudio y realicen el trabajo correspondiente.

II. Objetivos generales:

1. Elaborar, procesar, analizar y presentar datos estadísticos derivados de la


gestión o investigación en salud pública, así como de situaciones modeladas
análogas.

2. Seleccionar, calcular e interpretar los principales indicadores sanitarios y


demográficos que se utilizan en la toma de decisión e investigación en el
ámbito sanitario.

3. Identificar las leyes de distribución de probabilidades más usadas, a través


del análisis de sus propiedades, para ser aplicadas en procesos de
inferencia estadística en el ámbito sanitario.

4. Dominar los conceptos básicos de la Inferencia Estadística que permite


fundamentar y emplear los métodos que se utilizan en el campo de las
investigaciones de salud y biomédicas.

1
7

III. Contenidos:

No. Título
1 Estadística. Conceptos Básicos. Universo y muestra. Variables. Concepto y
clasificación. Escalas de clasificación. Distribución de frecuencias absolutas,
relativas y acumuladas.
2 Representación Estadística. Tablas estadísticas: elementos a considerar en su
confección. Representación gráfica: errores de elaboración e interpretación.
Principales tipos de gráficos: barras, pastel, histograma, polígono de
frecuencia. Uso de paquetes computacionales.
3 Medidas de resumen para variables cualitativas. Razón, proporción,
porcentaje, tasa. Definiciones. Tasas brutas y específicas. Cálculo e
interpretación. Medidas de resumen para variables cuantitativas. Medidas de
tendencia central: Media aritmética, mediana y moda. Medidas de
Dispersión: necesidad del estudio de la dispersión. Rango o amplitud.
Desviación media, varianza, desviación estándar y coeficiente de variación.
Uso de paquetes computacionales.
4 Análisis de Series Cronológicas: Definición, clasificación e importancia.
Requisitos para el tratamiento estadístico de las series. Métodos gráficos y
matemáticos para el análisis de la tendencia. Métodos para el análisis de
estacionalidad. Uso de paquetes computacionales.
5 Estadísticas de Salud. Introducción. Clasificación de las Estadísticas de Salud.
Indicadores sanitarios y demográficos más utilizados. Uso de paquetes
computacionales.
6 Probabilidad. Conceptos básicos. Experimentos y sucesos aleatorios.
Variables aleatorias. Distribución de probabilidad de una variable aleatoria.
7 Distribuciones muestrales: distribución muestral de la media, de la
proporción y de la diferencia entre medias y proporciones.
8 Estimación de parámetros. Estimación puntual y por intervalos de confianza.
Intervalo de confianza para una media y para la diferencia entre dos medias
poblacionales. Intervalo de confianza para la proporción y para la diferencia
entre dos proporciones poblacionales.
9 Docimasia de Hipótesis. Aspectos generales. Pruebas de hipótesis a partir de
medias. Pruebas de Hipótesis a partir de proporciones. Análisis de la varianza
de una vía. Prueba de hipótesis para una proporción poblacional y para la
diferencia entre dos proporciones. Pruebas de homogeneidad e
independencia. Regresión y Correlación Lineal.

2
8

IV. Descripción de actividades independientes y grupales por contenido.

9 Contenido 1.

En la Bibliografía Básica del Módulo revise las páginas 3 a la 11. Una vez que
haya estudiado estos contenidos realice, de forma individual, la tarea (trabajo
independiente) siguiente:

1. Un grupo de investigadores desea estudiar la satisfacción personal de los


médicos que brindan sus servicios en cierto estado de la República
Bolivariana de Venezuela. Para ello, de un total de 1500 médicos que trabajan
en ese territorio, estudiarán 700. Desean recoger información sobre la edad, la
calificación profesional, el tiempo de graduado, el sexo, el estado civil y la
presencia de satisfacción personal.

a) Identifique cuál es la población en estudio y cuál es la muestra, en caso de


existir.
b) Identifique las variables a estudiar y clasifíquelas.

2. A continuación le presentamos algunas variables investigadas en un grupo de


residentes del 1er año de la especialización de Medicina General Integral, con
la finalidad de controlar el proceso docente-educativo.

– Asistencia a actividades docentes,


– Existencia de quejas de la población,
– Calificación en examen parcial (sobre 10 puntos),
– Sexo, y
– Edad.

a) Clasifique cada una de las variables estudiadas.

3. A continuación le presentamos la variable temperatura (en grados Celsius)


clasificada en una escala de intervalos:
Temperatura
34 - 36
37 – 39
40 – 42
a) Determine la amplitud del segundo intervalo de clase.
b) ¿Cuál es el límite de clase inferior del tercer intervalo de clase?

3
9

Luego, realice el trabajo grupal siguiente:

1. Revise uno de los Análisis de la Situación de Salud (ASIS) de la comunidad


atendida por uno de los integrantes del grupo. Luego conteste las
interrogantes siguientes:

a) Identifiquen cuál es la población atendida por el colega.


b) Identifiquen las variables incluidas en el análisis. Clasifíquenlas según su
naturaleza.
c) Escoja la información relativa a una de las variables del ASIS y construya
una distribución de frecuencia: absolutas y relativas.

9 Contenido 2.

Revise las páginas 12 a la 24 de la Bibliografía Básica. Una vez que haya


estudiado estos contenidos realice el siguiente trabajo independiente:

1. A continuación le presentamos los resultados de la medición de creatinina


sérica en 20 personas del municipio Playa, atendidos en el policlínico “26
de Julio” en enero de 1999.

Creatinina Sérica
160,00 170,54 166,00 150,00
160,36 160,20 156,70 151,78
158,20 163,20 154,50 152,00
174,00 165,80 155,00 154,80
170,00 165,90 155,90 156,70

a) Con la información anterior, construya una escala de intervalos de igual


amplitud.
b) Construya un cuadro estadístico.
c) Interprete los resultados.
d) Construya un gráfico. Fundamente su elección.

4
10

2. El siguiente cuadro muestra información resultante de cierto estudio. Analícelo


cuidadosamente y emita su criterio al respecto.

Tabla # 1. Muestra de las madres del Consultorio del Médico de la Familia #


1925 según el número de hijos tenidos en el último matrimonio. CMF # 1925,
municipio Contramaestre, provincia Santiago de Cuba, enero de 1962.

Edad materna
# de
< 20 > 20 Total
hijos
# % # % # %
0 8 8.0 14 14.0 22 22.0
1-3 20 20.0 6 6.0 26 26.0
3-4 10 10.0 19 19.0 29 29.0
5-6 10 10.0 6 6.0 16 16.0
6 y más 2 2.0 7 7.0 9 9.0
Total 50 100.0 50 100.0 100 100.0

Fuente: Encuesta

3. Para los siguientes títulos de tablas, seleccione el gráfico que mejor la


represente.

a) Distribución de ancianos según sexo. Tabasco, 2003.


b) Distribución de médicos de familia según edad y sexo. Campeche, 2002.
c) Mortalidad materna. Cuba, 1990-1996.
d) Distribución de recién nacidos según raza. HGD “Dr. A. Neto”, 1998.
e) Distribución de ancianos según peso. La Habana, 1999.

A continuación, realice el trabajo grupal siguiente:

1. Del Análisis de la Situación de Salud (ASIS) escogido para el primer trabajo


grupal, realicen un análisis crítico de los cuadros y gráficos estadísticos
confeccionados. Incluya los errores presentes en la confección, así como las
principales fallas detectadas en la interpretación. Al final de estos análisis
hagan un informe de una o dos cuartillas, donde se expresen los principales
errores (sistemáticos) detectados.

2. La información siguiente es parte de los resultados de un estudio realizado en


escolares del municipio Marianao, provincia Ciudad de La Habana, durante
1997-1999.

Nombre Sexo Edad


YHP F 8
HHD M 7
GTR F 6
TRF M 5

5
11

ADE F 14
LOI F 11
YGF M 5
HTR M 9
SDE F 10
GTW F 8
JFY F 9
BHG M 8
FRW M 12
RTL F 8
ABV F 9
JUY M 10

a) Construyan una tabla y un gráfico con estos datos.


b) Interpreten los resultados.

9 Contenido 3.

Lea detenidamente las páginas 25 a la 42 de la Bibliografía Básica. Una vez que


haya estudiado estos contenidos realice, de forma independiente, la tarea
siguiente:

1. De los siguientes indicadores, diga su nombre y qué datos necesitaría para


calcularlos.

a) Riesgo de morir por enfermedades del corazón en Maracay, 2005.


b) Riesgo de morir por cualquier causa en el estado de Lara, 2004.
c) Contribución del grupo de 60 años y más a la mortalidad general en
Venezuela, 2003.
d) Contribución del sexo femenino a la estructura poblacional de Cuba, 2000.
e) Riesgo de morir en la primera semana de vida extrauterina.
f) Riesgo de morir de los enfermos de tuberculosis.

2. Las cifras siguientes corresponden a la estatura (en centímetros) de los


estudiantes de un aula de cierta escuela. La Dra. Fonseca, a cargo de dicho
centro, desea resumir esta información con miras a redactar un informe, en el
cual deben aparecer consignadas las interpretaciones correspondientes a los
resultados de la media aritmética, la mediana, la moda, el rango, la desviación
media, la desviación típica y el coeficiente de variación. ¿Podría Ud. ayudar a
la doctora de referencia en su empeño?

135 134 136 136 134


146 146 147 147 146
123 117 125 124 122
151 148 153 152 148
138 138 138 138 138
140 138 143 141 139

6
12

131 219 132 132 129


145 144 146 146 145
128 126 128 128 127
137 137 137 137 137

Realice el trabajo grupal siguiente:

1. Del Análisis de la Situación de Salud (ASIS) escogido para el primer trabajo


grupal, hagan un análisis crítico de las medidas utilizadas para resumir
variables cualitativas y cuantitativas.

2. En el Informe Anual de Salud del país aparecen algunos de los indicadores de


mortalidad. Hagan un análisis de éstos. Comparen, en la medida de lo posible,
los indicadores del estado donde trabajan con los del país.

9 Contenido 4.

Lea detenidamente las páginas 43 a la 63 de la Bibliografía Básica. Una vez que


haya estudiado estos contenidos realice, de forma independiente, la tarea
siguiente:

1. Responda verdadero (V) o falso (F)

____ Para construir una serie temporal los hechos deben registrarse
cronológicamente.
____ La obtención de la tendencia de una serie, mediante el método de las
diferencias absolutas es muy buena cuando la serie tiene grandes
fluctuaciones.
____ La línea recta que se obtiene mediante el método de los semipromedios
resulta muy atractiva para observar la tendencia.
____ Los componentes de la serie, según el método clásico, son: la tendencia,
estacionalidad, el ciclo y la aleatoriedad.

Realice el trabajo grupal siguiente:

A partir de la información disponible en el estado obtener la tendencia de la


Mortalidad por las causas y período seleccionados por su profesor. Utilicen para
ello métodos matemáticos y gráficos. Hagan un informe de no más de dos
cuartillas con los resultados obtenidos.

9 Contenido 5.

Lea detenidamente las páginas 65 a la 119 de la Bibliografía Básica. Una vez que
haya estudiado estos contenidos realice, de forma independiente, la tarea
siguiente:

7
13

1. Enumere al menos cinco interrogantes, a las que Ud. puede dar respuesta con
el uso de las estadísticas de salud, en el contexto de su área de trabajo.

2. ¿Considera importante las estadísticas de salud? Fundamente su respuesta.

3. Mencione tres indicadores de estadísticas vitales. Fundamente la utilidad de


uno de ellos.

4. A continuación le brindamos la información referente a la población cubana,


para el año 1999, según edad y sexo. Construya la pirámide poblacional
correspondiente.

Tabla 1.1 Población cubana según edad y sexo. 1999.


Grupos de Sexo
edad Masculino Femenino
(años)
0 - 4 385573 361824
5 - 14 882412 839334
15 – 49 3065649 3063266
50 – 59 544772 557573
60 y más 700851 741437
Total 5579257 5563434
Fuente: Anuario estadístico de Cuba. 1999.

7. Se desea comparar la mortalidad de dos estados de la República Bolivariana de


Venezuela, con el objetivo de investigar las causas de una mayor tasa de
mortalidad en el primero de éstos. Para ello es necesario controlar el posible
efecto confusor de las diferentes estructuras por edad de estas poblaciones,
para lograrlo, los investigadores te solicitan que tipifiques las tasas y te brindan
la siguiente información.

Grupos Primer Estado. Segundo Estado.


de edad
(años) Población Tasas* Población Tasas*
< 15 442038 0.8 137177 0.7
15 – 64 1502000 3.5 338000 2.6
65 y más 247000 55.0 36157 49.7
Total 2191038 8.8 511334 5.4
* tasas por 1000 habitantes

a ) ¿Qué método de ajuste puede usar en este caso?. Fundamente.


b ) Realice el ajuste por el método que seleccionó en el inciso anterior.
c ) ¿Cuáles son sus conclusiones?

8
14

8. A continuación aparece información sobre población y defunciones de Cuba


durante 1 999:
SEXO POBLACIÓN DEFUNCIONES
Masculino 5 579 257 43 794
Femenino 5 563 434 35 692
Total 11 142 691 79 486

A partir de la información presentada calcule e interprete:


9 Porcentaje de defunciones para el sexo masculino
9 Porcentaje de defunciones para el sexo femenino
9 Tasa de mortalidad para el sexo masculino
9 Tasa de mortalidad para el sexo femenino
9 Tasa bruta de mortalidad

9 Contenido 6.
Lea detenidamente las páginas 120 a la 150 de la Bibliografía Básica. Una vez
que haya estudiado estos contenidos realice, de forma independiente, la tarea
siguiente:

1. Responda Verdadero (V) o falso (F), las siguientes afirmaciones:

⎯ La probabilidad clásica puede ser calculada solamente después de


observar un número elevado de repeticiones del experimento.
⎯ Un experimento que realizado bajo las mismas circunstancias, se obtiene
en cada repetición un resultado diferente, se le denomina experimento
aleatorio.
⎯ La definición estadística de probabilidad, considera a la frecuencia relativa
de un evento, como una estimación de la probabilidad de ocurrencia de
dicho evento.
⎯ Masculino y femenino, constituyen los sucesos elementales del
experimento aleatorio consistente, en observar el sexo de un recién
nacido.

2. Explique con sus palabras, ¿Qué entiende por variable aleatoria?. De tres
ejemplos de aplicación en el contexto de la Salud Pública. Clasifíquelas.

3. El número de fumadores en tú área de salud es una variable aleatoria. Diga,


qué tipo de v.a y qué distribución sigue aproximadamente?.

9 Contenidos 7 - 9.

Lea detenidamente las páginas 151 a la 266 de la Bibliografía Básica. Una vez
que haya estudiado estos contenidos realice, de forma independiente, la tarea
siguiente:

9
15

1. En una muestra de 50 bebés varones de 12 semanas de vida, se obtuvo un


peso medio de 5.900 gr y una desviación típica de 94 gr. Obtener un intervalo
de confianza (al 95%) para el peso medio poblacional. Interpreta el resultado.

2. Se desea estimar el peso medio de mujeres de 30 a 40 años. Un estudio


realizado en 160 mujeres de tales edades da los siguientes resultados: x = 53
kg y s = 5 kg. Construye un intervalo de confianza al 95 % para el peso
promedio poblacional. Interpreta el resultado.

3. El director de cierto hospital está interesado en conocer el porcentaje de


pacientes asmáticos de la población que atiende, para planificar una medida
preventiva de las crisis. Se estudió una muestra de 250 personas de dicha
población, encontrándose que de ellos 28 eran asmáticos. Construye un
intervalo de confianza al 99% para la proporción de asmáticos de dicha
población.

4. Se conoce que un 20% de los individuos tratados crónicamente con digoxina


sufren una reacción adversa por causa de ella. A 10 pacientes se les
administró durante largo tiempo digoxina más otros medicamentos, y de ellos 5
desarrollaron la reacción adversa. ¿Puede afirmarse que la asociación entre la
digoxina y los otros medicamentos hace variar el número de reacciones
adversas?

5. Un 8% de los individuos que acuden a un servicio sanitario son


hiperutilizadores del mismo (más de 11 visitas al año) y, de entre ellos, un 70%
son mujeres. De entre los no hiperutilizadores, son mujeres el 51%. ¿Puede
afirmarse que han variado los hábitos de éstas si, tras una campaña de
información y control de visitas, de 90 mujeres elegidas al azar 6 resultaron
hiperutilizadoras?

6. La eliminación por orina de aldosterona está valorada en individuos normales


en 12 mgs/24 h. por término medio. En 50 individuos con insuficiencia cardíaca
se observó una eliminación media de aldosterona de 13 mgs/24 h., con una
desviación típica de 2,5 mgs/24 h.
a ) ¿Son compatibles estos resultados con los de los individuos normales?
b ) ¿La insuficiencia cardíaca aumenta la eliminación por orina de
aldosterona?
7. En una investigación realizada sobre la Calidad de la Atención, se trata de
probar la hipótesis de que existe asociación entre la satisfacción de la
población con el servicio brindado y la calificación del personal. Para ello se
diseña un estudio, en el que se obtuvo el siguiente resultado:

Calificación Satisfacción Total


profesional Si NO
Buena 175 15 190
Regular 15 25 40

10
16

Mala 10 160 170


Total 200 200 400

a. ¿Qué prueba de hipótesis Ud. Utilizaría?


b. Pruebe la hipótesis planteada con anterioridad.

8. Se desea determinar si las cuatro áreas de salud de un municipio, difieren


respecto al peso medio al nacimiento de niños a término, para ello se
seleccionaron aleatoriamente una muestra de registros de nacimientos de cada
área. A continuación se muestran los pesos de los recién nacidos (peso en
libras):
Áreas
A B C D
6.40 6.93 5.04 4.97
6.33 6.21 6.33 6.39
4.96 6.74 5.66 6.42
8.01 6.01 5.60 5.10
5.61 7.12 5.08 5.85
6.53 6.40 5.10 6.21
5.23 7.35 4.99 5.24
5.02 4.80 4.36
6.19
6.0

¿Es posible concluir que las cuatro áreas difieren respecto al peso medio al nacer
de niños a término?
Considere un α=0.05

9. Se llevó a cabo un experimento para evaluar el efecto de cierto medicamento


para disminuir la frecuencia cardiaca en adultos. Los resultados obtenidos se
brindan al continuación:
Dosis del medicamento Disminución frecuencia
(mg) cardiaca (latidos / minuto)
0,50 10
0,75 8
1,00 12
1,25 12
1,50 14
1,75 12
2,00 16
2,25 18
2,50 17
2,75 20
3,00 18
3,25 20
3,50 21

11
17

a) Construya el diagrama de dispersión


b) Estime e interprete el coeficiente de correlación.
c) Estime e Interprete el coeficiente de determinación.
d) Obtenga un IC (95%) para β. Intérprete los resultados.

10. Una muestra aleatoria de 24 enfermeras seleccionadas de un registro estatal


de enfermeras proporcionó la siguiente información acerca de la calificación
de cada enfermera en el test psicométrico realizado al inicio del curso y su
calificación final acumulada en la escuela.

TEST CALIFICACION TEST CALIFICACION


PSICOMÉTRICO ACUMULADA AL SICOMÉTRICO ACUMULADA AL
(X) FINAL DEL (X) FINAL DEL
CURSO CURSO
(Y) (Y)

87 440 91 525
87 480 91 575
87 535 92 600
88 460 92 490
88 525 92 510
89 480 93 575
89 510 93 540
89 530 94 595
89 545 94 525
90 600 94 600
90 495 94 625
90 545 95 680
91 575 80 420
90 620 89 512
85 480 90 495

a) Preparar un diagrama de dispersión.


b) Calcular r
c) Probar H0:β =0 con α =0.05
d) Construir el intervalo de confianza del 95% para β.

V. Bibliografía:

La bibliografía disponible para el estudio de los temas del módulo ha sido


seleccionada de libros y monografías escritos por los profesores del curso y por
otros miembros del claustro de la maestría. Las principales fuentes de las mismas
se encuentran en:

12
18

Básica:

1. Estadística Descriptiva. En: Bayarre Vea H, Oliva Pérez M, Horsford Saing R,


Ranero Aparicio V, Coutin Marie G, Díaz Llanes G et al. Libro de Texto de
Metodología de la Investigación. Maestrías para profesionales de la Atención
Primaria de Salud. La Habana, 2004.

2. Astraín Rodríguez ME. Estadísticas de Salud y Población. Material


Docente. ENSAP; 2000

3. Teoría elemental de Probabilidades. En: Bayarre Vea H, Oliva Pérez M.


Estadística Inferencial. La Habana: ECIMED; 2005. p. 5-46.

4. Introducción a la Inferencia Estadística. En: Bayarre Vea H, Oliva Pérez M.


Estadística Inferencial. La Habana: ECIMED; 2005. p. 75-129.

5. Bayarre Vea H, Ranero Aparicio V. En: Métodos y Técnicas aplicados a la


Investigación en Atención Primaria de Salud. Parte III. Material Docente.
ENSAP; 2002

Complementaria:

1. Estadística Descriptiva. En: Torres Delgado JA, Rubén Quesada M, Bayarre


Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática Médica. Tomo
2. Bioestadística. La Habana: ECIMED; 2004. p. 211-300.

2. Inferencia Estadística. En: Torres Delgado JA, Rubén Quesada M, Bayarre


Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática Médica. Tomo
2. Bioestadística. La Habana: ECIMED; 2004. p. 388-454.

3. Métodos estadísticos para el análisis de datos cualitativos. Análisis de


Tablas de Contingencia. En: Torres Delgado JA, Rubén Quesada M,
Bayarre Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática
Médica. Tomo 2. Bioestadística. La Habana: ECIMED; 2004. p. 459-473.

4. Estadísticas de Salud. En: Torres Delgado JA, Rubén Quesada M, Bayarre


Vea H, Garriga Sarría EP, Pría Barros MC, et al. Informática Médica. Tomo
2. Bioestadística. La Habana: ECIMED; 2004. p. 459-473.

VI. Evaluación del Módulo:

La evaluación del tema, forma parte del sistema evaluativo del curso; este incluye
la evaluación, por parte del profesor, de las respuestas a los trabajos individuales
y de grupo. A ello se le adicionará una prueba escrita de los contenidos del tema.
La Evaluación Final se realizará mediante la integración de todos los componentes
de ésta, en escala cualitativa (excelente, bien, aprobado, desaprobado)

13
19

MAESTRÍA DE SALUD PÚBLICA

MÓDULO 3
ESTADÍSTICA

SELECCIÓN DE LECTURAS

La Habana/Caracas

2007
20

Tabla de Contenido

TEMA 1- ESTADÍSTICA DESCRIPTIVA. ............................................................... 3

1.1 Estadística. Conceptos básicos..................................................................... 3

1.2- Representación Estadística. El Cuadro y los Gráficos. ............................ 12

1.3 - Medidas de resumen para variables cualitativas. .................................... 25

1.4- Medidas de resumen para variables cuantitativas. ................................... 30

1.5 - Análisis de Series Cronológicas o Temporales. ...................................... 43

TEMA 2. ESTADÍSTICAS DE SALUD.................................................................. 64

2.1 Fuentes de información ................................................................................ 65

2.2 La población .................................................................................................. 68

2.3 La fecundidad ................................................................................................ 75

2.4 La mortalidad................................................................................................. 81

2.5 La morbilidad............................................................................................... 108

2.6 Estadísticas de recursos y servicios......................................................... 113

2.7 Clasificación internacional de enfermedades (cie) .................................. 118

TEMA 3- INTRODUCCIÓN A LA TEORÍA DE PROBABILIDADES. ................. 120

3.1 Probabilidad. Conceptos básicos. ............................................................. 121

3.2 Variables aleatorias..................................................................................... 127

3.3 Distribución de probabilidad de una variable aleatoria. .......................... 130

3.4 La distribución Binomial............................................................................. 136

3.5 La distribución de Poisson......................................................................... 138

3.6 La distribución normal................................................................................ 139

3.7 Otras distribuciones de probabilidad. ....................................................... 147


21

TEMA 4 - INTRODUCCIÓN A LA INFERENCIA ESTADÍSTICA ...................... 151

4.1 - Distribuciones muestrales. ..................................................................... 152

4.2 - Estimación de parámetros. ..................................................................... 157

4.3 Intervalos de confianza.............................................................................. 160

4.4 Pruebas de hipótesis. ................................................................................. 168

4.5 Introducción al Análisis de Varianza ......................................................... 193

4.6 Correlación y regresión lineal simple........................................................ 224

4.7 Introducción a los Métodos no Paramétricos........................................... 254


22

Bayarre Vea H, Oliva Pérez M, Horsford Saing R, Ranero Aparicio V, Coutin


Marie G, Díaz Llanes G et al. Libro de Texto de Metodología de la
Investigación. Maestrías para profesionales de la Atención Primaria de Salud.

Tema 1- Estadística Descriptiva.

1.1 Estadística. Conceptos básicos.


1.1.1 Estadística y estadísticas.
Debemos distinguir dos acepciones diferentes de la palabra: estadísticas en plural
se refiere a datos numéricos, por ejemplo, cuando hablamos de estadísticas de
mortalidad estamos haciendo alusión a datos de mortalidad, estadísticas de
fecundidad, datos de fecundidad, sin embargo, Estadística en singular es para
algunos la ciencia, para otros el método que nos brinda las herramientas
necesarias para la recolección, procesamiento y análisis de la información.
La Estadística se divide en dos grandes ramas: la Estadística descriptiva y la
Estadística Inferencial.
La Estadística descriptiva nos brinda las herramientas necesarias para
caracterizar un grupo de elementos o unidades de análisis pero sin pretender
generalizar esos resultados a un grupo mayor, objetivo que sí persigue la
Estadística inferencial.
1.1.2 Universo y muestra.
Otro aspecto que debemos tener presente es qué se entiende por población o
universo.
Población es un conjunto de elementos, objetos o unidades de análisis que al
menos comparten una característica que nos interesa conocer o estudiar. Por
ejemplo, los niños residentes en Santa Cruz que asistieron a la escuela durante el
año 1998. Esta población tiene 3 características que la definen, todos los
elementos que la integran son niños, todos residen en la misma localidad, Santa
Cruz, y todos tienen que haber asistido a la escuela durante el año 1997. Otro
ejemplo sería las historias clínicas de un hospital para un periodo de tiempo dado.
Se debe aclarar que no siempre investigamos personas, en ocasiones se estudian
animales de experimentación, muestras de tejidos (biopsias) o de sangre, etc, por
lo que de manera general se suele llamar unidades de análisis a los elementos de
la población objeto de estudio.
Es muy importante en una investigación, definir como parte del método, la
población objeto de estudio de manera que quede claro qué elementos la integran.
23

La Muestra no es más que una parte cualquiera de la población, un conjunto


cualquiera no vacío, o sea, que teóricamente incluso un solo elemento de la
población puede ser considerado como una muestra, aunque en la práctica esto
ocurra con poca frecuencia.
Los conceptos de muestra y población son conceptos relativos, lo que en un
estudio puede ser una población en otro puede ser una muestra. Los niños de
Santa Cruz que asistieron a la escuela en el año 1997 pueden ser parte de una
muestra que se haya diseñado para un estudio nacional.
Veamos algunos ejemplos de población y muestra:
1. Para determinar si el medicamento X producido en la Fábrica de
Medicamentos Y tiene la calidad adecuada, se toman 100 tabletas al
azar de la producción de una semana. Aquí la población es el total de
tabletas del medicamento X producidas por la fábrica, y la muestra está
formada por las 100 tabletas que se estudiaron.
2. Un grupo de investigadores desea estudiar el comportamiento del
síndrome anémico en el área que atiende el policlínico Sur de la
provincia Guantánamo, para ello decide tomar a los habitantes de los
consultorios 66, 50, 17 y 5 a fin de realizarles los exámenes pertinentes.
En este caso, la población está formada por el total de personas que
atiende el policlínico, y la muestra por las personas que atienden los
cuatro consultorios escogidos.
3. Unos investigadores se proponen estudiar la actitud de las jubiladas de
cierto consultorio ante el estrés generado por las tareas del hogar, por lo
que estudiaron a 10 de las 37 jubiladas existentes. Obviamente, la
población está constituida por las 37 jubiladas, y la muestra por las 10
señoras estudiadas.
4. Los mismos investigadores desean estudiar el fenómeno en el área
atendida por el policlínico, de ahí que estudiarán a las jubiladas de cinco
consultorios. Ahora, la población es el total de jubiladas que atiende el
policlínico, y la muestra las jubiladas de aquellos consultorios escogidos.
La selección de la muestra puede realizarse aplicando técnicas estadísticas con lo
que se obtiene una muestra probabilística, o simplemente definir la muestra por
criterio de expertos.
La determinación correcta de la muestra entraña el cálculo del tamaño muestral
adecuado para lograr resultados fiables, y la selección del método de muestreo
apropiado. Para este proceder es recomendable acudir a un Bioestadístico, o
especialista afín, para recibir asesoría al respecto.
24

1.1.3 Variables. Definición y clasificación


Un concepto trascendental para la estadística, pues constituye el punto de partida
para definir métodos de representación a utilizar, medidas de resumen a calcular y
qué técnicas de análisis se pueden aplicar, es el de variable.
Consideraremos como variable cualquier característica de la población que puede
asumir diferentes comportamientos, valores, o grados de intensidad entre los
diferentes elementos, individuos o unidades de análisis. Por ejemplo la edad es
una característica que asume diferentes valores de un individuo a otro, el sexo, el
estado civil, los servicios de un hospital, son todos variables.
En fin, toda característica inherente a los objetos y fenómenos que nos rodean
puede ser una variable: los colores de las cosas, la estatura de las personas, la
altura de las edificaciones, el volumen de los recipientes, la cantidad de autos que
pasan la noche en un parqueo, o los países ganadores en las Copas Mundiales de
Boxeo, entre otras. Pero, obsérvese que no son variables por el simple hecho de
ser características, sino porque pueden asumir valores diferentes en dependencia
de qué objeto o fenómeno midas, además, éstas no se miden todas de la misma
manera, unas se miden numéricamente y otras no, de aquí que las variables
pueden clasificarse en dos grandes grupos: cuantitativas y cualitativas,
Las variables cualitativas son aquellas que se identifican con cualidades o
atributos y que no toman valores numéricos. Ej.: el sexo, la nacionalidad, las
especialidades médicas con que cuenta un centro asistencial y las causas de
defunción, entre otras.
Las variables cuantitativas son aquellas en las que las diferencias existentes entre
los disímiles elementos de la población son medibles numéricamente. Ej. la edad,
la talla, el peso, el número de camas de un hospital, el número de hijos de una
familia, etc.
Las variables cualitativas a su vez se clasifican en nominales y ordinales o
cuasicuantitativas. Es importante definir que los valores posibles de una variable
cualitativa se denominan categorías, así la variable sexo tiene dos categorías:
femenino y masculino, mientras que la variable raza tiene tres o más categorías:
blanca, negra, mestiza y otras.
Una variable se considera cualitativa nominal cuando las diferencias en cuanto a
sus valores entre los elementos no traducen diferencias de magnitudes o de
intensidad. Son cualidades, atributos que no son medibles numéricamente. Ej.: el
estado civil y el sexo. Mientras que, las variables cualitativas ordinales son
aquellas en que las diferencias si bien no son cuantificables, si tienen implícito
diferencias de magnitud o de intensidad y dan una idea de ordenamiento. Ej. el
estado de un paciente: grave, de cuidado, mejorado; el estado técnico de una
vivienda: buena, regular, mala; el estadio de una enfermedad: leve, moderada,
severa.
25

A su vez las variables cuantitativas también se subdividen en dos subgrupos:


discretas o discontinuas y continuas.
Las variables cuantitativas discretas son aquellas que sólo asumen valores
enteros, por lo general estas variables resultan del conteo. Ej.: el número de hijos,
una pareja podrá tener 5 hijos, 10 hijos o ningún hijo, pero lo que no podrá tener
nunca es 1.6 hijos.
Sin embargo, las variables cuantitativas continuas sí pueden asumir valores
fraccionarios. Ej.: el peso, la talla, la edad.
En el siguiente cuadro se resume la clasificación de las variables.
No existen diferencias de
Nominales magnitud o intensidad
Cualitativas: entre sus categorías.
Llevan implícito
No se miden diferencias de magnitud o
numéricamente Ordinales o intensidad entre sus
Cuasicuantitativas
categorías, que les
confiere cierto orden.
Toman valores siempre
enteros, de manera que
entre dos valores enteros
Variables Discretas o
consecutivos no existen
Discontinuas
posibilidades prácticas ni
Cuantitativas: teóricas de que haya
valores intermedios.
Se miden Entre dos valores enteros
numéricamente consecutivos existen
infinitos valores
Continuas intermedios (al menos
teóricamente) aunque
frecuentemente se
emplean valores enteros.

Identificar el tipo de variables que estudiamos en las unidades de análisis de una


investigación resulta de vital importancia, ya que todo el procesamiento estadístico
de los datos depende del tipo de variable.
Es oportuno aclarar acerca de un error bastante frecuente relacionado con la
utilización cada vez más creciente del software para el tratamiento estadístico de
la información. Se trata del mal uso de la codificación, un recurso que brindan los
paquetes estadísticos, consistente en la asignación de códigos numéricos a las
variables en estudio, a fin de facilitar su manejo. Por ejemplo, el sexo puede
26

tratarse como 1 para el femenino y 2 para el masculino (o viceversa), pero este


tratamiento no le confiere valor cuantitativo a la variable, puesto que es cualitativa;
por ende, no se le pueden aplicar procedimientos matemáticos propios de
variables cuantitativas.
1.1.4 Escalas de clasificación de las variables
Una vez identificadas las variables que formarán parte del estudio, el siguiente
paso que se impone es definir las escalas de clasificación para esas variables.
Una escala de clasificación no es más que el conjunto de clases o categorías que
se definen para clasificar la información en función de determinada variable. En el
caso de las variables cualitativas la propia naturaleza de la variable establece las
posibles categorías de la escala. Por ejemplo, la variable estado civil puede asumir
5 categorías en su escala: soltero, viudo, divorciado, acompañado y casado.
Pueden utilizarse esas 5 o hacer reagrupaciones y definir solo dos categorías en
función de los intereses que se persiga con el estudio: uniones estables (casado y
acompañado) y uniones inestables (soltero, divorciado y viudo). En el caso de las
variables cuantitativas pueden existir diferentes y diversas escalas.
Sea cual sea la escala que se construya para la clasificación de la información
debe cumplir con dos requisitos o condiciones para que sea una buena escala.
En primer lugar que sea exhaustiva, que el número de clases o categorías que la
constituyen garanticen que todos los elementos que integran la población puedan
ser clasificados.
La segunda condición que deben cumplir es que las categorías sean mutuamente
excluyentes, de forma tal que no quede duda de en qué clase debe ser incluido
cada uno de los elementos que conforman la muestra o la población.
A modo de ejemplo: Supongamos que se quiere hacer un estudio de fecundidad y
una de las variables a estudiar es la edad a la que se produjo el nacimiento.

Edad. (años)
20 -25
25 - 29
30 - 34
35 - 39
40 - 44
Si se producen nacimientos en menores de 20 años, algo bastante probable, no
tendrían una categoría donde ser ubicados por tanto no se cumpliría el principio de
la exhaustividad, por otra parte si nace un niño cuya madre tiene 25 años no
sabríamos en que categoría incluirlo, si en la primera o en la segunda, por tanto
las clases de la escala no son mutuamente excluyentes.
Las escalas pueden ser cuantitativas o cualitativas, en dependencia de si sus
categorías pueden ser numéricamente medidas o no. Para las variables
cualitativas se construyen escalas cualitativas, las que consisten simplemente en
27

identificar los valores de la variable (sus categorías) y clasificar a las unidades de


análisis de acuerdo a estas categorías, y al igual que las variables, pueden ser
nominales u ordinales. Por su parte las escalas cuantitativas pueden ser discretas
o continuas.
Para las variables cuantitativas se pueden emplear tanto las escalas cualitativas
como las cuantitativas. Por ejemplo, el peso puede considerarse cualitativamente:
normopeso o no, o un poco más detallado: bajo peso, normopeso y sobrepeso. En
el primer caso se trata de una escala cualitativa nominal y ordinal en el segundo.
Por lo tanto, se puede construir una escala cualitativa a cualquier variable (dentro
de lo razonablemente lógico), no importa cual sea la naturaleza de dicha variable.
Claro que, al hacerlo, si se está representando una variable cuantitativa,
sencillamente se pierde información que pudiera resultar valiosa.
Para el caso particular de las escalas cuantitativas es necesario identificar algunos
elementos particulares.
Las clases o categorías que conforman las escalas cuantitativas se denominan
intervalos de clase, en el ejemplo anterior de la edad de las madres, esa escala
está formada por 5 intervalos de clase.
El menor valor y el mayor valor que delimitan los intervalos de clase se denominan
límite de clase inferior y límite de clase superior y a aquellos intervalos de clase
que les falta uno de los límites, ya sea el inferior o el superior, se les llama
abiertos.
Así, en el mismo ejemplo 20, 25, 30, 35 y 40, serían los límites inferiores, y 24
(subsanando el error), 29, 34, 39 y 44, serían los límites superiores, siendo todos
intervalos cerrados.
Para cumplir con el criterio de exhaustividad, en este ejemplo de la edad de las
madres, se hace necesario agregar un intervalo de clase al principio y al final de la
escala, ya que se puede asumir que deben ocurrir nacimientos por debajo de los
20 años y por encima de los 44 años, pero cuán joven puede ser la madre o cuán
mayor, lo desconocemos. En este caso que no tenemos bien definido que limite
inferior asumir, simplemente lo omitimos y creamos un intervalo de clase abierto:
19 años o menos, o menor de 20 años. Lo mismo pudiera ocurrir con el último
intervalo, y sería, 45 años o más.
Las escalas pueden ser cerradas o abiertas, en virtud de que todos sus intervalos
sean cerrados o no. Algunos autores denominan semiabiertas o semicerradas a
aquellas escalas en las que uno de sus intervalos, ya sea el primero o el último
son abiertos; reservando el término abierta para las escalas en que ambos
intervalos son abiertos.
Analicemos en detalles la construcción de escalas cuantitativas. Ya comentamos
que esta escala de clasificación está compuesta por varias divisiones ordenadas
llamadas Intervalos de clase, los cuales están delimitados por límites de clase
superior e inferior, que son los valores mayor y menor que los enmarcan,
28

respectivamente. A su vez los intervalos pueden ser cerrados o abiertos en


dependencia de si poseen los dos límites de clase o uno solo.
Para ilustrar las ideas planteadas, mostramos una escala cuantitativa de
intervalos, abierta y los intervalos utilizados:
Edad (años)
< 20 ⇐ Intervalo de clase abierto
20 – 24
25 – 29
30 – 34 Intervalos de clase cerrados
35 – 39
40 - 44
45 y más ⇐ Intervalo de clase abierto

Los intervalos pueden o no tener igual amplitud, aunque se prefiere lo primero, ya


que facilita enormemente el trabajo posterior con los datos. La amplitud o
recorrido (A) de un intervalo de clase es la longitud de éste. Su cálculo puede
hacerse de distintas maneras, veamos algunas:
1. Hallar la diferencia de los límites de clase del intervalo de
referencia y, luego, adicionarle una unidad al resultado obtenido.
Así, para el segundo intervalo de la ilustración anterior:
A = (24 – 20) + 1 = 5.
2. Otra forma de cálculo es contando los números enteros que se
encuentran entre los valores límites, incluyendo éstos. Así, para
el segundo intervalo de la ilustración anterior, la amplitud sería el
conteo de 20, 21, 22, 23 y 24, es decir, A = 5.
Obviamente, estos ejemplos son válidos cuando los límites de las escalas son
números enteros.
Para construir una escala cuantitativa con intervalos de igual amplitud, se deben
seguir los siguientes pasos:
1. Determinar el recorrido de la serie (R). Esto se logra restando el valor mínimo
al máximo. En el ejemplo dela Edad de la madre en años, el Rango será igual
a la diferencia de la edad mayor (madre de mayor edad) y la edad menor
(madre más joven) del grupo estudiado.
2. Establecer el número mínimo de intervalos deseado. Esta decisión es
personal, se determina en dependencia de las necesidades y los objetivos de
cada investigación. No siempre este es el número definitivo de intervalos,
ocasionalmente se requiere de un intervalo adicional.
3. Calcular la amplitud (A) de los intervalos. Para ello, se divide el rango obtenido
en el paso 1 por el número de intervalos fijado en el paso anterior. Es
recomendable redondear para convertir la amplitud en un número entero, lo
que facilitará la construcción de la escala.
29

4. Delimitar los límites inferiores (LI) de los intervalos. Partiendo del valor mínimo
de la serie, sumar la amplitud de los intervalos (A) y se obtendrá el LI del
intervalo siguiente, a este se le suma la amplitud (A) y se obtiene el
subsiguiente, y así hasta llegar al último intervalo de la escala.
5. Delimitar los límites superiores (LS). Se obtiene sustrayendo (restando) una
unidad al LI siguiente. En el caso del LS del último intervalo, se obtiene
sumándole la amplitud al último LI, y luego restando al resultado una unidad.
A fin de fijar ideas, veamos la construcción de una escala paso a paso. A
continuación se tiene una lista con los pesos (en libras) de 20 adolescentes, y se
desea agruparlos en una escala cuantitativa con intervalos de igual amplitud.
Nro. Peso Nro. Peso Nro. Peso Nro. Peso
1. 160,00 6. 170,54 11. 166,00 16. 150,00
2. 160,36 7. 160,20 12. 156,70 17. 151,78
3. 158,20 8. 163,20 13. 154,50 18. 152,00
4. 174,00 9. 165,80 14. 155,00 19. 154,80
5. 170,00 10. 165,90 15. 155,90 20. 156,70

Para visualizar mejor el rango es conveniente ordenar la serie1 de datos de menor


a mayor:
Nro. Peso Nro. Peso Nro. Peso Nro. Peso
1. 150,00 6. 155,00 11. 160,00 16. 165,90
2. 151,78 7. 155,90 12. 160,20 17. 166,00
3. 152,00 8. 156,70 13. 160,36 18. 170,00
4. 154,50 9. 156,70 14. 163,20 19. 170,54
5. 154,80 10. 158,20 15. 165,80 20. 174,00

Como puede verse el valor mínimo es 150, y el máximo 174, de manera que la
escala se construirá de la siguiente manera:
1. El recorrido de la serie es R = 174.00 – 150.00 = 24.
2. Establecemos como mínimo 4 intervalos de clase.
3. La amplitud que tendrán los intervalos es A = 24 / 4 = 6.
4. Límites inferiores se muestran a continuación:
Intervalo Límites inferiores
1. 150
2. 150 + 6 = 156
3. 156 + 6 = 162
4. 162 + 6 = 168

1
Se le llama serie de datos al conjunto de valores de una variable obtenidos en un
estudio, por ejemplo todos los pesos de los pacientes estudiados.
30

5. Límites superiores:
Intervalos Límites superiores
1. 156 - 1 = 155
2. 162 - 1 = 161
3. 168 - 1 = 167
4. 174 - 1 = 173
Hasta este punto, la escala será 150-155, 156-161, 162-167, 168-173,
completando así los cuatro intervalos deseados. Pero como puede comprobarse,
en los datos existe un valor que supera 173, de ahí que sea necesario añadir un
intervalo de clase al número predicho con el objetivo de lograr la exhaustividad de
la escala:
Límite inferior del quinto IC: 168 + 6 = 174
Límite superior del último intervalo: 174 + 6 - 1 = 179
Finalmente, la escala es la siguiente:

Peso (libras) Nro. %


150 – 155 7 35
156 – 161 6 30
162 – 167 4 20
168 – 173 2 10
174 – 179 1 5
Total 20 100

Observa que esta escala cumple con los requisitos planteados al inicio de este
epígrafe, es decir, es exhaustiva y sus intervalos son excluyentes entre sí.
1.1.5 Distribuciones de frecuencias absolutas, relativas y acumuladas.
Una vez definidas las variables y su escala de clasificación, el siguiente paso sería
clasificar la información, obtener el número de elementos que corresponden a
cada una de las clases de la escala, es decir, la frecuencia absoluta de cada
clase, con lo que estamos resumiendo la información original.
Cuando tenemos una escala de clasificación y la frecuencia absoluta calculada
estamos en presencia de una distribución de frecuencias para esa variable.
Además de la frecuencia absoluta también se puede obtener la frecuencia relativa.
Esta se obtiene dividiendo la frecuencia absoluta de cada clase entre el total de
observaciones, el valor que se obtiene se conoce por el nombre de proporción y si
este resultado se multiplica por cien (x 100) estaremos en presencia del por ciento
o porcentaje, que es una medida de la contribución que hace cada clase, la
importancia relativa con relación al total de observaciones, al total de la población
o al tamaño de la muestra. Veamos un ejemplo:
31

Edad Frecuencia Frecuencia relativa Frecuencias acumuladas


(años) absoluta Proporción % Absoluta Relativa
20–24 20 0.29 29 20 29
25–29 18 0.27 27 38 56
30–34 15 0.22 22 53 78
35–39 10 0.15 15 63 93
40–44 5 0.07 7 68 100
Total 68 1.00 100

Observe que la suma de todas las frecuencias absolutas es igual al total de


observaciones, y la suma de todas las frecuencias relativas es igual a 1 o a 100 en
dependencia de si se trabaja con proporciones o porcentajes.
También pueden calcularse las frecuencias acumuladas absolutas o relativas.
Para ello se suman las frecuencias de todas las clases que anteceden a la clase
para la cual se esta realizando el cálculo. La frecuencia acumulada del primer
intervalo de clase coincide con la absoluta o relativa del mismo, pues como es
obvio nadie la antecede y la del último intervalo es el total de observaciones 1 o
100.
Veamos un ejemplo. La frecuencia absoluta acumulada del tercer intervalo de
clase sería: 20 + 18 + 15 = 53 y la relativa en forma de por cientos: 29 + 27 + 22 =
78 %. Compruebe el resto de los cálculos con el ejemplo de la tabla anterior.
Las frecuencias absolutas y relativas pueden calcularse tanto para variables
cualitativas como para las cuantitativas, sin embargo como es fácil de apreciar las
frecuencias acumuladas sólo pueden calcularse para las variables cuantitativas.
Resumiendo, las distribuciones de frecuencias pueden clasificarse en:

- Absoluta

Distribuciones - Relativa
De frecuencias
- Absoluta
- Acumulada
- Relativa

1.2- Representación Estadística. El Cuadro y los Gráficos.


Al realizar una investigación se obtiene información sobre las variables del estudio.
Sin embargo, por lo general es tanto el volumen de información registrada que se
necesita utilizar alguna técnica que permita presentarla de manera resumida.
Existen dos formas de presentar la información resumida: la tabla o cuadro
estadístico y los gráficos.
32

1.2.1 – La tabla o Cuadro estadístico.


Un cuadro estadístico es un recurso que emplea la Estadística con el fin de
presentar información resumida, organizada por filas y columnas.
El cuadro tiene la finalidad de representar distribuciones de frecuencias, medidas
de resúmenes y series cronológicas.
1.2.1.1 Partes del cuadro estadístico.
Varios son los elementos que integran una tabla o cuadro2 estadístico.
Seguidamente presentamos cada uno de ellos:
– Presentación (Identificación y Título)
– Cuerpo de la tabla
– Fuente
– Notas explicativas

1. Identificación. Consiste en otorgar un orden consecutivo a los cuadros,


comenzando por el número uno, v.g. Cuadro 1, Cuadro 2, etc.
2. Título. Debe ser completo y conciso. Para ser completo, el título debe responder
a las preguntas qué, cómo, dónde y cuándo. Reconozcamos en un ejemplo
cada una de estas preguntas:
Cuadro 1. Distribución de fallecidos según grupos de edad y sexo. La Habana,
1999.
Un análisis del título anterior permite conocer que:
- Distribución de fallecidos es de qué trata el cuadro.
- Los grupos de edad y sexo son el cómo se midió, es decir, a través
de cuáles variables.
- La Habana es dónde se realizó el estudio.
- 1999 es cuándo se realizó el estudio.
Observe que las variables se presentan después del vocablo “según”, aunque
alternativamente puede usarse el término “por” o “de acuerdo a”.
También es conveniente plantear que, en ocasiones, no es necesario dar
respuestas a estas cuatro interrogantes en un título, en cuyo caso sólo deberá
responderse al qué y al cómo. Ello ocurre cuando se está representando
información obtenida en una investigación y, en el informe final o el artículo, ya se
ha consignado en algún apartado anterior al de Resultados (Métodos), dónde y
cuándo se realizó el estudio, y por supuesto todos los cuadros representan la

2
Cuadro o Tabla de manera indistinta, pero no debiera usarse alternativamente en
un mismo trabajo: uno o el otro.
33

información del mismo lugar y período, si no es así es necesario señalarlo en cada


caso.
El otro elemento, la concisión, consiste en escribir justamente lo necesario. Se
deben eliminar las preposiciones y artículos que no ayuden a la comprensión del
título del cuadro. No obstante, no debe sacrificarse el mensaje redactando un título
“telegráfico”, no se debe ser lacónico pues ello dificultaría la comprensión de lo
que se quiere decir.
3. Cuerpo del cuadro. Es el cuadro en sí mismo, formado por un arreglo de filas y
columnas, y espacios llamados celdas, que se forman del cruce de una fila con
una columna, por ejemplo:
Columna matriz Fila de encabezamiento Total
xx xx xx
xx xx xx
xx xx xx
Total xx xx

La columna matriz se utiliza para consignar la variable con su escala de


clasificación. En caso de que el cuadro represente más de una variable, por la
columna matriz representarás la que tenga más clases o categorías o la que
constituye la causa, en estudios de causalidad.
En la fila de encabezamiento se presentan las distribuciones de frecuencias, las
medidas de resúmenes o la otra variable. La fila y columna últimas se dedican a
los totales.
Los cuadros estadísticos suelen clasificarse según el número de variables que
representan en:

• Unidimensionales: una variable.


Cuadros • Bidimensionales: dos variables.
• Multidimensionales: tres o más variables.

Deben ser autoexplicativos, o sea, que se expliquen por sí mismos, por lo que se
debe evitar presentar demasiada información en ellos en aras de ganar claridad.
En general, como forma de presentación se utilizan cuadros uni y bidimensionales,
reservándose el uso de los multidimensionales para fines de trabajo.
4. Fuente. Se refiere al documento3 de donde se extrajo la información
presentada. Por lo general, las fuentes de información se clasifican en:

3
Cuando decimos documento no hacemos distinción de su soporte, puede estar
impreso, en formato digital, etc.
34

Primarias: aquellas de las que el investigador


obtiene directamente la información utilizando
diversas técnicas y métodos, v.g. la encuesta.
Fuentes
Secundarias: aquellas que existen
independientemente del estudio y el investigador
sólo las utiliza, v.g. el Registro de Nacimientos,
las historias clínicas.

Resulta válido y oportuno aclarar que en la tabla sólo se consignarán Fuentes


Secundarias.
Recuerda que una fuente es un documento. Frecuentemente esto se olvida, y se
consignan erróneamente como fuentes algunos locales, departamentos, entre
otros, como la Oficina Nacional de Estadísticas, el Archivo del policlínico, etc.
5. Notas explicativas o aclaratorias. Se utilizan cuando se desea aclarar algo, por
lo general del título o del cuerpo de la tabla.
1.2.1.2 Errores más frecuentes
No son pocos los errores que se cometen, voluntaria o involuntariamente, en la
confección de los cuadros estadísticos. A continuación presentamos una lista de
los más comunes, revisarla puede contribuir a no incurrir en ellos.
I. Errores en la presentación.
– Cuadros sin identificación.
– Título o encabezamiento incorrecto o inadecuado:
– Telegráfico: título demasiado pequeño, carente de claridad.
– Ampuloso: título demasiado extenso, que incluye vocablos que no
aportan nada a la claridad del texto.
II. Errores del cuerpo.

Errores de cálculo.

Disposición incorrecta de los datos.

Mostrar solamente medidas relativas (frecuentemente


porcentajes) u otras medidas de resumen.

Cuadros sobrecargados.

III. Errores en la fuente.

No citar la fuente cuando es secundaria.


35

Citar la fuente cuando es primaria.

Consignar como fuente aquello que no es un documento


(oficinas, departamentos, centros, etc.)

1.2.1.3 ¿Cómo leer un cuadro estadístico?


Realmente parece algo tan trivial, que muchas personas lo pasan por alto muchas
veces, lo que puede conllevar a interpretaciones erróneas del cuadro —o en el
peor de los casos, a no entenderlo—. Para evitar el fiasco, echemos una ojeada al
orden propuesto:
1. Leer cuidadosamente el título, así se sabrá exactamente de qué trata
el cuadro.
2. Leer las notas explicativas. Obviamente, las mismas mejoran
considerablemente la comprensión del cuadro.
3. Informarse de las unidades de medida utilizadas.
4. Fijarse en el promedio total o porcentaje general del grupo.
5. Relacionar el promedio total con el porcentaje de cada una de las
variables estudiadas.
6. Relacionar los promedios o porcentajes de las variables estudiadas.
1.2.2 Representación gráfica.
Otra manera de presentar la información estadística es a través de los gráficos.
Ellos pueden resultar muy útiles, aunque en ocasiones un uso incorrecto los
convierte en instrumentos estériles. Son complemento de los cuadros, por ende,
deben ser más autoexplicativos que ellos.
1.2.2.1 Características generales de los gráficos
Generalmente se inscriben en los ejes de coordenadas cartesianas o ejes
rectangulares, los cuales:
– Deben poseer la misma longitud, aceptándose como máximo que el eje X
exceda hasta 1.5 veces al eje Y. Esto evita la introducción de falacias.
– Deben estar rotulados. Generalmente, por el eje X se presenta(n) la(s)
variable(s) con su escala de clasificación; en el eje Y, la distribución de
frecuencias o medida de resumen utilizada.
– De ser posible, el origen de los ejes debe ser en el punto (0,0).
– Deben utilizarse números redondos.
– Debe evitarse el exceso de divisiones de los ejes.

Figura 1. Ejes cartesianos


o rectangulares
36

En la actualidad, con el advenimiento de las nuevas tecnologías informáticas, han


proliferado los programas que permiten la construcción de gráficos estadísticos. Al
utilizarlos, se debe tomar la precaución de analizar cuidadosamente el tipo de
información que se quiere representar, pues la mayoría de ellos ofrece varias
posibilidades de representación, quedando al juicio propio escoger la más
adecuada.
1.2.2.2 Partes del gráfico
Todo gráfico estadístico está constituido por varios elementos, los cuales
mencionamos a continuación.
– Presentación (Identificación y Título)
– Gráfico propiamente dicho
– Fuente
– Notas explicativas
– Leyenda

1. Identificación: consiste en numerar los gráficos consecutivamente, por


ejemplo: Gráfico 1, Gráfico 2, etc.
2. Título: el de la tabla que lo originó.
3. Gráfico propiamente dicho: se verán los distintos tipos de gráficos en el
epígrafe siguiente.
4. Fuente: la tabla que lo originó.
5. Notas explicativas: su uso es similar a lo descrito en las tablas.
6. Leyenda: su fin es identificar los elementos del gráfico (barras, sectores,
etc.) con su correspondiente origen.

1.2.2.3 Gráficos para representar variables en escalas cualitativa y


cuantitativa discreta
A continuación le presentamos un grupo de gráficos que se estudiarán en este
epígrafe, atendiendo al número de variables que representan.

Número de
Tipo de Gráfico
Variables

1 Barras simples, Pastel o Circular

2 Barras múltiples, Barras compuestas

Gráfico de barras simples


Uso: Es un gráfico formado por barras separadas que representan a las categorías
de la variable en estudio. Se utiliza cuando queremos representar una variable
37

cualitativa o cuantitativa discreta, y la información se dispone en frecuencias


absolutas o relativas, o en medidas de resumen.
Elementos a considerar en su construcción
1. Disponer las barras separadas entre sí, para dar la idea de discontinuidad de
la variable representada.
2. El ancho de las barras será opcional, pero debe ser el mismo para todas.
3. La separación entre barras debe ser igual a la mitad del ancho de ellas.
4. Si la variable es nominal, ordene las barras en orden creciente o decreciente,
en dependencia de su gusto.
5. Utilice tantas barras como categorías tenga la variable.
6. Puede colocar las barras en el eje vertical o en el horizontal. Comúnmente se
utiliza el eje horizontal.
7. Este gráfico se origina a partir de tablas unidimensionales.
Ejemplo: Un grupo de investigadores desea conocer el comportamiento de la
vulnerabilidad psicosocial en ancianos de un área de salud. Para ello aplica el
cuestionario de vulnerabilidad-bienestar psicosocial del Dr. R. Pérez y obtiene los
siguientes resultados:
Cuadro 1. Distribución de ancianos según vulnerabilidad psicosocial. Municipio
Playa, 1994.
Vulnerabilidad
Psicosocial Número Porcentaje
Ausente 20 25.00
Baja 25 31.25
Media 20 25.00
Alta 15 18.75
Total 80 100.00

Gráfico 1. Distribución de ancianos según vulnerabilidad psicosocial. Municipio


Playa, 1994.
% 35
30
25

20

15
10
5

0
Ausente Baja Media Alta

Fuente: Tabla 1 Vulnerabilidad


38

Gráfico de pastel, de sectores o circular


Uso: Este gráfico se utiliza cuando queremos representar una variable cualitativa o
cuantitativa discreta, y la información se dispone en porcentaje. Básicamente, es
un círculo dividido en sectores que representan las categorías de la variable.
Elementos a considerar en su construcción
1. La totalidad de la información se representa por el número total de grados de
un círculo (360º).
2. Para obtener los grados correspondientes a cada categoría, se multiplica 3.6º
por la frecuencia relativa utilizada.
Ejemplo: Utilizando la información del ejemplo anterior, y haciendo los cálculos
pertinentes, el gráfico quedaría de la siguiente forma:
Cálculos previos:
Vulnerabilidad Porcentaje (%) 3.6º x %
Ausente 25.00 90.0º
Media 31.25 112.5º
Baja 25.00 90.0º
Alta 18.75 67.5º
Total 100.00 360º

Gráfico 2. Distribución de ancianos según vulnerabilidad psicosocial. Municipio


Playa, 1994.

Ausente
Baja
Media
Alta

Fuente: Tabla 1.

Nota: Con toda intención representamos los mismos datos por dos formas gráficas
diferentes (barras simples y pastel), así confirmamos la posibilidad de utilizarlos
indistintamente, aunque si la variable tiene más de cinco categorías, es preferible
usar las barras simples.
39

Gráfico de barras múltiples


Uso: Este gráfico se utiliza cuando queremos representar dos variables, que
pueden ser: cualitativas o cuantitativas discretas ambas, o una cualitativa y la otra
cuantitativa discreta; y la información se dispone en frecuencias absolutas o
relativas, o en medidas de resumen. Los datos se representan mediante barras
agrupadas, como se verá a continuación.
Elementos a considerar en su construcción
1. Dispondrá grupos de dos, tres o más barras, es decir, barras dobles, triples,
etc.
2. El número de grupos a formar dependerá del número de categorías
consignadas en la columna matriz o en la fila de encabezamiento, según su
gusto.
3. La separación entre cada grupo de barras es aproximadamente la mitad del
ancho del grupo.
4. Este gráfico se origina a partir de tablas bidimensionales.
Ejemplo: El siguiente gráfico resume la información de 300 niños de un Círculo
Infantil atendido por un médico de familia, atendiendo a las variables sexo y raza.
Tabla 2. Distribución de niños según raza y sexo. Círculo Infantil “El Camarón
Encantado”. Municipio Playa, 1999.
Sexo
Raza Masculino Femenino
No. % No. %
Blanca 79 42.9 60 51.7
Negra 63 34.2 34 29.3
Mestiza 42 22.8 22 19.0
Total 184 100.0 116 100.0

Fuente: Libro de matrícula del Círculo Infantil “El Camarón Encantado”. Curso
1999-2000.
Gráfico 3. Distribución de niños según raza y sexo. Círculo Infantil “El Camarón
Encantado”. Municipio Playa, 1999.
%
60

50

40
Blanca
30
Negra
20 Mestiza

10

0
Masculino Femenino Sexo
Fuente: Tabla 2
40

Gráfico de barras compuestas


Uso: Al igual que el gráfico anterior, utilice este cuando se quiera representar dos
variables: ambas cualitativas o cuantitativas discretas, o una cualitativa y la otra
cuantitativa discreta; y se disponga de la información en frecuencias relativas.
Aquí, la información perteneciente a una variable se representa en su totalidad en
una sola barra.
Elementos a considerar en su construcción
1. Cada barra representa el ciento por ciento de la información del grupo
representado.
2. El ancho de las barras queda a su gusto, pero debe ser el mismo para todas.
3. La separación entre las barras es aproximadamente la mitad del ancho.
4. Lo originan tablas bidimensionales.
Ejemplo: Utilizando la información del ejemplo anterior, el gráfico quedaría de la
siguiente forma:
Gráfico 4. Distribución de niños según raza y sexo. Círculo Infantil “El Camarón
Encantado”. Municipio Playa, 1999.

100%

80%

60%
Mestiza
40%
Negra
20% Blanca

0%
Masculino Femenino Sexo

Fuente: tabla 2.

1.2.2.4 Gráficos para representar variables en escala cuantitativa continua


A continuación le presentamos un grupo de gráficos que se estudiarán en este
epígrafe, atendiendo al número de variables que representan.

Número de
Tipo de Gráfico
Variables
1 Histograma de frecuencias, ojiva*
2 Polígono de frecuencias
* No abordaremos este gráfico por su infrecuente uso en nuestro ámbito.
41

Histograma
Uso: Este gráfico consiste en barras adyacentes, y se utiliza cuando queremos
representar una variable cuantitativa continua, y la información se dispone en
frecuencias absolutas o relativas, o en medidas de resumen.
Elementos a considerar en su construcción
1. Las barras o rectángulos se disponen unidos para dar idea de continuidad.
2. El ancho dependerá de la amplitud de los intervalos de clase en que se
clasifica la variable en estudio.
3. La altura de cada IC se obtiene mediante el cociente frecuencia
absoluta/amplitud.
4. Por el eje X se consigna el límite de clase inferior de cada intervalo.
5. Lo originan tablas unidimensionales.
Ejemplo: A continuación presentamos los resultados de un estudio relacionado
con las edades maternas.
Tabla 3. Distribución de recién nacidos según edad materna. HGO “E. Hernández,
julio, 1999.

Edad materna Número Porcentaje


15 – 19 12.2
20 – 24 70 18.9
25 – 29 50 13.5
30 – 34 80 21.6
35 – 39 125 33.8
Total 370 100.0
Fuente: Registro de nacimientos. HGO “E. Hernández”, 1999.

Gráfico 5. Distribución de recién nacidos según edad materna. HGO “E.


Hernández”, julio, 1999.

%
40
35
30
25
20
15
10
5
0
15 20 25 30 35
Fuente: Tabla 3 Edad
42

Polígono de frecuencias
Uso: Este gráfico se utiliza cuando queremos representar hasta dos variables, de
las que al menos una debe ser cuantitativa continua y la otra (en caso de ser dos
variables) cualitativa o cuantitativa discreta, y la información se dispone en
frecuencias absolutas o relativas, o en medidas de resumen. Está formado por una
o dos curvas que representan a cada variable estudiada.
Elementos a considerar en su construcción
1. Se pueden construir histogramas inicialmente, y luego marcar los puntos
medios de cada intervalo de clase, los cuales al unirse forman una curva.
2. Habrá tantas curvas como categorías tenga la variable discontinua.
3. Lo originan tablas uni o bidimensionales.
Ejemplo: A continuación presentamos los resultados de un estudio relacionado
con las edades maternas y el sexo de los recién nacidos.
Tabla 4. Distribución de recién nacidos según edad materna y sexo. HGO “E.
Hernández”, julio, 1999.
Sexo
Edad materna Masculino Femenino
No. % No. %
15 – 19 25 12.8 20 11.4
20 – 24 34 17.4 36 20.6
25 – 29 31 15.9 19 10.8
30 – 34 29 14.9 51 29.1
35 – 39 76 38.9 49 28.0
Total 195 100.0 175 100.0
Fuente: Registro de nacimientos. HGO “E. Hernández”, 1999.

Gráfico 6. Distribución de recién nacidos según edad materna y sexo. HGO “E.
Hernández, julio, 1999.

%
45
40
35
30
25 Masc.
20 Fem.
15
10
5
0
15 20 25 30 35 Edad

Fuente: tabla 4
43

Para representar de manera conjunta dos variables cuantitativas continuas, se


emplea el gráfico de puntos o de dispersión, que no será abordado en este
epígrafe ya que su uso está asociado a otras técnicas de análisis estadístico que
no están contempladas en los objetivos del curso.
1.2.2.5 Gráficos para representar variables en el tiempo
A continuación le mostramos el gráfico aritmético simple, utilizado en el estudio de
las series cronológicas o temporales, como algunos las llaman. No obstante, es
bueno saber que hay quienes utilizan como gráfico de trabajo el de barras simples
para el tratamiento de fenómenos vistos en el tiempo.
Gráfico aritmético simple (GAS)
Uso: Este gráfico se utiliza para representar una variable a través del tiempo.
Elementos a considerar en su construcción
1. Cada categoría o clase de la variable se representa por una curva.
2. En el eje de las abscisas se consignará el año, mes, semana, etc., según la
unidad en que se mida el tiempo.
3. En ocasiones, cuando los ejes no ajustan, se utiliza una escala
semilogarítmica para su construcción.
Ejemplo: A continuación le presentamos la mortalidad perinatal de Cuba desde
1990 hasta 1998.
Tabla 5. Mortalidad perinatal según componentes. Cuba, 1990–1998.

Mortalidad
Años Neonatal Fetal*
No. Tasa No. Tasa
1990 861 4.6 1897 10.1
1991 811 4.6 1708 9.7
1992 720 4.6 1532 9.6
1993 601 4.0 1506 9.8
1994 598 4.0 1442 9.7
1995 586 3.9 1424 9.6
1996 456 3.2 1304 9.2
1997 461 3.0 1462 9.5
1998 435 2.8 1519 10.0
Tasa por 1 000 NV y defunciones fetales de 1 000 gramos y más
*: 1 000 gramos y más

Fuente: Anuario Estadístico de Cuba. 1998.


44

Gráfico 7. Mortalidad perinatal según componentes. Cuba, 1990–1998.

Tasa 12

10

8 Neon.
6 Fetal

0 1990
1991
1992
1993
1994
1995
1996
1997
1998
Años

Fuente: tabla 5

A modo de resumen se puede apreciar en el siguiente cuadro los tipos de gráficos


de acuerdo a la escala de la variable y al número de variables a representar.

Número de
Escala Tipo de gráfico
variables
Barras simples
1
Cualitativa Pastel o circular
cuantitativa discreta Barras múltiples
2
Barras compuestas
Histograma
1
Cuantitativa Polígono de frecuencias
continua
2* Polígono de frecuencias
* una variable es cuantitativa continua y la otra puede ser cualitativa o
cuantitativa discreta

1.3 - Medidas de resumen para variables cualitativas.


Como hemos visto con anterioridad, en la investigación se utilizan variables
cualitativas, bien por su naturaleza, o por la escala empleada. Por supuesto, una
vez que la información se recogió, es necesario calcular alguna medida de
45

resumen cuyo resultado es un indicador que deberá analizarse en un momento


posterior.
1.3.1 Razón e Índice. Definición. Cálculo e interpretación
Una razón es la relación por cociente que se establece entre el número de
unidades de análisis que pertenecen a un grupo o categoría (a) y el número de
unidades de análisis que pertenecen a otra categoría (b) de la misma variable o
a
no. Su expresión general es: .
b
Es una medida de fácil cálculo y comprensión. La explicaremos con un ejemplo:
Supongamos que de los 400 recién nacidos (RN) de un municipio en cierto
período, 300 presentaron los ojos oscuros (OO), en tanto que sólo 100 los tenían
claros (OC). Aplicando la expresión general, la razón OO/OC es:
a RN con OO 300
R = = = = 3
b RN con OC 100

Nota: Utilizamos la letra R por razones didácticas, realmente la razón no tiene


símbolo propio.
La razón ojos oscuros/ojos claros es de 3; o lo que es lo mismo, 3:1.
Pero, ¿qué significa este resultado? Expresa que hay tres recién nacidos con ojos
oscuros por cada recién nacido de ojos claros en ese municipio y en ese período.
Note que el numerador y el denominador son disjuntos, es decir, no se
interceptan, no están contenidos uno en el otro. Ello le ayudará a establecer las
diferencias con las medidas de resumen que se estudiarán a continuación.
Además, la razón siempre toma valores mayores o iguales que cero y con
bastante frecuencia es menor que 1, lo que dificulta la interpretación.
Si se multiplica el resultado de una razón por 100, entonces el nuevo indicador se
denomina índice, de tal suerte que en el ejemplo anterior el índice sería 300. En
otras palabras, en el municipio de referencia, en el período estudiado, por cada
100 bebés de ojos claros hay 300 de ojos oscuros.
El índice resulta más fácil de interpretar que la razón, sobre todo cuando la razón
original es menor que 1. Por ejemplo, si nos interesa la razón inversa al ejemplo
anterior:
100
Razón OC/OO = = 0.33
300

En este caso la interpretación sería muy compleja, en cambio al calcular el índice


correspondiente:
100
Índice OC/OO = * 100 = 33.3
300
46

Interpretando ese índice podemos decir que en el municipio de referencia, durante


el período estudiado, nacieron aproximadamente 33 bebés con ojos claros por
cada 100 bebés con ojos obscuros.
1.3.2 Proporción y Porcentaje. Definición. Cálculo e interpretación
Una proporción es la relación por cociente que se establece entre el número de
unidades de análisis que pertenecen a un grupo o categoría (a) de una variable y
el total de las unidades de análisis estudiadas (n). Su expresión general es:
a
. Si se multiplica su resultado por 100, se obtendrá el porcentaje.
a + b
Suele expresarse en el denominador (a+b) en lugar de n para destacar que el
numerador está incluido en el denominador, a diferencia de la razón.
Seguiremos utilizando el ejemplo del epígrafe anterior. ¿Lo recuerda? Pues bien,
determinemos la proporción de niños con ojos oscuros (300) en la población de
recién nacidos (400):
a RN con OO 300 3
P= = = = = 0.75
a + b Total de RN 400 4

Alternativamente, puedes calcular el porcentaje correspondiente:

RN con OO 300
P × 100 = × 100 = × 100 = 75.0%
Total de RN 400

Los resultados anteriores significan que tres de cada cuatro recién nacidos tienen
los ojos oscuros; o que 75 de cada 100 recién nacidos tiene los ojos oscuros.
¿No le resultan familiares estas nuevas medidas, o sea, la proporción y el
porcentaje? Ya debe estarse preguntando la diferencia que existe entre éstas y la
distribución de frecuencias relativas estudiada. Nada más claro: no es que sean
parecidas, son exactamente las mismas, pero restringidas a variables cualitativas.
Observe que el porcentaje le permite analizar el aporte, el peso específico o la
importancia relativa de cada categoría respecto al total.
1.3.3 Tasas
Siempre que se necesite medir el riesgo de que acontezca cierto fenómeno en una
población determinada, se dispone de un indicador valioso y único: la tasa.
Una tasa es una relación por cociente que expresa el riesgo de que ocurra cierto
evento en una población y período determinados. Está compuesta por tres
elementos, a saber:
numerador
Tasa = ×k
denominador
47

Veamos cuáles son esos elementos:


– El numerador contiene el número de veces que ocurrió determinado fenómeno
en un área geográfica y en un período determinados.
– El denominador indica el número de habitantes de la población en la cual
puede ocurrir el fenómeno.
– k es un múltiplo de 10 cuyo uso está justificado por el hecho de que
habitualmente el resultado del cociente es un número fraccionario, y al
multiplicarlo por una potencia de 10 se facilita enormemente la lectura y
comprensión del indicador.
Esta es una medida que expresa el riesgo de ocurrencia del evento estudiado, en
la población involucrada, en el tiempo y lugar establecidos.
Una particularidad realmente útil de las tasas es que se pueden calcular tanto para
la totalidad de la población, como para parte de ella (por ejemplo, para el grupo de
edad de cinco a nueve años, para los estudiantes, para los residentes del área
rural, y así por el estilo); por otra parte, se pueden calcular las tasas para todas las
causas, o solamente para una de ellas (o un grupo de ellas). De este modo, se
tendrán calculadas tasas brutas, crudas, generales o globales si se tratara de
tasas que involucren a toda la población o al total de causas; al tiempo que se
habrán calculado tasas específicas si incluyen a una parte de la población o a una
causa o grupo de ellas.
Así las cosas, estamos en plena facultad de hallar tasas brutas de mortalidad, de
natalidad, o bien específicas por edad, por sexo, por edad y sexo a la vez, entre
muchas otras. Teniendo a la disposición los datos adecuados, se puede hallar una
tasa tan específica como se desee.
Existe en punto cardinal en el manejo de las tasas: la población expuesta al riesgo
en cuestión. Como ya se sabe, este es el denominador de la ecuación, y de su
correcta determinación depende la fidelidad del cálculo. Nunca serán suficientes
las medidas que tomemos para asegurarnos de estar empleando el dato acertado.
No se piense que es muy difícil saber si uno está errado o en lo cierto, el problema
radica en que muchas veces se pasa por alto este “detalle” de forma involuntaria.
Probablemente se habrá preguntado: «Bueno, ¿y qué tanto problema con el
denominador?» ¡Ah! Es que ahí radica el quid de la cosa. Recuerde que calcula
una tasa para medir el riesgo de ocurrencia de un evento o fenómeno en una
población, pero no en cualquier población, sino en la población expuesta a ese
riesgo. Esto quiere decir que sólo podrá calcular la tasa de mortalidad por cáncer
de útero en las mujeres de cierta ciudad, puesto que sería imposible calcularla en
los hombres; del mismo modo que no puede calcular la tasa de morbilidad por
cáncer de pulmón de los habitantes de Pueblo Mocho en 1999, utilizando para ello
a los habitantes que tenía el pueblo en 1979, o a los habitantes de Palma Mocha
en 1999. Esto es realmente algo muy importante.
48

También hay que notar que las poblaciones están sometidas a constantes
cambios en lo que a su número atañe, determinados por los nacimientos y
defunciones y por los movimientos migratorios (emigración e inmigración), que
provocan que no sea la misma a lo largo de todo el año. De ahí que, por convenio,
se tome la población existente a mediados del período4 o población media para el
cálculo de las tasas.
Por otra parte, se debe tener especial cuidado al calcular tasas para poblaciones
pequeñas, como las que usualmente manejan los Consultorios, pues suelen
volverse inestables, ya que cualquier evento “mueve“ mucho la tasa, y a veces no
guarda relación el resultado obtenido con la magnitud del evento acontecido.
Las tasas que más importancia revisten para nuestro desempeño en el campo de
la Salud Pública son las relacionadas con la natalidad, mortalidad y morbilidad,
entre otras, las que serán estudiadas en detalle en el tema siguiente, tanto su
fórmula de cálculo como la interpretación.
Es conveniente insistir en que las medidas de resumen vistas anteriormente,
(razón - índice, proporción - porcentaje) sobre todo el porcentaje, no son medidas
de riesgo, el riesgo lo mide la tasa.
Con el cálculo de la proporción o el porcentaje lo que estamos midiendo es la
importancia relativa, lo que aporta, el peso que tiene cada categoría de la escala
de la variable con relación al total. Esta medida tiene un uso muy difundido y es
de gran utilidad, tiene la ventaja de poder comparar poblaciones con totales
diferentes porque todo se lleva a una base común que es 100.
Sin embargo, en ocasiones se le da un uso al porcentaje que desborda sus
posibilidades de análisis, y se cometen graves errores al interpretar los resultados
de un estudio.
Veamos un ejemplo.
Defunciones perinatales según edad gestacional de la madre. Ciudad de la
Habana. 2003.
Edad Gestacional Defunciones
(Semanas) No. %
20-27 31 6.2
28-32 108 21.2
33-36 124 25.6
37-41 197 39.7
42 y más 36 7.3
Total 496 100.0

4
Corrientemente se toma la población del 30 de junio.
49

Fuente: Registro de nacimientos, Dir. Prov. de Salud, CH


Pudiera resultar llamativo, para quien no conozca bien estas medidas, que el
mayor por ciento de defunciones se concentra en las edades óptimas para parir,
39.7% de defunciones entre las 37 y 41 semanas de gestación.

Este resultado es lógico, pues es precisamente en estas edades de gestación


donde ocurre un mayor número de nacimientos.
Lo que ocurre es que se está pensando en función del riesgo, por todos es
conocido, que desde el punto de vista clínico, el riesgo que tiene un niño de
fallecer es menor cuando se produce el parto a término que cuando ocurre con
pocas semanas de gestación. En este caso lo más conveniente es calcular las
tasas específicas de mortalidad en función de los nacimientos ocurridos en cada
grupo de edad gestacional, tal como se muestra a continuación.

Defunciones Nacimientos
Edad gestacional
No. % No. tasa x 1000
20–27 31 6.2 81 382.7
28–32 108 21.2 817 132.2
33–36 124 25.0 1912 64.8
37–41 197 39.7 29713 6.6
42 y más 36 7.3 2848 12.6
Total 496 100.0 35371 14.0

Observe como los valores más altos de las tasas, los mayores riesgos, se
encuentran en los menores tiempos de gestación, y a medida que las semanas de
gestación aumentan las tasas van disminuyendo para alcanzar su valor más bajo
de las 37 a las 41 semanas, y finalmente ascender ligeramente en los partos post-
término con 42 semanas y más.

1.4- Medidas de resumen para variables cuantitativas.


En el epígrafe anterior vimos cómo resumir las variables cualitativas, ya lo fuesen
por naturaleza o porque manejamos los datos en escala cualitativa. La información
cuantitativa también es dable de ser resumida, con las consabidas ventajas que de
ello se generan, pues corrientemente es necesario representar un conjunto de
datos por un número que —en la medida de lo posible— logre describir a dicho
conjunto. Para obtenerlo, se dispone de dos grandes grupos de medidas de
resumen: de tendencia central y de variación, las cuales veremos a continuación.
Antes de comenzar
En este apartado nos valdremos de algunas notaciones matemáticas para
representar las fórmulas de cálculo de los distintos indicadores.
50

Con el ánimo de refrescar la memoria, mencionamos los elementos propios del


lenguaje matemático que empleamos.
Para representar las distintas variables utilizamos las letras del alfabeto. Por
ejemplo, si medimos la edad y la talla de cinco individuos, pudiésemos referirnos a
la primera como la variable X, y a la segunda como la variable Y, de ahí que cada
vez que hagamos alusión a X, sabemos que en realidad estamos hablando de la
edad de las personas estudiadas (si fuera Y, entonces hablamos de la talla). Vale
aclarar que para escoger las letras no hay una regla específica, eso queda a su
decisión.
Supongamos que los resultados del estudio fueron los siguientes:
Edad Talla
Individuos (años) (cm)
X Y
Ana 24 130.0
Juan 26 120.0
Rosa 27 140.0
Pedro 25 150.0
Teresa 23 110.0

Por otra parte, pudiera referirse a la edad por las letras ed, o algo por el estilo. Lo
que debe quedar claro, es a qué se refiere con la simbología utilizada, pues X
puede significar edad en un estudio, pero sexo en otro, por citar un ejemplo.
Ahora bien, llegamos a otro punto que necesita ser definido. Para referirse a las
edades de los cinco individuos, y suponiendo que las representó por la letra X,
pudieran escribirse entre otras tantas formas:
X(Ana) = 24 X(Rosa) = 27 X(Teresa) = 23
X(Juan) = 26 X(Pedro) = 25

Como se ha visto, es un procedimiento bastante tedioso el utilizar los paréntesis u


otra forma similar de identificación de los datos. En su lugar, se pueden usar los
subíndices, resultando algo por el estilo: X1 = 24, X2 = 26, X3 = 27, X4 = 25, X5 =
23. De la misma forma, las tallas serían: Y1 = 130, Y2 = 120, Y3 = 140, Y4 = 150,
Y5=110.
También resultan muy útiles los subíndices generales (por lo general son letras),
los cuales hacen alusión a un grupo de valores de la variable. Por ejemplo, para
decir que hay cinco valores de la edad, puedes escribir: Xi (i = 1, 2, 3, 4, 5); o lo
que es lo mismo: Xi (i = 1,…, 5). Observe que lo anterior no dice que la variable
toma los valores 1, 2, 3, 4 ó 5, sino que hay cinco mediciones de la misma,
¿claro?
Supongamos ahora que sumamos todos los valores de la variable peso, entonces
se escribiría lo siguiente:
51

X1 + X2 + X3 + X4 + X5 = 650

En el caso que nos ocupa, resulta fácil y rápida esta forma de escritura, pero si
fuesen, digamos, ¡200! valores…
En esta situación, se utiliza la letra griega sigma mayúscula Σ, que representa el
símbolo de sumatoria, el cual antecede a la variable en cuestión y se acompaña
n
de dos anotaciones: una encima y otra debajo, como lo siguiente: ∑ X i . Esto se
i =1
lee como “la suma de las Xs desde i hasta n”, o sea, las Xs cuyos subíndices van
desde los valores especificados en i, o sea desde 1 hasta n.
5
Retomando el ejemplo anterior, hubieses escrito ∑ X i . Si quisieras sumar
i =1
4
solamente los tres valores del centro, entonces escribirías: ∑ X i .
i= 2
5
De la misma forma, ∑ X i Yi significa X1 Y1 + X2 Y2 + X3 Y3 + X4 Y4 + X5 Y5 =
i =1
(24·130) + (26·120) + (27·140) + (25·150) + (23·110) = 16 300.
Al mismo tiempo, recordamos que elevar al cuadrado un número es multiplicarlo
por sí mismo, y se representa por el supraíndice 2, o sea, 132 = 169 (porque 13·13
5
= 169). Entonces, ∑ X i2 es la representación matemática de lo siguiente —
i =1
utilizando los datos del ejemplo—: X12 + X 22 + X 32 + X 24 + X 52 = 242 + 262 + 272 +
252 + 232 = 576 + 676 + 729 + 625 + 529 = 3125.
La operación inversa de elevar al cuadrado es extraer la raíz cuadrada, que se
representa por el símbolo de radical , quedando bajo la barra horizontal a lo que
se le extrae la raíz cuadrada. De ahí que 4 = ±2, porque 2·2 = 4, pero –2 · –2 = 4
también, por lo que debe especificarse en buena lid el símbolo ±. Para algunos
datos del ejemplo anterior: 24 = ±4.89; 26 = ±5.09; 27 = ±5.19.
Por último, seguramente recordará que el valor absoluto o modular de un número
es él mismo sin el signo asociado, esto es, se toma la magnitud positiva del
número. Se representa por dos barras verticales que enmarcan al número
deseado, v.g. 3 = 3, y − 3 = 3.
1.4.1 Medidas de tendencia central: Media, Mediana y Moda.
Seguramente, lo primero que estará preguntándose es: « ¿Por qué de tendencia
central?». Bueno, es que ellas están constituidas por un número alrededor del
cual se agrupan las observaciones de la serie de datos y que ocupa el centro
aritmético o geométrico de ella, aunque eso no significa que el número deba estar
52

representado en la serie (de hecho, muchas veces no ocurre así). Veamos en


detalle cada una de estas medidas.
1.4.1.1 La media aritmética
Puede encontrar la medida que vamos a presentar con diversos nombres, entre
ellos los más utilizados son promedio, promedio aritmético e incluso simplemente
media. Al respecto debemos aclarar que existen otras medias que no son
aritméticas, pero cuando decimos media a secas, nos referimos a la aritmética.
La media aritmética es una cifra que se obtiene al sumar todos los valores
observados y dividirlos por la cantidad de valores. Por supuesto que todos
estamos muy acostumbrados al cálculo del promedio. Se denota por los símbolos
µ (letra griega mu) ó X (se lee equis media), el primero se utiliza cuando
trabajamos con toda la población objeto de estudio y el segundo cuando
trabajamos con una muestra de la población, que es lo más frecuente, por lo que
utilizaremos éste. La media conserva las unidades de medida de la variable en su
estado original, o sea, que la media de un grupo de edades en años se expresará
asimismo en años.
La fórmula de cálculo de la media es:
n
∑ Xi
i =1
X=
n

Veamos un ejemplo. Supón que deseas conocer la estatura media de cinco


adolescentes de tu consultorio. Estas son las observaciones (datos) de la
medición de cada uno de ellos (en cm):

170.0 150.0 130.0 160.0 140.0

170 + 150 + 130 + 160 + 140


X= = 150 cm
5

Este resultado indica que, en promedio, los adolescentes miden 150 centímetros.
Sencillamente, no hemos hecho otra cosa que decir: «más o menos, los
muchachos miden 150 centímetros».
Entre las propiedades de la media tenemos las siguientes:
1. Es fácilmente comprensible por la mayoría de las personas (o, al menos, es
fácil de explicar su significado);
2. Siempre existe, y puede calcularse para cualquier grupo de datos numéricos;
3. Es única, o sea, un grupo de datos sólo tiene una media;
4. Toma en cuenta a todos los valores de la serie de forma individual, esto es,
recorre la serie completa.
53

Esta última resulta ser sumamente importante, pues la media calculada representa
a todos los valores de la serie, siendo precisamente lo que se quería lograr. Ahora
bien, no siempre esto resulta beneficioso, como se verá en el próximo ejrmplo:
imagínese que se deseaba saber la edad promedio de las personas reunidas en
un salón de cierto Círculo Infantil, para lo cual se escogió al azar uno de los que
poseía dicho centro. En el momento de la medición, se encontraban presentes en
el salón escogido siete bebés y la educadora que los cuidaba, siendo sus edades
las siguientes (m: meses, a: años):
18m 10m 12m 16m 20m 12m 14m 34a
Edad media: 510 meses/8 = 63.75 meses = 5.3 años
Ahora tenemos que, en promedio, las personas allí reunidas tenían 64 meses de
edad (¡Bueno, 5 años es algo más fácil de entender!) ¿Crees que sea cierto ese
dato? Claro que no, está bastante lejos de la realidad, mas no está mal hecho el
cálculo. Matemáticamente es impecable, pero la lógica dice que algo falló.
El motivo por el que apareció un resultado tan dispar es la presencia de un dato
discordante en el conjunto: la edad de la educadora. Cuando en una serie de
datos encuentras algún dato que se aparta de los demás de forma llamativa,
entonces puedes nombrarlo dato(s) aberrante(s). Si calculásemos la media con las
edades de los pequeños solamente, entonces hubiese sido de 15 meses.
En resumen, si los datos son relativamente homogéneos, la media aritmética es
una buena medida de resumen; pero si existen valores muy alejados de la
mayoría (datos aberrantes), entonces se distorsiona mucho y deja de reflejar la
realidad existente, por lo que debe emplearse otro tipo de medida de tendencia
central, la mediana.
Nota: la fórmula analizada anteriormente solo puede emplearse cuando los datos
son simples5, si los datos ya están agrupados en una tabla de distribución de
frecuencias es necesario emplear otra fórmula de cálculo que es un poco más
compleja por lo que decidimos no abordarla, ya que generalmente en la
investigación es el propio investigador quien agrupa los datos. De todas formas
esto puedes consultarlo en la bibliografía que se encuentra referida al final del
tema.
1.4.1.2 La Mediana
La mediana es otra de las medidas de tendencia central. Al igual que la media,
puede ser utilizada para describir el “centro” de un grupo de datos. No tiene un
símbolo específico que la denote; nosotros usaremos Me o mediana en lo
adelante.
La mediana es la observación que divide a una serie ordenada de datos en dos
partes iguales, o sea, es la observación que ocupa la posición central de una
serie ordenada.

5
O sea, datos no agrupados en tabalas ni distribuciones de frecuencias.
54

De lo antedicho se deduce que lo primero que tienes que hacer para calcular la
mediana es ordenar la serie, ya sea en orden creciente o decreciente. Luego,
buscarás cuál de los valores es la mediana, lo cual dependerá del número total de
observaciones o datos que tengas.
Si tienes un número n impar de observaciones, la del centro es la medida
buscada, como lo es 32 en esta serie: 41, 40, 36, 32, 26, 21, 20. Fíjate que a
ambos lados de la mediana hay la misma cantidad de números.
En este caso, por simple observación llegaste al resultado, pero puedes valerte de
n+1
calcular para saber la posición de la mediana, comenzando a contar por
2
cualquiera de los dos extremos de la serie. En el ejemplo anterior el resultado es
(7+1)/2 = 4, y el cuarto puesto lo ocupa el 32, no importa por cuál extremo
comienzas a contar.
La contrapartida ocurre cuando el total de datos es un número par; entonces la
mediana es la media aritmética de los valores del centro de la serie, como sucede
en el ejemplo: 20, 24, 33, 39, 45, 51, 75, 80. Los valores del centro son 39 y 45, su
media es 42, y es este el valor de la mediana de esa serie.
No debe causar extrañeza tal proceder, pues si aplicásemos la fórmula de la
posición, entonces la mediana ocuparía el lugar (8+1)/2 = 4.5, esto es, la mitad
entre los números 4 y 5 de la serie. Ocupando los valores 39 y 45 los lugares 4º y
5º respectivamente, entonces 42 es el centro entre ellos. ¿De acuerdo?
Se puede presentar la situación de que tengamos una serie con varios valores
iguales, como 50, 54, 56, 56, 56, 56, 60, 62. Aquí la mediana es 56, claro está.
Recuerde que ella es el valor central del grupo, y sería un atentado abierto a la
lógica cuestionarse cuál de los 56 es la mediana.
También puede calcularse la mediana para datos agrupados, de manera similar a
la media, lo que puede consultarse en la literatura básica y complementaria al final
del tema.
La mediana posee las propiedades siguientes:
1. Su cálculo es sencillo;
2. Siempre existe, y puede calcularse a cualquier conjunto de datos numéricos;
3. Es única;
4. No se afecta fácilmente por valores extremos.
La cuarta propiedad hace que se prefiera esta medida sobre la media en
situaciones en que existan valores aberrantes. Ahora bien, en la mayoría de los
casos —lógicamente, salvo los citados— se prefiere la media como medida de
tendencia central.
Para ilustrar lo planteado en la cuarta propiedad, volvamos al ejemplo de las
edades de los niños del Círculo Infantil y su educadora. Si calculamos la mediana
de esos datos, ésta sería:
55

Datos ordenados: 10, 12, 12, 14, 16, 18, 20, 34


Mediana: (14 + 16) / 2 = 15 meses, resultado que sí refleja con certeza
el centro de los datos.
Quizá una desventaja imputable a la determinación de la mediana radica en el
ordenamiento previo de las observaciones, faena que pudiese devenir tediosa y
hasta impracticable de ser un número considerable de datos, pero recuerda las
potencialidades que te brindan los programas existentes en el mercado actual, que
facilitan enormemente el trabajo6 al calcular la mayoría de estos indicadores.
1.4.1.3 La Moda
Ahora se conocerá una medida realmente sencilla, tanto de determinar como de
interpretar. Es muy intuitiva, y consiste en el valor, clase o categoría que aparece
con más frecuencia en una serie de datos; o sea, es el que más se repite. Por
ejemplo, si de seis pacientes, tres tienen 20 años, y los otros tienen 18, 21, y 25
respectivamente, entonces se diría que 20 años es la moda, o edad modal.
La mayor ventaja de la moda radica en que no requiere cálculo alguno, para
beneplácito de algunos que no cuentan a las Matemáticas entre su círculo de
amistades. Sin embargo, puede que no exista, e incluso puede no ser única. Por
ejemplo, la serie 2, 5, 6, 6, 6, 7, 8, 8, 8, es una serie bimodal, pues cuenta con el
seis y el ocho como modas.
1.4.2 - Medidas de Dispersión.
En el epígrafe anterior se estudiaron algunas medidas que proporcionan
información de una serie de datos numéricos, con la característica que un solo
número es el encargado de esto. Quizá podría parecer que con las medidas de
tendencia central sería suficiente para resumir y describir un conjunto de datos, sin
embargo, múltiples circunstancias exigen la descripción de otros rasgos de los
datos existentes, tal es el caso de la dispersión o variabilidad que trataremos a
continuación.
1.4.2.1 Necesidad del estudio de la dispersión.
Comencemos con un ejemplo, a continuación te mostramos los resultados de la
frecuencia cardíaca (FC), en latidos cardíacos por minuto, de 100 pacientes
ingresados en el Servicio de Medicina Interna de cierto hospital:
FC Nro. pacientes
21 – 40 1
41 – 60 17
61 – 80 38
81 – 100 40
101 – 120 4
Total 100

6
No tiene que acudir obligatoriamente a un paquete estadístico especializado: por
ejemplo, Microsoft® Excel realiza cálculos como el que nos ocupa.
56

La media aritmética de estos datos agrupados está dada por:


7630
X= = 76.3
100
Por lo que se puede decir que, en promedio, los pacientes estudiados tenían una
frecuencia cardiaca de 76 latidos por minuto.
Ahora bien, a partir de esta información el médico a cargo de la sala (que no fue
quien hizo el estudio) pudiera realizar el siguiente análisis: «tomando en cuenta la
FC media, no tengo motivos para preocuparme por la salud de los pacientes,
pues, en general, ostentan cifras dentro de límites normales; por ende, tenemos
que encaminar nuestros esfuerzos hacia otros problemas».
¿Qué puede opinarse acerca de esto? Sí, estamos de acuerdo en principio, no
está nada mal, ya que interpretó correctamente el indicador. Pero, hay algo que
debe recordarse: la realidad es que, hasta donde él sabe, puede que la mayoría
de los pacientes sea la que tiene frecuencias cardiacas en los límites
considerados normales; pero puede que sea solamente la mitad, mientras la otra
mitad permanezca en franca bradicardia (o taquicardia). Claro, este es uno de los
casos “extremos”, mas el hecho de que sea algo poco probable no significa que
sea imposible. De hecho, notar que en el ejemplo, el intervalo de clase que
ostenta mayor frecuencia absoluta (40) es el de 81 a 100 latidos por minuto, o sea,
no es precisamente el que contiene a la media.
Veamos otra situación. Fíjese en estas dos series cuyas medias y medianas
coinciden (53). Sin embargo, no podríamos decir que son semejantes, si tomamos
en cuenta sus datos:
Serie A: 50, 51, 52, 53, 54, 55, 56
Serie B: 23, 33, 43, 53, 63, 73, 83
Por supuesto que no podemos. En la serie A los datos están más juntos, están
más cercanos (distan una unidad entre sí), lo que no ocurre en la serie B, cuyos
datos están mucho más alejados entre sí. Si se analizan las distancias entre las
observaciones y su media, en la serie A la primera y última observaciones están a
tres unidades del centro de la serie, mientras que en la otra esas observaciones
distan 30 unidades de su media. ¿Claro?
Ante una situación parecida, se necesitan otros parámetros acerca de la serie,
como aquellos que miden cuán alejadas o agrupadas están las observaciones
unas de otras o de la media.
El grado de agrupación o alejamiento de los datos de una serie es lo que recibe el
nombre de variabilidad, variación, esparcimiento o dispersión de los datos, la cual
puede ser absoluta o relativa. Con el fin de estudiarla, esto es, de conocer hasta
qué punto las observaciones están agrupadas o esparcidas, la Estadística nos
facilita las medidas de variabilidad, variación, esparcimiento o dispersión, las
cuales verás en este epígrafe.
57

1.4.2.2 Medidas de variabilidad absoluta


El Rango o Amplitud
Esta es la más sencilla de las medidas de dispersión. Consiste en la diferencia
entre el mayor valor de la serie y el menor, o sea, restar ambos valores. Por
ejemplo, la amplitud de los datos de la serie A —vista en el acápite anterior— es
de 56 - 50 = 6, y la de la serie B es de 60.
Como ves el rango o amplitud es una medida muy fácil de determinar. Da una idea
rápida de la variabilidad de un grupo de observaciones. No es muy descriptiva de
la misma porque sólo toma en cuenta los valores extremos de la serie, veamos el
siguiente ejemplo:
Serie A: 150, 160, 170, 180, 190, 200
Serie B: 150, 190, 197, 198, 199, 200
Resulta obvio que ambas tienen la misma amplitud (50), pero salta a la vista que
ambas no tienen la misma dispersión. En la primera, los valores se sitúan de
forma bastante dispersa entre los extremos; en la segunda la mayoría está
cercana al valor mayor de la serie.
Si queremos describir de manera más eficiente la dispersión de un conjunto de
datos, tendremos que emplear otras medidas de dispersión más específicas.
La desviación media
Al hablar de dispersión, lo hacemos la mayoría de las veces tomando en cuenta a
la media aritmética del conjunto de observaciones. Así, cuando decimos que la
dispersión de una serie es pequeña, es porque los datos están agrupados en la
cercanía de su media, siendo grande si los datos están alejados de ella. Esto
sienta las bases para utilizar como referencia las distancias (diferencias) para
referirnos a la dispersión, o sea, que sería procedente definirla en función de las
distancias que existen entre los valores de la serie y su media. Estas distancias
pueden ser vistas como la desviación entre los elementos en cuestión; con otras
palabras, si hay mucha distancia, decimos que se desvió mucho el número de la
media, y así por el estilo.
Si promediásemos las desviaciones entre cada número y la media, o sea,
sumarlas y dividirlas por la cantidad de números de la serie, obtendríamos una
medida de la variación promedio del conjunto de datos dada por:
n
∑ ( Xi − X )
i =1
n
58

Por desgracia, realizar este cálculo te sería tan provechoso como no hacer
ninguno, pues el resultado final siempre es cero7, debido a razones matemáticas.
Por ejemplo, considera la siguiente serie: 2, 3, 4, 5, 6. Su media es 4, y si
calculásemos lo planteado:
(2 − 4) + (3 − 4) + ( 4 − 4) + (5 − 4) + (6 − 4) ( −2) + ( −1) + 0 + 1 + 2 0
= = =0
5 5 5
La solución a este inconveniente es hallar la diferencia modular de las
desviaciones, de esa manera sólo se tomará en cuenta la magnitud de dichas
desviaciones, esto es, hallar el módulo de las diferencias. De esta forma, se estará
calculando la desviación media (DM) o desviación promedio, cuya fórmula para
datos simples es:
n
∑ Xi − X
i =1
DM =
n
donde:
- Xi son las observaciones de la serie (i = 1,…, n);
- X : media aritmética de la serie;
- n: total de observaciones.
Ilustremos lo antedicho calculando la desviación media de las siguientes
mediciones del peso (en libras) que corresponden a cinco estudiantes de un área
de salud.
150.5, 180.8, 145.3, 127.9, 130.5
Ante todo, calcule la media:
150.5 + 180.8 + 145.3 + 127.9 + 130.5
X= = 147 libras
5

Luego halle las desviaciones de cada observación con respecto a la media:


Xi |Xi - X |
150.5 3.5
180.8 33.8
145.3 1.7
127.9 19.1
130.5 16.5
74.6
Finalmente, DM = 74.6 ÷ 5 = 14.92 libras.

7
Estriba en que la media de las desviaciones es justamente la media misma.
Como escapa a los propósitos de este curso entrar en formalismos matemáticos,
si estás interesado puedes acudir a la literatura especializada para indagar al
respecto.
59

Calculada la medida deseada, se puede decir que, el peso de los estudiantes se


desvía casi 15 libras de la media de 147 libras.

Particularicemos en algo: si se tratase de una serie con valores aberrantes, se


debió calcular la mediana en vez de la media; entonces utilice la mediana para
calcular la desviación media, sustituyendo la media en la fórmula por la mediana.
La desviación media es una medida que se utiliza poco en la práctica, sobre todo
si son muchos datos o si éstos tienen muchos lugares decimales, pero
principalmente debido a razones de índole matemática que no abordaremos en
este curso. De todas formas, optamos por darla a conocer con el fin de que se
logre entender cabalmente las medidas que veremos a continuación.
La varianza y la Desviación Estándar
Como se recordará, para calcular la desviación media nos vimos obligados a
utilizar las diferencias modulares para obtener un resultado válido, pues de lo
contrario no se obtenía nada. Pues bien, existe otra medida que se vale de elevar
al cuadrado las desviaciones de los datos con respecto a su media. Dicha medida
recibe el nombre de varianza o variancia. Se denota por los símbolos S2 ó σ2 (letra
griega sigma minúscula al cuadrado), al igual que con la media, la distinción entre
ellos se refiere a muestra y población, respectivamente. De momento, usaremos el
primero. Su cálculo (para datos simples) se verifica según la fórmula:

∑ (X i − X )
n 2

S 2 = i =1
n
donde:
- Xi son las observaciones de la serie (i = 1,…, n);
- X : media aritmética de la serie;
- n: total de observaciones.
Esta medida logra describir adecuadamente la dispersión del conjunto de datos,
pero tiene un inconveniente: su resultado se expresa en las unidades de medida
de la variable elevadas al cuadrado, algo harto engorroso y difícil de entender en
la mayoría de las situaciones prácticas, y por demás disonante en relación con la
medida de tendencia central utilizada. Sería algo así como años cuadrados, o
pesos cuadrados.
A fin de eliminar este aparente escollo, se puede hallar la raíz cuadrada positiva
del número obtenido, con lo que tendremos de vuelta las unidades originales,
obteniendo así una medida denominada desviación típica o estándar8, que es la
medida de variación más ampliamente utilizada en el mundo de las estadísticas.
Su símbolo es S (por ser la raíz cuadrada de la varianza), aunque se utiliza

8
Aunque en muchos textos se utiliza standard, preferimos utilizar la traducción al
castellano del término.
60

también DS (desviación standard) o SD (standard deviation). Tiene, además, la


ventaja de que hasta las calculadoras de bolsillo —las científicas, claro está— la
calculan, y casi la totalidad de los paquetes estadísticos existentes en el mercado
del software.
Vamos a calcular la desviación estándar de la serie del ejemplo de los pesos (en
libras) del acápite anterior.
150.5, 180.8, 145.3, 127.9, 130.5
X = 147 libras
Xi (Xi - X )2
150.5 12.25
180.8 1142.44
145.3 2.89
127.9 364.81
130.5 272.25
1794.64

S2 = 1794.64 ÷ 5 = 358.93 libras2

S = 358.93 = 18.94 libras

Con el resultado obtenido puede decirse que, en promedio, los datos se desvían
de la media en casi 19 libras.
En gran parte de las situaciones del mundo biomédico, y basándose en elementos
de la Estadística Inferencial9, se pueden utilizar la desviación estándar y la media
para construir intervalos en los que se encuentran la mayor parte de los datos. Por
ejemplo, en el intervalo cuyo extremo inferior sea X – SD y el superior sea X +
SD, o sea, [ X – SD; X + SD], se encuentra cerca del 68% del total de las
observaciones. Si construimos el intervalo con el duplo de la SD: [ X – 2·SD; X +
2·SD], entonces ahí estará cerca del 95% de los datos; y utilizando el triplo de la
SD, el intervalo contendrá entonces a más del 99% (99.73%) de las
observaciones.
Si los datos están agrupados, el cálculo de la varianza se realiza de manera
diferente pero no lo abordaremos, esto puedes consultarlo en la literatura básica al
final del tema.
Si la serie posee valores aberrantes, usted se ve obligado a utilizar la mediana,
por lo que ahora debe sustituir la media por la mediana en la fórmula para calcular
la varianza y la desviación típica.

9
Nos referimos a la normalidad de las poblaciones. Este es un tema que va más
allá de los objetivos del presente curso.
61

1.4.2.3 Medidas de variabilidad relativa


En muchas ocasiones es necesario comparar la dispersión entre dos o más
conjuntos de datos, y sucede que las variables tienen diferentes unidades de
medida. Con las medidas de dispersión estudiadas no se puede llegar a una
conclusión válida acerca de la comparación en las desviaciones de los datos.
El coeficiente de variación
Ante casos como el descrito con anterioridad, es imprescindible contar con una
medida de variabilidad relativa, como el coeficiente de variación (CV), que expresa
a la desviación típica como porcentaje de la media, y su cálculo se realiza
mediante:
SD
CV = 100
X

Observa que, por tener la desviación estándar y la media las mismas unidades de
medida, quedan canceladas dichas unidades, de ahí que el coeficiente de
variación no tenga unidades propias10, lo que facilita la comparación.
En el ejemplo siguiente, si se comparan las desviaciones estándar de los dos
grupos, pudiera creerse que ambos tienen igual dispersión, lo cual es un error
pues no se pueden comparar Kg. con cm:
Grupo 1: peso medio = 60 Kg.; SD = 4 Kg.
Grupo 2: talla media = 170 cm.; SD = 4 cm.
Sin embargo, al calcular la medida recién conocida, entonces: CV peso = 6.6% y
el CV talla = 2.3 %. Con lo que vemos algo bien diferente, pues en realidad el
grupo 1 tiene casi tres veces más dispersión en su peso que el grupo 2 respecto a
la talla.
Hay algo importante que usted debe saber, cuando se trata de una sola unidad de
medida, es decir, comparar la dispersión de dos grupos de estudio respecto a la
misma variable medida en la misma unidad de medida, se puede comparar
directamente la desviación típica (varianza) o la desviación media de ambos
grupos estudiados, en este caso es un error comparar los coeficientes de
variación, ya que el CV depende de los valores de las observaciones en sí
mismas, es decir, si comparo dos grupos de pacientes respecto a la talla en cm
puede suceder lo siguiente:
Grupo 1: talla promedio = 60 cm; SD = 4 cm
Grupo 2: talla promedio = 170 cm; SD = 4 cm
En este ejemplo ambos grupos tienen el mismo grado de dispersión respecto a la
talla, ya que poseen igual desviación estándar, pero habrán notado que las medias
son bien diferentes, el grupo 1 a juzgar por su talla promedio son lactantes,

10
Con otras palabras, el coeficiente de variación es adimensional.
62

mientras que el grupo 2 pueden ser jóvenes o adultos de cualquier edad.


Calculemos el CV en cada caso:
CV1 = 6.6 %
CV2 = 2.3 %
Aparentemente el grupo 1 es mucho más disperso respecto a la talla que el grupo
2, lo cual no es cierto, sucede que tienen diferentes valores de talla, el grupo 2 es
mucho más alto que el grupo 1, lo que se manifiesta en el promedio, pero en la
desviación estándar esto no queda reflejado, ya que es la diferencia promedio de
cada valor respecto a la media, no importa si esos valores son altos o bajos, ya
que su media también será alta o baja. Es decir, en el grupo 1 la talla de cada
paciente, como promedio, se desvía de la talla media unos 4 cm, al igual que en el
grupo 2. ¿Claro?

1.5 - Análisis de Series Cronológicas o Temporales.


Los eventos de salud relacionados con las poblaciones residentes en cualquier
área geográfica transcurren en el tiempo, por ello, es de capital importancia
estudiar su comportamiento a lo largo de éste. La evolución temporal de estos
eventos se puede conocer a través del análisis de las llamadas series temporales,
a las cuales dedicaremos este capítulo.
Una serie temporal, serie de tiempo o serie cronológica, pues de cualquiera de
estas formas puede llamársele, se define como el conjunto de mediciones sobre el
estado de una variable (el evento de salud considerado) ordenados en el tiempo1.
Las series temporales pueden clasificarse según la forma en que se ofrecen los
valores de las mediciones en dos tipos:
• Continuas: cuando los valores se ofrecen de forma permanente, de manera tal
que cada uno de ellos representa el estado de la variable en un instante, el
cual puede ser tan pequeño como teóricamente se quiera suponer.
• Discretas: cuando los valores se ofrecen para intervalos de tiempo,
generalmente homogéneos y donde representan la magnitud acumulada del
estado de la variable durante ese intervalo.
Estas últimas son las más utilizadas en Salud y en este contexto solamente
analizaremos las de este tipo. Un ejemplo de una serie discreta puede ser la
compuesta por las tasas anuales de mortalidad por enfermedades del corazón en
Cuba en los últimos 20 años o las tasas de incidencia mensual de hepatitis de una
provincia en un quinquenio.
Las series temporales tienen además otra característica, que hace muy difícil su
tratamiento mediante los métodos estadísticos habituales, pues en la mayoría de
éstos se exige el cumplimiento del supuesto de independencia de las
observaciones, mientras que las series generalmente se caracterizan por la
dependencia existente entre observaciones sucesivas. Dicho de otro modo, puede
63

existir una correlación entre las tasas de incidencia de determinada enfermedad


en períodos consecutivos de tiempo.
Existen muchas razones para estudiar una serie, por ello son de gran importancia
en nuestro medio pues entre otras cosas sirven para:
„ Describir las características más sobresalientes de cualquier evento en el
tiempo.
„ Predecir el comportamiento futuro de un evento de salud según su conducta
pasada.
„ Estudiar el mecanismo que genera la serie.
„ Evaluar impacto de las intervenciones realizadas sobre determinado problema
de salud.
„ Contribuir a la prevención de problemas de salud.
„ Controlar la calidad de los programas de salud.
„ Planificar recursos.
Ahora bien, antes de comenzar a trabajar con cualquier serie es necesario
evaluar algunos aspectos relacionados con la calidad de la misma, los cuales
pueden determinar el que ésta no tenga suficiente valor como para ser analizada.
Pudieran considerarse como los requisitos básicos que deben cumplirse antes de
comenzar el tratamiento de la serie y son: la consistencia, la comparabilidad, la
estabilidad, la existencia de valores aberrantes y la periodicidad.
1.5.1 –Requisitos de la Serie Temporal
Consistencia de la serie.
La característica fundamental para poder juzgar sobre la consistencia de una serie
está dada por la invariabilidad en el método de observación o recolección de los
datos, quiere esto decir que cualquier modificación que se efectúe en los mismos
puede determinar inconsistencias. Las series confeccionadas con mediciones
obtenidas por métodos rudimentarios pueden ser muy buenas siempre y cuando
éstos se mantengan estables, pues lo que verdaderamente se necesita es que el
método empleado sea capaz de medir las fluctuaciones del evento en el tiempo y
no tanto la verdadera magnitud del fenómeno. Evidentemente, obtener una serie
consistente en salud no resulta fácil pues existen muchas fuentes de variaciones
como son:
1. Cambios en las definiciones y clasificaciones empleadas. Es necesario
cerciorarse de que las clasificaciones y definiciones utilizadas a lo largo de la
serie sean iguales, las modificaciones impuestas por la Clasificación
Internacional de Enfermedades y Causas de Muerte deben ser tenidas en
consideración así como la no utilización de definiciones imprecisas.
2. Modificaciones en las formas de recogida y procesamiento de los datos. Deben
tomarse en cuenta las variaciones que pueden producirse cuando se implantan
64

nuevos sistemas de información estadística o cuando se sustituyen los


métodos manuales de procesamiento por los computacionales.
3. Modificaciones en los criterios de diagnóstico de las enfermedades. El
incremento en la capacidad diagnóstica debido al perfeccionamiento de las
técnicas y a la mayor cantidad de conocimientos, trae como consecuencia que
cuando se analiza un período largo de tiempo pueden existir modificaciones en
los criterios utilizados y producirse por lo tanto variaciones en el número de
casos que en ninguna medida representan la evolución real de la enfermedad.
4. Calidad de los registros. Nunca se insiste lo bastante en la calidad de los
registros y sin embargo, estos constituyen la piedra angular sobre la cual
descansa el estudio de las series; la calidad de los mismos depende del
personal que registra el dato, de su preparación y disciplina así como de su
estabilidad y experiencia en la actividad.
5. Modificaciones en la cobertura del sistema. Cuando se producen cambios en la
cobertura del sistema, ya sea por incremento de las instituciones o de la fuerza
laboral, debe esperarse un incremento en el número y frecuencia de los
eventos de salud, debidos simplemente al aumento del pesquisaje; no tomar
en cuenta lo anterior puede llevar a conclusiones fatales acerca del
comportamiento de cualquier fenómeno.
6. Calidad del diagnóstico. Al igual que con la calidad de los registros debe ser
una preocupación constante del que va a procesar una serie, el inquirir sobre la
calidad con que se han efectuado los diagnósticos, pues independientemente
del desarrollo tecnológico, existe un componente muy subjetivo en esto dado
por la preparación y dedicación de quienes realizan esta tarea.
7. Modificación de las características demográficas de la población subyacente.
Los cambios producidos en la población subyacente ya sean con relación a su
volumen o a su composición, pueden influir en los eventos de salud
considerados y hacer aumentar o disminuir los valores de los indicadores
utilizados, por lo tanto deben ser tenidos en cuenta.
8. Características del mecanismo de notificación: Hemos incluido este aspecto,
pues aunque no determina realmente la inconsistencia de la serie, si produce
modificaciones en el comportamiento de la misma las cuales deben ser
tomadas en cuenta. Si la serie está conformada mediante los valores
obtenidos por un mecanismo de notificación, una de las cosas que pueden
suceder es que los canales normales por donde fluye la información impongan
un retraso en la llegada de los datos desde las unidades de base hasta los
centros de recopilación finales. En este caso se encuentran las enfermedades
que requieren para su notificación final de exámenes de laboratorio complejos
los cuales solamente se realizan en instituciones de carácter nacional (por
ejemplo el SIDA o las enfermedades inmunoprevenibles).
65

Este retraso en la información produce una serie con valores incompletos de la


variable hacia el final de los períodos de tiempo considerados y esto se traduce
gráficamente por la presencia de una meseta artificial en una curva epidémica.
Para corregir este sesgo se han propuesto varios métodos que pueden ser
consultados en la literatura2,3,4 Otro de los problemas relacionados con las
notificaciones y que puede inducir a error en la interpretación de la serie, es el
producido por el efecto del calendario de recogida de la información, pues este
determina un incremento de casos en los intervalos de tiempo donde usualmente
se cierran las informaciones. Generalmente se observan a finales de trimestres,
semestres y años. Finalmente tenemos el problema que surge cuando las
notificaciones se realizan según la fecha de diagnóstico y no según fecha de
primeros síntomas. Es muy importante conocer esta característica, sobre todo
para enfermedades que tienen un período de transmisibilidad corto y
especialmente si se quiere predecir el momento de mayor riesgo para su
adquisición.
Comparabilidad de los valores de la serie.
Un aspecto importante en el trabajo con series es el de asegurar la comparabilidad
de los valores temporales de la variable, pues cuando ésta se refiere a un evento
que ocurre en una población cuya magnitud fluctúa con el tiempo, es necesario
obtener una medida de relación que permita independizar al valor de la medición
de dicho cambio. Por este motivo no se recomienda trabajar con números
absolutos a menos que se esté seguro de que la población se ha mantenido
invariable a lo largo del período analizado.
Generalmente se utilizan tasas o índices. Sin embargo, al emplear estas medidas
relativas debe garantizarse la calidad del cociente en ambos términos. La calidad
del numerador viene dada fundamentalmente por la utilización de la misma
definición para los casos y por el cumplimiento de los aspectos mencionados al
hablar de la consistencia. La calidad del denominador, depende de la coincidencia,
para todos los intervalos de tiempo que se estudian, de las características de las
poblaciones empleadas (la misma zona geográfica, mismo grupo de edad, mismo
sexo, etc.).
Estabilidad de la serie.
Una serie inestable puede producirse cuando se trata con eventos poco frecuentes
o con aquellos cuya magnitud es prácticamente despreciable con relación a la
población en la cual ocurren. En este caso están incluidas las enfermedades raras
o las que tienen una baja prevalencia. La utilización de medidas relativas cuando
el valor de las mismas está muy cerca del cero trae como consecuencias
dificultades para la obtención de los intervalos de confianza y que pueden originar
intervalos absurdos. Cuando el número de casos de una enfermedad es muy
pequeño en un intervalo de tiempo, esto se puede corregir agrupando los casos y
ofreciéndolos en intervalos de tiempos mayores, por ejemplo usando meses en
vez de semanas.
66

Existencia de valores aberrantes.


Los valores que se apartan mucho del conjunto de valores de su entorno o de los
pertenecientes a iguales períodos de tiempo deben ser considerados como
aberrantes o anómalos, pueden presentarse al observar el gráfico de la serie
como saltos aislados hacia arriba o hacia abajo, bien diferenciados de sus
vecinos. La aparición de estos valores puede tener varias explicaciones y es muy
importante decidirse por una de ellas.

Gráfico 1

Blenorragia.Cuba,1970-2000

450
400
Tasas por 100 000 hab.

350
300
250
200
150
100
50 valor aberrante
0
1970
1971
1972
1973
1974
1975
1976
1977
1978
1979
1980
1981
1982
1983
1984
1985
1986
1987
1988
1989
1990
1991
1992
1993
1994
1995
1996
1997
1998
1999
2000

años

Pueden deberse a errores tales como: introducción incorrecta de los datos en la


computadora, mala trascripción del dato original así como datos originales
deficientes debido a errores en su obtención en la unidad de procedencia. Las
dificultades de este tipo deben ser corregidas de inmediato. En el Gráfico 1 se
muestra un ejemplo de valor aberrante presentado por la serie de incidencia anual
de blenorragia de Cuba en el año 1993.
Cuando el valor aberrante no es producido por un error entonces debe ser
sustituido. La sustitución de estos valores se realiza declarándolos como datos
perdidos, pues casi todos los programas computacionales tienen opciones para
tratar con este tipo de dato (missing data o missing value). Entre las más utilizadas
están las siguientes:
1. Sustitución por la semisuma de los valores vecinos. Esta es la forma más
sencilla y habitual de sustituir un valor aberrante sobretodo cuando se trata de
casos aislados.
67

2. Sustitución por la media aritmética general de la serie. Este método puede ser
la mejor manera de estimar un dato siempre y cuando la serie no tenga
grandes fluctuaciones.
Aún cuando existen numerosas posibilidades para la sustitución de los datos
gracias a los paquetes computacionales, a veces la mejor forma de reemplazar un
dato aberrante es utilizando el valor sugerido por un experto, aún cuando puede
decidirse también no utilizarlo en absoluto.

Gráfico 2

Meningitis Bacteriana. Cuba,1982-2000

40
35
Tasa por 100 000 hab.

30
25 vacunación
20
15
10
5
0
1982
1983
1984
1985
1986
1987
1988
1989
1990
1991
1992
1993
1994
1995
1996
1997
1998
1999
2000
años

Ahora bien, existen situaciones a las cuales están asociados los datos aberrantes
y que no deben pasarse por alto, por ejemplo, un conjunto de valores anormales
puede significar que se está produciendo un cambio en los niveles de la serie
debido a modificaciones en la magnitud real del evento o a errores sostenidos en
el mecanismo de observación o medición, en ambos casos ese requiere de una
investigación complementaria antes de continuar el análisis. En el gráfico 2 se
observa la modificación del nivel de la serie producida en la serie de Meningitis
Bacteriana a partir del inicio de la vacunación contra la meningitis meningocóccica
tipo B.
Periodicidad de la serie.
La periodicidad de la serie no es más que el intervalo regular de tiempo al final del
cual obtenemos una medición resultante del estado de la variable. La decisión de
cual es la que mejor conviene a nuestro estudio, está en dependencia de los
objetivos que se persigan, pues si se desea conocer el comportamiento histórico
de un fenómeno, entonces lo más razonable es utilizar series con una periodicidad
anual, en cambio si se quiere hacer la vigilancia de determinada enfermedad
transmisible resulta más apropiado el empleo de series semanales.
68

El gráfico de la serie
Hemos dejado este asunto para el final, pero no porque sea el menos importante,
pues el estudio de cualquier evento en el tiempo tiene que comenzar
necesariamente por la exploración de su representación gráfica. La observación
de ésta permite apreciar los detalles más relevantes de la serie así como detectar
los valores anormales.
El gráfico por excelencia para una serie de tiempo es el llamado Gráfico Aritmético
Simple (GAS), donde en el eje de las abscisas se inscriben los momentos de
tiempo considerados y en el eje de las ordenadas los valores de la variable
obtenidos para cada uno de los intervalos. Generalmente se utilizan las escalas
aritméticas para ambos ejes aunque pueden emplearse escalas semilogarítmicas.

Gráfico 3. Escala Aritmética


INCIDENCIA DE LEUCEMIA POR GRUPOS DE EDAD.
CUBA 1988-1994

20

16
Tasa x 100 000 hab.

12

0 a 14
4 15 a 49
50 y mas
Total
0

1988 1989 1990 1991 1992 1993 1994


Años

Fuente: Registro Nacional de Cáncer

Los gráficos con escalas semilogarítmicas son muy útiles para representar la
variación relativa del fenómeno estudiado, lo cual suele ser de mayor interés para
el epidemiólogo que la propia variación absoluta. Generalmente se utilizan para
representar series de datos que tienen magnitudes diferentes. Si con esta escala
el evento representado aparece como una línea recta esto permite suponer que
existe una evolución constante (crecimiento o decrecimiento) del indicador
empleado y la pendiente de esa recta pone de manifiesto la magnitud de esa
evolución.
69

Gráfico 4 Escala Semilogarítmica

INCIDENCIA DE LEUCEMIA POR GRUPOS DE EDAD.


CUBA 1988-1994

100
Tasa x 100 000

10
0 a 14
15 a 49
50 y mas
Total

1
1988 1989 1990 1991 1992 1993 1994

Años

Fuente: Registro Nacional de Cáncer

Cuando se analizan dos series de datos y ambas aparecen como rectas paralelas
puede concluirse que los eventos representados tienen una variación similar. La
escala semilogarítmica posee además la cualidad de hacer evidente las
verdaderas variaciones, aunque éstas sean ligeras.
1.5.2 - Los componentes de la serie.
Una vez que se ha concluido que la serie en estudio tiene las cualidades
necesarias para poder ser analizada como tal corresponde proceder al análisis. El
enfoque clásico del estudio de series parte de considerar la existencia de un
proceso que gobierna el comportamiento de la variable en cuestión, el cual
determina los valores observados en cada momento de tiempo. La idea que
subyace bajo este enfoque determinista es una extrapolación de los modelos
matemáticos que describen los fenómenos físicos y los cuales permiten calcular el
valor de cualquier cantidad dependiente del tiempo con exactitud.
Desgraciadamente, casi ningún fenómeno de la vida en general y mucho menos
de Salud puede ser abordado de esta forma, pues factores desconocidos pueden
producir variaciones insospechadas, aún para los propios fenómenos físicos. La
magnitud y tipo de los cambios sociales, biológicos, físicos o químicos que ocurren
son tan infinitos como el propio tiempo. No obstante, se acostumbra a buscar una
expresión analítica que sea función de éste para explicar el comportamiento de la
variable, en otras palabras el modelo que gobierna la serie es una función del
tiempo.
70

Esta función está compuesta, según el enfoque clásico, por cuatro elementos o
componentes de la serie y se considera que todo cambio que se opera en ella es
resultado de la influencia de todos o de alguno de estos componentes, que son:
tendencia, estacionalidad, ciclo y aleatoriedad; los cuales describiremos a
continuación:
• Tendencia (T). También conocida como la tendencia secular, no es más que el
movimiento suave, regular y casi siempre lento, el cual tiende a mantenerse
por períodos largos de tiempo, por lo que generalmente se estudia en varias
décadas. La tendencia de una serie es la orientación general que parecen
seguir sus valores o el cambio de su valor medio o nivel en el tiempo. Los
cambios seculares o históricos son de gran importancia para los epidemiólogos
pues permiten apreciar cual ha sido el comportamiento del evento en períodos
anteriores, sin embargo, numerosos acontecimientos pueden influenciar las
tendencias de las enfermedades a lo largo del tiempo (costumbres higiénicas
de la población, nuevos métodos terapéuticos, medidas preventivas como las
vacunas), los cuales no deben olvidarse al observar la tendencia para permitir
la correcta valoración de la misma. En Gráfico 5 se aprecia la tendencia
decreciente de la mortalidad en el sexo masculino para el grupo de 1-4 años en
Cuba.
Gráfico 5.

M orta lida d: 1 -4 a ños . Se x o M a s c ulino.


Cuba (1 9 8 6 -1 9 9 6 )
90
Tasas x 100000 habitantes

85

80

75

70

65

60
86 87 88 89 90 91 92 93 94 95 96

Fu e n te : Dir e cció n Nacio n al d e Es tad ís ticas .

• Estacionalidad (E). Se le conoce también como variación estacional y se trata


de las fluctuaciones periódicas y rítmicas de la variable en lapsos de tiempo
más cortos, generalmente asociadas con las estaciones aunque por extensión
se aplican a cualquier intervalo de tiempo dentro del año. Las variaciones
71

estacionales de los eventos de salud resultan de gran interés para los


epidemiólogos pues las causas que las motivan son numerosas y van desde
las modificaciones estacionales de la flora y la fauna hasta la circunstancias,
que debidas enteramente a la mano del hombre, juegan un papel en la
producción de las enfermedades, como son los incrementos que se producen
en los accidentes automovilísticos y la muerte por ahogamiento durante los
períodos vacacionales. En el Gráfico 6 podemos observar como se repiten los
momentos de alza en las atenciones médicas por EDA aproximadamente
durante los meses de verano en cada año.

Gráfico 6.

EDA. Cuba, 1990-1999

400000

350000

300000
Atenciones Médicas

250000

200000

150000

100000

50000

0
15
22
29
36
43
50
57
64
71
78
85
92
99
106
113
120
127
1
8

meses

• Ciclo (C). La variación cíclica también es periódica, aunque los intervalos de


tiempo involucrados son mucho más largos, este componente solamente
puede apreciarse, de existir, en series muy extensas. Numerosas son las
enfermedades transmisibles para las cuales ha sido descrita la variación
cíclica, por ejemplo el alza quinquenal de la varicela o de la hepatitis. Un
ejemplo de esto puede verse en Gráfico 7 donde aparecen las tasas de
incidencia de varicela en Cuba en los últimos 32 años.
72

Varicela. Incidencia anual. Cuba,1964-1999

140000
120000

100000
80000

60000
40000
20000

0
1964
1966
1968
1970
1972
1974
1976
1978
1980
1982
1984
1986
1988
1990
1992
1994
1996
1998
Gráfico 7

• Aleatoriedad (A). Se trata del movimiento irregular de la serie determinado por


el azar, impredecible, accidental. El enfoque clásico atribuye la presencia de
este elemento en el comportamiento de la variable a errores de observación,
medición o transmisión de los datos y por lo tanto imposible de modelar en ese
contexto. Tradicionalmente se obtiene por exclusión de los otros y se le llama
″residuo aleatorio″. En el gráfico 8 se aprecia un ejemplo de una serie donde
solamente se manifiesta el componente aleatorio. Observe que en esta serie
no es posible discernir ningún patrón como los que cabría esperar en presencia
de tendencia, ciclo o estacionalidad.
73

Gráfico 8

Casos semanales del evento X

100.00
90.00
80.00
70.00
60.00
50.00
40.00
30.00
20.00
10.00
0.00
1
11
21
31
41
51
61
71
81
91
101
111
121
131
141
151
1.5.3- Métodos para el tratamiento de series.
Existen numerosos métodos para trabajar con las series temporales y la utilización
de uno u otro está en dependencia de los objetivos propuestos y de las
características de las mismas. No se recomienda hacer más complejo de lo
necesario este proceso pues si lo que se pretende demostrar puede lograrse
mediante un método simple, éste resultará mejor que uno más complejo, sobre
todo, si no se poseen los recursos tecnológicos que generalmente son necesarios
para el empleo de métodos más complicados.
A continuación explicaremos algunas de las formas más simples para estudiar la
tendencia y la estacionalidad, la clasificación utilizada para ello ha sido tomada del
excelente trabajo del doctor Arnaldo Tejeiro ″La Serie Cronológica″5.
Métodos para estudiar la tendencia.
Métodos Matemáticos.
1. Diferencias Absolutas.
2. Cambio Relativo.
3. Diferencias Absolutas o Cambios Relativos de valores extremos de la serie.
4. Números Indices.
5. Promedio de Cambio.
Métodos Gráficos.
1. Línea a mano alzada.
2. Método el Ciclo Medio.
3. Semipromedios.
74

4. Promedios Móviles.
5. Medianas Móviles.
Métodos para estudiar la estacionalidad.
Curvas de expectativa.
1. Curva con la Mediana.
2. Curva con el Promedio.
3. Curvas con Medianas o Promedios Móviles.
4. Mediana y Valor Último.
5. Promedio Tricentral.
Límites de variación habitual o Canales Endémicos.
1. Canal del Máximo -Maximorum y Mínimo - Minimorum.
2. Canal con las cifras inframáximas y supramínimas.
3. Canal del Promedio de la serie más - menos dos Desviaciones Estándar.
4. Canal con la Mediana y Primer y Tercer Cuartiles.
Método de la diferencia absoluta:
En este método lo que se pretende es demostrar la existencia de tendencia a
través del incremento o disminución de la diferencia absoluta entre los valores
extremos de la serie. Para que sea útil es necesario que la serie progrese de
manera bastante estable, ya que en series que presenten grandes variaciones
este valor carece de interés. Supongamos por ejemplo, que tenemos la serie de
mortalidad por enfermedades del corazón de Cuba desde 1970 hasta 1999. La
tasa bruta de mortalidad del año 1970 fue de 148.3 defunciones por 100 000
habitantes y la de 1999 de 192.6, la diferencia entre ambas es de 44.3, de manera
que podemos plantear que se ha producido un incremento entre los años
extremos del período y ello habla a favor de la existencia de una tendencia al
ascenso en este evento.
Método del cambio relativo:
La utilización de medidas relativas es muy atractiva por la facilidad de la
comprensión de las mismas. Este método consiste por lo tanto, en la presentación
del cambio relativo ocurrido entre los valores extremos de la serie. Continuando
con el ejemplo anterior de la mortalidad por enfermedades del corazón,
tendríamos que después de obtener la diferencia entre las tasas de 1999 y 1970,
esta diferencia se divide a su vez por el valor de la tasa del año 1970 y se
multiplica por 100, obteniéndose entonces que en la serie se ha producido un
incremento del 29.8 %.
Los métodos de la diferencia absoluta o del cambio relativo entre grupos de años
extremos de la serie son similares a los dos anteriormente descritos, pero en ellos
se utiliza en vez de los dos valores extremos, un grupo de valores cuyo tamaño
está en dependencia de los deseos del investigador y del número de años
disponibles. Es necesario sin embargo, estar atentos a las características de la
serie, pues si se trata de una serie con grandes fluctuaciones no se podrán
75

obtener resultados coherentes con ninguno de los métodos que emplean los
valores extremos; además como en todos los análisis de series temporales se
debe recordar siempre que los factores que han dado origen a la misma son
múltiples y que cualquier variación de estos puede modificar la misma. No
obstante, si la serie es muy variable se recomienda emplear el método que se
describe a continuación.
Método del número índice.
El número índice ha sido empleado con frecuencia como un indicador bastante
aproximado para estudiar la tendencia de eventos cuyo comportamiento es muy
fluctuante. Para confeccionarlo se escoge el valor de algún año y éste se
considera entonces como el cien por ciento obteniéndose a continuación el
porcentaje de éste que representa cada año de la serie. Este método tiene la
ventaja de que permite apreciar la evolución del evento a lo largo del tiempo. Sin
embargo tiene una gran desventaja y ella está dada por la decisión de cual es el
año que debe ser considerado como el índice. Supongamos que se escoge un año
que tiene un valor muy alto los demás años estarán por debajo del mismo o
viceversa, no obstante esto no resulta tan problemático si se hace la interpretación
adecuada. A continuación mostramos cómo se comportaron los números índices
de la serie de mortalidad por enfermedades del corazón de Cuba entre los años
1970-1999 tomando como año índice a 1970.
76

NÚMERO
AÑO TASA INDICE %
1970 148.3 1 100.00
1971 141.3 0.95 95.28
1972 135.9 0.91 91.63
1973 147.2 0.99 99.12
1974 156.3 1.02 102.75
1975 148.9 1.00 100.40
1976 158.9 1.07 107.12
1977 162.8 1.09 109.77
1978 168.9 1.13 113.89
1979 164.7 1.11 111.50
1980 166.7 1.12 112.30
1981 176.1 1.18 118.70
1982 162.8 1.09 109.77
1983 171.8 1.15 115.84
1984 176.4 1.18 118.94
1985 189.9 1.28 128.05
1986 184.5 1.24 124.40
1987 185.5 1.25 125.08
1988 191.8 1.35 135.73
1989 190.2 1.29 129.33
1990 201.3 1.35 135.73
1991 192.5 1.28 128.25
1992 195 1.31 131.49
1993 199.2 1.34 134.32
1994 201.9 1.35 135.74
1995 201.3 1.35 135.73
1996 206.3 1.39 139.10
1997 197.1 1.32 132.90
1998 193 1.30 130.14
1999 192.6 1.29 129.87

Para estudiar la tendencia se emplean también varios métodos gráficos. No se


explicará mucho sobre ellos pero es bueno recordar que obtener la tendencia de
la serie por el simple trazo de una línea a mano alzada aunque parezca muy
primitivo es bastante útil para datos que no presenten grandes variaciones.
77

Método gráfico de los semipromedios.


Este método tiene amplia difusión y utilización. Consiste en obtener los promedios
de las dos mitades de la serie, la posterior representación gráfica de los mismos y
su unión mediante una línea recta. En el empleo de la línea recta para resumir la
posición de los dos semipromedios está el atractivo de este método para los
gerentes, pues les permite visualizar bien la tendencia. No obstante, se debe ser
cauteloso en la interpretación de este método pues los promedios se ven
afectados por los valores muy altos o muy bajos de la serie, lo cual puede ser
apreciado al comprobar como la eliminación de un año muy alto o muy bajo
cambia por completo la pendiente de la serie. En el Gráfico 9 se muestra la recta
obtenida para la tendencia mediante los semipromedios en la serie de mortalidad
por enfermedades del corazón de Cuba entre 1970 y 1999.
Grafico 9

Mortalidad por Enfermedades del Corazón.


Cuba, 1970-1999
220

200
Tasas por 100 000 hab.

180

160

140

120

100
1970
1972
1974
1976
1978
1980
1982
1984
1986
1988
1990
1992
1994
1996
1998

Como la serie tiene una extensión de 30 años, se calculó un promedio para cada
mitad, es decir que se obtuvo la media para los años 1970-1984 ( 159.13) y para
el período 1985-1999 (194.80). Cada promedio se inscribió en el punto medio
correspondiente en el eje de las abscisas.: el año 1977 para la primera mitad de la
serie y el año 1992 para la segunda. Si se hubiera representado una serie con un
número de años impar, por ejemplo con 29 años, entonces se hubiera dividido en
dos mitades de 14 años y el año central es decir el número 15 de la serie, se
hubiera incluido en el cálculo de los dos semipromedios.
Método de los promedios móviles:
Este es otro de los métodos gráficos recomendados para el análisis de tendencia,
pero en realidad lo que permite es disminuir las fluctuaciones bruscas de la serie y
obtener un suavizamiento general de la misma, por lo que se recomienda cuando
estamos en presencia de series con muchas variaciones en su comportamiento a
lo largo del tiempo. El método consiste en obtener el promedio para segmentos
78

iguales de la serie, generalmente se prefiere dividirla en pequeños grupos de 3 ó


de 5 años según la longitud de la serie y sus fluctuaciones e ir obteniendo
sucesivamente el promedio para cada conjunto de años. Estos después se
inscriben en un gráfico, como el que se muestra a continuación. Observe que con
este método siempre se van perdiendo términos.

AñoTASA ( 0.7+ 1.3+ 2.1) / 3


1970 0.7
1971 1.3 ( 1.3 +2.1+3.2 ) / 3
1972 2.1
1973 3.2
1974 4.9 ( 2.1 + 3.2 + 4.9 ) / 3
1975 5.1
1976 5.3
1977 5.1
. .
. .
. .
1999 36.6
79

Gráfico 10

Condiloma Acuminado. Cuba, 1970-2000

40
35
30
Tasa por 100 000

25
20
15
10
5
0
1970
1971
1972
1973
1974
1975
1976
1977
1978
1979
1980
1981
1982
1983
1984
1985
1986
1987
1988
1989
1990
1991
1992
1993
1994
1995
1996
1997
1998
1999
Condiloma promedio movil

Entre los métodos tradicionales para el estudio de la estacionalidad mostraremos


la curva de expectativas y el canal endémico con cifras inframáximas y
supramínimas.
Curvas de expectativas.
Las curvas de expectativa se llaman así porque lo que se obtiene es una curva del
comportamiento esperado para el evento, se pueden confeccionar con la mediana
o con el promedio. Si estamos en presencia de series que no tienen muchas
fluctuaciones y se dispone de un gran número de años se puede utilizar la curva
confeccionada con el promedio. Pero si la serie es muy variable se recuerda que
esto afectará los resultados obtenidos pues el promedio toma en cuenta a todos
los valores.
Cuando se hace con el promedio se obtienen los promedios para cada intervalo,
por ejemplo para cada mes o para cada semana y después se inscriben en el
gráfico.
Cuando se decide confeccionarla con la mediana es necesario ordenar los valores
de los diferentes meses o semanas del año en orden ascendente o descendente y
obtener los correspondientes a la posición de la mediana. Con estos se hace el
correspondiente gráfico. En el gráfico 10 se muestra la curva de expectativa con
80

la mediana obtenida para los casos mensuales de Varicela de Cuba, en la cual se


utilizó la serie de casos mensuales del año 1990-2000.
En este gráfico se
Varicela. Curva de expectativa. aprecia como en esta
( Mediana). Cuba, 1990-2000 enfermedad se puede
esperar un incremento
12000 de casos entre febrero
10000
y junio.
Aunque las curvas de
8000 expectativa resultan de
6000 utilidad, es más
conveniente poder
4000
establecer ciertos
2000 rangos en el
0
comportamiento
esperado de los
E F M A M J J A S O N D
eventos, que les
permitan a los gerentes
o a los epidemiólogos apreciar adecuadamente los fenómenos, pues las curvas de
expectativa explicadas con anterioridad solamente muestran un valor central. Se
puede adicionalmente hacer curvas con el promedio tricentral por ejemplo o con la
semisuma de la mediana y el valor último, pero estos métodos tampoco ofrecen la
información más completa.
El método del canal endémico es mucho más adecuado para mostrar los
diferentes rangos de comportamiento esperado de un evento. Se puede
confeccionar de varias maneras. A continuación s explicará una de ellas.
Canal Endémico con las cifras inframáximas y supramínimas.
Este es uno de los métodos más utilizados en nuestro país para la vigilancia de
eventos en intervalos de tiempo cortos como por ejemplo semanas o meses. Se
recomienda su utilización cuando se dispone de información de un número
suficiente de años, generalmente más de 7 años, pues en el procedimiento de su
confección se desechan las observaciones máximas y las mínimas. Para explicar
la confección de este método se utilizará la serie mensual de Hepatitis Viral
correspondiente a los años 1990-1998.
81

E F M A M J J A S O N D
1992 1692 1626 1887 2105 1919 1746 1959 1637 1866 1936 1503 1304
1993 838 928 1290 1021 891 1594 830 807 1289 944 727 991
1994 649 951 1509 1365 1206 1565 880 1105 1754 1493 1270 917
1995 815 1037 1540 1139 1443 1133 867 1362 1672 1406 1838 886
1996 946 919 1014 1123 1753 1911 1918 1803 2575 2998 1868 1977
1997 1926 1984 2276 2998 2271 1904 1748 1606 1520 1831 1218 1210
1998 914 1184 1586 1188 1237 1670 1045 1079 1538 1341 1268 1284

Para poder desarrollar el método es necesario ordenar los valores de la serie de


manera ascendente o descendente, en este caso se ordenaron de forma
descendente. Posteriormente se procede a obtener la mediana, y se toman dos
filas de valores adicionales, la fila que está por debajo de los máximos valores (
inframáxima) y la fila que está por encima de los mínimos( supramínima). Estos
tres conjuntos de números se pueden inscribir en un gráfico, dividiendo el área del
mismo en 4 zonas que se conocen con el nombre de Zona de éxito, zona de
seguridad, zona de alerta y zona de epidemia.

E F M A M J J A S O N D

1926 1984 2276 2998 2271 1911 1959 1803 2575 2998 1868 1977

Inframáxima 1692 1626 1887 2105 1919 1904 1918 1637 1866 1936 1838 1304

946 1184 1586 1365 1753 1746 1748 1606 1754 1831 1503 1284

Mediana 914 1037 1540 1188 1443 1670 1045 1362 1672 1493 1270 1210

838 951 1509 1139 1237 1594 880 1105 1538 1406 1268 991

Supramínima 815 928 1290 1123 1206 1565 867 1079 1520 1341 1218 917

649 919 1014 1021 891 1133 830 807 1289 944 727 886
82

Gráfico 11
gEste canal
Hepatitis . Canal Endémico. permite inscribir
los nuevos
6000
valores del
EPIDEMIA evento en el
5000
período que se
está vigilando;
4000 ALERTA observar en que
zona se
3000
encuentran y
SEGURIDAD actuar en
2000
consecuencia.
Observe que los
1000
valores que se
EXITO
encuentran por
0
1 2 3 4 5 6 7 8 9 10 11 12
encima de la
mediana, ya
representan un
motivo de alerta o constituyen francamente una epidemia. Este método tiene la
ventaja de no considerar los valores de años epidémicos pues no toma los
máximos, por eso se prefiere al canal del máximo maximorum y mínimo
minimorum, al cual se le ha señalado que pierde sensibilidad para la detección
de epidemias al tomar en cuenta para su confección a los valores máximos.
Los métodos anteriormente enumerados son bastante buenos en general si lo que
se desea es describir el comportamiento de un evento de salud. Sin embargo, con
frecuencia el estudio de series lo que persigue es poder predecir un valor futuro de
la variable y para este caso, esos métodos resultan inoperantes. Existen otro
grupo de métodos indicados para establecer predicciones que no serán abordados
aquí.
Bibliografía:
1. Horsford Saing R, Bayarre Vea H. Métodos y Técnicas aplicados a la
Investigación en Atención Primaria de Salud. Parte I. La Habana: Finlay; 2000.
2. Bayarre Vea H, Oliva Pérez M, Horsford Saing R, Ranero Aparicio V, Coutin
Marie G, Díaz Llanes G et al. Libro de Texto de Metodología de la Investigación.
Maestrías para profesionales de la Atención Primaria de Salud. La Habana,
2004.
3. Astraín Rodríguez ME. Estadística Descriptiva. La Habana: ENSAP; 2001.
4. Coutin Marie G. Las Series Temporales. MINSAP. La Habana, 2001.
83

Tomado del libro Estadísticas de Salud y Población de la


Dra. Maria Elena Astrain. ENSAP. 2000

Tema 2. Estadísticas de Salud

Introducción

Por Estadística de Salud o Sanitaria entenderemos toda la información numérica


imprescindible para planificar, ejecutar, y evaluar programas de salud,
independientemente de si la información se produce en las unidades de salud.
Las estadísticas de salud se clasifican en:

Estadística de Población. Son aquellas que estudian la composición y


principales características de las agrupaciones humanas.

Estadísticas Vitales. Son aquellas que se refieren a los hechos recolectados


sistemáticamente y reunidos en forma numérica que se relacionan o derivan de
registros de eventos vitales.

Hecho vital. Es todo hecho relacionado con el comienzo y fin de la vida del
individuo y con los cambios de su estado civil que pueden ocurrir durante su
existencia. Los más importantes son los nacimientos y las defunciones.

Estadísticas de Morbilidad. Son aquellas que permiten conocer de que enferman


o padecen los habitantes de determinada colectividad o país.

Estadísticas de Recursos y Servicios. Expresan numéricamente los recursos de


que se dispone en la actividad de salud, y los servicios que se brindan con los
recursos existentes.

No hay dirección científica de la salud sin una sólida y amplia base informativa.
Las estadísticas de salud se tornan cada vez más amplias y complejas en la
medida que más amplia y compleja sea la actividad en salud.

En la planificación de los programas las estadísticas de salud son imprescindibles


pues la identificación de los problemas de salud, la magnitud y causas que los
producen se realizan mediante el análisis de la situación de salud de la comunidad
a servir.

Durante la ejecución de los programas, las estadísticas permiten realizar el control


y ajuste de los mismos y por ultimo son imprescindibles para evaluar el
cumplimiento de los objetivos planteados
84

2.1 Fuentes de información


La información se puede obtener de diferentes fuentes y por diversos métodos.

Existen dos grandes fuentes de información, las denominadas fuentes primarias


y las fuentes secundarias.

Fuente primaria. Es la fuente que contiene el dato en su origen y por sí mismo.


Hay que realizar una búsqueda activa del mismo ya que este no se encuentra ni
registrado ni publicado.

Existen dos métodos básicos de recolección de la información, la Observación y


el Interrogatorio.

La observación, como método o técnica de obtención de la información sé


caracteriza por ser planificada y responder a un objetivo preciso y previamente
formulado.

Tiene como ventaja la objetividad y como desventaja que es un proceder caro, no


permite investigar lo subjetivo, ni el pasado ni el futuro, necesita de un personal
altamente calificado, no puede ser aplicado a grandes poblaciones, y tiene
implícito el error de observación, la valoración subjetiva del que realiza lo
observación.

Existen dos grandes formas de observación, la no estructurada y la


estructurada. En ambas es necesario diseñar una guía de observación, su nivel
de precisión y de detalle dependerá de los objetivos propuestos y del fenómeno a
investigar. En la no estructurada solo se relacionan de forma muy general los
aspectos a observar, mientras que en la estructurada el nivel de detalle y precisión
de la guía es mucho mayor.

El interrogatorio como método de obtención de la información, elimina las


desventajas de la observación y tiene como limitante que es un método mas
subjetivo pues depende de la memoria del interrogado y de la buena voluntad a la
hora de responder las preguntas.

Dentro del interrogatorio se distinguen dos grandes procedimientos: la entrevista


y el cuestionario.

En la entrevista como su nombre lo indica se establece un dialogo entre el


entrevistado y el entrevistador. Puede ser no estructurada, semi estructurada y
estructurada.

En la no estructurada la guía de entrevista se limita a enunciar de forma general


los aspectos a tratar, si se abordan estos temas en forma de preguntas, estas son
85

abiertas. Requiere de un amplio conocimiento sobre el problema a tratar y de gran


pericia por parte del entrevistador.

En la estructurada la guía de entrevista constituye un instrumento diseñado con un


alto nivel de detalle y especificidad. Las preguntas aunque pueden ser abiertas se
limitan a aspectos más concretos y prevalecen por lo general las preguntas
cerradas.

La semi - estructurada, tiene en el diseño de la guía, partes estructuradas y partes


no estructuradas.

La entrevista en cualquiera de sus modalidades tiene la ventaja de poder incluir en


su diseño la observación.

El cuestionario no es mas que una entrevista estructurada pero donde no existe la


figura del entrevistador, es autoaplicado, la persona lo llena sola. Este aspecto es
importante a la hora del diseño, pues la claridad en el lenguaje y en la formulación
de las preguntas es vital para su comprensión. Tampoco debe ser muy extenso.

Tiene como ventaja adicional que es mucho mas económico que la entrevista,
pues puede ser aplicado a grandes grupos de población de una sola vez, con solo
reunirlos en un local para que una persona encargada lo realice, e incluso puede
ser enviado por correo, en este último caso el número de no respuesta puede ser
muy elevado. Tiene como desventaja que no puede combinarse con la
observación.

Es bueno aclarar que la entrevista estructurada y al cuestionario son los métodos


de obtención de la información que identifican a la encuesta que se conoce como
método de recolección de la información bajo otro eje de clasificación.

Fuente secundaria. En este caso ya la información se encuentra registrada y


publicada, no es necesario hacer una búsqueda activa de la misma, solo es
necesario velar por la calidad de la fuente que utilicemos en nuestros análisis. Por
ejemplo las historias clínicas de un centro de salud, los anuarios demográficos y
estadísticos, los sistemas de información o registros, como el de mortalidad.

Métodos de recolección de la información.

Los principales métodos de recolección de la información son: el censo de


población, la encuesta y los registros continuos.

La selección del método de recolección de la información dependerá del:

- Propósito del estudio.

- Naturaleza de la información (fuente, accesibilidad, restricciones)


86

- Frecuencia con que se pretende recoger. La información puede ser recolectada


ocasionalmente como es el caso de la encuesta, de manera periódica como
los censos de población que se realizan cada 10 años y generalmente años
terminados en ceros, y de manera continua como los registros.

El censo de población. Proceso que incluye un conjunto de operaciones, que


consiste en reunir, elaborar, y publicar datos demográficos, económicos y sociales,
correspondientes a todos los habitantes de un país o territorio, referidos a un
momento determinado o a ciertos periodos dados.

Los censos de población deben reunir determinadas características, las más


importantes son:

- Un territorio bien definido, es decir un área geográfica bien delimitada.

- Universalidad. Debe comprender a todos los miembros de la población del área


seleccionada, sin omisiones ni repeticiones.

- Simultaneidad. La población total empadronada debe referirse a una fecha bien


definida. Así como los datos reunidos deben referirse a una fecha o a un periodo
bien definido.

El censo tiene dos finalidades principales. En primer lugar sirve a modo de


fotografía instantánea de una comunidad, valedera para un momento dado. En
segundo lugar, cada censo puede considerarse como un elemento en una serie
consecutiva, aspecto dinámico comparable a una película cinematográfica de la
población. Solo mediante una serie sucesiva de censos de una población es
posible apreciar la magnitud y dirección de las diversas tendencias demográficas.

Los errores más frecuentes que se producen en los censos pueden agruparse en
dos categorías: errores de cobertura y errores de contenido.

Los errores de cobertura pueden deberse a:

- Omisión de personas. Las omisiones más frecuentes se producen en las


primeras edades.

- Duplicidad en la enumeración. Personas enumeradas mas de una vez.

Los errores de contenido ocurren al proporcionar el declarante datos equivocados


sobre el tema que se indaga o al anotar el enumerador incorrectamente la
información. El error que con más frecuencias se comete es la declaración
incorrecta de la edad, por lo general en personas de edad avanzada que tienden a
redondear la edad en cifras que terminen en 0 o en 5.
87

Los censos se clasifican en:

- Censo de jure o de derecho. Cuando la persona resulta empadronada según el


lugar de residencia, independientemente de su presencia o no el día del censo.

- Censo de Facto o de hecho. Cuando la persona resulta empadronada según el


lugar de su presencia el día del censo, independientemente que resida
habitualmente o no en dicho lugar.

- Mixto. Cuando se aplican en un mismo censo los dos métodos. Los datos de la
persona enumerada por lugar de presencia se envían posteriormente al lugar
donde declaró como residencia habitual para su compatibilización.

Registros continuos. Registran la información sobre hechos o sucesos ocurridos


a la población o a un segmento de ella, a medida que estos se producen en el
tiempo y el espacio. Estos constituyen por su variedad una fuente de información
valiosísima sobre todo a lo que a Salud Publica se refiere. Entre los registros más
comunes se pueden citar: los registros civiles - nacimientos, defunciones,
matrimonios divorcios etc.- los de seguridad social, los escolares, etc.

Los registros civiles constituyen la fuente de las estadísticas vitales, son los mas
útiles para el sector salud, y su historia data desde épocas remotas. En un
principio la iglesia estuvo a cargo de los mismos( registros parroquiales), pasando
el estado, a partir del siglo XIX, al asumir su responsabilidad, aunque todavía
existen países en los cuales continua siendo la Iglesia la encargada de muchos de
ellos.

Los hechos o sucesos vitales pueden ser anotados en los registros de dos formas
distintas.

- Según lugar de ocurrencia del hecho.

- Según lugar de residencia de la persona objeto de estudio.


La forma mas apropiada es la del registro por lugar de residencia, pues permite tener
información de las regiones o áreas geográficas en el marco interno de un país,
imprescindible para la planificación y evaluación en el sector salud.

La información proveniente de los registros se puede interrelacionar con la


proveniente de los censos, mediante la llamada Ecuación Compensadora.

2.2 La población
Desde el punto de vista demográfico la población es el conjunto de personas que
se agrupan bajo un cierto ámbito geográfico.
88

Las poblaciones no son estáticas, están en continuo cambio por la influencia de


las tres variables demográficas más importantes: la fecundidad, la mortalidad y las
migraciones

Composición o estructura de la población

No es más que la distribución de los integrantes de la población por las variables


de más interés como la edad, el sexo, el estado civil, la ocupación, la escolaridad y
otras.

Las variables más importantes para el estudio de la estructura lo son la edad y el


sexo.

Edad. De ella depende la participación que tenga la población en hechos como: la


reproducción, la actividad económica, las migraciones y la mortalidad.

La distribución por edad puede hacerse por edades simple aunque es más
frecuente su estudio por grupos quinquenales o decenales.

Dentro del análisis por edad tenemos un indicador muy importante que mide la
carga que tienen las poblaciones de personas no productivas, económicamente
dependientes, la razón de dependencia.

Está razón no es más que la relación entre las personas con dependencia
económica por su edad y la población económicamente activa.

poblacióndependiente
RD = x 100
poblacióneconomicamenteactiva

Donde:

Población dependiente = < de 15 y > 64 años

Población económicamente activa = 15-64 años

El criterio de población económicamente activa puede cambiar de un país a otro,


pero lo importante es medir la carga que tiene la población productiva.

Sexo. Influye en el comportamiento diferencial de los nacimientos, defunciones,


migraciones, ocupación y otros aspectos de interés.

Un indicador muy utilizado para el análisis de la composición de la población por


sexo lo es el denominado Índice de masculinidad o razón de masculinidad.
89

pob.masculinaporgruposquinquenalesdeedad
Razón de masculinidad =
Pob. femeninaporgruposquinquenalesdeedad

Al nacimiento el índice es de aproximadamente 1.05. Si no hay migraciones, sólo


la influencia de la mortalidad, producto de la sobremortalidad masculina tiende a
igualarse a la unidad alrededor de los 40 años y a partir de esta edad, se invierte
al existir en las edades más avanzadas más mujeres que hombres.

Por edad y sexo. Generalmente se obtiene la distribución porcentual por edad y


sexo y se representa a través de una gráfico especial: la pirámide de población

La pirámide de población, la representación gráfica por edad y sexo de la


población, no es mas que dos histogramas, uno para cada sexo, que se han unido
y rotado sus ejes, en el lado izquierdo se colocan los hombres y a la derecha las
mujeres.

En el eje vertical, (y), están los grupos quinquenales de edad hasta 85 y más y en
el eje horizontal, las abcisas aparecen los efectivos de población en porcentajes.

Como todos los grupos de edad tienen la misma amplitud, cinco, los rectángulos
tienen el mismo ancho y sólo varía la longitud en dependencia de los efectivos de
población de cada grupo.

Tipos de pirámide

- Pirámide de base ancha y una rápida disminución hacia la cúspide. Se ve en


poblaciones jóvenes típica de países en desarrollo donde existen altos niveles
de fecundidad y de mortalidad.

- Pirámide de base estrecha, por la baja natalidad, un ascenso irregular hacia la


cúspide que es más ancha por los bajos niveles de la mortalidad. Típica de
países desarrollados.

A continuación se muestran tres tipos de pirámide, la expansiva es la de base


ancha y cúspide estrecha propia de países pobres.

La constrictiva y la casi estacionaria por el contrario son típicas de países ricos con
muy bajos niveles de natalidad y mortalidad. En la casi estacionaria los bajos
niveles de fecundidad ya llegan a producir un crecimiento negativo.
90

Perfiles generales de las poblaciones

Pirámide Expansiva Pirámide Constrictiva Pirámide Casi


Estacionaria

La variable demográfica que más influye en el envejecimiento de la población es la


fecundidad, pues al disminuir los efectivos de población más jóvenes se estrecha
la base y aumenta el peso relativo de los viejos. La mortalidad, cuando disminuye
lo hace para todas las edades.

Una forma rápida de analizar el grado de envejecimiento de la población es a


través de los índices de Rosset y de la ONU, que miden el peso relativo de la
población de 60 y 65 años y más.

Índice de Rosset. Según la distribución de la población de 60 años y más:

-<8% Juventud demográfica

8-10 % Umbral de envejecimiento

11-14% Envejecimiento propiamente dicho

15ymàs Vejez demográfica

Índice de la ONU. Según la distribución de la población de 65 años y más

<4% población joven


4-6% población madura
7-10% envejecimiento incipiente

11-13% envejecimiento avanzado

14-16% población envejecida

> 16% muy envejecida


91

Crecimiento de la población.

Puede ser de dos tipos según las variables demográficas que intervengan:

- Natural o vegetativo. El cambio de magnitud se debe sólo a la diferencia


entre nacimientos y defunciones, no ocurren migraciones.

- Total o neto. Se tiene en cuenta las migraciones

Tasas de crecimiento:

1- Aritmético o lineal o incremento natural. Mide el crecimiento de manera


absoluta y asume que la población crece a un ritmo constante. Sólo se
recomienda para períodos cortos de tiempo de 1 a 2 años.
1 nt − no
r= ( )k
t no

Donde:

no = población al inicio del período

nt = población al final del período

t = tamaño del intervalo de tiempo

k = constante, 100 o 1000

Veamos el ejemplo de Cuba:

1998 = 11 122 308 habitantes 2001 = 11 229 688 habitantes

1 11229688 − 11122308
r = ( ) x 100
3 11122308

r = 0.33 (0.00965) x 100

r = 0.3 % tasa media anual de crecimiento

2-Tasa de crecimiento geométrico o interés compuesto

Es mejor que la anterior. No asume un incremento absoluto constante, sino un


crecimiento exponencial y puede ser utilizada por periodos más largos de tiempo

La expresión simplificada de cálculo sería:


92

2 nt − no
r= x100
t nt + no

Para Cuba en el período 1990-2001 sería:

2 11229688 − 10603200
r= ( ) x 100
10 11229688 + 10603200

r = 0.2(0.029) x 100

r = 0.6% de crecimiento en el período 1990-2001

3. Tiempo en que se duplica la población

Suponiendo que la población crece a una tasa constante r, de crecimiento relativo,


se puede determinar el tiempo que demora la misma es duplicar, triplicar, etc, su
tamaño.

ln 2
t=
ln(1 + r )
Donde:
Ln 2 = 0.69315
r = crecimiento geométrico
Con el ejemplo de Cuba:
0.69315
t=
ln(1 + 0.006)

0.69315
t= = 115.9
0.00598

De mantenerse la tasa de crecimiento constante, la población de cuba se


demorará 115.9 años en duplicarse.
Transición demográfica

Los primeros siglos, antes y después de nuestra era, se caracterizaron por un


crecimiento de la población lento, con una elevada natalidad pero una también
elevada mortalidad.

A partir del siglo XIX se produce un descenso marcado y sostenido de la


mortalidad, con altos niveles de natalidad, lo que trajo como consecuencia un
93

crecimiento muy marcado de la población. Este proceso se inicio en los países


europeos y en sólo 90 años se duplicó la población mundial.

Ya a finales del siglo XIX se inicia en Francia un descenso de la natalidad, que se


comienza a extender en el siglo XX al resto de los países en mayor o menor
medida. El descenso de la mortalidad que ha seguido un ritmo marcado y
sostenido, unido al descenso de la fecundidad ha motivado una disminución
nuevamente del ritmo de crecimiento, con un envejecimiento poblacional.

Esto ha provocado un cambio en los perfiles de morbilidad y mortalidad, con un


predominio de las enfermedades crónicas no transmisibles.

En el gráfico que aparece a continuación, se ha esquematizado la transición


demográfica: en los inicios, ambas tasas eran muy elevadas, con valores cercanos
entre sí, lo que resultó en una tasa de crecimiento (diferencia entre TBN y TBM)
pequeña, posteriormente, la mortalidad lideró el descenso cuando aún la natalidad
permanecía elevada, produciéndose un exceso notable de los nacimientos sobre
las muertes y por ende una aceleración del incremento. Al final, las dos tasas
brutas han descendido a valores más pequeños y también lo ha hecho su ritmo de
crecimiento.

Tasas brutas de natalidad, mortalidad y crecimiento

r = TBN - TBM
TBN
r

r
TBM

Años

Fuente: Herrera,L. Introducción a la Demografía. Cuba. ENSAP 1999


94

2.3 La fecundidad

La fecundidad es el componente de cambio poblacional que más incide en el


tamaño y estructura por edades de una población. Una elevación de la fecundidad
durante un período de tiempo, da lugar tanto a un aumento de la tasa de
crecimiento, como a un aumento de la proporción de personas en edades más
jóvenes, en relación con la población total, produciendo un rejuvenecimiento de la
misma. A la inversa, la disminución continuada de la fecundidad, produce un
descenso de la tasa de crecimiento acompañada del aumento de la proporción, de
personas adultas, dando lugar con ella a un proceso de envejecimiento.

Es importante conocer que la fecundidad se relaciona con el tamaño de la


población femenina en edad fértil en sentido directo, por lo cual siempre se debe
valorar el tamaño que tiene esta subpoblación. Se considera período fértil el
comprendido desde los 15 hasta los 49 años, estas son las edades fértiles de la
vida de una mujer.

Se conoce como fecundidad la capacidad real de reproducirse.

Se conoce como fecundidad natural aquella que ocurre en poblaciones donde no


se introduce de manera consciente procedimientos para limitar la descendencia y
como fecundidad dirigida, la que se produce en comunidades que han
introducido conscientemente métodos para regular la concepción.

Otras categorías vinculadas con el tema lo son: la fertilidad que es la capacidad


potencial de reproducirse una población, está relacionada con aspectos
biológicos y la Natalidad que no es más que los nacimientos vivos ocurridos en
una población.

Evolución histórica:

La tendencia general mundial es a la disminución. Este descenso comenzó en


Francia a principios del siglo XVIII. El resto de los países se fueron sumando
paulatinamente a este comportamiento esta lista la encabezaron los más
desarrollados ya que existe una relación inversa entre desarrollo socioeconómico
y niveles de fecundidad.

Este descenso se hace muy marcado a principio del siglo XX y abarca a todo el
planeta, durante la década del 60 la reducción no fue importante, en la década de
los 70 se expanden los programas de planificación familiar en la mayoría de los
países, estos programas logran una mayor consolidación en los años 80 donde se
observa un mayor descenso de los niveles de fecundidad.
95

Sin embargo, existen grandes diferencias entre regiones y países. En los países
nórdicos y Europa los niveles tan bajos constituyen un problema para esas
poblaciones, lo que ha motivado que los gobiernos tracen políticas de
incentivación de la natalidad. Sin embargo en otras regiones del mundo como
África los niveles se mantienen elevados.

En la región de las Américas existen importantes diferencias, el área Andina y


México presentan las tasas mas altas de fecundidad, mientras que América del
Norte y el Caribe los niveles más bajos. Los países de más alta fecundidad en la
región son: Guatemala, Haití, Honduras, Nicaragua, Bolivia, y los de niveles más
bajos Canadá, Cuba, Islas Turcas y Estados Unidos

Factores que influyen en la fecundidad

Son múltiples los factores que influyen en el comportamiento de la fecundidad y


se clasifican en extrínsecos e intrínsecos.

Factores extrínsecos, diferenciales de la fecundidad o variables intermedias.


1- Situación conyugal
2- Nivel de instrucción
3- Zona de residencia
4- Grupo social
5- Incorporación de la mujer al trabajo
6- Urbanización
7- Nupcialidad
8- Divorcialidad

Factores intrínsecos (la fecundidad depende directamente de ellos)

a- Fisiológicos
1- Fecundabilidad, que es la probabilidad de que una mujer casada o unida
sea concebida en el transcurso de un ciclo menstrual.
2- Probabilidad que una concepción finalice en un nacido vivo
3- Esterilidad
4- Intervalo de recuperación ovulatoria luego del parto. .

b- Factores de comportamiento.
1- Lactancia materna
2- Frecuencia de las relaciones sexuales
3- Métodos de prevención de nacimientos
96

Fuentes de información

Las estadísticas de natalidad estudian el número y la distribución de los


nacimientos en una colectividad.

Todos los países disponen de sistemas de registros de nacimientos y leyes que lo


hacen cumplir. El registro civil es la fuente principal de información sobre
nacimientos y el documento básico la inscripción de nacimiento. Existe un
certificado de nacimiento estandarizado que incluye tres diferentes tipos de datos:
sobre el recién nacido, sobre el ambiente y sobre los padres.

Existen otras fuentes que se utilizan con fines específicos dirigidos casi siempre
por intereses investigativos, algunas de estas son:

- Registros de instituciones públicas y privadas que atienden partos.

- Médicos o paramédicos que atienden partos a domicilio

- Certificados de defunción de fallecidos en los primeros días de vida y que


no han sido notificados como nacimientos.

Medición de la fecundidad
1- Tasa bruta de Natalidad
Es el menos refinado de los indicadores de la fecundidad, como puede apreciarse
por su expresión de cálculo, se trata de una tasa bruta, lo que limita las
comparaciones al estar afectada por la estructura de población por edad. Además
de incluir en el denominador personas que no participan en el evento que se está
midiendo (niños y ancianos).
N
TBN = x 1000 habitantes
P
Donde:
N = total de nacidos vivos
P = población estimada a mitad de período
Tiene como ventaja que es de fácil cálculo. Sus valores oscilan entre 11 y 50
nacimientos x 1000 habitantes, por debajo de 20 se consideran niveles bajos de
fecundidad.
Veamos la tasa de Cuba para el año 2000
143528
TBN = = 12.8 x 1000
11187673
En el año 2000 se produjeron en Cuba 12.8 nacimientos por cada 1000
habitantes.
97

2- Tasa de fecundidad general


Generalmente las medidas de fecundidad están restringidas a la población
femenina, pues es fácil de medir y controlar el comportamiento por este sexo,
además de jugar un papel protagónico en este evento.

N
TGF = x 1000 mujeres de 15 a 49 años
P15− 49

Ya en el denominador aparece la población expuesta al riego de procrear, aunque


a la hora de hacer comparaciones, por ser un grupo de edad tan amplio, pueden
existir diferencias en la estructura por edad entre territorios que afecten las
comparaciones.

Sus valores oscilan entre 30 y más de 100 nacimientos por 1000 mujeres en edad
fértil ( 15 a 49 años). Valores por debajo de 60 se consideran bajos.

Cuba en el año 2000 tenía una tasa de 47.3 nacimientos por 1000 mujeres en
edad fértil.

3- Tasa de fecundidad por edad


Es de gran importancia y utilidad pues la fecundidad tiene un comportamiento
diferencial por edad y permite conocer el aporte de cada grupo de edad al nivel de
la fecundidad. Generalmente son bajos los niveles en las menores de 20 y en las
mayores de 35 años donde precisamente son mayores los riesgos de morbilidad y
mortalidad para la madre y el niño. La edad óptima para la maternidad se dice que
es de 20 a 29 años.
Los países desarrollados no solo tienen bajos niveles de la fecundidad, sino, que
los grupos de 25 a 29 y 30 a 34 años son los que mas aportan a la fecundidad.
nacidosvivosporgruposquinquenales
TFE = x 1000 mujeres del grupo de
poblaciónfemeninaporgruposquinquenales
edad.
Es muy útil el análisis gráfico de estas tasas por medio de un polígono de
frecuencia, y se conoce como curva de fecundidad.
La curva alcanzará su mayor nivel (cúspide) en correspondencia con el grupo de
edad que tenga mayor nivel de la fecundidad y se clasifican en:

- Curva de cúspide temprana pico de 20 a 24 años

- Curva de cúspide tardía pico de 25 a 29 años

- Curva de cúspide dilatada pico de 20 a 29 años

El gráfico que aparece a continuación fue tomado de Introducción al análisis


demográfico de Lorenzo Herrera.
98

Ta sas de fecundidad por edades


Tas a
0.2

0.18

0.16

0.14

0.12 1975
0.1 1985
1996
0.08

0.06

0.04

0.02

0
15 20 25 30 35 40 45
Edad

Observe como en el año 75 Cuba tenía una curva de fecundidad de cúspide


temprana y con el de cursar del tiempo no solo los niveles de fecundidad
descendieron para todos los grupos etáreos, sino, que la importancia y el aporte
del grupo de 25 a 29 años se ha ido incrementando, y la cúspide tiende ha ser
dilatada.

4- Tasa global de fecundidad

Es el número de hijos que en promedio tendría cada mujer de una cohorte


hipotética de mujeres que:

- Que durante su periodo fértil tuviera sus hijos de acuerdo a las tasas de
fecundidad por edad observadas en un momento dado

- No estuvieran expuestas al riego de la mortalidad desde el nacimiento


hasta el término del período fértil

Para su cálculo se suman las tasas de fecundidad por edad (sin el 10 n ) y se


multiplican por 5 que es la amplitud de los grupos de edad.
49
TGF = 5 ∑ TFE
i =115

Veamos el ejemplo de Cuba para el año 2000


99

Edad de la madre Tasa de fecundidad


por edad ( x 1000)

15-19 52.3

20-24 98.4

25-29 88.5

30-34 52.5

35-39 20.1

40-44 3.0

45-49 0.1

Total 47.3

TGF = 5 (0.0523 + 0.0984 + 0.0885 + 0.0525 + 0.0201 + 0.003 + 0.0001)

TGF = 1.57 hijos por mujer

5-Tasa bruta de reproducción

Expresa el número promedio de hijas por mujer y cumple los mismos supuestos
que la tasa global de fecundidad y los cálculos son los mismos, solo que el
resultado final se multiplica por la proporción de nacimientos femeninos que
ocurren en la población.
En la población tiende a producirse 105 nacimientos masculinos por cada 100
femeninos, como vimos en el capitulo de población, de donde la proporción de
nacimientos femeninos seria:

100
K= = 0.4878
205

De donde la tasa bruta de reproducción sería:

TBR = TGF X K

En el caso de Cuba tendríamos:

TBR = 1.57 X 0.4878


100

TBR = 0.77 hijas por mujer

Cuando esta tasa alcanza valores inferiores a 1.03 no se logra el reemplazo


generacional, y de mantenerse por un tiempo prolongado esta situación traería
como consecuencia un decrecimiento de la población.

6-Tasa neta de reproducción

Es el número promedio de hijas que tendría una mujer pero teniendo en cuenta los
riesgos de muerte.

Para su cálculo hay que tener de una tabla de mortalidad para la población
femenina, la función de probabilidad de supervivencia para cada grupo de edad

También define las condiciones de reemplazo de una generación por otra. Si el


valor de la tasa es menor que la unidad, una hija por mujer, no se garantiza el
reemplazo generacional y de mantenerse esta situación por varios años, al igual
que ocurría con la tasa bruta de reproducción, la población deja de crecer.

2.4 La mortalidad
Las estadísticas de mortalidad tienen el objetivo de conocer el número de
defunciones habidas en determinada población durante un período determinado
de tiempo y su distribución de acuerdo a diferentes características de la población
dónde ocurren.
Defunción es la cesación permanente de las funciones vitales con posterioridad al
nacimiento. Es un hacho vital único en la vida de un individuo, lo que facilita su
registro y análisis.
Evolución histórica
Desde el siglo XVIII, la mortalidad ha venido experimentando un descenso
mantenido de sus niveles, independiente de que su comportamiento no sea igual
en todos los países.
Entre los factores más generales e importantes que se invocan como
responsables de esta reducción tenemos:
101

- Adelantos técnicos que permiten una mejor alimentación y situación


económica
- Saneamiento del medio ambiente y creación de servicios de atención
médica
- Promulgación de legislaciones sociales y laborales más justas, mejorando
el ambiente laboral y la educación de los pueblos
- Disminución de las enfermedades infecciosas por vacunación, medidas
sanitarias en general, y control de grandes epidemias
- Avance espectacular de los conocimientos médicos y otras ciencias

Uso de las estadísticas de mortalidad

En sentido general podemos decir que los datos de mortalidad son fundamentales
para la planificación, ejecución y avaluación de los programas de salud a todos los
niveles, local, regional e internacional.

También los datos de mortalidad son de interés para las esferas de la


administración pública y a nivel individual por las implicaciones legales.

De manera un poco más precisa veamos su uso en la salud Pública:


- Vigilancia epidemiológica
La vigilancia epidemiológica es el conjunto de actividades encaminadas a
permitir en forma continua el seguimiento de un determinado problema de
salud, así como sus determinantes y factores de riesgo, a fin de tomar
medidas de control de manera oportuna y evaluar sus resultados.
Por ser la vigilancia epidemiológica un instrumento para la toma de
decisiones relativas a medidas de control, es necesario la utilización
inmediata de los datos en el momento en que se generen.
No se puede esperar la consolidación y el envío de los datos a nivel de
estado o nación para hacer uso de los mismos, pues la información pierde
oportunidad. Por ejemplo a veces la primera información sobre un caso de
cólera o fiebre amarilla se obtiene del certificado de defunción y no del
sistema de información de morbilidad.
Por otra parte la investigación epidemiológica de un caso puede modificar el
diagnostico y servir como un instrumento para evaluar y mejorar la calidad
delo registros.
Debe por tanto existir un intercambio de información bidireccional entre las
áreas de vigilancia epidemiológica y los responsables de las estadísticas de
mortalidad.
102

- Evaluación
Sirve para evaluar:
• Cobertura y calidad delos servicios, como por ejemplo la mortalidad
materna, la mortalidad intra hospitalaria, la mortalidad por infecciones
nosocomiales.
• Programas, conociendo la tendencia después de la implantación
• Acciones específicas, como el tratamiento de enfermedades graves a
través da la letalidad.
• Tecnologías, por ejemplo, conociendo la supervivencia por diferentes
tipo de tratamientos
- En el análisis de la situación de salud

Los indicadores de mortalidad, aún en la actualidad, constituyen una de las


formas más seguras y completas para medir la situación de salud aunque de
forma indirecta.
Conociendo cuándo, dónde cómo y de qué mueren los integrantes de una
población podemos aproximarnos a saber como viven los mismos y a partir de
ahí su situación de salud.

Fuentes de datos
Una de las ventajas que tienen las estadísticas de mortalidad es precisamente
la disponibilidad de fuentes, para la obtención de la información.

La información de mortalidad se obtiene fundamentalmente a partir de los


registros o sistemas de información

Son realmente antiguos, el primer registro surge en Inglaterra en el siglo XVI


por un decreto promulgado pos Enrique VIII en el cual se ordenaba que en
todas las iglesias se guardara en un archivo permanente los bautismos, las
defunciones y los matrimonios. El avance de estoa registros y su
perfeccionamiento se comenzó en el siglo XIX.

El documento base de donde se obtiene la información para la entrada al


registro es el certificado de defunción

Existen dos certificados:


- certificado de defunción, que se llena a las defunciones de 28 días y más
de edad
- certificado de defunción perinatal, que se llena a las defunciones fetales de
20 semanas de gestación o 500 gramos de peso hasta los nacidos vivos
que fallecen hasta los 27 días de nacidos
103

La causa de muerte que se tabula es la causa básica, que es la enfermedad o


lesión que inicia la serie de procesos morbosos que conducen directamente a
la muerte. Existen otras causas que son las contribuyentes y asociadas.

Otro elemento a tener en cuenta en la producción de las estadísticas de


mortalidad es la codificación de las causas de muerte sobre la base de la
Clasificación Internacional de Enfermedades ( CIE)

Los intentos de listar, ordenar y clasificar las enfermedades, para que estas
sean comparables dentro de diferentes regiones de un país y entre países,
datan de mediados del siglo XIX con los primeros intentos hechos por William
Farr. A finales de este propio siglo, Bertillón propone una lista, una clasificación
que fue revisada y adaptada oficialmente para todos los países en el 1900

A partir de la 6ta versión (en 1948 se creó por parte de la recién fundada OMS,
un Comité de Control y Revisión de la CIE, que es un órgano de trabajo
permanente) la clasificación se vuelve más amplia y ya se incluyen las
enfermedades. Actualmente ya está vigente la X revisión.

Errores
Los errores que con más frecuencia se cometen en los registros es por falta de
cobertura (que el sistema llegue a todos lo lugares que debe llegar y cubra a
toda la población que debe cubrir) e integridad (que se registre todo lo que se
debe registrar).
Estos errores conducen a otros como:
- subregistros
- sobreregistros
- mala calidad en el llenado de los datos que recoge el certificado de
defunción
- errores de flujo y terminación

Diferenciales de Mortalidad

La mortalidad tiene un comportamiento diferencial por causas biológicas y por


causas externas.

En las causas externas influyen las condiciones de vida, el estilo de vida y múltiple
factores de índole socioeconómica.

Dentro de las causas externas la edad y el sexo son los principales factores
104

Edad. La mortalidad es alta al principio y fin de la vida. Es muy alta en la primera


hora de vida, en el primer día, sigue siendo alta en la primera semana, luego
desciende aunque se mantiene con niveles elevados durante el primer año de
vida.

Alcanza sus niveles más bajos entre los 5 y 9 y 10 a 14 años, comenzando de


nuevo un ascenso ininterrumpido, alcanzando sus niveles más altos en los grupos
de edades más avanzados.

Si se realiza un polígono de frecuencia con las tasas de mortalidad por edad


encontraríamos que:
- en los países muy pobres es muy alta el primer año de vida y al final de la
vida y la curva tiene forma de U
- En los países desarrollados, aunque en el primer año de vida el riesgo de
muerte sigue siendo alto, no es tan marcado como al final de la vida y la
forma de la curva es de una J inclinada.

Sexo. Existe una sobremortalidad masculina para casi todas las edades. Esta
diferencia se hace muy evidente en la esperanza de vida al nacer por sexo, donde
la mujer es más longeva que el hombre, diferencia que se hace más marcada en
los países de mayor desarrollo.

En los países pobres esta diferencia es menor y se piensa que sea, en parte, por
el desgaste biológico de las mujeres debido a la alta paridad y también porque las
malas condiciones de vida la afectan mucho mas por sus roles de género.

Indicadores tradicionales

Son y seguirán siendo la base de los estudios de mortalidad, al margen de otros


enfoques como los de evitabilidad.

1. Tasa de mortalidad general . Es fácil de obtener los datos que incluye su


cálculo, y de fácil interpretación. Permite comparar la mortalidad con un solo
valor, pero para ello es necesario estandarizar la tasa porque como tasa bruta,
está afectada por la estructura por edad.

totaldedefunciones
TBM = x 1000 hab.
totaldelapoblación
105

Este mismo hecho produce un efecto paradójico, en los países más ricos la
tasa tiene valores más altos, porque la población es más vieja, cuando sus
riesgos de muerte son en realidad más bajos que la de los países pobres.

2. Tasa de mortalidad por edad. Permite evaluar las variaciones de los riesgos de
muertes en las distintas edades. Es de fácil cálculo y generalmente la
información de fácil obtención. Permite la comparación sin estandarizar porque
se trata de tasas específicas. Sin embargo cuando no se analiza por grandes
grupos de edad puede ser complejo el manejo de tantos indicadores.

defuncionesde lg rupodeedadX
TME x = x 1000 hab
poblacionde lg rupodeedadX

En realidad las tasas quinquenales y decenales no se utilizan para análisis


directo, sino, como materia prima para el cálculo de otros indicadores y la
aplicación de otras técnicas como veremos más adelante.

3. Tasa de mortalidad por sexo. Generalmente se asocia a la edad y a las causas


de defunción
- Por edad y sexo evidencia el comportamiento de la mortalidad por estas
dos variables a la vez como por ejemplo la sobremortalidad masculina en el
adulto joven por muertes violentas

defuencionesporedadysexo
TMES = x 1000 hab.
poblacióndeesegrupodeedadysexo

- Por sexo y causa también muestra el comportamiento diferencial por estas


dos variables, como es el caso de la sobremortalidad femenina por diabetes y
accidentes vasculares encefálicos.

defuncionesporsexoycausaX
TMSC = x 10, 000 o 100 000 hab.4.
poblacióndeesesexo
106

4. Mortalidad por causa. Permite identificar de que se mueren los integrantes


de una comunidad y actuar consecuentemente. Las causas de defunción
suelen clasificarse en exógenas, aquellas que están vinculadas con la acción
negativa del medio, como la desnutrición y las de etiología infecciosa, que
tienen una importancia relativa mayor en los países pobres y endógenas
donde la influencia del medio es menor y prevalecen los aspectos de carácter
biológico, como las enfermedades crónicas no infecciosas, de mayor
trascendencia en los países ricos.

También el estudio de la mortalidad por causas permite evaluar la calidad de


la información. De suerte que si la calidad es buena las cinco primeras
causas de defunción deben constituir el 50 % del total de defunciones y las
10 primeras el 65 %.

5. Mortalidad proporcional. Mide el pero de las defunciones (proporción ó %)


con determinadas características con relación al total de defunciones.

totaldedefuncionesdeunacaracterística *
Mortalidad proporcional = x 100 def.
totaldedefunciones
• Sexo, edad, causa

Tiene la ventaja de ser de simple cálculo y no necesitar el dato de la


población expuesta al riesgo.

Con relación a la mortalidad proporcional por edad existe un indicador que


se conoce como índice de Swarrop y Wemura que tiene la siguiente
expresión de cálculo:

defuncionesde50añosymás
ISW = x 100 defunciones
totaldedefunciones

Es de fácil cálculo y mide de cierta forma las condiciones de vida de un


territorio, en los países desarrollados debe ser el 60 o 70 % de todas las
defunciones.

Tiene la desventaja que como se trata de un grupo de edad tan amplio


puede estar afectado por la estructura por edad de la población.

Indicadores especiales:
107

Bajo este rubro agrupamos un conjunto de indicadores que tiene casi todos
en común que el denominador en el total de nacidos vivos, como una
aproximación a las reales poblaciones expuestas al riesgo que se está
midiendo, al no estar siempre disponible esa información.

6. Mortalidad infantil. Es un indicador de suma importancia porque cuantifica


el riego de muerte en un grupo de edad muy especial, el menor de un año,
donde no sólo son altos los niveles sino que las causas varían dentro de
ese periodo tan corto de la vida.

Históricamente se le ha considerado como un indicador que mide de


manera indirecta el desarrollo socio económico de un territorio, de ahí que
le riesgo de muerte sea muy bajo en los países ricos y muy elevado en los
pobres.

Sin embargo en la actualidad se considera que el indicador es realmente


sensible a los cambios en las condiciones de vida cuando estas son
precarias, pero en territorios donde se ha logrado un cierto desarrollo y la
tasa presenta valores bajos, por debajo de 20 defunciones por 1000
nacidos vivos, ya no es tan sensible a los cambio en las condiciones de
vida.

Actualmente se plantea que la reducción rápida de altos niveles de


mortalidad infantil, refleja generalmente la eficacia y la cobertura de
acciones específicas del sector salud, más que una mejoría de las
condiciones de vida de la población.

defuncionesmenoresdeunaño
TMI = x 1000 nacidos vivos
totaldenacidosvivos

Como el riego de muerte y las causas que lo originan son diferentes dentro
del primer año de vida, se divide este periodo en tres momentos que son
conocidos como los componentes de la mortalidad infantil, y para cada
uno de ello se calcula una tasa, que como todas tienen como denominador
el menor de un año son aditivas, o sea la suma de la tasa de los tres
componentes nos da el valor de la mortalidad infantil.

El primer componente es la mortalidad neonatal precoz, que abarca las


defunciones que ocurren en los nacidos vivos antes de los 7 días de vida.
108

defuncionesmenoresde7días
TMNP = x 1000 nacidos vivos
totaldenacidosvivos
En este período de la vida predominan las causas de muerte de tipo
endógeno, que son difícilmente evitables como las malformaciones
congénitas, hipoxia, membrana hialina y otras.

Con el análisis de este componente estamos evaluando la calidad de la


atención obstétrica durante el embarazo y en el momento del parto, así
como la calidad de la atención neonatológica.

El segundo componente es la mortalidad neonatal tardía que incluye las


defunciones ocurridas desde los 7 hasta los 27 días de vida. En este
período se mezclan las causas de tipo endógeno con las cusas tipo
exógeno, al ponerse ya en contacto el niño con el medio.

defuncionesde7a 27días
TMNT = x 1000 nacidos vivos
totaldenacidosvivos

Este indicador sirve para evaluar tanto la calidad de la atención obstétrica y


neonatológica como la atención pediátrica.

El tercer y último componente es el postneonatal que incluye las


defunciones de 28 días en adelante, pero sin llegar al año de vida. En este
componente las causas que predominan son las de tipo exógeno, pues el
niño, lábil por su edad, ya entra en contacto con las adversidades del
medio. Es por eso que cuando un país comienza a descender la tasa de
mortalidad infantil la hace primero a expensa de este componente, por que
incluye causas más fáciles de evitar. Con vacunación, cobertura de la
asistencia médica y mejorando la alimentación se logran grandes
descensos.

defuncionesdemásde27días
TMP = x 1000 nacidos vivos
tortaldenacidosvivos

El análisis de este componente permite evaluar la calidad de la atención


pediátrica fundamentalmente.
109

Por tener los componentes un comportamiento diferencial, en cuanto a las


causas de defunción y su potencial evitabilidad, se ha establecido un patrón
ideal de aporte de cada uno de los mismos a la mortalidad infantil en
general.

El aporte porcentual de cada uno debe ser como si muestra a continuación:

Neonatal precoz 60%


Neonatal tardía 10%
Postneonatal 30%

Veamos la mortalidad infantil para Cuba en el año 2000

1039
TMI = = 7.2 x 1000 nacidos vivos
143528
445
TMNP = = 3.1 x 1000 nacidos vivos
143528
207
TMNT = = 1.4 x 1000 nacidos vivos
143528
387
TMP = = 2.7 x 1000 nacidos vivos
143528

Observe como la suma de las tasas de cada uno de los componentes es


igual al valor de la mortalidad infantil general:

3.1+1.4+2.7 = 7.2

Veamos ahora el aporte porcentual de cada uno de ellos

Neonatal precoz 445 43%


Neonatal tardía 207 20%
Postneonatal 387 37%
Mortalidad infantil 1039 100%
110

Cuba aunque tiene niveles muy bajos de mortalidad en el menor de un año,


tiene al parecer reservas de reducción en el componente postneonatal y
neonatal tardío, donde ya en el niño comienzan a influir las condiciones de
vida y aparecen con mas fuerza las causas exógenas, más fáciles de evitar.
Por supuesto que ahora se impondría un análisis detallado del
comportamiento por causas dentro de cada componente.

Mortalidad perinatal. El período perinatal, es el período comprendido desde


la 27 semanas de gestación hasta los 6 días de vida después del
nacimiento. Es bueno aclarar que la X CIE extiende el período a las 22
semanas de gestación.

Incluye causas de defunción predominantemente de tipo endógeno como


anomalías congénitas, otras relacionadas con la gestación, el parto, y la
salud de la madre.

La tasa tiene dos componentes:

- Defunciones fetales tardías, son aquellas en las que el producto de la


concepción fallece intra útero o en el momento del parto, por lo que se
considera un “nacido muerto” e incluye a las defunciones desde las 28
semanas de gestación o 1000 gramos de peso.

- Comparte con la mortalidad infantil el componente neonatal precoz, por


consiguiente incluye los nacidos vivos que fallecen en los primeros 6 días
de vida.

defuncionesfetalestardías + defuncionesneonatalesprecoces
TMPN= x1000 nv
nacidosvivos + defuncionesfetalestardías
Este indicador permite evaluar tanto la calidad de la atención obstétrica
prenatal como durante el parto así como las condiciones de salud y
nutrición de la madre, aspectos genéticos y la atención neonatológica.

7. Mortalidad del menor de 5 años. Es un indicador muy importante sobre


todos para países en desarrollo, pues permite evaluar el efecto de la
desnutrición, las enfermedades infecciosas y parasitarias, que se extienden
hasta esta edad.

defoncionesmenoresde5años
TMM5 = x 1000 nacidos vivos
totaldenacidosvivos
111

8. Mortalidad materna. Muerte materna se define como “ la defunción de una


mujer mientras este embarazada o dentro de los 42 días posteriores a la
terminación del embarazo, independientemente de la duración y el sitio del
embarazo, pero debido a las denominadas causas de muertes directas “
Muerte materna directa se considera aquellas relacionadas o agravadas por
el embarazo o su atención o como suelen también definirse: complicaciones
del embarazo, parto o puerperio, y muertes maternas indirectas, las que
son debidas a causas accidentales o incidentales.
defuncionesmaternasdirectas
TMM = x 100 000 nacidos vivos
totaldenacidosvivos
Evalúa la calidad y cobertura de los servicios de salud tanto la atención
prenatal como la calidad de la atención al parto. En los países desarrollados
la tasa es inferior a 10 x 100 000 nacidos vivos, mientras que en los más
pobres llega a alcanzar valores de 100 y 150 x 100 000 nv.

9. Letalidad. Este indicador mide la gravedad de las enfermedades, el


pronóstico de las mismas, de tal suerte que expresa del total de enfermo
que porcentaje se espera que fallezca.

defuncionesporunacausa
Tasa de letalidad = x 100
totaldeenfermosporesacausa

Es una tasa muy estable, un cambio brusco implica o la toma de una


medida importante con gran impacto en la evolución de la enfermedad, o un
deterioro de la atención o las condiciones de vida, o simplemente mala
calidad de la información.
112

10. Esperanza de vida. Es el mejor indicador para resumir el comportamiento


de la mortalidad. Surge de la aplicación de un modelo o técnica
demográfica, la tabla de vida o de mortalidad.
Se parte de las tasas de mortalidad por edad y sexo que tiene una
población determinada para un año específico o trienio y se supone que
esas probabilidades de muerte que se obtienen a partir de las tasas se les
apliquen a una cohorte hipotética de nacimientos.

Entre las funciones (indicadores) que brinda la tabla, una de las más
importantes es la esperanza de vida a una edad exacta X. Este indicador
expresa cuantos años en promedio se espera que viva una persona que
esta sometida a los riesgos (tasas)) con los que se calculó la tabla.

Cuando se calcula a la edad exacta cero se tiene la esperanza o


expectativa de vida al nacer

Para los países desarrollados el valor supera los 70 años, Japón sobrepasa
los 80 años y los más pobres apenas superan los 50 años.

Por sexo se pone de manifiesto la sobremortalidad masculina, más


acentuada en los países ricos, generalmente la diferencia por sexo es de 4
o 5 años a favor por supuesto de las féminas.

Es un indicador sintético del desarrollo socioeconómico y del nivel de salud


y tiene la ventaja que para las comparaciones, no se ve afectado por la
estructura por edad de la población.

Tasas ajustadas o estandarizadas

Como hemos mencionado varias veces, las tasas brutas, crudas, totales o
generales, en las que en el denominador se encuentra la población total, no
pueden compararse sin tener en cuenta que, puede esta comparación estar
sesgada, por la diferente estructura de población entre los territorios a comparar o
un mismo territorio en diferentes periodos de tiempo.

Veamos el método directo de tipificación para la comparación de tasas globales


de mortalidad.

Observe en la tabla que se muestra a continuación como la provincia A tiene una


tasa de mortalidad general mayor que la provincia B y sin embargo sus tasas
específicas por edad son menores
113

Tasas de mortalidad por edad. Provincias A y B 1999.

Edades Provincia A Provincia B


Tasa x 1000 tasa x 1000
< 1 año 9.7 11.2
1-4 0.6 0.8
5-14 0.2 0.4
15-49 1.5 1.5
50-64 8.1 8.4
65 y más 50.0 49.7
Total 7.2 5.8

Este comportamiento aparentemente paradójico, se debe al efecto confusor que


está produciendo la estructura por edad de la población. Las poblaciones con una
estructura más vieja, tienen mayores tasas de mortalidad que los territorios que
tiene una estructura de población más joven, pues al tener más efectivos de
población en edades más avanzadas, donde los riesgos de muerte son también
superiores, hacen un aporte mayor al número total de defunciones.

Es por eso que los países desarrollados que presentan una población más
envejecida tienen tasas de mortalidad general mayores que los países pobres con
estructuras de población más jóvenes. Así las tasa de mortalidad general de
Japón es mayor que la de Haití

Observe como la población de la provincia A, la de mayor tasa de mortalidad


general, tiene una estructura de población más vieja, 10.2% de efectivos de
población con 65 años y más mientras que la B sólo tiene el 7.4%.

Distribución de la población por provincia

Grupo de Provincia A Provincia B


edad Población y porcentajes Población y porcentajes
< 1 año 10 100 1.6 11 900 1.7
1-4 38 700 6.0 44 400 6.5
5 - 14 86 600 13.5 107 300 15.6
15 - 49 359 400 56.2 397 900 57.9
50 - 64 78 400 12.3 74 500 10.8
65 y más 65 500 10.2 51 200 7.4
Total 638 700 100.0 687 200 100.0

La forma por tanto de hacer comparables ambos territorios es lograr que


hipotéticamente y por medio de un artificio matemático las dos provincias tengan la
114

misma estructura de población para poder ver el efecto puro de la diferencia de la


mortalidad.

Por eso lo primero es definir una población tipo o estándar, que puede ser la de un
tercer país o región, la de una población ficticia o hipotética que se puede crear
sumando la de los territorios a comparar, o la de una de las regiones en estudio, que
es la alternativa que vamos a utilizar en el ejemplo.

Tomamos como población tipo la de la provincia B, y la preguntaría que tendremos


que responder es: ¿Cuál sería la mortalidad de la provincia A si esta tuviese la
población de B?

Para ello sometemos los grupos de población de B a los riesgos de morir de A,


multiplicando las tasas especificas por edad, sin multiplicar por 1000, por los
efectivos de población correspondientes y así obtenemos las defunciones
esperadas o que cabría esperar que tuviese la provincia A si tuviese la estructura de
población de B, como se observa en la tabla que aparece a continuación

Edades Provincia A Provincia B Defunciones esperadas


Tasa x 1000 Población

< 1 año 9.7 11 900 0.0097 x 11900 = 115


1-4 0.6 44 400 0.0006 x 44400 = 27
5-14 0.2 107 300 0.0002 x 107300 = 21
15-49 1.5 397 900 0.0015 x 397900 = 597
50-64 8.1 74 500 0.0081 x 74500 = 603
65 y más 50.0 51 200 0.05 x 51200 = 2560
Total 7.2 687 200 3923
Con el total de defunciones esperadas se calcula la tasa general ajustada o
tipificada:
3923
TBM de la población A St = = 5.7 x 1000 habitantes
687200

Nótese como la tasa disminuyó a 5.7 y al compararla con la de B sus riesgos de


muerte son realmente menores, la diferencia entre las tasas era debido a la
diferencia en la estructura de población.

Efecto residual = 5.8-5.7= 0.1, diferencia real de la mortalidad

Efecto estructural = 7.2 – 5.7= 1.5, efecto de la estructura de población


115

Mortalidad evitable

Es conocido que los indicadores de morbilidad, reflejan de una manera más fiel la
situación de salud de una población. Sin embargo, el hecho de que ellos no puedan
ser obtenidos con la misma facilidad y sobre todo con la confiabilidad que ofrecen los
datos sobre mortalidad - ya que en la mayoría de los países los registros de
mortalidad son desde hace muchos años de carácter obligatorio, y tienen una alta
cobertura e integridad - hace que aún en la actualidad, se utilicen con más
frecuencia que los datos de morbilidad. 1

Se han hecho grandes esfuerzos, orientados a la elaboración de estadísticas de


morbilidad, a partir de datos hospitalarios y ambulatorios y, en ocasiones, de
investigaciones a nivel poblacional. Generalmente estas estadísticas siguen siendo
parciales y muy costosas, aún en nuestro país, donde se dispone de datos de
morbilidad para las enfermedades de declaración obligatoria (EDO) y las
dispensarizadas que lleva el médico de la familia, aunque esta última, generalmente
se limita a tres causas: hipertensión arterial, asma y diabetes mellitus, por eso
aunque es fundamental la utilización de datos de morbilidad, discapacidad y otros
aspectos del estado de salud, las estadísticas de mortalidad siguen siendo
indispensables. Los indicadores de mortalidad, aún en la actualidad, constituyen una
de las formas más seguras y completas para el Análisis de la Situación de Salud.

En el presente siglo, la reducción sostenida de los niveles de mortalidad en el


mundo, es un hecho inobjetable. En la medida que los niveles de mortalidad
alcanzan valores muy bajos, se hace más difícil continuar su reducción y entonces
se hace necesario la identificación de brechas reducibles de mortalidad o reservas
de reducción de la misma.

De lo anterior se desprende en primer lugar que no debemos limitarnos en los


análisis a asumir las divisiones político - administrativas, como un todo homogéneo,
sino buscar en su interior grupos de población con condiciones de vida diferentes y,
por consiguiente, con niveles de mortalidad diferentes. En segundo lugar, se impone
utilizar como complemento de los indicadores tradicionales (tasa de mortalidad
general por causa, sexo, grupo edad y mortalidad proporcional) que seguirán siendo
la piedra angular para el análisis, otros indicadores y enfoques que permitan
identificar con mayor precisión, esas reservas de mortalidad: la mortalidad evitable.

Mortalidad prematura

El propósito de la Salud Pública, debe encaminarse, primordialmente no a disminuir


la cifra total de fallecidos, sino, a aumentar el número de años que una persona
pueda vivir en óptimas condiciones, es decir, gozando de salud, y por ende, de una
participación activa en la sociedad.
116

El establecimiento de prioridades en los diferentes programas de salud, de acuerdo


con el número de muertes que ocurren por las distintas enfermedades o
desviaciones de la salud, deben se consideradas más que por ese mero hecho, por
las edades a las que fallezcan los integrantes de una población, puesto que
constituye un factor sustancial, al valorar la importancia de un problema de salud
determinado.

De esta manera puede afirmarse, que a la prevención de una entidad que ocasiona
muchas pérdidas dentro de contingentes poblacionales jóvenes y socialmente
activos, debe atribuírsele una mayor prioridad que a otras causas de defunción que
ocasionan cifras similares de muerte entre personas de edad avanzada. Así, la
importancia relativa de las causas de muerte se modifica notablemente, cuando se
analiza de acuerdo con el número de años de vida potencialmente perdidos antes de
una edad dada (mortalidad prematura), mortalidad que, además, es considerada
potencialmente evitable o reducible.

El concepto de años de vida potenciales perdidos fue introducido por primera vez por
Dempsey en 1947, con el fin de comparar la mortalidad por tuberculosis con las
debidas a enfermedades del corazón y cáncer. Para cada defunción ella calculó, los
años de vida que quedaban hasta llegar a la esperanza de vida prevaleciente.

Romeder, en 1977 desarrolló este concepto y perfeccionó este indicador y es


nuevamente reanalizado y promovido su uso por el Centro para el Control de
Enfermedades (CDC) de Atlanta en 1980.

Existen diferentes posiciones para establecer la duración del tiempo perdido debido
a una muerte prematura. De ahí que existan diferentes alternativas de cálculo para
obtener el número de años de vida perdidos, pasaremos a analizar a continuación la
forma más sencilla y difundida de cálculo

Establecer un potencial límite de vida arbitraria.

Los años potenciales de vida perdidos (AVPP) son calculados, definiendo un


potencial límite de vida y calculando los años perdidos debido a cada muerte, como
el potencial límite menos la edad al fallecer.

La fórmula para la estimación del número de años de vida potencialmente perdidos


en una población sería:
117

X =l

∑ dx (L − x )
X = 0 ó1
i i

donde:
i grupos de edad
dxi defunciones a la edad media del intervalo o grupo de edad i
xi edad media del grupo de edad i
L potencial límite de vida ó edad límite

Un amplio rango de edades límites se ha utilizado en la práctica, desde los 60 hasta


los 85 años. Los argumentos, aunque varían a la hora de elegir el límite arbitrario,
están fuertemente asociados a la esperanza de vida al nacer. Dempsey
concretamente propuso, que fuese la esperanza de vida al nacer del país o región en
cuestión.

En los países más desarrollados del mundo, la esperanza de vida la nacer, supera a
los 70 años, mientras que en las regiones más pobres y atrasadas, no llega a los 60
años. Quizá es por ello, que el valor intermedio de 65 años, se considera el más
utilizado para calcular los AVPP y es el propuesto por el CDC de Atlanta.

No obstante otros autores como Romeder y Mc Whinnie, consideran que el límite


ideal es 70 años, una edad menor la consideran demasiado baja, como por ejemplo
los 65 años, pues plantean que una proporción importante de personas, están
todavía activas a esta edad.

Aunque se puede ser flexible en la selección de la edad límite, lo que si hay que
tener presente es que no pueden establecerse comparaciones al variar esta edad,
pues varía el valor del indicador.

Veamos el ejemplo del cálculo de número de años de vida perdidos utilizando 65


años como límite arbitrario de edad.
118

Mortalidad por accidentes. Cuba 1999

Edad Defunciones Edad ( L-x i ) Dx i . ( L-x i )


(1) (2) media (4) No de
(3) AVPP
(2 x 4)

<1 38 0.5 64.5 2451


1a4 83 3 62 5146
5a9 87 7.5 57.5 5002.5
10 a 14 116 12.5 52.5 6090
15 a 24 335 20 45 15075
25 a 34 678 30 35 23730
35 a 44 535 40 25 13375
45 a 54 419 50 15 6285
55 a 64 335 60 5 1675
Total 78829.5

El primer paso es calcular la edad media de los grupos de edad, xi, para ello
encontramos la marca de clase de cada intervalo o grupo mediante la semi suma de
los límites de clase:

L. inf + L. sup/ 2
Para el grupo de 1-4 sería:
1+4/2= 5/2 = 2.5

A esa marca de clase se le agrega 0.5 que sería la mitad de 1 año, el tiempo
transcurrido hasta cumplir la próxima edad exacta de 5 años que es límite inferior
del siguiente intervalo de clase.

2.5 + 0.5 = 3
De esa forma asumimos que las defunciones de cada grupo de edad tenían al
morir la edad media de cada intervalo de clase. Las 83 defunciones ocurridas en el
grupo de 1 a 4 años para nuestros fines tenían al morir 3 años. Así se procede con
todos los grupos de edad (columna 3).

El siguiente paso es calcular cuantos años ha dejado de vivir una persona que al
fallecer tenga la edad media de cada grupo etáreo. Esos años dependerán de que
edad se utilice como límite arbitrario, nosotros ya dijimos que vamos a trabajar con
65 años.

En la columna 4 aparecen esos resultados:


119

Ejemplo:

65-0.5= 64.5
65- 3= 62

El último paso es calcular el número de años dejado de vivir por todas las
defunciones ocurridas por grupo de edad. Para el grupo de los menores de 1año
una defunción a esta edad ha perdido 64.5 años, pero en el caso de los accidente
para el país el al año 1999 se produjeron 38. Para conocer cuantos años se
dejaron de vivir por las 38 defunciones reportadas se multiplican por 64.5 años
que es lo que dejo de vivir una. Los resultados se muestran en la última columna
de la tabla. En total se dejaron de vivir por accidentes para Cuba en ese año
78829.5 años

Otro aspecto controvertido ha sido, la inclusión o no del menor de un año.

En la década del 70 y parte de los 80, la tendencia era, la exclusión del menor de un
año, para lo que se esgrimían los siguientes argumentos:

Primero, que las causas de defunción en el menor de un año, son causas muy
específicas para este período de la vida, y responden a causas muy diferentes de las
defunciones a otras edades. Además, en regiones de baja mortalidad infantil habría
una sobrecarga en AVPP por enfermedades ya muy poco evitables, como las
anomalías congénitas y afecciones originadas en el período perinatal.

Segundo, cada defunción de niños menores de un año, duplicarían el aporte en


AVPP, en comparación con los fallecidos entre 30 y 40 años. Esto, plantean, sería
una sobrestimación del valor aceptado por la sociedad, ya que se considera que la
mortalidad de niños menores de un año es menos perturbadora que la mortalidad de
los niños de mayor edad y la de los adultos, además de ser defunciones fácilmente
reemplazables.

En los últimos años, se ha generalizado la inclusión de las muertes a partir del


nacimiento, pues si bien es cierto que son los que más aportan al indicador, también
son los que menos vivieron. Por otra parte, si el indicador es utilizado para identificar
y priorizar problemas, con el objetivo de decidir acciones concretas, el menor de un
año, no debe ser excluido de estos análisis.

Sin embargo, todo parece indicar que en países con niveles muy bajos de mortalidad
infantil, como es el caso de Cuba, el hecho de incluir o no el menor de un año en el
cálculo de los AVPP, prácticamente no cambia los resultados.
120

Indicadores de mortalidad prematura.

A partir del número de años de vida potenciales perdidos calculados por cualquiera
de los procedimientos ya señalados, se impone, para poder realizar el análisis de la
mortalidad prematura el cálculo de algunas medidas de resumen o indicadores, de la
misma manera que se realiza en el análisis de la mortalidad.

Mortalidad prematura proporcional

Representa la importancia relativa de determinado grupo. Se calcula la proporción o


el por ciento que representan las muertes prematuras de un determinado grupo:
edad, sexo, o causa de defunción, sobre el total de años de vida potencialmente
perdidos, de esta forma se puede evidenciar cuál o cuáles grupos de edad aportan
más a la mortalidad prematura en general, o por sexo, o cuál o cuáles causas de
defunción tienen una importancia relativa mayor.

A manera de ejemplo:

Recordando el cálculo de los porcentajes, para las enfermedades del corazón:

263843/966127= 0.02730 x 100 = 27.30%

Porcentaje de años de vida perdidos según estándar (AVPES) por causas. Cuba
1999
AVPES
Causa No. %
AVPES AVPES

Enfermedades del corazón 263843 27.30


Tumores malignos 257487 26.65
Enfermedades cerebrovasculares 98696 10.21
Accidentes 139159 14.40
Influenza y neumonía 60854 6.29
Enfermedades de las arterias. 29523 3.05
Arteriolas y vasos capilares
Diabetes mellitus 24627 2.50
Suicidio y lesiones auto infligidas 63555 6.57
Bronquitis, enfisema y asma 8599 0.89
Cirrosis y otras enfermedades 19784 2.04
crónicas del hígado
Total 966127 100.00

Más de la mitad de los años de vida perdidos para Cuba en 1999, fueron debidos a
enfermedades del corazón y tumores malignos.
121

Un caso particular de la mortalidad prematura proporcional es el denominado


"perdidas biosociales", entendido como tal, a los años de vida potencialmente
perdidos entre las edades de 20 a 59 años, por cuanto se trata de una subpoblación
que participa activamente en las esferas económicas y sociales de un país, y que por
otro lado comprende los grupos de edades fértiles.

Estructura de las pérdidas biosociales para las cinco primeras causas de


defunción. Cuba 1996.
AVPES
No. %
Causa AVPES AVPES

Enfermedades del corazón 68629 24.8


Tumores malignos 98879 35.8
Enfermedades cerebrovasculares 28053 10.1
Accidentes 68957 24.9
Influenza y neumonía 11739 4.2
Total 180659 100.0

Dentro de las cinco causas de defunción, los tumores malignos, los accidentes y las
enfermedades del corazón son las causas que más pérdidas biosociales aportan,
precisamente por su alta frecuencia en el adulto joven.

Tasas de Mortalidad Prematura:

A partir del número de años perdidos se puede calcular una tasa, dividiendo este
número por el número de habitantes y multiplicándolo por 1000, 10000 ó 100000,
siendo más común el uso por mil habitantes.

Desde el punto de vista estadístico, en caso de calcular el número de años perdidos


utilizando un límite arbitrario, 65 ó 70 años, lo correcto es usar como denominador la
población hasta la edad límite (hasta 65 ó 70 años), pero en la práctica suele
utilizarse la población total.

Se puede calcular, al igual que en la mortalidad, tasas generales, por causas, sexos
y grupos de edad.

Tasas Tipificadas.

Al igual que las tasas de mortalidad, las tasas de muerte prematura pueden ser
estandarizadas, puesto que también son influenciadas por la estructura de edad de
122

la población. Dicho procedimiento tendría sentido solamente para la comparación de


tasas generales y por causas específicas con otras áreas.

El método de tipificación que se utiliza es el método directo, por lo tanto, la tasa de


mortalidad prematura ajustada por edad corresponde al número de años de vida que
se perdería en la población real si esta tuviera la misma estructura de edad que la
población de referencia.

Una vez obtenidas las "defunciones esperadas" en la población bajo estudio, se


procede a obtener el número de años de vida perdido por cualquiera de los
procedimientos antes señalado.

En el ejemplo que aparece a continuación, para algunas causas seleccionadas de


muertes violentas, se calcularon tasas de AVPP, incluyendo el menor de un año y
utilizando como edad límite los 65 años, en tres estratos formados por agrupaciones
de municipios de la provincia Santiago de Cuba, que se clasificaron según sus
condiciones de vida: el estrato A como el de mejores condiciones de vida, el B de
regulares condiciones y el C de malas de condiciones.

Para poder comparar la mortalidad prematura de los tres estratos y evitar el sesgo
que puede introducir la diferencia en la estructura de población, se tipificaron las
tasas por el método directo.

Tasas* de AVPP tipificadas por causas seleccionadas de muertes violentas y


estratos. Santiago de Cuba. 1989-1991

Muertes Violentas Estrato A Estrato B Estrato C


No. Tasa No. Tasa No. Tasa
AVPP AVPP AVPP AVPP AVPP AVPP

Suicidios 1905.0 4.24 1825.0 5.90 1602.5 6.93


Accidentes de
2892.0 6.43 2474.0 7.99 1629.5 7.05
transporte
Caídas accidentales 255.0 0.57 207.5 0.67 170.0 0.74
Otros accidentes 4573.0 10.17 4244.5 13.72 2740.5 11.86
* Tasas por 1000 habitantes
El estrato A, el de mejores condiciones de vida, es en el que menos años de vida se
pierden por las cuatro causas analizadas. Las muertes violentas, como causa
exógena, están muy influenciadas por el efecto negativo del medio, en este caso, por
el efecto negativo de las condiciones de vida adversas.

Razón de años de vida potencialmente perdidos.


123

La razón de años de vida potenciales perdidos (RAVPP), es el equivalente a la razón


estandarizada de mortalidad (REM), que se utiliza para el análisis de la mortalidad
general cuando se quiere comparar dos regiones o una misma región o población en
dos momentos diferentes para evidenciar la "ganancia" o "exceso" de mortalidad.

Al igual que la REM, las defunciones esperadas, serian las defunciones que se
esperarían que ocurrieran en una determinada población, si estuviese sometida a los
niveles de mortalidad, a los riesgos de morir de la población en estudio.

Con las defunciones esperadas se procede al cálculo de los años de vidas


potenciales perdidos. La razón sería:

Si el valor de la razón es 1, ambos territorios tiene igual mortalidad prematura. Si el


valor obtenido es mayor que 1, se está produciendo un exceso de mortalidad
prematura en el territorio bajo estudio, si fuese menor que la unidad, la mortalidad
prematura es menor el territorio bajo estudio en comparación con el de referencia.
Este resultado también puede expresarse por cien (x 100).

Veamos un ejemplo:

En un estudio realizado en la provincia de Camagüey sobre mortalidad y condiciones


de vida 11 se clasificaron los municipios de la provincia según sus condiciones de
vida en tres estratos, el estrato A el de mejores condiciones de vida, el C el de
peores condiciones de vida y el B que ocupa una posición intermedia.

Para comparar la mortalidad prematura por muertes violentas se calculó la RAVPP.

Razón de AVPP por muertes violentas según estratos. Camagüey 1991-1993


Estratos AVPP Observados AVPP Esperados Razón

B respecto a A 2872 3209 0.90


C respecto a A 5295 4482 1.18
C respecto a B 5295 4042 1.31

Al comparar el estrato menos favorecido con el de mejores condiciones de vida, se


encontró un exceso de mortalidad prematura de un 18%, es decir, si el estrato C
hubiese estado sometido a los riesgos de morir de A, se hubiera producido un 18%
menos de defunciones a destiempo. Situación similar se presentó al comparar el
estrato C con el B.

Agrupaciones de causas de muerte por criterio de evitabilidad.

La característica (variable) de mayor importancia para el análisis de los datos de


mortalidad es la causa de muerte. No basta identificar quién, cuándo y dónde está
124

más expuesto al riesgo de muerte, si no que lo fundamental es saber de qué se


muere más. 1

Una de las primeras tareas necesaria para el análisis de los datos, es su


organización sistemática. Los intentos de listar, ordenar y clasificar las enfermedades
data de 1855 con los trabajos de Farr y Bertillón en 1893. A partir de 1898 esta
última fue adoptada como Clasificación Internacional de Enfermedades (CIE).
Actualmente ya contamos con la X revisión aunque aún se mantiene vigente la IX
revisión.

La CIE brinda diversas listas, abreviadas y detalladas para la tabulación de la


información sobre morbilidad y mortalidad. La selección de una u otra lista depende
del tipo de análisis a realizar.

Otra forma o eje de agrupación de las causas de muerte, de gran importancia en


Salud Pública, es el criterio de evitabilidad, orientado hacia la definición de
prioridades y la evaluación de resultados de acciones y programas de salud; con la
finalidad de evitar la muerte temprana y prolongar la vida, al prevenir en unas
ocasiones las enfermedades y en otras tratarlas oportuna y adecuadamente, una vez
que se han presentado.

Esta nueva agrupación de causa de muerte fue desarrollada por Taucher en el año
1978, en el Centro Latinoamericano de Demografía (CELADE). Los criterios de
evitabilidad se definieron de acuerdo con el conocimiento científico y los progresos
médicos alcanzados en ese momento.

Los criterios de evitabilidad de las causas de muerte pueden variar de acuerdo con el
momento histórico en que se trabaja, con la disponibilidad de tecnologías o recursos,
y con la experiencia de un determinado país o región.

Así, en el año 1988 Ríos y Tejeiro modifican la propuesta realizada por Taucher,
como parte de un trabajo sobre Perfiles de Salud y Evolución de la Mortalidad en
Cuba.

Esta nueva propuesta quedó formada por seis grupos.

1. Defunciones evitables por tratamientos preventivos o vacunas:

Carbunco, difteria, tosferina, tétanos, poliomelitis aguda y sus secuelas, viruela,


sarampión, rabia humana, enfermedades venéreas.

2. Defunciones evitables por diagnóstico precoz y tratamiento oportuno:

Peste, infecciones meningocócicas, tumores malignos de la piel, mama, cuello


de útero y próstata, diabetes mellitus, avitaminosis y otras deficiencias
nutricionales, anemias, meningitis, epilepsia, fiebre reumática activa y
125

enfermedades reumáticas crónicas del corazón, bronquitis, enfisema y asma,


úlcera péptica, gastritis y duodenitis, apendicitis, obstrucción intestinal y hernia,
colelitiasis y colecistitis, nefritis aguda y otras nefritis, infección del riñón, cálculo
del aparato urinario.

3. Defunciones evitables por la aplicación de medidas higiénicas y saneamiento del


medio y educación sanitaria:

Cólera, fiebre tifoidea, fiebre paratifoidea, y otras salmonelosis, disentería bacilar


y amebiasis, enteritis y otras enfermedades diarréicas, fiebre amarilla, hepatitis
infecciosa, tifus y otras rickettsiosis, anquilostomiasis y otras helmintiasis.

4. Defunciones evitables por la aplicación de medidas combinadas:

Todos los tipos de tuberculosis, brucelosis, angina estreptocócica, y escarlatina,


erisipelas y otras enfermedades bacterianas, paludismo, esquistosomiasis,
hidatidosis y filariasis, infecciones respiratorias agudas, neumonía vírica y otras
neumonías, cirrosis hepática, enfermedades relacionadas con el embarazo,
parto o puerperio, enfermedades del recién nacido y causas violentas.

5. Defunciones difícilmente evitables con los conocimientos y el desarrollo


tecnológico actual:

Tumores malignos, excepto el cáncer de piel, mama, cuello del útero y próstata,
esclerosis múltiple, otras enfermedades del sistema nervioso y de los órganos de
los sentidos, enfermedades cardiovasculares, enfermedades de las arterias,
arteriolas y vasos capilares, influenza y anomalías congénitas.

6. Resto de las defunciones.

En este grupo se incluyen aquellas causas de muerte que no clasifican en


los cinco grupos anteriores.

Para agrupar las causas de las defunciones bajo este criterio, se parte de una
primera división de las muertes en evitables y no evitables y la formación de cuatro
grupos con las muertes evitables, según las diferentes medidas que se pueden
tomar para evitarlas.

En su artículo Rios y Tejeiros aclaran que las palabras prevención, educación,


evitables e inevitables, se emplean para rotular o dar títulos cortos a los grupos y
no con la pretensión de reducir a un esquema los conceptos amplios que implican en
la realidad.

Los criterios de prevención y educación sanitaria son aplicables a todos los grupos,
pues aún en las enfermedades denominadas inevitables o difícilmente evitables, el
control de factores de riesgo, el cambio de hábitos nocivos para la salud y otras
126

medidas preventivas son capaces de disminuir o evitar enfermedades crónicas y


degenerativas, y prolongar la vida socialmente activa del ser humano.

En la distribución de las muertes en los distintos grupos se incluye el total de causas


de muerte, se asigna a uno de los cinco primeros grupos toda muerte cuya causa
presente alguna razón lógica para su inclusión y se dejan para el sexto grupo el
resto de las defunciones, las que no pueden identificarse con ninguno de los
grupos anteriores.

Por las particularidades que presenta la mortalidad en el menor de un año, se


propone en el año 1985 por el Ministerio de Salud Argentino una lista de causas de
muerte con el enfoque de evitabilidad para este grupo de edad, la cual estuvo
asesorada por la Dra. Taucher.

Precisamente, por tener la mortalidad infantil un comportamiento diferencial por


componente, la clasificación propuesta incluye dos listas de agrupaciones de causas
de defunciones, para el componente neonatal (menor de 28 días) y para el
postneonatal (28 días y más).

Para los menores de 28 días se proponen ocho grupos, cinco de ellos para las
muertes evitables:

Reducibles por buen control del embarazo


Reducibles por buena atención en el parto
Reducibles por diagnóstico y tratamiento precoz
Otras reducibles
Parcialmente reducibles por buen control del embarazo
No evitables
Desconocidas
Otras causas
Para el componente postneonatal el número de grupos se reduce a 7, de ellos 4
corresponden causas evitables:

Reducibles por prevención


Reducibles por diagnóstico y tratamiento precoz
Otras reducibles
Parcialmente reducibles
No evitables
Desconocidas
127

Otras causas
Como parte de un estudio realizado en la Facultad de Salud Pública, sobre
mortalidad infantil, se revisó y sometió a consideración del Grupo Nacional de
Pediatría y del Departamento Materno Infantil del Ministerio de Salud Pública, la lista
propuesta por Argentina a la cual se le realizaron algunas modificaciones para los
menores de 28 días para unos pocos rublos incluidos en los grupos: Reducibles por
tratamiento precoz y tratamiento oportuno, Otras reducibles y no evitables. La lista
detallada aparece en el Anexo 3.

La utilización de agrupaciones de causas de muerte según criterios de evitabilidad


puede utilizarse para el cálculo de indicadores tradicionales, como la mortalidad
proporcional, tasas de mortalidad general, por causas, y específicas por edad y sexo,
pero también son de gran utilidad para ampliar los estudios con enfoques de
evitabilidad utilizando indicadores como la REM. Y los de mortalidad prematura, que
miden específicamente mortalidad excesiva y a destiempo, mortalidad evitable per
se.

2.5 La morbilidad
Existen diversas definiciones de morbilidad. Una, a nuestro juicio, de las mas
completas es la que considera la morbilidad como el conjunto de enfermedades,
traumatismos y sus secuelas, incapacidades y otras alteraciones de la salud
diagnosticadas o detectadas en la población durante un intervalo de tiempo
determinado.

Por lo complejo de su estudio, y los diferentes alcances que se puede tener al


abordarla, es aconsejable definir para cada estudio en particular lo que se
entenderá como morbilidad.

Concepto de Estadísticas de Morbilidad

Es la información numérica sobre enfermedades, traumatismos y sus secuelas,


incapacidades y otras alteraciones de la salud diagnosticadas o detectadas en la
población durante un período de tiempo.

Sistema de Información Estadística de Morbilidad: Son los procedimientos


encaminados a la recolección, procesamiento y presentación de información sobre
estadísticas de morbilidad.

Utilidad: Interviene en todas las etapas de la gerencia en salud. La información


sobre morbilidad contribuye a identificar aspectos importantes relacionados con
los diferentes componentes del estado de salud de la población.

Es de suma importancia en la planificación, ejecución y evaluación de programas


e intervenciones de salud.
128

En la planificación:

a) Permiten conocer las afecciones que aquejan a la población.


b) Permiten conocer el riesgo de enfermar.
c) Permiten conocer la gravedad de las afecciones.

En la ejecución:

La recolección activa de la información de morbilidad permite detectar los eventos


que aparecen y tomar las medidas pertinentes para controlar o erradicar
enfermedades y prevenir las que están a su alrededor.

Las estadísticas de morbilidad permiten conocer la carga de enfermedad presente


en la población. La carga de enfermedad es un concepto incorporado por la
Organización Mundial de la Salud a partir de cual se estiman no solo acciones
curativas y preventivas sino también la calidad de vida, la esperanza de vida, el
redimensionamiento de los servicios y sistemas de salud.

En la evaluación y proceso de toma de decisiones:

A través de la medición del cumplimiento e impacto de los programas se puede


garantizar la ganancia de la salud. El proceso de toma de decisiones se hace más
eficiente y efectivo con el uso de buenas estadísticas de morbilidad.

En la investigación:

En la investigación epidemiológica, sirve para determinar el modo de transmisión


de la enfermedad, el periodo de incubación, la severidad de la infección y los
aspectos inmunológicos así como para conocer el cuadro epidemiológico de un
territorio. Son utilizadas también en otros tipos de investigación en áreas clínicas,
ensayos biológicos, pruebas de medicamentos y vacunas, por citar algunos
ejemplos.

En la docencia:

Son utilizadas sistemáticamente en la docencia de pregrado y postgrado.

En general, las estadísticas de morbilidad son útiles para:

a) Conocer el número de personas que sufren de una enfermedad en particular,


con qué frecuencia y en cuánto tiempo.
b) La demanda que hacen esas enfermedades sobre los recursos médicos y que
pérdidas financieras causan.
c) Fatalidad y gravedad de las enfermedades.
129

d) Si las medidas de prevención son eficaces.


e) Distribución de las enfermedades según edad, sexo, ocupación, etc. y
comportamiento en el tiempo.
f) Relación entre el control de la enfermedad y la atención médica brindada.

Dificultades más importantes en el estudio de la morbilidad.

El estudio de la morbilidad y su medición por las estadísticas sanitarias, es un


proceso complejo dada la propia complejidad de la morbilidad. La morbilidad es un
fenómeno dinámico y con una carga importante de subjetividad. Por ejemplo: Una
persona puede estar enferma y no percatarse de ello, por tanto no demandara
atención medica y permanecerá oculto a diferentes fines, entre ellos, el
estadístico. Una persona puede estar enferma de varias patologías a la vez o
poseer un diagnostico presuntivo que cambia o se corrobora al realizarse estudios
específicos y he ahí una gran dificultad para la medición del evento.

Aspectos conceptuales a considerar en el estudio y medición de la morbilidad:

1- Proceso salud-enfermedad: Es un proceso dialéctico, no existe una línea


divisoria claramente definida entre salud y enfermedad y es difícil determinar lo
que cada persona considera como equilibrio biosicosocial.

2- Anormalidad y normalidad: Un individuo puede tener salud, es decir gozar de


equilibrio biosicosocial y estar enfermo de algo que no le molesta.

Hay enfermedades que permiten establecer medidas para definir lo normal de


lo anormal por ejemplo, se puede considerar como hipertensión cuando la
tensión arterial está por encima de las cifras establecidas, sin embargo, una
persona puede sentirse bien con una tensión arterial elevada.

3- Problemas del Diagnóstico: Se puede considerar que un individuo está


enfermo atendiendo a:

a) Opinión del paciente de estar enfermo.


b) Que sea diagnosticado a través de examen físico del médico.
c) Que sea diagnosticado a través de pruebas complementarias.

4- Enfermos o Enfermedades: Un individuo puede estar enfermo de diarrea y


asma al mismo tiempo, hay que definir si se recoge el número de
enfermedades que en este caso son dos o de enfermos que es uno, es decir
definir que medir: enfermos o enfermedades.

Si se recogen las enfermedades hay que tomar en consideración el momento


de su comienzo, de esta forma puede ser de tres maneras distintas:
130

a) La enfermedad comienza antes del periodo de recogida de datos y termina


dentro de éste.
b) La enfermedad comienza y termina dentro del periodo de recogida de la
información.
c) La enfermedad comienza dentro del periodo de recogida de la información y
termina después.

De acuerdo a la decisión que en cuanto a estos criterios se tomen


determinaran que se medirá y conocerá realmente: casos nuevos o total de
casos.

5- Frecuencia e Incidencia. Esto se relaciona con la problemática antes descrita a


fin de establecer que tipo de medición se hará.

Las formas clásicas de medición en Morbilidad se basan en los siguientes dos


conceptos:

Incidencia: Casos nuevos de una enfermedad en un periodo y lugar dado.

Prevalencia: Total de casos de una enfermedad en un periodo y lugar dado.


Incluye los casos nuevos como los que ya existían antes del periodo de estudio
y permanecen enfermos.

6- Pesquisaje o demanda: Hay que definir si se registran solamente los pacientes


que solicitan atención médica en los servicios de salud o se hace una
búsqueda activa de la enfermedad como es el caso de los programas de salud
que implican entre sus acciones el pesquisaje masivo.

7- Consultas o Reconsultas: Es necesario definir si solo se registraran las


consultas donde se hizo el diagnóstico o todas las que se hagan durante el
transcurso de una enfermedad.

Fuentes de Información

Para obtener información sobre morbilidad rara vez resulta suficiente el uso de
una sola fuente de información, lo más usual es la consulta de mas de una de las
existentes. Por ejemplo las salidas del sistema de información de defunciones y
defunciones perinatales que informan sobre las causas de muerte, si bien aportan
conocimiento sobre morbilidad, es sobre la morbilidad más severa, la que termina
generalmente con un desenlace fatal. Algo similar ocurre cuando se utiliza como
fuente de información las salidas del sistema de egresos hospitalarios ya que se
accede a la morbilidad que requiere hospitalización, también por lo general mas
severa. Al consultar la fuente información que constituyen las salidas del sistema
de enfermedades de declaración obligatoria, conocemos también parcialmente la
131

morbilidad que aqueja a la población ya que los datos se refieren


fundamentalmente a las enfermedades transmisibles.

Se enumeran a continuación las fuentes habituales de información de morbilidad:

Morbilidad general:

Mortalidad General
Diagnósticos de egresos hospitalarios
Diagnóstico de consultas ambulatorias
Exámenes masivos a la población
Enfermedades Transmisibles
Enfermedades Dispensarizadas
Otras sujetas a registros especiales (cáncer, tuberculosis)
Registros de enfermedades sujetas a pesquisaje.

Morbilidad específica relativa a parte o segmentos especiales de la población:

Grupos de Edad:

a) Menores de un año, menores de 5 años, mayores de 5 años, tercera edad,


adolescentes y otros.

b) Morbilidad perinatal, morbilidad de embarazadas, de adultos y de otros grupos


de edad.

c) Mortalidad y Morbilidad laboral y escolar.

d) Morbilidad según sexo, escolaridad, zona de residencia, características


geográficas y socio económicas.

Medición de la Morbilidad.
La medición de la morbilidad se realiza utilizando los indicadores de uso mas
frecuente en la actividad de las estadísticas continuas:

Números absolutos
Proporciones y porcentajes
Razones
Tasas

Algunas tasas propias de la morbilidad:


totaldecasosnnuevos
Tasa de incidencia acumulada = x 10 n
totaldelapoblación
132

Expresa el riesgo de contraer una enfermedad en una población dada en un


periodo de tiempo.

Otra tasa de incidencia lo es la denominada densidad de incidencia que mide la


morbilidad en función de “personas años”
totaldecasosdeunaenfermedad
Tasa de prevalencia = x 10 n
totaldelapoblación
Expresa el riesgo de padecer una enfermedad en una población dada en un
periodo dado.

Tanto las tasas de incidencia como de prevalencia se pueden hacer específicas


por edad y sexo.

2.6 Estadísticas de recursos y servicios

Conceptos de estadísticas de Recursos y Servicios

Estadísticas de Recursos: Información numérica cuantificable acerca de los


recursos con que cuenta el Sistema Nacional de Salud para cumplir sus propósitos
y elevar el estado de salud de la población.

Los recursos pueden ser:

• Humanos.
• Medios de producción.
• Bienes Producidos.
• Equipos.
• Unidades de salud.
• Locales de consultas.
• Camas para ingresos.
• Sillones estomatológicos.
• Instituciones y locales para la formación de personal calificado de salud.
• Medios de transporte.
• Otros.

Estadísticas de Servicios: Es la información numérica cuantificable sobre los


servicios de salud que se prestan con los recursos disponibles para mejorar el
estado de salud de la población.

Utilidad de las estadísticas de recursos y servicios:


133

Las estadísticas de recursos y servicios son de gran utilidad en la administración


científica durante todas sus etapas.

Planificación: Según los principales problemas de salud se deben planificar los


recursos y servicios necesarios para su solución.

En la ejecución se mide la eficacia y eficiencia de los medios en el proceso.

Para el análisis del costo beneficio de los servicios prestados con los recursos
existentes.

Medición de Recursos y Servicios.

Se utilizan los indicadores habituales en la actividad de las estadísticas continuas:

Números absolutos
Razones
Proporciones y porcentajes
Tasas

Los indicadores de recursos se agrupan usualmente de la siguiente manera:

a) Indicadores que miden los recursos existentes.

Este grupo de indicadores tienen como propósito expresar el volumen de recursos


existentes.

Ejemplo:
• Número de médicos.
• Médicos por habitantes.
• Camas por médicos.

Puede relacionarse el volumen de recursos existentes con la población


beneficiada, o con los servicios prestados o relacionar recursos entre sí, Ej.
médicos por cama hospitalaria, enfermeras por médicos, estomatólogos por sillón.

b) Indicadores que miden el aprovechamiento de los recursos.

Este grupo de indicadores tiene como propósito expresar el uso que de los
recursos se hace.

Ejemplos:
134

• Consultas por médicos, este indicador es usado para medir la productividad


médica.
• Aprovechamiento de los salones de operaciones. Puede relacionarse el total
de horas que estuvo ocupado el salón entre el total de horas planificadas o del
total de salones, cuantos están funcionando y que tiempo.
• Aprovechamiento de la cama hospitalaria. Por su importancia y complejidad
serán tratados mas adelante con profundidad.

Con frecuencia se relaciona información de recursos y de servicios a fin de


obtener mayor expresividad en los indicadores. De hecho es conveniente
incorporar a la practica del análisis de estos indicadores la relación entre recursos
y servicios prestados, como única vía de medir la eficiencia del proceso de gestión
así como percatarse oportunamente de las necesidades de cada comunidad para
ajustar los recursos en función de los servicios cada vez que sea necesario.

Indicadores que miden el aprovechamiento de la cama hospitalaria

La cama hospitalaria es un recurso de importancia y guía para el quehacer en el


nivel de atención secundario y terciario. A partir de este recurso se establecen
plantillas, presupuestos y demás recursos para la actividad hospitalaria que
actualmente gasta más del 60 por ciento del presupuesto del sector salud
.
Es de gran importancia para la administración de salud, medir el aprovechamiento
de la cama a fin de un desempeño gerencial exitoso y un aprovechamiento optimo
del alto presupuesto que la atención hospitalaria lleva implícito. Es de suma
importancia para evaluar la calidad y cantidad de servicios de hospitalización se
ofrecen a la población.

Los indicadores de aprovechamiento de la cama hospitalaria llevan implícitos


definiciones básicas para su construcción y calculo. Estas son:

Dotación normal de camas: Son las camas que dispone el hospital en un periodo
de tiempo.

Cama real: Es aquella cama que se encuentra realmente instalada y dispuesta las
24 horas del día para recibir una persona, este ocupada o no. Se excluyen las
camas de Cuerpo de Guardia, trabajo de parto, cuartos de emergencia o cuidados
especiales, observación, reconocimiento, banco de sangre, investigaciones
radiológicas o endoscopias, intervenciones menores, recién nacidos normales y
las camas del personal que reside en el hospital.

Egreso: Paciente que habiendo ocupado una cama real del hospital la abandona
ya sea vivo o fallecido.
135

Día Cama: Es la disponibilidad de una cama real por 24 horas del día.

Días Cama: Suma de los día cama de un día.

Día paciente: Es la unidad de servicio prestado por el hospital a un paciente


ingresado en un día. O sea es el periodo de servicio prestado a un paciente
hospitalizado comprendido entre las horas de censo de dos censos consecutivos,
siendo contado el día de alta solamente en el caso de que un paciente ingrese y
egrese en el mismo día.

Los censos se realizan cada día en un hospital, generalmente en horas de la


noche. Debe ser a una hora fija. En este se enumeran las camas ocupadas o no y
los pacientes existentes. El censo o ronda nocturna del hospital es una actividad
básica del movimiento hospitalario de una unidad.

Días paciente: Es la suma de los día paciente en un día. Un hospital habrá


prestado en un día cualquiera, tantos días paciente como pacientes permanezcan
ingresados a las doce de la noche o a la hora del censo, mas un día paciente por
cada persona que ingresa y egresa en el mismo día.

Días Estadía: Es el tiempo transcurrido desde el momento que el paciente ingresa


hasta que realiza su egreso. La unidad de tiempo que se utiliza es el día. Si el
paciente permanece ingresado solo unas horas, tendrá a los efectos de la
medición, un día de estadía. La estadía, al abandonar el paciente el hospital, se
considerara el día de egreso o el de ingreso, nunca ambos.
Los indicadores de uso más frecuente en la medición del aprovechamiento del
recurso cama son:

Promedio de Estadía (PE): Es el promedio de días de asistencia hospitalaria


recibida por cada paciente en un periodo de tiempo dado. Mide cuantos días en
promedio está hospitalizado un paciente desde su ingreso hasta su egreso.

El PE es el indicador más importante de la utilización de las camas. Es el más


consistente y de mayor poder discriminatorio.

Intervalo de Sustitución (IS): Es el tiempo promedio que una cama permanece


desocupada entre el egreso de un paciente y el ingreso de otro. Cuando un
hospital tiene un IS de un día, se encuentra en dificultades para dar servicio a la
comunidad.

Intervalo de Rotación (IR): Mide el número de pacientes que en promedio rotan


por una cama en un período determinado de tiempo.

Índice de Ocupación o Índice Ocupacional (IO): Establece la relación entre los


pacientes ingresados y la capacidad real de las camas de un servicio u hospital.
136

Es el indicador de menor poder discriminatorio. Nunca debe ser analizado


aisladamente de los otros.

Promedio de Ocupación de Camas al Año (POCA): Número promedio de días que


una cama se mantiene ocupada al año.

No es aconsejable analizar aisladamente cada uno de estos indicadores, la


interpretación integral de los mismos es capaz de brindar una información mucho
más clara del aprovechamiento de la cama hospitalaria.

El aprovechamiento optimo de la cama se reflejaría a partir de estos indicadores y


de modo general de la siguiente manera: Promedio de Estadía corto, intervalo de
sustitución de dos o más días, índice de rotación elevado y un también elevado
índice ocupacional. Cada hospital o servicio según su tipo o nivel, tiene patrones
de comportamiento particulares de estos indicadores. Por ejemplo, por lo general
los hospitales gineco obstétricos son de corta estadía, alto índice ocupacional y de
rotación. Al descender la natalidad por ejemplo o incorporarse tecnologías
medicas modernas que acortan el periodo de hospitalización, los indicadores
muestran menor aprovechamiento de las camas y se impone redimensionar el
servicio u hospital. El aumento de la capacidad resolutiva de las estructuras de la
Atención Primaria de Salud debe acortar también los periodos de hospitalización
en todo tipo de hospital, fundamentalmente en los Clínico Quirúrgicos y Generales.
Los hospitales psiquiátricos tienen por lo general, larga estadía, alto índice
ocupacional y bajo índice de rotación. Obviamente en esto influye la morbilidad
que atienden.

Existe más de una fórmula para el cálculo de cada uno de estos indicadores según
si se trata de unidades o servicios de corta o larga estadía. A continuación
aparecen las más utilizadas.

Días pacientes Días estadía


PE = PE =
Egresos Egresos

Días pacientes PE X IR
IO = IO =
Días cama Promedio de camas reales x días del período

Camas desocupadas % desocupación x PE


IS = IS =
Egresos IO

Egresos Días del período


IR = IR =
Promedio de camas reales PE + IS
137

Los indicadores de servicio se agrupan de la siguiente manera:

a) Indicadores que expresan la cantidad de servicios prestados.


Ejemplos:
• Número de consultas
• Consultas por habitantes. Relaciona servicios con población beneficiaria.

b) Indicadores que expresan la calidad de los servicios prestados.


Ejemplos:

Número de defunciones hospitalarias


Mortalidad bruta = x 100
Total de egresos

Defunciones hospitalarias de más de 48 horas de hospitalización


Mortalidad neta = x 100
Total de egresos

Defunciones por anestesia


Mortalidad anestésica = x 100
Total de casos anestesiados

2.7 Clasificación internacional de enfermedades (cie)

1– Importancia del acto de clasificar

Es un acto necesario para el estudio de cualquier fenómeno, es la base de la


generalización científica y desde el punto de vista metodológico es esencial para
unificar definiciones y sistemas de clasificación.

2– Definición de Clasificación Internacional de Enfermedades

Es un sistema de categorías numéricas, es decir, códigos numéricos asignados a


entidades nosológicas establecidas previamente o sea, la nomenclatura médica
con la finalidad de recuperar información para dar salida a diferentes propósitos.

3– Breve recuento histórico

La primera clasificación fue realizada por Bertillón en 1900 y se aplicó


tempranamente en Cuba en 1901.

Se han realizado revisiones cada diez años aproximadamente pero se ha tratado


de hacer los grandes cambios cada veinte años para proteger la información
procesada sin prescindir de las mejorías que se introducen en las revisiones en
correspondencia con el desarrollo tecnológico del mundo.
138

Ya se encuentra diseñada la X edición de la CIE. Son muchos los países del


mundo que ya la están utilizando como es el caso de Cuba.

4– Utilidad de la Clasificación Internacional de Enfermedades.

• Permite el conocimiento organizado de las causas de muerte, traumatismos,


enfermedades y lesiones clasificadas de acuerdo a diferentes intereses.
• Logra uniformidad en la terminología y definiciones lo que permite realizar
comparaciones entre países.
• Permite conocer las causas que conducen directamente a la muerte y las que
desencadenan el proceso.
• Contribuye a desarrollar una labor preventiva eficiente.
• Contribuye a elevar la calidad de la atención médica

5– Aspectos básicos para el uso y aplicación de la Clasificación Internacional de


Enfermedades.

• Llenado correcto del certificado de defunción y otros registros que se someten


a codificación como la hoja de egreso hospitalario.
• Correcta codificación de las enfermedades.

En Cuba, el certificado de defunción y la hoja de egreso son llenadas solo por el


médico de esta forma, sobre todo en el certificado de defunción, se trata de
garantizar que se consignen las causas de muerte a través de un proceso lógico y
científico con el concurso de los conocimientos de este profesional autorizado para
que se garantice la calidad de la información estadística.

La codificación por su parte se realiza por personal técnico, en el caso de los


certificados de defunción en las direcciones provinciales y luego se revisan en la
Dirección Nacional de Estadística mientras las hojas de egreso hospitalario se
codifican en los hospitales también por personal técnico.

La codificación correcta se logra por la habilidad y conocimiento de los técnicos


codificadores y por la utilización de las reglas de codificación que posee la CIE.
139

Teoría elemental de Probabilidades. En: Bayarre Vea H, Oliva Pérez M.


Estadística Inferencial. La Habana: ECIMED; 2005. p. 5-46.

Tema 3- Introducción a la Teoría de Probabilidades.

Introducción
Si su único propósito como investigador, es describir los resultados de un
experimento concreto, los métodos analizados en el curso anterior, sobre
Estadística Descriptiva, pueden considerarse suficientes. No obstante, si lo que
pretende es utilizar la información obtenida para extraer conclusiones generales,
sobre la población de la cual fue seleccionada la muestra estudiada, entonces
estos métodos constituyen sólo el principio del análisis, y debe recurrir a métodos
de inferencia estadística, los cuales implican el uso inteligente de la teoría de la
probabilidad.
Comenzaremos este tema interpretando la noción de probabilidad y la
terminología subyacente a esta área de las matemáticas, ya que la probabilidad
constituye por sí misma un concepto básico que refleja su relación con la faceta
del mundo exterior que pretende estudiar: los fenómenos aleatorios, los cuales
obedecen unas ciertas reglas de comportamiento. De alguna manera, el concepto
de probabilidad, se relaciona o nos recuerda las propiedades de la frecuencia
relativa.
Nos centraremos posteriormente, en el eslabón que une la teoría de la
probabilidad y la estadística aplicada: la noción de variable aleatoria, mostrando
de esta manera, como puede emplearse la teoría de la probabilidad para sacar
conclusiones precisas acerca de una población sobre la base de una muestra
extraída de ella, y que muchos de los estudios estadísticos son de hecho, estudios
de las propiedades de una o más variables aleatorias.
Tal como hemos citado anteriormente, en las aplicaciones prácticas es importante
poder describir los rasgos principales de una distribución, es decir, caracterizar los
resultados del experimento aleatorio mediante unos parámetros. Llegamos así al
estudio de las características asociadas a una variable aleatoria introduciendo los
conceptos de valor esperado y varianza, relacionándolos con los conceptos de
media y varianza de una variable estadística.
El cálculo de probabilidades nos suministra las reglas para el estudio de los
experimentos aleatorios o de azar, constituyendo la base para la estadística
inductiva o inferencial.
No pretendemos atiborrarlo de fórmulas de cálculo, tampoco pasarnos todo el
tema realizando ejercicios sobre urnas con bolas rojas y blancas, nuestro interés
140

es presentar los contenidos, básicamente, de manera intuitiva, de manera que el


aspecto probabilístico de la inferencia estadística pueda ser fácilmente
comprendido.

3.1 Probabilidad. Conceptos básicos.


La teoría de probabilidades tiene su origen en la solución de problemas
relacionados con los juegos de azar, los cuales tienen sus precedentes en épocas
muy remotas.
Desde mediados del siglo XVII y hasta nuestros días, el cálculo de probabilidades
ha sufrido un proceso de transformaciones sucesivas, hasta alcanzar métodos
aplicables a la solución de problemas complejos, que el desarrollo científico
técnico plantea al hombre.
Muchas son las ciencias que emplean los resultados de esta disciplina, entre ellas
se destacan la Física, la Química, la Biología, todas las ramas de la ingeniería,
etc. Los progresos teóricos de esta rama de la matemática, han abierto nuevos
campos de aplicación en Estadística. Así vemos que, en el campo de la salud
pública es muy frecuente el uso de las probabilidades, no solo en el ámbito de la
investigación, sino también en la práctica profesional cotidiana.
Cuando decimos que la oportunidad que tiene un paciente de sobrevivir a una
intervención quirúrgica es de 50%. O bien, que un médico está 90% seguro de
que un paciente tiene tal enfermedad. Estos ejemplos, entre otros tantos que
escuchamos a diario, nos muestran el empleo del concepto de probabilidad en el
marco de la salud pública.
Seguro se está preguntando ¿qué entendemos por probabilidad?. Pues bien, le
diré que existen varias definiciones, las que pudieran resultar algo complicadas
dado el carácter matemático de las mismas. Apelamos a su intuición y capacidad
de razonamiento lógico.
Ante todo Ud. debe saber, que las probabilidades constituyen la medida numérica
de la verosimilitud o el grado de certidumbre de ocurrencia real de un fenómeno.
Actualmente, existen dos puntos de vista mediante los cuales pueden ser
abordadas las probabilidades: objetivo y subjetivo. El primero se basa en que la
teoría de probabilidad permite descubrir las leyes que rigen una serie de
fenómenos que se presentan en la práctica, cuyo análisis y estudio conducen al
conocimiento de la realidad objetiva; mientras que el segundo, sostiene que la
probabilidad mide la confianza que un individuo tiene en la certeza de una
proposición particular, es decir, que las conclusiones basadas en esta teoría no
reflejan la realidad objetiva, sino el conocimiento del observador sobre el
fenómeno que estudia.
Aunque este último punto de vista ha gozado de gran popularidad, los estadísticos
con orientación tradicional aún no la aceptan del todo.
141

El concepto de probabilidad objetiva puede ser visto desde dos enfoques


principales: el empírico y el teórico.
El enfoque teórico se corresponde con la llamada probabilidad clásica o a priori
y puede ser definida como sigue:

Sea E un experimento aleatorio con N resultados igualmente posibles y mutuamente


excluyentes, y si m de estos resultados poseen una característica A, la
probabilidad de ocurrencia de A se define como la relación entre el número de
estos resultados favorables a A (m) y el número total de resultados posibles del
experimento(N). Se denota:

m
P(A) =
N

¿Por qué a priori?, Ya que no necesita ser realizado el experimento para conocer
la probabilidad de ocurrencia de los resultados posibles.

Ahora bien, para trabajar con el cálculo de probabilidades es necesario fijar


previamente cierta terminología. Vamos a introducir parte de ella en las próximas
líneas.

Experimentos y sucesos aleatorios


Cuando en un experimento no se puede predecir el resultado final, hablamos de
experimento aleatorio. Éste debe cumplir los siguientes requisitos:
1. Se puede repetir indefinidamente, siempre en las mismas condiciones;
2. Antes de realizarlo, no se puede predecir el resultado que se va a obtener;
3. En cada repetición se obtiene un resultado que pertenece a un conjunto
conocido previamente de resultados posibles. A este conjunto, de resultados
posibles, lo denominaremos espacio muestral o conjunto fundamental y lo
denotaremos normalmente mediante la letra E. Los elementos del espacio
muestral, cada uno de los resultados posibles, se denominan sucesos
elementales (e1, e2, …, en).
El desconocimiento de todas las circunstancias que describen el experimento
aleatorio, causa la incertidumbre del resultado. Esto motiva la aparición de
interrogantes sobre dicho resultado, a su vez estas preguntas determinan un
subconjunto de sucesos elementales. A estos subconjuntos suele llamárseles
eventos o sucesos aleatorios, existiendo una probabilidad de ocurrencia
asociada a éstos.
142

Observe que los sucesos elementales son sucesos aleatorios compuestos por un
sólo elemento, es decir, solo un resultado posible. Por supuesto los sucesos
aleatorios son más generales que los elementales, ya que son conjuntos que
pueden contener no a uno sólo, sino a una infinidad de sucesos elementales, e
incluso no contener ninguno.
Dos o más sucesos son llamados mutuamente excluyentes, si la ocurrencia de
cualquiera de ellos excluye la ocurrencia del(os) otro(s), es decir, no pueden
ocurrir simultáneamente. Así tenemos que los sucesos elementales son
mutuamente excluyentes, mientras que los sucesos aleatorios pueden en
ocasiones no serlo, lo que significa que algunos de sus elementos coinciden.
Ilustremos estos conceptos con un ejemplo simple.
Ejemplo 1
Si realizamos el experimento aleatorio de lanzar un dado al aire, tenemos los
siguientes resultados posibles: E = {1, 2, 3, 4, 5, 6}
El conjunto E es el espacio muestral de este experimento y cada uno de sus
elementos son sucesos elementales. Ahora, las preguntas ¿el resultado será un
número par?, ¿Un múltiplo de tres? o ¿un número mayor que dos?, definen,
respectivamente, los siguientes subconjuntos (sucesos aleatorios) del espacio
muestral E: A = {2, 4, 6} B = {3, 6} C = {3, 4, 5, 6}
Observe que todos los elementos de E son mutuamente excluyentes, pues si sale
el 1 no puede simultáneamente salir otro valor, mientras que los sucesos
aleatorios mencionados no son mutuamente excluyentes, si por ejemplo sale el
número 6, habrán ocurrido los tres sucesos simultáneamente: A, B y C. Esto no es
así siempre, por ejemplo, un suceso D es definido por la pregunta ¿el resultado
será un múltiplo de 5?, tendrá los siguientes elementos: D = {5}
Como verá, A y D son mutuamente excluyentes, al igual que B y D, no sucediendo
así con C y D.
A continuación veremos como se realiza el cálculo de probabilidades en este
ejemplo, según la definición clásica.
En este caso N = 6 (las 6 caras del dado), y si el dado está perfectamente
balanceado, es decir, no está trucado, la probabilidad de ocurrencia de cada uno
1
de los resultados posibles será la misma para todos e igual a:
6
Esta es la probabilidad de ocurrencia de los sucesos elementales, veamos qué
sucede con los sucesos aleatorios. Pues muy simple, la probabilidad de
ocurrencia de cada uno de ellos está determinada por las probabilidades
individuales de sus elementos:
1 1 1 3 1
P(A) = + + = =
6 6 6 6 2
143

Para los demás es similar:

2 1 4 2 1
P(B) = = P(C) = = P(D) =
6 3 6 3 6

Otro concepto importante es el de suceso contrario o complemento. Hasta


ahora hemos hablado de probabilidad de ocurrencia de un suceso cualquiera A,
denotada por P(A), no se ha preguntado ¿cuál será la probabilidad de que A no
ocurra?, si es así, se diré que la no ocurrencia de un suceso (A) es a lo que suele
llamársele su complemento o el suceso contrario de A y se denota como no A, o
más comúnmente como A y su probabilidad está dada por:
P( A ) = 1- P(A)

Veamos en el ejemplo 1. El complemento de los sucesos A, B, C y D será:


A = {1, 3, 5} B = {1, 2, 4, 5}

C = {1, 2} D = {1, 2, 3, 4, 6}

Las respectivas probabilidades puede calcularlas fácilmente. Le invitamos a que


las calcule.
La definición clásica de probabilidad tiene dos desventajas: las palabras
"igualmente posibles" pueden ser sinónimas de “igualmente probables”, por lo que
estamos definiendo exactamente la probabilidad con sus propios términos,
además, este concepto supone que el número de resultados posibles es finito, lo
que no ocurre frecuentemente en la práctica.
Por esta razón ha sido propuesta una definición estadística de probabilidad,
también llamada frecuencia relativa de probabilidad o probabilidad a
posteriori, que se corresponde con el método empírico.
Pues sí, nos referimos a la misma frecuencia relativa que estudió en estadística
descriptiva. A continuación le aclaro esto.
Cuando repetimos un experimento aleatorio, un número grande de veces, y
registramos la frecuencia de ocurrencia de un resultado e, se observa que en la
medida que el número de experimentos aumenta, las frecuencias relativas con las
que ocurre ese suceso e, Fr (e), tiende a converger hacia cierta cantidad que
denominamos probabilidad de e. Veamos un ejemplo.
Ejemplo 2
En el siguiente gráfico, se presenta la evolución de la frecuencia relativa del
número de caras obtenido en el lanzamiento de una moneda en 100 ocasiones
(simulado por una computadora, no pensará que lanzamos la moneda 100 veces).
En principio la evolución de las frecuencias relativas es errática, pero a medida
que el número de tiradas aumenta, tiende a lo que entendemos por probabilidad
144

de cara, es decir, tiende a 0.5 (fíese que esta moneda está perfectamente
balanceada).

Figura 1.1.1- Tendencia de la frecuencia relativa del número de caras


obtenido en lanzamientos sucesivos de una moneda.
De acuerdo a lo anterior:

La probabilidad estimada o probabilidad empírica de un suceso, se toma como la


frecuencia relativa de la ocurrencia del suceso, cuando el número de
observaciones es muy grande.

¿Por qué a posteriori?, pues porque a diferencia de la definición clásica, en este


caso para calcular la probabilidad de ocurrencia de un suceso es necesario
realizar el experimento un número grande de veces, después de lo cual es que se
conocerá dicha probabilidad.
Esta definición también tiene dificultades en la práctica, pues se requiere realizar
un número infinito de veces un experimento para calcular una probabilidad. Por
ejemplo, lanzar infinitas veces un dado para ver que las frecuencias relativas de la
aparición de cada cara convergen a 1/6. Esto puede suplirse en la práctica
realizando el experimento un número suficientemente elevado de veces, hasta que
tengamos la precisión que requieran nuestros cálculos.
Sin embargo, los experimentos aleatorios a veces no pueden ser realizados, como
es el caso de calcular la probabilidad de morir jugando a la ruleta rusa con un
revólver: No es posible (o no se debe) calcular esta probabilidad repitiendo el
145

experimento un número indefinidamente alto de veces para aproximarla mediante


la frecuencia relativa. Para ello existen métodos mucho más seguros, como es la
definición axiomática de probabilidad, lo cual escapa del alcance de este texto, si
Ud. está interesado en profundizar en el tema puede consultar la bibliografía
citada al final del texto.
Por lo pronto, de acuerdo con los objetivos del libro, nos quedamos con la
definición estadística de probabilidad. De hecho, prácticamente todo lo
concerniente a probabilidades en el campo de la salud se obtiene de forma
empírica, basándonos en el comportamiento pasado de los fenómenos. Por
ejemplo, la probabilidad de supervivencia de un enfermo de cáncer, se basa en el
conocimiento de los porcentajes de supervivencia de pacientes con características
similares, con el mismo nivel de la enfermedad y sometidos al mismo tratamiento.
Como puede ver, estos porcentajes no son más que la expresión porcentual de la
frecuencia relativa de este suceso.
El método empírico es también la base del antiguo método de diagnóstico, según
el cual es más verosímil (probable) que un paciente tenga una enfermedad común
que una rara.
Es importante aclarar, que esta definición supone estabilidad en las circunstancias
o factores que determinan el suceso en sí. En el ejemplo anterior, si se modifica
alguno de esos factores como incluir pacientes con diferentes niveles de la
enfermedad o sometidos a diferentes tratamientos, estas probabilidades empíricas
ya no son válidas.
La clave está en que la probabilidad, basada en antiguos resultados, es cierta
ahora y en el futuro, solamente en circunstancias semejantes.
Habrá notado, que las probabilidades pueden ser expresadas tanto en forma
fraccional como porcentual. Ambas formas son válidas y equivalentes, así por
ejemplo, una probabilidad del 20% es lo mismo que de 0.2. Pero, ¿cómo
interpretar su valor?, Para interpretar el valor de una probabilidad es necesario
recurrir al concepto frecuencista de la misma, por ejemplo, P(A) = 0.2 significa que
de cada 100 repeticiones del experimento se espera como promedio que ocurra
20 veces el evento A.
Ahora bien, independientemente de cómo se exprese, existen propiedades
básicas que cumple la probabilidad de cualquier suceso e, P (e). Estas son:
− La P (e) es un número no negativo y menor o igual que 1 (entre 0 y
100%), esto no te es ajeno puesto que las probabilidades son
proporciones y ya conoce las propiedades de una proporción.
0 ≥ P (e) ≤ 1
− La suma de las probabilidades de ocurrencia, de todos los resultados
posibles de un experimento aleatorio, es igual a 1 (100%).

P(e1) + P(e2) + …+ P(en) = 1


146

Esta es la propiedad de exhaustividad, se refiere al hecho de que el


observador de un proceso probabilístico, debe contemplar todos los
resultados posibles, y cuando se toman todos, la suma de sus
probabilidades siempre es igual a 1. Ahora comprende por qué la
probabilidad del complemento de un suceso es 1 menos la probabilidad de
ese suceso, pues según esta propiedad:
P(A) + P( A ) = 1
− Si dos eventos E1 y E2, son mutuamente excluyentes. La probabilidad
de ocurrencia de uno o el otro es igual a la suma de sus
probabilidades individuales.
P(E1 o E2) = P(E1) + P(E2)
Si no son mutuamente excluyentes el cálculo se torna algo complejo.

3.2 Variables aleatorias


Hasta aquí, al analizar los resultados de un experimento o fenómeno aleatorio,
hemos establecido la correspondencia entre los posibles resultados y la noción de
probabilidad de ocurrencia de un determinado resultado o conjunto de resultados
(sucesos aleatorios), de todos los posibles. Como consecuencia, a cada resultado
o suceso aleatorio está asociado un número real, que es su probabilidad.
La noción de variable aleatoria está asociada al concepto de probabilidad de
ocurrencia de un suceso, y es también una correspondencia que se establece
entre cada resultado de un fenómeno o experimento aleatorio y un número real
determinado.
En el proceso de investigación científica y en particular en la investigación
biomédica, es frecuente expresar el resultado de un experimento aleatorio en
forma numérica, pues resulta más fácil utilizar valores numéricos en lugar de
trabajar directamente con los elementos de un espacio muestral. De este modo
aparece el concepto de variable aleatoria como sigue:

Una variable aleatoria (v.a) es toda función que atribuye un único número real a
cada suceso elemental del espacio muestral de un experimento aleatorio.

Es decir, una variable aleatoria (v.a) es simplemente, la formalización matemática


de alguna de las variables reales que estamos habituados a tratar. Cuando se
trata de un carácter cuantitativo, la variable aleatoria correspondiente se define
mediante su aplicación idéntica, mientras que si es un carácter cualitativo se
emplea una convención numérica conveniente.
147

Esto puede aplicarse tanto si el resultado del experimento es una cantidad que
varía como si se trata de un resultado categórico.
Por lo tanto, una variable aleatoria será definida como una cantidad variable que
expresa el resultado de un experimento aleatorio.
Dicho de otro modo, se define una variable aleatoria haciendo corresponder a
cada uno de los sucesos aleatorios, un número real cualquiera, de modo que esta
transformación nos permita definir diferentes operaciones aritméticas con sus
elementos.
ESTAS VARIABLES SE DENOTAN CON LAS ÚLTIMAS LETRAS DEL ALFABETO, EN
MAYÚSCULAS (X, Y, Z).
Ejemplo 3
Si el experimento consiste en observar el sexo de un recién nacido, es posible que
nos interese determinar el número de varones que se obtienen de un total de 3
nacimientos.
El espacio muestral de este experimento estará formado por todas las formas
posibles en que pueden ocurrir 3 nacimientos en cuanto a sexo. Le explico mejor,
cada uno de los 3 nacimientos puede ser de 2 formas: hembra (H) o varón (V), por
lo tanto si queremos saber de cuántas formas pueden ocurrir los 3 nacimientos
tendríamos 8 posibilidades, 2 del primero, multiplicado por 2 del segundo,
multiplicado a su vez por 2 del tercer nacimiento: 2x2x2= 811.
Veamos claramente; los resultados pueden ser:
E = {VVV, HHH, VHH, VVH, HVV, HHV, HVH, VHV}
Como puede ver, resulta bastante complejo trabajar con este espacio muestral tal
como es, imagínese si aumentamos el número de nacimientos, sería el caos. Por
lo tanto será mucho más conveniente que el suceso “hembra" sea representado
por el 0 y el suceso “varón” por el 1, de esta forma se define una variable aleatoria
X como el número de varones, de la siguiente forma:
X = {0, 1, 2, 3}
Así pues hagamos corresponder el espacio muestral anterior con los valores de X:
0⇒ HHH
1⇒ VHH, HVH
2⇒ VVH, VHV y HVV
3⇒ VVV
MÁS ADELANTE RETOMAREMOS ESTE EJEMPLO.

11
Esto es de teoría combinatoria, que no creo necesario abundar mucho, si lo desea
puede consultar la bibliografía citada al final del tema.
148

AHORA BIEN, EL CALIFICATIVO DE ALEATORIA NO SE DEBE AL HECHO DE QUE SE ATRIBUYE


DE MODO IMPREVISIBLE UN VALOR CUALQUIERA A UN ELEMENTO DEL ESPACIO MUESTRAL,
YA QUE ESTE VALOR ESTÁ DETERMINADO DE FORMA PRECISA. LO QUE ES ALEATORIO EN
REALIDAD, ES QUE AL HACER EL EXPERIMENTO, NO SABEMOS QUÉ RESULTADO PUEDE
OCURRIR.

EN FUNCIÓN DE LOS VALORES QUE TOME LA VARIABLE, ÉSTA PUEDE CLASIFICARSE EN


DISCRETA O CONTINUA DEL SIGUIENTE MODO:

Variable aleatoria discreta: Es aquella que sólo puede tomar un número finito o
numerable de valores. Por ejemplo, el sexo de un recién nacido.

Variable aleatoria continua: Es la que puede tomar un número infinito no


numerable de valores. Por ejemplo, la talla, y en general variables que expresan
tiempo, medidas de longitud, peso, etc.

Si sobre los elementos de E existe una distribución de probabilidad, ésta se


transmite a los valores que toma la variable X. Es decir, toda v.a. conserva la
estructura probabilística del experimento aleatorio que describe.
Retomando el ejemplo 1.2.1, supongamos que la probabilidad de que nazca un
niño varón es similar a la de que nazca una hembra, e igual a 0.5 (no es así
realmente). ¿Cómo serán las probabilidades de los valores de X? Bueno en este
caso como las probabilidades de cada sexo son iguales, entonces los elementos
de E son igualmente probables, por lo que se puede aplicar el concepto de
probabilidad clásico. Veamos: E tiene 8 resultados posibles, así que la
probabilidad correspondiente a cada uno será igual a 1/8. Por ejemplo.
El resultado VVV, su probabilidad se calcula así:
1 1 1 1
P(VVV) = × × =
2 2 2 8
De forma similar para el resto de los resultados. Ahora calculemos las
probabilidades de X:
P(X=0) = 18 recuerda que X = 0 solo cuando E= HHH
P(X=1) = 3 8 X = 1 cuando E = HVH, VHH y HHV
P(X=2) = 3 8 X = 2 cuando E = VVH, VHV y HVV
P(X=3) = 18 X = 3 solo cuando E = VVV

Vamos a estudiar a continuación los conceptos más importantes relacionados con


la distribución de probabilidad de una v.a., diferenciando entre los casos de v.a.
discreta y v.a. continua.
149

3.3 Distribución de probabilidad de una variable aleatoria.


El concepto de variable aleatoria nos permite, como vimos en el ejemplo 1.2.1,
definir y denotar sucesos, y aún más, calcular la probabilidad de éstos, a través de
la probabilidad de ocurrencia de los valores originales. Así pues, la distribución de
probabilidad de una variable aleatoria puede ser definida de acuerdo al tipo de v.a
de la siguiente forma:
Distribución de probabilidad de una v.a discreta: se define como el conjunto de
todos los valores de la variable, junto con sus correspondientes probabilidades.
Puede ser representada tanto tabular como gráficamente.
Veamos la distribución de probabilidades de la variable X: número de varones en
tres nacimientos, vista anteriormente en el ejemplo 1.2.1.
Tabla 1.2.1 – Distribución de probabilidad del número de varones en 3
nacimientos.
Valores de X (x) P (X = x)
0 0.125
1 0.375
2 0.375
3 0.125
1.000

Figura 1.2.1 – Representación gráfica de la distribución de probabilidad del


número de varones en 3 nacimientos.

Como puede observar, la representación gráfica de la función de probabilidad se


realiza mediante un diagrama de barras análogo al de la distribución de
150

frecuencias relativas para variables discretas. Donde la longitud de cada barra


equivale al valor de probabilidad del correspondiente valor de x. Veamos un
ejemplo con más categorías.
Ejemplo 4
Supongamos que como parte del diagnóstico de salud del área, necesitas conocer
el número de personas por familia, para ello tomas una muestra de 50 familias y
en cada una de ellas registras la variable de interés. Construyamos la distribución
de probabilidad para esta variable en dicha población.
Tabla 1.2.2 – Distribución de probabilidad del número de personas por familia
en una población de 50 familias.

Número de Frecuencia
P(X=x)
personas absoluta
1 1 0.02
2 4 0.08
3 6 0.12
4 5 0.10
5 9 0.18
6 10 0.20
7 7 0.14
8 4 0.08
9 2 0.04
10 2 0.04
50 1.00

Se habrá dado cuenta que esto es análogo a la distribución de frecuencias


relativas, pero sustituyendo las frecuencias relativas por probabilidades. Por lo
tanto, podemos pensar en las distribuciones de probabilidad como las formas
teóricas o ideales de las distribuciones de frecuencia relativa, cuando el número
de observaciones es grande (poblaciones).
151

Figura 1.2.2 – Representación gráfica de la distribución de probabilidad del


número de personas por familia en una población de 50 familias.
En ambos ejemplos se observa que la longitud de cada barra vertical indica la
probabilidad para el valor correspondiente de x. Se puede usar alternativamente la
representación gráfica o tabular, no necesariamente las dos. Observará también
que todos los valores de P(X=x) son positivos, menores que 1, y la suma de los
mismos es igual a 1. Estas características no son particulares de estos ejemplos,
sino que se cumplen para todas las distribuciones de probabilidad de variables
discretas.
Esta distribución sirve para hacer afirmaciones (conclusiones) sobre la variable
aleatoria en la población, hacer pronósticos y planificar medidas de prevención,
entre otras cosas.
Las ideas vistas anteriormente, pueden extenderse al caso en que la variable
pueda asumir un conjunto continuo de valores. En este caso el concepto de
distribución de probabilidad es más complejo.
Cuando la variable es continua, no tiene sentido hacer una suma de las
probabilidades de cada uno de los términos, ya que el conjunto de valores que
puede tomar la variable es no numerable. En este caso, lo que generaliza de
modo natural el concepto de suma es el de integral. Por otro lado, para variables
continuas no tiene interés hablar de la probabilidad de un valor específico de la
variable, P(X = x), ya que esta debe valer siempre 0, para que la suma infinita no
numerable de las probabilidades de todos los valores de la variable no sea
infinita.
De este modo es necesario introducir un nuevo concepto que sustituya en v.a.
continuas, al de función de probabilidad de una v.a. discreta. Este concepto es el
de función de densidad de una v.a. continua, que se define como sigue:
152

A una función no negativa, f(x), se le llama distribución de probabilidad (función


de densidad de probabilidad) para la variable aleatoria continua X, si el área total
delimitada por su curva y el eje de las x, es igual a 1 y si la subárea delimitada por la
curva, el eje de las x y por las líneas perpendiculares levantadas sobre dos puntos
cualesquiera a y b da la probabilidad de que X esté entre los puntos a y b.

Para que se comprenda mejor, considere los datos presentados en la tabla 1.3.3 y
la figura 1.3.3
Ejemplo 5
La talla de un recién nacido acostumbra a tener valores entre 47 y 53 cm., pero
no todas estas tallas son igualmente probables, como bien se sabe, lo habitual son
tallas próximas a los 50 cm. Lo cual se puede observar tanto en la distribución de
frecuencias de la tabla 1.3.3 como en el histograma de la figura 1.3.3, alrededor
del 60% de los niños se sitúan entre 49 y 51 cm de talla.
Tabla 1.3.3 – Distribución de frecuencias de la talla de 100 recién nacidos.
Talla Frecuencia Frecuencia Frecuencia
(cm) absoluta relativa acumulada
46 1 0.01 0.01
47 6 0.06 0.07
48 10 0.10 0.17
49 18 0.18 0.35
50 25 0.25 0.60
51 23 0.23 0.83
52 10 0.10 0.93
53 7 0.07 1.00
Total 100 1.00
153

Figura 1.3.4 – Histograma de la talla (cm.) de 100 recién nacidos.


Como se recordará, las subáreas del histograma corresponden a las frecuencias
de ocurrencia de los valores de la variable entre los límites de la escala horizontal
de subáreas, por lo tanto el área total se corresponde con el total de
observaciones. En caso de representar frecuencias relativas en vez de absolutas,
las subáreas se corresponderán con los valores de probabilidad de cada clase
representada y por supuesto el área total será igual a 1.
Imagínese ahora una situación donde el número de valores de la variable aleatoria
es muy grande y la dimensión de los intervalos de clase es muy pequeña, digamos
que contamos con la talla de todos los RN del país durante un año
(aproximadamente 150 000), en este caso el histograma resultante tendrá mayor
cantidad de intervalos y si se conectan los puntos medios de las celdas del mismo
se obtendrá una curva suave como la distribución continua representada en la
figura 1.3.4.
Estas curvas se utilizan para representar gráficamente las distribuciones de v.a
continuas, lo cual tiene implicaciones importantes cuando se trabaja con
distribuciones de probabilidad. En primer lugar, el área bajo la curva es igual a 1,
como lo es para el histograma, y en segundo lugar, la frecuencia relativa de
ocurrencia para los valores entre dos puntos específicos cualesquiera (a y b),
sobre el eje de las X, es igual al área total delimitada por la curva, el eje de las X y
las rectas perpendiculares levantadas sobre ambos puntos, tal como lo muestra la
figura 1.3.5. Siendo la probabilidad de que la variable tome valores entre a y b, y
se denota por: P(a < X < b)
154

Figura 1.3.5 – Distribución de probabilidad de las tallas al nacer.

A esta función f(x), se le llama función de densidad de probabilidad de X.


Por ser f una función integrable, la probabilidad de un punto es nula, es decir, la
probabilidad de un valor específico de la v.a es cero, puesto que un valor
específico se representa por un punto en el eje de las abscisas y el área encima
de un punto es igual a cero. Por ello al calcular la probabilidad de un intervalo no
afectará nada el que éste sea abierto o cerrado por cualquiera de sus extremos,
pues estos son puntos y por tanto de probabilidad nula.
Así pues: P(a < X < b) = P(a ≤ X ≤ b)

Figura 1.3.6 – Gráfico de una distribución de probabilidad continua que


muestra el área entre a y b.
Para calcular las áreas bajo la curva y obtener de ese modo las probabilidades de
presentarse algún intervalo específico de valores de la variable, se utiliza el
proceso de integración, lo cual escapa al alcance de este texto por su grado de
complejidad.
En la práctica existe una serie de distribuciones teóricas, tanto para variables
discretas como para variables continuas, que sirven de modelo para representar
las distribuciones empíricas más frecuentemente encontradas; y con el uso de
éstas no se necesita hallar ninguna integral, pues al alcance de todos existen los
valores de probabilidad tabulados para cada distribución teórica, solamente Ud.
155

debe aprender a usarlas convenientemente. Además, puede apelar al software


estadístico.
A continuación presentaremos, de forma muy resumida, algunas de las
distribuciones de probabilidad teóricas que a nuestro juicio son las más usadas en
las investigaciones que se realizan en el ámbito de la Salud Pública. Así que le
recomendamos que preste mucha atención porque esta es la base para
comprender la inferencia estadística.
Pero antes debe conocer algunas “medidas de resumen” para las variables
aleatorias. Así, la distribución de probabilidad de una v.a puede resumirse con la
media aritmética, llamada en este caso esperanza matemática o valor esperado, y
la varianza, las que se denotan por E(X) y V(X), respectivamente. Su cálculo,
análogo al de una distribución de datos, se efectúa con las probabilidades de cada
valor, en lugar del número de veces (frecuencia) con que el valor aparece en la
muestra. Estas medidas constituyen los parámetros de la distribución.
En aras de simplificar, veremos sus formas de cálculo en cada distribución en
particular que estudiaremos seguidamente.

3.4 La distribución Binomial.


Entre las distribuciones de probabilidad discretas, una de las más empleadas es la
Binomial, por estar asociada a problemas de muestreo. Para realizar su estudio
comenzaremos por una distribución más simple, cuyos parámetros serán
utilizados para determinar la ley de probabilidad Binomial, esta es la llamada
distribución Bernoulli.
En la práctica diaria, se presentan muchos problemas cuyo resultado, solo puede
ser uno de dos categorías posibles, mutuamente excluyentes. Por ejemplo, vida o
muerte, enfermo o no, varón o hembra, fuma o no, etc. Esta clase de
experimentos, recibe el nombre de experimentos Bernoulli y sus resultados suelen
denominarse como éxito y fracaso. La asignación del éxito o fracaso a las
categorías originales, depende de los objetivos y de las características del
experimento en particular, no existen reglas precisas al respecto. Pero sí es muy
importante definirlo adecuadamente y de forma clara, pues de esto dependerá la
interpretación de los resultados, como verá más adelante.
En este caso las categorías de la variable original serán denotadas por 0 y 1,
usando el valor 1 para el éxito.
Ejemplo 6
El sexo de un recién nacido puede considerarse como un experimento Bernoulli,
quedando conformada la siguiente variable aleatoria X:
1 = varón
X=
0 = hembra
156

La probabilidad de ocurrencia de cada resultado, será precisamente, la


probabilidad de éxito y la probabilidad de fracaso, denotadas por las letras p y q
(minúsculas), respectivamente. De modo que:
p = P(X = 1)
p+q=1 por lo tanto: q = 1 - p
Pues p y q son las probabilidades de sucesos mutuamente excluyentes y q es el
complemento de p.
El valor esperado y la varianza de esta distribución Bernoulli son:
E(X) = p y V(X) = pq
Ahora bien, cuando repetimos n veces un experimento Bernoulli, de forma
independiente, en cada uno de ellos obtendremos uno de los dos resultados
posibles: éxito o fracaso. Así, podemos estar interesados en conocer la
probabilidad de ocurrencia de un número k de éxitos, en n repeticiones del
experimento. Para esto se construye una variable Binomial, que puede ser
definida como sigue:

Variable aleatoria Binomial: es el número de éxitos obtenidos en n repeticiones


independientes de un experimento Bernoulli. La que sigue una ley de distribución
Binomial con parámetros n y p. Y se denota como:

X ~ B (n, p)

Donde: n = número de repeticiones.


p = probabilidad de éxito, la cual se mantiene constante a través de
las n repeticiones.
Esta variable tomará valores entre 0 y n, es decir el número de éxitos puede ser
ninguno (cero), uno, dos, y así sucesivamente hasta n (todos). Su valor esperado
y varianza están dados por:
E(X) = np y V(X) = npq
El número de éxitos esperado, E(X), será el producto de la cantidad de
repeticiones por la probabilidad de ocurrencia de un éxito, esto es algo bastante
intuitivo.
Retomemos el ejemplo 1.2.1, la variable X definida como el número de varones
en tres nacimientos, es una variable Binomial, si consideramos el nacimiento de
un varón como el éxito (lo cual es así en algunas regiones). En este caso n = 3, el
número de nacimientos, y p = 0.5, recuerda que asumimos que la probabilidad de
nacer varón era similar a la de nacer hembra, e igual a 0.5, por tanto esta variable
se distribuye Binomial con parámetros 3 y 0.5.
157

X ~B (3, ½)
A su vez X = {0, 1, 2, 3} y su valor esperado y varianza serán:
E(X) = 3∗½ = 3/2 = 1.5 V(X) = 3/2∗1/2= ¾=0.75
Esto es absurdo, pues es imposible que nazca un varón y medio, pero se debe
tener en cuenta que esta es una operación matemática con un número
fraccionario (probabilidad), por lo que un resultado como éste no es nada raro,
entonces utilice el sentido común y realice la aproximación correspondiente.
Este ejemplo es poco ilustrativo dado el pequeño número de repeticiones,
aumentemos los nacimientos a 100, ahora el valor esperado será
aproximadamente de 50 varones por cada 100 nacimientos.
También pueden calcularse las probabilidades de que ocurran k nacimientos
varones, P(X=k), lo cual nos puede servir en la práctica, para planificar algún
servicio en particular que se relacione con el sexo.
Estos cálculos se realizan mediante una fórmula matemática no muy compleja,
pero escapa del alcance de este texto. Por otro lado, existen valores de
probabilidad tabulados para diferentes valores de n y p, que podrá encontrar en la
bibliografía citada al final del tema, con explicaciones sencillas de cómo usarlas.

3.5 La distribución de Poisson.


Esta distribución teórica ha sido ampliamente usada en Biología y Medicina.
Constituye, junto a la Ley Binomial, las distribuciones discretas más comúnmente
empleadas.
La distribución de Poisson es el resultado de un conjunto de suposiciones acerca
de un proceso implícito para formar un conjunto de observaciones numéricas.
Este proceso surge al contar el número de eventos o sucesos, distribuidos al azar,
que ocurren en un espacio o intervalo de tiempo dado. Cumpliendo los siguientes
requisitos:
− Las ocurrencias de los eventos son independientes, es decir, la
ocurrencia de un evento en un intervalo de tiempo o espacio, no
tiene efecto en la probabilidad de una segunda ocurrencia del evento
en el mismo o en algún otro intervalo.
− Es posible la ocurrencia del evento, teóricamente, un número infinito
de veces dentro del intervalo.
− La probabilidad de una sola ocurrencia del evento en un intervalo
dado es proporcional a la dimensión del intervalo.
− En cualquier fracción infinitesimal (muy, pero que muy pequeña) del
intervalo, la probabilidad de más de una ocurrencia del evento es
insignificante.
158

De esta forma:

Una variable que se distribuye Poisson se define como el número de veces que
ocurre un evento en un intervalo de tiempo o en un espacio dado. Se denota como:
X ∼ P (λ)

Se lee: la variable12 X se distribuye Poisson con parámetro lambda. Donde lambda


(λ), es el número promedio de ocurrencias por unidad de tiempo. A la vez que
constituye el valor esperado y la varianza de la distribución.
E(X)= λ V(X)= λ
Esta distribución es una aproximación a la Binomial para el caso de n muy grande
y p muy pequeña de forma tal que λ = np no sea una magnitud grande. Se
plantea que la aproximación es buena cuando np ≤ 5.
Existen fórmulas para calcular la probabilidad de cualquier número de eventos,
pero no es necesario que la utilice, en la práctica se emplean los valores tabulados
para diferentes valores de lambda, que podrá encontrar en la bibliografía citada al
final del tema. Ilustremos con un ejemplo.
Ejemplo 7
El número de personas que acuden al cuerpo de guardia de un policlínico, con
crisis aguda de asma bronquial, entre las 12 de la noche y las 6 de la mañana,
constituye una variable aleatoria que sigue aproximadamente un proceso Poisson.
El parámetro lambda, en este caso, está determinado por el número promedio de
casos por intervalo, el cual se obtiene de la observación anterior de ese fenómeno.
Esta información es útil para la dirección de dicho centro, pues conociendo las
probabilidades de ocurrencia de k número de casos por intervalo de tiempo
pueden planificar el abastecimiento de medicamentos destinados al tratamiento de
esta enfermedad, además de hacer pronósticos y predicciones.

3.6 La distribución normal.


Hasta el momento hemos visto distribuciones de probabilidad discretas, veamos a
continuación algunas distribuciones de variables continuas, entre las que la
distribución normal constituye la más empleada en estadística.
La mayoría de las variables continuas que se presentan en la práctica diaria (peso,
talla, colesterol sanguíneo, presión arterial, etc.), pueden ser modeladas mediante
esta distribución13, a pesar de que ellas no siguen exactamente una distribución
12
Se habrá fijado que usamos casi siempre la letra X para denotar a las variables,
esto lo hacemos por comodidad, cuando se trabaja con más de una variable en un
mismo ejercicio entonces es necesario diferenciar.
13
Streiner y Norman (1998) plantean que las distribuciones estrictamente
normales son tan raras en la naturaleza como los dientes de gallina.
159

normal. Además, la ley normal tiene gran interés en estadística inferencial, pues
sirve como modelo para describir la distribución muestral de las medias, como
veremos en los temas siguientes. También, muchos de los estadígrafos
empleados en los contrastes de hipótesis, que trataremos en temas posteriores,
siguen esta distribución, a la vez que muchos de los tests estadísticos que
veremos, dan por supuesto que los datos provienen de una distribución normal.
La distribución normal está definida como la función de distribución de
probabilidad de una variable X, cuya representación gráfica se muestra en la figura
1.6.1, y se denota por:
X ∼ N (µ, σ2 )
Donde:
µ es la media aritmética o valor esperado
σ2 es la varianza

Figura 1.6.1 – Representación gráfica de la función de densidad de la


distribución Normal.

Como se aprecia en la figura 1.6.1, la curva normal tiene forma de campana y


como toda función de densidad de probabilidad el área bajo la curva es igual a 1.
De aquí podemos deducir las características fundamentales de esta distribución:
1. Es simétrica respecto a la media
2. Tiene su punto máximo en la media
3. La media, la mediana y la moda son iguales entre sí
4. El área total bajo la curva es igual a 1 y como es simétrica, el 50% del área
está a la derecha e izquierda de la media.
5. Siempre es positiva
6. Las colas de la curva están cada vez más próximas al eje x a medida que
nos alejamos de la media, pero nunca lo alcanzan.
7. Si se levantan dos perpendiculares a una distancia de una desviación
estándar desde la media hacia ambos lados, el área delimitada por la curva,
el eje x y las perpendiculares será aproximadamente del 68%. Si hacemos
160

lo mismo pero con dos desviaciones estándar, el área será


aproximadamente del 95%.
8. Los parámetros µ (mu) y σ (sigma), determinan completamente la forma de
la distribución. Para cada valor de µ y σ habrá una distribución normal
diferente. Así vemos en la figura 1.6.2 que diferentes valores de µ,
trasladan la curva horizontalmente sobre el eje X, mientras que σ,
determina el grado de apuntamiento de la curva (a menor desviación
estándar, menos dispersión alrededor de la media y por lo tanto más alta la
curva) figura 1.6.3.

Figura 1.6.2 – Tres distribuciones normales con diferentes medias pero


igual variabilidad.

Figura 1.6.3 - Tres distribuciones normales con diferentes desviaciones


estándar y con la misma media.
Para calcular áreas bajo la curva normal y así calcular las probabilidades de que la
variable X tome valores en un intervalo dado, se hace necesario el uso de
integrales. Pero en la práctica esto se hace fácilmente utilizando tablas
estadísticas.
Como podrá suponer, no existen tablas para cada una de las posibles
distribuciones que se pueden presentar en la práctica, la solución a esta
problemática es la existencia de una distribución normal especial, llamada Normal
161

estándar o típica, que se caracteriza por tener media cero y varianza uno, figura
1.6.4. Ésta se denota por:
X ∼ N (0, 1)
Los valores de probabilidad para esta distribución se encuentran tabulados, y a
partir de ella se pueden obtener los valores correspondientes a cualquier otra
distribución normal, mediante la estandarización. La tabla A del Apéndice, es una
muestra de estas tablas.

Figura 1.6.4 - Áreas bajo la curva normal estándar.


Así, cualquier variable aleatoria que se distribuya aproximadamente normal, puede
ser estandarizada y transformada en una normal estándar, mediante la siguiente
fórmula:
X −µ
Z= ~ N (0, 1)
σ

Entonces, a cada valor de X se le hace corresponder un valor de la distribución


normal estándar cuyas probabilidades son equivalentes, ya que:

( )
X ~ N µ, σ 2 ⇒ Z =
X −µ
σ
~ N (0, 1)

A continuación, veremos varios ejemplos de cálculo de probabilidades utilizando la


tabla de valores de la normal estándar, pero antes debe recordar, que en la
distribución normal, como en toda distribución continua, la probabilidad para un
valor específico de X es cero, lo que se halla es la probabilidad para intervalos.
Así tenemos, que se pueden calcular las probabilidades de que la variable X tome
valores en un intervalo (a, b), P(a ≤ X ≤ b), o para cualquier otro intervalo, por
ejemplo P(X≤a), P(X≤b), P(X≥a), etc. Algunas de las cuales se encuentran
representadas en la figura 1.6.5.
162

Figura 1.6.5 – Subdivisiones del área bajo la curva normal


Ilustremos el uso de la tabla A del Apéndice. En esta tabla se muestra el área a la
derecha de cualquier valor que tome la variable Z (normal estándar), como se
representa en la figura adjunta a la tabla. Vemos que la columna de la izquierda,
se corresponde con los valores de z, mientras que en la derecha, encontramos
los valores correspondientes al área bajo la curva, a la derecha de z. Fíjese que le
damos los valores de z solo con un decimal, pero debe saber que existen tablas
mucho más explícitas.
Veamos, si queremos conocer el área a la derecha de z = 0.1, miramos en la
columna derecha que le corresponde un valor de 0.4602, este se interpreta como
la probabilidad de que la variable Z tome valores mayores o iguales que 0.1, P(Z ≥
0.1).
Ahora, si quisiera saber ¿cuál es la probabilidad de valores menores o iguales a
0.1, P (Z ≤ 0.1)?, que problema, la tabla no tiene esa información. Ah! Sabe como
resolvemos esto, muy simple, recuerde que esta es una distribución simétrica,
además el área bajo la curva es igual a 1, entonces:
P (Z ≤ 0.1) = 1- P(Z ≥ 0.1)
P (Z ≤ 0.1) = 1- 0.4602 = 0.5398
Otro problema, la tabla solo da los valores para Z ≥ 0, ¿cómo calcular el área a la
derecha de un valor de Z negativo?. Nada complicado, ya sabe que se trata de
una distribución simétrica y que a ambos lados de la media se encuentra el 50%
del área, por lo tanto:
P(Z ≤ -z)= P(Z ≥ z)
Entonces P(Z ≤ -0.1) = 0.4602
Mire que curioso, la probabilidad de Z menor que –0.1 es igual a la probabilidad
de Z mayor que 0.1, esto lo verá mejor en la figura 1.6.6
Ahora, la probabilidad de Z mayor que – 0.1 es igual a la probabilidad de Z menor
que 0.1. Parece un trabalenguas, pero si se fija en las figuras entenderá
perfectamente.
P(Z ≥ -0.1) = P(Z ≤ 0.1)
163

Figura 1.6.6 Distribución normal estándar

A modo de resumen le doy algunas reglas básicas para esta tabla14.

P(Z ≥ z) = valor tabulado


P(Z ≤ z) = 1 – P(Z ≥ z)
P(Z≥ - z) = P(Z ≤ z)
P(Z ≤ - z) = P(Z ≥ z)
Estas sólo son algunas reglas que te brindamos, pero existen muchas otras
formas de obtener los mismos resultados, debes usar tu sentido común e
improvisar. Juguemos un poco con la tabla para que te entrenes en su uso:
ƒ Probabilidad de que Z sea menor que 1: Es el área a la izquierda de 1, se
denota como:
P(Z ≤ 1) = 1- P(Z ≥ 1) = 1-0.1587 = 0.8413.
Se representa en la figura 1.6.7
ƒ Probabilidad de Z mayor que 2 pero menor que 3:
P(2 ≤ Z ≤ 3) = P(Z ≥ 2) – P(Z ≥ 3)
Es decir, necesitamos el área entre la curva, el eje x y dos perpendiculares en los
valores 2 y 3. La tabla da el área total a la derecha de z = 2, entonces le resto el
“pedacito” correspondiente al área a la derecha de z = 3 y obtengo el área entre 2
y 3. Figura 1.6.8
P(2 ≤ Z ≤ 3) = 0.02275 – 0.00135 = 0.0214
ƒ Probabilidad de Z mayor que –1 y menor que 1.5:
P(-1 ≤ Z ≤ 1.5) = P(Z ≥ -1) – P(Z ≥ 1.5)
=1 - P(Z ≥ 1) - P(Z ≥ 1.5)

14
Si utiliza otra tabla puede ser diferente, esto depende del área que esté
tabulada, si la izquierda o la derecha. A la vez que domina una, entiende
cualquiera.
164

=1 – 0.1587 – 0.0668 = 0.7745


Ver figura 1.6.9
Ahora ya puede calcular probabilidades de otras distribuciones normales, es decir,
estandarizando las variables.

Figura 1.6.7 Probabilidades de (Z ≥ 1) y (Z ≤ 1)

Figura 1.6.8 – Curva normal estándar. Probabilidad de (2 ≤ Z ≤ 3)

Figura 1.6.9 – Curva normal estándar. P(-1≤ Z ≤ 1.5)


Ejemplo 9
Se conoce que las cifras de glucosa en sangre tienen una distribución
aproximadamente normal, con media 100 (mg/100 mL) y desviación estándar 40.
165

¿Cuál es la probabilidad de que al seleccionar una persona de dicha población


tenga su nivel de glucosa por encima de 120?
Primero, la variable X se define como el nivel de glucosa en sangre de las
personas. Ésta se distribuye normal:
X ~ N(100, 1600)
Nos piden la probabilidad de X mayor que 120: P(X ≥ 120). Tenemos que
estandarizar la variable:
Z = (120 – 100) /40 = 20/40 = 0.5
Entonces la P(X ≥ 120) = P (Z ≥ 0.5) y por lo tanto:
P(X ≥ 120) = 0.3085
R/ La probabilidad de que al seleccionar una persona de dicha población su nivel
de glicemia sea mayor que 120 es del 30.85 %. Figura 1.6.10

Figura 1.6.10 – Equivalencia entre el área de la curva normal (0, 1) y la


normal (100,1600)

Aunque la importancia de esta distribución en el campo de la estadística es


indiscutible, podrás darse cuenta que no es una ley inherente a todas las variables
continuas que conoces. A pesar de que muchas de ellas tienen una distribución
aproximadamente normal, no es posible encontrar en la naturaleza una
distribución exactamente normal, no obstante al utilizar la ley normal para modelar
estas variables, es posible establecer afirmaciones de probabilidad más útiles y
convenientes que si empleáramos una distribución más compleja.
Relación entre la distribución Normal, Binomial y de Poisson.
Cuando en una distribución Binomial n es grande y p y q no están muy cercanas a
cero, ésta puede aproximarse a la distribución normal, lo que facilitaría
enormemente los cálculos de probabilidades asociadas. Observe en la figura 1.3.2
que si unimos los extremos superiores de cada barra vertical, obtenemos una
curva parecida a la normal.
166

Entonces, en la medida que n aumenta y p se mantiene constante, la


aproximación será cada vez mejor. De forma general se plantea que hay buena
aproximación cuando n es mayor o igual que 30. Si p está cercana a 0.5, se
considera bueno un tamaño muestral incluso mayor que10, en la medida que p se
aleja de 0.5, se necesitarán mayores tamaños muestrales.
Ahora bien, sabemos que la distribución de Poisson es una aproximación a la
Binomial cuando n es grande y p es pequeña, por lo tanto también puede ser
aproximada a la normal.

3.7 Otras distribuciones de probabilidad.


Además de las distribuciones ya estudiadas, existen otras de amplio uso en
estadística inferencial, entre las que se destacan la t de Student y la Ji cuadrado
(χ2), muy usadas ambas en la realización de pruebas de hipótesis y en la
construcción de intervalos de confianza, como veremos más adelante.
A continuación abordaremos, brevemente, las características principales de cada
una de ellas.
La distribución Ji cuadrado (χ2)
Esta distribución deriva de la distribución normal. Surge cuando tenemos n
variables independientes, que siguen aproximadamente una distribución normal
estándar (X1, X2,.., Xn). La variable resultante de sumar los cuadrados de éstas,
sigue una distribución Ji cuadrado con n grados de libertad. Se denota como.
X ∼ χ2 (n gl)
Su representación gráfica puede verse en la figura 1.7.1, para diferentes grados de
libertad.
167

No necesariamente deben ser distribuciones normal estándar, también pueden ser


variables estandarizadas.

Figura 1.7.1 Representación gráfica de la función de densidad de la distribución Ji


cuadrado para diferentes grados de libertad.
Se trata de una función positiva, no puede tomar valores negativos, pues como
podrá suponer, se deriva de la suma de valores elevados al cuadrado. Su forma
depende de los grados de libertad, con tendencia a aproximarse a la curva normal
en la medida que aumentan los grados de libertad. Al igual que la normal y
cualquier distribución continua, el área bajo la curva es igual a 1, pero no es
simétrica.
Su valor esperado y varianza son:
E(χ2) = n y V(χ2) = 2n
Los grados de libertad se refieren, al número de términos independientes que es
necesario, para obtener el valor de la variable χ2.
Una propiedad importante, es que la Ji cuadrado con un grado de libertad, es igual
al cuadrado de la normal estándar.
Esta distribución es muy empleada para probar hipótesis, cuando los datos están
en forma de frecuencias. Estos procedimientos se estudian bajo el título de
pruebas de bondad de ajuste, como verá en cursos posteriores. Siendo más
adecuado su uso, cuando estamos en presencia de variables categóricas.
La cantidad χ2, es una medida del grado de congruencia entre las frecuencias
observadas y las esperadas, bajo el cumplimiento de una hipótesis dada, esto lo
entenderá mejor cuando veamos la aplicación concreta de dicha distribución.
168

Por ahora, baste que conozca que existen tablas con los valores de los percentiles
de esta distribución, para diferentes magnitudes de n. La tabla C del Apéndice es
un ejemplo de éstas. Como puede ver están representados los valores de algunos
percentiles15 de χ2 para diferentes grados de libertad. Por ejemplo, el percentil 95
de la χ2 con 12 gl = 21.0
La distribución t de Student.
Este modelo teórico, al igual que la Ji cuadrado, se deriva del modelo normal, pero
es un proceso algo complejo. Se denota por la letra t minúscula, y su forma
gráfica se representa en la figura 1.7.2.

Figura 1.7.2 – Función de densidad de la distribución t de Student con un grado de


libertad.
Como puede ver es muy similar a la curva normal estándar, pero más dispersa, su
media también es cero. Es simétrica respecto a la media, su forma depende de los
grados de libertad, así en la medida que aumentan los grados de libertad mayor es
la aproximación a la normal. Los grados de libertad tienen el mismo significado
que en la Ji cuadrado.
Puede tomar valores tanto positivos como negativos, y al igual que toda
distribución continua, el área bajo la curva es igual a uno.
Su valor esperado y varianza:
n
E(t) = 0 y V(t) =
n−2
Al igual que la Ji cuadrado existen tablas con los percentiles de ella, los que son
empleados en las pruebas de hipótesis y en la construcción de intervalos de
confianza. La tabla B del Apéndice es un ejemplo de estas tablas, en ella se
muestran los valores de la distribución t para diferentes grados de libertad,

15
Los más frecuentemente usados para pruebas de hipótesis.
169

correspondientes a los percentiles más empleados en inferencia estadística,


veremos su uso en la medida que sea necesario y así se entenderá mejor.

Bibliografía
1. Armitage P, Berry G. Statistical Methods in Medical Research. 3rd ed.
Oxford: Blackwell Scientific Publications, 1994
2. Altman DG. Practical statistics for medical research. London: Chapman
and Hall. 1992
3. Daniel WW. Bioestadística. Base para el análisis de las ciencias de la
salud. 3ra edición. México. D. F: Limusa; 1997
4. Norman GR, Streiner DL. Bioestadística. España: Hartcourt Brace; 1998
5. Spiegel MR. Teoría y problemas de Estadística. La Habana: Pueblo y
educación; 1977
6. Doménech Massons, JM. Métodos estadísticos en ciencias de la salud.
Unidad didáctica 3. Barcelona: Signo; 1995
7. Swinscow, TVD. Statistics at square one. 9th edition. BMJ publishing
group; 1997
8. Dawson-Saunders B, Trapp R G. Bioestadística. 2da ed. El manual
moderno. México; 1999.
9. Mtnez Canalejo H. Principios Básicos de la Teoría de Probabilidades.
Ed. Pueblo y Educación. La Habana; 1989
10. Armitage P, Berry G. Estadística para la Investigación Biomédica.
Doyma, Barcelona, 1992.
11. Hamilton LC. Modern Data Analysis. Brooks/Cole Publishing Company,
Pacific Grove, 1990.
12. Martín Andrés A, Luna Del Castillo JD. Bioestadística para las Ciencias
de la Salud. Norma, Granada, 1994.
13. Marascuilo LA, Serlin RC. Statistical Methods for the Social and
Behavioral Sciences. W.H. Freeman and Company, Nueva York, 1988.
14. Versión electrónica del manual de la Universidad de Málaga.
Bioestadística: métodos y aplicaciones. Málaga; 1998.
170

Introducción a la Inferencia Estadística. En: Bayarre Vea H, Oliva Pérez M.


Estadística Inferencial. La Habana: ECIMED; 2005. p. 75-129.

Tema 4 - Introducción a la Inferencia Estadística

Generalmente, al realizar un estudio se desea arribar a conclusiones acerca de la


naturaleza de una población. Al ser la población grande y no poder ser estudiada
en su integridad en la mayoría de los casos, las conclusiones obtenidas deben
basarse en el examen de solamente una parte de ésta, lo que nos lleva, en primer
lugar a la justificación, necesidad y definición de las diferentes técnicas de
muestreo, estudiadas en el tema anterior. Toca el turno al proceso de
generalización, la inferencia estadística.

La inferencia estadística es el procedimiento por medio del cual se llega a


conclusiones acerca de una población mediante los resultados que se obtienen a
partir de una muestra extraída de ella.

Pero, existe un inconveniente a la hora de dar estas conclusiones: el error


aleatorio. Cualquier medición basada en una muestra de individuos presentará
alguna diferencia respecto del verdadero valor como consecuencia de la
aleatoriedad del proceso.

El investigador solo estudia una de las posibles muestras que pueden obtenerse
de la población objeto de estudio. Y en cada una de éstas, la variable de interés
puede presentar diferentes valores simplemente por azar. Las técnicas
estadísticas se basan en el hecho de que esta variabilidad propia del muestreo,
sigue unas leyes conocidas, por lo que puede ser cuantificada.

La Estadística inferencial permite determinar la probabilidad de que una


conclusión sacada a partir del análisis de los datos de una muestra sea cierta,
siempre que se hayan utilizado métodos apropiados para la selección de la
muestra.

En este tema introducimos los elementos de estadística inferencial necesarios


para realizar este proceso de generalización de la muestra a la población, que se
aplicarán a dos indicadores particularmente sencillos y muy empleados: la media y
la proporción.
171

4.1 - Distribuciones muestrales.


El primer término al que debemos hacer referencia es el de estimador.

Dentro de este contexto, será necesario asumir un estimador como una variable
aleatoria con una determinada distribución, que se expresa en función de la
muestra estudiada, con el objetivo de aproximar el valor de un parámetro
poblacional desconocido; y que será la pieza clave en las dos amplias categorías
de la inferencia estadística: la estimación y el contraste o prueba de hipótesis.

El concepto de estimador, como herramienta fundamental, lo caracterizamos


mediante una serie de propiedades que nos servirán para elegir el ``mejor" para
un determinado parámetro de una población, así como algunos métodos para la
obtención de ellos, tanto en la estimación puntual como por intervalos. Esto lo
veremos más adelante.

Es de vital importancia que entiendas claramente en qué consisten las


distribuciones muestrales, ya que este concepto es la clave para comprender la
inferencia estadística. Así pues, la distribución muestral de un estimador se ha
definido como sigue.

La distribución de frecuencias de todos los valores posibles que puede asumir un


estimador, calculados a partir de muestras del mismo tamaño, extraídas
aleatoriamente de la misma población, se llama distribución muestral de ese
estimador.

Podemos referirnos a una distribución de medias, de proporciones, de varianzas,


etc.

Las distribuciones muestrales pueden construirse empíricamente a partir de


poblaciones finitas y discretas. Mediante el siguiente procedimiento:

1. De una población finita de tamaño N, se extraen de manera aleatoria


todas las muestras posibles de tamaño n.

2. Se calcula el estimador de interés para cada muestra.

3. Se listan en una columna los diferentes valores observados del


estimador y en otra columna las frecuencias correspondientes de cada
valor observado.
172

Como es de suponer, esto en la práctica es una tarea colosal y en el caso de


poblaciones infinitas es imposible. Por tanto este problema debe ser resuelto por
medio del uso de la Matemática. Pero no se asuste que los procedimientos
aplicados para ello no vamos a analizarlos en este texto. Baste saber que las
distribuciones muestrales pueden deducirse matemáticamente.

Ahora bien, para cualquier distribución de probabilidad se tiene interés en conocer


tres cosas básicas: su valor esperado (media), la varianza y su apariencia gráfica.

En este punto cabe señalar que todos los procedimientos de estadística inferencial
se basan en el supuesto de muestreo simple aleatorio, sin importar que se haya
empleado otro método de selección, lo que se considera por algunos como una
deficiencia de esta rama de la estadística, y en estos momentos se encuentra en
proceso de discusión y análisis por los grandes estadísticos. Dejemos que ellos se
ocupen de ese problema y sigamos nosotros con nuestro tema.

Pues bien, dado que se trata de muestras elegidas al azar, lo más frecuente es
que los valores promedio observados (proporción p y media x ) sean valores
cercanos a los verdaderos parámetros de la población (proporción π y media µ).
No obstante, el error aleatorio propio del muestreo produce algunas muestras con
valores de p y x alejadas de π y µ respectivamente.

Note que a los valores muestrales de la variable se les denota por letras romanas
mientras que a los parámetros poblacionales con letras griegas, esto evita
confusiones y favorece la comprensión de los conceptos que se definirán más
adelante.

En el siguiente cuadro se brinda una lista de la nomenclatura utilizada.

Término
Muestra Población
estadístico
Media x µ (mu)
Proporción p π (pi)
Desviación
s σ (sigma)
estándar
Diferencia D δ (delta)

Esperamos que sirva de guía y no haya confusión a lo largo del tema, a partir de
ahora emplearemos esta nomenclatura.
173

4.1.1 - Distribución muestral de la media.

Apliquemos el concepto de distribución muestral, introducido anteriormente, al


caso concreto de la media muestral.

La distribución de frecuencias de las medias x observadas en todas las muestras


posibles de tamaño n, extraídas al azar de una población de media µ y varianza σ2
conocidas, recibe el nombre de distribución muestral de medias.

Como vimos en el tema anterior, la media muestral bajo el supuesto de muestreo


sucesivo de tamaño n de una población con N elementos, se convierte en una
variable aleatoria que sigue una distribución normal.

µ, σ )
2
x∼ N (
n

Esta distribución tiene las siguientes características:

1. Su valor esperado es igual a la media poblacional

E (x) = µ
2. Su varianza es igual a:
σ2
Var ( x ) =
n
3. El error estándar de la media muestral viene dado por:

σ2 σ
EE x = =
n n
4. Su representación gráfica se muestra a continuación en la figura 4.1.1.

Figura 2.1.1 – Distribución de la media muestral y la respectiva distribución


normal.
174

En la medida que aumenta el tamaño de muestra la variabilidad de la media tiende


a disminuir y por lo tanto la curva tiende a ser más aguda.

Es importante señalar que la media muestral sigue una distribución normal cuando
la distribución de la variable en la población sigue una ley normal, y cuando el
tamaño de muestra n es grande aunque la distribución de la variable en la
población no siga una ley normal. Esto se debe al teorema central del límite, que
explica las leyes de los errores causales, según la cual, cuando el error asociado a
un determinado fenómeno es el resultado de muchos errores independientes, se
observa que la distribución de ese error es parecida a la ley normal. Esta ley fue
descubierta por De Moivre.

El significado de la distribución de De Moivre reside en que la suma de una gran


cantidad de variables aleatorias independientes, arbitrariamente distribuidas,
siempre tiene una distribución aproximadamente normal. La distribución de dicha
suma será más cercana a la normal cuanto mayor sea el número de variables
aleatorias.

Este teorema constituye la razón por la cual muchas distribuciones muestrales


pueden aproximarse por la ley normal a partir de un cierto tamaño de muestra.

Al llegar a este punto surge una pregunta lógica. ¿Cuán grande debe ser la
muestra para que el teorema central del límite sea aplicable? Una regla empírica
establece que, en la mayoría de las situaciones prácticas, una muestra de tamaño
30 es suficiente.

El conocimiento de la distribución muestral de la media y de sus características, es


muy importante cuando se desea realizar inferencias a partir de medias, ya sea
comparar las medias de dos poblaciones o comparar una media con una magnitud
específica, como veremos en las próximas secciones.

4.1.2 Distribución muestral de la proporción


Ya vimos el caso en que la variable era continua y por tanto el estadístico de
interés era la media, veamos ahora cuando estamos interesados, como sucede
frecuentemente, en una característica categórica, siendo la proporción muestral el
estadístico para estas situaciones.

La distribución muestral de la proporción se puede obtener experimentalmente de


la misma forma que vimos para la media. Lo cual prácticamente no se realiza,
claro está.
175

Así tenemos que:

El conjunto de los valores de una proporción p, observados en todas las posibles


muestras de tamaño n, extraídas aleatoriamente, de una población de N
elementos con proporción π, recibe el nombre de distribución muestral de la
proporción.

Esta distribución sigue una ley Binomial con las siguientes características:

1. Su valor esperado es igual a la proporción poblacional


E (p) = π
2. Su varianza es igual a:
π(1 − π )
Var (p) =
n
3. El error estándar de la proporción p está dado por:

π(1 − π )
EEp =
n

Pero, cuando la muestra es grande, la distribución de las proporciones de la


muestra es aproximadamente normal de acuerdo al teorema central del límite.
Considerándose en la práctica que la distribución de las proporciones muestrales
observadas se aproxima satisfactoriamente a una ley normal de media π y
varianza π (1 − π ) , si el tamaño muestral cumple que nπ ≥ 5 y n (1- π) ≥5.
n

De aquí se deduce que en la medida que π se acerque a 0.5 el tamaño de muestra


necesario será menor que cuando está cerca de 0 o de 1. De forma general se
considera adecuado un tamaño muestral de 50 o más.

Al igual que en el caso de la media, el conocimiento de todos estos elementos


son muy útiles al hacer inferencias sobre proporciones, como veremos en las
próximas líneas.

4.1.3 – Distribución muestral de la diferencia entre medias y proporciones.

Vimos las distribuciones de la media y la proporción, pero resulta de interés


conocer que sucede con las diferencias entre medias y entre proporciones. Es
muy simple, veamos.

A menudo estamos interesados en comparar dos poblaciones en cuanto a una


variable en particular. Cuando ésta es continua estamos entonces interesados en
176

la diferencia entre las medias de dicha variable para ambas poblaciones, si la


variable es categórica, entonces nos interesa la diferencia entre las proporciones
correspondientes, es decir.

( x1 − x 2 ) y ( p1 - p2 ) respectivamente.

Ahora bien, estas diferencias bajo el supuesto de muestreo sucesivo del mismo
tamaño16, de cada población, se comportarán como variables aleatorias que
siguen una distribución de probabilidades conocida.

En el caso de las medias, sigue una distribución normal con media igual a la
diferencia entre ellas a escala poblacional (µ1 - µ2) y varianza igual a la suma de
las varianzas de cada media:

⎛ ⎞
( x1 − x 2 ) ∼ N⎜⎜ (µ1 − µ 2 ), ⎛⎜⎜ σn1 + σn 2 ⎞⎟⎟ ⎟⎟
2 2

⎝ ⎝ 1 2 ⎠⎠

De forma análoga, en el caso de las proporciones tenemos que sigue una


distribución aproximadamente normal si los tamaños muestrales n1 y n2 son
grandes.

⎛ ⎛ π (1− π ) π (1− π ) ⎞ ⎞
(p1 – p2) ∼N ⎜⎜(π1 − π2 ),⎜⎜ 1 1 + 2 2 ⎟⎟⎟⎟
⎜ n1 n2 ⎟
⎝ ⎝ ⎠⎠

4.2 - Estimación de parámetros.

En esta sección analizaremos la estimación, que es la primera de las dos áreas


generales de la Estadística inferencial, la segunda, pruebas de hipótesis, la
estudiaremos en la próxima sección.

El proceso de estimación implica calcular, a partir de los datos de una muestra,


algún estadístico que se ofrece como una aproximación del parámetro
correspondiente de la población de la cual fue extraída la muestra (media,
proporción, etc.).

Un parámetro es cualquier indicador descriptivo de una población.

Como vimos anteriormente, se denomina estimador de un parámetro, a la variable


aleatoria calculada a partir de la muestra aleatoria y que tiene por objetivo
aproximar el valor del parámetro poblacional desconocido.
16
Se refiere al mismo tamaño de muestra para cada población, pudiendo ser
diferentes de una población a la otra.
177

Observe que el estimador no es un valor concreto sino una variable aleatoria, ya


que aunque depende unívocamente de los valores de la muestra observados, la
elección de la muestra es un proceso aleatorio. Una vez que la muestra ha sido
elegida, se denomina estimación al valor numérico que toma el estimador sobre
esa muestra.

Entre las características deseables para esta nueva variable aleatoria (que
usaremos para estimar el parámetro desconocido) tenemos las siguientes:

− Consistencia: Cuando el tamaño de la muestra crece arbitrariamente, el


valor estimado se aproxima al parámetro desconocido.
− Carencia de sesgo: El valor medio que se obtiene de la estimación para
diferentes muestras debe ser el valor del parámetro.
− Eficiencia: Al estimador ser una variable aleatoria, no puede exigírsele
que para una muestra cualquiera se obtenga como estimación el valor
exacto del parámetro. Sin embargo podemos pedirle que su dispersión
con respecto al valor central (varianza) sea tan pequeña como sea
posible.
− Suficiencia: El estimador debería aprovechar toda la información
existente en la muestra.

Veremos que es posible calcular dos tipos de estimaciones para cada uno de
estos parámetros: una estimación puntual y una estimación por intervalos.

Una estimación puntual es un solo valor numérico empleado para estimar el


parámetro correspondiente de la población.

Una estimación por intervalos o confidencial consta de dos valores numéricos


que definen un intervalo que, con un grado de confianza específico, se considera
que incluye al parámetro por estimar.

Este parámetro será habitualmente una proporción en el caso de variables


dicotómicas, y la media o la varianza para variables continuas.

4.2.1 Estimación puntual

La estimación puntual es muy simple, consiste en escoger el mejor estimador para


el parámetro en cuestión.

La media de la muestra, la proporción de la muestra, la diferencia entre las medias


de dos muestras y la diferencia entre las proporciones de dos muestras, son cada
178

uno de ellos estimadores insesgados de sus parámetros correspondientes. Esta


propiedad está implícita cuando se dijo que los parámetros eran las medias de las
distribuciones muestrales correspondientes. Por lo que se les considera como la
estimación puntual de cada uno de estos parámetros.

Ahora bien, es muy importante considerar aquí algo que vimos en el tema anterior,
y es la diferencia que existe entre población objeto y población muestreada. La
población objeto es la que realmente se desea estudiar, mientras que la
muestreada es de la que se extrajo la muestra, no siempre ambas coinciden,
desafortunadamente. Los procedimientos de inferencia estadística permiten inferir
respecto a la población muestreada (siempre y cuando se hayan empleado
técnicas de muestreo correctas). Por lo que esto debe ser tenido muy en cuenta a
la hora de hacer las estimaciones.

4.2.2 Estimación confidencial (por intervalo).

La técnica de la estimación confidencial consiste en asociar a cada muestra un


intervalo que se sospecha que debe contener al parámetro. A éste se le denomina
intervalo de confianza.

La estimación confidencial ofrece una información más amplia que la simple


estimación puntual, lo cual suele ser muy ventajoso. Por ejemplo, dos
investigadores estiman la proporción de fumadores de la población donde reside
cada uno, construyen los siguientes intervalos de confianza (IC) al 95%:

Población A (56,4%; 63.6%)


Población B (23.5%; 96.5%)

En ambos casos la estimación puntual es del 60% (punto medio del intervalo), sin
embargo en la población A la estimación es mucho más precisa que en la B donde
la proporción de fumadores es un valor del amplio rango que va desde un 23.5%
hasta un 96 %. Si nos hubiéramos referido solamente a la estimación puntual
podíamos haber pensado que en ambas poblaciones la prevalencia de fumar es
similar. El IC nos ofrece además de la estimación puntual, información acerca de
la precisión con que hicimos nuestra estimación.

Evidentemente esta técnica no tiene por qué dar siempre un resultado correcto. A
la probabilidad de que hayamos acertado al decir que el parámetro estaba
contenido en dicho intervalo se la denomina nivel de confianza.

En la sección siguiente abordaremos el procedimiento para la construcción de IC


para los parámetros más usados. De esta forma se podrá comprender mejor los
conceptos antes expuestos.
179

4.3 Intervalos de confianza

Ya vimos en la sección anterior que la estimación de parámetros poblacionales


puede hacerse tanto de forma puntual como por intervalos, siendo esta segunda
forma más informativa es la preferida por muchos investigadores. A continuación
veremos cómo se pueden construir estos IC para algunos parámetros.

Los Intervalos de Confianza se construyen con la información obtenida en la


muestra estudiada, utilizando la estimación puntual de dicho parámetro, teniendo
en cuenta el error aleatorio o de muestreo y por supuesto la distribución muestral
del estimador.

4.3.1 Intervalo de confianza para la media

Si conocemos la media x , de una determinada variable continua, observada en


una muestra, sabemos que este valor es la mejor estimación puntual del
parámetro µ. No obstante, es deseable conocer su precisión, es decir, lo próximo
o alejado que x puede estar del verdadero valor µ. Como sabemos, la precisión
depende fundamentalmente del tamaño muestral: cuanto mayor sea el tamaño de
la muestra, más precisa será la estimación, y también depende de la variabilidad
de los datos, σ2.

Así pues, la estimación puntual de µ, y de cualquier parámetro, debe ir


acompañada de su precisión e, indicadora de las posibles diferencias entre el
valor estimado y el verdadero valor del parámetro.

De esta forma, el intervalo de confianza 1- α del parámetro µ, es el intervalo x ± e


alrededor de la estimación puntual x , que tiene una probabilidad grande (1- α) de
contener en algún punto del intervalo la desconocida µ.

Al valor 1- α, se le llama confiabilidad o nivel de confianza, suele ser


considerada como 0.95 (95%) o mayor, pues en estadística por convenio, se
considera que una probabilidad es grande cuando su valor es igual o superior a
0.95. Por su parte, el valor es un indicador del riesgo de que el intervalo de
confianza no contenga el verdadero valor del parámetro µ, fijándose
habitualmente en 0.05 (5%), α se denomina nivel de significación.

Recordemos que el error estándar de la media se define como:

σ
EE x =
n
Y que el error de muestreo e se define, en este caso, como:
180

σ
e = Zα 2
n
De aquí que el IC para µ esté dado por:
σ
x ±e ⇒ x ± Zα 2
n
Donde Zα/2 es el valor de la distribución normal estándar que se corresponde con
un área a su izquierda igual a α/2, es decir, el valor de Z para el que se cumple que:

P (Z < z) = α/2. Este valor de Z recibe el nombre de percentil17 α/2.

Figura 2.3.1 Percentiles α/2 y 1- α/2 de la distribución normal estándar.


Veamos en la figura siguiente su representación gráfica.

La distribución normal es simétrica respecto a la media, y en el caso de la normal


estándar (µ=0) el percentil Zα/2 es igual al percentil Z 1 - α/2 solo con signos
diferentes.

-Z α/2 = Z 1 - α/2

Por ejemplo, para un valor de α igual a 0.05 (5%), α/2 = 0.025, significa que el área
bajo la curva normal a la izquierda de Zα/2 y a la derecha de Z1-α/2 es igual a 0.025.
Si buscas en la tabla A del Apéndice podrás ver que a este valor de probabilidad
le corresponde un valor de Z = -1.96 y 1.96 respectivamente, es decir los
percentiles 2.5 y 97.5 de la distribución normal estándar. Veamos el gráfico de la
figura 2.3.2.

17
Los percentiles son aquellos valores de la variable que dividen a una serie
ordenada de datos(en este caso la distribución) en 100 partes iguales, existiendo
entonces 99 percentiles.
181

Figura 2.3.2 – Áreas bajo la curva de la distribución normal estándar.

Al área comprendida entre estos dos percentiles se le llama región de confianza,


se corresponde con un IC al 95% para la normal estándar.

Es decir, cuando construimos un IC con una confiabilidad de 100(1- α) %, significa


que encontramos dos valores de esa distribución de manera tal, que entre ellos se
encuentra el 100(1 - α) % de los valores que toma la variable.

De forma similar puedes calcular los percentiles para otros valores de alfa, te
adelanto que para α = 0.01, el valor correspondiente de Z es 2.58 (percentil 99.5).

El procedimiento anterior para construir IC para la media, se basa en que la


variable original sigue aproximadamente una distribución normal y que se conoce
la varianza poblacional σ2. Esto en la práctica es casi imposible, es muy raro
conocer la varianza poblacional y no conocer la media, pues ésta es necesaria
para obtener la varianza. ¿Qué hacer?, gracias al teorema central del límite si la
muestra es grande (≥30) garantizamos que la distribución de las medias
muestrales sea aproximadamente normal, además el estadístico:

x-µ
Z=
σ/ n
utilizado para estandarizar la distribución de las medias muestrales, sigue una
distribución normal, incluso en el caso de que no se conozca la varianza
poblacional σ2, siempre que el tamaño muestral sea grande, en estos casos se
sustituye el valor de σ2 por el de la varianza muestral s2.

En aquellos casos en que la muestra sea pequeña, no se conozca la varianza


poblacional σ2, y (o) la variable no sigue una distribución normal es necesario
emplear otras fórmulas para construir el IC para la media, que involucran a la
distribución t de Student. No se asuste que es muy similar a lo visto anteriormente,
sería así:

s
x ± e ⇒ x ± t (1 - α / 2)
n
Como se ve, la diferencia radica en el uso de s sustituyendo a σ, y en lugar del
percentil 1- α / 2 de la normal estándar usamos el mismo percentil pero de la
distribución t de Student con n-1 grados de libertad. Veamos un ejemplo.
182

Ejemplo 4.3.1

Se ha medido el volumen diario de bilis, expresado en litros, en 10 individuos


sanos, obteniéndose los siguientes resultados: 0,98; 0,85; 0,77; 0,92; 1,12;
1,06; 0,89; 1,01; 1,21; 0,77.

Estimemos la producción diaria media de bilis en individuos sanos suponiendo


que la muestra ha sido obtenida por muestreo aleatorio simple sobre una
población normal.

x =∑
xi 9.58
= = 0.958
n 10

∑ (Xi − x )
2
2
s = = 0.02131
n
Por lo tanto el error estándar de la media es:

s 0.146
EE x = = = 0.0462
n 10
Calculemos el error de muestreo, con una confiabilidad del 95%, teniendo en
cuenta que se trata de una muestra pequeña y no conocemos la varianza
poblacional:

e = t( 1− α / 2 ) × EE x = 2.2622 x 0.0462 = 0.1045

El valor del percentil t 1 - α / 2, surge de buscar en la tabla B del Apéndice el valor


correspondiente de la distribución t para 9 (n – 1) grados de libertad, que el área
bajo la curva a su derecha es de (1 - α / 2), es decir, el percentil 97.5 para α igual a
5% y por tanto una confiabilidad del 95 %. Como podrás observar en dicha tabla
se muestran los valores de algunos percentiles de la distribución t para diferentes
grados de libertad.

Entonces un IC al 95% para la producción media de bilis poblacional será:

x ± e = 0.958 ± 0.1045 = (0.8535 ; 1.0625)


Note que el IC es bastante estrecho lo cual habla a favor de su precisión, a menor
amplitud mayor precisión. El error relativo es aproximadamente el 11% y se
calcula:

0.1045
* 100 = 10.91%
0.958
183

Se obtuvo esta precisión relativamente buena con tan pequeño tamaño muestral,
porque la variabilidad de las observaciones es pequeña. Veamos otro ejemplo.

Ejemplo 4.3.2

Un investigador está interesado en estimar el nivel promedio de una enzima, en


una población humana determinada. Para ello tomó una muestra de 25 sujetos y
obtuvo una media muestral x =22. Se sabe que los niveles de esta enzima
siguen una distribución normal con varianza σ2 = 45.

Con esta información podemos construir un IC al 95 % para la media poblacional


de dicha enzima. Podemos emplear la distribución normal pues se conoce la
varianza poblacional y la variable se distribuye normal. Entonces:

σ 45
EE x = = = 1.3416
n 25

e = Z 1- α/2 x EE x = 1.96 x 1.3416 = 2.63

El IC al 95 % para µ será:

x ± e = 22 ± 2.63 = (19.37 ; 24.63)


Siendo el error relativo del 12 % aproximadamente:

2.63
∗ 100 = 11.95 ≈ 12 %
22

¿Cómo se interpretan estos intervalos de confianza? En estos ejemplos en que la


confiabilidad fue del 95 %, se dice que, al repetir el muestreo, aproximadamente el
95% de los IC construidos mediante las fórmulas vistas, incluyen la media
poblacional, esta es la interpretación probabilística. La interpretación práctica
plantea que se tiene un 100(1 - α) % de confianza de que el intervalo único
calculado, contenga la media poblacional. En el ejemplo 4.3.2 diremos que se
tiene un 95 % de confianza de que el nivel medio poblacional de dicha enzima se
encuentre entre 19.37 y 24.63.

Es importante tener en cuenta el error relativo, ya que nos indica el grado de


precisión de nuestras estimaciones. Como comprenderás, cuando se construye un
IC, se hace con una confiabilidad determinada de forma arbitraria por el
investigador, por lo tanto, si comparamos las estimaciones realizadas por dos
investigadores sobre un mismo parámetro, utilizando el mismo nivel de confianza,
no es lo mismo un error relativo del 10 % que del 15%, el primer caso ofrecerá
mayor crédito que el segundo a pesar de que en ambos casos coincidan los
184

respectivos % de confianza de que los intervalos calculados contengan al


parámetro poblacional.

Ya estamos en condiciones de construir intervalos de confianza para la media


poblacional.

4.3.2 Intervalo de Confianza para la diferencia entre las medias de dos


poblaciones.

También se pueden construir IC para la diferencia entre las medias de dos


poblaciones, para ello utilizamos el mismo procedimiento anterior pero adaptado a
la distribución muestral de dicha diferencia.

Ya vimos que el estimador ( X 1 − X 2 ), proporciona una estimación insesgada de


(µ1 - µ2), que es la diferencia entre las medias de las poblaciones. La varianza del
estimador es (σ12 / n1) + (σ22 / n2). También aprendimos que este estimador sigue
aproximadamente una distribución normal, de modo que en muchas ocasiones se
emplea la teoría adecuada a las distribuciones normales para calcular el IC para la
diferencia entre las medias de dos poblaciones.

Cuando se conoce la varianza de las dos poblaciones, el IC al 100(1 - α ) % para


(µ1 - µ2) está dado por:

σ 12 σ 22
( X1 − X2) ± Z 1-α/2 +
n1 n2

Esta fórmula se aplica si la variable se distribuye normal y aún cuando no es así


pero las muestras son grandes.

Si las muestras son pequeñas y (o) no se conocen las varianzas poblacionales


entonces hay dos maneras de construir los IC:

s12 s 22
( X1 − X 2) ± t 1-α/2 + caso en que se suponen varianzas diferentes.
n1 n2

s 2p s 2p
( X1 − X 2) ± t 1-α/2 + caso que se suponen varianzas iguales
n1 n2

En ambos casos se utiliza el percentil de la distribución t con (n1 + n2 - 2) grados de


libertad. En el caso en que se suponen varianzas iguales se calcula la varianza
muestral de manera conjunta para ambas muestras y se denota por sp2.
185

s 2p =
(n1 − 1)s12 + (n2 − 1)s 22
n1 + n 2 − 2

4.3.3 – Intervalos de confianza para una proporción.

De manera análoga al caso de la media, también se pueden construir intervalos de


confianza para una proporción poblacional π.

De forma general los IC se construyen mediante la siguiente fórmula:

Estimador ± error de muestreo

Sabemos que la proporción muestral p, es un estimador insesgado de la


proporción poblacional π. Vimos también que cuando el tamaño muestral es
grande, es decir, n.p y n(1-p) son mayores que 5, la distribución muestral de p es
aproximadamente normal. Por lo tanto, se puede calcular un IC al 100(1-α)% de
confiabilidad para π, empleando la siguiente fórmula:
p(1 − p )
p ± Z (1 - α / 2)
n
Este intervalo se interpreta de forma similar al caso de la media, tanto de forma
probabilística como práctica.

Ejemplo 4.3.4

En una determinada región se tomó una muestra aleatoria de 125 individuos, de


los cuales 12 padecían afecciones pulmonares.

Estimemos la proporción de afecciones pulmonares en dicha región. Primero


calculamos la proporción muestral p, pues sabemos que será nuestra estimación
puntual de π.

12
p=
= 0.096
125
Calculemos ahora un IC al 95% para la proporción poblacional de afecciones
pulmonares.

0.096(1 − 0.096)
p ± e = 0.096 ± 1.96 ∗ = 0.096 ± 0.0516
125

(0.0444 ; 0.1476)

Veamos cuánto es el error relativo de nuestra estimación.


186

0.0516
* 100 = 53.75 %
0.096

Como puede ver la amplitud del intervalo parece pequeña, sin embargo el error
relativo es mayor que el 50 % de la estimación.

En la figura 2.3.3 se representa este IC de forma gráfica.

Figura 24.3.2 IC al 95% para la proporción poblacional de afecciones pulmonares.

Observa la equivalencia entre la distribución normal estándar y la distribución


muestral de la proporción. Dentro de esos límites se encuentra el 95% de los
valores estimados de π bajo el supuesto de muestreo sucesivo.

4.3.4 - IC para la diferencia entre dos proporciones.

En ocasiones se tiene interés en conocer la diferencia entre las proporciones de


dos poblaciones (π1-π2). Para ello el estimador puntual viene dado por (p1 – p2).

Para calcular un IC al 100(1-α) % emplearemos la fórmula general antes vista:

Estimador ± error de muestreo

Entonces en este caso será:

p1 (1 − p1 ) p 2 (1 − p 2 )
(p1 – p2) ± Z 1−α / 2 +
n1 n2

La interpretación de este intervalo se realiza de forma similar a los ya vistos.

Por ejemplo, en un estudio sobre prevalencia de hábitos tóxicos se obtuvo que las
proporciones (P1 y P2) de fumadores de dos áreas de salud son: 0.23 y 0.15
respectivamente, para una diferencia de 0.08. A continuación construiremos un IC
187

al 95% para dicha diferencia, si sabemos que los tamaños de muestra (n1 y n2)
fueron de 350 y 475 sujetos, respectivamente.

0.23(1 − 0.23) 0.15(1 − 0.15)


(0.08) ± 1.96 +
350 475
0.08 ± 0.055 ⇒ (0.025 ; 0.135)

Entonces podemos concluir, con una confiabilidad del 95%, que la diferencia entre
las proporciones de fumadores de dichas áreas se encuentra en el intervalo
calculado.

4.4 Pruebas de hipótesis.

Al igual que en el caso de la estimación, el propósito de las pruebas de hipótesis


es ayudar al médico, investigador o administrador a tomar una decisión en torno a
una población, al examinar una muestra de ella.

Pueden presentarse en la práctica, situaciones en las que exista una teoría


preconcebida relativa a una característica de la población sometida a estudio. Tal
sería el caso, por ejemplo si pensamos que un tratamiento nuevo puede tener un
porcentaje de mejoría mayor que otro estándar, o cuando nos planteamos si los
niños de distintas comunidades tienen la misma talla. Este tipo de circunstancias
son las que nos llevan al estudio de la parte de la Estadística Inferencial que se
recoge bajo el título genérico de Contraste de Hipótesis.

El contraste de hipótesis no es tan distinto a la estimación, de hecho es posible


emplear los IC para llegar a las mismas conclusiones que se alcanzan con una
prueba de hipótesis, como veremos más adelante.

Una hipótesis, se define simplemente como una proposición acerca de una o más
poblaciones. En general las hipótesis se refieren a los parámetros de las
poblaciones para las cuales se hace la proposición. Por medio de las pruebas de
hipótesis se determina si tales proposiciones son compatibles o no con los datos
disponibles.

Los investigadores se interesan en dos tipos de hipótesis: de investigación y


estadísticas. Las primeras18 son aquellas suposiciones o conjeturas que motivan la
investigación, éstas conducen directamente a las segundas, las que se establecen
de forma tal que pueden ser evaluadas por medio de técnicas estadísticas
18
La mayor parte de las investigaciones que realizas, por el nivel de
conocimientos que generan, sólo incluyen hipótesis de trabajo.
188

adecuadas. Implica, en cualquier investigación, la existencia de dos teorías o


hipótesis estadísticas, que denominaremos hipótesis nula e hipótesis alternativa,
que de alguna manera reflejarán esa idea a priori que tenemos (hipótesis de
investigación) y que pretendemos contrastar con la ``realidad''.

De la misma manera aparecen, implícitamente, diferentes tipos de errores que


podemos cometer durante el procedimiento. No debe olvidarse que,
habitualmente, el estudio y las conclusiones que obtengamos para una población
cualquiera, se habrán apoyado exclusivamente en el análisis de sólo una parte de
ésta. De la probabilidad con la que estemos dispuestos a asumir estos errores,
dependerá, por ejemplo, el tamaño de la muestra requerida.

Desarrollamos en esta sección los contrastes de hipótesis para los parámetros


más usuales que venimos estudiando en las secciones anteriores: medias y
proporciones, para una o dos poblaciones. Pero antes, veremos un algoritmo
general para realizar pruebas de hipótesis que contiene 9 pasos19:

1. Datos20: Es necesario definir el tipo de datos que se analizará, pues de ello


depende el tipo de prueba a aplicar. Se debe precisar si son variables
cuantitativas o no, etc.

2. Suposiciones: De manera similar al proceso de estimación, se necesita evaluar


el cumplimiento de una serie de suposiciones o supuestos que son importantes
para decidir el tipo de prueba a realizar. Por ejemplo, respecto a la normalidad
de la distribución de la población, igualdad de varianzas, independencia de las
muestras, etc.

3. Hipótesis: Se trabaja con dos hipótesis estadísticas, como dijimos


anteriormente, que deben enunciarse de manera explícita. La primera es la
llamada hipótesis nula, es la que debe probarse y se designa como Ho.
Suele denominarse como hipótesis de no diferencia, ya que es una proposición
de no diferencia respecto a condiciones que se suponen ciertas en la
población. En general se establece con el propósito de ser rechazada. En
consecuencia, el complemento de la hipótesis del investigador se convierte en
el enunciado de la hipótesis nula.

La otra hipótesis planteada es la llamada hipótesis alternativa, H1, constituye


el complemento de la nula, se plantea en correspondencia con la hipótesis del
investigador. Esta hipótesis no es directamente sometida a prueba pero resulta
conveniente plantearla puesto que es la más verosímil cuando la prueba

19
Modificado de Daniel 1997
20
Se refiere al tipo de variables.
189

estadística nos conduce a rechazar Ho. Si Ho no se rechaza, se dirá que los


datos no proporcionan evidencia suficiente que cause el rechazo. De
rechazarse, se dice que los datos disponibles no son compatibles con Ho.

4. Estadígrafo de prueba: Es un estadístico que se puede calcular con los datos


de la muestra. Como regla, existen muchos valores posibles que puede asumir
el estadístico de prueba y el valor particular observado depende de la única
muestra estudiada. Dependiendo de la magnitud del estadígrafo se procederá
o no al rechazo de Ho, como veremos más adelante. Una fórmula general para
un estadígrafo de prueba, empleada en muchas pruebas de hipótesis (PH), es
como sigue:

estimador - parámetro supuesto


Estadígrafo de prueba =
error estándar del estimador

5. Distribución del estadígrafo de prueba: Hemos señalado, que la clave para la


estadística inferencial es la distribución muestral. Veremos en cada caso
particular qué distribución sigue el estadígrafo de prueba.

6. Regla de decisión: Todos los valores posibles que el estadígrafo de prueba


puede asumir, constituyen puntos sobre el eje horizontal del gráfico de la
distribución de dicho estadígrafo, y se dividen en dos grupos: los valores
“compatibles” con la Ho (región de aceptación) y los “no compatibles” con Ho
(región crítica o de rechazo). La regla de decisión señala que se debe rechazar
la Ho si el valor del estadígrafo de prueba, calculado a partir de los datos
obtenidos en la muestra, es uno de los valores de la zona de rechazo, y que no
se debe rechazar en caso contrario.

El intervalo de aceptación o más precisamente, de no rechazo de la hipótesis


nula, se establece fijando una cantidad α, suficientemente pequeña
denominada nivel de significación, de modo que la probabilidad de que el
estadístico del contraste tome un valor fuera del mismo (región crítica) cuando
la hipótesis nula es cierta sea igual a α . Esto se ha de entender como sigue:

Si H0 es correcta el criterio de rechazo sólo se equivoca con probabilidad α,


que es la probabilidad de que una muestra dé un valor del estadístico del
contraste extraño (fuera del intervalo de aceptación).

LA DECISIÓN DE RECHAZAR O NO LA HIPÓTESIS NULA ESTÁ AL FIN Y AL CABO BASADO


EN LA ELECCIÓN DE UNA MUESTRA TOMADA AL AZAR, Y POR TANTO ES POSIBLE
COMETER DECISIONES ERRÓNEAS. LOS ERRORES QUE SE PUEDEN COMETER SE
CLASIFICAN COMO SIGUE:
190

Error de tipo I: es el error que consiste en rechazar H0 cuando es cierta. La


probabilidad de cometer el error es lo que anteriormente hemos denominado
nivel de significación. Es una costumbre establecida denotarlo siempre con la
letra griega α. Suele tomarse un valor pequeño de α para hacer que la
probabilidad de rechazar la H0 sea pequeña. Los valores que frecuentemente
se utilizan son 0.01, 0.05 y 0.1.

Error de tipo II: es el error que consiste en no rechazar H0 cuando es falsa. La


probabilidad de cometer este error la denotamos con la letra β.

En general, aunque se tome un valor pequeño para α, no se tiene control


sobre β, a pesar de saber que en la mayoría de las situaciones prácticas es
mayor que α. No obstante, nunca se sabe si cometimos uno de estos errores,
cuando se rechaza o no la Ho, ya que se desconoce el verdadero estado de
las cosas a nivel poblacional.

Los errores de tipo I y II están relacionados del siguiente modo: Cuando α


decrece β crece. Por tanto no es posible lograr que se hagan tan pequeños como
queramos ambos errores simultáneamente. De este modo es siempre necesario
privilegiar a una de las hipótesis, de manera que no será rechazada, a menos que
su falsedad se haga muy evidente. En los contrastes, la hipótesis privilegiada es
H0, que sólo será rechazada cuando la evidencia de su falsedad supere el umbral
del 100(1 - α)%.

Al tomar α muy pequeño tendremos que β se puede aproximar a uno. Lo ideal a la


hora de definir un test es encontrar un compromiso satisfactorio entre α y β
(aunque siempre a favor de H0). La manera que tiene el investigador de reducir el
valor de β y mantener α constante es aumentar el tamaño de la muestra.

Denominamos potencia de un contraste a la cantidad 1-β.

A continuación se muestran las posibles acciones que como investigador usted


puede emprender para varias condiciones de una prueba de hipótesis y las
condiciones en que se produce cada tipo de error.
191

Condición de Acción posible


la hipótesis
nula No rechazar H0 Rechazar H0
Correcto Error tipo I
Verdadera
Probabilidad 1 - α Probabilidad α
Error tipo II Correcto
Falsa
Probabilidad β Probabilidad 1 - β

En el momento de elegir una hipótesis privilegiada podemos en principio dudar


entre si elegir una dada o bien su contraria. Criterios a tener en cuenta en estos
casos son los siguientes:

• Simplicidad científica: A la hora de elegir entre dos hipótesis


científicamente razonables, tomaremos como H0 aquella que sea
más simple.
• Las consecuencias de equivocarnos: Por ejemplo al juzgar el
efecto que puede causar cierto tratamiento médico que está en fase
de experimentación, en principio se ha de tomar como hipótesis nula
aquella cuyas consecuencias por no rechazarla siendo falsa son
menos graves.
7. Cálculo del estadígrafo de prueba: A partir de los datos contenidos en la
muestra, se calcula un valor del estadígrafo de prueba y se compara con las
regiones de aceptación y rechazo que ya fueron especificadas.

8. Decisión estadística: La decisión consiste en el rechazo o no de la hipótesis


nula, se rechaza Ho si el valor del estadígrafo cae en la zona de rechazo.

9. Conclusión: Las conclusiones de una prueba de hipótesis debemos


expresarlas en términos de rechazo o no rechazo de Ho, o en los términos
equivalentes de valor significativo21 y no significativo. Un resultado no
significativo sólo indica que es compatible con la Ho porque la discrepancia
observada puede ser explicada por el error aleatorio, esto no demuestra que la
Ho sea cierta, simplemente que los datos no aportan suficiente evidencia para
dudar de la validez de Ho. Por lo tanto ante este resultado debe mantenerse la
Ho hasta tanto se obtengan otras pruebas.

Por el contrario, un resultado estadísticamente significativo, indica que no es


compatible con la hipótesis nula, porque es muy poco probable que la
discrepancia observada haya sido producida por el error aleatorio del muestreo.
En este caso se rechaza Ho por poco verosímil. Notar que se habla de rechazo y
no rechazo, no siendo este último sinónimo de aceptación.
21
Un resultado significativo se refiere a diferencias no atribuibles al azar.
192

Lo importante es ser muy cuidadoso a la hora de dar conclusiones, el que se


rechace la Ho no implica necesariamente que la alternativa sea verdadera,
además tampoco se puede llegar a un juicio de causalidad por este motivo.

Además, la decisión estadística no debe interpretarse como definitiva, ella solo es


una parte de la evidencia que influye sobre la decisión administrativa o clínica,
como veremos más adelante.

A continuación estudiaremos pruebas de hipótesis específicas basadas en estos


comentarios generales.

4.4.1 Pruebas de hipótesis a partir de medias.

Existen dos condiciones básicas en que realizamos PH a partir de medias: para


una sola población y para dos poblaciones. Veremos cada caso por separado,
a la vez que nos detendremos en las particularidades de cada una. Pero antes,
debes conocer que las pruebas de hipótesis se pueden realizar de forma unilateral
y bilateral, en dependencia de la forma en que son enunciadas las hipótesis nula y
alternativa. Así, una PH bilateral es aquella en que sólo interesa conocer la
existencia de diferencias, sin definir el sentido de éstas, como ocurre en el caso
unilateral.

4.4.1.1 La media de una sola población.

Esta situación surge cuando al investigador le interesa probar que la media µ de


una determinada variable en una población es igual o diferente a un valor
determinado µ0. Estas pruebas pueden realizarse en tres condiciones diferentes
que veremos a continuación:

1. La población22 se distribuye normal con varianza conocida.

2. La población se distribuye normal con varianza desconocida.

3. La población no se distribuye normal.

Aunque la teoría para las condiciones 1 y 2 se basa en que la población sigue una
distribución normal, en la práctica es común aplicar este proceder aún cuando la
población sólo está distribuida aproximadamente normal. Esto es satisfactorio
siempre que la desviación de la normalidad sea moderada.

22
Suele decirse que la población se distribuye normal, pero en realidad nos
referimos a la distribución de la variable en la población. Así aparece en todos los
textos.
193

1- Población normal con varianza conocida.

Suponemos que X∼N (µ, σ2) donde σ2 es conocida y queremos contrastar si es


posible que µ (desconocida) sea en realidad cierto valor µ0 fijado. Esto es un
supuesto teórico que nunca se dará en la realidad pero servirá para introducir la
teoría sobre contrastes.

Prueba de dos colas con varianza conocida:

La prueba se escribe entonces como:

Ho: µ = µ0
H1: µ ≠ µ0

Estadígrafo de prueba:
x − µ0
Z=
σ
n

Si H0 es cierta, este estadígrafo tiene una distribución normal estándar. Le


llamaremos al valor de Z obtenido en la muestra Z observado y lo denotaremos
como Zo

Fijemos ahora el nivel de significación α, de manera que queden definidas las


zonas de aceptación y de rechazo (crítica) respectivamente. Así, tomaremos como
región crítica C, a los valores que son muy extremos y con probabilidad α en total,
o sea:

P(Zo ≤ Z α / 2) = α / 2
P(Zo ≥ Z 1-α / 2) = α / 2

Recuerda que Z α / 2 = - Z 1- α / 2

Lo anterior implica que:


P(-Z 1- α / 2 ≤ Zo ≤ Z 1- α / 2) = 1- α siendo esta la zona de
aceptación.

Entonces la región crítica C consiste en:

C = Zo, tal que |Zo| > Z 1- α / 2

Luego rechazaremos la hipótesis nula si:

|Zo| > Z 1- α / 2
194

Aceptando en consecuencia la hipótesis alternativa (figura 2.4.1).

Puedes observar en la figura 2.4.1, que la región de rechazo de la hipótesis nula


es la sombreada. Se rechaza H0 cuando el estadígrafo Zo toma un valor
comprendido en la zona sombreada de la gráfica pequeña, N(0, 1), o
equivalentemente, cuando el estadígrafo x toma un valor en la zona sombreada
de la gráfica grande, N (µ0, σ2).

Figura 2.4.1 representación gráfica de las zonas de aceptación y rechazo de la Ho

Test unilateral (de una cola) con varianza conocida

Consideremos un contraste de hipótesis donde ahora las hipótesis se enuncian:


Ho: µ = µ0 A veces se escribe Ho: µ ≥ µ0
H1: µ < µ0 H1: µ < µ0

El estadígrafo de prueba es el mismo del caso anterior, pues la Ho es igual.

Como región crítica consideraremos aquella formada por los valores


extremadamente bajos de Zo, con probabilidad α, es decir:

P(Zo ≤ Zα) = α implica P(Zo ≥ Zα) = 1 - α

Entonces la región de aceptación, o de modo más correcto, de no rechazo de la


hipótesis nula es (figura 2.4.2): Zo ≥ Zα; y por consiguiente, se rechaza Ho si: Zo
<Zα

Así pues, se rechaza la hipótesis nula, cuando uno de los estadísticos Z o x toma
un valor en la zona sombreada de sus gráficas respectivas.
195

Figura 2.4.2 Zonas de aceptación y rechazo para test unilateral.

Es evidente que si en el contraste de significación, hubiésemos tomado como


hipótesis alternativa su contraria, es decir:

Ho: µ = µ0 O también Ho: µ ≤ µ0


H1: µ > µ0 H1: µ > µ0

Por simetría con respecto al caso anterior, la región donde no se rechaza la


hipótesis nula es (véase la figura 2.4.3 y contrástese con la 2.4.2): Zo ≤ Z 1 - α, lo
que implica que se rechaza Ho si: Zo > Z1 - α

Figura 2.4.3 - Regiones de aceptación y rechazo para el test unilateral contrario al anterior.

2- La variable se distribuye normal con varianza desconocida.

Test de dos colas con varianza desconocida

Sea X∼N (µ, σ2) donde ni µ ni σ2 son conocidos y queremos realizar el


contraste

Ho: µ = µ0
H1: µ ≠ µ0
196

Al no conocer σ2 va a ser necesario estimarlo a partir de su estimador insesgado:


la varianza muestral,S2. Por ello la distribución del estimador del contraste será
una t de Student, con n-1 grados de libertad.

Si H0 es cierta implica:

x − µ0
To = ∼ t n - 1 gl
s
n

Consideramos como región crítica C, a las observaciones de To extremas:

P(To ≤ t n - 1, α / 2) = α / 2
P(To ≥ t n - 1, 1 - α / 2) = α / 2

Recuerde que la distribución t es simétrica respecto a la media y tiene media 0,


por lo que:

t n - 1, α / 2 = -t n - 1,1 - α / 2

Todo lo anterior implica que:

P(t n - 1, α/2 ≤ To ≤ t n - 1, 1 - α / 2) = 1 - α
o sea
C = (To < - t n - 1, α / 2 ó To > t n - 1, 1 - α / 2 )

De forma similar al caso anterior, para dar una forma homogénea a todos los
contrastes de hipótesis es costumbre denominar al valor del estadístico del
contraste calculado sobre la muestra como valor observado y a los extremos de la
región crítica, como valores teóricos, en este caso Tt. Definiendo entonces:

Tt = t n – 1 , 1 - α / 2

El resultado del contraste es el siguiente (figura 2.4.4):

Figura 2.4.4 - Región crítica para el contraste bilateral de una media con varianza
desconocida.
197

Entonces, si: |To| ≤ Tt ⇒ no rechazamos H0


|To| >Tt ⇒ rechazamos Ho

Test de una cola con varianza desconocida

Si realizamos el contraste

Ho: µ = µ0
H1: µ < µ0

El estadígrafo de prueba es el mismo que en el caso bilateral, pero el valor teórico


se modifica al igual que la zona crítica (figura 2.4.5).

Tt = t n - 1, α

De forma tal que: To ≥ Tt ⇒ no rechazamos Ho


To < Tt ⇒ rechazamos Ho y aceptamos H1

Figura 2.4.5 - Región crítica para uno de los contrastes unilaterales de una media con varianza
desconocida.

Para el contraste contrario: Ho: µ = µ0


H1: µ > µ0
Definimos To y Tt como anteriormente y el criterio a aplicar es (véase la figura
2.4.6): Tt = t n-1, 1- α

Figura 2.4.6 - Región crítica para el contraste unilateral de una media contrario al anterior.
Varianza desconocida.
198

De aquí que: Si To ≤ Tt ⇒ no rechazamos Ho


Si To > Tt ⇒ rechazamos Ho y aceptamos H1
Ejemplo 4.4.1

Conocemos que la talla (X) de los individuos de una ciudad, se distribuye


aproximadamente normal. Deseamos contrastar con un nivel de significación de
α=0.05 si la talla media es diferente de 174 cm. Para ello nos basamos en el
estudio de una muestra de 25 personas. Se obtuvo el siguiente resultado:

x = 170cm y s = 10cm
Solución:

El contraste que se plantea es:

Ho: µ = 174 cm
H1: µ ≠ 174 cm

Como puede verse, se trata de un test con varianza desconocida, planteado de


forma bilateral, entonces el estadígrafo de prueba será:

170 − 174 − 4
To = = = −2 ∼ t 24 gl
10 2
25

La regla de decisión estará dada por el valor teórico del estadígrafo:


Tt = t 24, 1 - α / 2 = t 24, 0.975 = 2.0623
Comparemos ahora el valor observado con el teórico:

|To| = 2 < Tt = 2.06 ⇒ No rechazamos Ho

Por lo tanto, aunque podamos pensar que ciertamente el verdadero valor de µ no


es 174, no hay una evidencia suficiente para rechazar esta hipótesis al nivel de
confianza del 95%. En la figura 2.4.7 vemos que el valor de To no está en la
región crítica (aunque ha quedado muy cerca), por tanto al no ser la evidencia en
contra de H0 suficientemente significativa, esta hipótesis no se rechaza.

23
Revisa la tabla B del Apéndice.
199

Figura 2.4.7 – Región de rechazo de la hipótesis nula: µ = 174, del ejemplo 2.4.1

Ejemplo 4.4.2

Consideramos el mismo ejemplo anterior. Visto que no hemos podido rechazar el


que la talla media de la población sea igual a 174 cm, deseamos realizar el
contraste sobre si la talla media es menor de 174 cm.

Solución:

Ahora el contraste es Ho: µ = 174 cm


H1: µ < 174 cm
De nuevo la técnica a utilizar consiste en suponer que H0 es cierta y ver si el valor
que toma el estadígrafo T es aceptable bajo esta hipótesis, con un nivel de
confianza del 95%. Se aceptará la hipótesis alternativa (y en consecuencia se
rechazará la hipótesis nula) si:

To < t 24, α = -t 24, 1 - α = t 24, 0.95 = -1.7124

Recordamos que el valor de To obtenido fue de:

24
Revisar la tabla B del Apéndice.
200

To = -2 < Tt = -1.71

Por ello hemos de rechazar la hipótesis nula y por tanto, aceptar la alternativa
(véase la figura 2.4.8).

Figura 2.4.8 – Región crítica para el estadígrafo t del ejemplo 2.4.2.

Podemos observar en el gráfico, que el valor To está en la región crítica, por tanto
existe una evidencia significativa en contra de H0, y a favor de H1.

Es importante observar este hecho curioso: Mientras que en el ejemplo anterior no


existía una evidencia significativa para decir que µ ≠174 cm, el ``simple hecho" de
plantearnos un contraste que parece el mismo pero en versión unilateral nos
conduce a rechazar de modo significativo que µ =174 cm y aceptamos que µ <
174 cm. Esto no es raro que suceda, de hecho se plantea que al usar pruebas
unilaterales las diferencias encontradas suelen ser mucho más significativas que si
se aplica el test bilateral. Por ello, es aceptable la actitud conservadora de muchos
investigadores que sistemáticamente emplean contrastes bilaterales.

3- Población que no presenta una distribución normal.

Si, como ocurre con frecuencia, la muestra en la cual se basa la prueba de


hipótesis acerca de la media de una población proviene de una distribución
desconocida o diferente de la normal, si la muestra es grande, mayor o igual que
30, es posible aplicar el teorema del límite central y usar el mismo estadígrafo Z
visto con anterioridad, incluso en el caso en que no conocemos la varianza se
puede sustituir ésta por la varianza muestral.
x − µ0
Z= ~ N (µ0 , s )
s n
n
El resto del contraste se realiza de forma similar a lo visto anteriormente.

Observaciones

Es necesario que aclaremos algunos aspectos antes de concluir, los cuales serán
válidos para el resto de la sección.

1. Test Bilateral Vs Unilateral: Una prueba se denomina bilateral o de dos


colas, cuando la hipótesis alternativa está planteada sin especificar el sentido
de la diferencia. Mientras que en el caso unilateral o de una cola se
especifica el sentido o la dirección de la diferencia esperada. En el primer caso
la zona de rechazo está dividida en dos partes, a ambos extremos de la
distribución siendo las probabilidades a cada lado igual a α/2, para que entre sí
201

sumen un total de α. Mientras que en el caso unilateral la zona crítica se


encuentra hacia un extremo o el otro de dicha distribución, cuya área es igual a
α. La decisión de cuál test emplear depende del objetivo de la investigación.

2. Valor de p (probabilidad) asociado al estadígrafo: Para llegar a una


conclusión sobre el resultado de la prueba podemos utilizar, además del valor
directo del estadígrafo de prueba, la llamada p asociada al estadígrafo, que
seguro has oído hablar de ella. El valor p para la prueba, es la probabilidad de
obtener, cuando Ho es cierta, un valor del estadígrafo mayor o igual (según la
dirección de la diferencia) que el observado a partir de la muestra. Suele
usarse con mayor frecuencia que el valor del estadígrafo, incluso se exige en la
publicación de artículos científicos de algunos editores. Por supuesto que las
conclusiones son equivalentes. En este caso se compara el valor de p con el
valor de α prefijado y si:

p < α ⇒ se rechazará Ho

Este valor lo puede obtener de las tablas de las distribuciones teóricas del
estadígrafo, pero los programas estadísticos de computación suelen darlo con
exactitud.

3. Pruebas de hipótesis por medio de intervalos de confianza: Se pueden


realizar pruebas de hipótesis empleando para ello los intervalos de confianza
vistos en secciones anteriores, cuyos resultados son equivalentes al test de
hipótesis tradicional. Consisten básicamente, en calcular un IC para el
parámetro que se desea contrastar, empleando el mismo nivel de significación
que en el test, entonces la regla de decisión será basada en si el Intervalo
contiene o no al valor del parámetro hipotetizado, de ser así no se puede
rechazar la Ho, en caso de no contenerlo se rechazará la Ho y se aceptará la
hipótesis alternativa, siendo la probabilidad de cometer el error tipo I igual a α.
Recuerde que el parámetro a contrastar puede ser un valor único o la
diferencia entre dos valores. En general, cuando se prueba una hipótesis nula
por medio de un intervalo de confianza bilateral, se rechaza Ho en el nivel α de
significación, si el parámetro supuesto no está contenido dentro del intervalo de
confianza del 100(1-α)%.

4. Elección del test25: Como estudiamos, se pueden probar las mismas hipótesis
empleando diferentes estadígrafos: prueba Z y prueba t, la escogencia de uno

25
El término test es un anglicismo comúnmente empleado en la literatura
consultada, por lo que decidimos utilizarlo en este contexto.
202

de ellos dependerá del cumplimiento de las suposiciones26 necesarias para


cada caso. No lo olvide.

Hemos tratado de ser explícitos y a la vez de no complicar mucho las cosas para
facilitar la comprensión del contenido, aún así se puede notar que no es un tema
sencillo. Lo explicado hasta el momento se puede aplicar a otras pruebas de
hipótesis que veremos a continuación.

Pruebas para las medias de dos poblaciones

La prueba de hipótesis que comprende la diferencia entre las medias de dos


poblaciones, se utiliza con mayor frecuencia para determinar si es razonable o no
concluir que las dos son distintas entre sí. Al igual que en el caso de una sola
población se distinguen diferentes situaciones:

1. Muestras pareadas
2. Muestras independientes

Ambas situaciones serán abordadas por separado y teniendo en cuenta otras


particularidades.

1- Muestras pareadas.
Se dice que dos muestras están pareadas si la probabilidad de que la variable en
estudio tome un valor en el iésimo sujeto de la muestra 2, depende del valor del
iésimo sujeto de la muestra 1. Te aclaro, el objetivo de seleccionar muestras
pareadas es eliminar al máximo las fuentes de variación por medio de la formación
de parejas similares con respecto a tantas variables como sea posible, pero nunca
respecto a la variable de estudio. Así se pueden formar muestras pareadas de
diferentes formas, por ejemplo, todos los estudios donde se compara
observaciones de una variable en dos o más momentos diferentes sobre los
mismos individuos, cada medición constituye una muestra y el interés está en la
diferencia antes – después. También, en los estudios de casos y testigos suelen
formarse parejas del mismo sexo o grupos de edades, etc.
En estos casos, en lugar de llevarse a cabo el análisis con las observaciones
individuales, se puede utilizar como variable de interés la diferencia entre los pares
individuales de observaciones. Las hipótesis se enuncian generalmente de la
siguiente forma:
Ho: µ1= µ2 ⇒ µ1 - µ2 = 0
H1: µ1 ≠ µ2

26
El cumplimiento de los supuestos puede verificarse mediante la realización de
pruebas estadísticas, o sencillamente darlos por sentado.
203

Entonces, para cada pareja se registra la diferencia d, de esta forma es posible


calcular la diferencia media d , como la media aritmética de las diferencias
observadas y la desviación estándar de dichas observaciones sd. Así, el promedio
poblacional de las diferencias se denota por µd y es igual a la diferencia entre (µ1 -
µ2), que en este caso es cero.

Estadígrafo de prueba:

d − µd
t=
sd
n

Si Ho es cierta el estadígrafo se distribuye t de Student con n-1 grados de


libertad.

La regla de decisión: se rechaza Ho si: |To| > Tt n-1, 1 - α / 2

Este es el caso bilateral que es el recomendado.


Ejemplo 4.4.327
A continuación se muestran los valores correspondientes al puntaje de ansiedad
para 10 pacientes recibiendo un medicamento (M) y un placebo (P) en orden
aleatorio.

Puntaje de
Diferencia
Pte. ansiedad
M P d=M-P
1 19 22 -3
2 11 18 -7
3 14 17 -3
4 17 19 -2
5 23 22 1
6 11 12 -1
7 15 14 1
8 19 11 8
9 11 19 -8
10 8 7 1

27
Este es un ejemplo didáctico, en la práctica puede ser abordado por una prueba
no paramétrica
204

Calculemos la diferencia promedio y su desviación estándar:

d=
∑ di =
− 13
= −1.3 S2 =
∑ (d i − d ) 2 =
186.1
= 20.68
n 10 n −1 9

Calculemos el estadígrafo de prueba

d − µ 0 − 1. 3 − 0 − 1. 3
To = = = = −0.9
s 4.55 1.439
n 10

Busquemos en la tabla B del Apéndice el valor teórico de T:

Tt = t n - 1, 1- α/2 = t 9, 0.975 = 2.821

Como puedes ver |To| = 0.9 < Tt = 2.821

Por lo tanto no se puede rechazar Ho, podemos concluir que no existen evidencias
que hagan pensar que el medicamento sea efectivo para disminuir la ansiedad a
pesar de que las diferencias parecen favorecer al medicamento.

Observaciones:

Este caso es bastante frecuente en la práctica. Cuando el tamaño muestral es


grande, n>30, la distribución t puede aproximarse a la normal, no importa la
distribución de la variable en la población ni tampoco es necesario conocer la
varianza poblacional. De esta forma, siempre que el tamaño muestral lo permita,
se puede sustituir en la regla de decisión el percentil de la distribución t por el
correspondiente de la normal estándar. A continuación te muestro una guía para la
regla de decisión en caso bilateral y unilateral.
Tabla 2.4.1- regla de decisión PH para dos medias.

Hipótesis alternativa Regla de decisión


Rechazar Ho si:
µd > 0 |To| > Z ( 1- α )
(µ1 > µ2)
µd < 0 |To| < Z ( 1- α )
(µ1 < µ2)
µd ≠ 0 To| > Z ( 1 - α / 2 )
205

2- Muestras independientes

Suposiciones generales: las muestras son aleatorias e independientes, la variable


es continua y se distribuye normal, además las observaciones son independientes.

Hipótesis: Ho: µ1= µ2 ⇒ µ1 - µ2 = 0


H1: µ1 ≠ µ2
La hipótesis alternativa puede enunciarse también en forma unilateral:

H1: µ1 > µ2 ⇒ µ1 - µ2 > 0 ó H1: µ1 < µ2 ⇒ µ1 - µ2 < 0

Si las varianzas poblacionales son conocidas el estadígrafo de prueba es:

x1 − x 2
Z= se distribuye normal estándar
σ 12 σ 22
+
n1 n2

En el numerador no se incluye µd porque bajo Ho µd = 0.

En el caso de varianzas desconocidas hay dos posibilidades:

a) Varianzas desconocidas pero se supone que son iguales


b) Varianzas desconocidas pero se supone que son diferentes.

El estadígrafo de prueba en cada caso es:

x1 − x 2 ( n1 − 1)s12 + ( n2 − 1)s 22
a) T= donde s2 =
⎛ 1 1 ⎞ ( n1 − 1) + ( n2 − 1)
s 2 ⎜⎜ + ⎟⎟
⎝ n1 n2 ⎠

Este estadígrafo se distribuye t de Student con (n1 + n2 –2) grados de libertad

x1 − x 2
b) d=
s12 2
+ s2
n1 n2

Se distribuye t de Student con υ (nu) grados de libertad, pero si el tamaño de las


muestras es grande se distribuye normal estándar; Que suerte! porque la fórmula
para calcular los grados de libertad se las trae.
206

En cada caso la regla de decisión puede enunciarse a partir de la tabla 2.4.1, solo
tiene que adecuarlo a la distribución específica de cada estadígrafo.

4.4.2 Pruebas de hipótesis a partir de proporciones.

Las pruebas de hipótesis a partir de proporciones se realizan casi en la misma


forma utilizada cuando nos referimos a las medias, cuando se cumplen las
suposiciones necesarias para cada caso. Pueden utilizarse pruebas unilaterales o
bilaterales dependiendo de la situación particular.

La proporción de una población

Las hipótesis se enuncian de manera similar al caso de la media.


Ho: π = π0
H1: π ≠ π0
En caso de que la muestra sea grande n>30, el estadígrafo de prueba es:
p − π0
Z= se distribuye normal estándar.
p(1 − p )
n
Regla de decisión: se determina de acuerdo a la hipótesis alternativa (si es
bilateral o unilateral), lo cual puede hacerse facilmente auxiliándose de la tabla
2.4.1.

En el caso de muestras pequeñas se utiliza la distribución Binomial. No lo


abordaremos por ser complicado y poco frecuente su uso.

Diferencia entre las proporciones de dos poblaciones

La situación más frecuente es suponer que existen diferencias entre las


proporciones de dos poblaciones, para ello suelen enunciarse las hipótesis de
forma similar al caso de las medias:

Ho: π1 = π2 ⇒ π1 - π2 = 0
H1: π1 ≠ π2

Puede la hipótesis alternativa enunciarse unilateralmente.

El estadígrafo de prueba para el caso de muestras independientes:

p1 − p 2 a1 + a 2
Z= donde p =
⎛ 1 1 ⎞ n1 + n2
pq⎜⎜ + ⎟⎟
⎝ n1 n2 ⎠
207

Siendo a1 y a2, el número de sujetos con la característica objeto de estudio en las


muestras 1 y 2 respectivamente, es decir, en vez de calcular la varianza para
cada muestra, se calcula una p conjunta para ambas muestras bajo el supuesto
que no hay diferencias entre ambas proporciones y así se obtiene la varianza
conjunta. Recuerda que q = 1-p.

Está de más que decir que este estadígrafo se distribuye normal estándar.

La regla de decisión se determina de manera similar a los casos ya vistos


anteriormente.

Si las muestras son pareadas nuestro interés no estará en las observaciones


individuales sino en la pareja, es decir, tendremos n parejas de sujetos, para cada
uno de los sujetos registramos la presencia o ausencia de cierta característica A
que se desea estudiar, por ejemplo enfermo o no, así tendremos cuatro
posibilidades:

Muestra
Número de pares
1 2
A A A
A No A B
No A A C
No A No A d

Esta misma información podemos resumirla en una tabla de contingencia de dos


filas y dos columnas, llamada tabla de 2x2 y muy empleada en investigación
epidemiológica.

Tabla 2x2 para muestras pareadas

Muestra 2
Muestra 1 Total
A No A
A a b a+b
No A c d c+d
Total a+c b+d N

De esta forma podemos calcular las proporciones de sujetos con la característica


en cada muestra:

a+b a+c
p1 = p2 =
n n
208

El objetivo de la prueba es comparar estas dos proporciones, como estimadores


insesgados de las respectivas proporciones poblacionales π1 y π2. En este caso,
la diferencia entre estas dos proporciones depende de aquellos pares
discrepantes, es decir, los pares donde solo uno de los miembros de la pareja
presenta la característica.

a+b a+c b−c


p1 − p 2 = − =
n n n
Las hipótesis se enuncian de forma similar al caso de muestras independientes.

Ho: π1 = π2 ⇒ π1 - π2 =0
H1: π1 ≠ π2

Recuerde que la H1 también puede plantearse de forma unilateral.

Si la Ho es cierta entonces b - c =0 y el estadígrafo de prueba es:

b − 1 / 2(b + c )
Z=
1/ 2 b + c

Este estadígrafo se distribuye normal estándar si el tamaño de muestra es grande,


en caso de muestras pequeñas se emplea la prueba no paramétrica28 de Mc
Nemar, cuyo estadígrafo de prueba es:

(| b − c | −1) 2
χ2= se distribuye χ2 con 1 grado de libertad.
b+c

La regla de decisión depende del planteamiento de la H1, sea bilateral o unilateral.


La puede construir basándose en lo que ha aprendido.

Observaciones:

1. Aunque parezca absurdo, debe aclararse que las pruebas de hipótesis se


realizan sobre los parámetros poblacionales desconocidos, es decir, sólo tiene
sentido realizarlas cuando se estudia una muestra de la población objeto y
deseamos hacer inferencias hacia el total poblacional. Si se estudia el total de
28
Una prueba de hipótesis no paramétrica, es aquella en que no es necesario el
cumplimiento de las suposiciones propias de las pruebas paramétricas que hemos
visto hasta el momento (distribución normal de la población, muestras aleatorias,
independencia de las observaciones, etc.), por lo tanto para cada prueba que
hemos visto existe su análoga no paramétrica que podrás estudiar en el próximo
curso.
209

los elementos de la población objeto (definida de acuerdo a los objetivos de su


investigación), no tiene sentido realizar PH ni otro tipo de inferencia.

2. Antes de realizar una prueba de hipótesis, debe revisar cuidadosamente las


características de los datos (naturaleza de las variables), la forma de selección
de la muestra y su tamaño, en fin, valorar el cumplimiento de los supuestos
necesarios para aplicar la prueba adecuada a cada caso. Fijando el nivel de
significación antes de realizar la prueba y no después de obtener el resultado,
al igual que debe valorar seriamente si debe enunciar el problema de forma
bilateral o unilateral antes de realizar la prueba. Violar el cumplimiento de los
supuestos implica que la prueba pierda potencia, pudiendo no encontrarse
diferencias cuando realmente las hay o lo contrario.

3. Existen software que realizan estas y otras muchas pruebas de hipótesis, al


alcance de cualquier persona, esto trae consigo el uso y “abuso” indiscriminado
de las mismas sin un conocimiento sólido del basamento estadístico de cada
prueba. Le recomiendo no se sume a la lista de irresponsables que andan por
ahí haciendo de las suyas con los números, si no está seguro de cual es la
prueba adecuada recurra a los servicios de un bioestadístico.

4. En el caso que se contrasta la diferencia entre dos parámetros, sean medias o


proporciones, debe tenerse en cuenta que el signo del estadígrafo da la
dirección de la diferencia. Si el valor del estadígrafo observado es menor que
cero (negativo), quiere decir que el parámetro 1 es menor que el 2 (parámetro1
– parámetro2), esto se tendrá en cuenta al dar las conclusiones.

5. Por último, ningún test estadístico supera el sentido común y la responsabilidad


profesional, por lo tanto las conclusiones deben basarse no sólo en un
resultado estadísticamente significativo logrado a toda costa de artificios
matemáticos, sino que depende de todo un conjunto de análisis clínico,
epidemiológico, económico, entre otros aspectos que deben ser
adecuadamente balanceados teniendo en cuenta la razón perjuicio-beneficio.

Bibliografía:
1. Bayarre Vea H, Oliva Pérez M. Métodos y Técnicas aplicados a la
Investigación en Atención Primaria de Salud. Parte II. La Habana: Finlay;
2001.
2. Bayarre Vea H, Oliva Pérez M, Horsford Saing R, Ranero Aparicio V, Coutin
Marie G, Díaz Llanes G et al. Libro de Texto de Metodología de la
Investigación. Maestrías para profesionales de la Atención Primaria de Salud.
La Habana, 2004.
210

Apéndice
Tabla A – Áreas de la distribución normal estándar.

Z Área Z Área
0.0 0.5000 2.0 0.02275
0.1 0.4602 2.1 0.01786
0.2 0.4207 2.2 0.01390
0.3 0.3821 2.3 0.01072
0.4 0.3446 2.4 0.00820
0.5 0.3085 2.5 0.00621
0.6 0.2743 2.6 0.00466
0.7 0.2420 2.7 0.00347
0.8 0.2119 2.8 0.00256
0.9 0.1841 2.9 0.00187
1.0 0.1587 3.0 0.00135
1.1 0.1657 3.1 0.00097
1.2 0.1151 3.2 0.00069
1.3 0.0968 3.3 0.00048
1.4 0.0808 3.4 0.00034
1.5 0.0668 3.5 0.00023
1.6 0.0548 3.6 0.00016
1.7 0.0446 3.7 0.00011
1.8 0.0359 3.8 0.00007
1.9 0.0287 3.9 0.00005
2.0 0.02275 4.0 0.00003
211

Tabla B - Percentiles de la distribución t de student.


g.l t 0.90 t 0.95 t 0.975 t 0.99 t 0.995
1 3.078 6.3138 12.706 31.821 63.657
2 1.886 2.9200 4.3027 6.965 9.9248
3 1.638 2.3534 3.1825 4.541 5.8409
4 1.533 2.1318 2.7764 3.747 4.6041
5 1.476 2.0150 2.5706 3.365 4.0321
6 1.440 1.9432 2.4469 3.143 3.7074
7 1.415 1.8946 2.3646 2.998 3.4995
8 1.397 1.8595 2.3060 2.896 3.3554
9 1.383 1.8331 2.2622 2.821 3.2498
10 1.372 1.8125 2.2281 2.764 3.1693
11 1.363 1.7959 2.2010 2.718 3.1058
12 1.356 1.7823 2.1788 2.681 3.0545
13 1.350 1.7709 2.1604 2.650 3.0123
14 1.345 1.7613 2.1448 2.624 2.9768
15 1.341 1.7530 2.1315 2.602 2.9467
16 1.337 1.7459 2.1199 2.583 2.9208
17 1.333 1.7396 2.1098 2.567 2.8982
18 1.330 1.7341 2.1009 2.552 2.8784
19 1.328 1.7291 2.0930 2.539 2.8609
20 1.325 1.7247 2.0860 2.528 2.8453
21 1.323 1.7207 2.0796 2.518 2.8314
22 1.321 1.7171 2.0739 2.508 2.8188
23 1.319 1.7139 2.0687 2.500 2.8073
24 1.318 1.7109 2.0639 2.492 2.7969
25 1.316 1.7081 2.0595 2.485 2.7874
26 1.315 1.7056 2.0555 2.479 2.7787
27 1.314 1.7033 2.0518 2.473 2.7707
28 1.313 1.7011 2.0484 2.467 2.7633
29 1.311 1.6991 2.0452 2.462 2.7564
30 1.310 1.6973 2.0423 2.457 2.7500
35 1.3062 1.6896 2.0301 2.438 2.7239
40 1.3031 1.6839 2.0211 2.423 2.7045
45 1.3007 1.6794 2.0141 2.412 2.6896
50 1.2987 1.6759 2.0086 2.403 2.6778
60 1.2959 1.6707 2.0003 2.390 2.6603
70 1.2938 1.6669 1.9945 2.381 2.6480
80 1.2922 1.6641 1.9901 2.374 2.6388
90 1.2910 1.6620 1.9867 2.368 2.6316
100 1.2901 1.6602 1.9840 2.364 2.6260
120 1.2887 1.6577 1.9799 2.358 2.6175
140 1.2876 1.6558 1.9771 2.353 2.6114
160 1.2869 1.6545 1.9749 2.350 2.6070
180 1.2863 1.6534 1.9733 2.347 2.6035
200 1.2858 1.6525 1.9719 2.345 2.6006
∞ 1.282 1.645 1.96 2.326 2.576
212

Bayarre Vea H, Ranero Aparicio V M. Métodos y Técnicas aplicados a la


Investigación en Atención Primaria de Salud. Parte III. Material Docente.
ENSAP; 2002

4.5 Introducción al Análisis de Varianza


Introducción

En ocasiones, la alteración de ciertos factores de un experimento, provocan una


alteración de importancia en las mediciones de una variable aleatoria en estudio.
En otras palabras, una variable aleatoria puede mostrar un comportamiento
diferente para distintos niveles de uno o varios factores. Digamos por ejemplo que
el interés de un estudio está en determinar la efectividad de cuatro tipos de dieta
en la reducción del peso corporal. Este último, es una variable aleatoria cuyo
comportamiento puede diferir entre las cuatro dietas (niveles del factor).

¿Cómo comprobar si esto realmente ocurre? Sería lógico establecer cuatro


grupos de sujetos, y someter cada uno a una dieta diferente para luego
compararlos respecto a la media de reducción del peso corporal.

Sin embargo, el uso de técnicas como la t de Student abordadas anteriormente,


para comparar las medias, resultaría inapropiado, ya que ella solo nos sirve para
comparar dos grupos, entonces tendríamos que comparar los grupos de dos en
dos, y realizar un total de seis comparaciones. Esto resultaría más trabajoso,
además que perderíamos información en cada comparación. Pero lo más
importante, al utilizar un nivel de significación determinado para cada prueba,
siendo estas independientes una de otra, incrementamos la probabilidad de
cometer error tipo I para la Hipótesis de igualdad de todas las medias.

Por ejemplo, para realizar las seis comparaciones con la prueba t por separado, si
usamos un nivel de significación α = 0.05 para cada una de ellas, la probabilidad
de no rechazar la hipótesis nula sería 0.95 en cada caso. Al ser las pruebas
independientes entre sí, la probabilidad de no rechazar la hipótesis de no
diferencia en los seis casos, por Regla de Multiplicación para las Probabilidades,
se hallaría: (0.95) 6 = 0.7351. La probabilidad de rechazar al menos una hipótesis
de no diferencia sería entonces, 1 – 0.7351= 0.2649 lo que quiere decir que
cometeríamos error de tipo I en el 26% de los casos que procediéramos de este
modo.
213

Ante situaciones como esta, es necesario utilizar una técnica desarrollada en el


pasado siglo por Fisher, denominada Análisis de Varianza. Este técnica
representa una generalización de la t de Student para el caso de k medias y tiene
una amplia aplicación en el análisis de datos derivados del experimento, A lo largo
de este capítulo abordaremos su forma más simple.

Generalidades

El Análisis de Varianza (ANOVA) se define como:

ANOVA: Técnica en la que la variación total de un conjunto de datos se divide en


varios componentes y cada uno de ellos se asocia a una fuente específica de
variación, de manera que durante el análisis es posible encontrar la magnitud con
la que contribuye cada una de esas fuentes a la variación total.

¿Cómo se entiende esta definición? Retomando nuestro ejemplo, la variación del


peso en los sujetos bajo estudio puede deberse a dos razones: en primer lugar, a
la variación entre los grupos de dietas debido al efecto de estas, y en segundo, a
la variación residual atribuible al azar dentro de cada grupo.

Sí las medias varían mucho entre grupos, es decir, más de lo que los sujetos
pueden diferir al interior de los grupos, será más factible que exista diferencia real
entre ellos.

De esta forma, el Análisis de Varianza se basa en comparar directamente la


cantidad en que varían las medias de los grupos y la cantidad en que varía cada
grupo alrededor de su propia media.
Este tipo de Análisis de Varianza al que indirectamente hemos aludido, es la forma
más simple de ANOVA denominado Análisis Unilateral de Varianzas, ANOVA de 1
vía ó también ANOVA Unidireccional, como suele verse en algunos textos.

El término unilateral se refiere a que solo se investiga un factor. Este último consta
a su vez de k niveles, comúnmente llamados tratamientos. La respuesta
observada, valor de la variable aleatoria, (en el ejemplo es el valor del peso
corporal) corresponde a una población y estas poblaciones son los niveles ó
tratamientos que deseamos comparar.

En la práctica este tipo de análisis se utiliza para probar la hipótesis nula que
indica que tres ó más tratamientos son igualmente efectivos. Entonces el
experimento requiere que se asignen los individuos a los tratamientos de un modo
totalmente aleatorio. Por esta razón se le llama este diseño completamente
aleatorizado. Útil cuando las unidades que reciben tratamiento son homogéneas,
de manera que la única diferencia que se presente se deba al efecto de
tratamientos diferentes.
214

Suposiciones básicas para realizar un Análisis de Varianza.

El diseño completamente aleatorizado al que nos referimos anteriormente es un


requerimiento para el ANOVA unilateral, pero como toda prueba paramétrica,
requiere también del cumplimiento de otros supuestos.

1. La variable objeto de estudio, observada en k poblaciones es cuantitativa


continua.
2. La población de observaciones están distribuidas normalmente y las muestras
son aleatorias e independientes, de tamaño n1, n2,.....nk arbitrarios.
3. En cada muestra las observaciones son aleatorias e independientes.
4. Homocelasticidad, es decir, las Varianzas poblacionales son desconocidas
pero iguales.

Desde luego, antes de comenzar los cálculos del ANOVA debe comprobar el
cumplimiento de los supuestos. Más adelante haremos referencia dicha
comprobación.
En la práctica es difícil encontrar todas las suposiciones satisfechas, siendo a
veces necesario hacer transformaciones a los datos, lo que debe tener en cuenta
sobretodo al informar los resultados. De todas formas, existe un procedimiento no
paramétrico alternativa del ANOVA que se puede utilizar cuando se no se cumplen
los supuestos paramétricos.

Modelo de ANOVA de 1 vía (Diseño Completamente Aleatorizado)

Debido a su simplicidad, este modelo es utilizado ampliamente. Sin embargo, es


importante ser cauteloso, de forma tal que su uso se limite a casos en los cuales
se dispone de unidades experimentales homogéneas. Si no pueden utilizarse
tales unidades, deben buscarse otras vías para incrementar la eficiencia del
diseño.

Sí en un diseño completamente aleatorizado, nj unidades experimentales se


sujetan al j-ésimo tratamiento (j=1,2,..., k) y únicamente se obtiene una
observación por unidad experimental, los datos se representarán como se muestra
en la siguiente tabla:
215

Grupos ó tratamientos
1 2 3 .......... K
x11 x12 x13 .......... x1k
x21 x22 x23 .......... x2k
x31 x32 x33 .......... x3k
Observaciones . . . .......... .
. . . .......... .
. . . ........... .
xn1 xn2 xn3 .......... xn4
Total T.1 T.2 T.3 .......... T.k T..
_ _ _ _ _
Media x .1 x.2 x .3 .......... x.k x ..

Siendo:

xij : valor de la observación i en el grupo j


i=1,2,3,...nj j=1,2,3,....k
nj : cantidad de observaciones en el grupo j

nj
T. j = ∑ x i j →Suma de las observaciones en el grupo j ó total por
i =1
columna j ó total de observaciones bajo el j-ésimo tratamiento

_ T. j
x. j = → Media del grupo ó tratamiento j ó media por columna j.
nj

k k nj
T. . = ∑ T. j = ∑ ∑ x i j → Gran Total
j =1 j =1i =1

k
N = ∑nj →Número total de observaciones
j =1

_ T. .
x .. = →Promedio total o gran media
N
216

Como puede apreciar en esta tabla, la variable aleatoria en estudio se observa y


se mide en k grupos ó tratamientos, así la comparación se establece entre estos
grupos.

La idea central es que la variación total de todos los valores alrededor de su


_
promedio total ó gran media x . . se divide en dos componentes: la variación de las
medias del grupo y la variación de los valores alrededor de las medias de sus
grupos.

Un ejemplo sencillo, nos permite entender esta idea:

Observemos la variable edad en dos muestras, una de 10 mujeres y otra de 10


hombres. La media de edad para las mujeres es de 25 años y para los hombres
de 29 años. El promedio total para los 20 sujetos es de 27 años. Sin embargo en
la muestra de mujeres tenemos una persona con 35 años (A). Colocando las
edades en un esquema vemos lo siguiente:

La edad de A se desvía del promedio total en 8 años, a su vez esto se puede


descomponer en dos partes, la desviación de A de la media de su grupo (10 años)
y en la desviación de la media del grupo a que pertenece (media de la muestra de
mujeres) de la gran media ó promedio general (-2) o sea 8=10+(-2).

En el ANOVA consideramos cada valor muestral como descompuesto de esa


misma forma.

Para cada valor individual:

Desviación del valor xij = desviación de la + desviación de xij de la


de la gran media media del grupo a media de su grupo
que pertenece xij de
la gran media
217

Para una muestra completa se traduce de la siguiente forma:

Variación total = variación entre grupos + error

Esta variación entre grupos que representa la cantidad por la cual la media del
grupo difiere de la gran media se conoce como efecto de tratamiento.

En cuanto al error, no significa equivocación, sino la cantidad de la variación total


no explicada por la variación entre grupos, o sea la variación de los miembros de
un grupo respecto a la media de su propio grupo como resultado de variables
desconocidas.

Estas relaciones pueden escribirse simbólicamente de esta forma:


(xij - µ) = (µj - µ) + (xij - µj) (1.1)
siendo:
µj : media del grupo j xij : cualquier valor del conjunto de datos
µ : gran media

Como:
µj - µ = Tj ó efecto del tratamiento j y
xij - µj = eij ó error

Sustituyendo en la expresión 1,1:

(xij - µ) = Tj + eij

Despejando xij obtenemos el modelo de ANOVA de una vía:

xij = µ + Tj + eij i=1,2,3,....nj ; j=1.2.3.....k (1.2)

Este modelo a su vez se divide en dos tipos:


1. Modelo de efecto fijo
2. Modelo de efecto aleatorio

Hablamos de un modelo de efecto fijo cuando se observan todos los niveles del
factor sobre los que se desea inferir. Mientras que un modelo de efectos
aleatorios es aquel en el que existe una población de niveles del factor y solo se
observan resultados en algunos niveles seleccionados aleatoriamente,
pretendiéndose extender las conclusiones a todos los niveles.

A continuación profundizaremos un poco más en estos últimos.


218

Modelo de efecto fijo.


Cuando se estudia la influencia de un solo factor y se toman las observaciones de
los k niveles ó tratamientos de ese factor, cualquier inferencia se aplica solo a
dichos niveles ó tratamientos. Se obtiene entonces un modelo de efectos fijos ó
modelo I.

Este modelo está representado en la siguiente expresión:

xij = µ + Tj +eij i=1,2,3,....nj j = 1,2,3,....k

Donde:

1. Deben cumplirse las suposiciones para el ANOVA mencionado anteriormente


2. Las Tj son constantes desconocidas y ∑Tj = 0 dado que la suma de todas las
desviaciones de µj a partir de sus medias es cero.
3. Como eij =xij - µj , entonces las eij tienen media igual a cero dado que la media
de xij = µj.
4. La varianza de eij = varianza de xij dado que eij y xij difieren solo por una
constante, esto es, la varianza del error es igual a σ2, que es la varianza común
especificada en las suposiciones básicas.
5. Las eij siguen una distribución normal e independiente.

Hasta ahora hemos comentado que es un modelo de ANOVA de una vía con
efecto fijo, pero que intenta probar este:

Podemos probar la hipótesis nula de que todas las medias del tratamiento ó la
población completa son iguales contra la alternativa de que al menos un par
difieren.

Hipótesis:

Ho: µ 1 = µ 2 = µ 3 =.......µk
H1: al menos un par difieren

Otra forma de plantear esta hipótesis es:

Ho: Tj = 0 j = 1,2, 3,.....k


H1: No todas las Tj = 0

Si las medias de las poblaciones son iguales, entonces el efecto de cada


tratamiento Tj es igual a cero también.
219

De esta forma, si se cumplen los supuestos para el ANOVA y la hipótesis nula es


verdadera, las medias de las poblaciones serán iguales, entonces se centrarán las
poblaciones en un punto único, la media común. Si graficáramos la distribución
que sigue cada una de esas poblaciones, entonces sería suficiente con una sola
gráfica porque se superponen unas sobre otras al ser idénticas sus distribuciones.

Si por el contrario, la Ho es falsa, esto puede deberse a dos razones, una, a que
alguna de las poblaciones tiene una media diferente del resto siendo las otras
iguales entre sí, ó porque todas son diferentes.

El método que indica cuál de estas hipótesis no debe ser rechazada, se basa en
las estimaciones de la varianza, siendo un paso central para estas, la suma de
cuadrados.

Suma de Cuadrados.

Cuando en el concepto de Análisis de Varianza hacemos referencia al término


variación, nos referimos a la suma de las desviaciones al cuadrado de las
observaciones con respecto a sus medias, ó dicho en forma más abreviada, suma
de cuadrados.

Para obtener esta suma, lo primero es llegar a la Suma total de Cuadrados (SC
total)

SC total: Suma de los cuadrados de las desviaciones de cada observación


individual a partir de la media de todas las observaciones tomadas en conjunto.
Se plantea como sigue: (Fórmula 1)

k nj _
SCtotal = ∑ ∑ ( xi j − x. . ) 2
j =1 i =1

nj
∑ indica que debes sumar las desviaciones al cuadrado para cada grupo de
i =1
k
tratamiento, una vez obtenidos estos totales para cada grupo, calcula ∑ , es
j =1
decir suma los k totales obtenidos.

Seguramente la SC total le recordará el numerador de la fórmula de la varianza


para datos simples que estudio anteriormente
Si no es así, le invito a que la repase.

Otra forma de escribirse la SC total (Fórmula 2):


220

k nj T 2 ..
SCtotal = ∑ ∑ xi j −
2

j =1 i =1 N
La SC total puede descomponerse en dos componentes a través de
procedimientos matemáticos, estos componentes son:

™ Suma de Cuadrados entre grupos (SC entre):


Es una medida de la variación entre grupos y se calcula así cuando todos los
tamaños de las muestras son iguales: (Fórmula 3):
k − _
SCentre = n ∑ ( x. j − x..) 2
j =1

Cuando los tamaños muestras difieren (Fórmula 4)


k − _
SCentre = ∑ nj ( x. j − x..) 2
j =1
Otra forma de calcular SC entre más conveniente: (Fórmula 5):

2
k T. j 2
SCentre = ∑ − T ..
j =1 nj N

™ Suma de Cuadrados dentro de los grupos (SC dentro):


Se conoce también como suma de cuadrados residual ó de error, no es más que
obtener el error al que hicimos referencia en el epígrafe anterior y se escribe de la
siguiente forma:

k nj _
SCdentro = ∑ ∑ ( xi j − x. j ) 2 (Fórmula 6)
j =1 i =1

O de forma más conveniente (Fórmula 7):

k nj k (T . j ) 2
SCdentro = ∑ ∑ xi j − ∑
2

j =1 i =1 j =1 nj
221

Finalmente, encontramos (fórmula 8):

SC total = SC entre + SC dentro

Una vez obtenida las sumas de cuadrados, podemos estimar la varianza real (σ2)
para cada componente.

Estimación de la varianza.

Cuando los supuestos para el ANOVA son satisfechos y las medias de las
poblaciones son iguales, tanto la suma de cuadrados entre grupos, como la suma
de cuadrados dentro de los grupos dan estimaciones insesgadas de la varianza
común σ2. Esta se obtiene al dividir cada una de estas sumas por sus respectivos
grados de libertad y se conoce como cuadrado medio.

Los grados de libertad representan el número de variables independientes en la


suma de cuadrados.

Así, la Varianza Estimada Entre de los Grupos se obtiene al dividir la suma de


cuadrados entre grupos por los grados de libertad asociados k –1 y se denomina
Cuadrado Medio entre grupos (CM entre).

Fíjate que k -1 se debe a que la SC entre está formada por la media de


cada uno de los k grupos, que son independientes entre sí, de ahí la k,
pero además tiene a la gran media que depende para su calculo de las
observaciones de cada grupo, por eso se le resta 1.

Para muestras de igual tamaño (Fórmula 9):

k − −
n ∑ ( x . j − x..) 2
j =1
CMentre =
k −1
Para muestras de tamaños desiguales (Fórmula 10):

k − −
∑ n j ( x . j − x..)
2
j =1
CMentre =
k −1

El CM entre nos da una estimación válida de σ2 siempre y cuando se cumpla la


homocelasticidad de las poblaciones y la hipótesis nula es verdadera.
222

La estimación de la varianza dentro de los grupos, denominada Cuadrado medio


dentro de grupos (CM dentro) se calcula a partir del cociente entre la suma de
cuadrados dentro de los grupos y sus grados de libertad (Fórmula 11):

k nj −
∑ ∑ ( xi j − x . j )
2
j =1i =1
CMdentro = k
∑ (n j − 1)
j =1

Como puede apreciar, la SC dentro tiene n observaciones independientes, pero


utiliza para su cálculo k medias obtenidas a partir de las observaciones de cada
grupo. De ahí salen estos grados de libertad, los que pueden expresarse de forma
más sencilla aún:

k k
∑ ( n j − 1) = ∑ n j − k = N − k
j =1 j =1

El CM dentro es un estimador insesgado de la σ2 siempre que las varianzas


poblacionales sean iguales, independientemente de que se cumpla ó no la
hipótesis nula, o sea no importa que las medias resulten iguales ó diferentes.

Relación de Varianzas.

Cuando se realiza un ANOVA Unidireccional, la estadística de prueba que se


emplea es un cociente en el que se comparan las dos estimaciones de la varianza
poblacional, CM dentro y CM entre. A este cociente se le denomina relación de
varianzas (R.V).

Estadística de Prueba (Fórmula 12):

CMentre
R.V . =
CMdentro
Como todo cociente, cuando denominador y numerador son iguales, la razón es
igual a 1, o sea ambas estimaciones son aproximadamente iguales, la R.V. será
casi igual a 1 y apoyará la hipótesis de igualdad de las medias poblacionales. Pero
si el CM entre es mayor que el CM dentro, la R.V. será mucho mayor que 1 y
hablará a favor de la hipótesis de diferencia entre las medias de los grupos.
223

Una vez calculado el estadígrafo de prueba debemos determinar si el resultado


obtenido es significativo de ser encontrado en la población. En otras palabras, sí la
R.V. calculada resultó mayor que 1 ¿Cuán grande deberá ser para concluir que la
diferencia observada entre las estimaciones de σ2 no es debida al azar?

La respuesta a esta pregunta estará basada en una distribución de muestreo


denominada Distribución F.

Distribución F.

Una distribución de considerable interés práctico es el cociente de dos variables


independientes con distribución χ2. Esta distribución a la que hacemos referencia
es la Distribución F.

Por propiedad:

Sean U y V dos variables aleatorias independientes:

Sí: U ∼ χ2 (n gl)
V ∼ χ2 (m gl)

Entonces:

U
n ∼ F(n,m g.l)
V
m
Esta distribución F está relacionada con la distribución del estadígrafo:

Sx2
σ x2
, muy utilizado para resolver problemas de la estadística,
Sy2
σ y2
fundamentalmente el problema del análisis de la igualdad de varianzas de dos
poblaciones normales, mediante una dócima de hipótesis:

Qué distribución muestral sigue este estadígrafo:

Sean X y Y dos variables aleatorias con distribución normal, con media y varianza
µx, µy, σ2x, σ2y, y suponiendo que se han obtenido dos muestras aleatorias e
independientes de tamaño nx y ny representadas de la forma:

x1, x2,...., xnx y y1,y2,.....yny


224

Podemos obtener los estadígrafos (nx-1)Sx2 /σx2 y (ny-1)Sy2 /σy2 que tienen
distribuciones χ2 con (nx-1) y (ny-1) grados de libertad y además son
independientes.

De acuerdo a la propiedad anterior se tiene que:

(n x − 1) S x 2
(n x − 1) σ x 2
(n y − 1) S y 2
(n y − 1) σ y 2

sigue una distribución F con (nx-1) y (ny-1) grados de libertad.

Sx2 σ x2
Es decir tiene distribución F con grados de libertad (nx-1) y (ny-1)
Sy2 σ y2

Si se plantea la hipótesis nula de varianzas poblacionales iguales, y esta se


Sx2
cumple, entonces las varianzas se anulan en la expresión, quedando ∼ F
S y2

La distribución F que se utiliza en cada situación depende del número de grados


de libertad asociados con la varianza muestral del numerador (g.l numerador) y del
número de grados de libertad asociados con la varianza muestral en el
denominador (g.l denominador).

Como la R.V. es el cociente entre dos estimaciones de la varianza poblacional,


entonces sigue una distribución F con k-1 g.l en el numerador y N-k g.l en el
denominador.

Para llegar a una decisión es necesario comparar la R.V. con el valor crítico de F.
Este se obtiene a partir de la tabla A1 según sea el nivel de significación elegido y
los g.l del numerador y denominador.

Regla de decisión:

Si el resultado del cociente CM entre / CM dentro es mayor que el valor crítico para F
(1-α) k-1, N-k g.l, entonces se rechaza la hipótesis nula de que las varianzas
muestrales son estimadores de una varianza común. Ello implica rechazar la
hipótesis original acerca de la igualdad de las medias poblacionales. ¿Por qué?

1
Percentiles de la Distribución F de Fisher Snedecor.
225

Un valor grande de R.V. indica que el CM entre es mucho mayor que el CM dentro
y como el primero se basa en la dispersión de las medias muestrales respecto a la
gran media, esta dispersión será mayor, cuanto mayor sea la diferencia entre los
tamaños de las medias de las muestras. De esta forma podemos concluir que
existen evidencias suficientes para plantear que no todas las medias
poblacionales son iguales para el nivel de confiabilidad escogido.

Tabla de resultados del ANOVA.

Frecuentemente los resultados del análisis de varianza se presentan en una


tabla como la que se muestra a continuación:

Fuente de Grados de Cuadrado Razón de


Suma de Cuadrados
variación Libertad Medio Varianzas
k − −
∑ n j( x. j − x . )
2
.
j =1
Entre 2 SCentre CMentre
k T. j T ..
2
k -1
grupos =∑ − k −1 CMdentro
j =1 nj N

k nj −
∑ ∑ ( xi j − x . j )
2
j =1i =1
Dentro de 2 SCdentro
k nj k T. j N-k
grupos
= ∑ ∑ xi j
2
−∑ N −k
j =1i =1 j =1 nj

k nj _
∑ ∑ ( xi j − x . . )
2
j =1i =1
Total 2
k nj T ..
2
− N-1
= ∑ ∑ xi j
j =1i =1 N

Esta tabla se utiliza para tamaños de muestra diferentes.


k − _
Para muestras de igual tamaño la SC entre= n ∑ ( x . j − x . . ) 2 , el resto de la tabla no
j =1
varía.
Esta tabla presenta en forma resumida los elementos más importantes de la
prueba de hipótesis y se utiliza tanto para el modelo de efecto fijo al que hemos
aludido como para el de efectos aleatorios que conocerá más adelante.
226

Ejemplo de Análisis de Varianza para el modelo de una vía con efectos fijos.

A continuación ilustramos con un ejemplo el uso de este modelo:

- Se desea determinar si tres tipos de tratamiento son igualmente efectivos en la


reducción del peso corporal. Dichos tratamientos se aplican a un grupo de
mujeres entre los 20 y 30 años con sobrepeso. A cada una se le asigna un
tratamiento al azar y se mide la reducción del peso corporal en libras al cabo
de 40 días de iniciado el tratamiento. Los resultados se muestran a
continuación:

Tratamiento I Tratamiento II Tratamiento III


10 4 12
5 1 14
14 3 9
20 8 10
8 9 21
11 16

Como puede apreciar, la variable aleatoria que se mide en este ejemplo es la


reducción del peso corporal, y el interés de los investigadores radica en determinar
si esa variable difiere entre los tres tratamientos.

El único factor en estudio es el tipo de tratamiento con solo tres niveles, y


contamos con una muestra de observaciones de cada uno de esos niveles, por lo
que nuestras conclusiones irán dirigidas solo a esos tres niveles. Teniendo en
cuenta todos estos aspectos decidimos seleccionar la prueba de Anova
unidireccional modelo de efectos fijos.

xij=µ +Tj+eij

Siendo:
Para T1 y T3 i = 1,2,3,4,5,6.
Para T2 i = 1,2,3,4,
j= 1,2,3

Supongamos que los supuestos para el ANOVA se cumplen:

Hipótesis a docimar:

Ho: µ1=µ2=µ3 Ho: Tj = 0 j =1, 2,3


Ó
H1: No todas las medias son iguales. H1: No todas las Tj = 0
227

Utilicemos un α=0.05.

Realizando los cálculos necesarios encontramos:



T.1=68 n1=6 x .1 =11.3

T.2=25 n2=5 x . 2 =5

T.3=82 n3=6 x . 3 =13.7

T..=175 N=17 x . . =10.3

2
k T. j (68) 2 (25) 2 (82) 2
∑ = + + = 2016.4
j =1 nj 6 5 6

2
T .. (175) 2
= = 1801.5
N 17

SC entre =214.9

k nj
∑ ∑ xi j = 2295
2

j =1i =1

SC total =493.5

Una vez calculados la SC entre y la SC total, podemos aligerar los cálculos y por
diferencia calcular la SC dentro.

SC total = SC entre + SC dentro

Despejando:
SC dentro = SC total – SC entre = 278.6

Coloquemos ahora estos resultados en la tabla de Anova:

Fuente de Suma de Grados de Cuadrados Razón de


Variación Cuadrados libertad Medios Varianzas
214.9 2 107.45 5.39
Entre grupos
Dentro de 278.6 14 19.9
grupos
Total 493.5 16
228

Busquemos ahora el valor crítico para Fisher 0.95, 2, 14 g.l. en la tabla A.

F0.95,2,14 = 3.74

R.V.=5.39
Como 5.39 > 3.74 Se rechaza la hipótesis nula.

Concluimos:

Existen suficientes evidencias para plantear que la media de reducción del peso
corporal difiere entre los tres tipos de tratamiento, o que los tres tratamientos no
son igualmente efectivos en la reducción del peso corporal con una confiabilidad
del 95%.

Este resultado nos informa que alguna media difiere significativamente de al


menos otra media. Sin embargo cabe preguntarse ¿Cuáles son esas medias?

Observando las medias calculadas para cada tratamiento (Tto I = 11.3; Tto II = 5;
Tto III = 13.7) vemos que las diferencias más grandes están entre el segundo y
tercer tratamiento, seguido de la diferencia entre el primero y el segundo.

Pero para decidir realmente qué grupos producen la diferencia debemos realizar lo
que se conoce como Comparaciones de Medias A Priori y A Posteriori.

Comparaciones de Medias.

Cuando la prueba de Análisis de Varianza lleva a rechazar la hipótesis nula de no


diferencia entre las medias de las poblaciones bajo estudio, generalmente se
desea llevar a cabo una prueba de significación con cada uno de los posibles
pares de medias, con los cuales podemos formar tres pares (I y II), (II y III), (I y III)
y probar tres hipótesis individuales.

Sin embargo realizar todas las comparaciones posibles utilizando un nivel α para
cada test individual, produce como explicamos en los inicios de este tema, una
probabilidad de cometer error tipo I que resultará mayor que el nivel α
seleccionado.

Por esta razón se han sugerido diversos procedimientos.

Comparaciones a priori.

Hablamos de una comparación a priori cuando predecimos, basados en un


fundamento teórico y antes de obtener y analizar el ANOVA, entre qué grupos de
un conjunto, deberá existir una diferencia significativa.
229

El interés radica en probar no todas las combinaciones posibles, sino aquellas que
previamente planeamos.

Algunos de los procedimientos que se utilizan para este tipo de comparaciones


son: Pruebas T de Bonferroni, Pruebas de Contrastes Lineales de Medias, Test de
la Mínima Diferencia Significativa, este último el más antiguo de todos propuesto
por Fisher.

Nosotros solo presentaremos la primera de estas pruebas, Prueba T de


Bonferroni, la cual resulta sencilla y solo requiere disponer de una Tabla t de
Student (Tabla B del apéndice).

Prueba T de Bonferroni.

Las hipótesis a docimar en esta prueba serán planteadas antes de conducir un


análisis de varianza y serán justificadas teóricamente.

Hipótesis:
Ho: µi = µj
H1: µi ≠ µj

I =1, 2, 3,,,,k j =1,2,3,...k

Siendo i ≠ j

Esta prueba se basa en calcular intervalos de confianza múltiples para las


diferencias de medias poblacionales predichas.
Estos se construyen como sigue (fórmula 13):

− −
x . i − x . j ± t (1 − α 2m ; n − k ) (
1 1
+ )CMresidual
ni nj
Siendo:
α: nivel de significación prefijado
CM residual: CM dentro obtenido en la prueba de ANOVA

M: # de parejas a comparar
ni y nj representan el total de observaciones de los grupos i y j respectivamente.
230

Estos intervalos se originan a partir de un coeficiente global de confianza igual a 1


- α.
Una vez calculado el intervalo, la regla de decisión será:
- Si el 0 no se incluye en el Intervalo⇒ se rechaza Ho
- Si el 0 queda incluido en el intervalo⇒ no se rechaza Ho

Recuerde que las parejas que desea comparar deben ser seleccionadas antes de
obtener el ANOVA.

Al utilizar un nivel de significación α/2m, los intervalos de confianza que se


obtienen tendrán mayor longitud.

Comparaciones a Posteriori.

Las comparaciones a posteriori ó Post Hoc son aquellas que se realizan después
de inspeccionar los resultados de la prueba de ANOVA.

Existen diversas pruebas, entre ellas las pruebas de Tukey, Scheffé, Newman,
Keuls, etcétera. En este tema haremos referencia a las dos primeras.

Prueba DVS de Tukey.

Esta prueba se considera la más segura que pueda utilizarse si se desean


conducir todas las comparaciones posibles por pares de medias de tratamiento.

Cuando se utiliza esta prueba, se elige un nivel global de significación α, entonces


la probabilidad de que una ó más hipótesis nulas sean falsas será α.

Generalmente se conoce este test como prueba DVS (diferencia verdaderamente


significativa) ya que utiliza un solo valor contra el que se comparan todas las
diferencias.

Procedimiento:

Hipótesis a docimar: Se plantea una hipótesis para cada par de medias a


comparar.
Ho: µi = µj i = 1,2 ,3,...k
H1: µi ≠ µj j = 1, 2,3,...k
Siendo i ≠ j

Se plantean todas las posibles diferencias entre pares de medias y luego se


comparan con un valor DVS.

Este Estadígrafo se obtiene de la siguiente forma (fórmula 14):


231

CMresidual
DVS = qα , k , N −k
n

Siendo:

α: nivel de significación elegido

k: número de grupos

n: número de observaciones por grupo

CM residual: CM dentro calculado en el ANOVA

q: valor obtenido de la tabla C del apéndice con α, k y N-k

Esta fórmula sólo puede emplearse cuando las muestras tienen el mismo tamaño.
Para el caso de tamaños muestrales diferentes, se sustituye n por nj, siendo este
el número más pequeño de los tamaños de muestra asociados con las muestras
cuyas medias van a ser comparadas.

Fórmula 15:

CMresidual
DVS = qα , k , N −k
n j*

nj*: Número más pequeño de los tamaños muestrales asociados.

Regla de Decisión:

Si la diferencia de medias calculada es mayor que el valor DVS se rechaza Ho.


Esta prueba es aplicable en experimentos que comprenden tres ó más
tratamientos.

Prueba de Scheffé.

En ocasiones el interés de un estudio está en probar la significación entre


combinaciones de medias ¿qué significa esto? Imaginemos que estamos ante
cuatro grupos de tratamiento para la depresión: #1-Terapia de grupo, #2-
Tratamiento medicamentoso, #3-Terapia floral, #4-Psicoballet.

La prueba de Scheffé permite probar la significación entre medias combinadas,


por ejemplo, comparar las medias para el tratamiento medicamentoso con las
232

medias combinadas para el tratamiento floral, terapia de grupo y el psicoballet, ó


comparar la combinación tratamiento medicamentoso y terapia de grupo con la
combinación terapia floral y psicoballet, entre otras.

En estos casos es necesario utilizar el enfoque de contraste lineal de las medias,


basado en proporcionar un conjunto de coeficientes de contrastes a las medias.
¿Cómo?

Los coeficientes que se otorgan a las medias se basan en las siguientes reglas:
− La suma de todos los coeficientes debe ser igual a cero.
− La suma de los coeficientes para una media ó combinación de medias debe
igualar la suma de coeficientes para la otra media ó combinación de medias,
pero con signo opuesto.
− El coeficiente de cualquier media no probada debe ser cero.

Ilustremos estas reglas con un ejemplo:


Coeficientes utilizados para las medias

Tratamien Tratamient Tratamient Tratamient


Hipótesis
to 1 o2 o3 o4
Ho:
1/3µ1+1/3µ3+1/3µ4 -
µ2 = 0
1/3 -1 1/3 1/3
H1:
1/3µ1+1/3µ3+1/3µ4 -
µ2 ≠ 0

Ho: µ1+µ2-
(µ3+µ4)=0 1 1 -1 -1
H1: µ1+µ2-(µ3+µ4)≠0
Ho: 1/2µ3+1/2µ4 - µ2
=0
0 -1 1/2 1/2
H1: 1/2µ3+1/2µ4 - µ2
≠0

De forma general la hipótesis a probar con esta prueba puede simbolizarse como:

k
Ho: ∑aj µj = 0
j =1
233

Siendo:
aj: valor del coeficiente para la media del grupo j
µj: Media del grupo j

Estadígrafo de Prueba (Fórmula 16):

k _
( ∑ a j x j )2
j =1
k aj2

j =1 nj
(k − 1)CMdentro
k
Este Estadígrafo se distribuye F(1-α) (k-1) ( ∑ n j − k ) g.l.
j =1

Regla de Decisión:
k
Sí el valor observado es mayor que el valor crítico para F(1-α) (k-1) ( ∑ n j − k ) g.l.
j =1
se rechaza la hipótesis nula.

Modelo de ANOVA de 1 vía con efecto aleatorio.

La primera parte de este tema la hemos dedicado al modelo de Análisis de


Varianza Unidireccional con efecto fijo. En el mismo se contaba con
observaciones de los k niveles de un factor, aplicándose las inferencias solo a
esos k niveles. Ahora nos encontramos ante una población de niveles de un factor,
de los cuales seleccionamos una muestra aleatoria, con el objetivo de realizar
inferencias a toda esa población.

Como en este caso se quieren comparar más niveles que los que se observan, el
modelo sufre un cambio y es denominado Modelo de Análisis de Varianza
Unidireccional con Efecto Aleatorio.

A diferencia del modelo con efecto fijo, las Tj ya no son constantes, sino variables
que dependen del nivel observado, nivel que ha sido seleccionado aleatoriamente
de un gran número de niveles. Ahora denotaremos a estas como αj, quedando el
modelo:

xij=µ + αj + eij (1.3)


234

Donde:
αj: Suponemos son variables aleatorias con distribución normal e independiente
de los eij
αj ∼ N (0,σα2) para cualquier j=1,2,3,...k, e independientes
eij ∼ N (0,σ 2) para cualquier j=1,2,3,...k, i=1,2,,,,nj, e independientes

Las hipótesis a probar en este modelo son:

Ho: σα2 =0
H1: σα2 ≠0

La tabla de Anova tiene características similares al modelo de efecto fijo, la


estadística de prueba y la regla de decisión siguen siendo la misma.

Las diferencias entre ambos modelos son:


1. El modelo de efecto fijo se aplica cuando comparamos niveles ó tratamientos
que son de interés del investigador, mientras que en el de efecto aleatorio los
grupos que se comparan han sido escogidos de una población de grupos ó
niveles potenciales.
2. En el modelo aleatorio, el investigador no está interesado en los grupos
específicos que está comparando, sino en la población de la que provienen.
Por ello, las comparaciones a posteriori en este modelo no tienen sentido.
3. Para replicar el modelo de efecto fijo se necesita obtener más observaciones
de los diferentes grupos, mientras que en el modelo aleatorio se puede tomar
otra muestra de grupos diferentes.

Resumiendo:
La gran diferencia entre ambos modelos se centra en las hipótesis y en las
conclusiones finales, además de que el modelo aleatorio tiene la ventaja que se
pueden hacer generalizaciones.

Ilustremos con un ejemplo el uso de este modelo:


− En un hospital se sospecha que existen diferencias entre los técnicos de
laboratorio en cuanto a la determinación de cierta sustancia (z) en sangre. Se
seleccionan cuatro técnicos al azar y una muestra de 10 determinaciones para
cada uno de ellos:
235

Técnico 1 Técnico 2 Técnico 3 Técnico 4


33.0 34.2 33.0 29.9
31.8 31.8 37.7 37.7
35.3 30.6 33.0 36.5
30.6 33.0 36.5 34.2
36.5 33.0 34.2 34.2
31.8 35.0 33.0 34.2
30.6 33.0 28.3 33.0
36.5 30.6 29.5 31.8
35.3 33.0 29.5 33.0
35.3 30.6 29.6 30.6

La variable aleatoria que se mide es la determinación de la sustancia z en sangre,


los cuatro técnicos seleccionados constituyen niveles, que forman parte de la
población a la que deseamos inferir, la población de técnicos del hospital. Por ello
requerimos utilizar el ANOVA de 1 vía con efecto aleatorio.

Xij =µ+αj +eij

Utilicemos un α=0.05 y supongamos se cumplen los supuestos para el Anova.

Hipótesis:
Ho: σα2 =0
H1: σα2 ≠0

Realicemos los cálculos necesarios:

T1 T2 T3 T4
T.j 336,7 324.8 324.3 335.1

Nj 10 10 10 10
_
x. j 33.67 32.48 32.43 33.51

_
T.. =1320.9 N =40 x . . =33.02

2 2
k T. j T ..
∑ = 43632.44 = 43619.42
j =1 nj N
236

k nj 2
∑ ∑ x i j = 43847.73
j =1i =1

Con estos datos ya podemos obtener las sumas de cuadrados y completar la tabla
de Anova:

Fuente de Suma de Grados de Cuadrados Razón de


Variación Cuadrados libertad Medios Varianzas
Entre grupos 13.02 3 4.34 0.72
Dentro de
215.29 36 5.98
grupos
Total 228.31 39

Busquemos en la tabla A del apéndice F0.95,3,36 = 2.87

Como 0, 72 no es mayor que 2.87 no podemos rechazar la hipótesis nula.

Conclusiones:
No hay suficientes evidencias para plantear que existen diferencias entre los
técnicos del hospital en la determinación de la sustancia z en sangre, con una
confiabilidad del 95%.

Comprobación de los supuestos básicos para el Análisis de Varianza.

Anteriormente hemos comentado los supuestos que se requieren para llevar a


cabo un ANOVA. En la práctica con frecuencia nos encontramos ante casos en los
cuales no se cumplen todos esos supuestos. Sin embargo la distribución Fisher
utilizada en la prueba de hipótesis tiene la ventaja de ser bastante robusta, por lo
que no se ve muy afectada si se viola alguno de los supuestos.

El incumplimiento de la independencia de las muestras y de las observaciones, es


uno de los que más puede afectar a la distribución Fisher, sin embargo esto puede
evitarse con un diseño cuidadoso, que garantice la selección aleatoria e
independiente de las muestras.
Otro de los supuestos requeridos es la normalidad, ¿como comprobar si existe?
Existen pruebas como la χ2 para Bondad de Ajuste, que de forma sencilla permiten
determinar la presencia de normalidad y que aunque no las presentamos en el
curso, puedes encontrarla en cualquier libro de estadística elemental. Este
supuesto no supone grandes afectaciones a Fisher siempre y cuando la muestra
sea medianamente grande. Por lo tanto ante su incumplimiento, puede ampliar el
tamaño muestral ó también realizar transformaciones a los datos, como son la raíz
cuadrada, transformación logarítmica, recíproca, etcétera, estas transformaciones
son detalladas por M. Canalejo.
237

Respecto a la igualdad de varianzas, Fisher no se ve muy afectada por su


violación cuando se trabaja con muestras de igual tamaño. Cuando las muestras
difieren ó se supone que una varianza sea mucho mayor que las otras, se utilizan
pruebas de hipótesis para comprobar la homocelasticidad.

Dos importantes pruebas para ello son el test de Cochran y el Test de Bartlett.

Test de Cochran.

Esta prueba requiere que la variable objeto de estudio sea cuantitativa continua,
las poblaciones sean normales, las muestras y observaciones deben ser
aleatorias e independientes, además de que las muestras sean de igual tamaño.

Previamente selecciona el nivel de significación α.

Hipótesis:
Ho: σ12 = σ22 =.....σk2 j =1,2,3,....k
H1: la σj2 máxima es mayor que las demás.

Estadígrafo de Prueba (Fórmula 17):

2
S j máx ima
Co = k
∑ S j2
j =1

Siendo:

Sj2 : varianza de la muestra j

Regla de Decisión:

Si Co > C(1-α, v, k) se rechaza la Ho.

v=n1-1=n2-1=......nk-1 ⇒ Recuerde que las muestra son de igual tamaño

La tabla D del apéndice muestra los percentiles del Test de Cochran para C
(0.99,v,k)

Observación:
− Este test posee existencia propia, es decir su deducción es independiente de
todo tipo de consideraciones referidas al análisis de varianza.
238

− Se debe utilizar un valor de α pequeño (0.01 ó incluso 0.001) con el propósito


de poder obtener evidencia sustancial de un grado considerable de
desigualdad de las varianzas.

Test de Bartlett.

Este test resulta un tanto más complejo en su cálculo que el anterior, aún así es el
más utilizado.
Requiere para su uso que la variable de estudio sea cuantitativa continua, las
poblaciones sean normales y las muestras y observaciones aleatorias e
independientes con tamaños muestrales n1, n2, .... nk ≥ 5

Hipótesis:
Ho: σ12 = σ22 =.....σk2 j=1,2,3,....k
H1: No todas las σj2 son iguales.

Estadígrafo de Prueba (Fórmula 18):

q
χ2 =
C
Siendo:

k
q = ( N − k ) ln S p 2 − ∑ ( n j − 1) ln S j 2 (Fórmula 19)
j =1

Donde:

ln: Logaritmo neperiano de base e.

k
∑ (n j − 1) S j 2
j =1
S p2 = (Fórmula 20)
N −k

Sj2 = varianza de la muestra j


N= total de observaciones

C se calcula a través de la fórmula:


239

1 ⎛ k −1 −1 ⎞
C =1+ ⎜ ∑ (n j − 1) − ( N − k ) ⎟ (Fórmula 21)
3(k − 1) ⎝ j =1 ⎠

Regla de Decisión:
Sí χ2 observado > χ2 (1-α, k-1) se rechaza la Hipótesis nula.

La tabla E del apéndice muestra los percentiles para la distribución χ2.

Observación:
− Cuando en la fórmula de ”q” se utilizan logaritmos de base 10, entonces el
estadígrafo será:

q
χ 2 = 2.3026
C
− Este test, al igual que el Cochran posee existencia propia.
− Esta prueba tiene el inconveniente de ser muy sensible a la normalidad, por lo
que no debe utilizarse cuando existen dudas al respecto. Sin embargo si se
está seguro del cumplimiento de dicho supuesto y se rechaza la hipótesis nula,
será mejor no emplear el ANOVA porque las varianzas serán muy diferentes.
− El nivel de significación que se emplee en esta prueba no tiene que ser el que
se utilice en el ANOVA, emplear un α pequeño (0.01 ó 0.001) permitirá si se
rechaza la Ho, obtener una fuerte evidencia de heterocelasticidad de grado
considerable.
− Pese a que dejamos la comprobación de supuestos para el final, en la práctica
primero se comprueban los supuestos, si es necesario se hacen las
transformaciones y posteriormente se realiza el ANOVA. Sin embargo es
importante que conozcas que existe una prueba denominada Kruskall Wallis,
alternativa del ANOVA, que permite comparar 3 ó más muestras sin requerir de
supuestos. Esta prueba forma parte de un conjunto denominado Técnicas No
Paramétricas, algunas de ellas, sus usos, ventajas y desventajas respecto a
las paramétricas las conocerás con profundidad en el tema 3 de este curso.

Generalización del Análisis de Varianza.

Los modelos de ANOVA tratados hasta ahora, pueden generalizarse a situaciones


en que se considere más de una característica de clasificación, es decir más de un
factor en estudio. Ello conlleva introducir nuevos elementos en los modelos,
manteniendo otros invariables.

Cuando consideramos más de un factor en un experimento es necesario tomar en


cuenta la posible interacción de todos los factores, de manera que en el modelo
240

incluiríamos además del efecto de los factores considerados, el efecto de la


interacción entre ellos. Todos estos efectos pueden ser docimados empleando
pruebas de hipótesis que tienen una construcción común y basados en cocientes
de estimadores de la varianza.

Recuerde que el diseño de un ANOVA unidireccional requiere para ser efectivo de


la capacidad de los investigadores de conseguir unidades experimentales
homogéneas, sin embargo en la práctica esto no resulta fácil de lograr, aún
cuando los investigadores conozcan con gran profundidad el problema. En
ocasiones se decide estudiar el efecto de determinado factor, digamos por ejemplo
el efecto de tres tipos de antibióticos sobre determinada patología, pero existen
elementos a tener en cuenta, como la edad del paciente ó el estadío clínico, que
pueden afectar la respuesta de cada paciente al tratamiento y de pasarlos por
alto podemos llegar a conclusiones erróneas. Estos factores actúan en este
caso como confusores, concepto que ya conociste en el pasado curso. Una forma
de controlarlos es precisamente incluyéndolos en el diseño y evaluándolos
durante el análisis.

Así, podemos utilizar el Análisis de Varianza para comparar la respuesta a los tres
tratamientos, pero en lugar de usar un modelo unidireccional, podemos generalizar
y emplear lo que se conoce como ANOVA de dos vías ó diseño en bloques
completos aleatorizados. Este tipo de diseño se caracteriza por la formación de
bloques conformados por observaciones (llamadas unidades experimentales) que
son numéricamente iguales al número de tratamientos en estudio.

En este ejemplo, esos bloques pueden ser grupos de edad seleccionados por los
investigadores, se eligen tres pacientes de cada grupo de edad, porque tres son
los tipos de antibióticos a comparar y luego se le asignan al azar a cada paciente
de cada bloque, uno de los tres tipos de antibióticos, de forma que cada bloque
reciba los tres tratamientos.

De esta forma. este diseño incorpora al modelo además del efecto del tratamiento
y del residual, el efecto de los bloques y un efecto de interacción entre los grupos
y los bloques, que no siempre se presenta, pero es el primero que se debe probar.

Este y otros tipos de diseño puede encontrarlos en libros de estadística como el


Daniel4, Armitage10, entre otros.

Resumen
En este tema se estudió que:

1. El Análisis de Varianza es una técnica paramétrica utilizada cuando se desean


comparar las medias de tres ó más muestras.
241

2. La idea central consiste en descomponer la variación total de un conjunto de


datos alrededor de la gran media en varios componentes, correspondiendo
cada uno a una fuente específica de variación de las medias.
3. El ANOVA de una vía, forma más simple de análisis de varianza, debe su
nombre a que solo se investiga un factor. Este último consta de k niveles ó
tratamientos en los cuales se observa y se mide la variable en estudio.
4. Considerar un solo factor, requiere de la asignación aleatoria de los
tratamientos a las unidades de análisis (diseño completamente aleatorizado).
Este diseño es útil solo cuando las unidades de análisis son homogéneas.
5. Antes de iniciar la prueba de ANOVA, debe comprobarse el cumplimiento de
los supuestos.
6. El modelo unidireccional de ANOVa se divide en dos casos: Modelo de ANOVA
de una vía con efecto fijo y Modelo de ANOVA de una vía con efecto aleatorio.
7. El modelo de efecto fijo se caracteriza por la observación de todos los niveles
del factor sobre los que se desea inferir.
8. El modelo de efectos aleatorios es aquel en el que existe una población de
niveles del factor, de la cual se extrae una muestra aleatoria, para generalizar
las conclusiones a toda la población.
9. Cuando la hipótesis nula de igualdad de las medias poblacionales es cierta y
los supuestos son satisfechos, las Sumas de Cuadrados dentro y entre grupos
dan estimaciones insesgadas de la σ2 común (Cuadrados Medios).
10. La Razón de Varianzas permite comparar a través de un cociente las dos
estimaciones de σ2 y constituye el estadígrafo de prueba, que sigue una
distribución F(1-α), (k-1), (N-k) g.l
11. La tabla de resultados del ANOVA resume los elementos más importantes de
la prueba de hipótesis.
12. En el modelo de Anova con efecto fijo, rechazar la hipótesis nula de no
diferencia entre las medias poblacionales conlleva realizar comparaciones de
medias a priori ó a posteriori, para determinar que niveles son los que difieren.
13. Cuando se rechaza la hipótesis nula, en el modelo de efectos aleatorios, no
tiene sentido determinar donde están las diferencias con comparaciones a
priori ó a posteriori, porque lo que se desea es inferir a toda la población de
niveles y no a los que fueron seleccionados.
14. La distribución F es robusta, viéndose afectada fundamentalmente por la
violación del supuesto de independencia, lo que puede evitarse con un diseño
cuidadoso.
15. El ANOVA puede generalizarse al caso en que se considere más de un factor
en estudio.
242

Bibliografía:

1. Dawson-Saunders B, Trapp RG. Bioestadística. 2da Edición. México:El


Manual Moderno,1999.
2. Norman GR, Streiner DL. Bioestadística. España: Hartcourt Brace; 1998
3. Versión electrónica del manual de la Universidad de Málaga. Bioestadística:
métodos y aplicaciones. Málaga, 1998.
4. Daniel WW. Bioestadística. Base para el análisis de las ciencias de la salud.
3ra edición. México. D. F: Limusa, 1997.
5. Coolican H. Métodos de investigación y estadística en psicología. 2da ed.
México: El Manual Moderno, 1997.
6. Swinscow, TVD. Statistics at square one. 9th edition. BMJ publishing group;
1997.
7. Doménech Massons JM. Métodos estadísticos en Ciencias de la Salud.
Comparación de dos medias. España: Signo, S.A, 1995.
8. Doménech Massons JM. Métodos estadísticos en Ciencias de la Salud. El
modelo de investigación científica. España: Signo, S.A, 1995.
9. Morton RF, Hebel JR, McCarter RJ. Bioestadística y epidemiología. 3ra ed.
México: interamericana. McGraw-Hill, 1994.
10. Armitage P, Berry G. Statistical Methods in Medical Research. 3rd ed.
Oxford: Blackwell Scientific Publications, 1994.
11. Altman DG. Practical statistics for medical research. London: Chapman and
Hall. 1992
12. Martínez Canalejo H, Santana Porben S. Manual de procedimientos
bioestadísticos. Tomo I. ISCM de la Habana. 1989.
243

Tomado de: Bayarre Vea H, Ranero Aparicio V M. Métodos y Técnicas


aplicados a la Investigación en Atención Primaria de Salud. Parte III.
Material Docente. ENSAP; 2002

4.6 Correlación y regresión lineal simple.

Introducción

Muchos de los trabajos de investigación que se realizan en las diferentes


disciplinas de las ciencias médicas y de la salud, centran su atención en la
identificación de la relación existente entre dos variables cuantitativas. Por
ejemplo, es posible que se desee conocer cuál es la relación que existe entre la
presión sanguínea y la edad; o si existe una relación entre dos determinaciones
fisiológicas y bioquímicas obtenidas en los mismos pacientes.

La correlación y la regresión constituyen las técnicas estadísticas utilizadas para


investigar este tipo de relaciones, las que si bien están relacionadas, tienen
propósitos diferentes. La correlación es útil para medir la intensidad de la relación
lineal entre dos variables cuantitativas; mientras que la regresión sirve para buscar
la ecuación matemática que mejor describe esa relación entre las variables.

Ambas técnicas deben su origen al científico inglés Sir Francis Galton (1822-
1911). Él aclaró los conceptos de regresión en los informes de sus investigaciones
sobre la herencia, primero en los guisantes y posteriormente, en la estatura
humana. Describió una tendencia del hijo adulto, que tiene padres bajos o altos,
de regresar hacia la estatura promedio de la población general.

Correlación lineal. Concepto.

Correlación lineal. La correlación lineal es un método estadístico con el que se


pretende dilucidar la intensidad de la asociación entre dos variables cuantitativas,
medidas en la misma unidad de observación.

Se dice que dos variables están correlacionadas cuando los cambios de una de
ellas se acompañan de cambios en la otra variable en una misma unidad de
observación.

Si los resultados de la medición de una variable se incrementan con el


incremento de la otra, o si éstos disminuyen con la disminución de la otra,
entonces la correlación es positiva; mientras que si la relación es inversa,
entonces la correlación es negativa.
244

Diagrama de dispersión o esparcimiento.

Ilustremos lo planteado con un ejemplo. Imagine que desea conocer si existe


relación entre el peso y la talla en una población de recién nacidos a los que se les
ha medido el peso y la talla. Tendremos entonces para cada niño un valor del
peso (X) y de la talla (Y).

Para estudiar esta relación lo primero que se debe hacer (y que sin duda es de
mucho provecho) es graficar a través de un diagrama de dispersión tal relación.
Este grafico es llamado así porque lo que hace es mostrar la dispersión de los
pares de valores (xi,yi) .

El diagrama de dispersión se construye fácilmente, marcando en un par de ejes


cartesianos los distintos puntos (x1,y1); (x2,y2);...; (xn,yn), resultantes de n
observaciones de dichas variables. De esta forma podemos conocer si hay
relación o no entre las variables X y Y, y si esta relación está próxima o no a la
relación lineal, es decir, si se puede explicar mediante el empleo de una línea
recta.

Sin embargo al realizar un diagrama de dispersión, pueden presentarse varias


situaciones:

a) Que aparezca una tendencia clara y definida, es decir, que la correlación entre las
variables resulte evidente. Este es un caso muy poco frecuente.

x
b) Que la correlación entre las variables no aparezca tan clara; si bien los datos,
aunque presentan una serie de fluctuaciones, manifiestan una tendencia
definida. Esta situación se presenta frecuentemente en la práctica.

x
245

c) Que los datos experimentales se presenten como un conglomerado de puntos,


donde no puede apreciarse tendencia alguna y donde aparentemente no existe
correlación. También es frecuente.

x
En los casos a y b procede entonces calcular las medidas de correlación que
conoceremos a continuación. En el caso c no procede puesto que no existe
evidencia alguna de que la relación entre ambas variables pueda explicarse
mediante una línea recta.

Medidas de correlación lineal.

Para medir la correlación lineal entre dos variables pueden utilizarse diferentes
medidas:

a) Covarianza: Es una medida de la variación conjunta de dos variables y se define


de la siguiente manera:
La covarianza de dos variables es el valor medio del producto de sus
desviaciones respecto a sus medias, tomadas en pares.

Se plantea de la siguiente forma (fórmula 1):


__
1 n __

S xy = n ∑
i =1
( xi − x)( y − y )
i

Donde:

Sxy: Covarianza

x : es la media de las x
y : es la media de las y

De esta definición de covarianza, resulta evidente que la ley conmutativa se


cumple. Es decir: Sxy=Syx
246

Y que la covarianza de una variable consigo misma es su varianza.

Además, la covarianza tiene como unidades de medida el producto de las


unidades de medida de cada una de las variables.

Otra fórmula para su cálculo es (fórmula 2):


__ __
1 n
s xy = n ∑
i =1
xi y −xy
i

Ejemplo:

Se tienen los siguientes pares de valores correspondientes a dos variables


aleatorias:

x y Xy
0 0 0
1 1 1
2 4 8
3 5 9

Luego:
__

x =1
__

y = 53
s xy
=
1
[(0 − 5 / 3) + (1 − 5 / 3) + (8 − 5 / 3)] = 4 / 3
3

No obstante, la covarianza de dos variables, utilizada como medida de correlación


tiene como limitaciones que no está acotada y depende de las unidades de
medida utilizadas, lo que hace que no se utilice en la practica diaria.

b) Coeficiente de correlación lineal de Pearson (ρ):

Generalmente es conveniente disponer de un índice del grado de vinculación


lineal entre X y Y, que no dependa de las escalas en que se miden X y Y como
sucede con la covarianza, sino que exprese intrínsecamente el grado de
correlación o alineación entre ambas. ρ sirve entonces para medir la fuerza de la
relación entre dos variables , o sea, el grado en que ambas están relacionadas
247

linealmente, siendo, como ya se mencionó anteriormente las dos variables


cuantitativas medidas ambas en la misma unidad de observación.

El coeficiente de correlación lineal de Pearson (ρ), cuya estimación se denota


por r, se puede calcular mediante la siguiente expresión:

ρ=
s xy

σx.σy

donde:
Sxy: es la covarianza entre x e y
σx: desviación típica de x
σy: desviación típica de y

ρ sirve para medir la fuerza de la relación entre dos v.a , o sea, el grado en que
ambas están relacionadas linealmente, siendo las dos variables cuantitativas.

A continuación le mostramos las propiedades del mismo.

Propiedades:

− No tiene unidades de medida (adimensional).

− Acotado entre -1 y 1 (− 1 ≤ ρ ≥ 1)

− Los valores extremos señalan que existe dependencia lineal perfecta entre
ambas variables X e Y (-1 negativa perfecta y 1 positiva perfecta).

− El valor 0 señala que no existe dependencia lineal alguna entre ambas


variables, aunque si puede existir una dependencia funcional más compleja.
Es por esto, que este coeficiente debe utilizarse con cuidado a la hora de
interpretar los resultados.

− El signo (+) indica que ambas v.a crecen o decrecen simultáneamente y el


signo (-) indica que cuando una variable crece, la otra decrece, o sea, son
inversas.

Esta medida parte del supuesto de que X e Y son v.a y que la distribución de
valores (x,y) es una distribución normal bidimensional o bivariada.

En la mayoría de las situaciones no es posible calcular ρ, ya que no se conocen


los parámetros que intervienen en éstas y por tanto se hace necesario estimarlos.
248

Si se tiene una muestra de tamaño n para los valores correspondientes a estas


dos v.a; digamos (x1,y1); (x2,y2);...;(xn,yn) un estimador para ρ viene dado por r
(fórmula 4):

⎛ ⎞⎛ ⎞
n _ _

∑ ⎜ xi −
i =1 ⎝
x ⎟⎠⎜⎜ y i − y ⎟⎟
r= ⎝ ⎠
2

⎞ ⎛ ⎞
2

n _ _ n

∑⎜ xi − x ⎟ ∑⎜ yi − y ⎟

i =1
⎠ ⎝ ⎠ i =1

Para hacer el cálculo más simple se ha desarrollado la expresión siguiente


(fórmula 5)

n
⎛ n ⎞⎛ n ⎞
∑x
i =1
i y i ⎜ ∑ x i ⎟⎜ ∑ y i ⎟ n

⎝ i =1 ⎠⎝ i =1 ⎠
r=
⎡n 2
⎤⎡ n 2 2

⎛ n
⎞ ⎛
⎢∑ x − ⎜ ∑ x ⎟ n ⎥ ⎢∑ y − ⎜ ∑ y ⎟ n ⎥
2
n

⎢ i =1 i ⎝ i =1 i ⎠ ⎥ ⎢ i =1 i ⎝ i =1 i ⎠ ⎥
⎣ ⎦⎣ ⎦

En la práctica esta última fórmula es de más fácil aplicación que la fórmula (4)
porque sólo requiere de la formulación de una tabla como la siguiente, donde
cómodamente se obtienen las sumas requeridas para el cálculo de r.

Xi xi2 Yi yi2 xiyi

X1 x12 y1 y12 x1y1


X2 x22 y2 y22 x2y2
. . . . .
. . . . .
. . . . .
xn xn2 yn yn2 xnyn

n n n n n

∑x
i=1
i ∑x
i=1
2
i ∑y
i=1
i ∑y
i=1
2
i ∑x y
i=1
i i

El coeficiente de correlación lineal muestral (r), cumple las mismas propiedades


que ρ; es decir, -1 ≤ r ≥ 1 y también se puede emplear lo mismo que aquel
249

como medida descriptiva cuando Y es una v.a pero X es una variable de valores
fijos.

Ilustremos a través de un ejemplo el cálculo de este coeficiente:

− Se tomaron lecturas de la presión sanguínea (en mm de Hg) en 25 pacientes


con HTA esencial, utilizando dos métodos diferentes y se desea conocer la
intensidad de la relación entre esas dos mediciones.

La siguiente tabla muestra las lecturas sistólicas obtenidas por ambos métodos:

No Método 1 Método 2 No Método 1 Método 2

1 132 130 14 180 174

2 138 134 15 188 186

3 144 132 16 194 172

4 146 140 17 194 182

5 148 150 18 200 178

6 152 144 19 200 196

7 158 150 20 204 188

8 130 122 21 210 180

9 162 160 22 210 196

10 168 150 23 216 210

11 172 160 24 220 190

12 174 178 25 220 202

13 180 168

A continuación presentamos la tabla de cálculos preliminares necesarios para el


cálculo de r (considera al método I como x y al método II como y).
250

xi xi2 yi yi2 xiyi

132 17424 130 16900 17160


138 19044 134 17956 18492
144 20736 132 17424 19008
146 21316 140 19600 20440
148 21904 150 22500 22200
152 23104 144 20736 21888
158 24964 150 22500 23700
130 16900 122 14884 15860
162 26244 160 25600 25920
168 28224 150 22500 25200
172 29584 160 25600 27520
174 30276 178 31684 30972
180 32400 168 28224 30240
180 32400 174 30276 31320
188 35344 186 34596 34968
194 37636 172 29584 33368
194 37636 182 33124 35308
200 40000 178 31684 35600
200 40000 196 38416 39200
204 41616 188 35344 38352
210 44100 180 32400 37800
210 44100 196 38416 41160
216 46656 210 44100 45360
220 48400 190 36100 41800
220 48400 202 40804 44440
4440 808408 4172 710952 757276
251

Diagrama de dispersión
220

200

180

160

140

120
Y

120 140 160 180 200 220 240

A continuación sustituimos en (5):

757276 − (4440 * 4172 ) / 25


r=
⎡808408 − (4440)2 / 25⎤ ⎡710952 − (4172)2 / 25⎤
⎢⎣ ⎥⎦ ⎢⎣ ⎥⎦

y obtenemos:

r = 0.9546

Por tanto, hay una correlación de 0.95 entre los dos métodos de medir la presión
arterial sistólica.

Utilizando la tabla no resultó difícil. Pero seguramente estará pensando, qué


significado tiene esa correlación de 0.95 a la que arribamos. A continuación
encontrará la respuesta.
252

Interpretación de r:

La interpretación de un coeficiente de correlación como medida de la intensidad de


la relación lineal entre dos variables, es puramente matemática y libre de cualquier
implicación de causa-efecto. El hecho de que las dos variables tiendan a crecer o
decrecer juntas no indica que la una tenga un efecto directo o indirecto sobre la
otra. Ambas pueden estar influidas por otras variables de modo que se origine una
fuerte relación matemática.

Por ejemplo, se ha observado en datos internacionales una correlación positiva


entre la tasa de mortalidad por cáncer de colon y los padecimientos coronarios1,
en este caso son dos padecimientos aparentemente no relacionados. Una
asociación de este tipo sugiere, la existencia de factores de riesgo comunes a
ambas entidades.

Por otra parte, puede darse el caso que a alguien se le ocurra analizar estadísticas
de Cuba en los últimos 10 años y encuentre una correlación fuerte entre el ritmo
anual de divorcio y el consumo de aspirina. ¿Cabe pensar en una relación entre
estas variables? Esto solo puede deberse a una coincidencia casual y se le
denomina correlación espuria.

La interpretación de r depende principalmente de los detalles de la investigación y


de la experiencia propia en el tema de estudio. La experiencia previa sirve
generalmente como base de comparación para determinar si un coeficiente de
correlación es digno de ser mencionado. No obstante algunos autores han
propuesto lo siguiente:

De 0 - 0.25: Se considera la relación escasa o nula


0.26 - 0.50: Relación débil
0.51 - 0.75: Relación entre moderada y fuerte
0.76 - 1.00: Relación entre fuerte y perfecta

En el ejemplo anterior se obtuvo un coeficiente de 0.95 por lo que podemos decir


que la correlación entre los dos métodos es fuerte.

Ah, y qué sucede con el signo, no importa que tenga un valor del
coeficiente de -0.95 ó uno de 0.95, la relación está entre fuerte y perfecta,
porque el signo solo nos dice la dirección de la relación. En este caso un
signo negativo indica que una variable aumenta a medida que la otra
disminuye o viceversa, y uno positivo que una variable aumenta conforme
la otra también lo haga ó disminuye si la otra también lo hace. Lo que si no
es posible obtener es un valor del coeficiente menor que –1 ó mayor que

1
Rose y col.,1974
253

+1. Si obtienes un resultado así, debes revisar los cálculos, porque alguno
está errado.

A veces se encuentran correlaciones de 0.95 o superiores y en tales casos,


particularmente en el campo biológico, y en casos relacionados con datos
humanos, uno debe ponerse inmediatamente en guardia, ya que
correlaciones tan altas casi siempre resultan demasiado buenas para ser
ciertas.

Una vez obtenido el coeficiente de correlación, pueden utilizarse pruebas


estadísticas y la construcción de intervalos de confianza para probar su
significación.

Usos incorrectos del coeficiente de correlación

Existen una serie de situaciones en las cuales el uso del coeficiente de correlación
de Pearson no refleja adecuadamente la asociación entre dos variables2.

− Correlación espuria en la que está implicado el tiempo: Variables que


cambien a lo largo del tiempo pueden presentar una relación espuria entre
ellas. Este es el caso del consumo de aspirina y el ritmo anual de divorcio que
anteriormente puse de ejemplo.

− Relación entre una parte y el todo; cambio relacionado con el valor inicial.
Supongamos que tenemos el peso de un grupo de sujetos en dos momentos,
antes de iniciar (P0) una dieta hipocalórica y al mes de comenzada (P1). Se
desea comprobar si la dieta es más efectiva en los sujetos que inicialmente
tenían mayor peso. Si se determina la relación entre el peso inicial P0 con la
variación de peso P0 - P1, siempre se encontrará una correlación alta porque la
variación del peso es una parte del peso inicial.

− Utilizar el coeficiente de correlación como una medida de concordancia: en


el ejemplo de la medición de la presión sanguínea sistólica por dos métodos
diferentes, el uso del coeficiente de correlación permite valorar el grado de
asociación lineal entre estos dos métodos. Recuerde que obtuvimos un valor
de 0.95 (correlación fuerte), sin embargo puede que el grado de concordancia3,
es decir el grado en que concuerdan las mediciones para cada individuo, entre
estos dos métodos sea bajo.

2
Modificado de Doménech Massons,1995.
3
La concordancia para variables categóricas se valora con el índice de kappa
254

− Utilizar muestras muy sesgadas: Cuando se elimina de una muestra unos


pocos casos que pesen mucho, se modificará fácilmente el coeficiente de
correlación, del mismo modo ocurrirá si se le agregan a la muestra casos que
estén situados en los extremos de la distribución. Otra forma de sesgar la
muestra será si se introducen sujetos con una categoría diferente del resto.
Por ejemplo si incorpora a una muestra de obesos, algunas personas que son
delgadas. Esto podría cambiar tanto el sentido como el valor de la correlación.

Regresión Lineal Simple.


En la mayoría de las situaciones prácticas, el investigador no se conforma
con saber si la relación entre las variables es lineal o no, sino que quiere ir
más allá y conocer la ecuación matemática que describe en forma
aproximada la relación entre las variables, permitiendo predecir el valor de
una característica a partir del conocimiento de la otra. Ante esta situación,
es necesario acudir a la regresión, con vistas a su solución.

Regresión: Método o técnica estadística que nos permite buscar la ecuación


matemática que mejor describe la relación que existe entre las variables. Consiste
en cuantificar la relación que existe entre las variables con el fin de predecir cuáles
serán los valores de una variable cuando se conocen los valores de la otra.

Regresión Lineal Simple. (modelo)


En el problema típico de regresión, como en la mayoría de los problemas
de inferencia, el investigador cuenta para el análisis, con una muestra de
observaciones de alguna población real o hipotética y sobre el análisis de
los datos muestrales desea tomar decisiones poblacionales, para la que se
debe buscar el modelo que mejor describa la realidad.

Aquí se consideran dos variables: X e Y. A la X se le llama variable


independiente, puesto que ella está en muchos casos bajo el control del
investigador, esto es, los valores de X son seleccionados por el investigador y,
correspondiendo a cada valor seleccionado de X, se obtienen uno o más valores
de Y. La variable X recibe también el nombre de predictor o variable predictora,
variable concomitante, y variable controlada, en dependencia de la función que
ella cumpla en un problema determinado. A la variable Y se le llama variable
dependiente, y hablamos de regresión de Y sobre X.

En la regresión lineal el asunto es intentar expresar Y como una función de


X.

Recuerdas de geometría elemental, que la ecuación para una línea recta está
dada por la siguiente ecuación:
Y = a + bX
255

Donde a indica el valor de Y para X=0, o sea, el punto en que la línea cruza el eje
de las Y, y b es la pendiente de la línea, o sea, el incremento de Y por cada
unidad que se incrementa X.

En la regresión asumimos algo parecido representándose la ecuación para la


regresión como sigue:

y=β0 + β1X

Sin embargo, como y es una predicción de Y, generalmente no todos las


predicciones caerán exactamente sobre la línea, es por ello que se añade un
término de error, quedando el modelo probabilístico que describe la relación entre
las variables así:

y = β0 + β1X + E (12)
donde:

• β0 y β1 son coeficientes o parámetros de la función desconocida, siendo:


• β0 el intercepto con el eje Y cuando X toma el valor 0.
• β1 simboliza la pendiente en la población, y es el coeficiente de regresión
lineal simple o dependiente, que mide la unidad de cambio en promedio de
la variable Y por cada unidad de cambio de la variable independiente.
• E es el error aleatorio, representa el incremento para el cual, cualquier valor
particular de Y cae fuera de la recta de regresión.

Nota: Cuando un modelo es lineal o no, nos referimos a la linealidad o no


en los parámetros.

Supuestos que fundamentan la regresión lineal simple.


En el modelo de regresión lineal simple clásico deben cumplirse los siguientes
supuestos:

1. La variable X es cuantitativa (continua o discreta) controlable por el


investigador (no aleatoria o fija). La que se supone que es medida sin error
(el error en la medición de X se considera despreciable).

Aunque el análisis de regresión también puede llevarse a cabo sobre datos en


los cuales X es una variable aleatoria.
2. La variable Y es cuantitativa continua. Para cada valor x de X, existe una
población de valores de Y, es decir, la variable Y observada en cada nivel de
X es aleatoria, de ellos se extraen una muestra de valores de Y (en general el
tamaño muestral de cada población es 1), estos valores muestrales se
suponen independientes (no autocorrelacionados).
256

3. Normalidad: Cada población de Y/X sigue una distribución normal. Se


supone además que estas son poblaciones normales independientes.

4. Homocedasticidad: Las varianzas de Y/X son iguales. Representaremos el


valor común desconocido por σ2.

5. Linealidad: Las medias de las poblaciones Y/X están situadas sobre una
línea recta, o sea, que los valores medios de Y que correspondan a varios
valores de X caigan sobre una línea recta.

µY/X = β0 + βX

donde: Y/X = E(Y)

Recta de Regresión Muestral.


Como el investigador solo dispone de una muestra Y1,..,Yn de la variable aleatoria
correspondiente a los valores X1,..,Xn de una variable controlada X. Los
parámetros de la función (β0 y β) estarán dados por b0 y b, los que suelen
obtenerse a través del empleo del método de los mínimos cuadrados.

Estimación de β0 y β (b0 y b) por el método de los mínimos cuadrados (MMC).

El método que se emplea para estimar los parámetros β0 y β es el de los mínimos


cuadrados.
Sea Yi el verdadero valor de Y correspondiente a un valor fijo de Xi, y sea
Ŷ i_( Ŷ =b0+bx) el valor de Yi estimado ó predicho. La diferencia Yi - Ŷ i da el error
que se comete cuando se desconoce el verdadero Yi y se dice que a Xi le
corresponde el valor Ŷ i. Esta diferencia es conocida como residual y representa el
error de predicción, el cual proporciona un criterio para juzgar cuánto se ajusta la
línea a los puntos de los datos y debe ser el menor posible.
n
Una solución posible sería encontrar b0 y b de forma tal que ∑ ( Y - Yˆ )
i=1
i i fuera

mínima (pues se lograría que la suma de los errores de estimación para las
puntuaciones que se conocen sea mínima).

Como la diferencia Yi - Ŷ i puede ser positiva y negativa, se puede lograr un valor


n
muy pequeño para ∑( Y - Yˆ )
i=1
i i sin que la recta ajustada produzca buenas

estimaciones, es decir, aun con ajuste malo.


257

La manera idónea de minimizar las diferencias sería elevar al cuadrado las


n
diferencias ∑( Y -
i=1
i
$ 2
Yi ) para determinar los valores de b0 y b que minimizan la

suma de cuadrados de los residuales.

Por lo tanto el M M C consiste en determinar la línea que reduce a un mínimo la


suma de las diferencias verticales al cuadrado entre los valores reales y predichos
de la variable Y.

Aplicaciones del M. M. C.
Supongamos que poseemos n conjuntos de observaciones (X1,Y1),.. (Xn,Yn).
Entonces para la ecuación (12) podemos escribir:

y = β 0 + βXi + E

de esta forma la suma de los cuadrados de las desviaciones de la recta es:


n n
S = ∑ E i2 = ∑( Y i - β 0 - β X i )2 (13)
i =1 i =1

cuyo gráfico es:

yn En

~
y2 E2 y=b0+bx
y3 E3

y1 E1

x1 x2 x3 xn x
258

Como se puede apreciar S no tiene máximo por lo que b0, b serán aquellos
valores que sustituidos en (13) hacen mínimos el valor de S.4
No pretendemos atiborrarle de fórmulas matemáticas complicadas, por lo que
mostramos a continuación las fórmulas de los estimados b y b0 de la muestra:

(fórmula 14)
n

∑X Y -
i =1
i
⎡ ( ∑ X i )( ∑Y i ) ⎤
i ⎢⎣ n ⎥

b= n

∑X 2 ( ∑X i )
2

i - n
i =1

La cantidad ∑ xi2 se denomina suma de cuadrados no corregida de las X, y


( ∑ xi2 )
n es la corrección para las medias de las X. La diferencia se denomina suma
corregida de cuadrados de las X (SCx).
( ∑ xi )( ∑ yi )
Similarmente ∑ xi y i se denomina suma no corregida de productos y n es
el corrector para las medias. La diferencia se denomina suma corregida de los
productos de X e Y (SPxy).

Otra expresión que nos permite llegar a obtener b es la siguiente (fórmula 15)

∑( X
i =1
i - X )( Y i -Y )
b= n

∑( X
i =1
i - X )2

siendo:

x1 + ...+ xn ∑ xi y1 + ...+ y n ∑ y i
X= = Y= =
n n n n

4
El procedimiento para estimar β0 y β se basa en el cálculo diferencial. Se definen
derivadas parciales de las ecuaciones anteriores respecto a β0 y β, las dos
ecuaciones resultantes se igualan a cero para localizar los valores mínimos, estas
dos ecuaciones con dos desconocidos, β0 y β , se resuelven simultáneamente
para obtener las fórmulas para β0 y β .
259

La primera forma de ecuación (14) se utiliza normalmente para el cálculo de b.

El cálculo de b0 se realiza a través de (fórmula 16):

b0 = Y - b X

∑ y i - b ∑ xi
b0 =
n

Sustituyendo la ecuación (16) en la ecuación Yˆ = b0 + bX (ecuación muestral de la


recta), obtenemos la ecuación de regresión estimada.

$
Y = Y + b(x - X ) (17)

Donde b viene dada por las fórmulas (14) ó (15).

RESUMEN
n

∑X Y - i
⎡ ( ∑ X i )( ∑Y i ) ⎤
i ⎢
⎣ n ⎥

SP xy
b= i=1
n
= (14)
∑ (∑X ) 2 SC x
X i2- n i
i=1

donde:
n
( ∑ xi )( ∑ y i )
SP xy = ∑( x - X )( y - Y )= ∑( x x )-
i=1
i i i i
n

n
( ∑ xi )2
SC x = ∑( x - X ) = ∑ x -
i=1
i
2 2
i
n

∑Y i -b ∑ X i
b0 =
n

Ilustraremos a través del siguiente ejemplo:

Se condujo un experimento con el fin de estudiar el efecto de un cierto


medicamento en bajar la rapidez de los latidos del corazón en los adultos. La
variable independiente es la dosis en mg del medicamento y la variable
dependiente es la diferencia entre la rapidez más baja siguiente a la
administración del medicamento y un control antes de administrar el medicamento.
Se reunieron los datos siguientes:
260

DOSIS (mg) Reducción de DOSIS (mg) Reducción de


lat/min lat/min
(X) (Y) (X) (Y)

0.5 10 2.25 18
0.75 8 2.50 17
1.00 12 2.75 20
1.25 12 3.00 18
1.50 14 3.25 20
1.75 12 3.50 21
2.00 16

∑ xi = 26 ∑ xi2 = 63.375 ∑ yi = 198 ∑ x y = 442.5


i i
( ∑ xi )2 = 676

a) Construir el diagrama de dispersión.


b) Obtener la ecuación de regresión y trazar su gráfico en el diagrama
de dispersión.

442.25 - ⎡⎢ (26)(198) ⎤
⎥ 46.5
⎣ 13 ⎦
b= 676
= = 4.088
63.375 - 13
11.375

198 - (4.09)(26) 91.66


b0 = = = 7.05
13 13

Evaluando Ŷ i en dos xi:

Digamos: Ŷ 1 = 7.05 + 4.09(0.5) = 9.095

^
y Y = bo + bX

Ŷ 13 = 7.05 + 4.09(3.5) = 21.365

25

20

15

10

0
0 1 2 3 4
261

Evaluación de la Ecuación de Regresión.

Una vez que se ha obtenido la ecuación de regresión, debe evaluarse para determinar
si describe adecuadamente la relación entre las dos variables (adecuado ajuste del
modelo a los datos) y si puede usarse de manera efectiva con fines de predicción y
estimación.

Una forma de hacerlo es gráficamente, comparando la dispersión de los puntos


alrededor de la recta de regresión, con la dispersión alrededor de la media de los
__
valores de la muestra Y( y ). ¿Cómo?
Utilizando el diagrama de dispersión del ejemplo anterior, trazamos una recta
__
perpendicular al eje y, y lo interceptamos en el punto y ,

y
25-


(yi- Y ) Y =7.05+4.09x

20-
∩ _ _
(Y -Y ) (yi- Y )
_
Y
15-

10-

5-

Como puede apreciar, es mucho menor la dispersión de los puntos alrededor de la


recta de regresión que alrededor de la recta trazada. Tenemos la impresión visual
del ajuste de la recta, en este caso es bueno. Pero... ¿siempre será tan evidente?
No, es por ello que necesitamos una medida más objetiva y que conocerá a
continuación.

El coeficiente de determinación (R2).

Observe en el gráfico anterior varias llaves que señalan un punto. ¿qué significan?
_ _
simplemente sí mide la distancia vertical de un punto a la recta Y , o sea (yi- Y )
obtenemos la desviación total ó variación total de la variable Y. A su vez, podemos
262

descomponer esta desviación total en dos partes, una en la parte explicada ó prevista
∩ _
por la regresión, también llamada desviación explicada ( Y - Y ), y en otra no explicada ó

residual (yi- Y ), es decir la parte que no se predice a partir de x.

Siendo la desviación total para un Yi particular:


_ ∩ _ ∩
(yi- Y ) = ( Y - Y )+(yi- Y )

Un ajuste perfecto se presenta cuando la recta de regresión explica


completamente la variación total, o sea cuando la variación explicada por la
regresión es igual a la variación total, y la variación residual es igual a cero. De
esta forma todos los puntos caerían sobre la recta de regresión.

Por su parte, el ajuste se considera nulo cuando la regresión no explica nada de la


variación total, entonces la variación explicada por la regresión es cero. Aunque
debo señalar que un ajuste nulo solo indica ausencia de relación lineal entre las
variables. Puede existir otro tipo de relación no lineal.

Podemos obtener una medida del ajuste del modelo a los datos mediante un
cociente entre la variación explicada por la regresión y la variación total. Medida
conocida como coeficiente de determinación y que se simboliza como R2. Su
fórmula es la siguiente:

∑ (Yˆ - Y )2 SC DR
R2 = ∑ ( y i - Y )2
= SC T

siendo:
SCT: Suma de cuadrados total
SCDR: Suma de cuadrados debida a la regresión

Este coeficiente r2 en la muestra, mide la proximidad del ajuste de la ecuación de


regresión de la muestra a los valores observados de Y. Indica que proporción de la
variación total en Y de la muestra es explicada por la regresión de Y sobre X.
Puede tomar valores entre 0 y 1, pero mientras más próximo a 1, mejor ajuste. Un
r2 < 0.5 indica mal ajuste.

Pero... ¿de donde salen y cómo se calculan estas sumas de cuadrados?


_ ∩ _ ∩ ∩
Sí la desviación total, (yi- Y ) = ( Y - Y )+(yi- Y ) es medida para cada valor de yi y Y i,
elevando al cuadrado cada desviación y luego sumando las desviaciones elevadas
al cuadrado, se tiene entonces:
263

2 2
n ⎛ ∩ −⎞ n ⎛ ∩

2
⎛ ⎞
∑ ⎜ yi −Y ⎟ = ∑ ⎜ yi −Y ⎟ + ∑ ⎜ yi − yi ⎟ − 2∑ ⎛⎜ yi − Y ⎞⎟⎛⎜ y i − yi ⎞⎟
n _ n ∩ _ ∩

i =1 ⎝ ⎠ i =1 ⎝ i =1 ⎝ ⎠⎝ ⎠
⎠ i =1 ⎝ ⎠

Una vez obtenida esta ecuación, puede demostrarse matemáticamente que el


último término se anula, pero solo lo doy como información. Al eliminarlo,
obtenemos la partición de la suma de cuadrados de las desviaciones totales,
denominada variación total.

( ∑ y i )2
SC T = ∑( y i - Y ) = ∑ y i -
2 2
n

⎡ 2 ( ∑ xi )2 ⎤
SC DR = ∑(yˆ - Y )2
= b ⎢∑ xi -
2

⎣⎢ n ⎥⎦

SC AR = SC T - SC DR

siendo SCAR: Suma de cuadrados residual.

En el ejemplo anterior donde ∑ y i2 = 3226 tenemos:


(198 )2
SC T = 3226 - = 210.31
13

SC DR = (4.088 ) ⎡⎢⎣63.375 - 676 ⎤ = 190.1


2
13 ⎥⎦
SC AR = 210.31 - 190.1 = 20.2

Ahora estamos en condiciones de calcular el coeficiente de determinación R2.


R 2 = 210.31
190.1
= 0.904

Podemos decir que el 90% de la variación total es debida a la regresión de Y


sobre X, por lo que el ajuste es bueno.
Pruebas de Hipótesis para la Regresión.

Pruebas de hipótesis para β.


Como tenemos una variable aleatoria Y (dependiente), vamos a suponer que:
264

Y ~ N(β0+βX, σ2) y E(Y) = β0+βX

→ E(Y) =
β0+βX

Además X es una variable explicativa fija y xi, yi son observables.

Pares de observaciones (X1,Y1),..,(Xn,Yn)

La primera prueba de hipótesis que conocerá será sobre β, parámetro más


importante para evaluar la fuerza de la dependencia, ya que constituye una
expresión del cambio que se produce en la Y cuando la X varia.

a) Pruebas de hipótesis para β (caso particular, primera vía).

Si en realidad hay una relación lineal entre el valor esperado de Y y los


valores de la variable X, entonces β debe ser diferente de cero. La
hipótesis a considerar es la siguiente:

1. α: nivel de significación.
2. Hipótesis:
H0: β=0
H1: β=,/0

En tal caso se demuestra que:

b_N( β , SCσ )
2

donde:
SC X = ∑( xi - X ) ⇒ representa la suma de cuadrados de X
2

SCY = ∑( y i - Y ) ⇒ (suma de cuadrados de Y)


2

SC XY = ∑( xi - X )( y i - Y ) ⇒ (suma de productos de X e Y)
265

Luego:

b-β
σ
_N(0,1) bajo H0
SC X

3. Estadígrafo de prueba:

b
Z= σ
_N(0,1)
SC X

Cuando la σ2 es desconocida, utilizamos el estadígrafo t de Student:

b
t= sb
_ t [1- α
2
;n - 2g.l. ]
SC X

2 ∑ ( y i -Yˆ i ) 2
y donde S b = n - 2 que recibe el nombre de cuadrado medio
alrededor de la regresión o inexplicable por la regresión.

Estos estimadores sirven para probar cualquiera hipótesis sobre β.

4. Decisión: Rechazo H0 si Z obs ≥ Z ⎛ α ⎞


⎜ 1- ⎟
⎝ 2 ⎠
o t obs ≥ t (1- α ;n - 2 g.l.)
2

b) Pruebas de hipótesis para β (caso particular, segunda vía).

1. α: Nivel de significación.
2. Hipótesis:

H0: β=0
H1: β=,/0

Para la construcción del estadígrafo de prueba, vamos a ver como estimamos


a σ2, lo cual se logra por la descomposición de la suma de cuadrados (vista
cuando evaluamos el ajuste del modelo).

∑( y i - Y )2 = ∑( y i - Yˆ i )+ ∑( Yˆ i - Y )
266

∑( y i - Yˆ i )2 : diferencia
que se produce alrededor de la regresión y se debe al azar.
∑( Yˆ i - Y ) : diferencia que se produce debido a la regresión y depende de X.
2

3. Estadígrafo de prueba:

CM DR
F= CM AR
_ F [1-α ;(1,n - 2 gl)]

Siendo:
CM DR: Cuadrado medio debido a la regresión.
CM AR: Cuadrado medio alrededor de la regresión.

Estos cuadrados medios se obtienen de la división de cada suma de


cuadrados por sus correspondientes grados de libertad, como te mostramos
en esta tabla de análisis de varianzas.

CUADRADO F
FUENTE SUMA DE CUADRADO g.l
MEDIO CALCULADO

Debida a ⎛∩ _⎞
2
CM DR =
SC R
CM DR
1 F=
SC DR = ∑ ⎜ Yi −Y ⎟
1
regresión
⎝ ⎠ CM AR
2

⎛ ⎞
Alrededor de SC AR = ∑ ⎜ yi −Yi ⎟ n-2 CM AR =
SC E

la regresión ⎝ ⎠ n-2

TOTA n-1
SC T = ∑( y i - Y )
2
L

Como puede ver los grados de libertad varían, ¿de donde salieron?

Los grados de libertad indican cuanto de los valores que aparecen en la


correspondiente suma de cuadrados son independientes entre sí, en otras
palabras, cuantas observaciones de las n independientes que se tienen, Y1, Y2,....
Yn son necesarias para obtener la suma de cuadrados respectiva.

Así la SCT tiene n-1 g.l porque está formada por las n observaciones
independientes y por el valor de i estadístico, la media total y calculado con las
_

mismas n observaciones.

La SCDR tienen 2-1 grados de libertad, porque está formada por n observaciones
yi independientes que solo tienen 2 g.l porque están sobre una recta de regresión
267

y una recta queda definida por dos puntos, pero además interviene el valor de un
estadístico, la media total y , que está sobre la recta.
_

Por último la SCAR tiene n-2 g.l porque está formada por n valores yi

independientes y por un conjunto de valores Yi = bo + b X i que tienen 2 g.l y han
sido obtenidos ajustando una recta, o sea calculando los dos coeficientes b y b0 de
las mismas n observaciones.

4. Regla de decisión: Rechazo H0 si Fobs ≥ F[1-α;(1,n-2 g.l.)]

5. Observaciones:

− El test basado en la t de Student es idéntico, para la prueba de dos colas, al


presente test.
− Sí un estadígrafo de prueba se distribuye t con ν gl, su cuadrado se
distribuye F con (1, ν g.l)
− Un defecto del presente test, es que no informa sobre el signo de b que
evidentemente tiene mucha importancia.

c) Pruebas de hipótesis para β (caso general).

α: Nivel de significación.
β10: Número conocido.

• Hipótesis:
dos colas una cola
H0: β=β10 H0: β ≤ β10 H0: β ≥ β10

H1: β=,/β10 H1: β >β10 H1: β<β10

• Estadígrafo de prueba

b - β 10
t= S 2B
_ t [1-α ;(n - 2 g.l.)]
donde:
b - β 10
t=
CM AR
SC X
268

2
2
S Y/X 2 ∑( yi -Yˆ )2
S b = ∑( - X )2 y S Y/X = n-2
xi

• Decisión: Rechazo H0 si:

_ t obs _ ≥ t [1- α2 ;(n- 2)] o t obs ≥ t (1- α2 ;n - 2 g.l.)

t obs > t [1-α ;(n- 2)] o t obs < - t [1-α ;(n- 2)]

Intervalos de Confianza para β.

Una vez determinado que es poco probable, sobre los datos muestrales, que β=0,
se puede desear realizar una estimación para intervalos de β.

1 - b ± Z ⎡⎢1- α2 ⎤⎥ σ
⎣ ⎦ SC X

b ± t [1- α2 ;(n- 2)] CM AR


SC X

También se puede desear un intervalo de confianza para E(Y).

E(Y) = β0 + βX

Recordar: Ŷ = b0 + bX

( X k - X )2
b0 + bX ± Z ⎡⎢⎣1- α2 ⎤⎥⎦ r 2 1oversmn + SC X

Predicción con la ecuación de regresión.

Cuando se han estimado los parámetros del modelo de regresión y se ha


comprobado que hay relación lineal entre las variables en estudio mediante las
pruebas de significación y el cálculo de los intervalos de confianza, podemos
utilizar el modelo para realizar predicciones, que de hecho es una de las razones
principales por las que se emplea.

La ecuación de regresión nos permite predecir valores futuros para grupos de


sujetos ó para individuos particulares. Digamos por ejemplo que nos interesa
269

predecir la calificación promedio final de un grupo de médicos de la familia que


cursan un postgrado en Investigación y Estadística, ó tal vez preferimos predecir la
calificación de alguno de los médicos en particular. Entonces necesitamos
encontrar intervalos de confianza para la predicción, en ambos casos.

Un intervalo de confianza para el 95% de confianza para una media probable Y en


un grupo de sujetos es:

⎡ ⎛ _

2

⎢ ⎜ xi − x ⎟ ⎥

Yi ± t ( n − 2) S YX 2 ⎢1 + ⎝ ⎠ ⎥
⎢n SC X ⎥
⎢ ⎥
⎢⎣ ⎥⎦

En el caso que se trate realizar la predicción para un sujeto en particular:

⎡ ⎛ _ ⎤

2

⎢ ⎜ xi − x ⎟ ⎥

Yi ± t ( n − 2) S YX 2 ⎢1 + 1 + ⎝ ⎠⎥
⎢ n SC X ⎥
⎢ ⎥
⎣⎢ ⎦⎥

En este último como puede ver se agrega una unidad al término error estándar, lo
que hace que el intervalo sea mayor. Esto se debe a que para un valor dado de X,
habrá mayor variación en las calificaciones de personas que en la de grupos de
sujetos. Por otra parte, el tamaño del error estándar depende de qué tan próximo
_
este X de X , por lo que mientras más pequeña esa distancia, mejor será la
predicción, pero para valores de X muy alejados, la predicción de Y tendrá una
variabilidad considerable.

Errores en el uso de la regresión.

− Comúnmente se tratan observaciones múltiples realizadas en el mismo


sujeto como si fueran independientes. Por ejemplo imagine que se mide el
peso y el espesor del pliegue cutáneo en un grupo de 10 sujetos antes de
comenzar una dieta baja en calorías. 6 semanas después de esta, se repiten
las mediciones, tratándose las 20 como si fuesen independientes.
Aparentemente es como si hubiese aumentado el tamaño de la muestra
cuando en realidad continúan siendo 10 sujetos, de esta forma aumenta la
probabilidad de encontrar una correlación importante.
− Cuando se combinan dos grupos diferentes, también puede encontrarse
una relación espuria. Por ejemplo, si medimos el peso y la talla en un grupo de
hombres y la misma cantidad de mujeres, y utilizamos para calcular la
270

correlación entre las dos variables, las muestras combinadas, encontraríamos


una correlación aparentemente más significativa cuando se trabaja con las
muestras combinadas, que por separado, sin embargo la significación se debe
a que los hombres tienden a ser más altos y pesados que las mujeres, esto
nos llevaría a conclusiones erróneas.

Sugerencias para el uso de los análisis de regresión y correlación.

1. Antes de reunir los datos deben revisarse cuidadosamente las suposiciones


que fundamentan los análisis de correlación y regresión. Aunque es difícil que
se cumplan todos los supuestos a la perfección, es importante por ello, analizar
si ese modelo puede ser el mejor ó es necesario seleccionar otro e interpretar
los resultados cuidadosamente.
2. Tanto en la correlación como en la regresión, las variables de interés se
miden sobre la misma entidad, por ejemplo si se quiere medir la relación entre
hemoglobina y el hematocrito, dicha medición se realiza sobre el mismo
individuo.
3. No importa cuan grande es la relación encontrada entre dos variables, no
se debe interpretar como una relación causal.
4. No debe utilizarse la ecuación de regresión para predecir o estimar fuera
del intervalo de valores de la variable independiente representada en la
muestra. La extrapolación tiene riesgos y proyectar los resultados más allá de
del intervalo representado por la muestra puede llevar a conclusiones falsas.

Observaciones:

Para aplicar cualquiera de estas dos técnicas, debe tener en los siguientes
aspectos:

− Identificar el modelo: ¿Cual es que más conviene a sus preguntas?


− Revisar los supuestos: Mientras más se ajusten sus datos al modelo
elegido, mayor validez tendrá el estudio.
− Obtener la ecuación de regresión.
− Evaluar la ecuación: Pruebas de hipótesis y cálculo de Intervalos de
confianza.
− Utilizar la ecuación, ya sea para predecir que valor puede tener Yi dado un
valor específico de X ó para estimar la media de la subpoblacón de los valores
Y para un valor específico de X.

Regresión Múltiple.
Aunque existen muchas situaciones en que se puede predecir una variable con
bastante exactitud, en la práctica médica nos encontramos muchas veces más de
una variable que pueden ser predictivas para una determinada Y.
271

El modelo de regresión lineal simple puede ser extendido a dos, tres, hasta n
variables independientes, quedando el modelo de regresión lineal múltiple de la
siguiente manera:

Y = b0 + b1 X 1 + b2 X 2 ⋅ ⋅ ⋅ ⋅ + bn X n

siendo X1 la primera variable y b1 el coeficiente de regresión de esta, b2 la


segunda, y así sucesivamente hasta la n variable.

De esta forma puede expresarse la variable de respuesta Y como una


combinación lineal de las variables independientes.

Este modelo de regresión al igual requiere práçticamente de los mismos


supuestos que el simple:
− La variable dependiente tiene que ser cuantitativa, al igual que las
independientes
− La variable dependiente es aleatoria para cada combinación de valores de
las variables independientes.
− Normalidad
− Homocedasticidad
− Las subpoblaciones de valores de la variable dependiente asociada a las
combinaciones lineales de las independientes son independientes entre sí.
− Linealidad

Imagine que se desea analizar la relación entre el peso al nacer y la edad de la


madre, la cantidad de cajetillas de cigarros fumadas en el embarazo, la ganancia
de peso de la madre en Kg durante el embarazo y el peso previo al embarazo.
En este caso la variable dependiente es peso al nacer y las independientes serían
la edad materna, cantidad de cajetillas fumadas, los Kg ganados, el peso previo al
embarazo.
Aquí no nos sirve el gráfico de dispersión para tener una idea de la existencia de
asociación.
El intercepto (b0) y las pendientes(b) se obtienen con el procedimiento de mínimos
cuadrados, para lo que se necesita de las observaciones de las variables
independientes y de la dependiente para cada individuo operado.

Los coeficientes de regresión una vez obtenidos, se interpretan de forma diferente


a la regresión simple, b indica cuanto cambia el valor probable de Y cada vez que
la variable Xi aumenta en una unidad, mientras se conservan constantes los
valores del resto de las variables independientes de la ecuación.
Por ejemplo cuanto cambia el peso al nacer por cada cajetilla fumada durante el
embarazo por la madre, manteniéndose constante las restantes variables.
Esto permite aislar el efecto de una variable en particular y liberarla de cualquier
efecto de confusión de otras variables independientes.
272

Por otra parte, puede que tenga un efecto las cajetillas fumadas en el embarazo
sobre el peso del recién nacido, pero ¿se puede atribuir ese efecto a al azar?
Para contestar a esta pregunta se realizan al igual que en la regresión simple,
pruebas de significación estadística para los coeficientes de regresión. Pueden
realizarse pruebas para determinar si el conjunto de variables son significativas, y
para cada variable por separado, utilizando los estadígrafos Fisher y t student
respectivamente

El cálculo manual de la regresión múltiple resulta complicado, por lo que no voy a


atiborrarle con fórmulas, además porque puede ahorrarse esos cálculos utilizando
paquetes estadísticos que facilitan estos procederes, como es el SPSS.
273

Bayarre Vea H, Ranero Aparicio V. En: Métodos y Técnicas aplicados a la


Investigación en Atención Primaria de Salud. Parte III. Material Docente.
ENSAP; 2002

4.7 Introducción a los Métodos no Paramétricos.

Con anterioridad se estudiaron las estimaciones y pruebas de hipótesis, recuerde


que en la mayoría de los métodos tratados se requieren suposiciones acerca de la
aleatoriedad en las observaciones que forman las muestras, o sobre la distribución
de las poblaciones de las cuales se obtienen las muestras y se realizan
estimaciones acerca de los parámetros de esas poblaciones, fundamentalmente
sus medias y desviaciones típicas. Ese conjunto de métodos de inferencia es
denominado Métodos Paramétricos y, generalmente, dan estimaciones
probabilísticas bastante exactas, por lo que se consideran robustos. Sin embargo,
hay situaciones en las que no se pueden cumplir las suposiciones que requieren
dichas pruebas, por ejemplo si la muestra es pequeña y a simple vista no parece
seguir una distribución normal y el teorema central del límite no es aplicable,
entonces la estadística Z es excluida y la t no conviene porque la distribución de la
población de la que se extrae la muestra no se aproxima lo suficiente a la
normalidad. Para resolver situaciones como estas. los estadísticos desarrollaron
métodos paralelos conocidos como Métodos No Paramétricos.

Generalidades.
Comencemos este epígrafe presentando la definición de Prueba No Paramétrica.

Una Prueba No Paramétrica es aquella cuyo modelo no especifica las


condiciones de los parámetros de la población de la que se extrajo la muestra, no
hipotetiza sobre los parámetros o sobre la distribución poblacional.

Algunos autores denominan a estas pruebas “” estadísticas de libre distribución””,


por no implicar supuestos de distribución, otros le llaman “”métodos de rango””
porque en ellas es fundamental la ordenación de los datos, incluso en gran
cantidad de casos ni siquiera es necesario hacer intervenir en los cálculos las
magnitudes observadas, solo se establece una relación de menor a mayor entre
las mismas, a la que se denomina rangos, o sea, se basan más bien en el
análisis de rangos, que en los datos reales.
274

En realidad ninguno de estos términos describe con exactitud todas las pruebas
consideradas dentro de esta categoría, por lo que preferimos el de Métodos No
Paramétricos, término utilizado con mayor frecuencia.
Note que “”no paramétricos”” se aplica al método estadístico usado para el análisis
de los datos y no propiamente a los datos.

En el presente texto solo abordaremos algunas de las pruebas estadísticas no


paramétricas que puedan ser de mayor aplicación en la práctica.

Métodos de análisis para variables nominales en muestras independientes.

Dos muestras son independientes cuando la selección de una, no es afectada de


ninguna manera por la selección de la otra, interesándonos en el análisis las
diferencias entre las medias de cada grupo y la variabilidad entre los sujetos.

Se dice que dos muestras están pareadas si la probabilidad de que la variable en


estudio tome un valor en el iésimo sujeto de la muestra 2, depende del valor del
iésimo sujeto de la muestra 1.

De esta forma puede obtenerse una muestra pareada cuando los mismos
individuos son estudiados más de una vez, en diferentes circunstancias ó cuando
se tienen grupos de individuos diferentes, pero cada individuo de un grupo tiene su
pareja en el otro grupo, es decir tienen una serie de características similares,
excepto la que está en estudio.

En estos casos, en lugar de llevarse a cabo el análisis con las observaciones


individuales, se puede utilizar como variable de interés la diferencia entre los pares
individuales de observaciones.

Después de este recordatorio comenzaremos a mostrarle las pruebas de análisis


para variables nominales en muestras independientes.

Prueba χ2 de Independencia y χ2 de Homogeneidad.

Comenzaremos con dos pruebas que a pesar de tener cada una sus
especificidades, son estudiadas juntas en la mayoría de los libros e incluso como
una única prueba.
Son utilizadas en el análisis tradicional de tablas de contingencia, es por ello que
iniciaremos el epígrafe refiriéndonos a estas últimas.
275

El Análisis de Tablas de Contingencia (ATC)

Es importante que conozca algunos aspectos básicos del ATC, comenzaremos


por su definición:
Una tabla de contingencia es un arreglo de filas y columnas, donde se recoge
información relativa a variables, preferiblemente cualitativas, y (o) grupos
(muestras).

Las forma más conocidas de tratamiento estadístico de ésta son: la prueba de


independencia y la prueba de homogeneidad.

Si bien estas pruebas tienen muchos aspectos comunes difieren en: el tipo de
muestreo que generó la tabla de contingencia, el número de muestras, las
hipótesis que se someten a prueba y, obviamente, las conclusiones a que se
arriban con ellas.

Con relación a los métodos de muestreo que generan las Tablas de Contingencia
(TC), Fleiss ha señalado que: existen, esencialmente tres métodos de muestreo
que producen tablas de contingencia.

*Método I. Es el correspondiente a un estudio transversal. En él se selecciona de


una población de tamaño N, una muestra de tamaño n.. y se clasifica cada unidad
de análisis respecto a dos variables, preferiblemente cualitativas, o ƒ muestras
(ƒ ≥ 2 ) independientes y una variable B (cualitativa).

*Método II. Seleccionar un determinado número de unidades de análisis con cierta


característica, digamos A y otro donde la característica está ausente. Ambos
grupos se clasifican respecto a cierta característica B tal como sucede en los
estudios de cohorte.
Análogamente, se selecciona un determinado número de individuos con una
característica B y otro sin ésta y se clasifican respecto a una variable cualitativa
(A); tal como sucede en los estudios de casos y controles.

*Método III. En esencia es muy parecido a la primera variante del Método II, solo
que la asignación de los individuos a los grupos es aleatoria, tal como ocurre en
los ensayos clínicos controlados.
276

A continuación presentamos una tabla de contingencia en la cual ilustramos los


diseños mencionados:
Variable A(con Variable B
ƒ muestras Total
B1 B2 B3 .......Bc
independientes)
A1 N11 n12 n13 .......n1c n1.
A2 N21 n22 n23 .......n2c n2.
A3 N31 n32 n33 .......n3c n3.
.
.
.
.
Aƒ Nƒ1 nƒ2 nƒ3 .......nƒc

nƒ.

Total n.1 n.2 n.3 .......n.c n..

Estudio de Caso–Control E. Transversal

Estudio de cohorte o Ensayo Clínico Controlado.


Como puede ver en la tabla, cuando se trata de un estudio transversal, se fija el
total marginal de la tabla; en los estudios de Casos y Controles se fijan los totales
por columna y cuando se trata de un ensayo clínico controlado ó de un estudio de
Cohorte se fijan los totales por fila.
Después de estos aspectos de las tablas de contingencia podemos comenzar con
las pruebas antes señaladas.
Prueba χ2 de independencia.

La prueba de independencia o asociación, se utiliza cuando se tiene una muestra


de n.. individuos que se clasifican respecto a dos variables, preferentemente
cualitativas (nominales dicotómicas o politómicas)29 y se desea conocer a partir de

6
Es válido aclarar que si bien puede utilizarse la prueba para cualquier tipo de
variable, ella es preferiblemente para variable cualitativas nominales, en tanto
277

datos muestrales, si existe asociación de estas a nivel poblacional. El uso y las


hipótesis de esta prueba se resume en el siguiente recuadro:

# de muestras 1
Tipo de muestras –
Tipo de variables Preferiblemente
nominal1

Hipótesis:

H0: Existe poblacionalmente independencia entre las variables estudiadas


H1: No existe poblacionalmente independencia.

Estadígrafo de Prueba:
La construcción del estadígrafo de prueba reposa en el principio de la
comparación entre las frecuencias observadas en cada celda de la tabla de
contingencia a partir de un estudio concreto y las esperadas, es decir, las
frecuencias que deberían ocurrir en cada celda, si no existiera asociación entre las
variables en estudio; de la forma en que aparecen en la siguiente expresión
(fórmula 1):

ƒ c (n − eij )
2

χ = ∑∑
2 ij

i =1 j =1 eij

Donde:
nij: frecuencia observada en la celda i, j
eij: frecuencia esperada en la celda i, j

ni. n. j
siendo eij = , es decir el producto de los totales marginales de las celdas i, j
n..
divididos por el gran total.
El estadígrafo χ de Pearson sigue una distribución χ con (ƒ–1) (c–1) grados
2 2

de libertad. Los percentiles de esta distribución se muestran en la tabla E.

Regla de decisión: rechazo H0 sí χ 2 obs ≥ χ 2 teórico [1– α ; (ƒ–1) (c–1)]

existen pruebas de mayor especificidad para variables medidas en una escala


ordinal o de mayor nivel.
278

Prueba de Homogeneidad.

La Prueba de Homogeneidad se utiliza cuando se tienen varias muestras, en


general f (f ≥ 2), independientes y se clasifican las observaciones de éstas
respecto a c categorías (c ≥ 2) de una cierta variable preferiblemente cualitativa
nominal con la finalidad de conocer si la distribución de la variable estudiada
difiere de las "ƒ" poblaciones subyacentes de las cuales se obtuvieron las
muestras.

El uso de la prueba vendrá dado por:

# de muestras 2 o más, en
general ƒ
Tipo de muestras Independientes
Tipo de variables Preferiblemente
nominal.

Hipótesis:
H0: no difiere la distribución de las variables estudiadas en las "ƒ" poblaciones
subyacentes de las cuales se obtuvieron las muestras.
H1: difiere la distribución de las variables estudiadas en las "ƒ" poblaciones
subyacentes de las cuales se obtuvieron las muestras.

Estadígrafo de Prueba:

El estadístico de prueba y la regla de decisión son justamente las mismas que


para la prueba de independencia, de ahí que no la expongamos de nuevo.

A continuación presentamos un ejemplo práctico que puede resolverse a través de


una de las pruebas estudiadas.

Ejemplo:
– Un grupo de investigadores desea probar la hipótesis siguiente: "La
aparición de la enfermedad de Alzheimer está asociada al sexo"; para
ello diseñan un estudio analítico de prevalencia en una muestra de 779
adultos mayores de Ciudad de La Habana durante 1999. Los resultados
se exponen en la tabla siguiente:
279

Tabla de valores observados.


Enfermedad de Alzheimer
Sexo Total
Presente Ausente
Masculino 7 287 294
Femenino 33 452 485
Total 40 739 779

Uso:
# de muestras: 1 Prueba de
tipo de variable: cualitativa nominal dicotómica. Independencia

Hipótesis:
H0: Existe poblacionalmente independencia entre el sexo y la enfermedad de
Alzheimer.
H1: No existe poblacionalmente independencia entre el sexo y la enfermedad de
Alzheimer.

Estadígrafo de prueba:

ƒ c (n − eij )
2

χ = ∑∑
2 ij

i =1 j =1 eij
Para obtener el EP necesitas calcular los eij. La siguiente tabla presenta estos
valores.

Tabla de valores esperados.

Enfermedad de Alzheimer
Sexo
Presente Ausente
Masculino 15.1 278.9
Femenino 24.9 460.0

Sustituyendo en fórmula 1:

χ =
2 (7 − 15.1)
2

+
(287 − 278.9 )
2

+
(33 − 24.9 )
2

+
(452 − 460)
2

15.1 278.9 24.9 460

χ 2 = 4.35 + 0.24 + 2.63 + 0.14 ≈ 7.35

Regla de decisión:
7.35>3.84 ⇒ rechazo H0
280

Conclusión:
Hay evidencias suficientes para plantear asociación entre el sexo y la enfermedad
de Alzheimer al 95% de confiabilidad.

Caso particular 2x2

El EP que acaba de conocer, es válido para el análisis tradicional de cualquier


tabla de contingencia, sin embargo cuando tenemos una TC de 2x2, como se
muestra a continuación:
B
A Total
B1 B2
A1 N11 N12 n1.
A2 N21 N22 n2.
Total n.1 n.2 n..

Este se resume en la siguiente expresión, que como verá elimina el trabajo de


calcular las frecuencias esperadas (fórmula 2):

n (n n − n n )
2

χ = .. 11 22 12 21
2

n1. n2. n.1n.2


La regla de decisión para este caso es: rechazo H0 si

χ 2 obs ≥ χ 2 teórico [1– α ; 1gl]

Resolvamos el ejemplo anterior con la expresión planteada:

779(7 x 452 − 287 x33)


2

χ2 = ≈ 7.35
294 x 485 x 40 x739

Como puede ver los resultados son idénticos a los obtenidos con la fórmula 1.

Corrección por continuidad de Yates.

Desde que en 1934, Yates propuso introducir al estadígrafo χ de Pearson una


2

corrección, por el hecho de utilizar una distribución continua (Ji Cuadrado) para
representar la distribución muestral de variable(s) discreta(s), han surgido
opiniones a favor y en contra sobre este proceder, las cuales han trascendido
hasta nuestros días.
281

La objeción más frecuentemente esgrimida es que la corrección "sobrecorrige",


dificultando el rechazo de H0 de forma excesiva. Con relación a este
planteamiento investigaciones empíricas han demostrado que:

9 En el caso de tablas de contingencia ƒxc, la corrección por


continuidad de Yates sobrecorrige, por lo que no debe utilizarse
nunca.
9 En el caso de TC de 2x2, con independencia del método de
muestreo que generó la tabla, la corrección actúa como si los
cuatro márgenes estuvieran fijos, en cuyo caso las probabilidades
exactas asociadas con las frecuencias observadas en cada celda
puede, bajo la restricción anterior, derivarse de la distribución
hipergeométrica, de ahí que esta sea recomendada siempre en
este caso. Se ha comprobado que la probabilidad asociada a este
EP es casi idéntica a la probabilidad exacta de Fisher (Prueba de
Fisher–Irwin).

El estadígrafo corregido para el caso 2x2 es (Fórmula 3):

2
⎛ 1 ⎞
n.. ⎜ n11n22 − n12 n21 − n.. ⎟
χ2 = ⎝
2 ⎠
n1. n2. n.1n.2

El estadígrafo corregido para el caso ƒxc es (Fórmula 47):

ƒ
χ 2 = ∑∑
c (n ij − eij − 0.5 )
2
30

i =1 j =1 eij

Sólo se realizará la sustracción planteada si la diferencia modular es mayor que


0.5.
Así, si utilizamos el estadígrafo corregido en el ejemplo expuesto con anterioridad:

2
⎛ 779 ⎞
779⎜ 7 x 452 − 287 x33 − ⎟
χ =
2 ⎝ 2 ⎠
≈ 6.47
294 x 485 x 40 x739

7
El efecto sobrecorrector de la corrección por continuidad de Yates en este
estadígrafo ha propiciado que el mismo se encuentre en desuso.
282

Como puede ver, aunque se mantiene la decisión de rechazo, el EP se redujo de


7.35 a 6.47.

Errores más frecuentes en el uso de las Pruebas de Independencia y


Homogeneidad.

Las dócimas de independencia u homogeneidad se usan con bastante frecuencia


en la investigación en salud. Sin embargo, en muchas ocasiones éstas son
inadecuadas. Lo cual conduce a errores en la toma de decisión que deviene de
estos resultados.
Con relación a la utilización errónea de estas pruebas varios autores han brindado
sus criterios. Así, López Pardo señala lo siguiente:

1. Uso irreflexivo de la prueba: antes de realizar cualquier prueba deben


inspeccionarse los datos. Este procedimiento, puede en ocasiones, aportar la
información necesaria. De hecho en muchas ocasiones, un análisis descriptivo
de los datos puede evidenciar diferencias, o por el contrario, evidenciar que no
hay diferencias, sin necesidad de acudir a las pruebas de significación.

2. Utilización de la prueba sin tener en cuenta el tipo de variable: en este aspecto,


suelen cometerse errores en dos sentidos.
9 Clasificar una variable cuantitativa en su naturaleza con una escala de
menor nivel: en estadística, salvo excepciones, debemos evitar perder
información. De hecho, si clasificamos las variables con escalas de un
nivel inferior estamos perdiendo información. Así, si se desea ver si una
variable continua, digamos la edad, está asociada a una variable
cualitativa nominal dicotómica, la prueba de comparación de medias, o
su homóloga no paramétrica (t de Wilcoxon o U de Mann–Whitney),
resultan más convenientes, y si ésta es politómica, el ANOVA de 1 vía o
Kruskal Wallis son más adecuadas.
9 Utilizar la prueba cuando una de las variables es cualitativa ordinal. En
este caso, si la otra es dicotómica, la Prueba de Bartholomew es más
específica, o el Ridit Analysis, cuando esta es politómica.

3. Uso del estadístico χ como una medida de asociación: la prueba de


2

independencia, es una prueba de significación de la asociación. Es decir, sólo


nos dice si la asociación entre las variables investigadas puede atribuirse o no
al azar. No nos permite conocer la magnitud de la asociación. Este último
aspecto puede conocerse mediante el uso de la correlación entre variables, en
el caso de Tablas de Contingencia podría ser conveniente el cálculo de
coeficientes de correlación como φ , Contingencia, V de Cramer, etc.

4. Utilización de la prueba cuando existen valores esperados muy pequeños. Se


ha demostrado que en Tablas de Contingencia (fxc), cuando más del 20% de
283

las frecuencias esperadas es inferior a 5, o alguna de éstas es inferior a 1, no


deberá realizarse la prueba. En esta caso, deberá colapsarse
convenientemente la tabla, convertirla en (2x2) y aplicar la Prueba de
Probabilidades Exactas de Fisher. En el caso de Tablas de Contingencia (2x2),
si la menor frecuencia esperada es inferior a 5 no deberá realizarse la prueba,
al menos el estadístico χ sin corrección. En este caso se empleará el
2

estadístico χ 2 corregido, o en su defecto la Prueba de Probabilidades Exactas


de Fisher.

5. Uso de la prueba cuando se dispone de valores promedios o porcentajes.


Las pruebas de independencia u homogeneidad se realizan a partir de las frecuencias
observadas, no de medidas de resúmenes.

Bibliografía:

1. Armitage P, Berry G. Statistical Methods in Medical Research. 3rd ed.


Oxford: Blackwell Scientific Publications, 1994.
2. Altman DG. Practical statistics for medical research. London: Chapman and
Hall. 1992
3. Daniel WW. Bioestadística. Base para el análisis de las ciencias de la salud.
3ra edición. México. D. F: Limusa; 1997.
4. Norman GR, Streiner DL. Bioestadística. España: Hartcourt Brace; 1998
5. Martínez Canalejo H, Santana Porben S. Manual de procedimientos
bioestadísticos. Tomo I. ISCM de la Habana. 1989.
6. Armitage P, Berry G. Estadística para la Investigación Biomédica. Doyma,
Barcelona, 1992.
7. Versión electrónica del manual de la Universidad de Málaga. Bioestadística:
métodos y aplicaciones. Málaga; 1998.
8. Dawson-Saunders B, Trapp RG. Bioestadística. 2da Edición. México:El
Manual Moderno,1999.
9. Coolican H. Métodos de investigación y estadística en psicología. 2da ed.
México: El Manual Moderno, 1997.
10. Fliess J L. Statistical Methods for Rates and Proportions. Second Edition.
New York. John Wiley and Sons; 1981
11. Morton RF, Hebel JR, McCarter RJ. Bioestadística y epidemiología. 3ra ed.
México: interamericana. McGraw-Hill, 1994.
12. López Pardo C. Curso "Métodos No Paramétricos en la Investigación
Contemporánea". La Habana. Universidad de La Habana; 1990
13. Doménech Massons JM. Métodos estadísticos en Ciencias de la Salud.
Comparación de dos medias. Pruebas t. Pruebas no paramétricas.
Pruebas de normalidad. Barcelona: Signo, S.A; 1995.
14. Swinscow, TVD. Statistics at square one. 9th edition. BMJ publishing group;
1997.

Potrebbero piacerti anche