Sei sulla pagina 1di 34

, ,

GUIA PARA LA INTERPRETACION DE


RESULTADOS EN EL CONTRASTE DE
, ,
H IPOTESIS ESTADISTICAS
(Estadística Paramétrica y No Paramétrica)

Autor: Enrique Navarro Asencio


(@eduktive)
https://eduktive.wordpress.com/
Versión 5
26/01/2015
Enrique Navarro Asencio (@eduktive)

Esta guía pretende llevar a cabo una introducción a los conceptos básicos del contraste de hipótesis
estadístico. Con su lectura se puede dar respuesta a dos preguntas fundamentales: ¿Qué tipo de
análisis estadístico es adecuado para analizar los datos? y ¿cómo se interpreta esa inforn1ación
estadística?

, ,
l. ESTADISTICA DESCRIPTIVA E INFERENCIA ESTADISTICA
El análisis estadístico puede agruparse en dos vertientes diferenciadas. Por un lado, la estadística
descriptiva, que se encarga de describir las características de los sujetos que forman parte del
estudio para presentar la información de forma organizada y resumida, por ejemplo, qué cantidad
o proporción de mujeres y hombres, sus edades, sus niveles en las variable de interés, etc. Y, por
otro, la estadística inferencia! que trata de contrastar hipótesis partir de los datos de la muestra
para que puedan generalizarse a la población.
Esta generalización de los resultados depen derá en parte del proceso de selección muestra! y su
tamaño. No obstante, contar con muestras pequeñas no es un impedimento para realizar
contrastes estadísticos utilizando una metodología rigurosa y correcta.

Univariada

Descriptiva
.Bjy..ar.iad.a

_(_C_on:.ela.cio_o_e_s_)

Estadística

Pruebas
Paramétricas
Inferencia!
(Contraste de
Hipótesis)
Pruebas No
Paramétricas

Figura l. Clasificación de análisis estadísticos


Esta guía se centra en el segundo grupo de análisis estadísticos que se utilizan para llevar a cabo el
contraste de hipótesis. También se incluyen los estadísticos para analizar la relación entre
variables, aunque usualmente se clasifican dentro del grupo de estadísticos descriptivos y se
denon1inan estadísticos descriptivos bivariados.
La estadística descriptiva incluye una parte de análisis de cada variable por separado (univariada) y
otra para establecer relaciones entre pares de variables (bivariada).
La estadística descriptiva bivariada también se puede considerar estadística inferencia! si la
finalidad de la investigación es generalizar los resultados de correlación a la población. Si la

2
Enrique Navarro Asencio (@eduktive)

investigación no tiene ese objetivo y solo pretende describir un grupo de sujetos, las correlaciones
son estadísticos descriptivos.
Esa inferencia, por tanto, permite la generalización de los resultados de una muestra a la población
en términos de probabilidad. Esta generalización de los resultados dependerá principalmente del
proceso de selección muestra! que debe garantizar la representatividad de la muestra.
Antes de comenzar con la descripción de las diferentes pruebas que se utilizan para el contraste de
hipótesis en estudios con datos empíricos, conviene introducir algunos conceptos básicos.

1.1 VARIABLES EN LA INVESTIGACIÓN


Cada vez que se observa un fenómeno o se administra un determinado test, cuestionario o encuesta
a un sujeto, se está llevando a cabo un proceso de medición de variables. Una variable es una
característica que varía entre los díferentes individuos de una población. La información que
disponemos de cada individuo es resumida en variables. Las variables se pueden manipular, medir
o controlar. Y, por definición, una variable es lo opuesto a una constante.
La información cualitativa se recoge mediante técnicas de recogida de inforn1ación cualitativa,
principalmente la entrevista en sus diversos formatos (grupos de discusión, biográficas, delphi... ), y
el producto es contenido textual, en cambio, la información cuantitativa se extrae medíante
técnicas de recogida de información cuantitativa (cuestionarios, tests ...) y se puede codificar de
forma numérica para cuantificarla.
Esa información cuantitativa se pude medír a través de diferentes escalas (escalas nominales,
ordinales, intervalo y razón). Y cada escala es adecuada para medír un tipo de variable
determinado.

• Los números representan cant i dades Iguales


• El cero si gnlfica ausencia del atributo o varlble
• Permi ten cualquier tlpo de operación matemát i ca.
• Ejemplos: ead, euros, vel ocidad, tamaño del aul a...

• Las distancias Iguales entre dos números de la escala


representan la misma diferencia en la varlble.
• El cero no es absoluto
•Ejemplos: temperatura, puntuaciones de test ..

•Las cateogrías pueden ordenarse de mayor a


menor o vi ceversa.
,Ejempl os: t ipo Llkert, clase social...

•los números no representan cantldades.,


s ólo dlstlnguen entre categorías.

Nominal: •La asignación de los números a las


categorías es aleatoria
•Ejemplos: género, raza, t ipo de
1 ateralIda d...

FIGURA 2. ESCALA DE MEDIDA DE VARIABLES


Las escalas nominales y ordinales miden variables de naturaleza cualitativa y las de intervalo y
razón las de naturaleza cuantitativa. Por tanto, la recogida de información cuantitativa puede
producir variables de naturaleza cuantitativa y cualitativa:

3
Enrique Navarro Asencio (@eduktive)

A) Cualitativas: sus valores (niveles) no se pueden asociar naturalmente a un número, es decir,


no se pueden hacer operaciones algebraicas con ellos como sumar o restar los valores de los
diferentes niveles o categorias. Este grupo incluye variables:
• Nominales: Si sus valores no se pueden ordenar en función de la cantidad o nivel de la
variable. Pueden ser dicotómicas con dos categorías (sexo: hombre-mujer; ítems de
verdadero-falso o de sí-no, etc.) o politómicas con más de dos categorías (Grupo Sanguíneo,
nacionalidad, etc.). En ocasiones, algunas variables pueden dicotomizarse para convertirlas
en cualitativas con dos únicas categorías, por ejemplo, el rendimiento categorizado como
alto o bajo.
• Ordinales: Si sus valores se pueden ordenar pero no hay la misma distancia entre las
diferentes categorías de la variable, es decir, permiten establecer relaciones de mayor,
menor o igual. Por ejemplo el grado de satisfacción Intensidad del dolor (leve, moderado,
intenso), las notas (suspenso, aprobado, notable, sobresaliente), etc.
B) Cuantitativas o Numéricas: son variables que pueden ser medidas de forma numérica y, por
tanto, sus valores corresponden a cantidades y tiene sentido hacer operaciones algebraicas con
ellos. Este grupo incluye variables:
• Discretas: si toma únicamente valores enteros: n° de hijos, edad (n º de años), notas (de o
a 10), etc.
• Continuas: Si entre dos valores, son posibles infinitos valores intermedios: altura, peso,
puntuaciones en test estandarizados, presión intraocular, etc.
Otra forma de clasificación de variables es según el papel o función que desempeña en una
investigación. Desde esta perspectiva es posible diferenciar entre:
• Independientes: es una variable que funciona como un estímulo para provocar cambios.
También s e suele identificar con el agente o con la posible "causa" de que otras variables
cambien o varíen. Por ejemplo, si la hipótesis es: "los estudiantes que reciben un programa
de mejora de la creatividad obtienen mejores resultados en comprensión lectora que
aquellos que siguen la enseñanza tradicional", es recibir o no el programa de creatividad la
variable que antecede a los resultados en comprensión lectora y, por tanto, será la variable
independiente que, en este caso, tiene dos valores: n1étodo de creatividad o enseñanza
tradicional.
• Dependientes: es la variable dónde se observan los cambios producidos por la variable
independiente y es el objeto de interés de la investigación. En los estudios con variable
neuropsicológicas y rendimiento académico, las primeras anteceden a los resultados de
rendimiento. Por ejemplo, el tratamiento (causa o variable independiente) provoca cambios
en el rendimiento de los estudiantes (efecto o variable dependiente). En esta distinción
conviene destacar que es el investigador quien decide el papel de las variables cuando
formula las hipótesis.
• Intervinientes: son variables que afectan a la dependiente, pero que no producen
cambios que interesen para la investigación. Son variables ajenas a la investigación pero
que pueden afectar a los resultados. Si se incluyen en el diseño se denominan variables de
control y si no se incluyen variables extrañas.
También conviene tener en cuenta que cuando se estudia únicamente la relación entre variables
mediante coeficientes de correlación, no se diferencia entre dependiente e independiente porque
un coeficiente de correlación no indica que variable antecede a otra o cuál es la causa.
Finalmente, las variables independientes también reciben una doble categorización: Son
variables activas si el investigador puede manipular de forma directa, es decir, es el investigador

4
Enrique Navarro Asencio (@eduktive)

quien decide qué niveles o modalidades tiene esa variable y permite distribuir a los sujetos de
forma aleatoria en esos niveles, como diferentes dosis de medicamento o diferentes modalidades de
un programa de intervención (control, experimental). En can1bio, son variables asignadas si no
pueden ser manipuladas por el investigador, es decir, son características propias de los sujetos
como el género, nivel educativo, edad, etc.

1.2 FORMULACIÓN DE HIPÓTESIS ESTADÍSTICAS


El análisis estadístico inferencia! se lleva a cabo para probar algún tipo de hipótesis, ya sea para
encontrar diferencias entre grupos, probar la relación entre variables, o análisis más complejos
como la predicción (regresión) o la causalidad (análisis de ecuaciones estructurales). En todos los
casos se debe formular una hipótesis que se confirmará (o no), en función de los resultados de estos
análisis.
Una hipótesis es una afirmación sobre un posible resultado que el investigador espera encontrar en
su investigación y el contraste de hipótesis (también denominado prueba de significación o prueba
estadística) es el método que se utiliza para averiguar si esa hipótesis debe aceptarse o rechazarse.
La lógica del contraste de hipótesis estadístico consiste en aceptar o rechazar la hipótesis
formulada en términos de probabilidad de ocurrencia, es decir, una hipótesis se rechaza porque
tienen poca probabilidad de que se produzca. De lo que se trata es de probar con datos empíricos
esa hipótesis y comprobar si el resultado se puede generalizar a la población.
Las hipótesis de una investigación neuropsicológica suelen referirse a correlaciones entre
variables o a comparaciones de grupo, aunque existen otro tipo de hipótesis (de predicción, de
causalidad, etc.). Por ejemplo, un investigador formula la siguiente hipótesis de investigación:
No existen diferencias entre las puntuaciones de creatividad de chicos y chicas

El investigador quiere comprobar si los resultados en creatividad de los chicos y las chicas son
estadísticamente iguales. Esta hipótesis para ser contrastada en primer lugar se formula en
términos estadísticos.
Una hipótesis estadística es una afirmación sobre las características de una distribución de
probabilidad y surge de la hipótesis de investigación formulada. Siguiendo con el ejemplo anterior
y considerando que la creatividad se ha medido en una escala de intervalo, el investigador quiere
probar si las medias de chicos y chicas son iguales.
La hipótesis de investigación es el origen de las hipótesis estadísticas, pero no son exactamente lo
mismo. Mientras que la hipótesis de investigación hace referencia a algún aspecto observado de la
realidad, las estadísticas hacen referencia a la distribución de probabilidad que, en este caso, como
se cuenta con una variable cuantitativa (distribución normal), se formula sobre la distribución de la
media:
Mediachicos= Mediachicas
Las hipótesis estadísticas son siempre 2: Nula (representada por Ho) y alternativa (representada p
La hipótesis nula es siempre la hipótesis que se somete a contraste y siempre se formula en
términos de igualdad cuando se comparan los resultados de dos o más grupos o de negación
cuando se trata de correlación, es decir, indica que no hay correlación entre variables o que el valor
de la correlación es igual a cero. En cambio la hipótesis alternativa incluye el resto de resultados
posible que no se establecen en la nula.
Las hipótesis estadísticas se formulan de esta manera para que rechazar la hipótesis nula suponga
auton1áticamente la confirmación de la alternativa, Ambas son complen1entarias y mutuamente
excluyentes. Por ejemplo, en el caso de buscar la relación entre dos variables la hipótesis nula (Ho)
quedaría formulada de la siguiente forma:
5
Enrique Navarro Asencio (@eduktive)

• No existe relación entre el rendimiento en matemáticas y el rendimiento en lengua (o la


correlación entre las variables es igual a cero).
Ho: p= o
Y la hipótesis alternativa (H,) sería así:
• Las variables rendimiento en matemáticas y rendimiento en lengua están relacionadas.
H1: P* o
Para el caso en el que la hipótesis trata de analizar las diferencias entre grupos de sujetos distintos,
por ejemplo, diferencias en matemáticas en función del género, quedaría formulada de la siguiente
forma:
• Hipótesis Nula (Ho): No existen diferencias en el rendimiento en matemáticas de
mujeres y hombres (o las puntuaciones de hombres y mujeres son iguales).
Ho: �1chicos= �1chicas
• Hipótesis Alterna (H,): Sí existen diferencias en el rendimiento en matemáticas de
mujeres y hombres (o las puntuaciones de hombres y mujeres son diferentes).
H1: �1chicos* �1chicas
Mediante el análisis estadístico adecuado se busca evidencia para aceptar o rechazar la hipótesis
nula. E n caso de ser rechazada, la hipótesis alternativa debe aceptarse.

1.3 DISTRIBUCIÓN MUESTRAL


Para definir una variable aleatoria se deben determinar los diferentes valores que puede tomar y
con qué probabilidad pueden ocurrir esos valores. Cada valor de una variable tiene una
probabilidad de ocurrencia, de la misma forma que cuando lanzamos una moneda al aire sabemos
que existe un 50% de probabilidades de que salga cara y otro 50% de que salga cruz. A esa función
de probabilidad se la denomina distribución muestra o densidad de probabilidad.
Las probabilidades de ocurrencia de los niveles de una variable son equivalentes a sus frecuencias
relativas o porcentajes, es decir, cuántas veces ocurre un fenómeno del total de casos.
En las variables con dos únicos niveles, como el lanzamiento de una moneda o el género de los
sujetos, acertar o fallar un íten1, etc. los niveles pueden tener o no la misma probabilidad de
ocurrencia, este tipo de distribuciones se denominan distribuciones binomiales
1

0,75
50% 50%
0,5

0,25

G
5000 LANZAMIENTOS
FIGURA 3. DISTRIBUCI N BINOMIAL CON IGUAL PROBABILIDAD

6
Enrique Navarro Asencio (@eduktive)

Utilizar variables cuantitativas que cumplen con los requ1s1tos de normalidad, como ya se
mencionó en el tema anterior, es uno de los supuestos que se deben cumplir para utilizar pruebas
estadísticas paran1étricas. En can1bio, si la distribución de puntuaciones no cumple con la
normalidad se deberán emplear pruebas no paramétricas.
• Pruebas Paramétricas: se utilizan con variables cuantitativas y con una muestra
suficiente de sujetos (al menos 30 casos por grupo). Estos requisitos son necesarios para
obtener una distribución normal de las puntuaciones en la variable analizada.
• Pruebas NO Paramétricas: se utilizan con variables dependientes cualitativas, ya
sean ordinales o nominales. También cuando se cuenta con variables cuantitativas pero
no se alcanza el tamaño mínimo recomendado.
La decisión de emplear un tipo de pruebas u otras depende de las características de las variables
que forman parte de la investigación. Para utilizar pruebas paramétricas las variables deben
cumplir una serie de supuestos:
• Variables dependientes cuantitativas: medidas en escalas de intervalo o razón. En
algunas ocasiones variables ordinales pueden considerarse cuantitativas si cumplen con
el supuesto de normalidad
• Normalidad de las puntuaciones: las variables objeto de estudio deben tener
distribución normal, es decir, con forn1a de can1pana de Gauss. Este supuesto puede
comprobarse con la prueba de Kolmogorov-Smirnov, pero si se cuenta con variables
cuantitativas y un tamaño muestra! suficiente (30 casos).

FIGURA 5. DISTRIBUCIÓN NORMAL DE PUNTUACIONES


• Homocedasticidad: cuando se comparan las puntuaciones de dos o más grupos es
necesario que la varianza de esos grupos sea homogénea, es decir, que las varianzas de
los grupos sean iguales'. Es posible comprobar este supuesto con la prueba de Levene o
de Box. También es necesario garantizar un tamaño suficiente de los grupos (30 casos
por grupo a comparar).
• Independencia de las observaciones: en la recogida de información, las respuestas
de un sujeto a un determinado test no deben depender de las respuestas de otro sujeto.
• Linealidad: para el estudio de correlación con pruebas paramétricas (índice de
Pearson) es necesario que la relación entre el par de variables analizadas sea lineal.
Por tanto, además del tipo de hipótesis a contrastar (relación o diferencias entre grupos), es la
naturaleza de las variables (cuantitativa o cualitativa) y el tamaño muestra!, los que determinan la
prueba estadística adecuada para analizar la información. En función de esa naturaleza, los
estadísticos se clasifican dentro de esas dos categorías generales:
A. Estadísticos Paramétricos
1. Diferencias entre grupos: T de Student y F de Snedecor (ANOVA)

1
Conviene recordad que la varianza es un estadístico descriptivo de dispersión
8
Enrique Navarro Asencio (@eduktive)

2. Correlación: Pearson
B. No Paramétricos
1. Diferencias entre grupos: U de Mann-Whitney, H de Kruskal-Wallys y W de
Wilcoxon
2. Correlación: Spearman, Tau b, Tau c, Gamma y Chi-cuadrado, biserial-puntual
El estadístico siempre va acompañado de un valor de probabilidad asociado. Normalmente se
nombra como sig. (bilateral) o P-valor. Este valor es el que determina si el estadístico calculado ha
resultado significativo.

NIVEL DE SIGNIFICACIÓN
Cada estadístico estimado en un contraste de hipótesis, ya sea paramétrico o no paramétrico, de
correlación o comparación, siempre se acompaña de su probabilidad de ocurrencia de la hipótesis
nula (p-valor).
Esta probabilidad asociada al estadístico indica el número de ocasiones (cuántas veces de cada 100,
es una proporción) que s e cumplirá la hipótesis nula. Ese valor se debe comparar con un valor de
probabilidad, elegido por el investigador, que establece el límite para considerar que una hipótesis
se cumple. Ese valor de comparación es el nivel de significación o nivel de error que se espera
cometer (a) y en investigación social no debe superar el 5%, es decir, una probabilidad de 0,05.
Para aceptar la hipótesis nula deberá cumplirse más del 5% de las ocasiones, por tanto, debe tener
una probabilidad asociada que supere el 0,05.
Unos valores bajos de probabilidad asociada al estadístico inferior o igual al nivel de error (5% o
inferior o igual a 0,05) señalarán que la hipótesis nula no se cumple el número suficiente de
ocasiones y, en consecuencia, deberá rechazarse y, por tanto, aceptar la hipótesis alternativa. En
cambio, si la probabilidad supera ese valor deberá aceptarse.
Ese 5% (a=,05) es el lín1ite establecido por consenso en investigación. No obstante, si el resultado
de la probabilidad es igual o inferior al 1% (p = ,01) indica que la hipótesis nula solo ocurre una de
cada 100 veces. Si esa probabilidad es del 0,1% (p= ,001) nos indíca que ocurre una de cada 1000
ocasiones. Cuanto más bajo sea el nivel de significación más seguridad habrá al rechazar la
hipótesis nula.
Siempre que se realiza un contraste de hipótesis estadístico hay cierta probabilidad de error. Ese
5% indica también el error que se asume en el contraste de hipótesis. Utilizar este punto de corte
del valor de la probabilidad conlleva asun1ir un 95% de nivel de confianza, pero es posible aunque
poco probable que rechacen1os una hipótesis nula cuando es cierta, o que la aceptemos cuando es
falta. Los distintos tipos de error que pueden cometerse se resumen en la siguiente tabla:
Realidad

Ho cierta H0 Falsa

Correcto El,«.t'9ol
No Rechazo Ho
El tratamiento no tiene efecto y B tratamiento si tiene efectD
así se decide. pen, nolo pen:lblmas.
Robustez estadística Probablldad 11

Rechazo H0
··••1'9o•
B bataiNlnlD no tiene etem,
Correcto
El tratamiento tiene efecto y el
Acepto H 1 pen, adeddeq• sL experimento lo confirma.
P.obablldada Potencia estadística

Tabla l. Tipos de error en un contraste de hipótesis


9
Enrique Navarro Asencio (@eduktive)

Por tanto, cuando se rechaza la hipótesis nula es porque tiene poca probabilidad de ocurrencia. En
un análisis de correlación la hipótesis nula se formula en términos de negación de la relación entre
las variables de rendimiento. Y, por tanto, la obtención de un valor de probabilidad inferior a 0,05
quiere decir que esa falta de relación, la hipótesis nula, ocurre menos del 5% de las veces y debe ser
rechazada. En el otro 95% de los casos la relación es significativa. De forma opuesta, cuando el
valor de probabilidad supera ese 0,05 la hipótesis nula tiene una probabilidad de ocurrencia
suficiente para no ser rechazada.
1.5 CLASIFICACIÓN DE ANÁLISIS ESTADÍSTICOS PARA EL CONTRASTE
DE HIPÓTESIS.
En este apartado se presentan los estadísticos más habituales para contrastar hipótesis de
correlación o de comparación de grupos, diferenciando entre paramétricos y no paramétricos.
Los dístintos análisis de correlación que se incluyen en esta guía están representados en la Figura
6. El coeficiente Pearson se emplea con variables cuantitativas y tamaños muestrales grandes (por
encima de 30 casos). El coeficiente Spearman (también tau-b, tau-e y gamma) se emplean cuando
no se alcanza ese tamaño muestra! o cuando las variables analizadas tienen naturaleza ordinal.
Cuando se correlaciona una variable cualitativa dicotómica y otra cuantitativa se utiliza la
correlación biserial-puntual. Finalmente, el coeficiente chi-cuadrado analiza la relación entre
variables cualitativas nominales o entre una variable non1inal y otra ordinal.
El estadístico chi-cuadrado tiene variantes en función del nún1ero de niveles de la variable
nominal. Si las variables tienen el mismo número de categorías, especialmente si las variables a
correlacionar tienen dos únicas categorías, se utiliza el coeficiente de contingencia. En cambio, si el
número de niveles es distinto se en1plearía chi-cuadrado.

Paramétri ca .,__..... variables Cuantltatlvas


(e.eacs.0.11)

Cuaiitatlvas Ordinales
Descrl ptiva BI variada
(Correlación) (.SRe.a.o:o.a.o,
t.au.b,
tau.e, gamma)

Nomi nal dicotómica y


No Paramétri ca 1---1 cua ntl tativa (blserlai­
puntual)
c h i c- uadrado, phi y v
de Cramer (distinto
número de categorías)

Cual itatlvas Nominales


Coeficiente de
contingencia, phi y v
de Cramer (mismo
número de categorías

Figura 6. Clasificación d e análisis de correlación


Las pruebas estadísticas para la comparación de grupos, además de la distinción entre
paran1étricas y no paramétricas, tan1bién pueden variar en función del número de grupos a
comparar y si esos grupos están relacionados o son independientes, como muestra la Figura 7 y
Figura 8.

10
Enrique Navarro Asencio (@eduktive)

T de S.tudeot para
1 grupo
una muestra

Independientes
{T de Student)

Paramétrica 2 grupos
Relacionados

{T de S.tu.d.e.nt)

Independientes
{ANOVA)

Más de dos grupos - Relacionados


� {ANOVA de medidas
repetidas)
-
Figura 7. Pruebas para1nétricas para la c o 1nparación d e grupos

VD. Ordinal o
Nominal (Chl ­
1 grupo
Cuadrado como
bondad de ajuste)

VD. Ord inal


(U de Mann-
111bitoev.)
1 ndependiente-s
vo. Nominal VD y VI
dicotómlcas
(Chl-cuadrad o para l--­ (C<>ef c ente de
la indepe nd enc ia) l l
contingencia}

2 grupos

N o Paramétrlc a
Relacionados

(Me N.e.m;,r)

VD. Ordinal (H de
Kruskal Wallis)

1 ndepend lente-s

Más de dos grupos


VD. Ordinal
(Q d e Cochran)

Relacionados

vo y V I nomina1
(Friedman)

Figura 8. Pruebas No Para1nétricas para la co 1nparación de grupos

11
Enrique Navarro Asencio (@eduktive)

Todas las pruebas paramétricas y no paramétricas se describen en esta guía excepto aquellas que se
utilizan para comparar más de dos grupos relacionados (ANOVA de medidas repetidas, Friedman y
Q de Cochran). Se excluyen debido a su alta complejidad de interpretación y porque son poco
utilizadas en este campo de estudio. Las pruebas para grupos relacionados, tanto paramétricas
como no paramétricas, normalmente comparan únicamente dos grupos: un pretest con un postest.

GRUPOS RELACIONADOS VS. GRUPOS INDEPENDIENTES


La diferencia principal entre estos dos tipos de grupos son las características de los sujetos que los
componen. En los grupos independientes los sujetos tienen características distintas y las
comparaciones se llevan a cabo utilizando esas variables distintivas. Por ejemplo, comparar los
resultados en función del género (chicos y chicas), en función de su nivel de rendimiento (alto­
bajo), de su lateralidad, etc. En can1bio, en los grupos relacionados se compara a los mismos
sujetos en momentos temporales distintos. El ejemplo más claro de grupos relacionados es cuando
se mide a los mismos casos en dos ocasiones distintas (pretest-postest), pero también es posible
formar grupos relacionados emparejando a los sujetos en función de alguna característica, por
ejemplo, que tengan el mismo nivel de razonamiento espacial (ver Figura 10).
Supongamos que queremos comprobar el efecto de un programa de enseñanza de las matemáticas.
Para ello, formamos dos grupos uno va a recibir el programa y el otro no. Existen dos posibilidades
de construir estos grupos.
La primera de ellas se muestra la Figura 9, y distribuye a los sujetos de forn1a aleatoria en los dos
grupos. Si se actúa de esta manera es posible que los grupos no sean equivalentes, es decir, que
tengan alguna caratterística diferente y que influya en los resultados de matemáticas, por ejemplo,
el razonamiento espacial. En este caso, esa variable es distinta entre los grupos y puede afectar a los
resultados de matemáticas, independientemente del tratamiento experimental que se aplica.
o o o o o o o o

Grupo A Grupo B
Media en Razonamiento Espacial= 9,75 Media en Razonamiento Espacial = 5,25

Figura 9. Grupos Independientes


Para evitar este problen1a se n1ide inicialmente a los sujetos en razonamiento verbal y se
distribuyen en los grupos en función de sus niveles. Cada grupo cuenta con un individuo de cada
nivel de razonamiento verbal, están emparejados (ver Figura 10) y los grupos son equivalentes,
están relacionados. De esta forma, la media en razonamiento verbal es igual en ambos grupos y no
afectará a los resultados de matemáticas.

12
Enrique Navarro Asencio (@eduktive)

Grupo A Grupo B
Raz. = 4,5 .r. -3.al.
···�--- · · · --;;a.
...................·····- · .......... _1.
, hl,···········
Raz. = 8 i..._,
,·····�·.. ...........,_ ················-�·············,
.. ..
....... . • .J
........
i
,,.....

Raz. = 5,25 ( iF.'i - - - ?'i> l


-
.. .. ..::u.r:_...................,__ ,.,hl'.,,.,.__J
(. if'¡¡ - -- -� 1 Muestras
Raz. = 4,5
,.. h -- tl'i..
..,llr.__,.................._ _,,:ur....,__; relacionadas
Raz. = 9 --.-......................lll.............
L. Jll........ · · · ·1.
Raz. = 7 [h- - r,>;¡ 7
... ....J.ll...................._..., ..... ...lli.
_.
Media en Razonamiento Espacial
6,3 6,3

Figura 10. Grupos relacionados en función de su Razonamiento Espacial

La otra opción, ya mencionada, para forma grupos relacionados es la utilización de los mismo
sujetos en varias ocasiones de medida, es decir, la comparación de los resultados de un pretest con
un postest.

1.6 SOFIWARE PARA EL CONTRASTE DE HIPÓTESIS Y ANÁLISIS DE


DATOS.
Para llevar a cabo el análisis de la información con la finalidad de contrastar hipótesis estadísticas,
van a utilizarse dos herramientas informáticas:
• EZAnalyze: es un complemento gratuito de Microsoft Excel. Permite realizar análisis
descriptivo de las variables y las pruebas paramétricas de contraste de hipótesis. Puede
conseguirse en la siguiente página web: http://W\vw.ezanalyze.com
• SPSS: es un paquete estadístico para el análisis de datos. No es una herramienta gratuita
pero es posible conseguir una versión por 15 dias en la siguiente dirección:
https://www14.software.ibn1.con1/download/data/web/en US/trialprograms/W110742Eo
6714B29.htn1l. Con este software puede realizarse cualquier tipo de análisis estadístico pero
en esta guía se emplea para la estadística no Paramétrica.
• PSPP: alternativa gratuita a SPSS. Es posible hacer los análisis estadísticos más habituales
en investigación. La desventaja es que los gráficos no son editables. Hay versiones para
Windows (http://p spp.awardspace.com/), Mac
(http://lavergne.gotdns.org/proj e(.,ts/pspp/) y Linux (http://m irrors.nfsi.pt/gnu/pspp/)

13
2 . PRUEBAS ESTADiSTICAS {PARAMtTRIC\S Y NO
PARA.MtTRICAS)
··""" -� ..... .... '""'*"''"" ... ,.'!.t�d •
........,_:r.:._.....,..__.,,.........,..._:-0... __
o..n .. y,, .. i..-....,
...... l•p<
......IW'"',.,__ ,nloli,V....
..w ..............-................
,i........
(:

!::."'..:::.tr!:!':t::::.:."d'=i:..':i:'..t ·-·
. "'
1 •..··- ......
..
_.,o14.,
.._...,...... 1o
..,"'-"'" ........... ..... .. ...................... -,i,_,..__,
••,....__..___ _.................... - ......
1n.,.,, .......-.._.,_
.....iün··--•-"'*'•
-· ............. "'""" -6"'"-. :¡,.. ...,,¡,_ .......... --·-�·"'
,_ - ._i., ....,..,.,. ..., ,...., -1 -"'"* .,.,..., "'.,...,,.
d•f"'•h•u••
....,,_..., .,._,.....,..,..,............ ni--,,•-1.'-ol•Jil-d•b•®••

,., 1 •1tn:1::.sl' AIIA )J �:ntl('.AS l)f.l) ll'f.. lU '.. �IASt:..VíRrC kl Jl'OS


tln�.,.i,,-"11º.. "1_._.......-.,IAt •�•-...,...
_, __,,,_
,... ___,._ .. ..... .,,,.;,,H• .--
.. ,1,y..,,1,._,... . ,,_.......
... (...... ... .....
... .. ..
.
............ ........,,,
(_... ........ ___
..._). r.i. .. ....... .. .�.. ...............
li.p........ ......
,
"..�'--
., _.._ ..�-� ..
. ..........

......,..._ .... _,.,piu.i,,._,_l:{ln......i,:...._.1,,.....,l,11;


• .'«I __, .� -...,;,,,,.- .., •• ¡..,.,_
,...,...c.........
J,t"' ,,,._,A,....._
...._..(van,H,,"'1o......,..................... ...i,..i....-.

·-
......
mn,,....,.¡,,.;i
,.""�1....................-.....
. t.,................................
_.....
..,.....,..............-"'"........ ...
Tlodo..

0.......................t,J,,fse'*-"..
,n11..i. tto- .... "
I•-...................................... . ...
....
• id -- ........ .- ..... ... ,___ ... "'...,,u. ...e_..
...., ...... ...
(_........ ... .t-)...t,,d�•••........,.8"<-{v,n,b'-iod"'-l...-.

,..""""-•'-'"" ""J ,.;,,_..........


.,,....,-.,.l•_,.� ...
11
.. .... , .... ¡,,.)
tJ,._.
......,_.._ ..,,u...
.... ..

� .. -...................-•.i.
........11"4'.(on'4
J ... \.,.......� ...........i.. ....J.t,a,o"'-.
,ldó,..,i,....
�u . J,n.1�.\'(.'U .•l :.\",'.ltt. J..I.>"'.\','IA('.J,;l,\J..>J.>J. l>(>.hJU ,� ,.
/ 'Jc \ '11�\(J,; YJlt UIA tPLHI It..\f
J\. JU
............. ..-i....dobt-6.............. � .. ........ ...i.,._i...-. r.... ....
l; .�..
, \b,
.. � ..- .._ .... .b..... 1 ...... , .... " ......,....d J,.., - ....-.
� ,. -·"'"'
.. �r- o,,•......,,..;. _...,_ .........,.... v,hnb,..l
Enrique Navarro Asencio (@eduktive)

2. PRUEBAS ESTADÍSTICAS (PARAMÉTRICAS Y NO


PARAMÉTRICAS)
Como ya se ha mencionado, las pruebas paramétricas se emplean cuando la variable dependiente
analizada sigue una distribución normal. Normalidad estadística quiere decir que la distribución de
frecuencias de esa variable tiene la forma de campana de Gauss.
Este tipo de distribución tiene un mayor número de caso en torno a los valores medios o centrales y
un menor número en los extremos de la distribución.
Para cumplir con los requisitos de normalidad las variables deben ser cuantitativas. Normalmente,
las puntuaciones de test estandarizados cun1plen con ese requisito. No obstante, en ocasiones
cuando se cuenta con poca muestra (inferior a 30 casos) las variables cuantitativas tampoco
cumplen ese supuesto de normalidad.
Por tanto, cuando se cuenta con poca muestra y también cuando la variable dependiente es
cualitativa, deben aplicarse pruebas estadísticas no paramétricas para el análisis de los datos.

2.1 PRUEBAS PARAMÉTRICAS DE DIFERENCIAS ENTRE GRUPOS


El objetivo de este tipo de pruebas es encontrar diferencias estadístican1ente significativas entre las
puntuaciones de una variable cuantitativa (variable dependiente) de varias muestras o grupos
(variable independiente). Es una prueba d e comparación y permite obtener la respuesta a la
cuestión ¿existen diferencias entre las puntuaciones n1edias de los grupos? Vean1os un ejemplo:
La hipótesis nula que se prueba con este tipo de análisis es la siguiente:
• NO existen diferencias significativas en las puntuaciones de la variable inteligencia
emocional (variable dependiente) en función de la variable género (variable independiente,
la que forma los grupos)
También se puede formular de la siguiente forma:
• Las puntuaciones de la variable inteligencia emocional de los chicos es igual a la de las
chicas
Conviene recordar, que toda hipótesis nula tiene una hipótesis alternativa en el caso de que sea
rechazada. En este caso:
• SÍ existen diferencias significativas en las puntuaciones de la variable inteligencia
emocional (variable dependiente) en función de la variable género (variable independiente,
la que forma los grupos).
El tipo de prueba estadística podrá variar en función del nún1ero de grupos a comparar, en el
ejen1plo anterior la variable género tiene dos únicos grupos (n1ujer-hombre). Y también en función
de si los grupos son relacionados o independientes.

2.1.1 DIFERENCIAS
ENTRE IAS PUNTUACIONES DE DOS GRUPOS
INDEPENDIENTES. PRUEBA T DE STUDENT
La variable independiente debe tener únicamente dos categorías independientes. Es decir, solo
pueden compararse dos grupos distintos y sus niveles o categorías deben ser mutuamente
excluyentes. Por ejemplo, e l género (hombre-mujer), rendimiento categorizado (alto-bajo),

14
,...........�.......i. ...i.--·,�-i)ll,..'lqJ._.,,...,,._ ,. ,.. ,..._
........,....,<i,-.0...,..,..........P".........).-.

,_....__
!k--- � ... ........... ,_, _d....... .....,.............
tJ ..,.._,...,,..¡..,...-t, ¡.-,.•:1.-•d;;....,
l .-.__,.¡ •.,•!• d,t,b. !J"'p••T•
l!l'!'(I...................
.i.,_..i..,w ...., d-ti..,;.,. '"""'- "" -� d6,,n,. ..,,_ �'/ Ju_,,. .. .t

,_I"'_,.,,......
_..._
Íl�·-•'P"..............,, .. 1
•.u.,,...,__,........... _ _
1
............ ..... _..,.._ ,,,....,_ . ..
""""""'••l••••••1t""'"''-
"'*'P"•"-'1* ....... ... .,..,_
, .. .......
,......,.,. :,.'""",:., -...u.-.,..,. _.......,._ ..� ... .¡ .........
......,..,
....-.d., -...... ........,.,.w.,..,... t)l'll.. \)io\,U,
. ..,,.,_,._

,...
..,,._ ,.,.
_,,,.... .......
,. ,ii.-�
-...... ...
.......-
.... .....w.,a,,
..
. .................. "' .
......
...()1 ..-.\Wt-,d ,.p-.,,,-.
._ d

1 ,-� p<,p,1n>......,p..-ol ......�... ...t:>o:>olp_....,.............. tl.....J·


�,-. ....,."'*i..,..-.,_, ..
,.........,..,i,.t,H,.,.., ,d..,."
_...,..,
1 ...
OO)
...,_.,i..,..
...t.lfl'l ¡n
....-.-!Coni...-..,...,;.¡,¡,;.i•
�.i�-(110.-.b..¡...
.........,..,
no-......,...........1
. ..._,,.,,,,,.,,
,.,. dObio.....,-,.(7,:,, •'*'")"'a ado\.•.,...,,.C.-:ltll,
) l
'fl"•·--1
.............
.i_,....., ....�_Y.tol•l:<H••..,,.
................. .......¡s-<io,bll<bl
,_ ...., ,___ .....__.........,. .i..............
•..,..•"�"-·do<T,
... p,,lwal>!.-ldo'""I-- 1.1-,., .. �.............
,...�....._...,..__.,...__
,...,.i ,.,.,d
..,....."""..........-..............._
éoonndv,,lnr.i,,l ap,,lo.labl:.I ,.,,1_._p1"•11Ml0•.. d,,-� o>,}. ....
nu1--1alap\-.......,...,..... _.........
..4o<T........... i...u....,;..., i.

1 t:,H _1,14, --, .....,, .u..., .... 1......... ..., ..... c,,,.-df1 -......
. .....,..,.,....,.""._ )
"',__ ,__....
.- ,. ,.. ,. ,. .. .... ...
0,-. . t...,:i:'A\p,1_
. ... 1 ....
.,.. ...1....... ,.
.. ,,...
.

!:':::'.'?:...........,.....-,......,;...
......,... ..I,,............._.. ...,.

¡;;;;;:;:;;;;
. ...._

•.•••.,r..e•-�---..i
......•
_ ,., ...
.�-·-
-,.,,.· .� · m �--- => 1

1
1.-w,1,. ......, •-·�·do,.., � ...
...... b,._ - ................ "- ""_.._
.., � 1.....,.
.........�.(\>d"1
.....)

"
Enrique Navarro Asencio (@eduktive)

lateralidad (izquierda-derecha), asistencia a preescolar (Sí-No), recibir un tratamiento o programa


experimental (grupo experimental-grupo control), etc.
El estadístico adecuado para analizar las diferencias entre las medias de dos grupos es T de
Student. Su objetivo es analizar las diferencias entre las medias de dos grupos en una variable
dependiente con distribución normal. Por ejemplo, diferencias entre chicas y chicos en el
rendimiento en matemáticas.
Supongamos que se desean analizar las diferencias entre varones y mujeres en las puntuaciones de
una prueba que n1ide el conocin1iento de otras culturas y religiones. Las hipótesis quedarían
formuladas de la siguiente manera:
• Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel de
conocimientos de otras culturas en función del género (Mujer-Varón) de los participantes.
• Hipótesis Alterna: Sí existen diferencias estadísticamente significativas en el nivel de
conocimientos de otras culturas en función del género (Mujer-Varón) de los participantes.
Los resultados proporcionados por el complemento de Excel para el análisis de datos EZAnalyze
aparecen en la Tabla 2 y la Figura 11
La primera parte de los resultados muestra los estadísticos descriptivos (media, desviación típica y
tamaño de los grupos (N)) para cada grupo. En este caso el grupo uno son las mujeres y el dos los
varones. Se observa que la media de las mujeres (7,750) es mayor a la de los varones (4,385).
Para conocer si esas diferencias entre las medias de ambos grupos, que muestran los estadísticos
descriptivos, son significativas debe observarse la probabilidad asociada al estadístico T, es decir,
su probabilidad de ocurrencia. En la tabla aparece con la letra P y su valor es de 0,000.
Como el valor de la probabilidad asociada al estadistio T es inferior al nivel de error (0,05) debe
rechazarse la hipótesis nula y aceptar la alternativa. Es decir, se confirman las diferencias en las
puntuaciones n1edias de mujeres y varones en el nivel de conocin1ientos de otras culturas.
La tabla tan1bién informa sobre la diferencia entre las medias de los dos grupos (n1ean difference).
En este caso hay 3,365 puntos de diferencia a favor de las mujeres. Por tanto, las mujeres tienen un
mayor conocimiento de otras culturas que los varones.
EZAnalyze Results Report - Jndependent T-Test ofgroup 1 and 2 on INFORMA

SEXO 1 (Mujeres) 2 (Varones)


Mean: 7,750 4,385
Std. Dev: 1,212 2,180
N: 48 52

ence: 3,365
Probabilidad core: 9,434
asociada
'- �=....-!"
- re :
P: 000
The obs erved difference b etween the9roup means is si9nifican t
Tabla 2. Prueba T de diferencias entre dos grupos. Resultados EZAnalyze
1
La tabla de resultados se acompaña de un gráfico de barras que representa las puntuaciones
medias de los dos grupos comparados (ver la Figura 11)

15
Enrique Navarro Asencio (@eduktive)

9,000

8,000

7,000

6,000

S,000

4,000

3,000

2,000

1,000

,000
Muj"

Figura 11. Medias de los grupos.

ENTRE IAS PUNTUACIONES DE TRES O MÁS GRUPOS


2.1.2 DIFERENCIAS
INDEPENDIENTES. ANÁLISIS DE VARIANZA (ANOVA)
Cuando la variable independiente tiene más de dos grupos, por ejemplo, el nivel socioeconómico
(alto-medio-bajo) el tipo de prueba debe adaptarse a estas características.
El estadístico que se calcula en el ANOVA es F d Snedecor. Esta prueba estadística es similar a
la prueba T pero compara las n1edias de tres o más grupos. El estadístico F, de la n1isma forma que
en pasaba con T de Student, va acompañado de una probabilidad asociada que determina si las
diferencias entre los grupos son significativas.
La manera de llevar a cabo la interpretación y tomar la decisión de aceptación o rechazo de la
hipótesis nula es igual que con las pruebas anteri ores. Cuando el valor de esa probabilidad asociada
al estadístico, en esta caso F de Snedecor, es inferior a 0,05, la hipótesis nula deberá rechazarse y se
podrá confirmar las diferencias entre los grupos. Si el valor supera ese 0,05 la hipótesis nula deberá
aceptarse. Esto quiere decir que las puntuaciones de los grupos son tienen medias iguales.
Esta prueba también se acompaña de los denominados contrastes posteriores (post hoc) que
determinan entre qué grupos se dan esas diferencias.
Por ejemplo, si el objetivo es analizar las diferencias en las puntuaciones obtenidas en un test de
xenofobia en función de los contactos con otras culturas (es una variable con tres grupos 1. Nulos,
2. Sistemáticos, 3. Ocasionales), las hipótesis quedarían formuladas de la siguiente forma:

• Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel


xenofobia en función del tipo de contacto con otras culturas (Nulo-Sistemático-Ocasional).
• Hipótesis Alterna: Sí existen diferencias estadísticamente significativas en el nivel
xenofobia en función del tipo de contacto con otras culturas (Nulo-Sistemático-Ocasional).
Los resultados que arroja el programa EZAnalyze se muestran en la Tabla 3, Tabla 4 y Figura 12.
En la primera de ellas (Tabla 3) aparecen los estadísticos descriptivos de cada grupo (media,
desviación típica y tamaño de los grupos) y tan1bién una n1edia global de xenofobia (grand n1ean).
Se observa que la media global es de 35 puntos aproximadamente. Si se analizan los grupos por
separado, el grupo 2 (contactos sistemáticos) obtienen la menor puntuación media en xenofobia
con un valor de 30 puntos. El grupo con contacto nulo (grupo 1) tiene menor media (35,459) que
los que tienen un contacto ocasional (grupo3).
16
Enrique Navarro Asencio (@eduktive)

Esta misma tabla se muestra también los resultados del ANOVA Para comprobar si existen
diferencias entre los grupos se observa el valor de la probabilidad asociada al estadístico F de
Snedecor (P). Esta probabilidad tiene un valor de 0,001, valor inferior a 0,05. Como la
probabilidad de ocurrencia de la hipótesis nula es muy baja debe ser rechazada y, por tanto,
aceptar la alternativa y afirmar diferencias entre los grupos.
EZAnalyze ANOVA Report-ANOVA ofAXENOFO by CONTACT

O cases were removed due to missing data

GrandMean 35,050
N 100

CONT ACT(group)
1
N
37
GroupMean
35,459
=---
Std Deviation
9,873
2 32 30,000 9,333
3 31 39,774 10,459

ANOVA Table
Source ofVariance SS DF MS F
Between Groul!.s 1514,141 2,000 757,07 1 7,738
Within Grou _l!!_ 9490,609 97,000 9 7,8.4- ..,_l ___
Total 11004,750

CP ,oo0
Eta Squared , 1 38=----------
The A NOVA results indicate that at least two ofthegroups differed significantly
Tabla 3. Prueba F de Snedecor (ANOVA)

Como en este caso se cuenta con n1ás de dos grupos, la prueba F de Snedecor no informa entre qué
grupos se producen las diferencias. Para averiguarlo debe observarse la tabla de contrastes
posteriores (Tabla 4). E n esta tabla se comparan las diferencias entre cada grupo por separado, es
decir, el grupo 1 con el grupo 2, el grupo 1 con el grupo 3 y el grupo 2 con el grupo 3.
La forma de interpretar los contrastes posteriores es igual que la de cualquier otro contraste de
hipótesis. En realidad, no son más que pruebas T de Student para cada par de grupos observados.
Debe observarse por tanto, la probabilidad asociada a ese estadístico T (P-Unadjusted). Si ese valor
es inferior a 0,05, las diferencias entre las puntuaciones de los dos grupos son significativas.
En este ejemplo se han encontrado díferencias significativas entre los grupos 1 y 2 y entre los
grupos 2 y 3. En cambio, las diferencias no son estadísticamente significativas entre los grupos 1 y
3. Esta tabla también ofrece información sobre el valor exacto de esa diferencia de medias en la
columna "mean difference"
Post Hoc tests Comparison Mean Difference T-Value P - Unadjusted P - Bo nferroni EtaSquared
Group_l
1 and2 5,459 2,349 ,022 ,065 ,076
1 and3 4,315 1,747 ,085 ,256 ,044
Group_2
2 and3 9,774 3,917 ,000 ,001 ,201
Tabla 4 . Contrastes posteriores (post hoc)

Finalmente los resultados se acompañan de un gráfico de barras que muestra las medias en
xenofobia de los tres grupos comparados (Figura 12).

17
Enrique Navarro Asencio (@eduktive)

41000

40,000

31000

30,000
0
� 25,000

] 20,000
••
:¡; 15,000

10,000

5,000

flulo Sl\temiltico Ou s, lon<ll

Figura 12. Medias de los grupos

2.1.3 DIFERENCIAS ENTRE LAS PUNTUACIONESDE DOS GRUPOS RELACIONADOS.


PRUEBA TDE STUDENT
Cuando se comparan las puntuaciones de los mismos sujetos en una variable determinada pero en
dos momentos temporales distintos (pretest y postest) o cuando los grupos están equiparados en
función de alguna característica de los sujetos, por ejemplo, que los niveles medios de inteligencia
sean iguales en los grupos a comparar, es necesario aplicar una prueba estadística adecuada a estas
características. La prueba idónea en este caso es T de Student para grupos relacionados.
El nombre de la prueba es el mismo que en el caso de los grupos independientes, pero la forma de
calcular el estadístico varía ligeramente. No obstante, ese cambio en el cálculo no afecta a la
manera de interpretar los resultados.
Por ejemplo, si el objetivo es conocer si la aplicación de un programa de educación intercultural
mejora los conocin1ientos sobre otras culturas y religiones, las hipótesis quedarían formuladas de
la siguiente forma:
• Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel de
conocimientos sobre otras culturas antes y después del programa.
o Otra posibilidad es: No existen diferencias estadísticamente significativas entre el
pretest y postest de la variable conocimientos sobre otras culturas y religiones.
• Hipótesis Alterna: Sí existen diferencias estadísticamente significativas en el nivel de
conocimientos sobre otras culturas antes y después del programa.
o Otra posibilidad es: Sí existen diferencias estadísticamente significativas entre el
pretest y postest de la variable conocimientos sobre otras culturas y religiones.
Los resultados de la prueba T para grupos relacionados aparecen en la Tabla 5 y Figura 13. La
información que incluye esta tabla es similar al resto de contrastes. En primer lugar, las medías y
desviaciones típicas de las puntuaciones en el pretest y en el postest. Puede comprobarse que la
puntuación es más alta en el postest (11,690).
De la misma forma que en los casos anteriores, para verificar si esas diferencias entre pretest y
postest son estadísticamente significativas debe observarse el valor de probabilidad asociado al
estadístico, es decir, P. Al estar por debajo de 0,05, concretamente es igual 0,000, la hipótesis nula
tiene poca probabilidad de ocurrencia y debe rechazarse. Por tanto, las díferencias entre pretest y
18
Enrique Navarro Asencio (@eduktive)

postest son significativas, siendo más altas en el postest. Esto quiere decir que el programa de
educación intercultural ha mejorado el nivel de conocimientos sobre otras culturas y religiones.
EZAnalyze Results Report- Paired T-Test ofINFORMA2 with INFORMA3

INFORMA2 (().!:,_etest) INFORMA3 (�stest)


Mean: 8,850 11,690
Std. Dev.: 2,409 2,770

NPairs: 100
Mean Difference: ____ -2,840
SE of Diff.:
Eta Squared:
- - ---- - - - - - -
,208
-
,6 5_ _0___________
____
T-Score: 13,636
P: ,O�Q�O ________ ]
The difference between INFORMA2 and INFORMA3 is si9niftcant
Tabla S. Resultados prueba T para dos grupos relacionados
Los resultados se acompañan de un gráfico de barras que plasma las medias de las puntuaciones
pretest y postest.
14.000

ll,000

10.000

• 8000

J
• 6 000

4 000

2 000

·ººº
ltlFORMA2 IHFORMA.3
Pa iredVariables

Figura 13. Gráfico d e inedias pretest y postest

También existe la posibilidad de comparar los resultados obtenidos por la muestra en una variable
determinada, por ejemplo, inteligencia, con una puntuación de esa variable que sirva como
referente. Esta puntuación de referencia es un dato conocido, es decir, se ha encontrado en algún
trabajo de investigación con caracteristicas similares, es el dato de la población, etc.
Si el investigador pretende averiguar si la media en nivel de vocabulario de los sujetos de la
muestra difiere de los resultados obtenidos en otra investigación o en la población de referencia.
Por ejemplo, trata de confirmar que la media de su n1uestran en nivel vocabulario es igual a la de la
población, que fue igual a 15. Por tanto, las hipótesis se formularian de la siguiente manera:
• Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel de
vocabulario de la muestra y un nivel de vocabulario igual 15.

19
Enrique Navarro Asencio (@eduktive)

• Hipótesis Alterna: Sí No existen diferencias estadísticamente significativas en el nivel de


vocabulario de la muestra y un nivel de vocabulario igual 15.
Los resultados de esta prueba se presentan mediante una tabla y un gráfico (Tabla 6 y iError! No se
encuentra el origen de la referencia.). La tabla incluye los estadísticos descriptivos de la muestra en la
variable objeto de estudio (nivel de vocabulario). Incluye la media (16,583), la desviación típica
(6,344) y el número de sujetos (36). El valor de la columna N1V es el valor de comparación, en este
caso, una media de 15 puntos en nivel de vocabulario.
Para confirmar que las dos medias son distintas se debe poner atención en el valor de T (T-score) y
su probabilidad asociada (P). Una probabilidad inferior a 0,05 indica que las diferencias son
estadísticamente significativas. Pero no ocurre así, el valor de probabilidad es 0,143 y supera, por
tanto, el 0,05.
EZAnalyze Results Report - One Sample T T
- est

One Sample T-Test of Nivel de


Nivel de vocabulario previo (0- NTV vocabulario previo (0-30) and NTV
30)
_ 17 ,000
N Valid: 36
N Missing: o 16.500

Mean: 16,583 15,00 J6 000

Std. Dev: 6,344


l5 000

Mean Diff: 1,583 U ,500

T-Score: 1,497
Eta ,060 HivddeVO( llhOIMiopr evio(0-30J ,nv
S uared: VatlKll•U

P: ,143
Tabla 6 y Figura 14. Resultados prueba T para una 1nuestra.
Se debe aceptar por tanto la hipótesis nula formulada. No es posible afirmar la existencia de
diferencias estadísticamente significativas entre las dos medias comparadas.

2.2 PRUEBAS PARAMÉTRICAS DE RELACIÓN ENTRE VARIABLES


El análisis de correlación se utiliza con el objetivo estudiar la relación entre dos variables. En este
tipo de análisis no se diferencia entre variable dependiente e independiente, ambas tienen el
mismo papel.
La hipótesis nula que se pone a prueba en este análisis es la siguiente:
• Las variables (nombres de las variables) analizadas no están relacionadas.
Y, por tanto, la hipótesis alternativa es la que afirma la existencia de relación entre las variables:
• Las variables (nombres de las variables) analizadas s í están relacionadas.
De la misma forma que en los análisis de diferencias entre grupos, el tipo de prueba estadística
dependerá de las características de las variables analizadas y del tamaño muestra!. Cuando las dos
variables correlacionadas son cuantitativas y se cuenta con al n1enos 30 casos, el estadístico
adecuado es la correlación de Pearson.

2.2.i CORRELACIÓN ENTR.E DOS VARIABLES CUANTITATIVAS. PEARSON

20
Enrique Navarro Asencio (@eduktive)

Este estadístico puede tomar valores entre -1 y +1. El cero quiere decir ausencia de correlación. A
medida que el valor s e acerca a los extremos (-1 o +1) la correlación es más potente. El signo señala
la direccionalidad de la correlación. Un valor negativo quiere decir que a medida que aun1entan los
valores de una variable disminuyen los de la otra (correlación inversa). En can1bio, si el valor es
positivo, a medida que aumentan unos también lo hacen los otros y viceversa (correlación directa).
Por ejemplo, si se seleccionan 30 individuos y se mide su peso y altura. Utilizando estas dos
variables con10 referencia es posible elaborar un gráfico de dispersión como el siguiente (Figura
15):

100

90
• • •• • • •
80 • Pesa 76 kg.
• • �

•• • • • •
70
• • • .
60 • •• E
Pesa 50 kg. • •
50 • 0
40 Mide 161 cm. ·-
• �

30 •
140 150 160 170 180 190 200
Figura 15. Gráfico de dispersión con las variables peso y altura
Este gráfico representa con un punto a cada uno de los sujetos estudiados. Este punto representa
su altura y peso concretos y observando su forma de agrupación es posible averiguar la existencia
de cierta tendencia en los datos, como se muestra en el Figura 16.

100

.•. . ..
• ..
90 - .,·
. ·• •

.•. . •• -.•..•
80 •
•'

,.
,.
70 •
• •
60 - • "
·'
••
50 - .,·

40 •
30 1 1 1

140 150 160 170 180 190 200


Figura 16. Gráfico de dispersión con línea de tendencia.

21
Enrique Navarro Asencio (@eduktive)

A simple vista puede observarse una relación directa entre las variables peso y altura, es decir, a
media que la altura es mayor también lo es el peso. Aunque los gráficos de dispersión permiten
observar el sentido de la relación (ver Figura 17), para conocer el grado exacto de la relación es
necesario calcular un índice de correlación.

.l
330 100

280 lncorrelaclón • 90 Fuerte relación


• directa. • •••• •

230 ••

80
• •
• • 70
. . ••• • •

• • •1 •
180 • • 60
130 • 50 •
80 •• •
• 40

30 • • • • • 30
140 150 160 170 180 190 200 140 150 160 170 180 190 200

80
70 Cierta relación
60
• inversa

50 •• •
• • •••
• • .• • . -
40
30
• •• • • •
20
10
• •
o . . .
140 150 160 170 180 190 200

Figura 17. Tipos de relación entre variables


En la Tabla 7 aparecen los resultados de un análisis de correlación de Pearson entre las
puntuaciones de una escala de xenofobia y las de otra escala de dogmatismo, ambas son variables
cuantitativas. Las hipótesis correspondientes son:
• Hipótesis Nula: Las variables xenofobia y dogmatismo NO están relacionadas.
• Hipótesis Alternativa: Las variables xenofobia y dogmatismo SÍ están relacionadas.
EZAnalyze Results Report - Correlation ofAXENOFO with DOGMAT

Pearson Correlation ,500


N 100,000
p ,000

The observed correlation is statistica/ly si9nificant


Tabla 7. Correlación de Pearson entre xenofobia y dog1natis1no
El valor de la correlación entre las dos variables analizadas es de 0,5. Es por tanto un valor de
relación positivo y con intensidad media. La correlación se complementa con la probabilidad
asociada al estadístico (P), que en este caso es de 0,000. De la misma forma que en los contrastes
de medias, es necesario que esta probabilidad asociada se encuentre por debajo de 0,05 para
concluir que el valor de la correlación es significativo. En caso de que la probabilidad supere el 0,05
la correlación n o sería significativa, independientemente del valor del coeficiente de Pearson.

22
Enrique Navarro Asencio (@eduktive)

}2
• • •
47

• • •
42
o
z
w

37

•••
32

27
• •
22 • •
17

72 82 92 102 112 122 132 JU

DOGMAT

Figura 18. Gráfico de dispersión entre xenofobia y dogmatismo


La tabla de correlación se acompaña del gráfico de dispersión (Figura 18) de las dos variables
analizadas. En este gráfico puede observarse la tendencia de la relación. En este caso positiva y
media.

2.3 PRUEBAS NO PARAMÉTRICAS DE DIFERENCIAS ENTRE GRUPOS


A continuación s e describen las pruebas estadísticas para la comparación de grupos cuando las
variables dependientes analizadas no son cuantitativas o cuando el número de casos de la muestra
no alcanza los 30. Cada prueba no Paramétrica tiene su equivalente no Paramétrica.

2.3.1 DIFERENCIAS ENTRE LAS


PUNTUACIONES DE DOS GRUPOS
INDEPENDIENTES. PRUEBA U DEMAN NWHITNEY.
-
Cuando la variable dependiente no es cuantitativa y tiene un carácter ordinal o no se cuenta con
variables con una distribución normal, hay un estadístico equivalente a T de Student denominado
U de Mann Whitney. También se utiliza cuando el tamaño de los grupos es reducido (inferior o
igual a 30 casos), aunque se cuente con variables dependientes cuantitativas. Su función es la
misma que la prueba T pero en lugar de comparar las medias de los grupos compara rangos.
Los rangos son una transformación de las puntuaciones de la variable analizada para poder llevar a
cabo ese análisis no paramétrico. La interpretación es similar a una media, un mayor rango indica
valores mayores en los resultados de ese grupo.

23
Enrique Navarro Asencio (@eduktive)

15 4,5
21 8
16 6
15 4,5
14 3
21 8
4 1
5 2
21 8

DIDIIIIIIDl�DIEIEI
Rango 1 2 3 4,5 ..___4,5; 6 8 8 8

Figura 19. Proceso de transfonnación de puntuación a rango


Uno de los casos en los que se aplica este tipo de prueba es cuando los dos grupos a comparar
tienen menos de 30 casos. A continuación se incluye un ejemplo concreto.
El objetivo es comparar los resultados en la variable comprensión lectora en función de sí los
estudiantes han asistido o no a educación preescolar. La variable comprensión lectora es una
variable cuantitativa obtenida a partir de un test, pero sólo se cuenta con 16 sujetos que han
asistido a preescolar y 18 que no.
Las hipótesis a contrastar son las siguientes:
• Hipótesis Nula: No existen diferencias estadístican1ente significativas en el nivel lectora
en función de la asistencia o no a educación preescolar.
• Hipótesis Alternativa: Sí existen diferencias estadísticamente significativas en el nivel
lectora en función de la asistencia o no a educación preescolar.
Los resultados del análisis se presentan en dos tablas distintas (Tabla 8 y Tabla 9). La primera de
ellas muestra los resultados descriptivos para los dos grupos analizados. Es posible identificar el
rango promedio en la variable comprensión lectora de ambos grupos. En este caso, los estudiantes
que si asistieron a preescolar obtienen un mayor rango en compresión lectora (22,56), frente al 13
obtenido por los que no asisten. Como ya se ha mencionado un mayor rango equivale a una mayor
puntuación en esa variable. No obstante, para conocer si esas diferencias iniciales son significativas
debe observarse la Tabla 9.
Asistencia a Preescolar N Mean Rank Su1n of Ranks
Co1nprensión lectora (0-30) Sí 16 22,56 361,00
No 18 13,00 234,00
Total 34
Tabla 8. Rangos. Prueba U
El rechazo o aceptación de la hipótesis nula depende del valor del estadístico calculado, en esta
caso U, y su probabilidad asociada. De la misma forma que el resto de pruebas estadística, para que
los resultados sean significativos, es decir, rechazar la hipótesis nula y afirn1ar la diferencia entre
las puntuaciones de la variable dependiente, el valor de esa probabilidad debe ser inferior a 0,05.
24
Enrique Navarro Asencio (@eduktive)

Esto índica que la hipótesis nula planteada tiene pocas probabilidades de ocurrencia y, por tanto,
debe ser rechazada.
Co1nprensión lectora (0-30)
Mann-Whitney U 63,000
Wilcoxon W 234,000
z -2,799
Asy1np. Sig. (2-tailed) ,005
a. Not corrected for ties.
Tabla 9. Prueba U de Mann-Whitney
En este caso se pueden afirmar diferencias en la variable dependiente (comprensión lectora) entre
los grupos. El valor de la probabilidad asociada es igual a 0,005, inferior al 0,05 que se utiliza como
margen de error.
Para conocer qué grupo ha obtenido mayores puntuaciones en la variable dependiente debe
observarse la tabla de rangos. Un mayor rango índica que ese grupo obtiene mayores puntuaciones
en la variable dependiente.

LAS PUNWACIONES DE TRES O MÁS GRUPOS


2.3.2 DIFERENCIAS ENTRE
INDEPENDIENTES. PRUEBA H DE KRUSKAL-WALLYS
El equivalente no paramétrico del ANOVA es la prueba H de Kruskal-Wallis que tiene una lógica
similar a la prueba U de Mann-Whitney. En lugar de medias s e analizan los rangos de los grupos.
La forma de interpretar los resultados es la misma que en los casos anteriores. Valores de
probabilidad asociados al estadístico de H de Kruskal-Wallis inferiores a 0,05 indican diferencias
entre los rangos y, por tanto, diferencias en las puntuaciones de los grupos.
Las hipótesis a contrastar son las siguientes:
• Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel lectora
en función del nivel socioeconómico (alto-medio-bajo)
• Hipótesis Alternativa: Sí existen diferencias estadísticamente significativas en el nivel
lectora en función del nivel socioeconómico (alto-medio-bajo)
En este caso se cuenta con tres grupos de comparación pero los resultados son los mismos que se
obtienen con la prueba U de Mann-Whitney. Una primera tabla de rangos que describe las
puntuaciones medias de los tres grupos (Tabla 10) y otra para los resultados concretos del contraste
de hipótesis (Tabla 11).
Nivel socioeconó1nico N Mean Rank
Co1nprensión lectora (0-30)Alto 12 23,00
Medio 12 18,83
Bajo 12 13,67
Total 36
Tabla 10. Rangos. Prueba H
Se aplica la prueba no Paramétrica porque los grupos a comparar únicamente cuentan con 12 casos
cada uno. En la tabla anterior se observa que el grupo de nivel socioeconómico alto es el que mayor
rango promedio obtiene, con un valor de 23.
Para comprobar si las diferencias encontradas en la tabla de rangos son estadísticamente
significativas, s e debe observar la Tabla 11.

25
Enrique Navarro Asencio (@eduktive)

TestStatisticsª
Co1np rensión lectora (0-30)
Chi-Square 4,738
df 2
Asy1np . Sig. ,094
a . Kruskal Wallis Test
Tabla 11. Prueba H de Kruskal Wallis
Aunque en la tabla aparezca el estadístico Chi-square (chi-cuadrado), el estadístico utilizado es H
de Kruskal Wallis. Chi-cuadrado es solo una transforn1ación porque H no tiene distribución de
probabilidad conocida y, por ese motivo, se transforma en chi para poder asignar esos valores de
probabilidad.
En este caso la probabilidad asociada al estadístico H es de 0,094. Valor que supera el 0,05
establecido con10 límite. Por tanto, no se pueden asumir diferencias estadistican1ente significativas
entre los grupos comparados. Debe aceptarse la hipótesis nula.

2.3.3 DIFERENCIAS ENTRE LAS PUNTUACIONES DE DOS GRUPOS RELACIONADOS.


PRUEBA W DE WILCOXON.
En el caso de contar con dos grupos relacionados, como las puntuaciones pretest y postest de un
mismo estudiante, pero no se cumplen los requisitos para aplicar pruebas paramétricas o las
variables analizadas son ordinales, la prueba W de Wilcoxon es e l equivalente no paramétrico.
La prueba de Wilcoxon, de la misma forma que las pruebas no paramétricas U de Mann-Whitney y
H de Kruskal Wallis también utiliza rangos en lugar de medias para llevar a cabo la comparación.
Las hipótesis a contrastar son las siguientes:
• Hipótesis Nula: No existen diferencias estadísticamente significativas entre el pretest y
postest de la variable nivel de vocabulario recodificada (alto-medio-bajo)
• Hipótesis Alternativa: Sí existen diferencias estadísticamente significativas entre el
pretest y postest de la variable nivel de vocabulario recodificada (alto-medio-bajo)
Los resultados del contraste aparecen en dos tablas (Tabla 12 y Tabla 13). En la prin1era se
muestran los rangos diferenciados en tres categorías. En primer lugar los rangos negativos que
indican los casos en los que la puntuación del pretest es mayor que la del postest; en segundo lugar,
los rangos positivos que indican cuando la puntuación del postest es mayor a la del pretest; y,
finalmente, los en1pates.
En este ejemplo hay o rangos negativos, 3 positivos y 33 empates. Por tanto, en ningún caso la
puntuación del pretest es mayor que la del postest; en 3 casos ocurre al revés, es mayor el postest; y
en la mayoría de los casos (33) se obtiene la misma puntuación en el pretest y en el postest.
Media de Su1na de
N Rangos Rangos
Nivel de Vocabulario (postest) - Nivel de Rangos Negativosª ºª ·ºº ·ºº
Vocabulario (pretest) Rangos Positivosb 3b 2,00 6,00
E1npates< 33<
Total 36

26
Enrique Navarro Asencio (@eduktive)

Media de Su1na de
N Rangos Rangos
Nivelde Vocabulario (postest) - Nivel de Rangos Ne gativosª ºª ,00 ,00
Vocabulario (pretest) Rangos Positivosb 3b 2,00 6,00
E1npates< 33<
Total 36
a. Nivel de Vocabulario (postest) < Nivel de Vocabulario (pretest)
b . Nivelde Vocabulario (postest) > Nivelde Vocabulario (pretest)
c. Nivelde Vocabulario (postest) = Nivelde Vocabulario (pretest)
Tabla 12. Rangos. Pru e b a W de Wilcoxon
Es necesario analizar la Tabla 13 para comprobar la existencia de diferencias estadísticamente
significativas entre pretest y postest.
Test Statisticsb
Nivel de Vocabulario
(postest) - Nivelde
Vocabulario (pretest)
z -1,732 ª
Asy1np. Sig . (2-tailed) ,083
a. Basado en rangos ne gativos.
b. Wilcoxon S igned Ranks Test
Tabla 13. Pru eb a Wde Wilcoxon
El valor de probabilidad asociada al estadístico calculado es de 0,083, valor que se encuentra por
encima de 0,05. Por tanto, debe aceptarse la hipótesis nula y no se pueden afirmar diferencias
entre las puntuaciones de pretest y postest.

2.3.4 DIFERENCIAS ENTRE LAS PUNTUACIONES DE DOS GRUPOS REI.ACIONADOS.


PRUEBA MCNEMAR
Cuando se comparan dos grupos relacionados y la variable dependiente es cualitativa con dos
únicas categorías el estadístico adecuado es McNemar. Esta prueba equivale a la comparación de
dos proporciones de casos de la misma variable en dos mon1entos temporales distintos, por
ejemplo, si hay el mismo número de casos que aprueben la asignatura de matemáticas en la
primera y en la segunda evaluación.
Las hipótesis a contrastar son las siguientes:
• Hipótesis Nula: No existen diferencias estadísticamente significativas entre el número de
casos que supera el pretest y los que superan el postest de la variable nivel de vocabulario
recodíficada (No supera-Supera)
• Hipótesis Alternativa: Sí existen diferencias estadísticamente significativas entre el
número de casos que supera el pretest y los que superan el postest de la variable nivel de
vocabulario recodificada (No supera-Supera)
Los resultados del contraste aparecen en dos tablas (Tabla 14 y Tabla 15). La primera es una tabla
de contingencia que analiza el número de casos que hay en las distintas categorías de las variables
(cuántos casos no superan el pretest y postest; cuántos no superan e l pretest y sí el postest; cuántos
casos superan el pretest y el postest; cuántos casos superan el pretest, pero no el postest). La
segunda tabla indica si los can1bios entre pretesty postest son significativos.
Tabla de contingencia VOCA_Pre * VOCA_P ost

27
Enrique Navarro Asencio (@eduktive)

VOCA Post
No SuEera SuEera Total
V O C APr
_ No Recuento 10 7 17
e Supera % dentro de COM2 58,8% 41,2% 100,0%
Supera Recuento 5 8 13
% dentro de COM2 38,5% 61,5% 100,0%
Total Recuento 15 15 30
% dentro de COM2 50,0% 50,0% 100,0%
Tabla 14. Tabla de contingencia
Para comprobar si los cambios entre pretest y postest son estadísticamente significativos debe
observarse la siguiente tabla:
Pruebas de chi-cuadrado
Sig. exacta
Valor (bilateral)
Prueba de McNe1nar , 77 4'
N de casos válidos 30
a . Utilizada la distribución bino1nial
Tabla 15. Prueba de 1ncne1nar
El resultado de la prueba indica que la probabilidad asociada al estadístico (0,774) supera al nivel
de error asumido (0,05) y, por tanto, debe aceptarse la hipótesis nula y afirmar que no hay un
mayor número de casos que supere la prueba de vocabulario en el postest que en el pretest.

2.3.5 COMPARACIÓN DE UN ÚNICO GRUPO. C HI-CUADRADO COMO BONDAD DE


AJUSTE.
Esta prueba de comparación se utiliza cuando el objetivo es comprobar si el número de casos que
hay en cada categoría (frecuencias observadas) de una variable cualitativa es el mismo (frecuencia
esperada).
Esta frecuencia esperada es el número de sujetos que se esperaba obtener en cada categoría de la
variable. Puede ser el mismo número en cada categoría o un número concreto establecido por el
investigador.
Por ejemplo, quiere comprobarse si el número de sujetos de cada categoría de la variable Madurez
Lectora es el mismo, es decir, si el mismo número de sujetos obtiene una madurez lectora baja,
media y alta. Las hipótesis a contrastar son las siguientes:
• Hipótesis Nula: No existen diferencias estadísticamente significativas en las frecuencias
(nº de casos) de cada categoría de la variable Madurez Lectora.
• Hipótesis Alternativa: Sí existen diferencias estadísticamente significativas en las
frecuencias (nº de casos) de cada categoría de la variable Madurez Lectora.
Los resultados de esta prueba se presentan en dos tablas (Tabla 16 y Tabla 17). En la primera
aparecen las frecuencias observadas (Observed N) que es el n ° de sujetos en cada categoría de la
variable analizada, por ejemplo, hay 9 casos con madurez lectora baja y 19 con medía; las
frecuencias esperadas (Expected N) si las categorías tuvieran el mismo n ° de casos, 12 casos en
cada categoría; y el residual que es la díferencia entre las observadas y las esperadas. La segunda
tabla incluye los resultados del estadístico chi-cuadrado y su probabilidad asociada:
Observed N Expected N Residual

28
Enrique Navarro Asencio (@eduktive)

Baja 9 12,0 -3'O


Media 19 12,0 7,0
Alta 8 12,0 -4'O
Total 36

Tabla 1 6 . Frecuencias observadas y esperadas de la variable Madurez Lectora (categorizada)


Es necesario observar la probabilidad asociada al estadístico chi-cuadrado (Tabla 17) para
confirmar la existencia de diferencias entre las frecuencias observadas y las esperadas.

Categorización Madurez Lectora


Chi-Square 6, 167•
df 2
Asy1np . Sig. ,046
a. O celdas (,0%) tienen una frecuencia esperada
inferior S. La frecuencia 1ninilna esperada es 12,0.
Tabla 17. Prueba c h i -cuadrado co1no bondad de ajuste.
En este ejemplo, la probabilidad asociada al estadístico chi-cuadrado es de 0,046, valor inferior a
0,05. Por tanto, debe rechazarse la hipótesis nula y confirmar que el número de casos de cada
categoría no es el mismo en la variable madurez lectora.

2.4 PRUEBAS NO PARAMÉTRICAS DE RELACIONES ENTRE VARIABLES


El objetivo del análisis de correlación no paramétrico es el mismo que persigue el análisis
paramétrico: cuantificar la relación existente entre dos variables. Las hipótesis, por tanto,
coinciden con las formuladas en el análisis de correlación paramétrico
• Hipótesis nula: Las variables (nombres de las variables) analizadas no están
relacionadas.
• Hipótesis alternativa: Las variables (nombres de las variables) analizadas sí están
relacionadas.
El tipo de estadístico de correlación adecuado dependerá de las características de las variables
analizadas. Cuando las dos variables correlacionadas están medidas a nivel de intervalo y siguen
una distribución normal el estadístico adecuado es la correlación de Pearson (ver apartado 2.2.1).
No obstante, contar con poca muestra o con variables de otra naturaleza son aspectos que
determinan el estadístico de correlación. Aden1ás de Pearson, otros tipos de coeficientes de
correlación no paramétricos son los siguientes:
• Rho de Spearman: se utiliza cuando las variables tienen naturaleza cualitativa ordínal o
también con variables cuantitativas pero con muestras pequeñas (menos de 30 casos).
Otras alternativas a este coeficiente son Tau by Tau c y gamma.
• Chi-cuadrado: se utiliza cuando se analiza la relación entre dos variables cualitativas
nominales. Por ejemplo, la relación entre sexo (hon1bre-n1ujer) y rendin1iento (alto-bajo).
También se utiliza para relacionar una variable nominal y otra ordínal.

29
Enrique Navarro Asencio (@eduktive)

2.4.1 CORRELACIÓN ENTRE DOS VARIABLES CUALITATIVAS ORDINALES.


SPEARMAN, T A UB,
- T A UC
- Y GAMMA
La correlación de Spearman se utiliza cuando las variables tienen naturaleza cualitativa ordinal.
También cuando las variables son cuantitativas pero se cuenta con poca muestra. El ejemplo
clásico de variables ordinales son los ítems de un cuestionario de opinión: valora de 1 a 5 tu grado
de acuerdo con las siguientes afirmaciones (variables tipo Likert).
La interpretación es idéntica a la correlación paramétrica. Tau b y Tau c de Kendall y Gamma son
una alternativa al coeficiente de correlación de Spearman.
La interpretación de estos coeficientes de correlación no paramétricos (Spearman, tau b, tau c y
gamma) es idéntica a la de Pearson. Sus valores oscilan entre -1 y +1. Recordemos que el valor cero
quiere decir ausencia de correlación. A medida que el valor se acerca a los extremos (-1 o +1) la
correlación es más potente. El signo señala la direccionalidad de la correlación. Un valor negativo
quiere decir que a medida que aumentan los valores de una variable disminuyen los de la otra
(correlación inversa). En cambio, si el valor es positivo, a medida que aumentan unos también lo
hacen los otros y viceversa (correlación directa).
Veamos un ejen1plo. S e quiere analizar la relación entre dos variables ordinales. Son Madurez
lectora y nivel de vocabulario que inicialn1ente eran variables cuantitativas y se han recodificado en
tres categorías: baja-media-alta. Las hipótesis a contrastar son las siguientes:
• Hipótesis nula: Las variables n1adurez lectora y nivel de vocabulario, ambas con tres
categorías (baja-media-alta) no están relacionadas.
• Hipótesis alternativa: Las variables madurez lectora y nivel de vocabulario, ambas con
tres categorías (baja-media-alta) SÍ están relacionadas.
A modo de ejemplo, se han calculado los cuatro coeficientes posibles entre variables ordinales. En
la práctica únicamente s e necesita uno de ellos. El más utilizado es Spearman (Tabla 18).

Categorización Categorización Nivel de


Madurez Lectora Vocabulario
Speannan's Categorización Madurez Correlation 1,000 ,916"
rho Lectora Coefficient
Sig. ( 2 -tailed) ,000
N 36 36
Categorización N ivel de Correlation ,916.. 1,000
Vocabulario Coefficient
Sig. ( 2 -tailed) ,000
N 36 36
••. Correlation is significant at the 0.01 leve( (2-tailed).
Tabla 18. Correlación de Speannan entre Madurez lectora y n ivel de vocabulario categorizadas.
De la misma forma que en el resto de contraste de hipótesis, debe observarse el valor del
coeficiente, junto con el valor de la probabilidad asociada. Si ese valor es inferior a 0,05 el valor de
la correlación es significativo. En caso contrario no se podrá confirmar la relación entre las
variables estudiadas.
En este caso, el coeficiente de Spearman es igual a 0,916 y la probabilidad asociada al estadístico
(sig. (2-tailed) es 0,000, valor inferior a 0,05. Por tanto, la correlación es significativa.
El progran1a SPSS n1arca con un asterisco (*) las correlaciones que son significativas considerando
un nivel de error de 0,05 y con dos (**) las que lo son con 0,01, es decir, con un nivel de confianza
del 95% o del 99%

30
Enrique Navarro Asencio (@eduktive)

En la tabla de resultados (Tabla 18) aparecen dos coeficientes de correlación porque es una tabla
simétrica. Incluye los valores de correlación entre madurez lectora y nivel de vocabulario y también
entre nivel de vocabulario y madurez lectora.
El resto de coeficientes de correlación para variables ordinales (Tabla 19) n1uestran valores muy
similares:
Asy1np. Std.
Value Error Aee rox. T Aeerox. Si�.
Ordinal by Ordinal Kendall's tau-b ,902 ,051 8,947 ,000
Kendall's tau-e ,813 ,091 8,947 ,000
Ga1n1na 1,000 ,000 8,947 ,000
N ofValid Cases 36
Tabla 19. Correlación tau-b, tau-e y ga1n1na entre Madurez lectora y nivel de vocabulario catego1izadas.
Todos los coeficientes resultan significativos. Los valores de probabilidad asociada (Approx. Sig.)
son inferiores a 0,05. Un análisis en profundidad de cada uno de ellos indican que tau-b es el que
obtiene un valor más parecido a Spearman (Tau-b= 0,902 y Spearman= 0,916). El coeficiente
Gamma indica una correlación perfecta entre las variables, con un valor de 1. En cambio, tau-e es el
más conservador de los tres, con un valor de 0,813. No obstante, las diferencias entre coeficientes
son mínimas. En todos los casos la intensidad de la correlación es alta.

2.4.2 CORRELACIÓN ENTRE DOSVARIABLES CUAUTATIVASNOMINALES. C H / ­


CUADRADO PARA LA INDEPENDENCIA
Finalmente, el coeficiente de correlación chi-cuadrado se utiliza cuando las variables analizadas
tienen naturaleza cualitativa (por ejemplo, lateralidad (izquierda-derecha) o sexo (mujer-varón),
etc.). También se emplea cuando se correlaciona una variable cualitativa nominal con otra ordinal.
El coeficiente chi-cuadrado se interpreta de forma distinta al resto de coeficientes de correlación
porque no hay valores negativos.
En los coeficientes de Pearson, Spearman, tau-b, tau-e y gamma los valores oscilan entre -1 y +1. En
el caso de chi-cuadrado únicamente puede indicarse si la correlación es significativa o no, en
función de la probabilidad asociada. Si es inferior a 0,05 será una relación significativa.
Unicamente pueden compararse coeficientes chi-cuadrado entre sí y, en ese caso, un mayor valor
quiere decir una relación más potente entre las variables.
Las hipótesis a contrastar son las siguientes:
• Hipótesis nula: Las variables asistencia a preescolar y nivel de vocabulario categorizada
(baja-media-alta) son independientes (o no están relacionadas).
• Hipótesis alternativa: Las variables asistencia a preescolar y nivel de vocabulario
categorizada (baja-media-alta) están relacionadas.
Los resultados se distribuyen en dos tablas. La primera (Tabla 20) es una tabla de contingencia que
muestra el número de sujetos con los que cuenta cada una de las categorías de las variables. O más
bien, del cruce de categorías de las dos variables analizadas.
En este ejemplo, cuántos alun1nos han asistido a preescolar y tienen un nivel de vocabulario bajo (1
caso), cuántos medio (9 casos) y cuántos un nivel alto (6 casos). La tabla también proporciona la
misma información para los que no han asistido a preescolar, 6 casos tienen un nivel de
vocabulario bajo, 11 n1edio y 1 alto.

31
Enrique Navarro Asencio (@eduktive)

Analizando la tabla de contingencia se observa cierta tendencia. Hay un mayor número de casos
con nivel de vocabulario alto y que han asistido a preescolar. En cambio, los que no han asistido a
preescolar tienen un mayor nún1ero de casos con nivel de vocabulario bajo.
Categorización Nivel de Vocabulario
Ba ja Media Alta Total
Asistencia a Preescolar Sí 1 9 6 16
No 6 11 1 18
Total 7 20 7 34
Tabla 20. Tabla de con tingencia de Asistencia a preescolar y nivel de vocabulario
Los resultados también incluyen un gráfico de barras (Figura 20) con la misma información que la
tabla de contingencia:
Bar Chart
Categorización
"1ivel de
Vocabulario
•Boi•
••.eedia
DAiia

:,
o
u

...
Asistencia a Preescolar

Figura 20. Grafico de barras desagregado


Para confirmar está relación debe observarse la tabla de chi-cuadrado (Tabla 21). Este coeficiente
no analiza rangos, estudia el número de casos de casos de cada categoría y su posible tendencia. En
la tabla aparecen varios coeficientes pero debe observare únicamente chi-cuadrado (chi-square).
La n1anera de conocer si el estadístico chi-cuadrado ha resultado significativo es la misma que en el
resto de contrastes de hipótesis. Valores de probabilidad (Asymp. Sig. (2-sided)) inferiores a 0,05
indican que la relación ha resultado significativa. Por tanto, las dos variables cualitativas
estudiadas están correlacionadas.
En este ejemplo la probabilidad asociada a chi-cuadrado es de 0,027, un valor inferior al 0,05. Por
tanto, las variables asistencia a preescolar y nivel de vocabulario están relacionadas. No es posible
conocer la intensidad de la relación a no ser que se compare con otros coeficientes chi-cuadrado.
Chi-cuadrado no tiene intervalos establecidos como el coeficiente de correlación de Pearson que
oscila entre -1 y +1. En ese caso, un mayor de chi indica mayor intensidad de la relación entre
variables.
Asy1n p . Sig. (2-
Value df sided)
P earson Chi-Square 7' 250• 2 ,027
Likelihood Ratio 8,007 2 ,018
32
Enrique Navarro Asencio (@eduktive)

Linear-by-Linear 6,957 1 ,008


Association
N ofVa lidCases 34
a. 4 cells (66, 7%) have expected count less than S. The 1nini1num
expected count is 3,29.
Tabla 21. Prueba Chi-cuadrado
Hay una adaptación del coeficiente de correlación chi-cuadrado que se utiliza cuando las dos
variables cualitativas analizadas tienen el mismo número de categorías. Por ejemplo, si tratamos de
relacionar el género (Mujer-Hon1bre) con la variable sociabilidad (alta sociabilidad-baja
sociabilidad). Es el coeficiente de contingencia
Los resultados también se presentan en dos tablas. La primera es una tabla de contingencia (Tabla
22) que representa las frecuencias de cada categoría obtenida con el cruce de las dos variables. En
este caso: mujeres con alta sociabilidad, mujeres con baja sociabilidad, varones con alta
sociabilidad y varones con baja sociabilidad. La segunda (Tabla 23) muestra los resultados
concretos del coeficiente de contingencia y su probabilidad asociada.
Extroversión y sociabilidad
Alta sociabilidad Baja sociabilidad Total
SEXO Mujer 30 18 48
Varón 25 27 52
Total SS 45 100
Tabla 22. Tabla de contingencia de sexo y sociabilidad
Los valores del coeficiente de contingencia oscilan entre o y 1. Valores cercanos a 1 indican una
relación muy potente entre las variables y cercanos a o indican ausencia de relación. No es posible
diferenciar entre relación directa o inversa. No obstante, para que el coeficiente resulte significativo
el valor de la probabilidad asociada debe ser inferior a 0,05.
Value Approx. Sig .
No1ninal by No1ninal ContingencyCoefficient , 143 ,148
N ofValidCases 100
Tabla 23.Coeficiente deContingencia.
En este ejemplo, el valor del coeficiente de contingencia es 0,143 y la probabilidad asociada es igual
a 0,148. Este valor de probabilidad es superior a 0,05 y, por tanto, la relación entre las variables
sexo y sociabilidad no resulta significativa.

"' "'
'"2:4�2..CORRELAci6iiiiiiRi fii.i}i vÁRIÁBLE..CUAUTA.TNA.NOMiiiAL..DICOTOMiCÁ...
YUNA VARIABLE CUANTITATIVA
Cuando contan1os con una variable cualitativa con dos categorías (dicotómica), por ejen1plo,
acertar o fallar un ítem, ser fumador o no fumador, superar o no superar una prueba, etc. y se
pretende correlacionar con las puntuaciones de una variable cuantitativa. En este caso, la
correlación adecuada e s la biserial-puntual.
Este estadístico de correlación es un caso particular de Pearson que se aplica cuando una de las
variables tiene valores de o y 1.
Sus resultados se interpretan de la misma forma que Pearson. El estadístico puede tomar valores
entre -1 y +1 y el cero quiere decir ausencia de correlación. A medida que el valor se acerca a los
extremos (-1 o +1) la correlación es más potente y el signo señala la direccionalidad de la
correlación.

33

Potrebbero piacerti anche