Sei sulla pagina 1di 16

DISEO EN BLOQUES

Un bloque es un grupo de unidades experimentales, o de sujetos, que son


similares con relacin a aspectos que se cree que influyen sobre la respuesta
de estos a los tratamientos. En un diseo en bloques, la asignacin aleatoria de
las unidades experimentales a los tratamientos se lleva a cabo de forma
independiente dentro de cada bloque.

Caractersticas:

1. Las unidades experimentales son heterogneas.


2. Las unidades homogneas estn agrupadas formando los bloques.
3. En cada bloque se tiene un nmero de unidades igual al nmero de
tratamientos (bloques completos)
4. Los tratamientos estn distribuidos al azar en cada bloque.
5. El nmero de repeticiones es igual al nmero de bloques.

Un diseo en bloques combina la idea de crear grupos de tratamientos


equivalentes mediante la agrupacin con el principio de formar grupos al azar.

Para este diseo el modelo lineal est dado por

Donde es la media global de los tratamientos, es el efecto del

tratamiento el cual es constante para todas las observaciones dentro del

tratamiento, es el efecto del bloque, es el trmino del error

aleatorio, el cual se distribuye normal e independiente con media 0 y varianza .

Las restricciones del modelo son

Los supuestos del modelo son:


El modelo es aditivo, es decir no existe interaccin entre bloques y tratamientos

Las variables aleatorias error se distribuyen normal con media cero

Las variables aleatorias error son no correlacionadas (independientes)

Otra manera de enunciar los supuestos es:


. Los efectos de tratamientos y bloques son aditivos; las respuestas dentro de los

bloques tienen la misma tendencia con respecto a los efectos de los tratamientos.
Las observaciones en las celdas constituyen muestras aleatorias de tamao 1

de cada una de las poblaciones Todas las poblaciones son normalmente

distribuidas,
Las varianzas de cada una de las poblaciones son iguales Si la primera

condicin se tiene se dice que los efectos de bloques y tratamientos no interactan


y una prueba para la no aditividad es debida a Tukey(1949) y Ascombe.

Los bloques nos permiten sacar conclusiones generales ms precisas, ya que


las diferencias sistemticas entre dos bloques se pueden eliminar cuando
estudiamos el efecto de los tratamientos. Un experimentador prudente har
bloques basados en las fuentes de variacin inevitables ms importantes que
afectan a las unidades experimentales. Posteriormente, la aleatorizacin
compensar los efectos de la variacin remanente y, por tanto, nos permitir
una comparacin no sesgada de los tratamientos. (Moore, 2000)

DISEO FACTORIAL

DEFINICIN: Es aquel diseo que se plantea cuando queremos someter a contrastacin el efecto de dos
o ms variables independientes (VVII) y de una posible interaccin entre ellas sobre la variable dependiente
(VD)

MAXWELL y DELANEY (1990): el diseo exp. factorial es aquel que se aplica cuando las muestra de
observaciones quedan determinadas por dos o ms factores.
KIRK (1995): diseo en el cual todas las posibles combinaciones de los niveles de dos o ms factores se dan
de forma conjunta.
PELEGRINA y SALVADOR (1999): es aquel diseo que se plantea cuando queremos someter a constrastacin
el efecto de dos o ms VI y de una posible interaccin entre ellas sobre la VD.
Tipos:
Completo: existen tantos grupos experimentales como posibilidades haya de formarlos.
Incompleto: no existen sujetos en algn grupo.
Se pueden caracterizar en funcin de los niveles de cada VI. Ejemplo: diseo
factorial A x B x C es el que considera tres variables independientes con A, B y
C niveles

Caractersticas
En un diseo experimental factorial:
Existe ms de una variable independiente
Se crean varias unidades de observacin en funcin de ellas
La variable dependiente puede ser una o ms
Se contrastan los efectos que producen cada una de las VVII sobre la VD y
tambin puede estudiarse el efecto de interaccin

Ventajas 1. Son mejores para el estudio del comportamiento, ya que


ste es complejo (multivariable) e interactivo. El estudio con una sola VI puede
resultar poco ecolgico al no corresponderse con la realidad.
2. Se utiliza la muestra de sujetos para evaluar simultneamente los
efectos de dos o ms factores. Son diseos ms eficientes en cuanto al uso de
recursos.
3. Permite evaluar los efectos de la interaccin entre variables.
Desventajas 1. El n de sujetos necesarios es superior al del diseo
unifactorial, a veces imposible de conseguir.
2. Si los efectos de la interaccin son significativos la interpretacin de ella
no es simple (ms compleja cuantas ms VI y VD se consideren).
3. Es un experimento largo.
4. Son menos eficientes en cuanto a conseguir los niveles ptimos de las VI
y de las combinaciones entre ellas.

criterios de clasificacin

Hay muchos criterios de clasificacin de los diseos factoriales y nosotros


vamos a optar por una clasificacin que es una conjuncin restrictiva entre la
clasificacin que concierne a la muestra y los tratamientos utilizados en cada
situacin experimental, la que contiene las unidades estructurales bsicas y,
desde luego, la del nmero de factores.
De esta forma, dentro de los diseos factoriales podramos considerar los
diseos:
Inter-sujetos, donde en cada grupo experimental los sujetos son distintos
generando as grupos independientes.
Intra-sujetos, donde cada grupo experimental se compone de los mismos
sujetos y todos ellos pasan por todas las condiciones experimentales.
Mixtos o split-plot, donde algunas de las variables independientes son
manipuladas inter sujetos y otras intra sujetos.

En la siguiente figura se ilustran los pasos necesarios para la realizacin de un


anlisis factorial:
Supuestos que fundamentan la
tcnica.
r Las dimensiones subyacentes o factores pueden usarse para explicar
fenmenos complejos. s Las correlaciones que se observan entre las variables
son el resultado del hecho que tales variables comparten los mismos factores.
s El modelo matemtico para el anlisis factorial parece ser similar a la
ecuacin de regresin mltiple. Pero se debe recordar que en el caso de la
regresin mltiple, sta considera variables simples las cules son predictoras
de la variable dependiente (criterio).. En cambio, en el caso del anlisis
factorial la variable dependiente se expresa en trminos de una combinacin
lineal de grupos de variables que caracterizan un concepto en particular
(factores). Los factores no son variables independientes simples sino que cada
uno est constituido por un grupo de variables que caracterizan el concepto
que representa el factor. Es por esta causa que se clasifica esta tcnica entre
las tcnicas de interdependencia. (Tanto las variables a un lado de la ecuacin
como en el otro estn interactuando como criterios y predictoras)

Por lo general, los factores que pueden caracterizar a un grupo de variables no


se conocen con anticipacin sino que llegan a ser determinados por medio del
anlisis factorial. Estos factores se llama factores comunes dado que todas la
variables en observacin se llegan a expresar como funciones de ellos.Cuando
no se conoce con anticipacin los factores que constituyen las variables se dice
que procede una anlisis exploratorio. Pero en cambio, si el investigador ha
elaborado el anlisis anticipando (posiblemente apoyado en la teria) la
existencia de ciertos nmeros de factores en particular y anticipando qu
variables conforman cada uno de los factores, se trata de un anlisis
confirmatorio. En este caso al realizar el anlisis se debe solicitar al procesador
estadstico que extraiga el nmero de factores hipotetizados. Para efectos del
presente tema vamos a proseguir segn un anlisis exploratorio de factores.
Segn el ejemplo al final del captulo, la satisfaccin que dicen sentir los
docentes de secundaria en Nuevo Len est determinada por tres factores
cada uno de los cuales es el resultado de la interrelacin de catorce variables
simples medidas segn una escala Likert. Estas variables se agrupan segn el
factor en el cual parecen tener mayor carga, resultando entonces que el factor
1 responde a cinco variables, el factor 2 a otras cinco variables, el factor 3 a
cuatro variables; segn aparece en el anexo B (al final de este captulo) Ud.
puede identificar cada uno de los factores y las variables que tienen una carga
importante en el mismo.
Corresponde al investigador determinar lo que representa o constituye cada
uno de estos factores, para lo cual deber echar mano de la informacin
existente (marco terico). Como se evidencia, los factores pueden ser
desconocidos por el investigador hasta que se realiza el anlisis factorial. Lo
que se procura es explicar la relacin entre el conjunto de variables por medio
del menor nmero de factores. Y estos factores deben tener significado, deben
ofrecer una solucin simple e interpretable que conduzca a nuevas
percepciones. Segn Garza Garca "hay que analizar si en este caso las
variables que quedan bajo cada factor se pueden agrupar lgicamente bajo
una caracterstica comn, si no se puede, no sera la mejor solucin y se
tendra que probar otras soluciones con ms o menos factores, hasta que las
variables queden agrupadas de manera lgica"

Los diseos factoriales completos comprenden los experimentos ptimos para


estudiar qu variables influyen en el sistema. Los mayores beneficios de los
diseos factoriales completos se obtienen cuando se deben estudiar pocas
variables. El motivo es que el nmero de experimentos crece
exponencialmente con el nmero de factores.

REGRESIN LINEAL

R. L. SIMPLE

Supuestos del modelos de regresin lineal

Los supuestos de un modelo estadstico se refieren a una serie de condiciones


que deben darse para garantizar la validez del modelo. Al efectuar aplicaciones
prcticas del modelo de regresin, nos veremos en la necesidad de examinar
muchos de estos supuestos.
1. Linealidad. La ecuacin de regresin adopta una forma particular. En
concreto, la variable dependiente es la suma de un conjunto de
elementos: el origen de la recta, una combinacin lineal de variables
independientes o predictoras y los residuos. El incumplimiento del
supuesto de linealidad suele denominarse error de especificacin.
2. Independencia. Los residuos son independientes entre s, es decir, los
residuos constituyen una variable aleatoria. Es frecuente encontrarse
con residuos autocorrelacionados cuando se trabaja con series
temporales.
3. Homocedasticidad. Para cada valor de la variable independiente (o
combinacin de valores de las variables independientes), la varianza de
los residuos es constante.
4. Normalidad. Para cada valor de la variable independiente (o combinacin
de valores de las variables independientes), los residuos se distribuyen
normalmente con media cero.
5. No colinealidad. No existe relacin lineal exacta entre ninguna de las
variables independientes. El incumplimiento de este supuesto da origen
a colinealidad o multicolinealidad.

Sobre el cumplimiento del primer supuesto puede obtenerse informacin a


partir de una inspeccin del diagrama de dispersin: si tenemos intencin
de utilizar el modelo de regresin lineal, lo razonable es que la relacin
entre la variable dependiente y las independientes sea de tipo lineal. El
quinto supuesto, no colinealidad, no tiene sentido en regresin simple,
pues es imperscindible la presencia de ms de una variable independiente.
El resto de lso supuestos, independencia, homocedasticidad y normalidad,
estn estrechamente asociados al comportamiento de los residuos. Por
tanto, un anlisis cuidadoso de los residuos puede informarnos sobre el
cumplimiento de los mismos.

2.2 Estructura del modelo de regresin


simple
El modelo de regresin lineal simple tiene la siguiente estructura

yi=0+1xi+ei

para i=1,...,n. Vamos a estudiarlo ms detenidamente.


Supongamos que hemos ajustado una recta de regresin a un conjunto de datos, y
sea (xi,yi) un punto cualquiera de la nube. Entonces yi se puede descomponer como

yi=f(yi)+ei=y^i+ei,

donde y^i es el valor ajustado a la recta del valore observado yi, y ei es el error que
cometemos y al que llamaremos residuo.

Una vez calculado el modelo, el valor de y^ queda determinado para cada xi, pero el

valor ei=yiy^i no queda determinado, puede haber dos observaciones con el mismo xi y
distinto ei. En este razonamiento se basar la hiptesis de independencia de los residuos.
2.3 Supuestos del modelo
Para cada xi, valor fijo de X, se cumple la ecuacin yi=0+1xi+ei, donde 0 y 1son
constantes desconocidas. Las hiptesis bsicas del modelo son:
1. Incorrelacin de los residuos Corr(ei,ej)=0. Cualquier par de errores ei y ej son
independientes.
2. Media cero de los residuos E(ei)=0.

3. Varianza constante de los residuos Var(ei)=2.

4. Normalidad de los residuos ei ~ N(0,2).


Como consecuencia:

Cada valor xi de la variable aleatoria X tiene distribucin

(YX=xi)N(0+1xi,2).

Las observaciones yi de la variable Y son independientes.


Grficamente, si las hiptesis del modelo son ciertas tenemos
Modelo de regresin mltiple

El anlisis de regresin mltiple es el estudio de la forma en que una


variable dependiente, y, se relaciona con dos o ms variables
independientes. En el caso general emplearemos p para representar la
cantidad de variables independientes.

y =0 + 1x1 + 2x2 + . . . +pxp +

El trmino del error explica la variabilidad en y que no puede explicar las


p variables independientes. El error es una variable aleatoria distribuida
normalmente con media cero y varianza constante, 2 , para todos los
valores de las X i.

Si consideramos el valor medio de la variable y dadas las variables


independientes =(x1,x2,,xp), obtenemos la ecuacin de regresin lineal

Y/=E(y/ ) = 0 + 1x1 + 2x2 + . . . +pxp

Utilizando los datos de una muestra de tamao n y el mtodo de mnimos


cuadrados se determina la ecuacin de regresin mltiple estimada:

Y = b0 + b1x1 + b2x2 + . . . +bpxp

Cada coeficiente b i representa una estimacin del cambio en y que


corresponde a un cambio unitario en x i cuando todas las dems variables
independientes se mantienen constantes.
Coeficiente de determinacin mltiple (r2 )
r 2 se interpreta como la proporcin de la variabilidad de la variable
dependiente que se puede explicar con la ecuacin de regresin mltiple.

SCT SCR r 2 = SCT SCE SCE 1 SCT SCT SCT: suma de cuadrados total
2 (y y) i SCR: Suma de cuadrados debida a la regresin 2 (y y) i
SCE: Suma de cuadrados debida al error 2 ( ) i i y y Pruebas de
significancia Prueba F H Unoo ms de los parmetrosno es cero
H p : : ... 0 1 0 1 2 =0.05 es el nivel de significacin de la prueba. C
CMR F CME ; CMR=SCE/p y CME=SCE/(n-p-1) Se rechaza H0 si el p-valor
de FC es menor que . nav Estadstica (complementos) 12 Los resultados se
acomodan en una tabla ANOVA. Tabla ANOVA Fuente de variacin Suma de
cuadrados Grados de libertad Cuadrados medios F p-valor o sig. Regresin
SCR p CMR=(SCR/p) FC=CMR/CME Error SCE n-p -1 CME=(SCE/(n - p -1))
total SCT n-1 Prueba t para coeficientes individuales (i) 0 0 i i i i
c b b t S ; con =n-p-1 Se rechaza H0 si |tc| > t /2; o alternativamente, si
p-valor de tc es menor que .

Multicolinealidad

En el anlisis de regresin hemos empleado el trmino variables


independientes para indicar cualquier variable que se usa para predecir o
explicar el valor de la variable dependiente. Sin embargo, el trmino no
indica que las variables independientes sean independientes entre s en un
sentido estadstico. Al contrario, la mayor parte de las variables
independientes en un problema de correlacin mltiple se correlacionan en
cierto grado. Tener un coeficiente de correlacin de la muestra mayor que
0.70 o menor que -0.70 para dos variables independientes es una regla fcil
para advertir la posibilidad de problemas por multicolinealidad. Cuando las
variables independientes estn muy correlacionadas no es posible
determinar el efecto separado de una de ellas sobre la variable
dependiente. Si es posible, se debe evitar incluir en el modelo, variables
independientes que tengan mucha correlacin. Sin embargo, en la prctica
casi nunca es posible adherirse estrictamente a este criterio.

Empleo de la ecuacin de regresin estimada para evaluar y predecir.


Podemos determinar intervalos de confianza para estimar la media de y e
intervalos de prediccin para estimar valores individuales de y

Modelo de regresin lineal simple: y = 0 + 1 x +

0 y 1 son los parmetros del modelo. es una variable aleatoria, llamada


error, que explica la variabilidad en y que no se puede explicar con la
relacin lineal entre x y y. Los errores, , se consideran variables aleatorias
independientes distribuidas normalmente con media cero y desviacin
estndar . Esto implica que el valor medio o valor esperado de y, denotado
por E(Y/x), es igual a 0 + 1 x.

La ecuacin estimada de regresin (lineal simple)


Los parmetros, 0 y 1, del modelo se estiman por los estadsticos
muestrales b0 y b1, los cuales se calculan usando el mtodo de mnimos
cuadrados.

Ecuacin Estimada de regresin lineal simple: = b0 + b1 x

En la regresin lineal simple, la grfica de la ecuacin de regresin se llama


lnea de regresin estimada. es el valor estimado de y para un valor
especfico de x.

LOS SUPUESTOS Y CARACTERSTICAS DE BLOQUES


LOS SUPUESTOS Y CARACTERSTICAS DE FACTORIAL
RESUMEN DEL MODELO DE REGRESIN LINEAL (SIMPLE Y MLTIPLE)
PRUEBAS PARAMTRICAS Y NO PARAMTRICAS (CARACTERSTICA Y
COMPROBACIN DE LAS PRUEBAS)

PRUEBAS PARAMTRICAS

1. Se conoce el modelo de distribucin de la poblacin objeto


de estudio y se desconoce un nmero finito de parmetros de
dicha distribucin que hay que estimar con los datos de la
muestra.
2. Requieren conocer la distribucin de la muestra para pode
r
realizar realizar inferencias inferencias sobre la poblacin poblacin.

Cules son los supuestos de las estadsticas paramtricas?1. La distribucin


poblacional de la variable dependiente es normal: el universo tiene una
distribucin normal.3. El nivel de la medicin de la variable dependiente es por
intervalo o razn5. Cuando dos o ms poblaciones son estudiadas, stas tienen
una varianza homognea, es decir:7. Las poblaciones en cuestin tienen una
dispersin similar en sus distribuciones

Cules son los mtodos o pruebas estadsticas paramtricas ms utilizadas?


utilizadas Coeficiente de Correlacin de Pearson y la regresin lineal
Prueba t Prueba de contraste de la diferencia de proporciones Anlisis
de varianza unidireccional (ANOVA Oneway) Anlisis de varianza factorial
(ANOVA) Anlisis de covarianza (ANCOVA)

SUPUESTOS DE LAS PRUEBAS PARAMTRICAS


1. Normalidad. Las observaciones se extraen de poblaciones
distribuidas segn la Normal para cada grupo. Pruebas de
bondad de ajuste.
2. Homocedasticidad. Las varianzas de los diferentes grupos
tienen que ser iguales. Homogeneidad de varianzas. El
numerador y el denominador de la prueba F son estimaciones
de la misma varianza poblacional. Prueba de Levne. Supuesto
de esfericidad respecto a la homogeneidad de varianzas
- covarianzas segn la prueba de Mauchley.
3. Respecto a los errores:
1. Los errores son independientes entre s.
2. Se distribuyen segn na Normal dentro de cada poblacin
del grupo N(0,

2). Es decir, con media cero y varianzas


equivalentes.
3. La ecuacin estructural del modelo refleja una composicin
aditiva de las fuentes de variacin.

PRUEBAS NO PARAMTRICAS

1. Son mtodos de distribucin libre. No requieren conocer l


a
distribucin de la muestra.
2. Se utilizan estadsticos cuya distribucin se determina con
independencia de cul sea la distribucin de la poblacin.

1. Son una alternativa a las pruebas paramtricas cuando los


datos no cumplen los requisitos de las pruebas paramtricas.
2. Permiten conocer cmo es la forma de la distribucin de la
poblacin de la que se ha extrado la muestra. Contrastes de
Bondad de Ajuste para conocer la forma de la poblacin que ha
originado la muestra.

Las pruebas de bondad de ajuste se utilizan para contrastar si los


datos de la muestra pueden considerarse que proceden de una
determinada distribucin.

Las pruebas no paramtricas engloban una serie de pruebas estadsticas que


tienen como denominador comn la ausencia de asunciones acerca de la ley
de probabilidad que sigue la poblacin de la que ha sido extrada la muestra.
Por esta razn es comn referirse a ellas como pruebas de distribucin libre.

Se dice que las pruebas


no

paramtricas son alternativas a las paramtricas, por ello consideramos


apropiado establecer la equivalencia entre ambas.

Principales pruebas no paramtricas:


PRUEBAS NO PARAMTRICAS
Pruebas Una muestra Variables
Prueba de
Chicuadrado
de
Pearson
Es una prueba de bondad de ajuste, que permite averiguar si la
distribucin emprica de una variable categrica se ajusta o no (se
parece o no) a una determinada distribucin terica (uniforme,
binomial, multinomial, etc.).
VD: Nominal
Prueba
Binomial
Es una prueba de bondad de ajuste, que permite averiguar si una
variable dicotmica sigue o no un determinado modelo de
probabilidad. Permite contrastar la hiptesis de que la proporcin
observada de aciertos se ajusta a la proporcin terica de una
distribucin binomial (lo cual se traduce en la posibilidad de
contrastar hiptesis sobre proporciones y sobre cuartiles).
VD: Nominal
Prueba de
Rachas
Es una prueba de independencia o de aleatoriedad que permite
determinar si el nmero de rachas (R) observado en una
determinada muestra de tamao n es lo suficientemente grande o
lo suficientemente pequeo para poder rechazar la hiptesis de
independencia (o aleatoriedad) entre las observaciones.
Una racha es una secuencia de observaciones de un mismo atributo
o cualidad. Una serie de datos en los que hay muchas o pocas
rachas permite concluir que estas no han ocurrido por azar.
VD: Nominal
Prueba de
KolmogorovSmirnov
(KS)

Es una prueba de bondad de ajuste, que sirve para contrastar la


hiptesis nula de que la distribucin de una variable se ajusta a una
determinada distribucin terica de probabilidad que puede ser
con tendencia a la normal, a la de Poisson o exponencial.
VD: Ordinal/Intervalo
Pruebas Dos muestras relacionadas Variables
Prueba de
McNemar
Sirve para contrastar hiptesis sobre igualdad de proporciones.
Se usa cuando hay una situacin en la que las medidas de cada
sujeto se repiten, por lo que la respuesta de cada uno de ellos se
obtiene dos veces: una vez antes y otra despus de que ocurra un
evento especfico.
VI: Dicotmica
VD: Nominal
//REIRE, Vol. 5, nm. 2, julio 2012 //ISSN: 1886-1946 //Depsito legal: B.20973-
2006
// DOI:10.1344/reire2012.5.2528
- 104 -
Vanesa Berlanga y Mara Jos Rubio. Clasificacin de pruebas no paramtricas.
Cmo aplicarlas en SPSS
Universitat de Barcelona. Institut de Cincies de lEducaci
Prueba de los
Signos
Permite contrastar la hiptesis de igualdad entre dos medianas
poblacionales.
Puede ser usada para saber si una variable tiende a ser mayor que
otra. Tambin es til para probar la tendencia que sigue una serie
de variables ordinales positivas, o para una valoracin rpida de un
estudio exploratorio.
VI: Dicotmica
VD: Ordinal/Intervalo
Prueba de
Wilcoxon
Permite contrastar la hiptesis de igualdad entre dos medianas
poblacionales.
Paralela a la prueba paramtrica de contraste t para muestras
relacionadas.
VI: Dicotmica
VD: Ordinal/Intervalo
Pruebas K-muestras relacionadas Variables
Prueba de
Friedman
Es una extensin de la prueba de Wilcoxon para incluir datos
registrados en ms de dos periodos de tiempo o grupos de tres o
ms sujetos pareados, con un sujeto de cada grupo que ha sido
asignado aleatoriamente a una de las tres o ms condiciones.
La prueba examina los rangos de los datos generados en cada
periodo de tiempo para determinar si las variables comparten la
misma distribucin continua de su origen.
VI: Politmica
VD: Ordinal/Intervalo
Prueba de
Cochran
Esta prueba es idntica a la prueba de Friedman, pero se aplica
cuando todas las respuestas son binarias.
La Q de Cochran prueba la hiptesis de que varias variables
dicotmicas que estn relacionadas entre s, tienen el mismo
promedio. En observaciones mltiples las variables son medidas en
el mismo individuo o en individuos pareados. Tiene la ventaja de
examinar cambios en las variables categricas.
VI: Dicotmica
VD: Nominal
Coeficiente
de
concordancia
de W de
Kendall
Tiene las mismas indicaciones que la prueba de Friedman, aunque
su uso en investigacin ha sido, principalmente, para conocer la
concordancia entre rangos, ms que para probar que existe una
diferencia entre las medianas.
VI: Politmica
VD: Ordinal /Intervalo
Pruebas Dos muestras independientes Variables
Prueba U de
MannWhitney

Es equivalente a la prueba de suma de rangos de Wilcoxon y a la


prueba de dos grupos de Kruskal-Wallis. Es la alternativa no
paramtrica a la comparacin de dos promedios independientes a
travs de la t de Student.
VI: Dicotmica
VD: Ordinal/Intervalo
Prueba de
KolmogorovSmirnov

Sirve para contrastar la hiptesis de que dos muestras proceden de


la misma poblacin. Para ello, compara las funciones de
distribucin (funciones de probabilidad acumuladas) de ambas
muestras.
VI: Dicotmica
VD: Ordinal/Intervalo
Prueba de
Rachas de
WaldWolfowitz

Contrasta si dos muestras con datos independientes proceden de


poblaciones con la misma distribucin.
VI: Dicotmica
VD: Ordinal/Intervalo
Prueba de
reacciones
extremas de
Moses
Sirve para estudiar si existe diferencia en el grado de dispersin o
variabilidad de dos distribuciones.
Esta prueba se centra en la distribucin del grupo de control y es
una medida para saber cuntos valores extremos del grupo
experimental influyen en la distribucin cuando se combinan con el
grupo de control.
VI: Dicotmica
VD: Ordinal/Intervalo
//REIRE, Vol. 5, nm. 2, julio 2012 //ISSN: 1886-1946 //Depsito legal: B.20973-
2006
// DOI:10.1344/reire2012.5.2528
- 105 -
Vanesa Berlanga y Mara Jos Rubio. Clasificacin de pruebas no paramtricas.
Cmo aplicarlas en SPSS
Universitat de Barcelona. Institut de Cincies de lEducaci
Pruebas K-muestras independientes Variables
Prueba de la
Mediana
Contrasta diferencias entre dos o ms grupos en relacin con su
mediana, bien porque no cumplen las condiciones de normalidad
para usar el promedio como medida de tendencia central, bien
porque la variable es cuantitativa discreta.
Es similar a la prueba Chi-cuadrado.
VI: Politmica
VD: Ordinal/Intervalo
Prueba de
JonckheereTerpstra

Es ms potente que sus homnimas, la prueba de Kruskal-Wallis y


la de la mediana, cuando existe una ordenacin a priori
(ascendente o descendente) de las K poblaciones de las que se
extraen las muestras.
VI: Politmica
VD: Ordinal/Intervalo
Prueba H de
KruskalWallis

Es una extensin de la de U de Mann-Whitney y representa una


excelente alternativa al ANOVA de un factor completamente
aleatorizado.
VI: Politmica
VD: Ordinal/Intervalo
Tabla 3. Resumen de las principales caractersticas de las pruebas no
paramtricas.
Fuente: Elaboracin propia

BIBLIOGRAFA:

1. MOORE, D. Estadstica aplicada bsica. Antoni Bosch editor. 2da edicin.


2000. Espaa. Consultado en: https://books.google.com.pe/books?
id=oqOCiEyEjYcC&pg=PA250&lpg=PA250&dq=estadistica+aplicada+BL
OQUES&source=bl&ots=EoOm5cUFFh&sig=Jlvtg-39w4-
czNdBV726Pw4a5XE&hl=es-419&sa=X&ved=0ahUKEwiE-
ZuT7azJAhXF2SYKHS_tD8EQ6AEIGjAA#v=onepage&q=estadistica
%20aplicada%20BLOQUES&f=false
2. Annimo. Diseo de bloques completos al azar: DDBCA. Consultado en:
http://tarwi.lamolina.edu.pe/~fmendiburu/index-
filer/academic/metodos1/Bloques.pdf
3.

Potrebbero piacerti anche