Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
METODOLOGA
CUANTITATIVA CON SPSS
Dr. Jos Manuel Toms
1
Tema 1.Conceptos previos
Formulacin de
hiptesis
Estadstica
Contrastacin Sirve para analizar los
emprica de datos que son siempre
hiptesis necesarios para
poner a prueba las
hiptesis
2
inherentemente diferente), tendrn problemas de desgaste de cadera con distinta
probabilidad.
Contrastacin (puesta a prueba) emprica de hiptesis. Para ponerlo a
prueba es necesario escoger una cierto nmero de hombres y mujeres mayores,
suficientemente elevado y representativo de todos los sujetos para los que se
quiere conocer la respuesta al problema, y comparar si efectivamente presentan
problemas de desgaste de cadera con mayor probabilidad
Como efectivamente se trata de contraste emprico, ser necesario medir (obtener
datos empricos) de cada persona escogida, hombre o mujer, sobre el desgaste de sus
caderas. Es a partir de aqu, en esta fase de contraste, donde la estadstica juega su
papel.
Primero, si se quiere una muestra suficientemente grande y representativa,
es necesario acudir a la estadstica para obtener muestras mediante los
mtodos de muestreo apropiados. Se obtendr as una muestra de personas
mayores mujeres y otra de varones.
Segundo, se tratar de ver si, efectivamente hay diferencias en el desgaste
de caderas de ambos grupos (hombres y mujeres). Pero la comparacin no
puede ser persona a persona, sino de forma general. Se requiere por tanto
resumir cada grupo de alguna manera. Por ejemplo, se puede calcular la
proporcin de varones mayores con problemas de cadera y la proporcin
de mujeres, lo que implica clculos estadsticos de ordenacin y resumen
de datos. O puede calcularse la media de desgaste de cadera en los
hombres mayores y la media de desgaste de cadera en mujeres mayores.
Tambin es otra forma estadstica de resumir datos.
Tercero, dado que las muestras, an siendo representativas, difcilmente
pueden ser idnticas a todos los sujetos de inters de donde se han
extrado, es necesario considerar que puede haber cierta cantidad de error.
Por tanto, parece razonable evaluar la cuanta de ese error antes de
asegurar que las diferencias encontradas, si las hay, son relevantes. La
estadstica permite cuantificar ese error.
3
Figura 2
Principales tipos de diseos de investigacin
Experimental No Experimental
Caracterstica: Caractersticas:
Manipulacin Ni manipulacin
Ni aleatorizacin
Cuasi- Encuesta
Experimental
Experimental
Aleatorizacin Observaciona
Sin l
aleatorizacin
Cualitativo
4
Ahora supongamos que simplemente el investigador tiene la duda de si los atletas
veteranos hombres presentan peores articulaciones que las atletas veteranas mujeres. En
otras palabras lo que cree el investigador es que el sexo puede afectar a las
articulaciones a esas edades. As que el sexo es la variable que afecta (independiente) y
la variable afectada las articulaciones (en cualquier medida que se quiera tomar de
ellas). Evidentemente no se manipula ni se aleatoriza, ya que el investigador no decide
en qu grado se posee la caracterstica sexo, ni quin va a ir (al azar) a un sexo u otro
porque no es posible. Ene se caso el estudio es no experimental. La divisin de los no
experimentales en de encuesta, observacionales y cualitativos es un poco ms dudosa,
pero en general puede decirse que se trata de encuesta cuando se miden muchas
variables y tpicamente las contesta el propio sujeto (bien entrevistado, bien dejndole
una encuesta para que la rellene). Se habla de observacional cuando se trata de medir a
unos pocos sujetos en una serie de conductas por parte de uno o varios observadores
externos. Generalmente se calculan frecuencias de las conductas en ciertos periodos de
tiempo. Se registran conductas. Y finalmente el cualitativo es el estudio en profundidad
de unos pocos sujetos, normalmente considerados prototpicos.
5
una prueba y as conocer el nivel intelectual de sus alumnos. Sea cual sea
la forma de escoger a esos 10 alumnos, lo que consigue es siempre una
muestra. Puede decidir, por ejemplo, poner 30 nmeros en un bombo y
extraer 10 bolas de l, lo que constituye un procedimiento aleatorio. O
puede escoger a los 10 que se sientan en las primeras filas, lo que
difcilmente nos ofrece una muestra azarosa de individuos. Sea cual sea la
forma de obtener a los 10 sujetos el resultado es una muestra de tamao
diez, procedente de una poblacin de tamao treinta.
As que la estadstica trabaja o bien con la totalidad o con un subconjunto de los
datos que se quiere estudiar, o sea, con una poblacin o con una muestra. Lo que hace
con ellas es recogerlas (escoger el mejor mtodo para recogerlas), ordenarlas (plantear
alguna forma lgica de ordenacin, como menor a mayor) y analizarlas (extraer de ellas
el mximo de informacin posible, entenderlas).
Por tanto la recogida, ordenacin y anlisis puede hacerse con la poblacin o con
la muestra. Estas tres funciones pueden sintetizarse en estudiar la muestra y/o la
poblacin. Si stas se estudian por separado, entonces estamos ante un anlisis de datos
o una estadstica descriptiva. Tenemos un conjunto de individuos que presentan cierta
informacin en algunos aspectos que nosotros queremos estudiar racionalmente. Los
recogemos, los ordenamos y los analizamos.
Pero si entendemos algo de las leyes de la probabilidad, y su lgica, entonces
rpidamente nos daremos cuenta de que una muestra se diferencia de la poblacin en un
aspecto fundamental: no incluye todos los objetos de inters. Por lo tanto, no tiene toda
la informacin. Es una informacin restringida, no plena.
Pongamos un ejemplo: queremos saber la altura y peso que tiene en la actualidad
la poblacin espaola nacida entre 1980 y 2000. Queremos informacin sobre una
poblacin, todos los nacidos entre 1980 y 2000, en una serie de caractersticas. En este
caso, la altura y el peso. Las opciones que tenemos son medir a todos los nacidos entre
esos aos en altura y en peso. Evidentemente esto presenta dificultades: primero es muy
costoso medir a todos estos individuos, es difcil recogerlos. En algunos casos puede
incluso ser muy difcil o imposible. Algunos de los nacidos entre 1980 y 2000 de
nacionalidad espaola han muerto. Decidimos, por tanto, escoger solamente una
muestra (un subconjunto de toda la poblacin). Esta es una decisin sobre cmo
recogerlos. Podemos decidir escoger varias ciudades de la geografa espaola, al azar, y
medir la altura y peso de un cierto nmero de ciudadanos de ella, de nacionalidad
espaola, y que cumplan con la restriccin de nacimiento entre 1980 y 2000. Finalmente
escogemos un total de 1000 personas en un total de 20 ciudades espaolas.
Evidentemente, a nadie se le escapa que esos 1000 individuos no tienen porqu ser
idnticos al milmetro en altura a la poblacin, o idnticos al miligramo en peso al total
de la poblacin. Es decir, representan a la poblacin, pero solo tienen cierta
probabilidad de ser iguales que ellos. O incluso, mejor dicho, se parecen a la
poblacin, pero solamente con ciertos mrgenes de error. La muestra, por tanto, y este
es el fondo del asunto, sirve no para medir a la poblacin, sino para inferir lo que
ocurre en la poblacin. Por tanto, cuando la muestra se usa no como un fin en s mismo,
sino como un medio para conocer la poblacin, entonces estamos ante anlisis de datos
inferencial.
Concluyendo, la estadstica, es la ciencia que recoge, ordena y analiza datos. En
tanto que los datos vienen de una poblacin o de una muestra, pero se tratan en s
mismos, estamos ante la estadstica descriptiva, mientras que si se relaciona lo obtenido
6
en la muestra con lo que se cree que ocurre en la poblacin, estamos ante estadstica
inferencial.
As si disponemos de una poblacin completa, podemos estar interesados en medir
alguna de sus caractersticas. Por ejemplo, si somos profesores en un colegio nuestra
poblacin de inters puede ser los alumnos de una clase de segundo de la ESO. Si
estamos interesados en conocer su rendimiento en matemticas tendremos que hacerles,
como mnimo un examen de matemticas a cada uno de ellos, medirlos. Si queremos
resumir el nivel de matemticas de toda la poblacin calcularemos sobre estos datos
algn valor resumen. Por ejemplo la proporcin de aprobados o la media de todos los
exmenes.
Si los alumnos de la clase no son la poblacin de inters, sino una muestra de
todos los alumnos de segundo de ESO del colegio (que s son, en este caso la poblacin
de inters), la operacin puede repetirse. Se hacen los exmenes de matemticas
correspondientes y se obtienen las notas de los alumnos de la clase. Si se quieren
resumir, se puede hacer lo mismo que en el caso anterior: por ejemplo la proporcin de
aprobados o la media de todos los exmenes.
Ahora bien, ambas situaciones, an siendo muy similares no son idnticas desde el
punto de vista estadstico:
Los valores obtenidos en la poblacin (la media de matemticas y la
proporcin de aprobados del primer caso) se llaman parmetros y se
representan por letras griegas. En concreto la media es y la
proporcin .
Los valores obtenidos en la muestra (media y proporcin del segundo
caso en que los alumnos son solamente una muestra) se llaman
estadsticos y se representan por letras latinas. En concreto la media
es y la proporcin p.
Los parmetros y los estadsticos tienen caractersticas muy diferentes. La media
de rendimiento en matemticas del primer caso, en que los alumnos son todos los de
inters (poblacin), y asumiendo que el examen representa de forma fiable y vlida el
conocimiento requerido en matemticas, los valores obtenidos representan
perfectamente a los alumnos de inters, sin error. Por contra, los estadsticos son valores
calculados en una muestra de la poblacin de inters, por lo que no puede considerarse
que representen perfectamente a todos los alumnos de inters. Slo lo representarn
perfectamente si la muestra coincide exactamente con la poblacin, lo que es altamente
improbable. Presentar, por tanto en general un error muestral, en general, tanto mayor
cuanto ms distinta sea la muestra de la poblacin (cuanto ms pequea sea la muestra,
por ejemplo. En resumen los parmetros no presentan error estadstico, los estadsticos
s, y ste es conocido por error muestral. Lo que s comparten es que ambos son valores
obtenidos sobre objetos de inters en caractersticas de inters, y para obtener valores
hay que medir las caractersticas de inters y a la medicin dedicaremos el siguiente
punto.
7
variables, mientras que las distintas modalidades de cada variable dan lugar al rango de
valores.
Pongamos ejemplos de estos conceptos. Podemos estar interesados en conocer
algunas caractersticas de los alumnos de fisioterapia. Veamos algunas de esas diversas
caractersticas:
[a] Entre las caractersticas a conocer tenemos el sexo de los alumnos. A
partir de aqu el sexo es una variable, ya que presenta diversas opciones o
modalidades en que los alumnos pueden variar (de ah variable). Esta
variable puede presentar dos modalidades: hombre y mujer. Salvo que
todos los alumnos sean hombres o mujeres, lo que convertira la variable
en una constante (una sola modalidad), medir consistir en este caso en
numerar a hombres y mujeres. Por ejemplo: mujer= 1 y hombre= 2. La
nica regla seguida en este caso es dar un nmero distinto a cada
modalidad, pero salvo eso, se podra haber dado cualquier valor.
[b] Otra de las caractersticas que se quieren medir es el grado de motivacin
hacia la carrera que presentan. Para ello se les hace la pregunta, desde nada
hasta mucho, cul es el grado de motivacin que tienes por cursar esta
licenciatura? Y se sita una escala graduada con extremos Nada y Mucho
y cinco puntos. Se decide que el que conteste nada ser un 1, y cada
anclaje superior a nada ir sumando 1 punto nuevo. As hasta hacer mucho
igual a un cinco. Aqu las reglas seguidas son dar a cada anclaje un
nmero, pero no se dan de cualquier forma, sino dando un orden de menor
(nada) a mayor (hasta mucho).
[c] Se quiere saber tambin los conocimientos previos de matemticas. Para
ello se realiza un examen con 20 preguntas de matemticas con tres
alternativas de respuesta, de las que solamente una es correcta. Se decide
dar notas desde 0 (ningn acierto) hasta 10 (todos correctos). Adems hay
que realizar alguna frmula para corregir la posibilidad de acertar por
simple azar de entre las tres respuestas posibles.
Todo esto son ejemplo de caractersticas para medir, que dan lugar en este caso a
tres variables, sexo, motivacin y conocimiento de matemticas, con su rango de
valores posibles (1-2; 1-5 y 1-20, respectivamente).
Las variables pueden clasificarse de acuerdo a diversos criterios, algunos de los
cuales son relevantes para poder tratar correctamente los datos posteriormente (ver
figura 3).
8
Figura 3
Tipos de variables en funcin de criterios clasificatorios
Stevens (1951, 1957) plante que las variables podan tener distinto estatus
mtrico, diferente escala de medida. Y planteo cuatro posibles escalas de medida, que
desde entonces se han empleado como una clasificacin de variables que se arrastra
incluso en paquetes estadsticos. Las cuatro escalas de medida de Stevens eran:
Nominal: Aquellas variables que en verdad no tienen nmero natural, sino
que responden a cualidades distintas. Por ejemplo el sexo, no hay siquiera
orden. La religin que se confesa, que no puede siquiera ordenarse. El club
de ftbol del que se es socio. El tipo de gnero de cine que gusta, etc.
Ordinal. Se pueden ordenar las distintas modalidades, pero no es seguro
que entre una modalidad y otra haya exactamente la misma distancia
real. Por ejemplo si se pregunta cunto te gusta el gobierno? Y las
opciones son nada, algo y mucho. No es seguro que para pasar de nada a
algo haya la misma distancia que de algo a mucho.
Intervalo. Cuando no solo hay ordenamiento sino que los nmero que
tienen misma distancia entre ellos mantienen esa distancia en la realidad
tambin. Si, por ejemplo medimos altura en centmetros y un sujeto tiene
170cm y otro 190cm, es evidente que se diferencian 20cm entre s. Otros
dos sujetos de 140cm y 160cm estn en otro punto d la escala, pero siguen
teniendo la misma distancia entre ellos que los dos primeros.
9
Razn. Cuando se cumple las condiciones de la escala de intervalo, pero
adems el cero es absoluto (existe en realidad, al menos potencialmente).
Por ejemplo el nmero de hijos.
Por otro lado, desde un punto de vista ms estadstico, las mayores diferencias
entre variables se hacen entre las categricas o cualitativas, que se corresponderan con
las nominales y el resto, en que el uso de nmeros es algo ms que una mera etiqueta.
An as se divide tambin en semi-cuantitativas, en que solamente cuenta el orden,
como por ejemplo las posiciones de llegada de una carrera, y las cuantitativas, en que el
nmero tiene significado en s mismo representa relaciones cuantitativas
razonablemente claras.
Por otra parte, las variables se pueden distinguir por el estatus que tienen en la
investigacin, por el papel que juegan. Aunque no son los nicos papeles, ya que otros
son posibles, los ms importantes son los de variables independientes y dependientes.
Veamos estos tipos con algunos ejemplos.
Variable independiente o predictora es la que en una investigacin dada se
asume que produce un efecto o es capaz de predecir a otra. Como ejemplo,
se puede pensar que la variable peso levantado en un banco de pesas tienen
un efecto sobre el desarrollo muscular. En este caso la variable
independiente ser el peso levantado. O se puede pensar que el
rendimiento en una asignatura puede depender de la motivacin que se
tenga a esa asignatura. En este ejemplo la motivacin se asume que tiene
un efecto sobre la nota.
Las variables dependientes o criterios son las que se ven afectadas en una
investigacin dada. Por ejemplo si queremos explicar el peso de una
muestra de personas, entonces la variable dependiente es precisamente el
peso, y habr que buscar en la investigacin qu variables independientes
pueden explicarlo, como la ingesta de caloras o el ejercicio fsico
realizado.
Evidentemente lo que en una investigacin puede ser variable independiente, en
otra puede ser dependiente y viceversa. Por ejemplo, la ingesta de caloras por da puede
ser una variable independiente que explique el peso, pero en otros casos podemos querer
explicar precisamente esa ingesta de caloras (se transforma en dependiente), en funcin
de, por ejemplo el poder adquisitivo.
Una vez se han medido a uno o varios individuos en una o varias variables,
entonces se obtienen observaciones. Cada observacin siempre ha de quedar
representada por un nico nmero, es por tanto una medicin. Las observaciones puede,
a su vez, dividirse en dependientes e independientes.
Las observaciones son independientes cuando la probabilidad de extraer
cualquiera de ellas no altera la probabilidad de extraer otra cualquiera. Mientras, las
observaciones dependientes o relacionadas son las que cualquiera de ellas altera la
probabilidad de obtener otra observacin cualquiera. Aunque esta es una simplificacin
enorme, grosso modo las observaciones independientes se suelen obtener al escoger
medidas de una serie de sujetos al azar, sujetos diferentes. Las observaciones
dependientes suelen coincidir con medidas repetidas de unos mismos sujetos. Por
ejemplo, si se escoge al azar una muestra de 10 estudiantes de la Universitat de Valncia
y se les mide su cociente intelectual, porque Alberto haya sacado 101, esto no nos dice
nada de qu observacin de CI tendremos de Juan, de aqu la independencia o falta de
10
relacin. Por el contrario si queremos observar a lo largo de su carrera los CI de estos 10
sujetos (medidas repetidas), el CI del primer ao de Alberto s nos dice algo (se
relaciona con) el CI del propio Alberto, medida repetida, en el segundo curso, luego a
priori ya sabemos algo del CI de ste y la segunda observacin se relaciona, no es
independiente de la primera. No obstante dejaremos esta distincin sobre observaciones
independientes y dependientes para detallarla ms adelante cuando se trate de cmo
situar unas y otras en los paquetes estadsticos y cmo analizarlas diferencialmente.
Si las observaciones vienen de muestreos aleatorios, se puede decir que a largo
plazo son representativas de la poblacin. Por el contrario si el muestreo no es aleatorio,
esto no puede asegurarse. Ahora veremos una introduccin a los diferentes tipos de
muestreo.
1.5. Muestreo
Las tcnicas de muestreo son algo ms que simples frmulas estadsticas que nos dicen
cuntas personas hay que seleccionar de una poblacin dada, si queremos cometer un
cierto error mximo al emplear tal o cul estadstico. El empleo de una herramienta de
muestreo adecuada es la que nos da confianza para la generalizacin de los resultados,
caso de que una muestra sea necesaria para analizar una poblacin, lo que es habitual
cuando la totalidad de la poblacin no est disponible. O no resulta razonable en
trminos de costes-beneficios medirlos a todos.
Efectivamente, el muestreo debe permitirnos analizar crticamente qu tipo de
muestra necesitamos, en base a los objetivos de la investigacin y los recursos
disponibles. Nos debe responder a tres preguntas:
[1] Necesitamos una muestra?
[2] Qu tipo de muestreo vamos a realizar?
[3] Qu tamao de muestra es necesario para cierto margen de error? (esta
ltima pregunta, por su complejidad no la abordaremos, pero se puede
encontrar informacin en cualquier manual estndar de muestreo)
La poblacin objetivo es el grupo ideal de objetos que sern sometidos al diseo de
encuesta. Hablamos de objetos, cuando casi siempre son sujetos, porque en ocasiones
podemos estar interesados no en que conteste la encuesta personas individuales, sino
casas, grupos de trabajo, compaas, etctera, por lo que no siempre la poblacin sobre
la que se desea realizar la investigacin est compuesta de personas. Menos
tcnicamente, la poblacin objetivo es el total de personas o cosas que desearamos
sobre la que queremos, en principio, analizar sus puntuaciones en una serie de variables.
En muchas ocasiones definir la poblacin objetivo parece muy sencillo. Por
ejemplo, un psiclogo deportivo puede estar interesado en la relacin entre motivacin
y rendimiento en pruebas de atletismo en la actualidad. Tal inters, en principio, parece
demandar una poblacin objetivo de todos los estudiantes de matemticas. Pero claro,
esto nos lleva a importantes cuestiones: de todas las edades? de todo el mundo?
Etctera, lo que puede hacer que la poblacin objetivo definida como ideal sea muy
grande, infinita o prcticamente infinita.
Otro ejemplo puede aclarar ofrecer otra visin,. Supongamos que los encuestadores
han sido contratados por una empresa de 10.000 empleados con el objetivo de saber la
satisfaccin laboral de stos, y sus relaciones con ciertas variables organizacionales,
11
entonces la poblacin objetivo es claramente el nmero total de empleados. Sin
embargo, si esa misma empresa desea saber la satisfaccin de las empleadas con nios
menores de tres aos con la carga de trabajo, entonces solamente las que estn en esa
situacin, del total de diez mil empleados, es la poblacin objetivo.
En general hay tres situaciones, por tanto, en las que resulta conveniente recoger
muestras, frente a medir la poblacin:
[1] Cuando la poblacin es tan grande que no es posible, para las posibilidades
de la investigacin, medir a todos.
[2] Cuando la poblacin es suficientemente uniforme como para que cualquier
muestra bien extrada sea una buena representacin de sta.
[3] Cuando el proceso de encuesta (la medicin) de los elementos es destructivo.
En estos casos se tienen que conseguir muestras, y stas deben escogerse mediante
alguno de los tipos de muestreo disponibles, que resulte adecuado para los fines de la
investigacin. Los principales tipos de muestreo pueden dividirse, con matizaciones, en
dos, probabilstico y no probabilstico.
El muestreo probabilstico presenta ciertas caractersticas, que son las que le
permiten ser el nico cientficamente vlido. En primer lugar, la probabilidad de
seleccin de cada miembro es conocida. Adems, la seleccin de un individuo
cualquiera del marco es independiente de la seleccin de cualquier otro individuo. El
supuesto bsico de este tipo de muestreo es que la gente que se selecciona como
muestra son, a la larga, como cualquier otra muestra extrada por el mismo
procedimiento. Los tipos de muestreos probabilsticos ms utilizados son: a) muestreo
aleatorio simple; b) muestreo estratificado; y c) muestreo por conglomerados o reas.
Por su parte el muestreo no probabilstico sera aquel en que la probabilidad de
seleccin de cada elemento del marco no es conocida, ni calculable. Son, en otras
palabras, aquellos tipos de muestreo en que la seleccin para la muestra se basa en algo
ms que el azar. Existen diversos tipos de muestreo no probabilstico, ya que pueden
realizarse recogidas de muestra en base a diferentes consideraciones no aleatorias.
Normalmente se distingue entre (Azorn y Snchez-Crespo, 1986): a) muestreo
intencional u opintico; b) muestreo sin norma.
Finalmente, puede hacerse una ltima distincin que incluira a aquellos tipos de
muestreo que s presentan caractersticas probabilsticas, pero no son totalmente
probabilsticos. En este sentido, Mosteller y Tukey (1954) hablan de muestreos
semiprobabilsticos superior e inferior, o tambin podemos encontrar el muestreo por
cuotas. En cualquier caso, todos estos tipos de muestreo, hay que tenerlo claro, no son
probabilsticos, y por lo tanto no garantizan, a la larga, la adecuacin de las muestras
para representar a la poblacin.
12
Figura 5. Tipos de muestreo
Muestreo sistemtico
SEMI-
PROBABILSTICO Semiprobabilstico inferior
Semiprobabilstico superior
Pasaremos ahora al detalle de todos estos tipos de muestreo, as como a algunas de sus
implicaciones.
13
La estratificacin es el proceso por el que se asigna a cada una de las unidades de la
poblacin al subgrupo o estrato que le corresponde. Cada unidad de la poblacin, cada
sujeto, solamente puede aparecer en un estrato, por lo que los grupos definidos han de
ser mutuamente excluyentes y exhaustivos.
Los motivos principales para realizar un muestreo estratificado son:
Se necesita obtener estimaciones para subpoblaciones, de forma que no
puede dejarse al azar el que alguna de las subpoblaciones quede sin
representar o pobremente representada.
Dado que el muestreo estratificado siempre baja o mantiene como
mnimo igual la variabilidad muestral, se mejora la precisin de los
estimadores. Hay que tener en cuenta, no obstante, que la estratificacin
solamente aumenta la precisin de los estimadores aplicados a variables
que se encuentran relacionados con las variables que sirven para
estratificar.
En resumen, se estratifica para conseguir mejorar la representatividad de la muestra
y la precisin de la estimacin. No obstante, las variables que se utilicen para la
estratificacin debieran estar relacionadas con alguna o algunas de las variables objetivo
del estudio, pues de lo contrario se pagara el precio de una mayor complejidad sin la
consiguiente ganancia en precisin.
Una vez se ha estratificado, y por tanto se conoce el nmero de estratos relevantes,
queda todava por determinar el nmero de sujetos que se muestrearn en cada uno de
los estratos. Este proceso, el de determinar cuntos individuos de cada estrato van a ser
seleccionados para formar parte de la muestra (muestra total, que incluye todos los
estratos), se conoce como afijacin. Existen diversos tipos de afijacin, en funcin de
los intereses del estudio y de la estructura de la muestra. Los tipos de afijacin ms
importantes son (Azorn y Snchez-Crespo, 1986):
Afijacin uniforme Se toman en todos los estratos el mismo nmero de
sujetos, con lo que los estratos quedan igualados. Por supuesto, si este no es el
caso en la poblacin, hay que corregir en los estadsticos este cambio de las
proporciones por estrato antes de calcular estadsticos para representar a la
poblacin. Este tipo de afijacin da la misma importancia a todos los estratos,
favoreciendo la precisin de los de menor tamao y perjudicando a los de mayor
tamao.
Afijacin proporcional. Las n unidades de la muestra se distribuyen
proporcionalmente a los tamaos de los estratos en la poblacin. Esto es, si se
decide, por ejemplo, que el sexo va a ser la nica variable para estratificar, y en
la poblacin objetivo hay un 75% de mujeres y un 25% de hombres, la muestra
total que se escoja ha de tener los mismos porcentajes que la poblacin de
hombres y mujeres.
Afijacin de varianza mnima. La afijacin de varianza mnima o afijacin
de Neyman consiste en determinar los valores del tamao de muestra de cada
estrato para que la varianza sea mnima. La utilidad de este tipo de afijacin
aumenta si hay muchas diferencias en variabilidad entre los diferentes estratos
en las variables de inters. En cualquier otro caso, la afijacin proporcional suele
dar buenos resultados para su nivel de dificultad. Adems es un tipo de afijacin
difcil porque exige el conocimiento de la variabilidad poblacional, o una
estimacin de sta, de las variables de inters para cada estrato.
14
Muestreo por conglomerados. En el muestreo estratificado los estratos a tener en
cuenta los fijaba el o los investigadores para, posteriormente y dentro de cada estrato,
seleccionar al azar las unidades elementales de la muestra que son el objetivo ltimo de
la encuesta. Por el contrario, en el muestreo por conglomerados, se definen
conglomerados (conjuntos) tales que incluyen a dos o ms (generalmente bastantes
ms) unidades muestrales ltimas a seleccionar (personas, por ejemplo), y lo que se
escoge al azar es una muestra aleatoria de conglomerados, y dentro de cada
conglomerado escogido no se hace muestreo, sino que se seleccionan todas las
unidades muestrales objetivo (personas). Por lo tanto, lo que se escoge al azar son los
conglomerados, que suelen ser conjuntos formados naturalmente, y no las unidades
elementales a estudiar finalmente.
Un ejemplo ayuda, sin duda, a entender el muestreo por conglomerados de forma
cabal. Supongamos que se quiere estudiar las relaciones entre motivacin, inteligencia y
rendimiento acadmico en alumnos de ESO de la provincia de Valencia. Podra pedirse
un listado de todos los alumnos de ESO (la poblacin) en este ao y escoger al azar la
muestra necesaria, por ejemplo n=1000, lo que sera muestreo aleatorio simple. Se
podra decidir que se quiere la misma proporcin de nios que de nias, con lo que se
estratificara por sexo, y tras la estratificacin se escogera al azar n1=500 nios y
n2=500 nias. Este sera un caso de muestreo estratificado. En los dos casos anteriores
se escogen al azar las personas que son, finalmente, objetivo de anlisis de la encuesta.
Otra alternativa es obtener un listado de todos los colegios o escuelas que imparten
ESO en la provincia de Valencia, y definir cada uno de esos colegios como un
conglomerado (de alumnos de ESO, para nuestros intereses), y escoger aleatoriamente
de entre todos los conglomerados un cierto nmero, tal que la suma de todos los
alumnos de ESO en esos colegios nos ofrezca aproximadamente el tamao de muestra
deseado. En la figura 6 aparece un esquema de cmo se producira un muestreo por
conglomerados para este ejemplo. El proceso aleatorio es con los conglomerados,
mientras que las personas (alumnos de ESO) se escogen todas las disponibles de cada
escuela o colegio seleccionado. Ntese, por tanto, que una vez escogidos los colegios al
azar, los alumnos de cada uno de ellos se incluyen en la muestra necesariamente. El
muestreo es, no obstante probabilstico, porque los conglomerados s se escogieron al
azar.
15
Figura 6.
Esquema de un muestreo por conglomerados, donde los conglomerados son escuelas o
colegios.
...
Todos Todos Todos Todos Todos
...
Otros ejemplos de muestreos por conglomerados, pueden ser escoger al azar: a)
Familias, de las que se escogen todos los miembros para obtener una muestra final de
padres, madres, hijos, hijas, abuelos y abuelas, etc; b) Casas, en las que miden a todos
los que viven en la casa; c) Municipios de un Estado; d) Mesas electorales, de las que se
recuentan todas las papeletas, y un largo etctera.
En algunos casos, especialmente en estudios geogrficos y sociolgicos es comn
que los conglomerados se definan como reas o zonas fsicamente delimitadas de
terreno, de forma que muy a menudo se conoce este muestreo como muestreo por
reas.
El muestreo por conglomerados presenta ventajas e inconvenientes. De entre los
primeros se puede destacar:
i. Es el indicado cuando no se dispone de un listado exhaustivo de las
unidades muestrales, pero s de los conglomerados.
ii. Se ahorra por comparacin a los anteriores tipos de muestreo, ya que al
concentrarse las unidades fsicamente disminuye las necesidades de
desplazamiento, y por ello los costes de tiempo y dinero.
iii. En algunos casos puede eliminar sesgos, ya que la supervisin de la
encuesta es ms fcil de realizar, y se hacen mnimos la necesidad de
equipo de apoyo.
16
Estas ventajas, por descontado vienen a costa de inconvenientes. De otra forma
sera el adecuado siempre. De entre los inconvenientes ms relevantes:
i. Falta de independencia de las puntuaciones. Dado que los sujetos se
encuentran en unidades formadas naturalmente, como clases, o familias,
entra dentro de lo posible que sus puntuaciones no sean estadsticamente
independientes, sino que guarden una cierta relacin. Por tanto, cuando
se realizan muestreos por conglomerados no hay que asumir la
independencia de las puntuaciones, sino que ms bien hay que
comprobarla. As, una forma til es contrastar si existe una correlacin
intraclase importante, y si esto es as, habra que utilizar tcnicas
estadsticas multinivel para analizar los datos de la encuesta.
ii. Sesgos debidos a baja representatividad de los conglomerados. Si se
escogen pocos conglomerados, estos pueden estar sesgados con respecto
a las caractersticas de la poblacin. La solucin pasa por escoger un
mayor nmero de conglomerados. Caso de que al escoger un gran
nmero de conglomerados se obtuviera una tamao de la muestra
excesiva, la solucin entonces es el siguiente tipo de muestreo
probabilstico, el muestreo por etapas.
Muestreo sin norma. El muestreo sin norma, tambin en ocasiones llamado muestra
de conveniencia es simplemente eso. Se extrae una muestra de la poblacin objetivo
simplemente porque es conveniente, fcil, econmica, pero no en base a la aleatoriedad.
Ejemplos de este tipo de muestreo es cuando un profesor extrae conclusiones al respecto
de los alumnos de educacin infantil, basndose en las pruebas que pasa a sus alumnos
17
de ese ao de educacin infantil. Otro ejemplo es cuando los medios de comunicacin
hacen una pregunta en un telediario y recogen una muestra de respuestas, asumiendo
que eso es lo que piensan los espaoles, sin caer en la cuenta de qu tipo de espaoles
ven esa cadena a esa hora... y un largo etctera.
En este caso, el resultado de la fraccin indica que para obtener una muestra de
n=200 de entre una poblacin de N=15000, resulta necesario coger un trabajador de
entre cada 75, por lo que en el muestreo sistemtico escogeremos de 75 en 75 hasta
conseguir el total de la muestra. Ahora solamente quedar escoger un inicio aleatorio de
entre los sujetos numerados entre 1 y 75. Por ejemplo se puede escoger como punto
18
inicial aleatorio el valor sujeto 23. De esta forma, la muestra sistemtica quedar
compuesta por la siguiente secuencia de sujetos, el primero el sujeto que es el nmero
23 en el listado de la poblacin, y luego de 75 en 75 a partir de l, de forma que el
siguiente sujeto ser el 23+75= 98, y el tercero el 98+75= 173, y as sucesivamente..
Existe la posibilidad de escoger el muestreo sistemtico an cuando no se conozca
el listado de la poblacin o incluso el tamao de sta. Pongamos un ejemplo.
Supongamos que un hospital est interesado en realizar una encuesta a los pacientes de
sus distintos servicios, para conocer la satisfaccin de stos con el servicio ofrecido, el
trato, etctera. No saben en este ao, en el que quieren hacer la encuesta, cul ser la
poblacin total, ni sus nombres, pero saben, por ejemplo que el ao anterior dieron
servicio a 10000 pacientes. Desean obtener una muestra de tamao n=500. Aunque
verdaderamente no saben si tendrn 10000 pacientes, o ms, o menos, ni tampoco
pueden hacer un listado de ellos a priori, pueden, no obstante, realizar un muestreo
sistemtico. Escogern, en principio, a:
1 de cada 20 pacientes que pasen por el hospital para tratarse, y lo nico que tienen
que hacer es ir a unas tablas de nmeros aleatorios para tomar un nmero al azar de
entre 1 y 20, pera empezar el proceso. Supongamos que el primer nmero que aparece
es el 3, en ese caso el paciente 3 que entre en el hospital ser el primer sujeto de la
muestra, y se seguir la siguiente secuencia hasta satisfacer el tamao muestral
necesario.
19
Tema 2. Introduccin de datos y
manejo bsico del SPSS
20
tecleando 1 y 2 luego siempre que se realicen anlisis aparecern los
nombres, no los nmeros.
Perdidos: Caso de que se quiera poner un valor o rango de valores para
los valores que se desconocen. Por ejemplo, un alumno contestando a
una escala de autoestima se deja una pregunta. Las opciones que tenemos
es dejar un hueco en la base de datos, lo que es una buena opcin, o dar
un valor que signifique perdido o no contestado. Por ejemplo, se puede
poner el valor 999, o cualquier otro. La nica lgica es poner un valor
que no sea posible para esa variable. Si la anterior pregunta de
autoestima es una variable que va de 1 a 5, no tienen lgica decir que 5
es perdido, pues todos los sujetos que hayan contestado 5 sern de aqu
en adelante perdidos.
Columnas: es irrelevante para nuestros intereses.
Alineacin: es la posicin dentro de la columna. Bien se colocarn los
nmeros o etiquetas de valor a la izquierda, a la derecha o centrados.
Medida: Sirve para declarar la escala de medida que presenta la
variable. Como opciones tienen escala (lo que engloba las escalas de
intervalo y razn de Stevens), ordinal y nominal.
Finalmente, aqu como recomendacin es importante considerar que puede, a la
larga, resultar recomendable nombrar todas las variables como cuantitativas, an cuando
su escala de medida simplemente alcance las escalas nominal u ordinal. Aunque ello
implica que el investigador ha de ser cuidadoso en la eleccin de tcnica estadstica, le
deja libre para un mayor nmero de anlisis, cuando lo considere necesario. Existen
otras razones para esta eleccin, como por ejemplo que aunque se distinga entre
nominales y ordinales, el programa, en segn qu opciones (por ejemplo en grficas) no
las distingue, y te impide realizar algunas grficas de inters. Por tanto la
recomendacin es catalogar todas las variables como de escala, aunque manteniendo
nuestro conocimiento sobre su verdadera escala de medida.
21
distinguir entre tipos de perdidos, por ejemplo perdidos que vienen de una persona que
apenas contesta nada de la encuesta, y perdidos ocasionales, que pueden ser despistes.
22
aceptar se estar en el archivo 1, pero con todas las variables, desde la v1 a la v8.
Aunque lo recomendable es tener el mismo nmero de sujetos en ambos
archivos, puede ser que tengamos solamente 9 de los 10 en el segundo archivo.
En ese caso el sujeto que falta debe ser el ltimo y el resto estar ordenado de la
misma forma en los dos archivos, tal y como se ha dicho antes. Al fundir los
archivos el sujeto 10, al que le faltan las variables v5 a v8 del segundo archivo,
se aadir pero con valores faltantes de sistema en esas variables.
La autoestima es la percepcin, positiva o negativa, que tiene un sujeto de s mismo. Se puede medir en
global (si se tiene autoestima positiva o negativa en general), pero tambin se puede medir en facetas:
autoestima de apariencia fsica (percepcin positiva o negativa que se tiene sobre el propio cuerpo y
aspecto fsico); la autoestima social (percepcin positiva o negativa que se tiene sobre la capacidad de
relacionarse socialmente con otros), etc.
23
en seleccionar casos. Hacer clic en si se satisface la condicin, y esto abre una
ventana donde se pondr sexo=1. La secuencia en forma fotogrfica puede verse en la
figura 7 a continuacin. Esto generar una seleccin en los datos, de forma que
solamente los hombres (sexo=1) estarn activos, y sern los nicos que se analicen,
hasta que se elimine la seleccin. Hay que fijarse en que est seleccionada la opcin
filtrar. Si se hubiera elegido la opcin eliminar todas las mujeres desapareceran para
siempre de la base de datos.
Figura 7.
Procedimiento de seleccin de casos si se cumple una condicin.
Evidentemente en la misma figura 7 se puede ver que las opciones que da son
mltiples. Por ejemplo se pueden seleccionar solamente los que tengan menos de 10 en
autoestima de la escala de Rosenberg, para lo que simplemente hay que poner en la
24
ltima ventana la orden que la variable autoestima de Rosenberg sea <10.
Evidentemente se pueden hacer selecciones mltiples, utilizando, principalmente los y
(&) y los o (or). Por ejemplo, si queremos seleccionar los varones que tengan en la
pregunta 10 de Rosenberg 3 o ms, pues la orden ser sexo = 1 & ros10 >= 3 como
puede verse en la figura 8. O si fuera seleccionar a cualquiera que sea mujer o bien
tenga en la pregunta 10, 3 o ms, se har mediante un o (or). Con esta orden sexo = 2
or ros10 >= 3.
Figura 8.
Procedimiento de seleccin de casos si se cumple una condicin.
25
casos. En la ventana que se abre se hace clic (se selecciona) muestra aleatoria de casos,
y se abre el botn muestra, justo debajo. All se dir que se quiere exactamente 100
casos de los primeros 317 (el total). Esto seleccionar solamente a 100 sujetos. Como
siempre los sujetos no seleccionados se pueden filtrar (no estn disponibles solamente
mientras dure la seleccin) o eliminar (desaparecern de la base). Todo este proceso
puede verse en imagen en la figura 9.
Figura 9.
Procedimiento de seleccin de casos: muestra aleatoria de casos.
26
Un ltimo apunte sobre seleccionar. Puede verse en las figura 7 a 9 que hay una
opcin para volver la seleccin hacia atrs, esto es para deseleccionar. Solamente hay
que hacer clic en seleccionar todos los casos. Evidentemente esto solamente funciona si
no se han eliminado previamente los casos de la base de datos.
27
entre las funciones), simplemente se ha sustituido por el signo de suma colocado entre
los sumandos (las variables a sumar, ros1, ros2 y ros3).
28
Figura 10.
Transformacin de variables: agregacin por suma.
INVERSIN DE ESCALA
Cuando se suman o promedian variables es importante concentrarse muy bien en qu se
suma. Un error comn es sumar items que van en distintas direcciones, por ejemplo un
tem positivo y uno negativo (invertido) de autoestima. El resultado es un desastre. Por
lo tanto hay que darle la vuelta a los items invertidos previo a la suma o el promedio.
Esto es posible hacerlo tambin en el men transformar. Vamos a ver dos de los
ejemplos ms comunes: un tem en formato tipo Likert con valor mnimo cero; el
mismo formato tipo Likert, pero empezando en uno.
Valor mnimo es 0: En ese caso para realizar una inversin de escala hay que
realizar el siguiente clculo en TRANSFORMAR y calcular: La variable nueva (la
invertida) es igual al valor mximo de la variable menos la propia variable.
Valor mnimo es 1: En ese caso para realizar una inversin de escala hay que
realizar el siguiente clculo en TRANSFORMAR y calcular: La variable nueva (la
invertida) es igual al valor mximo ms uno de la variable menos la propia variable.
No obstante, otro procedimiento ms laborioso, pero ms simple de entender, para
realizar esto mismo es la recodificacin de variables, que veremos posteriormente.
Los items o preguntas tipo Likert son las ms comunes en ciencias sociales y consisten en diversos
anclajes ordenados de respuesta, como por ejempllo: Totalmente en desacuerdo Desacuerdo -
Deacuerdo Totalmente deacuerdo.
29
TRANSFORMACIONES DE POTENCIA
Al margen de los dos tipos de transformaciones vistos anteriormente, por agregacin e
inversin de escala, existen un cierto grupo de transformaciones habituales en anlisis
de datos. Una muy habitual es transformar en rangos, transformacin usada en muchas
pruebas de estadstica no paramtrica, y que veremos entonces. Siempre es posible
realizar transformaciones basadas en la teora, como al agregar las notas de lengua y de
matemticas dar el doble de valor a una de ellas, por motivos tericos, pero son tan
numerosas, y cambiantes, que se resuelven segn el caso.
Finalmente una categora de transformaciones bastante estandarizada, y empleada
a menudo, es la transformacin de potencia, presentada claramente, entre otros por
Tukey (1977), y cuyo procedimiento, simple e intuitivo se conoce como la escalera de
potencias de Tukey. El objetivo de estas transformaciones consiste bsicamente en
corregir asimetras en las variables, aunque normalmente tambin pueden mejorar
problemas de heterogeneidad de varianza (varianzas muy desproporcionadas entre
grupos), etc. La idea es sencilla: se pueden transformar las variables elevando a una
potencia, positiva o negativa, cuanto mayor sea la potencia a la que se elevan las
puntuaciones originales, mayor el efecto sobre la escala original. Las potencias
positivas corrigen la asimetra negativa, las potencias negativas corrigen la asimetra
positiva. En el cuadro:
Para ver qu transformacin aplicar, y tambin para evaluar el efecto que sobre la
variable ha tenido la transformacin es adecuado estudiar descriptivamente la variable
en todo momento: calcular estadsticos descriptivos, realizar histogramas, y muy
especialmente en este caso realizar Q-Q plots (grfico de cuantil-cuantil). Todo esto se
ver posteriormente.
Ejemplo prctico: la variable autoestima que es asimtrica negativa puede
funcionar mejor realizando una transformacin de potencia positiva (cuadrado, cubo..),
para corregir esta asimetra. Para ello lo nico que hay que hacer es entrar en
TRANSFORMAR y de ah en calcular. Como realizar el cuadrado simplemente es
multiplicar los valores por ellos mismos pondremos el nombre de la nueva variable que
queremos generar, en nuestro caso AUcuadrado, en variable de destino y al otro lado del
igual en expresin numrica autoesti*autoesti. El asterisco es el signo de producto en
SPSS y puede verse en la figura 10b entre los botones de la calculadora que SPSS
proporciona.
30
Figura 10b. Transformacin de variables: cuadrado de una variable.
31
operar con el archivo total hay que entrar otra vez en la ventana de la figura 11 y dar
clic a analizar todos los casos.
Figura 11. Segmentado de archivos.
32
Variable original: Variable recodificada:
Autoestima AUrecodificada
10-20 1= autoestima baja
12-29 2= autoestima media
30-40 3= autoestima alta
Para poder realizar esta rectificacin hay que ir a TRANSFORMAR, y luego a
recodificar en las mismas variables. Se abre la ventana primera que aparece en la figura
12, que perite decir cul es la variable original, en nuestro caso autoesti. Al ponerla en
la ventana central permite poner nombre a la variable de resultado (nuestra nueva
variable, AUrecodificada), as como aadir una etiqueta, lo que nosotros no hemos
hecho. Tras esto se hace clic en cambiar y pasa a la ventana central. En esta situacin se
hace clic a valores antiguos y nuevos, y aparece la ventana de debajo de la figura 12.
All ya solamente se trata de en rango poner que de 10 a 20 es un 1, y dar al botn
cambiar, que 21 a 29 es un 2 en valor nuevo y dar a cambiar, y finalmente decir que el
rango 30 a 40 es el valor nuevo 3, y dar a cambiar. Toda esta secuencia puede verse en
la figura 12 a continuacin.
Figura 12.
Recodificacin en distinta variable.
Puede verse tambin en esta figura 12 que hay otras opciones, no solo el rango para
cambiar valores, por ejemplo la opcin valor, que permite cambios de valor individual
33
en valor individual, o un rango hasta el mayor valor. O dar un valor a todos los dems
valores que no se hayan recodificado ya en las ordenes anteriores. En fin, todas las
opciones resultan autoexplicativas.
34
Figura 13.
Recodificacin en misma variable.
35
Tema 3. Tcnicas estadsticas
descriptivas bsicas:
representaciones grficas y
estadsticos descriptivos
36
absoluta) que son una frecuencia relativa de 100 de 300 (100/300= 0,333) en frecuencia
relativa o 3 de cada 10 o en porcentajes, que todos entendemos ms claramente 30%.
Evidentemente cuando las muestras son de tamaos desiguales es de mucho ms inters
la frecuencia relativa porque es mucho ms fcilmente entendible y comparable.
Evidentemente cualquier variable, sea cualitativa o cuantitativa permite el clculo de las
frecuencias relativas y de las absolutas. Por ejemplo, si hubisemos recogido el nmero
de hijos de 2000 parejas de la Comunitat Valenciana casadas 10 o ms aos, podramos
contar y decir que 400 de ellas no tienen hijos, que 615 tienen 1 hijo, y as
sucesivamente. Evidentemente podramos pasarlo a proporciones (frecuencias relativas)
y si a partir de estas ltimas multiplicramos por 100 tendramos las proporciones
pasadas a porcentajes.
Adems de las frecuencias, que son la forma estadstica ms simple e inmediata,
existen una cierta cantidad de estadsticos que responden a un conjunto de
caractersticas estadsticas de inters. Los tipos de estadsticos que intentan contestar a
estas preguntas son estadsticos que tratan de atrapar los siguientes conceptos
estadsticos:
1. Posicin
2. Tendencia central
3. Variabilidad
4. Asimetra
5. Curtosis
No podemos repasar estos conceptos en profundidad, para lo que existe
abundancia de manuales de estadstica. De hecho cualquiera de ellos, por introductorio
que sea, los recoge en mayor o menor profundidad. Lo que si podemos es enumerar los
principales, las lgicas que tienen y despus pasar a calcularlos en SPSS e interpretarlos
de manera aplicada con datos concretos.
MEDIDAS DE POSICIN
Aquellas que nos revelan el lugar que ocupa una puntuacin con respecto a un grupo
tomado como marco de referencia. Son por tanto estadsticos que nos indican posicin
relativa. Relativa a un grupo. En genrico se los llama CUANTILES
Los cuantiles ms relevantes son los CENTILES o PERCENTILES (Ck). Son los
99 valores de la variable que dividen la distribucin en 100 secciones, cada una
conteniendo la centsima parte de las observaciones. Calculables en variables como
mnimo semi-cuantitativas.
Por ejemplo:
C20= puntuacin que deja por debajo suyo al 20%
C98= puntuacin que deja por debajo suyo al 98%
37
frecuencia en relativo, mediante las frecuencias relativas. Supongamos que para la nota
cinco obtenemos estos resultados:
Frecuencia absoluta= 10
Frecuencia relativa= 0,055 o en porcentajes 5,5%.
Con esos datos lo nico que resulta evidente es que pocos alumnos han obtenido la
nota cinco. Pero sin saber ms informacin, sabemos poco de lo que quiere decir 5 en
esa muestra. Sin embargo, si calculamos qu centil es el valor 5 y resulta ser el centil
20 (C20= 5), entonces sabemos que el 20% tiene notas inferiores a 5, y por tanto que el
porcentaje de suspensos es del 20% en esos grupos de ese ao. Por relativo en los
centiles se entiende que esa nota de cinco puede ser, y de hecho a menudo lo es, otro
centil en otra muestra. Si la nota cinco en los grupos del ao anterior era el centil 60
(C60= 5), era que los grupos del ao anterior eran mucho peores en la asignatura, ya que
por debajo del cinco, del aprobado, estaban el 60%.
38
que se basan la mayor parte de tcnicas estadsticas. Solamente es
utilizable en medidas que sean, al menos semi-cuantitativas1.
Mediana. Es la puntuacin que deja por debajo de s el 50% de las
observaciones. La puntuacin que est en el medio de la ordenacin
de las puntuaciones. Divide a la distribucin en 50% y 50%.
Solamente tiene sentido si las variables pueden, al menos, ordenarse
de menor a mayor. Por tanto, exige medida, al menos, semi-
cuantitativa.
Moda. La puntuacin ms frecuente. Puede ser til en el caso de
variables cualitativas (nominales).
En general la media es la medida de tendencia central de preferencia. Solamente
en pocos casos no es recomendable. En concreto uno es del mximo inters, cuando se
presentan datos atpicos. Estos datos afectan fuertemente a la media ya que se basa en
todas las observaciones. Supongamos como ejemplo sencillo que tenemos una clase de
10 alumnos de estadstica bsica. Las notas que sacan son las siguientes una vez
ordenadas:
Notas: 0, 5, 6, 7, 7, 7, 8, 8, 8, 8
Como puede verse fcilmente en este caso, al ser pocas las puntuaciones, el grupo
se caracteriza por notas notables, ya que hay 4 valores 8 y tres valores 7 (7 de 10
sujetos, el 70% son notables). Luego hay dos valores cercanos al notable, se van
solamente uno y dos puntos respectivamente, mientras que solamente un alumno
presenta una nota claramente mala, un cero. La tendencia central podramos concluir al
observar estos datos que es de alumnos notables. Sin embargo al calcular la media
obtenemos 6.4, ligeramente por debajo del notable, no representando adecuadamente al
total de los datos. Esto en estadstica se conoce como falta de resistencia de la media. La
media no es un estadstico resistente a los datos extremos. En estos casos particulares
de datos atpicos y/o extremos, suele ser aconsejable obtener una medida de tendencia
central que sea resistente, como la mediana, o incluso mejor, robusta, como la media
recortada, que se obtiene, como veremos fcilmente ms adelante en SPSS. Definir bien
el concepto de robustez queda fuera del propsito del texto. Baste decir que un
estadstico es robusto si es resistente y adems funciona bien para un rango amplio de
distribuciones (de masas de datos).
Bien, en este caso la mediana de los datos es 7 (puede verse que ocupa el valor
central, dejando 50% por debajo y 50% por encima. Y la media recortada consiste, en
breve, en eliminar un cierto porcentaje de las observaciones de los extremos y recalcular
la media en los datos que quedan. Por ejemplo, en nuestro caso podramos quitar al 10%
de los sujetos superiores y al 10% de los inferiores. El 10% de 10 sujetos es 1 sujeto.
Grficamente puede verse en las puntuaciones, sera quitar el cero (mnimo) y el ltimo
8 (mximo):
Notas: 0 /, 5, 6, 7, 7, 7, 8, 8, 8, / 8
La media recortada al 10% sera 7, el resultado de calcular la media de los 8
alumnos centrales. En este caso tanto la mediana como la media recortada al 10% nos
ofrecen una mejor representacin del grupo, de su tendencia central.
1
Si se es estricto solo en las cuantitativas
39
MEDIDAS DE VARIABILIDAD
Resulta evidente que para representar de forma adecuada a un grupo no solamente basta
con la tendencia central. Los sujetos dentro de un grupo pueden ser muy diferentes entre
s, o muy parecidos. Esto es, un grupo puede tener mucha o poca variabilidad dentro de
sus sujetos. Consideremos los alumnos de tres grupos, a los que se mide en nota de una
asignatura tras un examen de 0 a 10. Los tres grupos tienen 10 sujetos. Sus notas a
continuacin:
Notas: 0, 0, 0, 0, 0, 10, 10, 10, 10, 10
Notas: 0, 0, 0, 5, 5, 5, 5, 10, 10, 10
Notas: 5, 5, 5, 5, 5, 5, 5, 5, 5, 5
Pues bien, los tres grupos presentan la misma media (y mediana y media recortada
al 5%). Sin embargo es evidente que los tres grupos son muy diferentes entre s. En lo
que difieren es en la variabilidad. Mayor en el primero, luego en el segundo y ninguna
variabilidad en el tercero. De hecho la variabilidad del tercer grupo es nula,
convirtiendo a la variable nota en ese grupo en una constante. Ni tan siquiera es una
variable. As pues la variabilidad:
Mide el grado de similitud (homogeneidad) entre un conjunto de
puntuaciones
Es independiente de la tendencia central
El estadstico de variabilidad ms utilizado es la varianza y su raz
cuadrada, la desviacin. Esta ultima transformacin tiene mucho uso por
ser interpretable en las mismas unidades, en la misma escala de la variable.
Oscilan de cero a infinito. Valores mayores indican mayores
variabilidades.
El clculo en SPSS es sencillo.
40
Figura 13.
Representacin de la asimetra positiva, negativa y la simetra
41
8. Libros en casa
9. Fluidez lectora
10. Nivel de informtica
11. Horas de estudio
12. Rendimiento matemticas
13. Rendimiento lenguaje
14. Sntomas conductuales de ansiedad
15. Sntomas somticos de ansiedad
16. Sntomas cognitivos de ansiedad
17. Motivacin al estudio
18. Razonamiento numrico
19. Razonamiento verbal
20. Razonamiento espacial
Algunas de estas variables son cualitativas, otras cuasi-cuantitativas y otras
cuantitativas. La mayor parte cuantitativas. En general ya hemos visto que las
representaciones grficas, en SPSS, se realizan en el men de grficos. Al desplegarlo
se ve la imagen que se muestra en la figura 14.
Figura 14.
Men de grficos del SPSS 12
42
Como puede verse en la figura 14, las opciones grficas son mltiples. Nosotros
vamos a ver, mediante ejemplos, algunas de la ms utilizadas, y empezando por las ms
sencillas para acabar en ms complejas. Conocer cmo son las variables nos ayuda a
elegir el tipo de grfico ms adecuado. No obstante, antes de empezar a realizar
ejemplos, y siendo que es la primera vez que realizaremos verdaderos anlisis, es
necesario que el lector tenga claro que al abrir las diversas ventanas de anlisis o de
grficos las opciones de SPSS son mltiples. Nosotros no vamos a agotar las
posibilidades de anlisis, por ello solamente hablaremos de lo que es necesario realizar
para obtener un anlisis adecuado de nuestros datos, y no del porqu ni para qu del
resto de opciones.
El primer ejemplo que vamos a realizar es de los ms sencillos. Representar
grficamente una variable cualitativa o nominal. En este tipo de variables tenemos una
serie de categoras que nosotros hemos ordenado de cierta manera, y a las que les hemos
colocado nmeros, pero son meras etiquetas, y el orden podra ser otro. Lo nico que
podemos decir de ellas es cuntos sujetos de nuestra muestra estn en cada categora, y
se puede decir en frecuencias absolutas, relativas o porcentajes. Los tipos de grficos
para este caso simple suelen ser el diagrama de barras (barras en las opciones de la
figura 14) y el de sectores (sectores en figura 14). Nosotros vamos a realizarlo para la
variable tipo de familia.
Para realizar un grfico de barras, se va al men GRFICOS, de ah a barras y
aparecer una ventana. Si slo se quiere hacer un grfico de una sola variable la opcin
por defecto del programa (lo que ya est seleccionado en esa ventana es correcta, ya que
el grfico es simple y los resmenes para grupos de casos, con lo que solamente hay que
dar a definir y aparecer la ventana que se ve en la figura 15, a continuacin.
Figura 15.
Generando un diagrama de barras simple en SPSS
Y al dar a aceptar el resultado es que SPSS abre una hoja nueva, en blanco, que es
donde coloca el resultado del anlisis. Aqu solamente es relevante comentar que se
permite poner frecuencias o porcentajes, que los porcentajes pueden ser acumulados o
43
no. La acumulacin de valores se utiliza relativamente poco, por lo que las elecciones
son en realidad, dar las frecuencias o los porcentajes. Generalmente usaremos
porcentajes. Esta hoja, ahora, tendr el grfico que le hemos pedido, y conforme
vayamos haciendo anlisis se irn poniendo en esta hoja, uno detrs de otro. Por
supuesto esta hoja (resultados) se puede guardar, etc. como en cualquier otra aplicacin
informtica. En cualquier caso, el resultado de la grfica es ste que se ve en la figura
16.
Figura 16.
Porcentajes de los distintos tipos de familia en la muestra
Como puede verse, al haber pedido porcentajes son stos los que aparecen en la
figura. Por lo dems los grficos son autoexplicativos. Si se desea modificar el grfico
para ofrecer otros colores, otros formatos de lneas, o cambiar algunas etiquetas, o poner
ttulo, etc, entonces se tiene que pinchar dos veces en el grfico (estando en SPSS) y se
abrir un editor de grficos. Dejamos al lector que juegue abriendo el editor de
grficos, pero no es el objetivo estadstico. En la figura 17 puede verse la ventana que se
abre (editor de grficos) al dar doble clic a la grfica en SPSS.
44
Figura 17. Ventana del editor de grficos de SPSS
45
Figura 18.
Grfico de sectores para la variable tipo de familia
Figura 19.
Grfico de sectores para la variable tipo de familia con los porcentajes de respuesta
Para una variable semi-cuantitativa, como puede ser la medicin que se tiene en la base
ejemplo 2.sav del nmero de hermanos, tambin suelen utilizarse los diagramas de
barras, como puede verse en la figura 20.
46
Figura 20.
Diagrama de barras para la variable nmero de hermanos
Sin embargo, las variables cuantitativas, las continuas o simplemente las que
tienen un rango amplio de valores posibles, suelen tratarse grficamente mediante
histogramas. Estos histogramas se realizan tambin en grficos, pero se tiene que ir a
histogramas. All se abre la siguiente ventana, donde si simplemente se quiere el
histograma de una variable, como por ejemplo el rendimiento en matemticas, tan solo
se debe situar esta variable en la ventana de variable, y aceptar. Esta ventana se presenta
en la figura 21.
Figura 21.
Ventana para pedir un histograma en SPSS
47
El resultado de uno de estos histogramas es el que se presenta a continuacin.
Puede verse que los valores de rendimiento oscilan entre un mnimo de 1 y un mximo
de cinco, y que el SPSS ofrece, adems, la media y la desviacin tpica.
Figura 22.
Histograma del rendimiento en matemticas.
Hasta aqu los tres tipos de grficos bsicos. Aunque los grficos de lneas son
tambin muy comunes, en realidad son muy similares a los ya expuestos, y no los
tocaremos. Estos tres grficos permiten, no obstante una gran variedad una vez se coge
soltura en su edicin. Sobre todo muy til es aprender a realizar estos tres grficos, pero
divididos en funcin otra variable con el propsito de comparar grupos. Veamos unos
ejemplos. Supongamos que se desea ver el rendimiento en matemticas, pero en vez de
en el global de la muestra, en funcin de en qu tipo de familia viva el nio. Para ello,
simplemente, hay que poner (ver figura 21 nuevamente) la variable tipo de familia en la
ventana filas. El resultado sera el que se ve en la figura 23. En ella puede compararse
rpidamente el rendimiento de los distintos grupos de alumnos. De vistazo se ve que el
rendimiento es superior en los que viven con los dos padres solamente, y probablemente
el ms bajo el de los que viven con los abuelos.
48
Figura 23.
Histograma del rendimiento en matemticas en funcin del tipo de familia.
Supongamos ahora que queremos saber si la variable grupo (normal y con clases
extras en el colegio) presenta una distribucin distinta de hombres y mujeres. Para
contestar a esto es realizar lo mismo que antes, pero al ser dos variables cualitativas se
hace con diagrama de barras. As se trata de graficar una variable en funcin de otra,
pero mediante diagrama de barras, y se realiza en GRFICOS, eligiendo barras, y
aparecer la ventana de la izquierda de la figura 24. All se escoge agrupado, y
resmenes para distintas variables. Entonces aparecer la ventana de la derecha en la
figura 24, y solo se trata de colocar grupo en el eje de categoras y sexo en definir
grupos por.
49
Figura 24.
Ventanas para pedir un diagrama de barras en funcin de otra variable
50
Al margen de estas grficas, digamos sencillas, ya que simplemente tratan de
ofrecer las frecuencias y/o porcentajes de una variable o a lo sumo de una variable en
funcin de una serie de grupos, SPSS hace una serie de grficas con propsitos menos
generales, ms especficos. Algunas de las ms importantes para el trabajo aplicado las
vamos a tratar, brevemente a continuacin.
Para el cumplimiento de los supuestos de algunas tcnicas estadsticas es
fundamental evaluar el grado de alejamiento de la normalidad, la falta de simetra y la
presencia de datos atpicos. Un primer paso en este sentido es estudiar las variables de
forma descriptiva, y concretamente mediante graficas y mediante el clculo de
estadsticos.
Una primera aproximacin es pedir el histograma de una variable, tal y como
hemos hecho anteriormente, pero con una representacin de la distribucin normal
superpuesta, de forma que permite ver alejamientos de sta. Para pedir un histograma se
debe ir al men GRFICOS, dentro de la opcin HISTOGRAMA, y all situar la variable
sobre la que se quiere el histograma y la opcin de ver curva normal (consultar figura
21).
El resultado de un histograma para un par de variables es como el de las grficas a
continuacin (figura 26). La primera de las grficas muestra la asimetra negativa de una
variable, mientras que la segunda de las grficas presenta una extrema asimetra
positiva. Estos ejemplos no son de las bases de datos que hemos manejado. El lector
puede realizar sus propios ejemplos con ellas.
Figura 26.
Histogramas con curva normal superpuesta.
51
Figura 27.
Grficos de cuantiles.
Por ltimo repasaremos un tipo de grficos que resulta til para revisar la simetra,
pero especialmente para sealar la presencia de valores atpicos (outliers). Los
diagramas de caja y bigotes, desarrollados por Tukey desde el anlisis exploratorio de
datos, se pueden pedir en SPSS en el men GRFICOS, y dentro de la opcin
DIAGRAMAS DE CAJA. Existen dos opciones, una vez pedidos, el defecto es el adecuado,
pidiendo diagramas simples. De todas formas, an pidiendo simple existen dos opciones
a elegir. Por un lado se puede optar por resmenes para distintas variables, lo que nos da
para cada variable que seleccionemos un diagrama de cajas, o la opcin de resmenes
para grupos de casos, que sirve para que se ofrezca un diagrama de caja y bigotes por
subgrupos definidos en base a una tercera variable. Veamos un ejemplo de cada opcin.
Supongamos que queremos un diagrama de caja y bigotes para una variable,
iramos a diagrama de caja y seleccionaramos la opcin resmenes para distintas
variables, pincharamos en definir y seleccionaramos la variable en cuestin. El
resultado vendra en un formato como en el de la grfica a continuacin (figura 28).
La interpretacin del diagrama de caja y bigotes es simple. La raya negra central
muestra la mediana de la variable. Mientras que arriba y debajo de ella hay un
rectngulo en rojo (caja) que va hasta los valores del cuartil 1 y cuartil 3. Si la distancia
entre la mediana y los cuartiles fuera idntica sera muestra de simetra en la
distribucin. Por su parte las lneas que se extienden hasta un lmite superior e inferior
que seala los lmites de las observaciones tpicas (no outliers). A partir de stos
lmites aparecen los valores atpicos, si los hay. Estos valores se muestran con su valor
de caso.
Por su parte, si se opta por los resmenes para grupos de casos, entonces el
diagrama es exactamente igual pero hay varias, una para cada subgrupo. A continuacin
puede verse un ejemplo donde la variable agrupadora es el sexo, hombre, mujer y
omitido, y cada uno de estos grupos tiene su diagrama correspondiente (ver figura 29).
52
Figura 28.
Diagrama de caja y bigotes.
Figura 29.
Diagrama de caja y bigotes por grupos.
53
3.3. Estadsticos descriptivos
Los estadsticos descriptivos son bien conocidos, y fciles de obtener. Normalmente se
reduce a obtener una distribucin de frecuencias, especialmente til en el caso de
variables cualitativas, y el estudio de la tendencia central, variabilidad, asimetra y
curtosis. Todos estos estadsticos descriptivos se obtienen del men ANALIZAR, y
dentro de la opcin ESTADSTICOS DESCRIPTIVOS. La siguiente figura muestra estos
mens:
Figura 30.
Opciones de obtencin de estadsticos descriptivos en SPSS.
54
ttulo. Aqu pueden pedirse casi todos los estadsticos que hemos visto hasta ahora, y los
calcular de todas las variables seleccionadas, en nuestro caso cuatro. Puede verse cmo
se ha pedido:
media, mediana y moda
los percentiles 25 y 75
la asimetra y curtosis
desviacin tpica
mnimo y mximo.
Resulta evidente que algunas de las variables, por ejemplo sexo por ser cualitativa,
no son susceptibles de hacer algunos de estos clculos, como la media y mediana o la
desviacin tpica, la asimetra y curtosis y los percentiles. Pero es labor del investigador
elegir los estadsticos que son tiles en funcin de la naturaleza de las variables, como
hemos visto, y descartar aqullos que, por el contrario, no ofrecen informacin vlida.
Figura 31.
Ventanas de frecuencias en SPSS.
Al pedir estos anlisis se obtiene, lo primero, una tabla con los estadsticos
descriptivos que se han seleccionado anteriormente para todas las variables, tal y como
se muestra en la tabla a continuacin (tabla 1).
55
Tabla 1.
Estadsticos descriptivos para cuatro variables de la base ejemplo 2.sav.
56
descriptivos es una opcin. Simplemente se abre la ventana donde se seleccionan las
variables a analizar y dando a opciones se escogen los estadsticos que se deseen. Como
ejemplo se han calculado los descriptivos de fluidez lectora (ver tabla 3), para que se
vea que los clculos son los mismos que los presentados para esta variable en la tabla 1.
Tabla 3.
Descriptivos de fluidez lectora.
57
Figura 31.
Ventanas del submen explorar de SPSS.
Como se ve, la opcin explorar ofrece una forma rpida de pedir los principales
estadsticos descriptivos y las representaciones grficas de forma unitaria, sin necesidad
de acudir a mens diferentes. Supongamos, por ejemplo, que se desea, como se ve en la
figura 31, obtener los estadsticos descriptivos para la variable razonamiento numrico
en funcin del sexo, esto es, para hombres y mujeres. Entonces se coloca en
dependientes el razonamiento numrico, y en factores sexo. Al hacer clic en estadsticos
se abre la ventana de abajo a la izquierda, donde descriptivos es el defecto, y da los
resultados habituales, y si se quiere adems los percentiles hay que seleccionarlo. Si se
hace clic en el botn de grficos, se puede pedir un diagrama de tallo y hojas (que no
veremos), un histograma (similar a los ya utilizados, y que tampoco veremos), el
diagrama de caja y bigotes y los grficos con pruebas de normalidad que tambin
veremos.
Entre los resultados que se ofrecen, rescataremos los ms interesantes. La primera
tabla (tabla 4) ofrece los principales estadsticos descriptivos. Aqu no entraremos, pues
son conocidos, simplemente sealar que divide en los dos grupos, en hombres y en
mujeres. Otra cosa a sealar es que en explorar es el nico sitio donde se puede calcular
medidas robustas. En concreto nosotros hemos pedido la media recortada, que por
defecto la da recortada al 5%, lo que puede ser muy razonable para la mayor parte de
situaciones.
58
Tabla 4.
Descriptivos de razonamiento numrico en funcin del sexo.
La siguiente tabla, la tabla 5 ofrece los percentiles, ya que fue una de las opciones
que seleccionamos con anterioridad, pero nuevamente hay que destacar que los da para
hombres y para mujeres por separado. Tambin sealar que en la misma tabla 5, pero
debajo se ofrecen las pruebas de normalidad que se pidieron, si bien aunque las
mostramos aqu, dado el carcter introductorio del texto no las vamos a interpretar, sino
que dejaremos esto para ms adelante, cuando se haya avanzado en temas posteriores.
59
Tabla 5.
Percentiles de razonamiento numrico en funcin del sexo.
60
Figura 32.
Histogramas de razonamiento numrico para hombres y mujeres.
61
Figura 33.
Grficos Q-Q de razonamiento numrico para hombres y mujeres.
62
Tema 4.
Relaciones bivariadas
Entre las tcnicas estadsticas bsicas ocupan un lugar predominante las que permiten
estudiar las relaciones entre dos variables. Existen diversos tipos de tcnicas, con
fundamentos, exigencias e interpretaciones diferentes, en funcin de las caractersticas
de las variables cuya relacin se quiere estudiar. Para simplificar, y aunque
evidentemente no se agotan las tcnicas estadsticas con las que veremos aqu, si
veremos las ms utilizadas en ciencias sociales, humanidades y salud. Podemos verlo en
forma de toma de decisiones de la siguiente manera, en funcin de cmo sean las
variables, de su naturaleza.
Cuando las dos variable a relacionar son categricas la tcnica estadstica pasa
por tablas de chi-cuadrado y los estadsticos relacionados.
63
categricas de inters, pero en funcin de los subgrupos de la variable categrica que
defina las capas.
La figura 34 muestra un ejemplo de seleccin de variables en SPSS para realizar la
prueba de chi-cuadrado. En este caso es para ver la relacin entre sexo y grupo del
ejemplo 2.sav. Luego volveremos sobre este mismo ejemplo.
Figura 34.
Ventanas para pedir una prueba de chi-cuadrado en SPSS.
64
de 2x2, y el clculo de la V de Cramer para el caso de tablas de I x J. Una tabla 2x2 es
aqulla que viene de cruzar (relacionar) dos variables categricas que tienen, las dos,
dos categoras. Por ejemplo si se cruza el sexo (hombre/mujer) con aprobar una
asignatura (aprueba/suspende). Una tabla de IxJ es aqulla que viene de relacionar dos
variables categricas que no tienen alguna de ellas dos opciones, sino ms. Por ejemplo,
si una tienen 3 categoras y la otra 4 categoras, sera una tabla 3x4. En la opcin de
casillas resulta conveniente para la interpretacin posterior pedir los porcentajes, bien
por filas, bien por columnas.
A continuacin aparecen los resultados de un ejemplo de cruce de variables
categricas. En este caso es en la base de datos ejemplo 2.sav. Queremos saber si
existe alguna relacin entre el sexo y el grupo (ir a clases extras, frente a no ir o grupo
catalogado como normal). Esto es, queremos saber si existen mayores probabilidades de
ir a clases extra por el hecho de ser hombre o ser mujer. En la siguiente tabla (tabla 6)
aparecen las frecuencias y, adems, en este caso hemos pedido los porcentajes por filas.
Ello nos permite ver que el patrn de grupo vara de forma porcentual en funcin del
sexo (hombre o mujer) de que se trate. As, por ejemplo, podemos fijarnos en que de los
hombres el 31.4% dan clases extra. Por el contrario de las mujeres es el 55.3%, un
porcentaje superior, el que da clases extra.
Tabla 6.
Tabla de contingencia de sexo x grupo con porcentajes por filas.
65
una relacin entre ambas variables, que como hemos visto hace que sea ms probable
dar clases extra si se es mujer que si se es hombre.
Tabla 7.
Prueba de chi-cuadrado aplicada a la tabla de contingencia de la tabla 6.
66
PRUEBAS T
La prueba t permite comparar dos medias muestrales. Por lo tanto est indicada cuando
se quiere estudiar si una variable categrica con dos niveles guarda relacin con una
variable cuantitativa (o al menos cuasi-cuantitativa). Existen dos tipos de pruebas t
principales, aquellas para grupos independientes, para muestras independientes, y
aquellas para muestras, grupos, dependientes. El primero de los casos respondera al
genrico de dos grupos de sujetos diferentes, como la comparacin de las medias de
hombres y mujeres en un variable cualquiera. El segundo caso, muestra dependientes,
respondera al genrico de los mismos sujetos medidos en dos ocasiones o en dos
aspectos diferentes, parar saber si las medias son iguales o diferentes. Por ejemplo la
media antes y despus de una intervencin teraputica.
Todas las pruebas t anteriormente descritas, se realizan en el men ANALIZAR
dentro del submen COMPARAR MEDIAS. Dentro de este submen existe diversas
opciones de pruebas t, adems de las opciones de medias y ANOVA de un factor. Las
tres opciones de pruebas t son: la de comparacin con un valor poblacional (o prueba de
una muestra), y las de comparacin de dos muestras, siendo estas independientes o
dependientes, que suelen ser las de nuestro inters (ver figura 35).
Figura 35.
Opciones de pruebas t para comparar medias en SPSS.
67
Figura 35.
Pruebas t de muestras independientes, comparacin de dos grupos.
Esta prueba t alberga en realidad dos pruebas diferentes, una para el caso de
varianzas homogneas, otra para el caso de varianzas heterogneas. La prueba para el
caso de heterogeneidad de varianzas es la correccin de Welch-Satterwhite para el
problema de Behrens-Fisher.
Puede saberse si las varianzas son homogneas o no mediante la prueba de
Levene, tambin ofrecida por la salida del ordenador. No obstante el supuesto de
homogeneidad de varianza es relativamente poco importante si los grupos presentan
tamaos de muestra similares. Si stos difieren bastante (diversos autores -ver Stevens,
1999- hablan de razones de 1.5), entonces en ese caso conviene contrastar la igualdad de
varianzas y aplicar la prueba ms adecuada. (No obstante parece que la prueba de
varianzas iguales funciona bastante bien con tal de que las varianzas no superen la razn
3 a 1).
A continuacin aparece el ejemplo anterior de contraste de las medias de
razonamiento verbal de hombres y mujeres. El ordenador ofrece en primer lugar los
descriptivos (media y varianza) de cada grupo, y a continuacin las pruebas de varianza
y de medias, propiamente dichas.
Tabla 9.
Resultados de la prueba t de muestras independientes.
Como puede verse en la tabla 9 las varianzas son homogneas, ya que la prueba de
Levene no es estadsticamente significativa (p> 0.05), luego no hay diferencias entre las
68
varianzas de ambos grupos. Por tanto, conviene utilizar la prueba que asume varianzas
iguales. No obstante hay que darse cuenta de que ambas pruebas ofrecen la misma
conclusin (para el 5% y el 1%), desigualdad de medias. Puede verse que el valor de la t
para varianza iguales (en la fila de la tabla nombrada se han asumido varianzas
iguales) es de -0.147. Esto lleva aparejado un valor de significacin bilateral (sig.
bilateral en la tabla) o valor de p de 0.883, lo que es p>0.05, y es indicativo de que no
hay diferencias estadsticamente significativas entre las medias de razonamiento verbal
de hombres y mujeres. O lo que es lo mismo, no hay evidencia de relacin entre el sexo
y el razonamiento verbal en la poblacin de la que se extrajo la muestra.
Una cuestin importante que aparece en este mismo ejemplo de forma clara es la
de la significacin estadstica de los efectos. En este caso es evidente que las dos
pruebas ofrecen resultados estadsticamente significativos. Sin embargo resulta siempre
interesante un clculo del tamao del efecto que nos pudiera ofrecer no solo una medida
de diferencias, sino de cuanta de las diferencias, lo que finalmente puede devenir en
una evaluacin ms prctica. Una de las medidas ms empleadas del tamao del efecto,
fcil de calcular a partir de los resultados de SPSS, es la propuesta por Hedges:
y donde
69
razonamiento verbal y numrico. Al observar el valor de significacin podemos ver que
no es el caso, ya que la significacin (o valor de p) es 0.371, lo que implica que no
existen diferencias entre ambos promedios, ya que p< 0.05.
Tabla 10.
Resultados de la prueba t de muestras dependientes.
70
escoger las pruebas a posteriori (o post-hoc) adecuadas. La figura 37 ilustra algunas de
estas opciones. Sobre lo que indican las pruebas post-hoc incidiremos luego, tras ver los
primeros resultados de este ejemplo de ANOVA entre-sujetos.
Figura 37.
Anlisis de varianza entre-sujetos en SPSS.
71
Como ya sabemos que el resultado del ANOVA es estadsticamente significativo,
tenemos evidencia de que hay al menos un grupo que es diferente (en promedio) a los
dems. O sea que al menos un tipo de familia tiene una media distinta a las dems. Pero
saber que al menos uno es diferente es saber bien poco. Porque podran ser ms. Las
pruebas post-hoc sirven precisamente para detectar cuntos son diferentes a los dems y
cules son diferentes. Como recomendacin general para escoger entre la multitud de
pruebas a posteriori puede usarse la siguiente lgica: una buena prueba general que
sirve para la mayor parte de situaciones la de Tukey; si las varianzas no son
homogneas la de Games-Howell. Estos son los dos estndares adecuados. Si, no
obstante se cumplen los supuestos y se quiere una prueba ms potente se puede usar
cualquiera de las dos pruebas de Ryan-Einot-Gabriel y Welch (REGW-F o REGW-q);
mientras si se quiere una prueba conservadora, se puede optar por Scheff.
La tabla 12 precisamente muestra los resultados de estas dos pruebas post-hoc. En
nuestro caso, y como ya sabemos con anterioridad que las varianzas no son homogneas
(que las varianzas de los grupos son distintas), nos iremos directamente a los resultados
de la prueba de Games-Howell. La forma de entender la prueba es simple. Aquellas
comparaciones que tengan un asterisco es que son estadsticamente significativas, es
decir, que efectivamente ah se tiene una diferencia entre las dos medias. Por ejemplo en
la prueba de Games-Howell en el primer recuadro aparece la comparacin de los que
viven con el padre solo, contra todos los dems tipos de familia. Hay asteriscos frente a
vive con los padres y ms familia y frente a vive con los abuelos. Por tanto esas dos
diferencias de medias s son estadsticamente significativas. Como, adems la diferencia
entre las medias puede verse que en esos casos es positiva, quiere decir que los que
viven slo con el padre presentan una media de razonamiento numrico mayor que los
que viven con sus padres y ms familia o los que viven con sus abuelos, de ah la
diferencia positiva. Y as sucesivamente tenemos todas las comparaciones de los grupos
dos a dos.
72
Tabla 12.
Resultados del ANOVA entre-sujetos: pruebas post-hoc.
73
Figura 38.
Grfico de medias del anlisis de varianza.
Los mismos anlisis que hemos realizado en comparar medias puede realizarse,
para el caso de ANOVA de un factor entre-sujetos en el submen MODELO LINEAL
GENERAL en la opcin univariante. Lo nico que permite hacer en esta nueva opcin
frente a la que hemos utilizado es que ofrece estimaciones del tamao del efecto,
aspecto general del ANOVA sobre el que volveremos una vez se revise el ANOVA de
medidas repetidas.
2
Este ejemplo se ofrece con carcter ilustrativo, pero no est en las bases de datos ofrecidas
74
pedir en el caso de ANOVA intra o de medidas repetidas solamente hay un cambio con
respecto al ANOVA entre-sujetos: las pruebas a posteriori para este tipo de diseo se
piden en opciones pinchando en la opcin comparar efectos principales, y seleccionando
Bonferroni o Sidk.
Los resultados relevantes para nuestro problema seran los que aparecen en las
siguientes tablas. La primera de las tablas (tabla 13) presenta la prueba de esfericidad de
Mauchly. El supuesto de esfericidad es un nuevo supuesto que rige en el anlisis de
varianza de medidas repetidas y que, por tanto, hay que comprobar. En nuestro caso el
supuesto puede mantenerse, dado que la prueba no resulta estadsticamente
significativa. Tan importante como la significatividad de la prueba son las estimaciones
de epsilon que, si no puede mantenerse el supuesto de esfericidad, son necesarias para
las correcciones. En nuestro ejemplo, dado que el supuesto se mantiene no resultan
relevantes. En cualquier caso, si la estimacin de Huyhn y Feldt del valor de epsilon se
encuentra entre 0.7 y 1, entonces no hay que preocuparse an cuando el test de
esfericidad resulte significativo.
Tabla 13.
Resultados del ANOVA intra-sujetos o de medidas repetidas: prueba del supuesto de
esfericidad.
Tras la prueba del supuesto nos centramos ya en si las medias pueden considerarse
estadsticamente diferentes o no. Esto es, en el anlisis de varianza propiamente dicho.
La tabla a continuacin ofrece los resultados del ANOVA. En este caso, como se
cumple el supuesto de esfericidad, solamente resulta necesario analizar la
significatividad de la F generada bajo el supuesto de esfericidad, que ofrece un resultado
estadsticamente significativo (p< 0.05). Si no se hubiera cumplido el supuesto de
esfericidad, entonces la prueba recomendada por casi todos los autores sera la de
Huynh y Feldt.
75
Tabla 14.
Resultados del ANOVA intra-sujetos o de medidas repetidas: prueba F de comparacin
de las medias.
(b)
76
Hemos repasado los dos tipos simples de anlisis de varianza: entre-sujetos y de
medidas repetidas. El hecho de aadir ms variables independientes o factores no
produce cambios en la manera de proceder, pues se mantienen las normas y opciones
comentadas hasta ahora. Los diseos factoriales son simples extensiones de los diseos
simples.
*
Evidentemente se pueden estudiar asociaciones no lineales, ms complejas, pero normalmente la
hiptesis de linealidad en la relacin es ms parsimoniosa y suele ponerse a prueba primero. Sera la ms
bsica de las relaciones posibles.
77
Evidentemente hay fluctuacin con respecto a esa recta, pero el patrn es claro. La recta
tiene pendiente positiva, y por tanto la relacin es positiva, a ms talla ms peso.
Figura 39.
Diagrama de dispersin de las variables talla y peso.
78
Figura 40.
Diagrama de dispersin de las variables aumento porcentual de hipotecas y precio
promedio de la vivienda.
Ahora bien, nosotros hemos visto esta relacin o asociacin entre variables
grficamente, pero habitualmente necesitamos cuantificarla, darle valor, saber cuanto es
la relacin. Para medir esta asociacin entre dos variables cuantitativas sin asumir
ningn orden de prevalencia entre ellas (asociacin que llamamos simtrica) utilizamos
el coeficiente de correlacin de Pearson (rxy), de fcil interpretacin por su rango
79
acotado de 1 a 1, que equivale a una covarianza tipificada. Al elevar al cuadrado el
coeficiente de correlacin obtenemos el coeficiente de determinacin, r2xy que es
siempre positivo, nos informa de la proporcin de una variable que se puede explicar a
partir de la otra. Un criterio para valorar si esta capacidad explicativa es baja, media o
alta es tomar los valores 0.1, 0.3 y 0.5 respectivamente, que Cohen ofrece como
referentes.
Adems de este coeficiente de correlacin, el ms habitual, existen otros tipos de
coeficientes, generalmente utilizados para variables ordinales. Tienen en comn el
funcionar con datos de ordenaciones realizadas sobre las puntuaciones:
Coeficiente rho de Spearman, es una aplicacin (sobre las ordenaciones) de rxy
y por tanto mantiene, sus caractersticas y forma de interpretacin.
Coeficiente de Kendall, aunque se sigue interpretando dentro del mismo rango
de valores, ste no es aplicacin de Pearson y puede diferir en el resultado.
Habitualmente ofrece valores considerablemente menores que Pearson.
Coeficiente de Goodman-Kruskal, es el indicado cuando existen muchos
empates al hacer las ordenaciones, al asignar los rangos.
Para variables dicotmicas y dicotomizadas, las opciones para medir asociacin son:
Coeficiente de correlacin biserial-puntual: se utiliza cuando una variable
es continua y la otra es dicotmica, es aplicacin de Pearson, y mantiene sus
caractersticas
Coeficiente de correlacin biserial: con una variable continua y la otra
dicotomizada. Se trata de un coeficiente estimacin de rxy y por ello parece
ms recomendable evitar la situacin de tener que usarlo, es decir, no
dicotomizar en la medida de lo posible.
Coeficiente de correlacin tetracrica: se usa para dos variables
dicotomizadas siendo estimacin de Pearson y por ello la recomendacin
vuelve a ser evitar la dicotomizacin.
En el caso de que se quieran calcular correlaciones en el SPSS debemos ir al men
ANALIZAR, y desplegar el submen CORRELACIONES. All se presenta la opcin de
bivariadas, que es la de nuestro inters. Las correlaciones bivariadas que permite
calcular el SPSS son el coeficiente de correlacin producto-momento (Pearson), la rho
de Spearman y la tau de Kendall. Los resultados se presentan en forma de matriz de
correlaciones en todos los casos, y se ofrece, adems, la correspondiente prueba de
significacin sobre la correlacin.
En la figura 42 se muestra el men de correlaciones. De las variables que
queramos as correlaciones se sitan en la ventana de variables, en nuestro caso el
nmero de horas de estudio y el rendimiento en matemticas. Si se quiere calcular
simultneamente ms de una correlacin, por ejemplo las correlaciones de horas de
estudio con rendimiento en matemticas, pero tambin la de horas de estudio con
rendimiento en lenguaje, se hace igual pero poniendo simultneamente las tres variables
implicadas en la ventana.
80
Figura 42.
Ventana de correlaciones en SPSS.
(b)
81
Al ver la parte a de la tabla se ve que la relacin es positiva (0.708) y elevada.
Esto indica que cuantas ms horas estudian los alumnos tanto mayor es su rendimiento.
El valor de significatividad (sig. bilateral) que aparece sirve para saber si puede
considerarse (si p< 0.05, si sig< 0.05, habitualmente) que la correlacin es distinta a
cero en la poblacin. Por su parte la tabla 16 (b) ofrece lo mismo, solo que para ms
variables. Lo organiza en forma de una matriz, matriz que se conoce como matriz de
correlaciones. No vamos a entrar en el detalle, por ser muy claro, pero por ejemplo si
ahora se quiere saber la correlacin entre horas de estudio y rendimiento en lenguaje,
entonces se va al cruce correspondiente en la tabla y se ve que es 0.442 (p< 0.05), lo que
indica que la relacin tambin es positiva, pero que est menos relacionado el
rendimiento en lenguaje con las horas que el de matemticas.
REGRESIN SIMPLE
No es frecuente que nos limitemos a estudiar la asociacin entre dos variables. A
menudo el objetivo es de carcter predictivo. Cuando el inters es hacer predicciones en
una variable a partir de otra, recurriremos a la regresin simple, mientras que si se
toman diversos predictores se acude a la regresin mltiple. En este caso nos
centraremos en regresin simple.
Supongamos, como ejemplo, que en nuestra investigacin estamos interesados en
conocer cul es la capacidad predictiva de las horas de estudio en el rendimiento en
matemticas.
En principio, lo primero es que se debieran realizar algunos anlisis previos. En
concreto, primero un estudio en cada variable sobre la existencia de asimetra o curtosis
fuerte, o valores atpicos. Todos ellos se pueden realizar mediante los anlisis
descriptivos y las grficas realizadas con anterioridad. En segundo lugar, se debiera
pedir un diagrama de dispersin para evaluar si la tendencia de relacin entre las
variables es lineal. Para pedir el diagrama de dispersin se opta por el men
GRFICOS, y escoger el submen DISPERSIN. La opcin por defecto del programa,
simple, es la correcta en nuestro ejemplo. Solamente hay que definir las horas de estudio
como eje de las X (abcisas), y rendimiento en matemticas en el eje de las Y
(ordenadas). El diagrama de dispersin resultante se presenta a continuacin, y muestra
una relacin que tiene una clara tendencia lineal, lo que hace indicado el clculo de una
regresin lineal simple.
82
Figura 43.
Diagrama de dispersin de horas de estudio y rendimiento en matemticas.
83
Los resultados ms relevantes de la regresin simple que acabamos de plantear se
resumen en las dos siguientes tablas. La primera de ellas (tabla 17) nos informa sobre el
valor del coeficiente de determinacin (0.502, en nuestro ejemplo), lo que implica un
porcentaje de varianza explicado del rendimiento en matemticas del 50.2%. El valor de
la R-cuadrado corregida es de mayor inters en el caso de la regresin mltiple, por lo
que aplazamos tambin su explicacin.
Tabla 17.
Correlacin entre horas de estudio y rendimiento en matemticas y coeficiente de
determinacin
El SPSS ofrece, adems una prueba t sobre los dos parmetros. En nuestro caso,
tpicamente slo la prueba t sobre la pendiente presenta inters, ya que es la que nos
puede informar si la relacin entre ambas variables puede o no considerarse todava
nula en la poblacin. En el ejemplo la pendiente sin estandarizar alcanza un valor de
0.615, que equivale a un valor estandarizado de 0.708. Esta pendiente s ha resultado
estadsticamente significativa, como muestra el valor de significacin (p<0.05).
Cuando hemos planteado la regresin simple anterior, pasamos por alto una
opcin que puede resultar relevante: la variable de seleccin. Esta variable, que puede
ser cualquiera del fichero, sirve para realizar la regresin que deseemos pero por
subgrupos. Por ejemplo, si se plantea realizar la regresin por separado en hombres y
mujeres se podra realizar seleccionando primero sexo =1 y despus repetir la operacin
84
poniendo sexo =2. De esta forma tendramos una regresin realizada para los hombres y
otra para las mujeres, con lo que podramos compararlas.
85
mujeres en fluidez lectora. La tabla 19 ofrece los resultados. La primera de las dos
tablas (a) nos da los rangos promedio, lo que nos da una idea de qu grupo est ms
alto. En este caso los hombres parecen ms altos en fluidez lectora. La prueba U nos
ofrece un valor (una vez pasado a z) de -1.785, que resulta estadsticamente
significativo (significacin < de 0.05, p< 0.05)
Tabla 19.
Resultados de una prueba U de Mann-Whitney
(a)
(b)
86
Tabla 20.
Resultados de una prueba de Wilcoxon
(b)
87
similar a la de otras pruebas de contraste. En nuestro caso el ejemplo de la tabla 21
muestra los resultados de la prueba de Kruskal-Wallis para ver si hay diferencias entre
los distintos tipos de familias en el rendimiento en matemticas. En la parte a se nos
muestra los rango promedio, lo que nos permite ver que la familia con los dos padres
tiene el rendimiento ms alto, y as sucesivamente. La parte b nos ofrece la prueba, que
tiene un valor de chi-cuadrado de 25.64, lo que resulta estadsticamente significativo
(p< 0.05), y efectivamente el tipo de familia en que viven los alumnos se asocia a
diferencias en rendimiento.
Para pedir la prueba de Friedman se debe acudir a ANALIZAR, despus al men
de PRUEBAS NO PARAMTRICAS, y entre las opciones escoger k muestras dependientes.
La opcin por defecto es la que interesa, y simplemente debemos seleccionar las
variables a contrastar (por ejemplo tres momentos temporales). La interpretacin de los
resultados del SPSS es muy similar a la de otras pruebas de contraste. El ejemplo de la
tabla 22 es la comparacin del nivel de sntomas conductuales, somticos y cognitivos
de ansiedad, que evidentemente estn medidos en todos los sujetos y con la misma
escala de medida. Efectivamente hay diferencias estadsticamente significativas ya que
el valor de chi-cuadrado vale 44.36 y es significativo (p< 0.05).
Tabla 22.
Resultados de una prueba de Friedman
(a)
88
Ante cualquier medicin psicolgica resulta necesario saber si los nmeros
extrados de ella presentan la bondad suficiente como para ser empleados con garantas.
Su bondad suele resumirse en que cumplan dos aspectos: ser fiables y vlidas, fiabilidad
y validez.
Una medida es fiable en el sentido de que mide con exactitud. En psicologa esto
se traduce normalmente en dos aspectos relacionados, pero distinguibles. Un primero es
el de consistencia interna, otro el de estabilidad temporal.
Consistencia interna. Suele medirse mediante el coeficiente alpha, opcin
muy sencilla de obtener en SPSS. La lgica de la consistencia interna
consiste en que si estamos haciendo varias mediciones simultneas de un
mismo constructo psicolgico, como pueden ser los items de una escala de
depresin, stos deben estar altamente relacionados entre s. No debe ser
posible que dos items que miden dos aspectos (sntomas) de depresin
ofrezcan informacin contradictoria (no relacionada). Supongamos, por
ejemplo, que tenemos una escala de autoestima de 10 items, que
consideramos unifactorial. Para obtener el coeficiente alfa en SPSS debemos
acudir a ANALIZAR, dentro al men ESCALA, y pedir anlisis de fiabilidad.
El coeficiente alpha es el modelo por defecto, por lo que no resulta necesario
pedirlo. Solamente hace falta situar los items que conforman la escala en la
ventana de elementos. Si se desea, adems, un anlisis de fiabilidad
individual (para cada tem), simplemente hay que pinchar en la opcin
estadsticos y seleccionar elemento, escala y escala si se elimina el elemento.
Estabilidad temporal. Otro aspecto relacionado con la exactitud de la
medida es su estabilidad a lo largo del tiempo (en constructos psicolgicos
que se mantengan razonablemente invariantes con el tiempo). As, la lgica
aqu es que: si la medicin psicolgica que estamos realizando es exacta, al
medir una segunda vez debe dar aproximadamente el mismo resultado. (De
la misma manera que cuando medimos la longitud de una mesa nos creemos
el resultado del metro si al hacerlo dos veces consecutivas nos da los mismos
centmetros). En el ejemplo de la longitud de la mesa, caracterstica fsica, se
pueden realizar tantas mediciones seguidas como queramos, pero en el caso
de mediciones psicolgicas, hay que ser cuidadosos al escoger el lapso
temporal. En cuanto a cmo realizar el anlisis de datos para saber si una
cierta medida psicolgica es estable temporalmente, no resulta complicado.
Se tomaran las dos mediciones y se correlacionaran en base al coeficiente
de correlacin ms adecuado dada su naturaleza, tal y como hemos visto en
el apartado sobre correlacin.
Una medida es vlida en el sentido de que mide lo que pretendemos medir, y no
aspectos diferentes. La validez tiene diversos aspectos (o facetas) relacionados. Aunque
abundan otras clasificaciones, todas ellas estn de acuerdo en que el problema de la
validez no es ms que el de aglutinar evidencia emprica acorde a las razones
substantivas (tericas) de medicin del constructo. Adoptaremos una clasificacin, de
las ms utilizadas:
Validez de contenido. La validez de contenido se refiere a una adecuada
eleccin de las preguntas (o mediciones) a efectuar. En rastrear todas las
facetas del constructo de inters y balancearlas totalmente. Es un aspecto
totalmente externo al anlisis de datos, y por tanto no lo trataremos aqu.
89
Validez criterial. Normalmente suele, desde un punto de vista simplista,
confundirse con la validez. Es el estudio de la relacin del constructo (y sus
componentes, si los tiene) con variables externas o criterios. En funcin de la
naturaleza de las variables se emplean los distintos tipos de coeficientes de
correlacin que hemos comentado y/o regresin simple y mltiple.
Validez factorial. Consiste en el estudio de los componentes
constituyentes de la medida del constructo psicolgico de inters. ste puede
ser unifactorial, si incluye un nico componente, o multifactorial, si incluye
ms de uno. Desde el punto de vista del anlisis de datos el estudio de la
estructura factorial implica, normalmente, el anlisis factorial, bien
exploratorio, bien confirmatorio. En algunas ocasiones (escasas) se han
utilizado otras tcnicas, como el escalamiento multidimensional o el anlisis
de conglomerados.
Validez diferencial. En ocasiones una teora bien establecida sobre un
cierto concepto psicolgico incluye hiptesis sobre su comportamiento
diferencial en funcin de ciertas variables (por ejemplo: el desarrollo
diferencial del razonamiento verbal en funcin del sexo). En esos casos,
puede hablarse de validez diferencial si la medida que desarrollamos de ese
constructo muestra, efectivamente, este comportamiento diferencial. Suelen
estudiarse, a nivel de anlisis discriminante con cualquiera de las tcnicas de
comparacin de grupos que hemos visto.
Validez convergente-discriminante. Es una especie de validez criterial
mejorada. Implica un estudio en que se sitan conjuntamente medidas
relacionadas con el constructo y medidas dispares. Se espera alta relacin
con las medidas relacionadas (validez convergente), y baja con las medidas
dispares (validez discriminante). Suele estudiarse, a nivel de anlisis de
datos, con matrices multirrasgo-multimtodo, que no son ms que matrices
de correlaciones.
90
Tema 5.
Relaciones complejas
5.1.1. Estimacin
La estimacin va precedida, necesariamente, de una fase de constitucin del modelo, de
una fase de especificacin, consistente en la seleccin de las variables que van a
intervenir en la ecuacin de regresin. Esta eleccin viene dictada habitualmente por
motivos tericos, empricos (estadsticos), o por una combinacin de ambos. La idea es
tener el mximo de predictores relevantes al fenmeno a predecir, y el mnimo (a ser
posible ninguno) irrelevante. Pero claro, a veces es necesario realizar selecciones
estadsticas debido a los requisitos de tamao de la muestra, que en regresin mltiple
suele situarse en un mnimo de 5-10 sujetos por predictor, pero recomendndose
muestras mayores de 100, sea cual sea el nmero de predictores.
Una vez elegidos los predictores la estimacin propiamente dicha de los
parmetros de la ecuacin de regresin suele realizarse mediante el mtodo de mnimos
cuadrados, aspecto tcnico que no tocaremos. Simplemente es relevante que de los
resultados del anlisis obtendremos una estimacin de la pendiente para cada variable
predictora, que en el caso no estandarizado es un coeficiente de regresin parcial y en el
estandarizado un coeficiente de correlacin parcial (y sus pruebas de significacin),
adems de una estimacin de la capacidad explicativa del modelo en trminos del
coeficiente de determinacin (y su correspondiente valor ajustado).
Pero, an asumiendo siempre este tipo de estimacin, cabe todava hacer ciertas
elecciones crticas en el proceso de estimacin, ya que existen diversos procedimientos
de seleccin de variables. El problema de escoger entre diversos procedimientos de
seleccin es doble. Por un lado, cuando hay muchos predictores potenciales y la
muestra es relativamente pequea se impone en ocasiones una reduccin en su nmero,
lo que nos suele llevar a algn tipo de seleccin de tipo estadstico. Por otro lado, en
ocasiones el orden de entrada de las variables en la ecuacin de regresin es relevante,
por lo que ste no es indiferente, debindose, por tanto, imponer un cierto orden, de
forma estadstica o substantiva. Los principales tipos de procedimientos de seleccin,
91
todos ellos montados en el SPSS, a las dos lgicas ya esbozadas con anterioridad: la
substantiva y la estadstica.
A) CONOCIMIENTO SUBSTANTIVO
Es el investigador el que escoge todos los predictores a introducir en la ecuacin de
regresin, de todos ellos se obtendr estimacin de su efecto sobre la variable
dependiente. El investigador tambin determina su orden. Existen dos subtipos bien
diferenciados: introducir todos los predictores y regresin jerrquica.
Regresin jerrquica
En la regresin jerrquica las variables se introducen por bloques segn un criterio
lgico (terico) definido por el investigador. De esta forma se evala lo que la (o las)
variables de cada nuevo bloque aaden a las ya introducidas previamente. Normalmente
las variables que se consideran de mayor importancia, o de efecto causal anterior se
introducen antes.
Como ejemplo* supongamos que se quiere estudiar cmo diversas facetas de la
autoestima (social, de desempeo, y de apariencia fsica) explican o se relacionan con la
autoestima general en adolescentes. La idea es evaluar qu tipo de autoestima especfica
tiene ms peso en la muestra de adolescentes recogida. No obstante y dado que algunos
aspectos fsicos de los adolescentes pueden tener un impacto tambin en la autoestima
se decide introducirlos primero en una regresin jerrquica. Los aspectos fsicos
considerados relevantes son la edad y el sexo. Este ltimo, pese a ser una variable
categrica puede introducirse sin problemas en la ecuacin de regresin ya que
solamente presenta dos categoras. Por lo tanto los predictores considerados relevantes
por el investigador son cinco: edad, sexo, autoestima social, de desempeo y de
apariencia fsica. El investigador, no obstante, va a incluirlas en dos bloques (regresin
jerrquica), el primero con las dos primeras y el segundo con las tres ltimas. Por lo
tanto, el cambio que se produce es que el investigador est interesado en saber qu
explican los tres componentes de la autoestima, una vez que edad y sexo han recogido
su parte en la explicacin.
*
El ejemplo seguido en este apartado no se corresponde con datos que se adjunten. El lector puede
realizar los mismos pasos con otras variables del ejemplo 2.sav proporcionado.
92
Para realizar este procedimiento se acude a ANALIZAR y despus se escoge
REGRESIN, asumiendo la opcin lineal. Tras ello se escoge la autoestima general
(rosen) como dependiente y sexo y edad como independientes. Justo arriba de la
ventana donde estn las independientes se le da a la opcin bloque siguiente y aqu se
colocan las tres predictoras (AS, AD y AF) del bloque dos. Con ello ya hemos
informado al programa de que queremos realizar una regresin jerrquica en dos
bloques. En principio lo nico que necesitamos, adems, para realizar la regresin
jerrquica es pinchar en la opcin estadsticos y pedir el cambio en R-cuadrado.
Tabla 23.
Resultados de una regresin lineal mltiple
93
son capaces de explicar todas las independientes (conjuntamente) en el modelo. Por esto
puede verse que la R2 es de 0.037 (3.7%) para el modelo 1 y 0.626 (62.6%) para el
modelo 2, luego es evidente que las tres medidas especficas de autoestima del bloque 2
aaden mucho a la explicacin de la variable dependiente. Adems se ofrecen las R2
ajustadas, ms adecuadas cuando el nmero de predictores aumenta. Si se quiere una
prueba estadstica para saber si las variables aadidas en el bloque 2 mejora
estadsticamente la prediccin, solamente hay que mirar que el cambio en R cuadrado
da un valor de 0.590, que es estadsticamente significativo (sig. del cambio en F es
0.000, o sea, p< 0.05).
Para finalizar la ltima tabla, de la que solamente hay que interpretar el modelo 2.
En este caso nos fijaremos simplemente en los coeficientes b estandarizados. Nos dicen
si las relaciones entre las variables son positivas o negativas y su cuanta (sabiendo que
los mximos son -1 o +1), as puede verse que la relacin de Ad es positiva y las ms
elevada (0.535). Adems en la ltima columna aparece la significatividad estadstica
que nos indica si las relaciones de cada una de las variables predoctoras es
estadsticamente significativa o no (p< 0.05). En este caso las cinco variables
predoctoras son estadsticamente significativas (ya que p siempre es menor de 0.05).
B) MTODOS ESTADSTICOS
Otra opcin para seleccionar predictores de entre un conjunto amplio es recurrir a
razones puramente estadsticas. Los procedimientos son: hacia delante, en que se
introduce el predictor con mayor relacin con la variable dependiente, luego el segundo,
etctera; hacia atrs, en que se empieza con todos los predictores y se van eliminando,
uno a uno, los menos relacionados; y la regresin paso a paso, probablemente el ms
utilizado.
94
Tabla 24.
Resultados de regresin lineal mltiple por pasos
Tabla 25.
Resultados de regresin lineal mltiple por pasos
Por su parte, la tabla 25 nos ofrece los coeficientes de cada uno de los pasos de la
regresin paso a paso, siendo el ltimo el que debe interpretarse. Como vemos todos los
95
predictores han resultado estadsticamente significativos (p<0.05), tal y como ocurra en
la regresin por bloques. La interpretacin es idntica al caso anterior.
A) GRFICOS DE RESIDUALES
Los residuales son los errores que se cometen al predecir cada puntuacin individual en
base a la ecuacin de regresin. Si la regresin es buena, los residuales tienden a ser
pequeos. Pero no es por esto por los que los tratamos aqu, sino porque al estudiar el
comportamiento de los residuales podemos observar de forma simple posibles
alejamientos de los supuestos. Este estudio de diagnstico conviene realizarlo para cada
predictor por separado, y para la ecuacin completa.
En concreto los grficos de residuos nos permiten tener una idea de problemas con
la homogeneidad de varianzas y con la linealidad. Supongamos que se quiere predecir
ROSEN en base a AD, siguiendo con las mismas variables de ejemplos anteriores.
Queremos aadir a lo pedido habitualmente un grfico de residuos. Para hacerlo se opta
en la ventana abierta de regresin lineal por la opcin grficos, lo que nos abre una
nueva ventana, en la que escogeremos como valores para el eje de abscisas (X) los
valores predichos estandarizados (ZPRED, en SPSS), mientras en el eje de ordenadas
(Y) escogeremos, de entre las distintas medidas de residuales estandarizados y
estudentizados la opcin de SDRESID. Si lo hacemos as para este ejemplo
obtendremos un grfico como el siguiente (figura 46).
96
Figura 46.
Grfico de residuales
97
B) ESTUDIO DE VALORES ATPICOS
Todas las tcnicas estadsticas basadas en el modelo lineal general son bastante
sensibles a los valores atpicos. Hemos visto ya cmo detectar valores atpicos en
variables aisladas (valores atpicos univariantes), pero en regresin simple y mltiple la
cosa es un poco ms complicada, pues se trata de revisar valores atpicos multivariantes.
Claro, aqu la cosa se complica ya que los casos, los sujetos, pueden ser atpicos en la
variable Y, en la variable X o en ambas. Por lo tanto necesitamos procedimientos que
nos digan si tenemos alguna observacin que nos genere problemas a cualquiera de
estos niveles.
Por lo tanto, debemos detectar:
Valores atpicos en Y, o outliers. Para comprobar si se tiene algn caso que
genere problemas como outlier se puede optar por calcular el residual
estudentizado eliminado. Si cualquier caso tiene un residual estudentizado
eliminado mayor de 2, nos generar problemas. Para pedir los residuales de este
tipo se debe ir a la ventana de la regresin, escoger la opcin guardar y pedir los
Residuos eliminados estudentizados.
Valores atpicos en X, o leverages. Para comprobarlo hay que acudir al valor de
un estadstico, hi, conocido como valor de leverage. SPSS no ofrece el valor de
este estadstico, pero s ofrece el valor de la Distancia de Mahalanobis, en el que
esta basado. Para pedir la distancia de Mahalanobis hay que seleccionarla
tambin en la opcin de guardar de regresin. Una vez se obtienen las distancias,
el valor del estadstico es:
C) MULTICOLINEALIDAD
En el caso de regresin simple solamente se considera un predictor, por lo que no se
puede producir multicolinealidad (colinealidad), que de forma intuitiva puede definirse
como el problema que aparece cuando los predictores estn parcialmente solapados
(altamente correlacionados), y por tanto resulta difcil discernir quin predice mejor (o
ms) a la variable dependiente. En el lmite si los predictores estn muy
correlacionados, entonces los resultados de los coeficientes de regresin son muy
inestables e inseguros. Por lo tanto, lo que debemos de asegurarnos es que el nivel de
correlacin entre los factores no es tan importante como para hacer inseguros nuestros
resultados, para lo que es necesario tomar medidas de diagnstico de la colinealidad.
98
El SPSS nos ofrece diversos estadsticos para evaluar los problemas de
colinealidad. La tolerancia es uno de los ms empleados (si su valor es menor de 0.1,
suele ser indicativo de problemas. Nosotros veremos dos de fcil clculo y ms fcil
interpretacin, que funcionan tan bien como la tolerancia. Para poder pedir estos
estadsticos debemos estar en la ventana de regresin lineal, y seleccionar la opcin de
estadsticos. Una de las opciones dentro de la nueva ventana que se abre es diagnstico
de colinealidad, el cual seleccionaremos. Al seleccionar este botn, entre los resultados
que obtendremos, aparecern los estadsticos que nos permiten evaluar posibles
problemas de colinealidad, y que son, en concreto, el factor de inflacin de la varianza
(FIV) y el ndice de condicin (condicionamiento). El primero de ellos suele ser
suficiente y muestra un problema de multicolinealidad asociado a una variable en
concreto si es mayor de 10. Al aplicar a nuestro ejemplo de regresin mltiple estas
opciones obtenemos (relevante para el diagnstico de colinealidad), la tabla 26.
Tabla 26.
Resultados de regresin lineal mltiple por pasos
Como puede verse, ninguno de los predictores parece generarnos problema alguno
de multicolinealidad: ni visto con la tolerancia, ni visto por el factor de inflacin de la
varianza.
99
Si la muestra que tenemos es grande podemos proceder a un estudio propiamente
de validacin cruzada. Para ello hace falta dividir de forma aleatoria, mediante las
herramientas de seleccin de SPSS, la muestra (pongamos 1000 sujetos o participantes)
en dos submuestras de aproximadamente el mismo tamao.
Ahora cabran dos posibilidades, la primea de ellas simple, que sera calcular la
regresin en las dos muestras por separado y comparar los resultados, siempre en
valores no estandarizados. Este procedimiento nos puede ofrecer una informacin
valiosa pero de carcter ms bien cualitativo y difcil de ponderar.
Un mejor procedimiento consiste en llevar a cabo una validacin cruzada
propiamente dicha. Se calculara la regresin en una muestra (muestra de estimacin)
obteniendo una estimacin de los coeficientes de regresin. En la segunda muestra (de
validacin) se calcula la regresin obteniendo los valores predichos segn esta nueva
estimacin. Adicionalmente se calculan los valores predichos para los sujetos de la
muestra de validacin en base a la ecuacin de regresin hallada en la muestra de
estimacin. La correlacin (en la muestra de validacin) entre ambos tipos de valores
predichos nos ofrece una medida cuantitativa de la capacidad explicativa de nuestra
regresin.
100
escala, junto con algunas otras variables se encuentran en la base de datos
ejemplo1.sav, con la que el lector puede practicar.
101
Figura 49.
Ventana de anlisis factorial en SPSS: descriptivos
En el caso de la medida de KMO se espera que los valores sean elevados para que
se acepte que las variables son factorizables. Kaiser (1974) plantea la siguiente escala
para interpretar los resultados de ndice KMO:
Prximas a 0.9 valores maravillosos
Cercanas a 0.8 meritorios
A 0.7 como medianas
En torno a 0.6 son mediocres
Y 0.5 o menores inaceptables
En el caso de la prueba de esfericidad de Bartlett, el estadstico se distribuye
aproximadamente como una chi-cuadrado, y si su resultado resulta estadsticamente
significativo (p< 0.05) para un determinado valor de alfa se considera que puede
realizarse el anlisis factorial.
Para nuestros caso, el valor de KMO es de 0.856, lo que sita nuestra
evaluacin de los datos como entre meritorios y maravillosos para realizar un anlisis
factorial, y el valor de la prueba de esfericidad de Bartlett es estadsticamente
102
significativo (p< 0.05), lo que tambin indica que las 10 preguntas del cuestionario de
Rosenberg son factorizables.
103
5.2.3. Cuntos componentes retener?
Por defecto el anlisis de componentes principales calcula tantos componentes como
variables observables hay, porque as explica el 100% de la varianza. No obstante esto
no presenta lgica, porque precisamente se realiza el anlisis para reducir el nmero de
variables originales a un nmero menor que tengan mayor peso terico. As pues, es
necesario tener algunos criterios para saber dnde cortar y decidir que las 10 variables
originales quedarn razonablemente representadas en p componentes. Existen diversos
criterios, todos ellos parcialmente subjetivos y que no pueden aplicarse a ciegas, sino en
cuidadosa interaccin con la teora, para que el resultado tenga sentido.
De entre los criterios ms utilizados tenemos:
1. Escoger solamente componentes que tengan valores propios mayores
que uno. Esto es tanto como decir que no se aceptarn componentes
salvo que sean, a menos, igual de importantes que una variable
observable. Este criterio, propuesto por Kaiser se conoce como criterio
de Kaiser.
2. El grfico de sedimentacin. Bsicamente ordena en un grfico los
componentes en funcin de cunta varianza explican y donde se
produce un salto abrupto dejan de cogerse componentes adicionales a
los ms explicativos. Tambin se conoce como Scree-test de Cattell.
3. Un test estadstico propuesto por Lawley, bastante afectado por el
tamao muestral.
4. Retener componentes hasta que se explique un porcentaje dado de la
varianza (tpicamente en torno a un 70%).
De todos estos mtodos es la combinacin de los dos primeros la que ofrece
mejores resultados a nivel prctico, siempre buscando que la interpretacin de los
factores retenidos y los no retenidos se sostenga tericamente. Para pedirle a SPSS el
grfico de sedimentacin y autovalores mayores de 1 hay que seleccionar lo oportuno
en la ventana de extraccin de anlisis factorial en el SPSS, cuya forma se presenta, con
las oportunas especificaciones en la figura 51.
Figura 51.
Ventana de anlisis factorial de SPSS: extraccin
104
5.2.4. Rotaciones
Los factores o componentes resumen un nmero elevado de variables en unos pocos
componentes, pero a menudo estos componentes son difciles de explicar, resulta difcil
interpretar lo que representan, ya que mezclan muchas aportaciones diferentes. Las
rotaciones, que presentan aspectos tcnicos en los que no entraremos, sirven para hacer
ms fcilmente interpretables los factores o componentes, y las hay de dos tipos:
Ortogonales: Los factores resultantes tras la rotacin son independientes
entre s.
Oblicuas: Los factores resultantes pueden correlacionar entre s.
De entre las rotaciones ortogonales las ms utilizadas son la quartimax y la
varimax, y sta ltima es la que SPSS realiza por defecto. Cuando se quiere resumir las
variables observables de forma que los factores resultantes no se solapen, por ejemplo al
predecir un criterio, las rotaciones ortogonales son adecuadas. Cuando, por contra se
sospecha que los factores puede guardar relaciones entre s, como al buscar factores en
un cuestionario de un constructo, conviene realizar rotaciones oblicuas, de entre las que
oblimin es una opcin razonable en SPSS. Cuando se realiza una rotacin oblicua, para
interpretar los factores se debe mirar dos matrices, la matriz patrn y la matriz de
estructura. La primera dice la relacin de la variable con el factor controlando por el
resto de variables observables, la segunda es simplemente la saturacin factorial, o sea,
la correlacin del factor y la variable.
5.2.6. Un ejemplo
Realizaremos un anlisis factorial sobre los 10 items del cuestionario de Rosenberg, que
se supone unifactorial. Los datos son los del ejemplo1.sav. Realizaremos un anlisis
de componentes principales con rotacin varimax, pidiendo que extraiga los factores
con valores propios mayores de 1. Adicionalmente en opciones pediremos que no nos
muestre las saturaciones que sean menores de 0.10, mediante la orden que aparece en la
figura 52.
105
Figura 52.
Ventana de anlisis factorial de SPSS: opciones
Los resultados del anlisis factorial se presentan en una serie de tablas. La primera
de stas nos ofrece el porcentaje de varianza explicada de cada uno de los componentes
retenidos, antes y despus de la rotacin. En este caso, como en todos, el primer
componente es el que ms explica. Especialmente antes de la rotacin es cuatro veces
ms importante que el segundo.
Tabla 28.
Resultados del anlisis de componentes principales: autovalores y varianza explicada
El grfico de sedimentacin nos ofrece alguna duda sobre que la solucin de dos
componentes sea la mejor, ya que parece que el factor ms importante es el primero (ver
figura 53).
106
Figura 53.
Grfico de sedimentacin (scree-test)
La siguiente tabla (tabla 29) muestra las saturaciones factoriales, que nos
permitiran interpretar los componentes. La mayor parte de los tems del cuestionario
saturan de forma elevada solamente en uno de los componentes, pero hay al menos tres
tems que claramente saturan elevado en ambos componentes.
Tabla 29.
Saturaciones factoriales en los dos componentes extrados
107
en las tablas a continuacin muestran que aunque el porcentaje de varianza explicado es
relativamente bajo (tabla 30), todos los tems, quiz con la excepcin del primero,
saturan (tabla 31) de forma elevada en un nico componente, que dada la teora y
resultados previos de Rosenberg interpretamos como autoestima global.
Tabla 30.
Resultados del anlisis de componentes principales: autovalores y varianza explicada
Tabla 31.
Saturaciones factoriales en el nico componente extrado
108
INDICE
1. Conceptos previos 2
1.1. La estadstica en el mtodo cientfico 2
1.2. Tipos de diseos de investigacin 3
1.3. Conceptos estadsticos bsicos y definicin 5
1.4. Medicin, variables y escalas de medida 7
1.5. Muestreo 11
2. Introduccin de datos 20
2.1. Introduccin de datos y manejo bsico de SPSS
20
2.2. Datos omitidos 21
2.3. Fundir archivos 22
2.4. Seleccin de datos 23
2.5. Transformacin de variables 27
2.6. Segmentado de archivos 31
2.7. Recodificacin de variables 37
4. Relaciones bivariadas 63
4.1. Relaciones entre variables categricas 63
4.2. Pruebas t y anlisis de la varianza (ANOVA) 66
4.3. Correlacin y regresin simple 77
4.4. Algunas pruebas no paramtricas 84
4.5. Fiabilidad y validez: integracin 88
5. Relaciones complejas 91
5.1. Regresin lineal mltiple 91
109
5.1.1. Esti
macin 91
5.1.2. Diag
nstico en regresin 96
5.1.3. Vali
dacin cruzada 99
5.2. Anlisis factorial 100
5.2.1. Pas
os previos al anlisis factorial 101
5.2.2. Tipo
s de anlisis factorial 103
5.2.3. Cu
ntos componentes retener? 104
5.2.4. Rot
aciones 104
5.2.5. Qu
saturaciones interpretar? 105
5.2.6. Un
ejemplo 105
110