Sei sulla pagina 1di 8

INTRODUCCIÓN

Una manera de definir la estadística es considerándola una serie ordenada de métodos


que se ocupan de la recolección, organización, presentación, análisis e interpretación de
datos numéricos.
Se acostumbra dividirla, según el propósito que se persigue, en: descriptiva e
inferencial.
La estadística descriptiva se utiliza para describir la frecuencia y distribución de las
características (o variables) del objeto en estudio, en tanto que la estadística inferencial
se ocupa del proceso metódico para obtener conclusiones válidas de una muestra, con
respecto a la población, de manera tal que se le pueda considerar representativa de ella.
Para entender cuándo y cómo se usa una o la otra, es preciso entender y definir algunos
conceptos básicos de la estadística.

CONCEPTOS GENERALES

A diferencia de la estadística paramétrica, en la que el investigador aspira encontrar en


las características de la muestra que ha seleccionado, aquellas que distinguen a la
población de donde ésta procede; hay dos formas de actuar:
1) Estimar el valor de un parámetro a partir de la muestra, y
2) Contrastar si su hipótesis es confirmada en la muestra, poniendo a prueba la hipótesis
de las diferencias nulas (Ho), la que de no confirmarse se explica por la hipótesis alterna
(H1), que acepta que esas diferencias existen dentro de cierto margen de probabilidad:
cuando son significativas (a nivel de una p < 0.05 o < 0.001) se rechaza la hipótesis nula
y se acepta la hipótesis alterna.

En estadística se definen como variables a los atributos, rasgos o propiedades de un


grupo de elementos que toman diferentes valores, magnitudes o intensidades. En el
proceso de medición de ellas se les asignan números o códigos de observación.
La manera más aceptada para ordenar y cuantificar una variable, propuesta por Stevens,
es dividirlas en cualitativas (según su calidad o atributo) o cuantitativas (de acuerdo a la
magnitud de su medición).
Cuando la variable cualitativa no tiene punto de comparación como el color de los ojos
(café, azul, verde, negro) se le denomina variable cualitativa nominal; cuando hay un
determinado orden como clase social(alta, media, baja), duración de una enfermedad
(aguda, subaguda, crónica), orden en la familia (primero, segundo, tercero, etc.) se le
llama variable cualitativa ordinal.
Cuando la variable cuantitativa sólo se puede medir en valores enteros: como el número
de alumnos, el número de partos, elénúmerordetempleados, se le denomina variable
cuantitativa discreta, discontinua o de intervalo, mientras que si la variable se puede
expresar en fracciones, como peso al nacimiento (3,460 g) o estatura (51.3 cm), se les
denominan variables cuantitativas continuas o de razón y puede ser que los datos tengan
una distribución normal (sesgo de -0.5 a +0.5 y curtosis de 2 a 4)

Desde sus inicios, las computadoras se han utilizado en el manejo de los datos y en ellas
se puede hacer uso de las técnicas estadísticas, por lo que hay paquetes estadísticos
entre los cuales el SPSS (Statistical Package for the Social Sciences) es, quizá, el más
usado, con más de tres décadas en el mercado.
El procedimiento estadístico que se usará para el análisis depende de:
1) El tipo de medida de la variable a analizar.
2) La-distribución.que.caracteriza a las mediciones de las variables, la homogeneidad de
las varianzas en los grupos de ellas, el impacto de los residuos y el tamaño de la
muestra; 3) El poder de la prueba que se usará, es decir, la capacidad de aceptar o
rechazar, correcta- mente, la hipótesis nula.
En el cuadro 1 se presenta una guía para la valoración de los datos estadísticos de
carácter cuantitativo.

Cuando se
pretende probar
una hipótesis
respecto a uno o
más parámetros
de una
población que
tiende a una
distribución
normal, las
pruebas usadas
son las de la estadística paramétrica, como la t de Student.
En el cuadro 2 se presentan las características comunes a estas pruebas paramétricas.

Por lo contrario, si los procedimientos estadísticos no requieren plantear inferencias


acerca de los parámetros de la población (su media y dispersión) se le conoce como no
paramétricos, o de distribución libre (ya que no se hacen suposiciones acerca de la
distribución de la población de donde procede la muestra.
En el cuadro 3 se presentan las características que son comunes a las pruebas de
hipótesis no paramétricas.
Con las pruebas no paramétricas se puede trabajar con muestras pequeñas de datos
categóricos u ordinales, independientemente de la distribución de las muestras que se
desea contrastar. Moses considera que las pruebas no paramétricas: 1) Son más fáciles
de aplicar; 2) Son aplicables a los datos jerarquizados; 3) Se pueden usar cuando dos
series de observaciones provienen de distintas poblaciones; 4) Son la única alternativa
cuando el tamaño de muestra es pequeño; y, 4) Son útiles a un nivel de significancia
previamente especificado. En el cuadro 4 se pueden ver las características más
importantes de las pruebas no paramétricas.

En términos generales, se puede considerar que aunque la potencia de las pruebas


estadísticas paramétricas es mayor que la que ofrecen las pruebas no paramétricas, ya
que con ellas es la probabilidad de rechazar la hipótesis nula cuando ésta realmente es
falsa (error de tipo II: 1-β), es conveniente comentar que el adecuado tamaño de
muestra es un requisito indispensable para aumentar la eficacia de una prueba: a medida
que au- menta el tamaño de muestra, disminuye la posibilidad de cometer el error de
tipo II.
En el cuadro 5 aparecen algunas de las pruebas paramétricas más usadas y sus al-
ternativas no paramétricas y en el cuadro 6 se resumen las indicaciones de las pruebas
estadísticas no paramétricas.
MILTON FRIEDMAN

Uno de los más importantes economistas de la segunda mitad del siglo XX. Premio
Nobel de Economía en 1976 "por sus resultados en los campos del análisis del
consumo, historia y teoría monetaria y por su demostración de la complejidad de la
política de estabilización." Friedman fue un monetarista. Propuso resolver los
problemas de inflación limitando el crecimiento de la oferta monetaria a una tasa
constante y moderada. Economista empírico, era especialista en estadística y
econometría. Defensor del libre mercado, fue el más conocido líder de la Escuela de
Chicago debido, en parte, a que sus escritos son muy fáciles de leer por el hombre de la
calle. Se opuso al keynesianismo en el momento de máximo apogeo de éste, en los años
cincuenta y sesenta.

Su explicación de la demanda de dinero (1956) es bastante más elegante, completa y


contrastable que muchas anteriores. Para Friedman, la demanda de dinero es función de
la proporción entre la riqueza humana y no humana, el tipo de interés nominal, la
inflación esperada, el nivel de precios real, la función de preferencia del dinero ante
otros bienes y, naturalmente, de la renta. Pero a diferencia de Keynes, Friedman, más
centrado en dar una explicación a largo plazo, considera la renta permanente; es decir,
el valor actualizado a fecha actual de los capitales futuros originados de un stock de
riqueza dado. Stock que engloba no sólo aspectos cuantitativos o materiales, sino
también cualitativos.

Otra gran aportación de Friedman es la revisión de curva de Phillips, de inspiración


keynesiana, que relaciona inversamente niveles de paro e inflación. Considera Friedman
que el paro sería voluntario de no ser por la existencia de una tasa de paro natural, la
NAIRU (non accelerating inflation rate of unemployment), consecuencia de las
limitaciones impuestas por gobiernos y otras instituciones públicas. Un ejemplo de ello
es la prohibición de ciertos tipos de contratos. Cuando un gobierno intenta disminuir el
paro por debajo de esa tasa natural mediante políticas monetarias muy expansivas, a
corto plazo puede conseguirlo. Pero los agentes económicos se acaban dando cuenta de
que, si con iguales salarios hay inflación, ven menguada su capacidad de adquisición de
bienes y servicios. De tal modo que descuentan ese efecto, y en la próxima revisión de
sus contratos elevarán sus salarios al alza, lo que incita a un nivel de paro mayor. Por
tanto, no se logra reducir la tasa de paro de partida, y además se produce una variación
mayor del nivel de precios. Así, todo intento sistemático por parte de los gobiernos de
reducir el paro acaba creando inflación sin resolver el desempleo. Incluso puede haber
un punto a partir del cual la curva de Phillips se torne en una curva de pendiente
positiva, de tal modo que paro e incremento de inflación estén ligados. Eso sucedió en
las crisis del petróleo de los años 70, situación que la teoría keynesiana era incapaz de
explicar.

En consecuencia, el éxito de la intervención de los gobiernos es muy limitado, y lo que


deben de hacer es eliminar las restricciones que impiden que la tasa de paro natural se
instale en una cota más reducida. Con este análisis Friedman consiguió tres importantes
logros. El primero de ellos, dar una explicación anticipada a lo que después sucedería
con las crisis del petróleo. El segundo, demostrar que la política monetaria tiene efectos
reales (sobre el empleo) a corto plazo, pero a largo plazo sólo tiene efectos nominales
(sobre los precios). El tercero, sentar las bases de posteriores desarrollos basados en la
hipótesis de expectativas racionales, y no adaptativas como hasta entonces. Este tema es
algo en lo que trabajó mucho su colaborador Edmun S. Phelps que, treinta años después
de Friedman, también fue premiado con el Nobel. De manera que, a pesar del tiempo
transcurrido, la validez del razonamiento de Friedman sigue estando muy vigente.

Friedman consideraba que, al igual que una política monetaria expansiva puede crear
crisis económicas, una política restrictiva también puede ser perjudicial, mediante una
deflación de precios. Así lo puso de manifiesto en 1963 cuando publicó, junto a Anna
Schwartz, un voluminoso tomo llamado “A Monetary History of the United States,
1897-1958”. Donde argumenta que la Gran Depresión fue consecuencia de la
implantación de políticas equivocadas por parte de la Reserva Federal.

Defensor de la libertad individual, propugnó medidas de corte liberal. Una de ellas fue
el establecimiento del bono educativo, en la idea de incentivar la demanda educativa
según las preferencias de los padres. Propuso la flexibilización de precios,
desregulaciones y privatizaciones, sistemas de pensiones individualizadas, la
legalización del consumo de drogas y de la prostitución. Defendió la abolición del
servicio militar obligatorio, de los salarios mínimos y del seguro social. En el terrero
fiscal ideó el impuesto sobre la renta negativo, de tal modo que se subvencionara a las
rentas más bajas. Se equivocó al augurar que el euro jamás llegaría a existir, y cuando
dijo que la Unión Monetaria ya conseguida aguantaría pocos años.

Friedman nació en el barrio neoyorquino de Brooklyn el 31 de julio de 1912. Fue el


cuarto y último hijo de una familia humilde formada por Sarah Ethel y Jeno Saul
Friedman, inmigrantes judíos procedentes del centro de Europa, aunque nunca les faltó
para comer. Su padre murió teniendo Friedman 15 años. A pesar de ello, y debido al
gran esfuerzo económico realizado por su familia y l mismo costeándose sus estudios,
Friedman cursó Economía en la Universidad Rutgers (New Jersey) y obtuvo el
doctorado en la Universidad de Columbia en 1946. Fue alumno de Simon Kuznetzs y
Arthur Burns. Trabajó como economista para varias agencias federales en la ciudad de
Washington de 1935 a 1940 y de 1941 a 1943. En 1968 presentó su tesis. Profesor de la
Universidad de Chicago desde 1946 a 1976. También dio clases en las universidades de
Wisconsin, Princeton, Columbia y Stanford. En 1977 se jubiló de su labor docente.

Investigador del National Bureau of Economic Research, de 1937 a 1981. Miembro del
Partido Republicano, fue asesor económico, entre otros, de Richard Nixon, Ronald
Reagan y George W. Bush. Presidente de la American Economic Association en 1967.
En 1947 funda junto a Hayek y otros la sociedad “Mont Pèlerin”, de la que fue elegido
presidente en 1972. Fue consultor en la puesta en marcha del Plan Marshall. Desde
1977 hasta su muerte, fue Senior Reserarch Fellow en el instituto Hoover de la
Universidad Stanford. También perteneció a la American Philosophical Society y la
National Academy of Sciences.

En 1938 se casó con la también economista Rose Director Friedman, a la que conoció
cuando ambos estudiaban en la Universidad de Chicago en una clase impartida por
Jacob Viner. Juntos crearon la Milton and Rose D. Friedman Foundation for
Educational Choice. También firmaron conjuntamente varios libros.

Asesoró a multitud de gobiernos, muchos de los cuales aplicaron sus propuestas. Tan
popular como polémico, mantuvo diversas apariciones en multitud de medios de
comunicación orales y escritos hasta el final de sus días. Escribió en la prestigiosa
revista "Newsweek" (1966-1984).
En 1980, la cadena pública de televisión estadounidense PBS emitió una serie de diez
capítulos, escrita por el propio Friedman, llamada "Free to choose". Tuvo gran éxito y
fue traducida y emitida en español. Existe publicación impresa de un libro con el mismo
nombre, escrito por Milton y Rose, también con notable acogida.
Entre sus condecoraciones, cabe destacar la Medalla John Bates Clark (1951), la
Medalla de la Libertad (1988) y la Medalla Nacional de la Ciencia (1988). Recibió
títulos honorarios de distintas universidades de EE.UU., Japón, Israel o Guatemala, así
como la Grand Cordon of the First Class Order of the Sacred Treasure, otorgada por el
gobierno japonés en 1986.

PRUEBA DE FRIEDMAN

Es una extensión de la prueba de Wilcoxon para incluir datos registrados en más de dos
periodos de tiempo o grupos de tres o más sujetos pareados, con un sujeto de cada grupo
que ha sido asignado aleatoriamente a una de las tres o más condiciones.
La prueba examina los rangos de los datos generados en cada periodo de tiempo para
determinar si las variables comparten la misma distribución continua de su origen.
Es especialmente útil cuando la variable dependiente es continua pero su distribución se
encuentra sesgada.

Esta prueba puede utilizarse en aquellas situaciones en las que se seleccionan n grupos
de k elementos de forma que los elementos de cada grupo sean lo más parecidos posible
entre sí, y a cada uno de los elementos del grupo se le aplica uno de entre k
''tratamientos'', o bien cuando a cada uno de los elementos de una muestra de tamaño n
se le aplican los k ''tratamientos''.

La hipótesis nula que se contrasta es que las respuestas asociadas a cada uno de los
''tratamientos'' tienen la misma distribución de probabilidad o distribuciones con la
misma mediana, frente a la hipótesis alternativa de que por lo menos la distribución de
una de las respuestas difiere de las demás. Para poder utilizar esta prueba las respuestas
deben ser variables contínuas y estar medidas por lo menos en una escala ordinal.
Los datos se disponen en una tabla en la que en cada fila se recogen las respuestas de
los k elementos de cada grupo a los k tratamientos:

Grupo\ Tratamiento 1 2 ... j ... k

1 x11 x12 ... x1j ... x1k


... .... .... ... .... ... ....
i xi1 xi2 ... xij ... xik
... ... ... ... ... ... ...
n xn1 xn2 ... xnj ... xnk
A las observaciones de cada fila se les asignan rangos de menor a mayor desde 1 hasta
k; a continuación se suman los rangos correspondientes a cada columna, siendo RJ la
suma correspondiente a la columna j-ésima. Si la hipótesis nula es cierta, la distribución
de los rangos en cada fila se debe al azar, y es de esperar que la suma de los rangos
correspondientes a cada columna sea aproximadamente igual a n(k + 1)/2. La prueba de
Friedman determina si las RJ observadas difieren significativamente del valor esperado
bajo la hipótesis nula.
El estadístico de prueba es:
Para ver esta pel’cula, debe
disponer de QuickTimeª y de
un descompresor .

Si H0 es cierta y el número de columnas y/o de filas es moderadamente grande la


distribución de F se aproxima a una chi-cuadrado con k - 1 grados de libertad; de forma
que se rechaza la hipótesis nula para valores de F superiores al valor crítico para el nivel
de significación fijado.

Potrebbero piacerti anche