Sei sulla pagina 1di 18

correos: mariagrabiela3110@gmail.

com

yuruanimartinez@gmail.com

jf881764@gmail.com

fjesus126@gmail.com

1. Jesús Fernández presentación del grupo ( al presentar nombrar cada


uno de los puntos de cada uno) y primer punto: El método
2. Karla Martínez segundo punto: La estadística a lo largo del tiempo
3. María Palacios tercer y cuarto punto: La Estadística y El método
Estadístico
4. Yeri Cordero cuarto y cuarto y quinto punto: Proceso del Método
Estadístico y aplicaciones del Método Estadístico

Para el trabajo recordar agregar imágenes, índice, introducción y


conclusión

Conceptos de los puntos para el trabajo

El Método Estadístico

El método estadístico consiste en una secuencia de procedimientos


para el manejo de los datos cualitativos y cuantitativos de la
investigación. Dicho manejo de datos tiene por propósito la
comprobación, en una parte de la realidad, de una o varias
consecuencias verificables deducidas de la hipótesis general de la
investigación. Las características que adoptan los procedimientos
propios del método estadístico dependen del diseño de investigación
seleccionado para la comprobación de la consecuencia verificable en
cuestión. El método estadístico tiene las siguientes etapas:
1. Recolección (medición)
2. Recuento (cómputo)
3. Presentación
4. Síntesis
5. Análisis Tales etapas siempre se encuentran en el orden descrito y
cada una de ellas.

Procesos del Método Estadístico

1. Recolección (medición)
En esta etapa se recoge la información cualitativa y cuantitativa
señalada en el diseño de la investigación. En vista de que los datos
recogidos suelen tener diferentes magnitudes o intensidades en
cada elemento observado (por ejemplo el peso o la talla de un grupo
de personas), a dicha información o datos también se les conoce
como variables. Por lo anterior, puede decirse que esta etapa del
método estadístico consiste en la medición de las variables. La
recolección o medición puede realizarse de diferentes maneras; a
veces ocurre por simple observación y en otras ocasiones se
requiere de complejos procedimientos de medición; en algunas
ocasiones basta con una sola medición y en otras se requiere una
serie de ellas a lo largo de amplios períodos de tiempo. La calidad
técnica de esta etapa es fundamental ya que de ella depende que se
disponga de datos exactos y confiables en los cuales se
fundamenten las conclusiones de toda la investigación. Es tan
grande la importancia . de esta etapa que algunas clasificaciones de
las investigaciones se basan en la forma en que ocurre la medición;
por ejemplo si la información es recogida en una sola ocasión suele
decirse que la investigación es transversal; en cambio, si la
información es recogida a lo largo del tiempo se denomina
longitudinal a la investigación. En ocasiones, la recolección de la
información debe ocurrir en grupos tan grandes de individuos que se
hace impráctico tratar de abarcar a todos ellos; entonces es cuando
se ponen en práctica procedimientos de muestreo. Tales
procedimientos de muestreo estánsubordinados a la consecuencia
verificable que se desea comprobar y al diseño de investigación
seleccionado.
2. Recuento (cómputo)
En esta etapa del método estadlstico la información recogida es
sometida a revisión, clasificación y cómputo numérico. A veces el
recuento puede realizarse de manera muy simple, por ejemplo con rayas
o palotes; en otras ocasiones se requiere el empleo de tarjetas con los
datos y, en investigaciones con mucha información y muchos casos,
puede requerirse el empleo de computadoras y programas especiales
para el manejo de bases de datos . En términos generales puede
decirse que el recuento consiste en la cuantificación de la frecuencia
conque aparecen las diversas caracterlsticas medidas en los elementos
en estud io; por ejemplo: el número de personas de sexo femenino y el
de personas de sexo masculino o el número de niños con peso menor a
3 kilos y el número de niños con peso igualo mayor a dicha cifra.

3. Presentación
En esta etapa del método estadístico se elaboran los cuadros y los
gráficos que permiten una inspección precisa y rápida de los datos. La
elaboración de cuadros, que también suelen llamarse tablas, tiene por
propósito acomodar los datos de manera que se pueda efectuar una
revisión numérica precisa de los mismos. La elaboración de gráficos
tiene por propósito facilitar la inspección visual rápida de la información.
Casi siempre a cada cuadro con datos le puede corresponder una
gráfica pertinente que represente la misma información. Presentar la
misma información tanto en un cuadro como en su correspondiente
gráfico permite obtener una clara idea de la distribución de las
frecuencias de las características estudiadas. 4. Síntesis En esta etapa
la información es resumida en forma de medidas que permiten expresar
de manera sintética las principales propiedades numéricas de grandes
series o agrupamientos de datos. La condensación de la información, en
forma de medidas llamadas de resumen , tiene por propósito facilitar la
comprensión global de las características fundamentales de los
agrupamientos de datos. Tales med idas de resumen, al ser
comunicadas , permiten a los interlocutores evocar de una misma
manera la esencia de los datos; por ejemplo, cuando alguien informa
que el promedio de calificaciones de un grupo de alumnos es 9.6, en
una escala que va del O al 10, la imagen que se transmite es la de un
grupo con buen aprovechamiento escolar; igualmente, cuando se dice
que el porcentaje de defunciones con una cierta técnica quirúrgica es de
80%, las personas que escuchan se imaginan que se trata de un
procedimiento peligroso. La información cualitativa, como el sexo, la
ocupación o los tipos de enfermedades, requiere ser condensada a
través de medidas de resumen diferentes a la que se usan para
sintetizar la información cuantitativa o numérica como el peso, la talla o
la concentración de glucosa Entre las principales medidas de resumen
para sintetizar a los datos cualitativos se encuentran las razones , las
proporciones y las tasas . Entre las principales medidas para sintetizar
los datos cuantitativos se encuentra la moda y la amplitud, la mediana y
los percentiles y el promedio y la desviación estándar.

5. Análisis
En esta etapa , mediante fórmulas estadisticas apropiadas y el uso de
tablas específicamente diseñadas, se efectúa la comparación de las
medidas de resumen previamente calculadas : por ejemplo, si antes se
han calculado los promedios de peso de dos grupos de personas
sometidas a diferentes dietas, el análisis estadístico de los datos
consiste en la comparación de ambos promedios con el propósito de
decidír si parece haber diferencias significativas entre tales pro medíos.
Ex isten procedimientos bien establecidos para la comparación de las
medidas de resumen que se hayan calculado en la etapa de descripción
, Tales procedimientos, conocidos como pruebas de análisis estadístico
cuentan con sus fórmulas y procedimientos propios, Cada prueba de
análisis estadistico debe utilizarse siempre en función del tipo de diseño
de investigación que se haya seleccionado para la comprobación de
cada consecuencia verificable deducida a partir de la hipótesis general
de investigación , En los primeros párrafos se mencionó que el método
estadístico es una secuencia ordenada de procedimientos para el
manejo de los datos en las investigaciones. Luego de haber revisado las
características y propósitos de las diversas etapas del método, parece
quedar claro que tal secuencia guarda siempre el orden descrito. Es
lógico efectuar el recuento de la información ( 2a, etapa , Recuento) solo
hasta que previamente fue recogida ( 1 a, etapa, Recolección o
Medición). Antes de condensar la información en la etapa de síntesis (
4a, etapa) siempre conviene haberla comprendido a través de la
elaboración de cuadros y gráficos ( 3a, etapa Presentación). Desde
luego es impensable efectuar análisis estadístico ( 5a. etapa, Análisis)
para comparar medidas de resumen si antes estas no han sido
calculadas ( 4a . etapa, Síntesis) Por lo anterior, puede considerarse a la
estadística como una disciplina que posee su propio método, Tal
disciplina emplea conocimientos de otras ciencias como la lógica y la
matemática y por ello se dice que la estadística es una forma razonable
de emplear el sentido común y la aritmética para el manejo de los datos
en las investigaciones.

Historia de la estadística
Se puede afirmar que la Historia de la Estadística comienza alrededor
de 1750, aunque con el tiempo, ha habido cambios en la interpretación
de la palabra "estadística". En un principio, el significado estaba
restringido a la información acerca de los estados. Este fue extendido
posteriormente para incluir toda colección de información de cualquier
tipo, y más tarde fue extendido para incluir el análisis e interpretación de
los datos. En términos modernos, "estadística" significa tanto conjuntos
de información recopilada, por ejemplo registros de temperatura,
contabilidad nacional, como trabajo analítico que requiera inferencia
estadística.

En el siglo XVIII, el término "estadística" designaba la colección


sistemática de datos demográficos y económicos por los estados. A
principios del siglo XIX, el significado de "estadística" fue ampliado para
incluir la disciplina ocupada de recolectar, resumir y analizar los datos.
Hoy la estadística es ampliamente usada en el gobierno, los negocios y
todas las ciencias. Las computadoras electrónicas han acelerado la
estadística computacional y ha permitido a los estadísticos el desarrollo
de métodos que usan recursos informáticos intensivamente.
El término "estadística matemática" designa las teorías matemáticas de
la probabilidad e inferencia estadística, las cuales son usadas en la
estadística aplicada. La relación entre estadística y probabilidades se fue
desarrollando con el tiempo. En el siglo XIX, las estadísticas usaron de
forma gradual la teoría de probabilidades, cuyos resultados iniciales
fueron encontrados en los siglos XVII y XVIII, particularmente en el
análisis de los juegos de azar (apuestas). Para 1800, la astronomía
usaba modelos probabilísticos y teorías estadísticas, particularmente el
método de los mínimos cuadrados, el cual fue inventado por Legendre y
Gauss. La incipiente teoría de las probabilidades y estadísticas fue
sistematizada y extendida por Laplace; después de este, las
probabilidades y estadísticas han experimentado un continuo desarrollo.
En el siglo XIX, el razonamiento estadístico y los modelos probabilísticos
fueron usados por las ciencias sociales para el avance las nuevas
ciencias de psicología experimental y sociología, y por las ciencias
físicas en termodinámica y mecánica estadística. El desarrollo del
razonamiento estadístico estuvo fuertemente relacionado con el
desarrollo de la lógica inductiva y el método científico.
La estadística puede ser considerada no como una rama de las
matemáticas, sino como una ciencia matemática autónoma, como las
ciencias de la computación y la investigación de operaciones. A
diferencia de las matemáticas, la estadística tuvo sus orígenes en la
administración pública. Fue usada en la demografía y la economía. Con
el énfasis en el aprendizaje de los datos y en la elaboración de las
predicciones más acertadas, la estadística se ha solapado con la teoría
de la decisión y la microeconomía. Con el enfoque de los datos, la
estadística se ha solapado con la ciencia de la información y las ciencias
de la computación.
Etimología
El término «estadística», en última instancia, deriva la palabra del
neolatín statisticum collegium (consejo de estado) y la palabra italiana
statista (‘hombre de estado’ o político). La palabra alemana statistik,
introducida primeramente por Godofredo Achenwall (1749),
originalmente designaba el análisis de datos acerca del estado,
significando la ‘ciencia del estado’ (llamado posteriormente «aritmética
política» en idioma inglés). A principios del siglo XIX, adquirió el
significado de colección y clasificación de datos. El término fue
introducido en Inglaterra en 1792 por sir John Sinclair cuando publicó el
primero de los 21 volúmenes titulados Statistical account of Scotland.1
De esta forma, el propósito original principal de la statistik eran los datos
usados por el gobierno y los cuerpos administrativos (a menudo
centralizados). La colección de datos acerca de estados y localidades
continúa, en mayor parte a través de servicios estadísticos nacionales e
internacionales. En particular, los censos proveen frecuentemente
información actualizada acerca de la población.
El primer libro en tener ‘estadísticas’ en su título fue “Contributions to
Vital Statistics” por Francis GP Neison, registrado a la Medical Invalid
and General Life Office (1 era edición 1845, 2nda ed. 1846, 3.ª ed.
1857).[cita requerida]
Orígenes en probabilidades
El uso de los métodos estadísticos se remonta al menos al siglo V a. C.
El historiador Tucídides en su Historia de la Guerra del Peloponeso2
describe como los atenienses calculaban la altura de la muralla de
Platea, contando el número de ladrillos de una sección expuesta de la
muralla que estuviera lo suficientemente cerca como para contarlos. El
conteo era repetido varias veces por diferentes soldados. El valor más
frecuente (la moda en términos más modernos) era tomado como el
valor del número de ladrillos más probable. Multiplicando este valor por
la altura de los ladrillos usados en la muralla les permitía a los
atenienses determinar la altura de las escaleras necesarias para trepar
las murallas.
En el poema épico indio Majabhárata (libro 3: la historia del rey Nala), el
rey Ritupama estimaba el número de frutas y hojas (2095 frutas y
50,00,000 hojas (5 crores)) en dos grandes hojas de un árbol Vibhitaka
contándolos en un solo vástago. Este número era luego multiplicado por
el número de vástagos en las ramas. Este estimado fue posteriormente
verificado y se halló que estaba muy cerca del número verdadero. Con el
conocimiento de este método Nala pudo subsecuentemente reconquistar
su reino.
El primer escrito de estadística fue encontrado en un libro del siglo IX
titulado Manuscrito sobre el descifrado de mensajes criptográficos,
escrito por Al-Kindi (801-873). En su libro, Al-Kindi da una descripción
detallada sobre el uso de las estadísticas y análisis de frecuencias en el
descifrado de mensajes, este fue el nacimiento tanto de la estadística
como del criptoanálisis.34
La Prueba del Pyx es una prueba de pureza de la moneda del Royal
Mint, que ha sido llevada a cabo regularmente desde el siglo XII. La
prueba en sí misma está basada en métodos de muestreo estadístico.
Después de acuñar una serie de monedas ―originalmente de 10 libras
de plata― una moneda singular era colocada en el Pyx (una caja en la
Abadía de Westminster). Después de un tiempo ―ahora una vez al
año― las monedas son retiradas y pesadas. Luego, una muestra de
monedas retiradas de la caja es probada por pureza.
La Nuova Crónica, una historia de Florencia del siglo XIV escrita por el
banquero florentino y oficial Giovanni Villani, incluye mucha información
estadística.sobre la población, ordenanzas, comercio, educación y
edificaciones religiosas, y ha sido descrito como la primera introducción
de la estadística como elemento positivo en la historia, 5 aunque ni el
término ni el concepto de la estadística como campo específico existía
aún. Esto se demostró que era incorrecto después del hallazgo del libro
de Al-Kindi sobre análisis de frecuencias.34
Aunque era un concepto conocido por los griegos, la media aritmética no
fue generalizada a más de dos valores hasta el siglo 16. La invención
del sistema decimal por Simon Stevin en 1585 parece haber facilitado
estos cálculos. Este método fue adoptado por primera vez en
astronomía por Tycho Brahe, el que intentaba reducir errores en sus
estimados de las localizaciones de varios cuerpos celestiales.
La idea de la mediana se originó en el libro de navegación de Edward
Wright (Certaine errors in navigation) en 1599 en una sección
concerniente a la determinación de una localización con un compás.
Wright sintió que este valor era el que más probablemente estuviera
correcto en una serie de observaciones.
John Graunt en su libro Natural and Political Observations Made upon
the Bills of Mortality, estimó la población de Londres en 1662 a través de
registros parroquiales. Él sabía que había cerca de 13,000 funerales al
año en Londres y que de cada once familias tres personas morían por
año. El estimo de los registros parroquiales que el tamaño promedio de
las familias era 8 y calculó que la población de Londres era de cerca de
384,000. Laplace en 1802 estimó la población de Francia con un método
similar.
Los métodos matemáticos de la estadística surgieron de la teoría de
probabilidades, la cual tiene sus raíces en la correspondencia entre
Pierre de Fermat y Blaise Pascal (1654). Christiaan Huygens (1657)
proveyó el primer tratamiento científico sobre el tema que se conozca
hasta la fecha. El libro Ars Conjectandi de Jakob Bernoulli (póstumo
1713) y La doctrina de las probabilidades (1718) de Abraham de Moivre
trataron el tema como una rama de las matemáticas. En su libro,
Bernoulli introdujo la idea de representar certeza completa como el
número 1 y la probabilidad como un número entre cero y uno.
Galileo luchó contra el problema de errores en las observaciones y había
formulado ambiguamente el principio de que los valores más probables
de cantidades desconocidas serían aquellos que hicieran los errores en
las ecuaciones razonablemente pequeños. El estudio formal en teoría de
errores puede ser originado en el libro de Roger Cotes (Opera
Miscellanea, póstumo 1750). Tobias Mayer, en su estudio de los
movimientos de la Luna (Kosmographische Nachrichten, Núremberg,
1750), inventó el primer método formal para estimar cantidades
desconocidas generalizando el promedio de las observaciones bajo
circunstancias idénticas al promedio de los grupos de ecuaciones
similares.
Un primer ejemplo de lo que posteriormente fue conocido como la curva
normal fue estudiado por Abraham de Moivre, quien trazó esta curva en
noviembre 12, 1733.6 De Moivre estaba estudiando el número de caras
que ocurrían cuando una moneda “justa” era lanzada.
En sus memorias ―Un intento por mostrar la emergente ventaja de
tomar la media de un número de observaciones en astronomía
práctica― preparada por Thomas Simpson en 1755 (impreso en 1756)
aplicaba por primera vez la teoría a la discusión de errores en
observaciones. La reimpresión (1757) de sus memorias sostiene el
axioma que errores positivos y negativos son igualmente probables, y
que hay ciertos valores límites dentro de los cuales todos los errores se
encuentran; los errores continuos son discutidos y se provee una curva
de probabilidad. Simpson discutió varias posibles distribuciones de error.
Primero consideró la distribución uniforme y después la distribución
triangular discreta simétrica, seguida por la distribución triangular
continua simétrica.
Ruder Boškovic en 1755 se basó en su trabajo sobre la forma de la
Tierra propuesto en el libro De litteraria expeditione per pontificiam
ditionem ad dimetiendos duos meridiani gradus a PP. Maire et Boscovicli
para proponer que el verdadero valor de una serie de observaciones
sería aquel que minimizara la suma de los errores absolutos. En
terminología moderna este valor es la media.
Johann Heinrich Lamber en su libro de 1765 Anlage zur Architectonic
propuso el semicírculo como una distribución de errores:

con –1 = x = 1.
Pierre-Simon Laplace (1774) hizo su primer intento de deducir una regla
para la combinación de observaciones desde los principios de la teoría
de las probabilidades. El representó la ley de a probabilidad de errores
mediante una curva y dedujo una fórmula para la media de tres
observaciones.
Laplace en 1774 notó que la frecuencia de un error podía ser expresada
como una función exponencial de su magnitud una vez descartado el
signo.78 Esta distribución es ahora conocida como distribución de
Laplace.
Lagrange propuso una distribución parabólica de errores en 1776:

con -1 = x = 1.
Laplace en 1778 publicó su segunda ley de errores en la cual notó que
la frecuencia de un error era proporcional a la función exponencial del
cuadrado de su magnitud. Esto fue descubierto subsecuentemente por
Gauss (posiblemente en 1797) y es ahora mejor conocida como
distribución normal, la cual es de importancia central en la estadística.9
Esta distribución fue referida como «normal» por primera vez por Pierce
en 1873, quien estaba estudiando las medidas de error cuando un objeto
era dejado caer sobre una superficie de madera. 10 Escogió el término
«normal» debido a su ocurrencia frecuente en variables que ocurrían en
la naturaleza.
Lagrange también sugirió en 1781 otras dos distribuciones para errores
―una distribución coseno―:

con -1 = x = 1 y una distribución logarítmica

con -1 = x = 1 donde || es el --valor absoluto-- de x.


Laplace obtuvo una fórmula (1781) para la ley de facilidad de un error
(un término acuñado por Joseph Louis Lagrange, 1774), pero esta
conllevaba a ecuaciones inmanejables. Daniel Bernoulli (1778) introdujo
el principio del máximo producto de las probabilidades de un sistema de
errores concurrentes.
Laplace, en una investigación del movimiento de Saturno y Júpiter en
1787, generalizó el método de Mayer usando diferentes combinaciones
lineales de un grupo de ecuaciones.
En 1802 Laplace estimó la población en Francia a 28,328,612. 11 Él
calculó este número usando la cantidad de nacimientos del año anterior
y el dato del censo de tres comunidades. Los datos de los censos de
estas comunidades mostraron que tenían 2,037,615 personas y que el
número de nacimientos era de 71,866. Asumiendo que estas muestras
eran representativas de Francia, Laplace produjo un estimado para la
población entera.
El método de los mínimos cuadrados, el cual era usado para minimizar
errores en la medición de datos, fue publicado independientemente por
Adrien-Marie Legendre (1805), Robert Adrain (1808), y Carl Friedrich
Gauss (1809).Gauss había usado el método en s famosa predicción en
1801 de la localización del planeta enano Ceres. Las observaciones en
las que Gauss basó sus cálculos fueron hechas por el monje italiano
Piazzi.

Que es el Método
Método es una palabra que proviene del término griego methodos
(“camino” o “vía”) y que se refiere al medio utilizado para llegar a un fin.
Su significado original señala el camino que conduce a un lugar.

Francis Bacon

La palabra método puede referirse a diversos conceptos. Por ejemplo, a


los métodos de clasificación científica. Esta es la disciplina que permite a
los biólogos agrupar y separar en categorías a los diversos organismos y
conjuntos.

El método científico, por su parte, es la serie de pasos que sigue una


ciencia para obtener saberes válidos (es decir, que pueden verificarse a
través de un instrumento fiable). Gracias al respeto por un método
científico, un investigador logra apartar su subjetividad y obtiene
resultados más cercanos a la objetividad o a lo empírico.

Según el filósofo inglés Francis Bacon, las distintas etapas del método
científico son la observación (que permite analizar un fenómeno según
se aparece ante la realidad); la inducción (para distinguir los principios
particulares de cada una de las situaciones observadas); la hipótesis (la
planteada a partir de la observación y de acuerdo a ciertos criterios); la
prueba de la hipótesis mediante la experimentación; la demostración o
refutación de la hipótesis; y el establecimiento de la tesis o teoría
científica (las conclusiones).

Otro método conocido es el hipotético deductivo, que es una descripción


posible del método científico. Esta metodología sostiene que una teoría
científica nunca puede calificarse como verdadera: en cambio, lo
correcto es considerarla como no refutada.

El método racional es el utilizado para obtener conocimiento sobre


fenómenos que no son susceptibles de comprobación experimental.
Entre las áreas que se apoyan en este método para la resolución de sus
inquietudes, destaca la filosofía. Gracias a él puede cuestionar la
realidad a partir del método racional, basado en la observación y en la
aceptación de ciertas existencias que poseen evidencia en la realidad. A
través de él puede conseguirse comprender de una forma más amplia la
humanidad, la vida, el mundo y al ser.

El método experimental es aquel que se caracteriza por comprobar,


midiendo las variaciones y los efectos de una situación. Las ciencias que
más lo aplican son las ciencias naturales y biológicas.

El método estadístico se encarga de recopilar datos numéricos, y de


interpretarlos y elaborar relaciones entre determinados grupos de
elementos para determinar tendencias o generalidades.

Los términos método y técnica, erróneamente confundidos

La técnica consiste en las acciones precisas para llevar a cabo un


método. Un ejemplo donde se entiende claramente esta diferencia es en
el plano deportivo. Todos los tenistas poseen una técnica (revés,
servicio, forma de colocar los pies o sostener la raqueta,etc), se trata de
una habilidad natural o conseguida a partir de un arduo trabajo y que se
utiliza en función de un método (fatigar al adversario, jugar desde el
fondo o pegado a la red, etc). En pocas palabras, en el método se
organizan y estructuran las técnicas concretas que servirán para
conseguir un objetivo determinado, en el caso del tenis, ganar el partido.

Que es la Estadística
La estadística (la forma femenina del término alemán Statistik, derivado
a su vez del italiano statista, "hombre de Estado")1es una rama de las
matemáticas y una herramienta que estudia usos y análisis provenientes
de una muestra representativa de datos, que busca explicar las
correlaciones y dependencias de un fenómeno físico o natural, de
ocurrencia en forma aleatoria o condicional.

Es transversal a una amplia variedad de disciplinas, desde la física hasta


las ciencias sociales, desde las ciencias de la salud hasta el control de
calidad. Además, se usa en áreas de negocios o instituciones
gubernamentales ya que su principal objetivo es describir al conjunto de
datos obtenidos para la toma de decisiones o bien, para realizar
generalizaciones sobre las características observadas.

En la actualidad, la estadística es una ciencia que se encarga de


estudiar una determinada población por medio de la recolección,
recopilación e interpretación de datos. Del mismo modo, también es
considerada una técnica especial apta para el estudio cuantitativo de los
fenómenos de masa o colectivo.

La estadística se divide en dos grandes áreas:

Estadística descriptiva: Se dedica a la descripción, visualización y


resumen de datos originados a partir de los fenómenos de estudio. Los
datos pueden ser resumidos numérica o gráficamente. Su objetivo es
organizar y describir las características sobre un conjunto de datos con
el propósito de facilitar su aplicación, generalmente con el apoyo de
gráficas, tablas o medidas numéricas.
Ejemplos básicos de parámetros estadísticos son: la media y la
desviación estándar.
Ejemplos gráficos son: histograma, pirámide poblacional, gráfico
circular, entre otros.

Estadística inferencial: Se dedica a la generación de los modelos,


inferencias y predicciones asociadas a los fenómenos en cuestión
teniendo en cuenta la aleatoriedad de las observaciones. Se usa para
modelar patrones en los datos y extraer inferencias acerca de la
población bajo estudio. Estas inferencias pueden tomar la forma de
respuestas a preguntas sí/no (prueba de hipótesis), estimaciones de
unas características numéricas (estimación), pronósticos de futuras
observaciones, descripciones de asociación (correlación) o
modelamiento de relaciones entre variables (análisis de regresión).
Otras técnicas de modelamiento incluyen análisis de varianza, series de
tiempo y minería de datos. Su objetivo es obtener conclusiones útiles
para lograr hacer deducciones acerca de la totalidad de todas las
observaciones hechas, basándose en la información numérica.

Ambas ramas (descriptiva e inferencial) comprenden la estadística


aplicada, pero la estadística inferencial, por su parte, se divide en
estadística paramétrica y estadística no paramétrica.

Existe también una disciplina llamada estadística matemática, la que se


refiere a las bases teóricas de la materia. La palabra «estadísticas»
también se refiere al resultado de aplicar los algoritmos estadísticos a un
conjunto de datos, como en estadísticas económicas, estadísticas
criminales, etcétera.
Estado actual

Hoy el uso de la estadística se ha extendido más allá de sus orígenes


como un servicio al Estado o al gobierno. Personas y organizaciones
usan la estadística para entender datos y tomar decisiones en ciencias
naturales y sociales, medicina, negocios y otras áreas. La estadística es
entendida generalmente no como un sub-área de las matemáticas sino
como una ciencia diferente «aliada». Muchas universidades tienen
departamentos académicos de matemáticas y estadística
separadamente. La estadística se enseña en departamentos tan
diversos como psicología, sociología, educación y salud pública.
Regresión lineal – gráficos de dispersión en estadística.

Al aplicar la estadística a un problema científico, industrial o social, se


comienza con un proceso o población a ser estudiado. Esta puede ser la
población de un país, de granos cristalizados en una roca o de bienes
manufacturados por una fábrica en particular durante un periodo dado.
También podría ser un proceso observado en varios instantes y los
datos recogidos de esta manera constituyen una serie de tiempo.

Por razones prácticas, en lugar de compilar datos de una población


entera, usualmente se estudia un subconjunto seleccionado de la
población, llamado muestra. Datos acerca de la muestra son recogidos
de manera observacional o experimental. Los datos son entonces
analizados estadísticamente lo cual sigue dos propósitos: descripción e
inferencia.

El concepto de correlación es particularmente valioso. Análisis


estadísticos de un conjunto de datos puede revelar que dos variables
(esto es, dos propiedades de la población bajo consideración) tienden a
variar conjuntamente, como si hubiera una conexión entre ellas. Por
ejemplo, un estudio del ingreso anual y la edad de muerte podría resultar
en que personas pobres tienden a tener vidas más cortas que personas
de mayor ingreso. Las dos variables se dice que están correlacionadas.
Sin embargo, no se puede inferir inmediatamente la existencia de una
relación de causalidad entre las dos variables. El fenómeno
correlacionado podría ser la causa de una tercera, previamente no
considerada, llamada variable confusora.

Si la muestra es representativa de la población, inferencias y


conclusiones hechas en la muestra pueden ser extendidas a la
población completa. Un problema mayor es el de determinar cuán
representativa es la muestra extraída. La estadística ofrece medidas
para estimar y corregir por aleatoriedad en la muestra y en el proceso de
recolección de los datos, así como métodos para diseñar experimentos
robustos como primera medida, ver diseño experimental.

El concepto matemático fundamental empleado para entender la


aleatoriedad es el de probabilidad. La estadística matemática (también
llamada teoría estadística) es la rama de las matemáticas aplicadas que
usa la teoría de probabilidades y el análisis matemático para examinar
las bases teóricas de la estadística.

El uso de cualquier método estadístico es válido solo cuando el sistema


o población bajo consideración satisface los supuestos matemáticos del
método. El mal uso de la estadística puede producir serios errores en la
descripción e interpretación, lo cual podría llegar a afectar políticas
sociales, la práctica médica y la calidad de estructuras tales como
puentes y plantas de reacción nuclear.

Incluso cuando la estadística es correctamente aplicada, los resultados


pueden ser difíciles de interpretar por un inexperto. Por ejemplo, el
significado estadístico de una tendencia en los datos, que mide el grado
al cual la tendencia puede ser causada por una variación aleatoria en la
muestra, puede no estar de acuerdo con el sentido intuitivo. El conjunto
de habilidades estadísticas básicas (y el escepticismo) que una persona
necesita para manejar información en el día a día se refiere como
«cultura estadística».
Aplicación de la Estadística
Investigar cada concepto según la lámina de power poin
Importancia del método estadístico en los procesos químicos
Investigar

Potrebbero piacerti anche