Sei sulla pagina 1di 10

República Bolivariana de Venezuela

Universidad Nacional Experimental Politécnica


“Antonio José de Sucre”
Vice-Rectorado Barquisimeto

Inferencia Estadística

Integrantes:
Mauricio Mujica. Exp: 20162-0026
Jesús Querales. Exp: 20151-0081

Barquisimeto, Septiembre del 2019


Introducción
El trabajo de investigación presentado a continuación tiene por objetivo; dar a conocer e
introducir al manejo del concepto de inferencia estadística, a través del método clásico, ya
sea según la estimación de parámetros o de las pruebas de hipótesis. También familiarizar al
lector con el contenido de regresión lineal; los árboles de decisión, su uso y ejemplos en el
campo de la ingeniería. Todo esto con la finalidad de dar por completo el curso de
Probabilidad y Estadística.
Inferencia estadística
La teoría de la inferencia estadística consiste en aquellos métodos por los cuales se realizan
inferencias o generalizaciones acerca de una población. La tendencia actual es a distinguir
entre el método clásico de estimar un parámetro de población, en el que las inferencias se
basan estrictamente en informaciones obtenidas a partir de una muestra aleatoria
seleccionada de la población, y el método bayesiano, el cual utiliza el conocimiento subjetivo
previo a cerca de la distribución de probabilidad de los parámetros desconocidos, junto con
la información proporcionada por los datos de la muestra.
La inferencia estadística puede dividirse en dos áreas principales: estimación y prueba de
hipótesis, tratadas por separado. Para distinguir con claridad entre las dos áreas, considérense
los siguientes ejemplos:
Un candidato que aspira a un puesto público desde estimar la verdadera proporción de
electores que lo favorecen, mediante la obtención de opiniones a partir de una muestra
aleatoria de 100 electores. La fracción de votantes que favorecen al candidato en la muestra
puede usarse como una estimación de la verdadera proporción en la población del electorado.
El conocimiento de la distribución muestral de la proporción permite establecer el grado de
la exactitud de la estimación. Éste problema queda en el área de estimación.
Ahora considérese el caso en el cual un ama de casa quiere saber si la cera para pisos de la
marca A es más resistente al uso que la otra de la marca B. Esta persona puede suponer que
la marca A es mejor que la B y, después de efectuar las pruebas apropiadas, aceptar o rechazar
esta hipótesis. En este ejemplo no se intenta estimar un parámetro, sino solo llegar a una
decisión correcta con respecto a una hipótesis formulada.

Estimación de parámetros
Consiste en asignar un valor concreto al parámetro o parámetros que caracterizan la
distribución de probabilidad de la población. Cuando se estima un parámetro poblacional,
aunque el estimador que se utiliza posea todas las propiedades deseables, se comete un error
de estimación que es la diferencia entre la estimación y el verdadero valor del parámetro. El
error de estimación es desconocido por lo cual es imposible saber en cada caso cual ha sido
la magnitud o el signo del error; para valorar el grado de precisión asociado con una
estimación puntual se parte de dicha estimación para construir un intervalo de confianza. En
síntesis, un intervalo de confianza está formado por un conjunto de valores numéricos tal que
la probabilidad de que éste contenga al verdadero valor del parámetro puede fijarse tan
grande como se quiera. Esta probabilidad se denomina grado de confianza del intervalo, y la
amplitud de éste constituye una medida del grado de precisión con el que se estima el
parámetro.
Existen dos formas de estimar parámetros: la estimación puntual y la estimación por intervalo
de confianza. En la primera se busca, con base en los datos muestrales, un único valor
estimado para el parámetro. Para la segunda, se determina un intervalo dentro del cual se
encuentra el valor del parámetro, con una probabilidad determinada. Si el objetivo del
tratamiento estadístico inferencial, es efectuar generalizaciones acerca de la estructura,
composición o comportamiento de las poblaciones no observadas, a partir de una parte de la
población, será necesario que la parcela de población examinada sea representativa del total.
Por ello, la selección de la muestra requiere unos requisitos que lo garanticen, debe ser
representativa y aleatoria.
Además, la cantidad de elementos que integran la muestra (el tamaño de la muestra) depende
de múltiples factores, como el dinero y el tiempo disponibles para el estudio, la importancia
del tema analizado, la confiabilidad que se espera de los resultados, las características propias
del fenómeno analizado, etcétera. Así, a partir de la muestra seleccionada se realizan algunos
cálculos y se estima el valor de los parámetros de la población tales como la media, la
varianza, la desviación estándar, o la forma de la distribución, etc.

Prueba de Hipótesis
Para explicar este método nos valdremos de la definición de Hipótesis: “Suposición hecha a
partir de unos datos que sirve de base para iniciar una investigación o una argumentación”.

Partiendo de esta, podemos decir que la Prueba de hipótesis es un método de la Inferencia


Estadística el cual se trata de tomar una decisión en base a una hipótesis formulada de
antemano y una muestra de la población de la que podamos recabar datos que apoyen o no
nuestra hipótesis. Si la muestra es consistente con la hipótesis entonces la apoya, en caso
contrario, si la muestra es inconsistente con la hipótesis entonces la rechaza.
En cuanto a la hipótesis hay que tener algo en claro, el aceptar una hipótesis no es sinónimo
que sea completamente cierta, si no que no hay pruebas suficientes para rechazarla. En
cambio, el rechazar una hipótesis implica que es muy poco probable lograr el valor esperado
en la hipótesis.

Algo a tomar en cuenta es que en dado caso de querer probar que algo es cierto, se debe
formular la hipótesis de manera que lo que arroje la muestra, sea el rechazo a esta, todo esto
debido a que El Rechazo de una hipótesis asegura más la certeza de algo supuesto, que la
aceptación de la hipótesis.
La hipótesis original que tenemos es llamada Hipótesis Nula (H0), esta hipótesis al ser
rechazada da como lugar la aceptación de una hipótesis Alternativa (H1).
Entre los tipos de prueba de hipótesis se encuentran: Pruebas de 1 y 2 colas, pruebas de una
muestra y prueba de dos muestras.

Ejemplo de Prueba de Hipótesis


En el campo de la ingeniería muchas veces toca tomar decisiones importantes que pueden
afectar para bien o mal una empresa. A partir de una hipótesis cualquiera formulada, por
ejemplo, si un lote de cierta marca de repuestos (Siendo este la muestra aleatoria) es
conveniente mediante la inspección de sus equipos y sus posibles desperfectos en su exterior
o en su funcionamiento como diferencia de precisión, etc. La hipótesis podría ser que se
espera menos del 10% en defectos en el lote. Si llegase a ser mayor del 10% los desperfectos
hallados en el lote entonces la Hipótesis H0 sería rechazada y caeríamos en la hipótesis
Alternativa H1, y considerando ahora a H1 como el resultado obtenido, entonces la decisión
sería no invertir más en esa marca de repuestos debido a que se excedió el limite aceptado de
defectos en el lote.

Regresión Lineal
Para entender mejor el concepto de regresión lineal, es bueno asociarlo con el principio de
Causa y Efecto. Siendo la Causa, la/s razón/es de que algo ocurra, y el efecto, las
consecuencias del hecho ocurrido.
La Regresión Lineal sigue este concepto, en el buscamos resolver procesos donde hay varias
variables las cuales tienen algún tipo de relación, siendo las variables de regresión x1, x2,
x3, ….xn las variables independientes (por lo tanto no son aleatorias) que son controlados en
un proceso o experimento (Siendo estas las causas) y ocasionando la mayoría de las veces
una variable dependiente Y la cual no es controlada en el proceso (Siendo esta el Efecto).
Esta relación al ajustarse con el conjunto de datos experimentales da como resultado algo
llamado Ecuación de regresión, donde se expresa como Regresión de Y sobre x cuando es
una sola variable o Regresión de Y sobre x1, x2, x3, ….xn cuando son n cantidad de variables
independientes.
Las regresiones Lineales siempre deben ir acompañados de un gráfico, junto con unos datos,
los cuales nos permitirán ir estableciendo su relación.
Hay que tomar en cuenta, que en las regresiones lineales simples, como sugiere su nombre,
se trabaja con la ecuación de la recta (y= a +bx +ei) considerando además un término llamado
ei que describe el error en el ajuste del modelo en el i-esimo punto. Para poder calcular los
valores de a y b, se recurre al método de los mínimos cuadrados.

Ejemplos de Regresión Lineal


Es un proceso importante a la hora de establecer relaciones entre variables en un proceso,
comprenderla y aplicarla nos puede ayudar a interpretar resultados en un experimento como
por ejemplo bajar la presión o la temperatura a cierto fluido sometido a un proceso para
entender y predecir cómo se comporta, como aumenta o disminuye alguna de sus
características. Mediante Regresión Lineal podríamos entonces conocer que específicamente
necesitamos ejecutar en un proceso para lograr la mayor cantidad de resultados posibles en
ese proceso.

Árbol de Decisión
Es una forma gráfica y analítica de representar todos los eventos (sucesos) que pueden surgir
a partir de una decisión asumida en cierto momento; ayudan a tomar la decisión “más
acertada”, desde un punto de vista probabilístico, ante un abanico de posibles decisiones.
Además permite desplegar visualmente un problema y organizar el trabajo de cálculos que
deben realizarse. .
Según Hernández (2015) existen diferentes tipos de árboles de decisión, que son catalogados
según la situación y el resultado deseado, él los cataloga en los siguientes tipos:
1. Árbol de clasificación o binario: se usa cuando hay varias alternativas que se han
calculado anteriormente para obtener resultados más predecibles, para hacer uso de
estos, hay que trazar esquemas binarios y proyectar las diferentes variables o ramas
del árbol, gracias a las probabilidades de estas se puede predecir un poco el resultado.
Es usado en probabilidad, estadística y minería de datos.
2. Árbol de regresión: este tipo de árbol ayuda a determinar un único resultado ya que
se tiene la información necesaria para identificar una “ruta” óptima. Cuando se
construye este árbol se divide la información en secciones o subgrupos. Este tipo de
árbol es muy usado en bienes raíces.
3. Árbol de mejora: es usado cuando se desea tener un resultado más preciso; el árbol
se construye, luego se toma una variable, esta se calcula y se estructura para reducir
la incertidumbre y los errores a la hora de tomar decisiones. Este árbol es usado en
contabilidad y matemática.
4. Árboles mixtos entre regresión y clasificación: es usado para prever un resultado con
variables impredecibles, generalmente se usan indicadores 16 que muestren lo que ya
ha sucedido en un pasado (Sesgando un poco el resultado), Se usa generalmente en
ciencia (Castellanos, 2017)
5. Arboles de binomiales y trinomiales: son árboles donde cada rama es en sí un modelo
binomial su función es recrear el modelo binomial varias veces en el tiempo
suponiendo que el precio o costo de un elemento sube o baja con el tiempo. Estos
árboles con muy usados en la aplicación de opciones reales.

Pasos para hacer un Árbol de Decisión


1. Comienza con la decisión principal. Dibuja un pequeño recuadro para representar este
punto, luego dibuja una línea desde el recuadro hacia la derecha para cada posible solución
o acción. Etiquétalas correctamente.
2. Agrega nodos de decisión y probabilidad para expandir el árbol del siguiente modo:

 Si otra decisión es necesaria, dibuja otro recuadro.


 Si el resultado es incierto, dibuja un círculo (los círculos representan nodos de
probabilidad).
 Si el problema está resuelto, déjalo en blanco (por ahora).

Desde cada nodo de decisión, dibuja soluciones posibles. Desde cada nodo de probabilidad,
dibuja líneas que representen los resultados posibles. Si deseas analizar tus opciones de forma
numérica, incluye la probabilidad de cada resultado y el costo de cada acción.
3. Continúa con la expansión hasta que cada línea alcance un extremo, lo que significa que
no hay más decisiones que tomar o resultados probables que considerar. Luego, asigna un
valor a cada resultado posible. Puede ser una puntuación abstracta o un valor financiero.
Agrega triángulos para indicar los extremos.

Con un árbol de decisión, ya estás listo para comenzar a analizar la decisión que enfrentas.

Ejemplo de Árbol de Decisión

Probabilidad de ser
contratado: 0.4
Empresa
Pequeña

Empresa
Petroquímica Probabilidad de ser
Empresa contratado: 0.6
Grande

Ingeniero
Metalúrgico Probabilidad de ser
Empresa contratado: 0.5
Pequeña

Empresa
Metalmecánica

Probabilidad de ser
Empresa contratado: 0.5
Grande
Probabilidad de ser
contratado: 0.28
Empresa
Pequeña

Rama de
Diseño Probabilidad de ser
Empresa contratado: 0.76
Grande

Ingeniero
Mecánico Probabilidad de ser
Empresa contratado: 0.54
Pequeña

Rama de
Manufactura

Probabilidad de ser
Empresa contratado: 0.43
Grande
Bibliografía:

Diccionario Google: hipótesis


https://users.dcc.uchile.cl/~nbaloian/DSS-DCC/Temas/arbol_decision2.pdf
https://repository.eafit.edu.co/bitstream/handle/10784/12980/Elena_MayaLopera_2018.pdf
?sequence=2&isAllowed=y
https://www.ugr.es/~eues/webgrupo/Docencia/MonteroAlonso/estadisticaII/tema4.pdf
http://www.ub.edu/aplica_infor/spss/cap4-1.htm
Probabilidad y Estadística para Ingenieros 6ta Edición Autores: Walpole, Myers, Myers
Walpole, R.E. Meyers, R.H y Meyers, S.L. (1999). Probabilidad y Estadística para
Ingenieros. (6ta ed.). D.F, México: McGRAW-HILL.
Walpole, R.E y Meyers, R.H. (1989). Probabilidad y Estadística para Ingenieros. (3ra ed.).
D.F, México: McGRAW-HILL.

Potrebbero piacerti anche