Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Inferencia Estadística
Integrantes:
Mauricio Mujica. Exp: 20162-0026
Jesús Querales. Exp: 20151-0081
Estimación de parámetros
Consiste en asignar un valor concreto al parámetro o parámetros que caracterizan la
distribución de probabilidad de la población. Cuando se estima un parámetro poblacional,
aunque el estimador que se utiliza posea todas las propiedades deseables, se comete un error
de estimación que es la diferencia entre la estimación y el verdadero valor del parámetro. El
error de estimación es desconocido por lo cual es imposible saber en cada caso cual ha sido
la magnitud o el signo del error; para valorar el grado de precisión asociado con una
estimación puntual se parte de dicha estimación para construir un intervalo de confianza. En
síntesis, un intervalo de confianza está formado por un conjunto de valores numéricos tal que
la probabilidad de que éste contenga al verdadero valor del parámetro puede fijarse tan
grande como se quiera. Esta probabilidad se denomina grado de confianza del intervalo, y la
amplitud de éste constituye una medida del grado de precisión con el que se estima el
parámetro.
Existen dos formas de estimar parámetros: la estimación puntual y la estimación por intervalo
de confianza. En la primera se busca, con base en los datos muestrales, un único valor
estimado para el parámetro. Para la segunda, se determina un intervalo dentro del cual se
encuentra el valor del parámetro, con una probabilidad determinada. Si el objetivo del
tratamiento estadístico inferencial, es efectuar generalizaciones acerca de la estructura,
composición o comportamiento de las poblaciones no observadas, a partir de una parte de la
población, será necesario que la parcela de población examinada sea representativa del total.
Por ello, la selección de la muestra requiere unos requisitos que lo garanticen, debe ser
representativa y aleatoria.
Además, la cantidad de elementos que integran la muestra (el tamaño de la muestra) depende
de múltiples factores, como el dinero y el tiempo disponibles para el estudio, la importancia
del tema analizado, la confiabilidad que se espera de los resultados, las características propias
del fenómeno analizado, etcétera. Así, a partir de la muestra seleccionada se realizan algunos
cálculos y se estima el valor de los parámetros de la población tales como la media, la
varianza, la desviación estándar, o la forma de la distribución, etc.
Prueba de Hipótesis
Para explicar este método nos valdremos de la definición de Hipótesis: “Suposición hecha a
partir de unos datos que sirve de base para iniciar una investigación o una argumentación”.
Algo a tomar en cuenta es que en dado caso de querer probar que algo es cierto, se debe
formular la hipótesis de manera que lo que arroje la muestra, sea el rechazo a esta, todo esto
debido a que El Rechazo de una hipótesis asegura más la certeza de algo supuesto, que la
aceptación de la hipótesis.
La hipótesis original que tenemos es llamada Hipótesis Nula (H0), esta hipótesis al ser
rechazada da como lugar la aceptación de una hipótesis Alternativa (H1).
Entre los tipos de prueba de hipótesis se encuentran: Pruebas de 1 y 2 colas, pruebas de una
muestra y prueba de dos muestras.
Regresión Lineal
Para entender mejor el concepto de regresión lineal, es bueno asociarlo con el principio de
Causa y Efecto. Siendo la Causa, la/s razón/es de que algo ocurra, y el efecto, las
consecuencias del hecho ocurrido.
La Regresión Lineal sigue este concepto, en el buscamos resolver procesos donde hay varias
variables las cuales tienen algún tipo de relación, siendo las variables de regresión x1, x2,
x3, ….xn las variables independientes (por lo tanto no son aleatorias) que son controlados en
un proceso o experimento (Siendo estas las causas) y ocasionando la mayoría de las veces
una variable dependiente Y la cual no es controlada en el proceso (Siendo esta el Efecto).
Esta relación al ajustarse con el conjunto de datos experimentales da como resultado algo
llamado Ecuación de regresión, donde se expresa como Regresión de Y sobre x cuando es
una sola variable o Regresión de Y sobre x1, x2, x3, ….xn cuando son n cantidad de variables
independientes.
Las regresiones Lineales siempre deben ir acompañados de un gráfico, junto con unos datos,
los cuales nos permitirán ir estableciendo su relación.
Hay que tomar en cuenta, que en las regresiones lineales simples, como sugiere su nombre,
se trabaja con la ecuación de la recta (y= a +bx +ei) considerando además un término llamado
ei que describe el error en el ajuste del modelo en el i-esimo punto. Para poder calcular los
valores de a y b, se recurre al método de los mínimos cuadrados.
Árbol de Decisión
Es una forma gráfica y analítica de representar todos los eventos (sucesos) que pueden surgir
a partir de una decisión asumida en cierto momento; ayudan a tomar la decisión “más
acertada”, desde un punto de vista probabilístico, ante un abanico de posibles decisiones.
Además permite desplegar visualmente un problema y organizar el trabajo de cálculos que
deben realizarse. .
Según Hernández (2015) existen diferentes tipos de árboles de decisión, que son catalogados
según la situación y el resultado deseado, él los cataloga en los siguientes tipos:
1. Árbol de clasificación o binario: se usa cuando hay varias alternativas que se han
calculado anteriormente para obtener resultados más predecibles, para hacer uso de
estos, hay que trazar esquemas binarios y proyectar las diferentes variables o ramas
del árbol, gracias a las probabilidades de estas se puede predecir un poco el resultado.
Es usado en probabilidad, estadística y minería de datos.
2. Árbol de regresión: este tipo de árbol ayuda a determinar un único resultado ya que
se tiene la información necesaria para identificar una “ruta” óptima. Cuando se
construye este árbol se divide la información en secciones o subgrupos. Este tipo de
árbol es muy usado en bienes raíces.
3. Árbol de mejora: es usado cuando se desea tener un resultado más preciso; el árbol
se construye, luego se toma una variable, esta se calcula y se estructura para reducir
la incertidumbre y los errores a la hora de tomar decisiones. Este árbol es usado en
contabilidad y matemática.
4. Árboles mixtos entre regresión y clasificación: es usado para prever un resultado con
variables impredecibles, generalmente se usan indicadores 16 que muestren lo que ya
ha sucedido en un pasado (Sesgando un poco el resultado), Se usa generalmente en
ciencia (Castellanos, 2017)
5. Arboles de binomiales y trinomiales: son árboles donde cada rama es en sí un modelo
binomial su función es recrear el modelo binomial varias veces en el tiempo
suponiendo que el precio o costo de un elemento sube o baja con el tiempo. Estos
árboles con muy usados en la aplicación de opciones reales.
Desde cada nodo de decisión, dibuja soluciones posibles. Desde cada nodo de probabilidad,
dibuja líneas que representen los resultados posibles. Si deseas analizar tus opciones de forma
numérica, incluye la probabilidad de cada resultado y el costo de cada acción.
3. Continúa con la expansión hasta que cada línea alcance un extremo, lo que significa que
no hay más decisiones que tomar o resultados probables que considerar. Luego, asigna un
valor a cada resultado posible. Puede ser una puntuación abstracta o un valor financiero.
Agrega triángulos para indicar los extremos.
Con un árbol de decisión, ya estás listo para comenzar a analizar la decisión que enfrentas.
Probabilidad de ser
contratado: 0.4
Empresa
Pequeña
Empresa
Petroquímica Probabilidad de ser
Empresa contratado: 0.6
Grande
Ingeniero
Metalúrgico Probabilidad de ser
Empresa contratado: 0.5
Pequeña
Empresa
Metalmecánica
Probabilidad de ser
Empresa contratado: 0.5
Grande
Probabilidad de ser
contratado: 0.28
Empresa
Pequeña
Rama de
Diseño Probabilidad de ser
Empresa contratado: 0.76
Grande
Ingeniero
Mecánico Probabilidad de ser
Empresa contratado: 0.54
Pequeña
Rama de
Manufactura
Probabilidad de ser
Empresa contratado: 0.43
Grande
Bibliografía: