Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
Teora de la Probabilidad
Es una rama de las matemticas que se ocupa del anlisis de fenmenos aleatorios. Los objetos
centrales de la teora de la probabilidad son variables aleatorias, procesos estocsticos, y eventos.
Por ejemplo, aunque un simple lanzamiento de una moneda o la tirada de un dado es un evento
aleatorio, si se repite muchas veces dicha secuencia de eventos aleatorios exhibir cierto patrones
estadsticos, que pueden ser estudiados y predichos.
Dos resultados matemticos representativos que describen dichos patrones son los Teoremas
Fundamentales de la Probabilidad: La ley de los nmeros grandes y el teorema del lmite
central. Esto surge como respuesta al problema general de Cul es la conducta limitante de S n a
medida que n ? Estos dos teoremas son soluciones parciales.
Como fundamento matemtico de la estadstica, la teora de la probabilidad es esencial para las
actividades que usan anlisis cuantitativo de grandes conjuntos (sets) de datos. Mtodos de teora
de la probabilidad tambin se usan para la descripcin de sistemas complejos bajo conocimento
parcial de sus estados.
Evento
Abstraccin matemtica de eventos no determinsticos o cantidades medidas que pueden ser
ocurrencias singulares (simples, nicas) o evolucionar en el tiempo de manera aparentemente
aleatoria. Es un conjunto de resultados (un subconjunto del espacio muestral) al que una
probabilidad es asignada.
Cuando el espacio muestral es finito, cualquier subconjunto del espacio muestral es un evento.
Sin embargo, cuando el espacio muestral es infinito es posible y necesario excluir ciertos
subconjuntos del espacio muestral para que no sean eventos.
Notacin
Si X es una variable aleatoria con valor Real definida en el espacio muestral , el evento
| u X ( ) v
puede ser escrito de manera ms conveniente como
u X v
Esto es especialmente comn en formulas para una probabilidad, como
P(u X v) F (v) F (u )
Evento Complementario
El complemento de un evento A es el evento [no A]; es decir, el evento de que A no ocurra. El
evento A y su complemento [no A] son mutuamente excluyentes y exhaustivos. Generalmente,
solo hay un evento B tal que A y B son ambos mutuamente excluyentes y exhaustivos; ese
evento es el complemento de A. El complemento de un evento A a veces se denota A.
Evento Independiente
Un evento independiente es aquel cuya probabilidad de ocurrencia no depende de la ocurrencia
de otro evento. Intuitivamente, dos eventos son independientes si la ocurrencia de un evento no
hace que sea ms o menos probable la ocurrencia del otro. Similarmente, dos variables aleatorias
son independientes si la distribucin de probabilidad condicional de cualquiera, dado el valor
observado del otro, es la misma que si el valor del otro no hubiese sido observado.
Formalmente, dos eventos A y B son independientes si y solo si P(AB)=P(A)P(B)
A nivel general, cualquier coleccin de eventos posiblemente ms de dos son mutuamente
independientes si y solo si para cualquier subconjunto finito A1, , An de la coleccin tenemos
n
n
P Ai P Ai
i 1 i 1
Esto es llamado la regla multiplicativa de eventos independientes.
Lo siguiente no es tomado como la definicin de independencia: Si dos eventos A y B son
independientes, entonces la probabilidad condicional de A dado B es la misma que la
probabilidad marginal (incondicional) de A, es decir, P(A|B)=P(A). Esto se debe a que el
enunciado tiene problemas cuando se trata de eventos de probabilidad 0, porque por definicin
P( A B)
P( A | B )
P( B)
Independencia no tiene el mismo significado que en el lenguaje comn. Un evento puede ser
independiente de si mismo si y solo si P(A)=P(AA)=P(A)P(A). Eso es, si su probabilidad es
1 0. Si un evento o su complemento casi seguro ocurre, es independiente de si mismo. Por
ejemplo, si el evento A es elegir cualquier numero pero el 0,5 de una distribucin uniforme en el
intervalo unitario; A es independiente de si mismo, a pesar que tautolgicamente A totalmente
determina a A.
Tautologa
En lgica proposicional, tautologa es una formula proposicional que es verdadera bajo cualquier
evaluacin posible (interpretacin) de sus variables proposicionales. De otra manera, tautologa
es aquella proposicin cuya tabla de verdad da siempre el valor de verdad V en todos los casos
posibles de los valores de verdad (V, F) de cada una de las proposiciones que la integran. En
todos los casos la forma del argumento ofrece un resultado verdadero, por lo que el argumento es
vlido.
De un modo ms sencillo: la supuesta explicacin de algo mediante una redundancia, la
"explicacin" o definicin de algo mediante una ligera variacin de palabras que tienen en
dado. Un modelo estocstico es aquel donde la aleatoriedad esta presente, y los estados de las
variables no son descritos por valores nicos, sino por distribuciones de probabilidad.
Estticos vs Dinmicos: Un modelo esttico no toma en cuenta el elemento tiempo, mientras que
un modelo dinmico si. Los modelos dinmicos por lo general se representan con ecuaciones en
diferencia (relaciones recursivas) o ecuaciones diferenciales.
Agrupados vs Parmetros Distribuidos: Si el modelo es homogneo (un estado consistente en
todo el sistema), los parmetros estn agrupados. Si el modelo es heterogneo (estados variantes
dentro del sistema), entonces los parmetros estn distribuidos. Parmetros distribuidos por lo
general se representan con ecuaciones diferenciales parciales.
Empricos vs Heursticos: Los modelos empricos son los que utilizan las observaciones directas
o los resultados de experimentos del fenmeno estudiado. Los modelos heursticos se basan en
las explicaciones sobre las causas o mecanismos naturales que dan lugar al fenmeno estudiado.
La representacin puede ser conceptual o matemtica. Por su uso se pueden usar para la
simulacin, optimizacin, o control. La modelacin puede ser computarizada. En ese caso, un
programa de computadora intenta simular un modelo abstracto de un sistema particular. En todo
caso el modelo se construye para expresar la lgica del sistema. Si el modelo se construye
basado en un conjunto de datos, se debe determinar de que sistema o situacin los datos son un
conjunto tpico.
Ley de los Nmeros Grandes
Es el primer teorema fundamental de la probabilidad. Describe la estabilidad a largo plazo de la
media de una variable aleatoria.
Formas
1
( x1 xn )
n
xn
para n
xn
donde X1, X2, es una secuencia infinita de variables aleatorias independientes e idnticamente
distribuidas (i.i.d.), con valor esperado < . El supuesto 2 < no es necesario. 2 hace la
convergencia lenta, pero la LNG se mantiene.
Ley Dbil
p
xn
para
lim P (| xn | ) 1
Ley Fuerte
a.s.
xn
para
P lim xn 1
n
Promedio muestral converge casi seguramente hacia el valor esperado. (Convergencia fuerte de
variables aleatorias)
Consecuencias
Ley dbil, propiedad de equiparticin asinttica (propiedad general de las muestras resultantes de
una fuente estocstica). Ley fuerte, la ley fuerte implica la ley dbil (pero no lo contrario).
Caso especial
La ley fuerte se puede ver como un caso especial del teorema ergdico (teora ergdica estudia
sistemas dinmicos).
Teorema del Lmite Central
Es el segundo teorema fundamental de la probabilidad. Indica que la suma de un numero
suficientemente grande de variables aleatorias i.i.d., cada una con media y varianza finita, estar
aproximadamente distribuida normalmente.
Sea X1, X2, X3, , Xn una secuencia de variables aleatorias i.i.d. con < y 2 > 0
n
S n x1 xn xi
i 1
S n
Zn n
Z n N (0,1) para n
n
D
n ( xn ) N (0, 2 )
S
donde xn n
( x1 xn )
lim P ( Z n z ) ( z )
xn
lim P
z ( z )
n
Sea cual sea la distribucin de la variable aleatoria, cuando el nmero de variables es grande, la
distribucin de la suma de variables aleatorias tiende a una distribucin normal. Las ventajas de
este teorema radican en que el anlisis de los resultados se simplifica ya que se puede asumir un
tipo de distribucin permitiendo as modelar el comportamiento de la variable.
Casi Seguramente
Una sucesin de variables aleatorias Xn converge de forma casi segura a una variable aleatoria
lmite X cuando el conjunto de sucesos , tales que X() es el lmite de la sucesin X n(), tiene
probabilidad 1
Estadstico
Es una medida cuantitativa, derivado de un conjunto de datos de una muestra con el objetivo de
estimar o contrastar caractersticas de una poblacin o modelo estadstico. Es una funcin
medible que dado una muestra estadstica de valores, les asigna un nmero que sirve para estimar
los parmetros de la distribucin de la que procede la muestra. Ej: media, varianza, curtosis,
estadstico t, etc. Propiedades potenciales importantes de estadsticos incluyen completitud,
consistencia, suficiencia, no sesgo (objetividad), error cuadrado medio mnimo, baja varianza,
robustez, y conveniencia computacional (facilidad, eficiencia y efectividad de clculo).
Probabilidad
Frecuencia con la que ocurre un resultado en un experimento bajo condiciones estables. Es el
chance (oportunidad) de que algo sea el caso u ocurrir. La probabilidad mide la frecuencia con
la que ocurre un resultado en un experimento bajo condiciones suficientemente estables. La
teora de la probabilidad se usa extensamente en reas como la estadstica, la matemtica, la
ciencia y la filosofa para sacar conclusiones sobre la probabilidad de sucesos potenciales y la
mecnica subyacente de sistemas complejos.
La probabilidad constituye un importante parmetro en la determinacin de las diversas
causalidades obtenidas tras una serie de eventos esperados dentro de un rango estadstico.
Dos aplicaciones principales de la teora de la probabilidad en el da a da son en el anlisis de
riesgo y en el comercio de los mercados de materias primas. En campos como la poltica, las
probabilidades no se calculan independientemente y tampoco son necesariamente muy
racionales.
Los frecuentistas (de frecuencia) hablan de probabilidades solo cuando tratan con experimentos
aleatorios bien definidos. La probabilidad de un evento denota la frecuencia relativa de
ocurrencia del resultado de un experimento, cuando se repite el experimento. Frecuentistas
consideran como probabilidad la frecuencia relativa a la larga de los resultados.
Los bayesianos asignan probabilidades a cualquier enunciado, aun cuando no haya procesos
aleatorios. Probabilidad para un bayesiano es una manera de representar los grados de creencia
en un enunciado, dado la evidencia.
Matemticamente se representa con un nmero real en el rango de 0 a 1 y escrito como P(A),
p(A), o Pr(A). Un evento imposible tiene probabilidad 0, mientras que un evento seguro tiene
probabilidad 1. Sin embargo, lo otro no siempre es verdad: eventos de probabilidad 0 no siempre
son imposibles, ni eventos de probabilidad 1 seguros. La diferencia entre seguro y
probabilidad 1 viene dada por lo que se llama casi seguro.
En un universo deterministico, basado en conceptos newtonianos, no hay probabilidades si todas
las condiciones son conocidas.
Nota curiosa
A pesar de que en un sentido realista los conceptos de negativos no se ajustan a la vida real; el
concepto de probabilidad negativa, introducido en fsica y particularmente en mecnica cuntica,
se ha ido probando e intentando aplicar en la matemtica financiera. En finanzas cuantitativas la
mayora de las probabilidades no son reales sino pseudo-probabilidades (probabilidades riesgo
neutrales). No son probabilidades reales, sino probabilidades tericas bajo una serie de
supuestos que ayudan a simplificar los clculos, dando mayor flexibilidad a ciertos modelos
financieros sin que sean inconsistentes con probabilidades reales observadas.
Momento
El concepto de momento en matemticas evolucion del concepto de momento en fsica. El
momento n de una funcin real de una variable real alrededor de un valor C es
( x c)
f ( x)dx
Los momentos alrededor de cero usualmente se les llaman simplemente los momentos de una
funcin. Usualmente, con excepcin del contexto especial del problema de momentos, la funcin
ser una funcin de densidad de probabilidad. El momento n alrededor de cero de una f.d.p. f(x)
es el valor esperado Xn. Los momentos alrededor de la media son llamados momentos
centrales; los cuales describen la forma de la funcin, independientemente de traslacin.
Significado de los momentos
n E (( X ) n )
Por consiguiente, el primer momento central es 0. El segundo momento central es la varianza 2,
de la cual la raz cuadrada positiva es la desviacin estndar . El momento n normalizado o
momento estandarizado es el momento central n dividido entre n, es decir (n/n). Estos
momentos centrales normalizados son cantidades sin dimensin, que representan la distribucin
independientemente de cualquier cambio lineal de escala. As, el primer momento estandarizado
es 0, porque el primer momento alrededor de la media es cero. El segundo momento normalizado
es 1, porque el segundo momento es igual a la varianza.
El tercer momento central es una medida del sesgo de una distribucin, cualquier distribucin
simtrica tendr un tercer momento central, si definido, de 0. El tercer momento central
normalizado es llamado asimetra, usualmente . Una distribucin que es asimtrica a la
izquierda (la cola de la distribucin es mas larga y flaca a la izquierda y gorda a la derecha)
tendr una asimetra negativa. Una distribucin que es asimtrica a la derecha (la cola de la
distribucin es mas gorda a la izquierda y larga y flaca a la derecha) tendr una asimetra
positiva. Para distribuciones que son muy parecidas a la distribucin gaussiana, la mediana estar
algo cerca de - /6, la moda alrededor de - /2.
El cuarto momento central normalizado se llama curtosis, es una medida de si la distribucin es
alta y flaca, o baja y achatada; comparada a la distribucin normal con la misma varianza. Como
es la expectativa de una cuarta potencia, el cuarto momento, donde definido, siempre es positivo;
y exceptuando la distribucin punto (degenerada), es estrictamente siempre positiva. El cuarto
momento central de una distribucin normal es 34.
Parmetro
Medida auxiliar. Es una cantidad que define ciertas caractersticas de sistemas o funciones. Un
parmetro no es una variable. Los parmetros son medidas especficas, mientras que las
variables varan. Los parmetros no son constantes. Las constantes no cambian, mientras que
los parmetros pueden cambiar. Ej: media, desviacin estndar, mximo, moda, etc. Es de notar
que un estadstico si puede ser un parmetro. La estimacin de parmetros es uno de los focos de
atencin de la estadstica y econometra.
Estimador
Es una funcin de los datos muestrales observables usada para estimar un parmetro poblacional
desconocido (el estimando). Un estimado es el resultado de la aplicacin de dicha funcin a una
muestra particular de datos.
Promedio (Average)
Tendencia central de un conjunto de datos. Se refiere a una medida del medio, centro, o valor
esperado de un set de datos. Un promedio es un valor que pretende tipificar y representar una
lista de valores. Los estadsticos ms comunes para expresar el promedio son la media, la
mediana, y la moda.
Media
Describe la ubicacin central de los datos. Se estila a utilizar este trmino para referirse a la
media aritmtica (y se distingue de media geomtrica, media armnica, etc.), o al valor esperado
de una variable aleatoria, que tambin se llama media poblacional. Es por ello que en estos
sentidos la media no es un promedio, dado que existen varios tipos de promedio.
Para una variable aleatoria real X, la media es la expectativa de X. No toda distribucin de
probabilidad tiene una media definida, Ej. la distribucin de Cauchy.
Media Aritmtica
Es la media estndar que se utiliza, simplemente llamada media. Se define como la sumatoria
de los componentes de una lista dividido entre la cantidad de miembros de la lista. De otra
forma, es la sumatoria de un conjunto de nmeros dividido entre la cantidad de nmeros. Si la
lista es una poblacin estadstica se le llama Media Poblacional. Si la lista es una muestra
estadstica se le llama Media Muestral. Ambas se calculan de la misma manera.
xa x
1 n
1
xi ( x1 xn )
n i 1
n
Se utiliza para denotar la media aritmetica de toda la poblacin. Para una variable aleatoria que
tiene una media definida, es la media probabilstica o valor esperado del numero aleatorio. En
la practica no se observa porque solo se tiene una muestra en vez de toda la poblacin. Por la
ley de los nmeros grandes, se utiliza la media muestral para estimar valores esperados
desconocidos.
La media de n+1 es mayor que la media de n si y solo si el nuevo numero es mayor a la vieja
media, menor si y solo si es menor, y se mantiene estable si y solo si es igual. Mientras ms
grande es n, menor ser la magnitud del cambio en la media relativo a la distancia entre la vieja
media y el nuevo numero (el numero se diluye). La media aritmetica no es un estadstico robusto,
generalmente siendo influenciado por valores extremos. Esto es notable en distribuciones
asimetricas, donde la mediana seria una mejor descripcin de tendencia central; o en
distribuciones inciertas donde la moda podra funcionar mejor.
Media Geomtrica
Utilizada para conjuntos de nmeros positivos que son interpretados de acuerdo a su producto en
vez de su suma, o son exponenciales en naturaleza. Ej. Tasas de crecimiento poblacional, tasas de
retorno en finanzas. Se define como la raz n-esima del producto de n datos.
xg
xi
i 1
n x1 x n
Se caracteriza por ser menor a la media aritmtica del mismo conjunto de datos. Solo aplica para
nmeros positivos. Es preferida como medida central de valores expresados en porcentajes por
tomar en cuenta el punto de partida de cada porcentaje sucesivo, para as calcular rendimientos
anualizados.
Mediana
Valor que ocupa el lugar central cuando los datos estn ordenados en sentido creciente (si es
impar). Si es par se tiende a mencionar los dos valores centrales o calcular el promedio de los
mismos. Es el valor de la variable que deja el mismo nmero de datos antes y despus que si
misma. Un intervalo mediano es el intervalo que contiene dicho dato.
Moda
Es el dato que ms se repite en un conjunto de datos u observaciones. Si existen dos datos que se
repite un nmero igual de veces entonces el conjunto ser bimodal.
Esperanza
La esperanza matemtica (o simplemente esperanza) o valor esperado de una variable aleatoria
es la suma del producto de la probabilidad de cada suceso por el valor de dicho suceso. Para una
variable aleatoria discreta la esperanza se calcula como
n
E[ X ] x i p ( x i )
i 1
Para una variable aleatoria continua la esperanza se calcula mediante la integral de todos los
valores y la funcin de densidad f(x)
E[ X ]
xf ( x)dx
La esperanza tambin se suele simbolizar con . No todas las variables tienen un valor esperado,
Ej. La distribucin de Cauchy. El termino esperanza se utiliza cuando se habla de distribucin de
probabilidad; cuando se trata de una muestra se habla de media. El valor esperado de una
constante es igual a la constante misma. Si X y Y son variables aleatorias tal que X Y, entonces
E[X] E[Y].
Desviacin
Es una medida de diferencia para intervalos y variables de tasas entre el valor observado y la
media. El signo de la desviacin, positivo o negativo, indica si el valor es mayor o menor que la
media. La magnitud del valor (en la escala relevante) indica que tan diferente e la observacin de
la media. Una caracterstica de la media es que la suma de las desviaciones a travs del conjunto
completo de observaciones siempre es cero.
Varianza
Es una medida de la dispersin de una variable aleatoria X respecto a su esperanza E[X]. Se
define como la esperanza de la transformacin (X E[X]) 2. Esto es V(X) = E[(X E[X]) 2]. La
varianza es la media de los cuadrados de las diferencias entre cada valor de la variable y la media
aritmtica de la distribucin.
Desviacin Estndar (Aritmtica)
La desviacin tpica es una medida que informa de la media de distancias que tienen los datos
respecto de su media aritmtica, expresada en las mismas unidades que la variable. Es la raz
cuadrada de la varianza. La desviacin estndar es una medida del grado de dispersin de los
datos del valor promedio. Dicho de otra manera, la desviacin estndar es simplemente el
"promedio" o variacin esperada con respecto de la media aritmtica. Una desviacin estndar
grande indica que los puntos estn lejos de la media, y una desviacin pequea indica que los
datos estn agrupados cerca a la media. La desviacin estndar puede ser interpretada como una
medida de incertidumbre.
Desviacin Estndar Geomtrica
Describe la dispersin de los datos con respecto a la media geomtrica. A diferencia de la
desviacin estndar aritmtica, la geomtrica no es una cantidad (aditiva), es un factor
(multiplicativo).
n
(ln x i ln g ) 2
i 1
g e
Asimetra
Es el tercer momento estndar de la distribucin de probabilidad de una variable aleatoria de
nmero real. Tambin se conoce como coeficiente de asimetra. Se define como 1 = 3/3 donde
3 es el tercer momento en torno a la media y es la desviacin estndar. El riesgo de asimetra
denota que las observaciones no estn esparcidas simtricamente alrededor del valor central.
Como resultado, la media y la mediana son diferentes. Es importante en modelos que se basan en
Frecuencia Relativa
Es el cociente de la frecuencia absoluta y el tamao de la muestra. Formalmente, se habla de
frecuencia relativa cuando la cantidad n de repeticiones e normalizada por el nmero total de
eventos.
Percentil
Es el valor de una variable bajo el cual determinado porcentaje de las observaciones caen. Ej. El
percentil 20% es el valor que por debajo del cual el 20% de las observaciones se encuentran.
Tablas de Contingencia
Se usan para registrar y analizar la relacin entre dos o ms variables, habitualmente de
naturaleza cualitativa (nominales u ordinales), variables categricas.
Clasificacin de Datos Categricos
Se hace por medio de la frecuencia, tablas de contingencia.
Parmetro de Ubicacin
Parmetro que determina donde se encuentra el origen de una funcin (no confundir con el
origen en el plano cartesiano). Puede ser parametrizado por un parmetro escalar o un parmetro
vectorial que determina la ubicacin de la distribucin. Media, mediana, y moda son ejemplos.
Dispersin Estadstica
Es la variabilidad o esparcimiento en una variable o una distribucin de probabilidad. Por lo
general se mide alrededor de la medida que determina el origen. Varianza, desviacin estndar,
rango, rango intercuartil son ejemplos. La dispersin se origina por imperfecciones en la manera
de llevar a cabo una medicin o calculo.
La aleatoriedad es una propiedad objetiva, Sin embargo, lo que parece aleatorio a un observador
puede que no lo sea para otro. Ej. Mensajes codificados.
Incertidumbre
Falta de certidumbre. Conocimiento limitado donde es imposible describir con exactitud
diferentes estados o resultados futuros. Es diferente de aleatoriedad. Ej. Un dado tiene seis caras
enumeradas del 1 al 6, el resultado de una tirada es aleatorio pero si se tienen certidumbre que
estar entre 1 y 6. Esta definicin forma parte de la aleatoriedad pero no es la aleatoriedad
misma.
Variable Aleatoria
Es una funcin que asocia un nmero real a cada punto del espacio muestral. Una entidad
matemtica rigurosamente definida que describe el chance o probabilidad en forma matemtica.
La estructura de una variable aleatoria fue diseada para analizar eventos estocsticos y los
resultados de experimentos cientficos, reteniendo solo las propiedades matemticas necesarias
para contestar preguntas de probabilidad. Se definen dos tipos de variables aleatorias, discretas y
continuas.
Las variables aleatorias discretas toman un valor de un conjunto especifico de valores, cada uno
con probabilidad mayor a cero. Las variables aleatorias continuas toman cualquier rango de
valores, y estos rangos tienen probabilidad de ocurrir mayor a cero. Las variables aleatorias
discretas tienen una distribucin de probabilidad asociada, mientras que las continuas tienen una
funcin de densidad de probabilidad.
Variable Continua
Se denomina variable continua a aquella que puede tomar cualquiera de los infinitos valores
existentes dentro de un intervalo.
Variable Discreta
Se denomina distribucin de variable discreta a aquella cuya funcin de probabilidad slo toma
valores positivos en un conjunto de valores de X finito o numerable. A dicha funcin se la llama
funcin de masa de probabilidad.
Distribucin de Probabilidad
Modelo terico que describe la forma en que varan los resultados de un experimento aleatorio.
Lista de los resultados de un experimento con las probabilidades que se esperaran ver asociadas
con cada resultado. Es la funcin F(x) que asigna a cada evento definido sobre X una
probabilidad.
Funcin de Probabilidad
Funcin que asigna probabilidades a cada uno de los valores de una variable aleatoria discreta.
Funcin de Densidad de Probabilidad
Funcin que mide concentracin de probabilidad alrededor de los valores de una variable
aleatoria continua. Forma en que se distribuyen las probabilidades de un evento en relacin al
resultado del evento. Se utiliza con el propsito de conocer cmo se distribuyen las
probabilidades de un suceso o evento, en relacin al resultado del suceso.
Funcin de Distribucin
Funcin que acumula probabilidades asociadas a una variable aleatoria.
Estocstico
Aleatorio.
Proceso Estocstico
Un proceso aleatorio. Es un concepto matemtico que sirve para caracterizar y estudiar todo tipo
fenmenos aleatorios (estocsticos) que evolucionan, generalmente, con el tiempo.
Formalmente, un proceso estocstico es una sucesin de variables aleatorias indexadas por una
variable (continua o discreta), generalmente, el tiempo. Cada una de las variables aleatorias del
proceso tiene su propia funcin de distribucin de probabilidad y, entre ellas, pueden estar
correlacionadas o no. Cada variable o conjunto de variables sometidas a influencias o impactos
aleatorios constituye un proceso estocstico. Ej. El ndice de la bolsa segundo a segundo.
Casos especiales
Proceso estacionario: Un proceso es estacionario en sentido estricto si la funcin de distribucin
conjunta de cualquier subconjunto de variables es constante respecto a un desplazamiento en el
tiempo. Se dice que un proceso es estacionario en sentido amplio (o dbilmente estacionario)
cuando se verifica que: La media terica es independiente del tiempo; y las autocovarianzas de
orden s slo vienen afectadas por el lapso de tiempo transcurrido entre los dos periodos y no
dependen del tiempo.
Proceso de Mrkov: Aquellos procesos discretos en que la evolucin slo depende del estado
actual y no de los anteriores. (n+1 solo depende de n, no de n-1, n-2, etc.) Ej. Caminata aleatoria.
Proceso de Gauss: Proceso continuo en el que toda combinacin lineal de variables es una
variable de distribucin normal.
Cadena de Mrkov
Es una serie de eventos, en la cual la probabilidad de que ocurra un evento depende del evento
inmediato anterior. En efecto, las cadenas de este tipo tienen memoria. "Recuerdan" el ltimo
evento y esto condiciona las posibilidades de los eventos futuros. Esta dependencia del evento
anterior distingue a las cadenas de Mrkov de las series de eventos independientes, como tirar
una moneda al aire o un dado.
Este tipo de proceso presenta una forma de dependencia simple, pero muy til en muchos
modelos, entre las variables aleatorias que forman un proceso estocstico. En los negocios, las
cadenas de Mrkov se han utilizado para analizar los patrones de compra de los deudores
morosos, para planear las necesidades de personal y para analizar el reemplazo de equipo.
Formalmente, se define como un proceso estocstico discreto que cumple con la propiedad de
Mrkov, es decir, si se conoce la historia del sistema hasta su instante actual, su estado presente
resume toda la informacin relevante para describir en probabilidad su estado futuro. Los estados
futuros se alcanzaran mediante procesos aleatorios en vez de procesos deterministicos.
Propiedad de Mrkov
Dado el estado presente, estados futuros son independientes de estados pasados. La probabilidad
de ir al estado n+1 condicionada a que antes estbamos en el estado n. La propiedad de las
cadenas de Mrkov es que las transiciones entre los estados, slo puede producirse entre estados
vecinos. Slo se puede llegar al estado i desde el estado i-1 bien de i+1. Es condicionalmente
independiente de estados pasados.
Poblacin
Es el conjunto de elementos sobre el que se realizan las observaciones.
Muestra
Es un subconjunto de casos o individuos de la poblacin.
Contraste de Hiptesis
Tambin denominado prueba de hiptesis, es una tcnica de inferencia estadstica para juzgar si
una propiedad que se supone cumple una poblacin estadstica es compatible con lo observado
en una muestra de dicha poblacin.
Funcin de Masa de Probabilidad
Abreviada f.m.p., es una funcin que da la probabilidad que una variable aleatoria discreta es
exactamente igual a algn valor. Se distingue de la f.d.p. (definida para variables aleatorias
continuas), en que los valores de la f.d.p. no son probabilidades como tal. La integral sobre un
rango de posibles valores (a,b] da la probabilidad de que un valor caiga en ese rango.
Una variable que es pronosticada por otra(s) variable(s). Analogas de las variables dependientes.
Variable de Decisin
Una cantidad desconocida que representa una decisin que se necesita tomar. Es la cantidad que
un modelo necesita determinar. Es una variable que el tomador de decisiones controla. Se
utilizan en la bsqueda de resultados ptimos, por lo cual es una variable de entrada (input)
controlable parecida a una variable independiente.
Numero Aleatorio
Es un nmero que exhibe aleatoriedad estadstica. Tambin se puede referir a una secuencia
aleatoria obtenida de un proceso estocstico.
Numero Pseudo-Aleatorio
Es un numero que proviene de un proceso pseudo-aleatorio (parece aleatorio pero no lo es).
Exhiben aleatoriedad estadstica pero son generados por un proceso causal determinstico.
Funcin Objetivo
En la funcin que representa matemticamente lo que se quiere optimizar. Ej. Las ganancias
resultantes de una venta.
Optimizacin
La optimizacin (tambin denominada programacin matemtica) intenta dar respuesta a un tipo
general de problemas donde se busca minimizar o maximizar una funcin objetivo, sujeta a
restricciones (conjunto de decisiones factibles). Un problema de optimizacin trata entonces de
tomar una decisin ptima para maximizar (ganancias, velocidad, eficiencia, etc.) o minimizar
(costos, tiempo, riesgo, error, etc.) un criterio determinado. Las restricciones significan que no
cualquier decisin es posible.
Optimizacin clsica
Si la restriccin no existe, o es una restriccin de igualdad, con menor o igual nmero de
variables que la funcin objetivo, entonces el clculo diferencial da la respuesta, ya que solo se
trata de buscar los valores extremos de una funcin.
Optimizacin con restricciones de desigualdad - optimizacin no clsica
Distribucin Normal
Es una distribucin continua donde la mayora de los datos se encuentran alrededor de la media.
Distribucin Lognormal
Es una distribucin continua que excluye los valores negativos y en la que la mayora de los
valores se encuentran alrededor de la media.
Distribucin Triangular
Es una distribucin de probabilidad continua que cuenta con un lmite inferior, una moda y un
lmite superior. Se usa cuando los datos no son confiables y/o se dispone de poca informacin.
Distribucin Exponencial
Es una distribucin continua para variables que toman valores positivos y su funcin de densidad
no es simtrica alrededor de la media.
Riesgo Puro
Es aquel en que se puede perder o quedar igual (ej. Sacar el carro a la calle)
Riesgo Especulativo
Es aquel donde se puede perder, ganar o quedar igual (ej. Jugar pker)
Distribucin Chi2
Es una distribucin continua que mide la discrepancia entre la distribucion observada y la
terica, indicando en que medida la diferencia observada entre ambas se debe al azar. Muestra
tambin el nivel de independencia de 2 muestras entre si.
Intervalo de Confianza
Intervalo de valores alrededor de un parmetro muestral en los que, con una probabilidad o nivel
de confianza determinado, se situar el parmetro poblacional a estimar.
Nivel de Confianza
Es la probabilidad a priori de que el intervalo de confianza a calcular contenga al verdadero valor
del parmetro.
Correlacin
Indica la fuerza y la direccin de una relacin lineal entre dos variables aleatorias.
Covarianza
Es una medida de que tanto cambian conjuntamente dos variables.
Regresin
Es un modelo matemtico mediante el cual es posible inferir datos acerca de una poblacin
Para que sirve la regresin?
Permite evaluar y determinar el comportamiento de las variables estadsticas, adems son tiles
porque puede haber una o ms variables independientes.
Regresin Lineal
Es un modelo matemtico mediante el cual es posible inferir datos acerca de una poblacin Se
conoce como regresin lineal ya que usa parmetros lineales (potencia 1).Sirve para poner en
evidencia las relaciones que existen entre diversas variables.
Medidas de Calidad de la regresin (o bondad)
Crystal Ball
La herramienta Crystal Ball es una aplicacin de Excel que permite pronosticar, optimizar y
analizar opciones reales. Por medio de ella, se pueden disear modelos de sistemas por mtodos
de Monte Carlo y correr simulaciones para luego analizar el comportamiento de dichos
sistemas y las posibles alternativas de funcionamiento.
CB tiene sus propias funciones, es decir agrega funciones a Excel como por ejemplo la
funcin triangular CB, etc., muchas de ellas no nativas de Excel o de difcil
implementacin.
Permite correr un modelo miles de veces con gran facilidad.
Permite hacer comparaciones entre posibles cambios que ocurran en las variables de una
situacin especfica.
Optimizar resultados.
Palisade
Compaa que produce software que es competencia de Oracle (el cual adquiri
Hyperion Decisioneering, los creadores de Crystal Ball).
@Risk
Software de anlisis de riesgo que utiliza simulacin de Monte Carlo en Excel; y que es la
competencia directa de Crystal Ball. Lider del mercado. Se diferencia de CB en que es a base de
comandos/funciones, al estilo Excel; y no a base de programacin de celdas como CB. La
sintaxis es del tipo =@Risk.funcin(parmetros). CB tiene una sintaxis similar (cambiar @Risk
por CB) pero el proceso es automatizado. Es por esto, la simplicidad de su uso, y el precio que
CB le ha venido ganando terreno a @Risk. Aun as, la gama de funciones de @Risk sigue siendo
ms amplia.
PrecisionTree
Arboles de decisin para Excel.
NeuralTools
Redes neurales para Excel. La tcnica empleada es una forma de inteligencia artificial.
StatTools
Herramientas estadsticas avanzadas para Excel.
Evolver
Contraccin de Evolutionary Solver, es una herramienta de optimizacin a base de algoritmos
genticos (otra forma de inteligencia artificial).
Six Sigma