Sei sulla pagina 1di 6

MATRIZ HASSIANO En Matemtica, la matriz hessiana o hessiano de una funcin f de n variables, es la matriz cuadrada de n n, de las segundas derivadas parciales.

. DEFINICION Dada una funcin real f de n variables reales:

Si todas las segundas derivadas parciales de f existen, se define la matriz hessiana de f como: , donde

. tomando la siguiente forma

Adems, se tiene que si : es una matriz simtrica.

con A un conjunto abierto y f clase

, entonces

la matriz hessiana est bien definida, y en virtud del teorema de Clairaut ( teorema de Schwartz), Esta matriz debe su nombre al matemtico alemn Ludwig Otto Hesse y fue introducido por James Joseph Sylvester. APLICACIONES DE LA MATRIZ Concavidad/Convexidad Sea continuas: 1. 2. Si cncava.

un conjunto abierto y

una funcin con derivadas segundas es semidefinida negativa. es estrictamente

es cncava si y solo si, la matriz hessiana

, la matriz hessiana

es definida negativa, entonces

Si

es una funcin cncava, entonces cualquier punto en que todas las derivadas parciales son es convexa si y solo si, la matriz hessiana , la matriz hessiana es semidefinida positiva.

cero, es un mximo local. 3. 4. Si es definida positiva, entonces f es estrictamente convexa.

Si

es una funcin convexa, entonces cualquier punto en que todas las derivadas parciales son

cero, es un mnimo local. [editar]Mtodo para determinar el carcter de los puntos crticos Se ver a continuacin cmo hallar los puntos crticos (mximos, mnimos y puntos de inflexin -o silla o de ensilladura) de una funcin f de mltiples variables. 1. Se igualan las derivadas parciales primeras a cero. 2. Se resuelven las ecuaciones anteriores y se obtienen las coordenadas de los puntos crticos. 3. Se construye la matriz hessiana (derivadas segundas parciales). 4. Se sustituyen los puntos crticos en la matriz hessiana para obtener tantas matrices como puntos crticos tengamos. 5. Dependiendo del tipo de matriz resultante de evaluar la matriz Hessiana en los diferentes puntos crticos, estos puntos se pueden evaluar mediante el criterio de Sylvester:

Si todos los menores principales son mayores que 0, o sea, |Hi|>0 i=1,...,n alcanza el mnimo relativo en el punto. Si los menores principales de ndice par son mayores que 0 y los de ndice impar son menores que 0, o sea, |Himpar|<0 y |Hpar|>0 i=1,...,n alcanza el mximo relativo en el punto. Si los menores principales son distintos de 0, es decir, |Hi|0 i=1,...,n y no es ninguno de los casos anteriores, es un punto de silla. Cuando algn |Hi|=0 no se puede determinar nada, por lo que hace un estudio particular. Para n=2. el criterio se mejora en el sentido de que si |H1|=0 y |H2|<0 tiene un punto de silla en el punto. GENERALIZACIONES Matriz hessiana orlada La matriz hessiana orlada es una variante de la matriz hessiana utilizada en problemas de optimizacin restringida. El determinante de sus principales menores se utiliza como criterio para determinar si un punto crtico de una funcin es un mnimo, mximo, punto silla o no determinado (extremos condicionados).1 [editar]Aplicacin bilineal hessiana El concepto de matriz hessiana puede generalizarse a espacios de dimensin infinita, concretamente a aplicaciones definidas sobre espacios vectoriales normados. Si una aplicacin (o funcional) est definida es diferenciable en el sentido de Frchet y su diferencial jacobiana tambin es diferenciable en el sentido de Frchet puede definirse una forma bilineal continua (y por tanto acotada) sobre el espacio normado que generaliza la matriz hessiana. Se dice que una aplicacin entre espacios vectoriales normados tal que: es diferenciable si existe una aplicacin lineal continua

En ese caso se escribe: Puede probarse que es a su vez otro espacio vectorial normado conla norma:

La segunda derivadas cuando existe es: La forma bilineal hessiana viene dada por:

CRITERIO DE LAS 2 DERIVADAS PARCIALES Criterio de las segundas derivadas parciales Sea f una funcin con segundas derivadas parciales continuas en una regin que contiene al punto (a, b), tal que fx(a,b) = o y fy(a,b) = 0, para buscar extremos de una funcin usaremos la cantidad:NOTA: Estos criterios se usarn mucho en problemas de optimizacin.

Multiplicadores de Lagrange En los problemas de optimizacin, el mtodo de los multiplicadores de Lagrange, llamados as en honor a Joseph Louis Lagrange, es un procedimiento para encontrar los mximos y mnimos de funciones de varias variables sujetas a restricciones. Este mtodo reduce el problema restringido con n variables a uno sin restricciones de n + k variables, donde k es igual al nmero de restricciones, y cuyas ecuaciones pueden ser resueltas ms fcilmente. Estas nuevas variables escalares desconocidas, una para cada restriccin, son llamadas multiplicadores de Lagrange. El mtodo dice que los puntos donde la funcin tiene un extremo condicionado con k restricciones, estn entre los puntos estacionarios de una nueva funcin sin restricciones construida como unacombinacin lineal de la funcin y las funciones implicadas en las restricciones, cuyos coeficientes son los multiplicadores. La demostracin usa derivadas parciales y la regla de la cadena para funciones de varias variables. Se trata de extraer una funcin implcita de las restricciones, y encontrar las condiciones para que las derivadas parciales con respecto a las variables independientes de la funcin sean iguales a cero.

El mtodo de los multiplicadores de Lagrange Sea f (x) una funcin definida en un conjunto abierto n-dimensional {x Rn}. Se definen s restricciones gk (x) = 0, k=1,...,s, y se observa (si las restricciones son satisfechas) que:

Se procede a buscar un extremo para h

lo que es equivalente a

[Mostrar] Demostracin

Los multiplicadores desconocidos k se determinan a partir de las ecuaciones con las restricciones y conjuntamente se obtiene un extremo para h que al mismo tiempo satisface las restricciones (i.e. gk=0), lo que implica que f ha sido optimizada El mtodo de multiplicadores de Lagrange es generalizado por las condiciones de Karush-KuhnTucker. [editar]Ejemplos [editar]Ejemplo #1 Supongamos que queremos encontrar la distribucin probabilstica discreta con mxima entropa. Entonces

Podemos usar los multiplicadores de Lagrange para encontrar el punto de mxima entropa (dependiendo de las probabilidades). Para todo k desde 1 hasta n, necesitamos

lo que nos da

Derivando estas n ecuaciones, obtenemos

Esto muestra que todo pi es igual (debido a que depende solamente de ). Usando la restriccin k pk = 1, encontramos

Esta (la distribucin uniforme discreta) es la distribucin con la mayor entropa. [editar]Ejemplo #2 Determinar los puntos en la esfera punto la distancia al punto : que estn ms cercanos al

para hacer ms secilla la operacin se maximiza o minimiza el cuadrado de la distancia:

la restriccin: De acuerdo con el mtodo de los multiplicadores de Lagrange, se resuelven las ecuaciones " (1) (2) (3) (4) "y" " y el resultado es:

la manera ms sencilla de resolver estas ecuaciones es dejar x,y,z en funcin de sustituimos en la ecuacin (4). de la ecuacin (1) obtenemos realizar la operacin. se observa que 1 por que si

y luego

no se puede

lo mismo sucede con la ecuacin (2) y (3)

sustituyendo en la ecuacin (4)

el valor de entonces los puntos (x,y,z) son : y se puede observar que el punto ms cercano entonces es [editar]Ejemplo #3

Restricciones:

Aplicar el mtodo:

Potrebbero piacerti anche