Sei sulla pagina 1di 14

República Bolivariana de Venezuela

Ministerio del Poder popular para la Educación

Universidad nacional experimental de la Fuerza Armada

UNEFA

Núcleo – Barinas

FUNDAMENTOS DE OPTIMIZACIÓN

Docente: Bachiller:

Rafael Briceño Francis Molina 25.077.598

Evelio Cegarra
Ing. Sistemas.

Barinas, mayo de 2019.


1.1 A) ESPACIO VECTORIAL.

Un espacio vectorial es una estructura algebraica creada a partir de un conjunto


no vacío, una operación interna (llamada suma, definida para los elementos del
conjunto) y una operación externa (llamada producto por un escalar, definida entre
dicho conjunto y otro conjunto, con estructura de cuerpo), con 8 propiedades
fundamentales. Dotado de dos operaciones para las cuales será cerrado:
B) DEPENDENCIA E INDEPENDENCIA LINEAL.

Independencia lineal:

En álgebra lineal, un conjunto de vectores es linealmente independiente si


ninguno de ellos puede ser escrito con una combinación lineal de los restantes.

Por ejemplo, en R3, el conjunto de vectores (1, 0, 0), (0, 1, 0) y (0, 0, 1) es


linealmente independiente

Dependencia lineal

EN álgebra lineal, un conjunto de vectores es linealmente dependiente si


todos ellos pueden ser escrito con una combinación lineal de los restantes.

(2, −1, 1), (1, 0, 1) y (3, −1, 2) no lo es, ya que el tercero es la suma de los dos
primeros.

Dado un conjunto finito de vectores V1, V2. . . Vn , se dice que estos vectores son
linealmente independientes si existen la ecuación

a1V1+a2V2+….anVn=0

Se satisface únicamente cuando a1,a2, …., an son todos cero. En caso contrario,
se dice que son linealmente dependientes.

Nótese que el símbolo a la derecha del signo igual no es cero, sino que simboliza
al vector nulo . El conjunto de vectores nulos forma la matriz nula. Si tales
números no existen, entonces los vectores son linealmente independientes. La
definición anterior también puede extenderse a un conjunto infinito de vectores,
concretamente un conjunto cualquiera de vectores es linealmente dependiente si
contiene un conjunto finito que sea linealmente dependiente.
Entre las propiedades de los vectores linealmente dependientes e independientes
encontramos:

Un conjunto de vectores es linealmente dependiente si y solamente si alguno de


los vectores es combinación lineal de los demás.

Si un conjunto de vectores es linealmente independiente, cualquier subconjunto


suyo también lo es.

Si un conjunto de vectores es linealmente dependiente, también lo es todo


conjunto que lo contenga.

En el espacio tridimensional usual:

 u y j son dependientes por tener la misma dirección.


 u y v son independientes y definen el plano P.
 u, v y w son dependientes por estar los tres contenidos en el mismo plano.
 u, v y k son independientes por serlo u y v entre sí y no ser k una
combinación lineal de ellos o, lo que es lo mismo, por no pertenecer al
plano P. Los tres vectores definen el espacio tridimensional.
 Los vectores o (vector nulo, cuyas componentes son iguales a cero) y k son
independientes ya que o = 0 ·k
Ejemplo Indique si el siguiente conjunto de vectores es linealmente dependiente:

Solución: El conjunto es linealmente dependiente porque el segundo vector es


múltiplo escalar del primero.(x2= 3x1)

Ejemplo Indique si el siguiente conjunto de vectores es linealmente dependiente:

Solución: El conjunto es linealmente dependiente porque el vector cero esta en el


conjunto: El vector cero se puede fablicar fácilmente con cualquier vector tomando
como coeficiente 0x2= 0·x1
C) PRODUCTO INTERNO.

En matemáticas, el producto escalar, también conocido como producto interno,


producto interior o producto punto, es una operación algebraica que toma dos
secuencias de números de igual longitud (usualmente en la forma de vectores) y
retorna un único número.

Algebraicamente, el producto punto es la suma de los productos de las


correspondientes entradas en dos secuencias de número. Geométricamente, es el
producto de dos magnitudes euclidianas de los dos vectores y el coseno del
ángulo entre ellos. El nombre del producto punto se deriva del símbolo que se

utiliza para denotar esta operación " .". El nombre alternativo de producto escalar
enfatiza el hecho del que el resultado es un escalar en lugar de un vector (en el
caso de espacios de tres dimensiones)

1.2 a) LA NORMA DE UN VECTOR.


B) VECTORES ORTOGONALES.

Cuando dos vectores A = (Ax, Ay, Az) y B = (Bx, By, Bz) son perpendiculares entre
sí, es decir, forman un ángulo recto (θ = π/2), se dice que son vectores
ortogonales. Esta situación se denota como A ⊥ B. Dos vectores serán
ortogonales cuando su producto escalar (también llamado producto punto y
producto interno) es cero:

A⊥B → A · B = AxBx + AyBy + AzBz

A⊥B → θ = π/2 → A ∙ B = |A| |B| cosθ = 0

Ya que cos (π/2) = 0.

Cuando dos vectores de A y B son ortogonales, forman un triángulo rectángulo,


cuya hipotenusa es igual a la suma de los vectores.

Ejemplos:

1. Determinar si los vectores A = (1, 2) y B = (-2, 1) son ortogonales.

Ambos serán ortogonales si su producto escalar es cero, es decir:

A · B = AxBx + AyBy = 0

Como A = (1, 2) y B = (-2, 1) , entonces:

A · B = (1)(-2) + (2)(1) = 0
Ambos vectores son ortogonales.

2. Determinar si los vectores A = (2, 4, 5) y B = (-2, 3, 7) son perpendiculares.

Ambos serán ortogonales si su producto escalar es cero, es decir:

A · B = AxBx + AyBy + AzBz = 0

Como A = (2, 4, 5) y B = (-2, 3, 7), entonces:

A · B = (2)(-2) + (4)(3) + (5)(7) = -4 + 12 + 35 = 43

Ambos vectores no son ortogonales.

3. Determinar si los vectores A = (2, -3, -1) y B = (-5, -10/3, 0) son


perpendiculares.

Ambos serán perpendiculares si el producto escalar de ambos es cero, es decir:

A · B = AxBx + AyBy + AzBz = 0

Por lo tanto:

A · B = (2)(-5) + (-3)(-10/3) + (-1)(0) = -10 + 10 + 0 = 0

Ambos vectores son perpendiculares.

4. Dados los vectores A = (2, a) y B = (3, -2), calcular a para que ambos
vectores sean ortogonales.

Para que ambos vectores sean ortogonales el producto escalar de ambos debe
ser cero, es decir:

A · B = AxBx + AyBy = 0

Por lo tanto:

A · B = (2)(3) + (a)(-2) = 0

6 – 2a = 0

6 = 2a

6/2 = a

a=3
C) BASE ORTOGONAL.

Es aquella donde los dos vectores que conforman la base son perpendiculares
entre sí; es decir su producto interno es igual a cero.

D) SUB- ESPACIOS

Sea V un espacio vectorial y W un subconjunto no vacío de V.

W es un subespacio de V si W es en sí mismo un espacio vectorial con las


mismas operaciones (suma de vectores y producto por un escalar) definidas en V.

Ejemplo:

W={(x1,x2)∈R2:x2=3x1}

¿Es un subespacio de R2?

Primero analicemos el conjunto W

. Son todos vectores de R2 tales que la segunda componente es el triple de la


primera:

(x1,3x1)=x1(1,3)

Wes la recta que pasa por el origen y tiene vector director (1,3), o sea la recta de
ecuación y = 3x.Para decidir si Wes un subespacio de R2 habría que verificar que
se cumplen los axiomas del 1 al 10. El lector puede comprobar que todos se
cumplen en este caso.

Pero en general no es necesario verificar los axiomas porque existe un criterio


sencillo para determinar si un subconjunto W de un espacio vectorial V es un
subespacio, es el que sigue.

MATRICES.

Una matriz es un arreglo bidimensional de números. Dado que puede definirse


tanto la suma como el producto de matrices, en mayor generalidad se dice que
son elementos de un anillo. Una matriz se representa por medio de una letra
mayúscula(A,B, …) y sus elementos con la misma letra en minúscula (a,b, …), con
un doble subíndice donde el primero indica la fila y el segundo la columna a la que
pertenece.
Esta es una matriz de m filas y n columnas, es decir, de dimensión m x n. Esta
matriz también se puede representar de la forma siguiente: A = (aij) m x n.

Siempre que la matriz tenga el mismo número de filas y de columnas que otra
matriz, estas se pueden sumar o restar elemento por elemento.

Las matrices se utilizan para múltiples aplicaciones y sirven, en particular, para


representar los coeficientes de los sistemas de ecuaciones lineales o para
representar transformaciones lineales dada una base. En este último caso, las
matrices desempeñan el mismo papel que los datos de un vector para las
aplicaciones lineales.

1.3 FORMAS CUADRATICAS ASOCIADAS A UNA MATRIZ.

Llamamos forma cuadrática a una aplicación Q

tal que sea una matriz cuadrada simétrica de orden n.

Una forma cuadrática es un polinomio de 2º grado con n variables:

Dado el polinomio es fácil deducir la matriz asociada a la forma cuadrática.

Resulta muy cómodo, tanto para escribir el polinomio de 2º grado a partir de la


matriz, sin tener que hacer la multiplicación:
como para deducir la matriz simétrica asociada a la forma cuadrática a partir del

polinomio

a) Deducir la forma cuadrática asociada a la matriz

Solución:

Imaginemos la matriz siguiente:

Entonces, la forma cuadrática asociada a esta matriz se expresa como:

b) Deducir la matriz asociada a la siguiente forma cuadrática:

Solución:
NOTA: Observemos que a partir de un polinomio se deduce una matriz simétrica,
pero podrían deducirse infinitas matrices no simétricas; por ejemplo también
corresponden a la forma cuadrática anterior:

Sin embargo, cuando nos referimos a formas cuadráticas, siempre escogemos la


matriz simétrica por sus particulares propiedades.

Potrebbero piacerti anche