Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
12 Sub espacios: sea W un subconjunto no vacío de un espacio vectorial V, se dice que es sub espacio de V si W en sí
mismo es un espacio vectorial cerrado bajo la suma y multiplicación.
1. Identificar si el vector nulo W.
2. Si la suma de dos vectores de W (a + b) W.
3. Si la multiplicación de un vector de W por un escalar cualquiera (a k) W.
Aclaración: se muestra que es un espacio vectorial: si el nulo, la suma y la multiplicación pertenecen.
Son sub espacios:
R2: cualquier recta que pase por el origen. W=<u>
R3: cualquier plano que pase por el origen. W=<u, v>
Sistema de ecuaciones lineales homogéneas: AX = 0, el sistema tiene que ser homogéneo porque si no el nulo no
satisface. Si C y D son elementos de W, es decir matrices solución del sistema, por lo tanto AC=0 y AD=0 entonces,
A(C+D)=0, (C+D)W; ahora A(kC) = k AC = k 0 = 0, A(kC)W.
R[x] polinomios de grado menor o igual a n (Pn): porque en la suma de polinomios puedo obtener un grado menor, y
en la multiplicación se suman los grados.
De cartesiana a vectorial:
1. Tengo W= {(x1, x2, xn) / … el termino igualado a cero}
2. Despejo incógnitas. En caso de necesitar simplificar la solución, armo una matriz y la reduzco.
3. Armo una n upla (x1, x2, xn) con lo que le corresponda a cada incógnita (lo que despejamos), y las
intercambio por paramentos.
4. Saco factor común a los parámetros.
5. Escribo es forma de combinación lineal <>.
Aclaración: cantidad de incógnitas – cantidad de ecuaciones = cantidad parámetros/vectores
131 Intersección de sub espacios: Si U y W son sub espacios de V, entonces U∩W es también sub espacio. Se unen
todas las cartesianas.
Algebra lineal
María Adelina Gay
Demostración:
U∩W={v| v∈U, y v∈W}
sean v1, v2∈ U∩W se tiene que
v1, v2∈ U, U es un sub espacio v1+v2∈ U
v1, v2∈ W, W es un sub espacio v1+v2∈ W
entonces v1+v2∈U∩W
132 Suma de sub espacios: Si U y W son sub espacios de V, entonces U+W es también sub espacio. Se unen todas
las vectoriales.
U+W = {v ∈ V | v = v1+v2 con v1∈U y v2∈W}
sean v1, v2∈ U+W se tiene que
v1 = u1+w1 con u1∈U y w1∈W
v2 = u2+w2 con u2∈U y w2∈W
v1+v2=(u1+u2)+(w1+w2)
entonces v1+v2∈U+W
14 Combinación lineal: se dice que un vector v es combinación lineal de los vectores (v1, v2…vn) según los escalares
(k1, k2…kn), si y solo si v = (k1v1 + k2v2 + knvn).
15 Generador: conjunto de vectores tales que todo vector del espacio se puede expresar como CL.
Sub espacio generado: conjunto de todas las combinaciones lineales que se pueden realizar con los vectores del
generador. Se denota W = <v1, v2…vn>, esos vectores son generadores.
Teorema: W es sub espacio de V, (v1, v2…vn) son elementos de W, si W’ contiene a (v1, v2…vn) WW’.
152 Teorema del basurero: sea V sobre K. Sean (v1, v2, vn) vectores de V, y W=<v1, v2, vn> sub espacio de V. Si v1 es
combinación lineal de los demás entonces lo puedo sacar <v1, v2, vn> = <v2, v3, vn>.
Demostración: debemos probar que W1W2 y W2W1, entonces W1=W2
w1=<v1, v2, v3… vn>
w2=<v2, v3… vn>
w1 ∈ W1 | w1 = k1v1 + k2v2 + k3v3 + knvn
v1=k’2v2 + k’3v3 + k’nvn
remplazo v1 en w1
w1 = k1(k’2v2 + k’3v3 + k’nvn) + k2v2 + k3v3 + knvn
distributiva y factor común
w1 = v2(k1 k’2 k2) + v3(k1 k’3 k3) + vn(k1 k’n kn)
llamamos a k1 k’n kn = k’’n
w1 = v2k’’2 + v3k’’3 + vnk’’n
es combinación lineal
w1 ∈ W2, W1W2
w2 ∈ W2 / w2 = k2v2 + k3v3 + knvn = 0
aplico 0v1 de ambos lados
0v1 + k2v2 + k3v3 + knvn = 0
es combinación lineal
w2 ∈ W1, W2W1
Concluimos W1 = W2
Linealmente independientes: si y solo si k1v2 + k2v2 + knvn = 0 se da únicamente con escalares nulos.
Demostración: si todo v ∈ <v1,v2.. vn> es CL en una sola forma.
Por un lado: la única combinación lineal que expresa el vector nulo es 0 = 0v1 + 0v2 + 0vn luego son LI.
Por el otro:
v = k1v1 + k2v2 + knvn
v = k'1v1 + k'2v2 + k'nvn
restando ambos miembros y factor común
0=(k1-k'1)v1+(k2-k'2)v2+(kn-k'n)vn
por hipótesis son linealmente independientes
entonces k-k'=0 que es k=k'
Propiedades:
Dos vectores: si v1 = k v2 (múltiplo por escalar) son LD.
Tres vectores: tengo que hacer las cuentas. Igualo el vector nulo a la CL y despejo los k.
Si entre v1 v2 vn figura el vector nulo o dos vectores iguales, son LD.
Si a v1 v2 vn LD se le agrega u, v1 v2 vn u son LD.
Si v1 v2 vn son LI, v2 v3 vn son LI.
18 Bases: sea V sobre K. v1, v2, vn es una base de V si y solo si, son linealmente independientes y generadores de V.
Notación B = {v1, v2, vn}.
Aclaración: paso a vectorial, verifico que sean LI, si lo son es base. Aclaro que es CL y que si no genera (tiene menos
de n elementos) debo extender.
1. Linealmente independientes: (0,0,0)=k1(v1,v2,vn)+k2(v1,v2,vn) si todo k es igual a cero.
2. Combinación lineal: (x1,x2,x3)=k1(v1,v2,vn)+k2(v1,v2,vn).
Dimensión: número de vectores de cualquiera de sus bases. Notación dim V = n. Asimismo V es espacio vectorial de
dimensión finita. El caso V = {0} es de dimensión cero, dim Rn = n, dim R[x] = infinita. Todas las bases de un mismo V
tienen igual cantidad de vectores.
1831 Suma directa: todo vector de W1 + W2, se expresa como suma de un vector de W1, y uno de W2.
Teorema de caracterización de la suma directa: la suma es directa, si y solo sí, W1W2={0}.
Demostración:
Supongamos que la suma es directa. Si v ∈ W1∩W2 v ∈ W1 y v ∈ W2, y puede descomponerse:
v=v+0 con v∈W1 y 0∈W2
v=0+v con 0∈W1 y v∈W2
Contradice la hipótesis, entonces v = 0 W1∩W2 = {0}
Supongamos ahora que W1∩W2 = {0}. Sea v ∈ W1+W2, y se expresa:
v=w1+w2 con w1∈W1 y w2∈W2
v=w1'+w2' con w1'∈W1 y w2'∈W2
w1+w2=w1' +w2'
w1-w1' =w2' -w2
Teniendo en cuenta la hipótesis:
w1-w1' =0=w2' -w2
w1=w1' y w2' =w2
Todo vector de W1+W2 es suma de un vector de W1, y uno de W2 en una sola forma
Se verifica:
1. W1+W2 es directa sí y solo sí dim(W1+W2) = dim W1 + dim W2
2. Si W1+W2 es directa, y B1 es base de W1, B2 base de W2, entonces B = B1∪B2 es base de W1+W2
1832 Sub espacios complementarios: Sea V sobre K. Diremos que U y W son sub espacios complementarios, si y solo
si, se verifica que U+W=V y que U∩W={0}. Teorema: si U es sub espacio de V, tiene un sub espacio complementario.
19 Coordenadas:
Base ordenada: Sea V de dimensión n. Una sucesión de vectores es una base ordenada si y solo si los vectores son LI
y generan a V. Dos bases ordenadas son iguales si y solo si, están formada por los mismos vectores y en el mismo
orden. Se denota B = (v1, v2, vn) nótese la diferencia en () respecto de {}, y sus escalares (v)b = (k1, k2, kn) como n
upla, [v]b como matriz.
Linealidad: [u + v]b =[u]b +[v]b y [k u]b =k[u]b
191 Cambio de base: Sea V sobre K. Sean B = (v1, v2, vn) y B’ = (v1’, v2’, vn’) bases ordenadas de V. Sea v ∈ V, v
puede escribirse como combinación lineal de los vectores de las bases B y B’. Determina como se relacionan los
vectores de coordenadas de un mismo vector, respecto a distintas bases.
Algebra lineal
María Adelina Gay
k1 k1'
v = k1v1+k2v2+knvn →[v]B =k2 ... y ... v = k1'v1'+k2' v2'+kn'vn' →[v]B' =k2'
kn kn'
tomando el vector coordenado respecto de la base B
[v]B =[k1' v1' +k2' v2' +kn' vn' ]B = k1' [v1']B + k2' [v2']B + kn'[vn']B
por propiedades de multiplicación de matrices
k1'
[v]B =[ [v1']B [v2']B [vn']B ] k2'
kn'
[v]B =P [v]B'
Sea P la matriz de cambio de base B a B’.
22 Definiciones métricas:
Modulo: sea (V, /). Se llama módulo de u ∈ V y se denota ||u||=√(u/u). La positividad garantiza que la longitud de
cualquier vector esté siempre definida. Si el resultado es 1, u es vector unitario; si es 0, u es el vector nulo.
Ortogonalidad: sea (V, /). Sean u, v ∈ V se dice que u es ortogonal a v y se denota u ꓕ v, si y solo si (u/v)=0
Proyección: sea (V, /). Sean u, v ∈ V, si v≠0, se define:
(u/v)
Proyección de u sobre v y se denota proyvu = (v/v) v
Componente de u ꓕ v u'' = u - proyv u
Distancia: sea (V, /). Sean u, v ∈ V se define la distancia de u a v, d(u, v)=||u-v|| dos puntos
Positividad: d(u, v)≥0 siendo igual si y solo si u=v
Simétrica: d(u, v) = d(v, u)
Invariante frente a traslaciones: d(u+w, v+w) = d(u, v)
Siempre existe la distancia de un punto a un subconjunto, pero el punto de un conjunto más próximo a un punto
dado puede no existir, ser único o haber varios.
Teorema: sea (V, /), sea W sub espacio de dimensión finita, sea u∈V y z∈W. Si u1=proywu entonces d(u, u1)≤d(u, z),
u1 es la mejor aproximación de u por vectores de W.
Aclaración: distancia de v a W, d(v, W) = ||v-P|| un punto y un subconjunto
1. Busco la base ortogonal.
2. Busco el puto más próximo: con la suma de las proyecciones de los elementos de la base (no puedo
multiplicar ese vector porque es la distancia más chicas posible)
3. Resto el vector v y el vector punto más próximo, y saco el modulo.
(u/v)
Angulo: sea (V, /). Sean u y v ≠ 0 ∈ V, se define el ángulo entre u y v como α=arcos .
||u||||v||
241 Teorema de la desigualdad de Cauchy-Schwartz: para poder interpretar el resultado como el coseno de un
ángulo es necesario que el resultado esté comprendido entre -1 y 1. Sea (V, /). Sean u, v ∈ V entonces
|(u/v)|≤||u||||v|| siendo igual si y solo si, u y v son LD (uno es múltiplo por escalar del otro).
(u/v)
-1≤ ≤1
||u||||v||
propiedad del valor absoluto
|a|<k = -k<a<k
(u/v)
| |≤1
||u||||v||
por positividad los módulos son positivos
Algebra lineal
María Adelina Gay
|(u/v)|
≤1
||u||||v||
|(u/v)| ≤ ||u||||v||
242 Teorema de la desigualdad del triángulo: sea (V, /). Sean u, v ∈ V entonces ||u+v||≤||u||+||v|| siendo igual si y
solo si, tienen la misma dirección y sentido es decir u=k v, o v=k u, con k≥0.
Demostración: Por un lado: si uno de los vectores es 0, el teorema se verifica trivialmente. Suponemos que ambos
son distintos de 0 y planteamos…
||u+v||2 =((u+v)/(u+v))=||u||2 +2(u/v)+||v||2
teniendo en cuenta que (u/v) ≤ |(u/v)| ≤ ||u||||v|| y remplazando
2
||u+v||2 ≤ ||u||2 + 2||u||||v|| + ||v||2 = (||u||+||v||)
de donde se obtiene ||u+v||≤||u||+||v|| como queríamos demostrar
Por otro lado: para que ||u+v||=||u||+||v|| se debe cumplir (u/v) = |(u/v)| = ||u||||v||, es decir…
a. (u/v) =|(u/v)| (u/v)≥0
b. |(u/v)| = ||u||||v|| u=k v, o v=k u
Supongamos que v=k u entonces 0≤(u/v)=(u/k u)=k(u/u) como (u/u) es positivo 0≤k(u/u) k≥0
Si v=k u y k≥0 se tiene:
||u+v||=||u + k u||= |1+k|. ||u||=(1+k) ||u||
||u||+||v||=||u||+||k u||=(1+|k|). ||u||=(1+k) ||u||
de donde se obtiene ||u+v||=||u||+||v|| como queríamos demostrar
243 Teorema de Pitágoras generalizado: sea (V, /). Si u y v son vectores ortogonales entonces ||u+v||2=||u||2+||v||2
Demostración: por hipótesis u y v son ortogonales, esto es (u/v) = 0 y planteamos:
2 2 2
||u+v|| =((u+v)/(u+v))=||u|| +(2(u/v)=0)+||v||
2 2 2
de donde se obtiene ||u+v|| = ||u|| +||v|| como queríamos demostrar
25 Conjuntos ortogonales: sea (V, /). Sea SV un subconjuntos de vectores no nulos. Diremos que S es un conjunto
ortogonal si para todos u, v ∈ S se verifica (u/v)=0 siempre que u≠v. Si S es conjunto ortogonal tal que (u/u)=1 para
todos los u ∈ S es un conjunto ortonormal.
251 Propiedades: sea (V, /). Si S={v1, v2, vn} es un conjunto ortogonal y W=<v1, v2, vn>
1. Los vectores v1, v2, vn son linealmente independientes
Demostración:
Planteamos k1v1+ k2v2 + knvn = 0
Considerando el producto interno (v1/(k1v1+ k2v2 + knvn))=0
Distribuyendo k1(v1/v1) + k2(v1/v2) + kn(v1/vn) = 0
Por ser S un conjunto ortogonal se tiene que (vi/vj)=0 si i≠j
Entonces k1(v1/v1)=0 como v1≠0 entonces k1=0 #
2. Todo w ∈ W es suma de sus proyecciones sobre los vectores de S
Demostración:
Planteamos w = k1v1+ k2v2 + knvn
Realizando (w/v1) = k1(v1/v1) + k2(v2/v1) + kn(vn/v1)
Por ser S un conjunto ortogonal se tiene que (vi/vj)=0 si i≠j
w/v1
Por lo tanto (w/v1)=k1(v1/v1) k1= v1/v1
w/v1 w/vn
Luego w= v1/v1 v1 + vn/vn vn #
(u/vi)
3. Para todo u ∈ V, si u1= ∑ni=1 (vi/vi) vi, entonces el vector u2=u-u1 es ortogonal a W
Demostración: Para determinar que u2 es ortogonal a W basta probar que u2 es ortogonal a v1 vn.
u/v1 u/vn
u2 = u-u1 = u - ( v1 + vn)
v1/v1 vn/vn
Realizando (u2/vi) se tiene:
u/v1 u/vn
u2/vi = u/vi - ((v1/v1 v1 + vn/vn vn)/vi)
u/v1 u/vn
u2/vi = u/vi - v1/v1 (v1/vi) - vn/vn (vn/vi)
Algebra lineal
María Adelina Gay
u/v1
u2/vi = u/vi - v1/v1 (v1/vi) = 0
u2 ꓕ vi para i = 1, 2, n entonces u2 ꓕ W #
26 Teorema de Gram-Schmidt: sea (V, /). Si {u1, u2, un} es un conjunto de vectores LI, ꓱ un conjunto S={w1, w2, wn}
que es ortogonal y genera al mismo espacio. Siendo
w1=u1
w2=u2-proyw1u2
w3=u3-proyw1u3-proyw2u3
n
wi = ui- ∑ proyvi u = proyw v
i=1
27 Complemento ortogonal: sea (V, /). Sea SV, se llama complemento ortogonal de S al conjunto denotado Sꓕ
formado por todos los vectores de V que son ortogonales a cada uno de los vectores de S. Sꓕ={v ∈ V/v ꓕ u ∀u ∈ S}
Se verifica que: Sꓕ es un sub espacio; si W es el sub espacio generado por S (W=<S>) entonces Wꓕ = Sꓕ (todo vector
de Sꓕ es también ortogonal a todo vector de W).
29 Variedades lineales: Sea V sobre K, A c V. A es una variedad lineal si y solo si existe p ∈ V, y W subespacio, tales
que A = p + W.
Una variedad lineal es la imagen de un subespacio por una traslación, es decir A = Tp(W). Tp: V→V (u→u+p) se llama
traslación de vector p, p+S es la imagen del conjunto S por la traslación del vector p.
Son variedades lineales:
Toda recta de R2 (o de R3), sea L: x=p+<u>
Todo plano de R3, sea π: x=p+<u, v> resulta de sumar p a cada uno de vectores del espacio.
Todo subespacio W, sea W=0+W=T0(W).
Si V es un espacio vectorial y v ∈ V, entonces {v}=v+{0} es una variedad lineal.
Teorema: Sean A ∈ Kmxn y H ∈ Kmx1. Si el sistema AX=H es compatible entonces su conjunto S de soluciones es una
variedad lineal en Kmx1 cuyo subespacio asociado es el conjunto de soluciones del sistema AX=0.
292 Dimensión: Sea V sobre K, y sea A una variedad lineal. Llamaremos dimensión de A, a la dimensión del único
subespacio W asociado.
Observación: las variedades lineales de dimensión cero se denominan puntos, de dimensión uno rectas, de
dimensión dos planos. Ahora si V es dimensión n, la variedad de dimensión n-1 se denomina hiperplano, entonces un
hiperplano de R es un punto, de R2 es una recta, de R3 es un plano.
210 Clasificación:
1. Paralelismo: sean A y B variedades lineales, A//B si y solo si WAWB, o WBWA.
2. Concurrentes: sean A y B variedades lineales, son concurrentes si AB ≠ 0.
Intersección: igualo las dos variedades lineales en forma vectorial, verifico que el sistema sea compatible.
Algebra lineal
María Adelina Gay
Teorema: Sea V sobre K, y sean A=p+WA y B=q+WB variedades lineales. Si la intersección es distinta del nulo
entonces el resultado es una variedad lineal con subespacio asociado W=WAWB.
3. Alabeadas: no pertenecen al mismo plano, no son ni paralelas ni concurrentes.
211 Distancia de un punto a una variedad lineal: Sea A una variedad lineal y u un punto
d(u, A) = d(u-a, A-a) = d(y, W) = ||y-P||
P = proyWAy, punto más próximo de W
WA = base ortogonal de A (con la vectorial, ortogonalizo con gram schmidt).
Vector de A más próximo de u, u1 = P+a.