Sei sulla pagina 1di 8

Algebra lineal

María Adelina Gay


Unidad 1: Espacio vectorial
11 Espacio vectorial: sea K un cuerpo y V un conjunto no vacío sobre los que están definidas dos operaciones:
 Interna: u v w V, se denota (u + v) V (suma).
Asociativa: (u + v) + w = u + (v + w)
Conmutativa: u + v = v + u
Neutro: v + 0 (vector nulo) = v
Opuesto: u+(-u) = 0
 Externa: k K, (k u)V (multiplicación).
Distributiva respecto a la suma de vectores: k (u + v) = k u + k v
Distributiva respecto a la suma de escalares: (k + k’) u = k u + k’ u
Homogeneidad: (k’ k) u = k’ (k u) entre dos números reales, luego entre un número y un par
Neutro: 1. u = u, al escalar 1 se lo llama identidad
Si cumple todos los axiomas V es un espacio vectorial sobre el cuerpo K. Los elementos de V son vectores, los de K
escalares. Son espacios vectoriales: n uplas (Rn), matrices (Rmxn), polinomios (R[x]).

Propiedades: sea V sobre K.


 Escalar por vector: k×0=0
 Vector nulo: v×0=0
 Si v×k=0 alguno de los dos es igual a cero
 Vector negativo: -v=-1×v

12 Sub espacios: sea W un subconjunto no vacío de un espacio vectorial V, se dice que es sub espacio de V si W en sí
mismo es un espacio vectorial cerrado bajo la suma y multiplicación.
1. Identificar si el vector nulo  W.
2. Si la suma de dos vectores de W (a + b) W.
3. Si la multiplicación de un vector de W por un escalar cualquiera (a k) W.
Aclaración: se muestra que es un espacio vectorial: si el nulo, la suma y la multiplicación pertenecen.
Son sub espacios:
R2: cualquier recta que pase por el origen. W=<u>
R3: cualquier plano que pase por el origen. W=<u, v>
Sistema de ecuaciones lineales homogéneas: AX = 0, el sistema tiene que ser homogéneo porque si no el nulo no
satisface. Si C y D son elementos de W, es decir matrices solución del sistema, por lo tanto AC=0 y AD=0 entonces,
A(C+D)=0, (C+D)W; ahora A(kC) = k AC = k 0 = 0, A(kC)W.
R[x] polinomios de grado menor o igual a n (Pn): porque en la suma de polinomios puedo obtener un grado menor, y
en la multiplicación se suman los grados.

De ecuación vectorial a cartesiana:


1. Tengo W (x1, x2, xn) = α(1,2,n)+β(0,3,n) = <(1, 2, n),(0, 3, n)>
2. A cada incógnita (x1, x2, xn) le corresponde valores de cada parámetro (α, β, γ, δ)
3. Armo un sistema, que da una matriz con los valores de los parámetros, ampliada con las incógnitas.
Reduzco.
4. Según Rouché Frobenius el rango de la matriz, y la matriz ampliada tiene que ser iguales para que el sistema
sea compatible, para eso igualo a cero las incógnitas que sean necesarias.
5. Establezco W= {(x1, x2, xn) / … el termino igualado a cero}. Verifico con los vectores iniciales.

De cartesiana a vectorial:
1. Tengo W= {(x1, x2, xn) / … el termino igualado a cero}
2. Despejo incógnitas. En caso de necesitar simplificar la solución, armo una matriz y la reduzco.
3. Armo una n upla (x1, x2, xn) con lo que le corresponda a cada incógnita (lo que despejamos), y las
intercambio por paramentos.
4. Saco factor común a los parámetros.
5. Escribo es forma de combinación lineal <>.
Aclaración: cantidad de incógnitas – cantidad de ecuaciones = cantidad parámetros/vectores

131 Intersección de sub espacios: Si U y W son sub espacios de V, entonces U∩W es también sub espacio. Se unen
todas las cartesianas.
Algebra lineal
María Adelina Gay
Demostración:
U∩W={v| v∈U, y v∈W}
sean v1, v2∈ U∩W se tiene que
v1, v2∈ U, U es un sub espacio v1+v2∈ U
v1, v2∈ W, W es un sub espacio v1+v2∈ W
entonces v1+v2∈U∩W

132 Suma de sub espacios: Si U y W son sub espacios de V, entonces U+W es también sub espacio. Se unen todas
las vectoriales.
U+W = {v ∈ V | v = v1+v2 con v1∈U y v2∈W}
sean v1, v2∈ U+W se tiene que
v1 = u1+w1 con u1∈U y w1∈W
v2 = u2+w2 con u2∈U y w2∈W
v1+v2=(u1+u2)+(w1+w2)
entonces v1+v2∈U+W

14 Combinación lineal: se dice que un vector v es combinación lineal de los vectores (v1, v2…vn) según los escalares
(k1, k2…kn), si y solo si v = (k1v1 + k2v2 + knvn).

15 Generador: conjunto de vectores tales que todo vector del espacio se puede expresar como CL.
Sub espacio generado: conjunto de todas las combinaciones lineales que se pueden realizar con los vectores del
generador. Se denota W = <v1, v2…vn>, esos vectores son generadores.
Teorema: W es sub espacio de V, (v1, v2…vn) son elementos de W, si W’ contiene a (v1, v2…vn) WW’.

152 Teorema del basurero: sea V sobre K. Sean (v1, v2, vn) vectores de V, y W=<v1, v2, vn> sub espacio de V. Si v1 es
combinación lineal de los demás entonces lo puedo sacar <v1, v2, vn> = <v2, v3, vn>.
Demostración: debemos probar que W1W2 y W2W1, entonces W1=W2
w1=<v1, v2, v3… vn>
w2=<v2, v3… vn>
 w1 ∈ W1 | w1 = k1v1 + k2v2 + k3v3 + knvn
v1=k’2v2 + k’3v3 + k’nvn
remplazo v1 en w1
w1 = k1(k’2v2 + k’3v3 + k’nvn) + k2v2 + k3v3 + knvn
distributiva y factor común
w1 = v2(k1 k’2 k2) + v3(k1 k’3 k3) + vn(k1 k’n kn)
llamamos a k1 k’n kn = k’’n
w1 = v2k’’2 + v3k’’3 + vnk’’n
es combinación lineal
w1 ∈ W2, W1W2
 w2 ∈ W2 / w2 = k2v2 + k3v3 + knvn = 0
aplico 0v1 de ambos lados
0v1 + k2v2 + k3v3 + knvn = 0
es combinación lineal
w2 ∈ W1, W2W1
Concluimos W1 = W2

16 Dependencia e independencia lineal:


Combinación lineal trivial: el vector nulo es siempre combinación lineal de vectores.
Linealmente dependientes: si y solo si, existen escalares k1, k2, kn no todos nulos tal que k1v1 + k2v2 + knvn = 0.
Demostración: Alguno de ellos es combinación lineal de los demás.
Por un lado: supongamos que k1≠0, quiere decir que tiene inverso multiplicativo 1/k1 entonces…
v1 + (k2/k1)v2 + (kn/k1)vn = 0
v1 = (-k2/k1)v2 + (-kn/k1)vn
si –k/k1 = k’
v1 = k2’v2 + kn’vn
v1 es combinación lineal de v2 vn
Algebra lineal
María Adelina Gay
Por otro lado: supongamos que v1 es <v2 vn> entonces…
v1 = k2v2 + knvn
0 = -v1 + k2v2 + knvn
k1=-1 existe al menos un k≠0 / CL=0

Linealmente independientes: si y solo si k1v2 + k2v2 + knvn = 0 se da únicamente con escalares nulos.
Demostración: si todo v ∈ <v1,v2.. vn> es CL en una sola forma.
Por un lado: la única combinación lineal que expresa el vector nulo es 0 = 0v1 + 0v2 + 0vn luego son LI.
Por el otro:
v = k1v1 + k2v2 + knvn
v = k'1v1 + k'2v2 + k'nvn
restando ambos miembros y factor común
0=(k1-k'1)v1+(k2-k'2)v2+(kn-k'n)vn
por hipótesis son linealmente independientes
entonces k-k'=0 que es k=k'
Propiedades:
 Dos vectores: si v1 = k v2 (múltiplo por escalar) son LD.
 Tres vectores: tengo que hacer las cuentas. Igualo el vector nulo a la CL y despejo los k.
 Si entre v1 v2 vn figura el vector nulo o dos vectores iguales, son LD.
 Si a v1 v2 vn LD se le agrega u, v1 v2 vn u son LD.
 Si v1 v2 vn son LI, v2 v3 vn son LI.

17 Generador y dependencia lineal:


171 Teorema: sean V = < v1 v2 vm > y w1 w2 wn elementos arbitrarios de V. Si n>m entonces w1 w2 wn son LD.
172 Teorema: si v1 v2 vn son LI, y u no pertenece a < v1 v2 vn > entonces v1 v2 vn u son LI.
Demostración:
v1k1 + v2k2 + vnkn + uk = 0
deber ser k=0 de lo contrario u sería CL de v1 v2 vn
y k1 = k2 = kn = 0 por ser LI
el teorema se cumple si todos los coeficientes son cero, por lo tanto, v1 v2 vn u son LI

18 Bases: sea V sobre K. v1, v2, vn es una base de V si y solo si, son linealmente independientes y generadores de V.
Notación B = {v1, v2, vn}.
Aclaración: paso a vectorial, verifico que sean LI, si lo son es base. Aclaro que es CL y que si no genera (tiene menos
de n elementos) debo extender.
1. Linealmente independientes: (0,0,0)=k1(v1,v2,vn)+k2(v1,v2,vn) si todo k es igual a cero.
2. Combinación lineal: (x1,x2,x3)=k1(v1,v2,vn)+k2(v1,v2,vn).

Dimensión: número de vectores de cualquiera de sus bases. Notación dim V = n. Asimismo V es espacio vectorial de
dimensión finita. El caso V = {0} es de dimensión cero, dim Rn = n, dim R[x] = infinita. Todas las bases de un mismo V
tienen igual cantidad de vectores.

Propiedades: Sea V un espacio vectorial sobre K, de dimensión n.


 El vector nulo no tiene base.
 Cualquier subconjunto de V con más de n elementos, es LD.
 Ningún subconjunto de V con menos de n elementos, genera a V.
 Todo generador de V, con n vectores es una base.
 181 Teorema: se garantiza la existencia de bases en V. Todo subconjunto de n vectores LI es una base de V.
 182 Teorema: Sea A una matriz m x n. Si el rango de la matriz A es r, entonces la dimensión es n-r.

183 Suma de dimensiones: dim(W1+W2)= dimW1 + dimW2 – dim(W1W2)


Demostración:
Supongo que dim(W1W2) = k:
B0 = BW1W2 = {w1 w2 wk}
Sean B1 base de W1, y B2 base de W2, que incluyen a B0:
B1 = { w1 w2 wk, u1 u2 ur }, dim W1 = k + r
Algebra lineal
María Adelina Gay
B2 = { w1 w2 wk, v1 v2 vs }, dim W2 = k + s
Debo encontrar una base de W1 + W2 que tenga k + r + s vectores. Afirmamos que B es una base W1 + W2:
B = BW1+W2 = { w1 w2 wk, u1 u2 ur, v1 v2 vs }, dim (W1 + W2) = k + r + s
Es inmediato que W1 + W2 es generado por los elementos de B. Para ver que B es base queda demostrar que sus
vectores son LI, consideremos:
(x1w1 + x2w2 + xkwk) + (y1u1 + y2u2 + yrur) + (z1v1 + z2v2 + zsvs) = 0
( x1w1 + x2w2 + xkwk + y1u1 + y2u2 + yrur ) ∈ W1 = -( z1v1 + z2v2 + zsvs ) ∈ W2
Esta igualdad, un vector de W1 y un vector de W2, significa que ambos miembros representan al mismo vector y por
ende éste pertenece a W1W2. Dicho vector puede escribirse como CL de los vectores de la base del subespacio
W1W2, o sea:
-(z1v1 + z2v2 + zsvs) = a1w1 + a2w2 + akwk
0 = a1w1 + a2w2 + akwk + z1v1 + z2v2 + zsvs
Como los vectores w1 w2 wk v1 v2 vs son LI porque forman una base de W2, entonces todos los escalares son cero.
Luego la relación se reduce a:
x1w1 + x2w2 + xkwk + y1u1 + y2u2 + yrur = 0
Como los vectores w1 w2 wk u1 u2 ur son LI porque forman una base de W1, entonces todos los escalares son cero.
Luego:
x1w1 + x2w2 + xkwk + y1u1 + y2u2 + yrur + z1v1 + z2v2 + zsvs = 0
Si todos los escalares son cero, que queda probado que los vectores de B son Li y que B es una base de W1+W2.
Por lo tanto: dim (W1+W2) = k + r + s = (k + r) + (k + s) – k = dim W1 + dim W2 – dim(W1W2). #

1831 Suma directa: todo vector de W1 + W2, se expresa como suma de un vector de W1, y uno de W2.
Teorema de caracterización de la suma directa: la suma es directa, si y solo sí, W1W2={0}.
Demostración:
Supongamos que la suma es directa. Si v ∈ W1∩W2  v ∈ W1 y v ∈ W2, y puede descomponerse:
v=v+0 con v∈W1 y 0∈W2
v=0+v con 0∈W1 y v∈W2
Contradice la hipótesis, entonces v = 0  W1∩W2 = {0}
Supongamos ahora que W1∩W2 = {0}. Sea v ∈ W1+W2, y se expresa:
v=w1+w2 con w1∈W1 y w2∈W2
v=w1'+w2' con w1'∈W1 y w2'∈W2
w1+w2=w1' +w2'
w1-w1' =w2' -w2
Teniendo en cuenta la hipótesis:
w1-w1' =0=w2' -w2
w1=w1' y w2' =w2
Todo vector de W1+W2 es suma de un vector de W1, y uno de W2 en una sola forma
Se verifica:
1. W1+W2 es directa sí y solo sí dim(W1+W2) = dim W1 + dim W2
2. Si W1+W2 es directa, y B1 es base de W1, B2 base de W2, entonces B = B1∪B2 es base de W1+W2

1832 Sub espacios complementarios: Sea V sobre K. Diremos que U y W son sub espacios complementarios, si y solo
si, se verifica que U+W=V y que U∩W={0}. Teorema: si U es sub espacio de V, tiene un sub espacio complementario.

19 Coordenadas:
Base ordenada: Sea V de dimensión n. Una sucesión de vectores es una base ordenada si y solo si los vectores son LI
y generan a V. Dos bases ordenadas son iguales si y solo si, están formada por los mismos vectores y en el mismo
orden. Se denota B = (v1, v2, vn) nótese la diferencia en () respecto de {}, y sus escalares (v)b = (k1, k2, kn) como n
upla, [v]b como matriz.
Linealidad: [u + v]b =[u]b +[v]b y [k u]b =k[u]b

191 Cambio de base: Sea V sobre K. Sean B = (v1, v2, vn) y B’ = (v1’, v2’, vn’) bases ordenadas de V. Sea v ∈ V, v
puede escribirse como combinación lineal de los vectores de las bases B y B’. Determina como se relacionan los
vectores de coordenadas de un mismo vector, respecto a distintas bases.
Algebra lineal
María Adelina Gay
k1 k1'
v = k1v1+k2v2+knvn →[v]B =k2 ... y ... v = k1'v1'+k2' v2'+kn'vn' →[v]B' =k2'
kn kn'
tomando el vector coordenado respecto de la base B
[v]B =[k1' v1' +k2' v2' +kn' vn' ]B = k1' [v1']B + k2' [v2']B + kn'[vn']B
por propiedades de multiplicación de matrices
k1'
[v]B =[ [v1']B [v2']B [vn']B ] k2'
kn'
[v]B =P [v]B'
Sea P la matriz de cambio de base B a B’.

Unidad 2: Producto interno


21 Producto interno: sea (V, /) espacio vectorial real con producto interno. Diremos que es un espacio con producto
interno si se tiene una regla que asigne a cada par (u, v) de vectores de V un número real, que denotaremos (u/v). El
resultado es un número.
Propiedades:
 Simetría: (u/v) = (v/u) conmutativa
 Aditividad: ((u+u’)/v) = (u/v) + (u’/v) distributiva respecto a la suma de vectores
 Homogeneidad: (k u/v) = k(u/v) sacar los escalares adelante
 Positividad: (u/u)≥0 siempre es positivo, siendo igual cuando u=0

22 Definiciones métricas:
Modulo: sea (V, /). Se llama módulo de u ∈ V y se denota ||u||=√(u/u). La positividad garantiza que la longitud de
cualquier vector esté siempre definida. Si el resultado es 1, u es vector unitario; si es 0, u es el vector nulo.
Ortogonalidad: sea (V, /). Sean u, v ∈ V se dice que u es ortogonal a v y se denota u ꓕ v, si y solo si (u/v)=0
Proyección: sea (V, /). Sean u, v ∈ V, si v≠0, se define:
(u/v)
 Proyección de u sobre v y se denota proyvu = (v/v) v
 Componente de u ꓕ v u'' = u - proyv u
Distancia: sea (V, /). Sean u, v ∈ V se define la distancia de u a v, d(u, v)=||u-v|| dos puntos
 Positividad: d(u, v)≥0 siendo igual si y solo si u=v
 Simétrica: d(u, v) = d(v, u)
 Invariante frente a traslaciones: d(u+w, v+w) = d(u, v)
Siempre existe la distancia de un punto a un subconjunto, pero el punto de un conjunto más próximo a un punto
dado puede no existir, ser único o haber varios.
Teorema: sea (V, /), sea W sub espacio de dimensión finita, sea u∈V y z∈W. Si u1=proywu entonces d(u, u1)≤d(u, z),
u1 es la mejor aproximación de u por vectores de W.
Aclaración: distancia de v a W, d(v, W) = ||v-P|| un punto y un subconjunto
1. Busco la base ortogonal.
2. Busco el puto más próximo: con la suma de las proyecciones de los elementos de la base (no puedo
multiplicar ese vector porque es la distancia más chicas posible)
3. Resto el vector v y el vector punto más próximo, y saco el modulo.
(u/v)
Angulo: sea (V, /). Sean u y v ≠ 0 ∈ V, se define el ángulo entre u y v como α=arcos .
||u||||v||

241 Teorema de la desigualdad de Cauchy-Schwartz: para poder interpretar el resultado como el coseno de un
ángulo es necesario que el resultado esté comprendido entre -1 y 1. Sea (V, /). Sean u, v ∈ V entonces
|(u/v)|≤||u||||v|| siendo igual si y solo si, u y v son LD (uno es múltiplo por escalar del otro).
(u/v)
-1≤ ≤1
||u||||v||
propiedad del valor absoluto
|a|<k = -k<a<k
(u/v)
| |≤1
||u||||v||
por positividad los módulos son positivos
Algebra lineal
María Adelina Gay
|(u/v)|
≤1
||u||||v||
|(u/v)| ≤ ||u||||v||

242 Teorema de la desigualdad del triángulo: sea (V, /). Sean u, v ∈ V entonces ||u+v||≤||u||+||v|| siendo igual si y
solo si, tienen la misma dirección y sentido es decir u=k v, o v=k u, con k≥0.
Demostración: Por un lado: si uno de los vectores es 0, el teorema se verifica trivialmente. Suponemos que ambos
son distintos de 0 y planteamos…
||u+v||2 =((u+v)/(u+v))=||u||2 +2(u/v)+||v||2
teniendo en cuenta que (u/v) ≤ |(u/v)| ≤ ||u||||v|| y remplazando
2
||u+v||2 ≤ ||u||2 + 2||u||||v|| + ||v||2 = (||u||+||v||)
de donde se obtiene ||u+v||≤||u||+||v|| como queríamos demostrar
Por otro lado: para que ||u+v||=||u||+||v|| se debe cumplir (u/v) = |(u/v)| = ||u||||v||, es decir…
a. (u/v) =|(u/v)|  (u/v)≥0
b. |(u/v)| = ||u||||v||  u=k v, o v=k u
Supongamos que v=k u entonces 0≤(u/v)=(u/k u)=k(u/u) como (u/u) es positivo 0≤k(u/u)  k≥0
Si v=k u y k≥0 se tiene:
||u+v||=||u + k u||= |1+k|. ||u||=(1+k) ||u||
||u||+||v||=||u||+||k u||=(1+|k|). ||u||=(1+k) ||u||
de donde se obtiene ||u+v||=||u||+||v|| como queríamos demostrar

243 Teorema de Pitágoras generalizado: sea (V, /). Si u y v son vectores ortogonales entonces ||u+v||2=||u||2+||v||2
Demostración: por hipótesis u y v son ortogonales, esto es (u/v) = 0 y planteamos:
2 2 2
||u+v|| =((u+v)/(u+v))=||u|| +(2(u/v)=0)+||v||
2 2 2
de donde se obtiene ||u+v|| = ||u|| +||v|| como queríamos demostrar

25 Conjuntos ortogonales: sea (V, /). Sea SV un subconjuntos de vectores no nulos. Diremos que S es un conjunto
ortogonal si para todos u, v ∈ S se verifica (u/v)=0 siempre que u≠v. Si S es conjunto ortogonal tal que (u/u)=1 para
todos los u ∈ S es un conjunto ortonormal.

251 Propiedades: sea (V, /). Si S={v1, v2, vn} es un conjunto ortogonal y W=<v1, v2, vn>
1. Los vectores v1, v2, vn son linealmente independientes
Demostración:
Planteamos k1v1+ k2v2 + knvn = 0
Considerando el producto interno (v1/(k1v1+ k2v2 + knvn))=0
Distribuyendo k1(v1/v1) + k2(v1/v2) + kn(v1/vn) = 0
Por ser S un conjunto ortogonal se tiene que (vi/vj)=0 si i≠j
Entonces k1(v1/v1)=0 como v1≠0 entonces k1=0 #
2. Todo w ∈ W es suma de sus proyecciones sobre los vectores de S
Demostración:
Planteamos w = k1v1+ k2v2 + knvn
Realizando (w/v1) = k1(v1/v1) + k2(v2/v1) + kn(vn/v1)
Por ser S un conjunto ortogonal se tiene que (vi/vj)=0 si i≠j
w/v1
Por lo tanto (w/v1)=k1(v1/v1)  k1= v1/v1
w/v1 w/vn
Luego w= v1/v1 v1 + vn/vn vn #
(u/vi)
3. Para todo u ∈ V, si u1= ∑ni=1 (vi/vi) vi, entonces el vector u2=u-u1 es ortogonal a W
Demostración: Para determinar que u2 es ortogonal a W basta probar que u2 es ortogonal a v1 vn.
u/v1 u/vn
u2 = u-u1 = u - ( v1 + vn)
v1/v1 vn/vn
Realizando (u2/vi) se tiene:
u/v1 u/vn
u2/vi = u/vi - ((v1/v1 v1 + vn/vn vn)/vi)
u/v1 u/vn
u2/vi = u/vi - v1/v1 (v1/vi) - vn/vn (vn/vi)
Algebra lineal
María Adelina Gay
u/v1
u2/vi = u/vi - v1/v1 (v1/vi) = 0
u2 ꓕ vi para i = 1, 2, n entonces u2 ꓕ W #

26 Teorema de Gram-Schmidt: sea (V, /). Si {u1, u2, un} es un conjunto de vectores LI, ꓱ un conjunto S={w1, w2, wn}
que es ortogonal y genera al mismo espacio. Siendo
w1=u1
w2=u2-proyw1u2
w3=u3-proyw1u3-proyw2u3
n
wi = ui- ∑ proyvi u = proyw v
i=1

27 Complemento ortogonal: sea (V, /). Sea SV, se llama complemento ortogonal de S al conjunto denotado Sꓕ
formado por todos los vectores de V que son ortogonales a cada uno de los vectores de S. Sꓕ={v ∈ V/v ꓕ u ∀u ∈ S}
Se verifica que: Sꓕ es un sub espacio; si W es el sub espacio generado por S (W=<S>) entonces Wꓕ = Sꓕ (todo vector
de Sꓕ es también ortogonal a todo vector de W).

271 Teorema: sea (V, /). V es suma directa de W y Wꓕ


Demostración: sea (w1, w2, wn) una base ortogonal de W.
(u/wi)
Para todo u ∈ V se tiene u1= ∑ni=1 (wi/wi)
wi y u2=u-u1 ꓕ W, que podemos expresar como:
u=u1+u2 con u1 ∈ W y u2 ∈ Wꓕ (u2 ꓕ W)
es decir que V es suma de W y Wꓕ
y es directa si WWꓕ=0
Sea w ∈ WWꓕ se verifica (w/w)=0
por positividad w=0 es el vector nulo

29 Variedades lineales: Sea V sobre K, A c V. A es una variedad lineal si y solo si existe p ∈ V, y W subespacio, tales
que A = p + W.
Una variedad lineal es la imagen de un subespacio por una traslación, es decir A = Tp(W). Tp: V→V (u→u+p) se llama
traslación de vector p, p+S es la imagen del conjunto S por la traslación del vector p.
Son variedades lineales:
Toda recta de R2 (o de R3), sea L: x=p+<u>
Todo plano de R3, sea π: x=p+<u, v> resulta de sumar p a cada uno de vectores del espacio.
Todo subespacio W, sea W=0+W=T0(W).
Si V es un espacio vectorial y v ∈ V, entonces {v}=v+{0} es una variedad lineal.
Teorema: Sean A ∈ Kmxn y H ∈ Kmx1. Si el sistema AX=H es compatible entonces su conjunto S de soluciones es una
variedad lineal en Kmx1 cuyo subespacio asociado es el conjunto de soluciones del sistema AX=0.

291 Propiedades: Sea V y A= p + W una variedad lineal en V.


 El vector p ∈ A.
 Si q ∈ A, y r ∈ A entonces q-r ∈ W.
 Si p ∈ W, entonces A = W.
 Si q ∈ A, entonces A = q + W. El vector p puede ser remplazado por cualquier vector de A.
 Hay un único subespacio W, tal que para todo p ∈ A, se tiene A = p + W. Este subespacio se denomina
subespacio asociado a la variedad lineal.

292 Dimensión: Sea V sobre K, y sea A una variedad lineal. Llamaremos dimensión de A, a la dimensión del único
subespacio W asociado.
Observación: las variedades lineales de dimensión cero se denominan puntos, de dimensión uno rectas, de
dimensión dos planos. Ahora si V es dimensión n, la variedad de dimensión n-1 se denomina hiperplano, entonces un
hiperplano de R es un punto, de R2 es una recta, de R3 es un plano.

210 Clasificación:
1. Paralelismo: sean A y B variedades lineales, A//B si y solo si WAWB, o WBWA.
2. Concurrentes: sean A y B variedades lineales, son concurrentes si AB ≠ 0.
Intersección: igualo las dos variedades lineales en forma vectorial, verifico que el sistema sea compatible.
Algebra lineal
María Adelina Gay
Teorema: Sea V sobre K, y sean A=p+WA y B=q+WB variedades lineales. Si la intersección es distinta del nulo
entonces el resultado es una variedad lineal con subespacio asociado W=WAWB.
3. Alabeadas: no pertenecen al mismo plano, no son ni paralelas ni concurrentes.

211 Distancia de un punto a una variedad lineal: Sea A una variedad lineal y u un punto
d(u, A) = d(u-a, A-a) = d(y, W) = ||y-P||
P = proyWAy, punto más próximo de W
WA = base ortogonal de A (con la vectorial, ortogonalizo con gram schmidt).
Vector de A más próximo de u, u1 = P+a.

Potrebbero piacerti anche