Sei sulla pagina 1di 14

SOLUCIÓN DE SISTEMAS DE ECUACIONES LINEALES

Un sistema de ecuaciones lineales es sistema de ecuaciones de la forma

Donde aij y bk son números reales fijos y x1;….; xn se llaman las incógnitas (o también
variables) del sistema.

Un sistema de ecuaciones lineales se puede escribir de manera matricial:

Una solución del sistema anterior es un vector de 𝑅 𝑛 que satisface la ecuación


Matricial. En otras palabras una solución es un vector de números reales (𝑥1∗ , … . 𝑥𝑛∗ ) que
verifican todas las ecuaciones del sistema.

Definición. Un sistema de ecuaciones lineales es compatible si tiene solución. Diremos


que es incompatible si no tiene solución.

Un sistema de ecuaciones lineales compatible se dice que es determinado si tiene una


única solución. Diremos que es indeterminado si tiene más de una (de hecho infinitas)
soluciones.

Ejemplo. El sistema de ecuaciones lineales

No tiene solución, es incompatible.

El sistema de ecuaciones

Tiene cómo única solución el vector (3; 2). Es un sistema compatible determinado.
El sistema de ecuaciones

Tiene infinitas soluciones. De hecho todos los vectores de la forma (x; 4 - x) por lo tanto
es compatible indeterminado.

MÉTODOS DIRECTOS DE SOLUCIÓN DE SISTEMAS DE ECUACIONES LINEALES

Los métodos directos se caracterizan por el hecho de que, si no hubiera errores de


redondeo, se obtendría La solución exacta del sistema en un número infinito de
Operaciones.
MÉTODO DE GAUSS_JORDAN
CALCULO DE LA INVERSA DE UNA MATRIS

Dada una matriz cuadrada n x n, A, decimos que tiene inversa si existe una matriz n x n
que denotamos por

Donde 𝑖 𝑛 es la matriz identidad de tamaño n.

Observación. ¾Es única la matriz inversa? Es decir, ¾puede ocurrir que haya dos matrices
distintas, digamos B y C tales BA = AB = In y además CA=AC =In? Veamos que, si estas
ecuaciones se satisfacen, entonces debe ocurrir que B=C. En efecto, como CA = In,
multiplicando por B por la derecha obtenemos

Tenemos que B = C.

Propiedad. Una matriz cuadrada A tiene inversa si, y sólo si, su determinante es
diferente de cero. Equivalentemente una matriz cuadrada n x n tiene inversa si y sólo si
su rango es n.

Propiedad. Si A tiene inversa entonces

Propiedad.

Sean A y B matrices cuadradas de tamaño n. A.B y B .A tienen inversa si y sólo si A y B


tienen inversa. Además

Hay diversos métodos para calcular la matriz inversa pero sin duda el más rápido e
inteligible es el método de Gauss que explicamos para escalonar matrices.
Si tenemos una matriz

A toda esta matriz le aplicamos cambios elementales hasta que conseguir (si es que se
puede lo cual es equivalente a que tenga rango máximo) que en la parte de la izquierda
nos quede la identidad. En caso que sea posible obtendremos

La matriz que tenemos ahora en la derecha es la inversa de A.

Este método funciona ya que de hecho la matriz que se obtiene en la derecha es el


producto de todas las matrices por las que hay que ir multiplicando la matriz original para
hacerle los cambios que nos llevan a la identidad.

Ejemplo. Consideremos la matriz

Montamos la matriz grande:

Hacemos los cambios que toquen


Aquí vemos que el rango de A es 3 por lo tanto se puede invertir.

Finalmente dividimos por 2

Por lo tanto la matriz inversa es

Para los fanáticos de las fórmulas, existe también una fórmula que proporciona la inversa
de una matriz. Llamamos matriz adjunta de A (Adj(A)) a la matriz cuyos elementos son los
adjuntos de A. Es decir, el elemento en la fila i y columna j de Adj(A), es Aij .

Proposición. Si |A| 6= 0, entonces


FACTORIZACION DIRECTA DE MATRICES

La discusión centrada alrededor del Teorema XIII.6 se refirió a la factorización de una


matriz A en términos de una matriz triangular inferior L y de una matriz triangular superior
U. Esta factorización existe cuando se puede resolver de manera única el sistema lineal A
x=b por eliminación Gaussiana sin intercambios de filas o columnas. El sistema L U x = A
x = b puede transformarse entonces en el sistema U x=𝐿−1 b y como U es triangular
superior, se puede aplicar una sustitución hacia atrás. Aun cuando las formas específicas
de L y U se pueden obtener del proceso de eliminación Gaussiana, es deseable encontrar
un método más directo para su determinación, para que, si fuera necesaria la solución
de varios sistemas usando A, solo se necesitaría realizar una sustitución hacia adelante y
otra hacia atrás. Para ilustrar un procedimiento para calcular los elementos de estas
matrices, consideremos un ejemplo.

Ejemplo. Considere la matriz estrictamente dominante diagonalmente de 4 x 4:

Los Teoremas XIII.6 y XIII.8 garantizan que A se puede factorizar en la forma


A = L U, donde:

Los 16 elementos conocidos de A se pueden usar para determinar parcialmente los diez
elementos desconocidos de L y el mismo número de U. Sin embargo si el procedimiento
nos debe llevar a una solución única, se necesitan cuatro condiciones adicionales para los
elementos de L y de U. El método a usar en este ejemplo consiste en requerir arbitra-
reamente que l11 = l22 = l33 = l44 = 1, y se conoce como el método de Doolittle. Más
adelante en este capítulo, se consideraran métodos que requieren que todos los
elementos de la diagonal de U sean uno (método de Crout) y que lii = uii para cada valor
de i (método de Choleski).
La parte de la multiplicación de L con U,

Que determina la primera fila de A, da lugar a las cuatro ecuaciones

La parte de la multiplicación de L con U que determina los elementos restantes de la


primera columna de A da las ecuaciones

Y entonces

Hasta aquí las matrices L y U asumen la forma:

La parte de la multiplicación que determina los elementos restantes en la segunda fila


de A lleva a las ecuaciones
Así que

y la que determina los elementos restantes de la segunda columna de A da

Asi que

Ahora las matrices L y U tienen la forma:


La parte de la multiplicación que determina los elementos restantes en la tercera fila de
A lleva a las ecuaciones.
ESTRATEGIAS DE PIVOTEO

Durante la derivación del algoritmo de la eliminación con sustitución hacia Atrás, se


(𝑘)
encontró que para obtener un cero para el elemento pivote 𝑎𝑘𝑘 era necesario un
intercambio de filas de la forma (𝐸𝐾 ) ↔ (𝐸𝑃 ) donde k + 1 ≤p≤n era el entero más pequeño
(𝑘)
con 𝑎𝑝𝑘 ≠0. En la práctica frecuentemente es deseable realizar intercambios de las filas
que contienen a los elementos pivote, aun cuando estos no sean cero. Cuando los
cálculos se realizan usando aritmética de dígitos finitos, como será el caso de las
soluciones generadas con calculadora u ordenador, un elemento pivote que sea pequeño
comparado con los elementos de debajo de el en la misma columna puede llevar a un
error de redondeo sustancial. En el ejemplo siguiente se da una ilustración de esta
dificultad.

Ejemplo. El sistema lineal

Tiene la solución exacta x1 = 10:00 y x2 = 1:000.

Para ilustrar las dificultades del error de redondeo, se aplicará eliminación Gaussiana a
este sistema usando aritmética de cuatro dígitos con redondeo.

(1)
El primer elemento pivote es 𝑎11 = 0:003 y su multiplicador asociado es

El cual se redondea a 1764. Efectuando la operación

Y el redondeo apropiado

La sustitución hacia atrás implica que


El error absoluto tan grande en la solución numérica de x1 resulta del error pequeño de
0:001 al resolver para x2. Este error absoluto fue amplificado por un factor de 20000 en
la solución de x1 debido al orden en el que fueron realizados los cálculos.

TECNICAS ITERATIVAS PARA RESOLVER SISTEMAS LINEALES


ALGEBRA MATRICIAL Y SOLUCIONES DE ECUACIONES LINEALES

INTRODUCCIÓN

Abordaremos en este tema la resolución de Sistemas de Ecuaciones Lineales


(por diferentes métodos directos, iterativos y de descenso) y la resolución
de Sistemas de Ecuaciones No Lineales (por métodos de iteración funcional
y de Newton).

Antes de plantear los métodos de resolución de S.E.L. estudiaremos su


condicionamiento, esto es, la sensibilidad de la solución exacta del sistema
a las pequeñas variaciones en los datos.

Potrebbero piacerti anche