Sei sulla pagina 1di 27

UNIVERSIDAD NACIONAL DE SAN CRISTÓBAL DE

HUAMANGA
FACULTAD DE INGENIERÍA DE MINAS GEOLOGÍA
Y CIVIL
ESCUELA DE FORMACIÓN PROFESIONAL DE
INGENIERÍA DE MINAS

ECUACIONES ALGEBRAICAS LINEALES

PRESENTADO POR:

Ayala Vizcarra, Juan Carlos


Breas Villar, Lelis
Cabrera Pozo, Samuel Klinton
Flores Taco, Tony
Mendoza Yace, Neker Jhoel

DOCENTE:

MG. Johnny H. Ccatamayo Barrios

AYACUCHO – PERÚ

2018
1. CAPÍTULO Ⅰ
1.1. RESUMEN EJECUTIVO

El estudio de los sistemas de ecuaciones lineales tiene como objetivo


conocer los diferentes sistemas existentes y posteriormente dar solución a
estos. Sin embargo, para el desarrollo del presente trabajo es necesario
conocer algunos fundamentos del algebra lineal, como son las matrices.

Para el análisis de los diferentes sistemas se tiene: sistemas compatibles


(determinada, indeterminada), sistemas incompatibles y los sistemas
homogéneos. Posteriormente concluyendo así, si el sistema es apto para su
resolución.

Analizado el sistema se procede a resolver, con cualquiera de los métodos:


Eliminación Gaussiana, Gauss-Jordan y Factorización LU. La aplicación
de estos métodos dependerá del tipo de matriz que se genera a partir del
sistema lineal.

2
ÍNDICE
1. CAPÍTULO Ⅰ ............................................................................................................ 2
1.1. RESUMEN EJECUTIVO .................................................................................. 2
1.2. OBJETIVOS GENERALES .............................................................................. 4
1.3. OBJETIVOS ESPECÍFICOS ............................................................................ 4
1.4. ALCANCE ......................................................................................................... 5
2. CAPÍTULO Ⅱ: ECUACIONES ALGEBRAICAS LINEALES .............................. 6
2.1. FORMA DE UNA ECUACIÓN LINEAL ........................................................ 6
2.2. SISTEMA DE ECUACIONES LINEALES ...................................................... 7
2.3. MÉTODOS DIRECTOS PARA SISTEMAS LINEALES ............................... 8
2.4. FUNDAMENTOS DEL ALGEBRA LINEAL ................................................. 8
2.4.1. MATRIZ Y DETERMINANTE ................................................................. 8
2.5. RESOLUCIÓN DE SISTEMAS DE ECUACIONES LINEALES POR
INVERSIÓN DE MATRICES ................................................................................... 14
2.6. TEOREMA DE RANGO................................................................................. 15
2.7. ELIMINACIÓN GAUSSIANA ....................................................................... 17
2.8. MÉTODO GAUS JHORDAN ......................................................................... 19
2.9. FACTORIZACIÓN MATRICIAL TRIANGULAR ....................................... 20
3. CAPÍTULO Ⅲ: ANÁLISIS Y RESULTADOS .................................................... 21
3.1. ANÁLISIS ....................................................................................................... 21
4. CAPITULO Ⅳ: CONCLUSIONES Y RECOMENDACIONES .......................... 26
4.1. CONCLUSIONES ........................................................................................... 26
4.2. RECOMENDACIONES .................................................................................. 26
5. CAPITULO Ⅴ: BIBLIOGRAFÍA .......................................................................... 27

3
1.2. OBJETIVOS GENERALES

Conocer el concepto de sistemas lineales con el objetivo de dar solución a


estos.

1.3. OBJETIVOS ESPECÍFICOS

1. Tener en claro los diferentes métodos aplicables a la solución de


sistemas lineales.
2. Distinguir las diferencias de cada método a partir de un ejercicio
simple, aplicada a la minería.
3. Obtener la capacidad analítica para la aplicación del método
adecuado, en la resolución del problema.

4
1.4. ALCANCE

El presente trabajo guiara al lector en los diferentes problemas de sistemas


lineales aplicados a un campo no profesional, es decir, problemas de
ámbito teórico.

5
2. CAPÍTULO Ⅱ: ECUACIONES ALGEBRAICAS
LINEALES
Históricamente el primer trabajo de algebra lineal consistió en resolver un sistema
de ecuaciones lineales. El problema de encontrar métodos sencillos y poco
laborioso para resolver sistemas sigue interesando a los investigadores del hoy.
Existen analogías entre la geometría analítica y el álgebra lineal que nos conducen
el estudio de los sistemas de ecuaciones lineales; una recta en el plano viene dada
por una ecuación lineal de dos variables (las coordenadas de un punto arbitrario
de la recta). Un plano en el espacio viene dado por una ecuación lineal en tres
variables; una recta en el espacio por dos ecuaciones lineales con tres variables.

2.1. FORMA DE UNA ECUACIÓN LINEAL

Tiene la forma:
𝑎1 . 𝑥1 + 𝑎2 . 𝑥2 + ⋯ + 𝑎𝑛 . 𝑥𝑛 = 𝑏

Donde los coeficientes 𝑎1 , 𝑎2 , … , 𝑎𝑛 , así como el termino independiente 𝑏,


son escalares de un cuerpo conmutativo 𝐾, y 𝑥1 , 𝑥2 , … , 𝑥𝑛 son las
incógnitas.

• Resolver una ecuación es hallar su solución general.


• Una solución particular de la ecuación anterior es una n-upla de
escalares 𝑐1 , 𝑐2 , … , 𝑐3 tal que 𝑎1 . 𝑐1 + 𝑎2 . 𝑐2 + ⋯ + 𝑎𝑛 . 𝑐𝑛 = 𝑏.
• La solución general (o simplemente la solución) de la ecuación es
el conjunto formado por todas las soluciones particulares.

2.1.1. TIPOS DE ECUACIONES LINEALES

• ECUACIÓN COMPATIBLE: Es aquella que tiene alguna


solución; puede ser, a su vez, compatible determinada, cuando
tiene única solución; y compatible indeterminada cuando tiene más
de una solución (en este caso tendrá infinitas soluciones).
• ECUACIÓN INCOMPATIBLE: Es aquella que no tiene ninguna
solución; 0. 𝑥1 + 0. 𝑥2 + ⋯ + 0. 𝑥𝑛 = 𝑐 , con 𝑐 ≠ 0.
• ECUACIÓN HOMOGÉNEA: Es la que tiene nulo el termino
independiente; es decir, es una ecuación de la forma:
𝑎1 . 𝑥1 + 𝑎2 . 𝑥2 + ⋯ + 𝑎𝑛 . 𝑥𝑛 = 0

6
2.2. SISTEMA DE ECUACIONES LINEALES

Se llama sistema de ecuaciones lineales con n incógnitas a un conjunto de


ecuaciones lineales de la forma:

𝑎11 . 𝑥1 + 𝑎12 . 𝑥2 + ⋯ + 𝑎1𝑛 . 𝑥𝑛 = 𝑏1


𝑎21 . 𝑥1 + 𝑎22 . 𝑥2 + ⋯ + 𝑎2𝑛 . 𝑥𝑛 = 𝑏2
𝑆= ⋮

𝑎 .
{ 𝑚1 1 𝑥 + 𝑎 .
𝑚2 2 𝑥 + ⋯ + 𝑎𝑚𝑛 . 𝑥𝑛 = 𝑏𝑚

Donde los coeficientes 𝑎𝑖𝑗 ,∀𝑖 = 1,2, … , 𝑚 ; ∀𝑗 = 1,2, … , 𝑛, y los terminos


independientes 𝑏𝑖 ,∀𝑖 = 1,2, … , 𝑚; son escalares de un cuerpo 𝐾,y
𝑥1 , 𝑥2 , … , 𝑥3 son las incógnitas.
Una solución particular del sistema anterior es una n-upla de escalares
(𝑐1 , 𝑐2 , … , 𝑐3) que sea solución de cada una de las 𝑚 ecuaciones del
sistema. La solución general del sistema es el conjunto formado por todas
las soluciones particulares.

2.2.1. TIPOS DE SISTEMAS LINEALES

• SISTEMAS COMPATIBLES: Es aquella que tiene alguna


solución; puede ser, a su vez, compatible determinada, cuando
tiene única solución; y compatible indeterminada cuando tiene más
de una solución (en este caso tendrá infinitas soluciones).
• SISTEMAS INCOMPATIBLES: Es aquella que no tiene
ninguna solución.
• SISTEMAS HOMOGÉNEAS: Es la que tiene nulo el termino
independiente; es decir, es un sistema de la forma:

𝑎11 𝑥1 + 𝑎12 . 𝑥2 + ⋯ + 𝑎1𝑛 . 𝑥𝑛 = 𝑜


𝑎21 . 𝑥1 + 𝑎22 . 𝑥2 + ⋯ + 𝑎2𝑛 . 𝑥𝑛 = 𝑜


𝑎 .
{ 𝑚1 1 𝑥 + 𝑎 𝑚2 2. 𝑥 + ⋯ + 𝑎𝑚𝑛 . 𝑥𝑛 = 𝑜
Propiedades:
• La n-upla (0,0,…,0) es siempre una solución particular de todo
sistema homogéneo y se denomina solución trivial.
• Si las n-uplas (𝑠1 , 𝑠2 , … , 𝑠𝑛 ) es una solución particular de un
sistema homogéneo, entonces también lo es las n-uplas
(α. 𝑠1 , α. 𝑠2 , … , α. 𝑠𝑛 ) sea cual sea α ∈ K.
• Si las n-uplas (𝑠1 , 𝑠2 , … , 𝑠𝑛 ) y (𝑠′1 , 𝑠′2 , … , 𝑠′𝑛 ) son dos
soluciones particulares de un sistema homogéneo, también lo
es las n-upla suma (𝑠1 + 𝑠′1 , 𝑠2 + 𝑠′2 , … , 𝑠𝑛 + 𝑠′𝑛 ).

7
2.3. MÉTODOS DIRECTOS PARA SISTEMAS LINEALES

Los métodos directos son:


• El método de Eliminación de Gauss
• El método de Gauss-Jordan
• El método LU
• El método de Cholesky

2.4. FUNDAMENTOS DEL ALGEBRA LINEAL

El algebra lineal es una rama de las matemáticas que estudia conceptos


tales como vectores, matrices, espacio dual, sistema de ecuaciones lineales
y de una manera más formal, espacios funcionales y sus transformaciones
lineales. Sin embargo, para la compresión del presente trabajo se abordará
temas de matrices y determinantes.

2.4.1. MATRIZ Y DETERMINANTE

2.4.1.1. CONCEPTO DE MATRIZ Y TIPO DE MATRICES

Se llama matriz de orden o dimensión 𝑛 × 𝑝 a un conjunto de


(𝑛. 𝑝) elementos dispuestos en 𝑛 filas y 𝑝 columnas de la siguiente manera:

𝑎11 ⋯ 𝑎1𝑝
𝐴= ( ⋮ ⋱ ⋮ ) = (𝑎𝑖𝑗 )𝑛×𝑝
𝑎𝑛1 ⋯ 𝑎𝑛𝑝

El elemento general 𝑎𝑖𝑗 de la matriz tiene asociados el


subíndice 𝒊, que indica la fila, y el subíndice 𝒋 que indica la columna en las
que se encuentra dicho elemento.
Si 𝑛 = 𝑝, diremos que 𝐴 es una matriz de orden 𝑛.
Denominaremos matrices equidimendionales a aquellas matrices que
tienen la misma dimensión; dos matrices equidimensionales 𝐴 y 𝐵 son
iguales cuando 𝑎𝑖𝑗 = 𝑏𝑖𝑗 , ∀𝑖 = 1,2, … , 𝑛 ; ∀𝑗 = 1,2, … , 𝑝.

2.4.1.2. TIPOS DE MATRICES

A continuación, se muestran las matrices más comunes:


• Matriz fila: Matriz con una única fila, 𝑛 = 1.
• Matriz columna: Matriz con una única columna, 𝑝 = 1.
• Matriz cuadrada: Matriz en la que el número de filas y de columnas
coincide, 𝑛 = 𝑝. El conjunto de las matrices cuadradas de orden 𝑛
se denota por 𝑀𝑛×𝑛 o simplemente por 𝑀𝑛 .
Denominaremos diagonal principal de una matriz 𝐴 ∈ 𝑀𝑛 al
8
conjunto formado por los elementos 𝑎𝑖×𝑖 , ∀𝑖 = 1,2,3, … , 𝑛.
• Matriz rectangular: Matriz en la que el número de filas y de
columnas no coincide, 𝑛 ≠ 𝑝.
• Matriz nula: Matriz cuyos elementos son nulos, 𝑎𝑖𝑗 = 0. La matriz
nula de dimensión 𝑛 × 𝑝 se denota por 0𝑛×𝑝 o simplemente por 0.
• Matriz opuesta: Dada una matriz 𝐴 = (𝑎𝑖𝑗 ), se dice que
𝐵 = (𝑏𝑖𝑗 ) es su opuesta si cumple que 𝐵 = −𝐴, o lo que es lo
mismo 𝑏𝑖𝑗 = −𝑎𝑖𝑗 , ∀𝑖 = 1,2,3, … , 𝑛 ; ∀𝑗 = 1,2,3, … , 𝑝.
• Matriz triangular superior: Matriz cuadrada 𝐴 = (𝑎𝑖𝑗 ) cuyos
elementos situados por debajo de la diagonal principal son
nulos, 𝑎𝑖𝑗 = 0, ∀𝑖 > 𝑗.
• Matriz triangular inferior: Matriz cuadrada 𝐴 = (𝑎𝑖𝑗 ) cuyos
elementos situados por encima de la diagonal principal son
nulos, 𝑎𝑖𝑗 = 0, ∀𝑖 < 𝑗.
• Matriz diagonal: Matriz cuadrada 𝐴 = (𝑎𝑖𝑗 ) cuyos elementos
situados fuera de la diagonal principal son nulos, 𝑎𝑖𝑗 = 0,
∀𝑖 ≠ 𝑗.
• Matriz identidad: Matriz diagonal cuyos elementos de la diagonal
principal son unos. La matriz identidad de dimensión 𝑛 se denota
por 𝐼𝑛 .

2.4.1.3. OPERACIONES CON MATRICES

A. SUMA DE MATRICES

Sean las matrices 𝐴, 𝐵 ∈ 𝑀𝑛×𝑝 , la suma de ambas se define como:


𝐶 = 𝐴 + 𝐵 = (𝑐𝑖𝑗 ) ∈ 𝑀𝑛×𝑝 , siendo 𝑐𝑖𝑗 = 𝑎𝑖𝑗 + 𝑏𝑖𝑗 ,
∀𝑖 = 1,2,3 … , 𝑛 ; ∀𝑗 = 1,2,3, … , 𝑝.
Propiedades:
• Conmutativa: 𝐴 + 𝐵 = 𝐵 + 𝐴
• Asociativa: 𝐴 + (𝐵 + 𝐶) = (𝐴 + 𝐵) + 𝐶

B. PRODUCTO DE UN ESCALAR POR UNA MATRIZ

Sea la matriz 𝐴 ∈ 𝑀𝑛×𝑝 y sea 𝐾 ∈ ℝ un escalar, el producto del


escalar 𝐾 por la matriz 𝐴 se define como:
𝐶 = 𝐾. 𝐴 = (𝑐𝑖𝑗 ) ∈ 𝑀𝑛×𝑝 , siendo 𝑐𝑖𝑗 = 𝐾. 𝑎𝑖𝑗 ,
∀𝑖 = 1,2,3 … , 𝑛 ; ∀𝑗 = 1,2,3, … , 𝑝.
Propiedades:
• Distributiva/Suma de matrices: 𝑘(𝐴 + 𝐵) = 𝑘. 𝐴 + 𝑘. 𝐵
• Distributiva/Suma de números: (𝑘 + 𝑑)𝐴 = 𝑘. 𝐴 + 𝑑. 𝐴
• Asociativa: 𝑘. (𝑑. 𝐴) = 𝑑. (𝑘. 𝐴)

9
C. PRODUCTO DE MATRICES

El producto de dos matrices se puede realizar cuando el número de


columnas de la primera matriz coincide con el número de filas de
la segunda. Es decir, se puede realizar el producto 𝐴. 𝐵 cuando 𝐴 ∈
𝑀𝑛×𝑝 y 𝐵 ∈ 𝑀𝑝×𝑞 . La matriz resultante C tendrá tantas filas como
la matriz A y tantas columnas como la matriz B:
𝐶 = 𝐴. 𝐵 = (𝑐𝑖𝑗 ) ∈ 𝑀𝑛×𝑞 , siendo 𝑐𝑖𝑗 = ∑𝑝𝑘=1 𝑎𝑖𝑘 𝑏𝑘𝑗 ,
∀𝑖 = 1,2, … , 𝑛 ; ∀𝑗 = 1,2, … , 𝑞.

Ejemplo: 𝐴2×3 . 𝐵3×2 = 𝐶2×2


𝒃𝟏𝟏 𝒃𝟏𝟐
𝒂𝟏𝟏 𝒂𝟏𝟐 𝒂𝟏𝟑
(𝒂 𝒂𝟐𝟐 𝒂𝟐𝟑 ) . ( 𝒃𝟐𝟏 𝒃𝟐𝟐 ) =
𝟐𝟏
𝒃𝟑𝟏 𝒃𝟑𝟐
(𝒂𝟏𝟏 . 𝒃𝟏𝟏 + 𝒂𝟏𝟐 . 𝒃𝟐𝟏 + 𝒂𝟏𝟑 . 𝒃𝟑𝟏 ) (𝒂𝟏𝟏 . 𝒃𝟏𝟐 + 𝒂𝟏𝟐 . 𝒃𝟐𝟐 + 𝒂𝟏𝟑 . 𝒃𝟑𝟐 )
( )
(𝒂𝟐𝟏 . 𝒃𝟏𝟏 + 𝒂𝟐𝟐 . 𝒃𝟐𝟏 + 𝒂𝟐𝟑 . 𝒃𝟑𝟏 ) (𝒂𝟐𝟏 . 𝒃𝟏𝟐 + 𝒂𝟐𝟐 . 𝒃𝟐𝟐 + 𝒂𝟐𝟑 . 𝒃𝟑𝟐 )

Propiedades:
• Asociativa: (𝐴𝑚×𝑛 . 𝐵𝑛×𝑝 ). 𝐶𝑝×𝑞 = 𝐴𝑚×𝑛 . (𝐵𝑛×𝑝 . 𝐶𝑝×𝑞 )
• Distributiva: 𝐴𝑛×𝑚 . (𝐵𝑚×𝑝 + 𝐶𝑚×𝑝 ) = 𝐴𝑛×𝑚 . 𝐵𝑚×𝑝 +
𝐴𝑛×𝑚 . 𝐶𝑚×𝑝
• La propiedad conmutativa no se cumple: 𝐴. 𝐵 ≠ 𝐵. 𝐴

2.4.1.4. DETERMINANTE DE UNA MATRIZ

A toda matriz cuadrada 𝐴 ∈ 𝑀𝑛 se le asocia un escalar que se


denomina determinante de la matriz y que se denota por:

𝑎11 ⋯ 𝑎1𝑛
det(𝐴) = |𝐴| = | ⋮ ⋱ ⋮ |
𝑎𝑛1 ⋯ 𝑎𝑛𝑛

A. DETERMINANTES DE ORDEN 2 Y 3

• El determinante de una matriz cuadrada de orden 2 se puede


calcular de la siguiente manera:

𝑎11 𝑎12
|𝐴| = |𝑎 𝑎 | = 𝑎11 . 𝑎22 − 𝑎12 . 𝑎21
21 22
• El determinante de una matriz cuadrada de orden 3 se puede
calcular mediante el siguiente método conocido como la regla
de Sarrus:
𝑎11 𝑎12 𝑎13
|𝐴| = | 21 𝑎22 𝑎23 | =
𝑎
𝑎31 𝑎32 𝑎33

10
𝑎11 . 𝑎22 . 𝑎33 + 𝑎12 . 𝑎23 . 𝑎31 + 𝑎13 . 𝑎21 . 𝑎32 − 𝑎13 . 𝑎22 . 𝑎31
− 𝑎11 . 𝑎23 . 𝑎32 − 𝑎12 . 𝑎21 . 𝑎33

B. DETERMINANTE DE CUALQUIER ORDEN

Para calcular el determinante de una matriz de dimensión mayor o


igual que 4, es necesario introducir los siguientes conceptos:

Definición: Dada una matriz 𝐴 ∈ 𝑀𝑛 , el menor complementario del


elemento 𝑎𝑖𝑗 se denota por α𝑖𝑗 y es el determinante de la submatriz
que resulta al eliminar la 𝑖-ésima fila y la 𝑗-ésima columna de la
matriz 𝐴.

Definición: Dada una matriz 𝐴 ∈ 𝑀𝑛 , el adjunto (Ad ) del elemento


𝑎𝑖𝑗 se denota por A𝑖𝑗 y se calcula de la siguiente manera:

A𝑖𝑗 = (−1)𝑖+𝑗 . α𝑖𝑗

Entonces el determinante de una matriz de dimensión 𝑛, se calcula


realizando la suma de los productos de los elementos de una fila (o
de una columna) por sus adjuntos.
• Si se desarrolla la 𝑖-ésima fila: |𝐴| = ∑𝑛𝑗=1 𝑎𝑖𝑗 . 𝐴𝑖𝑗
• Si se desarrolla la 𝑗-ésima columna: |𝐴| = ∑𝑛𝑖=1 𝑎𝑖𝑗 . 𝐴𝑖𝑗

4 1 −2
Ejemplo: Comprobar: 𝐴 = ( 1 2 −1) ; |𝐴| = −4
−2 1 0
2 −1 1 −1
A11 = (−1)1+1 | | = 1 ; A12 = (−1)1+2 | |=2
1 0 −2 0
1 2 1 −2
A13 = (−1)1+3 | | = 5 ; A21 = (−1)2+1 | | = −2
−2 1 1 0
4 −2 4 1
A22 = (−1)2+2 | | = −4 ; A23 = (−1)2+3 | | = −6
−2 0 −2 1
1 −2 4 −2
A31 = (−1)3+1 | | = 3 ; A32 = (−1)3+2 | |=2
2 −1 1 −1
4 1
A33 = (−1)3+3 | |=7
1 2

1 2 5
Ad = (−2 −4 −6)
3 2 7

Para la fila 1: |𝐴| = (4 × 1) + (1 × 2) + (−2 × 5) = −4


Para la columna 1: |𝐴| = (4 × 1) + (1 × −2) + (−2 × 3) = −4

C. PROPIEDADES DE LOS DETERMINANTES

• Al intercambiar dos filas o dos columnas de un determinante,


su valor cambia de signo.

11
• Al multiplicar una fila o una columna de un determinante por
un escalar, su valor numérico queda multiplicado por ese
escalar, luego debemos compensar dividiendo al determinante
por ese mismo escalar.
• Si en un determinante una fila (o columna) es combinación
lineal de otras filas (u otras columnas), su valor es cero. Por
tanto, en un determinante las filas son linealmente
independientes.
• Si en un determinante a una fila (o a una columna) se le suma
una combinación lineal de otras filas (o de otras columnas), su
valor no varía.
• El determinante de una matriz triangular o diagonal, es el
producto de los elementos de la diagonal principal.
• |𝐴. 𝐵| = |𝐴|. |𝐵|

2.4.1.5. TRASPUESTA DE UNA MATRIZ

Dada una matriz 𝐴 = (𝑎𝑖𝑗 ) ∈ 𝑀𝑛×𝑝 , su traspuesta se denota


𝑡
por 𝐴 = (𝑏𝑖𝑗 ) ∈ 𝑀𝑝×𝑛 y se obtiene a intercambiar las filas por las
columnas y viceversa, sin variar el orden de las mismas:

𝑏𝑖𝑗 = 𝑎𝑗𝑖 , ∀𝑖 = 1,2, … , 𝑝 ; ∀𝑗 = 1,2, … , 𝑛

Propiedades de la traspuesta de una matriz:


• (𝐴𝑡 )𝑡 = 𝐴
• (𝐴 + 𝐵)𝑡 = 𝐴𝑡 + 𝐵 𝑡
• (𝐴. 𝐵)𝑡 = 𝐵 𝑡 . 𝐴𝑡
• (𝑘. 𝐴)𝑡 = 𝑘. 𝐴𝑡 , siendo 𝑘 ∈ ℝ
• |𝐴| = |𝐴𝑡 |
• Una matriz cuadrada 𝐴 = (𝑎𝑖𝑗 ) ∈ 𝑀𝑛 es simétrica si cumple
que 𝐴 = 𝐴𝑡 , o lo que es lo mismo si 𝑎𝑖𝑗 = 𝑎𝑗𝑖 ,
∀𝑖 = 1,2, … , 𝑛 ; ∀𝑗 = 1,2, … , 𝑛.
• Una matriz cuadrada 𝐴 = (𝑎𝑖𝑗 ) ∈ 𝑀𝑛 es antisimétrica si
cumple que 𝐴 = −𝐴𝑡 , o lo que es lo mismo si 𝑎𝑖𝑗 = −𝑎𝑗𝑖 ,
∀𝑖 = 1,2, … , 𝑛 ; ∀𝑗 = 1,2, … , 𝑛.

2.4.1.6. MATRIZ INVERSA

Una matriz cuadrada 𝐴 es regular si existe su inversa (el


elemento simétrico respecto del producto de matrices), es decir, si existe
la matriz 𝐵 tal que 𝐴. 𝐵 = 𝐵. 𝐴 = 𝐼.
Entonces 𝐵 es la inversa de A y se denota por 𝐴−1 . En caso contrario se
dice que la matriz es singular.

12
La condición necesaria y suficiente para que una matriz sea regular es que
su determinante sea no nulo:

|𝐴| ≠ 0 ⇔ 𝐴 matriz regular

Propiedades de la matriz inversa:


• En el caso de que exista la inversa de una matriz, esta es única.
• (𝐴−1 )−1 = 𝐴
• (𝐴. 𝐵)−1 = 𝐵 −1 . 𝐴−1
• (𝐴−1 )𝑡 = (𝐴𝑡 )−1
• Una matriz cuadrada 𝐴 = (𝑎𝑖𝑗 ) ∈ 𝑀𝑛 es ortogonal si su
inversa coincide con su traspuesta, es decir, 𝐴−1 = 𝐴𝑡

A. CÁLCULO DE LA MATRIZ INVERSA MEDIANTE


ADJJUNTOS

La inversa de una matriz se puede calcular mediante la siguiente


fórmula:

𝐴𝑑𝑗(𝐴)𝑡 (𝐴𝑑 )𝑡
𝐴−1 = =
|𝐴| |𝐴|

Siendo 𝐴𝑑 la matriz adjunta que se obtiene al sustituir cada


elemento de la matriz 𝐴 por su adjunto.

2.4.1.7. RANGO DE UNA MATRIZ

Dada una matriz 𝐴 ∈ 𝑀𝑛×𝑝 , los elementos pertenecientes a 𝑚


filas y a 𝑚 columnas prefijadas forman una submatriz de 𝐴. El
determinante de esta submatriz se denomina menor de orden m de la matriz
A.
Si la matriz 𝐴 tiene un menor no nulo de orden 𝑘, entonces las 𝑘 filas y las
𝑘 columnas que forman este menor son linealmente independientes.
El rango de una matriz 𝐴 es el orden del mayor menor no nulo de dicha
matriz y se denota por 𝑟𝑔(𝐴) o 𝑟𝑎𝑛𝑔𝑜(𝐴).

Propiedades del rango de una matriz:


• El rango de una matriz no varía al multiplicar una columna (o
una fila) por un escalar no nulo.
• El rango de una matriz no varía si a una columna (o a una fila)
se le suma una combinación lineal de otras columnas (o de
otras filas).
• El rango de una matriz no varía si se suprime una columna (o
una fila) que sea combinación lineal de otras columnas (o de
otras filas).

13
Ejemplo:

2 1 3 2
3 2 5 1
Sea la matriz: 𝐵 = −1 1 0 −7 , determinar su rango.
3 −2 1 17
(0 1 1 −4)

Descartamos la tercera columna porque es combinación lineal de las dos


primeras: 𝐶3 = 𝐶1 + 𝐶2
2 1 2
3 2 1
𝐵 = −1 1 −7
3 −2 17
(0 1 −4)

a. Comprobamos si tiene rango mayor o igual que 1, para ello se tiene


que cumplir que al menos un elemento de la matriz no sea cero y
por lo tanto su determinante no será nulo.
|2| = 2 ≠ 0
b. Tendrá rango mayor o igual que 2 si existe alguna submatriz
cuadrada de orden 2, tal que su determinante no sea nulo.
2 1
| |=1≠0
3 2
c. Tendrá rango mayor o igual que 3 si existe alguna submatriz
cuadrada de orden 3, tal que su determinante no sea nulo.
2 1 2 3 2 1 −1 1 −7
| 3 2 1| = 0 ; |−1 1 −7| = 0 ; | 3 −2 17 | = 0
−1 1 7 3 −2 17 0 1 −4

Como todos los determinantes de la submatriz son nulos, entonces


la matriz 𝐵 tiene un rango menor que 3, por lo tanto 𝑟𝑔(𝐵) = 2.

2.5. RESOLUCIÓN DE SISTEMAS DE ECUACIONES LINEALES


POR INVERSIÓN DE MATRICES

Dado:
𝑎11 . 𝑥1 + 𝑎12 . 𝑥2 + ⋯ 𝑎1𝑛 . 𝑥𝑛 = 𝑏1
𝑎 . 𝑥 + 𝑎22 . 𝑥2 + ⋯ 𝑎2𝑛 . 𝑥𝑛 = 𝑏2
𝐼 { 21 1

𝑎𝑛1 . 𝑥1 + 𝑎𝑛2 . 𝑥2 + ⋯ 𝑎𝑛𝑛 . 𝑥𝑛 = 𝑏𝑛

El sistema 𝐼 puede escribirse en la forma matricial 𝐴. 𝑋 = 𝐵, 𝐴 = (𝑎𝑖𝑗 ) ∈


𝑀𝑛×𝑝 . Si 𝑛 = 𝑝 y det(𝐴) ≠ 0, entonces el sistema es compatible
determinado.
En notación matricial:

14
𝑎11 ⋯ 𝑎1𝑝 𝑥1 𝑏1
( ⋮ ⋱ ⋮ ).( ⋮ ) = ( ⋮ )
𝑎𝑛1 ⋯ 𝑎𝑛𝑝 𝑥𝑛 𝑏𝑛

𝐴. 𝑋 = 𝐵 (multiplicando a la ecuación por 𝐴−1 )


𝐴−1 . 𝐴. 𝑋 = 𝐴−1 . 𝐵
𝑋 = 𝐴−1 . 𝐵
(𝐴𝑑 )𝑡
Teniendo en cuenta este resultado y que 𝐴−1 = |𝐴|
,
Se tiene:
𝑥1
1 𝐴11 ⋯ 𝐴1𝑛 𝑡 𝑏1
(⋮)= .( ⋮ ⋱ ⋮ ) .( ⋮ )
𝑥𝑛 𝑑𝑒𝑡(𝐴) 𝐴 ⋯ 𝐴𝑛𝑛 𝑏𝑛
𝑛1

Pasos:
1. Expresar el sistema de ecuaciones lineales en su forma matricial
𝐴. 𝑋 = 𝐵.
2. Multiplicar al sistema matricial por la inversa de la matriz de
coeficientes (𝐴−1 ).
3. La matriz de incógnitas (𝑋) se obtendrá como el producto de la
inversa de la matriz de coeficientes (𝐴−1 ) y la matriz de términos
independientes (𝐵).

2.6. TEOREMA DE RANGO

Conocida así por el uso de rangos en la matriz generada a partir de un


sistema de ecuaciones lineales, este teorema es conocida también como
TEOREMA DE ROUCHÉ – FROBENIUS. Este teorema nace a la
necesidad de saber si al resolver un sistema de ecuaciones lineales, este
tendrá un resultado o si es compatible, en caso de este tiene una única
solución o infinita.
Dado un sistema de 𝑚 ecuaciones lineales con 𝑚 incógnitas, cuya
expresión general sería:

𝑎11 𝑥1 + 𝑎12 𝑥2 + 𝑎13 𝑥3 + ⋯ + 𝑎1𝑛 𝑥𝑛 = 𝑏1


𝑎21 𝑥1 + 𝑎22 𝑥2 + 𝑎23 𝑥3 + ⋯ + 𝑎2𝑛 𝑥𝑛 = 𝑏2
𝑎31 𝑥1 + 𝑎32 𝑥2 + 𝑎33 𝑥3 + ⋯ + 𝑎3𝑛 𝑥𝑛 = 𝑏3

𝑎 𝑥
{ 𝑚1 1 + 𝑎 𝑥
𝑚2 1 + 𝑎 𝑚3 1 + ⋯ +
𝑥 𝑎𝑚𝑛 𝑥𝑛 = 𝑏𝑚

Sean 𝐴 la matriz del sistema y 𝐴∗ la matriz ampliada del sistema (con los
términos independientes).

15
 a11 a12 a13 a1n   a11 a12 a13 a1n b1 
   
 a21 a22 a23 a2 n   a21 a22 a23 a2 n b2 
A =  a31 a32 a33 a3n  A* =  a31 a32 a33 a3 n b3 
   
   
a  a bm 
 m1 am 2 am 3 amn   m1 am 2 am 3 amn

Al hallar el rango de estas dos matrices (𝑟𝑎𝑛𝑔𝑜(𝐴), 𝑟𝑎𝑛𝑔𝑜(𝐴∗ )), se


cumplen las siguientes propiedades:
• Si, 𝑟𝑎𝑛𝑔𝑜(𝐴) = 𝑟𝑎𝑛𝑔𝑜(𝐴∗ ) = 𝑛 (números de incógnitas), el
sistema es compatible determinado (tiene una única solución).
• Si, 𝑟𝑎𝑛𝑔𝑜(𝐴) = 𝑟𝑎𝑛𝑔𝑜(𝐴∗ ) < 𝑛 (números de incógnitas), el
sistema es compatible indeterminado (tiene infinitas soluciones).
• Si, 𝑟𝑎𝑛𝑔𝑜(𝐴) ≠ 𝑟𝑎𝑛𝑔𝑜(𝐴∗ ), el sistema es incompatible (no tiene
solución).

Un caso particular es el de los sistemas homogéneos, es decir, aquellos en


los que todos los términos independientes son nulos. Pues, en este caso,
las matrices 𝐴 y 𝐴∗ son semejantes a efectos del cálculo del rango, dado
que la matriz 𝐴∗ es la matriz 𝐴 a la que se le añade una columna de ceros,
que podemos suprimir para calcular el rango. Por lo tanto, siempre se
cumple que 𝑟𝑎𝑛𝑔𝑜(𝐴) = 𝑟𝑎𝑛𝑔𝑜(𝐴∗ ). Esto quiere decir que todos los
sistemas homogéneos son siempre compatibles. Se cumple:
• Si 𝑟𝑎𝑛𝑔𝑜(𝐴) = 𝑛 (número de incógnitas), el sistema es compatible
determinado. Tiene una única solución, que se conoce con el
nombre de solución trivial. Es aquella en la que todas las incógnitas
son nulas (0).
• Si 𝑟𝑎𝑛𝑔𝑜(𝐴) < 𝑛 (número de incógnitas), el sistema es compatible
indeterminado (tiene infinitas soluciones).

2.6.1. PROCEDIMIENTO DEL TEOREMA DE ROUCHÉ –


FROBENIUS

Para resolver un sistema de ecuaciones lineales basándose en el


teorema de Rouché- Fröbenius, se procede del modo siguiente:

1. Se saca el rango de la matriz generada, esto mediante


determinantes.
2. Se discute el sistema, analizando los rangos de las matrices de
coeficientes y ampliada.
3. Si el sistema es compatible determinado, entonces se procede a
resolver por cualquier método que nos ayude a obtener los valores
de las incógnitas.

16
Ejemplo:
Analizar el siguiente sistema, mediante el teorema Rouché- Fröbenius.

2𝑥 − 1𝑦 + 3𝑧 = 5
{2𝑥 + 2𝑦 + 3𝑧 = 7
−2𝑥 + 3𝑦 = −3

2 −1 3
|𝐴| = | 2 2 3| = 18
−2 3 0

Como 𝑑𝑒𝑡(𝐴) ≠ 0, entonces 𝑟𝑎𝑛𝑔𝑜(𝐴) = 3

2 −1 3 5 2 −1 5

𝐴 =(2 2 3 7 )→( 2 2 7)
−2 3 0 −3 −2 3 −3

𝑑𝑒𝑡(𝐴∗ ) = 4
Como 𝑑𝑒𝑡(𝐴∗ ) ≠ 0, entonces 𝑟𝑎𝑛𝑔𝑜(𝐴∗ ) = 3
Entonces:
𝑟𝑎𝑛𝑔𝑜(𝐴) = 3
𝑟𝑎𝑛𝑔𝑜(𝐴∗ ) = 3
𝑛=3
Donde: 𝑟𝑎𝑛𝑔𝑜(𝐴) = 𝑟𝑎𝑛𝑔𝑜(𝐴∗ ) = 𝑛 = 3
Entonces se dice que el sistema es compatible determinado, es decir, tiene
una única solución. De aquí se procederá a resolver el sistema.

2.7. ELIMINACIÓN GAUSSIANA

Muchos problemas de Ingeniería o Matemática Aplicada se reducen a


resolver un sistema de ecuaciones lineales. De aquí la importancia de estos
y el interés de sus métodos de resolución.
La eliminación gaussiana también conocido como algoritmo de Gauss, se
utiliza para reducir una matriz. En su aplicación sólo requiere operaciones
elementales de renglón. El uso de eliminación Gaussiana no sólo se limita
a resolver sistemas de ecuaciones lineales sino también se puede aplicar al
cálculo de inversas de matrices o a la comparación de espacios generados.
Es decir, es un método genérico, por lo tanto, no debe suponer que la
matriz es una matriz aumentada de un sistema. Hasta el momento, es el
método que requiere menos operaciones aritméticas cuando se aplica a una
matriz general.
Su respectivo algoritmo para la resolución por este método es la siguientes:

I. Fase de Escalonamiento
1. Determine la primera columna (a la izquierda) no cero.
2. Si el primer elemento de la columna es cero, intercambie el

17
renglón por un reglón inferior que no tenga cero en esa
posición.
3. Por eliminación (operaciones entre filas), obtenga ceros
abajo del elemento delantero (pivote) en los renglones
debajo de él, como también obtener que en la diagonal
principal esté el uno.
4. Cubra el renglón y la columna de trabajo y repita el proceso
comenzando en el paso 1.

II. Cálculo de cada variable


1. Obtenidos los ceros abajo y unos en la diagonal principal,
se procede a calcular cada variable con sencillas
ecuaciones.

Ejemplo: Resolver el siguiente sistema mediante el método de eliminación


gaussiana.

2𝑥 − 1𝑦 + 3𝑧 = 5
{2𝑥 + 2𝑦 + 3𝑧 = 7
−2𝑥 + 3𝑦 = −3

I. Fase escalonamiento

 2 −1 3 5  2 −1 3 5 
  F2 = F2 − F1  
 2 2 3 7  ⎯⎯⎯⎯ F3 = F3 + F1
→ 0 3 0 2
 −2 3 0 −3  0 2 3 2
  
2 −1 3 5  F  1 −1 2 3 2 5 2 
  F2 = 2  
0 3 0 2  ⎯⎯⎯ 2
→ 0 3 0 2 
0 2 3 2  0 2 
  2 3
1 −1 2 3 2 5 2   1 −1 2
3 2 5 2
   
0 3 0 2  ⎯⎯⎯⎯⎯  2
→ 0 3
0 2 
F3 = F3 +  −  F2
0   3  3 2 3 
 2 3 2  0 0
1 −1 2 3 2 5 2  F  1 −1 2 3 2
5 2
  F2 = 2  
0 3 0 2  ⎯⎯⎯→  0 3
1 0
2 3
0   2 3 
 0 3 2 3 0 0 3
 1 −1 2 3 2 5 2   1 −1 2 3 2 5 2 
   
0 1 0 2 3 ⎯⎯⎯
F3 → 0 1 0 2 3
F3 =
0 3 2 3  3 0 1 2 9 
 0  0

18
II. Cálculo de cada variable

2
• z= = 0.222
9
2 2
• y + 0( z ) = → y = = 0.667
3 3
1 3 5 1 2 3 2 5
• x − ( y) + ( z) = → x − ( ) + ( ) =
2 2 2 2 3 2 9 2
5
x = = 2.50
2
2.8. MÉTODO GAUS JHORDAN

El método de Gauss-Jordan es una variante del método de Gauss. Cuando


se elimina una incógnita en una ecuación, Gauss-Jordan elimina esa
incógnita en el resto de las ecuaciones, tomando como base para la
eliminación a la ecuación pivote. También todos los renglones se
normalizan cuando se toman como ecuación pivote. El resultado final de
este tipo de eliminación genera una matriz identidad en vez de una
triangular como lo hace Gauss, por lo que no se usa la sustitución hacia
atrás.

En otras palabras, el método de Gauss transforma la matriz de coeficientes


en una matriz triangular superior. El método de Gauss-Jordan continúa el
proceso de transformación hasta obtener una matriz diagonal.

2.8.1. PASOS PARA DETERMINAR ECUACIONES CON EL


MÉTODO DE GAUSS JORDAN

1. Para resolver sistemas de ecuaciones lineales con el método Gauss


Jordan, debemos en primer lugar anotar los coeficientes de las
variables del sistema de ecuaciones lineales con la notación
matricial.
2. Luego de realizado lo anterior procederemos a transformar dicha
matriz en una matriz identidad, o sea una matriz equivalente a la
inicial.
3. Logramos esto aplicando a las distintas columnas y filas de las
matrices, restas, sumas, multiplicaciones y divisiones.
4. En dicha matriz identidad no vemos los términos independientes.
Esto sucede ya que cuando la matriz original alcance la matriz
identidad, los términos serán la solución del sistema y verificarán
la igualdad para cada variable que se corresponderán.

19
Ejemplo:

−3𝑥 + 3𝑦 + 2𝑧 = 1 −3𝑥 + 3𝑦 + 2𝑧 = 1
4𝑥 + 𝑦 = 𝑧 + 2 , ordenando 4𝑥 + 𝑦 − 𝑧 = 2
−2𝑦 + 𝑧 = 3 − 𝑥 𝑥 − 2𝑦 + 𝑧 = 3

Matricialmente se puede representar de la siguiente manera:


Matriz original
-3 3 2 1
4 1 -1 2 El objetivo es encontrar la matriz identidad,
1 -2 1 3 el cual es una matriz con 0 y 1,
donde los 1 están en la diagonal principal.

Matriz final
1 0 0
0 1 0
0 0 1

2.9. FACTORIZACIÓN MATRICIAL TRIANGULAR

2.9.1. FACTORIZACION LU

Es una forma de factorización de una matriz como el producto de una


matriz triangular inferior y una superior.
Supongamos que una matriz 𝐴𝑛 puede ser escrita como el producto de una
matriz triangular inferior 𝐿 y una matriz triangular superior 𝑈 esto es:
𝐴 = 𝐿. 𝑈
Entonces decimos que 𝐴 tiene una factorización 𝐿. 𝑈.

2.9.2. PASOS PARA ENCONTRAR LA MATRIZ TRIANGULAR


SUPERIOR (MATRIZ U)

1. Hacer cero todos los valores debajo del pivote sin convertir este en
1.
2. Para lograr lo anterior se requiere obtener un factor el cual es
necesario para convertir a cero los valores debajo del pivote.
3. Dicho factor es igual al número que se desea convertir en cero entre
el número pivote.
4. Este factor multiplicado por -1, se multiplica luego por el pivote y
a ese resultado de le suma el valor que se encuentra en la posición
a cambiar (el valor en la posición que se convertirá en cero).

2.9.3. PASOS PARA ENCONTRAR LA MATRIZ TRIANGULAR


INFERIOR (MATRIZ L)

1. Para encontrar la matriz triangular inferior se busca hacer ceros los


valores de arriba de cada pivote, así como también convertir en 1

20
cada pivote. Se utiliza el mismo concepto de factor explicado
anteriormente y se ubican todos los factores debajo de la diagonal
según corresponde en cada uno.
2. Esquemáticamente se busca lo siguiente:

1 0 0 𝑢11 𝑢12 𝑢13


𝐿 = (𝑙21 1 0) ; 𝑈 = ( 0 𝑢22 𝑢23 )
𝑙31 𝑙32 1 0 0 𝑢33

2.9.4. PASOS PARA RESOLVER UN SISTEMA DE ECUACIONES


POR EL MÉTODO DE FACTORIZACIÓN LU

1. Obtener la matriz triangular inferior 𝐿 y la matriz triangular


superior 𝑈.
2. Resolver 𝐿. 𝑦 = 𝑏 (𝑏:términos independientes de la matriz 𝐿)(para
encontrar 𝑦).
3. El resultado del paso anterior se guarda en una matriz nueva de
nombre 𝑌.
4. Realizar 𝑈. 𝑥 = 𝑦 (para encontrar 𝑥).
5. El resultado del paso anterior se almacena en una matriz nueva
llamada 𝑋, la cual brinda los valores correspondientes a las
incógnitas de la ecuación.

3. CAPÍTULO Ⅲ: ANÁLISIS Y RESULTADOS


La resolución de sistemas de ecuaciones lineales, puede ser realizado por diversos
métodos ya detallados en el capítulo Ⅱ. Sin embargo, se desconoce la dificultad
de empleo y extensión de los procedimientos de cada método.
Este capítulo se centrará en la comparación de los diversos métodos desarrollados
en una hoja de cálculo, Microsoft Excel.

3.1. ANÁLISIS

Dado el siguiente problema:

“Una compañía minera recibió un contrato para suministrar 70’000


toneladas de mineral de hierro de baja calidad, 181’000 toneladas de
mineral de hierro de calidad intermedia y 41’000 toneladas de mineral de
hierro de alta calidad. La mina A produce por cada día de operación 8’000
toneladas de mineral de baja calidad, 5’000 toneladas de mineral de calidad
intermedia y 1’000 toneladas de mineral de alta calidad. La mina B
produce por cada día de operación 3’000 toneladas de mineral de baja
calidad, 12’000 toneladas de mineral de calidad intermedia y 3’000
toneladas de mineral de alta calidad. La mina C produce por cada día de
operación 1’000 toneladas de mineral de baja calidad, 10’000 toneladas de
mineral de calidad intermedia y 2’000 toneladas de mineral de alta calidad.

21
¿Cuántos días debe operar cada mina para que la compañía minera cumpla
con su contrato sin que sobre mineral de baja, intermedia o alta calidad?”

Sea:

𝑥𝐴 : N° de días que opera la mina A


𝑥𝐵 : N° de días que opera la mina B
𝑥𝐶 : N° de días que opera la mina C

El sistema de ecuación lineal será:

8000. 𝑥𝐴 + 3000. 𝑥𝐵 + 1000. 𝑥𝐶 = 70000


5000. 𝑥𝐴 + 12000. 𝑥𝐵 + 10000. 𝑥𝐶 = 181000
1000. 𝑥𝐴 + 3000. 𝑥𝐵 + 2000. 𝑥𝐶 = 41000

Este sistema se puede reducir a:

8. 𝑥𝐴 + 3. 𝑥𝐵 + 1. 𝑥𝐶 = 70
5. 𝑥𝐴 + 12. 𝑥𝐵 + 10. 𝑥𝐶 = 181
1. 𝑥𝐴 + 3. 𝑥𝐵 + 2. 𝑥𝐶 = 41

Determinar el rango de la matriz normal (A) y extendida (A*):


8 3 1 
 
A =  5 12 10  → A = 192 + 30 + 15 − 12 − 240 − 30 = −45
1 3 2 
 
Como A  0 → rango( A) = 3
 8 3 1 70   8 1 70 
    A * = 3280 + 700 + 181 − 700 − 205 − 2896
A* =  5 12 10 181 →  5 10 181 →
 1 3 2 41   1 2 41  A * = 360
   
Como A *  0 → rango( A*) = 3
Dónde: números de incógnitas (n) = 3
Como: rango( A) = rango( A*) = n
Entonces se puede decir que el sistema es compatible determinado, es decir, tiene
una única solución.

22
3.1.1. SOLUCIÓN POR LA MATRIZ INVERSA

A X B
8 3 1 XA 70
5 12 10 XB 181
1 3 2 XC 41

0.13333333 0.06666667 -0.4 5


2.193E-17 -0.3333333 1.66666667 8
-0.0666667 0.46666667 -1.8 6

XA = 5
XB = 8
XC = 6

3.1.2. SOLUCIÓN POR ELIMINACIÓN GAUSSIANA

8 x + 3 y + 1 z = 70
5 x + 12 y + 10 z = 181
1 x + 3 y + 2 z = 41

Procedimiento

8 3 1 = 70
5 12 10 = 181
1 3 2 = 41

8 3 1 = 70
0 -81 -75 = -1098
0 -21 -15 = -258

8 3 1 = 70
0 -81 -75 = -1098
0 0 360 = 2160

23
Despeje
z = 6.00
y = 8.00
x = 5.00

3.1.3. SOLUCIÓN POR GAUSS-JORDAN

8 3 1 70
5 12 10 181
1 3 2 41

1 0.375 0.125 8.75


0 10.125 9.375 137.25
0 2.625 1.875 32.25

1 0 -0.22222222 3.66666667
0 1 0.92592593 13.5555556
-
0 0 -0.55555556 3.33333333

1 0 0 5
0 1 0 8
0 0 1 6

XA 5
XB 8
XC 6

3.1.4. SOLUCIÓN POR FACTORIZACION LU

Coeficientes de la ecuación
8 3 1 70
5 12 10 181
1 3 2 41

a1 -0.625
a2 -0.125

24
Matriz U
8 3 1
0 10.125 9.375
0 2.625 1.875

a3 -0.25925926

matriz U
8 3 1
0 10.125 9.375
0 2.625 1.875
matriz L
8 3 1
0 10.125 9.375
-
0 0 0.55555556

Sacamos los valores de las Y con la ayuda de la matriz L


0 0 70 Y1 70
1 0 181 y2 137.25
0.259 1 41 y3 -3.29775

Sacamos los valores de X con ayuda de la matriz U y los valores de Y


8 3 1 70 XA 5
0 10.125 9.375 137.25 XB 8
0 0 -0.55555556 -3.29775 XC 6

25
4. CAPITULO Ⅳ: CONCLUSIONES Y
RECOMENDACIONES

4.1. CONCLUSIONES

1. Los métodos analizados tienen diferentes procedimientos; sin


embargo, todas nos conducen al mismo resultado.
2. Al llegar al mismo resultado, concluimos que la elección de cada
método a aplicar es decisión propia, es decir, dependerá de la facilidad
con que el individuo se relacione con cada método.
3. El correcto seguimiento a los procedimientos de los distintos métodos,
nos otorgara una mejor capacidad analítica.

4.2. RECOMENDACIONES

1. El método más factible a ejecutar o que menos operaciones necesita es


el Método de Eliminación Gaussiana.
2. La práctica continua en la solución de problemas, nos permitirá una
mejor comprensión de cada método expuestos.

26
5. CAPITULO Ⅴ: BIBLIOGRAFÍA

• http://recursostic.educacion.es/descartes/web/materiales_didacticos/sistemas_de
_ecuaciones_lineales_2bcnt/discusion_por_el_teorema_de_rouche.htm
• https://www.hiru.eus/es/matematicas/teorema-de-rouche-frobenius
• http://gymlab.ccm.itesm.mx:8080/NewtonRepositorio/305/algebra-lineal-
eliminacion-gaussiana.pdf
• http://www.dicis.ugto.mx/profesores/chema/documentos/Algebra%20Lineal/Alg
ebra_lineal_3_ProblemasDeSolucionDeEcuaciones.pdf
• http://departamento.us.es/edan/php/asig/LICMAT/LMCN1/Tema4CN10708.pdf
• http://www.dicis.ugto.mx/profesores/chema/documentos/Algebra%20Lineal/Alg
ebra_lineal_3_ProblemasDeSolucionDeEcuaciones.pdf
• http://www.ehu.eus/olatzgz/curso%20cero/algebra/algebra_lineal.pdf
• http://ocw.upm.es/algebra/algebra-y-geometria/contenidos/apuntes/matrices
• https://addi.ehu.es/bitstream/handle/10810/16209/Libro%20completo_DEPOSI
TO%20LEGAL.pdf;jsessionid=D3240FCA2ABAE5E2CB2E5824CDD2EC9E?
sequence=1

27

Potrebbero piacerti anche