Documenti di Didattica
Documenti di Professioni
Documenti di Cultura
La suma de dos matrices A=(aij), B=(bij) de la misma dimensión, es otra matriz S=(sij) de la misma
dimensión que los sumandos y con término genérico s ij=aij+bij. Por tanto, para poder sumar dos
matrices estas han de tener la misma dimensión.
Ejemplo
1. A + (B + C) = (A + B) + C (propiedad asociativa)
2. A + B = B + A (propiedad conmutativa)
3. A + 0 = A (0 es la matriz nula)
4. La matriz –A, que se obtiene cambiando de signo todos los elementos de A, recibe el
nombre de matriz opuesta de A, ya que A + (–A) = 0.
La suma de 2 matrices (Aij y Bij) de la misma dimensión es una operación interna, ya que dá como
resultado otra matriz (Sij) de la misma dimensión que los sumandos y con término genérico.
La diferencia de 2 matrices (Aij y Bij) de la misma dimensión es una operación interna, ya que dá
como resultado otra matriz (Dij) de la misma dimensión que los restandos y con término genérico.
Propiedad asociativa:
A+B=B+A
Propiedad distributiva:
e(A+B)=eA + eB
Propiedad asociativa:
Podemos multiplicar A (B x C) = B (A x B) C
Vemos que obtenemos el mismo resultado, pero teniendo muy en cuenta el orden. NO
PODEMOS ALTERAR EL ORDEN DE LOS FACTORES.
Vamos a comprobarlo:
Ejercicio #24
Sean Amxn y Bpxq, condición necesaria y suficiente para que se puedan multiplicar A y B es que n=p,
es decir, para poder multiplicar dos matrices el número de columnas de la primera tiene que
coincidir con el número de filas de la segunda. El resultado del producto es una matriz C de
dimensión mxq.
Dadas dos matrices Amxn y Bnxp. El producto A·B=C donde cada elemento de C viene dado por
dicho de otro modo el elemento que ocupa la fila i y la columna j del producto se halla multiplicando
los elemento de la fila i-ésima de A con los de la columna j-ésima de B, tal que
cij=ai1·b1j+ai2·b2j+...+ain·bnj
Veámoslo con ejemplos en matrices de números reales
El producto de un escalar por un vector da por resultado otro vector, con la misma dirección que el
primero. Al hacer la multiplicación, el escalar cambia el módulo del vector (gráficamente el largo) y
en caso de ser negativo cambia también el sentido. La dirección del vector resultado es siempre la
misma que la del vector original.
Matemáticamente se realiza multiplicando al escalar por cada una de las componentes del vector.
V = (x, y)
k V = k (x, y) = (kx, ky)
Ejemplo:
V = (2,1)
k=2
k V = 2 (2, 1) = (4, 2)
Ejemplo:
V= (2, 2)
k = -1
k V = -1 (2, 2) = (-2, -2)
Si los vectores son de más de dos coordenadas se realiza lo mismo por cada una de ellas.
El resultado es una matriz que tiene tantas filas como la primera y tantas columnas como la
segunda.
3º Por último, suma todos los productos realizados. El resultado de esta suma es el elemento
buscado.
Am x n x Bn x p = Cm x p
sumándolos.
Ej emp lo
Definición de determinante
Definición: dada una matriz cuadrada A, llamamos determinante al escalar (operación entre
dos vectores cuyo resultado es el producto de sus módulos por el coseno del ángulo que lo
forman; y producto de dos vectores) que resulta de obtener todos los productos posibles de la
matriz, con una serie de restricciones.
Los determinantes, representados por ó , son herramientas muy útiles en matemáticas y en
física: sistemas de ecuaciones lineales, matrices, geometría, etc.
Los determinantes se escriben entre plecas, , y las matrices entre paréntesis, .
Regla de kramer
La regla de Cramer es un teorema del álgebra lineal que da la solución de un sistema lineal de
ecuaciones en términos de determinantes. Recibe este nombre en honor aGabriel Cramer (1704 -
1752), quien publicó la regla en su Introduction à l'analyse des lignes courbes algébriques de 1750,
aunque Colin Maclaurin también publicó el método en su Treatise of Geometry de 1748 (y
probablemente sabía del método desde 1729).1
La regla de Cramer es de importancia teórica porque da una expresión explícita para la solución
del sistema. Sin embargo, para sistemas de ecuaciones lineales de más de tres ecuaciones su
aplicación para la resolución del mismo resulta excesivamente costosa: computacionalmente, es
ineficiente para grandes matrices y por ello no es usado en aplicaciones prácticas que pueden
implicar muchas ecuaciones. Sin embargo, como no es necesario pivotar matrices, es más
eficiente que la eliminación gaussiana para matrices pequeñas, particularmente cuando son
usadas operaciones SIMD.
Si es un sistema de ecuaciones. es la matriz de coeficientes del
sistema, es el vector columna de las incógnitas y es el vector columna de
los términos independientes. Entonces la solución al sistema se presenta así:
Regla de Cramer
2. Calcular el determinante de A.
Ejemplo: