Este documento resume varios métodos para resolver sistemas de ecuaciones lineales, incluyendo el método de Gauss, Gauss-Jordan, descomposición LU, factorización de Cholesky, factorización QR, método de Gauss-Seidel y método de Jacobi. Explica que cada método involucra transformaciones de la matriz para llevarla a una forma que permita resolver el sistema de manera eficiente.
2. Métodos De Eliminación
Gaussiana o de Gauss
Este método es un proceso el cual consiste en realizar
transformaciones elementales en el sistema inicial de una
Matriz, las cuales están con fin destinadas a transformarlo en
un sistema triangular superior, el cual podemos resolver
mediante remonte. Además, la matriz de partida tiene el
mismo determinante que la matriz de llegada,
cuyo determinante es el producto de los coeficientes
diagonales de la matriz.
3. Método de Gauss-Jordan
Este consiste en realizar transformaciones elementales en la
Matriz Inicial, el cual se transformara a un sistema diagonal
(Matriz Identidad), conociendo que la cantidad de operaciones a
realizar, esta alrededor de un 50% del método de Gauss.
La idea de este método es llegar a la Matriz identidad donde la
diagonal sea de 1 y los números alrededor sean 0.
Ejemplo:
1 0 0
0 1 0
0 0 1
4. También utilizamos este método en el calculo de la matriz
inversa donde tomamos una matriz y alado de esta colocamos
una matriz identidad, el resultado de esta matriz identidad será
el que nos interese para tomar como resultado a la Inversa.
Ejemplo:
1 0 0 0 8 5 4 1
0 1 0 0 4 2 5 2
0 0 1 0 8 3 6 6 Inversa
0 0 0 1 1 2 8 7
5. Descomposición LU
(Lower-Upper)
Esta tiene como función demostrar que una Matriz A se
puede factorizar como el producto de una matriz triangular
inferior L con una matriz triangular superior U, donde en el
paso de eliminación sólo se involucran operaciones sobre
los coeficientes de la matriz, permitiendo así evaluar los
términos independientes «bi» de manera eficiente.
6. Factorización De Cholesky
Este tiene como función demostrar que, si una matriz A es
simétrica y definida positiva en lugar de factorizarse como LU,
puede ser factorizada como el producto de una matriz triangular
inferior y la traspuesta de la matriz triangular inferior, es decir
los factores triangulares resultantes son la traspuesta de cada
uno.
La descomposición de Cholesky es única: dada una matriz
Hermitiana positiva definida A, hay una única matriz triangular
inferior L con entradas diagonales estrictamente positivas tales
que A = L.LT. El recíproco se tiene trivialmente: si A se puede
escribir como L.LT para alguna matriz invertible L, triangular
inferior o no, entonces A es Hermitiana y definida positiva.
A = L . LT
7. Factorización de QR,
Householder
Esta factorización se usa ampliamente en los programas de
computadora para determinar valores propios de una matriz,
para resolver sistemas lineales y para determinar
aproximaciones por mínimos cuadrados.
Es una descomposición de la misma como producto de
una matriz ortogonal por una triangular superior. La
descomposición QR es la base del algoritmo QR utilizado
para el cálculo de los vectores y valores propios de una
matriz.
8. Método De Gauss Seidel
Este emplea valores iniciales y después itera para obtener
estimaciones refinadas de la solución; es particularmente
adecuado para un gran número de ecuaciones, lo cual en
cierto modo lo hace un método más comúnmente usado. La
fórmula utilizada para hallar los xi viene dada por el despeje
de cada una de las xi en cada una de las ecuaciones y se les
da un valor inicial a cada xi de cero.
La desventaja de este método es que no siempre converge a
la solución exacta o algunas veces los hace de manera muy
lenta. Únicamente es confiable para aquellos sistemas
dominantes diagonalmente.
9. Método de Jacobi
La base del método consiste en construir
una sucesión convergente definida iterativamente. El límite
de esta sucesión es precisamente la solución del sistema. A
efectos prácticos si el algoritmo se detiene después de un
número finito de pasos se llega a una aproximación al valor
de x de la solución del sistema.
La sucesión se construye descomponiendo la matriz del
sistema A en la forma siguiente:
A = D + R