Este documento describe varios métodos para resolver sistemas de ecuaciones lineales, incluyendo el método de Gauss, Gauss-Jordan, descomposición LU, factorización de Cholesky, factorización QR, métodos iterativos como Gauss-Seidel, Jacobi, y métodos para resolver sistemas grandes. Explica cómo cada método transforma las matrices para encontrar soluciones de manera eficiente.
La Sostenibilidad Corporativa. Administración Ambiental
Analisis Numerico
1. República Bolivariana De Venezuela
Universidad Fermín Toro
Vice-Rectorado Académico
Decanato de Ingeniería
Nombre: Enrico Eletto
C.I: 24.398.652
SAIA
2. Método de Solucion Gaussiana
Este método propone la eliminación progresiva de variables en el sistema de
ecuaciones, hasta tener sólo una ecuación con una incógnita. Una vez resuelta
esta, se procede por sustitución regresiva hasta obtener los valores de todas las
variables.
Uno de los problemas de la eliminación Gaussiana es que debemos dividir entre
el pivote; si este es un número muy pequeño, entonces un error de redondeo
puede arrojar serias dudas sobre la respuesta final.
Este método se aplica para resolver sistemas lineales de la forma:
3. Método de Gaus-Jordan
El Método de Gauss – Jordan o también llamado eliminación de Gauss –
Jordan, es un método por el cual pueden resolverse sistemas de ecuaciones
lineales con n números de variables, encontrar matrices y matrices inversas, en
este caso desarrollaremos la primera aplicación mencionada.
Para resolver sistemas de ecuaciones lineales aplicando este método, se debe en
primer lugar anotar los coeficientes de las variables del Sistema de ecuaciones
lineales en su notación matricial:
4. Descomposición LU
En el álgebra lineal, la factorización o descomposición LU es una forma
de factorización de una matriz como el producto de una matriz triangular
inferior y una superior. Debido a la inestabilidad de este método, deben tenerse
en cuenta algunos casos especiales, por ejemplo, si uno o varios elementos de
la diagonal principal de la matriz a factorizar es cero, es necesario pre
multiplicar la matriz por una o varias matrices elementales de permutación.
5. Factorización de Cholesky
Una matriz A simétrica y positiva definida puede ser factorizada de manera
eficiente por medio de una matriz triangular inferior y una matriz triangular
superior. Para una matriz no singular la descomposición LU nos lleva a
considerar una descomposición de tal tipo A = LU; dadas las condiciones de A,
simétrica y definida positiva, no es necesario hacer pivoteo, por lo que ésta
factorización se hace eficientemente y en un número de operaciones la mitad
de LU tomando la forma , donde L (la cual podemos "verla" como la raíz
cuadrada de A) es una matriz triangular inferior donde los elementos de la
diagonal son positivos
6. Factorización de QR, Householder
En álgebra lineal, la descomposición o factorización QR de una matriz es
una descomposición de la misma como producto de una matriz ortogonal por
una triangular superior. La descomposición QR es la base del algoritmo
QR utilizado para el cálculo de los vectores y valores propios de una matriz.
En muchas aplicaciones el número de filas (M) de una matriz de coeficientes A
mxn puede ser 3 al número de columnas (N)
7. Método Iterativo
Un método iterativo trata de resolver un problema matemático (como
una ecuación o un sistema de ecuaciones) mediante aproximaciones sucesivas a
la solución, empezando desde una estimación inicial. Esta aproximación
contrasta con los métodos directos, que tratan de resolver el problema de una
sola vez (como resolver un sistema de ecuaciones Ax=b encontrando la inversa
de la matriz A).
Un método iterativo da lugar a una sucesión de vectores que idealmente
converge a la solución. El cálculo se detiene cuando se cuenta con una solución
aproximada con cierto grado de precisión especificado de antemano o después
de cierto número de iteraciones. Los métodos indirectos son casi siempre
iterativos.
8. Método de Gauss-Sediel
Gauss-Seidel: Este método es iterativo o de aproximación para obtener raíces.
Mediante una técnica sistemática se obtiene una mejor aproximación a la
raíz.Es poco eficiente debido a la disminución de los errores de redondeo en
sistemas, se debe a que un método de aproximación se puede continuar hasta
que converja dentro de alguna tolerancia de error previamente especificada.
9. Método de Jacobi
El método de Jacobi consiste en realizar una secuencia de transformaciones
ortogonales, cada transformación se denomina “rotación de Jacobi”; y
corresponde a una rotación cuyo objetivo es eliminar a un elemento de la
matriz. Se va rotando sucesivamente la matriz hasta que el error es pequeño
para ser considerada una matriz diagonal. Un concepto fundamental de este
método es que, al rotar la matriz para eliminar un elemento que ya sea cero, se
modifican varios elementos situados en la fila y la columna del elemento que se
rota, que podían valer cero y hasta haber rotado con anterioridad.