1. UNIVERSIDAD “FERMÍN TORO”
VICERECTORADO ACADÉMICO
FACULTAD DE INGENIERÍA
• ALUMNO: JESÚS ALFREDO RIVAS LIMA
• C.I ,26.357.611
Solución de Sistemas de
Ecuaciones Lineales
2. El proceso de eliminación de Gaussisana o de Gauss, consiste en
realizar transformaciones elementales en el sistema inicial
(intercambio de filas, intercambio de columnas,
multiplicación de filas o columnas por constantes, operaciones con
filas o columnas, . . . ), destinadas a transformarlo en un sistema
triangular superior, que resolveremos por remonte. Además, la
matriz de partida tiene el mismo determinante que la
matriz de llegada, cuyo determinante es el producto de los
coeficientes diagonales de la matriz.
Métodos De Eliminación Gaussiana
3. El proceso de eliminación de Gauss - Jordán consiste en realizar transformaciones elementales
en el sistema inicial, destinadas a transformarlo en un sistema
diagonal. Elnúmero de operaciones elementales de este método, es superior al del método de Gauss
(alrededor de un 50% más).
Sin embargo, a la hora de resolver el sistema de llegada por remonte, el número de operaciones es menor,
motivo por el cual, el método de Gauss - Jordán es un método computacionalmente bueno cuando
tenemos que resolver varios sistemas con la misma matriz A y resolverlos simultáneamente,
utilizando el algoritmo de Gauss-Jordán.
Método de Gauss-Jordan
4. Descomposición LU
El método de Descomposición LU se basa en demostrar que una matriz A se puede factorizar
como el producto de una matriz triangular inferior L con una matriz triangular superior U,
donde en el paso de eliminación sólo se involucran operaciones sobre los coeficientes de la matriz,
permitiendo así evaluar los términos independientes bi de manera eficiente.
La implementación del algoritmo de la Descomposición LU tiene sus variantes en cuanto a los valores
iniciales de la diagonal que tomen las matrices L y U, es decir si los valores de la diagonal de la matriz L tiene
números 1, formalmente esto se refiere a la Descomposición de Doolitle. Pero si los valores de la diagonal de la
matriz U tiene números 1, formalmente esto se refiere a la Descomposición de Crout
5. En matemáticas, la factorización o descomposición de
Cholesky toma su nombre del matemático André-Louis
Cholesky, quien encontró que una matriz simétricadefinida
positiva puede ser descompuesta como el producto de
una matriz triangular inferior y la traspuesta de la matriz
triangular inferior. La matriz triangular inferior es el triángulo
de Cholesky de la matriz original positiva definida. El
resultado de Cholesky ha sido extendido a matrices con
entradas complejas. Es una manera de resolver sistemas
de ecuaciones matriciales y se deriva de la factorización
LU con una pequeña variación.
Factorización de Cholesky
Cualquier matriz cuadrada A con pivotes no nulos
puede ser escrita como el producto de una matriz
triangular inferior L y una matriz triangular superior U;
esto recibe el nombre de factorización LU. Sin embargo,
si A es simétrica y definida positiva, se pueden escoger
los factores tales que U es la transpuesta de L, y esto se
llama la descomposición o factorización de Cholesky.
Tanto la descomposición LU como la descomposición
de Cholesky son usadas para resolver sistemas
de ecuaciones lineales. Cuando es aplicable, la
descomposición de Cholesky es dos veces más eficiente
que la descomposición LU.
6. En análisis numérico el método de Gauss-Seidel es un método iterativo utilizado para resolver sistemas de
ecuaciones lineales. El método se llama así en honor a los matemáticos alemanes Carl Friedrich
Gauss y Philipp Ludwig von Seidel y es similar al método de Jacobi.
Aunque este método puede aplicarse a cualquier sistema de ecuaciones lineales que produzca una matriz
(cuadrada, naturalmente pues para que exista solución única, el sistema debe tener tantas ecuaciones como
incógnitas) de coeficientes con los elementos de su diagonal no-nulos, la convergencia del método solo se
garantiza si la matriz es diagonalmente dominante o si es simétrica y, a la vez, definida positiva.
Método de Gauss-Seidel
7. El Método de Jacobi transforma una matriz simétrica en una matriz diagonal al eliminar de forma simétrica los
elementos que están fuera de la diagonal. Desafortunadamente, el método requiere un número infinito de
operaciones, ya que la eliminación de cada elemento no cero a menudo crea un nuevo valor no cero en el
elemento cero anterior. Si A es diagonalmente dominante, entonces la sucesión que resulta de la iteración de
Jacobi converge a la solución de Ax = b para cualquier vector inicial Xo. Partimos de una aproximación inicial
Xo para las soluciones Xi al sistema de ecuaciones y sustituimos estos valores en la ecuación: Que es la
expresión que nos proporciona las nuevas componentes del vector x (k) en función de vector anterior x (k-1)
en la iteración de Jacobi, en su respectivo algoritmo; donde el a el método de Jacobi más que usar el último
valor disponible de , con base en un conjunto de las x anteriores (). De esta forma, como se generan nuevos
valores, no se usan en forma inmediata sino que se retienen para la siguiente iteración
Método de Jacobi