1. Solución de Sistemas de Ecuaciones Lineales
Objetivos Terminal Seleccionar métodos numéricos determinando
las solución aproximada de un sistema de ecuaciones lineales
Objetivos Específicos
1- Utilizar métodos de eliminación para resolver conjunto de ecuaciones
Lineales.
2- Descomponer una matriz cuadrada en una triangular superior superior (U)
y una triangular inferior (L)
3- Calcular el determinante de una matriz.
4- Descomponer una matriz cuadrada en una triangular superior y su traspuestas
5- Utilizar métodos interactivos para resolver un conjunto de ecuaciones lineales.
2. Métodos de Eliminación Gaussiana utilizando métodos
numéricos
El proceso de eliminación de Gaussisana o de Gauss, consiste en realizar
transformaciones elementales en el sistema inicial (intercambio de
filas, intercambio de columnas, multiplicación de filas o columnas por
constantes, operaciones con filas o columnas, . . . ), destinadas a transformarlo en
un sistema triangular superior, que resolveremos por remonte. Además, la matriz
de partida tiene el mismo determinante que la matriz de llegada, cuyo
determinante es el producto de los coeficientes diagonales de la matriz.
Uno de los problemas de la eliminación Gaussiana es que debemos dividir entre
el pivote; si este es un número muy pequeño, entonces un error de redondeo
puede arrojar serias dudas sobre la respuesta final. En forma general este método
propone la eliminación progresiva de variables en el sistema de ecuaciones, hasta
tener sólo una ecuación con una incógnita. Una vez resuelta esta, se procede por
sustitución regresiva hasta obtener los valores de todas las variables.
3. Método de Gauss-Jordan
El proceso de eliminación de Gauss - Jordán consiste en realizar
transformaciones elementales en el sistema inicial, destinadas a transformarlo
en un sistema diagonal. El número de operaciones elementales de este método,
es superior al del método de Gauss (alrededor de un 50% más).
Sin embargo, a la hora de resolver el sistema de llegada por remonte, el número
de operaciones es menor, motivo por el cual, el método de Gauss - Jordán es un
método computacionalmente bueno cuando tenemos que resolver varios
sistemas con la misma matriz A y resolverlos simultáneamente, utilizando el
algoritmo de Gauss-Jordán.
En base a lo anteriormente expuesto, solo haríamos un proceso de eliminación
en la matriz y la resolución de un sistema con esta matriz es muy fácil. Un
ejemplo en el que se suele usar Gauss - Jordán es en el cálculo de la matriz
inversa, ya que calcular la inversa de A, es calcular N sistemas con la misma
matriz.
4. Método de Gauss-Jordan
A) sistemas con solución única, B) sistemas con infinidad de
soluciones, C) sistemas sin solución y D) sistemas homogéneos.
5. Descomposición LU. Determinante de una matriz
El método de Descomposición LU se basa en demostrar que una matriz A se
puede factorizar como el producto de una matriz triangular inferior L con una
matriz triangular superior U, donde en el paso de eliminación sólo se
involucran operaciones sobre los coeficientes de la matriz, permitiendo así
evaluar los términos independientes bi de manera eficiente.
La implementacion del algoritmo de la descomposición de LU tiene sus
variantes en cuanto a los valores iniciales de la diagonal que tome las matrices
L y U, es decir si los valores de la diagonal de la matriz L tiene numero
1, formalmente esto se refiere a la Descomposición de Doolite. Pero eso si los
valores de la diagonal de la matriz U tiene números 1, formalmente esto se
refiere a la Descomposición de Crout
7. Factorización de Cholesky
El método de Factorización de Cholesky se basa en demostrar que
si una matriz A es simétrica y definida positiva en lugar de
factorizarse como LU, puede ser factorizada como el producto de
una matriz triangular inferior y la traspuesta de la matriz
triangular inferior, es decir los factores triangulares resultantes
son la traspuesta de cada uno. Véase el siguiente ejemplo
8. Solución De Sistemas Lineales Utilizando Métodos
Iterativos
El método de Gauss y sus variantes son conocidos como métodos directos
para resolver el problema inicial Ax = b. Se ejecutan a través de un número
finito de pasos y generan una solución x que sería exacta sino fuera por los
errores de redondeo. En contraste, un método iterativo da lugar a una
sucesión de vectores que idealmente converge a la solución. El cálculo se
detiene cuando se cuenta con una solución aproximada con cierto grado
de precisión especificado de antemano o después de cierto número de
iteraciones. Los métodos indirectos son casi siempre iterativos.
12. Método De Gauss Seidel
El Método de Gauss Seidel emplea valores iniciales y después itera para
obtener estimaciones refinadas de la solución; es particularmente adecuado
para un gran número de ecuaciones, lo cual en cierto modo lo hace un método
más comúnmente usado. La fórmula utilizada para hallar los xi viene dada por
el despeje de cada una de las xi en cada una de las ecuaciones y se les da un
valor inicial a cada xi de cero.
Observase que en el método de Gauss-Seidel los valores actualizados de xi
sustituyen de inmediato a los valores anteriores, mientras que en el método de
Jacobi todas las componentes nuevas del vector se calculan antes de llevar a
cabo la sustitución. Por contra, en el método de Gauss-Seidel los cálculos
deben llevarse a cabo por orden, ya que el nuevo valor xi depende de los
valores actualizados de x1, x2, ..., x i-1.
13. Método de Jacobi
El Método de Jacobi transforma una matriz simétrica en una matriz diagonal al
eliminar de forma simétrica los elementos que están fuera de la diagonal.
Desafortunadamente, el método requiere un número infinito de operaciones, ya
que la eliminación de cada elemento no cero a menudo crea un nuevo valor no
cero en el elemento cero anterior. Si A es diagonalmente dominante, entonces la
sucesión que resulta de la iteración de Jacobi converge a la solución de Ax = b para
cualquier vector inicial Xo. Partimos de una aproximación inicial Xo para las
soluciones Xi al sistema de ecuaciones y sustituimos estos valores en la ecuación:
Que es la expresión que nos proporciona las nuevas componentes del vector x(k) en
función de vector anterior x(k-1) en la iteración de Jacobi, en su respectivo
algoritmo; donde el a el método de Jacobi más que usar el último valor disponible
de , con base en un conjunto de las x anteriores (). De esta forma, como se generan
nuevos valores, no se usan en forma inmediata sino que se retienen para la
siguiente iteración.