2. Métodos De Eliminación Gaussiana
En forma general este método propone la eliminación progresiva de
variables en el sistema de ecuaciones, hasta tener sólo una ecuación con
una incógnita. Una vez resuelta esta, se procede por sustitución regresiva
hasta obtener los valores de todas las variables. Sea por ejemplo el
siguiente sistema de ecuaciones:
Lo que buscamos son 3 números, que satisfagan a las tres ecuaciones.
El método de solución será simplificar las ecuaciones, de tal modo que las
soluciones se puedan identificar con facilidad. Se comienza dividiendo la
primera ecuación entre 2, obteniendo:
Se simplificará el sistema si multiplicamos por -4 ambos lados de la
primera ecuación y sumando esta a la segunda. Entonces:
sumándolas resulta :
3. Métodos De Eliminación Gaussiana
La nueva ecuación se puede sustituir por cualquiera de las dos. Ahora
tenemos:
Luego, la primera se multiplica por -3 y se le suma a la tercera,
obteniendo:
Acto seguido, la segunda ecuación se divide entre -3.
Ahora se multiplica por 5 y se le suma a la tercera:
En este momento ya tenemos el valor de x3, ahora simplemente se
procede a hacer la sustitución hacia atrás, y automáticamente se van
obteniendo los valores de las otras incógnitas. Se obtendrá:
4. Método de Gauss-Jordan
El Método de Gauss – Jordan o también llamado eliminación de Gauss
– Jordan, es un método por el cual pueden resolverse sistemas de
ecuaciones lineales con n números de variables, encontrar matrices y
matrices inversas, en este caso desarrollaremos la primera aplicación
mencionada.
Para resolver sistemas de ecuaciones lineales aplicando este método,
se debe en primer lugar anotar los coeficientes de las variables del
sistema de ecuaciones lineales en su notación matricial:
Entonces, anotando como matriz (también llamada matriz aumentada):
5. Método de Gauss-Jordan
Una vez hecho esto, a continuación se procede a convertir dicha matriz
en una matriz identidad, es decir una matriz equivalente a la original,
la cual es de la forma:
Esto se logra aplicando a las distintas filas y columnas de las matrices
simples operaciones de suma, resta, multiplicación y división; teniendo
en cuenta que una operación se aplicara a todos los elementos de la fila
o de la columna, sea el caso.
Obsérvese que en dicha matriz identidad no aparecen los términos
independientes, esto se debe a que cuando nuestra matriz original
alcance la forma de la matriz identidad, dichos términos resultaran ser la
solución del sistema y verificaran la igualdad para cada una de las
variables, correspondiéndose de la siguiente forma:
d1 = x
d2 = y
d3 = z
6. Descomposición LU
El método de descomposición LU para la solución de sistemas de
ecuaciones lineales debe su nombre a que se basa en la descomposición
de la matriz original de coeficientes (A) en el producto de dos matrices (L y
U).
Esto es:
Donde:
L - Matriz triangular inferior
U - Matriz triangular superior con todos los elementos de la diagonal
principal iguales a 1.
De lo anterior, para matrices de 3x3 se escribe:
Si efectuamos la multiplicación de L y U, igualando los elementos
de ese producto con los de la matriz A correspondientes, se
obtiene:
7. Descomposición LU
De aquí que los elementos de L y U son, en este caso:
Si el sistema de ecuaciones original se escribe como:
A x = b
lo cual resulta lo mismo escribir:
L U X = b
Definiendo a:
U X = Y
podemos escribir:
L Y = b
Resolviendo para Y, encontramos:
8. Descomposición LU
El algoritmo de solución, una vez conocidas L, U y b, consiste en encontrar
primeramente los valores de "Y" por sustitución progresiva sobre "L Y = b".
En segundo lugar se resuelve "U x = y " por sustitución regresiva para
encontrar los valores de "x", obteniendo:
La determinación de los elementos de las matrices L y U se realizan
eficientemente aplicando una forma modificada del método de eliminación
de Gauss.
9. Factorización De Cholesky
Una matriz simétrica es aquella donde Aij = Aji para toda i y j, En otras
palabras, [A] =[A] T. Tales sistemas ocurren comúnmente en problemas
de ambos contextos: el matemático y el de ingeniería. Ellos ofrecen
ventajas computacionales ya que sólo se necesita la mitad de
almacenamiento y, en la mayoría de los casos, sólo se requiere la
mitad del tiempo de cálculo para su solución. Al contrario de la
Descomposición LU, no requiere de pivoteo. El método de
Factorización de Cholesky se basa en demostrar que si una matriz A
es simétrica y definida positiva en lugar de factorizarse como LU,
puede ser factorizada como el producto de una matriz triangular
inferior y la traspuesta de la matriz triangular inferior, es decir los
factores triangulares resultantes son la traspuesta de cada uno.
Ejemplo:
Obtener la factorización de Cholesky de la siguiente matriz (entrar sólo
los elementos de U, la triangular superior)
5 7 −8
7 14 −14
−8 −14 24
10. Factorización De Cholesky
√5 7/5 √5 −8/5 √5
0 1/5 1051/2 −2/15 1051/2
0 0 2/3 211/2
Entrar el valor del determinante:
Resolver el sistema lineal Ax=b cuando b es el vector siguiente
51
84
−90
Factorización:
En cada etapa de la resolución se muestran los valores actuales de la
matriz.
Los nuevos elementos calculados aparecen con su valor definitivo en
color
diferente.
Calculando el elemento (1,1)
5^(1/2) 7 -8
7 14 -14
12. Factorización De Cholesky
Calculando el elemento (3,3)
5^(1/2) 7/5*5^(1/2) -8/5*5^(1/2)
7/5*5^(1/2) 1/5*105^(1/2) -2/15*105^(1/2)
-8/5*5^(1/2) -2/15*105^(1/2) 2/3*21^(1/2)
La factorización final es la siguiente, en la que aparecen las matrices UT y
U, y el vector de permutaciones:
√5 0 0
7/5 √5 1/5 1051/2 0
−8/5 √5 −2/15 1051/2 2/3 211/2
√5 7/5 √5 −8/5 √5
0 1/5 1051/2 −2/15 1051/2
0 0 2/3 211/
El valor del determinante viene dado por el producto de los elementos de la
diagonal principal de U y coincide con la diagonal principal de UT. Por tanto,
es:
196
14. Factorización de QR, Householder
El objetivo de esta matriz es usarla para producir ceros en la matriz que
queremos
factorizar. Para hacerlo, debemosconsiderar el problema:
Dados los vectores x y y, ¿cómo calculmos P tal que Px = y?
• Puesto que P realiza una reflexión, se debe cumplir que 𝑦 2 = 𝑥 2 para
poder calcular P.
• Hay que notar que P es invariante a la escala de v.
x - y tiene la dirección del vector que queremos.
Así, podemos definir v = x - y.
15. Solución De Sistemas Lineales Utilizando Métodos Iterativos
El método de Gauss y sus variantes son conocidos como métodos directos
para resolver el problema inicial Ax = b. Se ejecutan a través de un número
finito de pasos y generan una solución x que sería exacta sino fuera por los
errores de redondeo. En contraste, un método iterativo da lugar a una
sucesión de vectores que idealmente converge a la solución. El cálculo se
detiene cuando se cuenta con una solución aproximada con cierto grado
de precisión especificado de antemano o después de cierto número de
iteraciones. Los métodos indirectos son casi siempre iterativos.
Un método iterado de resolución del sistema Ax = b es aquel que genera, a
partir de un vector inicial x0, una sucesión de vectores x1, x2, . . . xn.. "Un
método iterado se dirá que es consistente con el sistema Ax = b, si el límite
x de la sucesión (xn), en caso de existir, es solución del sistema. Se dirá
que el método es convergente si la sucesión generada por cualquier vector
inicial x0 es convergente a la solución del sistema".Es evidente que si un
método es convergente es consistente, sin embargo, el recíproco no es
cierto
16. Método De Gauss Seidel
El Método de Gauss Seidel emplea valores iniciales y después itera para
obtener estimaciones refinadas de la solución; es particularmente adecuado
para un gran número de ecuaciones, lo cual en cierto modo lo hace un
método más comúnmente usado. La fórmula utilizada para hallar los xi viene
dada por el despeje de cada una de las xi en cada una de las ecuaciones y
se les da un valor inicial a cada xi de cero.
Observase que en el método de Gauss-Seidel los valores actualizados de xi
sustituyen de inmediato a los valores anteriores, mientras que en el método
de Jacobi todas las componentes nuevas del vector se calculan antes de
llevar a cabo la sustitución. Por contra, en el método de Gauss-Seidel los
cálculos deben llevarse a cabo por orden, ya que el nuevo valor xi depende
de los valores actualizados de x1, x2, ..., x i-1.
La desventaja del método de Gauss-Seidel es que no siempre converge a la
solución exacta o algunas veces los hace de manera muy lenta. Únicamente
es confiable para aquellos sistemas dominantes diagonalmente.
17. Método de Jacobi
El Método de Jacobi transforma una matriz simétrica en una matriz
diagonal al eliminar de forma simétrica los elementos que están fuera
de la diagonal. Desafortunadamente, el método requiere un número
infinito de operaciones, ya que la eliminación de cada elemento no cero
a menudo crea un nuevo valor no cero en el elemento cero anterior. Si
A es diagonalmente dominante, entonces la sucesión que resulta de la
iteración de Jacobi converge a la solución de Ax = b para cualquier
vector inicial Xo. Partimos de una aproximación inicial Xo para las
soluciones Xi al sistema de ecuaciones y sustituimos estos valores en
la ecuación:
Que es la expresión que nos proporciona las nuevas componentes del
vector x(k) en función de vector anterior x(k-1) en la iteración de Jacobi,
en su respectivo algoritmo; donde el a el método de Jacobi más que
usar el último valor disponible de , con base en un conjunto de las x
anteriores (). De esta forma, como se generan nuevos valores, no se
usan en forma inmediata sino que se retienen para la siguiente
iteración.