Download Sistema de ecuaciones lineales - MetodosNumericos2012-1

Document related concepts

Factorización LU wikipedia , lookup

Sistema de ecuaciones lineales wikipedia , lookup

Factorización de Cholesky wikipedia , lookup

Matriz triangular wikipedia , lookup

Matriz tridiagonal wikipedia , lookup

Transcript
Sistema de ecuaciones lineales
En matemáticas y álgebra lineal, un sistema de ecuaciones lineales, también
conocido como sistema lineal de ecuaciones o simplemente sistema lineal,
es un conjunto de ecuaciones lineales sobre un cuerpo o un anillo conmutativo.
Un ejemplo de sistema lineal de ecuaciones sería el siguiente:
El problema consiste en encontrar los valores desconocidos
variables x1, x2 y x3 que satisfacen las tres ecuaciones.
de
las
El problema de los sistemas lineales de ecuaciones es uno de los más antiguos
de la matemática y tiene una infinidad de aplicaciones, como en procesamiento
digital de señales, análisis estructural, estimación, predicción y más
generalmente en programación lineal así como en la aproximación de
problemas no lineales de análisis numérico.
En general, un sistema con m ecuaciones lineales y n incógnitas puede ser
escrito en forma normal como:
Donde
son las incógnitas y los números
son los
coeficientes del sistema sobre el cuerpo
. Es posible reescribir
el sistema separando con coeficientes con notación matricial:
(1)
Si representamos cada matriz con una única letra obtenemos:
Donde A es una matriz m por n, x es un vector columna de longitud n y b es
otro vector columna de longitud m. El sistema de eliminación de Gauss-Jordan
se aplica a este tipo de sistemas, sea cual sea el cuerpo del que provengan los
coeficientes.
Eliminación de Gauss-Jordan
En matemáticas,
la eliminación
Gaussiana, eliminación
de
Gauss o eliminación de Gauss-Jordan, llamadas así debido a Carl Friedrich
Gauss y Wilhelm Jordan, son algoritmos del álgebra lineal para determinar las
soluciones de un sistema de ecuaciones lineales, encontrar matrices e
inversas. Un sistema de ecuaciones se resuelve por el método de Gauss
cuando se obtienen sus soluciones mediante la reducción del sistema dado a
otro equivalente en el que cada ecuación tiene una incógnita menos que la
anterior. Cuando se aplica este proceso, la matriz resultante se conoce como:
"forma escalonada".
El método fue presentado por el matemático Carl Friedrich Gauss, pero se
conocía anteriormente en un importante libro matemático chino
llamado Jiuzhang suanshu o Nueve capítulos del arte matemático
La complejidad computacional de la eliminación gaussiana es
aproximadamente n3. Esto es, el número de operaciones requeridas es n3 si el
tamaño de la matriz es n × n
1. Ir a la columna no cero extrema izquierda
2. Si el primer renglón tiene un cero en esta columna, intercambiarlo con
otro que no lo tenga
3. Luego, obtener ceros debajo de este elemento delantero, sumando
múltiplos adecuados del renglón superior a los renglones debajo de él
4. Cubrir el renglón superior y repetir el proceso anterior con
la submatriz restante. Repetir con el resto de los renglones (en este
punto la matriz se encuentra en la forma de escalón)
5. Comenzando con el último renglón no cero, avanzar hacia arriba: para
cada renglón obtener un 1 delantero e introducir ceros arriba de este
sumando múltiplos correspondientes a los renglones correspondientes
Una variante interesante de la eliminación de Gauss es la que llamamos
eliminación de Gauss-Jordan, (debido al mencionado Gauss y aWilhelm
Jordan), esta consiste en ir obteniendo los 1 delanteros durante los pasos uno
al cuatro (llamados paso directo) así para cuando estos finalicen ya se
obtendrá la matriz en forma escalonada reducida
Ejemplo
Supongamos que es necesario encontrar los números x, y, z, que satisfacen
simultáneamente estas ecuaciones:
Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el
sistema a otro equivalente, que tenga las mismas soluciones. Las
operaciones (llamadas elementales) son estas:

Multiplicar una ecuación por un escalar no nulo.
 Intercambiar de posición dos ecuaciones
 Sumar a una ecuación un múltiplo de otra.
Estas operaciones pueden representarse con matrices elementales que se
usan también en otros procedimientos como la factorización LUo la
diagonalización por congruencia de una matriz simétrica.
En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2
veces la primera ecuación a la segunda y después sumamos la primera
ecuación a la tercera. El resultado es:
Ahora eliminamos y de la primera ecuación sumando -2 veces la
segunda ecuación a la primera, y sumamos -4 veces la segunda
ecuación a la tercera para eliminar y.
Finalmente eliminamos z de la primera ecuación sumando -2
veces la tercera ecuación a la primera, y sumando 1/2 veces la
tercera ecuación a la segunda para eliminar z.
Despejando, podemos ver las soluciones:
Para clarificar los pasos, se trabaja con la matriz
aumentada. Podemos ver los 3 pasos en su notación
matricial:
Primero:
Después,
Por último.
Si el sistema fuera incompatible, entonces
nos encontraríamos con una fila como esta:
Que representa la ecuación: 0x + 0y +
0z = 1, es decir, 0 = 1 que no tiene
solución
Factorización LU
En el álgebra lineal, la factorización o descomposición LU (del inglés LowerUpper) es una forma de factorización de una matriz como el producto de
una matriz triangular inferior y una superior. Debido a la inestabilidad de este
método, por ejemplo si un elemento de la diagonal es cero, es necesario
premultiplicar la matriz por una matriz de permutación. Método
llamado factorización PA = LU o LU con pivote.
Esta descomposición se usa en el análisis numérico para resolver sistemas de
ecuaciones (más eficientemente) o encontrar las matrices inversas.
Sea A una matriz no singular (si lo fuera, entonces la descomposición podría no
ser única)
donde L y U son matrices inferiores y superiores triangulares.
Para matrices
, esto es:
Por otro lado la descomposición PLU tiene esta forma:
Lm − 1Pm − 1...L2P2L1P1A = U
Con Lm − 1...L1 matrices triangulares inferiores, Pm − 1...P1 matrices de
permutacion y U una matriz triangular superior.
Para determinar L:
L = (L'm − 1 * ... * L'2 * L'1) − 1
y cada L'k está dado por:
L'k =
Esto se debe a que L'k es igual a Lk, pero con los elementos de la
subdiagonal permutados.
Otra forma de ver éste tipo de factorización es: A = PTLU Recordando
que las matrices de permutación matriz permutación son invertibles y
su inversa es su traspuesta
Las matrices L y U son únicas, si la matriz no es singular. En caso contrario
pueden no ser únicas.
Demostración:
Dada la matriz A ∈ Rmxn
A = L1U1 y A = L2U2
Recordemos que L1,U1,L2,U2 son invertibles por tener el determinante distinto
de cero entonces:
L1U1 = L2U2
Entonces
es una matriz triangular inferior, con unos en la diagonal
y
es triangular superior, con unos en la diagonal (recordando que
el producto matricial de triangulares superiores/inferiores es triangular
superior/inferior). La única matriz que cumple estas dos propiedades es
la identidad. Por lo tanto:
y
Con lo cual:
L1 = L2 y U1 = U2
Equipo # 5
HECTOR JESUS GARCIA REYNA
JAVIER GUTIERREZ GONZALEZ
PEDRO JAVIER GONZALEZ SALAS
CESAR GUEVARA GALDAME
JESUS VEGA RUBIO
Sistema de ecuaciones lineales
Método de gauss Jordan
Descomposición LU
Bibliografia
www.wikipedia.com
links de videos youtube
http://www.youtube.com/watch?v=PH3neALwpy4
http://www.youtube.com/watch?v=mN61HtWdwEE