Download Sistema de ecuaciones lineales - MetodosNumericos2012-1
Document related concepts
Transcript
Sistema de ecuaciones lineales En matemáticas y álgebra lineal, un sistema de ecuaciones lineales, también conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sería el siguiente: El problema consiste en encontrar los valores desconocidos variables x1, x2 y x3 que satisfacen las tres ecuaciones. de las El problema de los sistemas lineales de ecuaciones es uno de los más antiguos de la matemática y tiene una infinidad de aplicaciones, como en procesamiento digital de señales, análisis estructural, estimación, predicción y más generalmente en programación lineal así como en la aproximación de problemas no lineales de análisis numérico. En general, un sistema con m ecuaciones lineales y n incógnitas puede ser escrito en forma normal como: Donde son las incógnitas y los números son los coeficientes del sistema sobre el cuerpo . Es posible reescribir el sistema separando con coeficientes con notación matricial: (1) Si representamos cada matriz con una única letra obtenemos: Donde A es una matriz m por n, x es un vector columna de longitud n y b es otro vector columna de longitud m. El sistema de eliminación de Gauss-Jordan se aplica a este tipo de sistemas, sea cual sea el cuerpo del que provengan los coeficientes. Eliminación de Gauss-Jordan En matemáticas, la eliminación Gaussiana, eliminación de Gauss o eliminación de Gauss-Jordan, llamadas así debido a Carl Friedrich Gauss y Wilhelm Jordan, son algoritmos del álgebra lineal para determinar las soluciones de un sistema de ecuaciones lineales, encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el método de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro equivalente en el que cada ecuación tiene una incógnita menos que la anterior. Cuando se aplica este proceso, la matriz resultante se conoce como: "forma escalonada". El método fue presentado por el matemático Carl Friedrich Gauss, pero se conocía anteriormente en un importante libro matemático chino llamado Jiuzhang suanshu o Nueve capítulos del arte matemático La complejidad computacional de la eliminación gaussiana es aproximadamente n3. Esto es, el número de operaciones requeridas es n3 si el tamaño de la matriz es n × n 1. Ir a la columna no cero extrema izquierda 2. Si el primer renglón tiene un cero en esta columna, intercambiarlo con otro que no lo tenga 3. Luego, obtener ceros debajo de este elemento delantero, sumando múltiplos adecuados del renglón superior a los renglones debajo de él 4. Cubrir el renglón superior y repetir el proceso anterior con la submatriz restante. Repetir con el resto de los renglones (en este punto la matriz se encuentra en la forma de escalón) 5. Comenzando con el último renglón no cero, avanzar hacia arriba: para cada renglón obtener un 1 delantero e introducir ceros arriba de este sumando múltiplos correspondientes a los renglones correspondientes Una variante interesante de la eliminación de Gauss es la que llamamos eliminación de Gauss-Jordan, (debido al mencionado Gauss y aWilhelm Jordan), esta consiste en ir obteniendo los 1 delanteros durante los pasos uno al cuatro (llamados paso directo) así para cuando estos finalicen ya se obtendrá la matriz en forma escalonada reducida Ejemplo Supongamos que es necesario encontrar los números x, y, z, que satisfacen simultáneamente estas ecuaciones: Esto es llamado un sistema lineal de ecuaciones. El objetivo es reducir el sistema a otro equivalente, que tenga las mismas soluciones. Las operaciones (llamadas elementales) son estas: Multiplicar una ecuación por un escalar no nulo. Intercambiar de posición dos ecuaciones Sumar a una ecuación un múltiplo de otra. Estas operaciones pueden representarse con matrices elementales que se usan también en otros procedimientos como la factorización LUo la diagonalización por congruencia de una matriz simétrica. En nuestro ejemplo, eliminamos x de la segunda ecuación sumando 3/2 veces la primera ecuación a la segunda y después sumamos la primera ecuación a la tercera. El resultado es: Ahora eliminamos y de la primera ecuación sumando -2 veces la segunda ecuación a la primera, y sumamos -4 veces la segunda ecuación a la tercera para eliminar y. Finalmente eliminamos z de la primera ecuación sumando -2 veces la tercera ecuación a la primera, y sumando 1/2 veces la tercera ecuación a la segunda para eliminar z. Despejando, podemos ver las soluciones: Para clarificar los pasos, se trabaja con la matriz aumentada. Podemos ver los 3 pasos en su notación matricial: Primero: Después, Por último. Si el sistema fuera incompatible, entonces nos encontraríamos con una fila como esta: Que representa la ecuación: 0x + 0y + 0z = 1, es decir, 0 = 1 que no tiene solución Factorización LU En el álgebra lineal, la factorización o descomposición LU (del inglés LowerUpper) es una forma de factorización de una matriz como el producto de una matriz triangular inferior y una superior. Debido a la inestabilidad de este método, por ejemplo si un elemento de la diagonal es cero, es necesario premultiplicar la matriz por una matriz de permutación. Método llamado factorización PA = LU o LU con pivote. Esta descomposición se usa en el análisis numérico para resolver sistemas de ecuaciones (más eficientemente) o encontrar las matrices inversas. Sea A una matriz no singular (si lo fuera, entonces la descomposición podría no ser única) donde L y U son matrices inferiores y superiores triangulares. Para matrices , esto es: Por otro lado la descomposición PLU tiene esta forma: Lm − 1Pm − 1...L2P2L1P1A = U Con Lm − 1...L1 matrices triangulares inferiores, Pm − 1...P1 matrices de permutacion y U una matriz triangular superior. Para determinar L: L = (L'm − 1 * ... * L'2 * L'1) − 1 y cada L'k está dado por: L'k = Esto se debe a que L'k es igual a Lk, pero con los elementos de la subdiagonal permutados. Otra forma de ver éste tipo de factorización es: A = PTLU Recordando que las matrices de permutación matriz permutación son invertibles y su inversa es su traspuesta Las matrices L y U son únicas, si la matriz no es singular. En caso contrario pueden no ser únicas. Demostración: Dada la matriz A ∈ Rmxn A = L1U1 y A = L2U2 Recordemos que L1,U1,L2,U2 son invertibles por tener el determinante distinto de cero entonces: L1U1 = L2U2 Entonces es una matriz triangular inferior, con unos en la diagonal y es triangular superior, con unos en la diagonal (recordando que el producto matricial de triangulares superiores/inferiores es triangular superior/inferior). La única matriz que cumple estas dos propiedades es la identidad. Por lo tanto: y Con lo cual: L1 = L2 y U1 = U2 Equipo # 5 HECTOR JESUS GARCIA REYNA JAVIER GUTIERREZ GONZALEZ PEDRO JAVIER GONZALEZ SALAS CESAR GUEVARA GALDAME JESUS VEGA RUBIO Sistema de ecuaciones lineales Método de gauss Jordan Descomposición LU Bibliografia www.wikipedia.com links de videos youtube http://www.youtube.com/watch?v=PH3neALwpy4 http://www.youtube.com/watch?v=mN61HtWdwEE