Tema 16. Sistemas de ecuaciones lineales. Teorema de Rouché. Regla de Cramer. Método de Gauss-Jordan

Las primeras referencias de la existencia de los sistemas de ecuaciones lineales datan incluso de la matemática en Babilonia. No obstante, el problema original, o más concretamente el método de eliminación de incógnitas, proviene de la antigua china. En el tratado Nueve capítulos sobre el Arte Matemático, de los siglos II y I a. C. aparece reflejado:

«Hay tres clases de granos; tres gavillas de primera clase, dos de la segunda clase y una de la tercera hacen 39 medidas; dos de la primera, tres de la segunda y una de la tercera hacen 34 medidas; y una de la primera, dos de la segunda y tres de la tercera hacen 26 medidas. ¿Cuántas medidas de granos están contenidas en una gavilla de cada clase?»

Gauss-Jordan o Fang-Cheng

Lógicamente, además del problema encontramos un procedimiento para su resolución conocido como la regla Fang-Cheng. Dicha regla es la que llamamos de Gauss-Jordan o también eliminación gaussiana. El porqué lo conocemos con el nombre de Gauss o de Gauss-Jordan se debe a que fueron ambos los que lo aplicarón de forma habitual en la resolución del problema de los mínimos cuadrados.

Aunque el procedimiento era considerado relativamente trivial, con la llegada de los ordenadores se volvió casi imprescindible. La regla de Cramer, de la que hablaremos en líneas posteriores, suponía otra forma de resolver un sistema, pero no simplificaba los cálculos. El hecho es que de forma general, los métodos de resolución se complicaban casi exponencialmente cuando aumentaba el número de incógnitas y ecuaciones. En 1946 Alan Turing (1912-1954) tardó dos semanas en resolver un sistema de 18 ecuaciones con 18 incógnitas. Aún con ello, el número de operaciones requerido en la resolución de un sistema era obstensiblemente inferior utilizando la eliminación gaussiana, que con los determinantes de Cramer. Esto provocó que con la llegada de la informática comenzara a ser el más utilizado.

Cramer y Maclaurin

Pero volvamos a Cramer. Actualmente se conoce como la Regla de Cramer a un método de resolución de sistemas de ecuaciones lineales utilizando determinantes. Es curioso que dicha regla no se deba a Gabriel Cramer (1708-1752), sino a Colin Maclaurin (1698-1746). Ésta se publicó en 1748, dos años después de su fallecimiento; y dos años antes también de que lo hiciera Cramer en su Introducción al análisis de curvas algebraicas. La razón del porqué ha llegado hasta nuestros días con el sobrenombre de Cramer se debe a la notación utilizada por éste, más clara y concisa que la de Maclaurin. De todas formas, ni Cramer ni Maclaurin hablaban de determinantes en su desarrollo, ni tan siquiera un poco más tarde Bézout, quien en un trabajo presentado en 1779, Teoría general de las ecuaciones algebraicas, daba un método para resolver sistemas de n ecuaciones con n incógnitas muy similar al de Cramer y Maclaurin.

Rouché y Frobenius

El avance en su resolución vino con el álgebra abstracta, con las matrices y los determinantes. La introducción del rango de una matriz permitió dar unas condiciones necesarias y suficientes para que un sistema tuviera solución. En 1875 Eugène Rouché, matemático francés del siglo XIX, publicó un artículo donde enunciaba el teorema que hoy conocemos como el de Rouché-Frobenius. Curiosamente ese mismo año otro matemático francés publicaba un resultado similar; y también en Italia, Alfredo Capelli daba una variación de la misma idea. Hasta tal punto llegan a aparecer publicaciones, que en Francia al teorema de Roché-Frobenius se le conoce como el teorema de Rouché-Fontené; en Italia como el de Rouché-Capelli; y en Alemania y en otros países (debido a que Leopold Kronecker utilizó los resultados de Capelli para dar una demostración alternativa), como el de Kronecher-Capelli. En España es el matemático Julio Rey Pastor el que le da el nombre de teorema de Rouché-Frobenius.

El desarrollo del tema al completo puedes encontrarlo en amazon, en formato kindle o en formato papel como prefieras. También aquí puedes encontrar la relación de los temas que he publicado hasta ahora; y en el siguiente enlace puedes descargarte las primeras páginas:

Tema 16. Discusión y resolución de sistemas de ecuaciones lineales. Teorema de Rouché. Regla de Cramer. Método de Gauss-Jordan.

Tema 12. Espacios vectoriales. Variedades lineales. Aplicaciones entre espacios vectoriales. Teorema de isomorfía

Espacios vectoriales

Los espacios vectoriales son estructuras algebraicas que surgen de la extensión del concepto de grupo abeliano al que se le ha añadido una ley de composición externa. La idea de esta operación es permitir que los elementos de un grupo puedan ser modificados, sin perder la esencia del elemento. Dicho cambio dotará al vector de un nuevo concepto que se denominará módulo o norma.

Subespacios vectoriales

La idea de subespacio vectorial es la de un espacio vectorial dentro de otro espacio vectorial, en el que conservemos las mismas leyes de composición. Cuando el subespacio se encuentra generado por un único vector se llamará recta; si lo está por dos vectores linealmente independientes se llamará plano; y en general si lo está por más vectores, se hablará de la dimensión del subespacio. Por ejemplo, cuando sea una recta, todos sus elementos serán el producto de su vector generador por un elemento del cuerpo. Podríamos escribirlo así:
\mathcal{S}=\{\alpha \cdot u:u\in\mathcal{V},\alpha\in\mathbb{K}\}

Nótese la analogía del subgrupo, S generado por un único elemento a de un grupo, G:
S=\{0,a,-a\}
Es claro que el subgrupo está formado únicamente por tres elementos, y sin embargo \mathcal{S} contiene infinitos vectores, pero podemos fijarnos mejor y descubrir que al aplicar sobre los elementos de este subgrupo una ley externa que modifique el tamaño del elemento del grupo, obtendremos los vectores de \mathcal{S}. Concluiríamos que \mathcal{S} es un subespacio vectorial que proviene de aplicar una ley de composición externa «\cdot» sobre un cuerpo \mathbb{K} al subgrupo G.

Variedades lineales.

Una de las dificultades que tiene este tema no es tanto la complejidad de las demostraciones, sino la diferencia en las definiciones que se van a desarrollar. En Matemáticas existen conceptos que son tratados por unos y otros autores de forma distinta. En el caso de las variedades lineales, así ocurre.

Por una parte podemos encontrarnos con textos que definen una variedad lineal como un subespacio vectorial sin más; en otros se identifica una variedad lineal con un subconjunto de un subespacio vectorial que no conserva la estructura en sí, pero que sí tiene la forma de un espacio vectorial; en otros como las soluciones de un sistema de ecuaciones lineales; e incluso encontramos autores que definen las variedades lineales como elementos de un espacio cociente.

Nosotros vamos a decantarnos por la segunda opción, vamos a considerar que las variedades lineales son como subespacios vectoriales, sin llegar a serlo. En el fondo no es importante el cómo se definan, sino las propiedades y los resultados que podemos alcanzar con ellos.

Aplicaciones entre espacios vectoriales

Cuando se estudia un conjunto con una o varias leyes de composición, el siguiente paso natural es estudiar las aplicaciones que conservan dicha estructura. En el caso de los espacios vectoriales, éstas se denominan aplicaciones lineales u homomorfismos. Aunque se enunciará después, el conjunto de los endomorfismos de un espacio vectorial \mathcal{V} tiene a su vez estructura de álgebra sobre el mismo cuerpo sobre el que se define \mathcal{V}.

Curiosamente es posible demostrar, aunque no será tratado en este tema, que existe un isomorfismo entre la familia de los endomorfismos de \mathcal{V} y la familia de las matrices n\times n, donde n es la dimensión del espacio vectorial. Este isomorfismo nos lleva a afirmar que toda variedad lineal puede ser identificada como la imagen inversa de un vector por una aplicación lineal concreta. Dicha aplicación lineal está en correspondencia biunívoca con una matriz, y ésta con un sistema de ecuaciones lineales.

Teoremas de isomorfía

Por último queríamos hacer especial mención a los teoremas de isomorfía. Como ya hemos expuesto, algunos autores consideran solamente un teorema de isomorfía cuando se habla de espacios vectoriales, y otros consideran que hay tres. De hecho el nombre del tema hace mención a un único teorema. Nosotros, sin embargo, al haber considerado que en términos generales un espacio vectorial puede verse como la extensión de un grupo, vamos a introducir y demostrar los tres teoremas de isomorfía de grupos, aplicados en este caso sobre espacios vectoriales.

El desarrollo del tema al completo puedes encontrarlo en amazon, en formato kindle o en formato papel como prefieras. También aquí puedes encontrar la relación de los temas que he publicado hasta ahora; y en el siguiente enlace puedes descargarte las primeras páginas:

Tema 12. Espacios vectoriales. Variedades lineales. Aplicaciones entre espacios vectoriales. Teorema de isomorfía.