Tema 18. Matrices. Álgebra de matrices. Aplicaciones al campo de las Ciencias Sociales y de la Naturaleza

El concepto de matriz y su estructura algebraica se ha venido utilizando de forma implícita tanto dentro como fuera de las matemáticas. Sin embargo, hasta que Cayley no la introdujo explícitamente no podemos decir que comenzaron a descubrir todo su potencial.

Antes de su definición formal ya se utilizaban para resolver sistemas de ecuaciones. El método de Gauss-Jordan es un claro ejemplo; también el cálculo de lo que luego se llamó determinante y que se utilizaba en la conocida Regla de Cramer. Históricamente el determinante precedió a la matriz. De hecho el primero que utilizó la palabra matriz fue James Joseph Sylvester (1814-1897) al llamarlo así al intentar referirse a la tabla de un determinante.

La novedad de Cayley no fue su invención, sino estructurar sus operaciones y aplicar éstas a los resultados en los que trabajaba en ese momento. Veamos como lo hizo. Tuvieron su origen concretamente en la teoría de transformaciones.

Pensemos en el plano, identifiquémoslo como \mathbb{R}^2 por ejemplo, y dada una pareja de puntos (x,y) pensemos en una transformación \tau_1 de \R^2 en \mathbb{R}^2 de la forma:

\begin{array}{l} x'=ax+by\\y'=cx+dy\end{array}

Sobre una transformación podemos aplicar otra transformación distinta, \tau_2:

\begin{array}{l} x''=a'x'+b'y'\\y''=c'x'+d'y'\end{array}

Lo interesante que descubrió Cayley es que la composición de ambas transformaciones, \tau_2\circ\tau_1, que queda:

\begin{array}{l} x''=(a'a+b'c)x+(a'b+b'd)y'\\y''=(c'a+d'c)x'+(c'b+d'd)y'\end{array}

no es más que una nueva transformación en la que los nuevos coeficientes provienen de una operación entre las matrices de ambas transformaciones.

Así dicho jugamos con cierta ventaja porque ya conocemos la estructura algebraica que poseen las matrices. La operación que estamos haciendo entre ellas no es más que el producto. Cayley desconocía la aplicación que podían tener y supuso que no serían más que nueva notación. Pero así lo hizo, definió las operaciones entre matrices a partir de los endomorfismos del plano en sí mismo. Es de notar que, al ser la composición de transformaciones una operación no conmutativa, el resultado de definir el producto acorde con la composición implicaba definir una operación no conmutativa entre matrices.

Con la suma y el producto por un escalar se llegaba a que el conjunto de las matrices con m filas y n columnas tenía estructura de espacio vectorial sobre \mathbb{K} si éste era un cuerpo; o de módulo, si fuera un anillo. Lo más interesante, trabajando sobre matrices con el mismo número de filas que de columnas, es que se alcanzaba la estructura de álgebra no conmutativa.

Pero todo esto no fue hasta 1858, en el que publicó su «Memoria sobre la teoría de Matrices«, puesto que hasta ese momento, y aún con todas las aplicaciones y tratamiento que tenían con ellas, eran solamente consideradas como notación.

En el mismo artículo estableció la inversa de una matriz, siempre que ésta tuviera determinante no nulo. Para Cayley, la inversa de:

\begin{pmatrix}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\\a_{31}&a_{32}&a_{33}\end{pmatrix}

se obtenía dividiendo entre el determinante cada término de:

\begin{pmatrix}A_{11}&A_{21}&A_{31}\\
A_{22}&A_{32}&A_{33}\\
A_{13}&A_{23}&A_{33}\end{pmatrix}

donde A_{ij} es el cofactor del elemento a_{ij}. Recordemos que el menor de un elemento cualquiera a_{ij} se denota como M_{ij} y es el determinante de la matriz que queda después de eliminar la fila i y la columna j de A. El cofactor o adjunto de a_{ij} se denota como A_{ij} y está dado por la fórmula A_{ij}=(-1)^{i+j}\text{Det } (M_{ij}). Todos estos conceptos son propios del tema de determinantes y en nuestro caso, en una sección posterior, calcularemos la inversa de una matriz utilizando el método de eliminación gaussiana o método de Gauss-Jordan .

Cuando el determinante es cero, Cayley demostró que la matriz no tenía inversa, sin embargo también afirmó que era posible que el producto de dos matrices fuera cero con que solo una de ellas lo fuera. Aquí erró, pues ahora sabemos que para que eso ocurra es necesario que ambas matrices sean iguales a cero.

El desarrollo del tema al completo puedes encontrarlo en amazon, en formato kindle o en formato papel como prefieras. También aquí puedes encontrar la relación de los temas que he publicado hasta ahora; y en el siguiente enlace puedes descargarte las primeras páginas:

Tema 18. Matrices. Álgebra de matrices. Aplicaciones al campo de las Ciencias Sociales y de la Naturaleza.

Tema 16. Sistemas de ecuaciones lineales. Teorema de Rouché. Regla de Cramer. Método de Gauss-Jordan

Las primeras referencias de la existencia de los sistemas de ecuaciones lineales datan incluso de la matemática en Babilonia. No obstante, el problema original, o más concretamente el método de eliminación de incógnitas, proviene de la antigua china. En el tratado Nueve capítulos sobre el Arte Matemático, de los siglos II y I a. C. aparece reflejado:

«Hay tres clases de granos; tres gavillas de primera clase, dos de la segunda clase y una de la tercera hacen 39 medidas; dos de la primera, tres de la segunda y una de la tercera hacen 34 medidas; y una de la primera, dos de la segunda y tres de la tercera hacen 26 medidas. ¿Cuántas medidas de granos están contenidas en una gavilla de cada clase?»

Gauss-Jordan o Fang-Cheng

Lógicamente, además del problema encontramos un procedimiento para su resolución conocido como la regla Fang-Cheng. Dicha regla es la que llamamos de Gauss-Jordan o también eliminación gaussiana. El porqué lo conocemos con el nombre de Gauss o de Gauss-Jordan se debe a que fueron ambos los que lo aplicarón de forma habitual en la resolución del problema de los mínimos cuadrados.

Aunque el procedimiento era considerado relativamente trivial, con la llegada de los ordenadores se volvió casi imprescindible. La regla de Cramer, de la que hablaremos en líneas posteriores, suponía otra forma de resolver un sistema, pero no simplificaba los cálculos. El hecho es que de forma general, los métodos de resolución se complicaban casi exponencialmente cuando aumentaba el número de incógnitas y ecuaciones. En 1946 Alan Turing (1912-1954) tardó dos semanas en resolver un sistema de 18 ecuaciones con 18 incógnitas. Aún con ello, el número de operaciones requerido en la resolución de un sistema era obstensiblemente inferior utilizando la eliminación gaussiana, que con los determinantes de Cramer. Esto provocó que con la llegada de la informática comenzara a ser el más utilizado.

Cramer y Maclaurin

Pero volvamos a Cramer. Actualmente se conoce como la Regla de Cramer a un método de resolución de sistemas de ecuaciones lineales utilizando determinantes. Es curioso que dicha regla no se deba a Gabriel Cramer (1708-1752), sino a Colin Maclaurin (1698-1746). Ésta se publicó en 1748, dos años después de su fallecimiento; y dos años antes también de que lo hiciera Cramer en su Introducción al análisis de curvas algebraicas. La razón del porqué ha llegado hasta nuestros días con el sobrenombre de Cramer se debe a la notación utilizada por éste, más clara y concisa que la de Maclaurin. De todas formas, ni Cramer ni Maclaurin hablaban de determinantes en su desarrollo, ni tan siquiera un poco más tarde Bézout, quien en un trabajo presentado en 1779, Teoría general de las ecuaciones algebraicas, daba un método para resolver sistemas de n ecuaciones con n incógnitas muy similar al de Cramer y Maclaurin.

Rouché y Frobenius

El avance en su resolución vino con el álgebra abstracta, con las matrices y los determinantes. La introducción del rango de una matriz permitió dar unas condiciones necesarias y suficientes para que un sistema tuviera solución. En 1875 Eugène Rouché, matemático francés del siglo XIX, publicó un artículo donde enunciaba el teorema que hoy conocemos como el de Rouché-Frobenius. Curiosamente ese mismo año otro matemático francés publicaba un resultado similar; y también en Italia, Alfredo Capelli daba una variación de la misma idea. Hasta tal punto llegan a aparecer publicaciones, que en Francia al teorema de Roché-Frobenius se le conoce como el teorema de Rouché-Fontené; en Italia como el de Rouché-Capelli; y en Alemania y en otros países (debido a que Leopold Kronecker utilizó los resultados de Capelli para dar una demostración alternativa), como el de Kronecher-Capelli. En España es el matemático Julio Rey Pastor el que le da el nombre de teorema de Rouché-Frobenius.

El desarrollo del tema al completo puedes encontrarlo en amazon, en formato kindle o en formato papel como prefieras. También aquí puedes encontrar la relación de los temas que he publicado hasta ahora; y en el siguiente enlace puedes descargarte las primeras páginas:

Tema 16. Discusión y resolución de sistemas de ecuaciones lineales. Teorema de Rouché. Regla de Cramer. Método de Gauss-Jordan.