Tema 26. Derivada de una función en un punto. Función derivada. Derivadas sucesivas. Aplicaciones

La derivada de una función es el primero de los dos conceptos fundamentales que caracterizan al Cálculo Infinitesimal; el segundo, como el lector puede suponer, es el de la integral. Como todo en Matemáticas, su avance no ha sido lineal, sino que ha tenido momentos más o menos rápidos, además de ciertas vacilaciones e incluso retrocesos.

Los comienzos del Cálculo, y por ende de la derivada datan de mediados del siglo XVIII. Los avances que han tenido lugar han partido del intento de resolución de algunos problemas importantes de la época y de momentos anteriores en la Historia, como por ejemplo del intento de trazar tangentes a curvas concretas. Este concepto proviene de los griegos, aunque estos definieron una tangente como aquella recta que corta en un único punto a una curva; definición que hoy día sabemos que contiene algún pequeño problema con aquellas líneas que se cortan a sí mismas, o que cambian su curvatura. Arquímedes llegó a calcular las tangentes a su espiral y se piensa que para ello es probable que considerara el problema desde la idea de un punto que se pudiera mover en el espacio; sin embargo las tangentes que llegaron a calcular los griegos eran meramente estáticas, su procedimiento no incluía el paso al límite ni el cálculo de valores infinitamente pequeños.

Al llegar al siglo XVII el avance en cuanto al concepto había progresado, así una tangente era una especie de paso a límite de las secantes a una curva entre dos puntos dados, cuando los puntos se acercan el uno al otro. No obstante, era tremendamente difícil concebir esa »desaparición» de la secante para transformarse en una tangente. El paso del »ser» a la »nada» traía consigo ciertos problemas metafísicos no fáciles de resolver.

En esencia, la derivada de una función es una medida de la rapidez con la que cambia una variable (dependiente) con respecto a otra (independiente). La idea es medir este »cambio» por medio de un número, y a este número es lo que se denomina derivada. Pero como prácticamente todos los conceptos en Matemáticas, en primer lugar la derivada se utilizó para resolver problemas, después se desarrolló estudiando sus propiedades para, finalmente, definirse dentro de una teoría.

El desarrollo del tema al completo puedes encontrarlo en Amazon en formato kindle. También aquí puedes encontrar la relación de los temas que he publicado hasta ahora; y en el siguiente enlace puedes descargarte las primeras páginas:

Tema 26. Derivada de una función en un punto. Función derivada. Derivadas sucesivas. Aplicaciones

Tema 25. Límites de funciones. Continuidad y discontinuidades. Teorema de Bolzano. Ramas infinitas.

En el desarrollo de este tema no nos vamos a centrar en límites de funciones reales de variable real, sino que vamos a generalizarlas. En una primera parte nuestras funciones estarán definidas sobre espacios métricos, sabiendo que, en este caso, no podremos desarrollar todo con excesiva profundidad.

Tenemos que entender tres o cuatro conceptos básicos necesarios para comprender lo que ocurre con las funciones reales de variable real.

En primer lugar el concepto de límite de una función y por extensión el de continuidad están asociados al concepto de topología. Es necesario saber cuándo dos puntos están cerca uno del otro y también es necesario decir cuándo un límite se aleja al infinito. La topología nos informa de la cercanía de dos puntos, así que con ella estaremos en condiciones de hablar de límites en un punto y de continuidad.

En segundo lugar, además de las funciones definidas sobre espacios métricos, también estudiaremos aquellas definidas en \mathbb{R} y con valores en \mathbb{R}, y este espacio es un espacio muy particular. La topología en \mathbb{R}, la que utilizamos de forma habitual en Análisis, es la de los intervalos abiertos, (a,b)=\{x\in\R:a<x<b\}; y esta proviene de la distancia asociada al valor absoluto, d(x,y)=|x-y|. Se conoce como la topología usual en \mathbb{R}.

Y en tercer lugar, y aunando las dos ideas anteriores; una métrica en un espacio induce una topología asociada que se denomina topología métrica. Así pues, las topologías que necesitamos en dos espacios X_1 y X_2 para estudiar los límites y la continuidad de funciones entre dichos espacios provendrán de métricas definidas sobre ellos.

Comencemos por el principio, definiendo el concepto de métrica o distancia.

Definición:


Dado un conjunto X, diremos que la aplicación

d:X\times X\longrightarrow \R^+\cup {0}


es una distancia si verifica:

  • Para cualquier x,y\in X se tiene que d(x,y)\geq 0 (d(x,y)=0 si y solo si x=y). Es decir, la distancia entre dos puntos distintos es siempre positiva; y si es cero es que son el mismo punto.
  • Para cualquier x,y\in X se tiene $d(x,y)=d(y,x)$; o dicho de otra forma, la distancia es una aplicación simétrica.
  • Para cada x,y,z\in X se tiene d(x,z)\leq d(x,y)+d(y,z); conocida como la »desigualdad triangular»


Al espacio (X,d) se le llama espacio métrico.
Como ejemplo, la aplicación valor absoluto f(x)=|x| define una métrica en \R:

\begin{array}{cccl}
d:&\R\times\R&\longrightarrow &\R^+\cup{0}\\
&(x,y)&\longmapsto&d(x,y)=|x-y|\end{array}

El siguiente paso es preguntarse: ¿para qué necesitamos una métrica? La respuesta natural es: para medir distancias entre puntos; pero en realidad, ¿por qué necesitamos medir distancias entre puntos?, pues porque necesitamos saber cuánto de »cerca» se encuentran dos puntos en un espacio.

Insistimos en que tiene que tener en cuenta el lector que si queremos hablar de límites de funciones o de sucesiones, y queremos hablar de convergencia, es imprescindible saber la »cercanía» existente entre puntos o la »lejanía» de estos. Y es aquí cuando entra la topología.

Definición:


Dado un conjunto X diremos que una familia \mathcal{G} de subconjuntos de X es una topología si se cumple:
a) \emptyset,X\in\mathcal{G}. Es decir, el conjunto vacío y el total son elementos de la topología.
b) La unión arbitraria de elementos de \mathcal{T} es un elemento de \mathcal{T}, esto es, si {G_i}_{i\in I}\subset \mathcal{G}, entonces

\bigcup_{i\in I}G_i\in \mathcal{T}


c) La intersección finita de elementos de \mathcal{T} es también un elemento de \mathcal{T}, es decir, si {G_j}_{j\in J}\subset \mathcal{G}, J finito, entonces:

\bigcap_{j\in J}G_j\in \mathcal{T}

A cada elemento de la topología se le llama »abierto», por lo que las propiedades anteriores se pueden traducir en: el vacío y el total son abiertos, la unión arbitraria de abiertos es también un abierto y la intersección finita de abiertos es abierta.

Por definición, y lo incluiremos también, al complementario de un abierto se le llama cerrado.

Definición


Diremos que un conjunto C\subset (X,d) es un cerrado si su complementario es un elemento de la topología, es decir, =X-C=X\setminus C=\overline{C}\in\mathcal{T}

Continuemos ahora con la introducción de los abiertos a partir de una métrica, es decir, con la definición de topología asociada a una métrica. Comenzamos con la definición de bola.

Definición:


Dado un espacio métrico, (X,d), llamaremos bola abierta de centro x_o\in X y radio r>0, al subconjunto de X:

\mathcal{B}(x_o,r)=\{x\in X:d(x,x_o)<r \}
Definición:


Dado un espacio métrico, (X,d), diremos que un subconjunto G es abierto, es decir, G\in\mathcal{T}_d si para cada elemento x_o\in G existe un cierto r_o tal que \mathcal{B}(x_o,r_o)\subset G.


Lo interesante es que el conjunto de abiertos definidos a partir de la definición anterior tiene la estructura de una topología; es decir, el vacío y el total son abiertos, la unión arbitraria de abiertos es abierta y la intersección finita también es abierta.

Teorema


Si (X,d) es un espacio métrico, entonces

\mathcal{T}=\{G\subset X:\forall x\in G, \exists r>0 \text{ tal que }B(x,r)\subset G\}


es una topología en X.

De esta forma, un espacio métrico es a su vez un espacio topológico, con una topología asociada, que denotaremos (X,\mathcal{T}_{d}), o sencillamente (X,d), si damos por hecho que la topología es la que viene dada por d.

Una vez que tenemos algunas de las características básicas de los espacios métricos, uno de los pasos naturales que siguen a continuación es estudiar las funciones que »conservan» las métricas, o en este caso que »conservan» las topologías. Estas funciones son conocidas como funciones continuas.

De todas formas, no adelantemos acontecimientos. Necesitamos la introducción de otro concepto topológico, el de punto de acumulación. Así pues:

Definición:


Dado (X,d) un espacio métrico y dado x_o\in X, diremos que x_o es un punto de acumulación de X si para todo \epsilon>0 se cumple [/katex](\mathcal{B}(x_o,\epsilon)\setminus{x_o})\cap X\neq \emptyset[/katex].
\end{defin}
En esencia, un punto x_o es de acumulación cuando podemos encontrar puntos de X tan cerca de él como queramos. Al conjunto de puntos de acumulación de X se le denota como X'.

Es importante señalar que un punto de acumulación no tiene porqué pertenecer al conjunto, es decir, el hecho de afirmar que x_o\in X' no implica necesariamente que x_o\in X. Un ejemplo de ello son los extremos del intervalo (a,b)\subset \R con la topología usual en los reales. Es trivial que a y b son de acumulación y no pertenecen al intervalo.

Cuando se estudian los puntos de acumulación de un conjunto con una topología, en realidad lo que se está diciendo es que es posible encontrar una sucesión de dicho conjunto que converja y lo haga precisamente a dicho punto de acumulación. Recordemos brevemente el concepto de límite de una sucesión en un espacio topológico.

Definición:


Dado (X,\mathcal{T}) un espacio topológico y {x_n}\subset X una sucesión. Diremos que {x_n} converge a x_o\in X y lo denotaremos \lim_{n\to \infty}x_n=x_o, si para cada abierto G de la topología que contenga al punto x_o\in G\in\mathcal{T}, existe un cierto n_o tal que para todo n>n_o se cumple que x_n\in G.

Esta definición es correcta, pero no es necesario ser tan estrictos. En realidad se puede demostrar que si se cumple para unos abiertos especiales, entonces se cumple para todos. Estos abiertos especiales son los que se llaman base de la topología.

No todos los espacios topológicos tienen la posibilidad de tener base; no obstante, en el caso de los espacios métricos, sí; las bolas son los abiertos que forman la base de su topología. Por tanto, la definición de límite de una sucesión quedaría así:

Definición:


Dado (X,d) un espacio métrico y {x_n}\subset X una sucesión. Diremos que {x_n} converge a x_o\in X y lo denotaremos \lim_{n\to \infty}x_n=x_o, si para cada \epsilon>0 existe un cierto n_o tal que para todo n>n_o se tiene d(x_n,x_o)<\epsilon.

La siguiente proposición nos ayuda a comprender en mayor medida el concepto de punto de acumulación.

Proposición:

Dado (X,d) espacio métrico, se cumple que x_o\in X', si y solo si existe una sucesión {x_n}\subset X con x_n\neq x_o para todo n y tal que {x_n} converge a x_o.

Demostración: Comenzaremos con la condición necesaria. En efecto, por ser punto de acumulación para cada \frac{1}{n}>0 existe x_n\in X, x_n\neq x_o tal que d(x_n,x_o)<\frac{1}{n}.

Dado \epsilon>0, sea n_o\in\N tal que \frac{1}{n_o}<\epsilon (esto es posible por la propiedad arquimediana\footnote{La idea del Axioma de Arquímedes es que no existen elementos infinitamente grandes ni infinitamente pequeños. En el conjunto de los reales, el axioma se denomina Propiedad Arquimediana y se enuncia de la siguiente forma: dados x,y\in \R, x,y>0, existe n\in\N tal que nx>y.} de mathbb{R}). Por tanto, para n>n_o resulta que d(x_n,x_o)<\frac{1}{n}<\frac{1}{n_o}<\epsilon.

La condición suficiente es trivial.

Ya estamos en condiciones de comenzar el tema, tenemos las definiciones y los conceptos mínimos para empezar a desarrollar resultados. Nuestro tema no tiene que ver con límites de sucesiones, aunque estas se vayan a encontrar presentes de forma implícita (y en algún caso explícita), a lo largo de todas las secciones.

El desarrollo del tema al completo puedes encontrarlo en Amazon en formato kindle. También aquí puedes encontrar la relación de los temas que he publicado hasta ahora; y en el siguiente enlace puedes descargarte las primeras páginas:

Tema 25. Límites de funciones. Continuidad y discontinuidades. Teorema de Bolzano. Ramas infinitas.

Tema 23. Funciones circulares e hiperbólicas y sus recíprocas. Situaciones reales en las que aparecen.

La Trigonometría puede considerarse en sus inicios como la medida del triángulo. A partir de ella conocemos al seno, coseno y tangente. Posteriormente aparecieron algunas funciones más, además de sus inversas en los conjuntos dónde era posible definirlas.

Aunque encontramos indicios suyos en los textos de matemáticos hindúes de mediados del primer milenio no fue hasta el siglo XV cuando, por motivos puramente comerciales en la navegación y mejoras en las observaciones astronómicas, comenzó a asentarse. En este momento el objetivo principal era obtener tablas de senos, cosenos o tangentes con la mayor precisión posible. Después con estas tablas se podían efectuar productos relativamente complejos transformándolos previamente en sumas.

En esta introducción vamos a comenzar con las ideas básicas, como habitualmente se imparten en los cursos de Secundaria: a partir el concepto de semejanza y del teorema de Tales (Tales de Mileto 624-546 a. C.). Después, a lo largo del tema trataremos las funciones circulares e hiperbólicas de una forma singularmente distinta.

Recordemos que dicho teorema afirma que si una pareja de rectas es cortada por una familia de rectas paralelas, entonces aparecen ciertas razones de proporcionalidad entre los segmentos que se determinan. La siguiente imagen resulta más explícita:

Teorema de Tales

Se verifica que:

\frac{OA}{OA'}=\frac{OB}{OB'}=\frac{OC}{OC'}

o también

\frac{AA'}{OA'}=\frac{BB'}{OB'}=\frac{CC'}{OC'}


De donde es trivial demostrar a continuación

\frac{AA'}{OA}=\frac{AA'/OA'}{OA/OA'}=\frac{BB'/OB}{OB/OB'}=\frac{BB'}{OB}

y de la misma forma con CC' obteniendo finalmente:

\frac{AA'}{OA}=\frac{BB'}{OB}=\frac{CC'}{OC}

Si las rectas que cortan a r y s lo hacen perpendicularmente a una de ellas, por ejemplo a s, tenemos unas proporciones que podemos asociarlas a un ángulo concreto puesto que los triángulos que se forman son rectángulos en uno de sus ángulos.

Así:

\frac{OA}{OA'}=\frac{OB}{OB'}=\frac{OC}{OC'}

y también

\frac{AA'}{OA'}=\frac{BB'}{OB'}=\frac{CC'}{OC'}


Estas proporciones dependen exclusivamente del ángulo \alpha. A partir de aquí se definen tres funciones (se denominan habitualmente razones trigonométricas):

\text{coseno de }\alpha=\cos\alpha=\frac{OA}{OA'}
\text{seno de }\alpha=\sin\alpha=\frac{AA'}{OA'}
\text{tangente de }\alpha=\tg\alpha=\frac{AA'}{OA}


Simplificando las expresiones, y considerando un único triángulo rectángulo tendríamos:

donde

\sin\alpha=\frac{a}{c}\;,\;\;\cos\alpha=\frac{b}{c}\;\;\;\text{ y }\;\;\tg\alpha=\frac{a}{b}

A partir de aquí es sencillo calcular las razones trigonométricas de ángulos conocidos. Así para \alpha=45^o, se obtendría \cos 45^o=\sqrt{2}/2, \sin 45^o=\sqrt{2}/2 y \tg 45^o=1. De forma sencilla se calcularían también para \alpha=60^o y \alpha=30^o por ejemplo.

Curiosamente, aplicando el teorema de Pitágoras a la figura anterior podría demostrarse una de las principales identidades trigonométricas:

\sin^2\alpha+\cos^2\alpha=1


No obstante, con la definición dada hasta ahora el dominio de estas funciones se quedaba reducido a los posibles ángulos de un triángulo rectángulo, y esto se restringía a mayores que 0^o y menores que 90^o. La generalización a cualquier ángulo vino en parte por un matemático francés del siglo XVI, François Viète (1540-1603). A partir de este matemático comenzaron a aparecer nuevas identidades trigonométricas, debidas principalmente a un mayor énfasis en el cálculo analítico y menos en el cálculo de la resolución de triángulos. Entre estas nuevas identidades encontramos un grupo que se denominaron posteriormente prostaféresis. Básicamente se trataba de un algoritmo que permitía efectuar el producto o cociente de números, o la aproximación de estos, mediante identidades trigonométricas que transformaban productos en sumas.

Con la circunferencia goniómetrica el dominio de definición de las funciones seno, coseno y tangente se extendió al de todos los números reales. El seno era su proyección sobre el eje Y, el coseno sobre el eje X y la tangente la extensión sobre una recta paralela al eje Y situada sobre el punto de coordenadas (1,0). No vamos a hacer una definición exhaustiva de esto, pues estamos en una introducción y el lector puede encontrarlo en cualquier libro de texto de Secundaria o Bachillerato.

Veamos solamente un caso concreto, en el que Viète, utilizando la circunferencia goniométrica y considerando los ángulos en radianes y no en grados, dedujo la igualdad:

\sin x+\sin y=2\sin\frac{x+y}{2}\cdot \cos\frac{x-y}{2}

En efecto, es trivial que \sin x=AD y \sin y=CD. Entonces:

\sin x+\sin y=AD+CD=AC

Pero del triángulo ABC, rectángulo en C, puede verse que

\cos\alpha=\frac{AC}{AB}


con lo que AC=AB\cdot \cos\alpha.

Pero sabemos, utilizando la geometría elemental sobre la circunferencia, que todos los ángulos situados sobre esta y que abarquen el mismo arco miden lo mismo; pero además este valor es la mitad del ángulo central. Así, \alpha es la mitad de x-y, y tendremos que

\sin x+\sin y=AB\cdot \cos\alpha=AB\cdot\cos\left(\frac{x-y}{2}\right)


Por otra parte, la mediatriz del segmento AB pasa necesariamente por el centro de la circunferencia y divide el triángulo OAB en dos triángulos rectángulos en E. Si extendemos dicho segmento OE, cortará a la circunferencia en el punto F, de tal forma que ahora la longitud del arco AF es precisamente (x+y)/2. En definitiva:

AE=\sin\left(\frac{x+y}{2}\right)

y así

AB=2AE=2\sin\left(\frac{x+y}{2}\right)

con lo que

\begin{equation}
\sin x+\sin y=2\sin\left(\frac{x+y}{2}\right)\cdot\cos\left(\frac{x-y}{2}\right)
\end{equation}


Fórmulas similares pueden obtenerse utilizando métodos parecidos. De todos modos, a partir de la identidad anterior se llega fácilmente a las conocidas de transformaciones de sumas en productos o productos en sumas estudiadas en Bachillerato. Estas últimas llevan el nombre de fórmulas de Werner.

Años más tarde fue Abraham de Moivre (1667-1754) el que relacionó las funciones trigonométricas con los números complejos al demostrar la identidad:

(\cos x+i\sin x)^n=\cos nx+i\sin nx

En la misma época, otro matemático que también se interesó por las funciones trigonométricas fue Roger Cotes (1682-1716) introduciendo en su obra Harmonie Mensurarum la propiedad de la periodicidad además de una tabla de integrales. En dicha obra encontramos la relación

\ln(\cos\alpha+i\sin\alpha)=-1


Al igual que los Elementos es la obra clave de la Geometria, o el Al-jabr del Álgebra, puede considerarse el Introductorio in Analysin Infinitorum de Euler (1707-1783), publicado en 1748, la pieza clave del Análisis. Aquí introduce el concepto básico de función como idea fundamental. Es más, no existe una diferencia esencial en la forma de tratar actualmente a las funciones trigonométricas y sus inversas de la que expuso Euler en su obra.

Como curiosidad, Euler considera el seno de un ángulo como un número y no tanto como un segmento, que era como se contemplaba antes. De hecho lo trata como la suma de una serie:

\sin x=x-\frac{x^3}{3!}+\frac{x^5}{5!}-\frac{x^7}{7!}+\ldots

y a partir de aquí y de series análogas obtiene las conocidas identidades\footnote{Ya eran conocidas por Cotes y De Moivre. Cotes de hecho la enunció en 1714, aunque Euler sí que obtuvo la archiconocida ecuación e^{i\pi}+1=0, donde, como se suele decir, se relacionan los cinco números más importantes de las Matemáticas.}:

\sin x=\frac{e^{ix}-e^{-ix}}{2i}
\cos x=\frac{e^{ix}+e^{-ix}}{2}
e^{ix}=cos x+i\sin x

Por otra parte, otro matemático aleman, Johann Heinrich Lambert (1728-1777) fue el primero que demostró la irracionalidad de \pi, si bien es cierto que para su trascendencia tuvo que esperarse todavía algunos años más. De hecho, en 1775 la Academia de Ciencias de París dejó de admitir trabajos que demostraban la supuesta cuadratura del círculo. Pero si el gran matemático suizo Leonhard Euler fue el primero que trabajó con las funciones trigonométricas relacionándolas con la circunferencia x^2+y^2=1, Lambert hizo lo mismo con la hipérbola x^2-y^2=1 desarrollando las equivalentes funciones hiperbólicas: \sinh, \cosh y \tanh, así como el desarrollo de una nueva geometría hiperbólica. Y de forma análoga a las identidades de Euler, Lambert hizo lo propio:

\sinh=\frac{e^x-e^{-x}}{2}
\cosh=\frac{e^x+e^{-x}}{2}
e^x=\sinh x+\cosh x

El desarrollo del tema al completo puedes encontrarlo en Amazon, en formato kindle o en formato papel como prefieras. También aquí puedes encontrar la relación de los temas que he publicado hasta ahora; y en el siguiente enlace puedes descargarte las primeras páginas:

Tema 23. Funciones circulares e hiperbólicas y sus recíprocas. Situaciones reales en las que aparecen.

Tema 22. Funciones exponenciales y logarítmicas. Situaciones reales en las que aparecen.

Los conceptos de logaritmo y exponencial están íntimamente relacionados. Ahora, después de su invención hace casi cuatro siglos, sabemos que en cierto modo un concepto es el inverso del otro.

Pero no adelantemos acontecimientos. Podemos precisar que la creación de los logaritmos se debe a dos matemáticos de finales del XVI y comienzos del XVII: John Napier (1550-1617) y Jobst Bürgi (1552–1632). Aunque todo el mérito se lo llevó Napier pues fue el primero en publicar sus resultados, que hizo en 1614 con la obra Mirifici logarithmorum canonis descriptio (Descripción de la maravillosa regla de los logaritmos), es incluso posible que Bürgi tuviera conocimientos previos de estos antes que Napier, pero el hecho de que su publicación fuera seis años más tarde le ha relegado la historia a un papel secundario.

En la actualidad se utilizan principalmente dos logaritmos, o mejor dicho dos bases de logaritmo, el neperiano en honor a Napier y el de base 10 o decimal a raíz del clérigo y matemático inglés Henry Briggs (1561-1630). Aunque Napier llegó a sugerir la posibilidad de una tabla basada en las igualdades \log 1=0 y \log 10=1, fue Briggs el que llevó a cabo el desarrollo de esta idea en su obra Logarithmorum chilias prima, en el que escribió los logaritmos de los primeros 1000 números naturales con una aproximación de catorce cifras decimales. En trabajos posteriores amplió el cálculo hasta los cien mil primeros naturales.

Las funciones logarítmica y exponencial, que surgieron después de todo el desarrollo de los logaritmos, podemos encontrarlas en la Naturaleza, en la Economía y en general en la Matemática aplicada.

De forma natural el desarrollo y definición de ambas funciones comienza con el de la función logarítmica. La exponencial surge a raíz de ella, como su inversa. Nosotros seguiremos el desarrollo natural comenzando por los logaritmos. El porqué no es casual, bien podríamos hacerlo partiendo de la función exponencial y a partir de aquí definir la logarítmica. El problema de esta forma surge al intentar extender la exponencial a los números irracionales.

Tomemos por ejemplo las potencias de 10:

10,10^2, 10^3, 10^4,\cdots, 10^n


Sabemos cómo son los términos de la anterior sucesión, cada uno de ellos tiene tantos ceros como indica el exponente. Esto permite definir la exponencial de base 10 cuando el exponente es un número natural.

Además es fácil comprobar que para los naturales 10^n\cdot 10^m=10^{n+m}. Si pretendemos conservar esta propiedad para los enteros, podemos extender al cero:

10^0\cdot 10^n=10^{0+n}=10^n

con lo que

10^0=1

Y a los números negativos:

10^{-n}=\frac{1}{10^n}

ya que

10^n\cdot 10^{-n}=10^{n-n}=10^0=1

Es sencillo seguir con los racionales. Tomemos 1/q\in\mathbb{Q}

\underbrace{10^{1/q}\cdot 10^{1/q}\cdot\ldots\cdot10^{1/q}}_{q \text{ veces}}=10^{\frac{1}{q}+\ldots+\frac{1}{q}}=10^1=10

De esta forma

(10^{1/q})^q=10

con lo que

10^{1/q}=\sqrt[q]{10}

Ahora es fácil seguir con p/q\in\mathbb{Q}

10^{p/q}=\sqrt[q]{10^p}

El problema lo tenemos cuando queremos saltar a los irracionales, esto es 10^x\cdot 10^y=10^{x+y}. Esta extensión no es posible algebraicamente, necesitaríamos salir de aquí e introducir la continuidad de una función que ni siquiera hemos llegado a definir. Esto no quiere decir que no sea posible este camino, claro que lo es, y en numerosos textos de Análisis se sigue, no obstante nosotros hemos pensado que es más sencillo y natural hacerlo por el camino que sigue la mayoría de los autores, es decir, a partir de la función logarítmica.

El desarrollo del tema al completo puedes encontrarlo en Amazon, en formato kindle o en formato papel como prefieras. También aquí puedes encontrar la relación de los temas que he publicado hasta ahora; y en el siguiente enlace puedes descargarte las primeras páginas:

Tema 22. Funciones exponenciales y logarítmicas. Situaciones reales en las que aparecen.

Tema 21. Funciones reales de variable real. Funciones elementales; situaciones reales en las que aparecen. Composición de funciones

El concepto de función es sin duda uno de los más importantes de todas las matemáticas. Junto con el de número, y en concordancia con él, son la base de prácticamente todas las ramas de esta ciencia; es básico en todas las áreas puras y se utiliza para describir el entorno en el que vivimos.

No podemos afirmar que se conociera en el mundo antiguo aunque los babilonios, egipcios y luego griegos representaran tablas en las que aparecía una variable dependiendo de otra. Estas tablas de mediciones pueden considerarse hoy día funciones, no obstante podemos pensar que el concepto de relación entre dos variables de tipo general no era conocido todavía hace 5000 años.

La Edad Media no es buen ejemplo de innovación científica ni de adelantos que sorprendieran al mundo. Su oscurantismo se vio reflejado también en las Matemáticas. No fue hasta la Edad Moderna cuando se empezaron a desarrollar los números reales y el Análisis Matemático. El resultado, como cabe esperar, es la introducción de las funciones como concepto elemental, pero todavía sin tener una definición concreta y clara con la que trabajar.

La función como dependencia entre variables

Ni Descartes, ni Fermat, ni Newton o Leibnitz definieron una función real como la conocemos hoy día. Se limitaron a trabajar con ecuaciones en una o varias variables, en las que podría reconocerse una dependencia entre las variables; pero de este al concepto de función había todavía un pequeño trecho que caminar. El desarrollo del cálculo infinitesimal requería de variables que dependían funcionalmente y se dieron cuenta que toda la teoría que se podría crear a partir de concepto de diferenciabilidad debería contener implícitamente la idea de lo que debería ser una función.

A lo largo del XVIII y principios del XIX observamos referencias al término de función en textos de numerosos matemáticos, sin que ninguno de estos dé una definición concisa de aquel. Así, por ejemplo encontramos menciones con Bernouilli, que habla de \emph{función de alguna indeterminada}, o con Euler diciendo que una función era \emph{cualquier relación entre x e y que se encuentre representada en el plano por medio de una curva}. Fíjese el lector, que aún con la idea preconcebida de lo que querían que fuese una función, todavía no tenían una definición concreta.

Fue ya a mediados del XIX, con Lobachevsky, cuando este generaliza la idea y añade que para dotar de dependencia a dos variables no es necesaria la inclusión de una fórmula.

Concretamente dice:
»El concepto general de función requiere que por función de x se entienda el número que adopta cada x y que junto que x varía gradualmente. El valor de la función puede ser dado por una expresión analítica o por cierta condición que proporcione un medio para comprobar todos los números y elegir uno de ellos; o, por último, tal dependencia puede existir y permanecer incógnita»

Lobachevski introduce dos ideas: la primera es que implícitamente está hablando de dominio; y la segunda es que no son necesarias ni fórmulas ni ecuaciones para definir funciones.

Años más tarde Dirichlet da una definición de función lo más cercana a la que conocemos hoy día. De hecho es conocido su ejemplo de una función que no es continua en ningún punto de su dominio:

Función de Dirichlet
f(x)=\left\{\begin{matrix}{1\text{ si }x\in\mathbb{Q}}\\{0\text{ si }x\in\mathbb{I}}\end{matrix}\right.

En este tema nos centraremos indudablemente en las funciones reales de variable real, que son una parte relativamente pequeña de la gran variedad de funciones que nos podemos encontrar. Tengamos en cuenta que la idea de función es tan general, que se encuentra inmersa en todo cuanto podamos escribir o leer en matemáticas.

Concepto general de función

Dados dos conjuntos X e Y, cuando a cada elemento de X le hacemos corresponder un único elemento del conjunto Y, estaremos definiendo una función. Habitualmente denotamos a las funciones con letras, y aunque se las puede denominar con el nombre que queramos solemos utilizar la primera letra de la palabra función, es decir, la f. Cuando tenemos varias funciones definidas seguimos el orden alfabético, y a la segunda le llamamos g, y así sucesivamente. A este respecto, los matemáticos somos poco imaginativos.

Escribiremos como f(x) el elemento del conjunto Y al cual hemos hecho corresponder el elemento x, esto es, y=f(x). Diremos que y depende de x, o dicho de otra forma que los elementos del conjunto Y dependen de los del conjunto X. También podemos expresarlo diciendo que la variable del conjunto Y es la variable dependiente, y la del conjunto X la variable independiente. Solemos en este caso escribir también f:X\longrightarrow Y.

Función elemental

Dentro de todas las funciones reales de variable real que podemos encontrar, haremos una mención especial a las llamadas funciones elementales.

La definición de este tipo de funciones comienza con el planteamiento de los matemáticos del siglo XIX, en especial de Joseph Liouville (1809-1882), de distinguir aquellas funciones que tienen primitiva elemental. Entendemos por esta, aquella función que surge a raíz de las operaciones habituales de suma, diferencia, producto, cociente y composición de: polinomios, exponenciales, logaritmos, funciones irracionales y funciones trigonométricas y sus inversas.

Originalmente Liouville solamente consideró a los polinomios, exponenciales y logaritmos, las irracionales y las trigonométricas surgieron a partir de las operaciones entre las anteriores. Para esto habría que tener en cuenta que en los trabajos en los cuales expuso toda esta teoría, las funciones eran complejas, y las funciones trigonométricas por ejemplo pueden ponerse en función de exponenciales complejas.

Nosotros no vamos a enunciar el conocido Teorema de Liuoville, porque es más una serie de trabajos que un teorema en sí. La teoría, de integración en términos finitos, o integración en términos de funciones elementales, se generalizó años más tarde, en 1946, con los trabajos de Alexander Ostrowski (1893-1986) y finalmente, en 1968, con Maxwell Rosenlicht (1924-1999) quien publicó un resultado puramente algebraico de los trabajos de Liouville y Ostrowski.

El desarrollo del tema al completo puedes encontrarlo en Amazon, en formato kindle o en formato papel como prefieras. También aquí puedes encontrar la relación de los temas que he publicado hasta ahora; y en el siguiente enlace puedes descargarte las primeras páginas:

Tema 21. Funciones reales de variable real. Funciones elementales; situaciones reales en las que aparecen. Composición de funciones.

Tema 20. El lenguaje algebraico. Símbolos y números. Importancia de su desarrollo y problemas que resuelve. Evolución histórica del álgebra.

Si asociamos álgebra con incógnitas tenemos que irnos a los albores de la civilización.

El Álgebra tiene su comienzo a la par que la Aritmética y por tanto podemos situarla en los orígenes de la Matemática. Sabemos que los primeros símbolos que sustituyeron operaciones o números no surgieron al principio, pero también sabemos que en la primera resolución de problemas que se plantearon las civilizaciones antiguas ya estaban implícitas las primeras incógnitas.

La razón ya la hemos expuesto, no pensamos que para hablar de Álgebra necesitemos que »la x marque el lugar», sino que existan problemas que no sean puramente aritméticos, en los que se busca, bajo unas premisas previas, un valor que se desconoce. El álgebra puede entenderse como una forma de sistematizar los problemas aritméticos con que se encuentra el hombre. Eso sí, y debemos decirlo también, el álgebra de hace 5000 años no tiene mucho que ver con la actual.

Profe: ¿y esto de los polinomios, para qué sirve?

Esta disciplina se introduce en los colegios e institutos añadiendo un nivel en la abstracción del alumno. Hasta ese momento los estudiantes se han limitado a resolver problemas de Matemáticas en los que se conocen los datos previos y se busca un resultado. Por ejemplo, los típicos problemas de sumas, restas, productos o divisiones: Juan compra 5 refrescos a 0,80 euros el refresco, y 3 bolsas de patatas a 1,5 euros cada bolsa; si paga con 20 euros, se le pregunta cuánto le devuelven. También otros problemas como (y aquí ya tenemos una primera introducción del álgebra), aquellos en los que se pide que se calcule una cantidad concreta utilizando una fórmula. Por ejemplo el cálculo del área de un polígono regular, o la longitud de una circunferencia.

Pero en ninguno de estos problemas se le está pidiendo al alumno que aumente su capacidad de abstracción. Con el incremento en los contenidos de Matemáticas de los polinomios y ecuaciones se le pide que realice operaciones con ellos sin saber exactamente qué es lo que está haciendo, ni el fin que conllevan tales operaciones. Como profesor de matemáticas he tenido que responder en numerosas ocasiones a la pregunta: «Profe, ¿y esto de los polinomios, para qué sirve?»

Algebra clásica versus álgebra moderna

En textos antiguos, que veremos más adelante y que datamos de la época babilónica, encontramos problemas en los que se pide el valor de una cantidad que se desconoce y para la cuál nos dan algún tipo de información. Nosotros consideraremos Álgebra al planteamiento y resolución de estos problemas, aunque ni lo uno ni lo otro se acerque ni remotamente a lo que actualmente consideramos Álgebra, ni tan siquiera en la forma actual de resolver tales cuestiones.

El comienzo fueron los problemas, y con ellos los métodos de resolución. Después llegó la notación y poco a poco la introducción de nuevos números que resolvieran nuevas ecuaciones y que justificaran la resolución de otras. El álgebra actual dista mucho de limitarse a mera notación o a la simple resolución de problemas utilizando ecuaciones, el álgebra como la contemplamos hoy día estudia las propiedades de las operaciones entre elementos por sí misma, estudia la estructura y la forma, tiene un concepto mucho más axiomático y tiene innumerables aplicaciones dentro y fuera de las Matemáticas, no solamente la resolución de problemas donde, como dijimos antes, la x pudiera marcar el lugar.

El desarrollo del tema al completo puedes encontrarlo en Amazon, en formato kindle o en formato papel como prefieras. También aquí puedes encontrar la relación de los temas que he publicado hasta ahora; y en el siguiente enlace puedes descargarte las primeras páginas:

Tema 20. El lenguaje algebraico. Símbolos y números. Importancia de su desarrollo y problemas que resuelve. Evolución histórica del álgebra.

Aritmética (Oposiciones Matemáticas) – Bloque de números

El primer bloque de la oposición de Matemáticas de Secundaria es el de números. Los temas que engloba son: desde el primero que desarrolla el conjunto de los naturales, hasta el décimo, que es eminentemente histórico y justifica la creación de todos los conjuntos que se conocen. Desde hace algo más de un año se han podido ir adquiriendo en Amazon por unidades, bien en formato Kindle o en papel. Actualmente hay publicados los diecinueve primeros.

No obstante, he creído interesante reunirlos por bloques e ir editando volúmenes de acuerdo a los contenidos que tengan. El lector tiene la opción de, o bien adquirirlos de forma aislada o bien adquirir una recopilación por bloques agrupados en volúmenes.

Al primero lo he llamado «Aritmética» porque contiene el desarrollo de los temas relacionados con los números y sus operaciones. Bien es cierto que en matemáticas es literalmente imposible limitar, en el desarrollo de un tema, los contenidos a aquellos esencialmente aritméticos; porque aunque las Matemáticas puedan «dividirse» en parcelas, todas se acaban entrelazando. Por poner un ejemplo, en el tema relacionado con los números racionales, además de la introducción de sus operaciones, también se desarrollan conceptos algebraicos y topológicos. \mathbb{Q} es algebraicamente el cuerpo de fracciones de un dominio de integridad, y topológicamente un espacio denso en \mathbb{R}.

Aritmética

Contiene el desarrollo de:

  1. Números naturales. Sistemas de numeración.
  2. Fundamentos y aplicaciones de la teoría de grafos. Diagramas en árbol.
  3. Técnicas de recuento. Combinatoria.
  4. Números enteros. Divisibilidad. Números primos. Congruencias.
  5. Números racionales.
  6. Números reales. Topología de la recta real.
  7. Aproximación de números. Errores. Notación científica.
  8. Sucesiones. Término general y forma recurrente. Progresiones aritméticas y geométricas.
  9. Números complejos. Aplicaciones geométricas.
  10. Sucesivas ampliaciones del concepto de número. Evolución histórica y problemas que resuelve cada una.

El siguiente volumen englobará los temas que van, desde el vigésimo primero hasta trigésimo y que componen la parte de Álgebra. Bien es verdad que contendrá tanto la parte relativa a ecuaciones y polinomios en una o varias variables, como otra parte de Álgebra abstracta y de Álgebra Lineal.

Si estás interesado en los temas puedes encontrar en Amazon los publicados hasta ahora. Este primer volumen, «Aritmética», lo tienes en formato kindle, y en el siguiente enlace puedes obtener una muestra:

Aritmética (Oposiciones Matemáticas).

También aquí puedes encontrar la relación y una pequeña muestra de publicado hasta este momento.

Tema 7. Aproximación de números. Errores. Notación científica.

El error, cuando se trabaja con Matemática Aplicada, es algo que los matemáticos e ingenieros asumen habitualmente. Se desconocen las infinitas cifras decimales de números tan importantes como \pi o e, lo que implica que siempre que realicemos cálculos con dichos números necesitamos utilizar aproximaciones suyas. Se deduce de ello que, aunque sepamos a priori que los resultados obtenidos no serán exactos, necesitamos cuantificar de algún modo el error cometido con la aproximación tomada. Por otra parte, los errores que pueden cometerse, además de los previamente admitidos, pueden provenir de las mediciones de las magnitudes de los objetos, que estarán relacionados con los utensilios de medida o con el equipo (humano) que realiza la medida. Sabemos además que en idénticas condiciones y siguiendo el mismo procedimiento no se obtienen las mismas medidas en momentos distintos.

Estos problemas se resuelven en parte con la introducción de los conocidos métodos numéricos. Éstos pueden considerarse procedimientos matemáticos, cuyo objetivo es encontrar una aproximación que se ajuste a un límite de error previamente determinado. Tenemos que dejar claro que los métodos numéricos no permiten alcanzar una solución real del problema, sino solamente una aproximación.

En general en este tipo de procesos, el error total se limita controlando los errores parciales cometidos en cada paso del proceso. Un ejemplo de ello es la utilización del polinomio de Taylor para conocer el valor de una función en un punto.

Pongamos un ejemplo sencillo sobre logaritmos. Para ello vamos a enunciar un teorema que aproxima los logaritmos por polinomios. Solo vamos a enunciarlo, no a demostrarlo, pues no forma parte del desarrollo del tema.

Teorema: Para cada x\in (0,1) y para cada n\geq 1 se tiene que

\ln\sqrt{\frac{1+x}{1-x}}=x+\frac{x^3}{3}+\frac{x^5}{5}+\ldots+\frac{x^{2n-1}}{2n-1}+\frac{1}{2}R_n(x)


donde R_n(x) es el error y puede ser acotado en la forma

\frac{x^{2n+1}}{2n+1}< R_n(x)\leq \frac{(2-x)x^{2n+1}}{(1-x)(2n+1)}



La fórmula y la restricción del error nos permite el cálculo del logaritmo que queramos con muy pocos cálculos, y lo que es más importante, con el grado de aproximación que queramos.

Por ejemplo, supongamos que queremos calcular \ln(3). Como \ln(\sqrt{u})=\frac{1}{2}\ln(u), tomamos x, tal que

\frac{1+x}{1-x}=3


resultando x=1/2. Por consiguiente para n=3 por ejemplo:

\frac{1}{2}\ln 3=\frac{1}{2}+\frac{(1/2)^3}{3}+\frac{(1/2)^5}{5}+\frac{1}{2}R_3\left(\frac{1}{2}\right)


De lo que se deduce que

\ln 3=2\left(\frac{1}{2}+\frac{(1/2)^3}{3}+\frac{(1/2)^5}{5}\right)+R_3\left(\frac{1}{2}\right)


Efectuando los cálculos:

\ln 3=1+\frac{1}{12}+\frac{1}{80}+R_3\left(\frac{1}{2}\right)=\frac{263}{240}+R_3\left(\frac{1}{2}\right)

Por el teorema anterior conocemos la cota del error,

\frac{(1/2)^7}{7}< R_3\left(\frac{1}{2}\right)\leq \frac{(2-1/2)(1/2)^{7}}{(1/2)\cdot 7}

esto es

\frac{1}{896}<R_3\left(\frac{1}{2}\right)\leq \frac{3/256}{7/2}

y finalmente

0,00112< R_3\left(\frac{1}{2}\right)\leq 0,0033

lo que implica que si tomamos como aproximación del logaritmo neperiano de 3 el valor \frac{263}{240}, serán exactas al menos sus dos primeras cifras decimales..

Con la aparición de los ordenadores, aumenta la celeridad de cálculos como el anterior. No obstante, debemos añadir que la creación de métodos numéricos no es algo propio del siglo XX, sino de mucho antes.

Procedimientos como la interpolación lineal para aproximar valores intermedios se utilizaban comunmente en la antigua Babilonia e incluso en culturas posteriores. Los babilonios, de hecho, aceptaban de buen grado soluciones aproximadas de números irracionales en sus ecuaciones cuadráticas. La Regula Falsi se utilizaba en el antiguo Egipto o en la antigua China; o el procedimiento de exhaución de Arquímedes en su aproximación a \pi, que recordemos que por medio de triángulos, cuadrados, pentágonos, etc, llegó a hacerlo acotándolo entre 3\frac{10}{71} y 3\frac{10}{70}. En la actualidad se conocen billones de decimales de \pi, sí, billones, si bien en la mayoría de los cálculos en los que interviene este conocido número, no son necesarios muchos más que su primera decena.

Los métodos de la tangente o de la cuerda resuelven ecuaciones utilizando iteracciones. En cada una se consigue una aproximación mayor a la solución y por tanto una disminución del error. La importancia de dichos métodos y de su aplicación se basa en la restricción que consigamos de éste.

Por otra parte, la introducción de la interpolación polinómica va a permitir el cálculo aproximado del valor de una función f en los valores que se desee. La idea es, partiendo de f y de unos elementos concretos, x_1,x_2,\ldots, x_n, sustituir f por un polinomio p de grado menor o igual que n, tal que p(x_i)=f(x_i) para i=1,2,\ldots n. Una vez que tengamos calculado el polinomio el objetivo será hallar aproximaciones de otros valores minimizando todo lo que se pueda el error cometido.

De todas formas, nuestro objetivo a lo largo del tema no serán los métodos numéricos nombrados hasta ahora. Hemos hecho solamente una mención a algunos procedimientos que permiten la aproximación de números, o en el caso de la interpolación polinómica, de funciones. Nosotros nos centraremos en el estudio del error cometido al aproximar un valor, y de la propagación del error.

El desarrollo del tema al completo puedes encontrarlo en Amazon, en formato kindle o en formato papel como prefieras. También aquí puedes encontrar la relación de los temas que he publicado hasta ahora; y en el siguiente enlace puedes descargarte las primeras páginas:

Tema 7. Aproximación de números. Errores. Notación científica.

Tema 19. Determinantes. Propiedades. Aplicación al cálculo del rango de una matriz

Aunque se definen a partir de las matrices, los determinantes no comienzan su andadura hasta después de haberlo hecho éstas. Lo cierto es que a lo largo de la historia han ido apareciendo esporádicamente con unos u otros pueblos. En la antigua China, en los Nueve capítulos sobre el Arte de las Matemáticas, aparecen las primeras menciones a las matrices y a los determinantes. Concretamente en el capítulo séptimo se aplica la Regla de Cramer para resolver un sistema de dos ecuaciones con dos incógnitas.

Gottfried Wilhelm Leibnitz (1646-1716) introdujo los determinantes en algunos de sus trabajos. Su idea era básicamente la resolución de ecuaciones lineales y lo llamó resultante. Curiosamente algunos años antes un matemático japonés, Seki Kowa (1642-1708), había llegado a los mismos resultados que Leibnitz. Algo sorprendente porque las matemáticas en Japón no tenían el alcance al que ya habían llegado en occidente.

Años después Colin Maclaurin (1698-1746) elaboró un método de resolución de sistemas de ecuaciones lineales utilizando determinantes, concretamente la conocida Regla de Cramer, que ya hemos nombrado anteriormente. No obstante la notación utilizada por Maclaurin era más farragosa que la que después utilizó Cramer. Esto derivó en que finalmente dicha regla se denominara con el nombre de este último. En cualquier caso ni Cramer ni Maclaurin hablaban en su desarrollo de nada parecido a los determinantes.

En años posteriores matemáticos tan importantes como Laplace (1749-1827) o Vandermonde (1735-1796) los incluyeron en algunos de sus trabajos. Concretamente éste último introdujo su famoso determinante en 1772, en su obra «Memoria sobre la resolución de ecuaciones«. El origen de la teoría de los determinantes puede concretarse en 1812, en una memoria de Augustin Louis Cauchy (1789-1857). Aqui, este ilustre matemático llegó a demostrar que el determinante de un producto de matrices es el producto de los determinantes.

Pero Cauchy no desarrolló el determinante utilizando permutaciones, ni tampoco con los menores complementarios, o como luego se denominó Regla de Laplace (distinta de la de probabilidades), sino que lo hizo con un complicado procedimiento partiendo de n números a_1,a_2,\ldots,a_n y utilizando los productos entre ellos y sus diferencias. De todas formas el trabajo de 1812 no fue el único en el que Cauchy utilizó los determinantes, sino que en otros posteriores los usó para resolver problemas geométricos o físicos.

Años después, en 1841 un matemático alemán, Carl Gustav Jakov Jacobi (1804-1851), publicó varios tratados sobre determinantes en los que generalizaba los términos o elementos permitiendo que fueran funciones además de números y formalizaba el procedimiento algorítmico de su desarrollo. Ese mismo año fue Cayley el que los denotó como ha llegado hasta nuestros días, con dos barras verticales; y en 1958 los utilizó para el cálculo de la matriz inversa.

El desarrollo del tema al completo puedes encontrarlo en amazon, en formato kindle o en formato papel como prefieras. También aquí puedes encontrar la relación de los temas que he publicado hasta ahora; y en el siguiente enlace puedes descargarte las primeras páginas:

Tema 19. Determinantes. Propiedades. Aplicación al cálculo del rango de una matriz.

Tema 18. Matrices. Álgebra de matrices. Aplicaciones al campo de las Ciencias Sociales y de la Naturaleza

El concepto de matriz y su estructura algebraica se ha venido utilizando de forma implícita tanto dentro como fuera de las matemáticas. Sin embargo, hasta que Cayley no la introdujo explícitamente no podemos decir que comenzaron a descubrir todo su potencial.

Antes de su definición formal ya se utilizaban para resolver sistemas de ecuaciones. El método de Gauss-Jordan es un claro ejemplo; también el cálculo de lo que luego se llamó determinante y que se utilizaba en la conocida Regla de Cramer. Históricamente el determinante precedió a la matriz. De hecho el primero que utilizó la palabra matriz fue James Joseph Sylvester (1814-1897) al llamarlo así al intentar referirse a la tabla de un determinante.

La novedad de Cayley no fue su invención, sino estructurar sus operaciones y aplicar éstas a los resultados en los que trabajaba en ese momento. Veamos como lo hizo. Tuvieron su origen concretamente en la teoría de transformaciones.

Pensemos en el plano, identifiquémoslo como \mathbb{R}^2 por ejemplo, y dada una pareja de puntos (x,y) pensemos en una transformación \tau_1 de \R^2 en \mathbb{R}^2 de la forma:

\begin{array}{l} x'=ax+by\\y'=cx+dy\end{array}

Sobre una transformación podemos aplicar otra transformación distinta, \tau_2:

\begin{array}{l} x''=a'x'+b'y'\\y''=c'x'+d'y'\end{array}

Lo interesante que descubrió Cayley es que la composición de ambas transformaciones, \tau_2\circ\tau_1, que queda:

\begin{array}{l} x''=(a'a+b'c)x+(a'b+b'd)y'\\y''=(c'a+d'c)x'+(c'b+d'd)y'\end{array}

no es más que una nueva transformación en la que los nuevos coeficientes provienen de una operación entre las matrices de ambas transformaciones.

Así dicho jugamos con cierta ventaja porque ya conocemos la estructura algebraica que poseen las matrices. La operación que estamos haciendo entre ellas no es más que el producto. Cayley desconocía la aplicación que podían tener y supuso que no serían más que nueva notación. Pero así lo hizo, definió las operaciones entre matrices a partir de los endomorfismos del plano en sí mismo. Es de notar que, al ser la composición de transformaciones una operación no conmutativa, el resultado de definir el producto acorde con la composición implicaba definir una operación no conmutativa entre matrices.

Con la suma y el producto por un escalar se llegaba a que el conjunto de las matrices con m filas y n columnas tenía estructura de espacio vectorial sobre \mathbb{K} si éste era un cuerpo; o de módulo, si fuera un anillo. Lo más interesante, trabajando sobre matrices con el mismo número de filas que de columnas, es que se alcanzaba la estructura de álgebra no conmutativa.

Pero todo esto no fue hasta 1858, en el que publicó su «Memoria sobre la teoría de Matrices«, puesto que hasta ese momento, y aún con todas las aplicaciones y tratamiento que tenían con ellas, eran solamente consideradas como notación.

En el mismo artículo estableció la inversa de una matriz, siempre que ésta tuviera determinante no nulo. Para Cayley, la inversa de:

\begin{pmatrix}a_{11}&a_{12}&a_{13}\\a_{21}&a_{22}&a_{23}\\a_{31}&a_{32}&a_{33}\end{pmatrix}

se obtenía dividiendo entre el determinante cada término de:

\begin{pmatrix}A_{11}&A_{21}&A_{31}\\
A_{22}&A_{32}&A_{33}\\
A_{13}&A_{23}&A_{33}\end{pmatrix}

donde A_{ij} es el cofactor del elemento a_{ij}. Recordemos que el menor de un elemento cualquiera a_{ij} se denota como M_{ij} y es el determinante de la matriz que queda después de eliminar la fila i y la columna j de A. El cofactor o adjunto de a_{ij} se denota como A_{ij} y está dado por la fórmula A_{ij}=(-1)^{i+j}\text{Det } (M_{ij}). Todos estos conceptos son propios del tema de determinantes y en nuestro caso, en una sección posterior, calcularemos la inversa de una matriz utilizando el método de eliminación gaussiana o método de Gauss-Jordan .

Cuando el determinante es cero, Cayley demostró que la matriz no tenía inversa, sin embargo también afirmó que era posible que el producto de dos matrices fuera cero con que solo una de ellas lo fuera. Aquí erró, pues ahora sabemos que para que eso ocurra es necesario que ambas matrices sean iguales a cero.

El desarrollo del tema al completo puedes encontrarlo en amazon, en formato kindle o en formato papel como prefieras. También aquí puedes encontrar la relación de los temas que he publicado hasta ahora; y en el siguiente enlace puedes descargarte las primeras páginas:

Tema 18. Matrices. Álgebra de matrices. Aplicaciones al campo de las Ciencias Sociales y de la Naturaleza.