sábado, 24 de noviembre de 2012

LENGUAJE DE VECTORES, ALGEBRA DE MATRICES Y DETERMINANTES


Lenguaje de vectores

El algebra lineal tuvo un fuerte impulso gracias al estudio de los sistemas de ecuaciones lineales, tal como señalamos, y más recientemente, con los sistemas de ecuaciones diferenciales y sus aplicaciones. En ambos contextos subyacen los importantes conceptos de vector y espacio vectorial. A finales del siglo XVII fueron redescubiertas y desarrolladas las ideas originales de los babilonios, y principalmente de los chinos, sobre el pensamiento lineal. Recordemos que hasta el siglo XVIII el algebra era, esencialmente, el arte de resolver ecuaciones de grado arbitrario. El matemático y filosofo francés, y uno de los iniciadores de la Enciclopedia, D'Alembert descubre que las soluciones de un sistema Ax = b forman una variedad lineal. Asimismo, Euler, Lagrange y el propio D'Alembert se dan cuenta que la solución general del sistema homogéneoAx = 0 es una combinación lineal de algunas soluciones particulares. En 1843, el matemático irlandés Sir William Rowan Hamilton (1805-1865) 160 Deivi Luzardo, Alirio J. Peña P. descubre los Quaternions como el primer y único anillo de división no conmutativo sobre los números reales, la unicidad fue probada por Georg Frobenius (1849-1917) en 1879. Años antes, en 1863, Karl Weierstrass (1815-1897) había probado que el cuerpo de los números complejos es el único cuerpo conmutativo sobre los números reales. En esa época aparecen con Hamilton, Arthur Cayley (1821-1895) y Hermann GÄunther Grassmann (1809-1877) las nociones de vector y de espacio vectorial, como una axiomatización de la idea de \vector" manejada por los estudiosos de la Mecánica desde fines del siglo XVII, un hecho que represento la génesis del Calculo vectorial y de la Matemática moderna. Ademas, considerado el maestro del algebra lineal, Grassmann introduce el producto geométrico y lineal, siendo el primero de estos equivalente a nuestro producto vectorial. Asimismo, introduce las nociones de independencia lineal de un conjunto de vectores, así como el de dimensión de un espacio vectorial, y prueba la clásica identidad:

dim(U +W) = dim(U) + dim(W) ¡ dim(U \W) para cada par de subespecies U y W de un espacio vectorial.


Algebra de matrices

El primero en usar el término \matriz" fue el matemático ingles James Joseph Sylvester (1814-1897) en 1850, quien definió una matriz como un \oblong arrangement of terms"(arreglo cuadrilongo de términos). A su regreso a Inglaterra en 1851, luego de un período migratorio en América, Sylvester establece contacto con Cayley, un joven abogado quien compartía su interés por la Matemática y que pronto se dedicaría exclusivamente a ella. Cayley rápidamente entendería la importancia del concepto de matriz y por el año de 1853 publica una nota en donde aparece por vez primera la inversa de una matriz. Más tarde, en 1858, publica su Memoir on the theory of matrices, la cual contiene la primera definición abstracta de matriz y donde se muestra que los arreglos de coeficientes estudiados anteriormente para las formas cuadráticas y las transformaciones lineales son casos especiales de este concepto general. Asi mismo, Cayley desarrolla el algebra matricial definiendo las operaciones básicas de suma, multiplicación y multiplicación por escalares, así como la inversa de una matriz invertible, junto con una construcción de la inversa de una matriz invertible en términos de su determinante y prueba que, en el caso de matrices 2 £ 2, una matriz satisface su propia ecuación característica. Ademas, señala que tiene chequeado este resultado para matrices, indicando su demostración, pero afirma: \I have not thought it necessary to undertake the labour of a formal proof of the theorem in the general case of a matrix of any degree". En 1870, el matemático francés Camille Jordán (1838-1922) publica su Traite des substitutions et des equations algebriques, en donde estudia una forma canonica para sustituciones lineales sobre cuerpos finitos de orden primo. En este contexto aparece por vez primera lo que hoy conocemos como la forma canonica de Jordán. Una presentación clásica de este importante resultado sobre un cuerpo arbitrario. Arthur Cayley es considerado como el fundador de la teoría de matrices, aunque históricamente fueron los matemáticos chinos los pioneros en esta materia y el término matriz es debido a Sylvester. Uno de los principales meritos de Cayley fue la introducción de las operaciones básicas de suma y multiplicación de matrices, aunque indicios de estas ya aparecen en trabajos anteriores de Euler, Lagrange y Gauss. Cayley probo además que la multiplicación de matrices es asociativa e introduce las potencias de una matriz, así como las matrices simétricas y anti simétricas. Por tanto, siendo él a la Historia de la Matemática, Cayley merece ser considerado como el fundador del algebra de matrices.



Los orígenes del determinante

Cardano en su Ars Magna, muestra una regla para resolver sistemas de dos ecuaciones lineales con dos incógnitas, a la cual llama regula de modo y que, esencialmente, es la conocida regla de Cramer para resolver sistemas lineales 2 £ 2. Sin embargo, a pesar de que Cardano no ofrece una definición formal del determinante, y con la ventaja del tiempo a su favor, en su método se pueden apreciar las primeras luces en esta dirección. 
Tal como se apunto antes, los inicios de la teoría de determinantes de Matrices datan del siglo II a.C. con los matemáticos chinos. La idea de determinante apareció en Japón y Europa casi al mismo tiempo. En Japón, fueTakakasu Seki Kowa (1642-1708) el primero en publicar un trabajo sobre este tema. En efecto, en 1683, Seki escribió un manuscrito titulado Método deresolver los problemas disimulados, en el cual se incluyen algunos métodos matriciales expuestos en forma de tablas, al mas puro estilo de los matematicos chinos de esa época. Sin contar con un termino que corresponda a la idea de determinante, Seki introduce los determinantes y ofrece métodos generalesDivulgaciones Matemáticas Vol. 14 No. 2(2006), pp. 153{170162 Deivi Luzardo, Alirio J. Pe~na P. para calcularlos basados en ejemplos concretos, siendo capaz de calcular el determinante de matrices cuadradas de hasta orden 5. 

La aparición de la noción de determinante en Europa fue durante ese mismo ano de 1683, en una carta de Leibniz a Guillaume de l`H^opital (1661-1704) en donde le explica que cierto sistema de ecuaciones lineales tiene solución. Leibniz uso la palabra \resultante" para ciertas sumas combinatorias de términos nos de un determinante y probo varios resultados sobre estos resultantes, incluyendo uno que, en esencia, es la conocida regla de Cramer. Leibniz también conocía que un determinante se puede expandir usando columnas, lo que hoy se conoce como la expansión de Laplace, y estudio los sistemas de cocientes de ecuaciones, principalmente aquellos ligados a las formas cuadráticas en donde uso los determinantes.
En los años de 1730, Colin Maclaurin (1698-1746) escribió su Tratado de algebra, el cual fue publicado en 1748, dos años despues de su muerte. En este trabajo aparecen los primeros resultados sobre determinantes, se prueba la regla de Cramer para sistemas pequeños 2 £ 2 y 3 £ 3, y se indica como deducir el caso 4 £ 4. El propio Gabriel Cramer (1704-1752) anuncio la regla general para sistemas n £ n en su Introduction a l'analyse des lignes courbes algebriques, publicado en 1750 ([12]). Sin embargo, esta solo aparece enunciada en un Apéndice y sin ofrecer prueba alguna de este hecho, conformándose el autor con señalar: \Uno da el valor de cada incógnita formando n fracciones de las cuales el común denominador tiene tantos términos como existan permutaciones de n cosas". 
Mas adelante, en 1764, Etienne Bezout (1730-1783) muestra nuevos meto dos para calcular determinantes, así como también Alexandre-Theophile Van-dermonde (1735-1796) en 1771 ([37]). Al respecto, en 1772, Pierre-Simon de Laplace (1749-1827) lanza una fuerte crítica a los métodos de Cramer y Bezout señalándolos de ser imprácticos y en un articulo en el que estudia las orbitas de los planetas, describe un método para resolver sistemas de ecuaciones lineales sin necesidad de calcularlos explícitamente. Además, sorprende Laplace al usar el termino \resultante" para señalar lo que conocemos como determinante, pues, como apuntamos antes, este es el mismo termino usado por Leibniz y, según algunos historiadores, Laplace debió desconocer los trabajos de Leibniz.

El termino "determinante" fue usado por vez primera por Gauss en sus Disquisitiones arithmeticae publicadas en 1801, en las cuales estudia las formas cuadráticas. Gauss uso este termino pues este \determina" completamente las propiedades de la forma cuadrática. Sin embargo, el concepto de determinante dado por Gauss no es el mismo que hoy conocemos. En este trabajo, Gauss considera los coeficientes de sus formas cuadráticas en arreglos rectangulares y describe la multiplicación matricial (la cual considera solo como una composición, y no señala el concepto de algebra matricial), así como la inversa de una matriz en el contexto de los arreglos de coeficientes de formas cuadráticas. En 1815, Gauss publica su memoria sobre determinantes ([17]). Años antes, en 1812, Cauchy introduce el termino \determinante" en el sentido moderno ([9]). Este trabajo de Cauchy es el mas completo de la época sobre determinantes, en donde no solo se prueban algunos resultados bien conocidos, sino también otras nuevas propiedades sobre menores y ad-juntos. Asimismo, se prueba por primera vez el teorema de la multiplicación para determinantes, det(AB) = det(A) det(B). Cauchy también probo que los valores propios de una matriz simétrica con entradas complejas son números reales e introduce la ecuación característica de una matriz cuadrada ([9]). Un hecho por demás curioso es que durante una reunión celebrada en el Instituto de Francia, Binet lee un articulo en el cual se incluye también una prueba del teorema de la multiplicación, aunque esta ultima es menos satisfactoria que la dada por Cauchy. 
Por otra parte, Cauchy en 1826 y en el contexto de las formas cuadráticas en n variables, uso el termino \tabla" (\tableau") para la matriz de coecientes, introdujo los valores propios de este tipo de matrices y probo algunos resultados sobre diagonalizacion de una matriz con el propósito de convertir una forma cuadrática en una suma de cuadrados. También, Cauchy introduce la idea de matrices similares (pero no así el termino) y prueba que si dos matrices son similares, entonces estas tienen la misma ecuación característica, lo Divulgaciones Matemáticas Vol. 14 No. 2(2006), pp. 153{170 164 Deivi Luzardo, Alirio J. Pe~na P. cual había sido probado anteriormente por Hamilton durante el desarrollo de su teoría de cuaterniones. Asimismo, y de nuevo en el contexto de las formas cuadráticas, Cauchy prueba que cada matriz real simétrica es diagonalizable.
Jacques Sturm (1803-1855) día una generalización del problema de los valores propios en el contexto de los sistemas de ecuaciones diferenciales ordinarias. En efecto, el concepto de un valor propio aparece 80 años después, también en trabajos sobre sistemas de ecuaciones diferenciales ordinarias, en
contribuciones de D'Alembert sobre el movimiento de una cuerda con masas atadas a esta en varios puntos. 
Puede armarse que ni Cauchy ni Sturm tuvieron una visión del generealidad de sus ideas. Carl Gustav Jacob Jacobi (1804-1851) alrededor de 1830 y mas tarde Kronecker y Weierstrass durante los años 1850 y 1860, también trabajaron con matrices, pero, de nuevo, solo en casos especiales, y la noción de transformación lineal que comenzaba a surguir para la época. En 1841, Jacobi publico tres tratados sobre determinantes ([24]), los cuales alcanzaron singular importancia, pues en ellos aparecen por vez primera una dedición algorítmica del determinante y con la novedad de que las entradas en el determinante no sean especiadas, con lo cual sus resultados son igualmente aplicables tanto al caso en que las entradas eran números como cuando
estas sean funciones.

En 1841, Cay ley publico la primera contribución en idioma Ingles de la teoría de determinantes ([10]). En este artículo se usan dos líneas verticales sobre ambos lados del arreglo de los coeficientes de la matriz para denotar el determinante, una costumbre que se conserva hasta hoy. Cayley también probo que una matriz cuadrada A es invertible si y solo si det(A) 6= 0. La definición axiomática del determinante que hoy conocemos como la (única) función matrilineal alternada y que toma el valor 1 en la matriz identidad se debe a Kronecker y Weierstrass. Las conferencias de Weiertrass fueron publicadas después de su muerte en 1903 en la nota Sobre la teoría de determinantes ([40]). En ese mismo a~no, las conferencias de Kronecker sobre determinantes fueron publicadas, también como obra póstuma, y donde se introduce el producto tensorial de espacios vectoriales. Con estas dos contribuciones la teoría moderna de determinantes comenzó a ocupar un lugar preponderante la teoría de matrices. Uno de los primeros libros publicados en el siglo XX en donde se trata a las matrices por su propio interés es Introduction tú higher algebra, escrito por B^ocher en 1907. Asimismo, Turnbull y Airen escribieron Divulgaciones Matemáticas Vol. 14 No. 2(2006), pp. 153{170 Historia del Algebra Lineal hasta los Albores del Siglo XX 165 influyentes libros sobre esta materia durante los años 1930, mientras que Sir Thomas Muir (1844-1934) nos lego una descripción general de la historia de la teoría de determinantes, desde su descubrimiento por Seki y Leibniz en 1683
hasta 1920. 

No podemos olvidar los aportes de Silvestre a la teori³a de determinantes. Sylvester introdujo gran parte del lenguaje moderno del algebra lineal y probó la llamada Ley de inercia, aunque esta ya había sido descubierta por Jacobi. A Sylvester se debe el término matriz, como hemos mencionado, así como los primeros progresos de la teoría de auto valores de un operador lineal. En particular, Sylvester probó que los valores propios del operador lineal
Tn son las potencias n-esimas de los valores propios de T. En los cimientos del algebra lineal también destacan las contribuciones de Henrich Sherz, quien
demostro algunas de las propiedades básicas de los determinantes, tales como la linealidad en cada columna:  Otro aporte de Sylvester a la teoría de matrices es el concepto de nulidad de una matriz cuadrada A, denotada por n(A), introducido en 1884, como el mayor numero entero positivo i tal que cada menor de A de orden n ¡ i + 1 es cero, y probo que
maxfn(A); n(B)g · n(AB) · n(A) + n(B): 
El norte de las investigaciones de Sylvester, junto con Cayley y Charles Hermite (1822-1901), siempre estuvo dirigido hacia la búsqueda de invariantes de
matrices, es decir, propiedades que no cambian bajo ciertas transformaciones, siendo la nulidad uno de estos invariantes.



No hay comentarios:

Publicar un comentario