sábado, 24 de noviembre de 2012

EJEMPLO UTILIZANDO ALGEBRA LINEAL PARA UN PROGRAMA MATEMATICO



APLICACIONES DEL ALGEBRA LINEAL UTILIZANDO DERIVE™



*  DERIVE 

Es un gran programa para el cálculo matemático avanzado: variables, expresiones algebraicas, ecuaciones, funciones, vectores, matrices, trigonometría, etc. También tiene capacidades de calculadora científica, y puede representar funciones gráficas en dos y tres dimensiones en varios sistemas coordenados.
La potencia de Derive es enorme y no resulta complicado de manejar, teniendo en cuenta la gran cantidad de posibilidades que ofrece. 
Por medio de este programa, aprovechando su eficacia, y proponiendo ideas para formular problemas del algebra lineal, se darán soluciones a los siguientes problemas:

 Construir una función que permita generar aleatoriamente matrices no singulares de cualquier orden, de tal forma que sus inversas sean re vertibles.
Para ellos partimos de una ‘matriz semilla’, triangular superior   que tenga sobre la diagonal 1 o -1 y que genere aleatoriamente los números por encima de la diagonal.

Se construye una función FI, tal que dada una matriz v permite sumar la fila j multiplicada por un escalar a la fila i.

Siendo:
Empleando la traspuesta de una matriz, se construye a partir de la función FI   la función FC tal que, dada una matriz v permite sumar la columna j multiplicada por un escalar a la columna i.
Llamando ID(n) a la matriz idéntica de orden n;   se construye la matriz que estamos buscando MATRIZ_ENTERA(n); de la siguiente manera:

A manera de ejemplo, puede calcularse MATRIZ_ENTERA(n) para n -2, 3, 4, 5, 6 y 7.

 Construir una función que permita generar matrices con valores propios determinados. Los pasos a seguir son los siguientes:

A continuación se construye una ‘’matriz semilla’’, triangular superior que tenga sobre la diagonal los valores propios y que genere aleatoriamente los números por encima de la diagonal.

Luego, la función como la que se pide es:

Finalmente, se construye una función que nos permita ver la matriz, el polinomio característico y los valores propios:

A manera, de ejemplo, puede calcularse:
Construir una función que permita calcular para cada valor propio de una matriz los correspondientes vectores propios.

Precision: - Exact

A manera de ejemplo se puede calcular:

Dada una base v del espacio vectorial de partida, y una base w de espacio de llegada; construir la transformación lineal que envía a v en w.
La función es la siguiente:

Finalmente puede presentarse de la siguiente manera:

A manera de ilustración pueden calcularse las transformaciones lineales que envían la base   en la base w de   para los siguientes ejemplos:

Para finalizar con esta aplicación, se puede tomar como conclusión, que el programa Drive es muy útil para aplicar algebra lineal. Al resolver los anteriores problemas formando las funciones en Drive, se pasa a resolver los ejemplos y así, dar soluciones. Podemos aplicar vectores, matrices, entre otros, e ingeniar nosotros mismos los problemas a resolver.




APLICACION EN LA ING DE SISTEMAS



Se usa para crear un sistema de encriptación, ya que con el álgebra se puede generar un campo o un sistema de números con una función la cual da un encriptado y con la función inversa un desencriptador.   Cuando se programa en C++, donde se   utilizan muchos datos, y en vez de dedicar una variable para cada uno, se resuelve con matrices, u otro sistema de ecuaciones, para hacer menos instrucciones de programación. En análisis de sensibilidad, en Investigación de operaciones, programación lineal, esto es para crear rutas optimas de transporte y repartición de productos, optimización de producción en fábricas.

Otro ejemplo: en programación, un vector es un array o arreglo de una dimensión. Dependiendo del lenguaje de programación que se utilice, este vector puede tener una cantidad fija o variable de datos.



LENGUAJE DE VECTORES, ALGEBRA DE MATRICES Y DETERMINANTES


Lenguaje de vectores

El algebra lineal tuvo un fuerte impulso gracias al estudio de los sistemas de ecuaciones lineales, tal como señalamos, y más recientemente, con los sistemas de ecuaciones diferenciales y sus aplicaciones. En ambos contextos subyacen los importantes conceptos de vector y espacio vectorial. A finales del siglo XVII fueron redescubiertas y desarrolladas las ideas originales de los babilonios, y principalmente de los chinos, sobre el pensamiento lineal. Recordemos que hasta el siglo XVIII el algebra era, esencialmente, el arte de resolver ecuaciones de grado arbitrario. El matemático y filosofo francés, y uno de los iniciadores de la Enciclopedia, D'Alembert descubre que las soluciones de un sistema Ax = b forman una variedad lineal. Asimismo, Euler, Lagrange y el propio D'Alembert se dan cuenta que la solución general del sistema homogéneoAx = 0 es una combinación lineal de algunas soluciones particulares. En 1843, el matemático irlandés Sir William Rowan Hamilton (1805-1865) 160 Deivi Luzardo, Alirio J. Peña P. descubre los Quaternions como el primer y único anillo de división no conmutativo sobre los números reales, la unicidad fue probada por Georg Frobenius (1849-1917) en 1879. Años antes, en 1863, Karl Weierstrass (1815-1897) había probado que el cuerpo de los números complejos es el único cuerpo conmutativo sobre los números reales. En esa época aparecen con Hamilton, Arthur Cayley (1821-1895) y Hermann GÄunther Grassmann (1809-1877) las nociones de vector y de espacio vectorial, como una axiomatización de la idea de \vector" manejada por los estudiosos de la Mecánica desde fines del siglo XVII, un hecho que represento la génesis del Calculo vectorial y de la Matemática moderna. Ademas, considerado el maestro del algebra lineal, Grassmann introduce el producto geométrico y lineal, siendo el primero de estos equivalente a nuestro producto vectorial. Asimismo, introduce las nociones de independencia lineal de un conjunto de vectores, así como el de dimensión de un espacio vectorial, y prueba la clásica identidad:

dim(U +W) = dim(U) + dim(W) ¡ dim(U \W) para cada par de subespecies U y W de un espacio vectorial.


Algebra de matrices

El primero en usar el término \matriz" fue el matemático ingles James Joseph Sylvester (1814-1897) en 1850, quien definió una matriz como un \oblong arrangement of terms"(arreglo cuadrilongo de términos). A su regreso a Inglaterra en 1851, luego de un período migratorio en América, Sylvester establece contacto con Cayley, un joven abogado quien compartía su interés por la Matemática y que pronto se dedicaría exclusivamente a ella. Cayley rápidamente entendería la importancia del concepto de matriz y por el año de 1853 publica una nota en donde aparece por vez primera la inversa de una matriz. Más tarde, en 1858, publica su Memoir on the theory of matrices, la cual contiene la primera definición abstracta de matriz y donde se muestra que los arreglos de coeficientes estudiados anteriormente para las formas cuadráticas y las transformaciones lineales son casos especiales de este concepto general. Asi mismo, Cayley desarrolla el algebra matricial definiendo las operaciones básicas de suma, multiplicación y multiplicación por escalares, así como la inversa de una matriz invertible, junto con una construcción de la inversa de una matriz invertible en términos de su determinante y prueba que, en el caso de matrices 2 £ 2, una matriz satisface su propia ecuación característica. Ademas, señala que tiene chequeado este resultado para matrices, indicando su demostración, pero afirma: \I have not thought it necessary to undertake the labour of a formal proof of the theorem in the general case of a matrix of any degree". En 1870, el matemático francés Camille Jordán (1838-1922) publica su Traite des substitutions et des equations algebriques, en donde estudia una forma canonica para sustituciones lineales sobre cuerpos finitos de orden primo. En este contexto aparece por vez primera lo que hoy conocemos como la forma canonica de Jordán. Una presentación clásica de este importante resultado sobre un cuerpo arbitrario. Arthur Cayley es considerado como el fundador de la teoría de matrices, aunque históricamente fueron los matemáticos chinos los pioneros en esta materia y el término matriz es debido a Sylvester. Uno de los principales meritos de Cayley fue la introducción de las operaciones básicas de suma y multiplicación de matrices, aunque indicios de estas ya aparecen en trabajos anteriores de Euler, Lagrange y Gauss. Cayley probo además que la multiplicación de matrices es asociativa e introduce las potencias de una matriz, así como las matrices simétricas y anti simétricas. Por tanto, siendo él a la Historia de la Matemática, Cayley merece ser considerado como el fundador del algebra de matrices.



Los orígenes del determinante

Cardano en su Ars Magna, muestra una regla para resolver sistemas de dos ecuaciones lineales con dos incógnitas, a la cual llama regula de modo y que, esencialmente, es la conocida regla de Cramer para resolver sistemas lineales 2 £ 2. Sin embargo, a pesar de que Cardano no ofrece una definición formal del determinante, y con la ventaja del tiempo a su favor, en su método se pueden apreciar las primeras luces en esta dirección. 
Tal como se apunto antes, los inicios de la teoría de determinantes de Matrices datan del siglo II a.C. con los matemáticos chinos. La idea de determinante apareció en Japón y Europa casi al mismo tiempo. En Japón, fueTakakasu Seki Kowa (1642-1708) el primero en publicar un trabajo sobre este tema. En efecto, en 1683, Seki escribió un manuscrito titulado Método deresolver los problemas disimulados, en el cual se incluyen algunos métodos matriciales expuestos en forma de tablas, al mas puro estilo de los matematicos chinos de esa época. Sin contar con un termino que corresponda a la idea de determinante, Seki introduce los determinantes y ofrece métodos generalesDivulgaciones Matemáticas Vol. 14 No. 2(2006), pp. 153{170162 Deivi Luzardo, Alirio J. Pe~na P. para calcularlos basados en ejemplos concretos, siendo capaz de calcular el determinante de matrices cuadradas de hasta orden 5. 

La aparición de la noción de determinante en Europa fue durante ese mismo ano de 1683, en una carta de Leibniz a Guillaume de l`H^opital (1661-1704) en donde le explica que cierto sistema de ecuaciones lineales tiene solución. Leibniz uso la palabra \resultante" para ciertas sumas combinatorias de términos nos de un determinante y probo varios resultados sobre estos resultantes, incluyendo uno que, en esencia, es la conocida regla de Cramer. Leibniz también conocía que un determinante se puede expandir usando columnas, lo que hoy se conoce como la expansión de Laplace, y estudio los sistemas de cocientes de ecuaciones, principalmente aquellos ligados a las formas cuadráticas en donde uso los determinantes.
En los años de 1730, Colin Maclaurin (1698-1746) escribió su Tratado de algebra, el cual fue publicado en 1748, dos años despues de su muerte. En este trabajo aparecen los primeros resultados sobre determinantes, se prueba la regla de Cramer para sistemas pequeños 2 £ 2 y 3 £ 3, y se indica como deducir el caso 4 £ 4. El propio Gabriel Cramer (1704-1752) anuncio la regla general para sistemas n £ n en su Introduction a l'analyse des lignes courbes algebriques, publicado en 1750 ([12]). Sin embargo, esta solo aparece enunciada en un Apéndice y sin ofrecer prueba alguna de este hecho, conformándose el autor con señalar: \Uno da el valor de cada incógnita formando n fracciones de las cuales el común denominador tiene tantos términos como existan permutaciones de n cosas". 
Mas adelante, en 1764, Etienne Bezout (1730-1783) muestra nuevos meto dos para calcular determinantes, así como también Alexandre-Theophile Van-dermonde (1735-1796) en 1771 ([37]). Al respecto, en 1772, Pierre-Simon de Laplace (1749-1827) lanza una fuerte crítica a los métodos de Cramer y Bezout señalándolos de ser imprácticos y en un articulo en el que estudia las orbitas de los planetas, describe un método para resolver sistemas de ecuaciones lineales sin necesidad de calcularlos explícitamente. Además, sorprende Laplace al usar el termino \resultante" para señalar lo que conocemos como determinante, pues, como apuntamos antes, este es el mismo termino usado por Leibniz y, según algunos historiadores, Laplace debió desconocer los trabajos de Leibniz.

El termino "determinante" fue usado por vez primera por Gauss en sus Disquisitiones arithmeticae publicadas en 1801, en las cuales estudia las formas cuadráticas. Gauss uso este termino pues este \determina" completamente las propiedades de la forma cuadrática. Sin embargo, el concepto de determinante dado por Gauss no es el mismo que hoy conocemos. En este trabajo, Gauss considera los coeficientes de sus formas cuadráticas en arreglos rectangulares y describe la multiplicación matricial (la cual considera solo como una composición, y no señala el concepto de algebra matricial), así como la inversa de una matriz en el contexto de los arreglos de coeficientes de formas cuadráticas. En 1815, Gauss publica su memoria sobre determinantes ([17]). Años antes, en 1812, Cauchy introduce el termino \determinante" en el sentido moderno ([9]). Este trabajo de Cauchy es el mas completo de la época sobre determinantes, en donde no solo se prueban algunos resultados bien conocidos, sino también otras nuevas propiedades sobre menores y ad-juntos. Asimismo, se prueba por primera vez el teorema de la multiplicación para determinantes, det(AB) = det(A) det(B). Cauchy también probo que los valores propios de una matriz simétrica con entradas complejas son números reales e introduce la ecuación característica de una matriz cuadrada ([9]). Un hecho por demás curioso es que durante una reunión celebrada en el Instituto de Francia, Binet lee un articulo en el cual se incluye también una prueba del teorema de la multiplicación, aunque esta ultima es menos satisfactoria que la dada por Cauchy. 
Por otra parte, Cauchy en 1826 y en el contexto de las formas cuadráticas en n variables, uso el termino \tabla" (\tableau") para la matriz de coecientes, introdujo los valores propios de este tipo de matrices y probo algunos resultados sobre diagonalizacion de una matriz con el propósito de convertir una forma cuadrática en una suma de cuadrados. También, Cauchy introduce la idea de matrices similares (pero no así el termino) y prueba que si dos matrices son similares, entonces estas tienen la misma ecuación característica, lo Divulgaciones Matemáticas Vol. 14 No. 2(2006), pp. 153{170 164 Deivi Luzardo, Alirio J. Pe~na P. cual había sido probado anteriormente por Hamilton durante el desarrollo de su teoría de cuaterniones. Asimismo, y de nuevo en el contexto de las formas cuadráticas, Cauchy prueba que cada matriz real simétrica es diagonalizable.
Jacques Sturm (1803-1855) día una generalización del problema de los valores propios en el contexto de los sistemas de ecuaciones diferenciales ordinarias. En efecto, el concepto de un valor propio aparece 80 años después, también en trabajos sobre sistemas de ecuaciones diferenciales ordinarias, en
contribuciones de D'Alembert sobre el movimiento de una cuerda con masas atadas a esta en varios puntos. 
Puede armarse que ni Cauchy ni Sturm tuvieron una visión del generealidad de sus ideas. Carl Gustav Jacob Jacobi (1804-1851) alrededor de 1830 y mas tarde Kronecker y Weierstrass durante los años 1850 y 1860, también trabajaron con matrices, pero, de nuevo, solo en casos especiales, y la noción de transformación lineal que comenzaba a surguir para la época. En 1841, Jacobi publico tres tratados sobre determinantes ([24]), los cuales alcanzaron singular importancia, pues en ellos aparecen por vez primera una dedición algorítmica del determinante y con la novedad de que las entradas en el determinante no sean especiadas, con lo cual sus resultados son igualmente aplicables tanto al caso en que las entradas eran números como cuando
estas sean funciones.

En 1841, Cay ley publico la primera contribución en idioma Ingles de la teoría de determinantes ([10]). En este artículo se usan dos líneas verticales sobre ambos lados del arreglo de los coeficientes de la matriz para denotar el determinante, una costumbre que se conserva hasta hoy. Cayley también probo que una matriz cuadrada A es invertible si y solo si det(A) 6= 0. La definición axiomática del determinante que hoy conocemos como la (única) función matrilineal alternada y que toma el valor 1 en la matriz identidad se debe a Kronecker y Weierstrass. Las conferencias de Weiertrass fueron publicadas después de su muerte en 1903 en la nota Sobre la teoría de determinantes ([40]). En ese mismo a~no, las conferencias de Kronecker sobre determinantes fueron publicadas, también como obra póstuma, y donde se introduce el producto tensorial de espacios vectoriales. Con estas dos contribuciones la teoría moderna de determinantes comenzó a ocupar un lugar preponderante la teoría de matrices. Uno de los primeros libros publicados en el siglo XX en donde se trata a las matrices por su propio interés es Introduction tú higher algebra, escrito por B^ocher en 1907. Asimismo, Turnbull y Airen escribieron Divulgaciones Matemáticas Vol. 14 No. 2(2006), pp. 153{170 Historia del Algebra Lineal hasta los Albores del Siglo XX 165 influyentes libros sobre esta materia durante los años 1930, mientras que Sir Thomas Muir (1844-1934) nos lego una descripción general de la historia de la teoría de determinantes, desde su descubrimiento por Seki y Leibniz en 1683
hasta 1920. 

No podemos olvidar los aportes de Silvestre a la teori³a de determinantes. Sylvester introdujo gran parte del lenguaje moderno del algebra lineal y probó la llamada Ley de inercia, aunque esta ya había sido descubierta por Jacobi. A Sylvester se debe el término matriz, como hemos mencionado, así como los primeros progresos de la teoría de auto valores de un operador lineal. En particular, Sylvester probó que los valores propios del operador lineal
Tn son las potencias n-esimas de los valores propios de T. En los cimientos del algebra lineal también destacan las contribuciones de Henrich Sherz, quien
demostro algunas de las propiedades básicas de los determinantes, tales como la linealidad en cada columna:  Otro aporte de Sylvester a la teoría de matrices es el concepto de nulidad de una matriz cuadrada A, denotada por n(A), introducido en 1884, como el mayor numero entero positivo i tal que cada menor de A de orden n ¡ i + 1 es cero, y probo que
maxfn(A); n(B)g · n(AB) · n(A) + n(B): 
El norte de las investigaciones de Sylvester, junto con Cayley y Charles Hermite (1822-1901), siempre estuvo dirigido hacia la búsqueda de invariantes de
matrices, es decir, propiedades que no cambian bajo ciertas transformaciones, siendo la nulidad uno de estos invariantes.



BREVE HISTORIA DEL ALGEBRA LINEAL






HISTORIA DEL ÁLGEBRA.






 
La historia del álgebra comenzó en el antiguo Egipto y Babilonia, donde fueron capaces de resolver ecuaciones lineales (ax = b) y cuadráticas (ax2 + bx = c), así como ecuaciones indeterminadas como x2 + y2 = z2, con varias incógnitas. Los antiguos babilonios resolvían cualquier ecuación cuadrática empleando esencialmente los mismos métodos que hoy se enseñan.

Los matemáticos alejandrinos Herón y Diofante continuaron con la tradición de Egipto y Babilonia, aunque el libro Las aritméticas de Diofante es de bastante más nivel y presenta muchas soluciones sorprendentes para ecuaciones indeterminadas difíciles. Esta antigua sabiduría sobre resolución de ecuaciones encontró, a su vez, acogida en el mundo islámico, en donde se la llamó “ciencia de reducción y equilibrio”. (La palabra árabe al-abr que significa `reducción', es el origen de la palabra álgebra). En el siglo IX, el matemático al-Jwarizmi escribió uno de los primeros libros árabes de álgebra, una presentación sistemática de la teoría fundamental de ecuaciones, con ejemplos y demostraciones incluidas. A finales del siglo IX, el matemático egipcio Abu Kamil enunció y demostró las leyes fundamentales e identidades del álgebra, y resolvió problemas tan complicados como encontrar las x, y,z que cumplen x + y + z = 10, x2 + y2 = z2, yxz = y2.

En las civilizaciones antiguas se escribían las expresiones algebraicas utilizando abreviaturas sólo ocasionalmente; sin embargo, en la edad media, los matemáticos árabes fueron capaces de describir cualquier potencia de la incógnita x, y desarrollaron el álgebra fundamental de los polinomios, aunque sin usar los símbolos modernos. Esta álgebra incluía multiplicar, dividir y extraer raíces cuadradas de polinomios, así como el conocimiento del teorema del binomio. El matemático, poeta y astrónomo persa Omar Khayyam mostró cómo expresar las raíces de ecuaciones cúbicas utilizando los segmentos obtenidos por intersección de secciones cónicas, aunque no fue capaz de encontrar una fórmula para las raíces. La traducción al latín del Álgebra de al-Jwarizmi fue publicada en el siglo XII. A principios del siglo XIII, el matemático italiano Leonardo Fibonacci consiguió encontrar una aproximación cercana a la solución de la ecuación cúbica x3 + 2x2 + cx = d. Fibonacci había viajado a países árabes, por lo que con seguridad utilizó el método arábigo de aproximaciones sucesivas.


A principios del siglo XVI los matemáticos italianos Scipione del Ferro, Tartaglia y Gerolamo Cardano resolvieron la ecuación cúbica general en función de las constantes que aparecen en la ecuación. Ludovico Ferrari, alumno de Cardano, pronto encontró la solución exacta para la ecuación de cuarto grado y, como consecuencia, ciertos matemáticos de los siglos posteriores intentaron encontrar la fórmula de las raíces de las ecuaciones de quinto grado y superior. Sin embargo, a principios del siglo XIX el matemático noruego Niels Abel y el francés Évariste Galois demostraron la inexistencia de dicha fórmula.
Un avance importante en el álgebra fue la introducción, en el siglo XVI, de símbolos para las incógnitas y para las operaciones y potencias algebraicas. Debido a este avance, el Libro III de laGeometría (1637), escrito por el matemático y filósofo francés René Descartes se parece bastante a un texto moderno de álgebra. Sin embargo, la contribución más importante de Descartes a las matemáticas fue el descubrimiento de la geometría analítica, que reduce la resolución de problemas geométricos a la resolución de problemas algebraicos. Su libro de geometría contiene también los fundamentos de un curso de teoría de ecuaciones, incluyendo lo que el propio Descartes llamó la regla de los signos para contar el número de raíces verdaderas (positivas) y falsas (negativas) de una ecuación. Durante el siglo XVIII se continuó trabajando en la teoría de ecuaciones y en 1799 el matemático alemán Carl Friedrich Gauss publicó la demostración de que toda ecuación polinómica tiene al menos una raíz en el plano complejo (véase Número (matemáticas): Números complejos). 


En los tiempos de Gauss, el álgebra había entrado en su etapa moderna. El foco de atención se trasladó de las ecuaciones polinómicas al estudio de la estructura de sistemas matemáticos abstractos, cuyos axiomas estaban basados en el comportamiento de objetos matemáticos, como los números complejos, que los matemáticos habían encontrado al estudiar las ecuaciones polinómicas. Dos ejemplos de dichos sistemas son los grupos y las cuaternas, que comparten algunas de las propiedades de los sistemas numéricos, aunque también difieren de ellos de manera sustancial. Los grupos comenzaron como sistemas de permutaciones y combinaciones (véase Combinatoria) de las raíces de polinomios, pero evolucionaron para llegar a ser uno de los más importantes conceptos unificadores de las matemáticas en el siglo XIX. Los matemáticos franceses Galois y Augustin Cauchy, el británico Arthur Cayley y los noruegos Niels Abel y Sophus Lie hicieron importantes contribuciones a su estudio. Las cuaternas fueron descubiertas por el matemático y astrónomo irlandés William Rowan Hamilton, quien desarrolló la aritmética de los números complejos para las cuaternas; mientras que los números complejos son de la forma a + bi, las cuaternas son de la forma a + bi + cj + dk.

Después del descubrimiento de Hamilton, el matemático alemán Hermann Grassmann empezó a investigar los vectores. A pesar de su carácter abstracto, el físico estadounidense J. W. Gibbs encontró en el álgebra vectorial un sistema de gran utilidad para los físicos, del mismo modo que Hamilton había hecho con las cuaternas. La amplia influencia de este enfoque abstracto llevó a George Boole a escribir Investigación sobre las leyes del pensamiento (1854), un tratamiento algebraico de la lógica básica. Desde entonces, el álgebra moderna —también llamada álgebra abstracta— ha seguido evolucionando; se han obtenido resultados importantes y se le han encontrado aplicaciones en todas las ramas de las matemáticas y en muchas otras ciencias.

ANTECEDENTES DEL ALGEBRA LINEAL

ANTECEDENTES DEL ALGEBRA


Álgebra: rama de las matemáticas en la que se usan letras par representar relaciones aritméticas. Al igual que en la aritmética, las operaciones fundamentales del álgebra son adición, sustracción, multiplicación, división y cálculo de raíces. La aritmética, sin embargo, no es capaz de generalizar las relaciones matemáticas, como el teorema de Pitágoras, que dice que en un triángulo rectángulo el área del cuadrado que tiene como lado la hipotenusa es igual a la suma de las áreas de los cuadrados cuyos lados son los catetos. La aritmética sólo da casos particulares de esta relación (por ejemplo, 3, 4 y 5, ya que 32 + 42 = 52). El álgebra, por el contrario, puede dar una generalización que cumple las condiciones del teorema: a2 + b2 = c2.

El álgebra clásica, que se ocupa de resolver ecuaciones, utiliza símbolos en vez de números específicos y operaciones aritméticas para determinar cómo usar dichos símbolos. El álgebra moderna ha evolucionado desde el álgebra clásica al poner más atención en las estructuras matemáticas. Los matemáticos consideran al álgebra moderna como un conjunto de objetos con reglas que los conectan o relacionan. Así, en su forma más general, se dice que el álgebra es el idioma de las matemáticas.



Imagen3.jpg

El Origen del Álgebra.


Los babilonios desarrollaron técnicas y métodos para medir y contar, impulsados en parte por la necesidad de resolver problemas prácticos de agrimensura, de intercambio comercial y del desarrollo de las técnicas cartográficas. Entre las tablillas babilónicas descubiertas se han encontrado ejemplos de tablas de raíces cuadradas y cúbicas, y el enunciado y solución de varios problemas puramente algebraicos, entre ellos algunos equivalentes a lo que hoy se conoce como una ecuación cuadrática. Un examen cuidadoso de las tablillas babilónicas muestra claramente que mediante esos cálculos sus autores no sólo intentaban resolver problemas del mundo real, sino otros más abstractos y artificiales, y que lo hacían para desarrollar técnicas de solución y ejercitarse en su aplicación.
Fueron los árabes quienes le dieron a la nueva ciencia de plantear y resolver ecuaciones un nombre: aljabr. La nueva civilización que surgió en la península arábiga en la primera mitad del siglo VII, habría de transformar muy pronto la vida de gran parte del mundo habitado de entonces. Menos de un siglo después de la captura de La Meca por Mahoma en el año 630 d.C., el ejército islámico había convertido a las tribus politeístas dcl Medio Oriente y usurpado al imperio bizantino los territorios de Siria y Egipto. La conquista de Persia se completó hacia el año 641 d.C. Los sucesores de Mahoma, los califas, primero establecieron su capital en Damasco pero, tras cien años de guerras, el califato se dividió en varias partes.
La fundación en 766 d.C. por parte del califa al — Mansur de Bagdad como la nueva capital de su califato, significó cl comienzo de una etapa más tolerante del islamismo y permitió el desarrollo intelectual de sus habitantes. Su sucesor, el califa Harun al — Rashid, quien gobernó entre 786 y 809, estableció en Bagdad una biblioteca en la que se reunieron manuscritos provenientes de varias academias del Cercano Oriente, algunas de las cuales habían sido establecidas por miembros de las antiguas academias de Atenas y Alejandría que tuvieron que cerrarse a raíz de la persecución de los romanos. Un programa de tradt4cciones al árabe de textos clásicos de la matemática y ciencia de los griegos y los hindúes era una de las actividades del Bayal al—Iliktna (Casa dc la sabiduría), un instituto de investigaciones que fundara cl califa al — Ma' mun y que funcionó durante más de 200 años.
Muhammmad ibn Musa al — Khwarizmi, un miembro del Bayal al—Hikma fue el autor de varios tratados sobre astronomía y matemáticas, entre ellos uno dc los primeros tratados islámicos acerca del álgebra. Fue gracias a la traducción al latín de su libro acerca del sistema de numeración hindú, Algorithmi de numero indorum, que Europa Occidental conoció ese nove~k~so sistema de numeración. Su obra más importante, sin embargo, fue su tratado de álgcbra quc, con el título Ílisab al—/abra wal— muqabala (La ciencia de la reducción y confrontación) probablemente significaba la ciencia de las ecuacionts.
El Álgebra de Muhammad contiene instrucciones prácticas para resolver ciertas ecuaciones lineales y cuadráticas. “Lo que la gente quiere, dice el autor, cuando realiza sus cálculo.., es un número”. Ese número no es más que la solución de una ecuación.
Otro importante algebrista árabe fue Omar Khayyam (1048—1131), mejor conocido en Occidente por su Rubaiyat, una colección de unos 600 poemas. Fue él el primero en hacer una clasificación sistemática de la ecuaciones cúbicas y resolver algunas de ellas.
La contribución de los algebristas islámicos de los siglos Xl y XII en el desarrollo del álgebra habría sido más notoria si no hubiera tardado tanto en ejercer su influencia en Europa, donde, un poco después, el álgebra habría de consolidarse definitivamente.

INTRODUCCION



El término "lineal" hace referencia a la modelación y solución de problemas prácticos a los que se debe enfrentar cualquier ingeniero. Un estudio honesto del Álgebra Lineal va más allá de la simple Álgebra Matricial, debido a la diversidad de conceptos útiles que se infieren de  la elaboración de estos modelos, permitiendo el enriquecimiento de los contenidos en la asignatura.