Curso de Algebra Lineal

September 5, 2017 | Autor: Refugio Juarez Parra | Categoría: Calculus, Statistics
Share Embed


Descripción

Curso de Algebra Lineal (s´eptima versi´on, 2012). Luc´ıa Contreras Caballero. Depto. Matem´aticas. Fac. Ciencias. Universidad Aut´onoma de Madrid.

1

2

´ PROLOGO. He escrito este curso tratando de expresar de la forma m´as sencilla posible los conceptos de a´lgebra lineal, requiriendo solamente los conceptos previos de Bachillerato. Corresponde a los programas de los dos semestres de primer curso de a´lgebra lineal de C.C. F´ısicas en la Universidad Aut´onoma de Madrid. Despu´es ha sido ampliado para cubrir tambi´en los programas de los semestres de Algebra Lineal y Algebra Lineal y Geometr´ıa de CC. Matem´aticas. Aqu´ı se encontraban en la tercera versi´on, algunos trabajos originales de la autora: Una introducci´on geom´etrica a los determinantes, una demostraci´on sencilla de la regla de Cramer, demostraciones elementales del teorema de Jordan en dimensi´on 2, 3 y 4, la obtenci´on de la base de Jordan en dimensi´on 2 y 3 y una aplicaci´on del espacio dual a la obtenci´on de condiciones necesarias y suficientes para la diagonalizaci´on simult´anea de formas cuadr´aticas. Tambi´en se encontraba una aplicaci´on del concepto de dimensi´on al c´alculo del rango de una matriz y aplicaciones de la diagonalizaci´on de formas cuadr´aticas, y entre los ejercicios, aplicaciones de la diagonalizaci´on de matrices y de su forma de Jordan a problemas de poblaciones. Y se explicitaban el m´etodo de Gauss, el teorema de Rouch´e-Frobenius y el criterio de Sylvester. Otra aplicaci´on interesante es la de la t´ecnica de las proyecciones al m´etodo de m´ınimos cuadrados. En la cuarta versi´on he a˜ nadido otros trabajos tambi´en originales: condiciones necesarias y suficientes para detectar el car´acter de las formas cuadr´aticas degeneradas, una demostraci´on elemental del teorema de Jordan general para endomorfismos, un m´etodo f´acil para hallar la forma de Jordan y una demostraci´on de que el sentido f´ısico de la regla del sacacorchos del producto vectorial coincide con el sentido matem´atico de dicho producto vectorial. En la quinta versi´on he a˜ nadido la din´amica de poblaciones. En la sexta versi´on he a˜ nadido un cap´ıtulo de c´onicas y otro de cu´adricas. En la s´eptima version he a˜ nadido una ap´endice sobre el espacio cociente. El curso es autocontenido, con todas las demostraciones de los resultados y teoremas expuestos de forma l´ogica y rigurosa. Intentando que los alumnos estudien los conceptos, se introducen motivaciones de los mismos y se intercalan muchos grupos de ejercicios con dificultad progresiva. Algunos ejercicios se plantean de forma que se puedan resolver de distintas maneras, lo cual permite al alumno la comprobaci´on de sus resultados. Tambi´en he intercalado dibujos que facilitan la comprensi´on de los conceptos y de los razonamientos y ejemplos resueltos en los u ´ltimos cap´ıtulos. Luc´ıa Contreras Caballero. 3

´INDICE. ´ NUMEROS COMPLEJOS. Introducci´on. Regla de Ruffini para soluciones fraccionarias. N´ umeros Complejos. Inverso de un n´ umero complejo. Propiedades de las soluciones de las ecuaciones. Forma trigonom´etrica y forma polar de un n´ umero complejo. Radicaci´on. MATRICES. SUS OPERACIONES. Introducci´on. Operaciones en las matrices. Tipos de matrices. ´ ´ DE GAUSS-JORDAN. METODO DE GAUSS Y REDUCCION Introducci´on. M´etodo de Gauss. Operaciones elementales en una matriz. Reducci´on de Gauss-Jordan. Matrices Invertibles. Caracterizaci´on de las matrices invertibles. M´etodo de Gauss para obtener la inversa de una matriz invertible. DETERMINANTES y SISTEMAS de ECUACIONES. Introducci´on. Propiedades de los determinantes y operaciones elementales. Definici´on de los determinantes. Comprobaci´on de las propiedades. Regla de Cramer sin utilizar la matriz inversa. Caracterizaci´on de las matrices invertibles por su determinante. Determinante del producto. Desarrollo del determinante por una fila cualquiera y por una columna cualquiera. F´ormula para la inversa. Regla de Cramer. Teorema de Rouch´e-Frobenius. Producto Vectorial. ESPACIOS VECTORIALES. Introducci´on.

4

9 12 14 15 19 22 26 31 32 38 47 50 57 63 68 69 77 81 85 90 91 98 100 101 104 106 110 111 116 125

Cuerpo. Propiedades. 127 Espacio Vectorial. 129 Subespacios Vectoriales. 131 Bases. 141 Teorema de la Base. 147 Cambio de base. 153 Aplicaciones del concepto de dimensi´on a procesos concretos. 155 Independencia del n´ umero de escalones obtenidos escalonando una matriz. 155 Extracci´on de la base a partir de un sistema generador. 156 Aplicaci´on del rango a la obtenci´on de las ecuaciones cartesianas de un subespacio dado por sus generadores. 158 C´alculo del rango de la matriz A y b´ usqueda del menor distinto de cero de orden igual al rango. 160 Aplicaci´on al m´etodo de Gauss. 163 Suma e intersecci´on de subespacios vectoriales. 164 APLICACIONES LINEALES. Introducci´on. 171 Expresi´on matricial de una aplicaci´on lineal. 174 Cambio de base en la expresi´on matricial de una aplicaci´on lineal. 177 N´ ucleo de una aplicaci´on lineal. 183 Imagen de una aplicaci´on lineal. 186 F´ormula de las dimensiones para una aplicaci´on lineal. 190 Isomorfismos. 192 Espacio dual. 195 ´ ESPACIO EUCLIDEO. Introducci´on. 201 Ortogonalidad. 202 Bases Ortogonales. 205 Ortogonalidad entre subespacios. 207 Complemento Ortogonal. 207 Teorema de Tellegen. 209 Proyecciones en general. 211 Proyecciones Ortogonales. 212 Proyecci´on ortogonal de un vector sobre un subespacio. 213 Teorema de la aproximaci´on o´ptima. 215 M´etodo de Aproximaci´on de M´ınimos Cuadrados. 216 Aplicaci´on del m´etodo de m´ınimos cuadrados a la regresi´on lineal. 218

5

Aplicaci´on del m´etodo de m´ınimos cuadrados a la obtenci´on de la matriz de la aplicaci´on proyecci´on ortogonal sobre un subespacio. 221 ESPACIO EUCL´IDEO GENERAL. Una generalizaci´on m´as del Producto Escalar. 222 Expresi´on polinomial de una forma bilineal en un espacio vectorial de dimensi´on finita. 226 Expresi´on matricial de una forma bilineal en un espacio vectorial de dimensi´on finita. 226 Complementario Ortogonal en el espacio eucl´ıdeo general. 229 Proyecciones ortogonales en un espacio eucl´ıdeo general. 230 M´etodo para encontrar una base ortonormal en un espacio vectorial de dimensi´on finita. 232 M´etodo de ortogonalizaci´on de Gram-Schmidt. 233 Ortogonalidad en un espacio eucl´ıdeo general. 238 Desigualdad de Schwarz. 239 Cambio de base. 241 Condiciones Necesarias y Suficientes para que una matriz corresponda a un Producto Escalar. (Criterio de Sylvester). 243 ´ DIAGONALIZACION DE ENDOMORFISMOS. Aplicaciones autoadjuntas en espacios eucl´ıdeos y herm´ıticos, y aplicaciones unitarias en espacios herm´ıticos. Introducci´on. 249 Vectores propios y valores propios. 250 Primera condici´on necesaria y suficiente para que el endomorfismo sea diagonalizable. 251 Segunda condici´on necesaria y suficiente para que el endomorfismo sea diagonalizable. 257 Din´amica de poblaciones. 259 Multiplicidad de los valores propios. 260 Tercera condici´on necesaria y suficiente para que el endomorfismo sea diagonalizable. 262 Aplicaciones autoadjuntas en un espacio eucl´ıdeo. 264 Diagonalizaci´on de las Aplicaciones Autoadjuntas, (de las matrices sim´etricas). 268 Espacios Herm´ıticos. 275 ´ FORMAS CUADRATICAS. Introducci´on. 281 Expresi´on matricial de una forma cuadr´atica. 281 Cambio de base en formas cuadr´aticas. 285 Diagonalizaci´on de formas cuadr´aticas. 287 Diagonalizaci´on de una forma cuadr´atica en una base ortonormal. 287 Estudio de C´onicas. 291 M´aximos y m´ınimos de funciones. 292 M´aximos y m´ınimos en la esfera unidad. 293 Energ´ıa de rotaci´on de un s´olido. 294 Diagonalizaci´on de formas cuadr´aticas completando cuadrados. 295 6

Ley de inercia de Sylvester. 302 Criterio de Sylvester para formas cuadr´aticas definidas positivas. 306 Criterios para formas cuadr´aticas degeneradas. 311 Diagonalizaci´on simult´anea de formas cuadr´aticas. 319 Condiciones necesarias y suficientes para la diagonalizaci´on simult´anea de formas cuadr´aticas.325 ´ 2, 3 y 4. FORMAS DE JORDAN EN DIMENSION Introducci´on. 333 Consideraciones previas. 334 Forma de Jordan de Matrices 2 × 2 de n´ umeros reales. 335 Forma de Jordan de Matrices 3 × 3 de n´ umeros reales. 339 3 354 Resumen de la forma de Jordan en R . Forma de Jordan compleja de Matrices 4 × 4 de n´ umeros complejos. 355 Resumen de la forma de Jordan en R4 . 360 ´ DEL TEOREMA DE JORDAN PARA ENDOMORFISMOS. DEMOSTRACION Teorema de Jordan. 363 Ejemplos para un m´etodo f´acil para hallar la base de Jordan. 367 M´etodo general. 378 APLICACIONES ORTOGONALES. ESPACIO AF´IN Y MOVIMIENTOS. Introducci´on. 383 Definici´on y propiedades. 383 Estudio de las transformaciones ortogonales de R2 . 389 Estudio de las transformaciones ortogonales de R3 . 395 Espacio Af´ın. 405 Aplicaciones afines con puntos fijos. 414 Movimentos en el plano. 420 Movimentos en el espacio tridimensional. 425 Sentido del producto vectorial. 438 ´ CONICAS. Introducci´on. 441 Ecuaciones de las c´onicas en posici´on can´onica. 443 Ecuaciones de algunas c´onicas en posici´on no can´onica. 446 Algunos ejemplos de reducci´on de curvas de segundo grado a su ecuaci´on can´onica. 449 Reducci´on de la ecuaci´on general de la expresi´on de una curva de segundo grado a su expresi´on can´onica. 453 Invariantes de las c´onicas. 455 Clasificaci´on de las c´onicas. 457 Ejes de simetr´ıa y centro de las c´onicas no degeneradas. 458 C´alculos en la elipse del ejemplo 5. 460 7

C´alculos en la hip´erbola del ejemplo 6. C´alculos en la par´abola del ejemplo 7. Unificaci´on de las c´onicas en una definici´on de lugar geom´etrico. ´ CUADRICAS. Introducci´on. Estudio general de la superficie de segundo grado. Invariantes de las cu´adricas. Clasificaci´on de las cu´adricas. Resumen de la clasificaci´on de las cu´adricas. Ejes de simetr´ıa y centro de las cu´adricas no degeneradas. Otros invariantes de las cu´adricas degeneradas. Ley de los signos de Descartes. ´ APENDICE: ESPACIO VECTORIAL COCIENTE.

8

461 462 465 469 472 476 478 479 479 482 484 487

´ NUMEROS COMPLEJOS. Introducci´ on. Los distintos tipos de n´ umeros han ido apareciendo en la historia del hombre progresivamente, seg´ un las necesidades de las actividades que realizaba y son estudiados hoy tambi´en progresivamente desde la escuela primaria a la Universidad. Debido a la necesidad de contar las cabezas de ganado surgieron los n´ umeros naturales, (que son todos positivos) con los que se puede sumar; los n´ umeros enteros, (que pueden ser positivos o negativos e incluyen al cero) sirven para indicar los intercambios de mercanc´ıas y dinero; con ellos se puede sumar y restar. La multiplicaci´on es una forma m´as r´apida de hacer una suma de sumandos iguales y entonces se plantea el problema de hacer la operaci´on inversa a la multiplicaci´on que es la divisi´on, pero esta operaci´on no siempre tiene soluci´on con n´ umeros enteros, por lo que se crearon otros n´ umeros llamados fraccionarios o racionales. Los n´ umeros enteros se caracterizan por el hecho de que cualquier ecuaci´on de la forma x + a = b tiene soluci´on cuando los n´ umeros que aparecen en ella son enteros. Los n´ umeros fraccionarios se caracterizan por el hecho de que cualquier ecuaci´on de la forma a1 x + a = b tiene soluci´on cuando los n´ umeros que aparecen en ella son fraccionarios y a1 6= 0. Hay otro conjunto de n´ umeros en los que tambi´en la ecuaci´on a1 x + a = b tiene soluci´on si a1 6= 0, son los n´ umeros reales que se construyen como l´ımites de sucesiones de n´ umeros fraccionarios. Los n´ umeros reales incluyen a los fraccionarios. La ecuaci´on anterior es una ecuaci´on de primer grado con una inc´ognita, que tambi´en se puede escribir a1 x + a0 = 0. Nos podemos plantear el problema sobre si una ecuaci´on m´as general: an xn + an−1 xn−1 + · · · + a1 x + a0 = 0 tiene siempre soluci´on cuando los n´ umeros que aparecen en ella son reales. La respuesta es que no y para obtener respuesta positiva tenemos que construir otro conjunto de n´ umeros que se llama n´ umeros complejos y se designa por C. Hay ejemplos de ecuaciones de segundo grado que no tienen soluci´on real. La ecuaci´on m´as simple que no tiene soluci´on real es x2 + √1 = 0. La ecuaci´on general de segundo grado, de la forma 2 un n´ umero ax2 + bx + c = 0 tiene la soluci´on x = −b± 2ab −4ac pero si b2 − 4ac < 0 no encontramos ning´ real para x. Lo asombroso es que escribiendo por i un n´ umero imaginario que satisfaga i2 +1 = 0, encontramos n´ umeros, llamados complejos, que √ son soluciones √ de todas las ecuaciones de segundo grado planteadas. Ya que si b2 −4ac < 0, tenemos b2 − 4ac = i 4ac − b2 que tiene un sentido imaginario. Entonces, el conjunto de los n´ umeros soluciones de todas las ecuaciones de segundo grado que se pueden plantear √ −b b2 −4ac es el conjunto de los binomios de la forma 2a ± 2a donde el segundo sumando puede ser real ´ o imaginario. Este es el conjunto de los n´ umeros complejos en el que i2 = −1 por ser i soluci´on 2 de la ecuaci´on x + 1 = 0. Los representaremos, en general, como a + bi, donde a y b son ahora n´ umeros reales cualesquiera. El conocimiento de las propiedades de las operaciones de los n´ umeros complejos ampl´ıa la cantidad de ecuaciones que podemos resolver. Es muy importante y sorprendente 9

el teorema fundamental del ´algebra que afirma que cualquier ecuaci´on de grado n con coeficientes complejos tiene siempre al menos un n´ umero complejo como soluci´on. Haciendo ingeniosas combinaciones con los coeficientes de la ecuaci´on de tercer grado, del Ferro y Tartaglia encontraron la forma general de sus soluciones, que ha pasado a la historia como f´ormula de Cardano. La resoluci´on de la ecuaci´on de cuarto grado fu´e reducida a la soluci´on de la ecuaci´on de tercer grado por Ferrari. Pero el problema es mucho m´as dif´ıcil si el grado de la ecuaci´on es mayor, no estando claro ni siquiera que la ecuaci´on tenga soluci´on. En este sentido, la importancia de los n´ umeros complejos, de los que hemos hablado en la introduci´on, y del Teorema Fundamental del Algebra demostrado por Gauss estriba en que afirma que cualquier ecuaci´ on de grado n con coeficientes complejos tiene siempre al menos un n´ umero complejo como soluci´ on. Este teorema afirma la existencia de la soluci´on pero sigue quedando el problema de c´omo encontrarla efectivamente. Durante mucho tiempo, los matem´aticos estuvieron buscando una f´ormula general para todas las ecuaciones de un cierto grado expresada por raices de expresiones racionales de sus coeficientes, hasta que un matem´atico llamado Abel demostr´o que esta forma general expresada por radicales com´ un para todas las ecuaciones de un cierto grado no exist´ıa a partir de grado 5. M´as tarde, otro matem´atico llamado Galois encontr´o las condiciones necesarias y suficientes que han de verificar los coeficientes de la ecuaci´on para que sus soluciones se puedan expresar por radicales. A´ un hoy no todas las ecuaciones est´an resueltas y en eso trabajan los algebristas. Sin embargo, se puede demostrar y lo demostraremos m´as adelante que, debido a las propiedades de los n´ umeros complejos, si los coeficientes de la ecuaci´on son reales las soluciones complejas aparecen por parejas conjugadas de la misma multiplicidad. Y de aqu´ı, que toda ecuaci´on de grado impar con coeficientes reales tiene al menos una soluci´on real. El Algebra es el estudio de la resolubilidad de las ecuaciones; en cuanto que las ecuaciones se resuelven haciendo operaciones con los coeficientes que aparecen en ellas, el a´lgebra es tambi´en el estudio de las propiedades de las operaciones que podemos hacer con esos n´ umeros. En este cap´ıtulo repasaremos algunos resultados de bachillerato, los generalizaremos y adem´as estudiaremos ciertas propiedades de los n´ umeros complejos que nos servir´an para ampliar la cantidad de ecuaciones que sabemos resolver.

10

Recordemos conocimientos de Bachillerato sobre las ecuaciones de grado n. Las soluciones enteras de una ecuaci´on de grado n con coeficientes enteros deben ser divisores del t´ermino independiente. Veamos por qu´e: Sea an xn + an−1 xn−1 + · · · + a1 x + a0 = 0 una ecuaci´on de grado n donde todos los ai son enteros y sea a una soluci´on entera de la ecuaci´on. Entonces, an an + an−1 an−1 + · · · + a1 a + a0 = 0 =⇒ an an + an−1 an−1 + · · · + a1 a = −a0 , de donde (an an−1 + an−1 an−2 + · · · + a1 )a = −a0 ; como todos los n´ umeros del par´entesis son enteros, la u ´ltima expresi´on indica que la soluci´on a divide a a0 . Esta regla nos permite muchas veces encontrar las soluciones enteras de una ecuaci´on de grado n por tanteo, ya que el n´ umero de divisores de un n´ umero fijado es finito. Y se puede utilizar para ecuaciones con coeficientes fraccionarios, una vez que hemos quitado los denominadores.

En Bachillerato se estudia tambi´en la regla de Ruffini, que es un algoritmo para hallar Pn (a) y los coeficientes del polinomio cociente Qn−1 (x). Este algoritmo es un m´etodo para obtener el resto Pn (a) = an an + an−1 an−1 + · · · + a1 a + a0 resultante de dividir Pn (x) por x − a, consistente en lo siguiente: Se colocan en una fila los coeficientes an , an−1 , an−2 , · · · a1 , a0 y debajo de ´esta, a la izquierda el n´ umero a y se hace una l´ınea horizontal: an an−1 an−2 ··· a1 a0 2 n a) 0 an a an a + an−1 a ··· ··· an a + · · · + a1 a −− −− − − − − − −−−−− −−− −−−−− −−−−−−− an an a + an−1 an a2 + an−1 a + an−2 ··· an an−1 + · · · + a1 an an + · · · + a1 a + a0 Se suma 0 a an y se pone debajo de la l´ınea horizontal a la altura de an ; se multiplica por a, se pone an a debajo de an−1 al que se suma, obteni´endose debajo de la l´ınea horizontal an a + an−1 ; de nuevo, se multiplica este n´ umero por a, se coloca debajo de an−2 y se suman los dos n´ umeros, obteni´endose an a2 + an−1 a + an−2 debajo de la l´ınea horizontal; se va repitiendo el mismo proceso con las sumas que se van obteniendo debajo de la l´ınea horizontal, teni´endose a la altura de a1 la suma an an−1 + an−1 an−2 + · · · + a2 a + a1 , que multiplicada por a y sumada a a0 da: an an + an−1 an−1 + · · · + a2 a2 + a1 a + a0 = Pn (a). Seg´ un lo demostrado anteriormente, este n´ umero es cero si y s´olo si el polinomio considerado es divisible por x − a. 11

Adem´as, los n´ umeros obtenidos debajo de la l´ınea horizontal son los coeficientes de los t´erminos de mayor grado de los restos sucesivos obtenidos al hacer la divisi´on del polinomio Pn (x) por x − a; por ello son los coeficientes de las potencias de x en el polinomio cociente Qn−1 (x). Por ejemplo, la ecuaci´on x4 − 10x3 + 35x2 − 50x + 24 = 0 puede admitir como soluciones los divisores de 24, entre ellos est´a el 3; para ver si el 3 es efectivamente una soluci´on aplicamos la regla de Ruffini para hallar el resto de la divisi´on del polinomio dado por x − 3: 1 −10 35 −50 24 3) 0 3 −21 42 −24 −− −− −− −− −− −− 1 −7 14 −8 0 Habiendo salido cero el u ´ltimo n´ umero de abajo a la derecha, el resto de dividir el polinomio por x − 3 es cero y el cociente es x3 − 7x2 + 14x − 8. Efectivamente, una soluci´on de la ecuaci´on es 3.

Recordemos estos conocimientos en los Ejercicios: 1.1.1. Resolver utilizando la regla de Ruffini las ecuaciones: 1−λ 1 3 4 3 2 2 − λ −2 x − 2x − 13x + 14x + 24 = 0. 1 0 1 3−λ

= 0.

1.1.2. Resolver las ecuaciones siguientes: x4 − 13x2 + 36 = 0. x6 − 14x4 + 49x2 − 36 = 0. La regla de Ruffini se puede generalizar a soluciones fraccionarias: Regla de Ruffini para soluciones fraccionarias. Se puede generalizar a las soluciones fraccionarias el resultado 1) demostrado para las soluciones enteras de una ecuaci´on de grado n con coeficientes enteros, encontr´andose que 3) si un n´ umero racional M/N irreducible es soluci´ on de la ecuaci´ on de grado n con coeficientes enteros, M debe ser divisor del t´ ermino independiente y N debe ser divisor del coeficiente del t´ ermino de mayor grado. Demostraci´on: Sustituyendo la soluci´on M/N en la ecuaci´on dada tenemos: an (

M n M M Mn M n−1 M ) + an−1 ( )n−1 + · · · + a1 + a0 = 0 =⇒ an n + an−1 n−1 + · · · + a1 + a0 = 0 N N N N N N 12

de donde quitando denominadores y sacando factor com´ un tenemos an M n +an−1 M n−1 N +· · ·+a1 M N n−1 = −a0 N n ≡ M (an M n−1 +an−1 M n−2 N +· · ·+a1 N n−1 ) = −a0 N n donde, debido a que todos los n´ umeros son enteros y a que M no tiene factor com´ un con N, se tiene que M divide a a0 . Tambi´en tenemos: −an M n = an−1 M n−1 N +· · ·+a1 M N n−1 +a0 N n ≡ −an M n = N (an−1 M n−1 +· · ·+a1 M N n−2 +a0 N n−1 ) donde, debido a que todos los n´ umeros son enteros y a que N no tiene ning´ un factor c´om´ un con M, se tiene que N divide a an . La regla de Ruffini tambi´en se puede aplicar con las raices fraccionarias. Conviene practicar esta generalizaci´on en los Ejercicios: 1.2.1. Resolver las ecuaciones: a) 6x2 − 5x + 1 = 0. b) 12x3 − 40x2 + 27x − 5 = 0. c) 24x3 − 26x2 + 9x − 1 = 0. d) 12x3 − 32x2 + 25x − 6 = 0. e) 6x4 + 7x3 − 3x2 − 3x + 1 = 0.

13

N´ umeros Complejos. Veremos ahora los N´ umeros Complejos, cuyo conocimiento nos permitir´a la resoluci´on de m´as ecuaciones: umeros Se llama expresi´on bin´omica de un n´ umero complejo a la forma a + ib, donde a y b son n´ reales, en la cual a es la parte real y b es la parte imaginaria. El conjugado de un n´ umero complejo z = a + ib es z = a − ib. Los n´ umeros complejos se pueden sumar como binomios: (a + ib) + (c + id) = (a + c) + i(b + d) y pueden comprobarse f´acilmente, utilizando las propiedades de los n´ umeros reales, (lo cual se recomienda como ejercicio), las propiedades de la suma: a) Asociativa. b) Tiene elemento neutro: 0+i0 (un elemento que sumado a cualquier otro lo deja igual). c) Todo n´ umero complejo tiene elemento opuesto respecto a la suma: (el elemento opuesto de uno dado es el elemento que sumado con ´el da el elemento neutro). d) Conmutativa. La existencia de la suma con las propiedades antes enumeradas se resume en una frase: Los n´ umeros complejos son un grupo aditivo conmutativo. Los n´ umeros complejos tambi´en se pueden multiplicar como binomios donde i2 = −1. (a + ib)(c + id) = (ac − bd) + i(ad + bc) y puede comprobarse, tambi´en utilizando las propiedades de los n´ umeros reales, que el producto es: a) Asociativo. b) Tiene elemento neutro (1). c) Todo elemento distinto del cero tiene elemento inverso. d) Es conmutativo. La existencia del producto con las propiedades antes enumeradas se resume en la frase: Los n´ umeros complejos distintos de cero son un grupo multiplicativo conmutativo. De las propiedades anteriores, s´olo voy a comprobar aqu´ı que todo n´ umero complejo distinto de cero tiene inverso.

14

Inverso de un n´ umero complejo. Si buscamos el inverso x + iy de un n´ umero complejo a + ib, buscamos un n´ umero tal que (a + ib)(x + iy) = 1 es decir, un n´ umero tal que (ax − by) + i(ay + bx) = 1. Si el n´ umero fuera real: z = a, de a−1 a = 1 tenemos que z −1 = a−1 . Si el n´ umero fuera imaginario puro: z = ib, de −ib−1 ib = 1 tenemos que z −1 = −ib−1 . Podemos suponer en lo que sigue que el n´ umero no es real ni imaginario puro, es decir, que a 6= 0 6= b. Como dos n´ umeros complejos son iguales cuando tienen la misma parte real y la misma parte imaginaria, ha de ser:   ax − by = 1 a2 x − aby = a ≡ (si a 6= 0, b 6= 0) 2 bx + ay = 0 b x + aby = 0 de donde (a2 + b2 )x = a. Aqu´ı podemos despejar x por ser a2 + b2 6= 0, ya que estamos suponiendo a 6= 0, b 6= 0. Entonces x = a/(a2 + b2 ). Tambi´en, ha de ser:  abx − b2 y = b abx + a2 y = 0 de donde (a2 + b2 )y = −b, donde tambi´en podemos despejar y = −b/(a2 + b2 ). 1 Hemos obtenido que el inverso de a + ib, es (a2 +b 2 ) (a − ib), siempre que a + bi sea distinto de cero. Compru´ebese que esta f´ormula es v´alida para los casos particulares hallados al principio, en los que el n´ umero era real o era imaginario puro. Para dividir z1 por z2 (si z2 6= 0) multiplicamos z1 por el inverso de z2 . Por un procedimiento similar de igualar partes real e imaginaria podemos hallar, dado un n´ umero complejo c + di otro n´ umero complejo a + bi que elevado al cuadrado d´e c + di. As´ı podemos resolver todas las ecuaciones bicuadradas en el conjunto de los n´ umeros complejos.

e) Adem´as el producto es distributivo respecto a la suma (debe comprobarse). La existencia de la suma y del producto con las propiedades antes enumeradas se expresa en otra frase: Los n´ umeros complejos son un cuerpo conmutativo. Otros cuerpos ya conocidos son los conjuntos de los n´ umeros racionales y de los n´ umeros reales. Ahora se puede comprobar como Ejercicios:

15

1.3.1. Comprobar que, en el cuerpo de los n´ umeros complejos, tienen tantas soluciones como su grado, las ecuaciones siguientes: x2 − x + 1 = 0. √ x2 − 3x + 1 = 0. 2x3 + 4x2 − 3x + 9 = 0. x4 − x3 − 3x2 + 4x − 4 = 0. 2 λ 1 1 2 −λ = 0. 2λ 1 1 x6 + 4x4 + 5x2 + 2 = 0. x4 − x3 − x2 − x − 2 = 0. x4 + x3 − x − 1 = 0. 6x4 + x3 + 2x2 − 4x + 1 = 0. 6x5 + 5x4 + 4x3 + 4x2 − 2x − 1 = 0. x5 + x4 − x − 1 = 0. 6x4 + x3 + 11x2 + 2x − 2 = 0 12x4 + x3 + 11x2 + x − 1 = 0 6x4 − 11x3 + 10x2 − 11x + 4 = 0 4x4 + 4x3 − 11x2 + 4x − 15 = 0 4x4 + 16x3 + 31x2 + 64x + 60 = 0 1.3.2. Factorizar los polinomios igualados a cero en las ecuaciones anteriores y en las siguientes: x5 − 2x4 + 2x3 − 4x2 + x − 2 = 0. 6x4 + 7x3 − 3x2 − 3x + 1 = 0.

16

x5 + x4 + 2x3 + 2x2 + x + 1 = 0. x7 + x6 + 6x5 + 6x4 + 9x3 + 9x2 + 4x + 4 = 0. Observar que algunas no son totalmente factorizables en binomios de grado 1 con coeficientes reales. Cuando se admiten los coeficientes complejos, o bien hay tantos factores como el grado de la ecuaci´on, o bien llamando al n´ umero de veces que se repite un factor, multiplicidad de ese factor, la suma de las multiplicidades de los factores de primer grado es igual al grado de la ecuaci´on. 1.3.3. Demostrar que en un cuerpo, se tiene b · 0 = 0, cualquiera que sea b. 1.3.4. Demostrar que en un cuerpo, si a 6= 0, ax = 0 ⇒ x = 0. 1.3.5. Probar que en un conjunto de n´ umeros que sea un cuerpo, la ecuaci´on a1 x + a = 0 tiene soluci´on u ´nica si a1 6= 0. No tiene soluci´on si a1 = 0 y a 6= 0. Tiene infinitas soluciones si a1 = 0 = a.

Recordemos que se llama conjugado del n´ umero complejo z = a + ib al n´ umero a − ib que se umero complejo, hemos representa por z = a − ib. Utilizando la notaci´on de conjugado de un n´ 1 obtenido anteriormente respecto a su inverso que: z −1 = (a2 +b 2 ) z. Se puede representar el n´ umero complejo a + ib como el punto del plano que tiene coordenadas cartesiamas (a, b). Entonces, el punto correspondiente al conjugado de un n´ umero complejo es el punto sim´etrico respecto al eje OX.

a+ib 7  

b

  

 S S

a S S S w S

17

a-ib

Por el teorema de Pit´agoras, el n´ umero a2 + b2 es el cuadrado de la longitud del vector con origen en el origen de coordenadas y extremo en el punto. Esta longitud se llama m´odulo del n´ umero complejo y se representa por |z|. Entonces, podemos escribir: z −1 = |z|12 z. De donde se deduce tambi´en |z|2 = zz. Para hacer operaciones con los n´ umeros complejos se proponen los Ejercicios: 1.4.1. Hallar los siguientes n´ umeros complejos en forma bin´omica: (1 + 2i)(1 − 2i),

1 + 2i 2 (1 + 2i)3 (1 + 2i)3 1 + 2i , ( ), , . 1 − 2i 1 − 2i (2 − i)3 (2 − 2i)3

1.4.2. Hallar un n´ umero complejo en forma bin´omica: a + bi tal que (a + bi)2 = 1 + i. 1.4.3. Resolver la ecuaci´on x4 − 2x2 + 10 = 0 en el cuerpo de los n´ umeros complejos. 2 1.4.4. Resolver la ecuaci´on z − (1 + i)z + i = 0 en el cuerpo de los n´ umeros complejos. 1.4.5. Demostrar a) z1 + z2 = z1 + z2 b) z1 · z2 = z1 · z2 1.4.6. Demostrar: a) |z| = |z| b) |z1 · z2 | = |z1 ||z2 | c) |z1 + z2 | ≤ |z1 | + |z2 |

18

Propiedades de las soluciones de las ecuaciones. A) Utilizando el ejercicio 1.4.5. anterior se obtiene que las soluciones complejas de una ecuaci´ on con coeficientes reales aparecen por parejas conjugadas: Sea an xn + an−1 xn−1 + · · · + a1 x + a0 = 0 una ecuaci´on de grado n donde todos los ai son reales y sea z una soluci´on compleja de la ecuaci´on. Entonces, an z n + an−1 z n−1 + · · · + a1 z + a0 = 0 =⇒ an z n + an−1 z n−1 + · · · + a1 z + a0 = 0 =⇒ an z n + an−1 z n−1 + · · · + a1 z + a0 = 0 =⇒ an z n + an−1 z n−1 + · · · + a1 z + a0 = 0 donde se ve que tambi´en z es soluci´on de la ecuaci´on. B) El n´ umero a es soluci´on de la ecuaci´on: an xn + an−1 xn−1 + · · · + a1 x + a0 = 0, si y s´olo si el binomio x − a divide al polinomio an xn + an−1 xn−1 + · · · + a1 x + a0 . En efecto, llamando Pn (x) a este polinomio y divid´endolo por x − a obtendr´ıamos: Pn (x) = Qn−1 (x)(x − a) + R(x) pero R(x) = R es un n´ umero por ser el grado del resto menor que el grado del divisor. Sustituyendo ahora el valor a en la expresi´on de la divisi´on, tenemos: Pn (a) = Qn−1 (a)(a − a) + R = R lo que nos dice que el resto de esta divisi´on es cero si y s´olo si a es soluci´on de la ecuaci´on dada, teni´endose as´ı que el polimomio Pn (x) es divisible por x − a si y s´olo si a es soluci´on de la ecuaci´on Pn (x) = 0. Con lo que conocida una soluci´on de una ecuaci´on, esta queda reducida a otra de grado menor, presumiblemente m´as f´acil (Qn−1 (x) = 0). No podemos demostrar ahora con los conocimientos que tenemos el teorema fundamental del a´lgebra, pero s´ı podemos ver consecuencias suyas: C) Todo polinomio con coeficientes complejos puede factorizarse en binomios de primer grado con coeficientes complejos. En efecto, dado un polinomio Pn (x), con coeficientes complejos, al tener la ecuaci´on Pn (x) = 0 siempre soluci´on en los n´ umeros complejos por el teorema fundamental del a´lgebra, existe z1 , tal 19

que Pn (x) = (x − z1 )Qn−1 (x), donde el grado del cociente Qn−1 (x) es n − 1. Este nuevo polinomio cociente puede factorizarse igualmente por el teorema fundamental del ´algebra, obteni´endose Pn (x) = (x − z1 )(x − z2 )Qn−2 (x). El grado del polinomio cociente puede seguir siendo rebajado hasta 1, en cuyo momento, habremos factorizado el polinomio dado en n binomios de primer grado, algunos de los cuales se pueden repetir. Observando que los binomios de primer grado que factorizan un polinomio se pueden repetir y llamando multiplicidad de cada raiz zi al exponente de x − zi en la factorizaci´on de Pn (x), ahora vemos que la suma de las multiplicidades de las soluciones reales y complejas de una ecuaci´on de grado n con coeficientes complejos es igual al grado de la ecuaci´on. Tambi´en se define la multiplicidad de una raiz zi de un polinomio Pn (x) como el n´ umero ni tal ni que Pn (x) = (x − zi ) Qi (x) donde Qi (zi ) 6= 0. D) Si la ecuaci´on es de grado impar con coeficientes reales, alguna de sus soluciones ha de ser real. Veamos primero que las raices complejas no reales de un polinomio con coeficientes reales, aparecen con la misma multiplicidad que sus conjugadas: Si Pn (x) = 0 es una ecuaci´on con coeficientes reales y z1 y z 1 son dos soluciones conjugadas, siendo z1 = a + ib; al ser Pn (x) = (x − z1 )Qn−1 (x) se tiene: 0 = Pn (z1 ) = (z1 − z1 )Qn−1 (z1 ) = −2biQn−1 (z1 ) donde b 6= 0, por lo que Qn−1 (z1 ) = 0, siendo Qn−1 (x) divisible por x − z1 ; entonces, Pn (x) = (x − z1 )(x − z1 )Qn−2 (x) = (x − (a + bi))(x − (a − bi))Qn−2 (x) = [(x − a)2 + b2 ]Qn−2 (x) El polinomio Qn−2 (x) debe tener todos sus coeficientes reales, porque Pn (x) y (x − a)2 + b2 los tienen reales, por ello, si Qn−2 (x) tiene una raiz compleja no real tambi´en tiene a su conjugada. Lo mismo ocurrre con los sucesivos cocientes de Qn−2k (x)por (x − z1 )(x − z 1 ), de ser divisibles por x − z1 , por ello la raiz z 1 aparece tantas veces como la raiz z1 . Entonces, si todas las raices del polinomio, de grado impar, fueran complejas no reales, la suma de sus multiplicidades ser´ıa par, no coincidiendo con su grado, por tanto, tiene que haber al menos una soluci´on real. E) Si un polinomio de grado n se anula para m´as de n valores distintos de la variable x, el polinomio es el polinomio nulo, (todos los ai son nulos). (De donde si el polinomio no es nulo y es de grado n, no se puede anular para m´as de n valores de la variable).

20

En efecto, cogiendo n valores distintos {xi }i∈{1...n} que anulen al polinomio, por ser Pn (x1 ) = 0, Pn (x) es divisible por x − x1 , es decir, Pn (x) = Qn−1 (x)(x − x1 ). Si x2 6= x1 anula al polinomio, Pn (x2 ) = 0 implica que Qn−1 (x2 )(x2 − x1 ) = 0, lo cual a su vez implica que Qn−1 (x2 ) = 0, por lo que Qn−1 (x) = Qn−2 (x)(x − x2 ), y Pn (x) = Qn−2 (x)(x − x2 )(x − x1 ). Repitiendo el mismo procedimiento con n raices distintas, llegamos a que podemos expresar: Pn (x) = Q0 (x − xn )(x − xn−1 ) · · · (x − x2 )(x − x1 ) donde Q0 es un n´ umero, que debe ser igual a an . Cogiendo un valor m´as: (xn+1 ), que anule al polinomio, suponiendo que existe, tenemos: 0 = Pn (xn+1 ) = an (xn+1 − xn )(xn+1 − xn−1 ) · · · (xn+1 − x1 ) donde por estar en un cuerpo y ser todos los par´entesis distintos de cero, ha de ser an = 0. Por la misma raz´on, an−1 = 0 y as´ı sucesivamente hasta el a0 . (Un polinomio igual a una constante se anula para alg´ un valor de x s´olo si esta constante es cero). F) Con un razonamiento an´alogo se puede demostrar que encontradas k raices de un polinomio, cuya suma de multiplicidades es igual al grado del polinomio, no puede haber otra raiz m´as. En efecto, una vez escrito: Pn (x) = (x − z1 )n1 (x − z2 )n2 · · · (x − zk )nk an donde Σni = n, y an 6= 0 si hubiera otra soluci´on m´as: zn+1 , se tendr´ıa: 0 = Pn (zn+1 ) = (zn+1 − z1 )n1 (zn+1 − z2 )n2 · · · (zn+1 − zk )nk an Por ser los n´ umeros complejos un cuerpo, el producto de una serie de factores es cero si y s´olo si alguno de los factores es cero, por lo que zn+1 debe coincidir con alguno de los zi anteriores.

21

Forma trigonom´ etrica y forma polar de un n´ umero complejo. La forma bin´omica de los n´ umeros complejos es adecuada para la suma, pero para la multiplicaci´on hay otra forma m´as adecuada que es la forma polar. Adem´as, para expresar de formas an´alogas entre s´ı las soluciones de la ecuaci´on xn − 1 = 0 ≡ xn = 1 vamos a utilizar la forma trigonom´etrica y la forma polar de un n´ umero complejo. Ya hemos dicho que los n´ umeros complejos se pueden poner en correspondencia con los puntos del plano. Para ello, trazamos en el plano dos rectas perpendiculares, una horizontal y la otra vertical, llamamos O (origen) al punto intersecci´on de las dos rectas e introducimos una unidad de medida. Entonces al n´ umero complejo a + ib puede asociarse el punto P que est´a a distancia ”a” unidades de medida del eje vertical y ”b” unidades de medida del eje horizontal. Al mismo tiempo podemos dibujar un vector con origen O y extremo P. Por el teorema de Pit´agoras la longitud de este vector coincide con el m´odulo del n´ umero complejo. El vector est´a perfectamente determinado tambi´en por su longitud y por el ´angulo que hace con la direcci´on positiva de uno de los ejes; vamos a escoger el eje horizontal y al a´ngulo que forma el vector con este eje le llamamos argumento del m´odulo complejo. Hemos llegado a otra determinaci´on de un n´ umero complejo por su m´odulo y su argumento que da lugar a la forma trigonom´etrica y a la forma polar.

a+ib 7  

r $  φ

b 

a

La forma polar del n´ umero complejo a + ib es el s´ımbolo reiφ donde r es el m´odulo y φ es el argumento del n´ umero complejo. (El m´odulo r es siempre positivo). Es de observar que cuando r = 0, cualquiera que sea φ, el n´ umero es el cero. Y que reiφ = rei(φ+2π) , es decir, todos los n´ umeros complejos con el mismo r y argumentos diferenci´andose en un m´ ultiplo de 2π coinciden. 22

Dado que a = rcosφ y b = rsenφ, el n´ umero complejo es tambi´en a + ib = r(cosφ + isenφ), siendo ´esta la forma trigonom´etrica del n´ umero complejo. Se ve que tanφ = b/a. La forma trigonom´etrica y la forma polar dan la relaci´on eiφ = (cosφ + isenφ). Otros ejercicios para la familiarizaci´on con estas formas son: 1.5.1. De los n´ umeros complejos enunciados a continuaci´on calcular su m´odulo y su argumento y escribirlos en forma trigonom´etrica y en forma polar. √ √ 3 3 1 1 1 + i, 1 − i, −1 − i, +i , +i 2 2 2 2 1.5.2. Comprobar que cualquier n´ umero complejo tiene el mismo m´odulo que su conjugado y que su opuesto. ¿C´ ual es la relaci´on entre los argumentos de un n´ umero complejo, su conjugado y su opuesto? 1.5.3. Suponiendo conocidos el m´odulo y el argumento de un n´ umero complejo, hallar el m´odulo y el argumento de su inverso.

Las formas trigonom´etrica y polar nos pasan de la naturaleza puramente algebraica de los n´ umeros complejos a su representaci´on geom´etrica, lo cual va a revertir en el descubrimiento de m´as propiedades de dichos n´ umeros. Por ejemplo, la expresi´on de la multiplicaci´on de n´ umeros complejos se simplifica: iφ1 iφ2 Sean z1 = r1 e = r1 (cosφ1 + isenφ1 ) y z2 = r2 e = r2 (cosφ2 + isenφ2 ) y multipliqu´emoslos seg´ un la regla que tenemos para multiplicarlos en forma bin´omica: r1 eiφ1 r2 eiφ2 = z1 z2 = r1 (cosφ1 + isenφ1 ) · r2 (cosφ2 + isenφ2 ) = (r1 cosφ1 r2 cosφ2 − r1 senφ1 r2 senφ2 ) + i(r1 cosφ1 r2 senφ2 + r1 senφ1 r2 cosφ2 ) = r1 r2 (cosφ1 cosφ2 − senφ1 senφ2 ) + ir1 r2 (cosφ1 senφ2 + senφ1 cosφ2 ) = = r1 r2 (cos(φ1 + φ2 ) + isen(φ1 + φ2 ) = r1 r2 ei(φ1 +φ2 ) Donde vemos que la multiplicaci´on de n´ umeros complejos dados en forma polar o trigonom´etrica se hace multiplicando sus m´odulos y sumando sus argumentos. Debido a ello, la asociatividad del producto se demuestra mucho m´as f´acilmente utilizando la forma polar. Otros ejercicios son: 1.6.1. Demostrar utilizando la forma bin´omica y la forma polar de los n´ umeros complejos que: a) El producto de un n´ umero por su conjugado es un n´ umero real. 23

b) El cociente de un n´ umero por su conjugado es de m´odulo 1. Observar que la demostraci´on usando la forma polar es m´as corta. c) Comprobar los resultados anteriores en los c´alculos siguientes: (1 + 2i)(1 − 2i),

3 + 4i , 3 − 4i

d) Utilizar los resultados anteriores para calcular: √ √ √ √ 2 2 2 2 ( +i )( −i ), 2 2 2 2



2 2 √ 2 2



2 2 √ i 22

+i −

1.6.2. Probar la asociatividad de la multiplicaci´on de n´ umeros complejos usando su expresi´on en forma polar y comparar la simplicidad del c´alculo respecto del que hay que hacer para demostrarla en forma bin´omica.

24

La potenciaci´on sale tambi´en beneficiada de esta forma simple de multiplicar en forma polar. Seg´ un lo visto: z n = (reiφ )n = rn einφ = rn (cos(nφ) + isen(nφ)) de donde se obtiene la f´ormula de Moivre: cos(nφ) + isen(nφ) = (cosφ + isenφ)n en la que desarrollando el ssegundo miembro por el binomio de Newton y separando partes reales e imaginarias tenemos expresiones para cos(nφ) y sen(nφ) en funci´on de cosφ y senφ.

Otra repercusi´on geom´etrica de la forma polar de un n´ umero complejo se pone de manifiesto si observamos lo que ocurre al multiplicar n´ umero de m´odulo 1 por otro n´ umero complejo dado: eiφ · reiα = rei(φ+α) Vemos que el resultado es un n´ umero complejo del mismo m´odulo resultante de girar el n´ umero complejo dado un a´ngulo φ. Por tanto, la operaci´on geom´etrica giro se expresa algebraicamente como una multiplicaci´on.

i(2+i) AK A A A A A A

AA  A  A A

25

*2+i     

Radicaci´ on. La extracci´ on de raices tambi´en se hace mucho m´as f´acilmente cuando los n´ umeros vienen dados en forma polar. Extraer las raices n-´esimas de un n´ umero complejo z es hallar los n´ umeros x tales que xn = z, es decir, resolver la ecuaci´on xn − z = 0. Si z es real, esta ecuaci´on, por ser de coeficientes reales, tiene las raices complejas por parejas conjugadas, es decir, las raices complejas de un n´ umero real aparecen por parejas conjugadas. Las soluciones de la ecuaci´on xn − z = 0 (si z 6= 0) tienen multiplicidad 1: vamos a ver que no pueden tener multilicidad mayor o igual que 2: Si una soluci´on z1 la tuviera, se podr´ıa escribir xn − z = (x − z1 )2 Qn−2 (x), entonces, derivando en los dos miembros tendr´ıamos nxn−1 = 2(x − z1 )Qn−2 (x) + (x − z1 )2 Q0n−2 (x), que al sustituir x por z1 , da nz1n−1 = 0, imposible si z1n 6= 0. Al ser cada raiz de multiplicidad 1, debe haber n raices distintas. Veamos c´omo se obtienen: Dado z = |z|eiα , un n´ umero complejo x es raiz n-´esima de z si xn = z, es decir, escribiendo iφ x = re en forma polar, si rn einφ = |z|eiα , pero tambi´en si rn einφ = |z|ei(α+2π) o´ rn einφ = |z|ei(α+k2π) , cualquiera que sea k, para lo cu´al es suficiente que rn = |z| y nφ = α + k2π, cualquiera que sea k. La condici´on rn = |z| siempre tiene soluci´on porque |z| es positivo pero puede tener dos soluciones reales para r si n es par, de las cuales s´olo cogemos la positiva porque el m´odulo es siempre positivo. Pero lo m´as importante es que debido a la no unicidad de la expresi´on polar de un n´ umero complejo, cuando k var´ıa, tenemos distintas posibilidades para φ de la condici´on nφ = α + k2π. Lo que nos da para φ las soluciones:  α   φ0 = αn 2π   φ1 = n + n    φ2 = αn + 2 2π n φ3 = αn + 3 2π  n    ··· ···    φn−1 = αn + (n − 1) 2π n φn =

α 2π α +n ≡ n n n

p Para el valor de r = + n |z| hay n posibles argumentos, (ya que φn es equivalente a φ0 ), por lo que hay n raices complejas de cada n´ umero complejo dado.

26

Las raices n-´esimas del n´ umero complejo 1 tienen m´odulo 1 y argumentos k2π/n, donde k var´ıa de cero a n − 1. El conjunto de estos n n´ umeros con la operaci´on multiplicaci´on es un ejemplo de grupo multiplicativo finito. Sus puntos correspondientes determinan un pol´ıgono regular de n lados con un v´ertice en el punto (1,0). Cada raiz determina tambi´en un giro del plano de ´angulo k2π/n Estos giros del plano dejan invariante cualquier pol´ıgono regular de n lados con centro en el origen. Dos de estos giros se pueden realizar sucesivamente, lo cual da un giro que se llama composici´on de los dos giros. La operaci´on composici´on de giros corresponde a la multiplicaci´on de los n´ umeros complejos que los representan. Por ello, el conjunto de los giros que dejan invariante un pol´ıgono regular con centro en el origen es un grupo multiplicativo finito. Se proponen los siguientes Ejercicios: donde se pide hacer los c´alculos en forma polar. 1.7.1. Calcular en forma polar y en forma bin´omica los siguientes n´ umeros complejos: √

−4,



i,

√ −i, .

Comprobar que los resultados son los mismos. 1.7.2. Calcular en forma bin´omica y en forma trigonom´etrica los siguientes n´ umeros complejos: √ √ 1 + i, −2 + 2i Comparando las expresiones determinar el valor de cos(π/8) y cos(3π/8). Comprobar que cos2 (π/8)+ cos2 (3π/8) = 1. ¿Por qu´e? 1.7.3. Expresar las siguientes raices en forma bin´omica utilizando la forma trigonom´etrica correspondiente y el ejercicio anterior. √ √ √ √ 4 4 −16, 3 −8, 3 −27i, 16i. 1.7.4. Hallar las raices cuartas de −i y representarlas gr´aficamente. 1.7.5. Hallar las raices quintas de la unidad. Se˜ nalar cu´ales son las raices que son conjugadas entre s´ı. 1.7.6. Hallar las siguientes raices: s√ s √ 3 1 6 1 3 3 +i , +i 2 2 2 2 ¿C´omo est´an relacionadas entre s´ı? 1.7.7. Resolver en el cuerpo de los n´ umeros complejos las ecuaciones: x6 + 1 = 0, 27

x6 + 2x3 + 1 = 0, x6 + x3 + 1 = 0, x6 + 2x4 + 2x2 + 1 = 0, 3x7 + x6 + 6x4 + 2x3 + 6x + 2 = 0. 2x7 − x6 + 4x4 + 2x3 + 2x − 1 = 0 2x7 + x6 + 4x4 + 2x3 + 2x + 1 = 0 4x8 − x6 − 8x5 + 2x3 + 4x2 − 1 = 0 2x5 + x4 − 2x3 − x2 + 2x + 1 = 0 Comprobar que la suma de las multiplicidades de las soluciones complejas (entre ellas las reales) de cada ecuaci´on es igual a su grado. 1.7.8. Habiendo comprobado que (xn−1 + xn−2 + xn−3 + · · · + x + 1)(x − 1) = xn − 1, demostrar que a) La ecuaci´on x4 + x3 + x2 + x + 1 = 0 no tiene ninguna soluci´on real. b) La ecuaci´on xn + xn−1 + xn−2 + · · · + x + 1 = 0 no tiene ninguna soluci´on real si n es par y tiene exactamente una soluci´on real si n es impar. ¿Cu´al es la soluci´on real si n es impar? c) Las raices (n + 1) − e´simas de la unidad que no coinciden con 1, son soluciones de la ecuaci´on xn + xn−1 + xn−2 + · · · + x + 1 = 0. 1.7.9. Resolver en el cuerpo de los n´ umeros complejos las ecuaciones: x6 + x5 − x − 1 = 0, x7 + x6 − x − 1 = 0, 2x5 + x4 + x3 + x2 + x − 1 = 0, 6x6 + 5x5 + 4x4 + 4x3 + 4x2 − 2x − 1 = 0. Comprobar que la suma de las multiplicidades de las soluciones complejas (entre ellas las reales) de cada ecuaci´on es igual a su grado. 1.7.10. Deducir de la f´omula de Moivre a) Las f´ormulas del coseno del ´angulo triple y del seno del ´angulo triple. b) Las f´ormulas an´alogas para el a´ngulo qu´ıntuple. 1.7.11. Hallar cos(π/12) calculando la raiz de eiπ/6 utilizando las formas bin´omica, trigonom´etrica y polar de los n´ umeros complejos y comparando los resultados.

28

1.7.12. Comprobar que las raices de orden n de la unidad y por ello los giros que dejan invariante un pol´ıgono regular de n lados con centro en el origen y un v´ertice en 1, son un grupo multiplicativo conmutativo. Otros ejemplos y problemas se pueden encontrar en el cap´ıtulo 1 del libro [A], en el cap´ıtulo 4 de [B], en el ap´endice A2 de [G] en el cap´ıtulo 20 de [S] y en el cap´ıtulo 4 del libro [H] de la bibliograf´ıa. Soluciones de 1.2.1: a) 1/2,1/3, b) 1/2,1/3,5/2, c) 1/2,1/3,1/4, d) 2/3,3/2. e) 1/2,1/3,−1(doble). √ 1/2,√ Soluciones de las cinco u ´ltimas ecuaciones de 1.3.1: −1/2, 1/3, i 2, −i 2; −1/3, 1/4, i, −i; 1/2, 4/3, i, −i; 3/2, −5/2, i, −i; −3/2, −5/2, 2i, −2i.

29

Bibliograf´ıa.

[A1]. Algebra Lineal y aplicaciones. Jorge Arves´ u Carballo, Renato Alvarez Nodarse, Francisco Marcell´an Espa˜ nol. Ed. S´ıntesis 1999. [A2] La Matem´atica: su contenido, m´etodos y significado. A. D. Alexandrov, A. N. Kolmogorov, M. A. Laurentief y otros. Ed. Alianza Universidad. 1981. [B] N´ umeros y Convergencia. B. Rubio. Ed. B. Rubio. 2006. [D]. El Universo de las Matem´aticas. Willian Dunham. Ed. Pir´amide. 1994. [G1] Matem´aticas 1 Bachillerato. Carlos Gonzalez Garc´ıa. Jes´ us Llorente Medrano. Maria Jos´e Ruiz Jim´enez. Ed. Editex. 2008. [G]. Algebra Lineal con aplicaciones. Stanley I. Grossman. Ed. McGraw-Hill. 1992. [H]. Algebra y Geometr´ıa. E. Hern´andez. Ed. Addison-Wesley-U.A.M. 1994. [S]. Algebra Superior. M. R. Spiegel. Ed. Mc Graw Hill 2000.

30

MATRICES. SUS OPERACIONES. Introducci´ on. Definici´ on: Una matriz es una disposici´on rectangular y entre par´entesis de n´ umeros; Es por tanto, una tabla de n´ umeros entre par´entesis y tiene un determinado n´ umero de filas, que llamamos m y un determinado n´ umero de columnas que llamamos n. Entonces se dice que la matriz es m × n. Puede ser de n´ umeros positivos, de n´ umeros enteros, de n´ umeros racionales, de n´ umeros reales o de n´ umeros complejos. Las tablas aparecen bastante en la vida cotidiana. P. ej. la tabla de valores de compra y venta de distintas monedas con una fija (sea ´esta el euro), es una tabla de tantas filas como monedas consignemos y de dos columnas. Otro ejemplo es la tabla de porcentaje de composici´on de unos alimentos determinados seg´ un los hidratos de carbono, grasas y prote´ınas; ´esta es una tabla de tantas filas como alimentos hayamos listado y tres columnas. Las presiones y temperaturas de un conjunto de n gases forman una tabla de dos filas y n columnas. Las tablas se transforman en matrices cuando sus datos son utilizados para c´ alculos. Una matriz de una fila y una columna es un n´ umero entre par´entesis. La derivada de una funci´ on real de variable real es un n´ umero, y se generaliza a la derivada de una funci´ on real de varias variables por una matriz de una fila y varias columnas, cada una de las cuales es una derivada parcial. De especial inter´es en f´ısica son las derivadas de una funci´on real de tres variables, que se llaman gradientes y son tres n´ umeros entre par´entesis.

Un punto de R3 se representa por tres coordenadas entre par´entesis, lo cual es una matriz 1 × 3. Algunas veces, para comodidad de c´alculo, un vector de R3 se representa por los n´ umeros en columna; entonces es una matriz 3 × 1. En ´algebra lineal aparecen las matrices m×n al expresar de forma global los sistemas de ecuaciones lineales de m ecuaciones con n inc´ognitas. Para ello se define el producto de matrices. Tambi´en se utilizan para expresar las aplicaciones llamadas lineales y los productos escalares. Y para relacionar distintos sistemas de coordenadas en el mismo espacio vectorial. Ciertas operaciones del conjunto de n´ umeros que aparecen en la matriz se trasfieren a operaciones con las matrices pero no siempre con las mismas propiedades que las operaciones de los n´ umeros de los que est´an formadas. Nuestro objetivo en este cap´ıtulo es definir y estudiar dichas operaciones.

31

Operaciones en las matrices. Si representamos por K un conjunto de n´ umeros, se representa por Mm×n (K) el conjunto de las matrices de m filas y n columnas que tienen n´ umeros de ese conjunto. Cada sitio de la matriz se llama entrada. Introducimos la notaci´on general de una matriz: se escribe A = (aij )i∈{1,2,...m},j∈{1,2,...n} donde aij es el n´ umero que ocupa el lugar de la fila i y la columna j. Cuando est´an claras en el contexto, las variaciones de i y de j, no se especifican por sencillez de escritura. Si K tiene un producto, cualquier matriz puede multiplicarse por un n´ umero del conjunto del que est´a formada. Si A = (aij ) ∈ Mm×n (K) y s ∈ K, se define s · A = (saij ). Este producto verifica: Si K tiene unidad (1): 1 · A = A Es distributivo si el producto de K es distributivo respecto a una suma: (s + t) · A = s · A + t · A Hay asociatividad mixta si K es asociativo: (st) · A = s · (t · A) Si en el conjunto K hay una suma, tambi´en ciertas matrices se pueden sumar, pero para eso tienen que tener el mismo n´ umero de filas y de columnas. La suma no es una operaci´ on en el conjunto de todas las matrices sino en Mm×n (K) cuando se han fijado m y n. Entonces, se define: si A = (aij )i∈{1...m}j∈{1...n} ∈ Mm×n (K) y B = (bij )i∈{1...m}j∈{1...n} ∈ Mm×n (K), A + B = (aij + bij )i∈{1...m}j∈{1...n} ∈ Mm×n (K), Se propone comprobar como ejercicios que 2.1.1. La suma es asociativa si la suma en K lo es. 2.1.2. La matriz cero (que tiene cero en todos los sitios), es elemento neutro para la suma si cero es el elemento neutro de K respecto a su suma. 2.1.3. Si cada elemento de K tiene elemento opuesto respecto a la suma, cada matriz tiene elemento opuesto. Recordando la definici´on de grupo, los ejercicios 2.1.1., 2.1.2., y 2.1.3. se expresan conjuntamente afirmando que si K es un grupo aditivo, Mm×n (K) lo es. Se puede comprobar tambi´en como ejercicio que si K es un grupo aditivo conmutativo, Mm×n (K) tambi´en lo es. Adem´as la suma es distributiva respecto al producto por los elementos de K si lo es en K. Compru´ebese como ejercicio que s · (A + B) = s · A + s · B. Estas operaciones con todas las propiedades enumeradas se dan p. ej. en M1×3 (R) que coincide con el espacio de los vectores y por analog´ıa, la estructura de Mm×n (K) con estas dos operaciones con las propiedades enumeradas se llama espacio vectorial.

32

Para pasar a otra operaci´on entre matrices llamada producto, observemos que una matriz fila 1 × n y una matriz columna n × 1 se pueden multiplicar n´ umero a n´ umero: (a1j )j∈{1...n} · (bi1 )i∈{1...n} =

n X

a1k · bk1

k=1

dando otro n´ umero. Esto es lo que se hace para calcular el producto escalar de dos vectores de R3 : se coloca uno de los vectores en fila y el otro en columna y se multiplican n´ umero a n´ umero. Es tambi´en lo que se hace para calcular lo que tenemos que pagar en una compra multiplicando la matriz fila de los precios de los art´ıculos que hemos comprado por la matriz columna de las cantidades que hemos comprado de cada uno de ellos.

Observemos tambi´en que una matriz A ∈ Mm×n (K) puede escribirse como superposici´on de filas:   F1  F2    A =  ..   .  Fm o como yuxtaposici´on de columnas: B = (C1 , C2 , · · · , Cn ) Si las filas de A tienen el mismo n´ umero de elementos que las columnas de B, A y B se pueden multiplicar multiplicando las filas de A por las columnas de B, siendo (AB)ij = Fi · Cj =

n X

aik bkj que escribiremos

k=1

n X

Aik Bkj

k=1

Este producto es una operaci´on que va de Mm×n (K)× Mn×u (K) en Mm×u (K). Para que sea operaci´on en Mm×n (K), ha de ser m = n. Podemos decir, por tanto, que las matrices cuadradas tienen otra operaci´on, el producto, con las siguientes propiedades: a) El producto es asociativo si el producto en K lo es: A(BC) = (AB)C. En efecto, vamos a ver que el n´ umero de la entrada (i,j) de A(BC) es el mismo que el n´ umero de la entrada (i,j) de (AB)C: Suponiendo que A ∈ Mm×n (K), B ∈ Mn×u (K), C ∈ Mu×s (K).

33

(A(BC))i,j =

n X

Aik (BC)kj =

k=1

((AB)C)i,j =

u X l=1

n X

u n X u X X Aik ( Bkl Clj ) = Aik (Bkl Clj )

k=1

(AB)il Clj =

u X

l=1 n X

(

Aik Bkl )Clj =

l=1 k=1

k=1 l=1 u X n X

(Aik Bkl )Clj

l=1 k=1

Comparando las dos expresiones finales se puede ver que contienen los mismos sumandos debido a la propiedad asociativa del producto en K. La diferencia est´a solamente en la forma de agruparlos: En el primer sumatorio agrupamos primero los del mismo k, sumamos los Aik (Bkl Clj ), para todos los valores posibles de ‘l0 y luego volvemos a sumar estas sumas para todos los valores posibles de ‘k 0 En el segundo sumatorio agrupamos primero los del mismo l, sumamos los (Aik Bkl )Clj , para todos los valores posibles de ‘k 0 y luego volvemos a sumar estas sumas para todos los valores posibles de ‘l0 ; Pero la forma de agruparlos para la suma no importa debido a su propiedad conmutativa. Representaremos las matrices cuadradas n × n con elementos de K por Mn (K). Se indica como ejercicios la demostraci´on de 2.2.1. b) El producto es distributivo respecto a la suma de matrices si el producto de K lo es respecto a la suma. Como todav´ıa no hemos comprobado que el producto sea conmutativo y de hecho no lo es, la distributividad tiene dos facetas, a la derecha y a la izquierda: A(B + C) = AB + AC,

(A + B)C = AC + BC

2.2.2. c) El producto es asociativo respecto al producto por los elementos de K si el producto en K lo es. s(AB) = (sA)B,

(AB)s = A(Bs)

Pero existen matrices distintas de cero que no tienen inverso respecto a la multiplicaci´on. Para ello v´ease como ejercicio: 2.2.3. Dada la matriz   1 0 A= 1 0 Comprobar que no existe una matriz B tal que AB = I = BA.

34

El conjunto de las matrices cuadradas de orden n con elementos de un cuerpo es un grupo aditivo conmutativo respecto a su suma. Respecto al producto no constituyen un grupo multiplicativo ni a´ un prescindiendo de la matriz cero, porque existen matrices no nulas que no poseen inversa seg´ un el ejercicio 2.2.3; por esto no son un cuerpo; la estructura de grupo aditivo con un producto asociativo y distributivo se denomina anillo. Adem´as, el elemento unidad del cuerpo permite construir el elemento unidad del conjunto de las matrices cuadradas de orden n respecto a la multiplicaci´on que es la matriz que tiene 1 en todos los elementos de la diagonal y ceros en el resto. Por eso, se dice que Mn (K) es un anillo unitario. Nos podemos dar cuenta de que el producto en general no es conmutativo viendo que una matriz fila y una matriz columna del mismo n´ umero de elementos son multiplicables en los dos sentidos distintos pero en un sentido el producto es un n´ umero y en otro sentido el producto es una matriz cuadrada de orden igual al n´ umero de elementos de las matrices dadas. Se puede comprobar como ejercicios la no conmutatividad de matrices cuadradas y otras propiedades peculiares: 2.2.4. Siendo A y B las matrices dadas a continuaci´on calcular los productos AB y BA cuando sea posible y comparar los resultados.         1 1 3 4 2 3 1 3 a) A = B= b) A = B= −1 1 5 6 0 1 0 0         2 4 0 5 50 1 2 2 3 4 d) A = c) A =  5 0 3  B =  1 60  B= 1 0  4 3 2 0 1 0 1 86 4 4 ¿Ser´a cierta para las matrices cuadradas la relaci´on (A + B)2 = A2 + 2AB + B 2 ? 2.2.5. Comprobar que el producto de dos matrices puede ser nulo sin que lo sean ninguno de los factores, hallando los productos AB siendo A y B las matrices dadas a continuaci´on:         1 1 1 3 6 −2 a) A = B= b) A = B= 1 1 −1 1 2 1        −6 1 0 0 0 c) A = 5 6 B= d) A = B= 5 1 0 1 1 ¿Es cierto que AB = 0 ⇒ BA = 0? Comprobarlo.

35

2.2.6. Hallar la forma general de las matrices 3 × 3 de n´ umeros reales o complejos que conmutan con   1 1 0  0 1 1 . 0 0 1 2.2.7. Hallar matrices 2 × 2 de n´ umeros reales, tales que su cuadrado es −I. 2.2.8. Hallar matrices A ∈ M2×2 de n´ umeros reales, tales que A 6= I y A2 = A. 2.2.9. Siendo 

     1 1 2 −4 F 1 A =  0 1  = (C1 , C2 ), B = = 4 5 F2 1 1 Comprobar que AB = C1 F1 + C2 F2 Generalizar este resultado para matrices de dimensiones multiplicables. 2.2.10. ¿Qu´e transformaci´on tiene lugar en la matriz C dada a continuaci´on cuando la multiplicamos a la derecha o a la izquierda por la matriz D diagonal dada tambi´en a continuaci´on:     6 −2 0 2 0 0 0 1  D= 0 4 0  C= 2 1 1 0 0 0 6 ¿C´ uales son las matrices diagonales que conmutan con todas las dem´as? 2.2.11. Demostrar que si una matriz no es diagonal, no conmuta con todas las dem´as. Deducir de este ejercicio y del anterior la forma de las matrices que conmutan con todas las dem´as. 2.2.12. Multiplicando las dos matrices A y B dadas a    2 4 0 A= 5 0 3  B= 0 1 0

continuaci´on,  6 −2 0 2 0 1  1 1 0

Comprobar que: a) La primera fila del producto AB es la suma de las filas de B multiplicadas por los n´ umeros de la primera fila de A considerados como coeficientes. b) La primera columna de AB es la suma de las columnas de A multiplicados por los n´ umeros de la primera columna de B considerados como coeficientes. ¿Qu´e ocurre an´alogamente con las dem´as filas y las dem´as columnas del producto? 36

2.2.13. Se llaman matrices elementales las obtenidas de la matriz identidad, haciendo una de las siguientes transformaciones: a) Permutaci´on de filas. b) Suma a una fila de otra fila multiplicada por un n´ umero. c) Multiplicaci´on de una fila por un n´ umero distinto de cero. Escribir todas las matrices elementales de tama˜ no 3 × 3. Escoger una matriz cualquiera de n´ umeros y comprobar que al multiplicar esta matriz por otra elemental colocando a la izquierda la matriz elemental, se realiza en la matriz escogida, la transformaci´on que hab´ıa tenido lugar en la identidad para obtener la matriz elemental. Generalizar el resultado.

37

La trasposici´ on es otra aplicaci´on definida en el conjunto de las matrices con imagen en este mismo conjunto que hace corresponder a una matriz A = (aij )i∈{1,2,...m},j∈{1,2,...n} , la matriz representada por t A: t A = (bij )i∈{1,2,...n},j∈{1,2,...m} donde bij = aji . Lo que hacemos es modificar la disposici´on de los n´ umeros cambiando filas por columnas. La trasposici´on no es siempre una operaci´on en Mm×n (R), ya que asocia a elementos de Mm×n (R), elementos de Mn×m (R). Para que una aplicaci´on sea operaci´on en un conjunto, tiene que quedarse en ese conjunto, para lo cual ha de ser Mm×n (R) = Mn×m (R), es decir, m = n. La traspuesta de la matriz suma de otras dos matrices es la suma de las traspuestas de las matrices dadas. En cuanto a la relaci´on del producto con la trasposici´on tenemos la siguiente igualdad: t

(AB) = t Bt A

ya que (t (AB))ji = (AB)ij =

X k

Aik Bkj =

X

Bkj Aik =

k

X

(t B)jk (t A)ki = (t B · t A)ji

k

Tipos de matrices. Entre las matrices cuadradas de n´ umeros reales se definen Las matrices sim´etricas son las que coinciden con su traspuesta, para lo cual han de ser cuadradas (m=n): la matriz A = (aij ) es sim´etrica si y s´olo si aij = aji ∀i, j; tambi´en se escribe si y s´olo si A = t A. Las matrices antisim´etricas son las que coinciden con la opuesta de su traspuesta, para lo cual tambi´en han de ser cuadradas: la matriz A = (aij ) es antisim´etrica si y s´olo si aij = −aji , ∀i, j; tambi´en se escribe A = −t A. Compru´ebese como ejercicios que 2.3.1. Una matriz antisim´etrica tiene nulos todos los elementos de su diagonal principal. 2.3.2. Una matriz a la vez sim´etrica y antisim´etrica es una matriz nula (que tiene 0 en todos los sitios). 2.3.3. Comprobar que: a) Dada una matriz cuadrada A, la matriz 12 (A + t A) es una matriz sim´etrica. b) Dada una matriz cuadrada A, la matriz 12 (A − t A) es una matriz antisim´etrica. c) Toda matriz cuadrada se puede escribir como suma de una matriz sim´etrica y otra antisim´etrica. 38

Entre las matrices cuadradas de n´ umeros complejos se definen las matrices herm´ıticas como las matrices que verifican aij = aji , ∀i, j (A = t A) Y las matrices antiherm´ıticas como las matrices que verifican aij = −aji ∀i, j (A = −t A) Compru´ebese como ejercicios que 2.4.1. Una matriz herm´ıtica tiene todos los elementos de su diagonal principal reales. 2.4.2. En una matriz antiherm´ıtica son imaginarios puros todos los elementos de la diagonal principal. 2.4.3. Una matriz a la vez herm´ıtica y antiherm´ıtica es una matriz nula. 2.4.4. Toda matriz cuadrada compleja se puede escribir como suma de una matriz herm´ıtica y otra antiherm´ıtica.

2.4.5. Comprobar que el producto de realizando el producto AB en el caso a):  1  0 a) A = 1

matrices sim´etricas no siempre es una matriz sim´etrica    0 1 1 0 0 1 0 , B =  0 2 0  0 1 0 0 3

Sin embargo, s´ı es sim´etrico en el caso:     1 4 1 0 0 1 b) A =  4 3 4  , B =  0 1 0  1 4 1 1 0 0 Comprobar que en el caso a) BA = t (AB) y en el caso b) BA = AB. 2.4.6. Demostrar que dadas A y B, dos matrices sim´etricas, A y B conmutan si y s´olo si su producto es una matriz sim´etrica. Encontrar matrices sim´etricas que conmuten y matrices sim´etricas que no conmuten distintas de las del ejercicio anterior. 2.4.7. Si A es una matriz sim´etrica y B es una matriz antisim´etrica, A y B conmutan si y s´olo si su producto es una matriz antisim´etrica. 2.4.8. Demostrar que toda matriz sim´etrica 2 × 2 de n´ umeros reales o complejos que conmute con   1 1 0 1 es un m´ ultiplo de la identidad. 2.4.9. Demostrar que toda matriz sim´etrica 3 × 3 de n´ umeros reales o complejos que conmute con

39



 1 1 0  0 1 1  0 0 1 es un m´ ultiplo de la identidad.

40

Otros subconjuntos importantes de las matrices cuadradas son: Las matrices diagonales: Son aquellas en las que aij = 0 siempre que i 6= j. Son en ellas nulos todos los elementos situados fuera de la diagonal del cuadrado que va del ´angulo superior izquierdo al ´angulo inferior derecho (que se llama diagonal principal). De las matrices diagonales la m´as importante es la identidad que tiene 1 en todos los elementos de la diagonal. Tambi´en son importantes entre las matrices cuadradas las matrices triangulares superiores: Son en ellas nulos todos los elementos que se encuentran debajo de la diagonal principal. Por tanto, aquellas en las que aij = 0 siempre que i > j. An´alogas a ´estas son las matrices triangulares inferiores: Son en ellas nulos todos los elementos que se encuentran encima de la diagonal principal. Por tanto, aquellas en las que aij = 0 siempre que i < j. Obs´ervese que una matriz a la vez triangular superior y triangular inferior es una matriz diagonal. 2.5.1. Comprobar que la traspuesta de una matriz triangular superior es triangular inferior y rec´ıprocamente. 2.5.2. Demostrar que: a) El producto de matrices diagonales es diagonal. b) El producto de matrices triangulares superiores es triangular superior. c) El producto de matrices triangulares inferiores es triangular inferior.

Debido al ejercicio 2.4.5, las matrices sim´etricas de orden n no son un subanillo de las matrices cuadradas de orden n, (porque el producto de dos matrices sim´etricas puede no ser sim´etrica). Sin embargo, debido al ejercicio 2.5.2 las matrices diagonales de orden n forman un subanilo unitario del anillo unitario de las matrices cuadradas de orden n y lo mismo ocurre con las matrices triangulares superiores de orden n y con las matrices triangulares inferiores de orden n.

41

Las matrices que tienen distinto n´ umero de filas que de columnas se llaman matrices rectangulares. En ellas m 6= n. Pasando ahora a las matrices rectangulares m × n, otro subconjunto importante de ellas son las matrices escalonadas: Se llaman as´ı porque en ellas se puede trazar una escalera por debajo de la cual todos los elementos son nulos, siendo no nulos los elementos de sus esquinas y recorriendo esta escalera filas y columnas de manera que no baja m´as de una fila en cada escal´on; de manera m´as precisa, a la izquierda y debajo del primer n´ umero distinto de cero de cada fila, los n´ umeros son todos ceros. Matem´aticamente se puede expresar as´ı: (aij ) es escalonada si para cada fila i existe una columna ki tal que los n´ umeros de esa fila anteriores a la columna ki son nulos: aij = 0 si j < ki y los t´erminos de las filas posteriores situados en dichas ki columnas son tambi´en nulos: alj = 0 si l > i, j ≤ ki .











0

1

2

3

4

5

6

0

1

2

3

4

5

6

0

0

2

3

4

5

6

0

0

2

3

4

5

6

0

0

0

0

4

5

6

0

0

0

0

4

5

6

0

0

0

0

0

5

6

0

0

0

0

2

5

6

0

0

0

0

0

0

0

0

0

0

0

0

0

0

matriz escalonada





matriz no escalonada



Las matrices escalonadas m × n, donde m y n son fijos, no forman un grupo aditivo respecto a la suma de matrices. Se puede comprobar que toda matriz cuadrada y escalonada es triangular superior. Para ello obs´ervese c´omo es una matriz escalonada con n´ umero m´ınimo de ceros (v´ease la matriz a continuaci´on). Si tuviera m´as ceros seguir´ıa siendo triangular superior. 





1

2

3

4

5

6

0

2

3

4

5

6

0

0

7

4

5

6

0

0

0

9

5

6

0

0

0

0

1

8

0

0

0

0

0

8

matriz escalonada y triangular superior



42

Se puede ver tambi´en que en una matriz cuadrada escalonada la u ´ltima fila tiene un elemento distinto de cero, si y s´olo si el primer escal´on est´a en la primera columna y cada escal´on tiene longitud de una columna. Ya que en otro caso, al ir recorriendo los escalones, agotamos antes las columnas que las filas, quedando la u ´ltima fila completa debajo de la escalera. (V´ease la matriz a continuaci´on).







1

2

3

4

5

6

0

2

3

4

5

6

0

0

0

4

5

6

0

0

0

0

5

6

0

0

0

0

0

6

0

0

0

0

0

0



matriz escalonada con escal´on de dos columnas

43

(Ejercicios tomados del libro [L]), 1. Demostrar: a) Si Y es una matriz columna de n´ umeros reales y Y t es la matriz fila traspuesta de la matriz anterior, Yt·Y =0⇔Y =0 b) Dada una matriz A de n´ umeros reales y una matriz columna Z tambi´en de n´ umeros reales, multiplicable a la izquierda por A: t

A · AZ = 0 ⇔ AZ = 0

c) Si X es una matriz de n´ umeros reales multiplicable a la izquierda por otra matriz cuadrada A: t

A · AX = 0 ⇔ AX = 0 y

A · t AX = 0 ⇔ t AX = 0

d) A · t A · AX = 0 ⇔ t A · AX = 0 ⇔ AX = 0. e) (t A · A)k X = 0 ⇔ AX = 0 f) Usar los resultados anteriores cuando X=I, para probar que son equivalentes las relaciones siguientes: A = 0,

t

A · A = 0, A · t A · A = 0, (t A · A)k = 0 A(t A · A)k = 0

2. Una matriz sim´etrica y no nula de n´ umeros reales, no puede tener ninguna potencia nula. Ejemplos resueltos y problemas propuestos el el cap´ıtulo 2 de [A], en la secci´on 1.3. de [F], en el cap´ıtulo 2 de [V], en la secci´on 1.4 de [H]

44

Bibliograf´ıa. [A] Algebra Lineal y aplicaciones. J. Arves´ u Carballo, R. Alvarez Nodarse, F. Marcell´an Espa˜ nol. Ed. S´ıntesis Madrid. 1999. [F] J.B: Fraleigh R. A. Beauregard. Algebra Lineal. Addison-Wesley Iberoamericana 1989. [G] Matem´aticas 2 Bachillerato. Carlos Gonzalez Garc´ıa. Jes´ us Llorente Medrano. Maria Jos´e Ruiz Jim´enez. Ed. Editex. 2009. [L] E. M. Landesman, M. R. Hestenes. Linear Algebra for Mathematics, Science, and Engineering. Prentice-Hall International, Inc. 1992.

45

46

´ ´ DE GAUSS-JORDAN. METODO DE GAUSS Y REDUCCION Introducci´ on. Los sistemas de ecuaciones lineales aparecen frecuentemente en problemas elementales de otras ciencias y de la vida corriente. Como ejemplo se enuncian aqu´ı varios problemas de esos: 1. Averiguar si los planos de ecuaciones: π1 ≡ −y + z = 2, π2 ≡ 3x + 6y + z = −5, π3 ≡ 2x + 4y − 2z = −3 tienen un punto com´ un. Sol: pto com´ un: 1/8(21, −17, −1) 2. Determinar si en R3 las rectas siguientes se cortan:   2x +3y +z = 5 x +y =2 r1 ≡ r2 ≡ x −3y =4 y −z = −1 Sol: no se cortan. 3. Ajustar la reacci´on: xIO3 N a + ySO3 HN a → zSO4 N a2 + uSO4 HN a + vH2 0 + wI2 Sol: x = 2w, y = 5w, z = 2w, u = 3w, v = w.

5. En la red de tr´afico del dibujo de la p´agina siguiente, se conocen las cantidades de coches que circulan en dos entradas y en algunos tramos. Se desea conocer las cantidades de coches que circulan en todos los tramos. Se podr´ıa colocar un contador en cada tramo desconocido, entonces har´ıan falta nueve contadores, sin embargo, se puede demostrar que dos contadores son suficientes, porque los tr´aficos en los distintos tramos est´an relacionados. Demu´estrese.

47

x1

30

? 

30

? 

x2

x3

 @ @ @ @

? 



@

10@



20

5

@ @ @ R @

?





10

10  @ @

x4

@ @

x5

@

x6 @ @

?

? @



 ?

10 -



5

@  R @

 

? x7

? x8

 ? x9

4. Hallar las intensidades de las corrientes que circulan por los tramos horizontales del circuito el´ectrico siguiente, conocidas las resistencias: R1 = 8Ω, R2 = 6Ω, R3 = 12Ω, y las diferencias de potencial: V1 = 5v, V2 = 18v, sabiendo que se cumplen las leyes de Kirchoff y la ley de Ohm. Las leyes de Kirchoff son: 1. En cada nodo la suma de las intensidades de las corrientes que entran es igual a la suma de las corrientes que salen. 2. En cada lazo cerrado la diferencia de potencial total es igual a la suma de las diferencias de potencial correspondientes a cada tramo del circuito. La ley de Ohm dice que la diferencia de potencial correspondiente a un tramo con una resistencia R por el que corre una corriente de intensidad I es igual al producto RI. Sol: I1 = −3/36, I2 = 34/36, I3 = 37/36.

48

V1

@ R1 @

@

@

@ R2 @

@

@

@ R3 @

@

@

I2 -

V2

I1

I3

Resolver un sistema de ecuaciones lineales es hallar, cuando es posible, todos los valores de las inc´ognitas que satisfacen todas las ecuaciones del sistema. Supondremos que los coeficientes de las inc´ognitas en las ecuaciones son reales o complejos. La teor´ıa que vamos a desarrollar vale siempre que los coeficientes est´en en un cuerpo. Si no es posible encontrar esos valores, el sistema se llama incompatible. Si es posible encontrarlos, distinguimos el caso en que estos valores est´an determinados un´ıvocamente, llamando al sistema compatible determinado, del caso en que hay infinitos valores, llam´andolo entonces compatible indeterminado. En Bachillerato se han visto los m´etodos de eliminaci´on, reducci´on y sustituci´on para resolver sistemas de ecuaciones lineales. Cada sistema concreto puede resolverse o verse si es incompatible usando uno de estos m´etodos. El M´ etodo de Gauss es una combinaci´on sistem´atica de los m´etodos de eliminaci´on y sustituci´on v´alida para todos los sistemas. Habiendo garant´ıa de poder decidir si un sistema dado cualquiera es incompatible o compatible y resolverlo en este caso, por dicho m´etodo. Algunas veces s´olo interesa saber si el sistema es incompatible, compatible determinado o compatible indeterminado, sin llegar a resolver efectivamente el sistema. Veremos que esto tambi´en se puede hacer, estudiando la evoluci´on de los sistemas en la primera parte (eliminaci´on) del m´etodo de Gauss.

49

M´ etodo de Gauss. Si el sistema est´a formado por una s´ola ecuaci´on con una inc´ognita que es de la forma ax = b, sabemos que tiene soluci´on u ´nica si a tiene inverso (lo cual es equivalente, cuando a est´a en un cuerpo, a que a sea distinto de cero); tiene infinitas soluciones cuando a = b = 0; es incompatible cuando a = 0 y b 6= 0. Si el sistema es de una ecuaci´on con m´as de una inc´ognita, es de la forma a11 x1 + · · · + a1n xn = b1 ; ´este es indeterminado o incompatible, siendo ´este u ´ltimo el caso cuando todos los coeficientes de las inc´ognitas son nulos sin serlo el t´ermino independiente. La idea es, entonces, ir reduciendo la complejidad de un sistema con varias ecuaciones y varias inc´ognitas a la simplicidad de un sistema con una ecuaci´on. Lo cual se puede hacer pasando a primera ecuaci´on una que tenga coeficiente a11 de x1 distinto de cero, dividiendo por a11 dicha ecuaci´on (que se puede hacer porque a11 6= 0) y restando a las siguientes ecuaciones la primera multiplicada por el coeficiente de x1 en cada ecuaci´on. As´ı hemos eliminado la inc´ognita x1 en las ecuaciones posteriores a la primera y ´estas dan un sistema de una ecuaci´on menos con una inc´ognita menos. Repitiendo el procedimiento, llegamos hasta un sistema de una ecuaci´on, que sabemos resolver o ver si es incompatible. Veamos un ejemplo: resolvamos por el m´etodo de Gauss el siguiente sistema:  x1 +2x2 +x3 +2x4 = 16    2x1 −x2 −x3 −x4 = −7 −2x1 +x2 +2x3 −x4 = 2    2x2 +3x3 +x4 = 17 Empezamos eliminando la inc´ognita x1 de las ecuaciones segunda y tercera sumando a estas ecuaciones la primera multiplicada adecuadamente por los n´ umeros −2, 2. Podemos hacerlo porque el coeficiente de x1 en la primera ecuaci´on es distinto de cero. Entonces pasamos a  x1 +2x2 +x3 +2x4 = 16    −5x2 −3x3 −5x4 = −39 5x2 +4x3 +3x4 = 34    2x2 +3x3 +x4 = 17 As´ı encontramos dentro del sistema dado un subsistema de tres ecuaciones con tres inc´ognitas, formado por las tres u ´ltimas ecuaciones, m´as simple que el dado y que una vez resuelto nos dar´ıa la soluci´on del sistema dado considerando tambi´en la primera ecuaci´on. En este subsistema de tres ecuaciones podemos pasar a otro subsistema de dos ecuaciones con dos inc´ognitas, eliminando la inc´ognita x2 de las dos u ´ltimas ecuaciones sumando a ´estas la primera 50

multiplicada adecuadamente, ya que el coeficiente de x2 en la primera ecuaci´on del subsistema es distinto de cero. Pero como tendr´ıamos que multiplicar la primera ecuaci´on por −1/5 para conseguir que el coeficiente de x2 sea 1 y luego multiplicar adecuadamente para eliminar los coeficientes de dicha x2 en las restantes ecuaciones y de este modo surgir´ıan fracciones, vamos a utilizar otro camino que tambi´en consiste en multiplicar una ecuaci´on por un n´ umero y sumar otra ecuaci´on multiplicada por un n´ umero: vamos a multiplicar la primera ecuaci´on del subsistema por −1 y le vamos a sumar la u ´ltima multiplicada por −2, pasando a:  x2 −3x3 +3x4 = 5  5x2 +4x3 +3x4 = 34  2x2 +3x3 +x4 = 17 Hemos conseguido que el coeficiente de la inc´ognita x2 sea 1 en la primera ecuaci´on. Ahora multiplicando esta ecuaci´on por −5 y sumand´osela a la segunda ecuaci´on y luego multiplicando la primera ecuaci´on por −2 y sum´andosela a la tercera ecuaci´on tenemos:  x2 −3x3 +3x4 = 5  19x3 −12x4 = 9  9x3 −5x4 = 7 donde podemos percibir un subsistema de las dos u ´ltimas ecuaciones con las dos u ´ltimas inc´ognitas. De este subsistema, restando a la pen´ ultima ecuaci´on la u ´ltima multiplicada por 2, obtenemos:  x3 −2x4 = −5 9x3 −5x4 = 7 y as´ı eliminamos f´acilmente la inc´ognita x3 de la u ´ltima ecuaci´on pasando a  x3 −2x4 = −5 13x4 = 52 donde aparece al final una ecuaci´on con una inc´ognita. Resuelta esta ecuaci´on podemos ir resolviendo los subsistemas de dos y tres ecuaciones que se han ido hallando resolviendo progresivamente una ecuaci´on m´as y llegar a la soluci´on del sistema dado. En efecto, la u ´ltima ecuaci´on da x4 = 4, que sustituida en x3 − 2x4 = −5 da x3 = 3, lo cual sustituido en x2 − 3x3 + 3x4 = 5 da x2 = 2 y todo esto sustituido en x1 + 2x2 + x3 + 2x4 = 16 da x1 = 1, teniendo el sistema resuelto por el m´etodo de Gauss.

51

Si el sistema hubiera sido: 2x2 +3x3 +x4 −x2 −x3 −x4 +x2 +2x3 −x4 +2x2 +x3 +2x4

2x1 −2x1 x1

 = 17    = −7 = 2    = 16

donde el coeficiente de la primera ecuaci´on en la primera inc´ognita es cero, pasamos a un sistema donde este coeficiente es distinto de cero, intercambiando ecuaciones.

Veamos otros ejemplos donde se va viendo los subsistemas formados eliminando sucesivamente las inc´ognitas hasta llegar a una ecuaci´on. 2)  6x2 +12x3 = 18  8x1 + 6x2 =5  x1 − x2 +x3 = 0

x1

 −x2 +x3 = 0  14x2 −8x3 = 5  x2 +2x3 = 3

 x1 −x2 +x3 = 0  8x1 +6x2 =5  6x2 +12x3 = 18

x1

 −x2 +x3 = 0  x2 +2x3 = 3  14x2 −8x3 = 5

x1

x1 −x2 x2

 −x2 +x3 = 0  14x2 −8x3 = 5  6x2 +12x3 = 18

 +x3 = 0  +2x3 = 3  −36x3 = −37

Como la u ´ltima ecuaci´on es compatible, el sistema es compatible y como tambi´en es determinada, podemos despejar x3 en la u ´ltima ecuaci´on y sustituyendo en la segunda ecuaci´on despejar x2 , tambi´en determinada. Obtenemos x1 de la primera ecuaci´on al sustituir los valores de las otras inc´ognitas; el sistema resulta compatible determinado. Se obtiene x3 = 37/36, x2 = 17/18, x1 = −1/12. 3)  x1 +3x2 −x3 +x4 = 1  −2x1 +x2 +3x3 = 7  x2 −x4 = 0  x1 +3x2 −x3 +x4 = 1  x2 −x4 = 0  7x2 +x3 +2x4 = 9 52

 x1 +3x2 −x3 +x4 = 1  7x2 +x3 +2x4 = 9  x2 −x4 = 0  x1 +3x2 −x3 +x4 = 1  x2 −x4 = 0  x3 +9x4 = 9

Este sistema tambi´en es compatible por serlo la u ´ltima ecuaci´on. Pero como ´esta es indeterminada, el sistema es indeterminado. Despejamos x3 en funci´on de x4 en la u ´ltima ecuaci´on, x2 en funci´on de x4 en la pen´ ultima ecuaci´on y luego sustituimos x2 y x3 en la primera ecuaci´on y obtenemos: x3 = 9 − 9x4 , x2 = x4 , x1 = 10 − 13x4 , x4 puede ser cualquiera. Pero, aunque la u ´ltima ecuaci´on sea compatible determinada, el sitema puede ser incompatible indeterminado, como ocurre en los ejemplos 4) y 5) siguientes: 4)   x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  −2x1 +x2 +9x3 = 7 7x2 +7x3 +2x4 = 9   x2 +x3 −x4 = 0 x2 +x3 −x4 = 0   x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  x2 +x3 −x4 = 0 x2 +x3 −x4 = 0   7x2 +7x3 +2x4 = 9 9x4 = 9 Por ser la u ´ltima ecuaci´on compatible, el sistema es compatible. En este caso, x4 est´a determinado en la u ´ltima ecuaci´on, pero al sustituir el valor de x4 en las ecuaciones anteriores, la pen´ ultima ecuaci´on queda indeterminada por lo que el sistema es indeterminado. Despejando x2 en funci´on de x3 y sustituyendo en la primera ecuaci´on tenemos las soluciones: x4 = 1, x2 = 1 − x3 , x1 = −3 + 4x3 , x3 puede ser cualquiera. 5)   x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  −2x1 +x2 +2x3 = 7 7x2 +2x4 = 9   x2 −x4 = 0 x2 −x4 = 0   x1 +3x2 −x3 +x4 = 1  x1 +3x2 −x3 +x4 = 1  x2 −x4 = 0 x2 −x4 = 0   7x2 +2x4 = 9 9x4 = 9 De nuevo el sistema es compatible por serlo la u ´ltima ecuaci´on. Tanto ´esta, como la pen´ ultima ecuaci´on salen determinadas, pero al sustitir x4 y x2 en la primera ecuaci´on, obtenemos una ecuaci´on con dos inc´ognitas que es indeterminada (tiene infinitas soluciones) por lo que el sistema es compatible indeterminado. Sus soluciones son: x4 = 1, x2 = 1, x1 = x3 − 3, x3 puede ser cualquiera. Por u ´ltimo, veamos un sistema incompatible.

53

6)  x1 +3x2 −x3 +x4 = 1  −2x1 +x2 +2x3 −9x4 = 7  x2 −x4 = 0  x1 +3x2 −x3 +x4 = 1  x2 −x4 = 0  7x2 −7x4 = 9

 x1 +3x2 −x3 +x4 = 1  7x2 −7x4 = 9  x2 −x4 = 0  x1 +3x2 −x3 +x4 = 1  x2 −x4 = 0  0x2 +0x4 = 9

Aqu´ı la u ´ltima ecuaci´on es incompatible, esto es suficiente para que el sistema sea incompatible. Debido a que cuando encontramos una primera ecuaci´on de un subsistema con coeficiente cero en la primera inc´ognita la intercambiamos con otra que tiene coeficiente distinto de cero en esa inc´ognita, la incompatibilidad es relegada a la u ´ltima ecuaci´on. Se puede conseguir que el coeficiente de la primera inc´ognita sea 1 utilizando coeficientes de dicha inc´ognita en otras ecuaciones primos entre s´ı. Recapitulando, el m´etodo de Gauss es una combinaci´on ordenada de los m´etodos de eliminaci´on y sustituci´on y garantiza nuestra capacidad de decisi´on sobre el car´acter de un sistema porque consiste en la reali-zaci´on de sucesivas etapas con las ecuaciones del sistema de manera que se van formando subsistemas de una ecuaci´on menos y una inc´ognita menos (como m´ınimo) hasta llegar a un sistema de una s´ola ecuaci´on, cuyo car´acter hemos visto que sabemos decidir. (El car´acter sistem´atico del m´etodo de Gauss lo hace preferible a la hora de ejecutarlo por ordenador). Entonces, si la u ´ltima ecuaci´on es incompatible, el sistema es incompatible. Si la u ´ltima ecuaci´on es compatible, se ve f´acilmente si ´esta es determinada o indeterminada. Si es indeterminada, el sistema es indeterminado. Si es compatible determinada, despejando la inc´ognita en la u ´ltima ecuaci´on conseguida y sustituyendo regresivamente en las anteriores, obtenemos otro sistema equivalente con una inc´ognita menos y al menos una ecuaci´on menos, en el cual el car´acter de la u ´ltima ecuaci´on nos dir´ıa que el sistema es indeterminado si esta ecuaci´on fuera indeterminada; pero si dicha ecuaci´on es determinada, para ver el car´acter del sistema tenemos que repetir el procedimiento de sustituci´on regresiva y seguir as´ı hasta que quede alguna ecuaci´on indeterminada en cuyo caso el sistema ser´a indeterminado o que todas las ecuaciones hayan resultado determinadas en cuyo caso el sistema es determinado y hemos ido obteniendo sus soluciones. Si el sistema es indeterminado, podemos despejar en las ecuaciones indeterminadas la primera inc´ognita que aparezca en ellas con coeficiente distinto de cero, en funci´on de las siguientes y sustituyendo regresivamente obtener un subconjunto de inc´ognitas despejado en funci´on de otro subconjunto de inc´ognitas que pueden variar libremente. 54

La formaci´on de subsistemas de al menos una inc´ognita menos y al menos una ecuaci´on menos puede hacerse con las siguientes etapas: 1) Pasar a primer lugar una ecuaci´on que tenga coeficiente distinto de cero de la primera inc´ognita. 2) Sumar a las restantes ecuaciones la primera multiplicada adecuadamente para que el coeficiente de la primera inc´ognita en ellas salga cero. 3) Considerar las ecuaciones excepto la primera como un subsistema que no tiene la primera inc´ognita y repetir las etapas 1) y 2) anteriores para la siguiente inc´ognita que no tiene coeficiente nulo en todas las ecuaciones. Si todas las ecuaciones tuvieran coeficientes nulos de las inc´ognitas pero quedara alguna con t´ermino independiente distinto de cero (el sistema ser´ıa incompatible) se reducen todas las ecuaciones incompatibles a una sola por etapas an´alogas a la 2) anterior para los t´erminos independientes. 4) Para resolver el sistema (en el caso en que sea compatible) se despeja la inc´ognita que aparezca con coeficiente distinto de cero en primer lugar en la u ´ltima ecuaci´on, (si esta u ´ltima ecuaci´on tiene varias inc´ognitas, en funci´on de las restantes) y se sustituye en las dem´as ecuaciones con lo que se reduce en uno el n´ umero de ecuaciones del sistema obtenido y se repite el proceso hasta agotar las ecuaciones. Al final, tendremos los valores de las inc´ognitas si el sistema es compatible determinado o un subconjunto de inc´ognitas despejado en funci´on de las otras, que ser´an independientes y podr´an tomar cualquier valor si el sistema es compatible indeterminado. Desmenuzando el tipo de operaciones que hacemos, las etapas 1), 2) y 3) del m´etodo de Gauss se hacen realizando en las ecuaciones de un sistema lo que llamamos Operaciones Elementales en un sistema: 1) Intercambio de las ecuaciones. 2) Suma de una ecuaci´on multiplicada por un n´ umero a otra ecuaci´on distinta. 3) Multiplicaci´on de una ecuaci´on por una constante distinta de cero. (Para despejar las inc´ognitas). Estas operaciones son suficientes para su resoluci´on. Cualquier operaci´on elemental en un sistema lo transforma en otro equivalente.

55

Ejercicios: 3.1.1. Utilizar el m´etodo de Gauss para determinar el car´acter de enunciados a continuaci´on y resolver los que sean compatibles:  x1 +x2 +x3 = 6  x1 −x2 +x3 a) x1 +2x2 +3x3 = 14 b) 2x1 +x2 −x3  2x1 −x2 −x3 = −3 −x1 +2x2 +3x3  x1 +x2 +x3 +x4 = 0   x1 +x2 +x3  x1 +2x2 +x3 +2x4 = 0 c) d) x1 +2x2 +x3 −x1 −2x2 +x3 +2x4 = 0   −x1 −2x2 −x3  3x1 +x2 +2x3 −x4 = 0 x1 +x2 −x1 +x2 e) 2x1 −x2 5x1 +2x2

−x3 +x3 +x3 −x3

= = = =

cada uno de los sistemas  −2 = 0  −1 = 0  +3 = 0  +x4 = −1  +2x4 = −1  −2x4 = 1

x1 +x2 +x3 +x4 = 0 x1 −x2 +2x3 −2x4 = 1 f ) −x1 −x2 −x3 +2x4 = −6 2x1 +x2 +2x3 +x4 = 0 −2x1 −3x2 +3x3 −x4 = −9

 1    1 2    5

          

3.1.2. Hallar los valores de los par´ametros α, β y γ para que se verifique A · At = I siendo A la matriz:   7 −4 α A = 1/9  −4 β −8  −γ −8 1 3.1.3. Hallar e y f en la matriz 

1 e 4 −1 f 8



para que exista una matriz A de tama˜ no 2 × 2 que multiplicada a la izquierda por     3 2 0 1 e 4 de −2 1 4 −1 f 8 Sol 3.1.1: a) x1 = 1, x2 = 2, x3 = 3; b) x1 = 1, x2 = −1, x3 = 0; c) x1 = 2x4 = 2k, x2 = −x4 = −k, x3 = −2x4 = −2k, x4 = k; d) x1 = −1 − x3 = −1 − α, x2 = −x4 = −β, x3 = α, x4 = β; e) incompatible ; f) x1 = 1, x2 = 2, x3 = −1, x4 = −2; Sol. 3.1.2: α = −4, β = 1, γ = 4. Sol. 3.1.3: e = 3, f = 4. 56

Operaciones elementales en una matriz. Lo que importa al resolver un sistema son los coeficientes de las inc´ognitas y los t´erminos independientes. Ellos foman la matriz de los coeficientes y la matriz ampliada del sistema. Un sistema se puede escribir en forma matricial: AX=b donde A es la matriz de los coeficientes de las inc´ognitas, X es la columna de las inc´ognitas y b es la columna formada por los t´erminos independientes. Los ejemplos 2), 3), 4), 5) dados anteriormente ser´ıan:          x1   0 6 12 x1 18 1 3 −1 1  1 x2  = 7   8  −2 1 6 0   x2  =  5  3 0   x3  1 −1 1 x3 0 0 1 0 −1 0 x4 

   x1 1 3 −1 1  1  x2      −2 1  9 0  7 = x3  0 1 1 −1 0 x4 





   x1 1 3 −1 1  1  x2      −2 1  2 0  7 = x3  0 1 0 −1 0 x4 



Llamamos matriz ampliada del sistema a la matriz A|b. Las matrices A y A|b van evolucionando, al irse realizando las operaciones elementales en el sistema, cuando se usa el m´etodo de Gauss. Las transformaciones que tienen lugar en la matriz de un sistema cuando se realizan operaciones elementales en ´el, se llaman operaciones elementales en la matriz. Se obtienen as´ı tres tipos de operaciones elementales en matrices que corresponden a los tres tipos de operaciones elementales en el sistema. Llamamos Operaciones Elementales en una matriz a: 1) Intercambio de las filas de la matriz. 2) Suma de una fila de la matriz multiplicada por un n´ umero a otra fila de la matriz. 3) Multiplicaci´on de una fila por una constante distinta de cero. La evoluci´on de las matrices en los ejemplos 2), 3), 4), 5) y 6) ha sido:

57

2)      1 −1 1 0 1 −1 1 0 0 6 12 18  8 6 0 5  →  8 6 0 5  →  0 14 −8 5  → 1 −1 1 0 0 6 12 18 0 6 12 18       1 −1 1 0 1 −1 1 0 1 −1 1 0  0 14 −8 5  →  0 1 2 3  →  0 1 2 3 . 0 1 2 3 0 14 −8 5 0 0 −36 −37 

3) 

1  −2 0  1  0 0

3 −1 1 1 3 0 1 0 −1

3 −1 1 1 0 −1 7 1 2

  1 1 7 → 0 0 0   1 1   0 0 → 0 9

3 −1 1 7 1 2 1 0 −1

3 −1 1 1 0 −1 0 1 9

 1 9 → 0  1 0  9



1  −2 0  1  0 0

3 −1 1 1 9 0 1 1 −1

3 −1 1 1 1 −1 7 7 2

  1 1   7 0 → 0 0   1 1   0 0 → 9 0

3 −1 1 7 7 2 1 1 −1

3 −1 1 1 1 −1 0 0 9

 1 9 → 0  1 0  9



3 −1 1 1 2 0 1 0 −1

3 −1 1 1 0 −1 7 0 2

  1 1   7 0 → 0 0   1 1   0 0 → 9 0

3 −1 1 7 0 2 1 0 −1

3 −1 1 1 0 −1 0 0 9

 1 9 → 0  1 0  9

4)

5) 1  −2 0  1  0 0

58

6) 

1  −2 0  1  0 0

  3 −1 1 1 1   1 2 −9 7 0 → 1 0 −1 0 0   3 −1 1 1 1   1 0 −1 0 0 → 7 0 −7 9 0

 3 −1 1 1 7 0 −7 9  → 1 0 −1 0  3 −1 1 1 1 0 −1 0  0 0 0 9

La observaci´on de las matrices de un sistema en las distintas etapas de su resoluci´on nos indica que vamos escalonando la matriz de coeficientes del sistema dado, fila a fila, por medio de las operaciones elementales y cuando tanto la matriz de coeficientes del sistema como la matriz ampliada son escalonadas, podemos decidir si el sistema es incompatible o compatible. En ese momento, el sistema es incompatible si y s´olo si la u ´ltima ecuaci´on es incompatible, lo cual se traduce en que la matriz escalonada del sistema tiene un escal´on menos que la matriz escalonada ampliada del sistema (v´ease el u ´ltimo ejemplo). Si la u ´ltima ecuaci´on es compatible, en cuyo caso las dos matrices escalonadas mencionadas tienen el mismo n´ umero de escalones, el sistema es compatible indeterminado cuando queda indeterminada alguna de las ecuaciones al ir sustituyendo, regresivamente en las ecuaciones anteriores, los valores de las inc´ognitas determinadas. Se observa que queda alguna ecuaci´on indeterminada si y s´olo si alguno de los escalones de la matriz del sistema tiene longitud superior a una columna (v´eanse los ejemplos 3, 4 y 5); habiendo entonces alguna ecuaci´on indeterminada con m´as de una inc´ognita donde se pueden pasar al segundo miembro las inc´ognitas correspondientes a las columnas que no dan escal´on y despejar las otras en funci´on de ellas, lo que da la indeterminaci´on. El sistema es determinado si todas las ecuaciones quedan determinadas, lo cual s´olo ocurre cuando todos los escalones son de una columna (v´eanse el ejemplo 2). Vemos que en el proceso de resoluci´on de sistemas, podemos decidir el car´acter del sistema inicial sin resolverlo totalmente y por ello enunciamos la versi´on del Teorema de Rouch´ e-Frobenius para matrices escalonadas: un sistema es incompatible cuando la matriz escalonada a la que hemos reducido la matriz ampliada del sistema tiene un escal´on m´as que la matriz escalonada a la que ha quedado reducida la matriz de los coeficientes del sistema; en otro caso es compatible, siendo compatible determinado si todos los escalones de la matriz escalonada del sistema tienen longitud una columna y compatible indeterminado si hay alg´ un escal´on de longitud superior a una columna. Cuando la columna b es nula el sistema se llama homog´eneo. Entonces, esta columna no a˜ nade ning´ un escal´on, a pesar de las operaciones elementales, por lo que en estos sistemas las matrices 59

escalonadas provenientes de la matriz de los coeficientes y de la matriz ampliada tienen siempre el mismo n´ umero de escalones. Concluimos que los sistemas homog´eneos son siempre compatibles. Ejercicios: 3.2.1. Haciendo operaciones elementales en la matriz ampliada del sistema y aplicando el Teorema de Rouch´e-Frobenius, decidir el car´acter de los siguientes sistemas de ecuaciones lineales:   x1 +2x2 −x3 = 1  x1 +2x2 −x3 = 1  x2 +x3 = 2 x2 +x3 = 2   x1 +3x2 = 3 x1 +3x2 = 4   2x1 +x2 = 5  x1 −3x2 +x3 +x4 = 2  x1 −x2 = 1 3x1 −8x2 +2x3 +x4 = 2   x1 +2x2 = 4 2x1 −5x2 +x3 = 3 3.2.2. Hallar todas las matrices cuadradas de orden 2 que conmutan con la matriz   1 2 3 4 3.2.3. Considerar los sistemas:  x1 +2x2 −x3 = c  x1 +x2 +2x3 = 2 a)  −2x1 +3x2 +bx3 = −4

b)

 x1 +x2 −x3 = 1  2x1 +cx2 +x3 = d  5x1 +5x2 −x3 = e

i). Encontrar los valores de b para los que el sistema a) tiene soluci´on, cualquiera que sea c. ii). Existe un valor de b para el que el sistema a) no tiene siempre soluci´on, sino s´olo para un valor de c. ¿C´ uales son estos valores de b y de c? iii). Encontrar las condiciones que han de cumplir c, d y e para que el sistema b) tenga soluci´on. 3.2.4. a) Hallar y para que exista una matriz X2×2 tal que       1 2 1 2 0 y X − X= . 3 4 3 4 −3 0 b) Hallar la forma general de todas las matrices X que verifican la igualdad anterior con el valor hallado de y.

60

3.2.5. Dado el sistema 

    1 a 1 x b  a 0 1 − a  y  =  0 , 1 1−a 1 z 0 Encontrar los valores de a y b para los que el sistema es: a) compatible determinado. b) incompatible. c) compatible indeterminado. 3.2.6. Considerar el sistema de ecuaciones siguiente:  x+y+z =1  x + y + az = 2  x + y + bz = 3 a) ¿Existen valores de a, b para los que el sistema es compatible determinado? b) ¿Para qu´e valores de a, b, el sistema es incompatible? 3.2.7. Consideremos el sistema de ecuaciones lineales: x −y +2z = 2 x +y −z = 1 2x +az = c 3x +y +bz = 4

      

a) Hallar las condiciones que tienen que cumplir los valores de a, b, c para que el sistema sea compatible indeterminado. b) Hallar las condiciones que tienen que cumplir los valores de a, b, c para que el sistema sea compatible determinado. 3.2.8. Dado el sistema de ecuaciones lineales: +2y −2z +2t = 4 −3y +z +t = 1 x +5y −3z +t = m −x +y +z +mt = 1 x

a) Mostrar que si el sistema tiene soluci´on, ´esta no es u ´nica. b) Encontrar los valores de m para que exista soluci´on. 61

      

3.2.9. Consideremos el sistema de ecuaciones lineales:  x +y +(1 + m)z = 4 − m  (1 − m)x −y +2z = −2  2x +my +3z =2−m dependiente de m. Hallar razonadamente: a) Para qu´e valores de m el sistema es compatible determinado. b) Para qu´e valores de m el sistema es compatible. c) Para qu´e valores de m el sistema es incompatible. Sol. 3.2.3ii).: b = −19, c = 2. Sol. 3.2.4 a).: y = 2.

62

Reducci´ on de Gauss-Jordan. Una vez decidido el car´acter del sistema, hemos visto que si es compatible, la sustituci´on regresiva de las inc´ognitas que son determinadas o se pueden despejar en funci´on de otras, da las soluciones del sistema. Mirando de nuevo las matrices de los sistemas que van quedando al sustituir, vemos que van evolucionando de manera que se van haciendo 1 los elementos de las esquinas de los escalones (llamados pivotes), y se hacen cero los elementos sobre estos pivotes. Lo podemos hacer todo matricialmente hasta el final y entonces se dice que se resuelve el sistema por la Reducci´ on de Gauss-Jordan Ve´amoslo en el ejemplo 4) (p´ags. 53 y 58): Una vez conseguido el sistema en la forma escalonada, despejar x4 es pasar del u ´ltimo sistema    1 3 −1 1 1 x1 +3x2 −x3 +x4 = 1  1 −1 0  x2 +x3 −x4 = 0 de matriz  0 1  0 0 0 9 9 9x4 = 9 al sistema    1 3 −1 1 1 x1 +3x2 −x3 +x4 = 1  1 −1 0  x2 +x3 −x4 = 0 de matriz  0 1  0 0 0 1 1 x4 = 1 obtenidos dividiendo la u ´ltima fila por 9. Sustituir x4 en las ecuaciones anteriores es pasar al sistema:  x1 +3x2 −x3 =0  x2 +x3 =1  x4 = 1 de matriz

 1 3 −1 0 0  0 1 1 0 1  0 0 0 1 1 

 1 3 −1 1 1  0 1 1 −1 0  0 0 0 1 1 

obtenida de

restando la tercera fila a la primera y sumando la tercera fila a la segunda. Como sustituir en las ecuaciones anteriores es pasar a un sistema donde no aparece la inc´ognita x4 , es decir, donde los coeficientes de x4 son nulos en todas las ecuaciones excepto en la u ´ltima, en la matriz escalonada ampliada, del u ´ltimo sistema, los n´ umeros de la columna de x4 , excepto el u ´ltimo, son ceros. 63

Despejar x2 y sustituirla en la primera ecuaci´on es pasar a otro sistema donde s´olo aparece x2 en la segunda ecuaci´on. Este sistema tiene una matriz escalonada ampliada que tiene ceros en la columna de x2 encima del 1 correspondiente a x2 en la segunda ecuaci´on: Ahora hemos pasado al sistema:  x1 −4x3 = −3  x2 +x3 = 1  x4 = 1 de matriz

 1 0 −4 0 −3  0 1 1 0 1  0 0 0 1 1 

 1 3 −1 0 0  0 1 1 0 1  0 0 0 1 1 

obtenida de

restando la segunda fila multiplicada por 3 de la primera fila. Como la columna de x3 no da escal´on, se puede pasar al segundo miembro, y es indeterminada porque puede tomar cualquier valor; si x3 = k, se tienen las soluciones:        x1 = 4k −3  x1 4 −3        x2 = −k +1 x2   = k  −1  +  1  . ≡  x3   1   0  x3 = k    x4 = 1 x4 0 1 El procedimiento descrito, realizado en las matrices, desde el principio al final, en las matrices A y A|b es la Reducci´ on de Gauss-Jordan para resolver el sistema AX=b: consiste en escribir la matriz ampliada del sistema, y reducirla a forma escalonada mediante operaciones elementales. En el caso en que sea compatible, hacer 1 todos los pivotes y anular los elementos por encima de los pivotes con m´as operaciones elementales. Luego rellenamos las inc´ognitas en las columnas correspondientes y tenemos en el caso compatible determinado, los valores de las inc´ognitas; en el caso compatible indeterminado pasamos al segundo miembro las inc´ognitas cuyas columnas no dan escal´on y las sustituimos por par´ametros variables. Veamos ahora un ejemplo resuelto con la reducci´on de Gauss-Jordan desde el principio. 7)  x1 +2x2 +x3 +2x4 +x5 +3x6 = 0    2x1 +5x2 +x3 +2x4 +4x5 +7x6 = 2 −2x1 −3x2 −3x3 −x4 +20x5 +14x6 = 21    x1 +x2 +2x3 +6x4 +7x5 +10x6 = 8 64

equivalente a  

 1 2 1 2 1 3    2  5 1 2 4 7    −2 −3 −3 −1 20 14    1 1 2 6 7 10 

x1 x2 x3 x4 x5 x6

      =    

 0 2   21  8

La reducci´on de Gauss-Jordan de las matrices del sistema y ampliada da:     1 2 1 2 1 3 0 1 2 1 2 1 3 0  2  1 −1 −2 2 1 2  5 1 2 4 7 2   → 0  21  →  −2 −3 −3 −1 20 14 21   0 1 −1 3 22 20 1 1 2 6 7 10 8 0 −1 1 4 6 7 8     1 2 1 2 1 3 0 1 2 1 2 1 3 0  0 1 −1 −2 2 1 2      →  0 1 −1 −2 2 1 2  →  0 0  0 0 0 5 20 19 19  0 1 4 3 −1  0 0 0 2 8 8 10 0 0 0 2 8 8 10     1 2 1 2 1 3 0 1 2 1 2 1 3 0  0 1 −1 −2 2 1 2      →  0 1 −1 −2 2 1 2  →  0 0  0 0 0 1 4 3 −1  0 1 4 3 −1  0 0 0 0 0 2 12 0 0 0 0 0 1 6     1 2 1 2 1 0 −18 1 2 1 0 −7 0 20  0 1 −1 −2 2 0 −4      →  0 1 −1 0 10 0 −42  →  0 0  0 0 0 1 4 0 −19  0 1 4 0 −19  0 0 0 0 0 1 6 0 0 0 0 0 1 6   1 0 3 0 −27 0 104  0 1 −1 0 10 0 −42     0 0 0 1 4 0 −19  0 0 0 0 0 1 6 Rellenando ahora las inc´ognitas:

x1 x2

+3x3 −x3 x4

−27x5 +10x5 +4x5 x6

 = 104    = −42 ≡ = −19    = 6

x1 x2 x4 x6 65

 = 104 −3x3 +27x5    = −42 +x3 −10x5 = −19 −4x5    = 6

donde hemos pasado al segundo miembro las inc´ognitas que no dan escal´on. Las soluciones del sistema est´an constituidas por los (x1 , x2 , x3 , x4 , x5 , x6 ), tales que: x1 x2 x3 x4 x5 x6

        = 104 −3x3 +27x5 x1 104 −3 27  x2   −42   1   −10  = −42 +x3 −10x5                = x3 x3   0  1  0      ≡  =  −19  + x3  0  + x5  −4  = −19 −4x5 x 4          x5    0   = x5 0  1  = 6 x6 6 0 0     ≡   

x1 x2 x3 x4 x5 x6





      =      

104 −42 0 −19 0 6





       + λ1       

−3 1 1 0 0 0





       + λ2       

27 −10 0 −4 1 0

       

donde λ1 y λ2 varian arbitraria e independientemente. Ejercicios: 3.3.1. Resolver utilizando la reducci´on de Gauss-Jordan los siguientes sistemas de ecuaciones lineales.   2y −z +t = 6   x +2y −z = −3   x −4y +z −2t = −9 1 a) 3x +7y +2z = b) 2x −7y −2z +t = 10    4x −2y +z = −2  3y −4t = −16  x −y +z −t = 0    2x −2y −z +t = 3 c) −x +y +2z −2t = −3    −2x +2y +3z −t = 8 Si tenemos varios sistemas con la misma matriz de coeficientes, podemos resolverlos todos a la vez, ampliando la matriz del sistema con las columnas de los t´ erminos independientes de los sistemas dados y haciendo en esta matriz m´ as ampliada, las operaciones elementales que escalonen la matriz de los coeficientes.

66

3.3.2. Resolver de manera simult´anea por el m´etodo de Gauss-Jordan los siguientes sistemas de ecuaciones:    z −2t = 0  z −2t = −1  z −2t = −2        3x −6y +2z = −6 3x −6y +2z = −3 3x −6y +2z = 2 x −2y +z −t = −1  x −2y +z −t = 0  x −2y +z −t = −3        2x −3y +3t = −1 2x −3y +3t = 3 2x −3y +3t = 0 Sol. 3.3.1: a) x = −1, y = 0, z = 2 b) x = 1, y = 0, z = −2, t = 4 c) (x, y, z, t) = (1, 0, 11/2, 13/2) + λ(1, 1, 0, 0) Sol. 3.3.2: x1 = 1, y1 = 1, z1 = 0, t1 = 0; x2 = 0, y2 = 0, z2 = 1, t2 = 1; x3 = 0, y3 = 1, z3 = 0, t3 = 1. La reducci´on de Gauss-Jordan vale tambi´en para una ecuaci´on matricial AX = B donde X es una matriz de n filas y m columnas y B es una matriz de m columnas y el mismo n´ umero de filas de A. Llamando Xi a la columna i-´esima de X y Bi a la columna i-´esima en B, la ecuaci´on matricial dada es equivalente al conjunto de sistemas AXi = Bi , i ∈ {1, ..., m}. Los sistemas matriciales pueden ser incompatibles o compatibles y en este caso, determinados o indeterminados. Se puede ver si son compatibles escalonando la matriz ampliada A|B, y si son compatibles, resolverlos simult´aneamente haciendo la reducci´on de Gauss-Jordan en dicha matriz ampliada A|B. Cuando B=I, la soluci´on de la ecuaci´on AX=I se llama inversa a la derecha de A. Puede no existir y si A no es cuadrada puede no ser u ´nica . Si A es una matriz cuadrada, la igualdad AX = I ”s´ı” implica XA = I. Cuando se estudie la teor´ıa que viene a continuaci´on, usada para demostrar el teorema de caracterizaci´on de las matrices invertibles, se puede demostrar esa implicaci´on utilizando la proposici´on 3’, la expresi´on final de A en la proposici´on 4 y la unicidad de la inversa. Se propone construir todo el razonamiento en el ejercicio 3.5.4. Ejercicio: 3.3.3. Demostrar que 1) Si una matriz A tiene inversa a la izquierda, la inversa a la derecha, de existir, es u ´nica. 2) Si una matriz A tiene inversa a la derecha, la inversa a la izquierda, de existir, es u ´nica. 3) Si una matriz A tiene inversa a la derecha e inversa a la izquierda, ambas coinciden.

67

Matrices Invertibles. Nos interesa caracterizar las matrices A tales que los sistemas que se plantean con ellas tienen soluci´on y ´esta es u ´nica, es decir que todos los sistemas que se plantean como Ax = b son compatibles determinados. Estas matrices A son aquellas para las que existe otra matriz B tal que AB = I = BA. Ve´amoslo: Si existe B tal que BA=I, dado un sistema de la forma AX = b, multiplic´andolo a la izquierda por B, obtenemos que la soluci´on, de existir, ha de ser X = Bb; para que efectivamente, ´esta sea la soluci´on hay que comprobar que ABb = b, lo cual se cumple si la matriz B verifica AB=I, es decir, si B es tambi´en inversa a la derecha de A. siendo esto cierto cualquiera que sea b. En un ejercicio anterior se prob´o que si A tiene inversa a la izquierda y inversa a la derecha, ambas coinciden y son u ´nicas. Esta unicidad es necesaria para que todos los sistemas AX=b tengan soluci´on, porque con matrices A que tuvieran dos inversas a la izquierda distintas, B 0 y B 00 podr´ıa existir alg´ un b para el que las condiciones necesarias x = B 0 b y x = B 00 b, fueran incompatibles entre s´ı. Por otra parte, para que la condici´on necesaria x = Bb sea suficiente cualquiera que sea b, ha de ser ABb = b para todo b, para lo cual es necesario que AB = I. Se llaman invertibles las matrices A tales que existe una matriz B tal que BA = I = AB. Entonces, se llama a B, inversa de A. Una matriz A invertible no puede tener ninguna columna ni ninguna fila de ceros, porque en estos casos, se tendr´ıa, cualquiera que fuera la matriz X, en XA una columna de ceros o en AX una fila de ceros, no obteni´endose nunca la identidad. Queremos ver que adem´as ha de ser cuadrada. Observemos que una inversa a la derecha X de una matriz A, es una soluci´on de la ecuaci´on AX = I y que una matriz A con la primera columna no nula y con m´as columnas que filas, al escalonarla da el primer escal´on en la primera columna y por ello, alg´ un escal´on con m´as de una columna, por lo que el sistema AX = I, de tener soluci´on, no tiene soluci´on u ´nica. Si no tiene soluci´on, la matriz no es invertible y si existen varias soluciones, como estas soluciones ser´ıan distintas inversas a la derecha de A, seg´ un el problema 3.3.3 no existe inversa a la izquierda. Concluimos que una matriz con m´as columnas que filas no es invertible. Tambi´en se puede concluir que una matriz con m´as filas que columnas no es invertible, porque si lo fuera, su traspuesta, que tiene m´as columnas que filas ser´ıa invertible, en contra de lo anterior. (Si AB = I = BA, t B t A = t (AB) = I y t At B = (BA)t = I). Entonces, una matriz invertible, adem´as de no tener ninguna fila ni ninguna columna nula, ha de ser cuadrada. En los ejercicios 3.5.6-3.5.10 de la secci´on siguiente, se establece otro camino distinto del visto ahora para demostrar que las matrices invertibles han de ser cuadradas.

68

Caracterizaci´ on de las matrices invertibles. Observando lo que pasa en las matrices cuando aplicamos el m´etodo de Gauss a un sistema, podemos deducir propiedades de las matrices que nos dan tambi´en el m´etodo de Gauss para hallar la inversa de una matriz. Y al mismo tiempo, podemos demostrar un teorema que caracteriza a las matrices invertibles como producto de ciertas matrices llamadas elementales. Las operaciones elementales en una matriz (p´ag. 57) se pueden expresar en forma matem´atica como el resultado de multiplicar por la izquierda por las matrices llamadas Matrices Elementales: Son las matrices obtenidas de las matrices identidad por operaciones elementales. (Diremos que son de tres tipos seg´ un el tipo de operaci´on elemental realizado). Se puede comprobar f´acilmente, caso por caso, que al multiplicar a la izquierda una matriz elemental por otra matriz se produce en esta u ´ltima la operaci´on elemental realizada en la matriz I para obtener la matriz elemental considerada. Tambi´en, hagamos las siguientes consideraciones: a) Si hacemos sucesivamente dos intercambios de las mismas filas de la matriz identidad, la matriz queda invariante. Esto quiere decir que el producto de una matriz elemental del primer tipo por ella misma es la identidad. Por tanto, las matrices elementales correspondientes (del primer tipo) son invertibles y coinciden con su inversa. b) Si sumamos a una fila de la identidad otra fila multiplicada por un n´ umero y luego le sumamos la misma fila multiplicada por el n´ umero opuesto obtenemos la identidad. Esto quiere decir tambi´en que las dos matrices elementales correspondientes (del segundo tipo) son inversas una de otra, siendo sus inversas del mismo tipo. c) Si primero multiplicamos una fila de la matriz identidad por un n´ umero distinto de cero y luego la multiplicamos por el inverso de dicho n´ umero, queda igual. Esto quiere decir que el producto de las dos matrices elementales correspondientes es la identidad. Por tanto, tambi´en las matrices elementales del tercer tipo son invertibles y sus inversas son del mismo tipo. Se deduce de estas consideraciones que las matrices elementales son invertibles y que sus inversas son tambi´en matrices elementales. Nuestro teorema sobre matrices invertibles es:

69

TEOREMA 1: Una matriz cuadrada es invertible si y s´ olo si es producto de matrices elementales. Ya que las matrices elementales son invertibles, la demostraci´on de que toda matriz producto de matrices elementales es invertible es una f´acil consecuencia de la siguiente proposici´on: Proposici´ on 1: El producto de matrices invertibles es invertible. Sean A1 , A2 , ..., Am , matrices cuyas inversas respectivas son B1 , B2 , ..., Bm , se puede comprobar que la matriz producto A = A1 · A2 · ... · Am tiene como inversa B = Bm ... · B2 · B1 . En efecto, por la propiedad asociativa, en el producto AB = A1 · A2 · ... · Am Bm ... · B2 · B1 empezando por i=m podemos ir simplificando las Ai con las Bi correspondientes y llegar a la identidad. Lo mismo podemos hacer, empezando por i=1, en el producto BA = Bm ... · B2 · B1 A1 · A2 · ... · Am . Para demostrar el teorema tenemos que demostrar tambi´en que toda matriz invertible es producto de matrices elementales. Para ello vamos a usar las proposiciones 2, 3 y 4 siguientes: Proposici´ on 2: Toda matriz puede reducirse a una matriz escalonada multiplic´andola adecuadamente a la izquierda por matrices elementales. Su demostraci´on se deduce de la observaci´on de la evoluci´on de la matriz del sistema en el procedimiento seguido en el m´etodo de Gauss. Se ve en ese procedimiento que toda matriz se puede reducir a una matriz escalonada haciendo operaciones elementales en sus filas, o lo que es lo mismo, que dada una matriz, multiplicando a la izquierda, sucesivamente, por matrices elementales se puede llegar a una matriz escalonada. Por tanto, dada la matriz A, existen matrices elementales: E1 , E2 , ..., Ek , tales que Ek · Ek−1 · ...E1 A = E donde E es una matriz escalonada. Conviene comprobarlo en el siguiente Ejercicio:

70

3.4.1. Encontrar una sucesi´on de matrices elementales E1 , · · · , Ek tal que Ek · · · E1 A = E donde A es una de las matrices dadas a continuaci´on y E es una matriz escalonada: 

         1 3 0 2 4 0 −1 1 −2 1 1 2 3 4 0 −1  e)  3 −2 1  a)  −1 0  b) c)  1 1 3  d)  1 3 1 2 2 1 3 3 7 2 −1 −1 1 −1 1 

         0 −1 −1 0 −1 −1 0 −1 −1 0 −1 −1 0 2 4 0 −1  g)  1 1 0  h)  1 1 1  i)  1 0 −1  j)  1 0 −1  f)  1 2 −1 −3 2 −1 −3 2 −1 −1 2 −1 −1 1 −2 −3 Para la mejor comprensi´on de las demostraciones de las proposiciones siguientes se proponen los ejercicios: 3.4.2. Comprobar que una vez obtenida la matriz escalonada en los casos c), e), i) y j) anteriores podemos llegar desde la matriz escalonada a la matriz identidad haciendo m´as operaciones elementales, por el mismo procedimiento usado para despejar las inc´ognitas en la reducci´on de Gauss-Jordan. 3.4.3. Comprobar que una vez obtenida la matriz escalonada en los casos d), f), g) y h) anteriores no podemos llegar desde la matriz escalonada a la matriz identidad haciendo m´as operaciones elementales, por el mismo procedimiento usado para despejar las inc´ognitas en la reducci´on de GaussJordan.

Antes de pasar a la demostraci´on completa del teorema, vamos a ver un ejemplo en el que se llega desde una matriz a la identidad por transformaciones elementales, lo cual equivale a multiplicar la matriz por matrices elementales y esto pone de manifiesto que la matriz dada es producto de matrices elementales y  por tanto invertible:  0 2 4 La matriz  1 1 3 pasa, multiplic´andola a la izquierda por las matrices elementales: 3 4 7         1 0 0 0 1 0 1 0 0 1 0 0  1 0 0 ,  0 1 0 ,  0 1 0 ,  0 1 0  2 0 0 1 −3 0 1 0 0 1 0 −1 1 sucesivamente, a las matrices         1 1 3 1 1 3 1 1 3 1 1 3  0 2 4 ,  0 2 4 ,  0 1 2 ,  0 1 2 . 3 4 7 0 1 −2 0 1 −2 0 0 −4 71

Como esta u ´ltima tiene todos los escalones de longitud una columna, siendo por tanto, los elementos de la diagonal principal distintos de cero, podemos conseguir que estos elementos sean unos, dividiendo adecuadamente las filas, lo que aqu´ı se reduce a dividir la u ´ltima fila por −4, es decir, a multiplicar ahora a la izquierda por la matriz   1 0 0  0 1 0  0 0 − 14 habiendo llegado a 

 1 1 3  0 1 2 . 0 0 1 En esta matriz con 1 en todos los elementos de la diagonal y ceros en todos los sitios debajo de la diagonal, podemos seguir haciendo operaciones elementales que anulen tambi´en los n´ umeros en los sitios por encima de la diagonal, llegando as´ı a la identidad. Efectivamente, multiplicando sucesivamente a la izquierda, por las matrices elementales:       1 0 −3 1 −1 0 1 0 0  0 1 −2  ,  0 1 0 ,  0 1 0  0 0 1 0 0 1 0 0 1 obtenemos la identidad (compru´ebese). Hemos multiplicado, en total, por ocho matrices elementales, que designamos por E1 , E2 , E3 , E4 , E5 , E6 , E7 , E8 , por orden de utilizaci´on. Entonces: E8 · E7 · E6 · E5 · E4 · E3 · E2 · E1 · A = I. Como las matrices elementales tienen inversas, multiplicando a la izquierda por sus inversas de manera que se vayan simplificando dichas matrices, tenemos: A = E1−1 · E2−1 · E3−1 · E4−1 · E5−1 · E6−1 · E7−1 · E8−1 . Lo cual puede comprobarse teniendo en cuenta que         0 1 0 1 0 0 1 0 0 1 0 0 E1−1 =  1 0 0  , E2−1 =  0 1 0  , E3−1 =  0 2 0  , E4−1 =  0 1 0  0 0 1 3 0 1 0 0 1 0 1 1 

E5−1

       1 1 0 1 0 0 1 0 0 1 0 3 =  0 1 0  E6−1 =  0 1 2  , E7−1 =  0 1 0  , E8−1 =  0 1 0  0 0 1 0 0 1 0 0 1 0 0 4 72

Como tambi´en las inversas de matrices elementales son elementales, hemos visto que del hecho de tener la matriz escalonada obtenida de A todos los escalones de longitud una columna (y por ello, todos los elementos de la diagonal distintos de cero), hemos llegado a la expresi´on de A como producto de matrices elementales. Como estas matrices son invertibles, de la proposici´on 1 se deduce que A es invertible. Seguimos ahora con las siguientes etapas para la demostraci´on del teorema:

Proposici´ on 3: Si una matriz A es invertible, la matriz escalonada E a la que se reduce, tiene todos los escalones de longitud una columna, estando el primer escal´on en la primera fila y primera columna. Demostraci´on: Si A es invertible, A tiene que ser cuadrada y la existencia de una matriz B tal que BA=I implica que la primera columna de A no es toda de ceros, porque entonces la primera columna del producto BA ser´ıa toda de ceros y no coincidir´ıa con la primera columna de I; por lo que se puede conseguir (si es necesario por un cambio de orden de las filas) que el elemento de la primera fila y primera columna sea distinto de cero, empezando por tanto los escalones en este lugar. Veamos que al seguir escalonando la matriz, la matriz escalonada E a la que se reduce A tiene todos los escalones de longitud una columna razonando por reducci´on al absurdo: Si tuviera alg´ un escal´on con m´as de una columna, al ir recorriendo los pivotes y llegar al primero de tales escalones, nos desplazamos a la derecha por lo menos el espacio de dos columnas, sali´endonos de la diagonal y por ello al seguir recorriendo pivotes agotamos antes las columnas que las filas, quedando por tanto la u ´ltima fila entera por debajo de la l´ınea de pivotes y estando por ello formada por ceros. Entonces, multiplicando por las matrices elementales correspondientes tendr´ıamos: E = Ek Ek−1 , ...E1 A donde E es una matriz escalonada con la u ´ltima fila toda de ceros. Ahora bien, si A es invertible, existe B tal que AB=I. Entonces, EB = Ek Ek−1 ...E1 AB = Ek Ek−1 ...E1 I = Ek Ek−1 ...E1 y por tanto, como las matrices elementales tienen inversa, EBE1−1 ...Ek−1 = Ek Ek−1 ...E1 E1−1 ...Ek−1 = I −1 Si la matriz E tuviera la u ´ltima fila de ceros, la matriz EBE1−1 .....Em tendr´ıa tambi´en la u ´ltima fila de ceros por tenerla E y esto es una contradicci´on ya que I tiene un 1 en su u ´ltima fila. Quedando as´ı demostrada la proposici´on 3.

73

Esta proposici´on es tambi´en cierta si se debilita la hip´otesis: Proposici´ on 3’: Si una matriz A cuadrada tiene inversa a la derecha, la matriz escalonada E a la que se reduce, tiene todos los escalones de longitud una columna, estando el primer escal´on en la primera fila y primera columna. La demostraci´on se sigue de que de no ser as´ı la matriz escalonada E tendr´ıa la u ´ltima fila de ceros, pero esto no puede ocurrir si la matriz A tiene inversa a la derecha como se ha visto en la demostraci´on de la proposici´on 3. Proposici´ on 4: Si al escalonar una matriz cuadrada A, todos los escalones son de una columna, estando el escal´on de la primera fila en la primera columna, A es producto de matrices elementales. Demostraci´on: Sea E la matriz escalonada a la que se reduce A. Como estamos suponiendo que A es cuadrada y el tama˜ no de la matriz queda invariante por las operaciones elementales, E tambi´en ha de ser cuadrada. Tenemos un pivote en el sitio de la primera columna de la primera fila. Si los escalones de E son todos de una columna, al ir recorriendo los pivotes, vamos desplaz´andonos a la derecha el espacio de una columna al mismo tiempo que nos desplazamos hacia abajo el espacio de cada fila, recorriendo as´ı, la diagonal principal de E, que por tanto est´a formada por n´ umeros distintos de cero. Dividiendo cada fila por el n´ umero que est´a en la diagonal de esa fila, (lo cual es hacer operaciones elementales) podemos hacer todos los elementos de la diagonal iguales a 1. Y con estos 1, podemos seguir haciendo operaciones elementales para anular todos los elementos encima de ellos, (seg´ un la reducci´on de Gauss-Jordan), llegando entonces a la matriz identidad. Entonces, podemos afirmar que, en la hip´otesis de la proposici´on 4, adem´as de las matrices elementales: E1 , E2 , ..., Ek , tales que Ek · Ek−1 ...E1 A = E donde E es una matriz escalonada, existen matrices elementales Ek+1 , Ek+2 ...Em tales que Em Em−1 ...Ek+1 Ek ...E1 A = I Como las matrices elementales tienen inversa, multiplicando a la izquierda la igualdad anterior por las inversas de las matrices elementales, obtenemos −1 A = E1−1 ...Ek−1 ...Em

Y como las inversas de matrices elementales son matrices elementales, hemos llegado a una expresi´on de A como producto de matrices elementales.

74

Para terminar la demostraci´on del Teorema 1, es decir, para demostrar que toda matriz invertible es producto de matrices elementales, tenemos en cuenta, primero, que por la proposici´on 2, una matriz A siempre se puede escalonar, luego, que cuando A es invertible, seg´ un la proposici´on 3, la matriz escalonada E, que se obtiene de A, tiene todos los escalones de una columna, estando el primer escal´on de la primera fila en la primera columna. Entonces, la proposici´on 4 establece que la matriz A invertible es producto de matrices elementales. Por otra parte, enlazando la proposici´on 4 y la proposici´on 1, tenemos que si al escalonar una matriz cuadrada A, todos los escalones son de una columna, estando el escal´on de la primera fila en la primera columna, A es invertible. Adem´as, la proposici´on 3 implica que si al escalonar una matriz cuadrada A, alg´ un escal´on es de m´as de una columna, A no es invertible, por lo que tambi´en es cierto el Teorema 2: Una matriz cuadrada A es invertible si y s´olo si al escalonar A, se obtiene una matriz escalonada con todos los escalones de longitud una columna, estando el primer escal´on en la primera columna. Ejercicios: 3.5.1. Decidir cu´ales de las matrices del ejercicio 3.4.1 son invertibles mirando la matriz escalonada a la que han sido reducidas. 3.5.2. Expresar las inversas de las matrices del ejercicio 3.4.1. que sean invertibles como producto de matrices elementales. 3.5.3. Expresar las matrices del ejercicio 3.4.1 que sean invertibles como producto de matrices elementales. 3.5.4. Demostrar que toda matriz cuadrada con inversa a la derecha tiene inversa a la izquierda. 3.5.5. Demostrar que toda matriz cuadrada con inversa a la izquierda tiene inversa a la derecha. 3.5.6. Demostrar que si una matriz A con m´as filas que columnas se puede reducir por operaciones elementales a la matriz:   In  0     ..   .  0 donde n es el n´ umero de columnas de A, puede tener muchas inversas a la izquierda. 3.5.7. Demostrar que dada una matriz con m´as filas que columnas, si tiene inversa a la izquierda, esta no es u ´nica. 75

3.5.8. Demostrar que si una matriz tiene m´as de una inversa a la izquierda, no puede tener inversa a la derecha. 3.5.9. Demostrar que una matriz con m´as filas que columnas no puede ser invertible. 3.5.10. Demostrar que una matriz con m´as columnas que filas no puede ser invertible. Deducir de los ejercicios anteriores que s´olo las matrices cuadradas pueden ser invertibles.

76

M´ etodo de Gauss para obtener la inversa de una matriz invertible: Al repasar la demostraci´on de la proposici´on 4 nos podemos dar cuenta de que la matriz producto: Em ...Ek+1 Ek Ek−1 ...E1 es inversa a la izquierda de A y dada la expresi´on de A obtenida al final de −1 ) podemos comprobar que ese producto es la demostraci´on de dicha proposici´on,(A = E1−1 · · · Em tambi´en inversa a la derecha de A. Es decir, A−1 = Em ...Ek+1 Ek Ek−1 ...E1 Como Em ...Ek+1 Ek Ek−1 ...E1 = Em ...Ek+1 Ek Ek−1 ...E1 I, la matriz A−1 se puede obtener haciendo en I las operaciones elementales correspondientes a las matrices elementales escritas, y estas operaciones son las mismas que hemos hecho en A para llegar a I. Por eso, para obtener la matriz inversa de A colocamos la matriz I al lado de la matriz A en la forma (A| I) y hacemos en la matriz I las mismas operaciones elementales que en la A. Cuando a la izquierda de la barra hayamos llegado a la matriz I, es que hemos multiplicado A por Em · · · E1 y lo mismo I, por lo que a la derecha de la barra habremos llegado a la matriz inversa de A. Ve´amoslo con la matriz   0 1 1 A= 1 0 1  1 1 0 Escribimos:

 0 1 1 1 0 0  1 0 1 0 1 0  1 1 0 0 0 1 

y ahora hacemos en la uni´on de las dos matrices, las transformaciones elementales que llevan la matriz A a la identidad. 0 1 1 1  1 0 1 0 1 1 0 0  1 0  0 1 0 0  1 0 1  0 1 0 0 0 1 

  0 0 1 0 1 0 1 1 0  ∼  0 1 1 1 0 0 1 1 1 0 0 0   1 0 1 0 1 1 1 0 0 ∼ 0 −2 −1 −1 1 0   0 1 0 1/2 −1/2 ∼ 1/2 1/2 1/2 −1/2 77

  0 1 0 1 0 1 0 ∼ 0 1 1 1 0 1 0 1 −1 0 −1  0 1 0 1 0 1 1 1 0 0 ∼ 0 1 1/2 1/2 −1/2 1 0 0 −1/2 1/2 1/2 0 1 0 1/2 −1/2 1/2 0 0 1 1/2 1/2 −1/2

 0 0 ∼ 1

 

Entonces:

−1   0 1 1 −1/2 1/2 1/2  1 0 1  =  1/2 −1/2 1/2  1 1 0 1/2 1/2 −1/2 

Obs´ervese que la matriz obtenida para A−1 es tambi´en la matriz que habr´ıamos obtenido como soluci´on de la ecuaci´on matricial AX = I por el m´etodo de Gauss-Jordan. Esta soluci´on X es una inversa a la derecha, y adem´as, al haber expresado esta X como producto de matrices elementales, estamos seguros de que es inversa a la derecha y a la izquierda; y la unicidad de la inversa nos asegura la unicidad del resultado, cualquiera que sea el camino seguido, o sea, cualesquiera que sean las operaciones elementales realizadas. Ejercicios: 3.6.1. Utilizar el m´etodo de Gauss para hallar las inversas sean invertibles y comprobar los resultados del ejercicio 3.5.2. 3.6.2. Los sistemas de ecuaciones lineales:  2y +4z = −3  −2x +y x +y +3z = 1 3x −2y  3x +3y +7z = −2 x −y

de las matrices del ejercicio 3.4.1 que

 +z = −3  +z = 1  +z = −2

se pueden expresar matricialmente de la forma AX = b donde A es una matriz invertible. Su inversa ha sido calculada en los ejercicios anteriores; usarla para hallar las soluciones de los sistemas. 3.6.3. Demostrar que la traspuesta de la inversa de una matriz es la inversa de la traspuesta de dicha matriz. 3.6.4. Explicar por qu´e una matriz triangular superior es invertible si y s´olo si todos los elementos de su diagonal son distintos de cero. 3.6.5. Explicar por qu´e la inversa de una matriz triangular superior invertible es tambi´en triangular superior. 3.6.6. Demostrar que una matriz triangular inferior es invertible si y s´olo si todos los elementos de su diagonal son distintos de cero. 3.6.7. Demostrar que la inversa de una matriz triangular inferior invertible es tambi´en triangular inferior.

78

La expresi´on de la inversa como producto de matrices elementales nos permite tambi´en entender la Reducci´ on de Gauss-Jordan para resolver el sistema AX=b cuando A es matriz invertible: Multiplicando a la izquierda por A−1 con la expresi´on obtenida: A−1 = Er ...Em+1 Em Em−1 ...E1 , tenemos X = A−1 b = Er ...Em+1 Em Em−1 ...E1 b Luego X es el resultado de hacer en b las operaciones elementales que llevan A a I. Escribiendo la matriz A|b y haciendo en ´esta dichas operaciones, cuando a la izquierda de la barra vertical obtengamos la matriz I, a la derecha habremos obtenido la matriz soluci´on de las X. Ver el ejemplo 3 de la p´agina 42 del libro de Fraleigh-Beauregard. Ejemplos resueltos y problemas propuestos el el cap´ıtulo 2 de (A),en el cap´ıtulo 2 de (Vi), en las secciones 1.2 y 1.4 de (H) y en el cap´ıtulo 5 de (Vi).

79

BIBLIOGRAFIA (A) Algebra Lineal y aplicaciones. J. Arves´ u Carballo, R. Alvarez Nodarse, F. Marcell´an Espa˜ nol. Ed. S´ıntesis Madrid. 1999. (FB) Algebra lineal. J. B. Fraleigh y R. A. Beauregard. Ed. Addison- Wesley /Iberoamericana, 1989. (H) Algebra y Geometr´ıa. Eugenio Hern´andez. Ed. Addison- Wesley / UAM, 1994. [M] Matem´aticas 2 Bachillerato. Ma Felicidad Monteagudo Mart´ınez. Jes´ us Paz Fern´andez Ed. Luis Vives. 2003. (Vi) Problemas de Algebra. A. de la Villa. Ed. Clagsa, 1994.

80

DETERMINANTES y SISTEMAS de ECUACIONES. Introducci´ on. Los determinantes son n´ umeros asociados a las matrices. Hemos visto matrices asociadas a los sistemas de ecuaciones. Veremos que cuando calculamos determinantes de esas matrices o de submatrices suyas obtenemos informaci´on sobre la compatibilidad y determinaci´on de dichos sistemas. Los determinantes tambi´en tienen interpretaci´on geom´etrica. Vamos a empezar motivando su definici´on por su significado geom´etrico. Escribiendo en filas las coordenadas de un vector de la recta, de dos vectores del plano o de tres vectores del espacio tenemos, respectivamente, una matriz 1 × 1, una matriz 2 × 2 o una matriz 3 × 3.     a a a 11 12 13  a11 a12  a21 a22 a23  a11 a21 a22 a31 a32 a33 Al mismo tiempo, dado un vector, podemos considerar su longitud, que es un n´ umero; dados dos vectores, podemos construir un paralelogramo cuyos lados son los vectores dados y considerar su a´rea; Dados tres vectores, podemos construir un paralelep´ıpedo cuyas aristas son los tres vectores y considerar su volumen.

HH  H  HH   H *            YH H  H  HH H

81

H   HH  H   HH                    H   HH      H    HH                H   HH    H    HH    *                Y H   HH    H  HH  

Las longitudes, las a´reas y los vol´ umenes son ”n´ umeros” asociados a vectores, a parejas de vectores o a ternas de vectores y por tanto a las matrices formadas con ellos. Entonces, es l´ogico estudiar qu´e propiedades han de cumplir, para ver c´omo se pueden calcular. Si quisi´eramos que la longitud, el a´rea o el volumen fueran n´ umeros asociados a estas matrices y los design´aramos por las matrices entre barras, los ”n´ umeros” asociados a esas matrices tendr´ıan que cumplir: a) Si multiplicamos uno de los vectores por una constante positiva o nula, el n´ umero asociado queda multiplicado por esa constante:

|ra11 | = r|a11 |,

ra11 ra12 a21 a22

= r a11 a12 a21 a22

,

ra11 ra12 ra13 a21 a22 a23 a31 a32 a33

a11 a12 a13 = r a21 a22 a23 a31 a32 a33



Lo an´alogo ocurre con las otras filas. b) Si en un vector, una pareja o una terna de vectores, sustituimos un vector por la suma de otros dos, el n´ umero asociado (longitud, ´area o volumen) a la matriz correspondiente es la suma de los n´ umeros asociados a las dos matrices de vectores correspondientes a los vectores sumandos:

1  *H  Y   HH      H  HH    1 *            H     HH    :    YH   H    a01 H     H   H  H   :               0    a1 + a   1             YH H  a1    H  aH 2    H  H 

82

 HHH    HH    H                                 HHH          H         HH                                               H HH        HH  H   H     H      HH HH       1                                      H   HH             H     HH       :                             YH H     HH     HH    

|a11 + a011 | = |a11 | + |a011 | a11 = a21 a13 + a013 a11 = a21 a23 a31 a33

a11 + a011 a12 + a012 a21 a22 a11 + a011 a12 + a012 a21 a22 a31 a32

a12 a011 a012 + a22 a21 a22 a12 a13 a011 a012 a013 a22 a23 + a21 a22 a23 a32 a33 a31 a32 a33



Tambi´en ocurrir´ıa con las otras filas. Del apartado b) se deduce que el apartado a) es una constante negativa ya que si r = −1 a11 a12 a13 −a11 −a12 a21 a22 a23 + a21 a22 a31 a32 a33 a31 a32

cierto tambi´en cuando una fila se multiplica por −a13 a23 a33

0 0 0 = a21 a22 a23 a31 a32 a33

=0

c) Si uno de los vectores es proporcional a alguno de los otros, el a´rea o el volumen es cero. (Esta propiedad s´olo tiene sentido cuando la matriz es de orden mayor que 1). Vamos a deducir que si las a´reas y los vol´ umenes fueran n´ umeros asociados a las matrices cuyas filas son los vectores dados, con las propiedades b) c) y a) estos ”n´ umeros” cambiar´ıan de signo al cambiar el orden de las filas de las matrices por una permutaci´on de dos filas: 83

En vol´ umenes se verificar´ıa Proposici´ on a11 a12 a13 a21 a22 a23 a31 a32 a33

1: a21 a22 a23 = − a11 a12 a13 a31 a32 a33

.

En efecto, a11 a12 a13 a21 a22 a23 a31 a32 a33 1 (a11 + a21 ) + 1 (a11 − a21 ) 2 2 = 12 (a11 + a21 ) − 21 (a11 − a21 ) a31

1 (a 2 12 1 (a 2 12

=

+ a22 ) + 12 (a12 − a22 ) + a22 ) − 12 (a12 − a22 ) a32

1 (a 2 13 1 (a 2 13

+ a23 ) + 12 (a13 − a23 ) + a23 ) − 12 (a13 − a23 ) a33

=

por b) 1 (a + a21 ) 2 11 1 = 2 (a11 + a21 ) − 21 (a11 − a21 ) a31 1 (a − a21 ) 2 11 1 + 2 (a11 + a21 ) − 12 (a11 − a21 ) a31

1 (a 2 12

+ a22 ) 1 (a + a22 ) − 12 (a12 − a22 ) 2 12 a32 1 (a 2 12

− a22 ) 1 1 (a + a ) − (a − a22 ) 22 2 12 2 12 a32

1 (a 2 13

+

1 (a 2 13

=

+ a23 ) 1 (a + a23 ) − 12 (a13 − a23 ) 2 13 a33 − a23 ) 1 1 (a + a ) − (a − a23 ) 23 2 13 2 13 a33

por b) 1 (a11 + a21 ) 2 = 21 (a11 + a21 ) a31 1 (a11 − a21 ) 2 + 12 (a11 + a21 ) a31

1 (a 2 12 1 (a 2 12

+ a22 ) + a22 )

a32 1 (a 2 12 1 (a 2 12

− a22 ) + a22 )

a32

1 (a 2 13 1 (a 2 13

+ a23 ) + a23 )

a33 1 (a 2 13 1 (a 2 13

− a23 ) + a23 )

a33

1 1 1 (a11 + a21 ) (a + a22 ) (a + a23 ) 2 12 2 13 21 + − (a11 − a21 ) − 1 (a12 − a22 ) − 1 (a13 − a23 ) 2 2 2 a31 a32 a33

+

1 1 1 (a11 − a21 ) (a − a22 ) (a − a23 ) 2 12 2 13 21 + − (a11 − a21 ) − 1 (a21 − a22 ) − 1 (a13 − a23 ) 2 2 2 a31 a32 a33

=

(porque los vol´ umenes asociados a vectores proporcionales son cero, por c)) 1 1 1 (a11 + a21 ) (a + a22 ) (a + a23 ) 12 (a11 − a21 ) 12 (a12 − a22 ) 2 12 2 13 21 = − 2 (a11 − a21 ) − 21 (a12 − a22 ) − 21 (a13 − a23 ) + 21 (a11 + a21 ) 12 (a12 + a22 ) a31 a32 a33 a31 a32 84

1 (a 2 13 1 (a 2 13

− a23 ) + a23 )

a33



Por otra parte, an´alogamente, se tiene: a21 a22 a23 a11 a12 a13 a31 a32 a33 1 (a11 + a21 ) + 1 (a21 − a11 ) 2 2 = 12 (a11 + a21 ) − 21 (a21 − a11 ) a31

1 (a 2 12 1 (a 2 12

=

+ a22 ) + 12 (a22 − a12 ) + a22 ) − 12 (a22 − a12 ) a32

1 1 1 (a11 + a21 ) (a + a22 ) (a + a23 ) 2 12 2 13 21 = − 2 (a21 − a11 ) − 21 (a22 − a12 ) − 21 (a23 − a13 ) a31 a32 a33

1 (a 2 13 1 (a 2 13

1 (a21 − a11 ) 21 + (a11 + a21 ) 2 a31

+ a23 ) + 12 (a23 − a13 ) + a23 ) − 12 (a23 − a13 ) a33 1 (a 2 22 1 (a 2 12

− a12 ) + a22 )

a32

1 (a 2 23 1 (a 2 13

=

− a13 ) + a23 )

a33



expresi´on opuesta a la anterior, teniendo en cuenta la propiedad a) para r = −1. El cambio de signo se comprobar´ıa de la misma manera si permut´aramos la segunda y la tercera filas o la primera y la tercera filas. La comprobaci´on del cambio de signo en las a´reas es exactamente igual al cambio hecho entre primera y segunda filas. (H´agase como ejercicio). Propiedades de los determinantes y operaciones elementales. Podemos relacionar ahora las tres propiedades a), b) y c) que tendr´ıan que cumplir los ”n´ umeros” asociados a las matrices con las operaciones elementales en las matrices: De la propiedades b), c) y a) hemos deducido primero la propiedad siguiente: que al hacer en la matriz una operaci´on elemental de permutaci´on de filas cambia de signo el ”n´ umero” asociado; la vamos a llamar propiedad 1). De la propiedad a) tenemos: al hacer en una matriz la operaci´on elemental de multiplicar una fila por una constante, el ”n´ umero” asociado queda multiplicado por esa constante. La vamos a llamar propiedad 2). De la propiedad c) junto con la propiedad b) podemos deducir la propiedad siguiente: al hacer en una matriz la operaci´on elemental de sumar a una fila de la matriz otra fila multiplicada por una constante, el ”n´ umero” asociado queda invariante. (Compru´ebese como ejercicio). La vamos a llamar propiedad 3).

85

Las tres propiedades 1), 2) y 3) enunciadas de estos ”n´ umeros” asociados a las matrices nos dicen c´ omo est´an relacionados entre s´ı los ”n´ umeros” asociados a matrices relacionadas por operaciones elementales. Si las propiedades de estos ”n´ umeros” est´an relacionadas con las operaciones elementales, que son las que realizamos en las matrices para resolver los sistemas de ecuaciones, podemos pensar que esos n´ umeros nos dan informaci´on sobre la resolubilidad de dichos sistemas. Asociando a las matrices identidad el n´ umero 1, lo cual es coherente con el valor de la longitud, el a´rea y el volumen asociados a las matrices formadas por los vectores coordenados, quedan determinados los ”n´ umeros” asociados a las matrices elementales por las propiedades 1), 2) y 3): i) Las matrices elementales obtenidas al intercambiar dos filas de la matriz identidad, tendr´ıan como ”n´ umero” asociado el opuesto del asociado a la matriz identidad, es decir, −1. ii) Las matrices elementales obtenidas al multiplicar una fila de la identidad por una constante c distinta de cero, seg´ un la propiedad a) (o propiedad 2) tienen como ”n´ umero” asociado el producto de esta constante por el n´ umero asociado a la matriz identidad, es decir, c. iii) Las matrices elementales obtenidas al sumar a una fila de la matriz identidad otra fila multiplicada por una constante tienen el mismo ”n´ umero” asociado que la matriz identidad, es decir, 1. Matem´aticamente, las operaciones elementales se realizan en una matriz multiplic´andola a la izquierda por matrices elementales. Las propiedades 1), 2) y 3) respecto a una matriz general A quedan resumidas en t´erminos de matrices elementales en la Proposici´ on 2: Si Ei es una matriz elemental, |Ei A| = |Ei ||A|. La demostraci´on de esta proposici´on consiste en su comprobaci´on en cada uno de los tres tipos de matrices elementales teniendo en cuenta las propiedades 1), 2) y 3) y se deja para el lector. Ejercicios: 4.1.1. Utilizando la proposici´on 2 y sin necesidad de determinantes son nulos. 7 1 3 a 1 b c a) 3 2 1 b) −a −b −c c) 2 10 3 4 d 3 e f

calcularlos, demostrar que los siguientes 2 3 3 4 4 5

d)

12 22 32 42

22 32 42 52

32 42 52 62

42 52 62 72



4.1.2. Usando las matrices elementales que llevan las matrices siguientes a la identidad y la proposici´on 2, calcular los determinantes de las siguientes matrices: 86



 1 1 3 a)  0 1 1  0 0 4

 b)

a11 a12 0 a22





 a11 a12 a13 c)  0 a22 a23  0 0 a33

cuando los elementos de la diagonal de las dos u ´ltimas matrices son distintos de cero. 4.1.3. a) Demostrar que el determinante de una matriz triangular superior que tiene alg´ un elemento de la diagonal igual a cero es nulo, usando las propiedades de los determinantes. b) Demostrar que si escalonando la matriz A se obtiene una matriz triangular superior que tiene alg´ un elemento de la diagonal igual a cero, el determinante de A ha de ser nulo. 4.1.4. Usando las matrices elementales que llevan las matrices siguientes a una triangular superior y los resultados anteriores, calcular los determinantes de las siguientes matrices:         1 0 0 0 2 4 0 2 4 2 4 a) b)  0 2 4  c)  1 0 0  d)  0 1 3  1 3 0 1 3 0 1 3 1 0 0         0 −1 −1 1 0 2 4 0 −1 1 −2 1 1  1 0 −1 1        0 −1 g) 3 −2 1  h)  e) 1 1 3 f ) 1  2 −1 −3 −1  3 3 7 2 −1 −1 1 −1 1 0 1 −1 0 Sol: a) 2, b) 2 c)4 d) 2) e) 4, f) 0, g) −1, h) −8.



4.1.5. Establecer las igualdades siguientes: 0 a12 a13 1 0 0 a a 22 23 , 1 0 0 0 a22 a23 = a32 a33 0 a32 a33 0 a32 a33

= − a12 a13 a32 a33

,

0 a12 a13 0 a22 a23 1 0 0

a12 a13 = a22 a23

.

Tambi´en podemos establecer utilizando la proposici´on 2 el siguiente Teorema 1: |t A| = |A|. En efecto, podemos comprobar que el teorema es cierto para matrices elementales: recorriendo los tres tipos de matrices elementales que hay, y considerando las traspuestas de cada tipo, vemos que la traspuesta de cada matriz elemental es elemental del mismo tipo y que le corresponde el mismo ”n´ umero” que a la matriz elemental considerada. (Compru´ebese en las matrices elementales 3 × 3). En cuanto al caso general, distinguimos dos casos: 87

a) A es invertible. Si A es invertible, es producto de matrices elementales. Sea A = Em · · · E1 , entonces t A = t E1 · · · t Em y como las matrices traspuestas de matrices elementales son, a su vez, matrices elementales, por la proposici´on 2: |t A| = |t E1 · t E2 · · · t Em | = |t E1 ||t E2 · · · t Em | = |t E1 ||t E2 | · · · |t Em | = por ser el teorema cierto para matrices elementales, = |E1 ||E2 | · · · |Em | = |Em | · · · |E2 ||E1 | = |Em · · · E2 E1 | = |A| b) A no es invertible. Entonces t A tampoco es invertible, porque si lo fuera, t A ser´ıa producto de matrices elementales, en cuyo caso A ser´ıa el producto (en orden inverso) de las traspuestas de esas matrices elementales, siendo por tanto invertible. Si la matriz A no es invertible, por operaciones elementales se puede reducir a una matriz escalonada E con la u ´ltima fila de ceros, teni´endose Ek · · · E1 A = E, de donde A = Ek−1 · · · E1−1 E, que podemos escribir de manera gen´erica como A = Ek0 · · · E10 E, donde Ei0 son matrices elementales. Si en una matriz E hay una fila de ceros, su n´ umero asociado es cero, ya que multiplicando la fila de ceros por un n´ umero distinto de cero, queda la misma matriz; por lo que se verificar´ıa debido a la propiedad 2), que c|E| = |E|, cualqiera que sea c, lo cual implica |E| = 0, cuando c 6= 1. 0 · · · E10 E| = Ahora, en virtud de la proposici´on 2, si A = Ek0 · · · E10 E, se tiene |A| = |Ek0 ||Ek−1 0 0 0 |Ek ||Ek−1 | · · · |E1 ||E| = 0 El mismo razonamiento para t A, puesto que no es invertible, nos da |t A| = 0, siendo, por tanto, tambi´en, |t A| = |A|. Hagamos ahora dos observaciones: Primera: hemos obtenido, si A es invertible, |Em | · · · |E1 | = |A| cuando A = Em · · · E1 , es decir, el ”n´ umero asociado” a A est´a determinado por las matrices elementales que llevan A a la identidad y es distinto de cero. Segunda: como al trasponer una matriz, las columnas pasan a filas, las propiedades a) b) c) enunciadas respecto a las filas de una matriz y sus consecuencias son, an´alogamente ciertas respecto a las columnas en los ”n´ umeros” que buscamos. En particular es cierta la Proposici´ on 3. Si una matriz tiene una columna de ceros su ”n´ umero asociado” es cero. Para la demostraci´on de la proposici´on 3, tengamos en cuenta que se puede ver que si una matriz tiene una fila de ceros su ”n´ umero asociado” es cero de manera similar a c´omo hemos demostrado 88

que el ”n´ umero asociado” a una matriz escalonada con la u ´ltima fila de ceros es cero. Entonces, teniendo en cuenta el teorema 1 que pasa filas a columnas, queda establecida la proposici´on 3. En virtud de estas propiedades, se puede hacer el desarrollo del n´ umero asociado a una matriz 2 × 2. En efecto, por la propiedad b) respecto a columnas en matrices 2 × 2, para una matriz 2 × 2, el determinante ha de ser: a b a b 0 b a 0 a b 0 b 0 0 c d = 0 d + c d = 0 d + 0 0 + c 0 + c d = debido a que el n´ umero es cero cuando hay una fila de ceros, a 0 0 b + = ad 1 0 + bc 0 1 = ad 1 0 − bc 1 0 0 1 1 0 0 1 0 1 0 d c 0 En cuanto a columnas): a11 a21 a31

= ad − cb

una matriz 3 × 3, tendr´ıamos (descomponiendo la 1a columna en suma de tres a12 a13 a22 a23 a32 a33

a11 a12 a13 = 0 a22 a23 0 a32 a33

0 a12 a13 + a21 a22 a23 0 a32 a33

0 a12 a13 + 0 a22 a23 a31 a32 a33

(descomponiendo las filas en sumas de tres filas): a11 0 0 a12 0 0 0 a13 0 = 0 a22 a23 + 0 a22 a23 + 0 a22 a23 + 0 a32 a33 0 a32 a33 0 a32 a33 0 a12 a13 0 a12 a13 0 a12 a13 0 + 0 a22 0 + 0 0 a23 + + a21 0 0 a32 a33 0 a32 a33 0 a32 a33 0 a12 a13 0 a12 a13 0 a12 a13 0 a22 a23 + 0 a22 a23 + 0 a22 a23 = a31 0 0 0 a32 0 0 0 a33 (por la proposici´on 3), a11 0 0 = 0 a22 a23 0 a32 a33

0 a12 a13 + a21 0 0 0 a32 a33 89

0 a12 a13 + 0 a22 a23 a31 0 0

=

=

1 0 0 = a11 0 a22 a23 0 a32 a33

0 a12 a13 + a21 1 0 0 0 a32 a33

0 a12 a13 + a31 0 a22 a23 1 0 0



Observando ahora que 1 0 0 = 0 a22 a23 0 a32 a33

a22 a23 = a32 a33



ya que estas dos matrices se escalonan o se transforman en la identidad an´alogas de igual ”n´ umero asociado”; que 0 a12 a13 1 0 0 a a 1 0 0 = − 0 a12 a13 = − 12 13 a32 a33 0 a32 a33 0 a32 a33 por la misma raz´on anterior, y que 0 a12 a13 0 a12 a13 0 a22 a23 = − 1 0 0 0 a22 a23 1 0 0 por la misma raz´on, a11 a21 a31

podemos concluir que a12 a13 a a a22 a23 = a11 22 23 a32 a33 a32 a33

1 0 0 = 0 a12 a13 0 a22 a23

− a21 a12 a13 a32 a33

con matrices elementales



a12 a13 = a22 a23



+ a31 a12 a13 a22 a23



Este proceso se puede hacer en cualquier dimensi´on y justifica nuestra definici´on por inducci´on de los ”n´ umeros asociados” que vamos a llamar determinantes Definici´ on de los determinantes. Dada una matriz cuadrada A, se representa por |Aij | el determinante asociado a la submatriz de A, obtenida suprimiendo la fila i y la columna j de A. Con un proceso an´alogo al anterior, se llega a que , si cumple las propiedades a), b) y c) anteriores, desglosando la primera columna en suma de n columnas y luego cada fila en suma de n filas, en virtud de la observaci´on segunda posterior al teorema 1, el determinante de una matriz n × n ha de ser: |A| = a11 |A11 | − a21 |A21 | + · · · + (−1)i+1 ai1 |Ai1 | + · · · + (−1)n+1 an1 |An1 | 90

que se llama desarollo del determinante por la primera columna. Tambi´en, desglosando la primera fila en suma de n filas y luego cada columna en suma de n columnas, en virtud de la observaci´on segunda posterior al teorema 1, ha de ser: |A| = |t A| = a11 |A11 | − a12 |A12 | + · · · + (−1)j+1 a1j |A1j | + · · · + (−1)n+1 a1n |A1n | que se llama desarollo del determinante por la primera fila. Lo cual, puede obtenerse tambi´en del desarrollo del de determinante por la primera fila y el teorema 1: |A| = |t A|.

Para dar completa validez a la definici´on, comprobaremos que con ella se verifican las propiedades 1), a) y b) enunciadas anteriormente. Una vez comprobadas dichas propiedades para nuestra definici´on, como la propiedad 1), junto con la propiedad a), implica la propiedad c), se tienen para dicha definici´on, las propiedades a), b) y c), que implican 1), 2) y 3), obteniendo as´ı que la proposici´on 2) es cierta para nuestra definici´on: |Ei A| = |Ei ||A| donde Ei es una matriz elemental y A es una matriz cualquiera; de donde, tambi´en es cierto para nuestra definici´on el teorema 1: |t A| = |A|, ya que se puede repetir el proceso de su demostraci´on. Tambi´en el teorema 1. implica las propiedades a), b) y c) respecto a columnas. Comprobaci´ on de las propiedades. Comprobemos ahora que con la definici´on dada se cumplen las propiedades requeridas al principio. Recordemos las propiedades: 1) Si intercambiamos dos filas en una matriz su determinante cambia de signo. a) Si multiplicamos una fila de una matriz por una constante, el determinante de la matriz queda multiplicado por esa constante. b) Si descomponemos una fila de una matriz en suma de otras dos filas el determinante de la matriz dada es la suma de los determinantes de las dos matrices obtenidas sustituyendo en la matriz dada la fila considerada por cada una de las filas sumandos. c) El determinante de una matriz con filas proporcionales es cero. En lugar de la propiedad c) podemos considerar la propiedad 1), ya que ambas son equivalentes cuando a) y b) son ciertas. (Compru´ebese como ejercicio). La demostraci´on de las propiedades b´asicas puede hacerse por inducci´on ya que as´ı se ha hecho la definici´on. 91

Para un determinante de una matriz de orden 1, s´olo tienen sentido las propiedades a) y b), que son trivialmente ciertas. Por eso comprobamos las tres propiedades 1), a), b) para determinantes de matrices de orden 2 y luego demostramos que supuestas ciertas estas propiedades para determinantes de orden n − 1, lo son para determinantes de orden n. Comprobamos en primer lugar la propiedad 1, porque permite transmitir lo que probemos para la primera fila a las dem´as filas. Probemos 1) en matrices 2 × 2: Se reduce a comprobar que a b c d c d = − a b De la definici´on se tiene: a b c d = ad − cb

y

c d a b

= cb − ad = −(ad − cb)

estando por tanto comprobado. Para comprobar la propiedad a), es suficiente comprobarla con la primera fila, ya que por la propiedad 1), se trasmite a la segunda fila. En efecto, ra rb a b c d = rad − crb = r(ad − cb) = r c d Vemos la propiedad a + a0 b + b 0 c d

b) en matrices 2 × 2, respecto a la primera fila, a b a0 b 0 0 0 0 0 = (a + a )d − c(b + b ) = ad − cb + a d − cb = c d + c d

La propiedad comprobada se trasmite a la segunda fila, usando la propiedad 1). Ahora, suponiendo que la propiedad 1) se verifica en determinantes de matrices (n − 1) × (n − 1), vamos a comprobarla en determinates de matrices de orden n. Primero, lo demostramos cuando el intercambio de filas se hace entre dos filas sucesivas (la i y la i − 1): Por definici´on, 92



a11 a12 · · · a1n a22 · · · a21 a22 · · · a2n ··· ··· ··· ··· ··· · · · a ··· ai−1,1 ai−1,2 · · · ai−1,n = a11 i−1,2 ai2 · · · ai1 ai2 · · · ain ··· ··· ··· ··· ··· · · · an2 · · · an1 an2 · · · ann a12 · · · a1n a12 · · · ··· ··· ··· ··· · · · ai−2,2 · · · ai−2,n a ··· i i+1 (−1) ai−1,1 (−1) ai1 i−1,2 ain ai2 · · · ai+1,2 · · · ··· ··· ··· ··· ··· an2 · · · ann an2 · · · Por la hip´otesis de inducci´on,  a22  ···   ai2 = a11  − ai−1,2   ··· an,2     i+1 (−1) ai−1,1  −       n+1 +(−1) an1  −  

a12 ··· ai2 ai−1,2 ··· an−1,2

a2n ··· ai−1,n ain ··· ann

estos sumandos son:   · · · a2n  ··· · · ·     ··· ain   − a21 −  · · · ai−1,n     ··· · · ·  · · · an,n

a12 ··· ai−2,2 ai2 ··· an2

··· ··· ··· ··· ··· ···

a1n ··· ai−2,n ain ··· ann

··· a1n ··· ··· ··· ain · · · ai−1,n ··· ··· · · · an−1,n

− a21

a1n ··· ai−1,n ai+1,n ··· ann

a12 ··· ai2 ai−1,2 ··· an2

93

a22 ··· ai2 ai−1,2 ··· an,2

··· ··· ··· ··· ··· ···

··· ··· ··· ··· ··· ···

··· ··· ··· ··· ··· ···

a1n ··· ain ai−1,n ··· ann

a12 ··· ai−1,2 ai+1,2 ··· an2

··· ··· ··· ··· ··· ···

a2n ··· ain ai−1,n ··· an,n

+

a1n ··· ai−1,n ain ··· ann

+· · ·+(−1)n+1 an1

         + (−1)i ai1 −      

         = − a11      

a12 ··· ai−1,2 ai2 ··· an2

a12 ··· ai−1,2 ai2 ··· an−1,2

··· a1n ··· ··· · · · ai−1,n ··· ain ··· ··· · · · an−1,n

=

     + · · · +    a1n ··· ai−1,n ai+1,n ··· ann

− a21

     + · · · +   

a12 ··· ai2 ai−1,2 ··· an2

··· ··· ··· ··· ··· ···

a1n ··· ain ai−1,n ··· ann

     +   

   i ··· −  (−1) a i1    

a12 ··· ai−1,2 ai+1,2 ··· an2

n+1 −(−1) an1

··· ··· ··· ··· ··· ···

a12 ··· ai2 ai−1,2 ··· an−1,2

+ (−1)i+1 ai−1,1 a11 ··· a1n a21 ··· · · · ··· ··· ain = − ai1 · · · ai−1,n ai−1,1 ··· · · · ··· · · · an−1,n an1 a1n ··· ai−1,n ai+1,n ··· ann

a12 ··· ai−2,2 ai2 ··· an2 a12 a22 ··· ai2 ai−1,2 ··· an2

··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ··· ···

     + · · ·    a1n a2n · · · ain . ai−1,n · · · ann

a1n ··· ai−2,n ain ··· ann

Si las filas intercambiadas no son sucesivas, tenemos que darnos cuenta de que el intercambio puede hacerse en dos etapas compuestas de intercambios de filas sucesivas: intercambiar la fila ”i” y la fila ”j”, suponiendo que j > i, es bajar la fila ”i” al sitio ”j”, para lo cual tenemos que saltar sucesivamente sobre j −i filas y luego subir la fila ”j” (que ya ha quedado en el sitio ”j −1” al sitio ”i”, para lo cual tenemos que saltar sucesivamente otras j − 1 − i filas. En total, hemos hecho 2(i − j) − 1 cambios de filas sucesivas, lo cual se traduce en un cambio total de signo: (−1)2(i−j)−1 = −1. Pasamos a demostrar la propiedad a) en determinantes de orden n, suponiendo que es cierta para determinantes de orden n − 1: Por definici´on,

ra11 ra12 a21 a22 ··· ··· ai−1,1 ai−1,2 ai1 ai2 ··· ··· an1 an2

··· ··· ··· ··· ··· ··· ···

ra1n a2n ··· ai−1,n ain ··· ann

= ra11

a22 ··· ai−1,2 ai2 ··· an2

··· ··· ··· ··· ··· ···

94

a2n ··· ai−1,n ain ··· ann

− a21

ra12 ··· ai−1,2 ai2 ··· an2

··· ··· ··· ··· ··· ···

ra1n ··· ai−1,n ain ··· ann

+ ···+

i (−1) ai−1,1

ra12 ··· ai−2,2 ai2 ··· an2

··· ··· ··· ··· ··· ···

ra1n ··· ai−2,n ain ··· ann

i+1 (−1) ai1

ra12 ··· ai−1,2 ai+1,2 ··· an2

Por la ra11

··· ··· ··· ··· ··· ···

ra1n ··· ai−1,n ai+1,n ··· ann

n+1 +· · · (−1) an1

ra12 ··· ai−1,2 ai2 ··· an−1,2

· · · ra1n ··· ··· · · · ai−1,n ··· ain ··· ··· · · · an−1,n

hip´otesis de inducci´on, estos sumandos son: a12 · · · a1n a12 · · · a1n a22 · · · a2n ··· ··· ··· ··· ··· ··· · · · · · · · · · ai−1,2 · · · ai−1,n ai−1,2 · · · ai−1,n ai−2,2 · · · ai−2,n i − a21 r + · · · + (−1) ai−1,1 r + ai2 · · · ain ain ain ai2 · · · ai2 · · · ··· ··· ··· ··· ··· ··· · · · · · · · · · an2 · · · ann an2 · · · ann an2 · · · ann a12 · · · a12 · · · a1n a 1n ··· ··· ··· · · · · · · · · · ai−1,2 · · · ai−1,n ai−1,2 · · · ai−1,n n+1 i+1 = +(−1) ai1 r + · · · + (−1) an1 r ai2 ··· ain ai+1,2 · · · ai+1,n ··· ··· ··· ··· · · · · · · an−1,2 · · · an−1,n an2 · · · ann   a22 · · · a2n a12 · · · a1n a12 · · · a1n  ··· ··· ··· ··· ··· ···  · · · · · · · · ·    ai−1,2 · · · ai−1,n ai−1,2 · · · ai−1,n ai−2,2 · · · ai−2,n  i − a21 + · · · + (−1) ai−1,1  + r a11 ai2 · · · ai2 · · · ai2 · · · ain ain ain    ··· ··· ··· ···   ··· ··· · · · · · · · · · an2 · · · ann an2 · · · ann an2 · · · ann   a12 · · · a1n a12 · · · a 1n  ··· ··· ···  · · · · · · · · ·    ai−1,2 · · · ai−1,n ai−1,2 · · · ai−1,n  i+1 n+1   +r (−1) ai1 + · · · + (−1) an1 ai2  = a · · · a · · · a i+1,2 i+1,n in   ··· ··· ···  · · · ··· · · ·  an2 · · · ann an−1,2 · · · an−1,n

95



r

a11 a12 a21 a22 ··· ··· ai−1,1 ai−1,2 ai1 ai2 ··· ··· an1 an2

··· ··· ··· ··· ··· ··· ···

a1n a2n ··· ai−1,n ain ··· ann

.

Esta propiedad se trasmite a las dem´as filas usando la propiedad 1). Para acabar, demostramos la propiedad b) en determinantes n × n, suponi´endola cierta en determinantes (n − 1) × (n − 1): a11 + a011 a12 + a012 · · · a1n + a01n a22 · · · a2n a21 a22 ··· a2n ··· ··· · · · ··· ··· ··· ··· = (a11 + a011 ) ai−1,2 · · · ai−1,n ai−1,1 a · · · a i−1,2 i−1,n ai2 · · · ain a a · · · a i1 i2 in ··· ··· · · · · · · · · · · · · · · · an2 · · · ann an1 an2 ··· ann a12 + a012 · · · a1n + a01n a12 + a012 · · · a1n + a01n ··· ··· ··· ··· ··· ··· ai−1,2 · · · a a · · · a i−1,n i−2,2 i−2,n + · · · + (−1)i ai−1,1 + −a21 a · · · a a · · · a i2 in i2 in ··· ··· ··· ··· ··· ··· an2 ··· ann an2 ··· ann a12 + a012 · · · a1n + a01n a12 + a012 · · · a1n + a01n · · · · · · · · · · · · · · · · · · ai−1,2 ai−1,2 · · · a · · · a i−1,n i−1,n i+1 n+1 + · · · + (−1) an1 (−1) ai1 ··· ai+1,n ai2 ··· ain ai+1,2 · · · · · · · · · · · · · · · · · · an−1,2 ··· an−1,n an2 ··· ann

96

Por la hip´otesis de inducci´on, estos sumandos son: 0 a22 · · · a2n a22 · · · a2n a12 · · · a1n a12 · · · ··· ··· ··· ··· ··· ··· ··· ··· · · · · · · · · · ai−1,2 · · · ai−1,n 0 ai−1,2 · · · ai−1,n ai−1,2 · · · ai−1,n a ··· a11 +a11 −a21 −a21 i−1,2 ain ain ain ai2 · · · ai2 · · · ai2 · · · ai2 · · · ··· ··· ··· ··· ··· ··· ··· ··· · · · · · · · · · an2 · · · ann an2 · · · ann an2 · · · ann an2 · · · 0 a12 · · · a1n a12 · · · a01n ··· ··· ··· ··· · · · · · · a ai−2,2 · · · ai−2,n · · · ai−2,n i + ···+ + (−1) a + · · · + (−1)i ai−1,1 i−2,2 i−1,1 ai2 · · · a a · · · a in i2 in ··· ··· · · · ··· ··· ··· an2 · · · ann an2 · · · ann 0 a12 · · · a1n a12 · · · a01n ··· ··· ··· ··· · · · · · · ai−1,2 · · · ai−1,n ai−1,2 · · · ai−1,n i+1 i+1 + · · · + (−1) ai1 + (−1) ai1 ai+1,2 · · · ai+1,n + · · · + a · · · a i+1,2 i+1,n ··· ··· ··· ··· · · · · · · an2 · · · ann an2 · · · ann 0 a12 · · · a012 · · · a a 1n 1n ··· ··· · · · ··· ··· ··· a ai−1,2 · · · ai−1,n · · · ai−1,n n+1 = + (−1) a · · · + (−1)n+1 an1 i−1,2 n1 ai2 ··· ain ··· ain ai2 ··· ··· ··· · · · ··· · · · an−1,2 · · · an−1,n an−1,2 · · · an−1,n cogiendo los sumandos uno s´ı, otro a11 a12 a21 a22 ··· ··· = ai−1,1 ai−1,2 ai1 ai2 ··· ··· an1 an2

a01n ··· ai−1,n ain ··· ann

no: ··· ··· ··· ··· ··· ··· ···

a1n a2n ··· ai−1,n ain ··· ann

+

a011 a012 a21 a22 ··· ··· ai−1,1 ai−1,2 ai1 ai2 ··· ··· an1 an2

··· ··· ··· ··· ··· ··· ···

a01n a2n ··· ai−1,n ain ··· ann

.

Esta propiedad demostrada en la primera fila se trasmite a las dem´as filas por la propiedad 1). 97

+

Como se ha dicho antes, ahora podr´ıamos demostrar el Teorema 1 para la definici´on dada por inducci´on. Debido al Teorema 1 las propiedades comprobadas para las filas se traducen en propiedades an´alogas para las columnas. Veamos ahora c´omo dichas propiedades dan una relaci´on de los n´ umeros buscados con la resolubilidad de sistemas de ecuaciones en la Regla de Cramer:  a11 x +a12 y = b1 a21 x +a22 y = b2 Dado que la propiedad 1) implica que se tiene: a11 a12 a11 a12 a21 a22

los determinantes de matrices con filas iguales son nulos, b1 b1 b2

a21 a22 b2 = 0 = a11 a12 b1 a21 a22 b2

Por tanto, desarrollando por la primera fila, se tiene: a11 b1 a12 b1 − a a11 12 a22 b2 a22 b2 y a11 b1 a12 b1 − a a21 22 a22 b2 a22 b2 o equivalentemente, cambiando b a11 1 b2 y b a21 1 b2

+ b1 a11 a12 a21 a22

=0

+ b2 a11 a12 a21 a22

=0

columnas en los primeros determinantes, y cambiando los signos, a11 b1 a11 a12 a12 + a12 = b1 a22 a22 b2 a21 a22 a11 b1 a11 a12 a12 + a = b 22 2 a22 b2 a21 a22 a22



habi´endose encontrado que a a cuando 11 12 a21 a22

b1 b 6= 0 los valores : x = 2 a11 a21

satisfacen el sistema dado. 98

a11 a12 a22 a22 y= a11 a12 a21 a22

b1 b2 a12 a22

Lo an´alogo ocurre con los sistemas de n ecuaciones con n inc´ognitas. Podemos demostrar que la soluci´on considerada del sistema de ecuaciones lineales es u ´nica cuando el determinante de la matriz de los coeficientes es distinto de cero. Llamando ∆ a este determinante, como      1 a22 −a12 a11 a12 1 0 = a21 a22 0 1 ∆ −a21 a11 Si a11 x +a12 y = b1 a21 x +a22 y = b2



a11 x0 +a12 y 0 = b1 a21 x0 +a22 y 0 = b2



 ≡

a11 a12 a21 a22



a11 a12 a21 a22





x y

 =

0 0



y  ≡

x0 y0



 =

0 0



se tiene: 

a11 a12 a21 a22



x − x0 y − y0



 =

0 0

 ,

de donde 

x − x0 y − y0



1 = ∆



a22 −a12 −a21 a11



a11 a12 a21 a22



x − x0 y − y0



1 = ∆



a22 −a12 −a21 a11



0 0



 =

0 0



Ejercicios: 4.2.1. Calcular usando la definici´on los determinantes de las matrices num´ericas de los ejerciios 4.1.∗ y comprobar que son los mismos que hallados anteriormente. 4.2.2. Calcular los determinantes de las matrices dadas a continuaci´on:     3 2 −6 −8 −1 −4 2  4 7  a) 1/7  6 −3 b) 1/9  −4 2 6 3 1 8 −4

99

4.2.3. a) Comprobar que la ecuaci´on de un plano (b1 , b2 , b3 ), (c1 , c2 , c3 ) del espacio es 1 x1 1 a1 1 b1 1 c1

que pasa por tres puntos no alineados: (a1 , a2 , a3 ), x2 x3 a2 a3 =0 b2 b3 c2 c3

y hallar la ecuaci´on cartesiana del plano que pasa por los puntos (1, 2, 1), (−1, 3, 0), (2, 1, 3). b) Escribir la ecuaci´on de una recta del plano que pasa por los puntos (a, b), (c, d) del plano y hallar la ecuaci´on cartesiana de la recta del plano que pasa por los puntos (−1, −2), (2, 2). Caracterizaci´ on de las matrices invertibles por su determinante. Teorema 2. Una matriz es invertible si y s´olo si su determinante es distinto de cero. Dedujimos en la segunda parte de la demostraci´on del teorema 1 que el determinante de las matrices no invertibles es cero; (utilizando el teorema 2 del cap´ıtulo anterior). Para ver que el determinante de las matrices invertibles es distinto de cero, empecemos por las matrices elementales, que son invertibles, recorriendo sus distintos tipos. Se puede ver que sus determinantes son distintos de cero. (Se hizo en la sexta p´agina de este cap´ıtulo) Para verlo en el caso general, debido al teorema que estableci´o que una matriz es invertible si y s´olo si es producto de matrices elementales, y a la proposici´on 2 de este cap´ıtulo, hacemos el siguiente razonamiento: Sea A = Em · Em−1 · · · E1 = Em · Em−1 · · · E1 I, entonces es necesario, seg´ un la proposici´on 2, que |A| = |Em ||Em−1 · · · E1 ||I| = |Em ||Em−1 | · · · |E1 | 6= 0 porque todos los determinantes de matrices elementales son distintos de cero. Pod´ıamos haber dado la definici´on de determinante de una matriz invertible utilizando las matrices elementales en las que se descompone como producto, pero se hubiera planteado el problema sobre si el n´ umero asociado era independiente del camino por el que la matriz llega a la identidad por transformaciones elementales. Este problema est´a resuelto en la definici´on dada, ya que s´olo intervienen los n´ umeros de las entradas de la matriz. Seg´ un la definici´on que hemos dado, el determinante de la matriz s´olo depende de los n´ umeros que forman la matriz y no de la sucesi´on de matrices elementales que la transforman en la identidad; es independiente de esta sucesi´on.

100

Determinante del producto. Teorema 3: |AB| = |A||B| : El determinante del producto de dos matrices es el producto de los determinantes de las matrices. De donde se deduce que |A−1 | = 1/|A|. Demostraci´on del Teorema 3: Tambi´en ahora distinguimos dos casos: a) |A| = 6 0. Entonces, A es invertible y ten´ıamos en la proposici´on 4 del cap´ıtulo anterior: −1 A = E1−1 E2−1 · · · Ek−1 · · · Em

donde Ei y Ei−1 son matrices elementales, (Estas E1 , · · · , Em son las inversas de las del teorema 2.) de donde −1 |A| = |E1−1 ||E2−1 || · · · |Ek−1 | · · · |Em | Por otra parte, −1 AB = E1−1 E2−1 · · · Ek−1 · · · Em B

y −1 −1 |AB| = |E1−1 ||E2−1 · · · Ek−1 · · · Em B| = |E1−1 ||E2−1 | · · · |Ek−1 | · · · |Em ||B| = |A||B|.

b) |A| = 0. Entonces, A no es invertible; al reducir A a una matriz escalonada E, esta matriz escalonada tiene su u ´ltima fila formada por ceros, entonces, −1 A = E1−1 E2−1 · · · Em E

y −1 AB = E1−1 E2−1 · · · Em EB

donde la matriz EB tiene la u ´ltima fila de ceros, por tanto su determinante es nulo y −1 −1 |AB| = |E1−1 ||E2−1 · · · Em · · · EB| = |E1−1 ||E2−1 | · · · |Em | · · · |EB| = 0 = |A||B|.

Hagamos aqu´ı la observaci´on de que la u ´nica forma de definir el determinante de la matriz identidad coherente con este teorema era darle el valor 1, ya que si hubiera sido cero, no hubiera distinguido matrices invertibles de matrices no invertibles y de no ser cero, |I| = |II| = |I||I| implica |I| = 1.

101

Ejercicios. 4.3.1. a) Demostrar que una matriz triangular superior es invertible si y s´olo si todos los elementos de su diagonal son distintos de cero. b) Demostrar el resultado an´alogo para matrices triangulares inferiores. 4.3.2. a) Demostrar que una matriz antisim´etrica de orden impar no puede ser invertible. b) Encontrar matrices antisim´etricas de orden par que sean invertibles. 4.3.3. Calcular los determinantes: 1 1 1 x1 x2 x3 2 2 2 x1 x 2 x 3 1 1 1 1 x1 x2 x3 x4 2 2 2 2 x1 x2 x3 x4 3 3 3 3 x x x x 4 3 2 1

102

Como un inciso, vamos a ver ahora como se hace en general el determinante n × n: 1 1 1 ··· 1 x1 x2 x3 · · · xn 2 2 x x2 x23 · · · x2n ∆n = 31 x32 x33 · · · x3n x1 ··· ·· · · · · · · · · · n−1 ·n−1 x x2 xn−1 · · · xnn−1 1 3 que se llama determinante de Vandermonde. Si dos de los xi son iguales, la matriz tiene dos columnas iguales y por tanto su determinante es cero. Suponemos ahora que todos los xi son distintos entre s´ı. Se reduce su tama˜ no en uno restando a cada fila la anterior multiplicada por x1 si x1 6= 0. Si x1 = 0 se reduce el tama˜ no en uno, desarrollando por la primera columna y sacando xj de cada columna j. Entonces: ∆n =

1 1 1 x1 x2 x3 2 2 x23 x2 x1 3 3 x33 x2 x1 ··· ··· ··· n−2 n−2 x1 x2 xn−2 3 n−1 n−1 xn−1 x x 1 2 3

··· ··· ··· ··· ··· ··· ···

1 xn x2n x3n ··· xn−2 n xn−1 n

=

1 0 0 0 ··· 0 0

1 1 x 2 − x1 x 3 − x1 x2 (x2 − x1 ) x3 (x3 − x1 ) x23 (x3 − x1 ) x22 (x2 − x1 ) ··· ··· n−1 n−1 x2 (x2 − x1 ) x3 (x3 − x1 ) xn−2 (x2 − x1 ) xn−2 (x3 − x1 ) 2 3

··· 1 ··· xn − x1 · · · xn (xn − x1 ) · · · x2n (xn − x1 ) ··· ··· n−1 · · · xn (xn − x1 ) · · · xn−2 n (xn − x1 )



Aqu´ı, podemos prescindir de la primera columna y sacar en las columnas restantes los factores: x2 − x1 , x3 − x1 , · · · , xn − x1 , quedando nuestro determinante igual a 1 1 · · · 1 x2 x3 · · · xn 2 x x23 · · · x2n ∆n = (x2 − x1 )(x3 − x1 ) · · · (xn − x1 ) 32 x33 · · · x3n x2 ··· · · · · · · · · n−2 ·n−2 x · · · xn−2 x3 2 n que es del mismo tipo, donde repitiendo las operaciones con las filas, tenemos que es igual a

103

(x2 − x1 )(x3 − x1 ) · · · (xn − x1 )(x3 − x2 ) · · · (xn − x2 )

1 x3 x23 x33 ··· x3n−3

··· ··· ··· ··· ··· ···

1 xn x2n x3n ··· xn−3 n

n−1 n YY = (xi − xj ). j=1 i>j

Ejercicios: 4.4.1. a) Siendo a0 + a1 x + a2 x2 + a3 x3 = P (x) un polinomio de grado 3, hallar sus coeficientes para que P (0) = 2, P (1) = 1, P (2) = −1, P (3) = 0 b) Demostrar que siempre se puede encontrar un polinomio de grado 3 que cumpla las condiciones {P (xi ) = yi }i∈{1,2,3,4} , cuando todos los {xi } son distintos, cualesquiera que sean los {yi }. c) Generalizar el resultado b): dado un polinomio de grado n, y n + 1 parejas de puntos {(xi , yi )}i∈{1,2,··· ,n+1} , siempre se pueden encontrar los coeficientes del polinomio de manera que P (xi ) = yi si todos los {xi } son distintos. Obs´ervese que la parte c) nos indica c´omo hallar una funci´on cuya gr´afica pase por n + 1 puntos del plano siempre que no haya dos puntos en la misma vertical. Desarrollo del determinante por una fila cualquiera y por una columna cualquiera: La definici´on de determinante se ha hecho por inducci´on utilizando la primera columna. Como el determinante de la matriz es igual al de la traspuesta por el teorema 1, obtenemos otra expresi´on trasponiendo la matriz A y aplicando la definici´on de determinante: |A| = a11 |A11 | − a12 |A12 | + · · · + (−1)j+1 a1j |A1j | + · · · + (−1)n+1 a1n |A1n | donde hemos cambiado el sub´ındice i por j ya que j es el sub´ındice utilizado usualmente para columnas. Este es el desarrollo del determinante por la primera fila. Por otra parte, considerando que la fila i-´esima puede ser colocada en la primera fila pas´andola por encima de las i-1 anteriores, lo cual da en el determinante de la matriz i-1 cambios de signo y por la f´ormula anterior, tenemos: |A| = (−1)i−1 (ai1 |Ai1 | − ai2 |Ai2 | + · · · + (−1)j+1 aij |Aij | + · · · + (−1)n+1 ain |Ain |) = (−1)i+1 ai1 |Ai1 | + (−1)i+2 ai2 |Ai2 | + · · · + (−1)i+j aij |Aij | + · · · + (−1)i+n ain |Ain | Este es el desarrollo del determinante por cualquier fila. 104

Si queremos desarrollar ahora el determinante por cualquier columna, utilizando el teorema 1, s´olo tenemos que trasponer la matriz y desarrollar el determinante de la traspuesta por la fila correspondiente obteniendo: |A| = (−1)j+1 a1j |A1j | + (−1)j+2 a2j |A2j | + · · · + (−1)i+j aij |Aij | + · · · + (−1)j+n anj |Anj | Ejercicios: 4.5.1. a) Obtener, en funci´on de los determinantes de los menores diagonales de la matriz A, a11 − λ a a 12 13 a21 a22 − λ a23 |A − λI| = a31 a32 a33 − λ (Indicaci´on: descomponer las filas en sumandos sin λ y con λ). b) Aplicar la f´ormula a la obtenci´on de los siguientes determinantes:   1−λ 2 1 2 1 −2   − λI 0 3−λ 1 1/3 −1 −2 −2 3 1 2−λ −2 2 −1 4.5.2. Encontrar los  a  a) 1 0

valores de a para que las siguientes matrices sean invertibles.      1 1 −1 −1 1 −1 a a a 1  4 −a  a  b)  1 c)  a −1 1 a −1 a 0 a a −1

4.5.3. Dadas A, B y C, matrices cuadradas de orden n y   A C D= 0 B a) Demostrar que |D| = |A||B| utilizando la descomposici´on:      A C In 0 A C = 0 B 0 B 0 In b) Demostrar, utilizando una descomposici´on similar, la misma igualdad, |D| = |A||B|, en el caso:   A 0 D= C B 105

F´ ormula para la inversa: Del desarrollo del determinante por una fila cualquiera ten´ıamos |A| = (−1)i+1 ai1 |Ai1 | + (−1)i+2 ai2 |Ai2 | + · · · + (−1)i+j aij |Aij | + · · · + (−1)i+n ain |Ain | que se puede expresar matricialmente as´ı: 

(−1)i+1 |Ai1 | (−1)i+2 |Ai2 | .. .

    = (ai1 , ai2 , · · · , aij , · · · , ain )   (−1)i+j |Aij |  ..  . (−1)i+n |Ain | Ahora vamos a hacer la siguiente observaci´on:

      = |A|   

Si k 6= i, la suma Σ = (−1)i+1 ak1 |Ai1 |+(−1)i+2 ak2 |Ai2 |+· · ·+(−1)i+j akj |Aij |+· · ·+(−1)i+n akn |Ain | corresponde al desarrollo del determinante de la matriz obtenida cambianndo la fila i-´esima de A por la fila k-´esima y dejando esta u ´ltima igual, es por tanto, el desarrollo del determinante de una matriz que tiene las filas i-´esima y k-´esima iguales, que es cero. Lo cual matricialmente se puede escribir as´ı:   (−1)i+1 |Ai1|  (−1)i+2 |Ai2 |    ..   .   (ak1 , ak2 , · · · , akj , · · · , akn )  =0 i+j (−1) |A |  ij    ..   . (−1)i+n |Ain | Por tanto tenemos en una sola expresi´on:  a11 · · · a1i · · · a1k · · ·  ..  . ··· ··· ··· ··· ···   ai1 · · · aii · · · aik · · ·  .  .. · · · · · · · · · · · · · · ·   a  k1 · · · aki · · · akk · · ·  .  .. · · · · · · · · · · · · · · · an1 · · ·

ani · · ·

ank · · ·

 a1n ..   .   ain    ..   .    akn    ..    . ann

  (−1)i+1 |Ai1 | ..     .  i+j (−1) |Aii |     .. = .    i+j (−1) |Aik |      ..   . (−1)i+n |Ain |

Ahora, haciendo variar en la columna anterior el sub´ındice i, tenemos: 106

0 0 |A| 0 .. . .. . 0

          

            

a11 .. a1i .. . .. .. ai1 .. aii .. . .. .. ak1 .. aki .. . .. .. an1 .. ani



.. a1k .. a1n  ..   .. .. .. .    .. aik .. ain     ..   .. .. .. .    .. akk .. akn    ..    .. .. .. .   .. anj .. ann

      =     

|A| 0 0 .. . 0 0 0

.. |A11 | . (−1)i+1 |Ai1 | .. .. .. . . . .. i+1 (−1) |A1i | . |Aii | .. .. .. . . . . (−1)k+1 |A1k | .. (−1)i+k |Aik | .. .. .. . . . . (−1)n+1 |A1n | .. |Ain |

0 ··· ··· 0 .. . ··· ··· ··· · · · |A| 0 0 .. . ··· ··· ··· · · · 0 · · · |A| .. . ··· ··· ··· ···

0

···

0

···

0

··· ···

0 0 .. .

.. . (−1)k+1 |Ak1 | .. .. . . .. k+1 . (−1) |Aki | .. .. . . .. . |Akk | .. .. . . .. . (−1)k+1 |Akn |

.. . |An1 | .. .. . . .. n+i . (−1) |Ani | .. .. . . .. . (−1)n+k |Ank | .. . .. . |Ann |



      = |A|I. ···  ··· 0    ... 0  · · · |A|

Adem´as, del desarrollo del determinante por una columna, ten´ıamos: |A| = (−1)j+1 a1j |A1j | + (−1)j+2 a2j |A2j | + · · · + (−1)i+j aij |Aij | + · · · + (−1)j+n anj |Anj | que matricialmente se escribe as´ı:      j+1 j+2 i+j n+j ((−1) |A1j |, (−1) |A2j | · · · (−1) aij |Aij | · · · (−1) |Anj |)    

a1j a2j .. .



     = |A| aij  ..  .  anj

Tambi´en ocurre que si k 6= j, 0 = (−1)j+1 a1k |A1j | + (−1)j+2 a2k |A2j | + · · · + (−1)i+j aik |Aij | + · · · + (−1)j+n ank |Anj | ya que es el determinante de la matiz obtenida de A sustituyendo la columna j-´esima por la coluna k-´esima, 107

              

(tiene dos columnas iguales), que matricialmente se escribe as´ı:      ((−1)j+1 |A1j |, (−1)j+2 |A2j | · · · (−1)i+j |Aij | · · · (−1)n+j |Anj |)    

a1k a2k .. .



    =0 aik  ..  .  ank

y globalmente para todas las columnas se expresa:               

.. |A11 | . (−1)j+1 |Aj1 | .. .. .. . . . . (−1)j+1 |A1j | .. |Ajj | .. .. .. . . . .. k+1 j+k (−1) |A1k | . (−1) |Ajk | .. .. .. . . . . (−1)n+1 |A1n | .. |Ajn |  |A|   0   0  . =  ..  0    0 0

.. . (−1)k+1 |Ak1 | .. .. . . .. . (−1)k+j |Akj | .. .. . . .. . |Akk | .. .. . . .. . (−1)k+1 |Akn | 0 ··· ··· ... ··· ··· · · · |A| 0 .. . ··· ··· ··· .. . ···

0

···

··· 0

··· ···

 ..  . |An1 | a11  .. ..   . .   ...  .. aj1 . (−1)n+j |Anj |    . .. ..    .. . .  ..  ak1 . (−1)n+k |Ank |   .  ..   .. .  an1 .. . |Ann |  0 ··· 0  ··· ··· 0   0 ··· 0  ..  ··· ··· .   = |A|I. |A| · · · 0    ... ··· 0  0 · · · |A|

 .. a1j .. a1k .. a1n .  .. .. .. .. .. ..   .. ajj .. ajk .. ajn  ..  .. .. .. .. .. .   .. akj .. akk .. akn   ..  .. .. .. .. .. .  .. anj .. ank .. ann

Entonces, de estas igualdades, tenemos que llamando matriz cofactor de A a cof (A) = (cof (aij )) = ((−1)i+j |Aij |) se verifica: A · t cof (A) = |A|I,

t

cof (A) · A = |A|I

lo que nos indica la f´ormula de la inversa de una matriz con determinante distinto de cero: A−1 =

1 t ( cof (A)) |A| 108

que ser´a inversa a la derecha y a la izquierda, y por tanto u ´nica. Ejercicios: 4.6.1. Utilizando las matrices de cofactores, hallar las inversas de las matrices de los ejercicios 3.4.1. que sean invertibles. Comprobar los resultados obtenidos utilizando el m´etodo de Gauss para calcular la inversa. 4.6.2. Mostrar, usando la f´ormula de la inversa, que cuando una matriz es invertible, la traspuesta de la inversa coincide con la inversa de la traspuesta. 4.6.3. Mostrar, usando la f´ormula de la inversa, que la matriz inversa de una matriz triangular superior invertible es tambi´en triangular superior. Y que lo an´alogo ocurre para matrices triangulares inferiores.

109

Regla de Cramer. Sea AX = b un sistema de ecuaciones, escrito de manera resumida, donde A es la matriz de los coeficientes de las inc´ognitas, X es la columna de las inc´ognitas, y b es la columna de t´erminos independientes; si A es una matriz invertible, multiplicando por la inversa de A a la izquierda, tenemos X = A−1 b, donde utilizando la f´ormula anterior para la inversa, tenemos: X=

1 t ( cof (A))b |A|

que desarrollada inc´ognita a inc´ognita da la regla de Cramer. Para cada inc´ognita xi , que es una fila de la matriz X, tenemos: xi =

1 ((−1)i+1 A1i b1 + (−1)i+2 A2i b2 + · · · + (−1)i+n Ani bn ) |A|

donde la expresi´on del par´entesis es el desarrollo por la columna i-´esima del determinante de la matriz obtenida de A (la matriz de los coeficientes) cambiando su columna i-´esima por la columna de los t´erminos independientes. Ejercicios: 4.7.1. Utilizar la regla de Cramer para resolver los siguientes sistemas de ecuaciones:    2x +y +4z +8t = −1   x +2y −z = 7  2x +3y −5z − 2 = 0   x +3y −6z +2t = 3 6 a) 2x +y +z = b) 3x −y +2z + 1 = 0 c) 3x −2y +2z −2t = 8     x −y +3z = −1 5x +4y −6z − 3 = 0  2x −y +2z = 4 Se pueden comprobar los resultados obtenidos sustituyendo o aplicando el m´etodo de Gauss. Sol: a) (5/3,8/3,0) b) (−1/5, 14/5, 6/5), c)(2, −3, −3/2, 1/2).

110

Volviendo a los sistemas de ecuaciones, para los que hemos encontrado la regla de Cramer cuando A es invertible, podemos demostrar que X = A−1 b, es soluci´on u ´nica, ya que si hubiera dos soluciones X y X’ para las inc´ognitas, de las igualdades AX = b = AX 0 se tiene A(X − X 0 ) = 0 de donde multiplicando por la izquierda por A−1 tenemos X − X 0 = A−1 0 = 0, es decir, X = X 0 . La unicidad de la soluci´ on de los sistemas AX=b se puede reducir a la unicidad de soluci´on del sistema AX=0, ya que ´este es un caso particular de los anteriores y si hay dos soluciones distintas de AX=b para alg´ un b, la diferencia (distinta de cero), es soluci´ on no nula de AX=0. (Un sistema de la forma AX=0 se llama sistema homog´eneo y dado un sistema de la forma AX=b, al sistema AX=0 se le llama sistema homog´eneo asociado al sistema dado.)

Se nos plantea la pregunta sobre qu´e podemos decir de los sistemas AX = b cuando A es una matriz no invertible e incluso cuando A no es una matriz cuadrada. Teorema de Rouch´ e-Frobenius. Cuando A no es invertible (p. ej. si no es cuadrada) en el cap´ıtulo primero hemos enunciado el Teorema de Rouch´e-Frobenius relativo a los escalones de las matrices escalonadas a las que quedan reducidas A y A|b. Ahora vamos a expresar num´ericamente el teorema de Rouch´e-Frobenius con la definici´on de rango de una matriz, por medio de determinantes de submatrices suyas. Para expresar num´ericamente este teorema definiremos el rango de una matriz no necesariamente cuadrada como el m´aximo de los o´rdenes de las submatrices cuadradas de A con determinante distinto de cero. Recordemos que, denotando por E(A|b) la matriz escalonada que se puede obtener de la matriz ampliada del sistema y por E(A) la matriz escalonada a la que queda reducida A, el teorema de Rouch´ e-Frobenius enunciado relativo a los escalones de las matrices escalonadas a que se pueden reducir la matriz de los coeficientes del sistema y la matriz ampliada era: El sistema es incompatible si el n´ umero de escalones de E(A|b) (o n´ umero de filas no nulas de E(A|b)) es distinto del n´ umero de escalones de E(A) (o n´ umero de filas no nulas de E(A)). El sistema es compatible si los dos n´ umeros anteriores son iguales, siendo compatible determinado si todos los escalones de E(A) son de longitud una columna y siendo compatible indeterminado si hay alg´ un escal´on en E(A) de m´as de una columna. En el primer caso el n´ umero de escalones de las dos matrices escalonadas o n´ umero de filas no nulas coincide con el n´ umero de columnas, es decir, con el n´ umero de inc´ognitas; En el segundo caso el n´ umero de filas no nulas de las dos matrices escalonadas anteriores es menor que el n´ umero de columnas o inc´ognitas. 111

Veamos cu´al es el rango de una matriz escalonada. En una matriz escalonada, cada fila distinta de cero determina un escal´on. Al n´ umero distinto de cero del a´ngulo del escal´on se le llama pivote. Cada fila distinta de cero determina un pivote y rec´ıprocamente cada pivote pertenece a una fila distinta de cero. Tambi´en cada pivote determina una columna con ese pivote; entonces, si en la submatriz formada por las columnas que tienen pivote, suprimimos las filas nulas, obtenemos una submatriz cuadrada, ya que tiene tantas filas y tantas columnas como pivotes. Adem´as es una matriz triangular superior (de orden igual al n´ umero de filas no nulas de la matriz escalonada o n´ umero de escalones), cuyos elementos en la diagonal son los pivotes, todos distintos de cero; por tanto su determinante es no nulo. De ello se deduce que el rango de una matriz escalonada es mayor o igual que su n´ umero de filas no nulas, pero una submatriz de mayor orden tendr´ıa que incluir filas nulas, y su determinante ser´ıa nulo, por lo que el rango de una matriz escalonada coincide con el n´ umero de sus filas no nulas o n´ umero de escalones. As´ı, podemos dar un primer paso y enunciar el teorema de Rouch´ e-Frobenius diciendo que el sistema es incompatible cuando los rangos de las matrices escalonadas a las que se reducen la matriz de los coeficientes del sistema y la matriz ampliada son distintos. Y que es compatible determinado cuando adem´ as de ser los dos rangos iguales, lo son al n´ umero de inc´ ognitas, siendo en otro caso indeterminado. Si ahora comprobamos que el rango de una matriz es invariante por operaciones elementales, podemos suprimir en el enunciado anterior la frase: ”las matrices escalonadas a las que se reducen”; quedando el teorema de Rouch´e-Frobenius antes escrito en letra negrita en su enunciado cl´asico. Invariancia del rango por transformaciones elementales. En efecto, vamos a ver que se conserva el orden de las submatrices con determinante distinto de cero, y por tanto su m´aximo, al realizar cada uno de los tipos de operaciones elementales. Para ello vemos que si hay un menor de un determinado orden distinto de cero en la matriz que resulta de una dada por una transformaci´on elemental hay otro menor del mismo orden, distinto de cero (que puede coincidir con el primero) en la matriz dada. 1.) Hagamos en una matriz un intercambio de filas. Si en la matriz resultante hay un menor distinto de cero, es decir, una submatriz de determinante no nulo, puede ocurrir que no interseque las filas intercambiadas, en cuyo caso aparece tal cual en la primera matriz y su determinante es el mismo. O que contenga a las dos filas intercambiadas, en cuyo caso haciendo el cambio de filas inverso en la submatriz obtenemos otra submatriz de la matriz dada con determinante cambiado de signo 112

respecto a la primera submatriz considerada, pero tambi´en distinto de cero. O que contenga s´olo una fila de las intercambiadas y en este caso permutando esta fila con las otras para intercalarla en el lugar en que aparec´ıa en la matriz dada obtenemos una submatriz de la primera matriz en la que aparece el trozo correspondiente de la fila de la que proven´ıa siendo su determinante igual o cambiado de signo respecto al menor considerado, pero siempre distinto de cero. Luego el orden de los menores distintos de cero se conserva en el primer tipo de operaciones elementales. 2.) Multipliquemos una fila por un n´ umero distinto de cero. Dado un menor distinto de cero en la matriz modificada, es decir, una submatriz con determinante distinto de cero, si esta submatriz no interseca la fila multiplicada, aparece tal cual en la matriz dada y si aparece la fila multiplicada su determinante es un m´ ultiplo distinto de cero del determinante de la submatriz de las mismas filas y las mismas columnas en la matriz dada, que por tanto ha de ser tambi´en distinto de cero. Entonces, el orden de los menores distintos de cero se conserva por el segundo tipo de operaciones elementales. 3.) Sumemos a una fila otra fila multiplicada por un n´ umero. Un menor distinto de cero de la matriz resultante puede ser el determinante de una submatriz que no contenga la fila modificada y entonces aparece tal cual en la primera matriz, siendo ya antes distinto de cero. Si la submatriz contiene la fila modificada y la fila sumada, su determinante es igual al de la submatriz de las mismas columnas y an´alogas filas en la matriz dada, que por tanto era distinto de cero. Si la submatriz contiene la fila modificada pero no la sumada, descomponemos su determinante en la suma de los dos determinantes de las dos submatrices formadas, primero, por las mismas columnas y las filas an´alogas de la primera matriz y segundo por la submatriz obtenida de ´esta sustituyendo la fila modificada por la sumada multiplicada por el n´ umero. Si la submatriz primer sumando tiene determinante no nulo, se ha conservado el orden de los menores no nulos; si este u ´ltimo determinante es nulo, el otro determinante sumando ha de ser no nulo, pero el otro es m´ ultiplo de un menor del mismo orden en la matriz dada (aunque con filas permutadas), que ha de ser de valor no nulo, por lo que tambi´en queda igual el orden de los menores distintos de cero. De aqu´ı se deduce que el rango de la matriz modificada por operaciones elementales es menor o igual que el rango de la matriz dada. Como la matriz dada tambi´en se obtiene de la matriz modificada por las operaciones elementales inversas, tenemos que los dos rangos son iguales. Con esto queda establecido el teorema de Rouch´ e-Frobenius en la versi´on de rangos.

113

Apliquemos ahora el teorema de Rouch´e-Frobenius al sistema AX=b cuando A es una matriz cuadrada invertible de orden n. Como |A| 6= 0 tenemos el rango de A igual a n y como A es una submatriz de A|b, el rango de A|b es mayor o igual que el de A, pero tambi´en es siempre menor o igual al n´ umero de sus filas, que es n, por tanto coinciden el rango de A y el de A|b. Entonces, el sistema es compatible. Tambi´en tenemos que estos rangos son iguales a n, que es el n´ umero de inc´ ognitas, por tanto la soluci´ on es u ´nica, cualquiera que sea b (los t´erminos independientes). Si la soluci´ on del sistema es u ´nica para todo b, tambi´en lo es cuando b = 0. Entonces A es invertible porque si A no fuera invertible, ser´ıa |A| = 0 por lo que al ser A cuadrada, tendr´ıamos que el mayor orden de los menores distintos de cero es menor que n por lo que el rango de A ser´ıa menor que n, pero al ser igual al rango de A|0, porque una columna de ceros no aumenta el orden de los menores distintos de cero, seg´ un el Teorema de Rouch´e-Frobenius, el sistema ser´ıa compatible indeterminado, por tanto, la soluci´on no ser´ıa u ´nicamente la trivial seg´ un hab´ıamos supuesto.

Con los mismos razonamientos tambi´en se puede demostrar el Teorema 4: Dada una matriz cuadrada A, A es invertible si y s´ olo si el sistema AX=0 tiene u ´ nicamente la soluci´ on trivial. Este teorema se sigue de la equivalencia entre la unicidad de la soluci´on del sistema AX=0 y la del sistema AX=b, cualquiera que sea b. Ejercicios: 4.8.1. Estudiar la compatibilidad y determinaci´on de los sistemas siguientes aplicando el teorema de Rouch´e-Frobenius seg´ un el c´alculo del rango de las matrices correspondientes a los sistemas siguientes:    x1 +2x2 −x3 = 1  2x1 +x2 = 5  x1 −3x2 +x3 = 2  x2 +x3 = 2 x1 −x2 = 1 3x1 −8x2 +2x3 = 2    x1 +3x2 = 3 x1 +2x2 = 0 2x1 −5x2 +x3 = 3 4.8.2. Hallar los valores de a para que los sistemas  ax +y +z = 1  x +ay +z = 1  x +y +az = 1

 (a + 1)x +y +2z = −2  2x +y +(a + 1)z =3  x +(a + 1)y +2z = −2

sean compatibles indeterminados. 4.8.3. Estudiar los valores de a y b que hacen compatibles los sistemas:

114

 −x +ay +az = 0  ax −y +az = 0  ax +ay −z = 0

 bx −ay −az = a    −bx −az = a −bx −by =a    −bx −by −bz = b

bx −bx −bx −bx −bx

115

−ay −az −az −by −by −bz −by −bz

−at = −at = −at = = −bt =

a a a a b

          

Producto Vectorial.

as´ı:

El producto vectorial de dos vectores a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ) se escribe simb´olicamente i j k a × b = a1 a2 a3 b1 b2 b3

lo cual representa el vector de coordenadas:   a2 a3 a1 a3 a1 a2 a2 a3 a1 a3 a1 a2 b2 b3 , − b1 b 3 , b1 b2 = i b2 b3 − j b1 b3 + k b1 b2 donde i, j y k son los vectores unitarios en la direcci´on de los ejes coordenados. Este vector tiene las siguientes caracter´ısticas: 1) Es perpendicular a cada uno de los vectores (a1 , a2 , a3 ) y (b1 , b2 , b3 ) de los que es producto. 2) Su m´odulo es igual al ´area del paralelogramo que tiene por lados los vectores factores. 3) Su sentido es el de avance de un sacacorchos que gira desde la recta engendrada por el vector primer factor hacia la recta engendrada por el vector segundo factor. Demostraci´on de la propiedad 1): Veamos que kakkbkcosα = a1 b1 + a2 b2 + a3 b3 , donde α es el a´ngulo que forman los dos vectores a y b. En efecto, seg´ un el dibujo,

 B  B  B   

b

 $  α  a  

 

 b-a 

        1 

116

B Bkbksenα B B B B B    B

kb − ak2 = (kbksenα)2 + (kbkcosα − kak)2 = kbk2 sen2 α + kbk2 cos2 α + kak2 − 2kakkbkcosα = kbk2 + kak2 − 2kakkbkcosα. Desarrollando ahora los t´erminos iniciales y finales de la desigualdad anterior, (b1 − a1 )2 + (b2 − a2 )2 + (a3 − b3 )2 = b21 + b22 + b23 + a21 + a22 + a23 − 2kakkbkcosα donde desarrollando de nuevo, los cuadrados del primer miembro y simplificando, llegamos a la igualdad deseada en 1. (Compru´ebese como ejercicio.) De aqu´ı se deduce que dos vectores son perpendiculares si y s´olo si la suma de los productos de las coordenadas del mismo ´ındice es cero. Esta suma de productos de coordenadas para los vectores a y a × b es el determinante de una matriz que tiene dos filas formadas por las coordenadas de a y otra fila formada por las coordenadas de b, siendo por tanto cero. Lo an´alogo ocurre para los vectores b y a × b. Por lo que los vectores a y b son perpendiculares al vector a × b. Las aplicaciones del producto vectorial en matem´aticas son numerosas: (adem´as de ser usado en f´ısica.): a) Dada una recta como intersecci´on de dos planos:  Ax + By + Cz = D A0 x + B 0 y + C 0 z = D0 ya que sabemos que dos vectores perpendiculares a dichos planos son correspondientemente: (A, B, C) y (A0 , B 0 , C 0 ), y que por tanto, son perpendiculares a la recta, el producto vectorial de estos vectores es un vector en la direcci´on de la recta. b) Dada una curva como intersecci´on de superficies, el vector tangente a la curva en un punto es la intersecci´on de los planos tangentes a las superficies en ese punto y puede hallarse utilizando el resultado anterior. Ejercicios: 4.9.1. Hallar el vector de direcci´on de la recta de R3 dada por las ecuaciones:  2x + y + 2z = 0 x + 2y + z = 0 4.9.2. Hallar la recta perpendicular com´ un a las dos rectas determinadas por las dos parejas de puntos: {(3, 1, 0), (1, 1, 3)} y {(0, 1, 0), (−1, 0, 0)}. 117

Demostraci´on de la propiedad 2): Para probar que el m´odulo del producto vectorial a × b es igual al ´area del paralelogramo de lados a y b tenemos en cuenta que (Ar(a, b))2 = kak2 kbk2 sen2 α = kak2 kbk2 (1 − cos2 α) = kak2 kbk2 − kak2 kbk2 cos2 α = (a21 + a22 + a23 )(b21 + b22 + b23 ) − (kakkbkcosα)2 = (a21 + a22 + a23 )(b21 + b22 + b23 ) − (a1 b1 + a2 b2 + a3 b3 )2 = a2 a3 2 a1 a3 2 a1 a2 2 b2 b3 + b1 b3 + b1 b2 f´ormula muy u ´til en R3 , donde es laborioso el c´alculo directo de la altura de un paralelogramo o de un tri´angulo. Consecuencia de ello es que si el producto vectorial de dos vectores es cero, uno de los dos es m´ ultiplo del otro. (O sea que est´an en la misma recta). Al ser nula el ´area del paralelogramo subtendido por ellos. Ejercicios: 4.10.1. Comprobar que el ´area del cuadrado que tiene tres v´ertices en los puntos {(1, 1), (2, 1), (1, 2)} del plano, hallada haciendo el producto de base por altura es la misma que el a´rea hallada usando el producto vectorial. 4.10.2. Hallar el a´rea de un paralelogramo que tiene tres v´ertices en los puntos: a) (1, 1), (2, 3), (3, 4)}. b) {(0, 1, 0), (1, 2, 1), (1, 1, 1)}. 4.10.3. Hallar el a´rea del cuadril´atero de v´ertices: {(−2, 0), (−1, −2), (2, 1), (0, 3)}.

118

La propiedad 3) se demuestra al final del cap´ıtulo de movimientos utilizando m´as conocimientos del curso. Otras propiedades interesantes son: Propiedad 4). Tambi´en se puede expresar el volumen de un paralelep´ıpedo cuyos lados son tres vectores como un determinante cuyas filas son las coordenadas de los vectores y que se llama producto mixto de los tres vectores. Su demostraci´on se hace utilizando el producto vectorial. Ve´amoslo: Si a, b y c son tres vectores no coplanarios, considerando que a y b determinan la base del paralelep´ıpedo, el volumen es el producto del ´area de la base por la altura.

PPP  PP  PP  P  PP   PP    PP PP

6

a×b

p(c)

c

1PP  PP b  PP   PP  P  PP a   PP  PP q P

El a´rea de la base es el m´odulo del producto vectorial ka × bk. La altura es el m´odulo de la proyecci´on p(c) del vector c sobre la perpendicular al plano engendrado por a y b (a × b): p(c) = kckcosang(c, a × b) = kck

c · (a × b) c · (a × b) = kckka × bk ka × bk

resultando a2 a3 a1 a3 a1 a2 = V ol(paralpedo)(a, b, c) = ka×bk(c·(a×b)/ka×bk) = c·(a×b) = c1 −c +c b2 b3 2 b1 b3 3 b1 b2 c 1 c 2 c 3 a1 a2 a3 = a1 a2 a3 = b1 b2 b3 b1 b2 b3 c 1 c 2 c 3

119

Del volumen del paralelep´ıpedo se deduce el volumen de un prisma triangular como la mitad del volumen del paralelep´ıpedo y el volumen de una pir´amide como el tercio del volumen del prisma. Ve´anse los dibujos siguientes: PPP  PP   PP   P P  P  P  P

 

PPP PP

PP P

 

 P PP

PP

PP P  

 

 

 P   P  P  P  "  "  " "  " "   " "   "  " "" "        P  PP PP   PP   P   P   P P P P    P P "     " PP  " ""    "    " ""     "" "     " ""   " " "  "" ""  " ""     "       PP  PP   PP PP  

120

Ejercicios: 4.11.1. Hallar el volumen de un paralelep´ıpedo que a) Tiene como aristas los vectores: {(1, 2, −1), (0, 1, 2), (1, 2, −3)}. b) Tiene un v´ertice en uno de los puntos: {(1, 0, 1), (1, 1, 2), (1, 1, 1), (2, 0, 2)} y los otros tres puntos adyacentes al v´ertice escogido. 4.11.2. Hallar el volumen de un prisma triangular con una base determinada por los puntos: {(1, 0, 1), (0, 1, 1)(1, 1, 0)} y con un v´ertice de la base opuesta en (1, 1, 1)). 4.11.3. Los cuatro puntos {(0, 0, 0), (1, 0, 0), (0, 1, 0)(0, 0, 1)} determinan un tetraedro. Hallar: a) Su volumen. b) El a´rea A de la cara que no est´a contenida en ning´ un plano coordenado. c) Su altura h referida a esta cara. d) Comprobar que el volumen obtenido utilizando determinantes es igual al volumen obtenido por la f´ormula: V = 1/3(A × h). 4.9.4. Los cuatro puntos {(3, 1, 0), (2, 0, 0), (0, 1, 0)(1, 1, 3)} determinan un tetraedro. Hallar la altura del v´ertice (3,1,0) respecto al a´rea de la cara de v´ertices {(2, 0, 0), (0, 1, 0)(1, 1, 3)} utilizando el producto vectorial y los determinantes.

121

Propiedad 5). El producto vectorial se usa para calcular el vector normal (perpendicular) a una superficie en un punto y por ello, para calcular las integrales en superficies, entre ellas, las ´areas de las superficies curvadas. Para ello es necesario saber cual es la relaci´on entre las ´areas de distintos paralelogramos de lados conocidos, contenidos en el mismo plano, cuando sabemos la relaci´on entre los lados. Esta relaci´on se usa al hacer cambios de coordenadas en las integrales. Es suficiente ver dicha relaci´on para vectores del plano coordenado z = 0, lo cual no restringe la generalidad: dadas dos parejas de vectores {a, b} y {u, v} del plano donde u = c1 a+c2 b, v = d1 a+d2 b se cumple: c1 d 1 Ar(a, b) Ar(u, v) = c2 d 2 Demostraci´on: observemos que si a = (a1 , a2 , 0) y b = (b1 , b2 , 0), la f´ormula del a´rea como el m´odulo del producto vectorial da u1 u2 a1 a2 y Ar(u, v) = Ar(a, b) = v1 v2 b1 b2 Ya que es u = (u1 , u2 ) = (c1 a1 + c2 b1 , c1 a2 + c2 b2 ) y v = (v1 , v2 ) = (d1 a1 + d2 b1 , d1 a2 + d2 b2 ), c 1 a1 + c 2 b 1 c 1 a2 + c 2 b 2 = Ar(u, v) = d1 a1 + d2 b1 d1 a2 + d2 b2    c 1 c 2 a1 a2 c 1 d 1 c1 c2 a a 1 2 = = Ar(a, b) d1 d2 b1 b2 d1 d2 b1 b2 c2 d2 Esta relaci´on se usa al hacer cambios de coordenadas en las integrales. Cuando se vea el cambio de base entre espacios vectoriales se podr´a observar que el determinante que relaciona las dos a´reas es el determinante de cambio de base entre la base {a, b} y la base {c, d}.

122

BIBLIOGRAFIA (A) Algebra Lineal y aplicaciones. J. Arves´ u Carballo, R. Alvarez Nodarse, F. Marcell´an Espa˜ nol. Ed. S´ıntesis Madrid. 1999. (FB) Algebra lineal. J. B. Fraleigh y R. A. Beauregard. Ed. Addison- Wesley /Iberoamericana, 1989. [G] Matem´aticas 2 Bachillerato. Carlos Gonzalez Garc´ıa. Jes´ us Llorente Medrano. Maria Jos´e Ruiz Jim´ nez. Ed. Editex. 2009. (H) Algebra y Geometr´ıa. Eugenio Hern´andez. Ed. Addison- Wesley / UAM, 1994. [L] Linear Algebra for Mathematics, Science, and Engineering. E. M. Landesman, M. R. Hestenes. Prentice-Hall International, Inc. 1992. [S] Introduction to Linear Algebra. G. Strang. Wellesley-Cambridge Press 1993.

123

124

ESPACIOS VECTORIALES. Introducci´ on. Consideremos el plano. Fijado un origen O y dado un punto P, uniendo el origen con ese punto por el camino m´as corto obtenemos un segmento orientado que se llama vector. Los vectores que empiezan en el mismo origen se pueden sumar dando otro vector con el mismo origen y se pueden multiplicar por un n´ umero real dando otro vector con el mismo origen: dos vectores dados se suman por la regla del paralelogramo: trazando por el extremo del primer vector otro vector paralelo al vector que queremos sumar y considerando el extremo de este u ´ltimo como el extremo de la suma. Respecto a la suma son un grupo conmutativo y la otra operaci´on, que se llama operaci´on externa, es distributiva respecto a la suma de vectores y a la suma de n´ umeros, es asociativa respecto al producto de n´ umeros y el producto de 1 por cualquier vector v deja invariante a este v. Toda esta estructura recibe el nombre de espacio vectorial real. Por otra parte, en el plano podemos trazar dos rectas perpendiculares pasando por el origen, (normalmente, una horizontal y otra vertical), llamarlas ejes y llamar origen al punto en que se encuentran. Tambi´en podemos fijar un segmento como unidad de medida. A este conjunto de elementos lo llamamos sistema de referencia. Trazando dos rectas paralelas a los ejes por el extremo de un vector que empiece en el origen obtenemos sobre los ejes, segmentos que medidos con la unidad fijada dan dos n´ umeros llamados coordenadas del vector o del punto extremo del vector. As´ı hemos establecido otra correspondencia biyectiva entre los puntos del plano y las parejas de n´ umeros reales, es decir, entre los puntos del plano y R × R = R2 . 3 (3,2)            

Es de observar que las coordenadas del vector suma de dos vectores dados, son la suma de las coordenadas de los vectores sumandos.

125

(x1 + y1 , x2 + y2 )

  

(y1 , y2 )

 

             

         

  

  (x1 , x2 )  *   

Tambi´en al multiplicar un vector del plano por un n´ umero real obtenemos un vector de su misma direcci´on y de longitud la que ten´ıa el vector multiplicada por el n´ umero, (si el n´ umero es negativo cambia de sentido), quedando las coordenadas del vector multiplicadas por el n´ umero. Como las operaciones de los vectores se trasmiten a las operaciones de R×R al coger coordenadas de los vectores, la estructura de R × R debida a la suma y a la operaci´on de multiplicaci´on por un n´ umero real, se llama espacio vectorial real. Podemos hacer lo an´alogo en el espacio trazando tres rectas perpendiculares dos a dos que se cortan en un punto del espacio llamado origen: asociar a cada punto un vector que empiece en el origen y fijada una unidad de medida, asociar a cada punto tres coordenadas. En el espacio podemos sumar por la regla del paralelogramo y multiplicar un vector por un n´ umero, lo cual est´a en correspondencia con las dos operaciones en las ternas de n´ umeros reales 3 (R = R × R × R): suma y multiplicaci´on por un n´ umero real. La suma es una operaci´on interna. La multiplicaci´on por un n´ umero real es una operaci´on externa. Estas dos operaciones tienen las mismas propiedades que las operaciones an´alogas de R2 , por eso R3 tambi´en tiene estructura de espacio vectorial real. La estructura de estos conjuntos con estas operaciones puede encontrarse tambi´en en otros conjuntos utilizados en Geometr´ıa y en An´alisis y por ello se estudia de manera abstracta para poder aplicar sus resultados a todos los conjuntos con la misma estructura. Adem´as, la introducci´on del concepto de dimensi´on en los espacios vectoriales permite comparar los conjuntos de soluciones de distintos sistemas de ecuaciones y determinar cu´ando son coincidentes. 126

Tambi´en se puede simplificar el c´alculo del rango de una matriz sin tener que calcular todos sus menores utilizando el concepto de dimensi´on. Pasamos ahora a una descripci´on precisa. Cuerpo. Propiedades. En un espacio vectorial gen´erico, la operaci´on externa est´a definida por los elementos de un cuerpo. Por eso, antes de definir un espacio vectorial necesitamos la definici´on de cuerpo: Definici´on 1: Cuerpo es un conjunto con dos operaci´ones internas que llamamos suma y producto con las siguientes propiedades: 1) La suma es: a) Asociativa. b) Tiene elemento neutro (cero). c) Todo elemento tiene elemento opuesto. d) Conmutativa. 2) El producto es: α) Asociativo. β) Tiene elemento neutro (unidad). γ) Todo elemento distinto del elemento neutro de la suma tiene elemento inverso (opuesto respecto a la multiplicaci´on). δ) El producto es distributivo respecto a la suma (a los dos lados). Si el producto es conmutativo, el cuerpo se llama cuerpo conmutativo. Los cuerpos utilizados para los espacios vectoriales son cuerpos conmutativos. Por eso en nuestros cuerpos tambi´en se da la propiedad: γ) Conmutativo. La existencia de la suma con las propiedades a), b), c) configura al conjunto K en grupo aditivo. La propiedad d) lo hace adem´as grupo aditivo conmutativo. La otra operaci´on llamada multiplicaci´on o producto estructura a K − {0}, en un grupo multiplicativo. El conjunto de los n´ umeros reales es un cuerpo, que denotamos por R. Tambi´en el conjunto de los n´ umeros complejos, que denotamos por C es un cuerpo y el conjunto de los n´ umeros racionales, que denotamos por Q.

127

Estamos tan acostumbrados a que el producto del cero por cualquier otro elemento sea cero que podemos pensar que este resultado es evidente, pero no lo es a partir de los axiomas establecidos en la definici´on de cuerpo. Denotando por e al elemento neutro de la suma para que deje de parecer tan trivial, vamos a establecer: e · x = e ∀x ∈ K En efecto: e · x = (e + e) · x = e · x + e · x Sumando ahora a los dos miembros de esta igualdad el elemento x0 opuesto de ex, tenemos: e = x0 + e · x = x0 + e · x + e · x = e + e · x = e · x es decir, e = e · x. Otras propiedades interesantes son: El elemento neutro de un grupo es u ´nico: Suponiendo la existencia de dos elementos neutros 0 e y e , llegamos a su igualdad: tendr´ıamos e = e + e0 = e0 . De aqu´ı tenemos la unicidad no s´olo del elemento neutro de la suma sino tambi´en la unicidad del elemento neutro de la multiplicaci´on sin m´as que cambiar el signo + por el signo ·. Usualmente, representaremos por 1 el elemento neutro de la multiplicaci´on. El elemento opuesto de uno dado x de un grupo es u ´nico: suponiendo la existencia de dos 0 00 0 0 0 elementos opuestos x y x de x, tenemos: x = x + e = x + (x + x00 ) = (x0 + x) + x00 = e + x00 = x00 . Propiedad importante es que λ1 λ2 = e implica λ1 = e o´ λ2 = e. En efecto: si λ2 6= e, λ2 tiene un inverso respecto a la multiplicaci´on. Sea λ−1 este inverso, 2 entonces, seg´ un la primera propiedad anterior, −1 −1 e = eλ−1 2 = (λ1 λ2 )λ2 = λ1 (λ2 λ2 ) = λ1 .

128

Espacio Vectorial. Definici´on 2: Un conjunto V es un Espacio Vectorial sobre un cuerpo K si 1) Est´a dotado de una operaci´on interna llamada suma respecto de la cual es grupo conmutativo. 2) Tiene una multiplicaci´on externa por los elementos de un cuerpo K, es decir, existe una aplicaci´on del conjunto K × V → V que asocia a cada par (λ, v) el elemento denotado por λv con las siguientes propiedades: a) λ(v1 + v2 ) = λv1 + λv2 . (Distributividad respecto a la suma de V). b) (λ1 + λ2 )v = λ1 v + λ2 v. (Distributividad respecto a la suma en K). c) (λ1 λ2 )v = λ1 (λ2 v). (Asociatividad mixta). d) 1v = v donde 1 es el elemento neutro del cuerpo para la multiplicaci´on y v es cualquier vector de v. El espacio vectorial se representa por VK . En los espacios vectoriales se verifica, si e es el elemento neutro del cuerpo, que e · v = 0 para cada vector v del espacio. Propiedad an´aloga a la de los cuerpos, cuya demostraci´on es tambi´en exactamente an´aloga. Tambi´en, si λ ∈ K y 0 es el elemento neutro de la suma de V, se verifica λ · 0 = 0. En efecto, llamando v 0 al elemento opuesto de λ · 0, tenemos 0 = v 0 + λ · 0 = v 0 + λ · (0 + 0) = v 0 + (λ · 0 + λ · 0) = (v 0 + λ · 0) + λ · 0 = 0 + λ · 0 = λ · 0 Otra propiedad interesante: si 1 es la unidad del cuerpo y −1 es el opuesto de 1 en K, el producto (−1)v es el opuesto de v en V. Se deduce de la igualdad: v + (−1)v = 1 · v + (−1) · v = (1 + (−1))v = e · v = 0 y de la unicidad del elemento opuesto. Adem´as, si un vector v es distinto de cero, la igualdad λv = 0 implica λ = 0, ya que si λ 6= 0, existir´ıa el inverso de λ : (λ1 ) y tendr´ıamos 0 = λ−1 (λv) = (λ−1 λ)v = 1 · v = v, en contra de lo supuesto. Se puede comprobar f´acilmente que el conjunto de matrices 2 × 2 de n´ umeros racionales es un espacio vectorial sobre Q. 129

Es interesante observar que R tiene estructura de espacio vectorial sobre R y que cada cuerpo K tiene estructura de espacio vectorial sobre K. Tambi´en se verifica que C tiene estructura de espacio vectorial sobre R y R tiene estructura de espacio vectorial sobre Q. Es f´acil comprobar que el conjunto de polinomios de grado ≤ n con coeficientes reales es un espacio vectorial sobre R y que el conjunto de polinomios de grado ≤ n con coeficientes complejos es un espacio vectorial sobre C. A los espacios vectoriales sobre R, se les llama espacios vectoriales reales. A los espacios vectoriales sobre C se les llama espacios vectoriales complejos. Son espacios vectoriales reales el conjunto de matrices con entradas reales de m filas y n columnas, Mm×n (R), el conjunto de funciones reales de variable real, el conjunto de las sucesiones de n´ umeros reales... Son espacios vectoriales complejos el conjunto de matrices con entradas complejas de m filas y n columnas, Mm×n (C), el conjunto de sucesiones de n´ umeros complejos... El conjunto de las aplicaciones definidas en un conjunto con imagen en un cuerpo es un espacio vectorial sobre ese cuerpo, sea este R, C o Q. Ejercicios 5.1.1. Indicar por qu´e el conjunto de todas las matrices de n´ umeros reales de todas las dimensiones con n´ umeros reales no es un espacio vectorial real. 5.1.2. Comprobar que el conjunto de funciones reales continuas de variable real son un subespacio vectorial real.

130

Un ejemplo en el que se ve la importancia del cuerpo en la estructura de espacio vectorial es el conjunto C de los n´ umeros complejos. C tiene estructura de espacio vectorial sobre R y estructura de espacio vectorial sobre C. Pero son dos estructuras distintas; Como espacio vectorial complejo, fijado un elemento no cero, todo elemento de C se puede obtener multiplicando el elemento fijo por otro del cuerpo. Pero como espacio vectorial real, fijado un elemento distinto de cero s´ olo los elementos de la recta geom´etrica con direcci´on el elemento fijado se pueden obtener multiplic´ andolo por elementos del cuerpo.

La estructura de espacio vectorial es importante porque permite el concepto de dimensi´on que clasifica a estos espacios y establece diferencias entre los subconjutos de los espacios vectoriales llamados subespacios vectoriales. Se ver´a como ejercicio que la dimensi´on de C no es la misma cuando se considera espacio vectorial complejo que cuando se considera espacio vectorial real. Subespacios Vectoriales. Definici´on 3: Un Subespacio vectorial de un espacio vectorial V sobre un cuerpo K es un subconjunto S no vac´ıo de V que es un espacio vectorial sobre el mismo cuerpo con las leyes de composici´on inducidas por las leyes de V (con el mismo cuerpo). El espacio vectorial R contenido en el espacio vectorial C es un subespacio suyo si se considera en C la operaci´ on externa por los elementos de R, pero no es un subespacio vectorial, si se considera en C la operaci´on externa por los elementos del mismo C.

El cuerpo sobre el que se considera el espacio vectorial es importante a la hora de considerar subespacios: fijado un origen, hemos visto que los puntos del plano dan lugar a un espacio vectorial real formado por los vectores que tienen el mismo origen 0 y que este espacio vectorial se puede hacer coincidir con el espacio vectorial real R × R introduciendo un sistema de referencia. El conjunto de los vectores horizontales, con origen en el punto prefijado, son un subespacio vectorial real del primer espacio vectorial y correspondientemente, el conjunto de las parejas {(a, 0)|a ∈ R}, es un subespacio vectorial de R × R. Pero tambi´en, se pueden poner los puntos del plano en correspondencia con los n´ umeros complejos y trasmitirles la estructura de espacio vectorial complejo de C. En este caso, como el subconjunto de los n´ umeros reales no es subespacio vectorial del espacio de los n´ umeros complejos cuando el cuerpo que se considera es C, la recta horizontal, que es la que corresponde a R no es un subespacio del espacio de los puntos del plano con la estructura vectorial compleja. Para que un subconjunto S no vac´ıo de un espacio vectorial sea subespacio vectorial se tendr´a que verificar que la suma del espacio vectorial sea una operaci´on del subconjunto, asociativa, con elemento neutro, tal que todo elemento del subconjunto tenga su elemento opuesto en el conjunto, conmutativa 131

y adem´as que la multiplicaci´on externa por los elementos del mismo cuerpo sea otra operaci´on del subconjunto con las propiedades distributivas y asociativa mixta y tal que 1 × v = v ∀v ∈ S. Pero hay algunas de estas propiedades, como la asociatividad, la distributividad y la conmutatividad, que por verificarse en V, se verifican en cualquier subconjunto S, y por ello, para comprobar que un subconjunto S es subespacio vectorial, s´olo hay que comprobar que las operaciones se mantienen dentro del subconjunto, (se dice que sean cerradas en el subconjunto), y que el subconjunto contiene el elemento neutro de la suma. Podemos ahorrarnos comprobaciones estableciendo: Proposici´ on 1: El subconjunto S es un subespacio vectorial de un espacio vectorial V si: i) S es cerrado respecto a la suma de V. (∀v1 , v2 ∈ S, v1 + v2 ∈ S). ii) S contiene el elemento neutro de la suma de V. iii) S es cerrado respecto a la operaci´on externa. (∀v ∈ S, ∀λ ∈ K, λv ∈ S) En efecto, si S es cerrado respecto a la suma, S est´a dotado de esta operaci´on. Como S tambi´en tiene el elemento neutro por ii), y la operaci´on es asociativa en S (por serlo en V) lo u ´nico que le falta a S para ser grupo es que para cada v el elemento opuesto: −v pertenezca a S; Por ser cerrado respecto a la operaci´on externa, −v = (−1)v pertenece a S. Por lo que tenemos que S es un grupo aditivo. La conmutatividad de la suma en S viene heredada de la conmutatividad de la suma en V. Luego 1) S es un grupo aditivo conmutativo. Adem´as, si S es cerrado respecto a la operaci´on externa de V, existe la aplicaci´on K × S → S que asocia a cada par (λ, v) el elemento λv de S con las propiedades: a), b), c), d), de la definici´on 2. heredadas de las de V. Es decir, 2) S est´a dotado de la operaci´on externa por ser cerrado respecto a ella. Y las restantes propiedades de las operaciones de un espacio vectorial quedan heredadas. Hay que a˜ nadir la condici´on ii) porque el conjunto vac´ıo verifica i) y iii) pero no es subespacio vectorial. Sin embargo, podemos simplificar a´ un m´as las condiciones a cumplir por un subespacio vectorial y establecer la Proposici´ on 2: El subconjunto S es un subespacio vectorial de un espacio vectorial V si: i) S contiene el elemento neutro del espacio vectorial respecto a la suma. ii) Dados λ1 , λ2 cualesquiera de K y dados v1 , v2 cualesquiera en S, λ1 v1 + λ2 v2 est´a en S.

132

Demostraci´on: Veamos primero que si se cumplen las condiciones de la proposici´on 2, se cumplen las condiciones de la proposici´on 1. La condici´on i) de la proposici´on 2 es la condici´on ii) de la proposici´on 1. Si se verifica ii) de la proposici´on 2, cogiendo λ1 = λ2 = 1, dados dos vectores v1 y v2 de S, el vector 1 · v1 + 1 · v2 = v1 + v2 pertenece a S, luego S es cerrado respecto a la suma en V. Adem´as, cogiendo λ1 = λ, λ2 = e, v1 = v = v2 , tenemos que λ1 v + e · v = λv est´a en S, cualquiera que sea λ ∈ K y v ∈ S, luego S es cerrado respecto a la ley de composici´on externa. Rec´ıprocamente, veamos que si se cumplen las condiciones de la proposici´on 1, se cumplen las condiciones de la proposici´on 2: ii) Dados λ1 , λ2 de K cualesquiera, y dados v1 , v2 en S los vectores λ1 v1 y λ2 v2 pertenecen a S, por ser S cerrado respecto a la operaci´on externa y su suma pertenece a S por ser S cerrado respecto a la suma.

La condici´on i) de esta proposici´on no es superflua, porque en el caso de ser S vac´ıo se cumplir´ıa la condici´on ii) pero no ser´ıa S un grupo aditivo al no contener el elemento neutro. En realidad, podemos establecer la Proposici´ on 3: El subconjunto S es un subespacio vectorial de un espacio vectorial V si: i) S es no vac´ıo. ii) Dados λ1 λ2 cualesquiera de K y dados v1 , v2 cualesquiera en S, λ1 v1 + λ2 v2 est´a en S. Ya que al ser S no vac´ıo, existiendo v ∈ S, el vector cero 0 = e · v pertenece a S por ii), cogiendo λ1 = λ2 = 0 y v1 = v2 = v. Ejercicios: 5.2.1. Comprobar que el conjunto de vectores con origen en O cuyos extremos est´an en una recta que pasa por el punto O es un subespacio vectorial del espacio vectorial real formado por todos los vectores con origen en O. 5.2.2. Explicar por qu´e el conjunto de vectores con origen en O cuyos extremos est´an en una recta que no pasa por un punto O no es un subespacio vectorial del espacio vectorial real formado por todos los vectores con origen en O.

133

5.2.3. Comprobar que el subconjunto de R2 formado por las parejas (x, y) con x ≥ 0 no es un subespacio vectorial de R2 . 5.2.4. Estudiar si son subespacios vectoriales de R2 los siguientes subconjuntos: a) S1 = {(x, y) ∈ R2 | y − x = 0}, b) S2 = {(x, y) ∈ R2 | y − x = 1}, c) S3 = {(x, y) ∈ R2 | xy = 0}, d) S4 = {(x, y) ∈ R2 | y = |x|}, e) S5 = {(x, y) ∈ R2 | |y| = |x|}. 5.2.5. Estudiar si son subespacios vectoriales de R3 los siguientes subconjuntos: a) S1 = {(x, y, z) ∈ R3 | y − x = 0}, b) S2 = {(x, y, z) ∈ R3 | y − x = 1}, c) S3 = {(x, y, z) ∈ R3 | xy = 0}, d) S4 = {(x, y, z) ∈ R3 | y = |x|}, e) S5 = {(x, y, z) ∈ R3 | |y| = |x|}. 5.2.6. Comprobar que aunque Q est´a contenido en R y sus operaciones est´an inducidas por las de R, Q no es subespacio vectorial de R. (La multiplicaci´on de elementos de Q por elementos de R no es cerrada en Q (puede dar elementos de R no contenidos en Q)). Lo mismo ocurre con R respecto a C. 5.2.7. Estudiar si son subespacios vectoriales de C, considerado como espacio vectorial complejo, a) el conjunto de los n´ umeros reales. b) el conjunto de los n´ umeros imaginarios puros. 5.2.8. Comprobar que el conjunto de las matrices diagonales de orden n con elementos de un cuerpo K, es un subespacio vectorial del espacio vectorial sobre el cuerpo dado, de las matrices cuadradas de orden n con elementos de ese cuerpo. 5.2.9. Comprobar que el espacio vectorial de las matrices 2 × 2 con n´ umeros racionales no es subespacio vectorial del espacio vectorial real de las matrices 2 × 2 con n´ umeros reales. 5.2.10. Estudiar si son subespacios vectoriales del espacio vectorial real de funciones reales de variable real los siguientes subconjuntos: S1 = {f |f (0) = 0}, S2 = {f |f (1) = 0}, S3 = {f |f (0) = 1}. 5.2.11. Averiguar si son subespacios vectoriales de los correspondientes espacios vectoriales los siguientes subconjuntos: a) El subconjunto de los polinomios con coeficientes reales dentro del espacio vectorial real de las funciones reales de variable real. b) El subconjunto de los polinomios de grado ≤ n, con coeficientes reales, siendo n fijo, dentro del espacio vectorial real de las funciones reales de variable real. c) El conjunto de los polinomios de grado n, siendo n fijo, con coeficientes reales como subconjunto del espacio vectorial real de los polinomios de cualquier grado con coeficientes reales. d) El subconjunto de polinomios de grado ≤ 3 con coeficientes reales divisibles por x − 1 como subconjunto del espacio vectorial real de los polinomios de grado ≤ 3 con coeficientes reales.

134

5.2.12. Averiguar si son subespacios vectoriales del espacio vectorial real de matrices de n´ umeros reales de orden 2 × 2 los siguientes subconjuntos: a) El subconjunto de las matrices de n´ umeros reales de orden 2×2 de traza cero como subconjunto del espacio vectorial real de las matrices de n´ umeros reales de orden 2 × 2. (Se llama traza de una matriz a la suma de los elementos de su diagonal). b) El subconjunto de las matrices de n´ umeros reales de orden 2 × 2 de rango 1 como subconjunto del espacio vectorial real de las matrices de n´ umeros reales de orden 2 × 2. c) El subconjunto de las matrices de n´ umeros reales de orden 2 × 2 que conmutan con la matriz B, siendo B una matriz fija 2 × 2, como subconjunto del espacio vectorial real de las matrices de n´ umeros reales de orden 2 × 2 . 5.2.13. Averiguar si son subespacios vectoriales de los correspondientes espacios vectoriales los siguientes subconjuntos: a) El subconjunto de las matrices triangulares superiores n × n con elementos de un cuerpo como subconjunto del espacio vectorial sobre ese cuerpo de las matrices cuadradas n × n con elementos del mismo cuerpo. b) El subconjunto de las matrices sim´etricas n × n con elementos de un cuerpo como subconjunto del espacio vectorial sobre ese cuerpo de las matrices cuadradas n × n con elementos del mismo cuerpo. c) El subconjunto de las matrices antisim´etricas n × n con elementos de un cuerpo como subconjunto del espacio vectorial sobre ese cuerpo de las matrices cuadradas n × n con elementos del mismo cuerpo. 5.2.14. Averiguar si es subespacio vectorial del espacio vectorial real de matrices de n´ umeros reales de orden m × n el subconjunto de las matrices escalonadas de m filas y n columnas. Corolario 1:(de la proposici´on 2.) La intersecci´on de una familia de subespacios vectoriales es un subespacio vectorial. La demostraci´on a partir de la proposici´on 2 es f´acil de ver y se deja como ejercicio. Corolario 2: El conjunto de soluciones de un sistema homog´eneo de ecuaciones lineales con coeficientes en un cuerpo conmutativo es un subespacio vectorial. Demostraci´on: Demostrando primero que el conjunto de soluciones de una ecuaci´on lineal es un subespacio vectorial, la demostraci´on se sigue de la observaci´on de que el conjunto de soluciones del sistema es la intersecci´on de los subespacios soluciones de cada ecuaci´on. Respecto a lo primero, sea a1 x1 +a2 x2 +· · ·+an xn = 0 una ecuaci´on con coeficientes en un cuerpo K conmutativo y sea S el conjunto de sus soluciones. Entonces: i) (0,0,...,0) es soluci´on de la ecuaci´on lineal. 135

ii) Sean λ1 y λ2 elementos del cuerpo K y (u1 , u2 , · · · , un ), (v1 , v2 , · · · , vn ), soluciones de la ecuaci´on, λ1 (u1 , u2 , · · · , un ) + λ2 (v1 , v2 , · · · , vn ) = (λ1 u1 + λ2 v1 , λ1 u2 + λ2 v2 , · · · , λ1 un + λ2 vn ) es tambi´en soluci´on de la ecuaci´on porque: a1 (λ1 u1 + λ2 v1 ) + a2 (λ1 u2 + λ2 v2 ) + · · · + an (λ1 un + λ2 vn ) = (por la distributividad del producto) = a1 (λ1 u1 ) + a1 (λ2 v1 ) + a2 (λ1 u2 ) + a2 (λ2 v2 ) + · · · + an (λ1 un ) + an (λ2 vn ) = (por la asociatividad del producto) = (a1 λ1 )u1 + (a1 λ2 )v1 + (a2 λ1 )u2 + (a2 λ2 )v2 + · · · (an λ1 )un + (an λ2 )vn = (por la commutatividad del producto) = (λ1 a1 )u1 + (λ2 a1 )v1 + (λ1 a2 )u2 + (λ2 a2 )v2 + · · · + (λ1 an )un + (λ2 an )vn = (por la commutatividad de la suma) = (λ1 a1 )u1 + (λ1 a2 )u2 + · · · + (λ1 an )un + (λ2 a1 )v1 + (λ2 a2 )v2 + · · · + (λ2 an )vn = (por la asociatividad del producto) = λ1 (a1 u1 ) + λ1 (a2 u2 ) + · · · + λ1 (an un ) + λ2 (a1 v1 ) + λ2 (a2 v2 ) + · · · + λ2 (an vn ) = (por la distributividad del producto respecto a la suma) = λ1 (a1 u1 + a2 u2 + · · · + an un ) + λ2 (a1 v1 + a2 v2 + · · · + an vn ) = (por ser (u1 , v2 , · · · , un ) y (v1 , v2 , · · · , vn ) soluciones de la ecuaci´on) = λ1 0 + λ2 0 = 0 porque estos n´ umeros pertenecen a un cuerpo.

Un subespacio vectorial ha sido dado hasta ahora por una condici´on que han de cumplir sus vectores, pero tambi´en puede darse por una familia de vectores, a partir de los cuales se obtienen todos los dem´as. p. ej. los vectores horizontales de R3 son un subespacio de R3 dados por la condici´on

136

de ser horizontales, pero tambi´en se pueden expresar: {(x1 , x2 , 0) = x1 (1, 0, 0) + x2 (0, 1, 0)}, es decir, que se pueden obtener a partir de {(1, 0, 0), (0, 1, 0)} multiplicando por n´ umeros reales y sumando. Se introduce el concepto de combinaci´on lineal para expresar un vector a partir de otros. Definici´on 4: se llama combinaci´ on lineal de los vectores {v1 , v2 , ..., vm } ⊂ VK a cualquier vector v que se pueda escribir v = λ1 v1 + λ2 v2 + ... + λm vm donde los λi pertenecen al cuerpo K. El vector cero es combinaci´on lineal de cualquier familia de vectores, ya que tomando λ = 0, se obtiene λv = 0, cualquiera que sea v. D´emonos cuenta de que si S es subespacio vectorial de V , por la propiedad asociativa de la suma, dados m vectores: {v1 , v2 , ..., vm } de S, el vector v = λ1 v1 + λ2 v2 + ... + λm vm (donde los λi pertenecen al cuerpo) permanece en S. Podemos decir que un subespacio vectorial es un subconjunto no vac´ıo de un espacio vectorial que coincide con las combinaciones lineales de todos sus elementos. Pero investigaremos la posibilidad de determinar un subespacio por un subconjunto de sus vectores, (cuantos menos mejor), como conjunto de las combinaciones lineales de este subconjunto. Un ejemplo son los conjuntos de soluciones de un sistema homog´eneo de ecuaciones, que se pueden expresar como combinaciones lineales de un n´ umero finito de vectores. Lo veremos m´as adelante en el ejemplo usado para establecer el Teorema 2. Lema 1: El conjunto de las combinaciones lineales de m vectores fijos de un espacio vectorial es un subespacio vectorial del dado con las operaciones inducidas. (Su comprobaci´on se deja como ejercicio). Se llama subespacio vectorial engendrado por los m vectores. Representaremos por L{v1 , v2 , ...vm } al subespacio vectorial engendrado por {v1 , v2 , ..., vm }. Llamamos a este conjunto de vectores un sistema generador de dicho subespacio. Y a los vectores del conjunto, vectores generadores. Como nos interesa la mayor simplicidad, nos interesan los sistemas generadores con el m´ınimo n´ umero de elementos y por eso introducimos el concepto de vector linealmente dependiente: Definici´on 5: Un vector v depende linealmente de los vectores {v1 , v2 , ..., vm } si se puede expresar como combinaci´on lineal de los vectores dados. Observemos que el vector nulo siempre depende de cualquier conjunto de vectores: se expresa como una combinaci´on lineal en la que todos los coeficientes son nulos. La consideraci´on de los vectores linealmente dependientes est´a justificada por la proposici´on siguiente: 137

Proposici´ on 4: Si un vector v depende linealmente de los vectores {v1 , v2 . . . , vm }, los subespacios vectoriales engendrados por {v1 , v2 . . . , vm } y por {v1 , v2 . . . , vm , v} coinciden. Demostraci´on: Est´a claro que L{v1 , v2 , ...vm } ⊂ L{v1 , v2 , ..., vm , v}. Rec´ıprocamente, si v = λ1 v1 + λ2 v2 + ... + λm vm , cualquier elemento de L{v1 , v2 , ..., vm , v} se escribe: α1 v1 + α2 v2 + ... + αm vm + αv = α1 v1 + α2 v2 + ... + αm vm + α(λ1 v1 + λ2 v2 + ... + λm vm ) = (α1 + αλ1 )v1 + (α2 + αλ2 )v2 + ... + (αm + αλm )vm Este u ´ltimo es un elemento de L{v1 , v2 , ..., vm }. Por ejemplo, = L{(1, 0, 0)(0, 1, 0)} = L{(1, 0, 0)(0, 1, 0)(1, 1, 0)} dentro de R3 . Definici´on 6: Se dice que los vectores {v1 , v2 , ..., vm } son linealmente dependientes si y s´olo si uno de ellos depende del resto. Si el vector cero es uno de los vectores vi , los vectores son linealmente dependientes. (Rel´ease la observaci´on posterior a la definici´on 5). Proposici´ on 5: los vectores {v1 , v2 , ..., vm } son linealmente dependientes si y s´olo si el vector cero se puede expresar como combinaci´on lineal de los vectores dados utilizando alg´ un coeficiente no nulo. Demostraci´on: ⇐). Sea 0 = λ1 v1 + λ2 v2 + ... + λm vm y sea λi 6= 0. Entonces, λi vi = −λ1 v1 − λ2 v2 − ... − λm vm donde en el segundo miembro aparecen s´olo los vectores distintos del vi . Como λi 6= 0 y K es un cuerpo, existe inverso de λi . Multiplicando por λ−1 tenemos: i −1 vi = −λ−1 i λ1 v1 − ... − λi λm vm

donde no aparece el vi en el segundo miembro, por tanto uno de ellos depende linealmente del resto. ⇒). Sea vi un vector que depende del resto de vectores. Entonces, 138

vi = λ1 v1 + ... + λm vm donde no aparece vi en el segundo miembro. Pas´andolo al segundo miembro, tenemos 0 = λ1 v1 + ... − vi + ... + λm vm El coeficiente de vi en el segundo miembro es −1 porque vi antes no aparec´ıa en el segundo miembro. Hemos conseguido escribir el cero como combinaci´on lineal de los vectores dados siendo al menos el coeficiente de vi (−1) distinto de cero. Luego, por la definici´on 6, los vectores son linealmente dependientes. Definici´on 7: Se dice que los vectores {v1 , v2 , ..., vm } son linealmente independientes si no son linealmente dependientes. En este caso, por la prop. 5, no podemos encontrar una expresi´on: 0 = λ1 v1 + λ2 v2 + ... + λm vm con alg´ un λi 6= 0, o lo que es lo mismo, en una expresi´on del tipo 0 = λ1 v1 + λ2 v2 + ... + λm vm todos los λi han de ser nulos. En la pr´actica, en los casos concretos, se comprueba si {v1 , v2 , ..., vm } son linealmente independientes viendo si la existencia de la expresi´on: 0 = λ1 v1 + λ2 v2 + ... + λm vm implica que todos los coeficientes sean nulos. Esta regla tambi´en nos da que un conjunto de vectores formado s´olo por el vector cero es dependiente. Y que un conjunto formado s´olo por un vector distinto de cero es independiente. (V´eanse las propiedades que se demostraron al principio del cap´ıtulo sobre las operaciones en un espacio vectorial). Ejercicios: 5.3.1. Estudiar si son independientes en su espacio vectorial correspondiente las siguientes familias de vectores: a) {(1, 2, 0), (0, 1, 1)} ⊂ R3 , b) {(1, 2, 0), (0, 1, 1), (1, 1, 0)} ⊂ R3 , c) {(1, 2, 0), (0, 1, 1), (1, 1, −1)} ⊂ R3 , 139

d) {(1, 2, 0), (0, 1, 1), (1, 1, 0), (3, 2, 1)} ⊂ R3 , e) {(i, 1 − i), (2, −2i − 2)} ⊂ C 2 , f) {(i, 1, −i), (1, i, −1)} ⊂ C 3 . 5.3.2. En los casos de las familias anteriores que sean dependientes, expresar uno de los vectores como combinaci´on lineal de los restantes. 5.3.3. Estudiar si son independientes en su espacio vectorial correspondiente las siguientes familias de vectores: a)       0 1 1 −1 −2 5 , , 0 −2 0 1 0 −8 subconjunto de las matrices 2 × 2 de n´ umeros reales. b) Los polinomios {1, x − 2, (x − 2)2 , (x − 2)3 } ⊂ PR3 [x]. 5.3.4. Demostrar que si {f1 (x), f2 (x), · · · , fk (x)} son funciones reales de variable real tales que existen {a1 , a2 , · · · , ak } verificando f1 (a1 ) f2 (a1 ) · · · fk (a1 ) f1 (a2 ) f2 (a2 ) · · · fk (a2 ) .. .. . . .. 6= 0 . . . . f1 (ak ) f2 (ak ) · · · fk (ak ) son funciones independientes. 5.3.5. Utilizar el resultado anterior para a) Demostrar que cualquiera que sea n, los polinomios {1, x − 2, (x − 2)2 , · · · , (x − 2)n } ⊂ P n [x] son independientes considerados como vectores de dicho espacio vectorial. b) Demostrar que los polinomios: {1, x − a, (x − a)2 , · · · , (x − a)n } ⊂ P n [x], cualquiera que sea n, y cualquiera que sea a, son independientes.

140

La proposici´on 4 establece que en un conjunto de generadores de un subespacio se puede prescindir de los que dependan linealmente de los otros. Introducimos el concepto de base para prescindir en el sistema generador de un subespacio de los vectores que dependan de los restantes. As´ı obtenemos las bases como sistemas generadores con un n´ umero m´ınimo de vectores. Bases. Definici´on 8: Se llama base de un espacio vectorial a un sistema generador del espacio que a su vez es linealmente independiente. Ejercicios 5.4.1. Comprobar que los siguientes conjuntos de vectores son bases de los correspondientes espacios vectoriales: (son las llamadas bases can´onicas) a) {(1, 0, 0, · · · , 0), (0, 1, 0, · · · , 0), (0, 0, 1, · · · , 0), · · · , (0, 0, 0, · · · , 1)} ⊂ Rn . b)         1 0 0 1 0 0 0 0 , , , ⊂ M2×2 (R) 0 0 0 0 1 0 0 1 c) {1, x, x2 , · · · , xn } ⊂ PRn (x). 5.4.2. Estudiar si las siguientes familias de vectores son bases de los espacios vectoriales dados: a) {(1, 0, 0, 1), (1, 0, 1, 0), (0, 1, 1, 0), (0, 1, 0, 1)} ⊂ R4 , b) {(1, 0, 0, 1), (1, 0, 1, 0), (0, 2, 1, 0), (0, 1, 0, 1)} ⊂ R4 , c)         1 0 1 0 0 1 0 1 , , , ⊂ M2×2 (R), 1 0 0 1 0 1 1 0 d) 

1 0 0 1

       1 0 0 2 0 1 , , , ⊂ M2×2 (R), 1 0 1 0 0 1



1 0 1 1

       0 1 1 1 0 1 , , , ⊂ M2×2 (R), 1 1 1 2 1 0

e)

141

f) 

1 0 1 1

       0 1 1 1 0 1 , , , ⊂ M2×2 (R). 1 1 1 1 1 0

5.4.3. Encontrar bases de los siguientes subespacios vectoriales de M3×3 (R) : a) Las matrices diagonales. b) Las matrices triangulares superiores. c) Las matrices triangulares inferiores. d) Las matrices sim´etricas. e) Las matrices antisim´etricas. 5.4.4. Siendo {e1 , e2 , · · · , en } una base de Rn , demostrar que los vectores: u1 = e1 , u2 = e1 + e2 , · · · , un−1 = e1 + e2 + · · · + en−1 , un = e1 + e2 + · · · + en son otra base de Rn .

Adem´as de ser una base un sistema generador m´ınimo, (por ser un sistema independiente), permite la definici´on de coordenadas que asocia a cada vector un conjunto de n´ umeros e identifica el espacio vectorial con un producto cartesiano del cuerpo K por s´ı mismo un determinado n´ umero de veces. Definici´on 9: Se llaman coordenadas de un vector en una base a los coeficientes que hay que poner a los vectores de dicha base para obtener una combinaci´on lineal que d´e el vector dado. Teorema 1: Las coordenadas est´an bien definidas. (Son u ´nicas para un vector fijo en una base fija). Demostraci´on: Sean {x1 , x2 , ..., xn } y {x01 , x02 , ..., x0n } dos conjuntos de coordenadas de un vector x respecto a una base {e1 , e2 , ..., en } de V. Entonces, x1 e1 + x2 e2 + ... + xn en = x = x01 e1 + x02 e2 + ... + x0n en de donde (x1 − x01 )e1 + (x2 − x02 )e2 + ... + (xn − x0n )en = 0 Como los vectores ei son independientes, los coeficientes xi − x0i han de ser nulos. Entonces xi = x0i para todo i.

142

Observemos que si el sistema generador de un subespacio vectorial no es una base, los coeficientes que podemos poner a los vectores del sistema generador para obtener un vector dado no son u ´nicos. En L{(1, 0, 0)(0, 1, 0)(1, 1, 0)} podemos escribir: (2, 1, 0) = 2(1, 0, 0) + 1(0, 1, 0) + 0(1, 1, 0) ´o (2, 1, 0) = 1(1, 0, 0) + 0(0, 1, 0) + 1(1, 1, 0) Y no siempre le corresponder´ıan al vector cero las coordenadas (0, 0, 0) ya que tambi´en se tendr´ıa (0, 0, 0) = −1(1, 0, 0) − 1(0, 1, 0) + 1(1, 1, 0) Por ello, las coordenadas de un vector en un sistema generador que no sea base no est´an bien definidas. Sin embargo, dada una base de n elementos en un espacio vectorial, cada vector del espacio queda determinado por los n n´ umeros que son sus coordenadas en esa base. Ejercicios: 5.5.1. Hallar las coordenadas del vector (3, 2, −1, 0) de R4 en la base de R4 dada en el ejercicio 5.4.2 b). 5.5.2. Hallar las coordenadas de los vectores (n, n − 1, · · · , 2, 1) y (1, 2, · · · , n − 1, n) de Rn , en la base {u1 , u2 , ...un } dada en el ejercicio cuando {e1 , e2 , ...en } es la base can´onica de Rn .  5.4.4  1 1 5.5.3. Hallar las coordenadas de en la base 1 1         1 0 0 1 1 1 0 1 , , , ⊂ M2×2 (R) 1 1 1 1 1 2 1 0 5.5.4. Hallar las coordenadas de 1 + x + x2 en la base 1, x − 1, (x − 1)2 .

143

Veremos c´ ual es la relaci´on entre las coordenadas de un vector en bases distintas pero antes demostraremos una serie de resultados encaminados a demostrar que si un espacio vectorial tiene una base con n elementos, cualquier otra base tiene tambi´en n elementos. Proposici´ on 6: Todo conjunto formado por n vectores independientes de Rn forma una base de n R . Demostraci´on: Sea {v1 , v2 , v3 , · · · , vn } un conjunto formado por n vectores independientes. Entonces la expresi´on: λ1 v1 + λ2 v2 + ... + λn vn = 0 s´olo se cumple cuando todos los coeficientes λi son nulos. Si v1 = (v11 , v12 , ..., v1n ), v2 = (v21 , v22 , ..., v2n ), · · · · · · · · · vn = (vn1 , vn2 , ..., vnn ) (todos elementos de Rn ), el vector λ1 v1 + λ2 v2 + ... + λn vn es: (λ1 v11 + λ2 v21 + ... + λn vn1 , λ1 v12 + λ2 v22 + ... + λn vn2 , · · · · · · , λ1 v1n + λ2 v2n + ... + λn vnn ). Si los vectores dados son independientes, estos n´ umeros son todos a la vez nulos s´olo si los λi son nulos, es decir si el sistema lineal homog´eneo:  λ1 v11 + λ2 v21 + ... + λn vn1 = 0    λ1 v12 + λ2 v22 + ... + λn vn2 = 0 ······ =0    λ1 v1n + λ2 v2n + ... + λn vnn = 0 s´olo tiene la soluci´on trivial. Esto es cierto si y s´olo si 

v11  v12 det   ··· v1n

v21 v22 ··· v2n

 · · · vn1 · · · vn2  = 6 0 ··· ···  · · · vnn

Veremos que esta condici´on es suficiente para demostrar que los vectores dados son un sistema generador, es decir, que L {v1 , v2 , ...vn } = Rn En efecto, dado cualquier vector: (x1 , x2 , ...xn ) de Rn , el sistema lineal  λ1 v11 + λ2 v21 + ... + λn vn1 = x1    λ1 v12 + λ2 v22 + ... + λn vn2 = x2 ······    λ1 v1n + λ2 v2n + ... + λn vnn = xn tiene soluci´on por el Teorema de Rouch´e Frobenius, ya que al ser el determinante de la matriz de sus coeficientes (el anterior determinante) distinto de cero, el rango de la matriz de los coeficientes del sistema es igual al rango de la matriz ampliada.

144

Cogiendo las soluciones encontradas para los valores de λi en la expresi´on: λ1 v1 + λ2 v2 + ... + λn vn , obtenemos el vector dado (x1 , x2 , ...xn ). Esto nos dice que cualquier vector de Rn es una combinaci´on lineal de los vectores dados, por tanto, formaban un sistema generador. Como tambi´en eran independientes, forman un sistema generador independiente, es decir, una base de Rn . El procedimiento seguido en esta demostraci´on establece tambi´en que: n n-uplas de Rn son una base de Rn si y s´olo si el determinante de la matriz cuyas columnas (o filas)son las n-uplas dadas es distinto de cero. Ejercicios: 5.6.1. Encontrar los valores de a para los que los vectores {(a, 0, 1), (0, 1, 1), (2, −1, a)} formen una base de R3 . 5.6.2. Dados dos vectores a = (a1 , a2 , a3 ), b = (b1 , b2 , b3 ) de R3 , se define el producto vectorial a × b como el vector simb´olicamente expresado por  i j k  a1 a3 a1 a2 a2 a3 a1 a2 a3 ≡ b2 b3 , − b1 b 3 , b1 b2 b1 b2 b 3 Demostrar que si los vectores a y b son independientes, los vectores {a, b, a × b} son una base de 3

R . 5.6.3. Hallar los n´ umeros complejos z para los cuales los vectores: {(z + i, 1, i), (0, z + 1, z), (0, i, z − 1)} no forman base considerados como vectores del espacio vectorial complejo C 3 . 5.6.4. Los vectores {(z, 1, 0), (−1, z, 1), (0, −1, z)} ⊂ R3 , pueden considerarse contenidos en R3 o´ en C 3 , seg´ un se permita a z variar en R o´ en C. A´ un consider´andose contenidos en C 3 , puede darse a ´este conjunto estructura de espacio vectorial real y estructura de espacio vectorial complejo. Hallar los valores de z que los hacen dependientes en cada uno de los tres casos.

145

Se puede generalizar la proposici´on 6 a la siguiente proposici´ on 7: Todo conjunto formado por n vectores independientes de un espacio vectorial que tenga una base de n elementos forma una base de dicho espacio. Proposici´ on 8: Si un espacio vectorial VK tiene una base con n vectores, cualquier conjunto con m´as de n vectores es dependiente. Demostraci´on: Sean {e1 , e2 , ..., en } una base de V y {v1 , v2 , ..., vm } un conjunto de vectores, donde m > n. Expresemos los vectores por sus coordenadas en la base dada: v1 = (v11 , v12 , ..., v1n ) v2 = (v21 , v22 , ..., v2n ) ··············· vm = (vm1 , vm2 , ..., vmn ) Las coordenadas de una combinaci´on lineal de estos vectores: λ1 v1 + λ2 v2 + ... + λm vm son: λ1 v11 + λ2 v21 + ... + λm vm1 λ1 v12 + λ2 v22 + ... + λm vm2 ······ λ1 v1n + λ2 v2n + ... + λm vmn La combinaci´on lineal es nula si y s´olo si sus coordenadas son nulas. El sistema lineal homog´eneo:  λ1 v11 + λ2 v21 + ... + λm vm1 = 0    λ1 v12 + λ2 v22 + ... + λm vm2 = 0 ······    λ1 v1n + λ2 v2n + ... + λm vmn = 0 tiene por el teorema de Rouch´e-Frobenius, soluciones no nulas para todas las λi ya que como m > n, hay m´as inc´ognitas que ecuaciones y por tanto el rango de la matriz de los coeficientes es menor que el n´ umero de inc´ognitas. Estas soluciones pemiten poner el vector nulo como combinaci´on lineal de los vectores dados con coeficientes no todos nulos, por tanto los vectores dados son dependientes. Con esta proposici´on llegamos al importante

146

Teorema de la Base. Si un espacio vectorial tiene una base con n vectores, cualquier otra base tiene el mismo n´ umero de vectores. Demostraci´on: Sea {e1 , e2 , ...en } una base de V. Sea {e01 , e02 , ...e0m } otra base de V. Si m > n, seg´ un la proposici´on anterior, los vectores {e01 , e02 , ...e0m } ser´ıan dependientes y no podr´ıan formar base. Si m < n, tomando {e01 , e02 , ...e0m } como base de partida de V, tendr´ıamos, tambi´en, seg´ un la proposici´on anterior, que los vectores {e1 , e2 , ...en } ser´ıan dependientes y no podr´ıan formar base. Luego m = n. Se llama dimensi´ on del espacio vectorial al n´ umero de vectores de una base. (Un espacio vectorial de dimensi´on finita es un espacio vectorial que admite una base de n vectores para alg´ un n ∈ N .) El Teorema de la Base demostrado garantiza que la dimensi´on del espacio vectorial es independiente de la base considerada, cuando el espacio es de dimensi´on finita. Una aplicaci´on del concepto de dimensi´on nos sirve para distinguir el espacio vectorial formado por los complejos sobre el cuerpo complejo del espacio vectorial formado por los complejos sobre el cuerpo real: v´ease el siguiente ejercicio: 5.7.1. Comprobar que una base de C considerado como espacio vectorial sobre C est´a formada por {1}, pero una base de C considerado como espacio vectorial sobre R es {1, i}. Estos dos espacios vectoriales tienen distinta dimensi´on. Tambi´en se deduce de la proposici´on 8 que n vectores independientes de un espacio vectorial con una base de n elementos son otra base, pues cualquier otro vector a˜ nadido a los dados es dependiente de ellos, siendo por tanto el conjunto dado de vectores independientes un sistema generador del espacio vectorial. Dado que las bases contienen un menor n´ umero de elementos, hacen los c´alculos m´as cortos y por eso en el trabajo con espacios vectoriales son u ´tiles las dos proposiciones siguientes: Proposici´ on 9: De todo sistema generador finito de un espacio vectorial se puede extraer una base. Si el sistema generador no es una base es porque no es linealmente independiente y existe alg´ un vector que depende linealmente del resto. Por la proposici´on 4, el espacio de combinaciones lineales del sistema generador coincide con el espacio de combinaciones lineales del conjunto de vectores que queda al extraer del sistema generador el vector dependiente. Podemos repetir el proceso mientras el sistema generador sea dependiente hasta que se haga independiente (porque es finito). En el primer momento en que el conjunto de vectores no extraidos sea independiente ser´a tambi´en una base del espacio porque sigue siendo un sistema generador. 147

Proposici´ on 10: Todo sistema independiente de un espacio vectorial de dimensi´on finita se puede completar a una base. Sea n la dimensi´on de V y {v1 , v2 , ..., vr } un sistema de vectores independientes de V . Por la proposici´on 8 no puede ser r > n. Si L{v1 , v2 , ..., vr } = V , {v1 , v2 , ..., vr } son tambi´en un sistema generador de V y por tanto son ya una base de V . Entonces, por el teorema de la base, r = n. Si L{v1 , v2 , ..., vr } = 6 V , debe ser r < n y existir un vector w ∈ V − L{v1 , v2 , ..., vr }, que es linealmente independiente de los dados. Llamemos vr+1 = w y a˜ nad´amoslo a los vectores dados. El conjunto {v1 , v2 , ..., vr , vr+1 } es un conjunto de vectores independiente, que ser´a una base de V si L{v1 , v2 , ..., vr , vr+1 } = V , en cuyo caso r + 1 = n y ya hemos completado el conjunto de vectores dado a una base. Si r + 1 < n, repetimos el proceso anterior para a˜ nadir un vr+2 independiente de los anteriores y hasta un vn independiente de los anteriormente a˜ nadidos y en ese momento, el sistema independiente es un sistema generador por la proposici´on 8, habiendo completado el sistema independiente dado a una base de V . El m´etodo para llevar a cabo los hechos de las dos proposiciones anteriores en casos concretos se ver´a como aplicaci´on de la relaci´on entre el rango de una matriz y el n´ umero de sus filas independientes, m´as adelante. Corolario 3: Dos subespacios vectoriales S1 y S2 son iguales si y s´olo si S1 ⊂ S2 y dimS1 = dimS2 . (S1 y S2 son intercambiables). Este corolario es cierto porque si S1 ⊂ S2 , una base de S1 puede completarse a una base de S2 , pero al ser dimS1 = dimS2 , no podemos a˜ nadir ning´ un vector porque todas las bases tienen el mismo n´ umero de elementos, lo cual implica que la base de S1 es ya una base de S2 , y por tanto, S1 = S2 . Teorema 2: La dimensi´on del subespacio de soluciones de un sistema homog´eneo de ecuaciones lineales es igual al n´ umero de inc´ognitas menos el rango de la matriz de los coeficientes de las inc´ognitas. Como es m´as f´acil comprobar este teorema en un ejemplo y visto el ejemplo, el teorema resulta obvio, a´ un sabiendo que un ejemplo no es una demostraci´on, vamos a hallar la dimensi´on del subespacio de soluciones del sistema siguiente:  3x1 +2x2 +x3 +x4 −x5 = 0  3x1 +2x2 +2x3 +3x4 =0  6x1 +4x2 +x3 −3x5 = 0 Una forma sistem´atica de resolver un sistema homog´eneo de ecuaciones lineales, que se puede escribir en forma matricial por Ax=0, es reducir la matriz A a una matriz escalonada E por opera148

ciones elementales y pasar en las ecuaciones de Ex=0, las inc´ognitas de las columnas que no dan escal´on al segundo miembro. Como hicimos en el cap´ıtulo del m´etodo de Gauss:  3x1 +2x2 +x3 +x4 −x5 = 0  x3 +2x4 +x5 = 0  −x3 −2x4 −x5 = 0



3x1 +2x2 +x3 +x4 −x5 = 0 x3 +2x4 +x5 = 0



Pasamos al segundo miembro las inc´ognitas x2 x4 y x5 : 3x1 +x3 = −2x2 −x4 +x5 x3 = −2x4 −x5



Ahora, al recorrer las ecuaciones de arriba a abajo, las inc´ognitas del primer miembro van disminuyendo de una en una, apareciendo s´olo una inc´ognita despejada en el primer miembro en la u ´ltima ecuaci´on. Sustituyendo esta inc´ognita en la ecuaci´on anterior, podemos despejar otra inc´ognita m´as y seguir as´ı despejando hasta agotar las inc´ognitas de los primeros miembros. En este ejemplo, sustituyendo el valor de x3 dado por la segunda ecuaci´on en la primera ecuaci´on tenemos: 3x1 = −2x2 + x4 + 2x5 ,. Podemos considerar todas las inc´ognitas como funciones lineales de las variables pasadas al segundo miembro, a˜ nadiendo xi = xi para estas u ´ltimas variables. En este ejemplo, a˜ nadiendo x2 = x2 , x4 = x4 , x5 = x5 , obtenemos las condiciones: x1 x2 x3 x4 x5

= − 23 x2 + 13 x4 + 23 x5 = x2 = −2x4 −x5 = x4 = x5

Una soluci´on cualquiera es una 5-upla de valores, donde las inc´ognitas pasadas al segundo miembro pueden variar arbitrariamente y las inc´ognitas del primer miembro est´an sujetas a las condiciones despejadas. Que expresamos por:    2   1   2  x1 −3 3 3  x2   1   0   0           x3  = x2  0  + x4  −2  + x5  −1           x4   0   1   0  0 0 1 x5 Haciendo ahora x2 = λ1 , x4 = λ2 , x5 = λ3 se escribe: 149

     

x1 x2 x3 x4 x5





     = λ1     

− 32 1 0 0 0





1 3





2 3



  0   0        + λ2  −2  + λ3  −1         1   0  0 1

El subespacio de soluciones del sistema es el subespacio de las combinaciones lineales de los tres vectores columna del segundo miembro. En este caso, ninguno de los vectores columna anteriores del segundo miembro de la igualdad es superfluo a la hora de dar las combinaciones lineales soluciones. En nuestro caso, para comprobar que son independientes, mirar´ıamos si una combinaci´on lineal de los vectores igual a cero es posible con coeficientes λi distintos de cero. Tendr´ıa que ser:  1   2     2  0 −3 3 3  0   0   0   1           0  = λ1  0  + λ2  −2  + λ3  −1           1   0   0   0  0 0 1 0 Considerando la segunda, la cuarta y la quinta filas, tenemos: 0 = λ1 , 0 = λ2 , 0 = λ3 , lo que implica que los vectores columna escritos son independientes. La dimensi´on del espacio de soluciones de este sistema es 5 − 2 = 3, (no de inc´ognitas menos rango de la matriz de los coeficientes). Para demostrar el teorema 2 en forma general, tenemos en cuenta que la forma sistem´atica por el M´etodo de Gauss, de resolver un sistema homog´eneo de ecuaciones lineales, escrito en forma matricial por Ax=0, es reducir la matriz A a una matriz escalonada E por operaciones elementales y pasar en las ecuaciones de Ex=0, las inc´ognitas de las columnas que no dan escal´on al segundo miembro. Se despejan las inc´ognitas que dan escal´on en funci´on de las que no lo dan y si n es el n´ umero de inc´ognitas, las soluciones son las n-uplas de n´ umeros que se pueden escribir seg´ un las expresiones obtenidas al despejar, donde var´ıan arbitrariamente las inc´ognitas del segundo miembro. Poniendo las n-uplas soluciones en columna ordenada y desglosando sus expresiones seg´ un las inc´ognitas variables, (que se pueden sustituir por param´etros), aparecen las soluciones como combinaciones lineales de tantas columnas como inc´ognitas variables. Estas columnas son un sistema de generadores del conjunto de soluciones del sistema. Los vectores generadores as´ı obtenidos tienen el n´ umero 1 en el sitio correspondiente a dicha coordenada y el n´ umero 0 en el sitio correspondiente a las otras coordenadas pasadas al segundo miembro. Por esta condici´on son independientes. 150

El n´ umero de inc´ognitas que dan escal´on es igual al n´ umero de escalones de E, igual a su vez al rango de la matriz de los coeficientes del sistema, (en t´erminos de determinantes), por tanto, se pasan al segundo miembro un n´ umero de inc´ognitas igual al n´ umero total de ellas menos el rango de la matriz de los coeficientes. Por ello, la dimensi´on del conjunto de soluciones del sistema es no de inc´ognitas menos rango de la matriz de los coeficientes. Ejercicios: 5.8.1. Encontrar bases de los siguientes subespacios: x1 x1

x1 +x2 +x3 +x4 +x5 = 0 x1 −x2 +x3 −x4 +x5 = 0

+x3 +2x4 = 0 −x3 = 0  ⊂R



⊂ R4

3x1 −x2 +3x3 −x4 +3x5 = 0 3x1 +x2 +3x3 +x4 +3x5 = 0

5



⊂ R5

5.8.2. Encontrar una base del subespacio S ⊂ M2×2 (R) definido por    2a + b − c + d = 0 a b S= c d a+b+c−d =0 5.8.3. Encontrar una base del espacio vectorial de los polinomios de grado menor o igual que tres divisibles por x − 1.

151

Corolario 4: Dos subespacios vectoriales S1 y S2 dados respectivamente por las ecuaciones matriciales A1 x = 0 y A2 x = 0 son iguales si y s´olo si el rango de A1 es igual al rango de A2 y S1 ⊂ S2 . (S1 y S2 son intercambiables). Se pueden utilizar estos corolarios para averiguar si los conjuntos de soluciones de sistemas homog´eneos distintos son coincidentes. Corolario 5: En el conjunto de ecuaciones Ax = 0 de un subespacio vectorial, podemos suprimir las ecuaciones tales que al suprimir de A las filas de coeficientes correspondientes a tales ecuaciones, queda una matriz del mismo rango que A. Ejercicios: 5.9.1. Comprobar que el subespacio de R4 engendrado por {(1, 0, 1, −1), (1, −1, 1, −1)} coincide con el espacio de soluciones del sistema:  x1 +x3 +2x4 = 0 ⊂ R4 . x1 −x3 = 0 5.9.2. Comprobar que los subespacios S1 y S2 de R5 cuyas ecuaciones son los sistemas: x1 +x2 +x3 +x4 +x5 = 0 x1 −x2 +x3 −x4 +x5 = 0



3x1 −x2 +3x3 −x4 +3x5 = 0 3x1 +x2 +3x3 +x4 +3x5 = 0

(1)

 (2)

son iguales. 5.9.3. Dos subespacios vectoriales S1 y S2 dados respectivamente por las ecuaciones matriciales A1 x = 0 y A2 x = 0 son iguales si y s´olo si   A1 r = r(A1 ) = r(A2 ). A2 (S1 y S2 son intercambiables).

152

Cambio de base. Veremos aqu´ı cu´al es la relaci´on entre las coordenadas de un vector en dos bases distintas. Sean B = {e1 , e2 , ...en }, B 0 = {e01 , e02 , ...e0n } dos bases de un espacio vectorial de dimensi´on n. Sean (x1 , x2 , ...xn ), (x01 , x02 , ...x0n ) las coordenadas respectivas de un vector x en ambas bases. Entonces, x1 e1 + x2 e2 + · · · + xn en = x = x01 e01 + x02 e02 + · · · + x0n e0n , lo que tambi´en se puede escribir:    0  x1 x1 0     x2   = x = (e01 , e02 , ...e0n )  x2  e1 e2 ... en   ...   ...  xn x0n Sean e01 = a11 e1 + a21 e2 + ... + an1 en e02 = a12 e1 + a22 e2 + ... + an2 en ··· e0n = a1n e1 + a2n e2 + ... + ann en los vectores de la nueva base expresados en la antigua. Tambi´en los as´ı:  a11 a12    a21 a22 e01 e02 ... e0n = e1 e2 ... en   ··· ··· an1 an2 sustituyendo la expresi´on anterior de los {e0 } en la  a11   a21 x = e1 e2 ... en   ··· an1



e1 e2

··· ··· ··· ···

 a1n a2n  , ···  ann

expresi´on de x, tenemos:  0  a12 · · · a1n x1  x02  a22 · · · a2n    · · · · · · · · ·   ...  x0n an2 · · · ann

que comparada con x=

podemos escribir globalmente

 x1   x2   ... en   ...  , xn

ya que las coordenadas de un vector en una base fija son u ´nicas, da:

153

   0  x1 a11 a12 · · · a1n x1  x2   a21 a22 · · · a2n   x02        ...  =  · · · · · · · · · · · ·   ...  xn an1 an2 · · · ann x0n Expresi´on de la relaci´on entre las coordenadas en las dos bases. Observemos que las columnas de esta matriz son las coordenadas de cada uno de los vectores de la nueva base expresados en la antigua. 

Ejercicios: 5.10.1. Hallar las matrices de cambio de base en R4 a) de la base dada en el ejercicio 5.4.2. b) a la base can´onica. b) de la base can´onica a la base dada en el ejercicio 5.4.2. b) 5.10.2. Siendo {v1 , v2 , v3 , v4 } = {(1, 1, 0, 0), (0, 1, 0, −1), (0, 1, 1, 0), (0, 0, 0, 1)} y {w1 , w2 , w3 , w4 } = {(1, 0, 0, 1), (1, 0, 1, 0), (0, 2, 1, 0), (0, 1, 0, 1)}, hallar: a) Las coordenadas del vector 3w1 + 2w2 + w3 − w4 en la base {v1 , v2 , v3 , v4 }. b) Las coordenadas del vector 3v1 − v3 + 2v2 en la base {w1 , w2 , w3 , w4 }. 5.10.3. Escribir las matrices de cambio de base en R4 entre las dos bases del ejercicio 5.10.2 y comprobar los resultados de ese ejercicio. 5.10.4. a) Hallar las matrices de cambio de base en M2×2 (R) entre las siguientes bases:         1 0 1 1 0 1 1 0 , , , 0 1 0 0 1 0 0 0 y         −1 0 0 −1 1 1 1 1 , , , 1 1 1 1 0 −1 −1 0 b) Hallar las coordenadas de la matriz 

1 1 1 1



directamente en las dos bases anteriores y comprobar que est´an relacionadas por las matrices de cambio de base. 5.10.5. Escribir las matrices de cambio de base en el espacio de los polinomios de grado menor o igual que 3 con coeficientes reales entre las bases {1, x−1, (x−1)2 , (x−1)3 } y {1, x+1, (x+1)2 , (x+1)3 }. Hallar las coordenadas del polinomio 1 + x + x2 + x3 directamente en las dos bases y comprobar que est´an relacionadas por las matrices de cambio de base. 154

APLICACIONES DEL CONCEPTO DE DIMENSION A PROCESOS CONCRETOS.

Independencia del n´ umero de escalones obtenidos escalonando una matriz. Queremos aqu´ı mostrar, sin usar determinantes, que el n´ umero de escalones de la matriz escalonada E obtenida escalonando una matriz dada A es independiente del itinerario seguido para escalonarla (de las operaciones elementales utilizadas y del orden de ´estas). Primero demostramos que las filas no nulas de una matriz escalonada con elementos de un cuerpo K, consideradas como elementos de K n son independientes: Sea   e11 e12 · · · e1n  e21 e22 · · · e2n   E=  ··· ··· ··· ···  em1 em2 · · · emn una matriz escalonada. Sea λ1 (e11 , e12 , · · · , e1n )+λ2 (e21 , e22 , · · · , e2n )+· · ·+λi (ei1 , ei2 , · · · , ein )+λr (er1 , er2 , · · · , ern ) = (0, 0, · · · , 0) una conbinaci´on lineal nula de sus filas Recordemos que por ser la matriz escalonada, si e1k es el primer n´ umero distinto de cero de la primera fila eik = 0 para i > 1. Entonces, la k-´esima coordenada de la anterior combinaci´on lineal se reduce a λ1 e1k , pero si esta combinaci´on lineal es nula, λ1 e1k = 0. Como e1k 6= 0 y pertenece a un −1 cuerpo, existe e−1 1k y entonces tenemos λ1 = (λ1 e1k )e1k = 0. Sea ahora e2l el primer n´ umero no nulo de la segunda fila. Entonces, eil = 0 para i > 2. Como λ1 = 0, la l-´esima coordenada de la combinaci´on lineal escrita es λ2 e2l , pero como la combinaci´on lineal es nula, λ2 e2l = 0 y concluimos que λ2 = 0, lo mismo que en el caso anterior. Vamos considerando las filas sucesivamente en orden creciente y llegamos a la conclusi´on de que todas las λj son nulas ya que lo son las λi anteriores, y en cada fila no nula hay una primera coordenada no nula tal que las coordenadas en ese lugar de las filas sucesivas son nulas. Por tanto, las filas no nulas de la matriz escalonada son independientes. Ahora, dada una matriz Am×n , llamamos {vi }i≤m ⊂ K n a los vectores que tienen por coordenadas los elementos de las filas de la matriz A y llamamos espacio fila de A: (F(A)) al subespacio de K n engendrado por los vectores {vi }i≤m . 155

El n´ umero de escalones de la matriz escalonada E(A) obtenida de A es igual al n´ umero de sus filas no nulas. Veamos que este n´ umero (el de filas no nulas de la matriz escalonada al que queda reducida A) es la dimensi´on del subespacio vectorial F(A). Cuando lo hayamos visto, tendrenos que los distintos n´ umeros de filas no nulas de distintas matrices escalonadas obtenidas de A son todos iguales, por ser iguales a la dimensi´on de F(A). Para ello, primero, se puede comprobar que en cada operaci´on elemental realizada en la matriz A para hacerla escalonada, sus vectores filas se transforman en otros vectores que dependen linealmente de los anteriores, por lo que el subespacio de las combinaciones lineales de los vectores filas de la matriz obtenida est´a contenido en el subespacio fila de la matriz de la que proven´ıa y al final F (E(A)) ⊂ F (A). Como las operaciones elementales tienen como inversas, otras operaciones elementales; al volver hacia atr´as desde E(A) a A, en cada operaci´on elemental ocurre lo mismo: el subespacio engendrado por los vectores filas est´a contenido en el anterior, por lo que F (A) ⊂ F (E(A))), luego F (A) = F (E(A))). Despu´es, sean {ei = (ei1 , ei2 ....ein ) i ≤ m}, las filas de E(A) y {ei = (ei1 , ei2 ....ein ) i ≤ r} las filas no nulas de E(A); por lo anterior, F (A) = L{v1 , v2 , ..., vi , ...vm } =L {e1 , e2 , ..., ei , ...em } =L{e1 , e2 , ..., ei , ...er } ya que podemos prescindir de las filas nulas. Como los vectores filas no nulas de E(A) son independientes y forman un sistema generador del subespacio L{e1 , e2 , ..., ei , ...er } = L{v1 , v2 , ..., vi , ..., vm }, son una base de este subespacio. Cualquiera que sea la forma en que escalonamos la matriz A, el n´ umero de filas no nulas (y, por tanto, el n´ umero de escalones) coincide con la dimensi´on del subespacio F(A). Dicho de otra manera, si escalonando de otra forma, obtenemos que L{e01 , e02 , ..., e0i , ...e0r0 } = L{v1 , v2 , ..., vi , ..., vm }, como {e1 , e2 , ..., ei , ...er } y {e01 , e02 , ..., e0i , ...e0r0 } son dos bases del mismo subespacio vectorial, han de tener el mismo n´ umero de elementos, luego r = r0 . En el transcurso de esta demostraci´on hemos hallado una base del subespacio vectorial engendrado por las filas de una matriz. Por tanto, si nos dan un subespacio vectorial por una familia de generadores, una manera de obtener una base de ese subespacio es escribir la matriz formada por las coordenadas de esos vectores en filas y escalonarla y los vectores correspondientes a las filas no nulas de la matriz escalonada obtenida, son una base del subespacio dado. Si queremos que la base sea un subconjunto del conjunto de generadores dado, seguimos el siguiente procedimiento: Extracci´ on de la base a partir de un sistema generador. Se deduce de lo visto en la proposici´on 9 que para extraer una base de un sistema generador hay que ir eliminando los vectores que dependan de los dem´as. Esto, a veces, puede hacerse a simple 156

vista, pero, en general, no. Veremos c´omo escoger un sistema generador independiente utilizando el rango de la matriz que tiene por filas las coordenadas de los vectores generadores en una base prefijada. El n´ umero de vectores que tenemos que escoger es igual a la dimensi´on del subespacio considerado. Sea S = L{v1 , v2 , ..., vi , ...vm } donde cada vi = (vi1 , vi2 ....vin ) est´a expresado en una base prefijada del espacio total. Llamamos A a la matriz que tiene por filas las coordenadas de cada vi y la reducimos a su forma escalonada a la que llamamos E(A). Sabemos (por el procedimiento de la demostraci´on del teorema de Rouch´e-Frobenius) que el n´ umero de filas no nulas de una matriz escalonada E(A) a la que A se reduzca es igual al m´aximo de los o´rdenes de los menores distintos de cero de A, al que vamos a llamar r. Hemos visto que este n´ umero (el de filas no nulas de la matriz escalonada E(A)) es la dimensi´on del subespacio vectorial engendrado por los vectores {vi }i≤m . Luego es r, el n´ umero de vectores independientes que tenemos que escoger. Tenemos que decidir ahora cu´ales pueden ser esos r vectores. Por la definici´on de rango, podemos escoger en A un menor de orden r distinto de cero; consideramos la submatriz formada por las r filas de las dadas que intersecan con este menor distinto de cero. El rango de esta submatriz es r, por lo que el subespacio engendrado por esas filas es de dimensi´on r. Como este subespacio est´a contenido en el dado y es de su misma dimensi´on, coincide con el dado y podemos escoger las r filas correspondientes a la submatriz considerada para formar una base del subespacio dado. Ejercicios: 5.11.1. Calcular la dimensi´on y extraer una base del subespacio de R5 engendrado por {(1, 0, 1, 0, 1), (0, 1, 1, 0, 1), (1, 1, 3, 1, 1), (0, 0, 1, 1, 1), (0, −1, 1, 2, 1)} 5.11.2. Encontrar una base de R4 que contenga a los vectores {(0, 0, 1, 1), (1, 1, 0, 0)} 5.11.3. Calc´ ulese seg´ un los valores de α, β, γ la dimensi´on del espacio vectorial: S = L{(1, 1, 0), (2, 1, α), (3, 0, β), (1, γ, 1)} 5.11.4. Dado el subespacio vectorial de las matrices cuadradas 2 × 2 engendrado por         1 0 0 1 1 1 1 −1 , , , 1 0 1 1 −1 1 0 1 extraer una base del subespacio considerado, de este sistema de generadores. 5.11.5. Dado el subespacio vectorial de los polinomios de grado 3 engendrado por los vectores: {x2 − 1, x2 + 1, x3 + 4, x3 } extraer una base de este sistema de generadores.

157

Tambi´en, del procedimiento anterior se deduce que el rango de una matriz A es igual al n´ umero de sus filas independientes, ya que siempre se puede extender un sistema independiente de vectores a una base de F(A) y un n´ umero de vectores superior al de la dimensi´on del subespacio F(A) es dependiente. Y como el rango de A, como m´aximo de los o´rdenes de los menores distintos de cero de A, es igual al rango de su traspuesta, este rango es igual al n´ umero de filas independientes de t A, es decir, al n´ umero de columnas de A. Aplicaci´ on del rango a la obtenci´ on de las ecuaciones cartesianas de un subespacio dado por sus generadores. Para simplificar los c´alculos, se obtiene primero una base del subespacio dado. Una vez obtenida una base del subespacio vectorial dado por sus generadores, la condici´on necesaria y suficiente para que un vector (x1 , x2 , ..., xn ) sea del subespacio es que dependa linealmente de los vectores de la base, es decir, que el rango de la matriz que tiene por filas las componentes de los vectores de la base sea igual al rango de esta matriz aumentada con la fila (x1 , x2 , ..., xn ). Como el rango de la matriz que tiene por filas las coordenadas de los vectores de la base es igual al n´ umero de estos, (llam´emoslo r), podemos encontrar en ella un menor de orden r distinto de cero. Agrandamos la matriz formada por las coordenadas de los vectores de la base en filas con la fila (x1 , x2 , ..., xn ) debajo de las anteriores; completando ahora el menor encontrado de todas las formas posibles a un menor de orden r+1 en la matriz agrandada con las columnas que no aparecen en dicho menor, obtenemos n-r expresiones lineales en las coordenadas que han de ser cero para que el nuevo vector (x1 , x2 , ..., xn ) pertenezca al subespacio. Estas n-r condiciones necesarias son tambi´en suficientes para que el vector dependa linealmente de los de la base. Para darnos cuenta de ello, tengamos en cuenta que al ser el determinante de una matriz igual al de su traspuesta, el rango de la matriz, no s´olo es el n´ umero de filas independientes, sino el n´ umero de columnas independientes y que la anulaci´on de cada una de las expresiones obtenidas indica que cada columna de la matriz agrandada depende linealmente de las columnas del menor distinto de cero de orden r encontrado. Por ello aseguran que el n´ umero de columnas independientes de la matriz agrandada es r; y tambi´en el n´ umero de sus filas, por lo que aseguran que la fila (x1 , x2 , ..., xn ) pertenece al subespacio considerado. Ninguna de estas ecuaciones es superflua porque considerando la matriz de los coeficientes del sistema homog´eneo formado por ellas, las n-r columnas formadas por los coeficientes de las inc´ognitas que no est´an debajo de las del menor distinto de cero tienen s´olo un elemento distinto de cero de valor absoluto igual al del menor distinto de cero, permutado adem´as de tal forma que dan lugar a un menor de orden n-r distinto de cero. Conviene comprobarlo con un ejemplo. As´ı tenemos n-r ecuaciones que son necesarias y suficientes para que un vector (x1 , x2 , ..., xn ) pertenezca al subespacio.

158

Hay una sola ecuaci´on cuando la dimensi´on del subespacio es n − 1; estos subespacios se llaman hiperplanos. El subespacio soluci´on de un sistema de ecuaciones homog´eneo es una intersecci´on de hiperplanos. Y seg´ un hemos visto ahora, los subespacios engendrados por una base de r vectores son intersecci´on de n − r hiperplanos. Ejercicios: 5.12.1. Hallar las ecuaciones cartesianas de los siguientes subespacios de R4 : S1 = L{(1, 0, 1, 0)(2, 1, 0, −1)(1, −1, 3, 1)}, S2 = L{(3, 1, 0, −1)(1, 1, −1, −1), (7, 1, 2, −1)}, S3 = L{(0, 2, 5, 0)}. 5.12.2. Hallar las ecuaciones cartesianas de los siguientes subespacios de R5 : S1 = L{(1, 0, 1, 0, 1)(0, 1, 1, 0, 1)(1, 1, 3, 1, 1), (0, 0, 1, 1, 1)(0, −1, 1, 2, 1)}, S2 = L{(1, 0, 1, 0, 0)(2, 1, 0, −1, 1)(2, 0, 1, 0, 0), (3, 1, 0, −1, 1)}.

159

C´ alculo del rango de la matriz A y b´ usqueda del menor distinto de cero de orden igual al rango. Seg´ un la definici´on de rango de A como el m´aximo de los o´rdenes de los menores distintos de cero, parece que habr´ıa que calcularlos todos, pero teniendo en cuenta que tambi´en es el n´ umero de filas independientes de la matriz, no es necesario calcular los determinantes de todas las submatrices de A, seg´ un el procedimiento que vamos a ver. Veamos antes un ejemplo: calculemos el rango  0 1 −1  0 0 1   0 1 −1   0 2 1 0 1 0

de la matriz:  2 1 −3 −2   −4 −3   −9 −6  −3 −2

Podemos prescindir de la primera columna de ceros, porque siempre que aparezca en un menor, este menor tiene determinante cero. Empezamos aqu´ı por el primer 1 de la primera fila y la segunda columna, que da un menor de orden uno distinto de cero. Ahora, lo orlamos con elementos de la segunda fila y de la segunda columna para formar un menor de orden 2. De esta forma, obtenemos:   1 −1 det = 1 6= 0 0 1 Entonces, el rango de la matriz primitiva es mayor o igual que dos y las filas 1a y 2a son independientes. Ampliamos este menor con la fila 3a y columna 3a , obteniendo:   1 −1 2 1 −3  = 0 det  0 1 −1 −4 a

a

y con la fila 3 y con la columna 4 obteniendo:   1 −1 1 1 −2  = 0 det  0 1 −1 −3

160

Ya que la anulaci´on de estos dos determinantes implica la dependencia lineal de las dos u ´ltimas columnas de la matriz   0 1 −1 2 1  0 0 1 −3 −2  0 1 −1 −4 −3 respecto a las dos primeras, se sigue de la anulaci´on de estos dos determinantes, la anulaci´on de   −1 2 1 2  det  1 −3 −1 −4 −3 ya que sus tres columnas perteneces a un espacio de dimensi´on 2. Por tanto, no es necesario calcular este determinante. Al mismo tiempo, el n´ umero de filas independientes de la matriz   0 1 −1 2 1  0 0 1 −3 −2  0 1 −1 −4 −3 es igual a su n´ umero de columnas independientes igual a 2. Como calcular el rango de la matriz total es calcular el n´ umero de filas independientes, podemos prescindir de la 3a fila en el c´alculo de las filas independientes y no tenemos que calcular ning´ un determinante de ning´ un menor de orden mayor que 3 en el que aparezcan las tres primeras filas. Ampliamos ahora el menor de orden 2 distinto de cero obtenido con elementos de la 4a fila y 3a columna y obtenemos:   1 −1 2 1 −3  = −4 6= 0 det  0 2 1 −9 Entonces, el rango es mayor o igual que 3 y las filas 1a , 2a y 4a son independientes. Para ver si la u ´ltima fila es independiente de las anteriores, ampliamos el menor de orden 3 obtenido a un menor de orden 4, obteniendo:     1 −1 2 1 1 −1 2 1  0  1 −3 −2  1 −3 −2   = det  0 =0 det   2  0 1 −9 −6  3 −13 −8  1 0 −3 −2 0 1 −5 −3 Ya podemos concluir que el rango de la matriz es tres sin necesidad de calcular m´as menores. Podr´ıamos pensar que quiz´a otra submatriz de orden cuatro con otras filas pudiera tener determinante 161

distinto de cero. Pero lo que se deduce de que el anterior determinante es cero, es que la u ´ltima fila depende de las otras, luego s´olo hay tres filas independientes. Entonces, el espacio engendrado por las filas de la matriz es de dimensi´on 3 y cualesquiera que sean las cuatro filas que escojamos, por la proposici´on 8, son dependientes, siendo por tanto el menor formado, nulo y el rango de A no superior a 3. Nos hemos ahorrado el c´alculo de los determinantes: 0 1 −3 −2 1 −1 2 1 1 −1 2 1 1 −1 2 1 1 −1 −4 −3 1 −1 −4 −3 0 1 −3 −2 0 1 −3 −2 , , , 2 1 9 −6 2 1 9 −6 1 −1 −4 −3 1 −1 −4 −3 1 0 −3 −2 1 0 −3 −2 1 0 −3 −2 2 1 9 −6 Estableciendo, en general, el procedimiento de c´alculo del rango de una matriz: Podemos prescindir de las columnas nulas y de las filas nulas de la matriz porque no aumentan el orden de los menores con determinante distinto de cero. Hecho esto, despu´es de una permutaci´on de filas, (que no altera el rango), si es necesario, podemos suponer que a11 es distinto de cero. Entonces consideramos todos los menores de orden dos en los que figura a11 con elementos de la segunda fila, si alguno de estos menores es distinto de cero, el rango de la matriz es mayor o igual que dos. En caso contrario, el rango de la matriz formada por las dos primeras filas es 1. Entonces, la segunda fila es m´ ultiplo de la primera, por ello podemos prescindir de ella en el c´alculo de las filas independientes. Repetimos el proceso con las restantes filas hasta encontrar, o bien que todas son m´ ultiplos de la primera y entonces el rango es uno y hemos acabado. O bien un menor de orden dos con determinante no nulo, y entonces, el rango es mayor o igual que dos y hemos encontrado dos filas independientes. Para averiguar si el rango es mayor que dos, consideramos los menores de orden 3 obtenidos al ampliar el primer menor de orden dos con determinante distinto de cero encontrado, con elementos correspondientes de las columnas siguientes y de la fila siguiente. Si todos los determinantes de las submatrices de orden 3 con esta fila son cero, esa fila depende de las dos anteriores y podemos prescindir de ella en la formaci´on de m´as menores. Seguimos formando menores de orden 3 con las filas siguientes. Si todos los menores formados as´ı salen con determinante cero, las filas siguientes dependen de las dos primeras. Al haber s´olo dos filas independientes, otro menor cualquiera de orden 3 es cero, el rango es dos y hemos acabado. Si hay un menor de orden 3 con determinante distinto de cero, el rango de la matriz es mayor o igual que 3 y hemos encontrado tres filas independientes. El procedimiento es an´alogo para ver si el rango de la matriz es mayor que 3, ampliando el menor de orden 3 distinto de cero encontrado con elementos de las columnas y de las filas siguientes. 162

Seguimos aumentando el tama˜ no de los menores tanto como sea posible con el mismo procedimiento y cuando no podamos aumentar el tama˜ no, hemos llegado al m´aximo orden de los menores con determinante distinto de cero en los que aparece parcial o totalmente la primera fila no nula. Podr´ıamos pensar que al formar submatrices que no empiecen en la 1a fila no nula, orl´andolas luego con elementos correspondientes de las otras columnas y otras filas se pudieran encontrar submatrices de orden superior al rango establecido anteriormente, con determinante distinto de cero. Pero en el procedimiento seguido hemos hallado el m´aximo n´ umero de filas independientes. Este n´ umero es la dimensi´on del espacio vectorial engendrado por las filas, independiente del orden considerado al formar las submatrices. Por tanto no tenemos que comprobar m´as determinantes de m´as submatrices. Adem´as, como el rango de la matriz es la dimensi´on del espacio engendrado por sus vectores filas y del espacio engendrado por sus vectores columnas, el orden de ´estas no influye en la dimensi´on. Por ello, podemos hacer un intercambio de filas o de columnas antes de empezar a calcular menores si vemos que las operaciones van a resultar m´as f´aciles. Ejercicios: 5.13.1. Estudiar, seg´ un el valor de λ, los rangos de las siguientes matrices:       3 1 1 4 2 3 1 7 1 λ −1 2    3 7 −6 −2  ,  λ 4 10 1  ,  2 −1 λ 5 .  1 7 17 3  5 8 1 λ 1 10 −6 1 2 2 4 3 5.13.2. Estudiar, seg´ un los valores de λ la compatibilidad de los sistemas AX = b donde la matriz A|b es la dada a continuaci´on:     3 2 5 1 λ 1 1 1  2 4 6 3 , 1 λ 1 1 . 5 7 λ 5 1 1 λ 1 Aplicaci´ on al m´ etodo de Gauss. Las soluciones de un sistema homog´eneo son un subespacio vectorial de dimensi´on igual al n´ umero de inc´ognitas menos el rango de la matriz del sistema y este rango se puede determinar calculando determinantes de menores de la matriz de coeficientes de la manera ordenada indicada.

163

´ DE SUBESPACIOS VECTORIALES. SUMA E INTERSECCION La intersecci´on de dos subespacios vectoriales es su intersecci´on conjuntista. El corolario 1 afirma que es otro subespacio vectorial. Se define la suma de dos subespacios vectoriales como el conjunto de los vectores que son suma de vectores de los dos subespacios. Puede comprobarse como ejercicio, que es otro subespacio vectorial porque cumple las condiciones de la proposici´on 2. La suma de dos subespacios vectoriales est´a engendrada por la uni´on de dos sistemas generadores de cada uno de los subespacios. Sus ecuaciones se obtienen a partir de este sistema generador, suprimiendo los generadores dependientes. Las dimensiones de la suma y de la intersecci´on de dos subespacios est´an relacionadas por la f´ormula de las dimensiones para la suma y la intersecci´on de dos subespacios vectoriales. F´ ormula de las dimensiones: Si V1 y V2 son dos subespacios vectoriales, dim(V1 ) + dim(V2 ) = dim(V1 + V2 ) + dim(V1 ∩ V2 ). Cuando la intersecci´on de los dos subespacios es {0}, la suma se llama suma directa, y se representa por V1 ⊕ V2 . Si adem´as de ser la suma, directa, V1 ⊕ V2 = V , los dos subespacios se llaman complementarios. Demostraci´ on de la F´ ormula de las dimensiones. Sean V1 , V2 , los subespacios vectoriales de dimensiones n1 y n2 , respectivamente. Sea k la dimensi´on de la intersecci´on. La base del subespacio intersecci´on se puede ampliar a una base de V1 y a una base de V2 ; podemos suponer que {e1 , e2 , ..., ek } es una base de V1 ∩ V2 , {e1 , e2 , ..., ek , ek+1 , ..., en1 } una base de V1 , {e1 , e2 , ..., ek , e0k+1 , ..., e0n2 } una base de V2 . Nuestra f´ormula est´a demostrada si vemos que {e1 , e2 , ...ek , ek+1 , ...en1 , e0k+1 , e0k+2 , ...e0n2 } es una base de V1 + V2 . Desde luego, los vectores {e1 , e2 , ...ek , ek+1 , ...en1 , e0k+1 , e0k+2 , ...e0n2 } son un sistema generador de la suma. En cuanto a la independencia lineal, sea 164

1 2 −k 0 0 Σni=1 λi ei + Σnj=1 λj ek+j = 0

Veamos que todos los coeficientes han de ser nulos. Escribamos: 1 2 −k 0 0 Σni=1 λi ei = −Σnj=1 λj ek+j

El vector del primer miembro de esta igualdad est´a en V1 y el vector del segundo miembro de la igualdad est´a en V2 . Al ser iguales estos vectores, est´an en la intersecci´on de V1 y de V2 . Este vector de V1 ∩ V2 se expresa de manera u ´nica en cada una de las bases de V1 , V2 y V1 ∩ V2 . Las coordenadas del vector en la base dada de V1 son las (λi )i≤n1 , de forma que si ha de estar en V1 ∩ V2 ha de ser λi = 0, para i tal que k < i ≤ n1 , y las {λi }i≤k son las coordenadas del vector 1 2 −k 0 0 λj ek+j = 0, queda, entonces, como una en la base de V1 ∩ V2 . La suma considerada: Σni=1 λi ei + Σnj=1 combinaci´on lineal nula de los vectores de la base de V2 y por tanto sus coeficientes han de ser cero. Se pueden sacar importantes consecuencias de la f´ormula de las dimensiones para la suma directa de subespacios: L Si V1 + V2 = V1 V2 , por ser la intersecci´on de los dos subespacios cero, la uni´on de las bases de V1 y de V2 es una base de su suma directa. (Basta observar la demostraci´on). Si adem´as los espacios son complementarios, la uni´on de las dos bases es una base del espacio total. Por eso, dado un subespacio V1 , los vectores que se puedan a˜ nadir a la base de V1 para dar una base del espacio total, constituyen una base de un espacio complementario de V1 . Aunque la condici´on para que dos espacios sean complementarios es que su intersecci´on sea el cero y su suma sea el total, s´olo es necesario comprobar una de estas dos condiciones y que la suma de las dimensiones de los dos subespacios es la dimensi´on del espacio total, porque una de ellas se da contandoTcon la otra y la f´ormula de las dimensiones. Es decir: a) Si V1 V2 = 0, V1 y V2 son complementarios si y s´olo si la suma de sus dimensiones es la dimensi´on del espacio total. b) Si la suma de V1 y V2 es el espacio total, V1 y V2 son complementarios si y s´olo si la suma de sus dimensiones es igual a la dimensi´on del espacio total. Veamos T a): Si V1 V2 = 0, la f´ormula de las dimensiones implica que dim(V1 + V2 ) = dim(V1 ) + dim(V2 ); sea V el espacio total, como V1 + V2 = V si y s´olo si tienen la misma dimensi´on, V1 + V2 = V si y s´olo si dim(V1 ) + dim(V2 ) = dimV . Veamos b):

165

T Si V1 +V2 T = V , la f´ormula de las Tdimensiones da dim(V1 V2 ) = dim(V1 )+dim(V2 )−dim(V1 +V2 ); por tanto V1 V2 = 0(≡ dim(V1 V2 ) = 0) si y s´olo si dim(V1 ) + dim(V2 ) − dim(V1 + V2 ) = 0, es decir, si dim(V1 ) + dim(V2 ) = dim(V1 + V2 ) = dimV. Ejercicios: 5.14.1. Siendo S1 = L{(1, −5, 2, 0)(1, −1, 0, 2)} T y S2 = L{(3, −5, 2, 1)(2, 0, 0, 1)}, hallar una base y las ecuaciones cartesianas de S1 + S2 y de S1 S2 . 5.14.2. Siendo S1 = L{(1, 0, 1, 0)(2, 1, 0, −1)} y T S2 = L{(3, 1, 0, −1)(1, 1, −1, −1)}, hallar una base y las ecuaciones cartesianas de S1 + S2 y de S1 S2 . 5.14.3. Sean S1 = L{(1, 0, 1, 0, 1)(2, T 1, 0, −1, 0)(2, 0, 1, 0, 1)} y S2 = L{(3, 1, 0, −1, 0)(1, 1, −1, −1, −1)}, comprobar que S1 + S2 = S1 y S1 S2 = S2 . 5.14.4. Siendo S1 = L{(1, 1, 2, 0)(−2, 0,T 1, 3)} y S2 = L{(0, 2, 5, 0)(−1, 1, 3, 2)}, hallar una base y las ecuaciones cartesianas de S1 + S2 y S1 S2 . 5.14.5. Siendo S1 = L{(0, 1, 1, 0)(1, 0, 0, 1)} y  x1 +x2 +x3 +x4 = 0 S2 ≡ x1 +x2 = 0 T hallar una base y las ecuaciones cartesianas de S1 + S2 y S1 S2 . 5.14.6. Siendo  x1 −x3 = 0 S1 ≡ x2 −x4 = 0 y  x1 +x2 +x3 +x4 = 0 S2 ≡ x1 +x2 = 0 T hallar una base y las ecuaciones cartesianas de S1 + S2 y S1 S2 . 5.14.7. Siendo F1 el plano de ecuaci´on x + 2y − z = 0 y F2 la recta de ecuaciones  x −y +2z = 0 −2x +2y +z = 0 Averiguar si son complementarios. 5.14.8. Siendo V1 = L{(1, 1, 0), (1, 0, 1)} y V2 5.14.9. Comprobar que son complementarios  −2x1 −5x2 +4x3 = S1 ≡ −2x1 +7x2 +4x4 =

= L{(0, 1, 1)}. Averiguar si son complementarios. los subespacios de ecuaciones:  0 x1 +2x2 +x4 = 0 S2 ≡ 0 x1 −2x2 +x3 = 0

5.14.10. Hallar una base y las ecuaciones cartesianas de un espacio complementario de 166

a) S1 = L{(0, 2, 5, 0)(−1, 1, 3, 2)}. b) S2 = L{(1, 1, 0, 0)(1, 0, 1, 0)(0, T 0, 1, 1)(0, 1, 0, 1)} 5.14.11. Hallar una base de S1 S2 donde       1 1 0 1 0 0 S1 = L , , 0 0 1 0 1 1       1 0 1 −1 0 1 S2 = L , , 1 0 0 0 −1 0 ¿C´ ual es S1 + S2 ?. T 5.14.12. Hallar una base de S1 S2 y de S1 + S2 , donde     1 1 0 0 S1 = L , 0 0 1 1     1 0 0 1 S2 = L , 0 1 1 0 T Hallar tambi´en las ecuaciones cartesianas de S1 S2 y de S1 + S2 . 5.14.13. En M2×2 (R) se consideran los subespacios que conmutan con cada una de las siguientes matrices:     1 1 1 1 A= B= 0 2 1 1 a) Hallar una base de cada uno de ellos, de su suma y de su intersecci´on. b) Hallar una base de un espacio complementario del subespacio de las matrices que conmutan con A. 5.14.14. Sea   1 0 0 M =  0 2 0 , 0 0 1 y S1 = {A|AM = A}, S2 = {B|M B = B}. T Encontrar dimensiones y bases de S1 S2 y de S1 + S2 . 5.14.15. Hallar los subespacios suma e intersecci´on de los siguientes subespacios de las matrices cuadradas de orden n: a) El subespacio de las matrices triangulares superiores de orden n y el subespacio de las matrices triangulares inferiores. b) El subespacio de las matrices sim´etricas de orden n y el subespacio de las matrices antisim´etricas de orden n. 167

5.14.16. Hallar los subespacios suma e intersecci´on de los siguientes subespacios del espacio de los polinomios de grado ≤ 3: S1 es el subespacio de los polinomios m´ ultiplos de x + 1 y S2 es el subespacio de los polinomios m´ ultiplos de x − 1. 5.14.17. En R4 sean U = L{u1 , u2 } y V = L{v1 , v2 } donde u1 = (1, 1, 2, −λ), u2 = (−1, 1, 0, −λ), v1 = (1, λ, 2, −λ), v2 = (2, 3, λ, 1) T Hallar seg´ un los valores de λ las dimensiones de U , V U + V , U V . Ejemplos resueltos y m´as problemas propuestos en el cap´ıtulo 3 de (A), en el cap´ıtulo 4 de (Gr), en el cap´ıtulo 6 de (H) y en el cap´ıtulo 3 de (S2).

168

BIBLIOGRAFIA. (A) Algebra Lineal y aplicaciones. J. Arves´ u Carballo, R. Alvarez Nodarse, F. Marcell´an Espa˜ nol. Ed. S´ıntesis Madrid. 1999. (Gr) Algebra lineal con aplicaciones. S. I. Grossman. Ed. Mc Graw Hill 2001. [G] Matem´aticas 2 Bachillerato. Carlos Gonzalez Garc´ıa. Jes´ us Llorente Medrano. Maria Jos´e Ruiz Jim´ nez. Ed. Editex. 2009. (H) Algebra y Geometr´ıa. Eugenio Hern´andez. Addison- Wesley / UAM, 1994. [M] Matem´aticas 2 Bachillerato. Ma Felicidad Monteagudo Mart´ınez. Jes´ us Paz Fern´andez Ed. Luis Vives. 2003. (S) Algebra lineal y sus aplicaciones. G. Strang Ed. Addison-Wesley Iberoamericana. 1990. (S2) Introduction to Linear Algebra. G.Strang Ed. Wellesley-Cambridge Press 1993.

169

170

APLICACIONES LINEALES. Introducci´ on. Una aplicaci´on lineal entre espacios vectoriales sobre el mismo cuerpo es una aplicaci´on que respeta las operaciones de espacio vectorial, es decir, aplica la suma de vectores en la suma de sus im´agenes y el producto de un escalar por un vector en el producto del escalar por la imagen del vector, respectivamente. Definici´ on: Sean V1 y V2 dos espacios vectoriales sobre el mismo cuerpo y f una aplicaci´on de V1 en V2 . Se dice que f es una aplicaci´ on lineal si a) Dados dos vectores cualesquiera v y v 0 de V1 , f (v + v 0 ) = f (v) + f (v 0 ). b) Dados un vector v de V1 y un elemento del cuerpo λ, f (λv) = λf (v). Las aplicaciones lineales se llaman tambi´en homomorfismos. Las aplicaciones lineales nos permiten trasvasar los resultados encontrados en unos espacios vectoriales a otros en los que la intuici´on es m´as dif´ıcil. Adem´as, la importancia de la estructura de espacio vectorial est´a en que no s´olo la encontramos en los conjuntos de vectores del plano o del espacio, sino en que se puede trasmitir a otros conjuntos que est´an en correspondencia biyectiva con alg´ un Rn o´ alg´ un C n , haciendo la biyecci´on una aplicaci´on lineal. Consecuencia inmediata de la definici´on es: 1) f (0) = f (0 · v) = 0 · f (v) = 0. 2) f (−v) = f ((−1)v) = (−1)f (v) = −f (v),

∀v ∈ V1 .

Cuando el espacio original y el espacio final coinciden, el homomorfismo se llama endomorfismo. Un ejemplo de endomorfismos son las aplicaciones que resultan al multiplicar los vectores del espacio por un n´ umero fijo: fα (v) = αv ∀v ∈ V . Estas aplicaciones se llaman homotecias. Las proyecciones sobre una recta de R2 o de R3 y sobre un plano de R3 son aplicaciones lineales. (V´ease el dibujo siguiente).

171

v+v’   C    C  C   C      C  C v’  C C  C  C   C C C   C |p(v0 )|    C C C       v * C     CC :C C  C       C  p(v+v’)   C  :        C p(v) :         

Las simetr´ıas respecto a rectas o planos en R3 son endomorfismos. (V´ease el dibujo siguiente). v+v’

v























 v’ 6

 



 s(v’)

 1  3   

      

     

     

                  

  -

s(v)

172

s(v+v’)

La aplicaci´on que hace corresponder a cada matriz cuadrada su traza es una aplicaci´on lineal definida en cada espacio vectorial de matrices cuadradas de orden n con valores en el cuerpo del que son las entradas de la matriz. La aplicaci´on derivada hace corresponder a un polinomio de grado ≤ n otro polinomio de grado ≤ n − 1, por tanto es tambi´en una aplicaci´on del espacio vectorial de polinomios de grado ≤ n con coeficientes reales en el espacio vectorial de polinomios de grado ≤ n − 1 con coeficientes reales. Se puede comprobar que es una aplicaci´on lineal. La aplicaci´on de R en R definida por f (x) = x + 1 no cumple la condici´on 1). Por tanto no es lineal. A pesar de que la aplicaci´on de R en R definida por f (x) = x2 cumple la condici´on 1), no cumple la condici´on 2), por lo que tampoco es lineal. Ejercicios: 6.1.1. Averiguar si son aplicaciones lineales las siguientes aplicaciones: a) La aplicaci´on del espacio vectorial de las matrices cuadradas de orden n en el espacio vectorial de las matrices antisim´etricas de orden n dada por A(B) = 21 (B − t B). b) La aplicaci´on traza definida en el espacio vectorial de las matrices cuadradas 3×3 con entradas reales sobre R. c) La aplicaci´on del espacio vectorial de los polinomios de grado ≤ n en ´este mismo conjunto dada por T (p(x)) = p(x − 1). d) La aplicaci´on del espacio vectorial de los polinomios de grado ≤ n en ´este mismo espacio vectorial dada por T (p(x)) = p(x) − 1. e) La aplicaci´on del espacio vectorial de las matrices cuadradas de orden n en el mismo espacio vectorial dada por P (A) = AB donde B es una matriz fija. f) La aplicaci´on del espacio vectorial de las matrices cuadradas de orden n en el mismo espacio dada por Q(A) = A + B donde B es una matriz fija. g) La aplicaci´on del espacio vectorial de las matrices cuadradas de orden n en el mismo espacio dada por C(A) = AB − BA donde B es una matriz fija.

173

La suma de aplicaciones lineales es otra aplicaci´on lineal. El producto de una aplicaci´on lineal por un n´ umero es una aplicaci´on lineal. Pueden comprobarse como ejercicio f´acilmente estas dos afirmaciones y por tanto que el conjunto de las aplicaciones lineales definidas entre dos espacios vectoriales es otro espacio vectorial, que denotamos por L (V1 , V2 ). Como consecuencia del p´arrafo siguiente vamos a ver que L (V1 , V2 ) se puede equiparar a un espacio vectorial de matrices. Expresi´ on matricial de una aplicaci´ on lineal. Primero, queremos pasar del concepto de aplicaci´on lineal a ciertos n´ umeros que la determinen y luego obtener n´ umeros que la caractericen. Fijada {e1 , e2 , ...en }, base de V1 , f est´a determinada por las im´agenes de los elementos de esa base y fijada {u1 , u2 , ..., um }, base de V2 , estas im´agenes est´an determinadas por sus coordenadas en esa base, como consecuencia, cada aplicaci´on lineal est´a determinada por una matriz m × n: Para determinarla, escribimos un vector x de V1 como x = x1 e1 + x2 e2 + ... + xn en y escribimos el vector y = f (x) de V2 como f (x) = y1 u1 + y2 u2 + ... + ym um . Entonces, si x es un vector de V1 , f (x) = f (x1 e1 + x2 e2 + ... + xn en ) = f (x1 e1 ) + f (x2 e2 ) + ... + f (xn en ) = = x1 f (e1 ) + x2 f (e2 ) + ... + xn f (en ).

por a) por b)

Si las coordenadas de f (e1 ) son (a11 , a21 , ..., am1 ), las de f (e2 ) son (a12 , a22 , ..., am2 )...,las de f (en ) son (a1n , a2n , ..., amn ), en la base de V2 , las de y = f (x) son:     

y1 y2 .. .





    = x  1  

ym La matriz

a11 a21 .. . am1





    + x  2  

a12 a22 .. .





    + · · · + x  n  

am2

a1n a2n .. .





    =  

amn 

  A= 

··· ··· ...

a1n a2n .. .

am1 am2 · · ·

amn

a11 a21 .. .

a12 a22 .. .

··· ··· .. .

a1n a2n .. .

am1 am2 · · ·

amn

a11 a21 .. .

a12 a22 .. .

    

x1 x2 .. .

    

xn

    

se llama matriz de la aplicaci´on f en las bases dadas. Se escribe, de forma abreviada, una aplicaci´on lineal por f (x) = Ax. Las columnas de esta matriz est´an formadas por las coordenadas de los vectores im´agenes de los de la base del primer espacio expresados en la base del segundo espacio. 174

Dados dos espacios vectoriales y escogidas una base en cada uno de ellos, hemos visto que corresponde a cada aplicaci´on lineal entre los dos, una matriz A ∈ M m×n . Rec´ıprocamente, dados dos espacios vectoriales V1 y V2 de dimensiones respectivas n y m, y escogidas una base en cada uno de ellos, a cada matriz A ∈ M m×n le corresponde una aplicaci´on lineal definida por f (x) = Ax, donde x es la columna de las coordenadas de un vector de V1 en una base de ´este y Ax es la columna de las coordenadas de su imagen en una base correspondiente de V2 . Se comprueba f´acilmente que f es lineal utilizando las propiedades del producto de matrices. Es f´acil ver que esta correspondencia es biyectiva entre el espacio vectorial de las aplicaciones lineales entre V1 y V2 y M m×n (K) una vez fijadas las bases de estos, y que a su vez es una aplicaci´on lineal, que por ello identifica L (V1 , V2 ) con M m×n (K).

La expresi´on abreviada Ax = f (x) nos recuerda la expresi´on abreviada Ax = b de un sistema de ecuaciones lineales. Nos indica que resolver el sistema Ax = b es encontrar un vector x del primer espacio que se aplica en b por la aplicaci´on f de la misma matriz A. Si no existe este vector, el sistema es incompatible, si existe s´olo un vector, es compatible determinado, si existen muchos vectores cumpliendo esa condici´on, el sistema es compatible indeterminado. Ejercicios: 6.2.1. Escribir la matriz de la simetr´ıa de R2 respecto a: a) El eje coordenado OX. b) El eje coordenado OY. c) La diagonal del primer cuadrante. d) La diagonal del segundo cuadrante. 6.2.2. Escribir las matrices de las proyecciones ortogonales de R2 sobre las distintas rectas enunciadas en el ejercicio anterior. 6.2.3. Escribir la matriz de un giro: a) de noventa grados en sentido positivo (contrario al de las agujas del reloj), alrededor del origen en R2 b) de a´ngulo α en sentido positivo alrededor del origen en R2 . 6.2.4. Escribir la matriz de la simetr´ıa de R3 respecto a: a) El plano de ecuaci´on y = x. b) El plano de ecuaci´on y = z. c) El plano de ecuaci´on x = z. d) La recta de ecuaciones y = x, z = 0. e) La recta de ecuaciones y = z, x = 0. 175

f) La recta de ecuaciones x = z, y = 0. 6.2.5. Escribir las matrices de las proyecciones ortogonales de R3 sobre los distintos planos y rectas enunciados en el ejercicio anterior. 6.2.6. Determinar la matriz que corresponde en la base can´onica al endomorfismo de R3 que transforma los vectores {(3, 2, 1)(0, 2, 1)(0, 0, 1)} en los vectores {(1, 0, 0)(1, 1, 0)(1, 1, 1)} respetando el orden. (Se pueden calcular f´acilmente las im´agenes de los vectores de la base can´onica). 6.2.7. Hallar la matriz en las bases can´onicas de la aplicaci´on del espacio de los polinomios de grado ≤ 3 en R4 dada por f(p(x))=(p(-1),p(1),p(-2),p(2)). 6.2.8. Hallar las matrices en las bases can´onicas de las siguientes aplicaciones: a) La aplicaci´on A de R3 en R3 dada por A(x, y, z) = (x − y + 2z, x + y, 2x + 2y + z). b) La aplicaci´on B de C 2 en C 2 dada por B(z1 , z2 ) = (iz1 + 2z2 , z1 − iz2 ). c) La aplicaci´on C de R3 en R3 dada por C(x, y, z) = (x + z, y, x + y + z). d) La aplicaci´on D de C 2 en C 3 dada por D(z1 , z2 ) = (iz1 + z2 , z1 + iz2 , z1 − iz2 ). e) La aplicaci´on E de R2 en R4 dada por E(x, y) = (x, x + y, 2x, x + 2y) 6.2.9. Hallar la matriz en las bases can´onicas de la aplicaci´on traza considerada en el espacio de las matrices cuadradas de orden 2 de n´ umeros reales con valores en R.

176

Como la matriz de una aplicaci´on lineal depende de las bases escogidas, no es un invariante intr´ınseco de la aplicaci´on lineal y por ello tenemos que ver qu´e le ocurre al cambiar las bases. Veamos c´omo est´an relacionadas las matrices que coresponden a una aplicaci´on lineal en las distintas bases. Cambio de base en la expresi´ on matricial de una aplicaci´ on lineal. Sean {e1 , e2 , ..., en } base de V1 , {u1 , u2 , ..., um } base de V2 y f un homomorfismo dado en estas bases por      y1 a11 a12 · · · a1n x1  y2   a21 a22 · · · a2n   x2       f (x) =  ..  =  .. .. ..   ..  ≡ Ax . .  .   . . . .  .  ym am1 am2 · · · amn xn Sean {e01 , e02 , ..., e0n } otra base de V1 , {u01 , u02 , ..., u0m } otra base de V2 y A0 la matriz de f en las nuevas bases. Si (x01 , x02 , ..., x0n ) son las coordenadas de x e (y10 , y20 , ..., yn0 ) son las coordenadas de y = f (x) en las nuevas bases, se tiene la relaci´on:     x01 y10  x0   y0   2   2  f (x) =  ..  = A0  ..   .   .  0 x0n ym Para ver la relaci´on entre A y A’ recordemos que las coordenadas de un vector x de V1 en las dos bases est´an relacionadas por        x1 x01 c11 c12 · · · c1n x01  x2   c21 c22 · · · c2n   x0   x0    2     2  = C  ..  =  ..  ..     .. .. . . ..  .   .  .     . . . . 0 x0n xn xn cn1 cn2 · · · cnn Las coordenadas de un vector    y1  y2       ..  =   .   ym

y de V2 en las dos bases est´an relacionadas por     d11 d12 · · · d1m y10 y10  0   y0  d21 d22 · · · d2m    y2   2  = D  ..  .. .. ..   ..  ..     .  . . . . . 0 0 dm1 dm2 · · · dmm ym ym

Recordemos que las columnas de las matrices C y D son las coordenadas de los vectores de las nuevas bases en las antiguas y que estas matrices son invertibles. 177

Sustituyendo respectivamente estas relaciones en    d11 d12 · · · d1n y10 a11 a12  d21 d22 · · · d2m   y 0   a21 a22   2    ..  . = . .. . .. . .. ..   .   ..   .. . . 0 ym dm1 dm2 · · · dmm am1 am2 

    

De donde   d11 d12 · · · d1n y10 0   y2   d21 d22 · · · d2m .. .. ..  =  .. .. . . . .   . 0 dm1 dm2 · · · dmm ym

−1     

   

la expresi´on de  · · · a1n  · · · a2n     .. ... .  · · · amn

··· ··· .. .

a1n a2n .. .

am1 am2 · · ·

amn

a11 a21 .. .

a12 a22 .. .

la aplicaci´on lineal, tenemos:   c11 c12 · · · c1n x01  0  c21 c22 · · · c2n    x2    .  .. .. . . .. . . . .   ..  cn1 cn2 · · · cnn x0n

    

c11 c12 · · · c1n c21 c22 · · · c2n .. .. . . .. . . . . cn1 cn2 · · · cnn

    

x01 x02 .. . x0n

    

Esta es la expresi´on matricial de la aplicaci´on lineal en las nuevas bases. Por lo que A0 = D−1 AC. las columnas de D−1 son las coordenadas de los vectores de la base primera en la base segunda dentro del segundo espacio. Otra forma de ver la modificaci´on que sufre la matriz de la aplicaci´on lineal al realizar un cambio de base es darse cuenta de que la matriz A de una aplicaci´on lineal sirve para expresar los vectores ¨(f (e1 ), f (e2 ), ..., f (en )) en funci´on de los vectores (u1 , u2 , ...um ) seg´ un la relaci´on: ¨   a11 a12 · · · a1n  a21 a22 · · · a2n    (f (e1 ), f (e2 ), ..., f (en )) = (u1 , u2 , ...um )  .. .. ..  = (u1 , u2 , ...um )A . .  . . . .  am1 am2 · · · amn La matriz A0 expresar´ıa los vectores ¨(f (e01 ), f (e02 ), ..., f (e0n )) en funci´on de los vectores (u01 , u02 , ...u0m ) seg´ un la relaci´on: ¨   a011 a012 · · · a01n 0 0  a0   21 a22 · · · a2n  0 0 0 0 (f (e01 ), f (e02 ), ..., f (e0n )) = (u01 , u02 , ...u0m )  .. .. ..  = (u1 , u2 , ...um )A ...  .  . . a0m1 a0m2 · · · a0mn Como

178

   (e01 , e02 , ..., e0n ) = (e1 , e2 , ..., en )  

c11 c12 · · · c1n c21 c22 · · · c2n .. .. . . .. . . . . cn1 cn2 · · · cnn

    

implica    (f (e01 ), f (e02 ), ..., f (e0n )) = (f (e1 ), f (e2 ), ..., f (en ))  

c11 c12 · · · c1n c21 c22 · · · c2n .. .. . . .. . . . . cn1 cn2 · · · cnn

    

y    (u01 , u02 , ...u0m ) = (u1 , u2 , ...um )  

··· ··· .. .

d1n d2m .. .

dm1 dm2 · · ·

dmm

d11 d21 .. .

d12 d22 .. .

    

sustituyendo en la expresi´on en las nuevas bases tenemos    (f (e1 ), f (e2 ), ..., f (en ))  

c11 c12 · · · c1n c21 c22 · · · c2n .. .. . . .. . . . . cn1 cn2 · · · cnn





     = (u1 , u2 , ...um )   

··· ··· .. .

d1n d2m .. .

dm1 dm2 · · ·

dmm

d11 d21 .. .

d12 d22 .. .

   0 A 

de donde (f (e1 ), f (e2 ), ..., f (en )) = (u1 , u2 , ...um )DA0 C −1 obteni´endose tambi´en A = DA0 C −1 . Si el homomorfismo es un endomorfismo, como coinciden el espacio original y el espacio final de la aplicaci´on, se utiliza normalmente la misma base en estos dos espacios y un cambio de base en la matriz de la aplicaci´on lineal se refiere al mismo cambio de base en V considerado como espacio inicial y como espacio final. Entonces C = D y A0 = C −1 AC. Todas las matrices correspondientes a un endomorfismo en distintas bases se llaman equivalentes.

179

Como aplicaci´on del mecanismo de cambio de base en endomorfismos se puede hallar f´acilmente la matriz de las simetr´ıas ortogonales y de las proyecciones ortogonales que permiten escoger bases en las que su expresi´on es muy f´acil. La expresi´on de estas aplicaciones en la base can´onica se encuentra haciendo el cambio de base necesario en cada caso desde la base que da la expresi´on f´acil de la aplicaci´on a la base can´onica. Aplicaci´on 1. 1) Matriz de la simetr´ıa ortogonal de R3 respecto al plano de ecuaci´on x − y + z = 0: Esta simetr´ıa deja invariantes los vectores del plano y transforma en su opuesto el vector perpendicular al plano. Sean dos vectores independientes del plano e01 = (1, 1, 0), e02 = (1, 0, −1). Estos dos vectores junto al vector perpendicular al plano e03 = (1, −1, 1) forman una base de R3 en la que la matriz de la simetr´ıa es:   1 0 0 0 . A0 =  0 1 0 0 −1 Como la matriz de cambio de base de las base can´onica es    x1  x2  =  x3

coordenadas de la nueva base a las coordenadas de la  0  1 1 1 x1 1 0 −1   x02  x03 0 −1 1

la matriz en la base can´onica de la simetr´ıa considerada es:     −1 1 2 −2 1 1 1 1 0 0 1 1 1 1 2  0 −1   0 1 0  1 0 −1  =  2 1 A= 1 3 −2 2 1 0 −1 1 0 0 −1 0 −1 1 

Aplicaci´on 2. Matriz de la proyecci´on ortogonal de R3 sobre la recta engendrada por el vector (1,1,1): En esta proyecci´on el vector de la recta queda fijo y se aplican en cero los vectores ortogonales a la recta. El vector de la recta e01 = (1, 1, 1) junto con dos vectores independientes ortogonales a ´el: e02 = (1, −1, 0) e03 = (1, 0, −1) forman una base en la que la matriz de la aplicaci´on es:   1 0 0 A0 =  0 0 0  . 0 0 0 180

Como la matriz de cambio de base de las base can´onica es    x1  x2  =  x3

coordenadas de la nueva base a las coordenadas de la  0  1 1 1 x1   1 −1 0 x02  1 0 −1 x03

la matriz en la base can´onica de la proyecci´on considerada es:     −1 1 1 1 1 1 1 1 0 0 1 1 1 1 0   0 0 0   1 −1 0  =  1 1 1  A =  1 −1 3 1 1 1 1 0 −1 0 0 0 1 0 −1 

Ejercicios: 6.3.1. Dada la aplicaci´on de R2 en R4 por la matriz:   1 0  0 1     1 0  0 1 en las bases can´onicas, hallar la matriz de dicha aplicaci´on en las bases {(0, 1), (1, 1)} de R2 y {(1, 1, 0, 0), (0, 1, 1, 0), (0, 0, 1, 1)(0, 0, 0, 1)} de R4 . 6.3.2. Dada la aplicaci´on de R2 en R4 por la matriz:   1 0  0 1     1 0  0 1 en las bases {(0, 1), (1, 1)} de R2 y {(1, 1, 0, 0), (0, 1, 1, 0), (0, 0, 1, 1)(0, 0, 0, 1)} de R4 , hallar la matriz de dicha aplicaci´on en las bases can´onicas. 6.3.3. Hallar, haciendo un cambio de base, la expresi´on matricial en la base can´onica de la aplicaci´on lineal f de R3 en R3 tal que: f (1, 1, 0) = (1, 1, 1), f (1, 0, −1) = (0, 1, 1), f (1, −1, 1) = (1, 2, 2). 6.3.4. Comprobar mediante un cambio de base, la matriz en la base can´onica obtenida para la aplicaci´on lineal del ejercicio 6.2.6. 6.3.5. Hallar la matriz de la aplicaci´on lineal del ejercicio 6.2.6. a) en la base {(3, 2, 1)(0, 2, 1)(0, 0, 1)}. 181

b) en la base {(1, 0, 0)(1, 1, 0)(1, 1, 1)}. c) Comprobar que las matrices obtenidas anteriormente est´an relacionadas con la matriz del endomorfismo en la base can´onica por las matrices de cambio de base correspondientes entre las bases. 6.3.6. Utilizando cambios de base calcul´ense las matrices en las bases can´onicas de a) La simetr´ıa ortogonal de R3 respecto a la recta engendrada por el vector (−1, 1, −1). b) La proyecci´on ortogonal de R3 sobre el plano de ecuaci´on x + y + z = 0. c) Las rotaciones vectoriales de noventa grados de R3 respecto a la recta de ecuaciones: x + y = 0, z = 0.

182

A pesar de que la expresi´on matricial no es una propiedad intr´ınseca de la aplicaci´on (porque depende de las bases escogidas en los espacios), podemos llegar, utiliz´andola, a la determinaci´on de subespacios asociados de manera intr´ınseca a la aplicaci´on lineal. Estos subespacios son el n´ ucleo y la imagen de la aplicaci´on lineal. Sus dimensiones son n´ umeros independientes de la base escogida siendo por tanto, propiedades intr´ınsecas de dicha aplicaci´on. N´ ucleo de una aplicaci´ on lineal: Es el conjunto de vectores del primer espacio que se aplican en el elemento neutro del segundo espacio. El n´ ucleo de una aplicaci´on lineal es un subespacio vectorial ya que Siempre contiene el cero por 1) y Si v1 , v2 ∈ N f y α1 , α2 ∈ K, f (α1 v1 + α2 v2 ) = α1 f (v1 ) + α2 f (v2 ) = 0. i. e. α1 v1 + α2 v2 ∈ N f . El subespacio n´ ucleo de la aplicaci´on lineal es independiente de su expresi´on matricial. Fij´andonos en la expresi´on matricial de la aplicaci´on lineal, vemos que fijada la base (e1 , e2 , ...en ) de V1 , el n´ ucleo de la aplicaci´on lineal f es el conjunto de vectores de coordenadas (x1 , x2 , ...xn ) en esa base tales que      0 a11 a12 · · · a1n x1  a21 a22 · · · a2n   x2   0          ..  =  ..  . .  ··· ··· . ···  .   .  0 am1 am2 · · · amn xn Por tanto, el n´ ucleo es el conjunto de soluciones del sistema homog´eneo cuya matriz de coeficientes es la matriz de la aplicaci´on lineal. Su dimensi´on es por tanto la dimensi´on del primer espacio menos el rango de la matriz de la aplicaci´on lineal. Llegamos, por ello, a que el rango de dicha matriz es siempre el mismo, cualquiera que sean las bases escogidas en los espacios V1 y V2 . Es un n´ umero invariante de la aplicaci´on y se le llama rango de la aplicaci´on. Las ecuaciones cartesianas del n´ ucleo se obtienen eliminando en las ecuaciones AX = 0 del sistema, las ecuaciones cuyas filas dependan de las dem´as. Una base del n´ ucleo se obtiene resolviendo el sistema homog´eneo obtenido. Como ejemplo, hallemos el n´ ucleo de una aplicaci´on lineal f de R5 en R3 dada por la matriz:

183



 3 2 1 1 −1 0 . A= 3 2 2 3 6 4 1 0 −3 El n´ ucleo de f es el conjunto de vectores (x1 , x2 , x3 , x4 , x5 ) que verifican f (x) = 0, equivalente a A(x) = 0, es decir,  3x1 +2x2 +x3 +x4 −x5 = 0  3x1 +2x2 +2x3 +3x4 =0  6x1 +4x2 +x3 −3x5 = 0 Este es el sistema del ejemplo 2 del cap´ıtulo sobre espacios vectoriales y repito aqu´ı su resoluci´on. Una forma sistem´atica de resolver un sistema homog´eneo de ecuaciones lineales, que se puede escribir en forma matricial por Ax=0, es reducir la matriz A a una matriz escalonada E por operaciones elementales y pasar en las ecuaciones de Ex=0, las inc´ognitas de las columnas que no dan escal´on al segundo miembro. Como hicimos en el cap´ıtulo del m´etodo de Gauss:  3x1 +2x2 +x3 +x4 −x5 = 0  x3 +2x4 +x5 = 0  −x3 −2x4 −x5 = 0



3x1 +2x2 +x3 +x4 −x5 = 0 x3 +2x4 +x5 = 0



Pasamos al segundo miembro las inc´ognitas x2 x4 y x5 : 3x1 +x3 = −2x2 −x4 +x5 x3 = −2x4 −x5



Ahora, al recorrer las ecuaciones de arriba a abajo, las inc´ognitas del primer miembro van disminuyendo de una en una, apareciendo s´olo una inc´ognita despejada en el primer miembro en la u ´ltima ecuaci´on. Sustituyendo esta inc´ognita en la ecuaci´on anterior, podemos despejar otra inc´ognita m´as y seguir as´ı despejando hasta agotar las inc´ognitas de los primeros miembros. En este ejemplo, sustituyendo el valor de x3 dado por la segunda ecuaci´on en la primera ecuaci´on tenemos: 3x1 = −2x2 + x4 + 2x5 . Podemos considerar todas las inc´ognitas como funciones lineales de las variables pasadas al segundo miembro, a˜ nadiendo xi = xi para estas u ´ltimas variables. En este ejemplo, a˜ nadiendo x2 = x2 , x4 = x4 , x5 = x5 , obtenemos las condiciones:

184

x1 = − 23 x2 + 13 x4 + 23 x5 x2 = x2 x3 = −2x4 −x5 x4 = x4 x5 = x5 Una soluci´on cualquiera es una 5-upla de valores, donde las inc´ognitas pasadas al segundo miembro pueden variar arbitrariamente y las inc´ognitas del primer miembro est´an sujetas a las condiciones despejadas. Que expresamos por:  1   2     2  x1 −3 3 3  0   0   x2   1           x3  = x2  0  + x4  −2  + x5  −1           1   0   x4   0  0 0 1 x5 Haciendo ahora x2 = λ1 , x4 = λ2 , x5 = λ3 se escribe:  2   1   2    −3 x1 3 3  1   0   0   x2           x3  = λ1  0  + λ2  −2  + λ3  −1           0   1   0   x4  x5 0 0 1 El subespacio de soluciones del sistema es el subespacio de las combinaciones lineales de los tres vectores columna del segundo miembro. N f = L{(− 32 , 1, 0, 0, 0), ( 31 , 0, −2, 1, 0), ( 32 , 0, −1, 0, 1)} y estos tres vectores son una base de N f . En efecto, ninguno de los vectores columna es superfluo a la hora de dar las combinaciones lineales soluciones. En nuestro caso, para comprobar que son independientes, mirar´ıamos si una combinaci´on lineal de los vectores igual a cero es posible con coeficientes λi distintos de cero. Tendr´ıa que ser:  1   2     2  0 −3 3 3  1   0   0   0           0  = λ1  0  + λ2  −2  + λ3  −1           1   0   0   0  0 0 1 0 Considerando la segunda, la cuarta y la quinta filas, tenemos: 0 = λ1 , 0 = λ2 , 0 = λ3 , lo que implica que los vectores columna escritos son independientes. La dimensi´on del espacio de soluciones de este sistema es 3 = 5 − 2 = dim V1 − r(A). 185

Imagen de una aplicaci´ on lineal: Es el conjunto de vectores que se pueden obtener como imagen de alg´ un vector del primer espacio, por la aplicaci´on lineal. Se representa por Im(f ). Al obtener la expresi´on matricial de la aplicaci´on lineal hemos visto que cualquier vector f (x) de la imagen es combinaci´on lineal de los vectores {f (e1 ), f (e2 ), ..., f (en )}, (vu´elvase a leer), es decir, de los vectores columnas de la matriz de la aplicaci´on lineal. Rec´ıprocamente, cualquier combinaci´on lineal de estos vectores con los coeficientes α1 , α2 , ...αn es la imagen del vector (α1 e1 +α2 e2 +...+αn en ) de V1 . Por ello, la imagen de f es el subespacio de V2 engendrado por {f (e1 ), f (e2 ), ..., f (en )}. Como las coordenadas de estos vectores son las columnas de A, podremos extraer de ellos tantos vectores independientes como sea el rango de A, por lo que la dimensi´on de la imagen es el rango de A. Extrayendo una base de este sistema generador podemos hallar las ecuaciones cartesianas y las param´etricas del subespacio imagen de la aplicaci´on lineal. En el ejemplo anterior, (en el que hemos calculado el n´ ucleo de f ), la imagen de f es el sube3 spacio de R engendrado por {(3, 3, 6), (2, 2, 4), (1, 2, 1), (1, 3, 0), (−1, 0, −3)}, de los cuales, s´olo dos son independientes (compru´ebese); la imagen de esa aplicaci´on lineal est´a engendrada p.ej. por {(1, 3, 0), (−1, 0, −3)}, siendo su ecuaci´on: 1 3 0 −1 0 −3 = 0 ≡ −9x1 + 3x2 + 3x3 = 0 ≡ 3x1 − x2 − x3 = 0 x1 x2 x3 Teorema de Rouch´ e-Frobenius Seg´ un hemos visto en un p´arrafo anterior, resolver el sistema Ax = b es hallar x tal que f (x) = b donde f es la aplicaci´on lineal dada por la matriz A. Si b no est´a en Im(f ), este x no existe, siendo el sistema incompatible. Si b est´a en Im(f ) el sistema es compatible, siendo determinado, si s´olo hay ”uno” de tales x, e indeterminado si existen muchos x. Veamos que si N f es cero, s´olo puede existir un x tal que f (x) = b: sean x y x0 tales que f (x) = b = f (x0 ), entonces, f (x − x0 ) = f (x) − f (x0 ) = 0 implica que x − x0 = 0, i.e. x = x0 . Veamos tambi´en que si N f 6= 0, existen muchas soluciones cuando el sistema es compatible: entonces, ∀a ∈ N f , a 6= 0, y si f (x) = b, tambi´en f (x + a) = b, siendo x 6= x + a. En el ejemplo de la aplicaci´on f anterior y de su matriz A, el sistema Ax = b tiene soluci´on si y s´olo si siendo b = (b1 , b2 , b3 ), se verifica 3b1 − b2 − b3 = 0. La soluci´on no es u ´nica porque N f 6= 0. Luego ese sistema es compatible indeterminado si 3b1 − b2 − b3 = 0 e incompatible en caso contrario. 186

Tambi´en deducimos de las consideraciones anteriores que el sistema Ax = b tiene soluci´on (es compatible) si y s´olo si al a˜ nadir el vector b a los vectores que generan la imagen de A, (que son las columnas de A) el n´ umero de vectores independientes es el mismo, lo cual equivale a que el rango de la matriz ampliada A|b es igual al rango de la matriz A. Para que la soluci´on sea u ´nica, (sea compatible determinado), adem´as, la dimensi´on del n´ ucleo de f debe ser cero, es decir, dim V1 − r(A) = 0, o lo que es lo mismo, el rango de A debe ser igual al n´ umero de inc´ognitas. El sistema es compatible indeterminado si el rango de la matriz ampliada A|b es igual al rango de la matriz A y ´este es menor que el n´ umero de inc´ognitas. As´ı hemos vuelto a encontrar el teorema de Rouch´e-Frobenius como consecuencia de la teor´ıa estudiada sobre aplicaciones lineales. Es conveniente, para adquirir agilidad, hacer los siguientes Ejercicios: 6.4.1. Determinar cu´al es el n´ ucleo y cu´al es la imagen: a) de una proyecci´on ortogonal de R2 sobre una de sus rectas. b) de una proyecci´on ortogonal de R3 sobre una de sus rectas. c) de una proyecci´on ortogonal de R3 sobre uno de sus planos. d) de una simetr´ıa ortogonal de R2 respecto a una de sus rectas. e) de una simetr´ıa ortogonal de R3 respecto a una de sus rectas. f) de una simetr´ıa ortogonal de R3 respecto a uno de sus planos. 6.4.2. Hallar las ecuaciones cartesianas y una base de los n´ ucleos y de las im´agenes de las siguientes aplicaciones lineales: a) La aplicaci´on A de R3 en R3 dada por A(x, y, z) = (x − y + 2z, x + y, 2x + 2y + z). b) La aplicaci´on B de C 2 en C 2 dada por B(z1 , z2 ) = (iz1 + 2z2 , z1 − iz2 ). c) La aplicaci´on C de R3 en R3 dada por C(x, y, z) = (x + z, y, x + y + z). d) La aplicaci´on D de C 2 en C 3 dada por D(z1 , z2 ) = (iz1 + z2 , z1 + iz2 , z1 − iz2 ). e) La aplicaci´on E de R2 en R4 dada por E(x, y) = (x, x + y, 2x, x + 2y) 6.4.3. Dada la aplicaci´on lineal f : R5 → R4 en las bases can´onicas por la matriz:   1 −2 −1 0 −1  1 1 1 2 0     2 0 3 5 −3  0 3 2 2 1 1) 2) 3) 4)

Hallar una base del n´ ucleo de f . Seleccionar las ecuaciones del n´ ucleo de f . Hallar una base de la imagen de f . Hallar las ecuaciones cartesianas de la imagen de f .

187

6.4.4. Siendo A la matriz:



−1  0 A=  0 1

1 0 1 0

1 1 0 0

 0 1   0  1

Hallar c para que el sistema Ax = b tenga soluci´on en los dos casos siguientes: 1) b = (1, 0, 1, c)t , 2) b = (1, 0, c, 1)t 2) En los casos anteriores, ¿es el sistema compatible determinado o indeterminado? 6.4.5. Hallar las ecuaciones cartesianas y una base del n´ ucleo y de la imagen de la aplicaci´on 4 4 lineal de R en R (endomorfismo) dada por la matriz:   2 0 −1 −2  −2 4 −1 2   a)   2 2 −2 −2  −2 2 0 2 La uni´on de las dos bases encontradas correspondientes al n´ ucleo y a la imagen es un conjunto 4 de cuatro vectores. ¿Es una base de R ? ¿Podr´ıamos conseguir una base de R4 como uni´on de otras bases distintas del n´ ucleo y de la imagen de estas aplicaciones? Responder a las mismas cuestiones para la aplicaci´on lineal g dada por   2 1 0 −1  −1 1 1 2   b)   1 2 1 1  0 3 2 0 6.4.6. Dada la aplicaci´on lineal de R4 en R4 (endomorfismo) por la matriz:   1 2 3 1  −1 0 −1 1     1 3 4 2  −1 0 −1 1 Hallar la dimensi´on del subespacio vectorial f (L) ⊂ R4 en los dos casos siguientes: a) L ≡ x3 = 0. b) L ≡ x1 + x3 − x4 = 0. ¿Hay alg´ un hiperplano de R4 , cuya imagen es otro hiperplano? (Un hiperplano de Rn es un subespacio vectorial de dimensi´on n − 1). 6.4.7. Dada la aplicaci´on lineal de R4 en R4 (endomorfismo) por la matriz:

188



1  0   0 1

1 1 0 0

0 1 1 0

 0 0   1  1

a) Hallar las ecuaciones cartesianas del subespacio vectorial f (L) ⊂ R4 si L ≡ x3 − x4 = 0. b) Hallar las ecuaciones cartesianas de un subespacio vectorial L 6= R4 , tal que su imagen sea un hiperplano de R4 . (Un hiperplano de Rn es un subespacio vectorial de dimensi´on n − 1). c) ¿Hay alg´ un hiperplano de R4 , cuya imagen sea una recta? 6.4.8. Cualquier matriz puede expresarse como suma de una matriz sim´etrica y de una matriz antisim´etrica. Considerar en M3×3 (R) las aplicaciones lineales: a) La que hace corresponder a cada matriz su matriz sim´etrica sumando. b) La que hace corresponder a cada matriz su matriz antisim´etrica sumando. Hallar el n´ ucleo y la imagen de cada aplicaci´on.

189

F´ ormula de las dimensiones para una aplicaci´ on lineal. Repitiendo, la dimensi´on de la imagen de una aplicaci´on lineal es, por tanto, el n´ umero de vectores independientes de los {f (e1 ), f (e2 ), ..., f (en )}, es decir, de columnas independientes de la matriz de la aplicaci´on, o sea, el rango de la matriz de la aplicaci´on lineal. Como hemos visto que la dimensi´on del n´ ucleo es la dimensi´on del espacio original menos el rango de esta misma matriz, tenemos la relaci´on: dim(N f ) + dim(Im f ) = dim(espacio origen) − r(A) + r(A) = dim(espacio origen). Si las dimensiones del espacio original y el espacio final coinciden, la dimensi´on del n´ ucleo es cero si y s´olo si la dimensi´on del espacio imagen coincide con la dimensi´on del espacio total. Es un ejercicio conveniente comprobar la f´omula de las dimensiones en cada uno de los ejercicios anteriores en los que se han hallado ambos espacios. Hasta ahora, dada una aplicaci´on lineal, hemos hallado su n´ ucleo y su imagen. Podemos plantearnos el problema inverso: dados dos espacios vectoriales V1 y V2 , si W1 ⊂ V1 y W2 ⊂ V2 son dos subespacios vectoriales, ¿se pueden construir aplicaciones lineales de V1 en V2 tales que su n´ ucleo sea W1 y su imagen sea W2 ? Para que se puedan construir, en virtud de la f´ormula de las dimensiones, es necesario que dimW1 + dimW2 = dimV1 . Vamos a ver que esta condici´on es suficiente. En efecto, podemos coger una base de W1 y extenderla a una base de V1 , para lo cual necesitamos tantos vectores como hay en una base de W2 . Como una aplicaci´on lineal queda determinada por las im´agenes de los elementos de una base, definimos la aplicaci´on lineal aplicando los elementos de la base de W1 en cero y aplicando los a˜ nadidos para obtener una base de V1 , en una base de W2 con cualquier biyecci´on posible. Ejercicios 6.5.1. Comprobar la f´ormula de las dimensiones en todas las aplicaciones lineales de los ejercicios anteriores en las que se han calculado n´ ucleo e imagen. 6.5.2. Comprobar que es posible hallar una aplicaci´on definida en R3 con imagen en R3 , tal que: a) Su n´ ucleo es el plano de ecuaci´on x + y + z = 0 y su imagen es la recta x = y = 2z. b) Su imagen es el plano de ecuaci´on x + y + z = 0 y su n´ ucleo es la recta x = y = 2z. c) Hallar las matrices correspondientes en la base can´onica. 6.5.3. Comprobar que es posible hallar una aplicaci´on definida en R4 con imagen en R4 , tal que tanto su n´ ucleo como su imagen sean el subespacio de ecuaciones: 190

x1 + x2 + x3 +x4 = 0 x2 + x 3 =0



Hallar la matriz de dicha aplicaci´on en la base can´onica de R4 .

191

Isomorfismos. Los homomorfismos cuyo n´ ucleo es cero y cuya imagen es el espacio total se llaman isomorfismos. Los isomorfismos son aplicaciones lineales que hacen coresponder a cada elemento de un espacio otro elemento del otro espacio y s´olo uno, por ello, identifican distintos espacios vectoriales y permiten el trasvase de propiedades de un espacio a otro. ucleo es cero y cuya imagen es el total. Un isomorfismo es un homomorfismo cuyo n´ El car´acter de isomorfismo de una aplicaci´on lineal queda reflejado en la matriz de la aplicaci´on lineal: Veremos que para que la aplicaci´on lineal sea isomorfismo es necesario y suficiente que la matriz sea cuadrada y que su determinante sea distinto de cero. Si f es isomorfismo, por por ser N (f ) = 0 y por la f´ormula de las dimensiones dimIm(f ) = dimN (f ) + dimIm(f ) = dim(V1 ); como tambi´en Im(f ) = V2 , dimIm(f ) = dim(V2 ), por lo que dimV1 = dimV2 . Ya que la matriz de una aplicaci´on lineal f : V1 −→ V2 es m × n donde m es la dimensi´on de V2 y n es la dimensi´on de V1 , la matriz de un isomorfismo es cuadrada. Por otra parte, el n´ ucleo de f ser´a cero si y s´olo si 0 = dimN f = dimV1 − r(A), es decir, si y s´olo si r(A) = dimV1 , (que es su n´ umero de columnas) o sea si y s´olo si el determinante de A es distinto de cero. Rec´ıprocamente, si A es cuadrada, dimV1 = dimV2 y si |A| = 6 0, dimN (f ) = dimV1 −r(A) = 0, por lo que N (f ) = 0 y utilizando otra vez la f´ormula de las dimensiones, dimIm(f ) = dimV1 = dimV2 , por lo que Im(f ) = V2 . Teorema 1: Si f : V1 −→ V2 es isomorfismo, existe la aplicaci´on inversa de f , que es lineal, y si A es la matriz de f en dos bases prefijadas de V1 y de V2 , A−1 es la matriz de la aplicaci´on lineal inversa de f en las mismas bases. Demostraci´on: La aplicaci´on inversa g de f existe si sabemos hacer corresponder a cada y ∈ V2 un x tal que f (x) = y, entonces ser´ıa x = g(y). Si f es isomorfismo, por ser Im(f ) = V2 , cualquiera que sea el y ∈ V2 , existe x tal que f (x) = y; este x es un candidato a ser g(y), pero podr´ıamos tener problemas si existieran varios de estos x y no supi´eramos cu´al escoger. Veremos que s´olo existe uno cuando f es un isomorfismo. En efecto, si f (x) = f (x0 ), para alg´ un otro x0 , 0 = f (x) − f (x0 ) = f (x − x0 ) implica que x − x0 ∈ N f = {0}, es 0 decir que x = x . Luego podemos construir la aplicaci´on inversa de f , haciendo corresponder a cada y ∈ V2 el u ´nico x ∈ V1 , tal que f (x) = y. Esta aplicaci´on es lineal, porque si f (g(y1 )) = y1 y f (g(y2 )) = y2 , se tiene f (g(y1 ) + g(y2 )) = f (g(y1 )) + f (g(y2 )) = y1 + y2 , de donde g(y1 + y2 ) = g(y1 ) + g(y2 ) por una parte y si f (g(y)) = y, f (αg(y)) = αf (g(y)) = αy, de donde αg(y) = g(αy). El hecho de que la matriz de g es la inversa de la matriz de f se sigue de que al ser g ◦ f = Id y f ◦ g = I, si la matriz de f es A y la matriz de g es B, AB=I y BA=I.

192

Tambi´en tenemos el siguiente Teorema 2: Dos espacios vectoriales son isomorfos si y s´olo si tienen la misma dimensi´on. Demostraci´on: Si f : V1 −→ V2 es un isomorfismo, dimV1 = dim(Im(f )) por la f´ormula de las dimensiones y por ser N (f ) = 0, y por la definici´on de isomorfismo, dim(Im(f )) = dimV2 , por lo que dimV1 = dim(Im(f )) = dimV2 El rec´ıproco tambi´en es cierto: si dos espacios tienen la misma dimensi´on, son isomorfos. En efecto, sea dim(V1 ) = dim(V2 ) = n y sean {e1 , e2 , ..., en } una base de V1 y {u1 , u2 , ..., un } una base de V2 , definimos: f (x) = f (x1 e1 + x2 e2 + ... + xn en ) = x1 u1 + x2 u2 + ... + xn un Se puede comprobar f´acilmente que la aplicaci´on f es lineal: a) f (x + y) = f ((x1 e1 + x2 e2 + ... + xn en ) + (y1 e1 + y2 e2 + ... + yn en )) = = f ((x1 + y1 )e1 + (x2 + y2 )e2 + ... + (xn + yn )en ) = (x1 + y1 )u1 + (x2 + y2 )u2 + ... + (xn + yn )un = (x1 u1 + x2 u2 + ... + xn un ) + (y1 u1 + y2 u2 + ... + yn un ) = f (x) + f (y) b) f (αx) = f (α(x1 e1 + x2 e2 + ... + xn en )) = f (αx1 e1 + αx2 e2 + ... + αxn en )) = = (αx1 )u1 + (αx2 )u2 + ... + (αxn )un = α(x1 u1 + x2 u2 + ... + xn un ) = αf (x). Como Imf = L {u1 , u2 , ..., un } = V2 y seg´ un la f´ormula de las dimensiones, N f = 0, f es isomorfismo. Quedando as´ı demostrado el teorema. El teorema nos da una forma f´acil para calcular la dimensi´on del espacio vectorial de las aplicaciones lineales entre dos espacios vectoriales. Corolario: Si V1 y V2 son dos espacios vectoriales sobre el mismo cuerpo K, de dimensiones respectivas n y m, dim L (V1 , V2 ) = m × n. Ya que hemos visto anteriormente que fijadas las bases de V1 y de V2 , hay una aplicaci´on lineal biyectiva entre L (V1 , V2 ) y M m×n (K). y se puede comprobar f´acilmente que esta aplicaci´on es isomorfismo. 193

Ejercicios: 6.6.1. Compru´ebese que: a) La composici´on de dos aplicaciones lineales es una aplicaci´on lineal y b) La matriz de la composici´on de ellas es el producto de sus matrices. 6.6.2. Sea f un isomorfismo en R3 y g otro homomorfismo tal que la dimensi´on de la imagen de g ◦ f es 2. a) ¿Cu´al es el rango de la matriz de g. b) ¿C´ ual es la dimensi´on de la imagen de f ◦ g? 6.6.3. Demostrar que una aplicaci´on lineal con n´ ucleo cero tiene inversa a la izquierda tambi´en lineal. ¿Es u ´nica? 6.6.4. Demostrar que una aplicaci´on lineal cuya imagen coincide con el espacio final, tiene inversa a la derecha tambi´en lineal. ¿Es u ´nica? 6.6.5. Estudiar si son isomorfismos las aplicaciones del ejercicio 6.4.1. ¿C´ uales son los isomorfismos inversos en los casos que existen? 6.6.6. Considerar las aplicaciones lineales de los ejercicios 6.2.6. y 6.3.3. y estudiar si son isomorfismos. En los casos que lo sean hallar la matriz del isomorfismo inverso.

194

Espacio Dual. Un tipo especial de aplicaciones lineales, que merecen un nombre especial, son las aplicaciones lineales de un espacio vectorial real V n en R. Se llaman formas lineales, forman el espacio L(V n , R) que seg´ un lo visto anteriormente, son un espacio vectorial de dimensi´on n. Este espacio vectorial se llama espacio dual de V n . Un ejemplo de forma lineal en R3 es la aplicaci´on que resulta de multiplicar escalarmente un vector fijo a = (a1 , a2 , a3 ) por los distintos vectores de R3 :     x1 x1 f  x2  = (a1 , a2 , a3 )  x2  = a1 x1 + a2 x2 + a3 x3 . x3 x3 Una vez escogida una base de V n , una forma lineal, como aplicaci´on lineal de un espacio de dimensi´on n en un espacio de dimensi´on 1, viene determinada por una matriz 1 × n, (la base de R se da por supuesta como 1). Por eso, tanto un elemento de Rn como un elemento de su dual vienen determinados por n n´ umeros reales. Si f es una forma lineal de Rn ,     x1 x1  x2   x2      f (x) ≡ f  ..  = (a1 , a2 , · · · , an )  ..  = a1 x1 + a2 x2 + · · · + an xn  .   .  xn xn expresi´on que nos recuerda la del producto escalar. Proposici´ on: Si una forma lineal no es nula, es suprayectiva. Demostraci´on: Si la forma lineal no es nula, existe un vector x que no se aplica en el cero. r Entonces, para cada valor r ∈ R, podemos encontrar el vector f (x) x que se aplica en r. Son de especial significado geom´etrico los conjuntos de nivel de estas aplicaciones. Se llama conjunto de nivel de una aplicaci´on con valores reales al conjunto de puntos que se aplican en uno dado de R. Por ser las formas lineales no nulas, suprayectivas, los conjuntos de nivel de cada r ∈ R son no vac´ıos. Consideremos una forma lineal sobre R2 no nula, Ya que la forma lineal viene dada en general por:     x x f = (a1 , a2 ) = a1 x + a2 y, y y 195

el conjunto de nivel r ∈ R de f es: {(x, y)|a1 x + a2 y = r}. Este conjunto es una recta del plano dada por su ecuaci´on impl´ıcita. Para cada forma lineal no nula de R3 los conjuntos de nivel son planos geom´etricos dados por su ecuaci´on imp´ıcita. En efecto, ya que la forma lineal viene dada en general por     x x f  y  = (a1 , a2 , a3 )  y  = a1 x + a2 y + a3 z, z z el conjunto de nivel r ∈ R de f es: {(x, y, z)|a1 x + a2 y + a3 z = r}. Dada una forma lineal en Rn , el conjunto de nivel cero es el n´ ucleo de la forma lineal, que es un n subespacio de R , cuya dimensi´on es n − 1, por la f´ormula de las dimensiones y por ser la forma lineal suprayectiva. Si x0 es un vector tal que f (x0 ) = r, el conjunto de nivel r ∈ R se obtiene sumando al vector x0 todos los vectores de N (f ). Ya que si x ∈ N (f ), f (x0 +x) = f (x0 )+f (x) = f (x0 ). Y rec´ıprocamente, si y0 est´a en el conjunto de nivel r, se puede escribir y0 = x0 + (y0 − x0 ), donde y0 − x0 ∈ N (f ). Es decir, el conjunto de nivel r: f −1 (r) = {x0 + x|x0 ∈ f −1 (r) y x ∈ N (f )} se obtiene trasladando por un vector x0 ∈ f −1 (r) el n´ ucleo de la forma lineal. Dada una base B = {e1 , e2 , ...en } ⊂ V n , se definen los elementos {e∗i } (duales de los ei ) por  1 si i = j ∗ ei (ej ) = 0 si i 6= j Se puede comprobar f´acilmente que si f ∈ V ∗ , est´a definida en B por     x1 x1     f (x) = f  ...  = (a1 · · · an )  ...  se tiene f = a1 e∗1 · · · + an e∗n xn xn (Ya que coinciden en todos los elementos de la base). Por ello, los elememtos {e∗i }i∈{1...n} son un sistema de generadores de V ∗ . Tambi´en se puede ver f´acilmente que son independientes. Por ello, forman una base de V ∗ , llamada base dual de B. Las coordenadas de f en la base dual de B son (a1 , ..., an ), donde ai = f (ei ). Un problema que se plantea es c´omo var´ıan las coordenadas de f al cambiar de base en V . ¿Cu´al es la relaci´on entre la matriz de cambio de base en V y la matriz de cambio de base en V ∗ ? 196

Sean B y B 0 , dos bases de V , tales que la relaci´on entre las coordenadas de un vector x en esas bases viene dada por:     x1 x01  ..   .   .  = C  ..  x0n

xn

Sean (a1 , ..., an ) y (a01 , ..., a0n ), las coordenadas de una aplicaci´on f anteriores. Entonces, dado que    x1    (a1 , ..., an )  ...  = f (x) = (a01 , ..., a0n )  xn    x01 x01    (a1 , ..., an )C  ...  = (a01 , ..., a0n )  ... x0n x0n

en las bases duales de las dos

 x01 ..  .  x0n   ,

de donde   a01    (a1 ...an )C = (a01 ...a0n ) ≡  ...  = C t  a0n 

 a1 ..  .  an



  a1    ≡  ...  = (C t )−1  an

 a01 ..  .  a0n

que es la relaci´on buscada.

Representando los duales de dos espacios vectoriales por V1∗ = L(V1 , K), V2∗ = L(V2 , K), a cada aplicaci´on f : V1 → V2 , le corresponde la aplicaci´on f ∗ : V2∗ → V1∗ que hace corresponder a ω ∈ V2∗ la aplicaci´on ω ◦ f . Esta aplicaci´on es lineal, se llama aplicaci´on dual de f y se representa por f ∗ . El problema que se plantea ahora es encontrar la matriz de f ∗ en las bases duales de dos bases de V1 y V2 , conocida la matriz de f en dichas bases. Recordemos que si B1 = {e1 , ...en } ⊂ V1 y B10 = {e01 , ...e0m } ⊂ V2 , las columnas de la matriz que expresa f son las coordenadas de los vectores f (ei ) en la base B10 . An´alogamente, las columnas de 0 la matriz de f ∗ son las coordenadas de las aplicaciones f ∗ (ek∗ ) en {e∗1 , ..., e∗n }. Hall´emoslas: Sea A la matriz de f , X 0 0 0 0 f ∗ (ek∗ )(ei ) = (ek∗ ◦ f )(ei ) = ek∗ (f (ei )) = ek∗ ( ali e0l ) = aki 197

Al variar i vamos obteniendo los elementos de la fila k de la matriz de f . Luego las columnas de la matriz de f ∗ son las filas de la matriz de f . Sus matrices, en las bases duales, son traspuestas la una de la otra. Ejercicios: 6.6.1. Sea f un elemento del dual de R3 tal que f (1, 1, 0) = 1, f (0, 1, 1) = 1, f (1, 0, 1) = 3. Hallar las coordenadas de f en la base dual de la can´onica. 6.6.2. Sea f : R3 → R3 una aplicaci´on determinada por f (1, 1, 0) = (−1, 0, 1), f (0, 1, 1) = (0, −1, 1), f (1, 0, 1) = (1, −1, 0). Hallar la matriz de la aplicaci´on dual de f en la base dual de la base can´onica de R3 . 6.6.3. Expresar en la base dual de la can´onica de R3 los elementos de la base dual de la base B, siendo B: a) B = {(1, 1, 0), (0, 1, 1), (1, 0, 1)} b) B = {(1, 1, 0), (0, 1, 1), (1, 0, 2)} Observar que aunque el primer vector coincide en estas dos bases, su dual no coincide en los dos casos. Ejemplos resueltos y problemas propuestos en el cap´ıtulo 4 de [A], en el cap´ıtulo 6 de [H] y en el cap´ıtulo 3 de [V]

198

BIBLIOGRAFIA. [A] Algebra Lineal y aplicaciones. J. Arves´ u Carballo, R. Alvarez Nodarse, F. Marcell´an Espa˜ nol. Ed. S´ıntesis Madrid. 1999. [G] Matem´aticas 2 Bachillerato. Carlos Gonzalez Garc´ıa. Jes´ us Llorente Medrano. Maria Jos´e Ruiz Jim´ nez. Ed. Editex. 2009. [H] Algebra y Geometr´ıa. Eugenio Hern´andez. Addison- Wesley / UAM, 1994. [S] Algebra lineal y sus aplicaciones. G. Strang Ed. Addison-Wesley Iberoamericana. 1990. [S2] Introduction to Linear Algebra. G.Strang Ed. Wellesley-Cambridge Press 1993. [V] Problemas de Algebra. A. de la Villa. Ed. Clagsa, 1994.

199

200

ESPACIO EUCL´IDEO. Proyecciones y M´etodo de M´ınimos Cuadrados. Introducci´ on. Un espacio eucl´ıdeo es un espacio vectorial real en el que se define un producto entre vectores que a cada par de vectores asocia un n´ umero real. El producto se llama producto escalar. 2 El producto escalar usual en R y en R3 est´a dado por las f´ormulas: u · v = (u1 , u2 ) · (v1 , v2 ) = u1 · v1 + u2 · v2 u · v = (u1 , u2 , u3 ) · (v1 , v2 , v3 ) = u1 · v1 + u2 · v2 + u3 · v3 Observemos que debido al teorema de Pit´agoras, en R2 y en R3 , el cuadrado de la longitud de un vector es igual al producto escalar del vector por s´ı mismo. Representando la longitud del vector u por kuk: kuk2 = u · u. La longitud de un vector tambi´en se llama m´odulo del vector. Un vector se llama unitario si es de longitud 1. Normalizar un vector cualquiera es obtener otro dependiente de ´el y unitario. Se normaliza un vector dividi´endolo por su longitud o m´odulo.

De lo anterior se deduce que la distancia entre dos puntos viene dada por la raiz cuadrada del producto escalar por s´ı mismo del vector cuyas componentes son las diferencias de coordenadas de los puntos. En espacios con n variables, es u ´til tener un concepto similar al de distancia. Se generaliza el concepto de longitud de un vector y de distancia entre dos puntos a Rn utilizando el producto escalar generalizado. Definici´on 1: Producto escalar generalizado: dados dos vectores u y v de Rn , u · v = 

 v1  ..   .    = (u1 , · · · , ui , · · · , un )·(v1 , · · · , vi , · · · , vn ) = u1 ·v1 +· · ·+ui ·vi +· · ·+un ·vn = (u1 , · · · , ui · · · , un )  vi   .   ..  vn

Cuando u y v representan vectores fila, se ha escrito u · v = u · v t . Cuando u y v representan vectores columna, se escribe u · v = ut · v.

Tenemos tambi´en la idea de que la distancia m´as corta desde un punto a una recta viene dada por la perpendicular trazada a la recta por el punto. De aqu´ı que tambi´en sea importante el concepto 201

de perpendicularidad u ortogonalidad. Que se generaliza a Rn para hallar distancias de puntos a subespacios de mayor dimensi´on. Ortogonalidad. En R3 la recta perpendicular a otra engendrada por un vector v es la mediatriz del segmento formado al yuxtaponer los vectores v y −v. Si u es perpendicular a v, u est´a en esa mediatriz y ya que entonces los a´ngulos formados por la mediatriz y v y por la mediatriz y −v son iguales, las longitudes de los vectores u + v y u − v son iguales. A AP i AK PPP PP  A PP u-v A  PP PP A  PP  A   PP PP A  *  A   A u   A  u+v   A   v A   A              -v         

Por tanto, (u + v) · (u + v) = (u − v) · (u − v). Sustituyendo las coordenadas de los vectores en los dos productos escalares, desarrollando y simplificando, tenemos: 2u1 v1 + 2u2 v2 + 2u3 v3 = −2u1 v1 − 2u2 v2 − 2u3 v3 de donde si los vectores u y v son perpendiculares u ortogonales, u1 v1 + u2 v2 + u3 v3 = 0, es decir, su producto escalar es cero. Rec´ıprocamente, puede comprobarse que si su producto escalar es cero, los vectores son perpendiculares. El concepto de ortogonalidad se generaliza a Rn : Definici´on 2: Dos vectores de Rn son ortogonales si su producto escalar es nulo. Si u es ortogonal a v, escribimos u ⊥ v. Entonces la definici´on anterior se expresa por: u ⊥ v ≡ u · v = 0. 202

Para hacer c´alculos sin sustituir todas las coordenadas y para una posible generalizaci´on posterior observemos que el producto escalar tiene las propiedades 1), 2), 3) y 2’) siguientes: es sim´etrico, lineal en cada una de las variables vectores que multiplicamos, y tiene la propiedad de ser definido positivo expresada en 3): 1)∀u, v ∈ Rn , u · v = v · u 2)  ∀u, u0 , v ∈ Rn , (u + u0 ) · v = u · v + u0 · v. ∀u ∈ Rn , ∀c ∈ R, cu · v = c(u · v). 3)∀u ∈ Rn , u · u ≥ 0 y u · u = 0 ≡ u = 0. 2’) Aunque en 2) s´olo hemos explicitado la linealidad del producto escalar en la primera variable, de la simetr´ıa del producto escalar y de 2) se sigue la linealidad en la segunda variable, an´aloga a 2), para v. La linealidad del producto escalar en las dos variables se expresa diciendo que el producto escalar es una forma bilineal. Por la propiedad definida positiva del producto escalar, ning´ un vector distinto de cero es ortogonal a ´el mismo. Veamos ahora c´omo, sin sustituir coordenadas, utilizando las propiedades 1) y 2) del producto escalar podemos comprobar de nuevo, que la recta de direcci´on u es perpendicular a la recta de direcci´on v si y s´olo si el producto escalar u · v es nulo: el extremo del vector u es equidistante de los extremos de v y de −v, por lo que ku − vk2 = ku − (−v)k2 = ku + vk2 . Al desarrollar los dos extremos de esta igualdad utilizando la bilinealidad y la simetr´ıa, tenemos: u · u − 2u · v + v · v = ku − vk2 = ku + vk2 = u · u + 2u · v + v · v, o equivalentemente, 4u · v = 0 ≡ u · v = 0. Tambi´en, utilizando la linealidad y la simetr´ıa del producto escalar, tenemos en Rn el teorema de Pit´ agoras generalizado: Los vectores u y v son ortogonales si y s´olo si ku + vk2 = kuk2 + kvk2 . En efecto: ku+vk2 = (u+v)·(u+v) = u·u+u·v+v·u+v·v = kuk2 +kvk2 +2u·v = kuk2 +kvk2 si y s´ olo si u·v = 0 .

203

Ejercicios: 7.1.1. Demostrar: ku1 + u2 + · · · + un k2 = ku1 k2 + ku2 k2 + · · · + kun k2 si los vectores {ui } ⊂ Rn son ortogonales dos a dos. 7.1.2. Sean u y v vectores de Rn . Demostrar: a) ku + vk2 + ku − vk2 = 2(kuk2 + kvk2 ). (ley del paralelogramo). b) ku + vk2 − ku − vk2 = 4u · v. (identidad de polarizaci´on). c) ku + vk2 − kuk2 − kvk2 = 2u · v. 7.1.3. Demostrar que dados dos vectores u y v cualesquiera, los vectores u + v y u − v son ortogonales si y s´olo si kuk = kvk. 7.1.4. Demostrar: a) Las diagonales de un rombo son perpendiculares. b) Un paralelogramo es un rombo si sus diagonales son perpendiculares. 7.1.5. Demostrar que las bisectrices de dos rectas secantes de R3 son perpendiculares utilizando el problema 7.1.3.

204

La ortogonalidad es tambi´en u ´til cuando se combina con el concepto de base. Vamos a verlo. Bases Ortogonales. Un conjunto ortogonal de vectores es un conjunto de vectores no nulos en el que cada dos vectores distintos son ortogonales. Ejemplos de vectores ortogonales dos a dos son los de las bases can´onicas de R2 o´ de R3 . Se comprueba f´acilmente que sus productos escalares cruzados son nulos. Proposici´ on 1: Todo conjunto ortogonal de vectores distintos de cero es un conjunto independiente de vectores: Demostraci´on: Consideremos un conjunto {x1 , x2 , ..., xk } de k vectores ortogonales dos a dos: sea λ1 x1 + λ2 x2 + ... + λk xk = 0 Multiplicando escalarmente esta combinaci´on lineal por el vector xi tenemos: (λ1 x1 + λ2 x2 + ... + λk xk ) · xi = 0 es decir, (λ1 x1 ) · xi + (λ2 x2 ) · xi + ...(λk xk ) · xi = 0 por tanto, 0 = (λi xi ) · xi = λi (xi · xi ) como xi ·xi > 0, ha de ser λi = 0 ∀ i, que era lo requerido para que los vectores fueran independientes. Corolario: Un conjunto ortogonal de n vectores distintos de cero de Rn forman una base. Las bases formadas por conjuntos ortogonales se llaman bases ortogonales y son interesantes porque las coordenadas de un vector en una base ortogonal pueden calcularse de una manera directa utilizando el producto escalar: Teorema 1: Si {v1 , v2 , ..., vn } son una base ortogonal de Rn , y x es un vector de Rn , las coordenadas de x en esta base son: (

x · v1 x · vi x · vn , ..., , ..., ). v1 · v1 vi · vi vn · vn 205

Demostraci´on: Sea x = x1 v1 + · · · + xi vi + · · · + xn vn , haciendo el producto escalar de x por v1 , tenemos: x · v1 = (x1 v1 + · · · + xi vi + · · · + xn vn ) · v1 = (x1 v1 ) · v1 + · · · + (xi vi ) · v1 + · · · + (xn vn ) · v1 = = x1 (v1 · v1 ) + 0 + · · · + 0 = x1 (v1 · v1 ) de donde despejando x1 , tenemos la expresi´on de x1 en el teorema. Haciendo lo an´alogo para las coordenadas restantes tenemos sus expresiones en el teorema. Si los vectores de una base ortogonal est´an normalizados la base se llama ortonormal. En este caso, si la base es {u1 , u2 , ..., un }, xi = x · ui . Y el vector x se expresa: x = (x · u1 )u1 + (x · u2 )u2 + · · · + (x · ui )ui + · · · + (x · un )un Ejercicios: 7.2.1. Comprobar que son bases ortonormales de R3 con el producto escalar usual, las siguientes: B1 = {(1/3(2, −2, 1), 1/3(2, 1, −2), 1/3(1, 2, 2)} B2 = {(1/7(2, 3, 6), 1/7(6, 2, −3), 1/7(3, −6, 2)} 7.2.2. Hallar las coordenadas del vector (1, 1, 1) en las bases anteriores.

206

Ortogonalidad entre subespacios. Tambi´en se define la ortogonalidad entre subespacios: Si U y V son dos subespacios de Rn , U es ortogonal a V si y s´ olo si ∀u ∈ U y ∀v ∈ V, u · v = 0. U es ortogonal a V se escribe U ⊥ V . Proposici´ on 2: U ⊥ V ⇒ U ∩ V = 0. En efecto, si w ∈ U ∩ V , por ser w ∈ U y w ∈ V , es w · w = 0, lo que implica w = 0, por ser el producto escalar definido positivo. Por ello, si U y V son ortogonales, U + V = U ⊕ V . Ejercicio: 7.3.1. Comprobar que el subespacio U es ortogonal a V si y s´olo si todos los vectores de U son ortogonales a los vectores de una base de V. Complemento Ortogonal. Dado un subespacio U , hay un subespacio ortogonal a U que contiene a todos los subespacios ortogonales a U , es el llamado complemento ortogonal del subespacio dado. Lo denotaremos por U ⊥ . Es el conjunto de todos los vectores que son ortogonales a todos los de U . Es f´acil de comprobar (y es un ejercicio conveniente) que este conjunto es un subespacio vectorial en virtud de la linealidad del producto escalar en cada uno de sus factores. Tambi´en hemos visto antes que dos subespacios ortogonales s´olo se intersecan en el cero. Por ello, U ∩ U ⊥ = 0. Para justificarle el nombre de complemento tenemos que demostrar que su dimensi´on es igual a la dimensi´on del espacio total menos la dimensi´on de U , con lo cual U y U ⊥ ser´an complementarios, es decir, Rn = U ⊕ U ⊥ . Observemos que un vector v est´a en U ⊥ si y s´olo si es ortogonal a todos los vectores de una base escogida de U (compru´ebese tambi´en). Sea la base de U {u1 = (a11 , a12 , ...a1n ), u2 = (a21 , a22 , ...a2n ), · · · , up = (ap1 , ap2 , ...apn )}, la ortogonalidad de un vector x = (x1 , x2 , · · · , xn ) con los {ui }i∈{1...p} es equivalente a las igualdades: (x · ui = 0)  a11 x1 + a12 x2 + · · · + a1n xn = 0    a21 x1 + a22 x2 + · · · + a2n xn = 0 ···    ap1 x1 + ap2 x2 + · · · + apn xn = 0 Estas igualdades son un sistema de p ecuaciones con n inc´ognitas, cuya matriz de coeficientes es la matriz que tiene por filas las coordenadas de cada uno de los vectores de la base de U . Por ser

207

estos vectores independientes, el rango de esta matriz es p y por tanto la dimensi´on del subespacio de soluciones del sistema (que es el complemento ortogonal), es n − p = n − dim(U ). Resumiendo, tenemos: U ⊥ es un subespacio vectorial de dimensi´on n−dim(U ) y U ∩U ⊥ = 0, de donde U +U ⊥ = U ⊕U ⊥ y como dim(U ⊕ U ⊥ ) = dim(U ) + dim(U ⊥ ) = dim(U ) + n − dim(U ) = n, U ⊕ U ⊥ = Rn . Al mismo tiempo observemos que U ⊥ puede tener distintos sistemas de ecuaciones correspondientes a distintas bases del subespacio U dado. Pero el complementario de un subespacio vectorial es u ´nico por la forma de definirlo; lo que ocurre es que los distintos sistemas de ecuaciones correspondientes a distintas bases son equivalentes porque los vectores de una base de U son combinaciones lineales de los vectores de otra base de U . (Las transformaciones que llevan los vectores de una base a los vectores de la otra base se pueden traducir en transformaciones elementales que llevan un sistema al otro). Ejercicios: 7.4.1. Hallar una base de W ⊥ siendo W los siguientes subespacios: a) W=L{u, v} ⊂ R3 donde u = (1, 0, 1) y v = (2, −1, 1). b) W=L{u, v} ⊂ R4 donde u = (1, 0, 1, 0) y v = (2, −1, 1, 0). c)   4 x1 + x2 + x3 + x4 = 0 W = x∈R 2x1 − x2 =0 Ejemplos de subespacios complementarios ortogonales: Dada una matriz A, podemos considerar el subespacio de Rn engendrado por los vectores filas de A, lo llamamos el espacio fila de A y podemos considerar el espacio de las soluciones del sistema AX = 0, que llamamos espacio nulo de A. Estos dos subespacios son ortogonales y complementarios. Por ello, dado un plano de R3 por la ecuaci´on Ax + By + Cz = 0, su complemento ortogonal es la recta engendrada por el vector (A, B, C). Cuando una recta de R3 viene dada como intersecci´on de dos planos de ecuaciones Ax+By+Cz=0, A’x+B’y+C’z=0, el subespacio ortogonal a la recta est´a engendrado por los vectores (A,B,C) y (A’,B’,C’). La observaci´on de que el producto vectorial de dos vectores es ortogonal a los dos vectores factores da un m´etodo para hallar un generador del complementario ortogonal en R3 de un plano dado por dos vectores independientes.

208

Teorema de Tellegen. Otra aplicaci´on de la ortogonalidad puede demostrar un teorema de electricidad llamdo teorema de Tellegen. (Tomado del libro Algebra Lineal y sus Aplicaciones. G. Strang). Consideramos una red formada por las aristas de un tetraedro; son seis aristas convergentes en cuatro nodos. (Ver p´agina siguiente). Llamamos p1 , p2 , p3 , p4 a los potenciales en cada uno de los nodos e I1 , I2 , I3 , I4 , I5 , I6 a las intensidades que corren por cada arista. Si E1 , E2 , E3 , E4 , E5 , E6 son las diferencias de potencial en cada arista, se cumple: I1 E1 + I2 E2 + I3 E3 + I4 E4 + I5 E5 + I6 E6 = 0 Demostraci´on: Podemos escribir: 

 1 0 −1 1 0 0  −1 1 0 0 1 0   (E1 , E2 , E3 , E4 , E5 , E6 ) = (p1 , p2 , p3 , p4 )   0 −1 1 0 0 −1  0 0 0 −1 −1 1

(1)

p3 AK6  A  A  A  A  A  A I6  A  A A I I3  @ I  A 2 p4 @  A  @ A @  A @ I5 A I4 @ A   @ A @ A   @A I1 @ A p2 p1 

Tambi´en, por la primera ley de Kirchoff, en cada nodo la suma de las intensidades que entran es igual a la suma de las intensidades que salen, por tanto: 209

I3 I1 I2 + I6 I4 + I5

= I1 + I4 = I2 + I5 = I3 = I6

Pasando todos los t´erminos al segundo miembro en estas ecuaciones, obtenemos un sistema homog´eneo en las intensidades, que se puede escribir:   I 1      1 0 −1 1 0 0  0  I2   −1     1 0 0 1 0   I3   0     =  0  (2)  0 −1 1 0 0 −1    I4  0 0 0 −1 −1 1  I5  0 I6 Volvemos ahora a la expresi´on (1) y vemos que expresa la fila de las diferencias de potencial como combinaci´on lineal de las filas de la matriz de los coeficientes de este sistema de ecuaciones lineales. Por otra parte, (2) expresa la columna de las intensidades como ortogonal para el producto escalar usual de R6 a cada una de las filas de esa matriz. Como el producto escalar es lineal, la propiedad (2) de la definici´on implica que la columna de las intensidades es tambi´en ortogonal a cualquier combinaci´on lineal de las filas de esa matriz, en particular, a la fila de las diferencias de potencial. Al multiplicar escalarmente la fila de las diferencias de potencial por la columna de las intensidades, obtenemos la expresi´on del Teorema.

210

Proyecciones en general. Veamos ahora que, en general, si Rn = U ⊕ W , la descomposici´on de un vector y ∈ Rn como suma de un vector de U y otro de W es u ´nica. Esto quiere decir que si u + w = y = u0 + w0 , donde u, u0 ∈ U y w, w0 ∈ V , se tiene u = u0 y w = w0 . En efecto, u + w = u0 + w0 ⇒ u − u0 = w0 − w ∈ U ∩ V ⇒ u − u0 = w0 − w = 0 ⇒ u = u0 y w0 = w.

La unicidad de la descomposici´on de los vectores por una suma directa permite asociar a cada vector gen´erico y el u ´nico vector sumando u de U . Esta aplicaci´on se llama, en general, proyecci´on sobre U paralela al subespacio W y si W = U ⊥ se llama proyecci´on ortogonal. Debe comprobarse como ejercicios: 7.5.1. 7.5.2. 7.5.3. 7.5.4.

Demostrar que la aplicaci´on proyecci´on es una aplicaci´on lineal. Demostrar que si p es una aplicaci´on proyecci´on, p2 = p. Demostrar que si p es una aplicaci´on proyecci´on, I − p es otra aplicaci´on proyecci´on. Comprobar que si p es una aplicaci´on proyecci´on, (I − p)2 = I − p.

Por ser lineal, la aplicaci´on proyecci´on se expresa por una matriz, una vez elegida una base de R . Dado el procedimiento que hemos seguido para definir la proyecci´on, la manera natural de hallar su matriz es considerar que en una proyecci´on sobre un espacio U , los vectores de U quedan fijos y los vectores de W se proyectan en el el cero. En una base de Rn formada por la yuxtaposici´on de una base de U y una base de W (que puede ser U ⊥ ), la matriz de la proyecci´on es:   Ip 0 0 0 n

donde p es la dimensi´on de U . En la base can´onica de Rn , la matriz de la proyecci´on es:   Ip 0 C C −1 0 0 donde C es la matriz que tiene en columnas las coordenadas de los vectores de la base (de Rn ) yuxtaposici´on de una base de U y otra base de W . Debido a que si n es grande, la inversa de la matriz C puede ser pesada de calcular, vamos a estudiar tambi´en otros m´etodos para hallar las matrices de las proyecciones ortogonales.

211

Proyecciones Ortogonales. Dada la matriz de una proyecci´ on, se puede hallar la proyecci´on de un vector multiplicando la matriz de la proyecci´ on por la columna correspondiente al vector. Tambi´en se puede hallar la proyecci´on de un vector directamente realizando su descomposici´ on en suma. Adem´ as, en el caso de las proyecciones ortogonales se puede hallar la proyecci´ on de un vector utilizando el producto escalar.

En el sentido geom´etrico com´ un proyectar ortogonalmente un punto sobre una recta o sobre un plano es obtener un punto de la recta o del plano trazando la perpendicular a la recta o al plano por el punto dado. En sentido anal´ıtico, en Rn , para proyectar ortogonalmente un vector sobre una recta, sobre un plano o sobre un subespacio de dimensi´on mayor, descomponemos el vector dado en suma de un vector del subespacio sobre el que estamos proyectando y de otro vector perpendicular a ´el, o lo que es lo mismo, perteneciente al subespacio ortogonal al subespacio considerado. Siendo la proyecci´on del vector sobre el subespacio, el vector obtenido en el subespacio considerado. La descomposici´on puede hacerse c´omodamente utilizando el producto escalar. Lo vemos a continuaci´on. Proyecci´ on ortogonal de un vector sobre una recta. Si la recta est´a engendrada por el vector v, la proyecci´on sobre esa recta de un vector y es un vector de la forma cv, tal que y = cv + w, donde w ⊥ v; entonces, y · v = (cv + w) · v = cv · v + w · v = c(v · v), de donde c =

y·v v·v

y cv =

y·v v. v·v

Expresamos esta proyecci´on por PU y y tenemos: PU y =

y·v v. v·v

Ejercicio: 7.6.1. Comprobar que el vector PU y no depende del generador v que cojamos de la recta. Volviendo a mirar las coordenadas de un vector en una base ortogonal, (p´ag 206), vemos que ´estas coinciden con los coeficientes de las proyecciones del vector sobre las rectas engendradas por los vectores de la base. Y tambi´en vemos que el vector es la suma de sus proyecciones sobre esas rectas.

212

Proyecci´ on ortogonal de un vector sobre un subespacio. Dado un subespacio U = L{v1 , ..., vp }, la proyecci´on de y sobre U es un vector u de U tal que y = u + w, donde w ⊥ u (w ∈ U ⊥ ). La validez de la definici´on estriba en el hecho de que el vector de U que buscamos es u ´nico. Esta unicidad se sigue del razonamiento conceptual, hecho para proyecciones en general. Escribamos PU y = u para calcularlo. Por ser PU y ∈ U , tendr´ıamos: PU y = c1 v1 + · · · + ci vi + · · · + cp vp , y y = c1 v1 + · · · + ci vi + · · · + cp vp + w donde w · vi = 0 ∀i Calcular PU y es calcular los coeficientes c1 , c2 , ..., cp . Para ello tenemos: y · v1 = (c1 v1 + · · · + ci vi + · · · + cp vp + w) · v1 = (c1 v1 + · · · + ci vi + · · · + cp vp ) · v1 = c1 v1 · v1 + · · · + ci vi · v1 + · · · + cp vp · v1 ··· y · vj = (c1 v1 + · · · + ci vi + · · · + cp vp + w) · vj = (c1 v1 + · · · + ci vi + · · · + cp vp ) · vj = c1 v1 · vj + · · · + ci vi · vj + · · · + cp vp · vj ··· y · vp = (c1 v1 + · · · + ci vi + · · · + cp vp + w) · vp = (c1 v1 + · · · + ci vi + · · · + cp vp ) · vp = c1 v1 · vj + · · · + ci vi · vj + · · · + cp vp · vp considerando las ci como inc´ognitas, cuyo valor determina PU y, hemos encontrado el sistema:  y · v1 = c1 v1 · v1 + · · · + ci vi · v1 + · · · + cp vp · v1     ··· ··· ··· ··· ···  ··· y · vj = c1 v1 · vj + · · · + ci vi · vj + · · · + cp vp · vj   ··· ··· ··· ··· ··· ···    y · vp = c1 v1 · vp + · · · + ci vi · vp + · · · + cp vp · vp Este sistema siempre tiene soluci´on u ´nica debido a que la definici´on de la aplicaci´on proyecci´on es buena. Seg´ un el teorema de Rouch´e-Frobenius la matriz de los coeficientes de este sistema es invertible, pudi´endose resolver el sistema por Cramer o por Gauss. Vamos a observar que si la base {v1 , ..., vi , ...vp } de U es ortogonal, la matriz de los coeficientes es diagonal y se puede obtener para cada i: y · vi ci = vi · vi por lo que en este caso: PU y =

y · v1 y · v2 y · vp v1 + v2 + · · · + vp v1 · v1 v2 · v2 vp · vp 213

Esta es una de las razones de la importancia de las bases ortogonales. Si la base es ortonormal, ci = y · vi . Ya que hemos utilizado una base de U para obtener la proyecci´on del vector sobre el subespacio U , es posible plantearse la cuesti´on sobre si el vector proyecci´on obtenido es dependiente de la base utilizada. Pero no es as´ı, porque ya hemos visto que la descomposici´on de un vector por una suma directa es u ´nica y la aplicaci´on proyecci´on est´a bien definida. Otra forma de obtener la matriz de la proyecci´on en la base {e1 , e2 , ..., en } es tener en cuenta que sus columnas son las coordenadas de las im´agenes de los vectores de la base y hallar por tanto, una a una, las proyecciones pU (ei ) de los vectores de la base, una vez encontrada una base ortogonal {v1 , v2 , · · · , vp } de U , por la f´ormula: PU (ei ) =

e i · v2 ei · vp e i · v1 v1 + v2 + · · · + vp v1 · v1 v2 · v2 vp · vp

donde ei recorre los vectores de la base can´onica de Rn . Si consideramos una base ortonormal de U , esta f´ormula se simplifica pero puede ser que los vectores se compliquen al tener que dividirlos por raices cuadradas. Ejercicios: 7.7.1. Siendo U = L{(1, 0, 1), (2, −1, 1)}} ⊂ R3 , hallar a) Una base ortogonal de U . b) La proyecci´on ortogonal del vector (1, 1, 1) sobre U . c) La matriz (en la base can´onica) de la aplicaci´on proyecci´on ortogonal de R3 sobre U por los dos m´etodos para comprobar que sale lo mismo. 7.7.2. Siendo U el subespacio de R3 de ecuaci´on x + y + z = 0, resolver los tres apartados an´alogos a los del problema anterior. 7.7.3. Dados los vectores u1 = (2, 1, 1, −1), u2 = (1, 1, 3, 0) de R4 y el vector a = (5, 2, −2, 2), descomponer el vector a = b + c donde b es un vector perteneciente al subespacio L{u1 , u2 } y c es un vector perteneciente al ortogonal a dicho subespacio. 7.7.4. Dados los vectores u1 = (1, 2, 0, −1, 1), u2 = (0, 1, −1, 1, 0) de R5 y el vector a = (0, 0, 1, 2, 1), descomponer el vector a = b + c donde b es un vector perteneciente al subespacio L{u1 , u2 } y c es un vector perteneciente al ortogonal a dicho subespacio. 7.7.5. Hallar la matriz de la proyecci´on ortogonal de R4 sobre L{(1, 1, −1, 0), (0, 0, 2, 1)}. 7.7.6. Hallar la matriz de la proyecci´on ortogonal de R4 sobre el subespacio U = L{(1, 1, −1, 0), (0, 0, 2, 1), (0, 1, 1, 1)}. (Usar el ortogonal a U).

214

Teorema de la aproximaci´ on ´ optima: La importancia de la proyecci´on ortogonal de un vector sobre un subespacio est´a en que da el vector del subespacio que m´as se acerca o aproxima al vector dado. Por ello, la distancia del punto a un subespacio es la distancia del punto a la proyecci´on ortogonal de su vector de posici´on sobre el subespacio. Esto se demuestra en el teorema de la aproximaci´on o´ptima: Dado un vector y de Rn y un subespacio U ⊂ Rn , si yb = PU y, ky − ybk ≤ ky − uk ∀u ∈ U . Demostraci´on: Por el teorema de Pit´agoras generalizado, ∀u ∈ U,

ky − uk2 = ky − yb + yb − uk2 = ky − ybk2 + kb y − uk2 ≥ ky − ybk2

al ser y − yb ∈ U ⊥ , yb − u ∈ U , Ejercicios: 7.8.1 Hallar la distancia del vector a al subespacio L{u1 , u2 } en los problemas 7.7.3 y 7.7.4 anteriores. 7.8.2. Dado el plano π de ecuaci´on Ax + By + Cz = 0 y el punto p de coordenadas (a, b, c), demostrar que la distancia de p a π es |Aa + Bb + Cc| d(p, π) = √ . A2 + B 2 + C 2

215

M´ etodo de Aproximaci´ on de M´ınimos Cuadrados. El teorema de Rouch´e-Frobenius da condiciones necesarias y suficientes para que un sistema de ecuaciones de la forma AX = b sea compatible, es decir, para que exista un X tal que AX − b = 0. Nos podemos preguntar, en el caso en que el sistema sea incompatible, si existe una aproximaci´on o´ptima de la soluci´on, es decir, unos valores de las inc´ognitas X, tales que la diferencia AX − b sea m´ınima. La respuesta es que el problema de la aproximaci´on ´optima siempre tiene soluci´on, y a veces no u ´nica. Como siempre, para llegar a la soluci´on de un problema, lo estudiamos y hacemos observaciones: Si existe una soluci´on del sistema, el vector b es combinaci´on lineal de los vectores columnas de A con coeficientes precisamente iguales a las soluciones del sistema. Si no existe soluci´on, al probar distintos valores de las inc´ognitas como posibles aproximaciones, y realizar la operaci´on AX, obtenemos vectores que pertenecen al espacio engendrado por los vectores columnas de A. Si de todos estos vectores AX queremos el que m´as se aproxime a b, podemos pensar en el anterior Teorema de la aproximaci´on o´ptima y considerar que el vector que estamos buscando es de los vectores del subespacio engendrado por las columnas de A, el m´as pr´oximo a b, es decir, la proyecci´on ortogonal de b sobre dicho subespacio. Por tanto, para aproximar el problema, podemos proyectar ortogonalmente el vector b sobre el subespacio engendrado por las columnas de A (que vamos a llamar espacio columna de A), y si es bb esta proyecci´on, resolver despu´es el sistema AX = bb que siempre tiene soluci´on. Pero podemos elaborar un poco m´as el procedimiento. b que verificara AX b = bb es la que verifica que AX b − b = bb − b es ortogonal Nuestra soluci´on X al espacio engendrado por las columnas de A; La condici´on necesaria y suficiente para ello es que b − b sea ortogonal a todos los vectores columna de A. O lo que es lo mismo, que el el vector AX b − b sea cero. Podemos expresar en una producto escalar de estos vectores columna y el vector AX s´ola ecuaci´on matricial la ortogonalidad requerida por t

b − b) = 0 ≡ t AAX b = t Ab A(AX

La soluci´on del u ´ltimo sistema es u ´nica si la matriz t AA es invertible y m´ ultiple, si la matriz no es invertible. Cuando la soluci´on es u ´nica, ´esta es b = (t AA)−1t Ab. X En este caso, es la u ´nica aproximaci´on o´ptima a una soluci´on del sistema incompatible AX = b. Podemos demostrar ahora que la matriz t AA es invertible si y s´olo si las columnas de A son independientes. 216

Por una parte, la matriz t AA es invertible si y s´olo si el sistema t AAX = 0 tiene u ´nicamente la soluci´on trivial. Por otra parte, al resolver el sistema AX = 0, estamos tratando de encontrar los coeficientes que hay que poner a las columnas de A para obtener una combinaci´on lineal nula; estos coeficientes son u ´nicamente ceros si las columnas de A son independientes. Entonces vemos que AX = 0 tiene s´olo la soluci´on trivial si y s´olo si las columnas de A son independientes. Viendo que las soluciones de t AAX = 0 y de AX = 0 son las mismas quedar´a establecida la equivalencia enunciada. En efecto: t

AAX = 0 ⇒ X tt AAX = 0 ⇒ AX = 0 ⇒ t AAX = 0

217

Aplicaci´ on del m´ etodo de m´ınimos cuadrados a la regresi´ on lineal. Cuando se cree que existe una dependencia lineal entre dos magnitudes x e y, es decir, se cree que y = cx + d para ciertos c y d, se trata de determinar c y d haciendo experimentos. Si la dependencia lineal fuera perfecta y las medidas de los experimentos tambi´en, haciendo dos experimentos en los que a la magnitud variable x di´eramos los valores x1 y x2 distintos, para los cuales midi´eramos y1 e y2 , las dos relaciones  y1 = cx1 + d y2 = cx2 + d dar´ıan un sistema de dos ecuaciones con las dos inc´ognitas c y d con soluci´on u ´nica. Entonces, al hacer m´as experimentos, si ´estos y las medidas fueran perfectos, al darle a la magnitud variable x el valor xi obtendr´ıamos un valor yi tal que yi = cxi + d. Y los pares de valores (xi , yi ), que se pueden representar por puntos en el plano, quedar´ıan alineados y todos sobre la recta de ecuaci´on y = cx + d.



 

 

 

 

 

 

   

experimentos ideales

Pero en la pr´actica, la dependencia lineal no es perfecta y las medidas en los experimentos no son exactas, por lo que al hacer los experimentos y representar los puntos (xi , yi ) obtenidos, se obtiene una nube de puntos que admitimos que se aproxima a la gr´afica de una recta. Entonces, el problema consiste en determinar cu´al es la recta que m´as se aproxima a la nube de puntos representada y como se trata de una aproximaci´on, utilizamos el m´etodo de los m´ınimos cuadrados.

218

    

   

 

 

 

 



experimentos reales

Supongamos que tenemos un conjunto de parejas de valores {(x1 , y1 ), (x2 , y2 ), · · · , (xn , yn )} obtenidos experimentalmente. Si existiera una recta de ecuaci´on y = cx + d conteniendo a todos los puntos, el sistema:   y1 = cx1 + d    y2 = cx2 + d .. ..  . .    y = cx + d n

n

ser´ıa satisfecho para ciertos valores de c y de d, es decir, tendr´ıa soluci´on en las inc´ognitas c y d. Si no est´an contenidos en una recta, no existe esa soluci´on. El sistema anterior lo podemos escribir matricialmente:     x1 1 y1  x2 1     y 2    c   =  ..   ..   .  d  .  xn 1 yn donde las inc´ognitas son c y d y la matriz de los coeficientes correspondiente a la discusi´on te´orica general es:   x1 1  x2 1    A =  ..   . 1  xn 1 219

Si todas las xi son iguales, todos los puntos est´an sobre una recta vertical, por tanto no es el caso que nos ocupa. Es suficiente que haya dos xi distintas para que las dos columnas de A sean independientes y por tanto que la matriz t AA sea invertible. Utilizando la f´ormula obtenida anteriormente en el m´etodo de m´ınimos cuadrados, las aproximaciones ´optimas para c y d son: 

c d



   x1 x2 · · · =  1 1 ···

−1 x1 1   x2 1   x1 x2 · · ·    ···  1 1 ··· xn 1 

xn 1



 xn 1



 y1  y2     ···  yn

Haciendo operaciones:  −1  Pn  Pn 2 Pn x y x x i i i i i=1 i=1 i=1 Pn = = Pn n i=1 yi i=1 xi    Pn  Pn 1 x y x n − i i i i=1 i=1 Pn Pn 2 Pn P = Pn 2 n i=1 xi − ( ni=1 xi )2 − i=1 xi i=1 yi i=1 xi 

c d



O sea, c=

n

P P xi yi − ( ni=1 xi )( ni=1 i=1P P n ni=1 x2i − ( ni=1 xi )2

Pn

yi )

P P P P −( ni=1 xi )( ni=1 xi yi ) + ( ni=1 x2i )( ni=1 yi ) P P d= n ni=1 x2i − ( ni=1 xi )2 Tambi´en, aparentemente m´as simple para d, es la f´ormula: Pn Pn i=1 xi i=1 yi − c d= n Comprobemos que son iguales. Pn Pn P P P n n n ni=1 xi yi − ( ni=1 xi )( ni=1 yi ) X 1 X i=1 yi − c i=1 xi Pn 2 Pn = ( yi − xi ) = n n i=1 n i=1 xi − ( i=1 xi )2 i=1 P P P P P P P 1 ( ni=1 yi )(n ni=1 x2i − ( ni=1 xi )2 ) − (n ni=1 xi yi − ( ni=1 xi )( ni=1 yi )) ni=1 xi P P = = n n ni=1 x2i − ( ni=1 xi )2 220

P P P P P P P P 1 n( ni=1 yi )( ni=1 x2i ) − ( ni=1 yi )( ni=1 xi )2 − n( ni=1 xi yi )( ni=1 xi ) + ( ni=1 xi )2 ( ni=1 yi ) P P = = n n ni=1 x2i − ( ni=1 xi )2 P P P P ( ni=1 yi )( ni=1 x2i ) − ( ni=1 xi yi ) ni=1 xi P P = n ni=1 x2i − ( ni=1 xi )2 Aplicaci´ on del m´ etodo de m´ınimos cuadrados a la obtenci´ on de la matriz de la aplicaci´ on proyecci´ on ortogonal sobre un subespacio. La proyecci´on sobre un subespacio puede ser aplicada a un vector cualquiera. En ese sentido es una aplicaci´on de Rn en Rn y puede demostrarse como un ejercicio que es lineal. Es un endomorfismo de Rn . Llegados a este punto vamos a aprovechar la expresi´on del vector bb, proyecci´on de b sobre el espacio columna de A para obtener la expresi´on matricial de la aplicaci´on lineal proyecci´on sobre un subespacio U . En el desarrollo anterior, cuando la soluci´on es u ´nica: (cuando t AA es una matriz invertible o equivalentemente las columnas de A son una base de U), bb es la proyecci´on de b sobre U , siendo bb = AX b = A(t AA)−1t Ab Si queremos proyectar un vector gen´erico x sobre un subespacio U , construimos la matriz A cuyas columnas son un conjunto de vectores base de U y vemos que entonces t AA es una matriz invertible, despu´es aplicamos la f´ormula anterior a x. De forma que b = A(t AA)−1t Ax PU (x) = AX Por tanto, la aplicaci´on proyecci´on que hace corresponder a cada vector x su proyecci´on sobre el subespacio es una aplicaci´on lineal que tiene de matriz A(t AA)−1t A. Si comparamos este m´etodo con el primero desarrollado para obtener la matriz de una proyecci´on observamos que tambi´en tenemos que hallar la inversa de una matriz pero p×p, siendo p la dimensi´on de U en lugar de n × n y nos ahorramos el trabajo de hallar la base de U ⊥ . Ejercicios: 7.9.1. Comprobar con la f´ormula obtenida en u ´ltimo lugar, las matrices obtenidas para las proyeciones ortogonales en los problemas 7.6.*.

221

ESPACIO EUCL´IDEO GENERAL. Condiciones necesarias y suficientes para que una matriz corresponda a un producto escalar. Una generalizaci´ on m´ as del Producto Escalar. Hemos dado la definici´on de producto escalar usual utilizando las coordenadas de los vectores en la base can´onica. La base can´onica es un instrumento auxiliar para definir ese producto; podemos prescindir de ella utilizando solamente las propiedades del producto escalar que lo caracterizan, obteni´endo as´ı una definici´on de mayor calidad y de mayor generalidad. Qued´andonos con las propiedades 1), 2) y 3) vistas anteriormente del producto escalar en Rn , definimos un producto escalar general en un espacio vectorial VR real como una aplicaci´on f del producto cartesiano VR × VR en R, que cumple esas tres condiciones: Definici´ on 1: Un producto escalar en un espacio vectorial real VR es una aplicaci´on f : VR × VR → R tal que: 1) f es sim´etrica ≡ f (x, y) = f (y, x). 2) f es lineal en cada variable: (Por la simetr´ıa, es lineal en la segunda variable si lo es en la primera)  ∀x, x0 , y ∈ Rn , f (x + x0 , y) = f (x, y) + f (x0 , y) ∀x ∈ Rn , ∀c ∈ R, f (cx, y) = cf (x, y). 3) f es definida positiva: ∀x ∈ Rn , f (x, x) ≥ 0 y f (x, x) = 0 ≡ x = 0. Como llamamos forma lineal a una aplicaci´on del espacio vectorial real en R y forma bilineal a una aplicaci´on del producto cartesiano VR × VR en R, lineal en cada una de las variables vectores tenemos, resumidamente, la Definici´ on 1’: Un producto escalar en un espacio vectorial real es una forma bilineal, sim´etrica y definida positiva. Veremos en este cap´ıtulo que dado un producto escalar seg´ un la definici´on anterior en un espacio vectorial de dimensi´on finita, existe siempre una base en la que el producto escalar se expresa como el usual de Rn . Siendo, por tanto, mediante un cambio de base, esta definici´on equivalente a la del producto escalar usual; entonces nos quedamos con la definici´on que no depende de la base. Tambi´en se suele escribir f (x, y) =< x, y >= x · y cuando no haya lugar a confusi´on. 222

Un ejemplo de producto escalar en R4 es el dado por la expresi´on: f (x, y) = x1 y1 + x1 y2 + x2 y1 + 2x2 y2 + 3x3 y3 + x3 y4 + x4 y3 + x4 y4 En efecto, esta expresi´on es 1)Sim´etrica: (escribiendo en lo que sigue x · y para f (x, y) y · x = y1 x1 + y1 x2 + y2 x1 + 2y2 x2 + 3y3 x3 + y3 x4 + y4 x3 + y4 x4 = (por la conmutatividad del producto de n´ umeros reales) = x1 y1 + x2 y1 + x1 y2 + 2x2 y2 + 3x3 y3 + x4 y3 + x3 y4 + x4 y4 = (por la conmutatividad de la suma de n´ umeros reales) = x1 y1 + x1 y2 + x2 y1 + 2x2 y2 + 3x3 y3 + x3 y4 + x4 y3 + x4 y4 = x · y 2) Lineal en cada variable: a) (x + x0 ) · y = = (x1 +x01 )y1 +(x1 +x01 )y2 +(x2 +x02 )y1 +2(x2 +x02 )y2 +3(x3 +x03 )y3 +(x3 +x03 )y4 +(x4 +x04 )y3 +(x4 +x04 )y4 = (por la distributividad del producto) = x1 y1 +x01 y1 +x1 y2 +x01 y2 +x2 y1 +x02 y1 +2x2 y2 +2x02 y2 +3x3 y3 +3x03 y3 +x3 y4 +x03 y4 +x4 y3 +x04 y3 +x4 y4 +x04 y4 = (por la conmutatividad de la suma) = x1 y1 +x1 y2 +x2 y1 +2x2 y2 +3x3 y3 +x3 y4 +x4 y3 +x4 y4 +x01 y1 +x01 y2 +x02 y1 +2x02 y2 +3x03 y3 +x03 y4 +x04 y3 +x04 y4 = = x · y + x0 · y b) (αx) · y = = (αx)1 y1 + (αx)1 y2 + (αx)2 y1 + 2(αx)2 y2 + 3(αx)3 y3 + (αx)3 y4 + (αx)4 y3 + (αx)4 y4 =

= (αx1 )y1 + (αx1 )y2 + (αx2 )y1 + 2(αx2 )y2 + 3(αx3 )y3 + (αx)3 y4 + (αx4 )y3 + (αx4 )y4 = (por la asociatividad del producto de n´ umeros reales) 223

= α(x1 y1 ) + α(x1 y2 ) + α(x2 y1 ) + 2α(x2 y2 ) + 3α(x3 y3 ) + α(x3 y4 ) + α(x4 y3 ) + α(x4 y4 ) = (por la distributividad del producto de n´ umeros reales) = α(x1 y1 + x1 y2 + x2 y1 + 2x2 y2 + 3x3 y3 + x3 y4 + x4 y3 + x4 y4 = α(x · y) 3) Es definida positiva: x · x = x1 x1 + x1 x2 + x2 x1 + 2x2 x2 + 3x3 x3 + x3 x4 + x4 x3 + x4 x4 = = x21 + 2x1 x2 + 2x22 + 3x23 + 2x3 x4 + x24 = (x1 + x2 )2 + x22 + 2x23 + (x3 + x4 )2 ≥ 0. De ser x · x = 0, habr´ıa de ser x1 +x2 x2 x3 x3 +x4

=0 =0 =0 =0

   

x1 x2 ≡ x3    x4

=0 =0 =0 =0

   

≡x=0

  

Definici´ on 2: Un Espacio Vectorial Eucl´ıdeo es un espacio vectorial real con un producto escalar f . En p un espacio vectorial eucl´ıdeo podemos definir la longitud o el m´odulo de un vector como kxk = f (x, x) por ser la forma bilineal f definida positiva. Escribimos este m´odulo por |x| cuando no hay lugar a confusi´on. El concepto de ortogonalidad se generaliza a un producto escalar general, siendo dos vectores ortogonales si y s´olo si su producto escalar es nulo. (x ⊥ y ⇔ f (x, y) = 0). Una base ortogonal es una base tal que cada dos vectores distintos son ortogonales. Una base ortonormal es una base ortogonal tal que todos sus vectores son de m´odulo 1. A partir de una base ortogonal se construye una base ortonormal dividiendo cada vector por su m´odulo (calculado con f ). Ejercicios: 7.9.1. Comprobar que es un producto escalar en R3 , el dado por la expresi´on: f (x, y) = x · y = (x1 + x2 )(y1 + y2 ) + (x1 + x3 )(y1 + y3 ) + (x2 + x3 )(y2 + y3 ). 7.9.2. Comprobar que es un producto escalar en R4 , el dado por la expresi´on: 224

x · y = x1 y1 + x1 y2 + x2 y1 + 2x2 y2 + 3x3 y3 + x2 y4 + x4 y2 + 2x4 y4 . 7.9.3. Demostrar que vectores ortogonales respecto a un producto escalar general son independientes. 7.9.4. Comprobar que las aristas opuestas de un tetraedro regular son ortogonales. Sugerencia: colocar los v´ertices en los puntos: (0,0,0), (1,1,0),(1,0,1),(0,1,1).

225

Tanto el producto escalar usual como el ejemplo de producto escalar en R4 que hemos visto vienen dados por expresiones polinomiales, donde cada monomio tiene un xi y un yj . Aunque parezca que un producto escalar general puede ser un ente extra˜ no, como es una forma bilineal, admite en un espacio de dimensi´on finita una expresi´on polinomial y una expresi´on matricial, encontr´andonoslo casi siempre en una de estas dos formas. Expresi´ on polinomial de una forma bilineal en un Espacio Vectorial de dimensi´ on finita. Se comprueba que todo producto escalar definido en un espacio vectorial de dimensi´on finita tiene una expresi´on polinomial haciendo el siguiente desarrollo: Sea {e1 , e2 , ...en } una base del espacio vectorial V n sobre el que est´a definida la forma bilineal. Sean x = (x1 , x2 , ..., xn ), y = (y1 , y2 , ...yn ) dos vectores del espacio vectorial expresados por sus coordenadas en esa base y sea f la forma bilineal. Entonces, por ser f bilineal, f (x, y) = f (x1 e1 + x2 e2 + ... + xn en , y1 e1 + y2 e2 + ... + yn en ) = x1 f (e1 , y1 e1 +y2 e2 +...+yn en )+x2 f (e2 , y1 e1 +y2 e2 +...+yn en )+...+xn f (en , y1 e1 +y2 e2 +...+yn en ) = = x1 (y1 f (e1 , e1 )+...+yn f (e1 , en ))+x2 (y1 f (e2 , e1 )+...+yn f (e2 , en ))+...+xn (y1 f (en , e1 )+...+yn f (en , en )) = = x1 y1 f (e1 , e1 ) + ... + x1 yn f (e1 , en ) + x2 y1 f (e2 , e1 ) + ... + x2 yn f (e2 , en ) + · · · X · · · + xn y1 f (en , e1 ) + ... + xn yn f (en , en ) = x1 Σj yj f (ei , ej ) + ... + xn Σj yj f (en , ej ) = xi yj f (ei , ej ) i,j

expresi´on polinomial de la forma bilineal, donde se ve que en todos los monomios aparece un xi y un yj y el coeficiente de xi yj es f (ei , ej ). Por ser el producto escalar sim´etrico el coeficiente de xi yj es el mismo que el de xj yi y por ser definido positivo son positivos los coeficientes de los xi yi . Veamos la expresi´on matricial: Expresi´ on matricial de una forma bilineal en un Espacio Vectorial de dimensi´ on finita. Con la misma notaci´on del apartado anterior tambi´en tenemos: f (x, y) = f (x1 e1 + x2 e2 + ... + xn en , y1 e1 + y2 e2 + ... + yn en ) = x1 f (e1 , y1 e1 +y2 e2 +...+yn en )+x2 f (e2 , y1 e1 +y2 e2 +...+yn en )+...+xn f (en , y1 e1 +y2 e2 +...+yn en ) = 226

= x1 (y1 f (e1 , e1 )+...+yn f (e1 , en ))+x2 (y1 f (e2 , e1 )+...+yn f (e2 , en ))+...+xn (y1 f (en , e1 )+...+yn f (en , en )) =   y1 f (e1 , e1 ) + y2 f (e1 , e2 ) + ... + yn f (e1 , en )  y1 f (e2 , e1 ) + y2 f (e2 , e2 ) + ... + yn f (e2 , en )  = = (x1 , x2 , ..., xn )    ... y1 f (en , e1 ) + y2 f (en , e2 ) + ... + yn f (en , en )    f (e1 , e1 ) f (e1 , e2 ) ... f (e1 , en ) y1  f (e2 , e1 ) f (e2 , e2 ) ... f (e2 , en )   y2    = (x1 , x2 , ..., xn )     ...  ··· ··· ··· ··· f (en , e1 ) f (en , e2 ) ... f (en , en ) yn expresi´on matricial de la forma bilineal.

La matriz correspondiente a una forma bilineal que sea adem´as un producto escalar, es sim´etrica debido a que f (ei , ej ) = f (ej , ei ) y los elementos de su diagonal son positivos debido a que f es definida positiva. Adem´as esta matriz, que generalmente se escribe G tiene determinante distinto de cero. En efecto, si fuera |G| = 0, el sistema lineal homog´eneo GX = 0 tendr´ıa soluciones no triviales. Si (a1 , a2 , ..., an ) 6= (0, 0, ..., 0) es una soluci´on no trivial de ese sistema se tendr´ıa:       a1 0 a1  a2   a2   0        G  ..  =  ..  de donde (a1 , a2 , ..., an )G  ..  = 0  .   .   .  an 0 an pero esto implicar´ıa (a1 , a2 , ..., an ) = (0, 0, ..., 0) por ser el producto escalar definido positivo, teni´endose una contradicci´on. Veremos que en virtud de que |G| = 6 0 se puede definir el complemento ortogonal de un subespacio respecto al producto escalar general de manera an´aloga a como se defin´ıa para el producto escalar usual. Y se tiene tambi´en la descomposici´on V n = U ⊕ U ⊥ , que permite definir las proyecciones ortogonales respecto al producto escalar general. A pesar de que todas las expresiones matriciales del tipo t xAy, donde x e y son vectores columna, dan expresiones polinomiales de segundo grado, hay expresiones polinomiales de segundo grado que no se pueden expresar matricialmente, no dando lugar a una forma bilineal. Esto ocurre cuando en alg´ un monomio no aparecen las xi y las yj al mismo tiempo. Ejemplos de estos casos se dan en el ejercicio 7.10.3.

227

Ejercicios. 7.10.1. Comprobar: a) Que al producto escalar usual le corresponde la matriz identidad en la base can´onica. b) Que a un producto escalar general en Rn le corresponde una matriz diagonal en una base ortogonal respecto a ese producto escalar. c) Que a un producto escalar general en Rn le corresponde la matriz identidad en una base ortonormal respecto a ese producto escalar. 7.10.2. Encontrar las expresiones matriciales de las siguientes expresiones polinomiales en R2 o´ R3 : a) < x, y >= x1 y1 − 3x1 y2 + 2x2 y1 + 2x2 y2 b) < x, y >= x1 y1 − x2 y2 c) < x, y >= x1 y1 + 2x1 y2 + 3x2 y1 + 7x2 y2 d) < x, y >= x1 y1 + 3x1 y2 + 3x2 y1 + 2x2 y2 e) < x, y >= 2x1 y1 + 2x1 y2 + 2x2 y1 + 3x2 y2 . f) < x, y >= x1 y1 + x2 y2 + x3 y3 − x1 y3 − x3 y1 − x2 y1 − x1 y2 g) < x, y >= x1 y1 + x2 y2 + x3 y3 − 2x1 y3 − 2x3 y1 h) < x, y >= x1 y2 + x2 y1 + x2 y3 + x3 y2 i) < x, y >= 2x1 y1 − 2x1 y2 + x2 y1 + 2x1 y3 + 2x3 y1 − 3x2 y3 − 3x3 y2 + 11x3 y3 j) < x, y >= x1 y1 + x1 y2 + x2 y1 + 2x2 y2 + 3x3 y3 + x3 y4 + x4 y3 + x4 y4 k) < x, y >= x1 y1 + x1 y2 + x2 y1 + 2x2 y2 + 3x3 y3 + x2 y4 + x4 y2 + 2x4 y4 7.10.3. Comprobar que las siguientes expresiones polinomiales no dan formas bilineales de R2 . a) < x, y >= x21 + y12 b) < x, y >= x1 x2 − y1 y2 . 7.10.4. Escribir expresiones polinomiales que no den formas bilineales en R3 . 7.10.5. Estudiar si las expresiones polinomiales de los ejercicios anteriores dan productos escalares.

228

Complementario Ortogonal en el espacio eucl´ıdeo general. Sea V n un espacio vectorial eucl´ıdeo con producto escalar f . Dado un subespacio U de V n , se define el subespacio complementario ortogonal de U como el conjunto de los vectores ortogonales a todos los de U : U ⊥ = {x|f (x, y) = 0, ∀y ∈ U }. Es otro subespacio de V n (debido a la bilinealidad del producto escalar). Demostremos que U y U ⊥ son complementarios (U + U ⊥ = U ⊕ U ⊥ = V n ): Primero, se comprueba que U ∩ U ⊥ = {0} debido a que el producto escalar es definido positivo. En efecto, si x ∈ U ∩ U ⊥ , habr´ıa de ser f (x, x) = 0, lo que implica x = 0. Veamos que tambi´en, dim(U ⊥ ) = n − dim(U ): como |G| = 6 0, la aplicaci´on h:     a1 a1  a2   a2       ..  → G  ..   .   .  an an es un isomorfismo, que por tanto manda vectores independientes a vectores independientes (ejercicio). Adem´as, si una base de U es: {u1 = (a11 , a12 , ..., a1n ), u2 = (a21 , a22 , ..., a2n ), ..., up = (ap1 , ap2 , ..., apn )}, tenemos (x1 , x2 , ..., xn ) ∈ U ⊥ si y s´olo si f (x, ui ) = 0 ∀i (ejercicio), es decir, si y s´olo si     a 11     a12        (x1 , x2 , ..., xn )G  ..  = 0     .      b11 x1 + b12 x2 + · · · + b1n xn = 0   a1n     b21 x1 + b22 x2 + · · · + b2n xn = 0 .. ≡ .. ···  .    ··· .     ap1   b x + b x + ··· + b x = 0   p1 1 p2 2 pn n  ap2        (x1 , x2 , ..., xn )G  ..  = 0    .      a pn

donde

    

bi1 bi2 .. .





    = G    

bin

ai1 ai2 .. . ain

229

    

y los vectores {(bi1 , bi2 , ..., bin )}i∈{1,...p} son independientes, por ser im´agenes por la aplicaci´on h de vectores independientes. Entonces U ⊥ es un subespacio de dimensi´on n − p = n − dim(U ). Por tanto, dim(U ⊕ U ⊥ ) = p + n − p = n, de donde, U + U ⊥ = U ⊕ U ⊥ = V n . Ejercicios. 7.11.1. Hallar el complemento ortogonal del subespacio L{(1, 1, 0, 0), (0, 1, 1, 0)} ⊂ R4 respecto al producto escalar dado en el ejercicio 7.9.2. 7.11.2. Hallar el complemento ortogonal del subespacio de ecuaciones  x1 +x2 =0 x3 +x4 = 0 en R4 , respecto al producto escalar dado en el ejercicio 7.9.2. Proyecciones ortogonales en un espacio eucl´ıdeo general. La descomposici´on U ⊕ U ⊥ = V n permite realizar las proyecciones ortogonales an´alogas a las que hac´ıamos en el espacio eucl´ıdeo usual. Repetimos aqu´ı el procedimiento para obtener la proyecci´on ortogonal de un vector sobre un subespacio, ahora, con un producto escalar general. Dado un subespacio U = L{v1 , ..., vp }, la proyecci´on ortogonal de y sobre U es un vector u de U tal que y = u + w, donde w ∈ U ⊥ (f (u, w) = 0). La validez de la definici´on estriba en el hecho de que el vector de U determinado as´ı es u ´nico. Esta unicidad se sigue de la descomposici´on en suma directa del espacio total. Escribamos PU y = u para calcularlo. Por ser PU y ∈ U , tendr´ıamos: PU y = c1 v1 + · · · + ci vi + · · · + cp vp , y adem´as, y = c1 v1 + · · · + ci vi + · · · + cp vp + w donde f (w, vi ) = 0 ∀i Calcular PU y es calcular los coeficientes c1 , c2 , ..., cp . Para ello tenemos: f (y, v1 ) = f (c1 v1 + · · · + ci vi + · · · + cp vp + w, v1 ) = ··· ··· ··· f (y vj ) = f (c1 v1 + · · · + ci vi + · · · + cp vp + w, vj ) =

f (c1 v1 + · · · + ci vi + · · · + cp vp , v1 ) = c1 f (v1 , v1 ) + · · · + ci f (vi , v1 ) + · · · + cp f (vp , v1 ) f (c1 v1 + · · · + ci vi + · · · + cp vp , vj ) = c1 f (v1 , vj ) + · · · + ci f (vi , vj ) + · · · + cp f (vp , vj )

··· ··· ··· f ((y, vp ) = f (c1 v1 + · · · + ci vi + · · · + cp vp + w, vp ) = f (c1 v1 + · · · + ci vi + · · · + cp vp , vp ) = c1 f (v1 · vj ) + · · · + ci f (vi , vj ) + · · · + cp f (vp , vp ) 230

Considerando las ci como inc´ognitas, cuyo valor determina PU y,  f (y, v1 ) = c1 f (v1 , v1 )+ · · · + ci f (vi , v1 )+     ··· ··· ··· ···  f (y, vj ) = c1 f (v1 , vj )+ · · · + ci f (vi , vj )+   ··· ··· ··· ···    f (y, vp ) = c1 f (v1 , vp )+ · · · + ci f (vi , vp )+

hemos encontrado el sistema: · · · + cp f (vp , v1 ) ··· ··· · · · + cp f (vp , vj ) ··· ··· · · · + cp f (vp , vp )

Este sistema siempre tiene soluci´on u ´nica debido a que la definici´on de aplicaci´on proyecci´on es buena. Y adem´as porque la matriz de los coeficientes del sistema es la matriz de la restricci´on del producto escalar al subespacio vectorial sobre el que se proyecta, en la base considerada de dicho subespacio, a fin de cuentas, la matriz de un producto escalar en un espacio vectorial, cuyo determinante es distinto de cero. Vamos a observar que si la base {v1 , ..., vi , ...vp } de U es ortogonal, la matriz de los coeficientes es diagonal y se puede obtener para cada i: ci =

f (y, vi ) f (vi , vi )

por lo que en este caso, PU y =

f (y, v2 ) f (y, vp ) f (y, v1 ) v1 + v2 + · · · + vp f (v1 , v1 ) f (v2 , v2 ) f (vp , vp )

Esta es una de las razones de la importancia de las bases ortogonales. Si la base es ortonormal, ci = f (y, vi ). Ya que hemos utilizado una base de U para obtener la proyecci´on del vector sobre el subespacio U , es posible plantearse la cuesti´ on sobre si el vector proyecci´ on obtenido es dependiente de la base utilizada. Pero no es as´ı, pues ya hemos visto que la descomposici´ on de un vector por una suma directa es u ´nica y la aplicaci´on proyecci´on est´ a bien definida.

Para obtener la matriz de la proyecci´on en la base {e1 , e2 , ..., en } podemos tener en cuenta que sus columnas son las coordenadas de las im´agenes de los vectores de la base y hallar, por tanto, una a una, las proyecciones pU (ei ) de los vectores de la base, una vez encontrada una base ortogonal {v1 , ..., vp } de U , por la f´ormula: PU (ei ) =

f (ei , v1 ) f (ei , v2 ) f (ei , vp ) v1 + v2 + · · · + vp f (v1 , v1 ) f (v2 , v2 ) f (vp , vp ) 231

Si consideramos una base ortonormal de U , esta f´ormula se simplifica pero puede ser que los vectores de la base se compliquen al tener que dividirlos por raices cuadradas. Tambi´en se puede hallar la matriz de la proyecci´on mediante un cambio de base utilizando una base formada por una base de U y otra base de U ⊥ .

Como para realizar las proyecciones sobre un subespacio son u ´tiles las bases ortogonales, veremos ahora c´omo se pueden obtener bases ortogonales de un espacio vectorial para un producto escalar general. M´ etodo para encontrar una base ortonormal en un espacio vectorial de dimensi´ on finita. Si la dimensi´on del espacio vectorial es 1, n=1 y dividiendo este vector por su m´odulo, tenemos una base ortonormal. Supondremos en lo que sigue que la dimensi´on del espacio es mayor que 1. Sea x1 = (x11 , x12 , ..., x1n ) un vector cualquiera no nulo del espacio vectorial V n . Otro vector y = (y1 , y2 , ...yn ) es ortogonal a x1 si y s´olo si   x11  x12   (y1 , y2 , ..., yn )G   ...  = 0 x1n donde G es la matriz del producto escalar. Al hacer el producto de G por la columna de x1 , obtenemos una columna (a11 , a12 , ...a1n )t no nula debido a que la aplicaci´on h(x) = Gx es un isomorfismo. Al hacer el producto total, obtenemos una ecuaci´on:    (y1 , y2 , ..., yn )  

a11 a12 .. .





     = a11 y1 + a12 y2 + ... + a1n yn = 0 donde   

a1n

a11 a12 .. . a1n





     = G  

x11 x12 .. .

    

x1n

Siempre podemos encontrar un vector no nulo x2 que satisfaga esta ecuaci´on si la dimensi´on del espacio, y por tanto, el n´ umero de inc´ognitas es superior o igual a dos. Este vector es ortogonal a x1 . 232

Se puede demostrar que vectores ortogonales son independientes usando la bilinealidad del producto escalar, por tanto x2 es independiente de x1 . Si la dimensi´on del espacio es dos, ya tenemos una base ortogonal de la que podemos obtener una base ortonormal dividiendo cada vector por su m´odulo. Si la dimensi´on del espacio es superior a dos, buscamos otro vector x3 , ortogonal a los dos vectores anteriores, x1 y x2 teniendo en cuenta que ha de verificar la ecuaci´on a11 y1 +a12 y2 +...+a1n yn = 0 por ser ortogonal a x1 y adem´as la an´aloga correspondiente al vector x2 : a21 y1 + a22 y2 + ... + a2n yn = 0. Estas dos ecuaciones son independientes debido a que los vectores coeficientes de las inc´ognitas son las im´agenes por el isomorfismo h de vectores independientes. Podemos encontrar el vector x3 6= 0 porque s´olo tiene que satisfacer dos ecuaciones con tres o m´as inc´ognitas. Los vectores {x1 , x2 , x3 } son independientes por ser ortogonales. Podemos seguir con el mismo procedimiento hasta obtener tantos vectores ortogonales dos a dos como sea el n´ umero de inc´ognitas, igual a la dimensi´on del espacio. Entonces tenemos una base ortogonal de la que sabemos pasar a una base ortonormal, dividiendo cada vector por su m´odulo, calculado usando la matriz G. Cuando estamos interesados en obtener una base ortogonal de un subespacio, distinto del espacio total, podemos seguir el mismo m´etodo, escogiendo un primer vector del subespacio y encontrando los vectores siguientes de forma que adem´as de satisfacer las ecuaciones de ortogonalidad, satisfagan las ecuaciones del subespacio. M´ etodo de ortogonalizaci´ on de Gram-Schmidt: Este m´etodo es interesante debido a la condici´on subrayada a continuaci´on. Dada una base {e1 , e2 , ...en } de un espacio vectorial eucl´ıdeo VRn , existe una base ortonormal {u1 , u2 , ..., un } tal que {u1 , u2 , ...ui } es una base ortonormal de L {e1 , e2 , ..., ei }. Construcci´on: En lo que sigue denotamos por x · y a f (x, y), producto escalar de dos vectores que puede ser no usual. Primero construimos una base ortogonal con la propiedad subrayada y despu´es dividimos cada vector por su m´odulo: La idea es: 1) Dejar e1 = v1 . 2) Considerar el espacio L{e1 , e2 }, que es un plano, y dentro de ´el modificar e2 para que llegue a pertenecer al subespacio ortogonal a v1 en L{e1 , e2 } = L{v1 , e2 }. 233

Ser´ıa: v2 = e2 + α21 v1 cumpliendo v2 · v1 = 0. Ha de ser 0 = (e2 + α21 v1 ) · v1 = e2 · v1 + α21 v1 · v1 Para ello es suficiente con que α21 = −

e 2 · v1 v1 · v1

Esta operaci´on es posible porque v1 · v1 > 0. El vector v2 obtenido es distinto de cero porque {e2 , v1 } son independientes y su coeficiente en e2 es 1. Al mismo tiempo L{v1 , v2 } = L{v1 , e2 } = L{e1 , e2 } 3) Considerar el espacio L{e1 , e2 , e3 } y modificar e3 dentro de ´el para que quede ortogonal a los dos vectores v1 y v2 obtenidos, llev´andolo al subespacio ortogonal a L{v1 , v2 } dentro de L{e1 , e2 , e3 } = L{v1 , v2 , e3 }. Ser´ıa ahora v3 = e3 + α32 v2 + α31 v1 Como queremos que v3 · v1 = 0, y v3 · v2 = 0, ha de ser 0 = (e3 + α32 v2 + α31 v1 ) · v1 = e3 · v1 + α32 v2 · v1 + α31 v1 · v1 Tambi´en, 0 = (e3 + α32 v2 + α31 v1 ) · v2 = e3 · v2 + α32 v2 · v2 + α31 v1 · v2 Como v2 · v1 = 0, es: e3 · v1 e3 · v2 , α32 = − v1 · v1 v2 · v2 Esta operaci´on es posible porque tambi´en v2 · v2 > 0 por ser v2 6= 0. El vector v3 obtenido es distinto de cero porque {e3 , v1 , v2 } son independientes. Al mismo tiempo L{v1 , v2 , v3 } = L{v1 , v2 , e3 } = L{e1 , e2 , e3 } α31 = −

4) Con la misma idea seguimos calculando los vi : Una vez obtenidos {v1 , v2 , ...vi−1 }, todos distintos de cero, para obtener vi tenemos en cuenta que ha de ser vi = ei + αi,i−1 vi−1 + .... + αi,1 v1 Y como vi · vj = 0 ∀j < i, tenemos para cada j: 234

0 = (ei + αi,i−1 vi−1 + ... + αi,j vj + ... + αi1 v1 ) · vj = ei · vj + αi,i−1 vi−1 · vj ... + αij vj · vj + ... + αi1 v1 · vj que queda reducido a 0 = ei · vj + αij vj · vj

∀j

de donde αij = −

ei · vj vj · vj

∀j

As´ı se determinan todos los {αij }j∈{1...i−1} y por tanto, todos los {vi }i∈{1...n} . Obs´ervese que todos los vi son distintos de cero porque los ei son independientes de los {v1 , ..., vi−1 }. Una base ortonormal est´a formada por los vectores {ui = vi /kvi k}i∈{i,...,n} . Las f´ormulas de los αij tienen denominadores que a su vez dan denominadores en los vi , que luego pueden ir complicando los c´alculos. Para que no se d´e esta complicaci´on, como lo que nos interesa de los vi es que sean ortogonales a todos los anteriores, y eso se cumple para cualquier m´ ultiplo de los vectores vi obtenidos, podemos quitar los denominadores en el momento de ser obtenidos, multiplicando adecuadamente, lo cual simplifica los c´alculos posteriores.

Observemos que a veces, las propiedades de los espacios vectoriales y de las aplicaciones lineales se obtienen utilizando bases. Utilizando una base ortonormal, (que hemos visto que podemos encontrar) en un espacio vectorial real de dimensi´on finita con producto escalar general, este producto escalar se expresa en dicha base ortonormal por la misma expresi´on que el producto escalar usual en la base can´onica, por tanto, todas las propiedades y c´alculos que hemos hecho anteriormente con el producto escalar usual son transferibles al producto escalar general. Ejercicios. 7.12.1. Hallar bases ortonormales de R3 y R4 para los productos escalares de los ejercicios 7.9.1 y 7.9.2 anteriores, respectivamente. 7.12.2. a) Encontrar una base ortogonal respecto al producto escalar del ejercicio 7.9.2 del subespacio de ecuaci´on x1 + x2 + x3 + x4 = 0.

235

b) Hallar la proyecci´on ortogonal para el mismo producto escalar, sobre el subespacio anterior del vector (1, 1, 1, 1) c) Hallar la distancia del punto del apartado b) al subespacio del apartado a) con el mismo producto escalar. d) Hallar la matriz de la proyecci´on ortogonal respecto al mismo producto escalar de R4 sobre el subespacio del apartado a). 7.12.3. Repetir los apartados del ejercicio anterior para R4 con el producto escalar del primer ejemplo de producto escalar no usual de este cap´ıtulo. 7.12.4. Se da en R3 un producto escalar no usual por x · y = x1 y1 + x1 y2 + x2 y1 + 2x2 y2 + x2 y3 + x3 y2 + 3x3 y3 . Se define la simetr´ıa ortogonal correspondiente a un producto escalar respecto a un subespacio U de R3 como SU (y) = PU (y) − PU ⊥ (y). (PU y PU ⊥ son las proyecciones ortogonales correspondientes). a) Hallar el vector sim´etrico ortogonal con el producto escalar dado del vector (1,0,1) respecto al plano de ecuaci´on x2 + x3 = 0. b) Hallar la distancia del extremo del vector (1,0,1) al extremo del vector sim´etrico con este producto escalar. 7.12.5. a) Modificar la base can´onica por el m´etodo de ortogonalizaci´on de Gram-Schmidt para obtener una base ortonormal para el producto escalar: f (x, y) = x · y = (x1 + x2 )(y1 + y2 ) + (x1 + x3 )(y1 + y3 ) + (x2 + x3 )(y2 + y3 ) b) Dada la base {(1, 1, 0), (4, −2, 0), (1, 5, 5)} construir a partir de ella una base ortonormal de R3 utilizando el m´etodo de ortogonalizaci´on de Gram-Schmidt para el producto escalar dado. c) Hallar una base ortonormal para el producto escalar anterior del subespacio M de R3 de ecuaci´on x1 + 2x2 + 3x3 = 0, tambi´en por el m´etodo de Gram-Schmidt. 7.12.6. Dada la cadena de subespacios vectoriales U1 ⊂ U2 ⊂ U3 ⊂ R4 , de ecuaciones:   x1 +x2 +x3 +x4 = 0  x1 +x2 +x3 +x4 = 0 2x1 +x3 =0 x1 +x2 +x3 +x4 = 0 2x1 +x3 =0  2x2 +x4 = 0 Utilizar el m´etodo de Gram-Schmidt para obtener una base ortonormal respecto al producto escalar usual de R4 : {u1 , u2 , u3 , u4 } tal que L{u1 , · · · , ui } = Ui . 7.12.7. Sea U = L{(−1, 0, −1, 0, 1), (0, 1, 1, 0, −1), (1, 1, 0, 1, −1)} ⊂ R5 . a) Hallar la matriz en la base dada de U de la restricci´on del producto escalar usual a dicho subespacio. 236

b) Obtener una base ortogonal de U para el producto escalar usual de R5 , utilizando el m´etodo de ortogonalizaci´on de Gram-Schmidt y la matriz hallada en a). c) Hallar una base ortogonal de R5 para el producto escalar usual, que contenga a la base de U obtenida en b). 7.12.8. Sea U = L{(−1, 0, −1, 0, 1), (0, 1, 1, 0, −1), (1, 1, 0, 1, −1)} ⊂ R5 . Consideremos en R5 el producto escalar dado por la matriz:   1 2 1 0 0  2 5 0 1 1     1 0 6 0 0     0 1 0 6 1  0 1 0 1 22 a) Hallar la matriz en la base dada de U de la restricci´on del producto escalar usual a dicho subespacio. b) Obtener una base ortogonal de U para el producto dado en R5 , utilizando el m´etodo de ortogonalizaci´on de Gram-Schmidt y la matriz hallada en a). c) Hallar una base ortogonal de R5 para el producto escalar dado que contenga a la base de U obtenida en b).

237

Ortogonalidad en un espacio eucl´ıdeo general. En R3 , adem´as de la ortogonalidad o perpendicularidad, tenemos ´angulos. Tambi´en veremos que los ´angulos se pueden definir en un espacio eucl´ıdeo general: La relaci´on entre el producto escalar usual de R3 y los a´ngulos es x · y = kxkkykcosα, donde α es el ´angulo que forman los vectores x e y. Se demuestra utilizando el teorema de Pit´agoras. Una vez demostrado esto en R3 con el producto escalar usual, veremos c´omo se generaliza a un espacio vectorial con un producto general. Dados dos vectores x e y, el vector y − x determina con x e y un tri´angulo, siendo el lado opuesto del ´angulo de lados x e y, Sea α el ´angulo que forman x e y. B   B B      

y

y− x   

 $   α x  

B Bkyksenα B B B B B     B

  kykcosα − kxk     1 

Entonces, utilizando el teorema de Pit´agoras, tenemos: ky − xk2 = (kykcosα − kxk)2 + (kyksenα)2 = kyk2 cos2 α + kxk2 − 2kxkkykcosα + kyk2 sen2 α = = kyk2 + kxk2 − 2kxkkykcosα desarrollando el primer miembro, tenemos: y · y − 2y · x + x · x = y · y + x · x − 2kxkkykcosα donde simplificando, sale: 238

x · y = kxkkykcosα. de donde

x·y kxkkyk y como el coseno de un a´ngulo es siempre de valor absoluto menor o igual que 1, tomando valores absolutos tenemos: |x · y| ≤ kxkkyk cosα =

Para generalizar el concepto de a´ngulo entre dos vectores en un espacio vectorial con un producto escalar f general veremos que tambi´en se cumple la desigualdad: |f (x, y)| ≤ kxkkyk p p donde kxk = f (x, x) y kyk = f (y, y), llamada desigualdad de Schwarz, defini´endose entonces en general: f (x, y) cosα = kxkkyk Demostraci´on de la desigualdad de Schwarz: Veremos primero el teorema de Pit´agoras generalizado: Si x = y + z, siendo f (y, z) = 0, se tiene f (x, x) = f (y, y) + f (z, z), ya que f (x, x) = f (y + z, y + z) = f (y, y) + f (y, z) + f (z, y) + f (z, z) = f (y, y) + f (z, z) Ahora, siguiendo Axler [Ax], sean x e y dos vectores distintos no nulos, el vector w = x − es ortogonal a y y se verifica x = f (x, x) = (

f (x,y) y f (y,y)

f (x,y) y f (y,y)

+ w; entonces, por el teorema de Pit´agoras generalizado,

f (x, y) 2 f (x, y)2 f (x, y)2 ) f (y, y) + f (w, w) ≥ f (y, y) = f (y, y) f (y, y)2 f (y, y)

de donde |f (x, y)| ≤

p p f (x, x) f (y, y) = kxkkyk

Por este motivo se pueden medir ´angulos en un espacio eucl´ıdeo no usual definiendo cos(´ ang(x, y)) =

239

f (x, y) . kxkkyk

Proposici´ on: El m´odulo definido por un producto escalar f verifica la Desigualdad Triangular: kx + yk ≤ kxk + kyk Demostraci´on: kx + yk2 = f (x + y, x + y) = f (x, x) + 2f (x, y) + f (y, y) ≤ f (x, x) + 2|f (x, y)| + f (y, y) ≤ ≤ kxk2 + 2kxkkyk + kyk2 = (kxk + kyk)2 La desigualdad triangular permite comprobar que el lado de un tri´angulo es menor o igual que la suma de los otros dos, ya que d(x, z) = kx − zk ≤ kx − yk + ky − zk = d(x, y) + d(y, z) Ejercicios: 7.13.3. Demostrar que la desigualdad de Schwarz es una igualdad si y s´olo si los vectores son proporcionales. 7.13.4. Demostrar que si x e y son dos vectores de un espacio eucl´ıdeo V , kx − yk ≥ |kxk − kyk|

240

Cambio de base. Hay algunos problemas en los que por las caracter´ısticas de la situaci´on es m´as conveniente utilizar otra base distinta de la can´onica (p. ej. porque se simplifica en otra base la expresi´on de alguna funci´on que estemos estudiando); conviene por ello obtener la expresi´on del producto escalar en la nueva base. Nos planteamos por eso, como se refleja el cambio de base en la matriz del producto escalar. Otras veces, debido a la simplificaci´on que suponen en los c´alculos las matrices diagonales, nos interesa cambiar a bases ortogonales u ortonormales y ver la relaci´on que hay entre la matriz del producto escalar y la matriz del cambio de base a una base ortonormal. Cambio de base en la Expresi´ on Matricial de una forma bilineal. (de un producto escalar). Un cambio de base cambia la expresi´on del producto escalar de la siguiente forma: Sean {e1 , e2 , ...en } y {e01 , e02 , ..., e0n } dos bases del espacio vectorial V n sobre el que est´a definido el producto escalar. Sean x = (x1 , x2 , ..., xn ), y = (y1 , y2 , ...yn ) y x = (x01 , x02 , ..., x0n ), y = (y10 , y20 , ...yn0 ) expresados respectivamente en las dos bases. El producto escalar en forma matricial en las distintas bases ser´ıa:     y1 y10     (x1 , · · · , xn )G  ...  = x · y = (x01 , · · · , x0n )G0  ...  yn0 yn Las coordenadas de los vectores en las dos base:    x1 x01  x2   x0    2  ..  = C  ..  .   . xn x0n

bases est´an relacionadas por una matriz de cambio de 



  ; 

   

y1 y2 .. . yn





    =C  

y10 y20 .. . yn0

    

donde la matriz C tiene como columnas las coordenadas de los vectores de la base {e01 , e02 , ..., e0n } en la base {e1 , e2 , ...en }. Trasponiendo la columna de las coordenadas de x y sustituyendo en la primera expresi´on matricial del producto escalar las coordenadas de x y de y tenemos:

241

 y10  y20   x · y = (x01 , x02 , ..., x0n )C t GC   ...  ; yn0 

comparando las dos expresiones del producto escalar en la segunda base, tenemos: C t GC = G0

Hemos visto antes que aunque la base can´onica no sea ortonormal respecto a un producto escalar general, siempre podemos encontrar otra base ortonormal respecto al producto escalar dado, en la que su expresi´on es an´aloga a la del producto escalar usual. El hecho de que podamos obtener siempre una base ortonormal se traduce en que siempre hay una matriz C de cambio de base tal que C t GC = I. Y entonces, despejando, tenemos G = (C t )−1 C −1 , de donde se deduce que |G| = |(C t )−1 ||C −1 | = |(C −1 )t ||C −1 | = |C −1 |2 > 0; otra condici´on que necesariamente ha de cumplir G. Ejercicios: 7.14.1. Hallar la matriz del producto escalar usual de R3 en la base B = {(1, 1, 0), (2, 0, 1), (1, 1, 1)} a) Utilizando el cambio de base de la base can´onica a la base dada. b) Calculando directamente la matriz de la forma bilineal producto escalar en esta base. Comprobar que los dos m´etodos dan la misma soluci´on. 7.14.2. Hallar la matriz del producto escalar en la base B = {(1, 1, 0, 1), (2, 0, 1, 0), (1, 1, 1, 0), (1, 0, 0, 1)} de R4 dado en la base can´onica por x · y = x1 y1 + x1 y2 + x2 y1 + 2x2 y2 + 3x3 y3 + x3 y4 + x4 y3 + x4 y4 a) Utilizando el cambio de base de la base can´onica a la base dada. b) Calculando la matriz de la forma bilineal producto escalar en esta base. Comprobar que los dos m´etodos dan la misma soluci´on. 7.14.3. Sean u1 = (−2, −1, 1), u2 = (0, −1, 0), u3 = (1, −1, 0), tres vectores linealmente independientes de R3 . Se puede definir un producto escalar en R3 de manera que sea bilineal con la condici´on de que los tres vectores anteriores son una base ortonormal para ese producto escalar. Hallar la matriz de dicho producto escalar en la base can´onica de R3 . 242

Condiciones Necesarias y Suficientes para que una matriz corresponda a un Producto Escalar. Se puede comprobar que fijada una base de VRn , en la que las coordenadas de los vectores x e y son (x1 , x2 , ..., xn ) e (y1 , y2 , ..., yn ), la aplicaci´on f : VRn × VRn → R dada por:   y1  y2    f (x, y) = (x1 , x2 , ..., xn )A  ..   .  yn es una aplicaci´on bilineal, cualquiera que sea la matriz A, debido a la distributibidad y asociatividad del producto de matrices.    f (x + x0 , y) = (x1 + x01 , x2 + x02 , ..., xn + x0n )A  

y1 y2 .. .





     = [(x1 , x2 , ..., xn ) + (x01 , x02 , ..., x0n )]A   

yn    = (x1 , x2 , ..., xn )A  

y1 y2 .. .

     + (x01 , x02 , ..., x0n )A   

yn

   = 

yn 



y1 y2 .. .

y1 y2 .. .

    = f (x, y) + f (x0 , y). 

yn 

  f (αx, y) = (αx1 , αx2 , ..., αxn )A  

y1 y2 .. .





     = α[(x1 , x2 , ..., xn )A   

y1 y2 .. .

   ] = αf (x, y). 

yn

yn y an´ alogamente para la variable y.

Hemos visto que para que la forma bilineal determinada por G sea un producto escalar, G ha de ser sim´etrica; rec´ıprocamente, si la matriz A es sim´etrica, la forma bilineal determinada es sim´etrica: en efecto, se puede ver la simetr´ıa de la expresi´on anterior trasponiendo el n´ umero   y1  y2    (x1 , x2 , ..., xn )A  ..   .  yn 243

considerado como una matriz 1 × 1; entonces,    y1  y2     t  f (x, y) = (x1 , x2 , ..., xn )A  ..  = (y1 , y2 , ..., yn ) A   .   yn

x1 x2 .. . xn





     = (y1 , y2 , ..., yn )A   

x1 x2 .. .

    = f (y, x). 

xn

Hemos visto antes tambi´en que si la matriz corresponde a un producto escalar, todos los t´erminos de la diagonal son positivos y su determinante ha de ser distinto de cero. Se ve en el siguiente ejemplo que no es suficiente que la matriz sea sim´etrica, que los t´erminos de la diagonal sean positivos y que su determinante sea distinto de cero para que la forma bilineal sea definida positiva: sea    1 2 y1 f (x, y) = (x1 , x2 ) 2 1 y2 Calculemos f (x, x) = x21 + 4x1 x2 + x22 = (x1 + 2x2 )2 − 3x22 ; podemos coger el vector x = (−2, 1) y se tiene f (x, x) = −3 < 0, no siendo, por tanto, definida positiva. Esta forma bilineal no es un producto escalar porque el determinante de su matriz es negativo y hab´ıamos visto al final de la secci´on sobre cambio de base que ese determinante tiene que ser positivo. Sin embargo, se ve en el siguiente ejemplo que no es suficiente que el determinante de la matriz sea mayor que cero para que la forma bilineal determinada por ella sea definida positiva. Sea    2 −4 −2 y1 4 4   y2  f (x, y) = (x1 , x2 , x3 )  −4 −2 4 1 y3 Aunque el determinante de la matriz es 8, calculando f ((2, 1, 0), (2, 1, 0)) obtenemos −4, lo que indica que la forma bilinal correspondiente no es definida positiva. Nos planteamos por ello, la pregunta: ¿Cu´ales son las condiciones necesarias y suficientes que ha de cumplir una matriz para que la forma bilineal correspondiente sea un producto escalar? La condici´on necesaria y suficiente para que una matriz sim´etrica determine un producto escalar la da el Criterio de Sylvester: La matriz G determina un producto escalar en cualquier base si y s´olo si es sim´etrica y todos sus menores angulares superiores izquierdos tienen determinante positivo.

244

Demostraci´on: Primero, observemos que si G proviene de un producto escalar, al tener siempre ´este una base ortonormal, existe una matriz C de cambio de base tal que C t GC = I, por lo que G = (C t )−1 C −1 , donde C es una matriz con determinante distinto de cero, entonces, |G| = |(C t )−1 ||C −1 | = |C −1 |2 > 0. Despu´es, observemos que la restrici´on de un producto escalar a un subespacio es tambi´en un producto escalar en dicho subespacio, y que de ser G la matriz de un producto escalar en un espacio vectorial de base {e1 , e2 , · · · , en }, esta restrici´on al subespacio L{e1 , e2 , · · · , ei } vendr´ıa dada por la submatriz angular superior izquierda de G formada por la intersecci´on de las i primeras filas y de las i primeras columnas (que escribimos Gii ). Entonces ha de ser tambi´en |Gii | > 0 ∀i. Pues vamos a demostrar que esta condici´on necesaria es tambi´en suficiente para que el producto f dado por la matriz G, sim´etrica, en cualquier base {e1 , e2 , · · · , en } sea definido positivo. La forma bilineal f dada por G es sim´etrica por serlo G. Luego, para demostrar la segunda parte del teorema, veremos que podemos construir a partir de la base {e1 , e2 , · · · , en } otra base {e01 , e02 , ..., e0n } tal que 1)f (e0i , e0j ) = 0 si i 6= j 2)f (e0i , e0i ) = αii > 0 ∀i en la cual, si (x01 , x02 , ..., x0n ) son las coordenadas de x en la nueva base, se tiene f (x, x) = α11 (x01 )2 + α22 (x02 )2 ... + αnn (x0n )2 ≥ 0 lo que muestra que la forma cuadr´atica es definida positiva porque todos los αii son mayores que cero. Para construir la base {e01 , e02 , ..., e0n } veremos que es suficiente encontrar  a) f (e0i , ej ) = 0 ∀j < i 0 ei = αi1 e1 + ... + αij ej + ... + αii ei tales que b) f (e0i , ei ) = 1 ∀i donde los {e1 , e2 , · · · , en } son la base de partida. En efecto, entonces, si j < i,

f (e0i , e0j )

=

f (e0i ,

j X

αjk ek ) =

1

j X

f (e0i , ej ) = 0,

1

tambi´en f (e0i , e0j ) = f (e0j , e0i ) = 0, si j > i por simetr´ıa y f (e0i , e0i ) = f (e0i ,

i X

αjk ek ) = αii f (e0i , ei ) = αii

1

245

El hecho de que los αii sean todos positivos se sigue despu´es del procedimiento utilizado para encontrarlos. Para encontrar los vectores e0i que seg´ un lo dicho anteriormente son: e01 = α11 e1 e02 = α21 e1 + α22 e2 .. .. . = . 0 ei = αi1 e1 + ... + αij ej + ... + αii ei vemos que para e01 debe ser: α11 =

1 f (e1 , e1 )

Para que se cumpla a) y b) para e0i debe ser: f (αi1 e1 + ... + αij ej + ... + αii ei , e1 ) = 0 f (αi1 e1 + ... + αij ej + ... + αii ei , e2 ) = 0 .......... f (αi1 e1 + ... + αij ej + ... + αii ei , ei ) = 1 Es decir, αi1 f (e1 , e1 ) + ... + αij f (ej , e1 ) + ... + αii f (ei , e1 ) αi1 f (e1 , e2 ) + ... + αij f (ej , e2 ) + ... + αii f (ei , e2 ) ........... αi1 f (e1 , ei ) + ... + αij f (ej , ei ) + ... + αii f (ei , ei )

=0 =0 =0 =1

      

Este es un sistema no homog´eneo en las αij cuya matriz de coeficientes es el menor angular superior izquierdo de dimensi´on i, de la matriz considerada G; su determinante es distinto de cero porque |Gii | > 0, y por tanto, existe soluci´on para las αij pudiendo por tanto encontrar los vectores e0i que cumplen a) y b). Observando el sistema no homog´eneo y aplicando la regla de Cramer, vemos que αii =

|Gi−1,i−1 | >0 |Gii |

en las condiciones del teorema, con lo que hemos concluido la demostraci´on.

246

Ejercicios. 7.15.1. Las siguientes expresiones dan formas bilineales de R2 . Determinar cu´ales de ellas dan productos escalares utilizando el criterio de Sylvester. a) < x, y >= x1 y1 + 3x1 y2 + 3x2 y1 + 2x2 y2 . b) < x, y >= 2x1 y1 + 2x1 y2 + 2x2 y1 + 3x2 y2 . 7.15.2. Las siguientes expresiones dan formas bilineales de R3 . Determinar cu´ales de ellas dan productos escalares. a) < x, y >= x1 y1 + x2 y2 + x3 y3 − x1 y3 − x3 y1 − x2 y1 − x1 y2 . b) < x, y >= x1 y1 + x2 y2 + x3 y3 − 2x1 y3 − 2x3 y1 . c) < x, y >= 2x1 y1 − 2x1 y2 − 2x2 y1 + 3x2 y2 + 2x1 y3 + 2x3 y1 − 3x2 y3 − 3x3 y2 + 11x3 y3 . d) < x, y >= x1 y2 + x2 y1 + x2 y3 + x3 y2 . e) < x, y >= 2x1 y1 + x1 y2 + x2 y1 + 2x1 y3 + 2x3 y1 − 3x2 y3 − 3x3 y2 + 11x3 y3 f) < x, y >= x1 y1 + 2x2 y2 + 2x3 y3 − x1 y3 − x3 y1 + x2 y3 + x3 y2 .

247

Bibliograf´ıa: [A] J. Arves´ u Carballo, R. Alvarez Nodarse, F. Marcell´an Espa˜ nol. Algebra Lineal y aplicaciones. Ed. S´ıntesis. 1999. [Ax] S. Axler. Linear Algebra done right. Springer. 1997. [H] E. Hern´andez. Algebra y Geometr´ıa. Ed. Addison-Wesley/U.A.M. 1994. [L] D. C. Lay. Algebra Lineal y sus Aplicaciones. Ed. Prentice-Hall 2001. [S] G. Strang. Algebra Lineal y sus Aplicaciones Ed. Addison-Wesley Iberoamericana. 1990.

248

´ DE ENDOMORFISMOS. DIAGONALIZACION Aplicaciones autoadjuntas en espacios eucl´ıdeos y herm´ıticos, y aplicaciones unitarias en espacios herm´ıticos. Introducci´ on. Una aplicaci´on lineal definida en un espacio vectorial con imagen en el mismo espacio vectorial se llama endomorfismo. Utilizaremos a partir de ahora la palabra endomorfismo por razones de brevedad. La expresi´on matricial de un endomorfismo de un espacio vectorial depende de la base escogida. La matriz correspondiente es una matriz cuadrada. Al hacer un cambio de base la matriz cambia y puede llegar a ser m´as sencilla. La interpretaci´on geom´etrica de los endomorfismos con matrices diagonales es m´as f´acil. Puede ser una proyecci´on, una simetr´ıa, una composici´on de dilataciones y contracciones seg´ un determinadas direcciones. Nos planteamos por ello el problema de encontrar una base en la que la matriz de dicha expresi´on matricial sea diagonal. Diagonalizar un endomorfismo es encontrar una base del espacio vectorial en el que la matriz correspondiente es diagonal. No todos los endomorfismos son diagonalizables. Las distintas matrices que corresponden a un endomorfismo al cambiar de base est´an relacionadas de la forma siguiente: Si A y A0 corresponden al mismo endomorfismo en distintas bases, A0 = C −1 AC donde C (la matriz del cambio de base) es una matriz con determinante distinto de cero. Estas matrices se llaman equivalentes. Si un endomorfismo es diagonalizable, existe una matriz diagonal equivalente a la matriz del endomorfismo. Diagonalizar una matriz es encontrar una matriz diagonal equivalente a la dada. No todas las matrices son diagonalizables. Si una matriz es diagonalizable, el endomorfismo expresado por dicha matriz (en cualquier base) es diagonalizable. En efecto, si dada la matriz A, existe una matriz C de cambio de base tal que C −1 AC = D, el endomorfismo expresado por la matriz A en la base B = {e1 , e2 , ..., en } es diagonalizable, porque este endomorfismo se expresa por la matriz diagonal D en la base B = {u1 , u2 , ..., un } = {e1 , e2 , ..., en }C. Entonces, el endomorfismo expresado por la misma 0 matriz A en otra base B 0 = {e01 , e02 , ..., e0n } se expresa tambi´en por D en la base B = {u01 , u02 , ..., u0n } = {e01 , e02 , ..., e0n }C puesto que el cambio de base viene dado por la misma matriz C.

Las operaciones con el endomorfismo que se hacen utilizando su matriz, p. ej., sus potencias, se hacen m´as f´acilmente con una matriz diagonal ya que las potencias de matrices diagonales se pueden hallar m´as f´acilmente. Respecto al c´alculo de las potencias de matrices, se observa que si 249

C −1 AC = D, A = CDC −1 , por lo que An = CDC −1 CDC −1 · · · CDC −1 = CDn C −1 calculable de manera relativamente f´acil ya que Dn es una matriz diagonal cuyos elementos diagonales son las potencias de los elementos diagonales de D. Veremos como ejemplos de endomorfismos diagonalizables, las aplicaciones autoadjuntas de un espacio eucl´ıdeo o herm´ıtico y las aplicaciones unitarias de un espacio herm´ıtico. Ejemplos de matrices diagonalizables son las matrices sim´etricas. En un tema posterior veremos que en los casos en que el endomorfismo de un espacio vectorial sobre el cuerpo de los n´ umeros complejos, si la matriz correspondiente no es diagonalizable, existe una matriz relativamente f´ acil equivalente a la dada llamada matriz de Jordan, que tambi´en simplifica los c´alculos.

Nuestro objetivo ahora es encontrar condiciones necesarias y suficientes para que un endomorfismo o an´alogamente una matriz sea diagonalizable. Empezamos dando las siguientes definiciones: Vectores propios y valores propios. Observemos que si    D= 

λ1 0 · · · 0 0 λ2 · · · 0 .. .. . . .. . . . . 0 0 · · · λn

    

es la matriz que corresponde a un endomorfismo en la base B = {v1 , v2 , ..., vn }, los vectores vi son distintos de cero y f (vi ) = λi vi ∀i. Esta es la motivaci´on de las siguientes definiciones: Definici´ on 1: Se llama vector propio de un endomorfismo f de un espacio vectorial V sobre un cuerpo K a un vector v 6= 0 que verifica f (v) = λv para alg´ un λ ∈ K. Definici´ on 2: Se llama valor propio de un endomorfismo f de un espacio vectorial sobre un cuerpo K a un elemento λ ∈ K tal que existe v ∈ V , v 6= 0, verificando f (v) = λv. Las definiciones an´alogas se pueden dar para una matriz. Definici´ on 3: Se llama vector propio de una matriz A ∈ Mn×n (K) con elementos de un cuerpo K, a un vector v 6= 0 de K n que verifica Av = λv para alg´ un λ ∈ K. Definici´ on 4: Se llama valor propio de una matriz A ∈ Mn×n (K) con elementos de un cuerpo K, a un elemento λ ∈ K tal que existe v ∈ K n , v 6= 0 verificando Av = λv.

250

Primera condici´ on necesaria y suficiente para que el endomorfismo sea diagonalizable. Observando que la matriz del endomorfismo de un espacio vectorial es diagonal si y s´olo si los vectores de la base son vectores propios tenemos que la existencia de una base de vectores propios, es decir, la existencia de un n´ umero de vectores propios independientes igual a la dimensi´on del espacio vectorial, es la inmediata condici´on necesaria y suficiente para que el endomorfismo sea diagonalizable. No es necesario llegar hasta hallar una base de vectores propios si lo que queremos es solamente saber si el endomorfismo es diagonalizable ya que tenemos: Lema 1: Vectores propios correspondientes a valores propios distintos son independientes. Demostraci´on: La haremos por inducci´on. En el caso en que hay s´olo un valor propio, un s´olo vector propio correspondiente a dicho valor es independiente por ser distinto de cero. Consideremos ahora dos vectores propios v1 , v2 correspondientes a dos valores propios distintos λ1 6= λ2 de un endomorfismo f . Sea α1 v1 + α2 v2 = 0 una combinaci´on lineal nula de estos dos vectores. Entonces, por ser f una aplicaci´on lineal, f (α1 v1 + α2 v2 ) = α1 f (v1 ) + α2 f (v2 ) = α1 λ1 v1 + α2 λ2 v2 = 0. Adem´as, multiplicando por λ2 la expresi´on de la combinaci´on lineal, tenemos: α1 λ2 v1 + α2 λ2 v2 = 0. Restando las expresiones finales, tenemos: α1 (λ1 −λ2 )v1 = 0, de donde, como v1 6= 0 y λ1 −λ2 6= 0, ha de ser α1 = 0, sustituyendo este valor en la combinaci´on lineal dada se obtiene α2 v2 = 0, que como v2 es vector propio, implica α2 = 0, por tanto, los dos vectores son independientes. Suponiendo cierto que n−1 vectores propios correspondientes a n−1 valores propios distintos son independientes, demostraremos que n vectores propios correspondientes a n valores propios distintos son independientes. Sean v1 , v2 , · · · , vn−1 , vn , n vectores propios correspondientes a λ1 , λ2 , · · · , λn−1 , λn , n valores propios distintos. De forma an´aloga a la realizada cuando son dos los vectores propios correspondientes a valores propios distintos, consideremos una combinaci´on lineal α1 v1 + α2 v2 + · · · + αn−1 vn−1 + αn vn = 0;

251

por ser f una aplicaci´on lineal, f (α1 v1 + α2 v2 + · · · + αn−1 vn−1 + αn vn ) = α1 f (v1 ) + α2 f (v2 ) + · · · + αn−1 f (vn−1 ) + αn f (vn ) = α1 λ1 v1 + α2 λ2 v2 + · · · + αn−1 λn−1 vn−1 + αn λn vn = 0 Multiplicando ahora la combinaci´on lineal considerada por λn , tenemos α1 λn v1 + α2 λn v2 + · · · + αn−1 λn vn−1 + αn λn vn = 0 Restando las dos u ´ltimas expresiones, se obtiene α1 (λ1 − λn )v1 + α2 (λ2 − λn )v2 + · · · + αn−1 (λn−1 − λn )vn−1 = 0 En la hip´otesis de que la proposici´on es cierta para n − 1 vectores, ya que λi − λn 6= 0, ∀i, la u ´ltima igualdad implica que α1 = α2 = αn−1 = 0; sustituyendo estos valores en la combinaci´on lineal dada, obtenemos αn vn = 0, que como vn 6= 0 implica tambi´en αn = 0. Por tanto, los n vectores propios considerados son independientes. Corolario 1: Si un endomorfismo de un espacio vectorial de dimensi´on n tiene n valores propios distintos es diagonalizable. Demostraci´on: Por el lema, el endomorfismo tiene n vectores propios independientes, es decir, una base de vectores propios. Nos interesa, pues, ver c´omo se calculan los valores propios para ver si son todos distintos. Seg´ un la definici´on de valor propio, λ es valor propio de f si y s´olo si existe x 6= 0 tal que f (x) = λx, es decir, si existe x 6= 0 tal que (f − λI)x = 0 o lo que es lo mismo, si existe x 6= 0, x ∈ ker(f − λI). M´as detalladamente, para poder hacer c´alculos tomamos una base B = {u1 , · · · , un } del espacio vectorial en el que estamos trabajando, en la que las coordenadas de un vector x sean (x1 , · · · , xn ) y la matriz de f en dicha base sea A. Entonces, las coordenadas de f (x) son:   x1   f (x) ≡ A  ...  , xn teni´endose, por tanto que

252



  x1    f (x) = λx ⇐⇒ A  ...  = λ  xn

  x1 ..  = λI   .  xn

  x1 ..  ⇐⇒ (A − λI)   .  xn

 x1 ..  = 0. .  xn

Desarrollando la u ´ltima expresi´on matricial obtenemos las ecuaciones cartesianas del ker(f − λI) para las coordenadas de x en la base B. Para que λ sea valor propio, este sistema homog´eneo de ecuaciones ha de tener como soluci´on al menos un vector v 6= 0 (vector propio). Como la matriz de los coeficientes de las inc´ognitas de este sistema es A − λI, λ es valor propio de f ⇐⇒ |A − λI| = 0 ⇐⇒ λ es raiz de |A − λI|. El polinomio |A − λI| se llama polinomio caracter´ıstico y la ecuaci´on |A − λI| = 0 se llama ecuaci´on caracter´ıstica del endomorfismo f y de la matriz A. Ejemplo 1. Consideremos el endomorfismo de R2 dado en la base can´onica por la matriz  1 1  2 1 2

Sus valores propios son los que verifican  1 1  0 = 21 21 − λI = 2

2 1 2

1 2

−λ

2

1 2

1 2

= −λ + λ2 . −λ 1 2

Tiene dos valores propios distintos que son λ1 = 0 y λ2 = 1 y por ello es diagonalizable. Con el objetivo de hallar la base que lo diagonaliza, hallamos los vectores propios correspondientes a los dos vectores propios distintos, que por ello ser´an una base de vectores propios de R2 . Correspondiente a λ = 1, v = (v1 , v2 ) ser´a vector propio si  1 1      1     1 v1 v1 −1 v1 0 2 2 2 2 = ≡ f (v) = 1 · v ≡ = 1 1 1 1 v2 v2 −1 v2 0 2 2 2 2 o lo que es lo mismo, −v1 + v2 = 0, luego, (1, 1) es vector propio para el valor propio λ = 1. Puede comprobarse que para el valor propio λ = 0, el vector (1, −1) es vector propio. Los vectores: {(1, 1), (1, −1)} son dos vectores propios independientes que por ello forman una base de R2 en la que la matriz del endomorfismo es diagonal:   1 0 0 0 253

Ya que la matriz diagonal a la que hemos llegado y la matriz dada corresponden al mismo endomorfismo en distintas bases, est´an relacionadas por el cambio de base entre dichas bases en R2 : compru´ebese que: 

1 0 0 0



 =

1 1 1 −1

−1 

1 2 1 2

1 2 1 2



1 1 1 −1



Una disgresi´on no necesaria para entender el resto del tema es la interpretaci´on geom´etrica que se puede hacer del endomorfismo del ejemplo: los vectores de la recta engendrada por (1, 1) quedan fijos, los vectores de la recta (1, −1) se aplican en el cero. Cada vector puede descomponerse en suma de dos vectores contenidos en cada una de las rectas anteriores. Como la aplicaci´on es lineal, la imagen de cada vector es la suma de las im´agenes de los vectores sumandos, que se reduce al sumando contenido en la recta engendrada por (1, 1). Al ser las dos rectas consideradas perpendiculares, este sumando es la proyecci´on ortogonal del vector sobre esa recta. La aplicaci´on que nos dieron es la proyecci´on ortogonal sobre la recta de vectores fijos, que es en este caso, la diagonal del primer y tercer cuadrante. Otra aplicaci´on de la diagonalizaci´on al c´alculo de potencias de una matriz en este caso es la comprobaci´on de que la matriz dada en este ejemplo elevada a cualquier potencia coincide con la matriz dada. Ello se sigue de que cualquier potencia de la matriz diagonal correspondiente coincide con ella misma. Los valores propios se llaman tambi´en autovalores y los vectores propios, autovectores. Los valores propios de un endomorfismo de un espacio vectorial real han de ser n´ umeros reales, mientras que los valores propios de un endomorfismo de un espacio vectorial complejo pueden ser complejos, a´ un cuando la matriz correspondiente sea de n´ umeros reales. Ejercicios: 8.1.1. Comprobar que son diagonalizables los endomorfismos de R2 dados en la base can´onica por las matrices:         5 6 1 −2 5 −2 −5 2 a) b) c) d) −3 −4 1 4 6 −2 −6 2 Hallar tambi´en bases que diagonalicen a los endomorfismos. Escribir la matriz de cambio de base desde la base can´onica a la base diagonalizante y la relaci´on matricial entre la matriz dada y la diagonal. 8.1.2. Calcular la potencia de orden 10 de las matrices del ejercicio 8.1.1. 254

8.1.3. Se celebran unas elecciones en un pa´ıs en el que s´olo hay dos partidos, el conservador y el progresista. En un determinado a˜ no cuarenta por ciento del electorado votaron al partido progresista y sesenta por ciento del electorado votaron al conservador. Cada mes que va pasando los progresistas conservan exactamente un 80 por ciento del electorado perdiendo el resto y los conservadores conservan exactamente un 70 por ciento perdiendo el resto. ¿C´ ual es la distribuci´on del electorado tres a˜ nos despu´es? 8.1.4. Averiguar si son diagonalizables los endomorfismos de R3 dados en la base can´onica por las matrices: 

       0 −1 0 −1 2 1 2 −1 −2 1 −1 1 1 −1  b)  2 −1 1  c)  2 −1 −2  d)  1 −1 −1  a)  −1 0 −1 0 −1 1 −2 1 −1 −1 1 −1 −1 Hallar tambi´en bases que diagonalicen a los endomorfismos. Escribir la matriz de cambio de base desde la base can´onica a la base diagonalizante y la relaci´on matricial entre la matriz dada y la diagonal. 8.1.5. Probar que toda matriz triangular (superior o inferior) con todos los elementos de su diagonal distintos es diagonalizable. 8.1.6. a) Demostrar que si λ es valor propio de f , λn es valor propio de f n . b) Si la base B = {e1 , e2 , ..., en } diagonaliza a f , diagonaliza tambi´en a cualquier potencia de f . 8.1.7. Mostrar que A15 es diagonalizable, cuando A es una de las matrices del ejercicio 8.1.4. ¿Cu´ales son las bases que diagonalizan A15 en cada uno de los casos? 8.1.8. a) Demostrar que una matriz A es invertible si y s´olo si todos sus valores propios son distintos de cero. b) Decidir c´ uales de las matrices del ejercicio 8.1.4. son invertibles a la vista de sus valores propios. c) Hallar, en el caso en que sean invertibles, las inversas de las matrices anteriores, usando la inversa de la diagonal D que diagonaliza a A. 8.1.9. Demostrar que si f es isomorfismo y λ es un valor propio suyo, λ−1 es valor propio de f −1 . 8.1.10. Demostrar que si f es un endomorfismo con valor propio λ1 , a) el endomorfismo f − λ1 I tiene el cero como valor propio. b) el endomorfismo f − aI tiene λ1 − a como valor propio. 8.1.11. Comprobar que los endomorfismos diagonalizables con un s´olo valor propio son m´ ultiplos de la identidad.

255

8.1.12. a)Comprobar que no es diagonalizable el endomorfismo de R2 dado por la matriz   1 −1 1 1 b) Observar, sin embargo, que s´ı es diagonalizable el endomorfismo de C 2 dado por la misma matriz. 8.1.13. Se defini´o una proyecci´on en el cap´ıtulo sobre espacio eucl´ıdeo. a) Comprobar que los n´ umeros 1 y 0 son valores propios de una proyecci´on. b) Demostrar que una proyecci´on no tiene m´as valores propios que el 1 y el 0 y es diagonalizable. c) Comprobar que cualquier potencia de una proyecci´on coincide con la proyecci´on. 8.1.14. Probar que si f es un endomorfismo de V n con n valores propios distintos, y g es otro endomorfismo de V n que conmuta con f , todo autovector de f lo es de g y por eso g es diagonalizable. 8.1.15. Demostrar que todo valor propio de la potencia de orden m de una matriz, de n´ umeros reales o complejos, es potencia de orden m de alg´ un valor propio de la matriz (real o complejo).

256

No es necesario que haya n valores propios distintos para que un endomorfismo de un espacio vectorial de dimensi´on n sea diagonalizable. (La condici´on dada anteriormente en el corolario es suficiente pero no necesaria). Podemos debilitar esa condici´on: Segunda condici´ on necesaria y suficiente para que el endomorfismo sea diagonalizable. Proposici´ on 1: Un endomorfismo de un espacio vectorial V n es diagonalizable si y s´olo si la suma de las dimensiones de los subespacios de vectores propios correspondientes a cada valor propio es igual a la dimensi´on del espacio. Demostraci´on: Sean λ1 , ..., λi , ..., λm los valores propios de un endomorfismo f . Llamando E(λi ) = Ker(f −λi I), (subespacio de vectores propios para λi ), se tiene que si λi 6= λj , E(λi ) ∩ E(λj ) = {0}. Por tanto, si λi 6= λj , E(λi ) + E(λj ) = E(λi ) ⊕ E(λj ) y como tambi´en ∀i, E(λi ) ∩ (E(λi−1 ) ⊕ E(λi−2 ) ⊕ ... ⊕ E(λ1 )) = {0}, E(λ1 ) + E(λ2 ) + · · · + E(λi ) + · · · + E(λm ) = E(λ1 ) ⊕ E(λ2 ) ⊕ · · · ⊕ E(λi ) ⊕ · · · ⊕ E(λm ) Si dimE(λ1 ) = n1 y {v11 , · · · , vn1 1 } son base de Eλ1 , dimE(λi ) = ni y {v1i , · · · , vni i } son base de Eλi y dimE(λm ) = nm y {v1m , · · · , vnmm } son base de Eλm , por ser la suma de estos subespacios directa, la dimensi´on de esta suma es la suma de las dimensiones y la uni´on de las bases de los subespacios sumandos es base del subespacio suma. Si la suma de las dimensiones de todos estos subespacios es la dimensi´on del espacio total, ´este coincide con el subespacio suma y una base de este u ´ltimo es tambi´en una base del espacio total. Entonces, {v11 , · · · , vn1 1 , · · · , v1i · · · , vni i · · · , v1m , · · · , vnmm } es base de vectores propios del espacio total que diagonaliza al endomorfismo, quedando demostrada la parte ”si” de la proposici´on. Para la parte ”s´olo si” basta observar que en el caso en que el endomorfismo es diagonalizable, la cantidad de vectores propios correspondiente a cada valor propio es la dimensi´on del n´ ucleo del correspondiente f −λi I y que la suma de todas estas cantidades es igual a la dimensi´on del espacio. Se llama multiplicidad geom´etrica de un valor propio λi a la dimensi´on del espacio ker(f − λi I). Con ello, la proposici´on anterior se enuncia: Un endomorfismo de un espacio vectorial V n es diagonalizable si y s´olo si la suma de las multiplicidades geom´etricas de sus valores propios es igual a la dimensi´on del espacio. Se da aqu´ı una f´ormula para obtener el polinomio caracter´ıstico de matrices 3 × 3: a11 − λ a12 a13 a a − λ a23 |A − λI| = 21 22 a31 a32 a33 − λ

a11 a12 a13 = a21 a22 − λ a 23 a31 a32 a33 − λ 257

−λ 0 0 + a21 a22 − λ a 23 a31 a32 a33 − λ

=

a11 a12 a11 a12 −λ 0 −λ 0 a a 0 0 13 13 a21 a22 a23 + 0 −λ 0 a23 + 0 −λ 0 + a21 a22 a31 a32 a33 − λ a31 a32 a33 − λ a31 a32 a33 − λ a31 a32 a33 − λ a11 a12 a13 a11 a12 a13 a11 a12 a13 a11 a12 a13 = a21 a22 a23 + a21 a22 a23 + 0 −λ 0 + 0 −λ 0 + a31 a32 a33 0 0 −λ a31 a32 a33 0 0 −λ −λ 0 −λ 0 −λ 0 −λ 0 0 0 0 0 a21 a22 a23 + a21 a22 a23 + 0 −λ 0 + 0 −λ 0 = a31 a32 a33 0 0 −λ a31 a32 a33 0 0 −λ a11 a12 a11 a13 a22 a23 + + )λ + (a11 + a22 + a33 )λ2 − λ3 |A| − ( a21 a22 a31 a33 a23 a33

=

Ejercicios: 8.2.1. a) Averiguar si son diagonalizables los endomorfismos de R3 dados en la base can´onica por las matrices:       −1 0 1 −1 0 −1 5 −1 −1 0  b)  −1 0 −1  c)  1 3 −1  a)  0 0 1 0 −1 1 0 1 1 −1 3       3 −2 2 −1 3 1 −1 −1 −2 2 1  d)  2 −1 2  e)  2 −2 −1  f )  1 −1 1 0 −2 −1 −2 1 0 2 b) Escribir la relaci´on entre las matrices dadas y las matrices diagonales correspondientes cuando son diagonalizables. c) Hallar la potencia de orden 5 de las matrices anteriores que sean diagonalizables. 8.2.2. La poblaci´on de un pa´ıs est´a repartida en tres regiones, A, B y C. En en momento actual, hay cuarenta por ciento de la poblaci´on en la regi´on A, cuarenta y cinco por ciento en la regi´on B y quince por ciento en la regi´on C. Cada mes que va pasando hay un flujo de poblaci´on entre las regiones en el que cada regi´on pierde el cuarenta por ciento de su poblaci´on, el cual se reparte por igual entre las otras dos regiones. ¿Cu´al es la distribuci´on de la poblaci´on dos a˜ nos despu´es? 8.2.3. En un pueblo hay tres panader´ıas, A, B, y C. Sus clientelas constituyen, respectivamente, el treinta, cincuenta y veinte por ciento de la poblaci´on total del pueblo. Al pasar cada mes hay cambio de clientela: la panader´ıa A pierde veinte por ciento de su clientela, pasando el quince por ciento a la panader´ıa B y el cinco por ciento a la panader´ıa C; la panader´ıa B pierde el treinta por ciento, 258

pasando el veinte por ciento a la panader´ıa A y el diez por ciento a la panader´ıa C; la panader´ıa C pierde el cuarenta por ciento, pasando veinte por ciento a la panader´ıa A y veinte por ciento a la panader´ıa B. ¿Cu´al es el reparto de la clientela al cabo de un a˜ no? 8.2.4. En un bosque hay una poblaci´on de depredadores y otra poblaci´on de presas devoradas por ellos. Cada medio a˜ no la poblaci´on de presas se reproduce en una proporci´on de 20 por ciento respecto a su poblaci´on existente, es devorada en una proporci´on de 10 por ciento respecto a la poblaci´on de depredadores y muere en una proporci´on de 10 por ciento respecto a su propia poblaci´on. Los depredadores se reproducen en una proporci´on de 40 por ciento respecto a la poblaci´on de presas y en una proporci´on de 10 por ciento respecto a la proporci´on de su poblaci´on existente muriendo tambi´en en una proporci´on de un 40 por ciento respecto a su poblaci´on. Probar que si la poblaci´on de presas es la mitad que la poblaci´on de depredadores, esta relaci´on se mantiene constante. Nota: Estos tres u ´ltimos problemas se llaman problemas de din´ amica de poblaciones. Se puede demostrar que a largo plazo la poblaci´on queda distribuida proporcionalmente al vector propio correspondiente al valor propio de mayor valor absoluto de la matriz de transici´on de una etapa a la siguiente: Supongamos por sencillez que la matriz A es 2 × 2 y tiene dos valores propios λ1 y λ2 con vectores propios v1 y v2 respectivamente, siendo |λ1 | > |λ2 |; entonces, como v1 , v2 son base, cualquiera que sea el vector v (de distribuci´on de la poblaci´on), se puede expresar: An (v) = An (α1 v1 + α2 v2 ) = α1 λn1 v1 + α2 λn2 v2 de donde

λ2 1 1 n A (v) = α1 v1 + α2 ( )n v2 por lo que limn→∞ n An (v) = α1 v1 n λ1 λ1 λ1

porque |λ1 | > |λ2 |, teni´endose que limn→∞ An (v) = λn1 α1 v1 , proporcional a v1 . quedando demostrado lo enunciado. Como todos los m´ ultiplos de un vector propio son vectores propios para el mismo valor propio, la igualdad anterior muestra que limn→∞ An (v) es un vector propio para el mismo valor propio cualquiera que sea v. Siendo adem´as An+1 (v) ≈ λ1 An (v), es decir, a largo plazo la poblaci´on tiende a quedar multiplicada por el valor propio λ1 . Si λ1 > 1 crece indefinidamente y si λ1 < 1 decrece y tiende a extinguirse. En los problemas en los que s´olo hay trasvase de poblaci´on de unas regiones a otras, la poblaci´on no crece ni decrece, por lo que el valor propio de mayor valor absoluto es 1. Y la poblaci´on tiende a distribuirse seg´ un el vector propio del valor propio 1.

259

Multiplicidad de los valores propios. La teor´ıa que sigue es para abreviar el c´alculo de las multiplicidades geom´etricas de algunos valores propios y est´a motivada por el estudio de la ecuaci´on caracter´ıstica. Definici´ on 5: Se llama polinomio caracter´ıstico de un endomorfismo f o de su matriz A, al determinante |A − λI|. Este es un polinomio de grado n en λ. Su definici´on depende de la matriz A que a su vez depende de la base escogida para expresar f pero puede demostrarse que en realidad, s´olo depende de f , es decir, que permanece constante al cambiar la base. En efecto, si A0 es la matriz de f en otra base, existe una matriz C de cambio de base tal que A0 = C −1 AC. La matriz C tiene inversa por corresponder a un cambio de base y tiene determinante distinto de cero. El polinomio caracter´ıstico de f , usando esta matriz ser´ıa |A0 − λI| = |C −1 AC − λI| = |C −1 AC − λC −1 C| = |C −1 (A − λI)C| = = |C −1 ||(A − λI)||C| = 1/|C||(A − λI)||C| = |(A − λI)| (por ser las matrices C y C −1 de n´ umeros e invertibles y por ello producto de matrices elementales y tener los determinantes de las matrices polinomiales, las mismas propiedades que las matrices de n´ umeros, respecto a la suma de filas (o de columnas), intercambio de filas (o de columnas) y multiplicaci´on por un n´ umero de una fila (o de una columna). Se puede comprobar que si n es el orden de A, |λI − A| = λn −

n X i=1

X aii aij aii λn−1 + aji ajj ij

n−2 λ + · · · + (−1)n |A|

siendo el coeficiente de λi , la suma de los menores diagonales de orden n − i, que tienen su diagonal en la diagonal de la matriz, multiplicada por (−1)n−i . Obs´ervese que |A − λI| = (−1)n |λI − A|. Al ser el polinomio caracter´ıstico un invariante de f (independiente de la base escogida), tambi´en son invariantes de f los coeficientes de las potencias de λ en cada uno de sus t´erminos y el t´ermino independiente. Este u ´ltimo es el determinante de A que por eso se llama tambi´en determinante de f . Otro invariante f´acil de calcular es el coeficiente de λn−1 que es la suma de los t´erminos de la diagonal de A multiplicada por (−1)n−1 . Como el signo s´olo depende de n, la suma de los t´erminos de la diagonal de A, que se llama traza de A, es tambi´en invariante de f .

260

Volviendo a los valores propios, cada uno de ellos es raiz λi de |A − λI| y tiene una multiplicidad algebraica αi , tal que |A − λI| = (λ − λi )αi q(λ), donde λi no es raiz de q(λ). Vamos a dar un lema que implica que la multiplicidad geom´etrica de los valores propios simples del endomorfismo (de multiplicidad algebraica 1) es tambi´en 1. Por lo que al comprobar si el endomorfismo verifica la condici´on enunciada en la proposici´on 1 para ser diagonalizable s´olo tendremos que hallar las dimensiones de los subespacios de vectores propios correspondientes a valores propios m´ ultiples. Demostramos el siguiente Lema 2: La multiplicidad geom´etrica de un valor propio λi es menor o igual que su multiplicidad algebraica. Una vez demostrado el lema, tendremos que la multiplicidad geom´etrica de los valores propios simples es 1, ya que por el lema es ≤ 1 pero como siempre hay por lo menos un vector propio para un valor propio, es tambi´en ≥ 1, deduci´endose que es 1. Demostraci´on del lema 2: Como el polinomio caracter´ıstico es independiente de la base utilizada para calcularlo, vamos a utilizar una base adaptada al resultado que queremos demostrar. Sea mi = dim ker(f − λi I); podemos entonces escoger {v1 , · · · , vmi } vectores propios independientes para el mismo valor propio λi y extender este conjunto independiente a una base de todo el espacio vectorial. Expresando f en esta base extendida, se obtiene una matriz as´ı:   ··· a1,n λi 0 · · · 0 a1,mi+1  0 λi · · · 0 a2,mi+1 ··· a2,n    . .   . . ... 0 · · · · · · · · · . .     A =  0 0 · · · λi ami ,mi+1 · · · ami ,n     0 0 · · · 0 ami+1 ,mi+1 · · · ami +1,n    .. .. .. ..   0 0 . 0 . . . 0 0 · · · 0 an,mi+1 ··· an,n y λi − λ 0 ··· 0 a1,mi +1 ··· a1,n 0 λ 0 a · · · a i − λ ··· 2,mi +1 2,n . . . .. .. .. 0 ··· ··· ··· 0 · · · λi − λ ami ,mi +1 ··· ami ,n = |A − λI| = 0 0 ··· 0 ami+1 ,mi+1 − λ · · · ami +1,n 0 .. .. .. .. 0 0 . 0 . . . 0 0 ··· 0 an,mi +1 · · · an,n − λ 261

am ,m − λ · · · am +1,n i+1 i+1 i . .. mi . .. .. = (λi − λ) . an,mi +1 · · · an,n − λ

= (λi − λ)mi q(λ)

donde q(λ) es un polinomio que podr´ıa tener λi como raiz. Entonces λi es raiz de |A − λI| de multiplicidad mayor o igual que mi = dim ker(f − λi I), por tanto, dim ker(f − λi I) ≤ αi c.q.d. Como por el teorema fundamental del a´lgebra, la suma de las multiplicidades algebraicas de las raices del polinomio caracter´ıstico (reales y complejas), es igual al grado del polinomio, (que en el caso del polinomio caracter´ıstico coincide con la dimensi´on del espacio vectorial), tambi´en se deduce del lema que si la matriz de un endomorfismo de un espacio vectorial real tiene valores propios complejos, el endomorfismo no es diagonalizable, porque la suma de las multiplicidades geom´etricas de los valores propios reales es menor o igual que la suma de las multiplicidades algebraicas de dichos valores propios, y ´esta suma s´olo llega a n sum´andole adem´as la multiplicidad de las raices complejas. Plante´andonos las causas por las que un endomorfismo puede no ser diagonalizable, encontramos que son: a) que la multiplicidad geom´etrica de alg´ un valor propio no coincida con su multiplicidad algebraica, b) en el caso de endomorfismos de espacios vectoriales reales, que el polinomio caracter´ıstico tenga valores propios complejos. Si el espacio vectorial es complejo no aparece esta u ´ltima dificultad, teni´endose los resultados siguientes: Tercera condici´ on necesaria y suficiente para que el endomorfismo sea diagonalizable. Teorema 1: Un endomorfismo de un espacio vectorial complejo es diagonalizable si y s´olo si la dimensi´on del subespacio de vectores propios correspondiente a cada valor propio es igual a la multiplicidad (algebraica) de ese valor propio en el polinomio caracter´ıstico. Demostraci´on: En efecto, si para todo λi la dimensi´on del ker(f − λi I) coincide con la multiplicidad algebraica de la raiz λi , se verifica que la suma de las dimensiones de los subespacios de vectores propios es igual a la suma de las multiplicidades algebraicas de los valores propios, (igual a n), lo que por la proposici´on 1 demuestra que el endomorfismo f es diagonalizable. Rec´ıprocamente, por reducci´on al absurdo, ha de ser en el caso diagonalizable, dim ker(f −λi I) = multiplicidad algebraica de λi ya que si fuera menor para alg´ un λi , no se dar´ıa que el n´ umero de vectores propios independientes de f fuera igual a la dimensi´on del espacio. Una matriz A ∈ M n×n (R) de n´ umeros reales determina un endomorfismo f de Rn en la base can´onica y tambi´en un endomorfismo f de C n . Diagonalizar f es encontrar una base de vectores propios de Rn para A y diagonalizar f es encontrar una base de vectores propios de C n para A. 262

Como los vectores de Rn , son vectores de C n , toda diagonalizaci´on de f da una diagonalizaci´on de f , pero el rec´ıproco no es cierto si los vectores propios de C n tienen coordenadas no reales. Veamos un ejemplo de una matriz A ∈ M3×3 (R) tal que el endomorfismo f : R3 7→ R3 correspondiente no es diagonalizable y el endomorfismo f : C 3 7→ C 3 correspondiente s´ı lo es:   2 0 0 A =  0 0 −1  0 1 0 Su polinomio caracter´ıstico es (2 − λ)(λ2 + 1) cuyas raices son λ1 = 2, λ2 = i, λ3 = −i. Las tres raices son valores propios de f . Por ser distintas, f es diagonalizable. Pero s´olo la raiz real λ = 2 es valor propio real. Entonces f tiene un s´olo valor propio cuya multiplicidad algebraica es 1, siendo 1 < 3, la suma de las multiplicidades geom´etricas de los valores propios de f . Por ello f no es diagonalizable.

Dado un endomorfismo f de Rn de matriz A, aunque el teorema 1 de diagonalizaci´on anterior s´olo se aplica al endomorfismo f de la misma matriz, cuando f es diagonalizable y los valores propios umeros reales de f , (que son los de A), son todos reales, la matriz diagonal D equivalente a A es de n´ −1 y tambi´en lo es la matriz de cambio de base C, tal que D = C AC. Esta diagonalizaci´on es v´alida entonces, en M n×n (R) y nos dice que f es tambi´en diagonalizable. Por tanto, el teorema puede aplicarse entonces a endomorfismos de Rn , seg´ un el Corolario 2: Un endomorfismo de un espacio vectorial sobre R es diagonalizable si y s´olo si su matriz tiene todos los valores propios reales y la dimensi´on del subespacio de vectores propios para cada valor propio (multiplicidad geom´etrica) es igual a la multiplicidad algebraica de ese valor propio en el polinomio caracter´ıstico. Ejercicios: 8.3.1. Estudiar, seg´ un los valores de los par´ametros a y b, la diagonalizaci´on de las siguientes matrices:       −1 0 b 1 −1 0 1 2 b a 0  c)  0 a 0  a)  0 1 0  b)  0 0 0 a a 1 a 1 0 b 8.3.2. Comprobar la f´ormula dada para |λI − A| posteriormente a la definici´on 5 cuando A es una matriz cuadrada 4 × 4.

263

Aplicaciones Autoadjuntas en un espacio eucl´ıdeo. Vamos a utilizar la letra f para aplicaciones y a representar, a partir de este momento, el producto escalar (que no tiene por qu´e ser el usual), por < x, y >. Dada una aplicaci´on f : V → V definida en un espacio vectorial eucl´ıdeo, se llama aplicaci´on adjunta de f a otra aplicaci´on g : V → V tal que < f (x), y >=< x, g(y) > ∀x, y ∈ V

Una aplicaci´on se llama autoadjunta cuando es adjunta de ella misma: < f (x), y >=< x, f (y) > .

Ejemplos de aplicaciones autoadjuntas son las proyecciones ortogonales sobre un subespacio vectorial. En efecto, sea PU la aplicaci´on proyeci´on ortogonal sobre el subespacio U , entonces, para todo vector x, tenemos x = PU (x) + PU ⊥ (x), por lo que < PU (x), y >=< PU (x), PU (y) + PU ⊥ (y) >= =< PU (x), PU (y) > + < PU (x), PU ⊥ (y) >=< PU (x), PU (y) > ya que por ser PU (x) ∈ U, PU ⊥ (x) ∈ U ⊥ , < PU (x), PU ⊥ (y) >= 0. Por otra parte, cambiando el papel de x por y, se obtiene de la anterior igualdad: < x, PU (y) >=< PU (y), x >=< PU (y), PU (x) > De donde < PU (x), y >= < x, PU (y) >. Teorema 2: a) Si la aplicaci´on dada f es lineal, existe una aplicaci´on adjunta de f tambi´en lineal. b) Si existe la aplicaci´on adjunta de una aplicaci´on dada, es u ´nica. a) Es l´ogico pensar que la adjunta de una aplicaci´on lineal sea lineal, y suponiendo que en una base determinada f se expresa por la matriz A y su adjunta g se exprese por una matriz B se puede hallar la relaci´on necesaria que tendr´ıa que haber entre A y B. Comprobamos despu´es que esta relaci´on es suficiente.

264

Sea f (x) = A(x) en una base cualquiera y G la matriz del producto escalar en esa base. Si g(x) = B(x) y g es adjunta de f :     y1 y1  y2   y2      t (x1 , x2 , ..., xn ) AG  ..  =< A(x), y >=< x, B(y) >= (x1 , x2 , ..., xn )GB  ..   .   .  yn yn Como esta igualdad debe ser cierta para todo x e y, debe tenerse: t

AG = GB, es decir, B = G−1t AG

En una base ortonormal, G = I y entonces obtenemos B = t A. Comprobamos que esta condici´on necesaria para B es suficiente para que g sea adjunta de f : 1) Si f es una aplicaci´on lineal que se expresa en una base ortonormal por A, la aplicaci´on lineal que se expresa en esa misma base por t A es adjunta de la anterior. 2) Si f es una aplicaci´on lineal que se expresa en una base cualquiera por A, la aplicaci´on lineal g que se expresa en esa misma base por G−1t AG donde G es la matriz del producto escalar en esa base, es adjunta de la anterior. En efecto: 1) En una base ortonormal,    t    y1 y1 x1  y2    x2    y 2         < f (x), y >= A  ..  ·  ..  = (x1 , x2 , ..., xn )t A  ..   .    .   .  yn yn xn y   y1  y2    < x, g(y) >= (x1 , x2 , ..., xn )t A  ..   .  yn siendo, por tanto iguales. 2) En una base cualquiera,       < f (x), y >= A   

x1 x2 .. . xn

t



     G   

y1 y2 .. . yn

265





    t  = (x1 , x2 , ..., xn ) AG   

y1 y2 .. . yn

    

y  −1t

< x, g(y) >= (x1 , x2 , ..., xn )GG

  AG  

y1 y2 .. .





    t  = (x1 , x2 , ..., xn ) AG   

yn

y1 y2 .. .

    

yn

son iguales. b) Veamos ahora que en el caso de existir la aplicaci´on adjunta de otra aplicaci´on, ser´ıa u ´nica. Sean g y h dos adjuntas de la aplicaci´on f , entonces: < x, g(y) >=< f (x), y >=< x, h(y) > ∀x, y ∈ V de donde < x, g(y) − h(y) >= 0 ∀x, y ∈ V Cogiendo x = g(y) − h(y), tenemos: < g(y) − h(y), g(y) − h(y) >= 0 ∀y ∈ V Por las propiedades del producto escalar, esto implica g(y) − h(y) = 0 ∀y ∈ V . Es decir, g(y) = h(y) ∀y ∈ V

En virtud de b), podemos hablar de la aplicaci´on adjunta de una aplicaci´on lineal y afirmar que es lineal, siendo su matriz la que hemos calculado en el apartado a). Para que la aplicaci´on lineal sea autoadjunta, debe coincidir con su adjunta, por tanto, seg´ un lo t visto anteriormente, si la expresamos en una base ortonormal, ha de ser A = A y si la expresamos en una base cualquiera, ha de ser A = G−1t AG, lo cual es equivalente a GA = t AG = t AGt = (GA)t , es decir, que GA ha de ser una matriz sim´etrica, siendo G la matriz del producto escalar en dicha base. Corolario: Como hemos visto que las proyecciones ortogonales son aplicaciones autoadjuntas, si las expresamos en una base ortonormal, su matriz ha de ser sim´etrica.

266

Ejercicios. 8.4.1. Encontrar las matrices en la base can´onica de las aplicaciones adjuntas respecto al producto escalar usual de los endomorfismos de R3 dados en la base can´onica por a) f (x, y, z) = (x + y + z, 2x + y + 2z, x + y + 3z) b) f (x, y, z) = (y + z, 2x + 2z, 2x + y + 3z) c) f (x, y, z) = (−y + z, −x + 2z, x + 2y). d) f (x, y, z) = (x + y + z, x + 2y + 2z, x + 2y + 3z). 8.4.2. Se˜ nalar cuales de los endomorfismos del ejercicio anterior son autoadjuntos. 8.4.3. a) Averiguar si son autoadjuntos respecto al producto escalar usual los endomorfismos de R3 dados en la base {(1, 1, 1), (1, 2, 0), (1, 0, 3)} por     −1 0 −2 6 4 10 1  b)  −3 −2 −5  a)  1 2 1 0 2 −1 −1 −1 b) Comprobar el resultado mirando las matrices de dichos endomorfismos en la base can´onica. c) Hay una aplicaci´on que no es autoadjunta. Hallar la matriz en la base dada y en la base can´onica de su aplicaci´on adjunta y comprobar que est´an relacionadas por el correspondiente cambio de base. 8.4.4. Se considera una base ortonormal {e1 , e2 , e3 } en un espacio vectorial eucl´ıdeo de dimensi´on 3 y en ´el la aplicaci´on lineal dada por 3f (e1 ) = 2e1 − 2e2 + e3 3f (e2 ) = αe1 + e2 − 2e3 3f (e3 ) = βe1 + γe2 + 2e3 Encontrar α, β, γ para que la aplicaci´on f sea autoadjunta.

267

Diagonalizaci´on de las Aplicaciones Autoadjuntas, (de las matrices sim´etricas). Hemos visto que una aplicaci´on autoadjunta se expresa en una base ortonormal por una matriz sim´etrica y la aplicaci´on expresada por una aplicaci´on sim´etrica en una base ortonormal es autoadjunta, por ello es equivalente la diagonalizaci´on de aplicaciones autoadjuntas y de matrices sim´etricas. Recordemos que un endomorfismo es diagonalizable si y s´olo si la suma de las multiplicidades geom´etricas de sus valores propios es igual a la dimensi´on del espacio y la dimensi´on del espacio es el grado del polinomio caracter´ıstico, que coincide con la suma de las multiplicidades algebraicas de los valores propios. Como la multiplicidad geom´etrica de un valor propio es menor o igual que su multiplicidad algebraica, una raz´on para que un endomorfismo de un espacio vectorial real no sea diagonalizable es que una de las raices de su polinomio caracter´ıstico sea compleja. Veamos que no se da este caso para los endomorfismos expresados por matrices sim´etricas. Proposici´ on 2: Una matriz sim´etrica de n´ umeros reales no tiene valores propios complejos. Demostraci´on: Sea A la matriz sim´etrica de n´ umeros reales A. Una matriz cuadrada de n´ umeros reales determina n n un endomorfismo f de R y tambi´en un endomorfismo f de C . Los valores propios de f son s´olo las raices reales del polinomio caracter´ıstico de la matriz. Los valores propios de f son las raices, reales o complejas, del polinomio caracter´ıstico de la matriz. Consideremos el endomorfismo f dado por la matriz A en el espacio vectorial C n donde n es el orden de A. Si α + iβ fuera un valor propio de este endomorfismo, existir´ıa un vector propio (no nulo) de coordenadas complejas: w = (w1 , w2 , ...wn ) = (u1 + iv1 , u2 + iv2 , ..., un + ivn ) = (u1 , u2 , ..., un ) + i(v1 , v2 , ..., vn ) = u + iv tal que f (u + iv) = (α + iβ)(u + iv) equiv. a A(u + iv) = (α + iβ)(u + iv) es decir, Au + iAv = αu − βv + i(αv + βu), igualando partes reales y partes imaginarias, existir´ıan dos vectores u y v del espacio vectorial real Rn , tales que Au = αu − βv Av = αv + βu 268

Como Au = f (u) y Av = f (v), se tiene f (u) = αu − βv f (v) = αv + βu y como f es autoadjunta en el espacio vectorial real, tenemos, sustituyendo ahora f (u) y f (v) por sus valores en < f (u), v >=< u, f (v) >, < αu − βv, v >=< u, αv + βu >⇒ α < u, v > −β < v, v >= α < u, v > +β < u, u > o sea, β(< u, u > + < v, v >) = 0 Tenemos, de aqu´ı, β = 0 porque el producto escalar es definido positivo y el vector w = u + iv no era nulo. Por ello, el valor propio ha de ser real. Como una matriz sim´etrica n × n de n´ umeros reales no tiene valores propios complejos, sabemos que si todos los valores propios son de multiplicidad 1, tiene que tener n valores propios reales distintos y por tanto la matriz es diagonalizable en R. Y m´as a´ un, en virtud de la proposici´on siguiente, la base que diagonaliza a la matriz sim´etrica (o a la aplicaci´on autoadjunta correspondiente) es ortogonal. Proposici´ on 3: Dos vectores propios de una aplicaci´on autoadjunta (de una matriz sim´etrica) correspondientes a distintos valores propios son ortogonales: Demostraci´on: Sean v1 , v2 vectores propios de f tales que f (v1 ) = λ1 v1 , f (v2 ) = λ2 v2 , siendo λ1 6= λ2 . < f (v1 ), v2 >=< v1 , f (v2 ) >⇒< λ1 v1 , v2 >=< v1 , λ2 v2 >⇒ λ1 < v1 , v2 >= λ2 < v1 , v2 > de donde (λ1 − λ2 ) < v1 , v2 >= 0 y como λ1 − λ2 6= 0 ha de ser < v1 , v2 >= 0. Por la misma raz´on, subespacios de vectores propios correspondientes a distintos valores propios son ortogonales.

269

EJEMPLO 2: Al diagonalizar la matriz 

 7 2 0  2 6 −2  0 −2 5 obtenemos su polinomio caracter´ıstico −λ3 + 18λ2 − 99λ + 162 = (3 − λ)(λ − 6)(λ − 9). Por tanto los valores propios son λ1 = 3, λ2 = 6 λ3 = 9. Los vectores propios para λ1 son los que verifiquen la ecuaci´on           7 2 0 x x 4 2 0 x 0  2           6 −2 y y 2 3 −2 y 0 , =3 ≡ = 0 −2 5 z z 0 −2 2 z 0 uno de ellos es (1, −2, −2). Los vectores propios para λ2 son los que verifiquen la ecuaci´on           7 2 0 x x 1 2 0 x 0  2 6 −2   y  = 6  y  ≡  2 0 −2   y  =  0  , 0 −2 5 z z 0 −2 −1 z 0 uno de ellos es (−2, 1, −2). Los vectores propios para λ3 son los que verifiquen la ecuaci´on           7 2 0 x x −2 2 0 x 0  2           6 −2 y y 2 −3 −2 y 0 , =9 ≡ = 0 −2 5 z z 0 −2 −4 z 0 uno de ellos es (2, 2, −1). Se ve que el producto escalar de dos distintos de estos vectores propios es nulo y por tanto son ortogonales o perpendiculares. Por tanto, la base que diagonaliza al endomorfismo correspondiente a la matriz dada es una base ortogonal, que puede transformarse en ortonormal dividiendo cada vector por su m´odulo. De hecho, tenemos el interesante Teorema 3: Todo endomorfismo autoadjunto de un espacio vectorial eucl´ıdeo es diagonalizable en una base ortonormal. Utilizamos un argumento que se basa en la siguiente propiedad: Proposici´ on 4: Si f : VRn → VRn es una aplicaci´on autoadjunta y U es un subespacio invariante por f , el subespacio ortogonal a U es tambi´en invariante por f . 270

En efecto, si v 0 ∈ U ⊥ y v ∈ U , < v, f (v 0 ) >=< f (v), v 0 >= 0 ∀v ∈ U . Demostraci´on del teorema: Damos ahora una demostraci´on constructiva. Otra demostraci´on por inducci´on del teorema se puede encontrar al final del cap´ıtulo. Sea λ1 un valor propio real del endomorfismo autoadjunto f con el vector propio v1 . (Existe por la proposici´on 2). Entonces el subespacio L{v1 } es invariante por f y por tanto L{v1 }⊥ es invariante por f . Completando v1 a una base de V con una base {u2 , u3 , ..., un } del ortogonal a v1 , la matriz de f en esa base ser´ıa:   λ1 0 0 · · · 0  0 ∗ ∗ ··· ∗     0 ∗ ∗ ··· ∗  0 ∗ ∗ ··· ∗ porque como para j > 1, f (uj ) ∈ L{u2 , u3 , ..., un }, su coordenada en v1 es nula. Aqu´ı las * llenar´ıan la matriz de la restricci´on de f al ortogonal a v1 . Como esta restricci´on f |v1⊥ es autoadjunta, podemos encontrar otro λ2 valor propio real de esta restricci´on (y a su vez de f ) y otro v2 , vector propio del subespacio ortogonal a v1 para f y λ2 . El subespacio L{v1 , v2 }⊥ es tambi´en invariante por f por serlo L{v1 , v2 }. Expresando f en una base formada por {v1 , v2 } ampliada con una base del subespacio ortogonal a estos dos vectores, tendr´ıamos una matriz del tipo:   λ1 0 0 · · · 0  0 λ2 0 · · · 0     0 0 ∗ ··· ∗  0 0 ∗ ··· ∗ donde las * llenar´ıan la matriz de la restricci´on de f al ortogonal a L{v1 , v2 }. Podemos seguir repitiendo el razonamiento hasta reducir la matriz de las estrellas a dimensi´on uno porque la restricci´on del endomorfismo dado a cualquier subespacio invariante sigue siendo autoadjunto y por tanto teniendo valores propios reales. Al final hemos hecho nulos todos los elementos que no est´an en la diagonal y hemos encontrado una base en la que f se expresa por una matriz diagonal, por tanto f es diagonalizable. Observemos tambi´en que la base de vectores propios que se han ido obteniendo de esta forma son ortogonales a todos los anteriores. Son por tanto una base ortogonal que diagonaliza a f y se puede hacer ortonormal dividiendo cada vector por su m´odulo sin perder la propiedad de diagonalizar a f . Para el procedimiento pr´actico para encontrar una base ortonormal que diagonalice a una aplicaci´on autoadjunta utilizamos la 271

Observaci´on 1: Cuando f es autoadjunta, al ser f diagonalizable, la suma de las multiplicidades ge´ometricas de todos sus valores propios (que son reales) es igual a la dimensi´on del espacio. Por lo que V n = Lm 1 ker(f − λi I). Adem´as, todos estos subespacios sumandos son ortogonales entre s´ı seg´ un se ha visto. En cada uno de los subespacios podemos coger una base ortonormal y la uni´on de todas las bases ortonormales de los ker(f − λi I) da una base ortonormal de V n que diagonaliza a f . En la pr´actica tambi´en obtenemos primero una base ortogonal que diagonaliza a f y luego dividimos cada vector de la base por su m´odulo. EJEMPLO 3: Diagonalizar en una base ortonormal el endomorfismo de R3 , dado por la matriz   2 −1 −1 2 −1  A =  −1 −1 −1 2 Su polinomio caracter´ıstico es −λ3 + 6λ2 − 9λ de raices λ1 = 0, simple y λ2 = 3, doble. Como sabemos que el endomorfismo es diagonalizable, la dimensi´on del subespacio de vectores propios para λ2 = 3 ha de ser 2. Las ecuaciones de este subespacio son          2 −1 −1 x −1 −1 −1 x 0  −1          2 −1 y −1 −1 −1 y 0  − 3I = = −1 −1 2 z −1 −1 −1 z 0 es decir, la ecuaci´on −x − y − z = 0. En el plano de esta ecuaci´on podemos encontrar dos vectores propios ortogonales: Escogido uno: (0, 1, −1), el otro, para ser ortogonal a ´el ha de verificar la ecuaci´on y − z = 0 adem´as de verificar −x − y − z = 0, y puede ser, por tanto (−2, 1, 1). Un vector propio correspondiente al valor propio λ1 = 0 es perpendicular a los otros dos, por lo que ha de ser proporcional al vector que tiene de coordenadas los coeficientes de las inc´ognitas en la ecuaci´on del plano de vectores propios para λ2 = 3: (−1, −1, −1). Una base ortogonal que diagonaliza al endomorfismo es {(0, 1, −1), (−2, 1, 1)(−1, −1, −1)}. Una base ortonormal que diagonaliza al endomorfismo es { √12 (0, 1, −1), √16 (−2, 1, 1), √13 (−1, −1, −1)}. Las relaciones entre la matriz de f y la diagonal son: C −1 AC = D donde   3 0 0 D= 0 3 0  0 0 0

272

y C puede ser   0 −2 −1   1 1 −1  o´  −1 1 −1 

0 √1 2

√1 (−1) 2

√1 (−2) 6 √1 6 √1 6

√1 (−1) 3 √1 (−1) 3 √1 (−1) 3

  .

Para diagonalizar formas cuadr´aticas (que veremos m´as adelante) y tambi´en para tener otro m´etodo de hallar bases ortogonales de un producto escalar, hacemos la Observaci´on 2: Si C es la matriz de cambio de base de la can´onica a otra ortonormal, C t · C = I, es decir, t C = C −1 . (Compru´ebese en el caso anterior, en particular y como ejercicio, en general). Entonces, la diagonalizaci´on de una matriz sim´etrica A, que implica la existencia de una matriz C de cambio de base tal que C −1 AC = D, por poderse hacer en una base ortonormal, tambi´en implica la existencia de una matriz de cambio de base C tal que C t AC = D. Observaci´on 3: Si C es la matriz de cambio de base de la can´onica pero es una matriz diagonal cuyos elementos diagonales C: (kvi k2 ). Entonces,  λ1 kv1 k2 0  0 λ2 kv2 k2  C t AC =  .. ..  . . 0 0

a otra ortogonal, C t · C no es la identidad son los m´odulos de los vectores columna de ··· ··· .. .

0 0 .. .

···

λn kvn k2

    

Compru´ebese como ejercicio. Ejercicios: 8.5.1. Diagonalizar en una base ortonormal los endomorfismos de R3 dados en la base can´onica por las siguientes matrices:       −3 6 0 2 −2 1 1 0 1 1 0 −6  b)  −2 1 −2  c)  0 1 1  a)  6 3 0 −6 3 1 −2 2 1 1 −1 √ √ Sol. Valores propios: a) 0, 9, −9 b)1/3, −1/3, 5/3 c) 1, 3, − 3 8.5.2. Diagonalizar en una base ortonormal las aplicaciones lineales de R3 dadas en la base can´onica por las siguientes matrices:

273



       3 2 4 −2 −2 1 3 −1 0 −7 −4 −4 3 0  d)  −4 −1 8  1 −2  c)  −1 a)  2 0 2  b)  −2 4 2 3 1 −2 −2 0 0 2 −4 8 −1 Sol. Valores propios: a) 8, −1 (doble). b) 3, −3(doble) c) 4, 2(doble), d) 9, −9 (doble).

274

Espacios Herm´ıticos. En C n se puede definir un producto llamado herm´ıtico de la siguiente forma:    (z1 , z2 , · · · , zn ) · (z10 , z20 , · · · , zn0 ) = z1 z10 + z2 z20 + · · · + zn zn0 = (z1 , z2 , · · · , zn )  

z 01 z 02 .. . z 0n

    

Puede comprobarse que es una aplicaci´on de C n × C n en C que cumple las siguientes propiedades: 1) z · z 0 = z 0 · z 2) Es sesquilineal: Si z, z 0 , z 00 ∈ C n  (z + z 0 ) · z 00 = z · z 00 + z 0 · z 00 λz · z 0 = λz · z 0  z · λz 0 = λz · z 0 z · (z 0 + z 00 ) = z · z 0 + z · z 00 3) Es definido positivo: z · z ≥ 0 y z · z = 0 ≡ z = 0 (z · z es real) Un producto herm´ıtico generalizado en un espacio vectorial VCn complejo es una aplicaci´on h : VCn × VCn 7→ C que cumple las propiedades 1), 2) y 3) anteriores. Un espacio herm´ıtico general es un espacio vectorial complejo con un producto herm´ıtico general. Se puede p definir el m´odulo de un vector de un espacio herm´ıtico, por ser ´este definido positivo. (kzk = h(z, z)). Tambi´en se cumple la desigualdad de Schwarz: ||z · z 0 || ≤ kzkkz 0 k y la desigualdad triangular, pero no podemos definir ´angulos, ya que los cosenos son n´ umeros reales y los productos de vectores complejos son n´ umeros complejos. Lo mismo que se hizo con el producto escalar, se puede encontrar una expresi´on matricial del producto herm´ıtico generalizado, que viene dado por una matriz H que tiene determinante distinto de cero, por ser el producto definido positivo. Por ello, se puede definir el subespacio ortogonal a otro dado de manera an´aloga a como se define en el espacio eucl´ıdeo, teni´endose que el espacio total es suma directa de un subespacio suyo y de su subespacio ortogonal. Por lo que tambi´en se pueden definir las proyecciones ortogonales en el espacio herm´ıtico. 275

Tambi´en podemos encontrar bases ortonormales para el producto herm´ıtico en el que la matriz de dicho producto es I. El procedimiento de Gram-Schmidt es v´alido para un producto herm´ıtico, por ser ´este definido positivo. La matriz H necesariamente ha de cumplir que su traspuesta es igual a su conjugada. Tales matrices se llaman herm´ıticas. Adem´as, para que una matriz herm´ıtica corresponda a un producto herm´ıtico, todos sus menores angulares superiores izquierdos han de ser n´ umeros reales positivos, siendo esta condici´on suficiente. Puede comprobarse de manera an´aloga a como se demostr´o el criterio de Sylvester para la matriz de un producto escalar. En un espacio herm´ıtico se define la adjunta de una aplicaci´on lineal de la misma forma que en un espacio eucl´ıdeo y una aplicaci´on es autoadjunta si ∀z, z 0 ∈ VCn : f (z) · z 0 = z · f (z 0 ) Expresada en una base ortonormal la aplicaci´on f por la matriz A, tendr´ıamos:     z 01 z 01  z0   z0   2   2  Az · z 0 = (z1 , z2 , · · · , zn )t A  ..  = (z1 , z2 , · · · , zn )A  ..  ∀z, z 0 ∈ C n  .   .  0 zn z 0n de donde para que la aplicaci´on sea autoadjunta, t A = A (herm´ıtica). Proposici´ on 4: Los autovalores de una aplicaci´on autoadjunta de un espacio herm´ıtico son reales: En efecto, si f (v) = λv, se tiene λ(v · v) = (λv) · v = f (v) · v = v · f (v) = v · λv = λv · v Como < v, v > es distinto de cero, esta igualdad implica λ = λ. Otras aplicaciones importantes entre los espacios herm´ıticos son las aplicaciones unitarias: son las que conservan el producto herm´ıtico: f (z) · f (z 0 ) = z · z 0 ∀z, z 0 ∈ VCn . Si U es la matriz de una aplicaci´on unitaria en una base ortonormal, ∀z, z 0 ∈ VCn , tenemos:

276

   (z1 , z2 , · · · , zn )U t · U  

z 01 z 02 .. . z 0n





     = (z1 , z2 , · · · , zn )   

z 01 z 02 .. . z 0n

    ∀z, z 0 ∈ VCn 

lo que implica que U t · U = I. Estas matrices se llaman unitarias. Proposici´ on 5: Los valores propios de una aplicaci´on unitaria son n´ umeros complejos de m´odulo 1. En efecto, si f (z) = λz, f (z) · f (z) = z · z implica z · z = λz · λz = λλz · z = |λ|2 z · z lo cual implica |λ| = 1. Como consecuencia, los valores propios de las aplicaciones unitarias son distintos de cero, siendo por tanto estas aplicaciones inyectivas y por tanto suprayectivas, es decir, isomorfismos, cuyo isomorfismo inverso es tambi´en unitario. Teorema 4. Tanto las aplicaciones autoadjuntas como las aplicaciones unitarias de un espacio herm´ıtico son diagonalizables en bases ortonormales. La demostraci´on se sigue por inducci´on del siguiente lema: Lema 2: Si v1 es un vector propio de una aplicaci´on autoadjunta o unitaria, el subespacio L{v1 }⊥ es invariante por f . En efecto: 1) Si f es autoadjunta y v ∈ L{v1 }⊥ , f (v) · v1 = v · f (v1 ) = v · λ1 v1 = λ1 v · v1 = 0, de donde f (v) ∈ L{v1 }⊥ . 2) Si f es unitaria, sea v1 un vector propio de f para el valor propio λ; entonces, v1 es tambi´en un valor propio de f −1 para 1/λ. Si v ∈ L{v1 }⊥ , v1 · f (v) = f −1 (v1 ) · f −1 f (v) = (1/λ)v1 · v = 0, de donde f (v) ∈ L{v1 }⊥ . Demostraci´on de la diagonalizaci´on de aplicaciones autoadjuntas y unitarias en una base ortonormal: La diagonalizaci´on de un endomorfismo en una base ortonormal es equivalente a la diagonalizaci´on del endomorfismo en una base ortogonal dividiendo cada vector por su m´odulo. Hacemos la demostraci´on por inducci´on sobre la dimensi´on del espacio. Sea esta n. Tengamos en cuenta que el endomorfismo es diagonalizable en una base ortogonal si podemos encontrar n vectores propios independientes ortogonales dos a dos. Cuando n = 1, la matriz se reduce a un n´ umero y es ya diagonal. Suponemos que toda aplicaci´on autoadjunta o unitaria de un espacio herm´ıtico de dimensi´on n−1 es diagonalizable en una base ortogonal. Sea v1 un vector propio. El subespacio L{v1 }⊥ es invariante por f seg´ un hemos visto en el lema 1 y es de dimesi´on n−1. Seg´ un la hip´otesis de inducci´on, la restricci´on de f a L{v1 }⊥ es diagonalizable 277

en una base ortogonal, por lo que existen n − 1 vectores propios para f , ortogonales dos a dos. Esta base unida al vector propio v1 es una base de vectores propios ortogonales dos a dos del espacio total que diagonaliza a f . Dividiendo cada vector por su m´odulo podemos obtener una base ortonormal diagonalizante. Ejercicios: 8.6.1. Determinar si son autoadjuntas o unitarias las aplicaciones de C 3 en C 3 cuyas matrices en la base can´onica son las siguientes: √ √       1+i 2 0 i 1 0 i 6 0 −2 2 − 2i  C) 1/2  −4 0 0 2 0√  A)  0 2 0  B)  √0 −i 0 3 2 −2 2 + 2i 0 i 0 1−i 2 √ √ √ √    − 2 + i −2 2 + 2i −2 2 + 2i 2 2 − 2i √7 √2  E)  −2 2 − 2i  D)  −√2 − i 7 −2 8 −2 √ −2 2 − 2i −2 −8 2 2 + 2i −2 4 

√        1−i 2 0 −2 i 2i −4i −1 8i 0 0 −i 1 1 1 1 i  I)  4i −8 i  0 2 0 √  H)  2 2i F )  0 −1 0  G)  2 3 9 −1 2i −2i 7i 4 4i −i 0 0 −1 0 1+i 2 

√ √ √    −1 + i(2 2 − 1) 0 −1 − 2 + i( 2 + 1) 3i + 4 2 − 6i −4 1  K)  2 − 6i 4 0 1 −2 − 6i  J)  √ 0 √ √ 4 −4 −2 − 6i 4 − 3i 1 − 2 + i( 2 + 1) 0 −1 + i(1 − 2 2) 

8.6.2. a) Comprobar que las matrices anteriores que son autoadjuntas tienen los valores propios reales. b) Comprobar que las matrices anteriores que son unitarias tienen los valores propios de m´odulo 1. c) Diagonalizar las matrices A), F), H), K) anteriores. (Encontrar una base de vectores propios de cada aplicaci´on y la matriz de la aplicaci´on en esta base). 8.6.3. a) Demostrar que si un subespacio W es invariante por una aplicaci´on autoadjuta, el subespacio ⊥ W tambi´en lo es. b) Demostrar que si un subespacio W es invariante por una aplicaci´on unitaria, el subespacio W ⊥ tambi´en lo es. 8.6.4. Demostrar que vectores propios correspondientes a distintos valores propios de una aplicaci´on unitaria son ortogonales. 278

Bibliograf´ıa: ´ [A] J. Arves´ u Carballo, R. Alvarez Nodarse, F. Marcell´an Espa˜ nol. Algebra Lineal y aplicaciones. Ed. S´ıntesis. 1999. [B] J. de Burgos. Curso de Algebra y Geometr´ıa. Ed. Alhambra 1982. [C] M. Castellet, I. Llerena. Algebra Lineal y Geometr´ıa. Ed. Revert´e. 1991. [G] L. Golovina. Algebra Lineal y algunas de sus Aplicaciones. Ed. Mir. 1980. [H] E. Hern´andez. Algebra y Geometr´ıa. Ed. Addison-Wesley/U.A.M. 1994. [L] D. C. Lay. Algebra Lineal y sus Aplicaciones. Ed. Prentice-Hall 2001. [S] G. Strang. Algebra Lineal y sus Aplicaciones Ed. Addison-Wesley Iberoamericana. 1990. [V] A. de la Villa. Problemas de Algebra. Ed. Clagsa, 1994.

279

280

´ FORMAS CUADRATICAS. Introducci´ on. Ya hemos estudiado ciertas formas bilineales, los productos escalares. Las formas bilineales en general, no tienen porqu´e ser sim´ utricas ni definidas positivas. A cada forma bilineal se le asocia una forma cuadr´atica; aunque a distintas formas bilineales resulta asociada la misma forma cuadr´atica, encontramos s´lo una forma bilineal sim´etrica (de matriz sim´etrica) asociada a ´esta forma cuadr´atica. Veremos que su matriz puede llegar a ser diagonal, haciendo un cambio de base. Hallar la matriz diagonal, la base y el nuevo sistema de coordenadas en la que le corresponde es diagonalizar la forma cuadr´atica. Todas las formas cuadr´aticas son diagonalizables. Definici´ on 1. Dado un espacio vectorial sobre un cuerpo K, se llama forma bilineal en V a toda aplicaci´on f : V × V −→ K que es lineal en cada una de las variables, es decir,  f (x + x0 , y) = f (x, y) + f (x0 , y)    f (αx, y) = αf (x, y) ∀x, x0 , y, y 0 ∈ V, ∀α ∈ K 0 f (x, y + y ) = f (x, y) + f (x, y 0 )    f (x, αy) = αf (x, y) Definici´ on 2. Dado un espacio vectorial V sobre un cuerpo K, se llama forma cuadr´atica en V a una aplicaci´on Q : V −→ K si existe una forma bilineal f tal que Q(x) = f (x, x) La forma cuadr´atica Q verifica Q(αx) = f (αx, αx) = α2 f (x, x) = α2 Q(x). Expresi´ on matricial de una forma cuadr´ atica. Toda forma cuadr´atica en un espacio vectorial de dimensi´on finita admite una expresi´on matricial deducida de la expresi´on matricial de la forma bilineal en el espacio vectorial de dimensi´on finita: Sea {e1 , e2 , ...en } una base del espacio vectorial V n sobre el que est´a definida la forma bilineal. Sean x = (x1 , x2 , ..., xn ), y = (y1 , y2 , ...yn ) dos vectores del espacio vectorial expresados por sus coordenadas en esa base y sea f la forma bilineal. Entonces, f (x, y) = f (x1 e1 + x2 e2 + ... + xn en , y1 e1 + y2 e2 + ... + yn en ) = x1 f (e1 , y1 e1 +y2 e2 +...+yn en )+x2 f (e2 , y1 e1 +y2 e2 +...+yn en )+...+xn f (en , y1 e1 +y2 e2 +...+yn en ) = 281

= x1 (y1 f (e1 , e1 )+...+yn f (e1 , en ))+x2 (y1 f (e2 , e1 )+...+yn f (e2 , en ))+...+xn (y1 f (en , e1 )+...+yn f (en , en )) =   y1 f (e1 , e1 ) + y2 f (e1 , e2 ) + ... + yn f (e1 , en )  y1 f (e2 , e1 ) + y2 f (e2 , e2 ) + ... + yn f (e2 , en )  = = (x1 , x2 , ..., xn )    ... y1 f (en , e1 ) + y2 f (en , e2 ) + ... + yn f (en , en )    y1 f (e1 , e1 ) f (e1 , e2 ) ... f (e1 , en )   f (e2 , e1 ) f (e2 , e2 ) ... f (e2 , en )    y2    = (x1 , x2 , ..., xn )  . =  ··· ··· ··· ···  ..  f (en , e1 ) f (en , e2 ) ... f (en , en ) yn   y1  y2    = (x1 , x2 , ..., xn )B  ..  .  .  yn donde la matriz denotada por B es la matriz de la forma bilineal. Como Q(x) = f (x, x), la forma cuadr´atica tambi´en puede escribirse en forma matricial:   x1  x2    Q(x) = f (x, x) = (x1 , x2 , ..., xn )B  ..   .  xn Rec´ıprocamente, cualquiera que sea la matriz B, las expresiones matriciales:     y1 x1  y2   x2      (x1 , x2 , ..., xn )B  ..  y (x1 , x2 , ..., xn )B  ..   .   .  yn xn donde las coordenadas se refieren a una base fijada, corresponden respectivamente a formas bilineales y formas cuadr´aticas.

Ejemplo 1:

282

Veamos lo que resulta al desarrollar la forma bilineal y la forma cuadr´atica correspondiente a la matriz:   1 −1 1 B= 3 1 1  0 1 1      1 −1 1 y1 y1 − y2 + y3 f (x, y) = (x1 , x2 , x3 )  3 1 1   y2  = (x1 , x2 , x3 )  3y1 + y2 + y3  = 0 1 1 y3 y2 + y3 = x1 y1 − x1 y2 + x1 y3 + 3x2 y1 + x2 y2 + x2 y3 + x3 y2 + x3 y3 Es un polinomio en xi yj donde el coeficiente de cada xi xj es el n´ umero de la entrada (i,j) de la matriz B. Al realizar Q(x) obtenemos:      1 −1 1 x1 x1 − x2 + x3 Q(x) = (x1 , x2 , x3 )  3 1 1   x2  = (x1 , x2 , x3 )  3x1 + x2 + x3  = 0 1 1 x3 x2 + x3 = x1 x1 − x1 x2 + x1 x3 + 3x2 x1 + x2 x2 + x2 x3 + x3 x2 + x3 x3 donde podemos agrupar los t´erminos −x1 x2 + 3x2 x1 y los t´erminos x2 x3 + x3 x2 obteniendo: Q(x) = x21 + 2x1 x2 + x1 x3 + x22 + 2x2 x3 + x23 . Tambi´en al desarrollar la forma cuadr´atica correspondiente a la forma bilineal    1 −2 1 y1 f 0 (x, y) = (x1 , x2 , x3 )  4 1 1   y2  0 1 1 y3 obtenemos x1 x1 − 2x1 x2 + x1 x3 + 4x2 x1 + x2 x2 + x2 x3 + x3 x2 + x3 x3 donde agrupando los t´erminos −2x1 x2 + 4x2 x1 y los t´erminos x2 x3 + x3 x2 obtenemos la misma forma cuadr´atica anterior. Lo mismo ocurre al desarrollar la forma cuadr´atica correspondiente a la forma bilineal    1 −1 1 y1 f 00 (x, y) = (x1 , x2 , x3 )  3 1 3   y2  0 −1 1 y3 283

de la cual obtenemos la misma forma cuadr tica: x1 x1 − x1 x2 + x1 x3 + 3x2 x1 + x2 x2 + 3x2 x3 − x3 x2 + x3 x3 agrupando los t´erminos −x1 x2 + 3x2 x1 y los t´erminos 3x2 x3 − x3 x2 . Pero si se exige a la forma bilineal de la que proviene la forma cuadr´atica que tenga matriz sim´etrica, como la suma b12 + b21 ha de ser el coeficiente de x1 x2 , tanto b12 como b21 han de ser la mitad de ese coeficiente, en este caso b12 = b21 = 1, estando entonces perfectamente determinado. Lo an´alogo ocurre con b13 y b31 , siendo la matriz sim´etrica asociada, la siguiente:   1 1 1/2  1 1 1 . 1/2 1 1 En general, al desarrollar las expresiones matriciales tenemos: f (x, y) =

n X

xi yj f (ei , ej );

ij

Q(x) =

nn X ij

xi xj f (ei , ej ) =

n X

xi xj (f (ei , ej ) + f (ej , ei )) +

i 0, en 2 cuyo caso el punto es un m´ınimo; si δδxf2 (x0 , y0 ) < 0 se trata de un m´aximo. Ejercicios: 9.3.1. Encontrar y clasificar los puntos cr´ıticos (m´aximo, m´ınimo o punto silla) de las siguientes funciones de dos variables: a) f (x, y) = x2 + xy + y 2 − 3x − 3y. b) f (x, y) = −x2 − y 2 + xy + 2x c) f (x, y) = x2 + xy + y 2 + 3x + 1. d) f (x, y) = −2x2 − y 2 + xy + 7. e) f (x, y) = 3xy − x2 − y 2 + 3. f) f (x, y) = xy + y 2 + 2x + 2y + 1

Aplicaci´on 3: M´ aximos y m´ınimos de las formas cuadr´ aticas en la esfera unidad. Otra consecuencia importante de la diagonalizaci´on de una forma cuadr´atica por medio de un cambio de base ortonormal es el hecho de que toda forma cuadr´atica alcanza un m´aximo y un m´ınimo sobre la esfera unidad, es decir, sobre el conjunto de vectores de m´odulo 1. Siendo (x01 , ..., x0n ) las coordenadas que diagonalizan, veamos que los vectores que verifican x21 + 0 0 0 x22 + · · · + x2n = 1 son los mismos que los que verifican x12 + x22 + · · · + xn2 = 1, es decir, que la esfera unidad respecto a las nuevas coordenadas es la misma que la esfera unidad respecto a las antiguas porque el cambio de coordenadas lo hemos hecho por medio de una matriz ortogonal. (La matriz de cambio de base C verifica C t · C = I): en efecto,     x1 x01  x2   x0     2  x21 + x22 + · · · + x2n = (x1 , x2 , · · · , xn )  ..  = (x01 , x02 , · · · , x0n )C t C  ..  =  .   .  xn x0n 293

 =

(x01 , x02 , · · ·

, x0n )I

   

x01 x02 .. . x0n

  0 0 0   = x12 + x22 + · · · + xn2 

En la esfera unidad respecto a las nuevas coordenadas: 0

0

0

Q(x) = λ1 x12 + λ2 x22 + · · · + λn xn2 = 0

0

0

0

0

0

0

= λ1 (x12 + x22 + · · · + xn2 ) + (λ2 − λ1 )x22 + · · · + (λn − λ1 )xn2 = λ1 + (λ2 − λ1 )x22 + · · · + (λn − λ1 )xn2 ≥ λ1 si λ1 el m´ınimo de los valores propios, por lo que λ1 es el m´ınimo en la esfera unidad que se obtiene cuando (x01 , x02 , ..., x0n ) = (1, 0, ..., 0) Por otra parte, suponiendo que λn es el m´aximo de los valores propios podemos ver que λn es el m´aximo de Q(x) en la esfera unidad. En las nuevas coordenadas: 0

0

0

Q(x) = λ1 x12 + λ2 x22 + · · · + λn xn2 = 0

0

0

0

0

0

0

2 2 = (λ1 −λn )x12 +· · ·+(λn−1 −λn )xn−1 +λn (x12 +x22 +· · ·+xn2 ) = (λ1 −λn )x12 +· · ·+(λn−1 −λn )xn−1 +λn ≤ λn

por lo que λn es el m´aximo en la esfera unidad que se obtiene cuando (x01 , x02 , ..., x0n ) = (0, 0, ..., 1) Este resultado es utilizado en C´alculo Vectorial (lema 1 p´ag 183 Marsden/Tromba). Aplicaci´on 4: Energ´ıa de rotaci´ on de un s´ olido. La energ´ıa de un s´olido r´ıgido que gira alrededor de un eje se expresa por una forma cuadr´atica cuya matriz se llama tensor de inercia. 2E = mv 2 = mv · v = m(Ω × r) · v = m(r × v) · Ω = m(r × (Ω × r)) · Ω = m[(r · r)Ω − (r · Ω)r] · Ω = m[(rt · rI − r · rt )Ω] · Ω = ΣΩi Iij Ωj donde Iij es el tensor de inercia.

294

Diagonalizaci´ on de formas cuadr´ aticas completando cuadrados. La diagonalizaci´on de la forma cuadr´atica usando los valores propios, m´etodo te´oricamente claro, en la pr´actica puede ser dif´ıcil de aplicar si los valores propios, que son las raices del polinomio caracter´ıstico no son f´aciles de hallar, p.ej. si no son ni siquiera fraccionarios, como ocurre en los casos siguientes: Sea Q(x, y, z) = x2 + 2y 2 + 2xy + 2yz + 2z 2 , entonces,    1 1 0 x Q(x, y, z) = (x, y, z)  1 2 1   y  0 1 2 z El polinomio caracter´ıstico de la matriz B en este caso es p(λ) = −λ3 + 5λ2 − 6λ + 1, cuyas raices no son enteras ni fraccionarias. Sea Q(x, y, z) = x2 + 5y 2 − 2xy + 2xz, entonces,    1 −1 1 x    5 0 y  Q(x, y, z) = (x, y, z) −1 1 0 0 z El polinomio caracter´ıstico de la matriz B en este caso es p(λ) = −λ3 + 6λ2 − 3λ − 5, cuyas raices no son enteras ni fraccionarias. Adem´as, puede ser que s´olo sea necesario saber si la forma cuadr´atica es siempre positiva. Y ´esto puede hacerse agrupando los t´erminos de la forma cuadr´atica, p.ej. Q(x, y) = x2 + 4xy + 5y 2 = (x + 2y)2 + y 2 = x02 + y 02 ≥ 0 de forma que Q(x, y) = 0 implica x + 2y = 0, y = 0, lo cual s´olo se da si x = 0, y = 0, porque la relaci´on de cambio de coordenadas:  0     x1 1 2 x1 = x02 0 1 x2 corresponde a un cambio de base. Existe otro m´etodo para reducir una forma cuadr´atica a suma de cuadrados de coordenadas con coeficientes, que se llama el m´ etodo de completar cuadrados o m´ etodo de Gauss. que se hace agrupando t´erminos y que puede ser m´as factible que la resoluci´on del polinomio caracter´ıstico cuando la dimensi´on del espacio vectorial en el que est´a definida la forma cuadr´atica es mayor que 2. Vamos a ver que siempre se pueden formar par´entesis que elevados al cuadrado y sumados con coeficientes dan la forma cuadr´atica y igualando los par´entesis a nuevas coordenadas tenemos un 295

cambio de coordenadas que diagonaliza la forma cuadr´atica. (Este cambio de coordenadas, sin embargo, no vendr´a dado en general, por una matriz ortogonal). Si la forma cuadr´atica est´a definida sobre un espacio vectorial de dimensi´on 1, es de una sola variable y ya es un cuadrado con un coeficiente. Si la forma cuadr´atica est´a definida sobre un espacio de dimensi´on 2, de dos variables, tenemos: Q(x, y) = a11 x2 + 2a12 xy + a22 y 2 , y entonces podemos escribirla como Q(x, y) = a11 (x2 + 2

a12 a2 a12 xy + ( )2 y 2 ) − 12 y 2 + a22 y 2 = a11 a11 a11

a2 0 a2 a12 2 0 y) + (a22 − 12 )y 2 = a11 x 2 + (a22 − 12 )y 2 a11 a11 a11 donde se ha hecho el cambio de coordenadas:  0     x0 = x + (a12 /a11 )y x 1 a12 /a11 x ≡ = . 0 0 y =y y 0 1 y = a11 (x +

Es un verdadero cambio de coordenadas porque corresponde a una matriz con determinante distinto de cero y tenemos la forma cuadr´atica escrita como suma de cuadrados de coordenadas con coeficientes. Antes de pasar al caso de dimensi´on n veremos ejemplos de diagonalizaci´on completando cuadrados de formas cuadr´aticas de tres variables. Veamos este m´etodo sobre la pr´actica con los ejemplos anteriores: Ejemplo 3: Q(x, y, z) = x2 + 2y 2 + 2xy + 2yz + 2z 2 = (x + y)2 + y 2 + 2yz + 2z 2 = (x + y)2 + (y + z)2 + z 2 = 2 x0 + y 0 2 − z 0 2 donde hemos hecho el cambio de coordenadas:  0     x0 = x+ y x 1 1 0 x 0 0      y = y+z ≡ y 0 1 1 y  = 0 0 z = z z 0 0 1 z que efectivamente corresponde a una matriz con determinante distinto de cero, teniendo entonces la forma cuadr´atica escrita como suma de cuadrados de coordenadas con coeficientes. Ejemplo 4: Q(x, y, z) = x2 + 5y 2 − 2xy + 2xz = (x2 − 2xy + 2xz + y 2 + z 2 − 2yz) − y 2 − z 2 + 2yz + 5y 2 = = (x − y + z)2 − y 2 − z 2 + 2yz + 5y 2 = (x − y + z)2 + 4y 2 + 2yz − z 2 = (x − y + z)2 − (z 2 − 2yz) + 4y 2 = 296

= (x − y + z)2 − (z 2 − 2yz + y 2 ) + y 2 + 4y 2 = (x − y + z)2 − (z − y)2 + 5y 2 = x0 2 + 5y 0 2 − z 0 2 donde hemos hecho el cambio de coordenadas:  0     x0 = x− y + z 1 −1 1 x x 0 0      y = y y 0 1 0 y  = ≡ 0 0 z z = −y + z 0 −1 1 z que efectivamente corresponde a una matriz con determinante distinto de cero, teniendo entonces la forma cuadr´atica escrita como suma de cuadrados de coordenadas con coeficientes. Ejemplo 5: (nig´ un coficiente de los cuadrados de las coordenadas es 1), Sea Q(x, y, z) = 3x2 + 6xy + 3y 2 + 6yz + 5z 2 + 12xz Escogemos una coordenada que est´e elevada al cuadrado y agrupamos todos los t´erminos que tienen esa coordenada: Q(x, y, z) = (3x2 + 6xy + 12xz) + 3y 2 + 6yz + 5z 2 despu´es, sacamos el coeficiente del cuadrado factor com´ un de los t´erminos agrupados: Q(x, y, z) = 3(x2 + 2xy + 4xz) + 3y 2 + 6yz + 5z 2 y ahora completamos el par´entesis hasta que sea un cuadrado de una suma de las tres coordenadas, en este caso ha de ser (x + y + 2z)2 , para lo cual, restando a continuaci´on los t´erminos a˜ nadidos, escribimos: Q(x, y, z) = 3(x2 + 2xy + 4xz + y 2 + 4z 2 + 4yz) − 3(y 2 + 4z 2 + 4yz) + 3y 2 + 6yz + 5z 2 que ser´ıa: Q(x, y, z) = 3(x + y + 2z)2 − 7z 2 − 6yz En esta expresi´on, en los t´erminos posteriores al cuadrado aparecen ya s´olo dos coordenadas, con las que podemos seguir completando cuadrados: 6 Q(x, y, z) = 3(x + y + 2z)2 − 7z 2 − 6yz = 3(x + y + 2z)2 − 7(z 2 + yz) = 7 6 3 9 3 9 = 3(x + y + 2z)2 − 7(z 2 + yz + ( )2 y 2 ) + y 2 = 3(x + y + 2z)2 − 7(z + y)2 + y 2 7 7 7 7 7

297

Haciendo el cambio de coordenadas:  0     x0 = x+ y + 2z 1 1 2 x x 0 0      y = y 0 1 0 y y  = ≡ 3 0 0 z = y+z z 0 3/7 1 z 7 que corresponde a una matriz de cambio con determinante distinto de cero, tenemos la forma cuadr´atica escrita como suma de cuadrados: 9 Q(x0 , y 0 , z 0 ) = 3x02 − 7z 02 + y 02 7 Ejemplo 6: (en el que al sacar factor com´ un surgen fracciones), 3 1 Q(x, y, z) = 2x2 + 3xy + 2y 2 + xz − 3z 2 + yz = 2(x2 + xy + xz) + 2y 2 − 3z 2 + yz = 2 2 3 1 9 1 3 3 1 7 25 5 2(x + y + z)2 − y 2 − z 2 − yz + 2y 2 − 3z 2 + yz = 2(x + y + z)2 + y 2 − z 2 + yz = 4 4 8 8 8 4 4 8 8 8 3 1 7 5 25 3 1 7 5 25 2 25 2 2(x + y + z)2 + (y 2 + yz) − z 2 = 2(x + y + z)2 + (y + z)2 − z − z = 4 4 8 7 8 4 4 8 14 224 8 3 1 7 5 25 29 2 2(x + y + z)2 − (y + z)2 − · z = 4 4 8 14 8 28 Se deja para el lector escribir el cambio a las nuevas coordenadas y la comprobaci´on de que es un cambio bueno. Ejemplo 7: 3 1 Q(x, y, z) = 2x2 − 3xy − 2y 2 + xz − 3z 2 + yz = 2(x2 − xy + xz) − 2y 2 − 3z 2 + yz = 2 2 3 1 9 1 3 3 1 25 25 11 2(x − y + z)2 − y 2 − z 2 + yz − 2y 2 − 3z 2 + yz = 2(x − y + z)2 − y 2 − z 2 + yz = 4 4 8 8 8 4 4 8 8 8 3 1 25 11 25 3 1 25 11 25 121 2 25 2 2(x − y + z)2 − (y 2 − yz) − z 2 = 2(x − y + z)2 − (y − z)2 + z − z = 4 4 8 25 8 4 4 8 50 8 2500 8 298

3 1 25 11 2379 2 2(x − y + z)2 − (y − z)2 − z = 4 4 8 50 800 Se deja para el lector escribir el cambio a las nuevas coordenadas y la comprobaci´on de que es un cambio bueno. Si en el ejemplo no hubiera aparecido ning´ un cuadrado en la expresi´on dada, como en Q(x, y, z) = xy + xz + yz se hace primero el siguiente cambio de coordenadas: x = x0 + y 0 y = x0 − y 0 z= z0 cuya matriz tiene determinante distinto de cero y que la transforma en Q(x, y, z) = x02 − y 02 + 2x0 z 0 en la que ya tenemos cuadrados con coeficientes no nulos que podemos coger para realizar el m´etodo de Gauss seg´ un los primeros ejemplos. El funcionamiento del m´etodo de Gauss en el caso general, se ve por inducci´on (en Golovina) primero a), cuando hay aii 6= 0; despu´es b) haciendo el cambio de coordenadas apropiado si todos los aii son nulos. En el caso general a), haciendo una renumeraci´on si es necesario, podemos suponer que ann 6= 0. Despu´es reordenamos la expresi´on de la forma cuadr´atica as´ı: Q(x) = a11 x21 + 2a12 x1 x2 + 2a13 x1 x3 ... + 2a1n−1 x1 xn−1 + 2a1n x1 xn + a22 x22 + 2a23 x2 x3 + ... + 2a2n−1 x2 xn−1 + 2a2n x2 xn + +...+ +an−1,n−1 x2n−1 + 2an−1,n xn−1 xn +ann x2n = 1n x1 xn + ... + 2 an−1n xn−1 xn + x2n ]+ = ann [(2 aann ann

299

+a11 x21 + 2a12 x1 x2 + ... + 2a1,n−1 x1 xn−1 +a22 x22 + 2a23 x2 x3 + · · · + 2a2,n−1 x2 xn−1 +...+ +an−1,n−1 x2n−1 =

1n = ann [2( aann x1 + ... + 2 an−1n xn−1 )xn + x2n ]+ ann

1n = ann [( aann x1 + ... +

an−1n xn−1 ) ann

+a11 x21 + 2a12 x1 x2 + ... + 2a1,n−1 x1 xn−1 +a22 x22 + 2a23 x2 x3 + · · · + 2a2,n−1 x2 xn−1 +...+ +an−1,n−1 x2n−1 =

1n + xn ]2 − ann ( aann x1 + ... +

an−1n xn−1 )2 + ann

+a11 x21 + 2a12 x1 x2 + ... + 2a1,n−1 x1 xn−1 + a22 x22 + 2a23 x2 x3 + · · · + 2a2,n−1 x2 xn−1 +...+ +an−1n−1 x2n−1 0 = ann xn2 + Q0 (x1 , x2 , ...xn−1 ) donde x0n =

an−1n a1n x1 + ... + xn−1 + xn ann ann

y Q0 (x) es el polinomio homog´eneo de segundo grado restante que es una forma cuadr´atica en n-1 coordenadas en la que no aparece xn . Por la hip´otesis de inducci´on Q0 puede reducirse a una suma de cuadrados de coordenadas con coeficientes con una matriz de cambio de coordenadas con determinante distinto de cero. El cambio de coordenadas de {x1 , x2 , ..., xn } a {x1 , x2 , ..., x0n } viene dado por la matriz de determinante distinto de cero:       

1 0 0 1 .. . ··· .. . ··· a1n ··· ann

··· ··· ··· ··· ···

 0 0 0 0  .   · · · ..   1 0  an−1,n 1 ann

En el caso b) cuando todos los coeficientes de los cuadrados de las variables son nulos, tiene que haber alg´ un aij 6= 0. Entonces, hacemos el cambio de variable x0i = xi + xj x0j = xi − xj , obteniendo 0 0 as´ı en la forma cuadr´atica el t´ermino 2aij (xi2 − xj2 ) que aporta dos cuadrados con coeficiente distinto de cero y seguimos como en el caso a). Ejemplos a realizar por el lector son: Ejercicio 9.4.1. Diagonalizar completando cuadrados y escribiendo los cambios de coordenadas, las siguientes formas cuadr´aticas: 300

a) Q(x, y, z) = 3x2 + 2y 2 + z 2 − 6xy + 4xz. b) Q(x, y, z) = 2x2 + y 2 + 5z 2 − 2xy + 6xz − 2yz. c) Q(x, y, z) = xy + 2xz. d) Q(x, y, z) = x2 − z 2 − 2xy + xz.

301

El m´etodo de completar cuadrados no es un´ıvoco, puede hacerse de muchas maneras, seg´ un el cuadrado que escojamos para empezar de la expresi´on inicial. Y los coeficientes de los cuadrados saldr´an distintos seg´ un el camino que escojamos. Pero, sea por uno de los caminos del m´etodo de Gauss o sea por el m´etodo de diagonalizaci´on de la matriz sim´etrica, tenemos la sorprendente Ley de inercia de Sylvester que establece que el n´ umero de coeficientes positivos es siempre el mismo y lo mismo ocurre con el n´ umero de coeficientes negativos. El n´ umero de coeficientes positivos que aparece en la expresi´on de una forma cuadr´atica reducida umero de coeficientes a suma de cuadrados se escribe p y se llama ´ındice de inercia positivo de Q y el n´ negativos que aparece en dicha expresi´on se escribe q y se llama ´ındice de inercia negativo de Q. Ley de inercia de Sylvester: Sea Q : VRn → R una forma cuadr´atica y {x1 , x2 , ..., xn }, {x01 , x02 , ..., x0n }, dos sistemas de coordenadas de VRn , en los que Q(x) = a1 x21 + a2 x22 + ... + ap x2p − ap+1 x2p+1 − ap+2 x2p+2 − ... − ap+q x2p+q = 0

0

0

0

0

0

a01 x12 + a02 x22 + ... + a0p0 xp20 − a0p0 +1 xp20 +1 − a0p0 +2 xp20 +2 − ... − a0p0 +q0 xp20 +q0 donde ai > 0 ∀i y a0j > 0 ∀j. Entonces, p = p0 y q = q 0 . Demostraci´on: Sea {e1 , e2 , ..., en } la base correspondiente a las coordenadas {xi } y {e01 , e02 , ..., e0n } la base correspondiente a las coordenadas {x0i }. Entonces, si cogemos x ∈ L{e1 , e2 , ...ep } y x 6= 0, Q(x) > 0 y si cogemos x ∈ L{e0p0 +1 , e0p0 +2 , ...e0n } y x 6= 0, Q(x) ≤ 0. Esto implica que L{e1 , e2 , ...ep } ∩ L{e0p0 +1 , e0p0 +2 , ...e0n } debe ser s´olo el vector nulo. Entonces, dimL{e1 , e2 , ...ep } + dimL{e0p0 +1 , e0p0 +2 , ...e0n } − dim(L{e1 , e2 , ...ep } ∩ L{e0p0 +1 , e0p0 +2 , ...e0n }) = p + n − p0 Seg´ un la f´ormula de las dimensiones, dimL{e1 , e2 , ...ep } + dimL{e0p0 +1 , e0p0 +2 , ...e0n } − dim(L{e1 , e2 , ...ep } ∩ L{e0p0 +1 , e0p0 +2 , ...e0n }) = dim(L{e1 , e2 , ...ep } + L{e0p0 +1 , e0p0 +2 , ...e0n }) Pero la dimensi´on de esta suma es menor o igual que la dimensi´on del espacio total que es n, por lo que p + n − p0 ≤ n, de donde p ≤ p0 . Considerando L{e01 , e02 , ...e0p0 } ∩ L{ep+1 , ep+2 , ...en } y haciendo el razonamiento an´alogo al anterior cambiando p por p0 , obtenemos p0 ≤ p de donde p = p0 . Para ver que q = q 0 , basta considerar −Q y aplicar el razonamiento anterior. 302

Como aplicaci´ on de la ley de inercia de Sylvester se puede terminar la diagonalizaci´on de la forma cuadr´ atica Q(x, y, z) = xy + xz + yz por el m´etodo de Gauss y se puede hacer tambi´en su diagonalizaci´on por el m´etodo de los valores propios y comprobar que el n´ umero de valores propios positivos es el n´ umero de cuadrados que salen con coeficiente positivo y an´ alogamente para los negativos. Tambi´en podemos hacer el m´etodo de Gauss en el ejemplo 4, empezando por la coordenada y, obteniendo: 2 Q(x, y, z) = x2 + 5y 2 − 2xy + 2xz = 5(y 2 − xy) + x2 + 2xz = 5 1 x2 1 4 2 4 5 = 5(y − x)2 − 5 + x2 + 2xz = 5(y − x)2 + x2 + 2xz = 5(y − x)2 + (x2 + xz) = 5 25 5 5 5 5 2 4 5 5 2 = 5(y − x)2 + (x + z)2 − z 2 5 5 4 4 donde el n´ umero de cuadrados con coeficiente positivo es 2 y el de cuadrados con coeficientes negativos es 1, igual que en la anterior agrupaci´ on.

”Dos formas cuadr´aticas son equivalentes” si y s´olo si existe un isomorfismo de V n que lleve una a la otra, lo cual se cumple si y s´olo si existe un cambio de base que lleva una a la otra; podemos ver que son equivalentes si tienen los mismos indices de inercia. Comprob´emoslo: sean Q(x) = a1 x21 + a2 x22 + ... + ap x2p − ap+1 x2p+1 − ap+2 x2p+2 − ... − ap+q x2p+q 0

0

0

0

0

0

2 2 2 − ... − a0p+q xp+q − a0p+2 xp+2 = Q0 (x) = a01 x12 + a02 x22 + ... + a0p xp2 − a0p+1 xp+1

donde las coordenadas est´an referidas a dos bases {e1 , e2 , ..., en } y {e01 , e02 , ..., e0n } y las p primeras tienen coeficientes positivos q siguientes tienen negativos. Entonces, p 0 mientras que las pcoeficientes √ √ 0 0 0 0 0 Q(ei / ai ) = 1 = Q (ei / ai ) ∀i ≤ p, Q(ei / ai ) = −1 = Q (ei / ai ) si p < i ≤ p + q, Q(ei ) = 0 = Q0 (e0i )∀i > p + q. p √ El isomorfismo ϕ de Rn dado por ϕ(ei / ai ) = (e0i / a0i ) si i ≤ p + q, ϕ(ei ) = (e0i ) si i > p + q verifica: Q0 ◦ ϕ(x) = Q ya que Q(ei ) = ai = Q0 (ϕ(ei )) si 1 ≤ i ≤ p, Q(ei ) = −ai = Q0 (ϕ(ei )) si p < i ≤ p + q, Q(ei ) = 0 = Q0 (e0i )∀i > p + q. Rec´ıprocamente, si Q y Q0 son equivalentes, se pasa de una a otra por un cambio de coordenadas y entonces la ley de inercia de Sylvester garantiza que tienen los mismos ´ındices de inercia. Por ello, se pueden clasificar la formas cuadr´aticas mirando los signos de los coeficientes de los cuadrados de las coordenadas de las expresiones obtenidas por el m´etodo de Gauss y tambi´en mirando los signos de los valores propios. Tambi´en podemos demostrar que la suma de los ´ındices de inercia positivo y negativo de la forma cuadr´atica es igual al rango de su matriz sim´etrica. 303

Desde luego, p + q es el rango de la matriz diagonal correspondiente a Q y es siempre el mismo cuando la matriz est´e expresada como suma de cuadrados, en virtud de la ley de inercia de Sylvester. Pero tambi´en es el rango de cualquier matriz sim´etrica que corresponda a Q en cualquier sistema de coordenadas. Aunque matrices no sim´etricas correspondientes a la misma forma cuadr´atica pueden tener distinto rango. La forma cuadr´ atica Q(x1 , x2 ) = x21 + 2x1 x2 + x22 se puede expresar:     1 1 x1 1 Q(x1 , x2 ) = (x1 , x2 ) = (x1 , x2 ) 1 1 x2 0

2 1



x1 x2



siendo las dos matrices de distinto rango.

En un cambio de coordenadas, las distintas matrices de partida B de la forma cuadr´atica dan lugar a distintas matrices de llegada: C t · B · C. Pero como la matriz sim´etrica asociada a la forma cuadr´atica es u ´nica, si le hacemos corresponder matrices sim´etricas a la partida y a la llegada de un cambio de coordenadas, la una se tiene que transformar en la otra. La matriz sim´etrica B de Q en una base pasa a otra sim´etrica de Q, por un cambio C t BC, donde C es una matriz de cambio de coordenadas. Veamos ahora que las distintas matrices sim´etricas de Q en distintas bases, tienen el mismo rango: si C es una matriz invertible, C t tambi´en lo es, y las columnas de C t B son las im´agenes de las columnas de B por el isomorfismo de matriz C t , por tanto hay el mismo n´ umero de columnas t independientes en B que en C B. Es decir, el rango de B es el mismo que el rango de C t B. Por la misma raz´on, el rango de t C(BC) es el mismo que el rango de BC, igual al rango de t C t B, igual al rango de t B, y ´este igual al de B.

Un ejemplo tomado de [B] que aparentemente contradice p+q=r es el siguiente:    2 1 1 x 2    y  Q(x, y, z) = 2x + 2xy + 2yz = (x, y, z) 1 0 0 1 0 0 z El rango de esta forma cuadr´atica es 2, pero se puede escribir 2

2

Q(x, y, z) = 2x2 + 2xy + 2yz = (x + y + z)2 − (y + z)2 + x2 = x0 − y 0 + z 0

2

que aparentemente tiene p=2, q=1, siendo entonces p+q distinto de r. Lo que ocurre es que  0     x 1 1 1 x  y0  =  0 1 1   y  z0 1 0 0 z 304

no es un verdadero cambio de coordenadas porque viene dado por una matriz de determinante nulo.

Las formas cuadr´aticas se llaman no degeneradas si su rango es igual al n´ umero de coordenadas, y degeneradas en caso contrario. Las no degeneradas se llaman definidas positivas si el ´ındice de inercia positivo es igual al n´ umero de coordenadas (su ´ındice de inercia negativo es nulo) y definidas negativas si el ´ındice de inercia negativo es igual al n´ umero de coordenadas (su ´ındice de inercia positivo es nulo). En otro caso, se llaman indefinidas. Las degeneradas se llaman semidefinidas positivas si su ´ındice de inercia negativo es nulo, semidefinidas negativas si su ´ındice de inercia positivo es nulo e indefinidas en otro caso. Si reducimos la forma cuadr´atica a suma de cuadrados con coeficientes, utilizando los valores propios, la forma cuadr´atica es no degenerada si todos sus valores propios son distintos de cero, entonces, la forma cuadr´atica es definida positiva si y s´olo si todos sus valores propios son positivos. Es definida negativa si y s´olo si todos sus valores propios son negativos. Es indefinida si hay valores propios de los dos signos. Ejercicios: 9.5.1. Encontrar el car´acter de las formas cuadr´aticas de los ejercicios 9.1.1. y estudiar si son equivalentes. 9.5.2. Encontrar el car´acter de las formas cuadr´aticas del ejercicio 9.4.1 y estudiar si son equivalentes.

305

Las formas cuadr´aticas m´as interesantes son las definidas positivas. Lo son cuando todos los valores propios son positivos, pero aunque el c´alculo de los valores propios de una forma cuadr´atica de orden dos consiste en la resoluci´on de una ecuaci´on de segundo grado, siempre resoluble, y a´ un cuando el m´etodo de completar cuadrados puede usarse para ver si es definida positiva cuando la ecuaci´on a resolver es de mayor orden y no se puede resolver bien, puede ser latoso. Por ello es u ´til utilizar el criterio de Sylvester. Criterio de Sylvester para formas cuadr´ aticas definidas positivas: La matriz G sim´etrica determina una forma cuadr´atica definida positiva en cualquier base si y s´olo si todos sus menores angulares superiores izquierdos son positivos. Nos ahorra hacer todo el proceso del m´etodo de Gauss en cada caso particular. El criterio de Sylvester sirve tambi´en para decidir si una forma cuadr´atica es definida negativa, ya que en este caso su opuesta es definida positiva. Por tanto la matriz sim´etrica de una forma cuadr´atica definida positiva ha de tener todos los menores angulares superiores izquierdos de orden impar negativos y todos los menores angulares superiores izquierdos de orden par positivos. Si la forma cuadr´atica es no degenerada y no es definida positiva ni definida negativa, es indefinida, p.ej. si alg´ un menor angular superior izquierdo de orden par es negativo o si hay dos menores angulares superiores izquierdos de orden impar de distinto signo. Demostraci´on del criterio de Sylvester: Ya se hizo una demostraci´on del criterio en el cap´ıtulo del producto escalar no usual. Se da aqu´ı otra demostraci´on completando cuadrados. Lo vamos a hacer por induci´on sobre la dimensi´on del espacio. Estamos interesados en comprobar que si |Gii | > 0 ∀i,   x1  x2    x · x = (x1 , x2 , · · · , xn )G  ..  ≥ 0, siendo x · x = 0 ≡ x = 0  .  xn Vamos a probar el teorema haciendo cambios de coordenadas que lleven la expresi´on x · x a ser una suma de cuadrados de coordenadas con coeficientes y vamos a ver que estos coeficientes son positivos en las condiciones del Teorema, por lo que entonces, ser´a x · x > 0 siempre que el vector x sea distinto de cero. Es decir, la forma bilineal, adem´as de sim´etrica, ser´a definida positiva. 306

Hacemos la demostraci´on por inducci´on sobre la dimensi´on del espacio. Cuando la dimensi´on del espacio es 1, s´olo hay un menor angular, que coincide con el determinante de la matriz: Es el n´ umero g11 ; el producto escalar es x · y = g11 x1 y1 , siendo x · x = g11 x21 , mayor o igual que cero si g11 > 0, adem´as x · x = 0 ≡ x = 0, si g11 > 0, quedando por tanto establecido el teorema en esta dimensi´on. Cuando la dimensi´on del espacio es 2, hay dos menores angulares superiores: g11 = G11 y G = G22 . Entonces,    g11 g12 x1 x · x = (x1 , x2 ) = g11 x21 + 2g12 x1 x2 + g22 x22 = g12 g22 x2

=

g11 (x21

2 g12 2 g12 2 g12 2 g12 2g12 2 x1 x2 + ( x2 ) ) − g11 ( x2 ) + g22 x2 = g11 (x1 + x2 ) + (g22 − )x22 = + g11 g11 g11 g11 g11

= g11 (x1 + Hacemos el cambio de coordenadas:  0 x1 = x1 + gg12 x2 11 0 x2 = x2

2 g12 2 g22 g11 − g12 x2 ) + x22 g11 g11

 ≡

x01 x02



 =

1 0

g12 g11

1



x1 x2



(Hacer un cambio de coordenadas por una matriz de determinante distinto de cero es equivalente a hacer un cambio de base) y queda el producto 0

x · x = g11 x12 +

|G| 0 2 x g11 2

que es siempre mayor o igual que cero si |G11 | > 0 y |G| = |G22 | > 0 siendo igual a cero s´olo cuando x01 = 0 = x02 , es decir, cuando el vector x es cero por ser los {x0 } un sistema de coordenadas. Cuando la dimensi´on es 3, tendr´ıamos: 

  g11 g12 g13 x1 x · x = (x1 , x2 , x3 )  g12 g22 g23   x2  = g11 x21 + 2g12 x1 x2 + g22 x22 + 2g13 x1 x3 + 2g23 x2 x3 + g33 x23 g13 g23 g33 x3 307

Los tres primeros sumandos corresponden a la expresi´on del producto escalar en un espacio de dimensi´on 2, en el que hemos visto que con el cambio de coordenadas anterior, se reducen a una suma de cuadrados con coeficientes positivos, debido a que los dos primeros menores angulares son positivos. Entonces, la expresi´on queda: 0

0

x · x = b1 x12 + b2 x22 + 2g13 (x01 − 0

0

b1 x12 + b2 x22 + 2g13 x01 x3 + (2g23 −

g12 0 x )x3 + 2g23 x02 x3 + g33 x23 = g11 2

2g13 g12 0 )x2 x3 + g33 x23 donde b1 > 0 y b2 > 0. g11

Llamamos 2b23 al coeficiente de x02 x3 y seguimos arreglando los t´erminos para conseguir una suma de cuadrados de coordenadas con coeficientes positivos: 0

0

x · x = b1 x12 + b2 x22 + 2g13 x01 x3 + 2b23 x02 x3 + g33 x23 = 2 b23 0 g13 2 b23 2 g13 b223 2 g13 0 02 − )x = = b1 (x1 + 2 x1 x3 + ( x3 ) ) + b2 (x2 + 2 x2 x3 + ( x3 ) ) + (g33 − b1 b1 b2 b2 b1 b2 3 02

= b1 (x01 +

b23 2 g13 2 ”2 ”2 x3 ) + b2 (x02 + x3 ) + b3 x23 = b1 x”2 1 + b2 x 2 + b3 x 3 b1 b2 g2

b2

donde hemos llamado b3 = g33 − b131 − b232  00   x1  x002  =  x003

y hemos hecho otro cambio de coordenadas:  0  1 0 g13 /b1 x1 0 1 b23 /b2   x02  x3 0 0 1

cuya matriz es de determinante distinto de cero, Ya ten´ıamos de antes que b1 > 0 y b2 > 0. Necesitamos que sea tambi´en b3 > 0 para que x · x ≥ 0 siendo x · x = 0, s´olo cuando x = 0. Escribamos:





b1

”2 ”2  x · x = b1 x”2 1 + b2 x2 + b3 x3 = (x”1 , x”2 , x”3 )

b2

   x”1 x”1   x”2  = (x”1 , x”2 , x”3 )B  x”2  b3 x”3 x”3

Relacionando la matriz B con la matriz G dada, vamos a obtener que b3 es tambi´en positivo. Sabemos c´omo repercuten los cambios de coordenadas que hemos hecho en la matriz de una forma cuadr´atica. Si C es la matriz de cambio de coordenadas total, la forma bilineal en las u ´ltimas 308

coordenadas es x · y = x”tt CGCy” lo cual induce el mismo cambio en la expresi´on de x · x en las nuevas coordenadas: x · x = x”tt CGCx”. Aunque nosotros hemos hecho los cambios en la expresi´on polinomial x · x = xt Cx y despu´es de hacerlos hemos llegado a una expresi´on que se puede poner en forma matricial x · x = x”t Bx” con matriz diagonal, podemos concluir que B = t CGC, haciendo la consideraci´on de que cuando hacemos un cambio de coordenadas en la expresi´on polinomial de la forma cuadr´atica y luego volvemos a escribir la matriz sim´etrica correspondiente, esta nueva matriz tambi´en corresponde solamente a una forma bilineal sim´etrica que la induce. Por ello, la nueva matriz sim´etrica est´a relacionada con la primitiva sim´etrica por una expresi´on B 0 = t CBC donde |C| 6= 0, aunque no ocurre lo mismo con todas las distintas matrices no sim´etricas que podemos que le podemos hacer corresponder al principio y al final. Entonces, existe C matriz de cambio de base, tal que   b1 t  b2 CGC =  b3 de donde se tiene b1 b2 b3 = |C|2 |G|, lo que implica b3 > 0 por las condiciones del criterio y ser b1 > 0, b2 > 0. Con esto queda hecha la demostraci´on del criterio en un espacio vectorial de dimensi´on 3. Supuesta hecha la demostraci´on cuando la dimensi´on del espacio es n − 1, se hace la demostraci´on cuando el espacio es de dimensi´on n reduciendo los t´erminos de la expresi´on x·x a suma de cuadrados con coeficientes positivos en dos etapas. Por la hip´otesis de inducci´on se pueden reducir a una tal suma de cuadrados todos los t´erminos en los que figuran s´olo las n − 1 primeras coordenadas, quedando una expresi´on: 0

0

0

2 x · x = b1 x12 + b2 x22 + · · · + bn−1 xn−1 + 2b1n x01 xn + 2b2n x02 xn + · · · + gnn x2n

donde todos los bi son positivos, y que se puede arreglar a ”2 ”2 x · x = b1 x”2 1 + b2 x2 + · · · + bn−1 xn−1 + (gnn −

b21n b22n b21n−1 2 − − )x b1 b2 bn−1 n

Llamando bn al coeficiente de x2n , como todos los arreglos de coordenadas corresponden a cambios de base, tenemos, de forma an´aloga a la utilizada en dimensi´on 3: b1 b2 · · · bn = |C|2 |G| 309

para la matriz C de cambio de base total, de donde resulta bn tambi´en positivo por serlo todos los dem´as n´ umeros de la expresi´on. As´ı queda demostrado el teorema para cualquier espacio vectorial real de dimensi´on finita.

Ser´ıa conveniente hacer los ejercicios siguientes: Ejercicios. 9.6.1. Estudiar para qu´e valores de a, la formas cuadr´aticas siguientes son definidas positivas: a) Qa (x, y, z) = x2 + 4y 2 + z 2 + 2axy + 10xz + 6yz. b) Qa (x, y, z) = x2 + 4y 2 + z 2 + 2axy + 2ayz. c) Qa (x, y, z) = 5x2 + y 2 + az 2 + 4xy − 2xz − 2yz. d) Qa (x, y, z) = x2 + 2xy + ay 2 + 2xz + 2ayz + 3z 2 . e) Qa (x, y, z) = ax2 + y 2 + z 2 + 2axy + 2a2 xz + 2ayz. f) Qa (x, y, z) = x2 + a(a − 1)y 2 + 2axy + 2xz + 4ayz. g)Qa (x, y, z) = x2 + a(a − 1)y 2 + 2axy + 2xz + 4ayz. h) Qa (x, y, z) = (a + 1)x2 + (a + 1)y 2 + az 2 + 2xy − 2ayz. i) Qa (x, y, z) = (a − 1)x2 + 3ay 2 + az 2 + 2(a − 1)xy + 2ayz. 9.6.2. Estudiar si para algunos valores de a, las formas cuadr´aticas anteriores son definidas negativas o indefinidas. 9.6.3. Hallar los ´ındices de inercia de las formas cuadr´aticas anteriores para los valores de a que las hacen degeneradas. 9.6.4. Hallar los ´ındices de inercia de las formas cuadr´aticas anteriores para los valores de a que las hacen indefinidas no degeneradas. Tambi´en se pueden estudiar los ´ındices de inercia de las formas cuadr´aticas de los ejercicios anteriores seg´ un los valores de a, utilizando el m´etodo de Gauss, comprobando en particular los resultados correspondientes a formas cuadr´aticas definidas positivas.

310

Criterios para formas cuadr´aticas degeneradas. En cuanto a las formas cuadr´aticas degeneradas, Smirnov afirma sin demostrar en [S] que es necesario y suficiente para que una forma cuadr´atica sea positiva que todos los menores principales (es decir, todos aquellos cuya diagonal est´a contenida en la diagonal principal) tengan determinante no negativo. Esta condici´on se traduce en la sucesi´on de signos de los coeficientes del Polinomio Caracter´ıstico. Aqu´ı damos otros tres criterios para decidir si una forma cuadr´atica degenerada es definida positiva en los que el n´ umero de los determinantes a calcular y el orden de los mismos es menor. Los dos primeros se deben a la autora del curso y el tercero a Fernando Chamizo (1990) [CCh]. La demostraci´on del tercer criterio depende del segundo y ´este del primero. Tambi´en se ve que dichos criterios son equivalentes al de Smirnov. Esta demostraci´on es tambi´en debida a la autora. Sea {e1 , e2 , .., en } una base de V n tal que si x es un vector de V n con coordenadas (x1 , ..., xn ) en esta base,   x1   Q(x) = (x1 , ..., xn )A  ...  xn siendo A sim´etrica y sea f la forma bilineal asociada a Q tal que si y = y1 e1 + ... + yn en ,   y1   f (x, y) = (x1 , ..., xn )A  ...  . yn Hagamos antes algunas consideraciones sobre las formas cuadr´aticas indefinidas: Consideremos aii . Si existe alg´ un aii nulo siendo aij 6= 0, la forma cuadr´atica Q |L{ei ,ej } es indefinida por el criterio de Sylvester y por tanto Q es indefinida. Prescindiendo de filas y columnas nulas, podemos suponer que aii 6= 0, ∀i. Si existen i 6= j tales que aii > 0, ajj < 0, Q es indefinida. Para hacer el estudio de Q, como Q es positiva si y s´olo si −Q es negativa, cambiando el signo de Q si es necesario podemos suponer que aii > 0, ∀i.

311

Si existiera alg´ un Aii tal que |Aii | < 0, como Aii es una matriz sim´etrica, Aii es diagonalizable por una matriz ortogonal y |Aii | = λ1 λ2 ....λi es el producto de los valores propios del endomorfismo definido por Aii en L{e1 , ..., ei }, tenemos alg´ un λi = Q(ui , ui ) negativo. Teniendo en cuenta que a11 > 0 concluir´ıamos que Q es indefinida. Notaci´ on. Llamaremos Akrr al menor de A formado al orlar Arr con la fila (ak1 ...akr ...akk ) y la columna (a1k ...ark ...akk )t donde k > r. En una forma cuadr´atica degenerada, |A| = 0, por tanto cogiendo r = n − 1, k = n, tenemos n |An−1,n−1 | = 0. Si |Arr | = 6 0 y |Akrr | = 0 denotamos por Urk ∈ L{e1 , ..., er , ek } el vector propio correspondiente al k de Urk es no nula. valor propio nulo de Akrr . Observemos que entonces la k-´esima coordenada Urk k Sea Akj rr el menor obtenido de Arr al orlarlo con la fila (aj1 · · · ajr · · · ajk · · · ajj ) y la columna (a1j · · · arj · · · akj · · · ajj )t donde j > k.

Criterios: Sea Q una forma cuadr´atica degenerada de matriz sim´etrica A. Supongamos ahora que |Ass | > 0, ∀s ≤ m y |Akmm | = 0, ∀k > m, lo cual siempre se puede conseguir con una reordenaci´on de las filas y columnas de A. Decimos entonces que Q est´a en forma m-positiva y as´ı lo suponemos en los criterios a continuaci´on. Entonces: I. Q es semidefinida positiva si y s´olo si su matriz sim´etrica puede ponerse en forma m-positiva k es vector propio de A. y cada vector Um II. Q es semidefinida positiva si y s´olo si su matriz sim´etrica puede ponerse en forma m-positiva 0 y ∀k, k 0 > m, |Akk mm | = 0. III. Q es semidefinida positiva si y s´olo si su matriz sim´etrica puede ponerse en forma m-positiva y r(A) = m. EJEMPLOS. 1) Estudiar la forma cuadr´atica Q definida en R4 por la matriz

312



2  1 A=  0 3

1 1 1 2

0 1 2 1

 3 2   1  6

Como |A| = 0, Q es degenerada. Cogiendo los menores angulares: |A11 | > 0 , |A22 | > 0 pero |A33 | = 0, entonces pasamos a 4 |A22 | > 0 e intercambiamos tercera y cuarta filas y tercera y cuarta columnas para hacer la forma cuadr´atica 3 − positiva:   2 1 3 0  1 1 2 1   A=  3 2 6 1  0 1 1 2 4

En esta matriz |A11 | > 0 , |A22 | > 0 y |A33 | > 0 y |A33 | = |A| = 0, por lo que Q es semidefinida positiva.

2) Estudiar la forma cuadr´atica Q definida en  1  0 A=  1 0

R4 por la matriz  0 1 0 2 0 2   0 1 0  2 0 2

Como |A| = 0, Q es degenerada. Empezamos cogiendo los menores angulares: |A11 | > 0 y |A22 | > 0, entonces pasamos a |A322 | = 0 y |A422 | = 0. Por tanto Q est´a en forma 2-positiva. Aplicando el segundo criterio en este caso, podemos concluir que la forma cuadr´atica es semidefinida positiva directamente ya que |A34 22 | = |A| = 0. Para aplicar el tercer criterio tendr´ıamos que calcular el menor formado por la intersecci´on de las tres primeras filas y las columnas primera, tercera y cuarta, que tambi´en sale cero. Para aplicar el primer criterio, hallamos U23 vector propio de A322 = A33 para el valor propio nulo de A322 y lo sumergimos can´onicamente en R4 , por ejemplo, U23 = (1, 0, −1, 0) soluci´on de 313

x1 + x3 = 0 2x2 = 0 x1 + x3 = 0 Se ve f´acilmente que U23 es vector propio de A. Hallamos U24 vector propio de A422 para el valor propio nulo de A422 y lo sumergimos can´onicamente en R4 , por ejemplo, U24 = (0, 1, 0, −1) soluci´on de x1 = 0 2x2 + 2x4 = 0 2x2 + 2x4 = 0 Se ve f´acilmente que U24 es vector propio de A. Se puede concluir por tanto que Q es semidefinida positiva por el primer criterio. Se puede comprobar que efectivamente Q es semidefinida positiva viendo que t  2 1 0 −1 1 0   1 0 1 0   0 2  −1  0 −1 0 1   1 0 2 1 2 −1 0 0 2 

1 0 1 0

    2 1 0 −1 0 1     1 0 1 0   0 2   −1 = 0 1   0 0  2  0 −1 1 2 −1 0 2 0

3) Estudiar la forma cuadr´atica definida en R5  6 8  8 13  A=  6 8  2 3 8 11

0 2 0 0

0 0 0 0

 0 0   0  0

por la matriz  6 2 8 8 3 11   6 2 8  . 2 1 3  8 3 11

Como |A| = 0, Q es degenerada. Empezamos cogiendo los menores principales superiores del ´angulo izquierdo: |A11 | > 0 y |A22 | > 0, pero |A33 | = 0 aunque |A422 | > 0 entonces hacemos una reordenaci´on de la matriz correspondiente a una permutaci´on de los vectores e3 y e4 de la base y obtenemos 314

   A=  

6 8 2 6 8 8 13 3 8 11 2 3 1 2 3 6 8 2 6 8 8 11 3 8 11 4

   .   5

Ahora |A11 | = |A11 | > 0, |A22 | = |A22 | > 0, |A33 | > 0. |A33 | = 0, |A33 | = 0, luego Q est´a en forma 2-positiva. Aplicando el criterio II, como |A45 33 | = |A| = 0, podemos concluir que Q y por tanto Q es semidefinida positiva. Para aplicar el criterio III tendr´ıamos que calcular el menor correspondiente a las cuatro primeras filas y a las columnas primera, segunda, tercera y quinta, que tambi´en sale cero. 4

5

Para aplicar el criterio I, observemos que los vectores propios U 33 = (1, 0, 0, −1, 0) y U 33 = (1, 0, 1, 0, −1) lo son de A, siendo por tanto semidefinida positiva. Se puede comprobar que es semidefinida positiva porque   1  2 

2 1 0 −1 −3 −1 0 1 0 0 0 −1 0 1 1 1 2 −1 0 −2 0 0 0 0 2

t      

    

6 8 6 2 8 8 13 8 3 11 6 8 6 2 8 2 3 2 1 3 8 11 8 3 11





  1   2  

2 1 0 −1 −3 −1 0 1 0 0 0 −1 0 1 1 1 2 −1 0 −2 0 0 0 0 2





    =    

2 1 1 0 0

1 1 1 0 0

1 1 2 0 0

Demostraciones. Damos primero dos lemas utilizados en las demostraciones de los criterios. Lema 1: Sean U1 , ..., Um los vectores propios que diagonalizan Am,m transform´andola en I. Si Q k est´a en forma m-positiva, f (Ui , Um ) = 0, ∀i, ∀m.

315

0 0 0 0 0

0 0 0 0 0

   .  

Demostraci´on:

k La matriz de Q |L{e1 ,e2 ,..,em ,ek } en la base {U1 , ..., Um , Um }, que es de la forma   b1  I .      .    .     bm  b1 ... bm 0

ha de tener determinante nulo, por tanto, desarrollando por la u ´ltima columna tenemos −(b21 + b22 + k ... + b2m ) = 0, de donde 0 = bk = f (Ui , Um ) ∀i, ∀k. 0

k k , Um ) = 0, Lema 2: Si Q est´a en forma m-positiva, Q es semidefinida positiva si y s´olo si f (Um 0 ∀k, k > m. n m+1 } son independientes entre s´ı ya que , ..., Um Demostraci´on. Los vectores {Um n m+1 k } son base de V n . , ..., Um Um ∈ L{e1 , e2 , ..., em , ek } − L{e1 , .., em }. Los vectores {U1 , ..., Um , Um Seg´ un el Lema 1, Q se expresa en esta base por   Imm 0 0 C 0

k k ) , Um donde todos los t´erminos de la diagonal principal de C son nulos. Observando que ckk0 = f (Um tenemos demostrado el lema 2.

Demostraci´on del Criterio I. 0

k k k son vectores , Um ) = 0 ∀k, k 0 > m si y s´olo si los vectores Um Ahora probamos que f (Um propios de A. k Es claro que si los vectores Um son vectores propios de A s´olo pueden serlo para el valor propio nulo y en este caso  m+1  m+1 Um,1 ... Um,n  A = 0 ... n n Um,1 ... Um,n

por lo que C = 0. k k Rec´ıprocamente, si alg´ un Um no es vector propio de A, alguna coordenada de Um A es distinta k s s de cero. Sea a el valor de esta coordenada en el lugar s. Encontramos f (Um , Um ) = aUms 6= 0. Contradicci´on. 316

Demostraci´on del Criterio II. 0

La matriz de Q |L(e1 ,...,em ,ek ,ek0 ) en la base {e1 , ..., em , ek , ek0 } es Akk m,m . Los vectores 0 k0 k en {U1 , ..., Um , Um , Um } son tambi´en una base de L{(e1 , ..., em , ek , ek0 } luego si |Akk m,m | = 0 tambi´ I 0 0 k k0 0 0 f (U , U m m) 0 f (U k , U k0 ) 0 m m

=0

0

k k por tanto f (Um , Um ) = 0. Es decir, Q es semidefinida positiva seg´ un el lema 2.

Demostraci´on del Criterio III. 1 n Considerando la base {U1 , ..., Um , Um , ..., Um } vemos que r(A) = r(Q) = m si y s´olo si ckk0 = 0, 0 k k es decir si y s´olo si f (Um , Um ) = 0 o equivalentemente Q es semidefinida positiva.

Equivalencia entre estos Criterios y el Criterio de Smirnov. Cada menor diagonal es la matriz de la restricci´on de Q a un cierto subespacio engendrado por vectores de la base, por tanto, si Q es semidefinida positiva el determinante de estos menores ha de ser no negativo. 0 Rec´ıprocamente, observemos que Akk mm es un menor diagonal y 0

0

k k 2 2 |Akk mm | = −(f (Um , Um )) |D| 0

k k donde D es la matriz de cambio de base de {e1 , ..., em , ek , ek0 } a {U1 , ..., Um , Um , Um }. k k0 un nuestro lema Por tanto, en las hip´otesis del Criterio de Smirnov ha de ser f (Um , Um ) = 0 y seg´ 2, Q es semidefinida positiva.

317

Esquema. Formas cuadr´aticas. a) |Ass | > 0 ∀s ⇔ Q es definida positiva. b) Si en alguna reordenaci´on de A ∃k < n \ |Ass | > 0 ∀s ≤ m y |Akmm | = 0 ∀k > m entonces  k = 0 o´ AUm  0 ⇐⇒ Q es semidefinida positiva. | = 0 o ´ |Akk mm   r(A) = m c) −A cumple a) ⇔ Q es definida negativa. d) −A cumple b) ⇔ Q es semidefinida negativa. e) casos restantes ⇔ Q es indefinida.

318

Diagonalizaci´ on simult´ anea de formas cuadr´ aticas.

Este problema consiste, dadas dos formas cuadr´aticas distintas definidas en un espacio vectorial, en encontrar una base del espacio vectorial en la que las dos se expresen como suma de cuadrados (con coeficientes) de las coordenadas correspondientes a esta misma base. Entonces, ambas expresiones matriciales son diagonales. Se trata tambi´en de encontrar una base en la que las dos formas bilineales sim´etricas de las que provienen las formas cuadr´aticas tengan una expresi´on matricial diagonal. En F´ısica se utiliza la diagonalizaci´on simult´anea para expresar la energ´ıa cin´etica, (que es una forma cuadr´atica de las derivadas de las coordenadas) y la energ´ıa potencial, (que salvo una constante, es una forma cuadr´atica de las coordenadas). Las ecuaciones de Lagrange y una diagonalizaci´on simult´anea de las dos formas cuadr´aticas determinan entonces el movimiento. (Puede verse [B]) Pasando al problema, si una de ellas, p.ej. Q de matriz sim´etrica A, es definida positiva, podemos hacer un razonamiento relativamente corto: Por ser Q definida positiva, Q determina un producto escalar que admite bases ortonormales. Existe, por tanto un cambio de base de matriz C, tal que t CAC = I. Sea Q0 otra forma cuadr´atica de matriz sim´etrica A0 ; El mismo cambio de base en Q0 da lugar a la matriz t CA0 C, que es otra matriz sim´etrica. t CA0 C se puede diagonalizar en una base ortonormal, es decir, existe otra matriz ortogonal P tal que t P t CA0 CP = D; por ser P ortogonal, tambi´en t P t CACP = P t IP = I. Por tanto, la matriz CP diagonaliza simult´aneamente a las dos matrices sim´etricas y a las dos formas cuadr´aticas. Para hallar la matriz CP , tenemos en cuenta que las columnas de la matriz P son los vectores propios de t CA0 C, soluciones de (t CA0 C − λI)v = 0 para alg´ un λ; Pero esta ecuaci´on se puede escribir: (t CA0 C − λt CAC)v = 0 ≡ t C(A0 − λA)Cv = 0 ≡ (A0 − λA)Cv = 0 Entonces, los vectores columna de CP son los vectores Cv = V , que satisfacen el sistema (A0 − λA)V = 0 para los λ tales que |A0 − λA| = 0. A pesar de que al resolver el sistema anteriormente escrito, no s´olo se obtienen los vectores Cv sino tambi´en sus m´ ultiplos, y las soluciones que cojamos del sistema no siempre diagonalizar´an la matriz A hasta la matriz I, en cualquier caso, la base formada por los vectores escogidos, cuya matriz de cambio de base fuera CP 0 sigue diagonalizando simult´ aneamente, porque los productos de filas por columnas cruzadas en t (CP 0 )ACP 0 y t (CP 0 )A0 CP 0 son m´ ultiplos t t 0 de los que corresponder´ıan a la matriz (CP )ACP y (CP )A CP .

319

Cuando todos los λi son de multiplicidad 1, estando interesados s´olamente en la diagonalizaci´on, no tenemos que preocuparnos de la elecci´on que hacemos de los vectores V : Observemos que los vectores que verifican (A0 − λA)V = 0 son los mismos que los que verifican (A−1 A0 − λI)V = 0. Sean Vi = (vi1 , vi2 ...vin ) y Vj = (vj1 , vj2 ...vjn ), correspondientes a valores propios distintos λi 6= λj , entonces,     vj1 vj1  v   v  0  j2  −1 0  j2  (vi1 , vi2 ...vin )A  ..  = (vi1 , vi2 ...vin )AA A  ..  =  .   .  vjn vjn     vj1 vj1  vj2   vj2      = (vi1 , vi2 ...vin )Aλj  ..  = λj (vi1 , vi2 ...vin )A  ..   .   .  vjn vjn Tambi´en, por ser las matrices sim´etricas,    (vi1 , vi2 ...vin )A   0

vj1 vj2 .. .





   0  = (vj1 , vj2 ...vjn )A   

vjn    (vj1 , vj2 ...vjn )Aλi  

vi1 vi2 .. .





   −1 0   = (vj1 , vj2 ...vjn )AA A   

vin vi1 vi2 .. .





     = λi (vj1 , vj2 ...vjn )A   

vin

vi1 vi2 .. .

   = 

vin vi1 vi2 .. . vin





     = λi (vi1 , vi2 ...vin )A   

vj1 vj2 .. .

    

vjn

La igualdad de las dos u ´ltimas expresiones cuando λi 6= λj , implica que Vit AVj = 0 = Vit A0 Vj . Pero si alg´ un λ es de multiplicidad mayor que 1, tenemos que preocuparnos de coger entre los vectores correspondientes al mismo valor propio, Vi , Vj , tales que t Vi AVj = t Vi A0 Vj = 0. Observemos que los vectores que cogi´endolos de manera que t Vi AVj = 0, tambi´en se verifica que t Vi A0 Vj = t Vi A(A−1 A0 )Vj = t Vi AλVj = λt Vi AVj = 0. Veamos dos ejemplos: 320

Ejemplo 1: Sean   1 1 x Q(x, y) = x + 2y + 2xy = (x, y) 1 2 y    1 1 x 0 2 Q (x, y) = x + 2xy = (x, y) 1 0 y 2



2

dos formas cuadr´aticas que queremos diagonalizar simult´aneamente. Hallamos primero los valores de λ tales que |A0 − λA| = 0: son λ1 = 1, λ2 = −1, ya que     1 1 1−λ 1−λ 1 1 2 1 0 − λ 1 2 = 1 − λ −2λ = λ − 1 Para λ1 = 1, los vectores V que verifican (A0 − λ1 A)V = 0 son las soluciones del sistema:      0 0 x 0 = ≡y=0 0 −2 y 0 Para λ2 = −1, los vectores V que verifican (A0 − λ2 A)V = 0 son las soluciones del sistema:      2 2 x 0 = ≡x+y =0 2 2 y 0 Cogiendo como V1 = (1, 0) y como V2 = (1, −1) tenemos la diagonalizaci´on simult´anea:       1 0 1 1 1 1 1 0 = 1 −1 1 2 0 −1 0 1       1 0 1 1 1 1 1 0 = 1 −1 1 0 0 −1 0 −1 ultiplo de V1 y cualquier otro V20 que podamos coger Cualquier otro V10 que podamos coger es un m´ es un m´ ultiplo de V2 . Por ello la diagonalizaci´on se sigue dando. Por ejemplo, cogiendo V10 = (2, 0), V20 = (−3, 3), entonces,       2 0 1 1 2 −3 4 0 = −3 3 1 2 0 3 0 9       4 0 2 0 1 1 2 −3 = −3 3 1 0 0 3 0 −9 Ejemplo 2: Diagonalizar simult´aneamente: 321

Q(x, y, z, t) = 2x2 + 2y 2 + 2z 2 + 2t2 + 2xz − 2yt Q0 (x, y, z, t) = x2 − y 2 + z 2 − t2 + 4xz + 4yt. Escritas matricialmente:      2 0 1 0 x 1 0 2 0  0 2 0 −1   y  0   2     Q (x, y, z, t) = (x, y, z, t)  0 −1 0  Q(x, y, z, t) = (x, y, z, t)   1 0 2 0  z   2 0 1 0  0 −1 0 2 t 0 2 0 −1 Entonces, 1 − 2λ 0 2−λ 0 0 −1 − 2λ 0 2 + λ |A0 − λA| = 0 1 − 2λ 0 2−λ 0 2+λ 0 −1 − 2λ

= 9(λ2 − 1)2 ,

de donde para los valores de λ iguales a 1 o´ a −1, se pueden obtener los vectores de una base que diagonaliza simult´aneamente a las dos formas cuadr´aticas. Para λ = 1, las ecuaciones    −1 0 1 0 x   0 −3  y  0 3 +z =0     = 0 ≡ −x  1 0 −1 0  z  −3y +3t = 0 0 3 0 −3 t nos permiten coger V1 = (1, 1, 1, 1). ecuaciones y adem´as verificar:  2 0  0 2 (a, b, c, d)   1 0 0 −1 Podemos coger V2 = (1, −3, 1 − 3) Para λ = −1, las ecuaciones  3 0 3 0  0 1 0 1   3 0 3 0 0 1 0 1

El vector V2 = (a, b, c, d) tiene que satisfacer esas mismas  1 0 1  1 0 −1   2 0  1 0 2 1

   = 0 ≡ 3a + b + 3c + d = 0 

 x   y  3x +3z = 0   = 0 ≡  z  y +t = 0 t 

322

 x y   z  t

nos permiten coger V3 = (1, 1, −1, −1). ecuaciones y adem´as verificar:  2 0 1  0 2 0 (a, b, c, d)   1 0 2 0 −1 0

El vector V4 = (a, b, c, d) tiene que satisfacer esas mismas  0 1   −1   1 0   −1 2 −1

   = 0 ≡ a + 3b − c − 3d = 0 

Podemos coger V4 = (3, −1, −3, 1). La base {(1, 1, 1, 1), (1, −3, 1−3), (1, 1, −1, −1), (3, −1, −3, 1)} diagonaliza a las dos formas cuadr´aticas simult´aneamente. Ejercicios: 9.7.1. Diagonalizar simult´aneamente las formas cuadr´aticas: a) Q(x, y) = x2 + 26y 2 + 10xy, Q0 (x, y) = x2 + 56y 2 + 16xy b) Q(x, y) = −4xy, Q0 (x, y) = x2 + 2xy + 2y 2 . c) Q1 (x, y, z) = x2 − 8xy − 4y 2 + 10xz + 4yz + 2z 2 , Q2 (x, y, z) = 6x2 + 8xy + 4y 2 − 2xz − 4yz + 2z 2 (valores de λ : −1, 2, 3). d)Q1 (x, y, z) = −2x2 − 4xy − 2y 2 + 2xz + 2yz − z 2 , Q2 (x, y, z) = 4x2 + 4xy + 2y 2 − 2xz − 2yz + z 2 , (valores de λ : −1, 0).

323

Bibliograf´ıa: B] F. Brickell. Matrices and vector spaces. George Allen and Unwin Ltd, 1972. [C] P.M. Cohn. Algebra. vol. 1. Ed. Wiley & Sons, 1982. [CCh] L. Contreras y F. Chamizo. Actas XV Jornadas Luso-Espanholas de Matem´atica, U. Evora 1990. [G] L.I. Golovina. Algebra Lineal y algunas de sus aplicaciones. Ed. Mir. Mosc´ u, 1980. [S] V. Smirnov. Linear Algebra and group theory. Ed. Mc. Graw-hill, 1961.

324

Condiciones necesarias y suficientes para la diagonalizaci´on simult´anea de formas cuadr´aticas. Dadas dos formas cuadr´aticas, si una de ellas es definida positiva, se puede encontrar una base en la que las dos diagonalizan simult´aneamente. Se encuentra aqu´ı una condici´on necesaria y suficiente para que dos formas cuadr´aticas sean diagonalizables simult´aneamente, vi´endose que no es necesario que una de las dos sea definida positiva, sino que es necesario y suficiente que una de las formas cuadr´aticas sea no degenerada y que si A es la matriz de la forma cuadr´atica no degenerada y A0 es la matriz de la otra forma cuadr´atica A−1 A0 ha de ser diagonalizable. Este es un trabajo original de la autora. Si queremos estudiar un caso m´as general en el que s´olo exigimos que una de las formas cuadr´aticas sea no degenerada podemos utilizar aqu´ı los conocimientos sobre el espacio dual para encontrar condiciones necesarias y suficientes para que dos formas bilineales sim´etricas (y por tanto, las formas cuadr´aticas asociadas) sean diagonalizables simult´aneamente. Recordemos que el espacio dual V n∗ de un espacio vectorial real V n es el espacio vectorial de las aplicaciones lineales definidas en ese espacio con valores reales. Cada elemento del dual es una aplicaci´on lineal ψ : V n 7→ K a la que corresponde una matriz 1 × n : (a1 , a2 , · · · , an ), tal que   y1  y2    ψ(y) = (a1 , a2 , · · · , an )  ..   .  yn K es el cuerpo del espacio vectorial (puede ser R o´ C). El n´ ucleo de ψ es el conjunto de vectores y que verifican: a1 y1 + a2 y2 + · · · + an yn = 0. Es de dimensi´on n − 1 salvo que todos los ai sean nulos en cuyo caso la aplicaci´on ψ es nula y su n´ ucleo es todo el espacio. Si {e1 , e2 , · · · , en } es una base de V n , su base dual es {e∗1 , e∗2 , · · · , e∗n } en V n∗ . Los elementos de la base dual est´an caracterizados por e∗i (ej ) = 0, si i 6= j y e∗i (ei ) = 1. En esta base las coordenadas de la ψ anterior son (a1 , a2 , · · · , an ). Pasando ahora al problema que nos ocupa, si f : V n × V n 7→ R es una forma bilineal, al fijar un vector x ∈ V n , la aplicaci´on: y 7→ f (x, y) es lineal. Vamos a escribir ϕ(x) esta aplicaci´on que es por tanto un elemento del dual: (ϕ(x))(y) = f (x, y). (ϕ(x) ∈ V n∗ ). 325

Al mismo tiempo ϕ puede considerarse como una aplicaci´on de V n en V n∗ . Es otra aplicaci´on lineal. Para hallar su matriz en una base dada de V n y en la dual de ella en V n∗ tendremos que hallar las coordenadas de las im´agenes de los vectores de la base: Tenemos     y1 y1  y2   y2      ϕ(e1 )(y) = (1, 0, · · · , 0)A  ..  = (a11 , a12 , · · · , a1n )  ..   .   .  yn yn lo que nos dice que las coordenadas de ϕ(e1 ) en el dual son (a11 , a12 , · · · , a1n ). (pimera fila de A). Haciendo la misma operaci´on para cada ei , tenemos:     y1 y1  y2   y2      ϕ(ei )(y) = (0, 0, · · · , 1, · · · , 0)A  ..  = (ai1 , ai2 , · · · , ain )  ..   .   .  yn yn lo que nos dice que las coordenadas de ϕ(ei ) en la base dual de la considerada son (ai1 , ai2 , · · · , ain ). (i-´esima fila de A). Al colocar estas coordenadas en columnas obtenemos la matriz t A como matriz de la aplicaci´on ϕ. Dadas dos formas cuadr´aticas de matrices sim´etricas A y A0 donde |A| = 6 0, Condici´on necesaria para que los vectores de una base diagonalicen simult´aneamente a dos formas cuadr´aticas es que dichos vectores sean vectores propios de A−1 A0 . Demostraci´on: Suponiendo resuelto el problema de diagonalizaci´on simult´anea de las formas cuadr´aticas Q de matriz sim´etrica A y Q0 de matriz sim´etrica A0 , existe una base de vectores {v1 , v2 , · · · , vn } tales que f (vi , vj ) = 0 = f 0 (vi , vj ) si i 6= j, o lo que es lo mismo ϕ(vi )(vj ) = 0 = ϕ0 (vi )(vj ) si i 6= j; dicho de otra manera: existe una base de vectores {v1 , v2 , · · · , vn } tal que kerϕ(vi ) 3 vj si i 6= j y kerϕ0 (vi ) 3 vj si i 6= j. Para cada i estos dos n´ ucleos tienen en com´ un al menos n − 1 vectores. Por lo tanto, o son coincidentes o uno de ellos es todo el espacio V n . Las ecuaciones de los n´ ucleos kerϕ(x) y kerϕ0 (x) son:

326

   kerϕ(vi ) ≡ (a1 , a2 , · · · , an )  

y1 y2 .. .

    = 0 donde (a1 , a2 , · · · , an ) = (vi1 , vi2 , · · · , vin )A 

yn  0

kerϕ (vi ) ≡

(a01 , a02 , · · ·



 , a0n )  

y1 y2 .. .

    = 0 donde (a01 , a02 , · · · , a0n ) = (vi1 , vi2 , · · · , vin )A0 

yn Si los dos n´ ucleos son iguales, existe λ tal que λ(a1 , a2 , · · · , an ) = (a01 , a02 , · · · , a0n ) Si el segundo n´ ucleo es todo el espacio, 0(a01 , a02 , · · · , a0n ) = (0, 0, · · · , 0) = 0(a1 , a2 , · · · , an ) Si el primer n´ ucleo es todo el espacio, (a1 , a2 , · · · , an ) = (0, 0, · · · , 0) = 0(a01 , a02 , · · · , a0n ) Los tres casos los podemos englobar en que existe λ, tal que λ(a1 , a2 , · · · , an ) = (a01 , a02 , · · · , a0n ) o´ (a1 , a2 , · · · , an ) = λ(a01 , a02 , · · · , a0n ) Como     

a1 a2 .. . an





   t   = A  

v1 v2 .. .





     = A  

vn

La igualdad anterior se expresa:    v1  v2     0 λA  ..  = A   .   vn

v1 v2 .. .





    , y   

vn

v1 v2 .. .



a01 a02 .. . a0n



    o A  ´  

vn



  0    = At  

v1 v2 .. . vn

327



v1 v2 .. .





     = A0   

vn





   0 0 =λA   

v1 v2 .. . vn

v1 v2 .. . vn

    

    

Si |A| = 6 0, la matriz A es invertible por lo que el vector Av es distinto de cero siempre que v sea distinto de cero (lo que ha de ocurrir para que est´e en una base), por lo que λ0 no puede ser cero. Entonces, dividiendo por λ0 en la u ´ltima igualdad, podemos reducirla a         v1 v1 v1 v1  v    v2   v  1   v2    0 2  0 2  A  .  = A  ..  similar a λA  ..  = A  ..  λ0  ..   .   .   .  vn vn vn vn que resume a las dos cuando Q es no degenerada. Multiplicando la u ´ltima por A−1 tenemos que    v1  v2     −1 0  λ  ..  = A A   .   vn

v1 v2 .. .

    

vn

el vector v est´ a en una base que las diagonaliza simult´ anemente, si v es vector propio de A−1 A0 . Es Condici´on suficiente para que los vectores {v1 , v2 , · · · , vn } diagonalicen simult´aneamente a Q y a Q0 cuando Q es no degenerada, es que los vectores propios de A−1 A0 correspondan a valores propios distintos. Demostraci´on: Vamos a comprobar que f (vi , vj ) = ϕ(vi )(vj ) = 0 = ϕ0 (vi )(vj ) = f 0 (vi , vj ) Si vi , vj corresponden a valores propios distintos de A−1 A0 (λi 6= λj ) Entonces, por ser las formas bilineales sim´etricas, (ϕ0 (vi ))(vj ) = (ϕ0 (vj ))(vi ) y (ϕ(vi ))(vj ) = (ϕ(vj ))(vi ) Tambi´en, (ϕ0 (vi ))(vj ) = (ϕ ◦ ϕ−1 (ϕ0 (vi ))(vj ) = (ϕ(ϕ−1 ◦ ϕ0 )(vi ))(vj ) = ϕ(λi vi )(vj ) = λi ϕ(vi )(vj )

(ϕ0 (vj )(vi ) = (ϕ ◦ ϕ−1 (ϕ0 (vj ))(vi ) = (ϕ(ϕ−1 ◦ ϕ0 )(vj ))(vi ) = ϕ(λj vj )(vi ) = λj ϕ(vj )(vi ) 328

de donde λi ϕ(vi )(vj ) = λj ϕ(vj )(vi ) lo que implica 0 = ϕ(vi )(vj ) = f (vi , vj ) y (ϕ0 (vi ))(vj ) = λi ϕ(vi )(vj ) = 0. Seg´ un esta condici´on podremos encontrar la base que las diagonaliza simult´aneamente si A−1 A0 es diagonalizable para valores propios distintos. Con el fin de resolver el problema cuando hay valores propios m´ ultiples veamos que en los subespacios de vectores propios correspondientes a cada valor propio, podemos encontrar vectores propios ortogonales respecto a la forma cuadr´atica no degenerada Q: Si Lλi es el subespacio de vectores propios de A−1 A0 para el valor propio λi , la restricci´on de Q a ese subespacio admite una matriz sim´etrica, que es diagonalizable en ese espacio, los vectores de Lλi que diagonalicen esta restricci´on son vectores propios de A−1 A0 que tambi´en verifican f (vi , vj ) = 0 y por tanto f 0 (vi , vj ) = (ϕ0 (vi ))(vj ) = λi ϕ(vi )(vj ) = 0. Podemos concluir que si Q es una forma cuadr´ atica no degenerada y Q0 es otra forma cuadr´ atica cualquiera, si la matriz A−1 A0 es diagonalizable, podemos encontrar una base de vectores propios de A−1 A0 que diagonaliza simult´ aneamente a Q y a Q0 . En particular, si A−1 A0 es sim´etrica las dos formas cuadr´aticas son diagonalizables simult´aneamente. Y si despu´es de un cambio de base conseguimos que (t CAC)−1t CA0 C sea sim´etrica, las dos formas cuadr´aticas son diagonalizables simult´aneamente. Si una de las formas cuadr´aticas p.ej. Q es definida positiva, como corresponde a un producto escalar, siempre se puede encontrar una base en la que la matriz correspondiente sea I. Si la matriz de Q0 en la base primitiva era A0 , al cambiar de base se transforma en una del tipo t CA0 C. En esta nueva base el endomorfismo ϕ−1 ◦ ϕ0 se expresa por I t CA0 C = t CA0 C, matriz sim´etrica, que por tanto es diagonalizable. Concluimos que Dos formas cuadr´ aticas, una de las cuales es definida positiva, siempre pueden diagonalizarse simult´ aneamente. C´ alculo de la base que diagonaliza simult´ aneamente a dos formas cuadr´ aticas −1 0 Un λ es valor propio de A A si y s´olo si 0 = |A−1 A0 − λI| = |A−1 A0 − λA−1 A| = |A−1 ||A0 − λA| ≡ 0 = |A0 − λA| ´esta es la ecuaci´on que resolveremos para no calcular inversas. En cuanto a los subespacios de vectores propios que las diagonalizan, tienen que satisfacer 0 = (A−1 A0 − λI)v = (A−1 A0 − λA−1 A)v = A−1 (A0 − λA)v = 0 ≡ (A0 − λA)v = 0 329

Si los valores propios son distintos y cada uno de estos espacios es de dimensi´on 1, los vectores que los engendran son una base que diagonaliza simult´aneamente a Q y a Q0 . Si para alg´ un valor propio λi el subespacio de vectores propios correspondiente Lλi es de dimensi´on mayor tendremos que encontrar en cada uno de ellos una base que diagonalice a Q y la uni´on de estas bases diagonaliza simult´aneamente a Q y a Q0 . Ejercicios: 9.9.1. Diagonalizar simult´aneamente las formas cuadr´aticas: a) Q(x, y) = −4xy, Q0 (x, y) = x2 + 4xy + 2y 2 . b) Q(x, y) = −4xy, Q0 (x, y) = x2 + 2xy + 2y 2 . c) Q1 (x, y, z) = x2 − 8xy − 4y 2 + 10xz + 4yz + 4z 2 , Q2 (x, y, z) = 6x2 + 8xy + 4y 2 − 2xz − 4yz + 2z 2 (valores de λ : −1, 2, 3). d)Q1 (x, y, z) = −2x2 − 4xy − 2y 2 + 2xz + 2yz − z 2 Q1 (x, y, z) = 4x2 + 4xy + 2y 2 − 2xz − 2yz + z 2 , (valores de λ : −1, 0). 9.9.2. Comprobar que pueden diagonalizarse simult´aneamente: Q(x, y, z, t) = 2xy + 2xz − 4yz + 4yt + 4t2 Q0 (x, y, z, t) = x2 + 4xt + 4y 2 + 4yz + z 2 + 4t2 . 9.9.3. Comprobar que no son diagonalizables simult´aneamente las formas cuadr´aticas: Q(x, y, z) = 2xy + 2xz + 2yz Q0 (x, y, z) = 2xy − 2xz − 2yz. 9.9.4. Diagonalizar simult´aneamente: Q(x, y, z, t) = 2x2 + 2y 2 + 2z 2 + 2t2 + 2xz − 2yt Q0 (x, y, z, t) = x2 − y 2 + z 2 − t2 + 4xz + 4yt.

330

Bibliograf´ıa: B] F. Brickell. Matrices and vector spaces. George Allen and Unwin Ltd, 1972. [G] L. I. Golovina. Algebra Lineal y algunas de sus aplicaciones. Ed. Mir 1974.

331

332

´ 2, 3 y 4. FORMAS DE JORDAN EN DIMENSION Introducci´ on. Las ”formas de Jordan” son matrices relativamente sencillas correspondientes a endomorfismos no diagonalizables. Aunque no siempre son diagonales, son casi siempre matrices m´as sencillas que las correspondientes a los endomorfismos en la base can´onica. Las cajas de Jordan son matrices cuadradas que tienen iguales todos los elementos de la diagonal, tienen 1 en todos los sitios inmediatamente encima de la diagonal y ceros en los dem´as sitios: La matriz:   λ 1 0  0 λ 1  0 0 λ es una caja de Jordan de orden 3. Una caja de Jordan de orden 1 es un n´ umero. Por lo que las matrices diagonales son yuxtaposici´on de cajas de Jordan de orden 1. Se llaman formas de Jordan o matrices de Jordan a las matrices formadas por cajas de Jordan yuxtapuestas en la diagonal. Se llaman ”bases de Jordan” las bases en las que el endomorfismo se expresa por una forma de Jordan. Cuando un endomorfismo es diagonalizable, si su matriz en una base dada es A, existe una matriz de cambio de base C tal que C −1 AC es diagonal. Si el endomorfismo no es diagonalizable, esto no es posible, pero llamando J a la forma de Jordan, que es bastante sencilla, existe una matriz de cambio de base C tal que C −1 AC = J. Hay un teorema general, que no demostraremos aqu´ı, que afirma la equivalencia de toda matriz de n´ umeros complejos a una matriz de Jordan. Adem´as, a un endomorfismo dado le corresponde s´olo una forma de Jordan salvo el orden de las cajas. Entonces, a todas las matrices que corresponden al mismo endomorfismo en distintas bases corresponde una sola forma de Jordan. Teni´endose por tanto, que las formas de Jordan clasifican a las matrices y que matrices con formas de Jordan diferentes no pueden corresponder al mismo endomorfismo ni siquiera en distintas bases. Lo cual puede servir para descartar si matrices provenientes de distintos observadores, corresponden al mismo fen´omeno observado. En este cap´ıtulo se demuestran los casos particulares del teorema anterior para matrices 2 × 2 y 3 × 3 de n´ umeros reales, y para matrices 4 × 4 de n´ umeros complejos por m´etodos directos y elementales. 333

La forma de Jordan de una matriz con n´ umeros reales y valores propios reales es un caso particular de la forma de Jordan de una matriz con n´ umeros complejos. Las construcciones dadas para matrices de n´ umeros reales sirven para las demostraciones an´alogas para matrices de estas dimensiones de n´ umeros complejos no diagonalizables. Demostraciones distintas del teorema en el caso 2 × 2 se encuentran en Grosman [G] y en Hern´andez [H]. Una demostraci´on corta, por inducci´on, de que toda matriz de orden n × n tiene una base de Jordan compleja, que es real si todos los valores propios son reales se encuentra en [S]. Demostraciones m´as cl´asicas de la existencia de la forma de Jordan de una matriz que incluyen la forma de encontrar la base de Jordan se encuentran en [C] y en [H]. Consideraciones previas. Las matrices de n´ umeros reales de Mn×n (R) pueden considerarse tambi´en matrices de n´ umeros n n complejos. Determinan endomorfismos de R y de C . Dada una matriz A ∈ Mn×n (R) con n´ umeros reales, vamos a llamar f al endomorfismo de Rn de matriz A en la base can´onica y f al endomorfismo de la misma matriz en C n , tambi´en en la base can´onica. Diremos que A es diagonalizable sobre R si f es diagonalizable y que A es diagonalizable sobre C si f es diagonalizable. Es obvio que si f es diagonalizable, f lo es y que si f no es diagonalizable, f tampoco lo es. Se deduce de lo anterior que la matriz A es diagonalizable sobre R si y s´olo si existe una matriz de n´ umeros reales: C, tal que C −1 AC = D sea diagonal. En este caso se dice que A es equivalente a D en R. Se deduce tambi´en que la matriz A es diagonalizable sobre C si y s´olo si existe una matriz de −1 n´ umeros complejos: C, tal que C AC = D sea diagonal. En este caso se dice que A es equivalente a D en C. La equivalencia de A a D en C no implica la equivalencia de A a D en R .

Cuando consideramos espacios vectoriales sobre C, la suma de las multiplicidades algebraicas de los valores propios de un endomorfismo es igual a la dimensi´on del espacio; esto sigue siendo cierto para endomorfismos de espacios vectoriales sobre R si todos sus valores propios son reales. Cuando hablamos de los valores propios de A, hablamos indistintamente de los valores propios umeros reales sea no diagonalizable en R, es de f o de f . El problema para que una matriz de n´ que tenga alg´ un valor propio complejo o que siendo todos los valores propios reales, haya alg´ un valor propio, cuya multiplicidad geom´etrica sea menor que la multiplicidad algebraica. Si tiene alg´ un valor propio complejo, y es diagonalizable en C, a partir de su forma de Jordan compleja se obtiene una matriz con n´ umeros reales, equivalente a la dada, que se llama forma de Jordan real de la matriz con valores propios complejos. Tiene otras cajas de Jordan, llamadas reales, correspondientes a matrices

334

con valores propios complejos que en R2 y en R3 son de la forma:   α β . −β α Forma de Jordan de Matrices 2 × 2 de n´ umeros reales. Sea A ∈ M2×2 (R). Entonces, los casos que se pueden presentar son: 1) Los valores propios de A son distintos y reales. (Entonces A es diagonalizable en R.) 2) Los valores propios de A son distintos y complejos. (Entonces A es diagonalizable en C pero no en R.) 3) Los valores propios de A son iguales, en cuyo caso tienen que ser reales. Llamemos λ a este valor propio. Entonces tenemos dos subcasos: a) dimker(f − λI) = 2, entonces A es diagonalizable. b) dimker(f − λI) = 1, entonces A no es diagonalizable en R ni en C . En el caso 2) y en el caso 3b), que no son diagonalizables, las matrices son equivalentes a las llamadas formas de Jordan. Caso 2). Sea A ∈ M2×2 (R), y α + iβ un valor propio complejo de A. Entonces A no es diagonalizable en R pero s´ı es diagonalizable en C, siendo A equivalente en R a una matriz de la forma de J:   α β J= . −β α Demostraci´on: Los valores propios complejos de una matriz de n´ umeros reales aparecen por parejas de valores conjugados: α + iβ y α − iβ, por ser raices del polinomio caracter´ıstico de la matriz, que tiene todos sus coeficientes reales. Para el valor propio complejo α + iβ , existe un vector propio de coordenadas complejas w, que se puede descomponer w = u + iv en su parte real y su parte imaginaria. Podemos calcular f (u) y f (v), teniendo en cuenta que: f (w) = (α + iβ)w =⇒ f (u) + if (v) = f (u) + if (v) = f (u + iv) = (α + iβ)(u + iv) = αu − βv + i(βu + αv) de donde, igualando partes reales y partes imaginarias: f (u) = αu − βv , f (v) = βu + αv. Podemos comprobar tambi´en que el vector complejo correspondiente a α − βi es w = u − iv. Ya que

335

f (u − iv) = f (u) − if (v) = f (u) − if (v) = αu − βv − i(βu + αv) = (α − βi)(u − iv).

Los vectores w = u + iv, w = u − iv son vectores linealmente independientes de C 2 por ser vectores propios correspondientes a valores propios distintos. Por tanto engendran un plano de C 2 . A su vez los vectores w, w son combinaci´on lineal de los u, v y rec´ıprocamente. Entonces, el subespacio engendrado por {u, v} es el mismo que el engendrado por {w, w}, (un plano) y por tanto, los vectores u, v son independientes en C 2 y en R2 . Por tanto, los vectores {u, v} son una base de R2 , llamada base de Jordan real y f se expresa en esa base por:   α β = J. −β α Que es la forma de Jordan real del endomorfismo f no diagonalizable en R, pero s´ı diagonalizable en C.

Ejercicios: 10.1.1. Hallar la forma de Jordan real y la base de Jordan real de las siguientes matrices:  a)

−1 −4 2 3



 b)

4 10 −1 2



 c)

2 −10 1 4



 d)

8 18 −1 2



 e)

−1 4 −2 3



 f)

3 −4 2 −1



10.1.2. Escribir las matrices de los giros de R2 de ´angulos π/4, π/3 y π/6 y comprobar que son matrices de Jordan reales.

336

Caso 3b). Sea A ∈ M2×2 (R), con un valor propio doble λ y dimker(f −λI) = 1(≡ r(A−λI) = 1), entonces A es no diagonalizable en C, pero A es equivalente en R a una matriz J, donde   λ 1 J= . 0 λ La base de R3 en la que f se expresa por J se llama base de Jordan de f y base de Jordan para A. Se ver´a como se encuentra en el transcurso de la demostraci´on. Demostraci´on: Por ser dim(ker(f −λI)) = 1, tambi´en dim(Im(f −λI)) = 1; consideremos el espacio Im(f −λI) (una recta). Este espacio es invariante por f : En efecto, si cogemos un vector de Im(f − λI), que es de la forma (f − λI)v, la imagen por f de este vector es de la misma forma: f ((f − λI)v) = f (f (v) − λv) = f (f (v)) − λf (v) = (f − λI)(f (v)) Entonces, si w es un generador de Im(f − λI), el vector f (w), o es cero, o es otro generador de Im(f − λI). En los dos casos, f (w) es un m´ ultiplo de w, por tanto w 6= 0 es un vector propio de f (que ha de serlo para el valor propio λ). Sea v un vector de R2 , entonces, (f − λI)v ∈ Im(f − λI). Si (f − λI)v 6= 0, (f − λI)v = w es un generador de Im(f − λI) y por ello un vector propio de f seg´ un lo expuesto previamente. Tal v existe porque dimIm(f − λI) = 1. Los vectores {w, v} (donde w 6= 0) son independientes porque uno es vector propio y el otro no. M´as expl´ıcitamente, se da la implicaci´on: α1 w + α2 v = 0 ⇒ α1 = 0 = α2 En efecto, α1 w+α2 v = 0 ⇒ 0 = (f −λI)(α1 w+α2 v) = α1 (f −λI)w+α2 (f −λI)v = α2 (f −λI)v = α2 w ⇒ α2 = 0 de donde, sustituyendo en la combinaci´on lineal inicial dada, obtenemos α1 w = 0, lo cual implica tambi´en α1 = 0. Los vectores {v, w} forman por tanto una base de R2 . Como f (w) = λw y f (v) = w + λv concluimos que f se expresa en esta base por la matriz J y que por tanto A es equivalente a J. La base {w, v} es una base de Jordan que se ha obtenido a partir de un v ∈ / ker(f −λI) y hallando w = (f −λI)v. (Se puede escoger el vector v a simple vista, cuidando de que (A−λI)v 6= 0). Tambi´en, como los vectores columna de A − λI) son los vectores que engendran Im(f − λI), cualquier columna no nula de A − λI es un vector w = (f − λI)v donde v pertenece a la base can´onica.

337

Ejercicios: 10.2.1. Comprobar que las matrices dadas a continuaci´on no son diagonalizables y hallar su forma de Jordan y una base de Jordan para cada una de ellas.  a)

0 1 −1 2



 b)

3 1 −1 1



 c)

5 −1 4 1





4 1 −1 2



an nan−1 0 an



d)

 e)

3 −4 1 −1



 f)

2 1 −1 0



10.2.2. Demostrar que 

a 1 0 a

n

 =

10.2.3. Hallar la potencia quinta de cada una de las matrices del ejercicio 10.2.1. 10.2.4. En un bosque hay una poblaci´on de depredadores y otra poblaci´on de presas devoradas por ellos. Cada medio a˜ no la poblaci´on de presas es devorada en una proporci´on de 20 por ciento respecto a la poblaci´on de depredadores, se reproduce en una proporci´on respecto a su poblaci´on existente igual a la proporci´on en la que muere por enfermedades. Los depredadores se reproducen en una proporci´on de 80 por ciento respecto a la poblaci´on de presas y en una proporci´on de 10 por ciento respecto a la proporci´on de su poblaci´on existente, muriendo tambi´en por enfermedades en una proporci´on de un 90 por ciento respecto a su poblaci´on. Si al principio hay una relaci´on de presas a depredadores de 3 a 1. ¿Cu´al es esta relaci´on al cabo de 5 a˜ nos?

338

Forma de Jordan de Matrices 3 × 3 de n´ umeros reales. Sea A ∈ M3×3 (R). Entonces, los casos que se pueden presentar son: 1) A tiene alg´ un valor propio complejo no real. En este caso, como la matriz es de n´ umeros reales, el polinomio caracter´ıstico tiene todos los coeficientes reales y sus raices complejas aparecen por parejas conjugadas, tambi´en es valor propio de A el conjugado del valor propio complejo considerado y como el polinomio caracter´ıstico es de grado impar, A tiene al menos un valor propio real. Entonces, todos los valores propios de A son distintos, aunque no reales, siendo A diagonalizable en C pero no en R) 2) Todos los valores propios de A son distintos y reales. (En este caso, A es diagonalizable en R). 3) Todos los valores propios son iguales. Con los siguientes subcasos: 3a) dimker(f − λI) = 3, (es diagonalizable). 3b) dimker(f − λI) = 2, (no es diagonalizable). 3c) dimker(f − λI) = 1, (no es diagonalizable). 4) Hay s´olo dos valores propios distintos; sean ´estos λ1 simple y λ2 , doble. Con los siguientes subcasos: 4a) dimker(f − λ2 I) = 2, (es diagonalizable). 4b) dimker(f − λ2 I) = 1, (no es diagonalizable). Las formas de Jordan no diagonales corresponden a los casos 1), 3b), 3c) y 4b) Caso 1.) Sea A ∈ M3×3 (R), y α + iβ un valor propio complejo de A. Entonces A no es diagonalizable en R pero s´ı es diagonalizable en C, siendo A equivalente en R a una matriz J:   λ 0 0 J = 0 α β  0 −β α donde λ es el valor propio real de A. En efecto, sean α + iβ, α − iβ, los valores propios complejos, y w = u + iv, w = u − iv, los vectores propios correspondientes. Si v1 es el vector propio correspondiente al valor propio real λ, la base {v1 , w, w} diagonaliza al endomorfismo correspondiente de C 3 pero tiene dos vectores complejos y la matriz de cambio de base tiene n´ umeros complejos. Sin embargo, puede verse igual que en el caso 2 de matrices 2 × 2 de n´ umeros reales, que en la base {v1 , u, v} de C 3 y de R3 , f se expresa por   λ 0 0  0 α β  = J, 0 −β α

339

de n´ umeros reales. Es la forma de Jordan real del endomorfismo, o de la matriz, cuando hay dos valores propios complejos conjugados. EJEMPLO 1: Consideremos el endomorfismo f de R3 dado por la  −1 −1  −1 −2 A: −1 −3

matriz:  2 1  2

Vamos a ver que no es diagonalizable en R pero si es diagonalizable en C y hallaremos su forma de Jordan real y la correspondiente base de Jordan real. Su polinomio caracter´ıstico es −1 − λ −1 2 −2 − λ 1 = (1 − λ)(λ2 + 2λ + 2). |A − λI| = −1 −1 −3 2−λ Las raices de este polinomio son λ1 = 1, λ2 = −1 + i y λ3 = −1 − i. Como s´olo hay un valor propio real, s´olo hay un vector propio de R3 . Al no poder encontrar una base de vectores propios de R3 , este endomorfismo no es diagonalizable en R3 . Sin embargo, considerando el endomorfismo f de C 3 con la misma matriz, podemos tener en cuenta los valores propios complejos, que son tres distintos a los que corresponden tres vectores propios distintos con coordenadas reales o complejas. Para λ1 = 1 tenemos:       −2 −1 2 x 0 −2x −y +2z = 0  ker(f − I) ≡  −1 −3 1   y  =  0  = 0 ≡ −x −3y +z = 0  −1 −3 1 z 0 −x −3y +z = 0 cuyas soluciones son los vectores m´ ultiplos de (1, 0, 1). Para λ2 = −1 + i tenemos:       −i −1 2 z1 0 −iz1 − z2 + 2z3 = 0  1   z2  =  0  = 0 ≡ −z1 − (1 + i)z2 + z3 = 0 ker(f −(−1+i)I) ≡  −1 −1 − i  −1 −3 3 − i z3 0 −z1 − 3z2 + (3 − i)z3 = 0 cuyas soluciones son los vectores m´ ultiplos complejos de (1, i, i). Al valor propio λ3 = −1−i le corresponden los vectores propios conjugados de los vectores propios correspondientes a λ2 , es decir, los vectores propios m´ ultiplos de (1, −i, −i). 340

El endomorfismo f de C 3 se expresa por   1 0 0 0  D :  0 −1 + i 0 0 −1 − i en la base de vectores complejos: {(1, 0, 1), (1, i, i), (1, −i, −i)}. Si queremos una base de vectores reales en la que f se exprese de la manera m´as f´acil posible podemos descomponer el vector (1, i, i) = (1, 0, 0) + i(0, 1, 1), teni´endose f (1, 0, 0) = (−1)(1, 0, 0) − (0, 1, 1) y f (0, 1, 1) = (1, 0, 0) + (−1)(0, 1, 1); el endomorfismo f de R3 se expresa en la base de vectores reales: {(1, 0, 1), (1, 0, 0), (0, 1, 1)} por   1 0 0 1  J :  0 −1 0 −1 −1 Ejercicios. 10.3.1. Hallar la forma de Jordan real y la base de Jordan real de las siguientes matrices:       1 0 1 3 4 −2 1 4 −2 0 1  b)  −4 −5 4  c)  −2 −1 2  a)  −1 −1 −2 3 −4 −6 5 −2 0 1 10.3.2. Escribir las matrices de las rotaciones en R3 alrededor de cada eje coordenado de ´angulos π/4, π/3 y π/6 y comprobar que son formas de Jordan reales. 10.3.3. Hallar la forma de Jordan real de la siguiente matriz:   0 0 −1 1  0 0 0 −1     1 1 0 0  0 1 0 0

341

Para los otros casos no diagonalizables, tenemos el Teorema 2. Sea A ∈ M3×3 (R), no diagonalizable en C, entonces A es equivalente en R a una matriz J, siendo     λ 1 0 λ1 0 0 J = 0 λ 1  o´ J =  0 λ2 1  0 0 λ 0 0 λ2 donde λ, λ1 y λ2 son valores propios reales de A, pudiendo ser λ1 = λ2 . Las bases en las que f se expresa por J se llaman bases de Jordan de f o de A. Supuesto demostrado el teorema y conocidos los valores propios de A, podemos decidir cu´al es la forma de Jordan que le corresponde de la siguiente  manera:  λ1 0 0  0 λ2 1 , s´olo si estamos en el caso 4b), es A la matriz A corresponde la matriz J = 0 0 λ2 decir, si A tiene dos valores propios distintos y la multiplicidad geom´etrica del valor propio doble es 1. Si la matriz tiene un s´olo valor propio, le puede corresponder     λ 1 0 λ 0 0 J = 0 λ 1  o´ J =  0 λ 1 ; 0 0 λ 0 0 λ se distinguen una de la otra calculando dimker(f − λI), que no depende de la matriz de f usada, siendo dimker(f − λI) = 1 para la primera de ellas y dimker(f − λI) = 2 para la segunda.

Demostraci´on del teorema: a). Caso en el que A tiene un s´olo valor propio λ. Sea f el endomorfismo de R3 expresado por A en la base can´onica. Entonces, por ser A no diagonalizable, dimker(f − λI) < 3, teni´endose dos subcasos: 3 b) dimker(f − λI) = 2 y 3 c) dimker(f − λI) = 1. 3 b) Si dimker(f − λI) = 2, tenemos dimIm(f − λI) = 1. Entonces, el subespacio Im(f − λI) es una recta invariante por f , (puede comprobarse como en el teorema 1), por ello, un generador suyo 342

w es un vector propio de f . Este generador es de la forma (f − λI)v = w 6= 0, siendo v y w vectores independientes. Como dim ker(f − λI) = 2, existe otro vector propio v1 independiente de w. Los tres vectores v1 , w, v son independientes y por tanto forman una base de R3 : Se da la implicaci´on: α1 v1 + α2 w + α3 v = 0 ⇒ α1 = α2 = α3 = 0 En efecto, an´alogamente a como hemos hecho en el caso 2 × 2, α1 v1 + α2 w + α3 v = 0 ⇒ 0 = (f − λI)(α1 v1 + α2 w + α3 v) = α3 w ⇒ α3 = 0 Sustituyendo ahora en la combinaci´on lineal dada, tenemos α1 v1 + α2 w = 0 donde los vectores son independientes, (por la elecci´on de v1 ), por lo que tambi´en se tiene α1 = α2 = 0.   λ 0 0 Esta base es una base de Jordan porque la matriz de f en esta base es  0 λ 1  Para 0 0 λ encontrar una base de Jordan, podemos darnos cuenta de que si A es la matriz de f en la base can´onica, los vectores columna de la matriz A − λI son vectores del subespacio Im(f − λI), siendo por tanto, las columnas no nulas, vectores propios w, que a su vez son imagen por f − λI de vectores v de la base can´onica. Completando con v1 vector propio de f independiente de w tenemos una base de Jordan. Podemos hallar m´as bases de Jordan encontrando el vector v tal que (f − λI)v 6= 0, (que no satisfaga las ecuaciones de ker(f − λI)), hallar w = (f − λI)v y completando con v1 vector propio de f independiente de w. EJEMPLO 2: Consideremos el endomorfismo f de R3 dado por la matriz:   −5 2 2 1  A =  −1 −2 −1 1 −2 Veamos que no es diagonalizable y hallemos su forma de Jordan y una base de Jordan: El polinomio caracter´ıstico es −5 − λ 2 2 = −(λ + 3)3 −2 − λ 1 |A − λI| = −1 −1 1 −2 − λ De aqu´ı que el u ´nico valor propio de f (o de A) sea λ1 = −3. 343

Como



    −2 2 2 x 0 ker(f + 3I) ≡  −1 1 1   y  =  0  ≡ −x + y + z = 0 −1 1 1 z 0

la dimensi´on de ker(f + 3I) = 2 6= 3 siendo por tanto f no diagonalizable y estando en el caso 3b). Como dim(Im(f + 3I)) = 1 y el subespacio Im(f + 3I) es invariante por f , cualquier vector w distinto de cero de este espacio es un vector propio de f . Uno de tales vectores es la primera columna de A + 3I, que es (f + 3I)(1, 0, 0) ya que      −2 2 2 1 −2  −1 1 1   0  =  −1  6= 0 −1 1 1 0 −1 siendo (−2, −1, −1) un vector propio w. Como la dimensi´on del subespacio de vectores propios es 2, podemos encontrar otro vector propio v1 independiente de w, que tambi´en lo ser´a de v. Puede ser v1 = (1, 1, 0). As´ı tenemos una base de Jordan: {(1, 1, 0), (−2, −1, −1), (1, 0, 0)} en la que f se expresa por   −3 0 0 1 . J =  0 −3 0 0 −3 El vector w se puede tambi´en obtener haciendo la imagen por f + 3I de cualquier vector v tal que (f + 3I)v 6= 0. Este vector v se ha de obtener de manera que no satisfaga las ecuaciones de ker(f + 3I) o por tanteo, de forma que (A + 3I)v 6= 0 pudiendo ser en este caso v = (1, 0, 0) y teniendo la misma base anterior. Pero otra base se puede obtener para v = (1, 2, 0), siendo entonces w = (2, 1, 1). El cambio de  1  1 0

base da lugar a la equivalencia entre −1   −2 1 −5 2 2 1     −1 0 −1 −2 1 1 −1 0 −1 1 −2 0

A y la forma de Jordan J:    −2 1 −3 0 0 −1 0  =  0 −3 1 . −1 0 0 0 −3

Ejercicios: 10.4.1. Comprobar que las matrices dadas a continuaci´on no son diagonalizables y hallar su forma de Jordan y una base de Jordan para cada una de ellas.

344



    2 −1 1 1 2 −2 −1 1 0  b)  0 2 −1  c)  −1 a)  0 −1 1 0 0 1 0 1      1 2 −3 −2 0 1 2      0 −1 0 d) 4 8 −12 e) f) 2 3 6 −9 −1 0 0 3

 0 −1 0 −1  0 1  −2 1 −3 2  −6 4

10.4.2. Hallar la potencia quinceava de cada una de las matrices del ejercicio 10.4.1.

345

3c) Si dim ker(f − λI) = 1, suponiendo demostrado que dim ker(f − λI)2 = 2 y por tanto dimIm(f −λI)2 = 1, vamos a encontrar la forma de Jordan y la base de Jordan y luego demostraremos ese hecho; se puede ver que Im(f − λI)2 es un subespacio invariante por f de la misma forma que hemos visto que Im(f − λI) lo es en los casos anteriores; es una recta y entonces, un generador w de este subespacio es un vector propio, que a su vez es w = (f − λI)2 v, w 6= 0. Comprobaremos que los vectores {(f − λI)2 v, (f − λI)v, v} son una base de Jordan porque son independientes y la matriz de f en esta base es:   λ 1 0 J = 0 λ 1  0 0 λ por lo que esos vectores forman una base de Jordan de f . Para encontrar la base de Jordan indicada en este caso, vemos que si A es la matriz de f en la base can´onica, cualquier vector distinto de cero de (A − λI)2 es un vector propio w, imagen por (f − λI)2 del vector correspondiente de la base can´onica. Teniendo as´ı directamente la base w, (f − λI)v, v. Podemos hallar m´as bases de Jordan buscando un v ∈ / ker(f − λI)2 y hallando los vectores 2 (f − λI)v, (f − λI) v. Comprobemos que {(f − λI)2 v, (f − λI)v, v} son vectores independientes: Veremos que se da la implicaci´on: α1 w + α2 (f − λI)v + α3 v = 0 ⇒ α1 = α2 = α3 = 0. Para ello, observemos que 0 = (f − λI)w = (f − λI)3 v y tambi´en 0 = (f − λI)4 v. Ahora vemos: 0 = α1 w + α2 (f − λI)v + α3 v = α1 (f − λI)2 v + α2 (f − λI)v + α3 v ⇒ 0 = (f − λI)2 (α1 (f − λI)2 v + α2 (f − λI)v + α3 v) = α3 w ⇒ α3 = 0 Entonces, la combinaci´on lineal inicial es: α1 w + α2 (f − λI)v = 0, que implica (f − λI)(α1 w + α2 (f − λI)v) = 0 ⇒ α2 w = 0, lo que da α2 = 0. Volviendo a la primera combinaci´on lineal considerada, sacamos tambi´en α1 = 0. Demostremos ahora que dimIm(f − λI)2 = 1: El espacio Im(f − λI), que es de dimensi´on 2, es invariante por f . Los valores propios y vectores propios de la restricci´on de f a Im(f − λI) lo son tambi´en de f y por tanto de f , que no es diagonalizable. Entonces, f |Im(f −λI) tiene un u ´nico valor propio real que tiene que coincidir con λ y un vector propio u. S´olo puede haber un vector propio independiente en Im(f − λI) por ser dimker(f − λI) = 1, entonces, por la f´ormula de las dimensiones para la restricci´on de f − λI a 346

Im(f −λI), tenemos dimIm(f −λI) = dimker(f −λI)+dimIm(f −λI)2 , de donde dimIm(f −λI)2 = 1. Otra forma de demostrar lo mismo ser´ıa viendo que dimker(f − λI)2 = 2: El espacio Im(f − λI), que es de dimensi´on 2, es invariante por f . Los valores propios y vectores propios de la restricci´on de f a Im(f − λI) lo son tambi´en de f y por tanto de f , que no es diagonalizable. Entonces, f |Im(f −λI) tiene un u ´nico valor propio real que tiene que coincidir con λ y un vector propio de la forma u = (f − λI)u0 . Por tanto, u0 ∈ ker(f − λI)2 . Como u0 no est´a en ker(f − λI) y ker(f − λI) ⊂ ker(f − λI)2 , deducimos que dim ker(f − λI)2 ≥ 2. Para ver que dimker(f − λI)2 < 3, consideremos que si fuera dimker(f − λI)2 = 3, ser´ıa ker(f − λI)2 = R3 , es decir, (f − λI)2 (R3 ) = 0, siendo entonces (f − λI)[(f − λI)(R3 )] = 0, con lo que ker(f − λI) contendr´ıa a Im(f − λI), lo cual es imposible, porque hemos supuesto que el primero es de dimensi´on 1, con lo cual el segundo es de dimensi´on 2. Con esto queda terminada la demostraci´on. EJEMPLO 3: Consideremos el endomorfismo f de R3 dado por la matriz:   −1 1 −1 0  A =  −1 0 0 1 −2 Veamos que no es diagonalizable y hallemos su forma de Jordan y una base de Jordan. El polinomio caracter´ıstico es −1 − λ 1 −1 −1 −λ 0 = −(λ + 1)3 |A − λI| = 0 1 −2 − λ De aqu´ı que el u ´nico valor propio Como  0  −1 ker(f + I) ≡ 0

de f (o de A) sea λ1 = −1.      1 −1 x 0 y −z = 0  1 0   y  =  0  ≡ −x +y =0  1 −1 z 0 y −z = 0

la dimensi´on de ker(f + I) = 1 6= 3 siendo por tanto f no diagonalizable y estando en el caso 3c) y siendo por tanto su forma de Jordan:   −1 1 0 1 . J =  0 −1 0 0 −1 347

Como dim(Im(f + I)) = 2, seg´ un se ha demostrado anteriormente, dim(Im(f + I)2 ) = 1 y al ser este espacio invariante por f , cualquier vector distinto de cero w ∈ Im(f + I)2 es un vector propio. Los vectores columna distintos de cero de (A + I)2 son este tipo de vectores, pudiendo coger w = (−1, −1, −1) = (f + I)2 (1, 0, 0) 2        0 1 −1 1 −1 0 1 1 −1  −1 1 0   0  =  −1 0 1   0  =  −1  6= 0 0 1 −1 0 −1 0 1 0 −1 

que es vector propio. El vector intermedio es



    0 1 −1 1 0  −1 1 0   0  =  −1  0 1 −1 0 0

As´ı tenemos una base: {(−1, −1, −1), (0, −1, 0), (1, 0, 0)} que es una base de Jordan porque f se expresa en ella por J. El cambio de base que da lugar a la equivalencia entre A y la forma de Jordan J es:  −1      −1 0 1 −1 1 −1 −1 0 1 −1 1 0  −1 −1 0   −1 0 0   −1 −1 0  =  0 −1 1 . −1 0 0 0 1 −2 −1 0 0 0 0 −1 El vector w se puede obtener tambi´en haciendo la imagen por (f + I)2 de un vector v tal que (f +I)2 v 6= 0. Este vector v se ha de obtener de manera que no satisfaga las ecuaciones de ker(f +I)2 o por tanteo, de forma que (A + I)2 v 6= 0 pudiendo ser en este caso tambi´en v = (1, 0, 2) en cuyo caso, w = (1, 1, 1) y el vector intermedio es (−2, −1, −2). Ejercicios: 10.5.1. Comprobar que las matrices dadas a continuaci´on no son diagonalizables y hallar su forma de Jordan y una base de Jordan para cada una de ellas.       −1 −1 −2 −2 1 −1 2 −1 3 2 1  b)  −1 −1 0  c)  0 2 1  a)  1 1 0 2 0 1 −3 0 0 2       4 −1 −2 1 −1 −1 6 −2 4 1  e)  1 −2 0  f )  7 −2 6  d)  1 −1 1 0 −1 2 −1 −2 1 −1 2 10.5.2. Demostrar que

348

n  n a 1 0 a nan−1  0 a 1  = 0 an 0 0 a 0 0 

n(n−1) n−2 a 2 n−1

na

a

 

n

10.5.3. Hallar la potencia quinceava de cada una de las matrices del ejercicio 10.5.1. b) 4b). La matriz A tiene dos valores propios distintos λ1 y λ2 , siendo 2 la multiplicidad algebraica de λ2 y dimker(f − λ2 I) = 1 Entonces, f es no diagonalizable y dim ker(f − λ2 I) = 1 ⇒ dim Im(f − λ2 I) = 2. El subespacio Im(f − λ2 I) es invariante por f , lo cual se comprueba de la misma forma que en el teorema 1. Tiene sentido por ello hablar de la restricci´on f |Im(f −λ2 I) , de f a Im(f − λ2 I), cuyos valores propios y vectores propios lo son tambi´en de f . Si λ2 no fuera valor propio de f |Im(f −λ2 I) , ser´ıa ker(f − λ2 I) ∩ Im(f − λ2 I) = {0}. Debido a sus dimensiones, ser´ıa tambi´en, ker(f − λ2 I) ⊕ Im(f − λ2 I) = R3 . En una base {u1 , u2 , u3 } donde fuera u1 ∈ ker(f − λ2 I) y {u2 , u3 } ⊂ Im(f − λ2 I), por ser este u ´ltimo espacio invariante, f se expresar´ıa por una matriz del tipo:   λ2 0 0 B= 0 c d  0 m n donde la matriz



c d m n



ser´ıa la matriz de la restricci´on f |Im(f −λ2 I) , en la base {u2 , u3 } que no tendr´ıa λ2 como valor propio. Tendr´ıamos:   c d |B − λI| = (λ2 − λ) − λI m n Como el polinomio caracter´ıstico de f es independiente de la base escogida, el valor propio λ2 ser´ıa s´olo valor propio simple de f , en contra de lo supuesto. Por tanto, ha de ser ker(f − λ2 I) ∩ Im(f − λ2 I) 6= {0}. Si 0 6= w ∈ ker(f − λ2 I) ∩ Im(f − λ2 I), se tiene: (f − λ2 I)w = 0, siendo w = (f − λ2 I)v para alg´ un v. Los vectores {w, v} son independientes porque uno de ellos es vector propio para λ2 y el otro no. Junto a un vector v1 propio para λ1 , forman una base de R3 en la que f se expresa por   λ1 0 0 J =  0 λ2 1  . 0 0 λ2 349

Por ello, {v1 , w, v} forman una base de Jordan de f o de A. Comprobemos expl´ıcitamente que los vectores {v1 , w, v} son independientes (v1 y w son independientes por ser vectores propios correspondientes a valores propios distintos): α1 v1 + α2 w + α3 v = 0 ⇒ (f − λ2 I)(α1 v1 + α2 w + α3 v) = 0 ⇒ α1 (f − λ2 I)v1 + α2 (f − λ2 I)w + α3 (f − λ2 I)v) = 0 ⇒ α1 (λ1 − λ2 )v1 + α3 w = 0 ⇒ α1 = α3 = 0 Entonces la combinaci´on lineal considerada se transforma en α2 w = 0, que implica α2 = 0. Cualquier vector v ∈ ker(f − λ2 I)2 − ker(f − λ2 I) es v´alido para encontrar w. Estos v existen por los razonamientos anteriores. Son los vectores v de ker(f − λ2 I)2 que no satisfacen las ecuaciones de ker(f − λ2 I) o alternativamente que verifican (f − λ2 I)v 6= 0. Tambi´en se puede recurrir a las matrices (A − λ2 I)2 y A − λ2 I: llamando c1 , c2 , c3 a las columnas de A − λ2 I un vector propio w de Im(f − λI) es de la forma w = α1 c1 + α2 c2 + α3 c3 6= 0, siendo (A − λ2 I)(α1 c1 + α2 c2 + α3 c3 ) = 0, por lo que llamando d1 , d2 , d3 a las columnas de (A − λ2 I)2 , y encontrados α1 , α2 , α3 , tales que α1 d1 + α2 d2 + α3 d3 = 0, y w = α1 c1 + α2 c2 + α3 c3 6= 0, tenemos w y v = α1 e1 + α2 e2 + α3 e3 = (α1 , α2 , α3 ), donde e1 , e2 , e3 son los vectores de la base can´onica. A la hora de encontrar una base de Jordan de f , en este caso, tenemos que a˜ nadir a los vectores {w = (f − λ2 I)v, v} anteriores el vector propio v1 para λ1 . EJEMPLO 4: Consideremos el endomorfismo f de R3 dado por la matriz   1 0 −1 A =  1 −1 −1  −2 3 2 Veamos que no es diagonalizable y hallemos su forma de Jordan y una base de Jordan. Tiene como polinomio caracter´ıstico |A−λI| = λ2 (−λ+2); por tanto tiene un valor propio simple λ1 = 2, y otro valor propio doble λ2 = 0. Por otra parte, dim(ker(A − 0I) = dim(ker(A)) = 3 − rango(A) = 3 − 2 = 1, lo cual implica que no es diagonalizable. Por la teor´ıa demostrada en este caso, su forma de Jordan es:   2 0 0 J = 0 0 1  0 0 0 350

Para encontrar la base de Jordan buscamos v ∈ ker(f − 0I)2 − ker(f − 0I) = kerf 2 − kerf . Como 2   1 0 −1 3 −3 −3 A2 =  1 −1 −1  =  2 −2 −2  −2 3 2 −3 3 3 

la ecuaci´on de ker(f 2 ) es x − y − z = 0 y las ecuaciones de ker(f ) son x − z = 0, x − y − z = 0. Un v posible que satisface la primera pero no las dos segundas es v = (2, 1, 1). El vector w = Av que se obtiene es w = (1, 0, 1), que est´a en ker(f ) siendo por tanto vector propio para el valor propio 0. Alternativamente, se puede comprobar si un vector v que satisfaga las ecuaciones de ker(f 2 ) no est´a en ker(f ) viendo si Av 6= 0. Para completar la base de Jordan nos falta un vector propio v1 para el valor propio λ1 = 2, que ha de verificar (A − 2I)v1 = 0, es decir, las ecuaciones:       0 −1 0 −1 x −x −z = 0  1 −3 −1   y  =  0  ≡ −2x +3y =0 0 −2 3 0 z Puede ser el vector v1 = (3, 2, −3). Entonces una base de Jordan para la forma de Jordan obtenida es {(3, 2, −3), (1, 0, 1), (2, 1, 1)}, siendo     −1  1 0 −1 3 1 2 2 0 0 3 1 2  2 0 1   1 −1 −1   2 0 1  =  0 0 1  . −2 3 2 −3 1 1 0 0 0 −3 1 1 

Por el otro m´etodo, poniendo los coeficientes {0, 1, −1} a las columnas de A2 , obtenemos el vector nulo y poniendo los mismos coeficientes a las columnas de A, obtenemos el vector w = (1, 0, 1) = f (0, 1, −1). Por lo que otra base de Jordan es: {(3, 2, −3), (1, 0, 1), (0, 1, −1)}

Acabada la obtenci´on de la forma de Jordan y de la base de Jordan de la matriz vamos a hacer la aplicaci´on a obtener la potencia quinta de A: 5   5  −1 1 0 −1 3 1 2 2 0 0 3 1 2 A5 =  1 −1 −1  =  2 0 1   0 0 1   2 0 1  = −2 3 2 −3 1 1 0 0 0 −3 1 1 

351



   3 1 2 2 0 0 1 −1 −1  2 0 1   0 0 0  1  5 −9 −1 4 −3 1 1 0 0 0 −2 6 2  3 · 25 −3 · 25 −3 · 25 1 2 · 25 −2 · 25 −2 · 25 4 −3 · 25 3 · 25 3 · 25

   5 2 −25 −25 3 1 2 = 2 0 1 1 0 0 0 = 4 0 0 0 −3 1 1    3 −3 −3  = 23  2 −2 −2  −3 3 3 



Ejercicios: 10.6.1. Comprobar que las matrices dadas a continuaci´on no son diagonalizables y hallar su forma de Jordan y una base de Jordan para cada una de ellas.       1 −1 3 0 3 1 1 0 −1 2 1  b)  2 −1 −1  c)  1 −1 −1  a)  0 0 0 2 −2 −1 −1 −2 3 2      0 0 −1 2 0 0 2 −5 1 d)  1 −2 −1  e)  −1 1 15   1 −1 −2  −2 3 1 3 0 1 3 −3 −2 10.6.2. Hallar la potencia quinta de cada una de las matrices del ejercicio 5.1. 10.6.3. Estudiar, seg´ un los valores de los par´ametros a y b, la forma de Jordan de las matrices dadas a continuaci´on cuando no son diagonalizables.       −1 0 b 1 −1 0 1 2 b a 0  c)  0 a 0  a)  0 1 0  b)  0 0 0 a a 1 a 1 0 b 10.6.4. Suponiendo que A es una matriz 3 × 3 de n´ umeros reales y conocida su forma de Jordan, hallar la forma de Jordan de −A en todos los casos. 10.6.5. Suponiendo que A es una matriz 3 × 3 de n´ umeros reales y conocida su forma de Jordan, hallar la forma de Jordan de kA en todos los casos. 10.6.6. Suponiendo que A es una matriz 3 × 3 de n´ umeros reales invertible y conocida su forma de Jordan, hallar la forma de Jordan de A − kI en todos los casos. 10.6.7. Suponiendo que A es una matriz 3 × 3 de n´ umeros reales invertible y conocida su forma de Jordan, hallar la forma de Jordan de A−1 en todos los casos. 10.6.8. Suponiendo que A es una matriz 3 × 3 de n´ umeros reales y conocida su forma de Jordan, t hallar la forma de Jordan de A en todos los casos. 352

10.6.9. a) Hallar la matriz de jordan de J m para m > 0, de la matriz de jordan de un endomorfismo f de R3 en todos los casos posibles. b) Hallar la matriz de jordan de f m , cualquiera que sea m, conocida la matriz de jordan de f , donde f es un isomorfismo de R3 , en todos los casos posibles. 10.6.10. Demostrar que si f es un endomorfismo de Rn con dos valores propios distintos λ1 y λ2 y (f − λ1 I)(f − λ2 I) = 0, f es diagonalizable. 10.6.11. a) Comprobar que si f es un endomorfismo de R3 con un u ´nico valor propio real λ, se deduce del 3 teorema general de Jordan, que (f − λI) = 0 b) Observar que si f es un endomorfismo de R3 con un u ´nico valor propio real λ y (f − λI)2 = 0, f admite una forma de Jordan con cajas de Jordan de orden 2 y 1.

353

Resumen de la Diagonalizaci´on y forma de Jordan de endomorfismos de R3 sin valores propios complejos. Los casos que se presentan en endomorfismos de C 3 (donde los valores propios pueden ser reales o complejos) son los mismos.

Denotamos por f un endomorfismo de matriz A , por λ1 , λ2 , λ3 sus valores propios, por B su base de Jordan e identificamos ker(f − λI) con ker(A − λI). 

λ1 0 1.λ1 6= λ2 6= λ3 6= λ1 f es diagonalizable, J =  0 λ2 0 0 B = {v1 , v2 , v3 } donde para cada i, vi ∈ ker(A − λi I) 2.λ1 6= λ2 = λ3      a)dimker(A − λ2 I) = 2            b)dimker(A − λ2 I) = 1        3.λ1 = λ2 = λ3  a)dimker(A − λ1 I) = 3                     b)dimker(A − λ1 I) = 2                    c)dimker(A − λ1 I) = 1           

 0 0 , λ3



 λ1 0 0 f es diagonalizable J =  0 λ2 0  0 0 λ2 B = {v1 , v2 , v3 } donde para cada  i, vi ∈ ker(A − λi I)  λ1 0 0 f no es diagonalizable J =  0 λ2 1  B = {v1 , w, v}, donde 0 0 λ2 v1 ∈ ker(A − λ1 I) v ∈ ker(A − λ2 I)2 − ker(A − λ2 I) w = ker(A − λ2 I)v

f es diagonalizable   λ1 0 0 A = C −1  0 λ1 0  C 0 0 λ1

 λ1 0 0 =  0 λ1 0  B cualquiera 0 λ1   0 λ1 0 0 f no es diagonalizable J =  0 λ1 1  0 0 λ1 B = {v1 , w, v}, donde v ∈ / ker(A − λ1 I), w = ker(A − λ1 I)v, v1 ∈ ker(A − λ1 I) independiente de w w puede ser una columna no nula de A − λ1 I, v la columna de I tal   que w = (A − λ1 I)v λ1 1 0 f no es diagonalizable J =  0 λ1 1  0 0 λ1 B = {(A − λ1 I)2 v, (A − λ1 I)v, v}, donde v ∈ / ker(A − λ1 I)2 2 w puede ser una columna no nula de (A − λ1 I) , v la columna de I tal que w = (A − λ1 I)2 v.

354



Forma de Jordan compleja de Matrices 4 × 4 de n´ umeros complejos. Aqu´ı se estudian las formas de Jordan de matrices 4 × 4 en los casos no diagonalizables en C. Sea A ∈ M4×4 (R) con valores propios reales o complejos. La forma de Jordan compleja es una suma diagonal de cajas de Jordan corespodientes a los valores propios. Si estos valores propios son reales, la forma de Jordan es real. Los casos que se pueden presentar son: 1) Todos los valores propios de A son distintos. (En este caso, A es diagonalizable). 2) Todos los valores propios son iguales. Con los siguientes subcasos: 2a) dimker(f − λI) = 4, (es diagonalizable). 2b) dimker(f − λI) = 3, (no es diagonalizable). 2c) dimker(f − λI) = 2, (no es diagonalizable). 2d) dimker(f − λI) = 1, (no es diagonalizable). 3) Hay s´olo dos valores propios distintos; 3’) Sean ´estos λ1 simple y λ2 triple. Con los siguientes subcasos: 3’a) dimker(f − λ2 I) = 3, (es diagonalizable). 3’b) dimker(f − λ2 I) = 2, (no es diagonalizable). 3’c) dimker(f − λ2 I) = 1, (no es diagonalizable). 3”) Sean ´estos λ1 doble y λ2 , doble. Con los siguientes subcasos: 3”a) dimker(f − λ1 I) = 2 = dimker(f − λ2 I), (es diagonalizable). 3”b) dimker(f − λ1 I) = 2, dimker(f − λ2 I) = 1 (no es diagonalizable). 3”c) dimker(f − λ1 I) = 1, dimker(f − λ2 I) = 1 (no es diagonalizable). 4) Hay exactamente tres valores propios distintos; Sean ´estos λ1 simple, λ2 simple y λ3 doble, con los subcasos: 4a) dimker(f − λ3 I) = 2, (es diagonalizable). 4b) dimker(f − λ3 I) = 1, (no es diagonalizable). Estudiemos las formas de Jordan en los casos no diagonalizables. 2b) dimker(f − λI) = 3, (no es diagonalizable). Entonces dimIm(f − λI) = 1, por lo que el subespacio Im(f − λI) es una recta invariante y cualquier generador suyo w es un vector propio para el valor propio λ. Este generador es de la forma w = (f −λI)v; como dimker(f −λI) = 3, existen dos vectores propios {v1 , v2 } distintos de forma que {v1 , v2 , w} son independientes. Entonces, {v1 , v2 , w, v} son una base de Jordan de f para la forma

355

de Jordan:



λ  0 J =  0 0

0 λ 0 0

0 0 λ 0

 0 0  . 1  λ

Puede comprobarse por los m´etodos usados para las matrices 3 × 3 que los vectores anteriores son independientes y que la matriz de f en esa base es J.

2c) dimker(f − λI) = 2, (no es diagonalizable). Entonces dimIm(f − λI) = 2; de nuevo pueden aparecer dos subcasos. 2c1 ) Im(f − λI) = ker(f − λI), 2c2 ) Im(f − λI) 6= ker(f − λI), En el caso 2c1 , los dos generadores {w1 , w2 } de Im(f −λI) son vectores independientes de la forma {w1 = (f − λI)v1 , w2 = (f − λI)v2 }. Se comprueba por los m´etodos anteriores que {w1 , v1 , w2 , v2 } son una base de Jordan de f para la forma de Jordan:   λ 1 0 0  0 λ 0 0   J =  0 0 λ 1 . 0 0 0 λ En el caso 2c2 ), al ser el subespacio Im(f − λI) invariante de f y los valores propios (reales o complejos) de la restricci´on de f a este subespacio, valores propios de f , λ es valor propio de dicha T restricci´on, por lo que dim(Im(f − λI) ker(f − λI)) = 1, luego dim((f − λI)(Im(f − λI))) = dim(Im(f − λI)2 )) = 1. Al ser (Im(f − λI)2 )) una recta invariante, un generador suyo ser´a w = ((f − λI)2 )v, existiendo otro vector propio w0 ∈ ker(f − λI) independiente de w. Los vectores {w0 , w, (f − λI)v, v} son una base de Jordan de f para   λ 0 0 0  0 λ 1 0   J =  0 0 λ 1 . 0 0 0 λ lo cual puede comprobarse ya f´acilmente.

2d) dimker(f − λI) = 1, (no es diagonalizable). 356

Entonces, dimIm(f − λI) = 3; como Im(f − λI) es un subespacio invariante de f y los valores propios (reales o complejos) de la restricci´on de f a este subespacio son tambi´en valores propios de f , se tiene ker(f − λI) ⊂ Im(f − λI) y dimIm(f − λI)2 = 2. Por el mismo procedimiento se demuestra que dimIm(f − λI)3 = 1. Al ser Im(f − λI)3 una recta invariante, un generdor suyo w = (f − λI)3 v es un vector propio y se comprueba f´acilmente que {w, (f − λI)2 v, (f − λI)v, v} es una base de Jordan de f para   λ 1 0 0  0 λ 1 0   J =  0 0 λ 1 . 0 0 0 λ

Para los casos siguientes necsitamos el siguiente lema: El polinomio caracter´ıstico de la restricci´on de un endomorfismo f a un subespacio invariante divide al polinomio caracter´ıstico de f . En efecto, si f es un endomorfismo de V y V1 es un subespacio de V invariante de f y A1 es la matriz de la restricci´on de f a V1 , en una base B1 de V1 , completando la base B1 de V1 a una base B de V , la matriz de f en B es de la forma:   A1 C . O D Al ser el polinomio caracter´ıstico independiente de la base utilizada para calcularlo, el polinomio caracter´ıstico de f calculado de esta matriz es |A1 − λI||C − λI|, como quer´ıamos demostrar. Seguimos ahora con los distintos casos. 3’b) Hay s´olo dos valores propios distintos; sean ´estos λ1 simple y λ2 triple y dimker(f −λ2 I) = 2. Entonces, dimIm(f − λ2 I) = 2. El subespacio Im(f − λ2 I) es invariante por f y contiene a (λ1 − λ2 )v1 , donde v1 es el vector propio de f para λ1 . El vector (λ1 − λ2 )v1 es un vector propio para λ1 , y como λ1 es valor propio simple de f , y el polinomio caracter´ıstico de la restricci´on de f a Im(f − λ2 I) divide al polinomio caracter´ıstico de f , Im(f − λ2 I) ha de contener otro vector propio w para el valor propio λ2 ; este vector propio es de la forma w = (f − λ2 I)v. Adem´as, existe otro vector propio w0 de f para λ2 independiente de w, por ser dimker(f − λ2 I) = 2. Se comprueba f´acilmente

357

que los vectores {v1 , w0 , w, v} son una base de Jordan de f para   λ1 0 0 0  0 λ2 0 0   J =  0 0 λ2 1  . 0 0 0 λ2 3’c) Hay s´olo dos valores propios distintos; sean ´estos λ1 simple y λ2 triple y dimker(f −λ2 I) = 1. Entonces, dimIm(f − λ2 I) = 3. El subespacio Im(f − λ2 I) es invariante por f y contiene a (λ1 − λ2 )v1 , donde v1 es el vector propio de f para λ1 . El vector (λ1 − λ2 )v1 es un vector propio para λ1 , y como λ1 es valor propio simple de f , y el polinomio caracter´ıstico de la restricci´on de f a Im(f − λ2 I) divide al polinomio caracter´ıstico de f , ha de contener otro vector propio w para el valor propio λ2 ; s´olo puede contener un vector propio independiente para λ2 , por ser dimker(f − λ2 I) = 1. Luego dimIm(f − λ2 I)2 = 2, conteniendo este subespacio el vector (λ1 − λ2 )2 v1 , que es un vector propio para λ1 . Aplicando al subespacio Im(f − λI)2 los mismos razonamientos anteriores, llegamos a que contiene un vector propio para λ2 , que ser´a w = (f − λI)2 v. Se puede comprobar que los vectores {v1 , w, (f − λI)v, v} son una base de Jordan de f para   λ1 0 0 0  0 λ2 1 0   J =  0 0 λ2 1  . 0 0 0 λ2 3”b) Hay s´olo dos valores propios distintos; sean ´estos λ1 doble y λ2 doble y dimker(f − λ1 I) = 2, dimker(f − λ2 I) = 1. Entonces, dimIm(f − λ2 I) = 3. El subespacio Im(f − λ2 I) es invariante por f y contiene a {(λ1 − λ2 )v1 , (λ1 − λ2 )v2 }, donde {v1 , v2 } son vectores propios independientes de f para λ1 . Como el polinomio caracter´ıstico de la restrici´on de f a Im(f − λ2 I) divide al polinomio caracter´ıstico de f , debe existir un w = (f − λ2 I)v, vector propio para v2 . Puede comprobarse que los vectores {v1 , v2 , w, v} son una base de Jordan de f para   λ1 0 0 0  0 λ1 0 0   J =  0 0 λ2 1  . 0 0 0 λ2

358

3”c) Hay s´olo dos valores propios distintos; sean ´estos λ1 doble y λ2 doble y dimker(f − λ1 I) = 1, dimker(f − λ2 I) = 1. Entonces, dimIm(f − λ2 I) = 3. El subespacio Im(f − λ2 I) es invariante por f y contiene a {(λ1 −λ2 )v1 }, donde v1 es vector propio independiente de f para λ1 . Como el polinomio caracter´ıstico de la restrici´on de f a Im(f − λ2 I) divide al polinomio caracter´ıstico de f , debe existir un w2 = (f − λ2 I)v2 , vector propio para λ2 . De la misma forma existe un vector propio w1 = (f − λ1 I)v1 , vector propio para λ1 . Puede comprobarse que los vectores {w1 , v1 , w2 , v2 } son una base de Jordan de f para   λ1 1 0 0  0 λ1 0 0   J =  0 0 λ2 1  . 0 0 0 λ2

4b) Hay exactamente tres valores propios distintos; Sean ´estos λ1 simple, λ2 simple y λ3 doble, y dimker(f − λ3 I) = 1. Entonces, el subespacio Im(f − λ3 I), invariante por f contiene al vector (λ1 − λ3 )v1 que es un vector propio para λ1 y al vector (λ2 − λ3 )v2 que es un vector propio para λ2 , y como estos valores propios son simples de f , y el subespacio es de dimensi´on 3 y el polinomio caracter´ıstico de la restricci´on de f a Im(f − λ3 I) divide al polinomio caracter´ıstico de f , ha de contener otro vector propio w para el valor propio λ3 ; este vector propio es de la forma w = (f − λ3 I)v. Se puede comprobar que los vectores {v1 , v2 , w, v} son una base de Jordan de f para   λ1 0 0 0  0 λ2 0 0   J =  0 0 λ3 1  . 0 0 0 λ3

359

Resumen de la Diagonalizaci´on y forma de Jordan de endomorfismos de R4 con valores propios reales o complejos. Denotamos por f un endomorfismo de matriz A , por λ1 , λ2 , λ3 , λ4 sus valores propios, por B su base de Jordan e identificamos ker(f − λI) con ker(A − λI).

1. Todos los autovalores son distintos. Entonces A es diagonalizable. 2.λ1 6= λ2 6= λ3 6= λ1 , λ3 = λ4  a)dimker(A − λ3 I) = 2 f es diagonalizable          



 λ1 0 0 0  0 λ2 0 0   b)dimker(A − λ3 I) = 1 f no es diagonalizable J =   0 0 λ3 1  0 0 0 λ3

3.λ1 = λ2 6= λ3 = λ4  a)dimker(A − λ1 I) = 2 = dimker(A − λ3 I) f es diagonalizable       λ 1 0  1    0 λ1 0 0       b)dimker(A − λ I) = 1, dimker(A − λ I) = 2 f no es diagonalizable J =  2 3   0 0 λ3 0         0 0 0 λ3    λ1 0 0   0 λ1 0 0   c)dimker(A − λ2 I) = 2, dimker(A − λ3 I) = 1 f no es diagonalizable J =     0 0 λ3 1         0 0 0 λ3    λ1 1 0          0 λ1 0 0  d)dimker(A − λ I) = 1, dimker(A − λ I) = 1 f no es diagonalizable J =  2 3   0 0 λ3 1     0 0 0 λ3 Sigue en la p´agina siguiente.

360

4.λ1 6= λ2 = λ3 = λ4  a)dimker(A − λ2 I) = 3 f es diagonalizable.       λ1 0 0 0     0 λ2 0 0      b)dimker(A − λ2 I) = 2 f no es diagonalizable, J =     0 0 λ2 1    0 0 0 λ2    λ1 0 0 0          0 λ2 1 0  c)dimker(A − λ I) = 1 f no es diagonalizable, J =  2   0 0 λ2 1     0 0 0 λ2 5.λ1 = λ2 = λ3 = λ4  a)dimker(A − λ1 I) = 4 f es diagonalizable.       λ 0 0 0  1    0 λ1 0 0       b)dimker(A − λ I) = 3 f no es diagonalizable, J =  1   0 0 λ1 1         0 0 0 λ1    λ1 0 0 0   0 λ1 1 0   c)dimker(A − λ1 I) = 2 f no es diagonalizable, J =     0 0 λ1 1         0 0 0 λ1    λ1 1 0 0          0 λ1 1 0  d)dimker(A − λ I) = 1 f no es diagonalizable, J =  1   0 0 λ1 1     0 0 0 λ1

361

Bibliograf´ıa: ´ [C] M. Castellet, I Llerena. Algebra Lineal y Geometr´ıa. Ed. Revert´e. [Co] L. Contreras. Una Observaci´on al hallar la base de Jordan de un Endomorfismo. XV Jornadas Luso-Espanholas de Matematica. Universidade de Evora. 1990. ´ [G] L. I. Golovina. Algebra Lineal y algunas de sus aplicaciones. Ed. Mir 1974. ´ [Gr] Stanley I. Grossman. Algebra Lineal con aplicaciones. Ed. McGraw-Hill 1991. ´ [H] E. Hern´andez. Algebra y Geometr´ıa. Ediciones de la Universidad Aut´onoma de Madrid. 1987. ´ [S] G. Strang. Algebra Lineal y sus Aplicaciones. Addison-Wesley Iberoamericana. 1990.

362

´ DEL TEOREMA DE JORDAN PARA DEMOSTRACION ENDOMORFISMOS. Teorema de Jordan: Todo endomorfismo f : V n → V n donde V n es un espacio vectorial complejo, admite una base de V n llamada base de Jordan de f tal que f se expresa en esa base por una matriz que es suma directa diagonal de matrices del tipo   λ 1 0 ... 0 0  0 λ 1 ... 0 0    .    0 0 0 .. 0 0   . . . .   .. .. .. . . 1 0     0 0 0 ... λ 1  0 0 0 ...

0 λ

que tienen iguales todos los elementos de la diagonal, 1 sobre todos los elementos de la diagonal y 0 en el resto. Cada una de estas u ´ltimas matrices se llaman caja de Jordan y est´a en correspondencia con un l +1 l subconjunto de vectores {eij−1 , ..., eij } de la base de Jordan que verifica (f − λk I)(eji k ) = eijk −1 si l +1 lj−1 + 1 < jk ≤ lj y (f − λk I)(eij−1 ) = 0. Este subconjunto de vectores se llama cadena de Jordan. l +1 Vamos a llamar vectores directores de la cadena a los vectores eij−1 , que son vectores propios. La dimensi´on de la caja es lk − lk−1 . Las demostraciones cl´asicas de este teorema [C], [F], [G], [H], [Hr], [M] son largas y laboriosas. Demostraciones cortas pueden encontrarse en [Fp], [F-S], [G-W], [W], [S]. Se da aqu´ı una demostraci´on sencilla por inducci´on del teorema en el que s´olo se utilizan conocimientos de aplicaciones lineales y los conceptos de dependencia e independencia lineal en un espacio vectorial. Por ello puede ser entendida por alumnos de primer curso de grado en la Universidad.

Demostraci´on: Es claro que el teorema es cierto cuando la dimensi´on del espacio es 1. Suponiendo que el teorema es cierto cuando la dimensi´on del espacio es menor o igual que n − 1, sea f : V n → V n un endomorfismo de un espacio vectorial complejo; entonces, siempre existe un valor 363

propio real o complejo de f : sea ´este λ1 . El espacio imagen de V n por el endomorfismo f − λ1 I es un espacio de dimensi´on menor que n, invariante por f , en el que se verifica la hip´otesis de inducci´on. Sea tc

s

r

+1

tc

{e11 , ..., er11 , er11 +1 , ..., er12 , ..., e1c1 , e12 , ..., es21 , es21 +1 , ..., es22 , ..., e2c2 , ..., e1k , ..., etk1 , etk1 +1 , ..., etkk , ...ek k−1 , ...ek k } una base de Jordan de la restricci´on de f a Im(f − λ1 I), donde {e11 , ..., er11 } es la cadena de Jordan correspondiente a la primera caja de Jordan de λ1 , {er11 +1 , ..., er12 } es la cadena de Jordan corresponrc r +1 diente a la segunda caja de Jordan de λ1 , {e1 i−1 , ..., e1c1 } es la cadena de Jordan correspondiente a la u ´ltima caja de Jordan de λ1 . (Hay c1 cajas de Jordan para λ1 .) lc Tambi´en, {e1i , ..., eli1 , eli1 +1 , ..., eli2 , ..., ei i } es la uni´on de las cadenas de Jordan correspondiente a las cajas de valor propio λi y ci es el n´ umero de cajas de Jordan correspondientes a λi . r

Por estar contenidos en Im(f − λ1 I), los vectores {er11 ,cer12 , ..., e1c1 } son vectores im´agenes respec0r11 1 0r2 tivas por f − λ1 I de otros tantos vectores {e0r } de V n , que son independientes de los 1 e1 , ..., e rj 0rj r anteriores porque e1 = (f − λ1 I)(e1 ) es independiente de las im´agenes de todos los restantes: (e1j es un vector de una base y las im´agenes de los dem´as vectores por f − λ1 I son otros vectores de la base, (si son de la cadena de Jordan correspondiente a λ1 ), o combinaci´on lineal de vectores de la r base, independientes de e1j , (si son de las cadenas de Jordan de las cajas de los λi 6= λ1 )). r

+1

Adem´as puede ocurrir que los vectores {e1 , er11 +1 ..., er1i +1 , ..., e1c1 −1 }, que son vectores propios para λ1 no sean una base de ker(f − λ1 I), porque algunos de los vectores propios para λ1 se pueden haber anulado al hacer su imagen por f − λ1 I; en ese caso agregamos los vectores propios indepenr +1 dientes {e1 , e2 , ..., eh } que haga falta para que junto a los {e1 , er11 +1 ..., er1i +1 , ..., e1c1 −1 } anteriores formen una base de ker(f − λ1 I), (agregamos un n´ umero de ellos igual a dim(ker(f − λ1 I)) menos el n´ umero de cajas con λ1 ). i Ahora, los vectores {e0r i }, i ∈ {1...c1 } unidos a los nuevos vectores propios agregados y a los de la base de Jordan primitiva de Im(f − λ1 I) forman una base de Jordan para f : Para demostrarlo, sigamos los siguientes pasos: s +1 s Observemos que el espacio engendrado por {e12 , ..., es21 , es21 +1 , ..., e2c2 −1 , ..., e2c2 } (los vectores de la base de Jordan para λ2 ) es tambi´en invariante por f − λ1 I y lo mismo ocurre con los subespacios engendrados por las uniones de las cadenas de Jordan correspondientes a cada valor propio. s

Observemos tambi´en que si e2j es el u ´ltimo vector de una cadena de Jordan correspondiente a sj s −1 λ2 , se tiene (f − λ1 I)e2sj = (λ2 − λ1 )e2 + e2j Adem´as, ning´ un vector del conjunto que queremos s demostrar que es base se transforma por la aplicaci´on f − λ1 I en e2j ni en una combinaci´on lineal en la que aparezca. Y se tiene la propiedad an´aloga para todos los vectores finales de las distintas cajas. 364

Consideremos ahora que hay una combinaci´on lineal igual a cero de todos los vectores del conjunto que queremos demostrar que es base. Tambi´en ser´ıa igual a cero la imagen por f − λ1 I de dicha combinaci´on lineal, que ser´ıa ahora una combinaci´on lineal de los vectores de la base de Jordan s primitiva de Im(f − λ1 I). Si es α2sj el coeficiente del vector e2j en la combinaci´on lineal considerada, el coeficiente de ´este vector en la imagen por f − λ1 I de dicha combinaci´on lineal ser´ıa (λ2 − λ1 )α2sj . Este coeficiente debe ser cero porque los vectores que han quedado en la imagen de la combinaci´on lineal son de la base de Jordan de Im(f − λ1 I) y por tanto independientes. Lo que implica que α2sj = 0. Lo mismo ocurre con todos los vectores u ´ltimos correspondientes a cada caja de Jordan de cada valor propio distinto de λ1 . Despu´es, el mismo razonamiento demuestra que los coeficientes de los vectores pen´ ultimos de cada cadena de Jordan correspondiente a λi 6= λ1 son tambi´en cero; y as´ı podemos seguir con todos, por lo que los coeficientes en la combinaci´on lineal dada de todos los vectores de la base correspondientes a cajas de valor propio distinto de λ1 son nulos. Llegados a este punto, podemos concluir que tambi´en son nulos los coeficientes de los restantes vectores no propios de la combinaci´on lineal considerada (de cajas de Jordan del valor propio λ1 ), porque deben ser nulos los coeficientes de los vectores im´agenes correspondientes en la imagen de dicha combinaci´on lineal por f − λ1 I. Y concluimos tambi´en que los coeficientes de los vectores propios que aparecen son todos nulos porque una parte de ellos eran vectores propios de cadenas de Jordan de Im(f −λ1 I) y los que hemos agregado eran independientes de ellos. Luego no hay combinaci´on lineal nula de la totalidad de los vectores con coeficientes no nulos. Por tanto, todos los vectores considerados son independientes. Por otra parte, el n´ umero de vectores agregado a la base de Im(f − λ1 I) es el n´ umero de cajas de Jordan para λ1 m´as la dimensi´on de ker(f − λ1 I) menos ese mismo n´ umero de cajas, es decir, la dimensi´on de ker(f − λ1 I), siendo por tanto dimIm(f − λ1 I) + dimker(f − λ1 I) = dimV el n´ umero total de vectores; Al ser independientes y su cantidad igual a dimV , son una base de V. 1 Es f´acil de ver que el conjunto de vectores {e11 , ..., er11 e0r 1 } es una cadena de Jordan correspondiente a una caja de Jordan de orden r1 + 1. Lo an´alogo ocurre con las restantes partes de la base de Jordan para las cajas de λ1 . Como los otros vectores que hemos agregado son vectores propios, entre todos forman una base de Jordan, quedando as´ı demostrado el teorema.

365

Unicidad. Veamos que el n´ umero de cajas de Jordan de orden k correspondiente a cada valor propio λi depende s´olo de las caracter´ısricas de la matriz y no de la forma de obtener una base de Jordan. Sea qki el n´ umero de celdas de orden k para el valor propio λi y ni la multiplicidad algebraica de λi . Debido a la invariancia del polinomio caracter´ıstico: r(J) = q1i + q2i + ... + qni i + Σnj 6=ni nj . Observemos ahora que si Jk (0) es la caja de Jordan de orden k con el valor propio 0, cada vez que elevamos a una potencia la matriz Jk (0), su rango disminuye en 1, por lo que el rango de (Jk (0))j es k − j. Sin embargo, el rango de (Jk (λi − λj ))m = k si i 6= j ∀m y ∀k. Por lo que si qki es el n´ umero de cajas de Jordan Jk (λi ), se tiene (denotando por r(A) el rango de A): r(J − λi I) = Σnj − q1i − q2i − ... − qji − ... − qni i r(J − λi I)2 = Σnj − q1i − 2(q2i + ... + qji + ... + qni i )

r(J − λi I)j−1 = Σnj − q1i − 2q2i − ... − (j − 1)(qj−1i + ... + qni i ) r(J − λi I)j = Σnj − q1i − 2q2i − ... − j(qji + ... + qni i ) r(J − λi I)j+1 = Σnj − q1i − 2q2i − ... − jqji − (j + 1)(qj+1i + ... + qni i )

r(J − λi I)ni = Σnj 6=ni nj por lo que qji = −(r(J−λi I)j −r(J−λi I)j−1 )+r(J−λi I)j+1 −r(J−λi I)j = r(J−λi I)j+1 −2r(J−λi I)j +r(J−λi I)j−1 . Si C es la matriz que tiene en columnas las coordenadas de los vectores de la base de Jordan, y J es la forma de Jordan correspondiente a A, se tiene C −1 AC = J y C −1 (A − λi I)j C = (J − λi I)j , por lo que los rangos de (A − λi I)j y (J − λi I)j son iguales. Entonces, r(J − λi I)j = r(A − λi I)j y el n´ umero qij s´olo depende de A.

366

Ejemplos para un m´ etodo f´ acil para hallar la base de Jordan. Ejemplo 1. Sea f un endomorfismo de matriz A:     A=   

 −18 11 2 3 15 −9 −10 7 1 2 8 −5   −24 13 3 6 20 −12   −5 3 0 3 4 −2   −21 12 2 3 18 −10  −15 9 1 3 13 −7

Su u ´nico valor propio es el 1 con multiplicidad 6. Por tanto (A − I)6 = 0. En efecto:     A−I =   

    3 (A − I) =    

   −19 11 2 3 15 −9 8 −9 −2 1 −7 8  3 −4 −1 1 −3 4  −10 6 1 2 8 −5      8 −10 −3 2 −8 11  −24 13 2 6 20 −12  2  , (A − I) =    1 −1 −1 1 −1 2  , −5 3 0 2 4 −2      9 −10 −2 0 −8 9  −21 12 2 3 17 −10  −15 9 1 3 13 −8 3 −5 −1 0 −4 6 8 5 13 1 10 11

−1 −1 −2 1 −2 −4

−3 −2 −5 −1 −3 −3

−1 0 −1 0 −2 −1 

   5 (A − I) =    

1 1 2 0 1 2



−12 −6 −18 −3 −15 −12

0 0 0 0 0 0

−3 −2 −5 0 −4 −5

12 6 18 3 15 12



      4  , (A − I) =       

−17 −10 −27 −5 −19 −17

13 8 21 4 14 13

4 2 6 1 5 4

−4 −2 −6 −1 −5 −4

 10 −7 6 −4   16 −11  , 3 −2   11 −8  10 −7

 0 −8 4 0 −4 2   0 −12 6   , (A − I)6 = 0 0 −2 1   0 −10 5  0 −8 4

Debido a que (A − I)6 = 0, las columnas distintas de cero de (A − I)5 son vectores propios. Mir´andolos vemos que hay s´olo uno independiente. 367

Podemos coger la u ´ltima columna de (A − I)5 como vector propio; entonces, la u ´ltima columna de 4 5 (A − I) se transforma por A − I en la u ´ltima columna de (A − I) ; la u ´ltima columna de (A − I)3 se transforma por A − I en la u ´ltima columna de (A − I)4 ; la u ´ltima columna de (A − I)2 se transforma por A − I en la u ´ltima columna de (A − I)3 ; la u ´ltima columna de A − I se transforma por A − I en la u ´ltima columna de (A − I)2 ; la u ´ltima columna de I se transforma por A − I en la u ´ltima columna de A − I Llamando {e5 , e4 , e3 , e2 , e1 , e0 } a los vectores obtenidos, en ese mismo orden, se tiene (f − I)i ej = j+i e si j +i ≤ 5, (f −I)i ej = 0 si j +i > 5. Entonces, dada una combinaci´on lineal α5 e5 +α4 e4 +α3 e3 + α2 e2 +α1 e1 +α0 e0 = 0, se tiene tambi´en (f −I)5 (α5 e5 +α4 e4 +α3 e3 +α2 e2 +α1 e1 +α0 e0 ) = 0, es decir, α0 e5 = 0, lo que implica α0 = 0. Volviendo a la combinaci´on lineal dada en la que no aparece e0 y haciendo la imagen por (f − I)4 de dicha combinaci´on lineal obtenemos de manera similar α1 = 0 y siguiendo repitiendo el mismo proceso con las combinaciones lineales que van quedando van saliendo todos los αi nulos, por tanto, los vectores considerados son independientes. Teni´endose que todas las u ´ltimas columnas enunciadas encadenadas en ese mismo orden forman una base de Jordan del endomorfismo de R6 correspondiente a A. La base de Jordan es entonces: (4,2,6,1,5,4),(-7,-4,-11,-2,-8,-7),(1,1,2,0,1,2),(8,4,11,2,9,6),(-9,-5,-12,-2,-10,-8),(0,0,0,0,0,1) para   1 1 0 0 0 0  0 1 1 0 0 0     0 0 1 1 0 0   J =  0 0 0 1 1 0     0 0 0 0 1 1  0 0 0 0 0 1 Ejemplo 2. Sea f un endomorfismo de matriz A:  10 −6 −3 1 −8 6  −10 9 5 −3 8 −7   −8 6 4 −2 7 −5 A=  −6 4 2 0 5 −4   7 −5 −3 1 −5 5 −20 15 8 −5 17 −12

       

Su u ´nico valor propio es el 1 con multiplicidad 6. Por tanto (A − I)6 = 0. En efecto:

368

    A−I =   

9 −6 −3 1 −8 6 −10 8 5 −3 8 −7 −8 6 3 −2 7 −5 −6 4 2 −1 5 −4 7 −5 −3 1 −6 5 −20 15 8 −5 17 −13 

   3 (A − I) =    

−3 1 1 2 −2 3

3 −1 −1 −2 2 −3

3 −1 −1 −2 2 −3

0 0 0 0 0 0





      2  , (A − I) =       

−17 14 4 −3 5 −4 11 −9 −11 9 15 −12

 8 −6 14 −11 −1 2 −3 2   −2 2 −4 3   −5 4 −9 7   5 −4 9 −7  −6 6 −12 9

 3 −3 −1 1   −1 1   , 0 = (A − I)4 = (A − I)5 = (A − I)6 . −2 2   2 −2  −3 3

Los vectores columna distintos de cero de (A − I)3 son vectores propios. Adem´as el u ´ltimo vector columna de (A − I)3 es imagen por A − I de la u ´ltima columna de (A − I)2 , que a su vez es imagen por A − I de la u ´ltima columna de A − I y ´este es imagen por A − I de la u ´ltima columna de I. As´ı tenemos cuatro vectores independientes (se ve como en el ejercicio anterior) que en el orden: {(−3, 1, 1, 2, −2, 3), (−11, 2, 3, 7, −7, 9), (6, −7, −5, −4, 5, −13), (0, 0, 0, 0, 0, 1)} forman una cadena de Jordan para una caja de Jordan de dimensi´on 4. Llegados a esta situaci´on s´olo hay dos formas de completar los vectores enunciados a una base de Jordan: con dos vectores propios independientes entre s´ı y del anterior vector propio o con una cadena {w, v} de dos vectores tales que w es vector propio y (A − I)v = w. Si fuera la primera forma, al haber tres vectores independientes, el rango de A − I (igual al rango de J-I) ser´ıa 3, pero el rango de A − I es 4 porque −6 −3 1 6 8 5 −3 −7 = −2 6= 0 6 3 −2 −5 4 2 −1 −4 y todos los menores de orden 5 son nulos. Entonces, le corresponde la segunda forma. Por otra parte r(A − I)2 = 2. Como al pasar de A − I a (A − I)2 por A − I, el rango disminuye en 2, hay en el espacio engendrado por las columnas de A − I dos vectores propios independientes, pudi´endose, por tanto, encontrar un vector propio independiente de {−3, 1, 1, 2, −2, 3). (Tambi´en es independiente de los otros vectores (porque no son propios) de la cadena anterior). Adem´as, al ser iguales las segunda y la quinta columnas de (A − I)2 , el vector diferencia de esas columnas en (A − I) es un vector propio (que es independiente de todos los anteriores; es el vector (2, 0, −1, −1, 1, −2)t = 369

(A − I)(0, 1, 0, 0, −1, 0)t . Los dos vectores {(2, 0, −1, −1, 1, −2), (0, 1, 0, 0, −1, 0)} son una cadena de Jordan correspondiente a una caja de Jordan de dimensi´on 2, siendo todos independientes. (El u ´nico que queda por probar que es independiente es el (0, 1, 0, 0, −1, 0) y lo es porque su imagen por f − I es independiente de las im´agenes por f − I de los vectores anteriores.) Entonces, (2,0,-1,-1,1,-2),(0,1,0,0,-1,0);(-3,1,1,2,-2,3),(-11,2,3,7,-7,9),(6,-7,-5,-4,5,-13),(0,0,0,0,0,1) una base de Jordan para   1 1 0 0 0 0  0 1 0 0 0 0     0 0 1 1 0 0   J =  0 0 0 1 1 0     0 0 0 0 1 1  0 0 0 0 0 1 Ejemplo 3. Sea f un endomorfismo de matriz A,  −4  2   2 A=  4   −3 6

 5 2 −3 5 −2 −1 −1 1 −2 1   −2 0 1 −2 1   −4 −2 3 −4 2   3 1 −2 4 −1  −6 −3 3 −6 4

Su u ´nico valor propio es 1. Por eso (A − I)6 = 0. en efecto:     A−I =    

−5 2 2 4 −3 6

5 −2 −2 −4 3 −6

2 −3 5 −2 −1 1 −2 1 −1 1 −2 1 −2 2 −4 2 1 −2 3 −1 −3 3 −6 3

     , 0 = (A−I)2 = (A−I)3 = (A−I)4 = (A−I)5 = (A−I)6   

Los vectores de A − I son vectores propios. S´olo hay dos vectores independientes, que son a su vez, vectores im´agenes de vectores columna de I por A − I: el vector propio (2, −1, −1, −2, 1, −3)t = (A − I)(0, 0, 1, 0, 0, 0)t y el vector propio (−3, 1, 1, 2, −2, 3)t = (A − I)(0, 0, 0, 1, 0, 0)t . Dan lugar a dos cadenas de Jordan. Al ser el rango de I igual a 6 y haber pasado a ser 2 en A − I, hay cuatro vectores propios independientes en R6 , pudi´endose encontrar otros dos vectores propios independientes de los anteriores. 370

Viendo que la suma de la primera y la segunda columnas de A − I es cero, tenemos un vector propio: (1,1,0,0,0,0). Viendo que la suma de la tercera y la sexta columnas de A − I es cero, tenemos otro vector propio: (0,0,1,0,0,1). Los cuatro vectores propios son independientes porque 1 1 0 0 0 0 1 0 2 −1 −1 −2 = −2 6= 0 −3 1 1 2 y lo son de los vectores no propios porque lo son sus im´agenes por f − I. Los vectores: (1,1,0,0,0,0);(0,0,1,0,0,1);(2,-1,-1,-2,1,-3),(0,0,1,0,0,0);(-3,1,1,2,-2,3),(0,0,0,1,0,0) constituyen una base de Jordan del endomorfidmo dado por A para   1 0 0 0 0 0  0 1 0 0 0 0     0 0 1 1 0 0   . J =  0 0 0 1 0 0    0 0 0 0 1 1  0 0 0 0 0 1 Ejemplo 4. Sea f un endomorfismo de matriz A,  −12 27 4 0 −8 4  −3 7 1 0 −2 1   −18 40 6 −1 −12 6 A=  −10 23 2 2 −6 5   5 −11 −1 −1 3 −2 3 −8 0 −1 2 −2

    .   

con valores propios 1 con multiplicidad 5 y −1 con multiplicidad 1. Entonces, como el m´aximo de los ´ordenes de las celdas para λ1 = 1 es 5, (A − I)5 (A + I) = 0 = (A + I)(A − I)5 . Las columnas de A + I engendran el subespacio ker(f − I)5 . Hallemos la cadena de matrices:     A+I =    

−11 27 4 0 −8 4 −3 8 1 0 −2 1 −18 40 7 −1 −12 6 −10 23 2 3 −6 5 5 −11 −1 −1 4 −2 3 −8 0 −1 2 −1





       , (A−I)(A+I) =        371

−38 81 11 0 −22 11 −10 21 3 0 −6 3 −44 95 13 −2 −26 11 −20 43 5 2 −10 7 10 −22 −2 −2 4 −4 2 −4 0 −2 0 −2

       

    2 (A − I) (A + I)    

−24 −8 −24 −8 0 0

54 18 54 18 0 0

6 2 6 2 0 0

 0 −12 6 0 −4 2   0 −12 6  , 0 −4 2   0 0 0  0 0 0

(A − I)3 (A + I) = 0

Se ve que el vector (6, 2, 6, 2, 0, 0) (´ ultima columna de (A − I)2 (A + I)) es vector propio para λ = 1. Entonces, las u ´ltimas columnas de las matrices precedentes dan una cadena de Jordan de orden 3: (6, 2, 6, 2, 0, 0), (11, 3, 11, 7, −4, −2), (4, 1, 6, 5, −2, −1). Adem´as la cuarta columna de (A − I)(A + I) se transforma en cero por A − I (en (A − I)2 (A + I)), por tanto es un vector propio para 1, independiente del anterior. Entonces, junto a la cuarta columna de A + I, dan una cadena de Jordan de orden 2: (0, 0, −2, 2, −2, −2), (0, 0, −1, 3, −1, −1) Como las matrices A − I y A + I conmutan, tambi´en se tiene (A + I)(A − I)3 = 0, siendo las columnas distintas de cero de (A − I)3 vectores propios de A para el valor propio −1. Como   0 0 0 0 0 0  0 0 0 0 0 0     −8 −24 0 0 −8  8 3 , (A − I) =   −8 −24 0 0 −8 8     0 0 0 0 0 0  8 24 0 0 8 −8 el vector (0, 0, 8, 8, 0, −8) es vector propio para −1. S´olo hay una columna independiente. Juntando las tres cadenas de Jordan obtenidas tenemos una base de Jordan de f : (6,2,6,2,0,0),(11,3,11,7,-4,-2),(4,1,6,5,-2,-1);(0,0,-2,2,-2,-2),(0,0,-1,3,-1,-1);(0,0,8,8,0,-8) para   1 1 0 0 0 0  0 1 1 0 0 0     0 0 1 0 0 0   . J =  0 0 0 1 1 0    0 0 0 0 1 0  0 0 0 0 0 −1 Ejemplo 5. Sea f un endomorfismo de matriz A

372

    A=   

−6 2 4 −7 8 1 −10 9 5 −3 8 −7 −9 7 2 −2 8 −5 1 −1 −2 2 −2 0 1 −3 0 −3 1 4 −8 9 2 1 5 −8

    .   

de valores propios 1 y −1, ambos de multiplicidad algebraica 3. Entonces, como el m´aximo de los o´rdenes de las cajas para λ1 = 1 y λ2 = −1 es 3, (A − I)3 (A + I)3 = 0 = (A + I)3 (A − I)3   −140 118 70 −72 142 −68  −84 74 42 −24 66 −60      4 −2 −2 8 −10 −4 3  (A + I) =   96 −80 −48 48 −96 48     −48 40 24 −32 56 −16  12 −6 −6 24 −30 −12   −216 188 108 −80 188 −136  −8 4 4 0 4 −8     40 −36 −20 16 −36 24  3  , (A − I)(A + I) =   128 −112 −64 48 −112 80    −128 112 64 −48 112 −80  120 −108 −60 48 −108 72   −144 120 72 −48 120 −96  48 −40 −24 16 −40 32      48 −40 −24 16 −40 32 2 3  (A − I) (A + I) =   96 −80 −48 32 −80 64     −96 80 48 −32 80 −64  144 −120 −72 48 −120 96 (A − I)3 (A + I)3 = 0 Todas las columnas de (A−I)2 (A+I)3 son dependientes, y se transforman en cero al multiplicarlas por A−I, una columna cualquiera es un vector propio; escojamos la cuarta: (−48, 16, 16, 32, −32, 48)t , ´esta es al mismo tiempo el producto de A − I por la cuarta columna de (A − I)(A + I)3 y ´esta u ´ltima es el producto de A − I por la cuarta columna de (A + I)3 . Entonces, los tres vectores: {(−48, 16, 16, 32, −32, 48), (−80, 0, 16, 48, −48, 48), (−72, −24, 8, 48, −32, 24) son una cadena de Jordan para λ = 1. An´alogamente, considerando las matrices: 373



 20 −38 10 −18 −20 28  0 0 0 0 0 0      −68 46 14 −22 68 −28  (A − I)3 =   −36  22 6 −14 36 −12    12 −26 6 −14 −12 20  −48 48 0 0 48 −32  −72 60 12 −12 72 −40  0 0 0 0 0 0   24 −12 −12 12 −24 8 (A + I)(A − I)3 =   24 −12 −12 12 −24 8   −40 36 4 −4 40 −24 64 −48 −16 16 −64 32   32 −24 −8 8 −32 16  0 0 0 0 0 0     32 −24 −8 8 −32 16  2 3   (A + I) (A − I) =   32 −24 −8 8 −32 16    32 −24 −8 8 −32 16  0 0 0 0 0 0

    ,   

(A + I)3 (A − I)3 = 0 vemos que las terceras columnas de las tres u ´ltimas matrices: {(−8, 0, −8, −8, −8, 0), (12, 0, −12, −12, 4, −16), (10, 0, 14, 6, 6, 0)} son una cadena de Jordan para λ = −1. Y una base de Jordan de f es la uni´on de las dos cadenas: {(−48, 16, 16, 32, −32, −72), (−80, 0, 16, 48, −48, 48), (−72, −24, 8, 48, −32, 24); } ∪ {(−8, 0, −8, −8, −8, 0), (12, 0, −12, −12, 4, −16), (10, 0, 14, 6, 6, 0)} para   1 1 0 0 0 0  0 1 1 0 0 0     0 0 1 0 0 0   . J =  0 0 0 −1 1 0    0 0 0 0 −1 1  0 0 0 0 0 −1

374

Ejemplo 6. Sea f un endomorfismo de matriz A  0 0 0 1 −1 0 −1  1 1 −3 −2 −1 −4 0   1 1 −5 −5 0 −7 1  3 3 10 −10 0 0 A=  0  0 3 0 6 −8 −3 0   −1 −3 3 −2 7 7 −1 1 0 3 2 0 3 2 con un u ´nico valor propio igual a 1. Entonces  −1 0  1 0   1 1   0 3 A−I =  0 3   −1 −3 1 0  0  0   2  2 (A − I) =   6  6   −6 0

         

(A − I)7 = 0. En efecto,  0 1 −1 0 −1 −3 −2 −1 −4 0   −6 −5 0 −7 1   3 9 −10 0 0   0 6 −9 −3 0   3 −2 7 6 −1  3 2 0 3 1  0 0 0 0 0 0 0 0 0 0 0 0   0 0 0 −1 −1 1   0 0 0 −3 −3 3   0 0 0 −3 −3 3   0 0 0 3 3 −3  0 0 0 0 0 0

(A − I)3 = 0 S´olo hay una columna independiente en (A − I)2 , que se transforma en cero al multiplicarla por A − I. Por tanto esta columna es un vector propio de f . Escojamos la u ´ltima columna de (A − I)2 : (0, 0, 1, 3, 3, −3, 0)t = (A − I)(−1, 0, 1, 0, 0, −1, 1)t = (A − I)2 (0, 0, 0, 0, 0, 0, 1). Entonces, los vectores (0, 0, 1, 3, 3, −3, 0), (−1, 0, 1, 0, 0, −1, 1), (0, 0, 0, 0, 0, 0, 1) forman una cadena de Jordan para λ = 1. Como el rango de A − I es 4, hay tres combinaciones lineales de las columnas de A − I que son vectores propios para λ = 1. Pero como Im(f − λI) ⊃ Im(f − λI)2 , s´olo podemos encontrar dos

375

combinaciones lineales que sean vectores propios, a la vez independientes del anterior. Lo son la tercera y la cuarta columna de A − I: (0, −3, −6, 3, 0, 3, 3) = (f − I)(0, 0, 1, 0, 0, 0, 0) (1, −2, −5, 9, 6, −2, 2) = (f − I)(0, 0, 0, 1, 0, 0, 0) dando lugar a dos cadenas de Jordan de orden 2. La uni´on de (0,-3,-6,3,0,3,3),(0,0,1,0,0,0,0);(1,-2,-5,9,6,-2,2),(0,0,0,1,0,0,0) con (0,0,1,3,3,-3,0),(-1,0,1,0,0,-1,1),(0,0,0,0,0,0,1) es una base de Jordan de f para   1 1 0 0 0 0 0  0 1 0 0 0 0 0     0 0 1 1 0 0 0     J =  0 0 0 1 0 0 0   0 0 0 0 1 1 0     0 0 0 0 0 1 1  0 0 0 0 0 0 1 . Se ve que todos los vectores de la base son independientes por procedimientos an´alogos a los anteriores. Ejemplo 7. Sea f un endomorfismo de matriz A  5 −3 −1 −3 4 2 2  6 2 1 0 −2 0 2   3 −3 2 −3 3 1 2  −6 3 0 5 −2 −1 −3 A=   3 0 0 0 2 1 1   0 −3 0 −3 3 2 1 −9 9 3 9 −12 −6 −4 de u ´nico valor propio λ = 2. Entonces, (A − 2I)7 = 0. En efecto,

376

         



3 −3 −1 −3  6 0 1 0   3 −3 0 −3   3 0 3 A − 2I =  −6  3 0 0 0   0 −3 0 −3 −9 9 3 9  0 −3 0 −3  −3 −3 0 −3   0 −3 0 −3  2 3 0 3 (A − 2I) =   3  0 −3 0 −3   0 0 0 0 0 9 0 9  0 0 0 0 0 0  0 3 0 3 −3 0   0 0 0 0 0 0  0 −3 0 −3 3 0 (A − 2I)3 =    0 0 0 0 0 0   0 0 0 0 0 0 0 0 0 0 0 0

4 2 2 −2 0 2 3 1 2 −2 −1 −3 0 1 1 3 0 1 −12 −6 −6

         

 3 0 1 3 −1 0   3 0 1   −3 1 0   3 0 1   0 0 0  −9 0 −3  0 −1   0   4 1   , (A − 2I) = 0 0   0  0

Como el rango de (A − 2I)3 es uno, hay una columna distinta de cero de (A − 2I)3 que es vector propio. Cogiendo la u ´ltima tenemos: (0, −1, 0, 1, 0, 0, 0) = (f − 2I)(1, 0, 1, 0, 1, 0, −3) = (f − 2I)2 (2, 2, −3, −3, 1, 1, −6) = (f − 2I)3 (0, 0, 0, 0, 0, 0, 1). Entonces los vectores (0, −1, 0, 1, 0, 0, 0), (1, 0, 1, 0, 1, 0, −3), (2, 2, −3, −3, 1, 1, −6), (0, 0, 0, 0, 0, 0, 1). son independientes y forman una cadena de Jordan de orden 4. Como r((A − 2I)2 ) − r(A − 2I)3 = 2 − 1 = 1 y Im(f − 2I)3 ⊂ Im(f − 2I)2 no podemos encontrar una combinaci´on lineal de las columnas de (A − 2I)2 que sea un vector propio independiente del ya cogido en la cadena de Jordan de orden 4.

377

Sin embargo, como r(A − 2I) − r(A − 2I)2 = 4 − 2 = 2 y Im(f − 2I)3 ⊂ Im(f − 2I) podemos encontrar una combinaci´on lineal de las columnas de A − I que sea un vector propio independiente del ya cogido en la cadena de Jordan de orden 4. Mirando se ve que la tercera columna de A − 2I se transforma en cero al pasar a (A − 2I)2 , luego (−1, 1, 0, 0, 0, 0, 3)t = (A − 2I)(0, 0, 1, 0, 0, 0, 0)t es un vector propio. Se ve f´acilmente que es independiente del anterior. Adem´as el rango de I es 7. Si ha pasado a 4 al multiplicar I por A − 2I, hay tres combinaciones lineales de las columnas de I que son vectores propios, aunque s´olo podemos encontrar otra combinaci´on lineal de las columnas de I, que sea vector propio independiente de los dos anteriores. Como la primera columna de A − 2I sumada al triple de la cuarta m´as el triple de la quinta menos el triple de la sexta es cero, el vector (1, 0, 0, 3, 3, −3, 0) es un vector propio para λ = 2, que se puede comprobar que es independiente de los dos anteriores. As´ı tenemos que {(1, 0, 0, 3, 3, −3, 0); (−1, 1, 0, 0, 0, 0, 3), (0, 0, 1, 0, 0, 0, 0); }∪ {(0, −1, 0, 1, 0, 0, 0), (1, 0, 1, 0, 1, 0, −3), (2, 2, −3, −3, 1, 1, −6), (0, 0, 0, 0, 0, 0, 1)} son todos independientes y forman una base de Jordan de f para   2 0 0 0 0 0 0  0 2 1 0 0 0 0     0 0 2 0 0 0 0     J =  0 0 0 2 1 0 0   0 0 0 0 2 1 0     0 0 0 0 0 2 1  0 0 0 0 0 0 2 . La obtenci´ on del u ´ltimo vector (1, 0, 0, 3, 3, −3, 0) no ha sido tan f´acil. Ha habido que resolver el sistema de ecuaciones homog´eneo de matriz A − 2I, pero con ´este m´etodo no hemos tenido que calcular los n´ ucleos de las distintas potencias de A − 2I, lo cual supone resolver muchos m´as sistemas de ecuaciones.

M´ etodo general. El procedimiento que vamos a describir para hallar la base de Jordan de un endomorfismo f de matriz A se basa en el hecho de que multiplicando adecuadamente las matrices A − λk I de los endomorfismos f − λk I podemos obtener f´acilmente los vectores directores de las cadenas de Jordan y todos los siguientes que les corresponden. Observemos que debido a la invariancia del Polinomio Caracter´ıstico de un endomorfismo la suma de las dimensiones de las cajas de Jordan correspondientes a un valor propio λk coincide con 378

la multiplicidad nk de este valor propio. Tambi´en, una vez desplegada la base de Jordan, se ve que la uni´on de las cadenas de Jordan correspondientes a un valor propio λk es ker(f − λk I)nk que denotaremos por Ek y V n = ⊕Ek . Siendo la base de Jordan de V n para f la uni´on de las bases de Jordan de f en cada Ek . Cada subespacio Ej es invariante por f y por f −λi I cualquiera que sea i, siendo (f −λi I)ni Ei = 0 y por el contario la restricci´on de (f − λi I)ni a Ej es un isomorfismo si j 6= i. Esto hace que (Πi6=k ((f − λi I)ni )V n ⊂ Ek = ker(f − λk I)nk , siendo de la misma dimensi´on que Ek , por lo que (Πi6=k ((f − λi I)ni )V n = Ek = ker(f − λk I)nk , estando, por tanto, Ek engendrado por las columnas de Πi6=k ((A − λi I)ni ) que denotamos por Ak Para obtener la base de Jordan de f en Ek calculamos la sucesi´on de matrices {(A − λk I)mk }Ak ,

mk ∈ {0, 1, ..., nk }.

Sabemos que (A−λk I)nk Ak = 0. Puede ocurrir que para 1 ≤ dk < nk , (A−λk I)dk Ak = 0. En este caso todas las columnas de (A−λk I)dk −1 Ak son vectores propios para λk ; Sea edkk −1 un vector columna distinto de cero de esta matriz en el lugar `-´esimo, entonces las columnas en el lugar ` de las matrices j (A − λk I)dk −2 Ak , ..., Ak dan lugar a vectores edkk −2 , ..., e0i que verifican (f − λk I)ejkk = ekk+1 siendo {edkk −1 , edkk −2 , ..., e0k } la cadena correspondiente a una caja de Jordan de dimensi´on dk . Cogiendo el m´aximo n´ umero rk = r(A−λk I)dk Ak de columnas edkk −1 independientes y repitiendo el mismo proceso tenemos las cadenas de Jordan correspondientes a las cajas de dimensi´on k. (Todos esos vectores son independientes). Si dk · rk = nk hemos acabado en Ek . En caso contrario existen cajas de Jordan de dimensi´on inferior. Observemos que en el caso anterior r(A − λk I)dk −j−1 Ak − r(A − λk I)dk −j Ak es independiente de j e igual a rk , pero en caso contrario existe d0k < dk tal que 0

0

r(A − λk I)dk −1 Ak − r(A − λk I)dk Ak > rk . 0

Consideramos el m´aximo de tales d0k , entonces, como las columnas de (A − λk I)dk −1 Ak engendran 0 0 0 el subespacio imagen de (f − λk I)dk −1 , existen r(A − λk I)dk −1 Ak − r(A − λk I)dk Ak combinaciones 0 lineales de las columnas de (A − λk I)dk −1 Ak que son vectores propios para λk . 0 Sin embargo, como el subespacio imagen de (f − λk I)dk −1 contiene al subespacio imagen de 0 0 (f − λk I)dk −1 , s´olo podemos encontrar r(A − λk I)dk −1 Ak − 2r(A − λk I)dk Ak combinaciones lineales

379

0

de las columnas de (A − λk I)dk −1 Ak que son vectores propios de λk y son adem´as, independientes de los rk primeros vectores propios escogidos. 0 d0 −1 Si uno de ellos ekk es combinaci´on lineal de las n columnas de (A−λk I)dk −1 Ak con los coeficientes 0 {α1 , α2 , ..., αn } consideremos las combinaciones lineales de las columnas de (A−λk I)dk −2 Ak , ..., Ak con d0 −1 los mismos coeficientes y en el mismo orden y as´ı encontramos una sucesi´on de vectores {ekk , ..., e0k } que es una cadena de Jordan correspondiente a una caja de Jordan de dimensi´on d0k < dk . d0 −1

Repetimos el procedimiento para todos los ekk dk · rk + d0k · `0k = nk hemos acabado en Vk .

escogidos. Si el n´ umero de estos es `0k y si

En caso contrario existen cajas de Jordan de dimensi´on inferior d00k < d0k < dk y por tanto alg´ un 00 0 dk < dk tal que 00

00

r(A − λk I)dk −1 Ak − r(A − λk I)dk Ak > rk + `0k 00

Escogemos combinaciones lineales de las columnas de (A − λk I)dk −1 que sean vectores propios y d0 −1 al mismo tiempo independientes de los {edkk −1 } y de los {ekk }. Obtenemos las cadenas de Jordan d00 −1 correspondientes a estos u ´ltimos vectores directores ekk con el mismo procedimiento que los hemos d0 −1 umero de vectores que podemos y debemos escoger es el n´ umero de obtenido para los ekk . El n´ cajas de Jordan de dimensi´on d”k que seg´ un calculamos en el apartado de la unicidad es r(A − λi I)d”k +1 − 2r(A − λi I)d”k + r(A − λi I)d”k −1 . Seguimos as´ı hasta tener nk vectores independientes que son una base de Jordan de Ek . Como dijimos al principio, la base de Jordan de f en V es la uni´on de las bases de Jordan de f en cada Ek .

380

Bibliograf´ıa. [A] A. Almeida Costa. Cours d’Algebre Generale, Ed. Fundacao Calouste Gulbekian. Lisboa, 1974. [B] J. de Burgos. Curso de Algebra y Geometr´ıa. Ed. Alhambra Universidad. Madrid 1982. [C] M. Castellet, I. LLerena. Algebra Lineal y Geometr´ıa. Ed. Revert´e. 8991. [C] L. Contreras Caballero. Un m´etodo f´acil para hallar una base de Jordan. XV Jornadas Luso-Espa˜ nolas de Matem´aticas. (1990). [Fp] A. F. Filippov. A short proof of the theorem on the reduction of a matrix to Jordan form. Moscow Univ. Math. Bull.,26 (1971) 70-71. [F-S]R. Fletcher and D.C. Sorensen. An algorithmmic derivation of the Jordan cannonical form. Amer. Math. Monthly, 90 (1983) 12-16. [F] J. Frenkel, G´eometrie pour l’´el´ uve professeur, Ed. Hermann, Par´ıs, 1973. [G-W]A. Galperin and Z. Waksman. An elementary approach to Jordan theory. Amer. Math. Monthly 87 (1981),728-732. [G] R. Godement, Algebra, Ed. Tecnos, Madrid, 1976. [H] E. Hern´andez. Algebra y Geometr´ıa. Ediciones de la Universidad Aut´onoma de Madrid. 1987. [Hr] I.N. Herstein, Topics in Algebra, Ed. Wiley Sons, New York, 1975. [M] A.I. Maltsev, Fundamentos de Algebra Lineal, Ed. Mir. Moscow. [S] G. Strang. Algebra Lineal y sus Aplicaciones. Addison-Wesley Iberoamericana. 1990. [W] H. W¨aliao. An elementary approach to the Jordan form of a matrix. Amer. Math. Monthly. 93 (1986)711-714.

381

382

APLICACIONES ORTOGONALES. ESPACIO AF´IN y MOVIMIENTOS. Introducci´ on. Dados dos espacios vectoriales eucl´ıdeos, las aplicaciones lineales entre ellos que respetan la estructura eucl´ıdea se llaman aplicaciones ortogonales. Estas aplicaciones conservan las distancias y el origen. Ejemplos de transformaciones ortogonales son los giros y las simetr´ıas ortogonales en el plano y las rotaciones vectoriales en el espacio. Existe un teorema que reduce cualquier transformaci´on ortogonal de Rn a un producto (o composici´on) de estos dos tipos de aplicaciones ortogonales (rotaciones vectoriales y simetr´ıas). Adem´as una rotaci´on vectorial o un giro se pueden descomponer en composici´on de dos simetr´ıas ortogonales, de donde se deduce que toda transformaci´on ortogonal se puede descomponer en producto (o composici´on) de simetr´ıas ortogonales. Definici´ on y Propiedades. Definici´ on 1: Una aplicaci´on lineal entre dos espacios vectoriales eucl´ıdeos es ortogonal si conserva el producto escalar: La aplicaci´on lineal f : V → V 0 es ortogonal si < f (x), f (y) >=< x, y > ∀x, y ∈ V . Las transformaciones ortogonales conservan, por tanto, tambi´en los m´odulos. Como en R3 se identifican los puntos con los vectores y se establece que d(x, y) = ||x − y||, las transformaciones ortogonales de R3 conservan las distancias y se llaman isometr´ıas. Por conservar el m´odulo de los vectores, toda aplicaci´on ortogonal es inyectiva y si los espacios original y final tienen la misma dimensi´on, es biyectiva. Aunque la estructura de espacio eucl´ıdeo comprende la linealidad y el producto escalar, se demuestra que es suficiente que una aplicaci´on entre espacios vectoriales eucl´ıdeos conserve el producto escalar para que sea lineal: Proposici´ on 1: Toda aplicaci´on entre espacios vectoriales eucl´ıdeos que conserva el producto escalar es lineal. Demostraci´on: Sea f : V 7→ V 0 tal que < f (x), f (y) >=< x, y >, 1) Vamos a comprobar primero que f (x+y) = f (x)+f (y) viendo que ||f (x+y)−f (x)−f (y)|| = 0. (Recordemos que si un vector tiene m´odulo cero es el vector cero). En efecto, 383

||f (x + y) − f (x) − f (y)||2 =< f (x + y) − f (x) − f (y), f (x + y) − f (x) − f (y) >= (por la linealidad del producto escalar) =< f (x + y), f (x + y) > + < f (x + y), −f (x) > + < f (x + y), −f (y) > + < −f (x), f (x + y) > + < −f (x), −f (x) > + < −f (x), −f (y) > + < −f (y), f (x + y) > + < −f (y), −f (x) > + < −f (y), −f (y) >= < f (x + y), f (x + y) > − < f (x + y), f (x) > − < f (x + y), f (y) > − < f (x), f (x + y) > + < f (x), f (x) > + < f (x), f (y) > − < f (y), f (x + y) > + < f (y), f (x) > + < f (y), f (y) >= (por conservar f el producto escalar) =< x+y, x+y > − < x+y, x > − < x+y, y > − < x, x+y > + < x, x > + < x, y > − < y, x+y > + < y, x > + < y, y >=< x + y, x + y − x − y > − < x, x + y − x − y > − < y, x + y − x − y >= 0 de donde f (x + y) = f (x) + f (y) 2) Despu´es vemos que f (αx) = αf (x) comprobando que ||f (αx) − αf (x)|| = 0. En efecto, por la linealidad del producto escalar y por ser ´este conservado por f : ||f (αx) − αf (x)||2 =< f (αx) − αf (x), f (αx) − αf (x) >= < f (αx), f (αx) > + < f (αx), −αf (x) > + < −αf (x), f (αx) > + < −αf (x), −αf (x) > =< f (αx), f (αx) > −α < f (αx), f (x) > −α < f (x), f (αx) > +(−α)2 < f (x), f (x) >= =< αx, αx > −α < αx, x > −α < x, αx > +(−α)2 < x, x >= = α2 < x, x > −α2 < x, x > −α2 < x, x > +α2 < x, x >= 0 de donde f (αx) = αf (x). En el sentido inverso, s´olo es necesario exigir a una aplicaci´on lineal que conserve el m´odulo de los vectores para que conserve el producto escalar: Proposici´ on 2: Si una aplicaci´on es lineal y conserva el m´odulo, conserva el producto escalar. (Por tanto es ortogonal). Ve´amoslo: Si f conserva el m´odulo de los vectores, < f (x + y), f (x + y) >= kf (x + y)k2 = kx + yk2 =< x + y, x + y >, adem´as, por ser f lineal y por la linealidad del producto escalar, < f (x + y), f (x + y) >=< f (x) + f (y), f (x) + f (y) >= < f (x), f (x) > + < f (x), f (y) > + < f (y), f (x) > + < f (y), f (y) >, 384

considerando la expresi´on < x + y, x + y >=< x, x > + < x, y > + < y, x > + < y, y > vemos que si < f (x), f (x) >=< x, x > y < f (y), f (y) >=< y, y >, por la simetr´ıa del producto escalar tenemos < f (x), f (y) >=< x, y >. Con la proposici´on anterior hemos demostrado el Teorema 1: Una aplicaci´on entre dos espacios vectoriales eucl´ıdeos es una aplicaci´on ortogonal si y s´olo si es lineal y conserva el m´odulo de los vectores. Como aplicaci´on de este teorema podemos deducir que los giros y las simetr´ıas del plano son aplicaciones ortogonales. Puesto que son lineales y conservan los m´odulos. El dibujo siguiente muestra c´omo las simetr´ıas son lineales: v+v’

v























 v’ 

 6 



s(v’) 

1   3  

     

    

    

                    

  -

s(v+v’)

s(v) Observando tambi´en que la imagen de un giro por un paralelogramo es un paralelogramo, concluimos que un giro es una aplicaci´on lineal. Otra propiedad importante de las aplicaciones ortogonales es que conservan la ortogonalidad de vectores, es decir, dos vectores son ortogonales si y s´olo si sus im´agenes por la aplicaci´on ortogonal son ortogonales. 385

Debido a ello, tenemos el Teorema 2: Una aplicaci´on lineal entre espacios vectoriales eucl´ıdeos de la misma dimensi´on es ortogonal si y s´olo si es lineal y transforma una base ortonormal en otra base ortonormal. Cuya demostraci´on se deja como ejercicio. Corolario 1: Si A es la matriz de una transformaci´on ortogonal en una base ortonormal, t A·A = I. Esta condici´on de la matriz es tambi´en suficiente para que la aplicaci´on sea ortogonal. En efecto, las columnas de la matriz A son las coordenadas de los vectores de otra base ortonormal. Son de m´odulo 1 y al multiplicarlas escalarmente de manera cruzada obtenemos 0. La primera condici´on implica que la suma de los cuadrados de los elementos de cada columna es 1 y la segunda implica que los productos de columnas diferentes elemento a elemento siguiendo un orden ascendente o descendente son cero. Como las columnas de A son las filas de t A, al realizar el producto t A · A estamos multiplicando columnas de A por columnas de A, por lo que sale I. Este corolario se puede obtener tambi´en de la definici´on de aplicaci´on ortogonal entre dos espacios vectoriales: Sea f una aplicaci´on ortogonal que se escribe en una determinada base por f (x) = Ax y sean G, 0 G las matrices de los correspondientes productos escalares. Por conservar f el producto escalar ha de ser:     y1 y1  y2   y2      (x1 , x2 , ...xn )G  ..  =< x, y >=< f (x), f (y) >= (x1 , x2 , ...xn )t AG0 A  ..   .   .  yn yn cualesquiera que sean los vectores x e y. Entonces tenemos la igualdad de las matrices centrales: G = t AG0 A Expresando f en bases ortonormales G = I = G0 , de donde tenemos: t

A·A=I

Corolario 2: Si A es la matriz de una aplicaci´on ortogonal entre espacios vectoriales de la misma dimensi´on, A es una matriz invertible. Demostraci´on:

386

Si los dos espacios vectoriales son de la misma dimensi´on, la matriz correspondiente A es cuadrada y como acabamos de obtener que si G y G0 son las matrices de los productos escalares en V y en V’, G = t AG0 A, tenemos |G| = |t A||G0 ||A|, lo que implica |t A||A| = |G|/|G0 | = 6 0. Por tanto, una aplicaci´on ortogonal entre espacios de la misma dimensi´on tiene inversa, la cual es tambi´en ortogonal, porque la conservaci´on del producto escalar se hace en los dos sentidos. Por ello, si la transformaci´on ortogonal se ha expresado en una base ortonormal por A, la matriz A−1 existe y tambi´en verifica: A−1t ·A−1 = I expresi´on de la que al tomar inversas tenemos A· t A = I. Es decir que si A es cuadrada, y t A · A = I, tambi´en A · t A = I. Siguiendo el razonamiento a la inversa, se ve que esta condici´on es suficiente para que la matriz corresponda en una base ortonormal a una aplicaci´on ortogonal. A las matrices cuadradas tales que t A · A = I o´ A · t A = I se les llama matrices ortogonales. Adem´as, Corolario 3: El determinante de la matriz de una transformaci´on ortogonal es 1 o´ −1. Demostraci´on: Si A es la matriz de una transformaci´on ortogonal expresada en una base ortonormal, |t A||A| = |A|2 = 1 La matriz A0 de la transformaci´on en otra base est´a relacionada con A por A0 = C −1 AC de donde |A0 | = |C −1 ||A||C| =

1 |A||C| = |A| = ±1 |C|

Ejercicios: 11.1.1. Averiguar si son ortogonales los endomorfismos expresados en las bases can´onicas de R2 o´ R3 (seg´ un corresponda), por las matrices:

a)

√1 2 √1 2

− √12 √1 2

! b)

√1 2 √1 2

√1 2 − √12

!

0 1  c) 1 0 0 0 

cuando se usa el producto escalar usual. 387

√1 2



0 

√1 2



√1 − √12 6  0 − √26 d)  √1 2

√1 6

√1 3 √1 3 √1 3

  .

11.1.2. Sea E un espacio vectorial eucl´ıdeo de dimensi´on 3 y f un endomorfismo de ese espacio dado en una base ortonormal B = {e1 , e2 , e3 } por 7f (e1 ) = 2e1 + αe2 + βe3 , 7f (e2 ) = 6e1 + 2e2 + γe3 , 7f (e3 ) = 3e1 − 6e2 + 2e3 Hallar α, β, γ para que f sea ortogonal. 11.1.3. Sea B = {u1 , u2 , u3 } una base de R3 , donde u1 = (1, 1, 0), u2 = (1, 0, 1), u3 = (0, 1, 1). Estudiar si son ortogonales los endomorfismos de R3 dados en esa base por las matrices:     1 0 1 1 1 1 0  a)  0 1 0  b)  0 −1 1 0 0 0 0 −1 11.1.4. Sea A la matriz de un endomorfismo f de R3 en la base can´onica. Comprobar que si A2 = I, f es ortogonal si y s´olo si la matriz A es sim´etrica. 11.1.5. Sea U un subespacio de un espacio vectorial eucl´ıdeo V , PU la proyecci´on ortogonal de V sobre U y PU ⊥ la proyecci´on ortogonal de V sobre U ⊥ . a) Comprobar que la aplicaci´on SU = PU − PU ⊥ es una aplicaci´on ortogonal de V y S 2 = I. (SU es la simetr´ıa ortogonal respecto a U ). b) Comprobar que SU = I − 2PU ⊥ = 2PU − I. c) Justificar por qu´e la matriz de la simetr´ıa ortogonal respecto a un subespacio vectorial de un espacio vectorial eucl´ıdeo expresada en una base ortonormal es sim´etrica. 11.1.6. Demostrar que una aplicaci´on ortogonal de R3 s´olo admite como valores propios reales los valores 1 y −1. 11.1.7. Considerando una matriz ortogonal como unitaria, deducir qu´e condici´on han de cumplir sus valores reales complejos. 11.1.8. Demostrar que vectores propios de una aplicaci´on ortogonal correspondientes a valores propios reales distintos son ortogonales. 11.1.9. Sea f una transformaci´on ortogonal de un espacio vectorial V , y W un subespacio de V , invariante por f . Demostrar que W = f (W ). 11.1.10. Sea f una transformaci´on ortogonal de un espacio vectorial V , y W un subespacio de V , invariante por f . Demostrar que W es tambi´en invariante por f −1 . 11.1.11. Sea f una transformaci´on ortogonal de un espacio vectorial eucl´ıdeo V y W un subespacio de V invariante por f . Demostrar que W ⊥ es invariante por f .

388

Estudio de las transformaciones ortogonales de R2 . Recordemos que las matrices de los giros de ´angulo φ son   cosφ −senφ senφ cosφ como se deduce del dibujo:

e2 6

g(e2 )

g(e1 ) 7  

senφ 

ZZ }

 Z

cosφ

Z Z

 senφ 

Z Z Z

   Zφ  φ Z

cosφ

e1 -

y que dada una simetr´ıa respecto a una recta los vectores de esta recta quedan fijos y los vectores perpendiculares a la recta se transforman en sus opuestos, por lo que en una base formada por un vector de la recta y otro perpendicular, la matriz de la simetr´ıa es   1 0 0 −1 Veremos a continuaci´on que s´olo hay estos dos tipos de transformaciones ortogonales en el plano. Para ello estudiamos las restricciones que da la condici´on t A · A = I, necesaria y suficiente para que la matriz A corresponda a una aplicaci´on ortogonal en una base ortonormal y las posibilidades de transformaciones ortogonales de un espacio vectorial eucl´ıdeo en R2 expresadas en la base can´onica. Teorema 3. Las transformaciones ortogonales de R2 son giros alrededor del origen o simetr´ıas ortogonales respecto a rectas. Demostraci´on: Sea 389

 A=

a c b d



la matriz de una transformaci´on ortogonal en la base can´onica. A es ortogonal si y s´olo si 

a b c d



a c b d



a2 + b 2 = 1 = I ≡ c2 + d 2 = 1 ac + bd = 0

La primera ecuaci´on hace que podamos expresar a = cosφ, b = senφ La u ´ltima ecuaci´on da ac = −bd, de donde, si a 6= 0 y b 6= 0,

d c =− =k a b

Entonces, la segunda ecuaci´on da entonces: 1 = k 2 b2 + k 2 a2 = k 2 (a2 + b2 ) = k 2 , por lo que k = ±1. Si k = 1, d = a, c = −b, y si k = −1, d = −a, c = b. Con lo que las posibles matrices a obtener cuando a 6= 0 6= b, son: Si k = 1,   cosφ −senφ correspondiente a un giro de a ´ngulo φ senφ cosφ Si k = −1, 

cosφ senφ senφ −cosφ

 que estudiaremos despu´ es.

Cuando a = 0, por la primera ecuaci´on ha de ser b2 = 1, (b = ±1), y como b 6= 0, por la tercera condici´on ha de ser d = 0, siendo por la segunda condici´on, c2 = 1, obteni´endose c = ±1, de donde las posibles matrices en este caso son:         0 1 0 −1 0 1 0 −1 1 0 1 0 −1 0 −1 0 De ´estas, la segunda y la tercera son tambi´en giros de a´ngulos π2 , − π2 . 390

Los razonamientos an´alogos cuando b = 0, dan a = ±1, c = 0 y d = ±1. Las posibles matrices en este caso son:         1 0 1 0 −1 0 −1 0 0 1 0 −1 0 1 0 −1 De ´estas, la primera y la cuarta son tambi´en giros de a´ngulos 0, π. Podemos ver, (dibujando las im´agenes de los vectores de la base de los ejes coordenados), que de las matrices obtenidas u ´ltimamente para a = 0 o´ b = 0 las matrices que no corresponden a giros, corresponden a simetr´ıas ortogonales respecto a las diagonales o respecto a los ejes coordenados. Dada esta situaci´on nos preguntamos si las transformaciones ortogonales de R2 que no son giros son simetr´ıas ortogonales respecto a una recta. De hecho as´ı ocurre y para ello estudiaremos la forma general que nos quedaba:   cosφ senφ senφ −cosφ seg´ un sus vectores propios y valores propios. El lector puede comprobar f´acilmente que todas las matrices num´ericas que surgieron anteriormente y corresponden a simetr´ıas, se pueden englobar en la forma general cuando φ = π/2, φ = −π/2, φ = 0 y φ = π. El teorema 3 quedar´a completo cuando hayamos demostrado la Proposici´ on 3: Si f es una transformaci´on ortogonal de R2 de matriz   cosφ senφ senφ −cosφ f es una simetr´ıa respecto a una recta. Demostraci´on: Esta matriz es una matriz sim´etrica, por lo que es diagonalizable y si tiene dos valores propios distintos es diagonalizable en una base ortogonal. Hallemos sus valores propios: cosφ − λ senφ = (cosφ − λ)(−cosφ − λ) − sen2 φ = senφ −cosφ − λ = λ2 − cos2 φ − sen2 φ = λ2 − 1 = 0 391

tiene las dos soluciones λ = 1 y λ = −1 como valores propios. Entonces, si f (v1 ) = v1 y f (v2 ) = −v2 , < v1 , v2 >= 0. Si f (v1 ) = v1 y f (v2 ) = −v2 , la recta engendrada por v1 queda fija por f y la recta engendrada por v2 (que es perpendicular a la anterior), se transforma sim´etricamente respecto al origen. Por ser f lineal, f queda determinada por su efecto en estas dos rectas y resulta ser la simetr´ıa ortogonal respecto a la recta fija, ya que ser´ıa: f (v) = f (x1 v1 + x2 v2 ) = x1 f (v1 ) + x2 f (v2 ) = x1 v1 + x2 (−v2 ) = x1 v1 − x2 v2 . Haciendo el dibujo se ve que el vector f (v) es el vector sim´etrico del vector v respecto a la recta determinada por el vector v1 . v @  @

    

x2 v2 @ I



v1

 

@x1 v1  @

 @v2   I   @   @ @ @ @ Rv @ −x

@ 1   

f (v)

2 2

Para el lector que no haya estudiado la diagonalizaci´on de matrices sim´etricas, una vez que tenemos los dos valores propios de esta transformaci´ on ortogonal, vemos que los dos vectores propios correspondientes son ortogonales haciendo el siguiete razonamiento: < v1 , v2 >=< f (v1 ), f (v2 ) >=< v1 , −v2 >= − < v1 , v2 >⇒< v1 , v2 >= 0

Conviene saber distinguir mediante c´alculos los giros de las simetr´ıas. Para ello vemos la proposici´on siguiente:

392

Proposici´ on 4: El determinante de la matriz de un endomorfismo es un invariante del endomorfismo (no depende de la base en que se haya expresado el endomorfismo). Demostraci´on: Sea f (x) = Ax en una determinada base. Al hacer un cambio de base, la matriz de f se transforma en A0 = C −1 AC cuyo determinante es |A0 | = |C −1 AC| = |C −1 ||A||C| =

1 |A||C| = |A| |C|

Volviendo a mirar las matrices obtenidas para los giros y para las simetr´ıas de R2 en la base can´onica, en el primer estudio que hemos hecho, vemos que los giros tienen determinante 1 y las simetr´ıas determinante −1. Debido a la invariancia del determinante de la matriz en un cambio de base, este es 1 para los giros y −1 para las simetr´ıas axiales, cualquiera que sea la base en la que se expresen. Distingui´endose los giros de las simetr´ıas por el valor del determinante. Desde el punto de vista de los valores propios, recordemos que las simetr´ıas axiales son las que tienen dos valores propios distintos y son diagonalizables, por ello, el determinante de su matriz es el producto de sus valores propios que es −1. El giro de a´ngulo cero es la identidad y el giro de ´angulo π es la simetr´ıa central respecto al origen. Los dem´as giros no dejan ninguna direcci´on fija, por lo que no tienen valores propios reales. El eje de una simetr´ıa es el conjunto de vectores fijos por la simetr´ıa, que es tambi´en el conjunto de vectores propios para el valor propio 1. El a´ngulo de un giro de R2 viene dado por su coseno y su seno, que son los n´ umeros de la primera columna de su matriz en la base can´onica. Si el giro no viene dado en la base can´onica, se puede hallar el seno y el coseno del a´ngulo haciendo el cambio de base de la matriz dada a la base can´onica. Ejercicios: 11.2.1. Comprobar que la matriz:  1/5

4 −3 −3 −4



corresponde a una simetr´ıa ortogonal dada en la base can´onica de R2 . Hallar su eje de simetr´ıa. 11.2.2. Considerar las aplicaciones lineales de R2 dadas en la base {(1, 0), (1, 1)} por las matrices: 393

 a) 1/2

√   √  0 2 2 3−1 −2 √ √ b) 1/2 2 0 1 1+ 3

Determinar a) Si son ortogonales. b) Cu´al corresponde a un giro y cual corresponde a una simetr´ıa. c) El a´ngulo del giro en su caso. d) El eje de la simetr´ıa en su caso. 11.2.3. Hallar la matriz en la base can´onica a) del giro que lleva el eje OX a la recta de ecuaci´on 2x + y = 0. b) del giro que lleva la recta de ecuaci´on 2x + y = 0 al eje OX. c) de la simetr´ıa ortogonal respecto a la recta de ecuaci´on 2x + y = 0.

394

Estudio de las transformaciones ortogonales de R3 .

Teorema 5. Las transformaciones ortogonales de R3 son simetr´ıas respecto a planos, rotaciones vectoriales o productos de ambas. Demostraci´on: Cualquier aplicaci´on lineal f de R3 en R3 tiene al menos un valor propio real por ser impar el grado de su polinomio caracter´ıstico. Los valores propios reales de las aplicaciones ortogonales son 1 o´ −1. Sea v1 el vector propio correspondiente tal que f (v1 ) = v1 o´ f (v1 ) = −v1 , entonces, W = L{v1 } es un subespacio invariante, por lo que tambi´en, W ⊥ es un plano invariante por la aplicaci´on ortogonal (Ejercicio 11.1.11). Por ser un plano, es isomorfo a R2 y la restricci´on al plano de la transformaci´on ortogonal es una de las estudiadas anteriormente. Seg´ un hemos visto al estudiar las transformaciones ortogonales de R2 , la restricci´on de la transformaci´on ortogonal al plano es un giro o una simetr´ıa y existe una base ortonormal del plano W ⊥ : {v2 , v3 } en la que esta restricci´on tiene la matriz del giro:   cosϕ −senϕ senϕ cosϕ o la de la simetr´ıa:



cosϕ senϕ senϕ −cosϕ

 .

Las posibles combinaciones de las actuaciones de la transformaci´on ortogonal sobre W y sobre W ⊥ dan las posibles transformaciones ortogonales de R3 . En principio son cuatro, las posibles matrices que se obtienen para la transformaci´on ortogonal en la base L{v1 , v2 , v3 }:



       1 0 0 −1 0 0 1 0 0 −1 0 0  0 cosφ −senφ   0 cosφ −senφ   0 cosφ senφ   0 cosφ senφ  0 senφ cosφ 0 senφ cosφ 0 senφ −cosφ 0 senφ −cosφ Las transformaciones ortogonales del tipo primero dejan fijo el eje engendrado por v1 y realizan un giro de a´ngulo φ en el plano perpendicular a este eje. Como la aplicaci´on es lineal, descomponiendo cada vector en sus componentes seg´ un el eje y el plano, se ve que la transformaci´on ortogonal es una rotaci´on vectorial alrededor del eje. (Se ve tambi´en que todos los planos perpendiculares al eje engendrado por v1 son invariantes, aunque estos planos no son subespacios vectoriales de R3 ).

395

Z ϕ 

Z  Z

Z

Z

v’ Z K A  A A A A O A ϕ @    @  @  @  @ v  R @

A(v’)

A(v)

ϕ

J

J 

J

J

v’ J A(v’)  AK  A  A  A  A O A B  B  B  B  B  B  B  B

 v” NB A(v”)

En la segunda se realiza un giro en el plano {v2 , v3 } y se cambia de signo el vector v1 . Se pueden hacer los dos pasos en dos etapas seguidas correspondientes a hacer primero una rotaci´on vectorial y despu´es una simetr´ıa precisamente respecto al plano perpendicular al eje de giro de la rotaci´on vectorial. Los vectores del eje de la rotaci´on se transforman en sus opuestos, por tanto, aunque el eje ya no es una recta de vectores fijos, s´ı es una recta invariante, globalmente considerada.

→ − v J ] J J A@    Aϕ @ → −  A @ A(p( v ))  A @ R  @ A

 @ A − p(→ v) @A @AU → −

A( v )

396

Para entender la tercera y la cuarta, tengamos en cuenta que la restricci´on de la transformaci´on ortogonal a W ⊥ es una simetr´ıa axial, por lo que existen vectores v20 y v30 en este plano, ortogonales entre s´ı, tales que f (v20 ) = v20 y f (v30 ) = −v30 . Entonces {v1 , v20 , v30 } son una base de R3 en la que f se expresa por     1 0 0 −1 0 0 a)  0 1 0  o´ b)  0 1 0  0 0 −1 0 0 −1 En las transformaciones ortogonales del tipo a), queda fijo el plano {v1 , v20 } y cambia de signo el vector v30 . Por ello, estas aplicaciones son simetr´ıas respecto al plano {v1 , v20 }. En las transformaciones ortogonales del tipo b), queda fija la recta {v20 } y cambian de signo los vectores del plano {v1 , v30 }. Por ello, son simetr´ıas respecto a la recta {v20 } que tambi´en se pueden considerar rotaciones vectoriales de a´ngulo π respecto a la recta fija. Hemos demostrado as´ı el teorema. S´olo diremos que una tranformaci´on ortogonal de R3 es una composici´on de rotaci´on vectorial con simetr´ıa si la rotaci´on vectorial que aparece en ella es de ´angulo distinto de cero. Para distinguir entre s´ı los distintos tipos de transformaciones ortogonales de R3 consideramos el invariante determinante (ya visto) y adem´as otro invariante que es la traza de la matriz del endomorfismo: (La traza es la suma de los elementos de la diagonal de la matriz del endomorfismo). Proposici´ on 5: La traza de la matriz de un endomorfismo es un invariante del endomorfismo. Demostraci´on: La matriz del endomorfismo, despu´es de hacer el cambio de base es A0 = C −1 AC; entonces, |A0 − λI| = |C −1 AC − λI| = |C −1 (A − λI)C| = |C −1 ||A − λI||C| =

1 |A − λI||C| = |A − λI| |C|

Por tanto, los coeficientes de este polinomio son invariantes de f . El coeficiente de λn−1 en este polinomio es (−1)n−1 traza(A), por tanto, la traza de A es invariante. Clasificaci´ on y caracterizaci´ on de las transformaciones ortogonales de R3 . Las rotaciones vectoriales son las u ´nicas que tienen determinante positivo (=1). El eje de una rotaci´on vectorial es la recta engendrada por el vector propio de la transformaci´on ortogonal para el valor propio 1. El plano perpendicular a este eje es invariante. El a´ngulo de la rotaci´on vectorial verifica 1 + 2cosφ = traza(rot) 397

Si cosφ = 1, φ = 0, si cosφ = −1, φ = π. Cada valor del coseno distinto de 1 y de −1, determina el ´angulo salvo el signo, es decir, salvo el sentido de giro. Dados dos vectores {u2 , u3 } hay dos sentidos de giro de u2 hacia u3 : el sentido del arco m´as corto que va de u2 hacia u3 y que es el que usualmente se considera como giro de u2 hacia u3 y el opuesto, que es el sentido del arco m´as largo va de u2 hacia u3 y es el mismo que el sentido del arco que lleva u3 hacia u2 por el arco m´as corto. La distinci´on del signo del a´ngulo de giro, o lo que es lo mismo, del sentido del giro en la rotaci´on vectorial se hace con referencia a una base ortonormal escogida en el plano de rotaci´on. Si esta base es {u2 , u3 } y si sen´ ang(u2 , f (u2 )) > 0, como sen´ ang(u2 , f (u2 )) es la proyecci´on de f (u2 ) sobre la recta de direcci´on u3 , la rotaci´on va de u2 hacia u3 por el arco m´as corto, y si sen´ ang(u2 , f (u2 )) < 0, va de u2 hacia u3 por el arco m´as largo, lo que tambi´en es de u3 hacia u2 por el arco m´as corto, seg´ un se ve en el dibujo siguiente:

u3

f (u2 ) 6 senφ > 0 @ u2 @

@ I @ @ senφ @ @ @

@

u3

u2

@ I @ @ @ @ @ senφ @ @

@ @ @ @

 @ senφ < 0 @ -f (u ) @ 2

@ @

Este seno se calcula por sen´ ang(u2 , f (u2 )) = cos´ ang(f (u2 ), u3 ) =

< f (u2 ), u3 > |f (u2 )||u3 |

Puede verse que es suficiente que {u2 , u3 } sean ortogonales para calcular el seno del ´angulo, lo cual nos proporciona n´ umeros m´as sencillos a la hora de hacer el c´alculo. En efecto, utilizando αu2 y βu3 donde α > 0 y β > 0, en lugar de u2 y u3 , se ve que la fracci´on final del c´alculo anterior es la misma. Y como s´olo nos interesa el signo, tampoco hay que calcular |f (u2 )||u3 |. Los otros dos tipos tienen determinante negativo (= −1), pero se pueden distinguir entre s´ı por la traza, que es 1 en el caso de las simetr´ıas respecto a un plano y −1 + 2cosφ 6= 1 si φ 6= 0 en la composici´on de rotaci´on vectorial con la simetr´ıa respecto a un plano. El plano de simetr´ıa de una simetr´ıa es el subespacio de vectores fijos, es decir, de vectores propios para el valor propio 1.

398

En cuanto al caso del producto de la rotaci´on vectorial por la simetr´ıa, los vectores del eje de la rotaci´on vectorial que interviene se transforman en sus opuestos. Constituyen la recta engendrada por el vector propio correspondiente al valor propio −1. Globalmente considerado, es un eje invariante de la transformaci´on ortogonal, aunque sus vectores no nulos no son fijos. En el plano de simetr´ıa de la simetr´ıa que interviene se realiza solamente la rotaci´on. Este plano es, globalmente considerado, invariante por la transformaci´on ortogonal. Es perpendicular al eje de vectores propios para el valor propio −1. El coseno del a´ngulo de dicha rotaci´on vectorial viene dado por la traza, seg´ un la f´ormula: −1 + 2cosφ = traza(f ) Para cada valor del coseno distinto de 1 y de −1, hay dos a´ngulos opuestos posibles. La distinci´on del signo del a´ngulo de giro, o lo que es lo mismo del sentido del giro en la rotaci´on vectorial se hace con referencia a una base ortonormal escogida en el plano de rotaci´on. Si esta base es {u2 , u3 }, la rotaci´on va de u2 hacia u3 en el sentido del arco m´as corto si sen´ ang(u2 , f (u2 )) > 0 y va de u3 hacia u2 en el sentido del arco m´as corto si sen´ ang(u2 , f (u2 )) < 0. Este seno se calcula por sen´ ang(u2 , f (u2 )) = cos(´ ang(f (u2 ), u3 )) =

< f (u2 ), u3 > |f (u2 )||u3 |

Como s´olo nos interesa el signo del seno del a´ngulo, podemos coger {u2 , u3 } simplemente ortogonales y no necesitamos calcular |f (u2 )||u3 |. Ejemplo a: Consideremos la aplicaci´on ortogonal dada por      7 4 −4 x x 1     4 1 8 y  y f = 9 −4 8 1 z z Se determina qu´e transformaci´on ortogonal es, por el determinante y la traza de la matriz. El determinante es −1 y la traza es 1; se trata, por tanto, de una simetr´ıa ortogonal respecto a un plano. Este plano es el plano de vectores fijos. Los vectores de la recta perpendicular a este plano se transforman en sus opuestos, por lo que esta recta, considerada globalmente es tambi´en invariante. Los vectores fijos de la aplicaci´on f son los que verifican:      x 7 4 −4 x  y = 1 4 1 8  y  9 z −4 8 1 z 399

de donde se obtienen las ecuaciones:   9x = 7x +4y −4z  −2x +4y −4z = 0  9y = 4x +y +8z ≡ 4x −8y +8z = 0 ≡ x − 2y + 2z = 0   9z = −4x +8y +z −4x +8y −8z = 0 y forman por tanto un plano de vectores fijos que es el plano de simetr´ıa. La recta vectorial invariante (no de vectores fijos) est´a engendrada por el vector (1, −2, 2). Todas las rectas paralelas a la recta vectorial invariante son invariantes en la simetr´ıa pero las que no pasan por el origen no son subespacios vectoriales.

Ejemplo b: Estudiemos ahora la aplicaci´on ortogonal dada por      2 2 1 x x 1 1 2  y . f  y  =  −2 3 1 −2 2 z z Determinamos el tipo de transformaci´on ortogonal que es, viendo el valor del determinante y de la traza de la matriz. En este caso s´olo necesitamos el determinante porque siendo ´este 1, se trata de una rotaci´on vectorial. Su eje de vectores fijos es la recta soluci´on del sistema:       x 2 2 1 x 2x +2y +z = 3x  1 −2x −2y +2z = 0  y  =  −2 1 2   y  ≡ −2x +y +2z = 3y ≡ x −2y −z = 0  3 z 1 −2 2 z x −2y +2z = 3z 

x +y −z = 0 ≡ x −2y −z = 0



x −2y −z = 0 ≡ 3y =0



x

−z = 0 y =0



Su vector director es (1, 0, 1). En el plano perpendicular a este eje, de ecuaci´on x + z = 0, los vectores giran un a´ngulo φ permaneciendo en el plano, por lo que este plano vectorial es invariante globalmente considerado. Podemos hallar tambi´en el ´angulo de la rotaci´on vectorial: Llamando A a la matriz de la aplicaci´on ortogonal: 1 + 2cosφ = T raza(A) =

1 1 1 · 5 =⇒ cosφ = =⇒ |φ| = arccos . 3 3 3 400

El signo del ´angulo indica el sentido del giro; lo podemos determinar escogiendo una base ortogonal del plano de direcci´on de los planos invariantes. Sea esta base: {u2 , u3 } = {(0, 1, 0), (1, 0, −1)} (perpendiculares al eje de giro). Si el giro va en el sentido que lleva la direcci´on de u2 hacia la direcci´on de u3 en el sentido del arco m´as corto, el ´angulo en esta base es positivo, lo cu´al se produce si y s´olo si el seno del ´angulo que forma u2 con A(u2 ) es positivo (En caso contrario la rotaci´on lleva la direci´on y sentido de u3 hacia la direcci´on y sentido de u2 en el sentido del arco m´as corto). Este seno se puede hallar as´ı: senφ = sen´ ang(u2 , A(u2 )) = cos´ ang(A(u2 ), u3 ) =

< A(u2 ), u3 > |A(u2 )||u3 |

En nuestro caso, ya que A(u2 ) = 31 (2, 1, −2), senφ =

< 13 (2, 1, −2) · (1, 0, −1) > 4 = >0 |A(u2 )||u3 | 3|A(u2 )||u3 |

Entonces, la rotaci´on es de a´ngulo arccos 31 siendo el sentido el que lleva la recta de direcci´on del vector (0, 1, 0) hacia la recta de direcci´on del vector (1, 0, −1) de forma que el vector (0, 1, 0) gira hacia el vector (1, 0, −1) en el sentido del arco m´as corto.

   ϕ   



El vector (0,1,0) va hacia adelante de derecha a izquierda. Para los que les gusta utilizar el producto vectorial, observemos que si u2 gira hacia u3 en el sentido del arco m´ as corto, los productos vectoriales u2 × A(u2 ) y u2 × u3 tienen el mismo sentido, por lo que al calcularlos cada uno tiene que ser m´ ultiplo positivo del otro.

401

Se puede observar que la elecci´on de u3 est´a determinada salvo el signo y por eso vamos a ver ahora que aunque cambiemos el signo de u3 el resultado del sentido de la rotaci´on es el mismo: Si hubiera sido u03 = (−1, 0, 1), < 31 (2, 1, −2) · (−1, 0, 1) > −4 = < 0, senφ = 0 |A(u2 )||u3 | 3|A(u2 )||u3 | lo que indicar´ıa que el vector (0, 1, 0) gira en el sentido del arco m´as largo que lo lleva hacia u03 = (−1, 0, 1), pero este sentido es el del arco m´as corto que lo lleva hacia u3 = (1, 0, −1). Ejemplo c: Sea f una aplicaci´on ortogonal de R3 dada por:    0       x x x 2 2 −1 x 1 0         y y y  −2 1 −2 y = = f ≡A 3 z0 z z 1 −2 −2 z Es f´acil de comprobar que |A| = −1. Teniendo en cuenta s´olo el determinante de la matriz, tenemos dos posibilidades para la aplicaci´on ortogonal: una simetr´ıa o una composici´on de simetr´ıa con rotaci´on vectorial. Pero la aplicaci´on ortogonal no es una simetr´ıa porque la traza de A es 1/3, en lugar de ser 1. Seg´ un hemos visto te´oricamente, esta aplicaci´on ortogonal tiene un u ´nico vector fijo que es el cero y es una rotaci´on vectorial compuesta con simetr´ıa. En efecto, los vectores fijos de f son las soluciones del sistema:       2 2 −1 x 3x = 2x +2y −z  0 = −x +2y −z  x  y  = 1  −2 1 −2   y  ≡ 3y = −2x +y −2z ≡ 0 = −2x −2y −2z   3 1 −2 −2 z 3z = x −2y −2z 0= x −2y −5z z 

sistema de soluciones: x = 0, y = 0, z = 0, por ser el determinante de la matriz de coeficientes de este sistema distinto de cero. Hay una recta invariante por f (aunque sus vectores no son fijos), es el eje de la rotaci´on vectorial que interviene en f . El plano perpendicular al eje de la rotaci´on que interviene en f es tambi´en invariante (aunque sus vectores no son fijos). Para hallar la direcci´on de la recta invariante de f hallamos los vectores propios de A para el valor propio −1:       x 2 2 −1 x −3x = 2x +2y −z  1 1 −2   y  ≡ −3y = −2x +y −2z −  y  =  −2 ≡  3 z 1 −2 −2 z −3z = x −2y −2z 402

   0= 5x +2y −z  0 = x −2y +z x −2y = −z ≡ 0 = −2x +4y −2z ≡ ≡ 0= 12y −6z 2y =z  0= x −2y +z Haciendo z = 1, obtenemos y = 21 , x = 0, siendo por tanto, el vector de direcci´on del eje, (0, 12 , 1) ∼ (0, 1, 2). El plano perpendicular a este eje, de ecuaci´on y + 2z = 0, queda invariante en la transformaci´on ortogonal. S´olo hay un plano invariante. Los planos paralelos a ´este no son invariantes. El coseno del ´angulo de la rotaci´on que interviene en f se puede hallar por la traza de la matriz A: −1 + 2cosφ = T raza(A) = 13 , de donde cosφ = 23 , siendo |φ| = arccos 32 . El sentido de la rotaci´on respecto a una base ortogonal {u2 , u3 } del plano vectorial invariante se determina de manera an´aloga a como se hac´ıa en las rotaciones vectoriales: dos vectores ortogonales en el plano invariante (ortogonales tambi´en a la direcci´on de la recta invariante), son {u2 , u3 } = {(1, 0, 0), (0, 2, −1)}, Como A(u2 ) = 13 (2, −2, 1), tenemos: sen´ ang(u2 , A(u2 )) = cos´ ang(A(u2 ), u3 ) =

< 13 (2, −2, 1)(0, 2, −1) > 1 −5 =            1q         

En este conjunto llamado espacio af´ın existen asociadas a cada vector del espacio vectorial abstracto unas aplicaciones llamadas traslaciones definidas de la siguiente forma: A cada vector u ∈ E le asociamos la traslaci´on Tu : A −→ A que hace corresponder a cada punto − p el u ´nico punto q tal que → pq = u. Las traslaciones tienen las siguientes propiedades: (en correspondencia con a) y b)) α) ∀(p, q) ∈ A × A existe un vector u ´nico u ∈ E tal que Tu (p) = q. β) Tu ◦ Tv = Tu+v donde u y v son dos vectores cualesquiera de E.

407

−→ − − El vector → pq es paralelo al vector p0 q 0 si existe u ∈ E, tal que Tu (p) = p0 y Tu (q) = q 0 . (→ pq coincide −→ 0 0 con p q en el espacio vectorial E). * q’     u  q



 

  

 

 





   

p

   

u  

* 

p’

En el espacio af´ın, para operar, asociamos a cada punto un conjunto de n´ umeros, escogiendo, en lugar de una base, un sistema de referencia formado por un punto del conjunto y una base del espacio vectorial asociado, lo que permite que cada punto est´e determinado por las coordenadas del vector con origen en el punto del sistema de referencia y extremo el punto considerado. As´ı vamos a poder sacar propiedades geom´etricas haciendo operaciones aritm´eticas. Concretando, sea A3 el espacio en que vivimos y {O, {e1 , e2 , e3 }} un sistema de referencia de A3 donde O ∈ A3 y {e1 , e2 , e3 } son tres vectores no coplanarios, las coordenadas de un punto p en dicho − → sistema de referencia son las del vector Op en la base {e1 , e2 , e3 }. − → El punto p tiene de coordenadas (p1 , p2 , p3 ) si Op = p1 e1 + p2 e2 + p3 e3 . El punto q tiene de − → coordenadas (q1 , q2 , q3 ) si Oq = q1 e1 + q2 e2 + q3 e3 . Dos puntos distintos p y q determinan un vector → − pq de origen p y extremo q. Por la propiedad b) del espacio af´ın − → − − → Op + → pq = Oq,

q  >             1p  6     O 

408

de donde

− → − → → − pq = Oq − Op = (q1 − p1 )e1 + (q2 − p2 )e2 + (q3 − p3 )e3 − teni´endose que las coordenadas de → pq son la diferencia de las coordenadas de los puntos p y q; por eso se representa → − − pq = q − p y q = p + → pq. Distintos or´ıgenes dan distintas coordenadas de los puntos p y q, pero mientras mantengamos la base {e1 , e2 , e3 }, las coordenadas del vector pq ~ son las mismas.

6         q     I @  @   @   @    @  p 1  6      O 

− → − → −→ −→ → − pq = Oq − Op = O0 q − O0 p

409

O’ -

Las aplicaciones afines del espacio af´ın en ´el mismo son las que respetan la estructura de espacio af´ın, esto quiere decir que Definici´ on 3: Una aplicaci´on f de un espacio af´ın en ´el mismo es una aplicaci´on af´ın si existe −−−−−→ − una aplicaci´on lineal asociada f˜ : E −→ E en el espacio vectorial asociado tal que f (p)f (q) = f˜(→ pq). Se deduce de esta definici´on que vectores paralelos se transforman en vectores paralelos. Las aplicaciones afines m´as simples son las Traslaciones. Una traslaci´on Tu de vector u = (u1 , u2 , u3 ) aplica cada punto p en el punto Tu (p) tal que −−−−→ pTu (p) = u, es decir, en el punto Tu (p) = p + u. Verifica la condici´on de aplicaci´on af´ın, ya que −−−−−−−→ − − Tu (p)Tu (q) = q + u − (p + u) = q − p = → pq = I(→ pq) donde I es la aplicaci´on lineal identidad asociada. Se expresa por:           x1 u1 x1 u1 x1 Tu  x2  =  u2  +  x2  =  u2  + I  x2  x3 u3 x3 u3 x3 Respecto a las aplicaciones afines en general, con la notaci´on anterior podemos escribir: −−−−−→ − f (q) = f (p) + f (p)f (q) = f (p) + f˜(→ pq). Esta expresi´on indica que la aplicaci´on af´ın es homog´enea respecto al espacio af´ın, siendo la aplicaci´on lineal f˜ la que da la homogeneidad. Ahora queremos hallar la expresi´on anal´ıtica general de una aplicaci´on af´ın, es decir, la expresi´on − → matricial que da la relaci´on entre las coordenadas (x1 , x2 , x3 ) de p (Op = x1 e1 + x2 e2 + x3 e3 ) y las −−−→ (x01 , x02 , x03 ) de f (p) (Of (p) = (x01 e1 + x02 e2 + x03 e3 )). −−−→ −−−−→ −−−−−−→ Por las propiedades del espacio af´ın, Of (p) = Of (O) + f (O)f (p) y por ser f una aplicaci´on af´ın, −−−−−−→ − → existe una aplicaci´on lineal f˜ tal que f (O)f (p) = f˜(Op), Entonces, denotando por (a1 , a2 , a3 ) las −−−−→ coordenadas de Of (O), y A la matriz de f˜ tenemos:  0        x1 x1 a1 x1  x02  = f  x2  =  a2  + A  x2  x03 x3 a3 x3 para una aplicaci´on af´ın. −−−−→ En una traslaci´on (a1 , a2 , a3 ) = (u1 , u2 , u3 ) ya que Of (O) = (u1 , u2 , u3 ) y A = I

410

Si el punto O queda fijo por f , f (O) = O, teni´endose (a1 , a2 , a3 ) = (0, 0, 0) y la expresi´on de la aplicaci´on af´ın coincide con la expresi´on de una aplicaci´on lineal vectorial. Las aplicaciones lineales son casos particulares de las aplicaciones afines. Seg´ un la expresi´on anterior de las aplicaciones afines, toda aplicaci´on af´ın es composici´on de una traslaci´on con una aplicaci´on lineal. Para determinar una aplicaci´on af´ın tenemos que conocer c´omo act´ ua la aplicaci´on lineal asociada sobre los vectores del espacio vectorial asociado y c´omo se transforma el origen escogido del sistema de referencia. Sin embargo, la imagen del origen del sistema de referencia puede deducirse tambi´en, conocida la aplicaci´on lineal asociada, al conocer la imagen de cualquier otro punto. Ejemplo 1: 1. Obtener la expresi´on anal´ıtica de la rotaci´on en sentido positivo en R3 de ´angulo π/2 cuyo eje es la recta de ecuaciones {x = 1, y = 1}. (el sentido positivo es el sentido de giro de un sacacorchos que avanza hacia la direcci´on positiva del eje OZ). En esta aplicaci´on todos los vectores paralelos al plano horizontal giran un a´ngulo de π/2, y los vectores verticales quedan fijos si est´an en el eje o se transforman en otros paralelos a ellos, por eso es una aplicaci´on af´ın. Su aplicaci´on lineal asociada es una rotaci´on vectorial y sabemos escribir la matriz que le corresponde en la base can´onica. La imagen del origen puede verse haciendo un dibujo comprobando que es el punto (2, 0, 0):

(1,1) π@ 2 @

@ @ @

(2,0) HH π 2



(2,0,0)

411



HH 

 

Entonces la expresi´on anal´ıtica de la aplicaci´on en el sistema de referencia {O; u1 , u2 , u3 } es      0     x x x 2 cos π2 −sen π2 0 π π 0          cos 2 0 sen 2 y ≡ y y 0 f = = + 0 0 0 1 z z z 0  0       2 x 0 −1 0 x  y0  =  0  +  1   0 0 y  0 z 0 0 0 1 z Hay veces que no es f´acil ver mediante un dibujo la imagen del origen pero la existencia de otro punto fijo o el conocimiento de la imagen de alg´ un punto puede servir para calcular el vector a. En el ejemplo anterior, como el punto (1, 1, 0) es fijo, ha de ser:          1 a1 0 −1 0 1 1    1  = f  1  =  a2  +  1 0 0 1  0 a3 0 0 1 0 0 de donde resulta      2 a1 1 = a1 − 1     0  a2 1 = a2 + 1 = ≡  0 a3 0= a3 igual que haciendo el dibujo. Por otra parte observemos que la expresi´on de esta aplicaci´on af´ın en el sistema de referencia {(1, 1, 0); (1, 0, 0), (0, 1, 0), (0, 0, 1)} es:      x 0 −1 0 x 0 0  y  f y = 1 z 0 0 1 z (Como si fuera lineal). Ya que en este sistema de referencia el origen coincide con su imagen. Ejercicios: 11.4.1. Escribir la expresi´on anal´ıtica de la traslaci´on de R3 de vector (2, 1, 0). 11.4.2. Encontrar la expresi´on anal´ıtica de las siguientes aplicaciones afines de R2 : a) Giro de centro (1, 1) y a´ngulo 2π/3. b) Giro de a´ngulo π/2 que lleve (1, 1) a (2, 2). 412

c) Simetr´ıa ortogonal de R2 respecto a la recta de ecuaci´on x + y + 1 = 0. 11.4.3. Encontrar la expresi´on anal´ıtica de las siguientes aplicaciones afines de R3 : a) Proyecci´on ortogonal de R3 sobre el plano de ecuaci´on x + z = 1. b) Simetr´ıa ortogonal de R3 respecto al plano de ecuaci´on x + z = 1. c) Rotaciones vectoriales de a´ngulos π/6, cuyo eje es la recta que pasa por los puntos (1, 1, 0) y (0, 0, −1). 11.4.4. Hallar la expresi´on anal´ıtica de las dos aplicaciones afines que se pueden obtener componiendo entre s´ı dos de las aplicaciones de los dos ejercicios 11.4.2. y 11.4.3. respectivamente. Comprobar que la composici´on de aplicaciones afines no es conmutativa.

413

Aplicaciones afines con puntos fijos. Aunque el punto origen O del primer sistema de referencia no quede fijo puede existir otro punto que quede fijo. Como en el espacio af´ın podemos escoger cualquier punto como origen, podemos coger como nuevo origen ese punto fijo, si existe; entonces, cambiando el origen del sistema de referencia a ese punto fijo, sin cambiar los vectores de la base de E, la expresi´on de la aplicaci´on af´ın cambia dando lugar a la anulaci´on del vector (a1 , a2 , a3 ) pero dejando igual la matriz A, de forma que la expresi´on de la aplicaci´on af´ın coincide con la expresi´on de una aplicaci´on vectorial con la misma matriz A y como tal se puede interpretar. Ejemplo 2: Consideremos la aplicaci´on af´ın de A3 dada en el sistema de referencia can´onico por        4 −1 −2 −2 x x 1  1     2 −2 2 −1 y  y + M = 3 3 2 −2 −1 2 z z Los puntos fijos de la aplicaci´on af´ın M son los que verifican:          x x 4 −1 −2 −2 x  y  = M  y  = 1  2  + 1  −2   2 −1 y  3 3 z z 2 −2 −1 2 z de donde se obtienen las ecuaciones:   3x = 4 −x −2y −2z  4x +2y +2z = 4  3y = 2 −2x +2y −z ≡ 2x +y +z = 2 ≡ 2x + y + z = 2   3z = 2 −2x −y +2z 2x +y +z = 2 y forman por tanto un plano de puntos fijos. Cogiendo como nuevo origen un punto O en este plano, la aplicaci´on af´ın se escribe en {O; (1, 0, 0), (0, 1, 0), (0, 0, 1)} por      x −1 −2 −2 x 1     y −2 2 −1 y  M = 3 z −2 −1 2 z lo cual la hace equivalente a una transformaci´on ortogonal ya que, llamando A a su matriz, t A·A = I. Se determina qu´e transformaci´on ortogonal es por el determinante y la traza de la matriz. El determinante es −1 y la traza es 1; se trata de una simetr´ıa ortogonal respecto a un plano. Este plano es el antes hallado como plano de puntos fijos.

414

Las rectas perpendiculares al plano de puntos fijos son tambi´en invariantes globalmente consideradas, aunque sus puntos no son fijos. Ya que (α, β, 2 − 2α − β) es la forma general de un punto del plano, estas rectas son de ecuaciones param´etricas: (x, y, z) = (α, β, 2 − 2α − β) + λ(2, 1, 1). Ejemplo 3: Estudiemos ahora la aplicaci´on af´ın de A3 dada en el sistema de referencia can´onico, por        1 x 0 1 0 x 1       1 y 0 0 −1 y  M + = 3 2 z −1 0 0 z Para ver si tiene puntos fijos estudiamos      0 1 x  y = 1 1 + 0 3 −1 2 z

si tiene soluci´on el sistema    1 1 0 x +y = x  3 0 −1   y  ≡ 31 −z = y  2 0 0 z −x =z 3

Operando se tiene: 1 −3x +3y 1 −3y 2 −3x

   =0  3x −3y =1  3x +3z = 2 −3z = 0 3y +3z = 1 ≡ ≡ 3y +3z = 1   − 3z = 0 3x +3z = 2

ecuaciones compatibles cuya soluci´on es una recta de puntos fijos. Cogiendo como nuevo origen un punto O en esta recta, la aplicaci´on af´ın se escribe en {O; (1, 0, 0), (0, 1, 0), (0, 0, 1)} por      x 0 1 0 x M  y  =  0 0 −1   y  z z −1 0 0 que es equivalente a una transformaci´on ortogonal ya que, llamando A a su matriz, t A · A = I. Determinamos el tipo de transformaci´on ortogonal que es, viendo el valor del determinante y de la traza de la matriz. En este caso s´olo necesitamos el determinante porque siendo ´este 1, se trata de una rotaci´on vectorial. Su eje de puntos fijos es la recta de puntos fijos hallada anteriormente, cuyas ecuaciones param´etricas son:       x 2 −1  y  = 1  1  + λ  −1  3 0 1 z Los planos perpendiculares a este eje son invariantes en la rotaci´on vectorial. Sus ecuaciones son x + y − z + D = 0. 415

Podemos hallar tambi´en el ´angulo de la rotaci´on vectorial: Llamando A a la matriz de la aplicaci´on af´ın: 1 1 2π · 0 = 0 =⇒ cosφ = − =⇒ |φ| = 3 2 3 El signo del ´angulo indica el sentido del giro; lo podemos determinar escogiendo una base ortogonal del plano de direcci´on de los planos invariantes. Sea esta base: {u2 , u3 } = {(1, 0, 1), (1. − 2, −1)} (perpendiculares al eje de giro). Si el giro va en el sentido que lleva la direcci´on de u2 hacia la direcci´on de u3 por el arco m´as corto, el ´angulo en esta base es positivo, lo cu´al se produce si y s´olo si el seno del ´angulo que forma u2 con A(u2 ) es positivo. Este seno se puede hallar as´ı: 1 + 2cosφ = T raza(A) =

senφ = sen´ ang(u2 , A(u2 )) = cos´ ang(A(u2 ), u3 ) =

< A(u2 ), u3 > |A(u2 )||u3 |

En nuestro caso, ya que A(u2 ) = (0, −1, −1), √ 3 3 >0 senφ = √ √ = 2 2 6 Entonces el sentido del a´ngulo 2π/3 es el que lleva la direcci´on del vector u2 (1, 0, 1) hacia la direcci´on del vector u3 (1, −2, −1) en el sentido del arco m´as corto.

] JJ J  J J       

El vector (1,0,1) va hacia abajo por delante.

416

Ejemplo 4: Sea M una aplicaci´on af´ın de R3 dada por:    0         x x 2 0 −1 0 x x 0            y y 1 0 0 −1 y y  M = = + ≡a+A 0 z z 0 −1 0 0 z z en el sistema de referencia {(0, 0, 0); (1, 0, 0), (0, 1, 0), (0, 0, 1)}. Los puntos fijos de M son las soluciones del sistema:          x x 2 0 −1 0 x x= 2 −y   y =M y = 1 + 0 0 −1   y  ≡ y = 1 −z  z z 0 −1 0 0 z z= −x 

´nico sistema de soluciones: x = 21 , y = 32 , z = − 12 , siendo por tanto el punto O = ( 21 , 32 , − 12 ), el u punto fijo de la aplicaci´on. En el sistema de referencia {O; (1, 0, 0), (0, 1, 0), (0, 0, 1)} la aplicaci´on af´ın se expresa por        x x 0 −1 0 x        y y 0 0 −1 y  M =A = z z −1 0 0 z Entonces, la aplicaci´on af´ın es respecto a O, lo mismo que la aplicaci´on de la misma matriz es respecto a (0, 0, 0); ´esta es una aplicaci´on ortogonal ya que t A · A = I. Es f´acil de comprobar que |A| = −1. Teniendo en cuenta s´olo el determinante de la matriz, tenemos dos posibilidades para la aplicaci´on ortogonal asociada: una simetr´ıa o una composici´on de simetr´ıa con rotaci´on vectorial. Pero la aplicaci´on lineal asociada no es una simetr´ıa porque la traza de A es cero, en lugar de ser 1. Por tanto, es una rotaci´on vectorial compuesta con simetr´ıa. Hay una recta invariante por M , es el eje de la rotaci´on vectorial que interviene en M y es el trasladado del eje de la rotaci´on vectorial de matriz A al punto O. El plano trasladado a O del plano invariante de la rotaci´on vectorial de matriz A, (que es perpendicular al eje de dicha rotaci´on) es tambi´en invariante por M. Para hallar la direcci´on de la recta invariante, hallamos los vectores propios de A para el valor propio −1:         x x 0 −1 0 x −x = −y  0 −1   y  ≡ −y = −z − y  = A y  =  0  z z −1 0 0 z −z = −x

417

que es el eje de ecuaciones x = y = z, engendrado por el vector (1, 1, 1). Entonces, la recta invariante de M viene dada param´etricamente por       1 x 1  y  = 1  3  + λ 1  2 −1 z 1 En cuanto al plano invariante, que es el perpendicular a este eje pasando por O, tendr´a la ecuaci´on: x+y+z−

3 =0 2

para que se cumplan los dos requisitos. El ´angulo de la rotaci´on que interviene en M es el mismo que el a´ngulo de la rotaci´on que interviene en M y su coseno se puede hallar por la traza de la matriz A: −1 + 2cosφ = T raza(A) = 0, de donde cosφ = 12 , siendo |φ| = π/3. El sentido de la rotaci´on respecto a una base ortogonal {u2 , u3 } del plano vectorial invariante se hace de manera an´aloga a como se hac´ıa en las transformaciones ortogonales: La direcci´on del plano invariante es x + y + z = 0; dos vectores ortogonales en dicho plano (ortogonales tambi´en a la direcci´on de la recta invariante), son {u2 , u3 } = {(1, −1, 0), (1, 1, −2)}, Como A(u2 ) = (1, 0, −1), tenemos: √ 3 < (1, 0, −1)(1, 1, −2) > 3 √ √ >0 = √ = sen´ ang(u2 , A(u2 )) = cos´ ang(A(u2 ), u3 ) = 2 2 6 2 3 siendo entonces el sentido del a´ngulo el que lleva el vector (1, −1, 0) hacia el vector (1, 1, −2) en el sentido del arco m´as corto. Movimientos. Definici´ on 3: Se llaman movimientos a las aplicaciones afines que conservan las distancias. Las traslaciones son un ejemplo de movimientos. Las aplicaciones ortogonales consideradas como aplicaciones afines son movimientos. Tenemos la interesante Proposici´ on 7: Todo movimiento es composici´on de una traslaci´on con una transformaci´on ortogonal y rec´ıprocamente. En efecto, toda aplicaci´on af´ın f es composici´on de una traslaci´on con una aplicaci´on vectorial f˜ y en un movimiento, −−−−−→ − − k→ pqk = kf (p)f (q)k = kf˜(→ pq)k 418

conservando, por tanto, la aplicaci´on lineal f˜ el m´odulo y siendo, por tanto, una aplicaci´on ortogonal. Las aplicaciones afines de los tres u ´ltimos ejemplos son movimientos. Proposici´ on 8: La composici´on de movimientos es un movimiento. Esta proposici´on se sigue de que la composici´on de aplicaciones afines es una aplicaci´on af´ın y de que las distancias se siguen conservando en las dos aplicaciones. El estudio de los movimientos consiste en el estudio de las aplicaciones afines cuya matriz A es ortogonal y en el an´alisis de c´omo el vector de traslaci´on a influye sobre la aplicaci´on ortogonal. Las distintas clases de movimientos en el espacio af´ın surgen al considerar las distintas clases de las aplicaciones ortogonales asociadas y estudiar c´omo el vector a de la traslaci´on asociada afecta a los subespacios de puntos fijos de estas aplicaciones ortogonales. Se llaman movimentos directos a los movimientos tales que el determinante de la matriz de la aplicaci´on ortogonal asociada es 1. Se llaman movimentos inversos a los movimientos tales que el determinante de la matriz de la aplicaci´on ortogonal asociada es −1. Los movimientos con puntos fijos se identifican con las transformaciones ortogonales. Veremos que los movimientos que no tienen puntos fijos admiten descomposiciones llamadas can´onicas que permiten su interpretaci´on geom´etrica, en traslaciones llamadas can´ onicas compuestas con transformaciones ortogonales vectoriales tambi´en llamadas can´ onicas. As´ı se obtienen en el plano y en el espacio, adem´as de los giros y las simetr´ıas, las simetr´ıas deslizantes y los movimientos helicoidales. Cada uno de ellos queda caracterizado por la naturaleza de ciertos subespacios que dejan invariantes y por los ´angulos de giro. Dos movimientos son equivalentes si existe un isomorfismo del espacio que los pone en correspondencia. Este debe ser isomorfismo en el sentido af´ın y en el sentido eucl´ıdeo. En notaci´on matem´atica, dos movimentos f y g son equivalentes si existe otra aplicaci´on af´ın ϕ, cuya aplicaci´on lineal asociada es un isomorfismo af´ın y eucl´ıdeo, tal que ϕ ◦ f = g ◦ ϕ. Esta aplicaci´on af´ın ϕ transforma los subespacios afines invariantes de f en subespacios afines invariantes de g. Por eso es importante calcular los subespacios invariantes. Proposici´ on 9: Dos movimientos son equivalentes si y s´olo si existen dos sistemas de referencia en los que ambos tienen la misma expresi´on anal´ıtica. En efecto, si f y g son equivalentes, el isomorfismo ϕ transforma un sistema de referencia en otro sistema de referencia en el que g tiene la misma expresi´on anal´ıtica que f . 419

Rec´ıprocamente, si existen dos sistemas de referencia en los que f y g tienen la misma expresi´on anal´ıtica, el isomorfismo ϕ que transforma uno de los dos sistemas de referencia en el otro da la equivalencia de los movimientos. Movimientos en el plano: Seg´ un ocurre en general, los movimentos del plano con puntos fijos se reducen a las transformaciones ortogonales del plano, es decir, a los giros y a las simetr´ıas. Los movimientos del plano sin puntos fijos pueden ser traslaciones o como veremos, simetr´ıas deslizantes. 1.1. Movimientos directos de A2 . En estos movimientos del plano, la matriz A corresponde a un giro, por ser ortogonal y de determinante 1. La matriz de un giro en R2 en cualquier base ortonormal es   cosφ −senφ A= senφ cosφ Entonces, la expresi´on anal´ıtica general de un movimiento directo del plano en un sistema de referencia con base ortonormal es:        x1 a1 cosφ −senφ x1 f = + x2 a2 senφ cosφ x2 Para ver si puede identificarse el movimiento a una transformaci´on ortogonal estudiamos la existencia de puntos fijos. Si la matriz A es la identidad, el movimiento es una traslaci´on y no tiene puntos fijos. Veamos lo que ocurre si A 6= I. Sus puntos fijos se obtendr´ıan resolviendo el sistema:        x1 a1 cosφ −senφ x1 = + x2 a2 senφ cosφ x2 equivalente al 

−a1 −a2



 =

cosφ − 1 −senφ senφ cosφ − 1



x1 x2



Aplicando el teorema de Rouch´e-Frobenius, vemos que al ser el determinante de la matriz de los coeficientes del sistema |A| = (cosφ − 1)2 + (senφ)2 = 2(1 − cosφ) distinto de cero cuando A no es la matriz identidad, este sistema tiene soluci´on u ´nica cuando el movimiento no es una traslaci´on. Como hemos dicho ya anteriormente, podemos coger este punto fijo C como origen del sistema de referencia y al coincidir la expresi´on del movimiento en el nuevo sistema de referencia con la de la 420

aplicaci´on ortogonal asociada, identificando ambos, concluir que el movimiento es un giro alrededor del punto fijo C. Entonces, todo movimiento directo del plano es un giro alrededor de un punto o una traslaci´on.

→ − A(P) a  M(P)

  $    C$ O ϕA ϕ A % A @ A @% @ A @ A @A @A

P

Si el movimiento viene dado en una base ortonormal, tanto el seno como el coseno del ´angulo de giro vienen dados directamente escritos en la matriz como a11 , a21 , respectivamente. Si viene dado en una base no ortonormal, el coseno del a´ngulo de giro puede determinarse por la traza de la matriz. Dos traslaciones son equivalentes si y s´olo si coinciden sus vectores de traslaci´on. Dos giros son equivalentes si y s´olo si tienen el mismo ´angulo. 1.2. Movimientos inversos de A2 . En los movimientos inversos del plano el determinante de la matriz A es −1, por lo que la aplicaci´on lineal asociada es una simetr´ıa. Para estudiar los puntos fijos de un movimiento inverso del plano hacemos la observaci´on geom´etrica de que si el vector de traslaci´on a es perpendicular a la direci´on fija (s) de la simetr´ıa vectorial de matriz A, trasladando en el plano af´ın el eje de la simetr´ıa vectorial seg´ un un vector igual a la mitad del vector de traslaci´on obtenemos una recta (e) de puntos invariantes por el movimiento.

421

e s

A(P’) @

− M (P ) = A(P ) + → a = Se (P )

@ @

I @ → − a@

@

@

A(P)@

@

P’

@ I @ → − a@ @ @

P @

Cogiendo como origen del sistema de referencia cualquiera de los puntos de la recta trasladada, el movimiento queda identificado a una simetr´ıa respecto a esta recta de puntos fijos. Todas las simetr´ıas de este tipo son equivalentes. Si el movimiento inverso del plano no tiene puntos fijos, de lo anterior se deduce que el vector de traslaci´on no es perpendicular a la direcci´on fija de la simetr´ıa vectorial. Ahora bien, podemos −−−−−→ descomponer el vector a = OM (O) de la traslaci´on de la expresi´on dada en un vector perpendicular c al eje fijo de la simetr´ıa vectorial asociada y un vector paralelo a dicho eje b.

422

e → − − A(P ) + → a = M (P ) = Se (P ) + b

−c Se (P ) = A(P ) + →

 

 → −  a I @ → −c @  @  A(P) @ @

M (Q) s

@  @ @ @

→ − b

Q

M 2 (P )

@

→ − b

@



@ @ I @ → −c @ @ @

P

@

El movimiento dado es la composici´on de la traslaci´on de vector b con el movimiento resultante al hacer la composici´on de la traslaci´on de vector c y de la transformaci´on ortogonal de la misma matriz A dada. Esta segunda composici´on es una simetr´ıa respecto a una recta de puntos fijos, por lo que el movimiento dado resulta ser la composici´on de una traslaci´on de vector b paralelo al eje de simetr´ıa con una simetr´ıa de puntos fijos. Se llama simetr´ıa deslizante. La descomposici´on que hemos hecho se llama descomposici´on can´onica de la simetr´ıa deslizante. La simetr´ıa deslizante no tiene puntos fijos, pero el eje de simetr´ıa de su simetr´ıa can´onica queda invariante por su traslaci´on can´onica y por tanto por la simetr´ıa deslizante total. Haciendo un dibujo se puede ver que el vector de la traslaci´on can´onica de la simetr´ıa deslizante es −−−−−→ la mitad del vector determinado por un punto P y la imagen M 2 (P ) del movimiento: b = 21 P M 2 (P ), cualquiera que sea P. Para los c´alculos conviene tomar P = O, el origen de coordenadas. Dos simetr´ıas deslizantes son equivalentes si y s´olo si son iguales los vectores de sus traslaciones can´onicas. Ejercicios: 11.5.1. Clasificar los movimientos de R2 dados por las siguientes expresiones matriciales: 423

 a)

y1 y2



 =

1 √2 3 2



−2 1

+





3 2 1 2

!



x1 x2





y1 y2

, b)

 =

1 0



3 2 1 2

 +

−√21 3 2

!

x1 x2





             2 1 y1 2 −1 0 x1 y1 1 15 −8 x1 c) = + , d) = + y2 0 0 1 x2 y2 x2 17 4 17 −8 −15               1 1 3 1 3 −4 x1 y1 1 15 −8 x1 y1 + , f) = + e) = x2 y2 1 x2 y2 5 2 5 −4 −3 17 −8 −15  g)  i)

y1 y2 y1 y2



 =



 =

1 1 1 1



 +

1 − 23 √2 − 12 − 23 √

 +

2 √2 2 2



2 √2 − 22

!

!

x1 x2 x1 x2



 , h)



 , j)

y1 y2

y1 y2



 =



 =

1 1



−2 1



1 + 5

+



3 −4 −4 −3

1 √2 3 2



3 2 − 12



!

x1 x2

x1 x2





11.5.2. Volver a considerar los movimientos anteriores y a) Hallar los centros y ´angulos de giro de los que sean giros. b) Hallar los ejes de simetr´ıa de los que sean simetr´ıas axiales. c) Hallar la descomposici´on can´onica y recta invariante de los que sean simetr´ıas deslizantes. 11.5.3. Encontrar la expresi´on anal´ıtica de la simetr´ıa deslizante de A2 cuya recta invariante tiene la direcci´on 2x + y = 0 y que transforma el punto (2, 1) en el punto (1, 0). 11.5.4. Encontrar la expresi´on anal´ıtica de la simetr´ıa deslizante de A2 cuya recta invariante tiene √ la ecuaci´on 2x + y = 1 y cuyo vector de traslaci´on paralelo a la recta invariante es de m´odulo 5y de sentido hacia arriba.

424

Movimientos en el espacio tridimensional A3 : Seg´ un ocurre en general, los movimientos con puntos fijos se identifican geom´etricamente a las transformaciones ortogonales de R3 . Las transformaciones ortogonales de R3 son las rotaciones vectoriales, las simetr´ıas respecto a un plano y las composiciones de ambas de forma que el eje de la rotaci´on vectorial (de a´ngulo distinto de cero), es perpendicular al plano de la simetr´ıa. Adem´as tenemos los movimientos sin puntos fijos, para cuya discusi´on tenemos que estudiar la relaci´on entre la traslaci´on del vector origen en la aplicaci´on dada y los subespacios invariantes de la aplicaci´on vectorial asociada. En el caso del espacio tridimensional son m´as f´aciles de estudiar los movimientos inversos que los directos. Movimientos inversos de A3 2.1.a) Empecemos por el caso en que la matriz A corresponde a la aplicaci´on ortogonal composici´on de una rotaci´on vectorial de a´ngulo distinto de cero, con una simetr´ıa respecto a un plano perpendicular al eje de la rotaci´on vectorial.

P J ] J J C A@    A@ ϕ  A @  A @ R  @ A

 @ A p(P) @A @AU

→ − v J ] J O J @ A    Aϕ @ → −  A @ A(p( v ))  R A @  @ A

 @ A − p(→ v) @A U → A @ −

A(P)

A( v )

425

En un sistema de referencia {O; e1 , e2 , e3 } en el que la base de R3 {e1 , e2 , e3 } es ortonormal, siendo e1 de la direcci´on del eje de la rotaci´on y {e2 , e3 } una base ortonormal del plano de puntos fijos de la simetr´ıa, (que coincide con un plano invariante para el giro) la matriz es   −1 0 0 A =  0 cos φ − sin φ  0 sin φ cos φ y la expresi´on anal´ıtica del movimiento en un sistema de referencia con esa base es:        x1 a1 −1 0 0 x1 f  x2  =  a2  +  0 cos φ − sin φ   x2  x3 a3 0 sin φ cos φ x3 Sus puntos fijos se obtendr´ıan resolviendo el sistema:        −1 0 0 x1 a1 x1  x2  =  a2  +  0 cos φ − sin φ   x2  0 sin φ cos φ x3 a3 x3 equivalente al sistema:     −2 0 0 −a1 x1  −a2  =  0 cos φ − 1 − sin φ   x2  −a3 x3 0 sin φ cos φ − 1 

El determinante de la matriz de los coeficientes del sistema es |A| = −2(2(1 − cos φ)) distinto de cero en el caso que estamos considerando (φ 6= 0), lo que implica por el teorema de Rouch´e-Frobenius que si φ 6= 0 este tipo de movimientos tienen un u ´nico punto fijo C y geom´etricamente son an´alogos a las transformaciones vectoriales asociadas. Son composiciones de rotaciones afines con simetr´ıas, de forma que el eje de la rotaci´on af´ın es perpendicular al plano de simetr´ıa. El movimiento tiene una recta invariante, el eje de la rotaci´on af´ın, que es la recta paralela al eje de rotaci´on de la rotaci´on vectorial asociada pasando por el u ´nico punto fijo. El ´angulo de la rotaci´on que interviene en M es el mismo que el ´angulo de la rotaci´on que ˜ y se puede hallar por la traza de la matriz A: −1 + 2cosφ = T raza(A), de donde interviene en M 1 cosφ = 2 (T raza(A) + 1). El sentido de la rotaci´on respecto a una base ortogonal {u2 , u3 } del plano vectorial invariante se hace de manera an´aloga a como se hac´ıa en las transformaciones ortogonales. Dos movimientos de este tipo son equivalentes si y s´olo si tienen el mismo a´ngulo de rotaci´on. El ejemplo 4 visto anteriormente es un movimiento de este tipo. 426

Si φ = 0, la transformaci´on vectorial asociada es una simetr´ıa respecto a un plano, caso que estudiamos despu´es. 2.1.b) Veamos ahora el caso en que la transformaci´on vectorial asociada es una simetr´ıa respecto a un plano. Este caso es completamente an´alogo al de los movimientos inversos del plano y aparecen dos posibilidades: simetr´ıa respecto a un plano de puntos fijos y simetr´ıa deslizante. Para verlo, observamos igualmente que podemos distinguir dos subcasos seg´ un que la direcci´on del vector de traslaci´on del movimiento dado sea perpendicular a la direcci´on del plano de vectores fijos de la simetr´ıa vectorial o no. 2.1.b1 ). En el primer subcaso, en el que la direcci´on del vector de traslaci´on del movimiento dado sea perpendicular a la direcci´on del plano de vectores fijos de la simetr´ıa vectorial, considerando en el espacio af´ın el plano obtenido desplazando el plano fijo de la simetr´ıa vectorial asociada seg´ un un vector igual a la mitad del vector de traslaci´on y observando que sus puntos quedan invariantes por el movimiento, podemos concluir que el movimiento queda identificado a una simetr´ıa respecto a este plano de puntos fijos. Todas las simetr´ıas de este tipo son equivalentes. Considerando en el dibujo siguiente las rectas s y e como perfiles de planos perpendiculares al plano del papel, tenemos una interpretaci´on de estos movimientos. e s

A(P’) @

− M (P ) = A(P ) + → a = Se (P )

@ @

I @ → − a@

@

@

A(P) @

@ @ I @ → − a@ @ @

P @

427

P’

El ejemplo 2 visto anteriormente es un movimiento de este tipo. −−−−−→ 2.1.b2 ). En el segundo subcaso podemos descomponer el vector a = OM (O) de la traslaci´on de la expresi´on dada en un vector perpendicular (c) al plano fijo de la simetr´ıa vectorial asociada y un vector paralelo a dicho plano (b). El movimiento dado es la composici´on de la traslaci´on de vector b y el movimiento resultante al hacer la composici´on de la traslaci´on de vector c y de la aplicaci´on ortogonal de la misma matriz A que el dado. Esta segunda composici´on es una simetr´ıa respecto a un plano de puntos fijos, por lo que el movimiento dado queda descompuesto como una traslaci´on de vector b paralelo al plano de simetr´ıa con una simetr´ıa respecto a un plano. Se llama simetr´ıa deslizante. La descomposici´on realizada se llama descomposici´on can´onica del movimiento dado. La simetr´ıa deslizante no tiene puntos fijos, pero la simetr´ıa can´onica de su descomposici´on can´onica s´ı tiene un plano de puntos fijos que queda invariante por la traslaci´on can´onica y por tanto por la simetr´ıa deslizante. Lo mismo que en el caso de las simetr´ıas deslizantes de A2 , haciendo un dibujo se puede ver que el vector de la traslaci´on can´onica de la simetr´ıa deslizante es la mitad del vector determinado por un −−−−−→ punto P y la imagen M 2 (P ) del movimiento: b = 12 P M 2 (P ), cualquiera que sea P. Para los c´alculos conviene tomar P = O, el origen de coordenadas, con lo cual b = 21 M 2 (O). Considerando en el dibujo siguiente las rectas s y e como perfiles de planos perpendiculares al plano del papel, tenemos una interpretaci´on de estos movimientos. e

→ − − A(P ) + → a = M (P ) = Se (P ) + b

s

@  @ 

−c Se (P ) = A(P ) + →

  → − a  I @ → −c @  @  A(P) @ @

@ @

→ − b

M 2 (P ) @

→ − b

@ @ @ I @ → −c @ @ @

P

@

428



Dos simetr´ıas deslizantes son equivalentes si y s´olo si son iguales los vectores de sus traslaciones can´onicas. Vamos a ver ahora un ejemplo de simetr´ıa deslizante: Ejemplo 5:       0      1 −2 −2 x x x x 1 1 0           y y y  1 −2 1 −2 y M ≡a+A = = + 3 −2 −2 1 z z z0 z 0 Al ser |A| = −1 y traza(A) = 1 la aplicaci´on lineal asociada es una simetr´ıa. Si el movimiento total tuviera puntos fijos ser´ıa una simetr´ıa respecto al plano de puntos fijos. Si no tiene puntos fijos, es una simetr´ıa deslizante. Los puntos fijos de M son las soluciones de la ecuaci´on matricial:          1 −2 −2 x x x 1  y  = M  y  =  1  + 1  −2 1 −2   y  3 −2 −2 1 z z z 0 que desarrollada da  2x + 2y + 2z = 3  2x + 2y + 2z = 3 incompatible  2x + 2y + 2z = 0 por tanto, no hay puntos fijos y se trata de una simetr´ıa deslizante que tiene un plano invariante constituido por los puntos fijos de la simetr´ıa can´onica de la descomposici´on can´onica de M . Para hallar esta simetr´ıa can´onica, hallamos primero el vector de la traslaci´on can´onica: 

         1 1 −2 −2 1 1 1 1 1 1 1 1 1 −2   1  =  1  b = M 2 (O) = M  1  =  1  +  −2 2 2 2 3 3 0 0 −2 −2 1 0 −2 La expresi´on anal´ıtica del movimiento dado se puede descomponer en          x 1 1 1 −2 −2 x 1 2  1      y 1 1 −2 1 −2 y  M = + + 3 3 3 z −2 1 −2 −2 1 z 429

donde el primer sumando corresponde a la traslaci´on can´onica y los otros dos a la simetr´ıa can´onica, cuyo plano de puntos fijos es el plano invariante de la simetr´ıa deslizante M . Este plano se obtendr´a por tanto resolviendo la ecuaci´on matricial:        1 1 −2 −2 x x  y  = 2  1  + 1  −2 1 −2   y  3 3 1 −2 −2 1 z z equivalente a       1 1 −2 −2 x x    y  = 2  1  + 1  −2 1 −2 y  3 3 1 −2 −2 1 z z 

donde cada rengl´on puede reducirse a 2x + 2y + 2z = 2 ≡ x + y + z = 1 La simetr´ıa deslizante tiene adem´as invariantes las rectas de este plano que son paralelas al vector de la traslaci´on can´onica. Como un punto gen´erico del plano se puede escribir (x0 , y0 , 1 − x0 − y0 ), las rectas invariantes son las de ecuaciones param´etricas:       x x0 1  y =  + λ 1  y0 z 1 − x0 − y 0 −2 Nota: Otro elemento que distingue si un movimento cuya aplicaci´on ortogonal asociada es simetr´ıa es simetr´ıa deslizante o simetr´ıa respecto a un plano de puntos fijos es el vector 12 M 2 (O). Si este vector es distinto de cero, se trata de una simetr´ıa deslizante y si el vector es cero se trata de una simetr´ıa respecto a un plano de puntos fijos. 2.2. Movimientos directos de A3 . La aplicaci´on ortogonal asociada a un movimiento directo es una rotaci´on vectorial, que puede visualizarse como una superposici´on de giros en planos paralelos (perpendiculares al eje de la rotaci´on vectorial), alrededor de puntos fijos alineados que forman dicho eje. Si el vector de traslaci´on dado en la expresi´on del movimiento est´a contenido en el plano invariante de la rotaci´on vectorial asociada, al realizar esta traslaci´on despu´es de la rotaci´on, los puntos de los planos perpendiculares al eje quedan en dichos planos. En cada uno de estos planos considerados por separado ocurre un giro seguido de una traslaci´on, que ya hemos visto en el apartado de movimientos de R2 , que siempre es un giro alrededor de otro punto fijo (Vu´elvase a mirar los movimientos directos 430

del plano). Considerando uno de estos puntos fijos como origen de un nuevo sistema de referencia, el movimiento se puede identificar con la aplicaci´on vectorial asociada, que es una rotaci´on vectorial. Su eje es paralelo al de la rotaci´on vectorial asociada y est´a constituido por los puntos fijos de los giros en todos los planos perpendiculares a dicho eje. Entonces, el movimiento directo tiene una recta de puntos fijos y una familia de planos invariantes, que son los planos perpendiculares a la recta de puntos fijos.

C’

@  O’  ϕ@

@ @ 

 ϕ@ @ → −c @ @

 R 1  R @

 ,  

/  A(P’)

M(P’)

P’

C

@  O  ϕ@ @ @

 

 ϕ@ @ → −c @ @

 R 1   R @

,  

/  A(P)

M(P)

P

El ejemplo 3 visto anteriormente es un movimiento de este tipo. Si el movimiento directo no tiene puntos fijos es porque el vector de traslaci´on a del movimiento en la expresi´on dada no pertenece al plano invariante (π) de la rotaci´on vectorial asociada, o lo que es lo mismo no es perpendicular al eje de la rotaci´on. En ese caso se puede descomponer el vector a como suma de dos vectores a = b + c, donde b es paralelo al eje de la rotaci´on y c es paralelo al plano invariante de la rotaci´on vectorial asociada (b y c son perpendiculares). El movimiento consistente en hacer la rotaci´on vectorial dada y despu´es la traslaci´on de vector c es otra rotaci´on af´ın de eje paralelo al eje e de la rotaci´on vectorial asociada seg´ un hemos visto anteriormente. Al hacer posteriormente la traslaci´on de vector b, los puntos del eje e son trasladados seg´ un b, quedando en el mismo eje, que por tanto, es una recta invariante. Los puntos de los planos perpendiculares al eje, adem´as de ser girados, son desplazados seg´ un el vector b que es perpendicular a ellos y paralelo al eje de la rotaci´on vectorial. 431

El movimiento directo de A3 sin puntos fijos se llama movimiento helicoidal.

− M(P)=A(P)+→ a 6 6   

C ϕ 6 @ 

    → −  → − a b   P  O → − -





→ − b

@

@ @ @ R @

−c A(P)+→

c

Se llama descomposici´on can´onica del movimiento helicoidal a su descomposici´on como rotaci´on vectorial can´onica seguida de traslaci´on can´onica de vector paralelo al eje de la rotaci´on. El vector de traslaci´on de la traslaci´on can´onica se obtiene proyectando el vector de traslaci´on del origen en el movimiento dado sobre el eje invariante de la rotaci´on vectorial asociada al movimiento dado. La expresi´on de la rotaci´on vectorial can´onica se obtiene restando este vector a la expresi´on del movimiento dado. El eje de puntos fijos de la rotaci´on vectorial can´onica es eje invariante del movimento helicoidal. El ´angulo de giro de la rotaci´on vectorial can´onica es el mismo que el de la rotaci´on vectorial asociada. Dos movimientos helicoidales son equivalentes si y s´olo si son iguales los vectores de las traslaciones can´onicas asociadas y los a´ngulos de giro de las rotaciones can´onicas asociadas.

432

Vamos a estudiar un caso sencillo: Ejemplo 6: Sea        x 2 0 0 −1 x        y 1 0 1 0 y  M = + z 0 1 0 0 z Los puntos fijos deber´ıan satisfacer las tres ecuaciones: x = 2 − z, y = 1 + y, z = x. Como este sistema de ecuaciones no tiene soluci´on, el movimiento no tiene puntos fijos. La aplicaci´on vectorial asociada      x 0 0 −1 x ˜  y  =  0 1 0  y  M z 1 0 0 z es una rotaci´on vectorial de eje Oy y por lo tanto tiene como plano vectorial invariante el plano {y = 0}. Podemos descomponer el vector (2, 1, 0) = (0, 1, 0) + (2, 0, 0) como suma del vector (0, 1, 0), perpendicular al plano {y = 0} y otro vector (2, 0, 0), contenido en dicho plano. Consideramos ahora el movimiento        2 0 0 −1 x x        0 0 1 0 y  y + = Mc 0 1 0 0 z z La traslaci´on de vector (2,0,0) que hacemos a continuaci´on de la rotaci´on vectorial asociada deja invariante el plano invariante de dicha rotaci´on. Este plano sigue siendo invariante por Mc . El movimiento Mc puede considerarse como una yuxtaposici´on de movimientos id´enticos en planos paralelos al plano {y = 0} (que es el plano de las coordenadas XOZ )y por tanto su estudio puede reducirse al estudio de Mc en este plano. Para ello podemos prescindir de la segunda coordenada, obteniendo        x 2 0 −1 x Gc = + z 0 1 0 z expresi´on que corresponde a un giro de centro (1,1) y a´ngulo π2 respecto a la base {(1, 0), (0, 1)} del plano XOZ. Lo mismo ocurre en todos los planos paralelos al XOZ. Los centros de giro en estos planos son los puntos de la forma (1, k, 1); quedan invariantes por ˜ . Mc es por tanto otra Mc y forman un eje de giro de Mc paralelo al eje de la rotaci´on vectorial M rotaci´on vectorial, aunque su eje no pasa por el origen (por tanto es una recta af´ın). En el movimiento total, los puntos del eje de la rotaci´on Mc s´olo quedan trasladados por el vector (0, 1, 0). Forman una recta invariante de M. (Aunque sus puntos no son fijos). 433

Cualquier punto (x, k, z) puede considerarse contenido en un plano af´ın de ecuaci´on {y = k} paralelo al plano {y = 0} y como tal queda en este plano paralelo al realizar la rotaci´on vectorial asociada y luego la traslaci´on del vector (2,0,0) contenido en el plano vectorial invariante. Lo cual es como hacer una rotaci´on en el plano {y = k} alrededor del punto (1, k, 1). Para completar el movimiento dado M, tenemos que realizar adem´as de Mc , la traslaci´on de vector (0, 1, 0), esto es, trasladar todos los puntos en la direcci´on del eje OY, que es la misma que la direcci´on del eje invariante de Mc . Veamos otro ejemplo de movimiento helicoidal m´as complicado. Ejemplo 7: Estudiar el movimiento dado en el sistema de referencia can´onico por      0     1 0 1 0 x x x  y 0  =  1  +  0 0 −1   y  ≡ a + A  y  z0 0 −1 0 0 z z Como el determinante de A es 1, se trata de un movimiento directo, siendo la aplicaci´on vectorial asociada al movimiento una rotaci´on vectorial. El movimiento ser´a por tanto una rotaci´on vectorial si tiene puntos fijos y un movimiento helicoidal si no los tiene. Los puntos fijos son las soluciones del sistema:        x 1 0 1 0 x  y  =  1  +  0 0 −1   y  z 0 −1 0 0 z equivalente a  x= 1 +y  y= 1 −z  z= −x donde haciendo operaciones se obtiene: x = 1 + y, z = 1 − y, z = −1 − y siendo las dos u ´ltimas ecuaciones incompatibles. Por tanto no hay puntos fijos y M es un movimiento helicoidal. El movimiento helicoidal se descompone en una rotaci´on vectorial llamada can´onica y una traslaci´on can´onica de vector paralelo al eje de la rotaci´on vectorial can´onica. El eje de la rotaci´on vectorial can´onica es paralelo al eje de la rotaci´on vectorial asociada de matriz A. Por eso hallamos esa direcci´on resolviendo      x 0 1 0 x  y  =  0 0 −1   y  z −1 0 0 z

434

de donde se obtiene x = y, z = −y, ecuaciones de la recta engendrada por (1, 1, −1). Ahora el vector a lo descomponemos a = b + c donde b es paralelo a (1, 1, −1) y c es perpendicular a (1, 1, −1):       1 1 c1  1  = λ  1  +  c2  0 −1 c3 que cumplen 

     1 1 c1 (1, 1, −1)  1  = (1, 1, −1)λ  1  + (1, 1, −1)  c2  ≡ 2 = 3λ 0 −1 c3 por tanto sale el vector b = 32 (1, 1, −1) que es el vector de la traslaci´on can´onica paralelo al eje de la rotaci´on can´onica. La expresi´on matricial de ´esta se obtiene restando el vector b a la expresi´on matricial de M :        1 x 0 1 0 x 1       1 y 0 0 −1 y  Mc + = 3 2 z −1 0 0 z cuyo eje de puntos fijos ha de salir paralelo a (1, 1, −1) y es una recta invariante del movimiento helicoidal. Para hallarla resolvemos        1 0 1 0 x x  y  = 1  1  +  0 0 −1   y  3 2 −1 0 0 z z obteniendo  x = 1/3 +y  y = 1/3 −z ≡  z = 2/3 −x

 x = 1/3 + y  y = 1/3 − z ≡  z = 2/3 − x

sistema compatible, cuyas soluciones son      1  1 x 3  y  =  0  + λ 1  1 −1 z 3 eje efectivamente paralelo al de la rotaci´on vectorial asociada. 435

 x = 1/3 + y  y= y  z = 1/3 − y

Nos queda calcular el a´ngulo de la rotaci´on vectorial can´onica asociada. Para ello tenemos 0 = traza(A) = 1 + 2cosφ, lo que implica cosφ = −1/2 y por tanto φ = ±2π/3. El sentido del giro est´a determinado respecto a una base ortogonal del plano vectorial de direcci´on invariante, (ortogonal al eje de direcci´on de la rotaci´on), en este caso de ecuaci´on x + y − z = 0; cogiendo {u2 , u3 } = {(1, 0, 1), (−1, 2, 1)}, al ser A(u2 ) = (0, −1, −1), √ 3 −3 < A(u2 ), u3 > = √ √ =− 0), la cual transformar´a v en un R(v) = ai + bj y hemos visto anteriormente que pi × (ai + bj) cumple la regla del sacacorchos, tambi´en la cumple u × v. Para probar la regla del sacacorchos en general, demostramos ahora que para cualquier rotaci´on vectorial R se verifica que R(u × v) = R(u) × R(v), lo cual nos permite asegurar que la regla del sacacorchos es cierta para u × v si lo es para R(u) × R(v), ya que una rotaci´on vectorial conserva en el sacacorchos su sentido de avance. Para ello, tengamos en cuenta que si ∀y ∈ V , x · y = x0 · y, se tiene (x − x0 ) · y = 0, ∀y ∈ V , y cogiendo y = x − x0 , la igualdad (x − x0 ) · (x − x0 ) = 0 implica x − x0 = 0, es decir, x = x0 . Entonces, lo que vamos a probar es que R(u × v) · w = (R(u) × R(v)) · w, ∀w ∈ R3 . En efecto, como R es una aplicaci´on ortogonal R(u × v) · w = R(u × v) · RR−1 w = u × v · R−1 w = [u, v, R−1 w] siendo este u ´ltimo el determinante de la matriz que tiene por filas las coordenadas de los vectores −1 {u, v, R w} 438

Por otra parte, R(u) × R(v) · w = (R(u) × R(v)) · RR−1 w = [R(u), R(v), RR−1 w] siendo este u ´ltimo el determinante de la matriz que tiene por filas las coordenadas de los vectores {R(u), R(v), RR−1 w}; Pero esta matriz es la que tiene por filas las coordenadas de los vectores {u, v, R−1 w} multiplicada a la derecha por la traspuesta de la matriz de R, cuyo determinante es 1; por eso, [R(u), R(v), RR−1 w] = [u, v, R−1 w] teni´endose la igualdad requerida anteriormente. Ahora consideramos el producto i × v cuando v = ai + bj + ck es general. Hay una rotaci´on vectorial R del eje engendrado por i que lleva el plano engendrado por i y v al plano horizontal, llevando por tanto v a un vector horizontal R(v). Como el producto i × R(v) cumple la regla del sacacorchos, tambi´en lo cumple i × v. Lo mismo ocurre para cualquier producto pi × v, donde p es un n´ umero positivo. Para el caso general u × v, donde u es cualquiera, observamos que u puede llevarse a un vector de la forma pi, donde p > 0 con una rotaci´on vectorial R de eje perpendicular a los dos vectores u e i, quedando entonces reducidos al caso anterior que verifica la regla del sacacorchos.

439

Bibliograf´ıa. [C] M. Castellet, I. Llerena. Algebra Lineal y Geometr´ıa. Ed. Revert´e,1991. [G] L. Golovina. Algebra Lineal y algunas de sus Aplicaciones. Ed. Mir. 1980. [H] E. Hern´andez. Algebra y Geometr´ıa. Ed. Addison-Wesley-U.A.M. 1994.

440

C´onicas. Elipse, Hip´erbola, Par´abola.

Introducci´ on. Encontramos aqu´ı las ecuaciones de la elipse, hip´erbola y par´abola en sus posiciones can´onicas y luego vemos c´omo cambian a las ecuaciones de las mismas curvas en una posici´on cualquiera. Concluimos que no s´olo las ecuaciones de estas curvas son ecuaciones de segundo grado sino que las soluciones de cualquier ecuaci´on de segundo grado con dos inc´oginitas constituyen una de estas curvas (una c´onica) admitiendo los casos degenerados que son dos rectas que se cortan, dos rectas paralelas, una recta doble o el conjunto vac´ıo. Tambi´en se ve c´omo se detecta el tipo de curva y c´omo se obtienen sus elementos caracter´ısticos.

441

442

Ecuaciones de las c´ onicas en posici´ on can´ onica. La elipse es el lugar geom´etrico de los puntos cuya suma de distancias a dos puntos fijos llamados focos es constante. (1a figura). Colocando los focos en el eje OX a distancia c del origen, la ecuaci´on de la elipse se obtiene as´ı: sean (c, 0) y (−c, 0) los focos y llamemos 2a a la suma de las distancias de un punto de la elipse a estos dos focos. El m´ınimo de la suma de las distancias de un punto a otros dos puntos dados se encuentra cuando el punto est´a en la recta determinada por esos dos puntos y en el interior del segmento determinado por ellos. (Por la propiedad triangular). Veamos que c ≤ a: consideramos la desigualdad triangular en el tri´angulo formado por los dos focos y un punto de la elipse. (ver el dibujo de la elipse). 2c ≤ d1 + d2 = 2a Tenemos: ∀P, d((c, 0)P ) =

p p (x − c)2 + y 2 , d((−c, 0)P ) = (x + c)2 + y 2

P est´a en la elipse si y s´olo si p

(x − c)2 + y 2 +

p p p (x + c)2 + y 2 = 2a ≡ (x − c)2 + y 2 = 2a − (x + c)2 + y 2

Elevando al cuadrado: p (x − c)2 + y 2 = 4a2 + (x + c)2 + y 2 − 4a (x + c)2 + y 2 p p −4xc − 4a2 = −4a (x + c)2 + y 2 o´ xc + a2 = a (x + c)2 + y 2 Elevando al cuadrado otra vez: x2 c2 + a4 + 2xca2 = a2 (x2 + c2 + 2xc + y 2 ) Agrupando t´erminos: a2 (a2 − c2 ) = x2 (a2 − c2 ) + a2 y 2 Llamando b2 = a2 − c2 y dividiendo los dos t´erminos por a2 b2 , se obtiene x2 y 2 1= 2 + 2 a b ecuaci´ on can´ onica de la elipse, llamada as´ı porque corresponde a la elipse en posici´on can´onica. 443

Esta elipse es sim´etrica respecto a los ejes coordenados y respecto al origen porque si (x0 , y0 ) satisface la ecuaci´on de la elipse, tambi´en la satisfacen (−x0 , y0 ) (x0 , −y0 ) (−x0 , −y0 ). Los puntos de intersecci´on con el eje OX se obtienen haciendo y=0, por tanto son (a, 0) y (−a, 0). An´alogamente, los puntos de intersecci´on con el eje OY se obtienen haciendo x=0, por tanto son (0, b) y (0 − b). Estos puntos se llaman v´ertices de la elipse. El semieje mayor mide a y el semieje menor mide b. El eje que contiene los focos se llama eje focal. La distancia focal es 2c. Se llama excentricidad de la elipse al n´ umero c/a. El centro de simetr´ıa de la elipse se llama centro de la elipse. La elipse es una circunferencia cuando la excentricidad es cero y los dos focos coinciden con el centro. Si la excentricidad es 1 se obtiene en la ecuaci´on (1) y 2 = 0 que es la ecuaci´on de dos rectas coincidentes con el eje OX. La hip´ erbola es el lugar geom´etrico de los puntos cuya diferencia de distancias a dos puntos fijos llamados focos es constante. 2a figura. La ecuaci´on de la hip´erbola se obtiene as´ı: sean (c, 0) y (−c, 0) los focos en un sistema de cordenadas cartesianas y llamemos 2a a la diferencia de las distancias de un punto de la hip´erbola a estos dos focos. ∀P, d((c, 0)P ) =

p p (x − c)2 + y 2 , d((−c, 0)P ) = (x + c)2 + y 2

P est´a en la hip´erbola si y s´olo si p

(x + c)2 + y 2 −

p p p (x − c)2 + y 2 = 2a ≡ (x + c)2 + y 2 = 2a + (x − c)2 + y 2

Elevando al cuadrado: p (x + c)2 + y 2 = 4a2 + (x − c)2 + y 2 + 4a (x − c)2 + y 2 p p 4xc − 4a2 = 4a (x − c)2 + y 2 ≡ xc − a2 = a (x − c)2 + y 2 Elevando al cuadrado otra vez: x2 c2 + a4 − 2xca2 = a2 (x2 + c2 − 2xc + y 2 ) Agrupando t´erminos: a2 (a2 − c2 ) = x2 (a2 − c2 ) + a2 y 2

444

Veamos que ahora c ≥ a aplicando la desigualdad triangular al tri´angulo formado por los focos y un punto de la hip´erbola. (Ver el dibujo de la hip´erbola). 2c + d2 ≥ d1

i.e. 2c ≥ d1 − d2 = 2a

Llamando b2 = c2 − a2 y dividiendo los dos t´erminos por a2 b2 , se obtiene −1 = −

x2 y 2 + 2 a2 b

x2 y 2 − 2 a2 b ecuaci´ on can´ onica de la hip´ erbola, llamada as´ı porque corresponde a la hip´erbola en posici´on can´onica. 1=

Esta hiperb´ola es sim´etrica respecto a los ejes coordenados por la misma raz´on que lo era la elipse. Los puntos de intersecci´on con el eje OY se obtendr´ıan haciendo x = 0, pero en este caso no existen. Los puntos de intersecci´on con el eje OX se obtienen haciendo y = 0, por tanto son (a, 0) y (−a, 0). Estos puntos se llaman v´ertices de la hip´erbola. El eje que contiene los focos se llama eje focal. La distancia focal es 2c. Se llama excentricidad de la hip´erbola al n´ umero c/a. El semieje real vale a. El otro semieje se llama semieje imaginario. El punto O se llama centro de la hip´erbola. La excentricidad de la hip´erbola nunca es cero.Cuando la excentricidad es 1 la hip´erbola se reduce a dos rectas coincidentes con ell eje OX. La par´ abola es el lugar geom´etrico de los puntos que equidistan de un punto llamado foco y de una recta llamada directriz. 3a figura. La ecuaci´on de la par´abola se obtiene as´ı: Supongamos que la directriz es paralela al eje OY a una distancia igual a c a la izquierda de este eje y que el foco est´a situado en el eje OX a una distancia c del origen. (se deduce de la definici´on que la par´abola pasa por el origen, que luego veremos que es el v´ertice de la par´abola). Entonces, el punto P(x,y) pertenece a la par´abola si y s´olo si d(P, F ) = d(P, directriz), es decir, si y s´olo si (x − c)2 + y 2 = (x + c)2 ≡ x2 − 2xc + c2 + y 2 = x2 + 2xc + c2 445

de donde y 2 = 4cx es la ecuaci´ on can´ onica de la par´ abola, llamada as´ı porque est´a en posici´on can´onica. Es sim´etrica respecto al eje OX y el origen es el punto de la par´abola m´as pr´oximo a la directriz, es el v´ertice. Ecuaciones de algunas c´ onicas en posici´ on no can´ onica. Naturalmente existen elipses, hip´erbolas y par´abolas que no est´an colocadas en posiciones can´onicas y se van a ver ahora ejemplos de obtenci´on de sus ecuaciones: 1. Obtener la ecuaci´on de una elipse de semieje mayor 2, vertical y semieje menor 1 y centro en el origen: tendr´ıamos que cambiar el eje OX por el eje OY y ser´ıa y2 + x2 . 1= 4 2. Obtener la ecuaci´on de la elipse E de semieje mayor 2 en la direcci´on de la diagonal del primer cuadrante y semieje menor 1 y centro en el punto (1,2). La ecuaci´on de esta elipse en la posici´on can´onica (llam´emosla E” )ser´ıa 1=

x2 + y 2 ≡ x2 + 4y 2 − 4 = 0 4

Llamemos E’ a la elipse obtenida de girar la can´onica un ´angulo de π/4 en sentido positivo; un punto (x, y) pertenece a E’ si y s´olo si al girarlo un ´angulo un ´angulo de π/4 en sentido negativo se sit´ ua en E”, por tanto si  √ √   1 x √2 √2 y 2 2 − 2 satisface la ecuaci´on de la elipse E”. Sustituyendo, tenemos que ha de ser: √ √ 1 √ 1 √ ( 2x + 2y)2 + 4 (− 2x + 2y)2 − 4 = 0 4 4 donde haciendo operaciones se llega a 5x2 − 6xy + 5y 2 − 8 = 0, 446

que es la ecuaci´on de E’. Buscamos la ecuaci´on de la elipse pedida en el enunciado que vamos a llamar E. E coincide con E’ al trasladarla de forma que su centro vaya al origen. Entonces, un punto (x, y) est´a en E si y s´olo si al trasladarlo seg´ un el vector (−1, −2) obtenemos un punto de E’, o sea, si (x − 1, y − 2) satisface la ecuaci´on de E’; sustituyendo y haciendo operaciones se obtiene: 5(x − 1)2 − 6(x − 1)(y − 2) + 5(y − 2)2 − 8 = 0 ≡ 5x2 − 6xy + 5y 2 + 2x − 14y + 5 = 0 que es la ecuaci´on pedida. 3. Obtener la ecuaci´on de la hip´erbola H de semieje real 3 en el primer cuadrante formando un a´ngulo de π/3 con el eje de abscisas, de excentricidad 5/3 y centro en el punto (1, −1). Primero obtenemos la ecuaci´on de una hip´erbola H” de las mismas caracter´ısticas de la pedida pero en posici´on can´onica. √ Como e = c/a, c = 5 y b = c2 − a2 = 4, por lo que la ecuaci´on de la hip´erbola H” es x2 y 2 − = 1 ≡ 16x2 − 9y 2 − 144 = 0 9 16 Ahora obtenemos la ecuaci´on de la hip´erbola H’ obtenida de H” al girarla para que el eje de abcisas forme un ´angulo de π/3 positivo con su eje real: √   √      1 1 1 x + x 3 x 3y 0 00 √ √ ∈H ≡ ∈H ≡ ∈ H 00 y y 1 2 − 3 2 − 3x + y Sustituyendo en la ecuaci´on de H” y haciendo operaciones, tenemos √ 39y 2 + 50 3xy − 11x2 − 576 = 0 que es la ecuaci´on de H’. Para obtener la ecuaci´on de H observamos que una traslaci´on de vector (−1, 1), lleva el centro de H al origen, que es el centro de H’ y lleva H a H’ porque coinciden en la direcci´on y el tama˜ no del eje real, por lo que (x, y) ∈ H ≡ (x − 1, y + 1) ∈ H 0 . Sustituyendo (x − 1, y + 1) en la ecuaci´on de H’ y haciendo operaciones obtenemos: √ √ √ √ 39y 2 + 50 3xy − 11x2 + (78 − 50 3)y + (22 + 50 3)x − 548 − 50 3 = 0 ecuaci´on de la hip´erbola pedida.

447

4. Obtener la ecuaci´on de la par´abola √ P cuya directriz es la diagonal del primer cuadrante, cuya distancia del foco a la directriz es 2, con v´ertice en la diagonal del segundo cuadrante y dirigida hacia arriba. Como en los ejemplos anteriores hallamos la ecuaci´ √ on de la par´abola P” de las mismas caracter´ısticas de P colocada en posici´on can´onica (c = 2/2) siendo ´esta: √ √ y 2 = 2 2x ≡ y 2 − 2 2x = 0 La directriz de la par´abola can´onica es vertical; para que coincida su direcci´on con la de la diagonal del primer cuadrante tenemos que hacer un giro de ´angulo 3π/4 positivo. Hallamos la ecuaci´on de la par´abola P’ obtenida al girar la can´onica un a´ngulo de 3π/4 positivo sustituyendo en la ecuaci´on de la can´onica las coordenadas de un punto girado un ´angulo de −3π/4: La matriz de dicho giro es √   √ 1 − 2 √ √2 2 − 2 − 2 por lo que 

x y



1 ∈P ≡ 2 0



√ √   √   √ 1 − 2x + 2y −√2 x 2 00 √ √ √ ∈P ≡ ∈ P 00 y 2x − 2y − 2 − 2 − 2

Sustituyendo estas expresiones en la ecuaci´on de P” obtenemos √ √ √ √ √ 2 2 2 2 2 x− y) − 2 2(− x+ y) = 0 (− 2 2 2 2 Haciendo operaciones se obtiene x2 + y 2 + 2xy + 4x − 4y = 0 que es la ecuaci´on de P’ √ El v´ertice de P es el punto a distancia c = 22 del origen sobre la diagonal del segundo cuadrante y en el semiplano de las ordenadas positivas porque va hacia arriba. Es el punto (− 21 , 12 ) Haciendo ahora la traslaci´on que lleva el v´ertice de la par´abola pedida al origen y sustituyendo en la ecuaci´on de P’ obtenemos la ecuaci´on de P: (x+1/2)2 +(y−1/2)2 +2(x+1/2)(y−1/2)+4(x+1/2)−4(y−1/2) = 0 ≡ x2 +y 2 +2xy+4x−4y+4 = 0 siendo ´esta u ´ltima la ecuaci´on de la par´abola pedida. 448

Ejercicios: 12.1.1 Hallar la ecuaci´on de la elipse de eje mayor 10 y distancia focal 6, cuyo eje mayor forma un ´angulo de π/6 con el eje de abscisas, siendo su centro el origen. 12.1.2. Hallar la ecuaci´on de la elipse de eje menor 8 y excentricidad 3/5, cuyo eje mayor forma un ´angulo de π/3 con el eje de ordenadas, siendo su centro el punto (1,1). 12.1.3. Hallar la ecuaci´on de una hip´erbola de distancia focal 10 y excentricidad 5/3, cuyo eje real forma un a´ngulo de π/3 con el eje de abscisas, siendo su centro el punto (−1, 2) 12.1.4. Hallar la ecuaci´on de una hip´erbola cuyos v´ertices distan 6, con excentricidad 4/5, con centro en el punto (1, −2) y cuyo eje real forma un a´ngulo de +π/3 con el eje de ordenadas. 12.1.5. Hallar √ ecuaci´on de la par´abola con directriz la diagonal del primer cuadrante y v´ertice √ la en al punto ( 2, 2 2). 12.1.6. Hallar la √ ecuaci´on√de la par´abola de directriz paralela a la diagonal del segundo cuadrante y foco en el punto ( 2 − 1, 2 + 1). Algunos ejemplos de reducci´ on de curvas de segundo grado a su ecuaci´ on can´ onica. En los tres casos anteriores hemos obtenido como ecuaciones de las c´onicas, polinomios de segundo grado con dos inc´ognitas igualados a cero. Vamos a ver ahora en tres casos particulares como podemos dar marcha atr´as, es decir, como los polinomios de segundo grado con dos inc´ognitas pueden ser transformados mediante cambios de coordenadas en las expresiones can´onicas de la elipse, la hip´erbola y la par´abola. 5. Consideremos la curva de ecuaci´on: 52x2 − 72xy + 73y 2 + 200x − 350y + 325 = 0 La parte cuadr´atica del polinomio se puede escribir:    52 −36 x 2 2 52x − 72xy + 73y = (x, y) −36 73 y Toda forma cuadr´atica se puede diagonalizar mediante un cambio de base ortogonal, por eso podemos encontrar un nuevo sistema de coordenadas relacionado con el anterior por una matriz ortogonal en el que la forma cuadr´atica tiene matriz diagonal. Lo encontramos calculando los valores propios y los vectores propios. Los valores propios son λ1 = 25, λ2 = 100, a los que corresponden los vectores propios normalizados: v1 = (4, 3)/5, v2 = (−3, 4)/5. Entonces, con el cambio de coordenadas: 449



x y



1 = 5



4 −3 3 4



x0 y0



(como la matriz de cambio de base es ortogonal su inversa coincide con su traspuesta) la parte cuadr´atica considerada se transforma en 1 (x , y ) 5 0

0



4 3 −3 4



52 −36 −36 73



1 5



4 −3 3 4



x0 y0



1 = (x , y ) 5 0

0



25 0 0 100



x0 y0



En este cambio de coordenadas la parte no cuadr´atica tambi´en se transforma: 1 1 200x − 350y + 325 = 200( (4x0 − 3y 0 )) − 350( (3x0 + 4y 0 )) + 325 = −50x0 − 400y 0 + 325 5 5 haciendo operaciones, con lo que el polinomio total se transforma en 2

2

2

2

25x0 + 100y 0 − 50x0 − 400y 0 + 325 = 25(x0 − 2x0 ) + 100(y 0 − 4y 0 ) + 325 = = 25(x0 − 1)2 − 25 + 100(y 0 − 2)2 − 400 + 325 = 25(x0 − 1)2 + 100(y 0 − 2)2 − 100 Haciendo ahora el cambio de coordenadas x00 = x0 − 1, y 00 = y 0 − 2, igualando a cero y dividiendo por 100 se obtiene: x00 2 x00 2 2 2 + y 00 − 1 = 0 ≡ + y 00 = 1 4 4 que es la ecuaci´on de una elipse de semieje mayor 2 y semieje menor 1 en posici´on can´onica. 6. Consideremos la ecuaci´on 7x2 − 48xy − 7y 2 − 70x − 10y − 1 = 0 La parte cuadr´atica 2

2



7x − 48xy − 7y = (x, y)

7 −24 −24 −7



x y



se transforma mediante el cambio de coordenadas ortogonal dado por los vectores propios normalizados en una forma cuadr´atica diagonal, es decir, sin t´ermino en xy. Sus valores propios son λ1 = 25, λ2 = −25, y los vectores propios normalizados correspondientes: v1 = (4, −3)/5, v2 = (3, 4)/5 por lo que el cambio de coordenadas es     0  1 x 4 3 x = siendo y y0 5 −3 4 450

2

2



7x − 48xy − 7y = (x, y)

7 −24 −24 −7



x y



0

0

= (x , y )



25 0 0 −25



x0 y0



2

= 25x0 − 25y 0

2

La parte no cuadr´atica tambi´en se transforma en este cambio de coordenadas: 1 1 −70x − 10y − 1 = −70( (4x0 + 3y 0 )) − 10( (−3x0 + 4y 0 )) − 1 = −50x0 − 50y 0 − 1 5 5 Entonces el polinomio dado completo se transforma en 2

2

25x0 − 25y 0 − 50x0 − 50y 0 − 1, que a su vez se transforma en 2

2

25(x0 − 2x0 ) − 25(y 0 + 2y 0 ) − 1 = 25(x0 − 1)2 − 25 − 25(y 0 + 1)2 + 25 − 1 Llamando ahora x00 = x0 − 1, y 00 = y 0 + 1, y dividiendo adecuadamente la expresi´on de la ecuaci´on se transforma en x00 2 y 00 2 1 − 1 = 1 25

25

expresi´on de una hip´erbola. 7. Consideremos la ecuaci´on 9x2 − 24xy + 16y 2 + 70x − 10y + 75 = 0 Como en los casos anteriores, la parte cuadr´atica de la ecuaci´on se transforma en una suma de cuadrados mediante un cambio de coordenadas ortogonal.    9 −12 x 2 2 9x − 24xy + 16y = (x, y) −12 16 y se transforma mediante el cambio de coordenadas     0  1 4 −3 x x = 3 4 y0 y 5 dado por los vectores propios normalizados v1 = (4, 3)/5, v2 = (−3, 4)/5 correspondientes a los valores propios λ1 = 0, λ2 = 25 en   0  0 0 x 2 0 0 (x , y ) = 25y 0 0 0 25 y

451

La parte no cuadr´atica del polinomio se transforma en este cambio de coordenadas seg´ un 1 1 70x − 10y + 75 = 70( (4x0 − 3y 0 )) − 10( (3x0 + 4y 0 )) + 75 = 50x0 − 50y 0 + 75 5 5 con lo que la ecuaci´on completa se transforma en 2

25y 0 + 50x0 − 50y 0 + 75 = 25(y 0 − 1)2 + 50(x0 + 1) = 0 Llamando ahora x00 = x0 + 1, y 00 = y 0 − 1 y dividiendo por 25 obtenemos 2

2

y 00 + 2x00 = 0 ≡ y 00 = −2x00 expresi´on de una par´abola.

452

Reducci´ on de la ecuaci´ on general de la expresi´ on de una curva de segundo grado a su expresi´ on can´ onica. ´ La elipse, hip´erbola y parbola se llaman c´onicas no degeneradas. Antes de pasar al caso general vamos a darnos cuenta de que existen otras configuraciones de soluciones de ecuaciones de segundo grado adem´as de las c´onicas no degeneradas. Son las llamadas c´onicas degeneradas: Las soluciones de a2 x2 − b2 y 2 = 0 son las dos rectas diagonales de ecuaciones ax − by = 0 e ax + by = 0, que se cortan en el origen. Se pueden considerar como una degeneraci´on de la hip´erbola. Las soluciones de a2 x2 − k = 0 son dos rectas paralelas si k > 0 y el conjunto vac´ıo si k < 0. Se pueden considerar como una degeneraci´on de la hip´erbola cuando b = ∞. Son una recta doble cuando k = 0. que se puede considerar una degeneraci´on de la par´abola si c = 0. Las soluciones de a2 x2 + b2 y 2 = 0 est´an constituidas por el origen u ´nicamente. Y las soluciones de a2 x2 + b2 y 2 = −k son el conjunto vac´ıo si k > 0. Admitiendo estas configuraciones como c´onicas degeneradas, podemos demostrar que el conjunto de soluciones de una ecuaci´on dada por un polinomio de segundo grado con dos inc´ognitas igualado a cero es una c´onica (sea o no degenerada). Lo vamos a hacer a continuaci´on haciendo cambios de coordenadas que conservan las distancias y por tanto las formas de las curvas: La expresi´on general de una de tales curvas es a11 x2 + 2a12 xy + a22 y 2 + 2a1 x + 2a2 y + a0 = 0 La forma cuadr´atica a11 x2 + 2a12 xy + a22 y 2 se puede expresar matricialmente    a11 a12 x (x, y) a12 a22 y con una matriz sim´etrica que se puede diagonalizar por una matriz ortogonal utilizando los valores propios y los vectores propios. Mediante un cambio de coordenadas     0  x v11 v21 x = y v12 v22 y0 dado por los vectores propios normalizados, la parte cuadr´atica pasa a   0  λ1 0 x 0 0 (x , y ) 0 λ2 y0 453

En ese cambio, los coeficientes de x y de y tambi´en var´ıan en el polinomio dado pasando el polinomio completo a ser de la forma: 2

2

λ1 x0 + λ2 y 0 + 2b1 x0 + 2b2 y 0 + b0 = 0 Ahora distinguimos dos casos: a) Si los dos valores propios son distintos de cero, b) Si alg´ un valor propio es cero. En el primer caso podemos agrupar los t´erminos en x0 y los t´erminos en y 0 dando 2

2

2

λ1 x0 + 2b1 x0 + λ2 y 0 + 2b2 y 0 + b0 = λ1 (x0 + 2 = λ1 (x0 +

b1 0 b2 2 x ) + λ2 (y 0 + 2 y 0 ) + b0 = λ1 λ2

b2 b2 b1 2 b2 ) + λ2 (y 0 + )2 + b0 − 1 − 2 = 0 λ1 λ2 λ1 λ2

Mediante otro cambio de coordenadas x00 = x0 + 2 λb11 , y 00 = y 0 + 2 λb22 y llamando co al t´ermino independiente pasamos a x00 2 −c0 λ1

+

y 00 2 −c0 λ2

=1

que es la ecuaci´on de una elipse si λ1 , λ2 y −c0 son del mismo signo, es el conjunto vac´ıo si λ1 , λ2 y co son del mismo signo, y es un s´olo punto si λ1 , λ2 son del mismo signo y c0 = 0. Si λ1 , λ2 son de distinto signo, tenemos la ecuaci´on de una hip´erbola si c0 6= 0 y la ecuaci´on de dos rectas que se cortan si c0 = 0. Pasamos ahora al caso b): supongamos que λ1 = 0, la ecuaci´on entonces, por la diagonalizaci´on de la parte cuadr´atica pasa a ser 2

λ2 y 0 + 2b1 x0 + 2b2 y 0 + b0 = 0 que podemos transformar en b2

b0 − λ22 b2 2 b2 2 b22 0 0 0 λ2 (y + ) − + 2b1 x + b0 = λ2 (y + ) + 2b1 (x + )=0 λ2 λ2 λ2 b1 0

b2

00

0

si b1 6= 0. Aqu´ı llamando x = x +

b0 − λ2

2

b1

, y 00 = y 0 + λb22 que es otro cambio de coordenadas obtenemos 2

λ2 y 00 + 2b1 x00 = 0 454

donde dividiendo por λ2 obtenemos la ecuaci´on de una par´abola. Si b1 = 0, obtenemos λ2 (y 0 + donde llamando y 00 = y 0 +

b1 λ2

y c0 =

b22 λ2

b2 2 b22 ) − + b0 = 0 λ1 λ2

− b0 se llega a 2

λ2 y 00 = c0 que es la ecuaci´on de dos rectas paralelas si c0 > 0, una recta doble si c0 = 0 y el conjunto vac´ıo si c0 < 0. Si λ1 = λ2 = 0, la matriz que hemos diagonalizado es nula, no siendo entonces la ecuaci´on que nos han dado de segundo grado. Hemos llegado a que si el conjunto de puntos soluciones de una ecuaci´on de segundo grado con dos inc´ognitas es no vac´ıo, constituye una c´onica (no degenerada o degenerada). Las c´onicas se llaman tambi´en curvas de segundo grado.

Invariantes y Clasificaci´on de las C´onicas. Invariantes de las C´ onicas. Dada la ecuaci´on de una curva de segundo grado, podemos realizar los cambios de coordenadas considerados en el p´arrafo anterior para ver de qu´e tipo de c´onica se trata; sin embargo existen ciertos n´ umeros asociados a los coeficientes del polinomio de la curva que quedan invariantes en cualquier cambio de coordenadas que conserva las distancias y que determinan el tipo de curva qu´e es. Se llaman invariantes de las c´onicas y vamos a verlos ahora. Como se vi´o en el cap´ıtulo de los movimientos, dichos cambios de coordenadas son transformaciones ortogonales, traslaciones o composici´on de ambas. Las vamos a estudiar separadamente. Puede suponerse que la ecuaci´on general de la c´onica es a11 x2 + 2a12 xy + a22 y 2 + 2a1 x + 2a2 y + a0 = 0 que se puede escribir de forma matricial: 

  a0 a1 a2 1 (1, x, y)  a1 a11 a12   x  = 0 a2 a12 a22 y 455

llam´andose la matriz que aparece, matriz de la c´onica, que representaremos por A. Los cambios de coordenadas correspondientes a transformaciones ortogonales vienen dados por matrices:      1 1 0 0 1  x  =  0 c11 c12   x0  y 0 c21 c22 y0 donde

 C=

es una matriz ortogonal. Pasando la c´onica a  t  1 0 0 a0 (1, x0 , y 0 )  0 c11 c12   a1 0 c21 c22 a2

c11 c12 c21 c22



la ecuaci´on:    a1 a2 1 0 0 1 a11 a12   0 c11 c12   x0  = 0 a12 a22 0 c21 c22 y0

donde C t = C −1 y |C| = ±1. Se puede observar que el determinante de la matriz producto, que es la matriz de la c´onica en el nuevo sistema de coordenadas coincide con el determinante de la primera matriz asociada a la c´onica. Miremos ahora lo que pasa en un cambio de coordenadas correspondiente a una traslaci´on. En una traslaci´on las coordenadas cambian seg´ un x = c1 + x0 , y = c2 + y 0 , lo cual se puede expresar por      1 1 0 0 1  x  =  c1 1 0   x 0  = 0 y c2 0 1 y0 Pasando la ecuaci´on de la c´onica  1 c1 0 0  (1, x , y ) 0 1 0 0

a ser     c2 a0 a1 a2 1 0 0 1 0   a1 a11 a12   c1 1 0   x0  = 0 1 a2 a12 a22 c2 0 1 y0

donde se ve tambi´en que el determinante de la matriz producto correspondiente a la c´onica despu´es del cambio de coordenadas coincide con el determinante de la matriz primera, ya que el determinante de la matriz de cambio es 1. Podemos concluir que el determinante de la matriz de la c´onica es invariante en cualquier cambio de coordenadas que conserve las distancias. 456

Tambi´en, llamando 

a11 a12 a21 a22

A0 =



se ve que en los cambios anteriores A0 cambia a  t    c11 c12 a11 a12 c11 c12 c21 c22 a21 a22 c21 c22 en un cambio de coordenadas ortogonal en el que C t = C −1 y en un cambio correspondiente a una traslaci´on queda igual. Por esta raz´on, lo mismo que antes,     c11 c12 a11 a12 es invariante. Y al ser |A0 | = det c21 c22 a21 a22 una matriz ortogonal, su inversa y su traspuesta coinciden, por lo que A0 cambia como la matriz de un endomorfismo y es invariante tambi´en su polinomio caracter´ıstico y por tanto su traza: a11 + a22 . Tenemos, pues, tres invariantes: |A|, |A0 |, y traza(A0 ) Al final del proceso de reducci´ on de la ecuaci´on de una c´onica a la ecuaci´on can´onica se divide para obtener la ecuaci´ on can´ onica hallada al principio de las c´ onicas. La divisi´on o multiplicaci´on de los coeficientes por un n´ umero no es un cambio de coordenadas que conserve las distancias y por tanto los invariantes no se conservan en esta u ´ltima etapa, aunque si se conserva su signo si dividimos por n´ umeros positivos.

Clasificaci´ on de las C´ onicas. Con estos resultados y mirando en las ecuaciones can´onicas de la elipse, hip´erbola y par´abola:    −1 0 0 1  1    1, x, y 0 a2 0 x =0 elipse: 1 0 0 b2 y 

hip´erbola:

par´abola:

 −1 0 0  1, x, y  0 a12 0  1 0 0 − b2   0 −2c 0  1, x, y  −2c 0 0  0 0 1 457

 1 x =0 y  1 x  = 0. y

y mirando otra vez la ecuaci´on de las c´onicas, degeneradas y no degeneradas, podemos dada una curva de segundo grado distinguir el tipo de c´onica qu´e es. En las c´onicas no degeneradas y s´olo en ellas, (|A| = 6 0) Entonces, puede ocurrir: |A0 | > 0 en cuyo caso es una elipse si sig|A| = 6 sig|A0 | y el conjunto vac´ıo si sig|A| = sig|A0 |. |A0 | = 0 en cuyo caso es una par´abola. |A0 | < 0 en cuyo caso es una hip´erbola. En las degeneradas, (|A| = 0), la par´abola se reduce a dos rectas paralelas o coincidentes, la elipse se reduce a un punto y la hip´erbola se reduce a dos rectas secantes que tambi´en pueden coincidir. Si |A0 | > 0 es un punto. Si |A0 | = 0 es dos rectas paralelas que podr´ıan coincidir o el conjunto vac´ıo. Si |A0 | < 0 son dos rectas secantes. Ejes de simetr´ıa y centro o v´ ertice de las c´ onicas no degeneradas. Volviendo a mirar las ecuaciones reducidas de las c´onicas, vemos que si P = (p1 , p2 ) es un punto que satisface la ecuaci´on reducida de una elipse o de una hip´erbola, tambi´en los puntos de coordenadas (−p1 , p2 ), (p1 , −p2 ), (−p1 , −p2 ) satisfacen dicha ecuaci´on, por lo que los ejes de las coordenadas x00 e y 00 son ejes de simetr´ıa de dichas curvas y el origen de dichas coordenadas es centro de simetr´ıa. En cuanto a la par´abola, si P = (p1 , p2 ) satisface la ecuaci´on reducida de la par´abola, tambi´en la satisface (p1 , −p2 ), por lo que el eje de las x00 es eje de simetr´ıa de la par´abola, que adem´as tiene su v´ertice en el punto origen del u ´ltimo sistema de coordenadas. Para determinar los ejes de la elipse y de la hip´erbola tenemos en cuenta que para pasar de la ecuaci´on general a la ecuaci´on reducida hemos hecho un cambio de coordenadas dado por una transformaci´on ortogonal y otro cambio dado por una traslaci´on. Como en la traslaci´on no cambian las direcciones de los ejes, la direcci´on de los ejes de las coordenadas x00 e y 00 son las mismas que las de los ejes de coordenadas de x0 e y 0 . Estas coordenadas se hab´ıan obtenido diagonalizando la matriz A0 ; el endomorfismo dado por A0 es el mismo que el dado por la matriz diagonal cuya diagonal est´a formada por los valores propios, coincidiendo sus vectores propios y siendo los vectores propios de A0 , los vectores propios de la matriz diagonal que son los vectores de direcci´on de las nuevas coordenadas, por tanto el eje x0 tiene la direcci´on del vector propio de A0 correspondiente a λ1 y el eje y 0 tiene la direcci´on del vector propio de A0 correspondiente al valor propio λ2 en la elipse y en la hip´erbola. La longitud de los ejes se puede calcular usando los invariantes y se ver´a en los ejercicios.

458

Al hacer esta reducci´ on no siempre el eje x0 es el eje mayor de la elipse o el eje real de la hip´erbola, esto depende de cual de los valores propios sea mayor en la elipse y del signo del t´ermino independiente en la hip´erbola.

Para determinar el centro de simetr´ıa, que es el origen del sistema de coordenadas x00 , y 00 , tenemos en cuenta que tambi´en podemos llegar a este sistema de coordenadas haciendo primero un cambio de coordenadas correspondiente a una traslaci´on de vector determinado por el origen y el centro de simetr´ıa y luego un cambio de coordenadas correspondiente a la transformaci´on ortogonal que cambia la direcci´on de los ejes. Como al final no hay t´erminos lineales en las coordenadas, haciendo el cambio de coordenadas inverso al de la transformaci´on ortogonal, sigue sin haber t´erminos lineales. Pero lo que se obtiene al hacer en la ecuaci´on reducida el cambio inverso a la transformaci´on ortogonal que cambiaba la direcci´on de los ejes es la ecuaci´on resultante de hacer el cambio de coordenadas correspondiente a la traslaci´on del origen al centro de simetr´ıa que por tanto no debe tener t´erminos lineales. Sustituyendo x = x + c1 , y = y + c2 en la ecuaci´on general de las c´onicas, los t´erminos lineales que obtenemos son (2a11 c1 + 2a12 c2 + 2a1 )x, (2a12 c1 + 2a22 c2 + 2a2 )y que tienen que ser nulos, lo cual nos da las ecuaciones que debe satisfacer el centro:  a11 c1 + a12 c2 + a1 = 0 a12 c1 + a22 c2 + a2 = 0 Este sistema de ecuaciones tiene soluci´on u ´nica en la elipse y la hip´erbola porque en ellas |A0 | = 6 0 La ecuaci´on de los ejes de simetr´ıa se obtiene sabiendo que pasan por el centro y que tienen la direcci´on de los vectores propios de A0 . En cuanto a la par´abola, el eje x0 tiene la direcci´on del vector propio que corresponde al valor propio nulo y la tangente en el v´ertice y la directriz tienen la direcci´on del vector propio correspondiente al valor propio no nulo. El v´ertice es el nuevo origen de coordenadas y se obtiene teniendo en cuenta que la tangente en el v´ertice es perpendicular al eje de simetr´ıa que lleva la direcci´on del vector propio de A0 para el valor propio nulo, por tanto paralela a (a11 , a12 ). La pendiente de la tangente a la par´abola en cada punto se puede calcular derivando impl´ıcitamente en la ecuaci´on de la par´abola: si f (x, y) es la ecuaci´on de la par´abola fx (x, y) + fy (x, y)y 0 = 0 nos dice que (fy (x, y), −fx (x, y)) es un vector en la direcci´on de la tangente a la par´abola, que en el v´ertice ha de ser paralelo a (a11 , a12 ), por tanto: −fx (x, y) fy (x, y) = a11 a12

459

Aqu´ı obtenemos una relaci´on entre las coordenadas del v´ertice, que juntamente con la ecuaci´on de la par´abola da dichas coordenadas. La ecuaci´on del eje de simetr´ıa se obtiene sabiendo que pasa por el v´ertice y que tiene la direcci´on del vector propio nulo de A0 . Una vez reducida la ecuaci´on de la par´abola a su forma can´onica podemos calcular c, estando el foco sobre el eje x00 a distancia c del v´ertice. (Tambi´en se puede calcular c usando los invariantes como se ve en los ejercicios). Como hay dos puntos sobre el eje x00 a distancia c del v´ertice decidimos cu´al es considerando la perpendicular al eje de simetr´ıa que pasa por esos puntos; si pasa por el foco interseca a la par´abola en dos puntos y si no pasa por el foco no interseca a la par´abola. Otra manera de distinguir el foco, cuyo fundamento est´a fuera del alcance de este libro es tener en cuenta que la par´abola divide el plano en dos regiones de puntos cuyas coordenadas sustituidas en el polinomio de su ecuaci´on dan el mismo signo en cada regi´on y distinto en distintas regiones. Los puntos distintos del v´ertice de la tangente a la par´abola en dicho punto est´an en distinta regi´on que el foco. C´ alculo del centro de simetr´ıa y de los ejes de simetr´ıa de la elipse del ejemplo 5. El centro debe satisfacer las ecuaciones: 52c1 − 36c2 + 100 = 0 −36c1 + 73c2 − 175 = 0



Resolviendo el sistema se obtiene C = (−2, 11)/5. El eje focal pasa por el centro de simetr´ıa y lleva la direcci´on de las x0 que es la del vector propio correspondiente al valor propio 25: v1 = (4, 3)/5, por tanto sus ecuaciones param´etricas son:       1 −2 4 x +λ = 11 3 y 5 El otro eje de simetr´ıa tambi´en pasa por el centro y es perpendicular a ´este, teniendo, por tanto, de ecuaciones param´etricas       1 −2 x −3 = +λ y 11 4 5 Una forma de comprobar si la direcci´on de los ejes de simetr´ıa est´an bien hallados es tener en cuenta que el eje de la direcci´on de las x0 tiene de ecuaci´on y 0 = 0 y el eje de la direcci´on de y 0 tiene de ecuaci´on x0 = 0 y despejar x0 , y 0 en funci´on de x, y, obteniendo: 460



x0 y0



1 = 5



4 3 −3 4



x y



por lo que y 0 = 0 ≡ −3x + 4y = 0 satisf echa por v1 = (4, 3)/5 an´alogamente x0 = 0 ≡ 4x + 3y = 0 satisf echa por v2 = (−3, 4)/5. Los v´ertices del eje focal est´an en dicho eje a una distancia igual a 2 del centro, obteni´endose (−2, 11)/5 ± 2/5(4, 3). Los otros v´ertices del eje menor est´an en el otro eje a una distancia del centro igual a 1, obteni´endose (−2, 5)/5 ± 1/5(−3, 4)

En este caso sabemos que la medida del semieje mayor es 2 y la del semieje menor es 1 porque hemos reducido previamente la ecuaci´on a su forma can´onica. Sin reducir la ecuaci´on a su forma can´onica, los podemos calcular utilizando los invariantes: cuando la ecuaci´on est´a en la forma λ1 x00 2 + λ2 y 00 2 + c0 = 0 s´olo hemos hecho cambios de coordenadas sin dividir; entonces |A| = λ1 λ2 c0 , siendo c0 = |A|/λ1 λ2 , despu´es pasamos c0 al segundo miembro y dividimos por −c0 , vi´endose√que los cuadrados de los dos semiejes son a2 = −c0 /λ1 y b2 = −c0 /λ2 . Los focos est´an a distancia a2 + b2 del v´ertice sobre el eje de mayor longitud. C´ alculo del centro de simetr´ıa y de los ejes de simetr´ıa de la hip´ erbola del ejemplo 6. El centro debe satisfacer las ecuaciones: 7c1 − 24c2 − 35 = 0 −24c1 − 7c2 − 5 = 0



Resolviendo el sistema se obtiene C = (1, −7)/5. El eje focal pasa por el centro de simetr´ıa y lleva la direcci´on de las x0 que es la del vector propio correspondiente al valor propio 25: v1 = (4, −3)/5, por tanto sus ecuaciones param´etricas son:

461





    1 1 4 = +λ −3 5 −7 El otro eje de simetr´ıa tambi´en pasa por el centro y es perpendicular a ´este, siendo sus ecuaciones:       1 x 1 3 = +λ y 4 5 −7 x y

Los v´ertices de la hip´erbola est´an a distancia igual a 1/5 del centro de simetr´ıa sobre el eje focal y son (1, −7)/5 ± (4, −3)/25. √ 2/5 del centro de simetr´ıa sobre el eje focal Los focos de la hip´erbola est´ a n a distancia igual a √ y son (1, −7)/5 ± (4, −3) 2/25. En este caso sabemos que la medida del semieje real es 1/5 porque hemos reducido previamente la ecuaci´on a su forma can´onica. Lo podemos calcular sin reducir la ecuaci´on a su forma can´onica utilizando los invariantes: cuando la ecuaci´on est´a en la forma λ1 x00 2 + λ2 y 00 2 + c0 = 0 s´olo hemos hecho cambios de coordenadas sin dividir; entonces |A| = λ1 λ2 c0 , siendo c0 = |A|/λ1 λ2 , despu´es pasamos c0 al segundo miembro y dividimos por −c0 , vi´endose que el cuadrado del semieje real es el que sea positivo de los dos n´ umeros −c0 /λ1 y −c0 /λ2 . Los focos est´an a distancia c del v´ertice sobre el eje real C´ alculo del v´ ertice y del eje de simetr´ıa y del foco de la par´ abola del ejemplo 7. El v´ertice es el punto en el que la tangente a la par´abola es perpendicular al eje de simetr´ıa. La direcci´on del eje de simetr´ıa es la del vector propio de la matriz A0 correspondiente al valor propio nulo, por tanto es perpendicular al vector (a11 , a12 ), que entonces ha de ser paralelo a la tangente en el v´ertice. Podemos calcular la pendiente de la tangente a la par´abola en cada punto derivando la ecuaci´on de la par´abola de manera impl´ıcita. En nuestro caso, derivamos en la ecuaci´on: 9x2 − 24xy + 16y 2 + 70x − 10y + 75 = 0 obteniendo (18x − 24y + 70) + (−24x + 32y − 10)y 0 = 0 lo que da −(18x − 24y + 70) −24x + 32y − 10 Un vector que tiene esta pendiente es (−24x + 32y − 10, −(18x − 24y + 70)), que por lo dicho anteriormente ha de ser paralelo a (9, −12), debiendo ser y0 =

462

−24x + 32y − 10 −(18x − 24y + 70) = 9 −12 de donde y = (3x + 5)/4, lo cual sustituido en la ecuaci´on de la par´abola, que debe ser satisfecha por las coordenadas del v´ertice da x = −7/5, de donde y = 1/5 Se puede comprobar que ´estas son las coordenadas del v´ertice porque en la ecuaci´on reducida a la que hab´ıamos llegado el ejemplo 7 con las coordenadas x0 , y 0 el v´ertice era (−1, 1). Haciendo el cambio indicado all´ı de las coordenadas x0 , y 0 a las coordenadas x, y obtenemos la misma soluci´on, lo cual da otro m´etodo par calcular el v´ertice. El eje de simetr´ıa pasa por el v´ertice y tiene direcci´on el vector propio correspondiente al valor propio nulo, es decir, (4, 3), por lo que sus ecuaciones param´etricas son       1 −7 4 x +λ = 1 3 y 5 El foco est´a sobre el eje de simetr´ıa a una distancia del v´ertice igual a c. Para calcular c tenemos en cuenta que para llegar a la ecuaci´on λ2 y 00 2 +2px00 = 0 s´olo hemos hecho cambios de coordenadas por lo que al ser el determinante de la matriz de las c´onicas invariante por cambios de coordenadas se tiene |A| = −λ2 p2 ; luego, para pasar a la ecuaci´on can´onica dividimos por λ2 y pasamos 2px00 al segundo miembro. Comparando con la ecuaci´on can´onica tenemos 4c = −2p/λ2 , o sea c = −p/2λ2 . En este caso, λ2 = 25 por lo que |A| = −253 = −25p2 ⇒ p = 25, de donde c = −25/50 = −1/2. Como el foco est´a a distancia c del v´ertice y sobre el eje de simetr´ıa, es uno de los dos puntos:       1 −7 4 x ±λ = 1 3 y 5 donde kλ(4, 3)k = 1/2, para lo cual ha de ser λ = ±1/10, obteni´endose los dos puntos posibles (−2, 1)/2, (−18, −1)/10. Decidimos cu´al es considerando la perpendicular al eje de simetr´ıa que pasa por esos puntos; si pasa por el foco interseca a la par´abola en dos puntos y si no pasa por el foco no interseca a la par´abola. La perpendicular al eje de simetr´ıa por el punto (−2, 1)/2 tiene la ecuaci´on         1 −2 1 −2 − 6β −3 x = +β = y 1 4 1 + 8β 2 2

463

Sustituyendo un punto gen´erico de esta recta en la ecuaci´on de la par´abola da 625β 2 + 25 = 0, ecuaci´on que no tiene soluci´on en β, lo que quiere decir que esta recta no corta a la par´abola. Entonces el foco es (−18, −1)/10. Al sustituir el punto 21 (−2, −6β, 1 + 8β) = (−1, 1/2) + (−3, 4)β en la ecuaci´on de la par´abola se obtiene       1 0 0 1 1  −1  + 2β(1, −1, )A  −3  + β 2 (0, −3, 4)A  −3  (1, −1, )A 2 2 1 4 4 2 donde A es la matriz de la par´ abola.

Tambi´en podemos distinguir el foco porque sustituidas sus coordenadas en la ecuaci´on de la par´abola tiene que dar un n´ umero de distinto signo del n´ umero obtenido sustituyendo un punto distinto del v´ertice de la tangente a la par´abola en este punto; la tangente es la recta de direcci´on del vector propio para λ2 que pasa por el v´ertice. Un punto distinto del v´ertice de la tangente en el dicho punto a la par´abola es       1 −3 1 −7 −2 + = 1 4 1 5 5 Al sustituir este punto en el polinomio de la ecuaci´on de la par´abola da 25 > 0. Si sustituimos (−2, 1)/2 obtenemos tambi´en 25 > 0, luego el foco es (−18, −1)/10. Ejercicios: 12.2.1. Clasificar las c´onicas dadas por las siguientes ecuaciones: a). 3x2 + 3y 2 − 2xy − 2x − 2y − 7 = 0 b) 41x2 + 24xy + 34y 2 − 58x + 44y + 26 = 0 c) 23x2 + 2y 2 − 72xy − 110x + 20y − 25 = 0 d) 23x2 + 2y 2 + 72xy − 50x − 100y − 25 = 0 e) 2x2 + 23y 2 − 72xy + 68x + 26y + 47 = 0 f) x2 − 6xy + 9y 2 + 4x + 2y − 1 = 0 h) 4x2 + 4xy + y 2 − 6x + 8y − 5 = 0 i) y 2 − 2x2 + xy − 3x − 1 = 0 j) 9x2 − 6xy + y 2 + 3x − y − 2 = 0 k) 4x2 + 4xy + y 2 − 2y − 4x − 6 = 0 l) x2 − 2xy + y 2 − 2x + 4y + 4 = 0 464

m) x2 + 9y 2 − 6xy + 10x − 30y + 25 = 0 n) x2 + y 2 − 2xy + 6x − 6y + 6 = 0 o) 5x2 + 6xy + 5y 2 − 16x − 16y − 5 = 0 12.2.2. Hallar los centros de simetr´ıa y los ejes de simetr´ıa de las c´onicas anteriores que sean elipses o hip´erbolas. 12.2.3. Hallar el v´ertice, el eje de simetr´ıa y el foco de las c´onicas anteriores que sean par´abolas.

Unificamos la elipse, la hip´ erbola y la par´ abola en una definici´ on de lugar geom´ etrico: Son los lugares geom´etricos de los puntos cuya raz´on de distancias a un punto llamado foco y una recta llamada directriz es constante. Si esta raz´on es menor que 1, la c´onica es una elipse. Si la raz´on es mayor que uno la c´onica es una hip´erbola. Si la raz´on es uno, la c´onica es una par´abola. La ecuaci´on de la rectas directrices de la elipse y de la hip´erbola en posici´on can´onica es x = a/e, donde e es la excentricidad, obteni´endose la par´abola en posici´on can´onica cuando e = 1 siendo en ´esta a = −c cuando c es la abscisa del foco en el eje OX. Como en la elipse e < 1, se tiene a/e > a, por lo que la recta directriz de la elipse est´a a la derecha del v´ertice. Por el contrario en la hip´erbola, al ser e > 1, a/e < a, por lo que la recta directriz de la hip´erbola est´a entre el v´ertice y el centro de simetr´ıa. (Hay otras dos directrices sim´etricas a estas respecto al eje de ordenadas debido a la simetr´ıa de las curvas). Comprobaci´on: Hacemos primero la comprobaci´on para la elipse en posici´on can´onica. Si P es un punto de la elipse y (c, 0) el foco, r p x2 d(P, F ) = (x − c)2 + y 2 = (x − c)2 + b2 (1 − 2 ) = a r r b2 b2 = x2 + c2 − 2xc + b2 − 2 x2 = x2 (1 − 2 ) + a2 − 2xc = a a p √ = x2 e2 + a2 − 2xea = (xe − a)2 = |xe − a| Sea d1 la recta de ecuaci´on x = a/e, a 1 1 d(P, d1 ) = |x − | = |xe − a| = d(P, F ) e e e 465

o´ equivalentemente, d(P, F ) =e d(P, d1 ) Ahora lo hacemos para la hip´erbola r p x2 d(P, F ) = (x − c)2 + y 2 = (x − c)2 + b2 ( 2 − 1) = a r r b2 b2 = x2 + c2 − 2xc − b2 + 2 x2 = x2 (1 + 2 ) + a2 − 2xc = a a r p c2 = x2 2 + a2 − 2xea = (xe − a)2 = |xe − a| a Sea d1 la de ecuaci´on x = a/e. a 1 1 d(P, d1 ) = |x − | = |xe − a| = d(P, F ) e e e o´ equivalentemente, d(P, F ) =e d(P, d1 ) En las dos expresiones finales anteriores se ve que cuando e = 1 se obtiene la par´abola. Hemos englobado en la definici´on de lugar geom´etrico las curvas: elipse, hip´erbola y par´abola. Rec´ıprocamente, dada la recta r de ecuaci´on x = k, si queremos una c´onica tal que los puntos P de la c´onica verifiquen d(P, F ) = ed(P, r), podemos considerar los puntos de abscisas k, ke, ke2 del eje OX que verifican d(ke2 , ke) = ed(ke, k) = ed(ke, r)y son distintos si e 6= 1, es decir, el punto del eje OX de abscisa ke2 vale de foco de una c´onica que tiene v´ertice en ke, excentricidad e y r como directriz. Obtengamos su ecuaci´on can´onica: p

(x − ke2 )2 + y 2 = e|x − k| ⇔ x2 + k 2 e4 − 2xke2 + y 2 = e2 (x2 + k 2 − 2xk) ⇔ x2 (1 − e2 ) + y 2 = e2 k 2 − e4 k 2 = e2 k 2 (1 − e2 )

Dividiendo:

466

x2 1 =1 + y2 2 2 2 2 k e e k (1 − e2 ) es la ecuaci´on de una elipse si e < 1 y de una hip´erbola si e > 1. Tambi´en quedan unificadas las tres c´onicas como intersecciones de un cono por un plano, seg´ un que este plano corte a todas las generatrices por el mismo lado respecto al v´ertice del cono, (elipse), sea paralelo a una generatriz, (par´abola), o corte a unas generatrices a un lado del v´ertice y otras generatrices por el otro lado. Pueden verse los dibujos en los libros de E. Hern´andez y S. Xamb´o. Ejercicios: 12.3.1. Calcular las ecuaciones de las directrices de las elipses que aparecen en el ejercicio 12.2.*. 12.3.2. Calcular las ecuaciones de las directrices de las hip´erbolas que aparecen en el ejercicio 12.2.*. 12.3.3. Calcular las ecuaciones de las directrices de las par´abolas que aparecen en el ejercicio 12.2.*. 12.3.4. Calcular la ecuaci´on de una elipse con directriz la recta de ecuaci´on x = 2 y excentricidad 1/2. 12.3.5. Calcular la ecuaci´on de una hip´erbola con directriz la recta de ecuaci´on x = 2 y excentricidad 2. 12.3.6. Calcular la ecuaci´on de la elipse con directriz la recta de ecuaci´on x = 2, foco en (1,0) y excentricidad 1/2. 12.3.7. Calcular la ecuaci´on de la hip´erbola con directriz la recta de ecuaci´on x = 2, foco en (4,0) y excentricidad 2.

BIBLIOGRAFIA L. I. Golovina. Algebra Lineal y algunas de sus aplicaciones. Ed. Mir 1980. E. Hern´andez. Algebra y Geometr´ıa. Ed. Addison-Wesley iberoamericana, S. A. 1994. S. Xamb´o Deschamps. Geometr´ıa. Ediciones UPC,1997.

467

468

Cu´adricas Introducci´ on. En este cap´ıtulo se estudian las superficies de segundo grado, es decir, las superficies que son conjuntos de soluciones de una ecuaci´on de segundo grado en las variables x, y, z. El estudio es similar al de las c´onicas, encontr´andose muchos m´as casos. En su clasificaci´on influyen no s´olo los invariantes de las matrices sim´etricas asociadas a las ecuaciones sino el rango de ´estas. Los ejes y planos de simetr´ıa de las cu´adricas no degeneradas se determinan de manera an´aloga a c´omo se determinan en las c´onicas no degeneradas. A continuci´on se enuncian las ecuaciones reducidas de las cu´adricas, y luego los correspondientes dibujos. Se puede comprobar la correspondencia estudiando las secciones de cada cu´adrica con planos paralelos a los ejes. Elipsoide:

x2 a2

2

2

+ yb2 + zc2 = 1.

Hiperboloide el´ıptico o de una hoja:

x2 a2

Hiperboloide hiperb´olico o de dos hojas: Cono:

x2 a2

2

2

2

2

+ yb2 − zc2 = 1. x2 a2

2

+ yb2 − zc2 = 0.

Paraboloide el´ıptico:

x2 a2

Paraboloide hiperb´olico: Cilindro el´ıptico:

x2 a2

+

2

+ yb2 − 2pz = 0.

y2 x2 − a2 b2 y2 = 1. b2

− 2pz = 0.

x2 − 2py = 0. a2 2 y2 x Cilindro hiperb´olico: 2 − 2 = 1. a b y2 x2 Par de planos que se cortan: 2 − 2 = a b x2 Par de panos paralelos: 2 = 1. a x2 Par de planos coincidentes: 2 = 0. a

2

− yb2 − zc2 = 1.

Cilindro parab´olico:

0.

469

470

471

Estudio general de la superficie de segundo grado. La expresi´on general de una de tales superficies es a11 x2 + 2a12 xy + a22 y 2 + 2a13 xz + 2a23 yz + a33 z 2 + 2a1 x + 2a2 y + 2a3 z + a0 = 0 Vamos a simplificar progresivamente todo lo posible esta ecuaci´on mediante cambios de coordenadas que conservan las distancias, (por tanto las formas), lo cual nos va a permitir visualizar qu´e tipo de superficie es cada una de las obtenidas. La forma cuadr´atica a11 x2 + 2a12 xy + a22 y 2 + 2a13 xz + 2a23 yz + a33 z 2 se puede expresar matricialmente    x a11 a12 a13    y  (x, y, z) a12 a22 a23 z a13 a23 a33 con una matriz sim´etrica que se puede diagonalizar por una matriz ortogonal utilizando los valores propios y los vectores propios. Mediante un cambio de coordenadas ortogonal  0     x v11 v21 v31 x  y  =  v12 v22 v32   y 0  z0 z v13 v23 v33 dado por los vectores propios normalizados, la parte cuadr´atica pasa a  0   x λ1 0 0 0 0 0    y0  0 λ2 0 (x , y , z ) z0 0 0 λ3 En ese cambio, los coeficientes de x, de y y de z tambi´en var´ıan en el polinomio dado por la transformaci´on ortogonal considerada, pasando el polinomio completo a ser de la forma: 2

2

2

λ1 x0 + λ2 y 0 + λ3 z 0 + 2b1 x0 + 2b2 y 0 + 2b3 z 0 + b0 = 0 Ahora distinguimos tres casos con distintos subcasos: a) Si los tres valores propios son distintos de cero, b) Si s´olo un valor propio es cero. c) Si dos valores propios son cero. 472

Los tres valores propios no pueden ser cero porque entonces ser´ıa cero la forma cuadr´atica y el polinomio dado no ser´ıa de segundo grado. Estudiemos el caso a) En este caso podemos agrupar los t´erminos en x0 , los t´erminos en y 0 y los t´erminos en z 0 dando 2

2

2

2

λ1 x0 +2b1 x0 +λ2 y 0 +2b2 y 0 +λ3 z 0 +2b3 z 0 +b0 = λ1 (x0 +2

= λ1 (x0 +

b1 0 b2 b3 2 2 x )+λ2 (y 0 +2 y 0 )+λ3 (z 0 +2 z 0 )+b0 = λ1 λ2 λ3

b1 2 b1 b3 b2 b2 b2 ) + λ2 (y 0 + )2 + λ3 (z 0 + )2 + b0 − 1 − 2 − 3 = 0 λ1 λ1 λ3 λ1 λ2 λ3

Mediante otro cambio de coordenadas x00 = x0 + λb22 , y 00 = y 0 + λb22 , z 00 = z 0 + una traslaci´on y llamando co al t´ermino independiente, si c0 6= 0, pasamos a x00 2 −c0 λ1

+

y 00 2 −c0 λ2

+

z 00 2 −c0 λ3

b3 λ3

correspondiente a

=1

que es la ecuaci´on de un elipsoide si λ1 , λ2 , λ3 son del mismo signo, distinto del de c0 , es el conjunto vac´ıo si λ1 , λ2 , λ3 y c0 son del mismo signo. Si c0 = 0 y λ1 , λ2 , λ3 son del mismo signo es un s´olo punto. Si λ3 es de signo distinto de λ1 , λ2 siendo ´estos del mismo signo, tenemos la ecuaci´on de un cono si c0 = 0 y de un hiperboloide si c0 6= 0; hay dos tipos de hiperboloides: suponiendo c0 > 0, lo cual siempre se puede conseguir cambiando el signo de la ecuaci´on si es necesario, pueden quedar dos de los cuadrados de coordenadas con coeficiente positivo, en cuyo caso se trata de un hiperboloide hip´erb´olico o dos de los cuadrados de las coordenadas con coeficiente negativo, en cuyo caso se trata de un hiperboloide el´ıptico. Pasamos ahora al caso b): Suponiendo que λ3 = 0, λ1 = 6 0, λ2 6= 0, la parte cuadr´atica de la ecuaci´on pasa a ser por la diagonalizaci´on correspondiente a una transformaci´on ortogonal a: 2

λ 1 x0 + λ 2 y 0

2

y la ecuaci´on completa pasa a: 2

2

λ1 x0 + λ2 y 0 + 2b1 x0 + 2b2 y 0 + 2b3 z 0 + b0 = 0

473

que podemos transformar en b2

b0 − λ11 − b2 2 b21 b22 b1 2 b2 2 b1 2 0 0 0 0 0 0 λ1 (x + ) +λ2 (y + ) − − +2b3 z +b0 = λ1 (x + ) +λ2 (y + ) +2b3 (z + λ1 λ2 λ1 λ2 λ1 λ2 b3 00

b1 , λ1

0

00

b2 , λ2

0

00

0

y =y + z =z + si b3 6= 0. Aqu´ı llamando x = x + coordenadas correspondiente a una traslaci´on obtenemos:

b2

b2

1 b3

2

b0 − λ1 − λ2

b22 λ2

)=0

, que es un cambio de

2

2

λ1 x00 + λ2 y 00 + 2b3 z 00 = 0 ecuaci´on de un paraboloide el´ıptico si λ1 y λ2 son del mismo signo y de un paraboloide hiperb´olico si son de distinto signo. Si en los pasos anteriores sale b3 = 0 no eliminamos el t´ermino independiente b0 en un cambio de coordenadas de traslaci´on, quedando la ecuaci´on de la forma λ1 x donde llamando c0 = b0 −

b21 λ1



b22 λ2

00 2

+ λ2 y

00 2

b21 b22 + b0 − − =0 λ1 λ2

tenemos 2

2

λ1 x00 + λ2 y 00 + c0 = 0 Aqu´ı tenemos distintos subcasos: Cuando c0 6= 0, es el conjunto vac´ıo si λ1 , λ2 y c0 son del mismo signo; es un cilindro el´ıptico si λ1 y λ2 son del mismo signo, siendo ´este distinto del signo de c0 y un cilindro hiperb´olico si λ1 y λ2 son de distinto signo. Cuando c0 = 0, es un punto si λ1 , λ2 son del mismo signo y y un par de planos secantes si λ1 y λ2 son de distinto signo. Pasamos al caso c) Supongamos que λ2 = 0 = λ3 , λ1 6= 0; la parte cuadr´atica de la ecuaci´on pasa a λ1 x0 2 . Agrupando los t´erminos en x0 en la ecuaci´on completa tenemos λ1 (x0 +

b1 2 b1 2 ) + 2b2 y 0 + 2b3 z 0 + b0 − =0 λ1 λ1

Si b2 = 0 = b3 , llamando x00 = x0 +

b1 λ1

y c 0 = b0 − 2

b1 2 λ1

se obtiene

λ1 x00 + c0 = 0 474

que es la ecuaci´on de dos planos paralelos si λ1 y c0 son de distinto signo, dos planos coincidentes si c0 = 0 y el conjunto vac´ıo si λ1 y c0 son del mismo signo. Si b2 6= 0 ´o b3 6= 0, podemos anular el t´ermino independiente, englob´andolo en la inc´ognita con 2 coeficiente distinto de cero. Suponiendo que b2 6= 0, y llamando c0 = b0 − bλ11 escribimos λ1 (x0 + Ahora llamando x00 = x0 +

b1 , λ1

b1 2 c0 ) + 2b2 (y 0 + ) + 2b3 z 0 = 0 λ1 b2

y 00 = y 0 +

c0 b2

z 00 = z 0 tenemos

2

λ1 x00 + 2b2 y 00 + 2b3 z 00 = 0 donde si b3 = 0 tenemos la ecuaci´on de un cilindro parab´olico. Si b3 6= 0 haciendo el cambio de coordenadas ortogonal  00     000  1 y b2 −b3 y =p 2 , x000 = x00 000 2 z 00 b b z 3 2 b2 + b3 obtenemos

√ 2 2 λ1 x000 + 2 a2 + b2 y 000 = 0 ≡ λ1 x000 + 2py 000 = 0

que es un cilindro parab´olico. Hemos concluido el estudio progresivo de todas las superficies de segundo grado que pueden aparecer.

475

Invariantes de las Cu´ adricas. Dada la ecuaci´on de una superficie de segundo grado, podemos realizar los cambios de coordenadas considerados en el p´arrafo anterior para ver de qu´e tipo de cu´adrica se trata; sin embargo existen ciertos n´ umeros asociados a la matriz de coeficientes de la ecuaci´on de la curva que quedan invariantes en cualquier cambio de coordenadas que conserva las distancias y que determinan el tipo de superficie qu´e es. Se llaman invariantes de las cu´adricas y vamos a verlos ahora. Como se vi´o en el cap´ıtulo de los movimientos, dichos cambios de coordenadas son transformaciones ortogonales, traslaciones o composici´on de ambas. Las vamos a estudiar separadamente. Puede suponerse que la ecuaci´on general de la cu´adrica es a11 x2 + 2a12 xy + a22 y 2 + 2a13 xz + 2a23 yz + a33 z 2 + 2a1 x + 2a2 y + 2a3 z + a0 = 0 que se puede escribir de forma matricial: 

 a0 a1 a2 a3 1  a1 a11 a12 a13   x  (1, x, y, z)   a2 a12 a22 a23   y a3 a13 a23 a33 z

   

llam´andose la matriz sim´etrica que aparece, matriz de la cu´adrica, que representaremos por A. Los cambios de coordenadas correspondientes a transformaciones ortogonales vienen dados por matrices:        1 1 0 0 0 1 1    x   0 c11 c12 c13   x0   0   =   0  = 1 0  x0   y   0 c21 c22 c23   y  0 C  y  z 0 c31 c32 c33 z0 z0 donde C es una matriz ortogonal que verifica C t de la cu´adrica por uno de estos cambios a: t   1 0 0 0 a0 a1    0 c11 c12 c13   a1 a11 (1, x0 , y 0 , z 0 )   0 c21 c22 c23   a2 a12 0 c31 c32 c33 a3 a13

= C −1 y por tanto |C| = ±1. Pasando la ecuaci´on  a2 a3 1 0 0 0   a12 a13   0 c11 c12 c13 a22 a23   0 c21 c22 c23 a23 a33 0 c31 c32 c33



 1   x0   0  = 0  y  z0

Se puede observar que el determinante de la matriz producto, que es la matriz de la cu´adrica en el nuevo sistema de coordenadas coincide con el determinante de la primera matriz asociada a la cu´adrica. 476

Miremos ahora lo que pasa en un cambio de coordenadas correspondiente a una traslaci´on. En una traslaci´on las coordenadas cambian seg´ un x = c1 + x0 , y = c2 + y 0 , z = c3 + z 0 , lo cual se puede expresar por      1 1 0 0 0 1  x   c1 1 0 0   x 0    =   y   c2 0 1 0   y 0  = 0 z0 z c3 0 0 1 Pasando la ecuaci´on de la cu´adrica a ser 

 1 c1 c2 c3 a0 a1 a2 a3    0 1 0 0   a1 a11 a12 a13 (1, x0 , y 0 , z 0 )   0 0 1 0   a2 a12 a22 a23 a3 a13 a23 a33 0 0 0 1



1   c1    c2 c3

0 1 0 0

0 0 1 0

 0 1   0   x0 0   y0 z0 1

  =0 

donde se ve tambi´en que el determinante de la matriz producto correspondiente a la cu´adrica despu´es del cambio de coordenadas coincide con el determinante de la matriz primera, ya que el determinante de la matriz de cambio es 1. Podemos concluir que el determinante de la matriz de la cu´adrica es invariante en cualquier cambio de coordenadas que conserve las distancias. Tambi´en, llamando 

 a11 a12 a13 A0 =  a12 a22 a23  a13 a23 a33 se ve que en los cambios correspondientes  t  c11 c12 c13 a11  c21 c22 c23   a12 c31 c32 c33 a13

a un cambio de coordenadas ortogonal cambia a   a12 a13 c11 c12 c13 a22 a23   c21 c22 c23  = C t A0 C a23 a33 c31 c32 c33

siendo C t = C −1 y en un cambio correspondiente a una traslaci´on queda igual. Por esta raz´on, lo mismo que antes, |A0 | es invariante. Y al ser C una matriz ortogonal, su inversa y su traspuesta coinciden, por lo que A0 cambia como la matriz de un endomorfismo y es invariante tambi´en su polinomio caracter´ıstico y por tanto los coeficientes del polinomio caracter´ıstico: su traza:

477

a11 + a22 + a33 y el n´ umero α = α11 + α22 + α33 , donde αii es el menor diagonal adjunto de aii en la matriz A0 . Tenemos, pues, cuatro invariantes: |A|, |A0 |, α y traza(A0 ) Adem´as como se vi´o en el cap´ıtulo de formas cuadr´aticas, el rango de la matriz sim´etrica de una forma cuadr´atica es invariante por un cambio de coordenadas, por lo que tambi´en son invariantes el rango de A y el rango de A0 . Clasificaci´ on de las cu´ adricas. Repasando los distintos casos que hemos encontrado en el estudio general de las superficies de segundo grado y las ecuaciones reducidas a las que hemos llegado, teniendo en mente los invariantes que hemos hallado podemos hacer una clasificaci´on de las cu´adricas. En el caso a) cuando los tres valores propios son distintos de cero, se tiene |A0 | = 6 0; en este caso, si adem´as c0 = 0, lo cual es equivalente a que |A| = 0, tenemos un punto si los tres valores propios son del mismo signo y un cono si no lo son; si c0 6= 0, lo cual es equivalente a que |A| 6= 0 tenemos un elipsoide si todos los valores propios son del mismo signo, distinto del de c0 , es decir, si todos los valores propios son del mismo signo, siendo sig|A0 | 6= sig|A| pero si los valores propios son del mismo signo, siendo sig|A0 | = sig|A|, tenemos el conjunto vac´ıo. Si c0 6= 0 y no son todos los valores propios del mismo signo tenemos un hiperboloide, teniendo en el el´ıptico |A| > 0 y en el hiperb´olico |A| < 0. En el caso b), cuando hay un s´olo valor propio igual a cero, |A0 | = 0 y α 6= 0 y se tiene un paraboloide si |A| = 6 0, este paraboloide es el´ıptico si α > 0 y es hiperb´olico si α < 0. Si |A0 | = 0, α 6= 0 y |A| = 0, se tienen cilindros si r(A) = 3, el´ıpticos si los dos valores propios son del mismo signo: α > 0 y el signo de los valores propios distintos de cero es distinto del signo de c0 , pero se obtiene el conjunto vac´ıo si α > 0 y el signo de los valores propios distintos de cero es igual al signo de c0 ; se tienen cilindros hiperb´olicos si los dos valores propios son de distinto signo: α0 En el caso c), cuando hay dos valores propios iguales a cero, |A0 | = 0 y α = 0, encontr´andose cilindros parab´olicos si r(A) = 3, pares de planos paralelos si r(A) = 2 y el signo del valor propio distinto de cero es distinto del signo de c0 , el conjunto vac´ıo si r(A) = 2 y el signo del valor propio distinto de cero es igual al signo de c0 , y planos coincidentes si r(A) = 1.

478

Clasificaci´on de las Cu´adricas. 1. |A0 | = 6 0   elipsoide si sig|A| = 6 sig|A0 |.    sigλ1 = sigλ2 = sigλ3 ´ conjunto vac  io si sig|A| = sig|A0 |. |A| = 6 0 el´ıptico si sig|A| = sig|A0 |    sigλ1 = sigλ2 6= sigλ3 hiperboloide hiperb´ olico si sig|A| = 6 sig|A0 |  |A| = 0

sigλ1 = sigλ2 6= sigλ3 cono. sigλ1 = sigλ2 = sigλ3 un punto

2.|A0 | = 0  |A| = 6 0 es un paraboloide    α>0        α 0 hiperb´ olico si α < 0



cilindro el´ıptico o´ ∅ si r(A) = 3 si r(A) = 2  una recta cilindro hiperb´ olico si r(A) = 3 par de planos secantes si r(A) = 2  olico si r(A) = 3  cilindro parab´ par de planos paralelos o´ ∅ si r(A) = 2  par de planos coincidentes si r(A) = 1

Se llaman cu´adricas no degeneradas aqu´ ullas en que |A| = 6 0. Ejes de simetr´ıa y centro de las cu´ adricas no degeneradas. Volviendo a mirar las ecuaciones reducidas de las cu´adricas, vemos que si P = (p1 , p2 , p3 ) es un punto que satisface la ecuaci´on reducida de un elipsoide o de un hiperboloide, tambi´en los puntos obtenidos cambiando el signo de algunas de las coordenadas satisfacen dicha ecuaci´on, por lo que los planos coordenados x00 = 0, y 00 = 0, z 00 = 0 son planos de simetr´ıa de dichas superficies, los ejes de las coordenadas x00 , y 00 , z 00 son ejes de simetr´ıa y el origen de dichas coordenadas es centro de simetr´ıa. Para determinar los ejes del elipsoide y del hiperboloide tenemos en cuenta que para pasar de la ecuaci´on general a la ecuaci´on reducida hemos hecho un cambio de coordenadas dado por una 479

transformaci´on ortogonal, cuyos nuevos ejes hemos llamado x0 , y 0 z 0 y otro cambio dado por una traslaci´on, llegando a los ejes x00 , y 00 , z 00 . Como en la traslaci´on no cambian las direcciones de los ejes, la direcci´on de los ejes de las coordenadas x00 , y 00 , z 00 son las mismas que las de los ejes de coordenadas de x0 , y 0 z 0 . Estas coordenadas se hab´ıan obtenido diagonalizando la matriz A0 ; el endomorfismo dado por A0 es el mismo que el dado por la matriz diagonal cuya diagonal est´a formada por los valores propios, coincidiendo sus vectores propios y siendo los vectores propios de A0 , los vectores propios de la matriz diagonal, que son los vectores de direcci´on de las nuevas coordenadas, por tanto el eje x0 tiene la direcci´on del vector propio correspondiente a λ1 , el eje y 0 tiene la direcci´on del vector propio correspondiente al valor propio λ2 y el eje z 0 tiene la direcci´on del vector propio correspondiente al valor propio λ3 en el elipsoide y en el hiperboloide. Por otra parte, se determinan las direcciones de los planos de simetr´ıa de estas superficies teniendo en cuenta que son perpendiculares a los vectores propios. Para determinar el centro de simetr´ıa, que es el origen del sistema de coordenadas x00 , y 00 , z 00 , tenemos en cuenta que tambi´en podemos llegar a este sistema de coordenadas haciendo primero un cambio de coordenadas correspondiente a una traslaci´on de vector determinado por el origen y el centro de simetr´ıa y luego un cambio de coordenadas correspondiente a la transformaci´on ortogonal que cambia la direcci´on de los ejes. Como al final no hay t´erminos lineales en las coordenadas, haciendo el cambio de coordenadas inverso al de la transformaci´on ortogonal en la ecuaci´on reducida, deben desaparecer los t´erminos lineales. Pero lo que se obtiene al hacer en la ecuaci´on reducida el cambio inverso a la transformaci´on ortogonal que cambiaba la direcci´on de los ejes es la ecuaci´on resultante de hacer el cambio de coordenadas correspondiente a la traslaci´on del origen al centro de simetr´ıa que por tanto no debe tener t´erminos lineales. Sustituyendo x = x + c1 , y = y + c2 , z = z + c3 en la ecuaci´on general de las cu´adricas, los t´erminos lineales que obtenemos son (2a11 c1 + 2a12 c2 + 2a13 c3 + 2a1 )x,

(2a12 c1 + 2a22 c2 + 2a23 + 2a2 )y,

(2a13 c1 + 2a23 c2 + 2a33 + 2a3 )z

que tienen que ser nulos, lo cual nos da las ecuaciones que debe satisfacer el centro:  a11 c1 + a12 c2 + a13 c3 + a1 = 0  a12 c1 + a22 c2 + a23 c3 + a2 = 0  a13 c1 + a23 c2 + a33 c3 + a3 = 0 Este sistema de ecuaciones tiene soluci´on u ´nica en el elipsoide y en el hiperboloide porque en ellas |A0 | = 6 0 Los ejes de simetr´ıa son las rectas que pasan por el centro y tienen la direcci´on de los vectores propios y los planos de simetr´ıa son los planos que pasan por el centro y son perpendiculares a dichos vectores propios. 480

En cuanto a los paraboloides, que tambi´en son cu´adricas no degeneradas, podemos decir que tienen dos planos de simetr´ıa perpendiculares a los vectores propios correspondientes a los valores propios no nulos y un eje de simetr´ıa que es la intersecci´on de ambos, que lleva la direcci´on del vector propio correspondiente al valor propio nulo. Tanto planos como eje de simetr´ıa pasan por el v´ertice del paraboloide, que se puede encontrar como sigue: El plano tangente en el v´ertice es perpendicular al vector propio correspondiente al valor propio nulo. Por otra parte, el plano tangente en cada punto est´a engendrado por los vectores tangentes a las curvas de intersecci´on del paraboloide con cada uno de los planos coordenados xOz y yOz. dz = 0, Derivando y llamando f (x, y, z) = 0 a la ecuaci´on de la cu´adrica se obtienen fx + fz dx dz fy + fz dy = 0, que nos dicen que los vectores (−fz , 0, fx ), (0, −fz , fy ) son vectores tangentes a las curvas descritas anteriomente y por tanto han de ser perpendiculares al vector propio correspondiente al valor propio nulo, que por otra parte es la soluci´on no trivial del sistema  a11 v31 + a12 v32 + a13 v33 = 0  a12 v31 + a22 v32 + a23 v33 = 0  a31 v31 + a32 v32 + a33 v33 = 0 y que puede expresarse por el producto vectorial de dos vectores no proporcionales de los vectores filas de coeficientes del sistema, pudiendo suponer que son las dos primeras. Entonces v3 = (a11 , a12 , a13 ) × (a12 , a22 , a23 ) y expresando que el producto escalar de v3 por (−fz , 0, fx ) y (0, −fz , fy ) es nulo obtenemos dos ecuaciones que unidas a la ecuaci´on del paraboloide son tres ecuaciones que determinan el v´ertice del paraboloide. Ejercicios. 13. 1. 1. Hallar la ecuaci´on reducida y el tipo de las cu´adricas dadas por las siguientes ecuaciones: 1. 45x2 + 54y 2 + 63z 2 − 36xy + 36yz − 24x − 24y + 6z + 1 = 0. 2. 45x2 + 99y 2 + 18z 2 + 144xy − 180xz + 36yz − 36x + 72y + 72z + 1 = 0. 3. 45x2 + 99y 2 + 18z 2 + 144xy − 180xz + 36yz + 72x − 36y + 72z + 1 = 0. 4. −3y 2 + 3z 2 − 12xy + 12xz − 2x + 4y + 4z + 2 = 0. 5. 36x2 + 18y 2 + 27z 2 + 36xz + 36yz − 22x + 28y + 8z = 0. 6. 36x2 + 18y 2 + 27z 2 + 36xz − 36yz + 2x + 34y − 40z = 0. 7. x2 − y 2 + z 2 + 2xz − 2y + 1 = 0. 8. x2 + y 2 + z 2 − 2xy + 2xz − 2yz + 4x + 2y + 4z + 2 = 0. 9. x2 + y 2 + z 2 − 2xy + 2xz − 2yz + 4x − 4y + 4z + 2 = 0. 10.x2 − y 2 + z 2 + 2xz − 2y − 1 = 0. 11. x2 + y 2 + z 2 − 2xy + 2xz − 2yz − 1 = 0.

481

12. x2 + y 2 + z 2 + 2xz − 1 = 0. 13. x2 + y 2 + z 2 + 2xz + 4 = 0. 14. x2 + y 2 + z 2 + 2xz − 2y + 1 = 0. Otros invariantes de las cu´ adricas degeneradas. Para distinguir los cilindros el´ıpticos del conjunto vac´ıo cuando |A| = |A0 | = 0, α > 0, r(A) = 3, sirve otro invariante de los cilindros: A11 + A22 + A33 , donde A es la matriz completa del cilindro y Aii es el adjunto del elemento aii en A. Llamando

 B=

1 0 0 C



en un cambio de coordenadas ortogonal la matriz A cambia a B t AB donde B t = B −1 . De existir A−1 tambi´en cambiar´ıa de la misma manera por ser B ortogonal y tambi´en lo har´ıa la matriz adjunta de A: adj(A) = |A|A−1 , siendo por lo tanto invariante su polinomio caracter´ıstico. En los cilindros no existe A−1 , porque |A| = 0 pero podemos considerar la matriz polinomial A(γ) = A + γI cuyo determinante es un polinomio no nulo, y por tanto tiene inversa. Tanto A(γ) como su adjunta var´ıan de la misma forma en un cambio de coordenadas ortogonal, siendo por ello invariante su traza: A0 (γ) + A11 (γ) + A22 (γ) + A33 (γ). Haciendo γ = 0, y debido a que en un cilindro |A0 | = 0, obtenemos que A0 + A11 + A22 + A33 = A11 + A22 + A33 es invariante en un cambio de coordenadas ortogonal. Veamos que A11 + A22 + A33 es tambi´en invariante para los cilindros en una traslaci´on: En la forma reducida de los cilindros se tiene A01 = A02 = A03 = 0. Cualquier traslaci´on se puede descomponer en dos traslaciones a trav´es del origen de coordenadas de la forma reducida, por eso es suficiente comprobar que A11 + A22 + A33 es invariante en una traslaci´on desde el origen de coordenadas de la forma reducida al origen de coordenadas de la forma dada. La adjunta de la forma reducida cambia en una traslaci´on seg´ un     1 c1 c2 c3 0 0 0 0 1 0 0 0  0 1 0 0   0 A11 A12 A13   c1 1 0 0       0 0 1 0   0 A12 A22 A23   c2 0 1 0  0 0 0 1 0 A13 A23 A33 c3 0 0 1 cuya matriz producto tiene la caja inferior derecha 3 × 3 igual a la de la matriz adj(A), siendo por tanto invariante A11 + A22 + A33 en cada traslaci´on de este tipo.

482

Con lo cual queda demostrada la existencia de este invariante en los cilindros. Tambi´en servir´ıa para los pares de planos por el mismo razonamiento, pero en los pares de planos es cero. En el cilindro el´ıptico, este invariante es de distinto signo que los valores propios mientras que si es del mismo signo obtenemos el conjunto vac´ıo.

Ahora vamos a ver otro invariante en los pares de planos que nos permite distinguir los pares de planos paralelos de los coincidentes y del conjunto vac´ıo cuando |A| = |A0 | = α = 0 y r(A) = 2. Se trata de a00 a01 a01 a11

a00 a02 + a02 a22

a00 a03 + a03 a33



Debido a que en un par de planos el rango de la matriz A0 es 1, el t´ermino anterior es el coeficiente de λ2 en el polinomio caracter´ıstico de la matriz A, que queda invariante en una transformaci´on ortogonal. Por otra parte en una traslaci´on desde el sistema de ejes en que la cu´adrica tiene la matriz reducida, ´esta cambia seg´ un 

1  0   0 0

 c1 c2 c3 a00 0   1 0 0   0 λ1 0 1 0  0 0 0 0 1 0 0

0 0 0 0

 0 1   0   c1 0   c2 0 c3

0 1 0 0

0 0 1 0

  0 a00 + λ1 c21 c1 λ1  0  c1 λ1 λ1 = 0   0 0 1 0 0

0 0 0 0

 0 0   0  0

donde a00 + λ1 c21 c1 λ1 c1 λ 1 λ1

a00 0 = c1 λ1 λ1

a00 0 = 0 λ1



ha quedado igual. Como toda traslaci´on puede descomponerse en dos traslaciones que pasen por el origen de coordenadas de la ecuaci´on reducida, llegamos a la conclusi´on de que queda igual en cualquier traslaci´on y lo mismo ocurre para los otros menores. Con lo que tenemos demostrada la invariancia del n´ umero anterior en los pares de planos. Entonces podemos afirmar que si ´este n´ umero es cero, se trata de dos planos coincidentes, si ´este n´ umero es de distinto signo que el valor propio distinto de cero de A0 , se trata de dos planos paralelos y si este n´ umero es del mismo signo que el valor propio distinto de cero, se trata del conjunto vac´ıo. 483

Como hemos visto, para la clasificaci´on de las cu´adricas interesa conocer cu´antos valores propios positivos tiene la matriz de una cu´adrica sin tener que resolver la ecuaci´on caracter´ıstica. Para ello vemos ahora la Ley de los signos de Descartes: Si se sabe que las raices de un polinomio son todas reales, el n´ umero de raices positivas que tiene el polinomio es igual al n´ umero de cambios de signo que hay en la sucesi´on de n´ umeros formada por los coeficientes de los monomios del polinomio ordenados seg´ un su potencia. Se puede suponer que el coeficiente del monomio de mayor grado es positivo, cambi´andolo de signo si es necesario, lo cual no afecta al signo de las raices. La demostraci´on se hace por inducci´on sobre el grado del polinomio. Si el polinomio es de grado 1, la soluci´on es positiva si el t´ermino independiente es negativo; entonces, hay tantas soluciones positivas como cambios de signo en la sucesi´on de coeficientes del polinomio, cumpli´endose por tanto la ley de los signos en polinomios de grado 1. Para hacer la inducci´on al caso de un polinomio de grado n a partir del caso de un polinomio de grado n − 1: an xn + . . . + a1 x + a0 hacemos las siguientes consideraciones: Dejando de considerar las raices nulas podemos suponer que el t´ermino independiente del polinomio es distinto de cero. Por otra parte, si factorizamos el polinomio con el coeficiente de mayor grado positivo en factores lineales, vemos que el t´ermino independiente es del signo (−1)p , donde p es el n´ umero de raices positivas. Si a1 y a0 son del mismo signo, la paridad del n´ umero de raices positivas del polinomio es igual a la paridad del n´ umero de raices positivas de la derivada y si a1 y a0 son de distinto signo, la paridad del n´ umero de raices positivas del polinomio es distinta de la paridad del n´ umero de raices positivas de su derivada. Por el teorema de Rolle, si un polinomio tiene n raices reales, su polinomio derivada tiene al menos n − 1 raices reales. Si sabemos que el polinomio tiene tantas raices reales como su grado, el polinomio derivada tiene tambi´en tantas raices reales como su grado, es decir, n − 1, porque no puede tener m´as por el teorema fundamental del a´lgebra. Las raices reales de dicho polinomio y de su derivada est´an intercaladas, determinando intervalos en la recta real. Si el cero est´a a la derecha todos estos intervalos son todas las raices negativas, si el cero est´a a la izquierda de todos los intervalos son todas las raices positivas habiendo por tanto dos 484

casos una raiz positiva m´as para el polinomio que para su derivada. Si el cero est´a en un intervalo que tiene a la izquierda una raiz del polinomio o coincide con ella y a la derecha una raiz de la derivada, hay el mismo n´ umero de raices positivas en el polinomio que en la derivada mientras que si el cero est´a en un intervalo que tiene a la izquierda una raiz de la derivada o coincide con ella y a la derecha una raiz del polinomio hay una raiz positiva m´as para el polinomio que para la derivada (h´agase el dibujo). En cualquier caso, el n´ umero de raices positivas del polinomio y de la derivada, o coinciden o se diferencian en una unidad. Coincidir´an si tienen la misma paridad, que es cuando a1 y a0 son del mismo signo, en cuyo caso, el n´ umero de raices positivas del polinomio es igual al n´ umero de raices positivas de la derivada, igual al n´ umero de cambios de signo en la sucesi´on de coeficientes de los monomios de la derivada, (suponiendo la ley de los signos cierta para los polinomios de grado n − 1), que es igual, en este caso, al n´ umero de cambios de signo de la misma sucesi´on en el polinomio; cuando a1 y a0 son de distinto signo el n´ umero de raices positivas del polinomio y el n´ umero de raices positivas de la derivada son de distinta paridad, siendo, por tanto uno m´as en el polinomio, siendo entonces igual al cambio de signos en la sucesi´on de coeficientes de los monomios de la derivada m´as uno, que coincide con el n´ umero de cambios de signo en la sucesi´on de coeficientes de los monomios del polinomio. Podr´ıa suceder que a0 6= 0 y a1 = 0, entonces el mismo razonamiento se har´ıa con el primer ak 6= 0, no cont´andose los ceros de la sucesi´on de coeficientes en los cambios de signo de dicha sucesi´on. Recordemos el teorema de Rolle: Si f es una funci´on continua en un intervalo cerrado y diferenciable en su interior, coincidendo su valor en los dos extremos del intervalo, existe un punto del interior del intervalo en el que su derivada se anula. Demostraci´on: Si la funci´on es constante, su derivada en todo el intervalo es nula, no teniendo nada que demostrar. Supongamos que la funci´on no es constante. La imagen por una funci´on continua en un intervalo cerrado alcanza su m´aximo y su m´ınimo. Si la funci´on vale lo mismo en los dos extremos y no es constante, o bien el m´aximo o el m´ınimo es distinto de ese valor y se alcanza en el interior del intervalo. En ese punto la derivada se anula, porque si no se anulara la funci´on ser´ıa creciente o decreciente en ese punto, en cuyo caso no ser´ıa m´aximo o m´ınimo.

BIBLIOGRAFIA P. Abellanas. Geometr´ıa B´asica. Ed. Romo S. L. 1961. A.D. Aleksandrov, A.N. Kolmogorov, M. A. Laurentiev y otros. La matem´atica: su contenido. m´etodos y significado. 1. Alianza Universidad. Alianza Ed. 1981.

485

J. de Burgos. Algebra Lineal y Geometr´ıa cartesiana. Ed. McGraw-Hill Interamericana de Espa˜ na S. A. U. 2006. L. I. Golovina. Algebra Lineal y algunas de sus aplicaciones. Ed. Mir 1980. E. Hern´andez. Algebra y Geometr´ıa. Ed. Addison-Wesley iberoamericana, S. A. 1994. S. L. Salas. E. Hille. Calculus. 3a ed. Ed. Revert´e, S. A. 1995. S. Xamb´o Deschamps. Geometr´ıa. Ediciones UPC,1997.

486

´ APENDICE: ESPACIO VECTORIAL COCIENTE. Introducci´ on. El espacio vectorial cociente resume la estructura de los conjuntos imagen inversa de un punto por una aplicaci´on lineal y por ello de la estructura de los conjuntos de soluciones de los sistemas de ecuaciones lineales no homog´eneos. Estos conjuntos se llaman variedades afines y se encuentran tambi´en entre los elementos caracter´ısticos de las aplicaciones afines. Variedades afines del plano (R2 ). Adem´as de las rectas del plano que pasan por el origen y pueden ser representadas matem´aticamente como subespacios vectoriales del espacio vectorial R2 , hay otras rectas que no pasan por el origen. Las rectas que no pasan por el origen se llaman variedades afines de dimensi´on 1. Cada recta que no pasa por el origen es paralela a una recta que pasa por el origen y tambi´en por cada punto del plano pasa una recta paralela a la recta dada. Todas las rectas paralelas son variedades afines paralelas, llam´andose la que pasa por el origen, recta de direcci´on de dichas rectas paralelas. Dado un vector v distinto de cero de la recta de direcci´on, ´esta r es el conjunto r = {λv|λ ∈ R}. Cada recta paralela a la recta de direcci´on est´a formada por los puntos extremos de los vectores {u + λv|λ ∈ R}.     

                     >                      1                         487  

  

Considerada r como subespacio vectorial se denota por W y cualquier recta paralela a ella se denota por u + W . Es importante observar que u + W = u0 + W si u0 ∈ u + W : En efecto, si u0 = u + αv, todos los vectores que se pueden obtener haciendo sumas u + λv, cuando λ var´ıa en R pueden obtenerse de u0 + λ0 v haciendo λ0 = λ − α. Conjunto cociente. Las rectas paralelas a una dada son una descomposici´on del plano en partes, siendo vac´ıa la intersecci´on de dos de estas partes. Se dice que forman una partici´on del plano y considerando cada parte como un elemento tenemos un conjunto de elementos que se llama conjunto cociente de R2 por W y se denota por R2 /W . Espacio vectorial cociente. Se pueden definir dos operaciones en R2 /W : 1) Suma: Dadas dos rectas paralelas r1 = {u1 + λv|λ ∈ R}, r2 = {u2 + λv|λ ∈ R}, definimos r1 + r2 = {u1 + u2 + λv|λ ∈ R}. Se puede comprobar que esta suma est´a bien definida, es decir, que aunque cambiemos el vector u1 por otro u01 que tenga extremo en la misma recta r1 y cambiemos el vector u2 por otro vector u02 , que tenga extremo en la recta r2 , la recta suma obtenida a partir de u01 y u02 es la misma: el vector u01 + u02 est´a en la recta {u1 + u2 + λv|λ ∈ R}

    

    

 1  >               >                                             1               -  Q  QQ  Q    Q Q Q Q    QQQ s Q s     488               

  

El elemento cero del espacio vectorial cociente es la variedad W que pasa por el origen. 2) Multiplicaci´on por un n´ umero: Dada una recta r = {u + λv|λ ∈ R} y un n´ umero k ∈ R, definimos kr = {ku + λv|λ ∈ R}. Se puede comprobar que esta multiplicaci´on no depende del vector u escogido con extremo en r: Si u0 = u + αv la recta {ku0 + λv|λ ∈ R} es {ku + kαv + λv|λ ∈ R} = {ku + (kα + λ)v|λ ∈ R} = {ku + λ0 v|λ0 ∈ R}. >   

    

  

  

      

  



  

  

  

    

       

  

1   >                                1             - -       

Obs´ervese que el vector que va del extremo de u al extremo de u0 es v y entonces el vector que va del extremo de ku al extremo de ku0 es kv, por lo que la recta que pasa por el extremo de ku y tiene direcci´on v es la misma que la que pasa por ku0 y tiene direcci´on v. Es f´acil comprobar que estas dos operaciones tienen las propiedades asociativas, distributivas, etc... que estructuran al conjunto cociente R2 /W como un espacio vectorial, que se llama espacio vectorial cociente. 489

La aplicac´ on que asocia a cada vector del plano la recta que pasa por su extremo y es paralela a W se llama aplicaci´ on cociente de R2 en R2 /W y es lineal.

Es curioso observar que el doble de una recta se puede obtener sumando vectores con extremos en dicha recta, por lo que cualesquiera que sean las parejas de vectores que cojamos con extremos en la recta, los vectores suma de estas parejas tienen extremos en la misma recta. V´ease el dibujo a continuaci´on.   >                               1   >          >                        1  1                    -     

Otro ejemplo: Si W es un plano que pasa por el origen de R3 , el espacio cociente R3 /W es el conjunto de planos paralelos a W , que se pueden sumar y multiplicar por un n´ umero. El elemento cero de este espacio vectorial es W . Podemos hacer en cualquier espacio vectorial V y con cualquier subespacio suyo W el mismo proceso: Los conjuntos {u + λv|λ ∈ R} = u + W se llaman variedades afines, paralelas a W . Consideradas como elementos forman el conjunto cociente V /W , que se puede estructurar en espacio vectorial con 490

las operaciones suma y multiplicaci´on por los n´ umeros del cuerpo de V , an´alogas a las de R2 /W resultando as´ı el espacio vectorial cociente V /W . La aplicaci´on natural p(u) = u + W definida en V sobre V /W se llama aplicaci´on cociente y es lineal.

Relaci´ on entre las aplicaciones lineales y los conjuntos cociente. Empecemos por considerar aplicaciones lineales sencillas de R2 en R. Sea f : R2 −→ R definida por f (x, y) = x. Para cada a ∈ R, el conjunto de puntos de R2 que se aplican en a es f −1 (a) = {(x, y)|x = a} = {(a, y)|y ∈ R} = {(a, 0) + (0, y)|y ∈ R} = {(a, 0) + y(0, 1)|y ∈ R}, que podemos escribir (a, 0) + W como una variedad af´ın, llamando W = {(0, y)|y ∈ R}. Es la recta que pasa por (a, 0) y es paralela a W . Como W es el conjunto de vectores del eje de ordenadas, esta recta es la vertical que pasa por (a, 0). Observemos que W, la recta de direcci´on de estas variedades afines es el n´ ucleo de la aplicaci´on lineal f . Las distintas im´agenes inversas de puntos de R son las distintas rectas verticales que forman una partici´on de R2 y consideradas como elementos son el conjunto cociente R2 /W , que asociando a cada a ∈ R la variedad af´ın f −1 (a), es biyectivo al espacio R. No es dif´ıcil comprobar que la biyecci´on considerada es tambi´en lineal y por tanto un isomorfismo, teni´endose R2 /N f = R2 /W ≈ Im(f ) = R. El lector puede repetir la construcci´on anterior para la aplicaci´on lineal f : R2 −→ R definida por f (x, y) = y, obteniendo que el conjunto de las rectas horizontales con la estructura de espacio cociente por el subespacio del eje de abscisas es tambi´en isomorfo a R. Para la aplicaci´on f : R2 −→ R definida por f (x, y) = x + y, cada f −1 (a) = {(x, y)|x + y = a} es una recta paralela a la diagonal del segundo y cuarto cuadrante. El conjunto de todas estas rectas estructurado en espacio vectorial es isomorfo a R. El isomorfismo asocia a cada recta la abscisa de su punto de intersecci´on con este eje. Consideremos la aplicaci´on f : R3 −→ R definida por f (x, y, z) = x + y + z. Para cada a ∈ R, el conjunto f −1 (a) = {(x, y, z)|x + y + z = a} es un plano. Los distintos planos que se obtienen para los distintos a son paralelos y forman el conjunto cociente de R3 por el plano W ≡ x + y + z = 0. Este conjunto es isomorfo a R. El isomorfismo asocia a cada plano la abscisa de su punto de intersecci´on con este eje.

491

Consideremos la aplicaci´on f : R3 −→ R2 definida por f (x, y, z) = (x + y, y + z). Para cada (a, b) ∈ R2 , el conjunto f −1 (a, b) es el conjunto {(x, y, z)|x + y = a, y + z = b} = {(x, y, z)|x = a − λ, y = λ, z = b − λ} = {(x, y, z)|(x, y, z) = (a, 0, b) + λ(−1, 1, −1)} que es una recta paralela a la recta {(x, y, z)|x = −λ, y = λ, z = −λ} = N f . El conjunto de todas estas rectas paralelas es un conjunto cociente de R3 por la recta N f y con la estructura de espacio vectorial cociente es isomorfo a R2 . El isomorfismo asocia a cada recta la pareja de coordenadas no nulas de su punto de intersecci´on con el plano y = 0. Si fuera la aplicaci´on f : R3 −→ R2 definida por f (x, y, z) = (x + y, 0), tenemos dos tipos de puntos en R2 : cuando b 6= 0, el punto (a, b) no pertenece a la imagen de f , por tanto su imagen inversa es vac´ıa, pero para cada (a, 0) ∈ R2 , el conjunto f −1 (a, 0) es el conjunto (x, y, z)|x + y = a}, que es un plano. Para los distintos a ∈ R, obtenemos distintos planos paralelos, que forman el espacio cociente de R3 por W = {(x, y, z)|x + y = 0}. El espacio vectorial cociente R3 /W es isomorfo a R ≈ Im(f ). El mismo proceso se puede hacer para cualquier aplicaci´on lineal f : V −→ V 0 entre dos espacios vectoriales, teni´endose V /N f ≈ Imf . Si f : V −→ V es una aplicaci´on lineal con un subespacio invariante U , hay una aplicaci´on lineal V /U −→ V /U inducida por f que aplica cada variedad af´ın v + U en f (v) + U . Puede comprobarse que est´a bien definida y que es lineal. Relaci´ on del espacio cociente con los sistemas de ecuaciones. Dado un sistema de m ecuaciones con n inc´ognitas, que designamos simplificadamente por Ax = b, donde A es una matriz m×n, considerando la aplicaci´on lineal f : Rn −→ Rm de matriz A, el conjunto de soluciones del sistema es la imagen inversa de b por f , que seg´ un hemos visto es una variedad n af´ın y un elemento del conjunto cociente de R por el n´ ucleo de f , que es, a su vez, el conjunto de soluciones del sistema homog´eneo Ax = 0. Dada una aplicaci´on af´ın f (x) = a + Ax, la imagen inversa de un punto b ∈ Imf es el conjunto de puntos {x|a + Ax = b} = {x|Ax = b − a}, conjunto de soluciones de un sistema, que seg´ un hemos visto es tambi´en una variedad af´ın paralela al conjunto de soluciones del sistema Ax = 0 y por tanto un elemento del conjunto cociente de Rn por {x|Ax = 0}. Otro ejemplo es el conjunto de puntos fijos de una aplicaci´on af´ın: {x|f (x) = x} = {x|a + Ax = x} = {x|a = (I − A)x}; es una variedad af´ın paralela al conjunto de soluciones del sistema (I − A)x = 0.

492

Bibliograf´ıa. ´ Juan de Burgos. Algebra Lineal y Geometr´ıa cartesiana. 3a edici´on. Ed. McGraw Hill/Interamericana de Espa˜ na. S. A. U. 2006. ´ M. Castellet, I. LLerena. Algebra Lineal y Geometr´ıa. Ed. Revert´e. S. A. 1991. S. Lipschutz. Algebra Lineal. 2a edici´on. Ed. McGraw Hill/Interamericana de Espa˜ na. S. A. U. 1992.

493

Lihat lebih banyak...

Comentarios

Copyright © 2017 DATOSPDF Inc.