SlideShare una empresa de Scribd logo
ISSN 1851-149X
                             Cursos y
 Fascículo        3          seminarios de
                             matemática
                             Serie B




                                           Jorge Antezana
                                           Demetrio Stojanoff



                                Análisis Matricial




Departamento de Matemática
Facultad de Ciencias Exactas y Naturales
Universidad de Buenos Aires
                                     2009
Cursos y Seminarios de Matemática – Serie B

Fascículo 3




Comité Editorial:



Carlos Cabrelli (Director). Departamento de Matemática, FCEyN, Universidad de
Buenos Aires. E-mail: cabrelli@dm.uba.ar

Claudia Lederman. Departamento de Matemática, FCEyN, Universidad de Buenos
Aires. E-mail: clederma@dm.uba.ar

Gabriel Minian. Departamento de Matemática, FCEyN, Universidad de Buenos Aires.
E-mail: gminian@dm.uba.ar




ISSN 1851-149X


Derechos reservados
© 2009 Departamento de Matemática, Facultad de Ciencias Exactas y Naturales,
Universidad de Buenos Aires.



Departamento de Matemática
Facultad de Ciencias Exactas y Naturales,
Universidad de Buenos Aires
Ciudad Universitaria- Pabellón I
(1428) Ciudad de Buenos Aires
Argentina.
http://www.dm.uba.ar
e-mail. secre@dm.uba.ar
tel/fax: (+54-11)-4576-3335
Jorge Antezana y Demetrio Stojanoff




An´lisis Matricial
  a




Buenos Aires, Octubre de 2008.
Public espacio de matricesfasc3
Prefacio

El an´lisis matricial (AM) es una continuaci´n natural del ´lgebra lineal, pero considerando
      a                                     o              a
que el cuerpo de escalares son los n´meros reales o los complejos, y con una mirada basada
                                    u
en la problem´tica de las teor´ de espacios de Hilbert y de sus operadores acotados.
              a               ıas
    Muchos problemas del an´lisis, la geometr´ diferencial, el an´lisis funcional, los sistemas
                               a               ıa                a
din´micos, la f´
    a          ısica te´rica y otras importantes teor´ pueden “bajarse” al caso de matrices.
                       o                              ıas,
Y eso sin mencionar todas las ramas de la matem´tica aplicada, que suelen tener a este tipo de
                                                  a
reducciones como herramienta principal. En general, poder reducir y reformular un problema
al caso matricial es un ´xito, porque es mucho m´s viable resolver un problema de matrices
                         e                          a
que el problema de origen.
   Por todo lo anterior, mencionar aplicaciones del AM es innecesario. Cualquier matem´tico a
quiere poder aplicarlo, y trata sistem´ticamente de hacerlo. Porque es un contexto donde las
                                      a
cuentas se pueden hacer (o la mayor´ cree a priori que deber´ poder hacerse). M´s a´n,
                                      ıa                         ıan                      a u
cuando la reducci´n a matrices de un problema P sigue siendo dif´
                  o                                                   ıcil, se puede concluir que
P ten´ una dificultad intr´
     ıa                    ınseca. Pero con dificultad o sin ella, el tema es c´mo resolver P en
                                                                                o
matrices.
   Para poder hacerlo, hay que desarrollar a fondo una teor´ de matrices, o al menos una
                                                            ıa
extensa serie de herramientas para trabajar con ellas, que pueda resolver los inmumerables
problemas que le “caen” de arriba. Podr´ decirse que eso es el AM.
                                       ıa
    Lo m´s interesante del AM es que es el contexto m´s basico (un alumno de segundo
         a                                                    a
a˜o de la licenciatura ya puede entender la mayor´ de los enunciados) en el que se pueden
 n                                                    ıa
plantear problemas matem´ticos bien dif´
                            a               ıciles, muchos de ellos no resueltos a´n. Pero para
                                                                                  u
entender a fondo este tipo de problemas, sus ramificaciones, y las t´cnicas que se suelen
                                                                          e
aplicar para resolverlos, hace falta hacer un curso espec´  ıfico de AM, que pueda ser atendido
tanto por matem´ticos formados como por estudiantes de la licenciatura. Otra particularidad
                  a
remarcable, es que con ese solo basamento, alcanza para leer y entender (y porqu´ no hacer)
                                                                                     e
una gran cantidad de publicaciones actuales. Un t´   ıpico trabajo final para un curso de AM, es
estudiar un paper de los ultimos 2 o 3 a˜os del tema. Y en muchos casos, con los contenidos
                          ´               n
de este texto se tienen (casi) todas las herramientas para poder entenderlo a fondo.
    Por otra parte, como toda teor´ matem´tica, el AM tiene su problem´tica propia. El tema
                                  ıa        a                           a
m´s t´
  a ıpicamente matricial son las desigualdades, que involucran normas, autovalores, valores
singulares, determinantes, trazas, etc. El estudio de desigualdades de matrices y operadores
iv




es de una gran sutileza y forma una especie de mundo aparte. Sus especialistas son unos tipos
especiales, una especie de gremio de artesanos. Las t´cnicas que se usan suelen ser intrincadas
                                                     e
y de un gran ingenio. Se aplican ideas de toda la matem´tica, pero la teor´ tiene sus reglas
                                                          a                  ıa
propias y toda una gama de herramientas y m´todos espcec´
                                               e             ıficos. Una de esas herramientas,
fundamental y no muy conocida, es otro tema central para el AM: La teor´ de mayorizaci´n
                                                                            ıa               o
(de vectores y matrices), y sus m´ltiples ramificaciones. Esta teor´ elemental pero dif´
                                   u                                 ıa,                    ıcil,
est´ poco difundida entre los matem´ticos, por lo que ha sido y sigue siendo redescubierta
   a                                  a
innumerables veces en distintas ´reas, muchas veces con terminolog´ ad hoc. Si bien la
                                  a                                     ıas
mayorizaci´n aparece como una forma de comparar vectores de Rn , cuando se la piensa en
            o
vectores de autovalores o de valores singulares, se percibe r´pidamente que es una noci´n
                                                               a                             o
intr´
    ınsecamente relacionada con la teor´ de matrices. Estos dos aspectos: mayorizaci´n y
                                         ıa                                                o
desigualdades, son desarrollados con profundidad en este texto.
    Una rama muy diferenciada del AM, la de matrices de entradas no negativas, llamada
teor´ de Perron y Frobenuis, podr´ tener el rango de ´rea independiente. De ella daremos
    ıa                                ıa                   a
un cap´ıtulo con las bases principales de la teor´ y otro cap´
                                                 ıa,         ıtulo exponiendo una de sus ramas:
las matrices totalmente positivas.
    Este libro es el resultado de m´s de una decena de cursos, dictados en diversos departa-
                                    a
mentos de matem´tica (FCEN-UBA, FI-UBA, FCE-UNC y, sobre todo, en la FCE-UNLP) y
                   a
en varios congresos, en los ultimos a˜os. Es importante aclarar que se asumen como conoci-
                             ´        n
dos (y no se exponen en este texto) todos los contenidos de un curso inicial de ´lgebra lineal.
                                                                                a
Para comodidad del lector, y para fijar notaciones y prerrequisitos, se enumeran al pricipio del
primer cap´ ıtulo todas las nociones y resultados espec´
                                                       ıficos de un tal curso que ser´n usados
                                                                                    a
a lo largo del texto. Cualquier libro de ´lgebra lineal (y hay miles) sirve como referencia
                                            a
para los mismos. Si me dan a elegir, yo recomiendo el de K. Hoffman y R. Kuntze [6] para
algebristas, y el de P. D. Lax [10] para analistas.
    Debo mencionar que este libro est´ fuertemente basado en cuatro excelentes textos que
                                       a
son la bibliograf´ b´sica en el tema: los dos tomos Matrix Analysis [7] y Topics of Matrix
                  ıa a
Analysis [8] de R. Horn y C. Johnson, el reciente libro [4] y, sobre todo, el maravilloso libro
Matrix Analysis [3], ambos de R. Bhatia. Sin embargo, hay varios aspectos que lo diferencian.
Por un lado, el presente texto est´ pensado como base para un curso elemental, y organizado
                                   a
efectivamente para que todo el material pueda darse en un cuatrimestre. Por otro lado, hay
fuertes diferencias en la manera de encarar muchos de los temas, y se incluyen resultados m´sa
modernos y numerosas pruebas simplificadas de resultados cl´sicos, en base a publicaciones
                                                                a
recientes o al aporte de alumnos, ayudantes y profesores de todos los cursos antes mencionados.
    Los temas elegidos son solo una peque˜a parte de la teor´ pero son la base principal sobre
                                             n               ıa,
la que se edifican la mayor´ de las ´reas no incuidas en el texto. Hay muchas t´cnicas de
                              ıa        a                                              e
an´lisis, funciones anal´
   a                    ıticas y geometr´ diferencial que suelen ser efectivas para problemas de
                                          ıa
matrices. Ese tipo de interacciones no est´n incluidos porque el texto est´ pensado para una
                                              a                               a
audiencia no necesariamente experta. Una referencia escencial para esa clase de recursos son
los libros mencionado de R. Bhatia [3] y [4]. Otra teor´ aparte, poco desarrollada aqu´ es la
                                                        ıa                                ı,
de perturbaciones de matrices (autovalores, autovectores, etc). Sobre estos temas, se podr´  ıan
mencionar varios cap´ ıtulos de [3], y tambi´n el monumental tratado de T. Kato [9]. Tampoco
                                              e
se hace mucho incapi´ en este texto en los m´todos algor´
                      e                         e        ıtmicos, que vendr´ a ser la otra pata
                                                                             ıan
v




de la teor´ Bajado un problema a matrices, hay dos alternativas: resolverlo te´ricamente
           ıa.                                                                        o
(para ese lado va este texto) o resolverlo aproximando, dado que en matrices se puede (si no
son muy grandes). La bibliograf´ sobre aproximaci´n mediante algoritmos es inmensa, y nos
                                 ıa                  o
limitaremos a citar el excelente tratado Matrix computations [2] de G. Golub y C. F. Van
Loan, y la bibliograf´ que all´ aparece. La mayor´ de las herramientas necesarias para los
                      ıa       ı                     ıa
algoritmos mencionados, y muchos de los procedimientos espec´      ıficos que ellos usan, s´ est´n
                                                                                          ı    a
expuestos en el texto; pero sin hacer hincapi´ en la ´ptica de la velocidad de convergencia o la
                                              e      o
robustez ante perturbaciones, sin´ en la problem´tica te´rica que presentan. Otros temas que
                                  o               a       o
no tratamos son los de matrices diagonalizables, polinomios minimales y formas can´nicas, o
en particular la forma de Jordan. Esto es porque ese tipo de resultados no se usar´n en el
                                                                                        a
resto del texto, y porque suelen estar incluidos en un buen curso b´sico de ´lgebra lineal. Los
                                                                     a       a
dos libros antes mencionados ([6] y [10]) dan excelentes tratamientos de estos temas.
    Muchos de los resultados que expondremos siguen siendo v´lidos en contextos m´s ge-
                                                                   a                      a
nerales que las matrices reales o complejas. Por ejemplo matrices a coeficientes en cuerpos
generales o en anillos, ´lgebras de Banach, operadores en espacios de Banach o de Hilbert,
                         a
´gebras de operadores (C∗ y de von Neumann). Esto sucede particularmente con resultados
a
de los cap´
          ıtulos 1 (en las secciones 5, 7 y 9), 3, 6, 7, 8 (secci´n 3), 9, 10 y 12. La decisi´n
                                                                 o                           o
que tomamos para presentarlos fue dar demostraci´nes espec´
                                                      o          ıficas para el caso matricial y,
por lo general, mencionar luego los contextos donde siguen valiendo, y las t´cnicas diferentes
                                                                               e
para cada uno de ellos. La principal raz´n que justifica este enfoque es que el libro busca ser
                                          o
autocontenido en un nivel elemental, y que las teor´ mencionadas son muy variadas, lo que
                                                     ıas
har´ muy dif´ dar las demostraciones generales sin largas secciones introductorias de cada
   ıa         ıcil
una de ellas. Adem´s, las pruebas para el caso matricial suelen ser much´
                     a                                                        ısimo m´s simples
                                                                                     a
y breves, y brindan un manejo interesante de las t´cnicas propias del AM. Por otra parte,
                                                      e
opinamos que es muy util el enfrentarse con una primera versi´n de enunciados complicados en
                       ´                                       o
un ´mbito menos complicado, para despu´s poder entender el significado de esos enunciados
   a                                        e
en los contextos m´s espec´
                   a        ıficos (adem´s de su nueva demostraci´n).
                                        a                           o
    Sin embargo, este enfoque tiene un l´ ımite. Por lo tanto, una parte importante del AM
hemos decidido desarrollarlo en el ambiente m´s general de operadores en espacios de Hilbert.
                                               a
Se seleccionaron para esa parte aquellos resultados cuyas pruebas difieren poco al aumentar
la generalidad, y que forman una rama imporante de la teor´ de operadores, aunque man-
                                                              ıa
tengan un esp´ıritu claramente matricial. Sin embargo, ese trabajo se realizar´ en un segundo
                                                                              a
volumen, dado que el contenido del presente libro ya es suficiente para un curso cuatrimestral,
y porque la segunda parte requiere una introducci´n espec´
                                                   o       ıfica de espacios de Hilbert que no
consideramos necesaria para este texto puramente matricial.



    Los contenidos del libro est´n suficientemente explicitados en los t´
                                a                                      ıtulos de las secciones
del ´ındice. A continuaci´n haremos algunos comentarios sobre el enfoque aplicado en cada
                         o
cap´ıtulo. Como se dijo anteriormente, al principio del cap´ıtulo 1 se enumera una serie de
notaciones y resultados del ´lgebra lineal elemental. En la secci´n 5 se presentan varias
                              a                                    o
f´rmulas elemetales, pero no demasiado conocidas, para operar con matrices. De particular
 o
importancia es el manejo de matrices de bloques y las t´cnicas para operar con ellas. Luego
                                                        e
vi




se presenta el teorema de Schur que muestra la equivalencia unitaria de toda matriz con una
triangular superior. Este teorema, si bien suele estar incluido en los textos elementales, es
presentado en detalle porque ser´ de importancia clave para numerosos resultados a lo largo
                                  a
de todo el libro. El cap´
                        ıtulo culmina con tres secciones de resultados elementales, que tambi´n
                                                                                             e
ser´n muy usados m´s adelante: polinomios aplicados a matrices, descomposici´n QR y las
   a                  a                                                             o
propiedades b´sicas de las matrices de rango uno.
               a
    Los cap´ıtulos 2 y 3, sobre matrices normales, autoadjuntas y positivas, empiezan con
material b´sico, desarrollan en detalle las propiedades variacionales de los autovalores de
           a
matrices autoadjuntas, y dan una versi´n finitodimensional de los principales resultados de la
                                        o
teor´ de operadores en espacios de Hilbert, pero con las notaciones tradicionales del AM. Se
    ıa
propone un estudio exhaustivo de las propiedades y caracterizaciones de las matrices definidas
positivas, dado que suelen ser las protagonistas de las m´s interesantes desigualdades que se
                                                         a
estudiar´n m´s adelante. Por otra parte, muchos problemas generales de matrices pueden
        a     a
reducirse al caso positivo, a traves de yeites como tomar partes reales e imaginarias (ah´ se
                                                                                          ı
cae en las autoadjuntas) y luego positivas y negativas, usando matrices de bloques de 2 × 2,
o bien usando la descomposici´n polar.
                               o
    Los cap´ıtulos 4 y 5 tratan sobre mayorizaci´n, primero en su versi´n vectorial, y despu´s
                                                o                       o                    e
en sus primeras aplicaciones a las matrices. El tratamiento es muy detallado, porque con-
sideramos que es un tema poco difundido, y que es sumamente util en muchas ramas de la
                                                                   ´
matem´tica, adem´s de ser escencial para el AM. El cap´
        a           a                                     ıtulo 6, sobre monoton´ y convexi-
                                                                                 ıa
dad de operadores, incluye una introducci´n al c´lculo funcional para matrices autoadjuntas,
                                          o       a
en el estilo del de operadores en espacios de Hilbert, pero con pruebas ad hoc. Luego se
dan las principales caracterizaciones y propiedades de las funciones mencionadas, que son
herramientas escenciales para estudiar desigualdades de matrices y operadores. Este cap´  ıtulo
esta fuertemente basado en la exposici´n de estos temas que se hace en el libro de Bhatia [3].
                                       o
Sin embargo, hay importantes diferencias de enfoque, se presentan muchas pruebas diferentes,
y la selecci´n de resultados presentados es distinta.
            o
    En el cap´ıtulo 7 se da una introducci´n b´sica a la teor´ de productos tensoriales y al-
                                          o a                 ıa
ternados, como siempre con pruebas adecuadas al contexto matricial. Esta teor´ por ser
                                                                                    ıa,
bastante ardua de exponer, suele aparecer mencionada sin mucho detalle en los libros, en
funci´n de poder aplicar los recursos que brinda (escenciales para entender las propiedades de
     o
los determinantes y como herramienta para probar desigualdades) sin meterse en camisa de
once varas. Aqu´ intentamos dar una exposici´n detallada y (casi) autocontenida, dado que
                  ı                             o
el contexto matricial lo permite sin que el esfuerzo sea excesivo, y porque en cap´
                                                                                  ıtulos poste-
riores necesitaremos trabajar con propiedades muy espec´   ıficas del determinante de matrices
y submatrices. El tema es que una buena presentaci´n de los productos alternados permite
                                                       o
justificar completamente todas esas propiedades, trabajo que se inicia en la secci´n 3, y se
                                                                                     o
contin´a en el cap´
       u            ıtulo 12.
   El cap´ıtulo 8 trata sobre productos de Hadamard. Aqu´ tambi´n el tratamiento es muy
                                                           ı       e
detallado, porque es un ´rea que aparece poco en los tratados del tema, es un tema fuerte de
                         a
investigaci´n dentro del AM, y tiene adem´s muy intereantes aplicaciones en otras disciplinas.
           o                             a
Se presenta una pueba completa del teorema de Haagerup que caracteriza la norma del ope-
rador de multiplicaci´n (de Hadamard) por una matriz fija, relativa a la norma espectral de
                      o
matrices.
    El cap´
          ıtulo 9 presenta una serie de importantes desigualdades de matrices, y puede pen-
sarse como lugar en el que se concentran las t´cnicas y desarrollos realizados en los cap´
                                               e                                           ıtulos
anteriores. La lista no es exhaustiva, pero da una idea de las principales l´
                                                                            ıneas de la teor´ y
                                                                                             ıa,
presenta la mayor´ de las t´cnicas usuales que se utilizan para mostrar este tipo de desigual-
                   ıa        e
dades.
    En el cap´
             ıtulo 10 se estudian las principales propiedades del rango y del radio num´ricos
                                                                                       e
de matrices. Los teoremas m´s importantes que desarrollamos son el de Hausdorff-Toeplitz
                              a
sobre la convexidad del rango num´rico, y el de T. Ando sobre caracterizaciones matriciales
                                    e
del radio num´rico.
               e
    Los ultimos tres cap´
         ´                 ıtulos enfocan la teor´ de Perron-Frobenius sobre las matrices de
                                                 ıa
entradas positivas, y las totalmente positivas. En el 11 se exponen los resultados cl´sicos
                                                                                         a
sobre matrices estrictamente positivas, no negativas e irreducibles. En el 12 se introducen los
complementos de Schur y numerosas t´cnicas con determinandtes que, adem´s de tener un
                                         e                                       a
inter´s propio, son la herramienta clave para desarrollar, en el cap´
     e                                                               ıtulo 13, una introducci´n
                                                                                             o
a la teor´ de matrices totalmente positivas. Esta cap´
         ıa                                            ıtulo se basa en un trabajo de T. Ando
[20], y est´ escrito utilizando como punto de partida al trabajo final de A. Iglesias para un
           a
curso de AM dictado en La Plata.
    Todos los cap´ıtulos tienen una ultima secci´n de ejercicios. Se proponen adem´s numerosos
                                    ´           o                                  a
ejercicios a lo largo del texto de cada cap´  ıtulo. Al principio de las secciones finales se los
reenumeran, agreag´ndose a continuaci´n series de ejercicios nuevos.
                     a                   o

    Qerr´
        ıamos agradecer a Gustavo Corach por haber iniciado y habernos incluido en el trabajo
de investigaci´n de nuestro grupo del IAM en los temas de An´lisis Matricial. Tambi´n va
              o                                                 a                       e
nuestro agradecimiento a Celeste Gonz´lez, a partir de cuyo trabajo [25] se comenzo a escribir
                                       a
la primera versi´n de este libro, a Pedro Massey, que nos aport´ invalorables comentarios e
                 o                                              o
ideas (adem´s de muchos ejercicios), y a Agust´ Iglesias e Ivan Angiono, de quienes hemos
            a                                  ın
tomado algunos fragmentos de texto. Tambi´n agradecemos a los alumnos de los distintos
                                             e
cursos que hemos dictado en estos a˜os, que han aportado una infinidad de sugerencias,
                                      n
correcciones e ideas.
viii
´
Indice General

1 Preliminares                                                                                     1
  1.1   Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .    1
  1.2   El espectro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .    7
  1.3   Matrices unitarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .     9
  1.4   Matrices triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
  1.5   Herramientas para operar con matrices . . . . . . . . . . . . . . . . . . . . . . . 11
  1.6   El Teorema de Schur y sus corolarios . . . . . . . . . . . . . . . . . . . . . . . . 15
  1.7   Polinomios y matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
  1.8   QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
  1.9   Matrices de rango uno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
  1.10 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22

2 Matrices normales y Hermitianas                                                                 27
  2.1   Matrices normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
  2.2   Matrices Hermitianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
  2.3   Principio minimax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
  2.4   Entrelace de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
  2.5   Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

3 Matrices definidas positivas                                                                     39
  3.1   Propiedades b´sicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
                     a
  3.2   Descomposici´n polar y valores singulares . . . . . . . . . . . . . . . . . . . . . 41
                    o
  3.3   Parte positiva y parte negativa . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
  3.4   Normas en Mn (C) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
  3.5   Algunas caracterizaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
  3.6   El producto de Hadamard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
x                                                                          ´
                                                                           INDICE GENERAL




    3.7   El famoso truco 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
    3.8   Cortocircuitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
    3.9   Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

4 Mayorizaci´n
            o                                                                                      67
    4.1   Definiciones y caracterizaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
    4.2   Mayorizaci´n y funciones convexas . . . . . . . . . . . . . . . . . . . . . . . . . 74
                    o
    4.3   Birkhoff, Hall y los casamientos . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
    4.4   Mayorizaci´n logar´
                    o       ıtmica      . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
    4.5   Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

5 Mayorizaci´n de autovalores y valores singulares
            o                                                                                      83
    5.1   Aplicaciones a matrices Hermitianas . . . . . . . . . . . . . . . . . . . . . . . . 84
    5.2   Teorema de Schur-Horn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
    5.3   Normas unitariamente invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . 91
    5.4   Mayorizaci´n de matrices Hermitianas . . . . . . . . . . . . . . . . . . . . . . . 94
                    o
    5.5   Teoremas de Lindskii y sus aplicaciones . . . . . . . . . . . . . . . . . . . . . . 99
    5.6   Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102

6 Funciones mon´tonas y convexas de operadores
               o                                                                                 109
    6.1   C´lculo funcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
           a
          6.1.1   Continuidad del c´lculo funcional . . . . . . . . . . . . . . . . . . . . . . 111
                                   a
          6.1.2   Diferenciabilidad del c´lculo funcional . . . . . . . . . . . . . . . . . . . 112
                                         a
    6.2   Funciones mon´tonas de operadores . . . . . . . . . . . . . . . . . . . . . . . . 115
                       o
    6.3   Funciones convexas de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . 120
    6.4   Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

7 Productos tensoriales y alternados                                                             131
    7.1   Producto tensorial de a dos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
    7.2   Potencias tensoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
    7.3   Productos alternados y determinantes . . . . . . . . . . . . . . . . . . . . . . . 135
    7.4   Propiedades utiles de los productos alternados . . . . . . . . . . . . . . . . . . . 143
                      ´
    7.5   Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145

8 Producto de Hadamard                                                                           151
    8.1   Propiedades b´sicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
                       a
    8.2   La norma de un multiplicador Hadamard . . . . . . . . . . . . . . . . . . . . . 153
´
INDICE GENERAL                                                                                    xi




  8.3   Funcionales positivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
  8.4   Matrices incompletas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
  8.5   El teorema de Haagerup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
  8.6   Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
  8.7   Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164

9 Algunas desigualdades de matrices                                                             167
  9.1   Partes reales   . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
  9.2   Desigualdad de Thompson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
  9.3   Desigualdad aritm´tico-geom´trica en matrices . . . . . . . . . . . . . . . . . . 171
                         e         e
  9.4   Desigualdades de Young para matrices . . . . . . . . . . . . . . . . . . . . . . . 172
  9.5   Desigualdades tipo H¨lder para matrices . . . . . . . . . . . . . . . . . . . . . . 179
                            o
  9.6   La t´cnica alternativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
            e
  9.7   Primeras aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
  9.8   La exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
  9.9   Desigualdades de Araki y Cordes . . . . . . . . . . . . . . . . . . . . . . . . . . 189
  9.10 Desigualades entre exponenciales . . . . . . . . . . . . . . . . . . . . . . . . . . 191
  9.11 Desigualdad de Ando-Johnson-Bapat . . . . . . . . . . . . . . . . . . . . . . . . 194
  9.12 Medias de operadores positivos . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
  9.13 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198

10 Rango y Radio Num´ricos
                    e                                                                           203
  10.1 Definiciones y propiedades b´sicas . . . . . . . . . . . . . . . . . . . . . . . . . 203
                                  a
  10.2 El Teorema de Hausdorff T¨eplitz
                               o               . . . . . . . . . . . . . . . . . . . . . . . . . 204
  10.3 Caracterizaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
  10.4 Comparaci´n con NUI’s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
                o
  10.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213

11 Teor´ de Perron-Frobenius
       ıa                                                                                       215
  11.1 Matrices de entradas positivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
  11.2 Matrices de entradas no negativas       . . . . . . . . . . . . . . . . . . . . . . . . . 222
  11.3 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229

12 Complementos de Schur y determinantes                                                        231
  12.1 Notaciones y definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
  12.2 Identidades asociadas a determinantes . . . . . . . . . . . . . . . . . . . . . . . 235
  12.3 Un poco m´s de complementos de Schur . . . . . . . . . . . . . . . . . . . . . . 238
                a
xii                                                                          ´
                                                                             INDICE GENERAL




      12.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241

13 Matrices totalmente positivas                                                                  243
      13.1 Definiciones y criterios de positividad total . . . . . . . . . . . . . . . . . . . . 243
      13.2 Permanencia de la positividad total . . . . . . . . . . . . . . . . . . . . . . . . . 248
      13.3 Factorizaciones LU y UL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
      13.4 Matrices oscilatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
      13.5 Variaci´n de signos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
                  o
      13.6 Totalmente Perron-Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
      13.7 Algunos ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
      13.8 Ap´ndice: La prueba del criterio clave . . . . . . . . . . . . . . . . . . . . . . . 277
             e
      13.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282

Bibliograf´
          ıa                                                                                      284

´
Indice alfab´tico
            e                                                                                     288

Notaciones y abreviaturas                                                                         288
Public espacio de matricesfasc3
Cap´
   ıtulo 1

Preliminares

1.1     Generalidades
1.1.1. Para empezar, enumeraremos las notaciones y convenciones m´s b´sicas, sobre vectores
                                                                 a a
y matrices, que usaremos a lo largo de todo el texto:

  1. Usaremos a C o R como cuerpo de escalares.

  2. Llamaremos R+ al conjunto de n´meros reales no negativos, y R∗ al conjunto de
                                   u                              +
     n´meros reales positivos.
      u

  3. Dado n ∈ N, usaremos el s´
                              ımbolo In para denotar al conjunto {1, 2, . . . , n} ⊆ N.

  4. Llamaremos Mn,m (C) = Cn×m , al espacio de matrices rectangulares de n × m.

  5. Cuando n = m, notaremos Mn (C) = Mn = Mn,n (C), a las matrices cuadradas de
     n × n sobre C.

  6. Para matrices reales escribiremos Mn,m (R) = Rn×m y Mn (R) = Mn,n (R).

  7. Para denotar las entradas de una matriz A ∈ Mn,m (C), usaremos indistintamente, por
     conveniencia del contexto, las notaciones A = (Aij ) i∈In o A = (aij ) i∈In .
                                                         j∈Im             j∈Im



  8. Dada A ∈ Mn,m (C), denotaremos por AT ∈ Mm,n (C) a su matriz traspuesta, dada
     por AT = Aji , para i ∈ In y j ∈ Im .
          ij

  9. Dado n ∈ N, denotaremos por I ∈ Mn (C), o bien In , si es que hace falta aclarar su
     tama˜o, a la matriz identidad, dada por Iij = 1 si i = j e Iij = 0 si i = j.
         n

 10. La suma y producto de matrices (cuando sus tama˜os lo permitan) se hacen con las
                                                          n
     definiciones usuales del ´lgebra lineal. Por ejemplo, si A ∈ Mn,m (C) y B ∈ Mm,r (C),
                             a
2                                                                                               Preliminares




        entonces AB ∈ Mn,r (C) y sus entradas son
                                    m
                       (AB)ij =          Aik Bkj ,    para todo i ∈ In y todo j ∈ Ir .                  (1.1)
                                   k=1


    11. Dada A ∈ Mn (C), diremos que A es inversible si existe A−1 ∈ Mn (C), la unica matriz
                                                                                ´
        que cumple que AA−1 = A−1 A = I. Denotaremos por

                                   Gl (n) = {A ∈ Mn (C) : A es inversible } ,

        que es un grupo (de Lie) con la multiplicaci´n usual de matrices. Su neutro es In .
                                                    o

    12. Asumiremos como conocidas las propiedades del “determinante”, que denotaremos det :
        Mn (A) → A, para cualquier n ∈ N y cualquier anillo conmutativo A. En el Cap´    ıtulo 7
        sobre productos tensoriales, se dar´n definiciones precisas, y se demostrar´n la mayor´
                                           a                                      a           ıa
        de dichas propiedades. En el Cap´   ıtulo 12 se profundizar´ ese estudio. Sin embargo,
                                                                   a
        usaremos desde ahora esas propiedades, ad referendum de sus pruebas (esperemos que
        no haya c´
                 ırculos muy viciosos).

    13. Dada A ∈ Mn (C), consideremos la matriz xIn − A ∈ Mn (C[x]). El polinomio carac-
           ıstico de A est´ dado por la f´rmula PA (x) = det(xI − A) ∈ C[x]. Es un polinomio
        ter´              a              o
        m´nico de grado n.
          o
                                                                    n
    14. Dada A ∈ Mn (C), su traza es el n´mero tr A =
                                         u                                  Aii . Usaremos el hecho conocido
                                                                    i=1
        de que, si B ∈ Mn (C), entonces tr AB = tr BA.

    15. Sea A ∈ Mn,m (C). Las columnas de A se pueden pensar como vectores de Cn , y
        sus filas, como vectores de Cm . Se usar´ la notaci´n Ci (A) ∈ Cn (respectivamente
                                                  a         o
        Fi (A) ∈ Cm ) para denotar a la i-´sima columna (resp. fila) de A.
                                          e

    16. Los vectores de Cn ser´n pensados como vectores columna, es decir que identificamos
                                   a
        Cn con Cn×1 . Sin embargo, a lo largo del texto los describiremos como una fila (estilo
        x = (x1 , . . . , xn ) ∈ Cn ), para ahorrar espacio. Por ejemplo, si A ∈ Mn (C) e i ∈ In ,
        entonces Ci (A) = (a1i , a2i , . . . , ani ) ∈ Cn .

    17. Si a = (a1 , . . . , an ) ∈ Cn , denotaremos por diag (a) a la        matriz diagonal
                                                                                
                                                                   a1 0       0
                                                                   . ..       .  ∈ M (C) .
                             diag (a) = diag (a1 , . . . , an ) =  .
                                                                    .    .     .
                                                                               .       n
                                                                0       0     an

        Por ejemplo, si tomamos 1 = (1, . . . , 1) ∈ Cn , entonces diag (e) = In .

    18. Por otra parte, si A ∈ Mn (C), llamaremos d(A) ∈ Cn al la diagonal de A pensada como
        vector, i.e. d(A) = (A11 , . . . , Ann ).
1.1 Generalidades                                                                           3




1.1.2 (Matrices y operadores). Enumeraremos a continuaci´n las propiedades de las matrices
                                                        o
cuando son vistas como transformaciones lineales:

  1. Dados dos C-espacios vectoriales V y W, llamaremos L(V, W) al C-espacio vectorial de
     transformaciones lineales T : V → W. Si V = W, ponemos L(V) = L(V, V).
  2. Dado un C-espacio vectorial V y un conjunto X ⊆ V, denotaremos por Gen {X}
     al subespacio de V generado por X. Si X = {x1 , . . . , xm }, escribiremos tambi´n
                                                                                     e
     Gen {X} = Gen {x1 , . . . , xm }.
  3. Si A ∈ Mn,m (C), la pensaremos tambi´n como un elemento de L(Cm , Cn ) actuando por
                                           e
     multiplicaci´n: si x ∈ Cm = Mm,1 (C), entonces A(x) = A · x ∈ Cn , usando el producto
                 o
     de la Eq. (1.1). En este contexto usaremos las notaciones conocidas:

                  ker A = {x ∈ Cm : Ax = 0}              y    R(A) = A(Cm ) = Im(A) .

  4. Se denotar´ por E = {e1 , . . . , em } a la base can´nica de Cm . A veces seremos m´s
                 a                                       o                              a
                                  (m)         (m)
         ıcitos, poniendo Em = {e1 , . . . , em }, para aclarar el contexto.
     expl´
  5. Si A ∈ Mn,m (C), entonces se tiene que
                             (m)
                          Aei      = Ci (A) ∈ Cn ,           para todo     i ∈ Im .

     Por lo tanto, tenemos que R(A) = Gen {C1 (A), . . . , Cm (A) }.
  6. Por el teorema de la dimensi´n, si A ∈ Mn (C)
                                 o                              L(Cn ), entonces

                       A ∈ Gl (n) ⇐⇒ ker A = {0} ⇐⇒ R(A) = Cn .

  7. El rango de A ∈ Mn,m (C) es rk(A) = dim R(A) = dim Gen {C1 (A), . . . , Cm (A) }. M´s  a
     adelante, en la Observaci´n 3.7.4 (ver tambi´n el Ejercicio 1.1.15), veremos que coincide
                              o                  e
     con el rango fila de A, que es la dim Gen {F1 (A), . . . , Fn (A) }.
  8. Algunas veces pensaremos a ciertas matrices como operando en espacios vectoriales m´s
                                                                                         a
     generales. Por ejemplo, si S ⊆ Cn es un subespacio y A ∈ Mn (C) verifica que A(S) ⊆ S,
     entonces se puede pensar a A (o su restricci´n a S) como un operador en S. En tal caso
                                                 o
     diremos que “pensamos” a A|S ∈ L(S).


Espacios de Hilbert finitodimensionales
1.1.3. En Cn consideraremos el producto interno (o escalar) com´n, dado por
                                                               u
                                         n
                                x, y =         xk yk ,       x, y ∈ Cn .                 (1.2)
                                         k=1

Es claro que ·, · : Cn ×Cn → C verifica las propiedades que definen a un tal producto: Dados
v, v, w ∈ Cn y λ ∈ C, entonces
4                                                                                     Preliminares




    1. v, v ≥ 0 y v, v = 0 si y s´lo si v = 0.
                                 o
    2. u, v = v, u .
    3. v, u + w = v, u + v, w .
    4. λu, v = λ u, v , pero u, λv = λ u, v .

Dado x ∈ Cn , definiremos su norma Eucl´
                                      ıdea, a la usual:
                                                              n             1/2
                                                   1/2
                             x = x    2
                                          = x, x         =         |xk |2         .
                                                             k=1

A x se lo llama unitario, si x = 1. Muchas veces consideraremos otras normas de vectores
y matrices. Por ello damos una definici´n general:
                                      o
Definici´n 1.1.4. Sea K = C o R y V un K-espacio vectorial. Una norma en V es una
        o
funci´n N : V → R que verifica las siguientes condiciones: Dados u, v ∈ V y λ ∈ K,
     o

    1. N (v) ≥ 0 y, adem´s, N (v) = 0 si y s´lo si v = 0.
                        a                   o
    2. N (u + v) ≤ N (u) + N (v).
    3. N (λv) = |λ| N (v).
Definici´n 1.1.5. Sean V un K-espacio vectorial, con K = C o R, y N una norma en V.
       o

    1. Cuando N proviene de un producto interno ·, · , diremos que

                  el par (V, N ) ,   o bien (V, ·, · )       es un K-espacio de Hilbert .

       Cuando K = C, tambi´n diremos que V es un “espacio de Hilbert” a secas. Ojo, ac´ se
                          e                                                           a
       asume que dim V < ∞. Sin´ hay que pedir que V sea completo.
                               o
    2. Usualmente usaremos letras H o K para tales espacios y notaremos por L(H, K) al
       espacio de operadores lineales de H en K (acotados, si dim H = ∞).
    3. Si H = K, escribimos L(H) en lugar de L(H, H).
    4. Si A ∈ L(H, K) notaremos por ker A a su n´cleo y R(A) a su imagen.
                                                u
Definici´n 1.1.6. Sea H un espacio de Hilbert.
       o

    1. Dados x, y ∈ H, decimos que son ortogonales, y escribimos x ⊥ y si x, y = 0.
    2. Sea X ⊆ H. Denotaremos por X ⊥ = {y ∈ H : y ⊥ x para todo x ∈ X}, al subespacio
       ortogonal a X.
    3. Los vectores x1 , . . . , xk ∈ H forman un conjunto ortogonal cuando xi , xj = 0, para
       todo i = j.
1.1 Generalidades                                                                                   5



                                                                          2
  4. Si adem´s los vectores est´n normalizados, es decir xi
             a                   a                                            = xi , xi = 1 (i ∈ Ik ),
     entonces el conjunto se dice ortonormal.

  5. Usaremos las siglas BON para denotar a una base ortonormal de H. Por ejemplo, la
     base can´nica En es una BON de Cn con el producto interno de la Eq. (1.2).
             o

Definici´n 1.1.7. Sean H y K espacios de Hilbert y sea A ∈ L(H, K). Se llama adjunto de
         o
A al unico operador A∗ ∈ L(K, H) que satisface
     ´

                           Ax, z   K   = x, A∗ z   H   ,   x ∈ H, z ∈ K.                         (1.3)

La demostraci´n de que A∗ existe es un resultado b´sico de la teor´ de espacios de Hilbert.
              o                                    a              ıa
En el caso finitodimensional, se puede construir a A∗ usando BONes, como veremos.

1.1.8 (Propiedades de la adjunta). Sean A, B ∈ L(H). Usando la Eq. (1.3) (y la unicidad)
se verifican f´cilmente las siguientes propiedades:
             a

  1. Supongamos que dim H = n. Si para cualquier BON fija B = {v1 , . . . , vn } de H, se
     identifica a los operadores de L(H) con matrices en Mn (C) v´
                                                                ıa

                                       Aij = Avj , vi ,     i, j ∈ In ,

     entonces la matriz de A∗ es AT , la traspuesta conjugada de la matriz de A. En otras
     palabras, A∗ = Aji , para todo par i, j ∈ In .
                ij

  2. (A∗ )∗ = A.

  3. Dado λ ∈ C, se tiene que (λA + B)∗ = λ A∗ + B ∗ .

  4. ker A = R(A∗ )⊥ y, si dim H < ∞, tambi´n R(A) = (ker A∗ )⊥ .
                                           e

  5. (AB)∗ = B ∗ A∗ e I ∗ = I.

  6. A es inversible si y s´lo si A∗ es inversible. En tal caso, (A∗ )−1 = (A−1 )∗ .
                           o

Definici´n 1.1.9. Dado A ∈ L(H) un operador en un espacio de Hilbert, decimos que A es:
       o

  1. Hermitiano si A = A∗ .

  2. anti-Hermitiano si A = −A∗ .

  3. unitario si AA∗ = A∗ A = I.

  4. normal si AA∗ = A∗ A.

  5. definido positivo si Ax, x > 0 para todo x ∈ H. En tal caso de escribe A > 0.

  6. semidefinido positivo si Ax, x ≥ 0 para todo x ∈ H. En tal caso de escribe A ≥ 0.
6                                                                                   Preliminares




Los mismos nombres tendr´n las matrices de Mn (C), al ser pensadas como operadores en
                         a
H = Cn con el producto escalar y la norma usuales. En este contexto recordar que, si
A ∈ Mn (C), entonces A∗ = AT . Adem´s usaremos las siguientes notaciones:
                                   a

    1. H(n) = {A ∈ Mn (C) : A = A∗ }.

    2. U(n) = {U ∈ Mn (C) : U es unitaria }.

    3. N (n) = {N ∈ Mn (C) : N es normal }.

    4. Mn (C)+ = {A ∈ Mn (C) : A ≥ 0}.

    5. Gl (n) = {A ∈ Mn (C) : A es invertible } y Gl (n)+ = Gl (n) ∩ Mn (C)+ .


Lema 1.1.10 (Polarizaci´n). Sea H un C-espacio de Hilbert y sea A ∈ L(H). Entonces
                       o

                      4
                 1
       Ax, y =             ik   A (x + i k y), (x + i k y)   para todo par x, y ∈ H .       (1.4)
                 4
                     k=1


Demostraci´n. La cuenta es directa, y se deja como ejercicio.
          o

Proposici´n 1.1.11. Sea H es un C-espacio de Hilbert y sea A ∈ L(H). Luego, las siguientes
          o
condiciones son equivalentes:

    1. A = 0.

    2. Ax, y = 0 para todo par x, y ∈ Cn .

    3. Az, z = 0 para todo z ∈ Cn .

Demostraci´n. Es claro que 1 → 2 → 3. La implicaci´n 3 → 2 es consecuencia directa de
           o                                          o
la f´rmula de polarizaci´n (1.4). Si asumimos 2 y, para cualquier x ∈ H, tomamos y = Ax,
    o                   o
obtenemos que Ax 2 = Ax, Ax = Ax, y = 0, por lo que A = 0.

Observaci´n 1.1.12. Es importante se˜alar que el ´
           o                          n           ıtem 3 no implica a los otros en el caso
de que H sea s´lo un R-espacio de Hilbert. Observar que no puede valer la polarizaci´n.
              o                                                                        o
                                0 −1         2
Peor a´n, tomando como A =
      u                                 ∈ L(R ) (una rotaci´n de 90 grados), es claro que
                                                            o
                                1   0
 Ax, x = 0 para todo x ∈ R2 . Veamos ahora una aplicaci´n a matrices:
                                                       o

Corolario 1.1.13. Sea A ∈ Mn (C). Entonces

    1. A ∈ H(n) si y s´lo si Az, z ∈ R para todo z ∈ Cn .
                      o

    2. Mn (C)+ ⊆ H(n).
1.2 El espectro                                                                                              7




Demostraci´n. Si A ∈ H(n) y z ∈ Cn , entonces Az, z = z, Az = Az, z . Si suponemos
          o
que Az, z ∈ R para todo z ∈ Cn , entonces

   Az, z = Az, z = z, Az = A∗ z, z , ∀ z ∈ Cn =⇒                           (A − A∗ ) z, z = 0 , ∀ z ∈ Cn .

Por la Proposici´n 1.1.11, deducimos que A = A∗ . Por la definici´n de Mn (C)+ , si se tiene
                o                                               o
que A ∈ Mn (C)+ , entonces Az, z ∈ R+ ⊆ R para todo z ∈ Cn .

Ejercicio 1.1.14. Sean A, ∈ Mm,n (C). Entonces se tiene que

    A∗ A ∈ Mn (C)+     y      (A∗ A)i,j = Cj (A) , Ci (A)              ,       para todo par i, j ∈ In .
                             n                      n
En particular, tr(A∗ A) =         Cj (A)   2
                                               =           |aij |2 .
                            j=1                    i,j=1

Ejercicio 1.1.15. Sean A, ∈ Mm,n (C)               L(Cm , Cn ). Mostrar que entonces
                                                                           ⊥
                            ker A = Gen {F1 (A), . . . , Fn (A) } ⊆ Cn .

Deducir que rkF (A) := dim Gen {F1 (A), . . . , Fn (A) } = rk(A), o sea que los rangos fila y
columna de A coinciden.


1.2     El espectro
Definici´n 1.2.1. Se llama espectro de una matriz A ∈ Mn (C) al conjunto de todos los
        o
autovalores de A:

          σ (A) = {λ ∈ C : λ es autovalor de A} = {λ ∈ C : ker(A − λI) = {0} },

que es un subconjunto finito y no vac´ de C.
                                    ıo

1.2.2 (Propiedades del espectro de matrices). Sea A ∈ Mn (C). Valen:

  1. λ ∈ σ (A) si y s´lo si existe x ∈ Cn tal que x = 0 y Ax = λx.
                     o

  2. Si µ ∈ C, entonces σ(A + µI) = σ(A) + µ = {λ + µ : λ ∈ σ(A)}.

  3. A ∈ Gl (n) si y s´lo si 0 ∈ σ (A). M´s a´n, λ ∈ σ (A) si y s´lo si A − λI ∈ Gl (n).
                      o        /         a u       /             o

  4. Sea PA (x) ∈ C[x] el polinomio caracter´  ıstico de A. Luego λ ∈ σ(A) si y s´lo si
                                                                                 o
     PA (λ) = 0, o sea que σ(A) es el conjunto de ra´ıces de PA (x).

  5. Como gr(PA ) = n, se tiene que 0 < |σ(A)| ≤ n.

  6. σ(A∗ ) = σ(A). En efecto, usando 1.1.8, tenemos que

                     A − λI ∈ Gl (n) ⇐⇒ (A − λI)∗ = A∗ − λ I ∈ Gl (n) .
                            /                                /
8                                                                                                    Preliminares



                                                                  −1
    7. Si A ∈ Gl (n), entonces σ A−1 = σ (A) = {λ−1 : λ ∈ σ(A)}. En efecto, es conse-
       cuencia de la igualdad ker(A − λI) = ker(A−1 − λ−1 I) (Ejercicio: probarla).
Observaci´n 1.2.3. Vimos que los autovalores de A ∈ Mn (C) son las ra´
            o                                                               ıces del polinomio
        ıstico PA (x) = det(xI − A) y que gr(PA ) = n. Pero PA puede tener ra´
caracter´                                                                       ıces m´ltiples,
                                                                                       u
por lo que σ (A) puede tener menos de n elementos (en tanto conjunto, sus elementos s´lo   o
pueden contarse de a uno). Muchas veces es necesario usar a cada λ ∈ σ (A) tantas veces
como multiplicidad tiene como ra´ del caracter´
                                  ız           ıstico. Para hacer eso, factorizamos en C[x] a
           n                   n
PA (x) =         (x − λi ) =         (x − λi (A) ), y diremos que
           i=1                 i=1

     “los autovalores de A son λ1 , . . . , λn ” ,                o       “λ(A) = (λ1 (A), . . . , λn (A) )” ,

donde estaremos repitiendo cada autovalor de A tantas veces como multiplicidad tiene como
ra´ de PA , y disponi´ndolos en alg´n orden de C fijado previamente (por ejemplo, el lex-
  ız                 e             u
icogr´fico en las coordenadas polares, con el cero al final). Por eso quedan n. Al vector
     a
λ(A) ∈ Cn se lo llama “vector de autovalores de A”.
Observaci´n 1.2.4. Sean A, B ∈ Mn (C) y S ∈ Gl (n) tales que B = SAS −1 . Luego B
           o
difiere de A en un cambio de base. Se suele decir que A y B son similares y se nota A ∼ B.
Por las propiedades del determinante, se tiene que

           PB (x) = det(xI − SAS −1 ) = det S(xI − A)S −1 = det(xI − A) = PA (x) ,

por lo que λ(A) = λ(B) y tambi´n σ(A) = σ(B).
                              e
Definici´n 1.2.5. Sea A ∈ Mn (C).
       o

    1. El radio num´rico de A se define como
                   e

                                     w(A) = m´x{ | Ax, x | : x ∈ Cn , x = 1 } .
                                             a

    2. El radio espectral de A se define como

                                             ρ(A) = m´x{ |λ| : λ ∈ σ (A)} .
                                                     a

    3. La norma espectral de A es su norma como operador, inducida por la norma eucl´
                                                                                    ıdea
       de Cn . Es decir,

           A     sp   = m´x{ Ax : x ∈ Cn , x = 1} = m´
                         a                           ın{C ≥ 0 : Ax ≤ C x , x ∈ Cn } .

    4. La norma 2 o norma Frobenius de A es su norma eucl´ıdea, si la pensamos como un
       vector largo. Por el Ejercicio 1.1.14, tenemos que
                                                           n
                                              A   2
                                                  2
                                                      =           |aij |2 = tr(A∗ A) .                           (1.5)
                                                          i,j=1
1.3 Matrices unitarias                                                                          9




Observar que, analizando los autovectores (unitarios) de A, se muestra f´cilmente que
                                                                        a

                                     ρ(A) ≤ w(A) ≤ A        sp   .                           (1.6)

                           0     1
Tomando la matriz A =                , se ve que las desiguadades pueden ser estrictas. En efecto,
                           0     0

                         ρ(A) = 0 ,      w(A) = 1/2     y        A   sp   =1.

Ejercicio: verificarlo.


1.3     Matrices unitarias
Recordemos que U ∈ Mn (C) es unitaria si U U ∗ = U ∗ U = I, y que U(n) denota al conjunto
de matrices unitarias en Mn (C).

Teorema 1.3.1. Si U ∈ Mn (C), las siguientes afirmaciones son equivalentes:

  1. U ∈ U(n).

  2. U ∗ ∈ U(n).

  3. U ∈ Gl (n) y U −1 = U ∗ .

  4. U preserva el producto escalar, o sea que

                         U x, U y = x, y ,        para todo par x, y ∈ Cn .

  5. Si B es una BON de Cn , entonces U (B) tamb´n lo es.
                                                e

  6. Las columnas de U forman una BON de Cn .

  7. Las filas de U forman una BON de Cn .

  8. Para todo x ∈ Cn , se tiene que U x = x (o sea que U es una isometr´
                                                                        ıa).

Adem´s, U(n) es un grupo con la multiplicaci´n de matrices.
    a                                       o

Demostraci´n. Ejercicio. Se sugiere usar el Ejercicio 1.1.14 y, para probar que 8 implica todo
           o
lo dem´s, usar la Proposici´n 1.1.11.
      a                    o

Definici´n 1.3.2. Dadas A, B ∈ Mn (C), se dice que A es unitariamente equivalente a B y
        o
se nota
                 A ∼ B si existe U ∈ U(n) tal que A = U ∗ BU .
                   =
Observar que, como U(n) es un grupo, se tiene que ∼ es una relaci´n de equivalencia.
                                                  =              o
10                                                                                                Preliminares




Teorema 1.3.3. Sean A y B ∈ Mn (C) tales que A ∼ B. Entonces
                                               =
     λ(A) = λ(B)        ,     A    2
                                       = B   2
                                                 ,   A   sp   = B   sp    y   A es        si y s´lo si B es
                                                                                                o             ,
donde      puede significar: Hermitiana, anti-Hermitiana, normal, definda positiva o unitaria.

Demostraci´n. La primera igualdad se sigue de la Observaci´n 1.2.4. Sea U ∈ U(n) tal que
           o                                              o
B = U AU ∗ . Entonces, por la Eq. (1.5),
             B   2
                 2
                     = tr(B ∗ B) = tr(U A∗ U ∗ U AU ∗ ) = tr(U A∗ AU ∗ ) = tr(A∗ A) = A              2
                                                                                                     2
                                                                                                         ,
donde la pen´ltima igualdad se deduce del hecho de que tr(XY ) = tr(Y X) para todo par
            u
X, Y ∈ Mn (C). Con respecto a las normas espectrales,
                             B    sp   = m´x U A(U ∗ x) = m´x Ay = A
                                          a                a                         sp    ,
                                         x =1                   y =1

ya que U ∗ {x ∈ Cn : x = 1} = {y ∈ Cn : y = 1}, porque U y U ∗ son isometr´                ıas
sobreyectivas. Las afirmaciones sobre       se prueban directamente de las definiciones, porque
B ∗ = (U AU ∗ )∗ = U A∗ U ∗ , con la misma U ∈ U(n).


1.4        Matrices triangulares
Definici´n 1.4.1. Sea T ∈ Mn (C). Diremos que
       o

     1. T es triangular superior (abreviamos TS) si verifica que Tij = 0 para i > j. Es decir
        que T tiene ceros por debajo de su diagonal.
     2. T es estrictamente TS si Tij = 0 para i ≥ j. Ac´ tambi´n d(T ) = 0.
                                                       a      e
     3. An´logamente se definen las matrices triangulares inferiores y estrictamente triangulares
           a
        inferiores.
     4. Denotaremos por T S(n) = { T ∈ Mn (C) : T es triangular superior }.
1.4.2 (Propiedades de las matrices triangulares). Tenemos las siguientes propiedades (enu-
meraremos los resultados, y las pruebas no escritas quedar´n como ejercicio para el lector):
                                                          a

     1. Sea E = {e1 , . . . , en } la base can´nica de Cn . Notemos Hk = Gen {e1 , . . . , ek }, para
                                              o
        cada k ∈ In , y H0 = {0}. Dada T ∈ Mn (C) se tiene que
                            T ∈ T S(n) ⇐⇒ T (Hk ) ⊆ Hk ,                 para todo k ∈ In ,                   (1.7)
        y T es estrictamente TS ⇐⇒ T (Hk ) ⊆ Hk−1 , para todo k ∈ In .
     2. Usando la Eq. (1.7) sale f´cil que T S(n) es un subanillo de Mn (C). Es decir que
                                  a
                              T1 , T2 ∈ T S(n) =⇒ T1 + T2 y T1 T2 ∈ T S(n) .                                  (1.8)
        Tambi´n son subanillos los otros conjuntos de matrices triangulares, pero las estricta-
             e
        mente triangulares no tienen uno.
1.5 Herramientas para operar con matrices                                                               11




  3. Adem´s, dadas S, T ∈ T S(n), se tiene que
         a
                       d (ST ) = d (S) · d (T ) := (S11 · T11 , . . . , Snn · Tnn ) .                 (1.9)
      Esto se muestra directamente calculando (ST )ii por la f´rmula (1.1).
                                                              o
  4. Si T ∈ Mn (C) es estrictamente triangular, entonces T n = 0.
  5. Si T ∈ T S(n), entonces su polinomio caracter´
                                                  ıstico cumple que
                                    n
        PT (x) = det (xI − T ) =         (x − Tii ) =⇒ λ(T ) = d(T ) (salvo el orden) .             (1.10)
                                   i=1

      Lo mismo pasa para su transpuesta T T , que es una trianagular inferior gen´rica. La
                                                                                 e
      prueba es por inducci´n, desarrollando el determinante por la primera columna.
                           o
                                         n                       n
  6. Si T ∈ T S(n), entonces tr T =            Tii y det T =          Tii . Para la parte del determinante,
                                         i=1                   i=1
      se sugiere mirar la prueba de la Proposici´n 1.5.4.
                                                o
  7. Si T ∈ T S(n) es inversible, entonces
                                                       −1
            T −1 ∈ T S(n)    y     d T −1 = d (T )          := (d1 (T )−1 , . . . , dn (T )−1 ) .   (1.11)
      En efecto, por la Eq. (1.7) y el hecho de que T ∈ Gl (n), sabemos que
          T (Hk ) = Hk =⇒ T −1 (Hk ) = Hk , para todo k ∈ In =⇒ T −1 ∈ T S(n) .
                                    −1
      La igualdad d T −1 = d (T )         se deduce ahora de la Eq. (1.9).


1.5     Herramientas para operar con matrices
En esta secci´n veremos varias estrategias para operar con matrices:
             o
1.5.1. Sean A ∈ Mn, m (C) y B ∈ Mm,r (C). Enumeraremos los resultados, y las pruebas no
escritas quedar´n como ejercicio para el lector.
               a

  1. La entrada (AB)ij es el producto de la Fi (A) ∈ M1, m (C) , por la Cj (B) ∈ Mm,1 (C).
                                                             m                   m
  2. Si x = (x1 , . . . , xm ) ∈ Cm , entonces Ax = A                xi ei   =         xi Ci (A).
                                                            i=1                  i=1

  3. El producto AB ∈ Mn, r (C) representa la composici´n A ◦ B : Cr → Cn , cuando se las
                                                       o
     piensa como operadores. Sus columnas se describen por la acci´n de A en las columnas
                                                                  o
     de B:
                    Ci (AB) = A · Ci (B) ∈ Cn , para todo i ∈ Ir .                   (1.12)
      Esto se puede probar directamente por la f´rmula (1.1) del producto, o bien observando
                                                o
                           (r)           (r)
      que Ci (AB) = (AB)ei = A · ( Bei ) = A · Ci (B), lo que se sigue de pensar a AB
      como una composici´n.
                         o
12                                                                                          Preliminares




     4. An´logamente puede verse que
          a

                         Fi (AB) = Fi (A) · B ∈ Cr ,             para todo i ∈ In .                       (1.13)

     5. Si alguna Ci (B) = 0, entonces Ci (AB) = 0 (con el mismo i). An´logamente, si se tiene
                                                                       a
        que Fi (A) = 0, entonces Fi (AB) = 0. Esto se usa para identificar los ideales (a izq. y
        der.) del anillo Mn (C), cuando n = m.

     6. Fijemos una columna Ci (A). Alguna entrada de Ci (A) aparece al calcular cualquier
        entrada de AB. Pero siempre multiplicada por alguna entrada de la Fi (B) (recordar la
                                    m
       f´rmula (1.1): (AB)st =
        o                                 Asi Bit ).
                                    i=1

     7. Por lo tanto, si Fi (B) = 0, entonces podemos cambiar la Ci (A) sin que ello afecte al
        producto AB. An´logamente, si Ci (A) = 0, se puede cambiar impunemente Fi (B) .
                          a

     8. Sean λ ∈ Cn y µ ∈ Cm . Si D1 = diag (λ) ∈ Mn (C) y D2 = diag (µ) ∈ Mm (C), entonces

         D1 A = λi aij   i∈In
                                ,   AD2 = aij µj        i∈In
                                                                y    D1 AD2 = λi µj aij          i∈In
                                                                                                        . (1.14)
                         j∈Im                           j∈Im                                     j∈Im




Bloques
1.5.2. Sea k ∈ In , tal que 0 < k < n y llamemos I = Ik y J = In  Ik = {k + 1, . . . , n}. Dada
A ∈ Mn (C) notaremos su representaci´n en bloques como sigue:
                                       o

                   AI    AIJ        Ck
            A=                           ,        donde        AIJ = (Arl )r∈I ∈ Mk, n−k (C) ,
                   AJI   AJ         Cn−k                                   l∈J



y en forma similar se definen AI ∈ Mk (C), AJI ∈ Mn−k, k (C) y AJ ∈ Mn−k (C). M´s           a
adelante (en la secci´n 2.4 y, sobre todo en los Cap´
                     o                              ıtulos 12 y 13) se usar´ una notaci´n m´s
                                                                           a           o   a
detallada, tipo AIJ = A[I|J] = A[I|I) y as´ Para fijar ideas observemos que, por ejemplo,
                                            ı.

               A ∈ T S(n) ⇐⇒ AI ∈ T S(k) , AJ ∈ T S(n − k)                       y    AJI = 0.            (1.15)

Es extremadamente util el hecho de que esta notaci´n es consistente con las operaciones de
                    ´                             o
matrices. Por ejemplo: Si B ∈ Mn (C):

                    AI + B I        AIJ + BIJ          Ck
     1. A + B =                                             ,
                   AJI + BJI         AJ + B J          Cn−k

                A∗    A∗        Ck
     2. A∗ =      I    JI            , una especie de transpuesta adjuntada. Luego
                A∗
                 IJ   A∗
                       J        Cn−k

                   A = A∗ ⇐⇒ AI ∈ H(k) , AJ ∈ H(n − k)                      y        AJI = A∗ .
                                                                                            IJ
1.5 Herramientas para operar con matrices                                                                      13




  3. La m´s importante es la f´rmula del producto:
         a                    o
                                  AI BI + AIJ BJI         AI BIJ + AIJ BJ              Ck
                         AB =                                                               ,               (1.16)
                                  AJI BI + AJ BJI         AJI BIJ + AJ BJ              Cn−k
      que reproduce la f´rmula del producto de matrices en M2 (C). Observar que los tama˜os
                        o                                                               n
      de todos los productos que aparecen son los adecuados al bloque donde viven. La
      prueba de esta f´rmula es straightforward. Hay que usar la f´rmula (1.1) para (AB)ij ,
                      o                                           o
      dividiendo cada suma en sus primeros k sumandos, y en los otros n − k.
  4. Por ejemplo, cualquiera sea C ∈ Mk, n−k (C), se tiene que
                Ik    C                                                     Ik        −C
         A=                     ∈ Gl (n)    y, adem´s ,
                                                   a              A−1 =                      ∈ Gl (n) .     (1.17)
                0    In−k                                                   0        In−k
                                                                          −1
                                                           Ik       0                   Ik   0
      An´logamente, si X ∈ Mn−k, k (C), luego
        a                                                                        =                      .
                                                           X       In−k                −X    In−k
  5. Otra aplicaci´n: Si U ∈ U(k) y V ∈ U(n − k), entonces
                  o
                     U    0                                         U AI U ∗         U AIJ V ∗
           W =                  ∈ U(n)     y        W AW∗ =                                         .       (1.18)
                     0    V                                         V AJI U ∗        V AJ V ∗

  6. Si uno parte a In en r mitades (con r ≥ 3), para cada A ∈ Mn (C) se pueden definir
     sus r × r bloques relativos a esa partici´n. Y valen propiedades an´logas a las del caso
                                              o                            a
     2 × 2. En particular, vale algo similar a la f´rmula (1.16), pero imitando el producto en
                                                   o
     Mr (C).
Observaci´n 1.5.3. Sea S ⊆ Cn un subespaceio con dim S = k. Todo lo que se hizo
           o
reci´n se puede generalizar exactamente igual a una representaci´n de Mn (C) en matrices
    e                                                                  o
de 2 × 2 de bloques, pero teniendo en cuenta la descomposici´n Cn = S ⊕ S ⊥ . El caso
                                                                     o
anterior corresponder´ a tomar S = Gen {e1 , . . . , ek }. La manera m´s econ´mica de verlo
                            ıa                                             a        o
es tomar una BON {v1 , . . . , vn } = B de Cn tal que S = Gen {v1 , . . . , vk } (por lo que S ⊥ =
Gen {vk+1 , . . . , vn } ). Tomando coordenadas de las matrices en la base B, el laburo anterior se
extrapola a cualquier descomposici´n. Pedimos que B sea una BON y no una base cuaquiera
                                       o
(que empiece por una base de S) para que valgan las f´rmulas relativas a A∗ , en particular
                                                           o
(1.18). Las dem´s valen tomando coordenadas en cualquer base de aquel tipo. La notaci´n
                     a                                                                          o
que usaremos para estas representaciones es
                                            AS          AS, S ⊥      S
                                  A=                                    .
                                           AS ⊥ ,   S    AS ⊥        S⊥

                                                                      I 0     S
Observar que, si PS es el proyector ortogonal sobre S, entonces PS =              . Adem´s,
                                                                                        a
                                                                      0 0     S⊥
AS = PS APS = PS A S , o sea pensado en L(S) (sin los tres ceros). Al operador AS ∈ L(S)
se lo llama la compresi´n de A a S. Su matriz concreta (de k × k) depende de la BON B
                         o
elegida, pero en tanto operador en L(S), nuestro AS s´lo depende del subsepacio S. F´rmulas
                                                     o                              o
semejantes se tienen para los otros tres bloques de A.
14                                                                                                     Preliminares




Proposici´n 1.5.4. Sea n ≥ 2, A ∈ Mn (C) y S ⊆ Cn un subespacio propio. Si
         o
           B       C      S
     A=                            =⇒ det A = det B det D            y     PA (x) = PC (x)PD (x) .            (1.19)
           0       D      S⊥

Por lo tanto λ(A) = λ(B) , λ(D) . Una f´rmula similar vale si A es triangular inferior de
                                       o
bloques (para S).

Demostraci´n. Eligiendo bases de S y S ⊥ , y usando que la similaridad no cambia ni el det
            o
              ıstico, podemos asumir que S = Gen {e1 , . . . , ek }, donde k = dim S. M´s a´n,
ni el caracter´                                                                        a u
ya que elegimos una BON cualquiera de S, podemos suponer su primer elemento era un
autovector x1 ∈ S de B para cierto λ ∈ σ(B). Observar que entonces tambi´n se tiene que
                                                                                 e
Ax1 = λx1 . Al tomar matrices, queda que
               λ                            λ   ∗                              B1       C1
      A=                       y    B=                    con       A1 =                      ∈ Mn−1 (C) .
               0   A1                       0   B1                             0        D
Ojo que si k era uno, queda que A1 = D y que B = [λ] (en ese caso ∗, B1 y C1 no existen).
Si k > 1, desarrollando por la primer comumna, queda que
det A = λ det A1 , det B = λ det B1 , PA (x) = (x − λ) PA1 (x) y PB (x) = (x − λ) PB1 (x) .
                                        x−λ         −
Las dos ultimas salen porque xIn −A =
        ´                                                    , y lo mismo para B. Haciendo
                                          0     xIn−1 − A1
ahora inducci´n en n ≥ 2 (o en k, va por gustos), estamos hechos. Otra manera de probarlo
             o
es v´ la definici´n con permutaciones de Sn , porque las permutaciones que no pasan por
    ıa          o
el bloque nulo de abajo, son todas las del tipo σ ∈ Sk × Sn−k . Este camino queda como
ejercicio.

Como ejemplo del uso de estas t´cnicas, mostraremos a continuaci´n la relaci´n que hay entre
                                e                                o          o
el espectro del producto de dos matrices, en sus dos ´rdenes posibles. Se suguiere tratar de
                                                     o
probar el siguiente enunciado directamente, para ver cuanto m´s f´cil puede hacerse con la
                                                                a a
t´cnica de bloques, y la primera aparici´n del famoso truco de 2 × 2.
 e                                      o
Proposici´n 1.5.5. Dadas A, B ∈ Mn (C), entonces σ (AB) = σ (BA). M´s a´n, AB y BA
           o                                                            a u
                                  ıstico, por lo que λ(AB) = λ(BA) ∈ Cn .
tienen el mismo polinomio caracter´

Demostraci´n. Por la Eq. (1.17), sabemos que la matriz
          o
                               I    A                                           I       −A
                       M=               ∈ Gl (2n) ,   y que         M −1 =                     .
                               0    I                                           0        I
Adem´s, usando la ecuaci´n (1.16), nos queda que
    a                   o
                            AB      0            I    −A            AB     0        I    A
                   M −1                 M   =
                             B      0            0     I             B     0        0    I

                                                 0    0         I    A          0         0
                                            =                              =                       .
                                                 B    0         0    I          B        BA
1.6 El Teorema de Schur y sus corolarios                                                         15




Usando la Proposici´n 1.5.4, podemos deducir que PAB = PBA , porque si se tienen dos
                   o
polinomios P, Q ∈ C[x] que cumplen xn P (x) = xn Q(x), entonces P = Q.
Observaci´n 1.5.6. Sean A ∈ Mn,m (C) y B ∈ Mm,n (C) con m > n. Con casi la misma
           o
prueba que la Proposici´n 1.5.5 puede mostrarse que σ (BA) = σ (AB) ∪ {0}, puesto que sus
                        o
                   ısticos cumplen PBA (x) = xm−n PAB (x).
polinomios caracter´


1.6     El Teorema de Schur y sus corolarios
El siguiente resultado, el primero de los varios debidos a Schur que enunciaremos, es suma-
mente util, y ser´ usado sistem´ticamente en todo este trabajo.
       ´         a              a
Teorema 1.6.1 (Schur 1). Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 , ... , λn ),
dispuestos en cualquier orden prefijado. Entonces

  1. Existen matrices U ∈ U(n) y T ∈ T S(n) que verifican:
       a. A = U T U ∗ .
       b. d (T ) = λ(A), i.e. Tii = λi , para todo i ∈ In .
  2. Si A ∈ Mn (R), el teorema sigue valiendo (con U ∈ Mn (R)) siempre que σ (A) ⊆ R.
  3. Si B ∈ Mn (C) conmuta con A, existen U ∈ U(n), y T1 , T2 ∈ T S(n) tales que
            A = U T1 U ∗ ,   B = U T2 U ∗      (con la misma U )         y    d (T1 ) = λ(A) .
      La d (T2 ) tendr´ a los autovalores de B, pero en un orden que no podremos elegir.
                      a

Demostraci´n. La prueba la realizaremos por inducci´n sobre la dimensi´n n. Si n = 1, el
           o                                             o                  o
resultado es trivial. Si n > 1, tomemos x1 ∈ ker(A − λ1 I) con x1 = 1. Completamos a una
BON de Cn con vectores x2 , . . . , xn , y los ponemos en las columnas de una matriz U1 . Por
                                                       ∗
el Teorema 1.3.1, U1 ∈ U(n). Como U1 (e1 ) = x1 y U1 (x1 ) = e1 , es f´cil ver que
                                                                      a
              ∗          ∗                            ∗             λ1       ∗    C
         C1 (U1 AU1 ) = U1 AU1 e1 = λ1 e1     =⇒     U1 AU1 =                          ,
                                                                    0        A2   Cn−1
donde A2 ∈ Mn−1 (C). Por la Observaci´n 1.2.4, sus polinomios caractr´
                                     o                               ısticos cumplen
        PA (x) = PU1 AU1 (x) = (x − λ1 )PA2 (x) =⇒ λ(A2 ) = (λ2 , . . . , λn ) ∈ Cn−1 .
                   ∗


Por HI, existen V ∈ U(n − 1) y T2 ∈ T S(n − 1) tales que V ∗ A2 V = T2 y d(T2 ) = λ(A2 ).
                                              1 0
Podemos extender V a otra matriz U2 =                 ∈ U(n). Sea U = U1 U2 . Entonces,
                                              0 V
usando las ecuaciones (1.18) y (1.15) sobre productos de matrices de bloques, nos queda que
                                         1    0      λ1   ∗         1    0
        U ∗ AU = U2 (U1 A U1 ) U2
                  ∗   ∗
                                    =
                                         0    V∗     0    A2        0    V

                                         λ1                    λ1
                                    =                     =                   = T ∈ T S(n) ,
                                         0    V ∗ A2 V         0    T2
16                                                                                    Preliminares




y se tiene que d(T ) = (λ1 , d(T2 ) ) = (λ1 , λ(A2 ) ) = λ(A).
    El caso real sale igual. Notar que se puede elegir x1 ∈ Rn siempre que λ1 ∈ R. El caso de
dos matrices que conmutan, se deduce de que ker(A − λ1 I) es invariante para B (cuenta f´cil,
                                                                                         a
ya que conmutan), por lo que el vector x1 se puede elegir como un autovector de B actuando
en ker(A−λ1 I) (no se sabe cuales de los autovalores de B en Cn pueden elegirse ah´ El resto
                                                                                  ı).
de la prueba sigue igual, usando que las matrices achicadas A2 y B2 siguen conmutando.
Corolario 1.6.2. Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 , . . . , λn ). Entonces
                                      n                           n
                             tr A =         λi   y     det A =          λi .
                                      i=1                        i=1

Demostraci´n. Por el Teorema 1.6.1 sabemos que podemos escribir A = U ∗ T U , donde se
           o
tiene que U ∈ U(n), T ∈ T S(n) y d(T ) = λ(A). Luego tr A = tr T y det A = det T .
Corolario 1.6.3. Sea U ∈ U(n). Entonces | det U | = 1.

Demostraci´n. Basta notar que σ (U ) ⊆ {z ∈ C : |z | = 1}, dado que U es una isometr´
          o                                                                         ıa.
Observaci´n 1.6.4. Sean A, B ∈ Mn (C). En general, no se tiene la menor idea de qu´
            o                                                                                e
pueden ser los espectros σ(A + B) y σ(AB). Sin embargo, cuando A y B conmutan, el
Teorema 1 de Schur nos da alguna informaci´n al respecto. El siguiente resultado vale tambi´n
                                          o                                                e
el ´lgebras de Banach de dimensi´n infinita, pero con una prueba mucho m´s sofisticada.
   a                            o                                           a
Corolario 1.6.5. Sean A, B ∈ Mn (C), tales que AB = BA. Entonces

     1. σ(A + B) ⊆ σ(A) + σ(B) = {λ + µ : λ ∈ σ(A) y µ ∈ σ(B)}.
     2. σ(AB) ⊆ σ(A) · σ(B) = {λ · µ : λ ∈ σ(A) y µ ∈ σ(B)}.

M´s a´n, existen ciertas ordenaciones de los vectores de autovalores λ(A) y λ(B) tales que
  a u
(operando en esos ´rdenes), λ(A + B) = λ(A) + λ(B) y
                  o
                   λ(AB) = λ(A) · λ(B) = (λ1 (A)λ1 (B), . . . , λn (A)λn (B) ) .                (1.20)

Demostraci´n. Probaremos solamente la igualdad (1.20). Las cuentas para λ(A + B) son
            o
iguales (y m´s f´ciles). Por el Teorema 1 de Schur 1.6.1, existen U ∈ U(n), y T1 , T2 ∈ T S(n)
             a a
tales que A = U T1 U ∗ , B = U T2 U ∗ , d (T1 ) = λ(A) y d (T2 ) = λ(B), aunque los ´rdenes en
                                                                                    o
que aparecen λ(A) y λ(B) no lo sabemos. Pero en esos ´rdenes, tenemos que
                                                          o
          T1 · T2 ∈ T S(n) =⇒      λ(T1 T2 ) = d (T1 T2 ) = d (T1 ) · d (T2 ) = λ(A) · λ(B) ,
por las f´rmulas (1.8), (1.10) y (1.9). Pero AB = (U T1 U ∗ )(U T2 U ∗ ) = U (T1 T2 )U ∗ . Luego,
         o
por el Teorema 1.3.3, y en el orden que hab´ λ(T1 T2 ) = λ(AB).
                                             ıa,
Corolario 1.6.6. Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 , . . . , λn ). Entonces
                                 λ(A∗ ) = λ(A) = (λ1 , . . . , λn ) .
Esto generaliza la igualdad σ(A∗ ) = σ(A) ya vista.
1.7 Polinomios y matrices                                                                           17




Demostraci´n. Sean U ∈ U(n) y T ∈ T S(n), con d (T ) = λ(A), tales que A = U ∗ T U . Luego
            o
A∗ = U ∗ T ∗ U , por lo que λ(A∗ ) = λ(T ∗ ). Pero T ∗ es triangular inferior, as´ que tambi´n se
                                                                                 ı          e
tiene que λ(T ∗ ) = d (T ∗ ) = d (T ) = λ(A).


1.7      Polinomios y matrices
                                                         m
Observaci´n 1.7.1. Si A ∈ Mn (C) y P (x) =
         o                                                    bk xk ∈ C[x], entonces P se puede evaluar
                                                        k=0
en A de la siguiente manera:
                                                m
                                     P (A) =         bk Ak ∈ Mn (C) ,
                                               k=0

dado que las potencias (enteras) Ak se definen con el producto de matrices, y viven en Mn (C).
Adem´s, se tiene las siguientes propiedades:
     a

  1. Como las potencias de A conmutan entre s´ se deduce f´cilmente que la aplicaci´n
                                                    ı,          a                        o
     EA : C[x] → Mn (C) dada por P → P (A) (o sea la evaluaci´n en A) es un morfismo de
                                                                o
     anillos. Por lo tanto, si se tiene una factorizaci´n P = QR, con Q, R ∈ C[x], entonces
                                                       o
     P (A) = Q(A)R(A), ahora con el producto de matrices.
  2. Si S ∈ Gl (n), entonces (SAS −1 )k = SAk S −1 , para todo k ∈ N. Luego, es f´cil ver que
                                                                                 a

                       P (SAS −1 ) = S · P (A) · S −1 ,         para todo P ∈ C[x] .             (1.21)

                                                                                                     2
  3. Si T ∈ T S(n), hemos visto que T 2 ∈ T S(n) y que d T 2 = (T11 , . . . , Tnn ) = d (T ) .
                                                                       2       2

     Esto se extinede a potencias enteras, por inducci´n. Por lo tanto,
                                                      o

                         P (T ) ∈ T S(n) y P (T )ii = P (Tii ) para todo i ∈ In ,                (1.22)

      o sea que d (P (T ) ) = P (d (T ) ) = P (d (T ) ) = (P (T11 ) , . . . , P (Tnn ) ).
Corolario 1.7.2. Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 , . . . , λn ). Entonces,

           λ(P (A) ) = P (λ(A) ) := (P (λ1 ) , ... , P (λn ) )      para todo P ∈ C[x] .

En particular, σ (P (A) ) = P (σ (A) ) := P (λ) : λ ∈ σ (A) .

Demostraci´n. Supongamos que T ∈ T S(n). Recordemos de la Eq. (1.10) que d (T ) = λ(T ).
           o
Por la Eq. (1.22), sabemos que P (T ) ∈ T S(n) y d (P (T ) ) = P (d (T ) ). Luego,
                                     (1.10)
                         λ(P (T ) ) = d(P (T ) ) = P (d (T ) ) = P (λ(T ) ) ,

lo que prueba el Corolario en este caso. Si A ∈ Mn (C) es cualquier matriz, sean

        U ∈ U(n) y T ∈ T S(n) tales que                A = U ∗ T U y λ(A) = d(T ) = λ(T ) .
18                                                                                                Preliminares




Por la Eq. (1.21), tenemos que P (A) = U ∗ P (T )U . Luego, por la Observaci´n 1.2.4 (que
                                                                             o
dec´ que cambiar de base no cambia el vector λ) y el caso anterior, sabemos que
   ıa

                              λ(P (A) ) = λ(P (T ) ) = P (λ(T ) ) = P (λ(A) ) .


Se sugiere otra manera de hacerlo, aplicando cuentas de polinomios. Por ejemplo, factorizar
el polinomio Q(x) = P (x) − µ, para µ ∈ P (σ (A) ) o µ ∈ σ (P (A) ), y analizar qu´ pasa con
                                                                                  e
Q(A). Esta prueba es la que sirve en dimensi´n infinita. Pero tiene el defecto que no da
                                               o
informaci´n sobre multiplicidades.
         o

Corolario 1.7.3 (Hamilton-Cayley). Sea A ∈ Mn (C). Luego PA (A) es la matriz nula.

Demostraci´n. Por el Teorema 1.6.1, la Eq. (1.21) y la Observaci´n 1.2.4, sabemos que
           o                                                         o
existen U ∈ U(n) y T ∈ T S(n) tales que U T U ∗ = A, PT (x) = PA (x) y PA (A) = U PT (T )U ∗ .
Luego basta probar que PT (T ) = 0 para matrices T ∈ T S(n). En este caso, por la Eq. (1.10),
sabemos que
                                      n                                     n
                          PT (x) =         (x − Tii ) =⇒ PT (T ) =               (T − Tii I) .
                                     i=1                                   i=1

Llamemos Ti = (T − Tii I) y Hi = Gen {e1 , . . . , ei }, para cada i ∈ In . Todas las Ti estan en
T S(n), comnutan entre s´ y cumplen que (Ti )ii = 0. Luego, si H0 = {0}, se tiene que
                        ı,

     Ti (Hi ) = Ti Hi−1 ⊕ Gen {ei } = Ti Hi−1 + Gen {T ei } ⊆ Hi−1                       para todo    i ∈ In .

Si al producto de ellas PT (T ) =                 Ti lo ordenamos as´ T1 T2 . . . Tn (total las Ti conmutan),
                                                                    ı:
                                           i∈In
vemos inmediatamente que

             Ti (Cn ) =           Ti (Hn ) ⊆                Ti (Hn−1 ) ⊆ . . . ⊆ T1 T2 (H2 ) ⊆ T1 (H1 ) = {0} .
      i∈In                 i∈In                    i∈In−1


O sea que PT (T ) = 0.

Observaci´n 1.7.4. El Teorema de Hamilton Cayley vale para matrices en cualquier cuerpo.
           o
La prueba anterior es simple, pero para generalizarla hace falta subir a una clausura algebr´ica
                                                                                            a
(o aun cuerpo de descomposici´n de PA (x) ), porque necesita del Teorema 1 de Schur, que
                                o
solo vale para cuerpos algebr´icamente cerrados (se necesitan los λi (A) , que son las raices
                              a
que factorizan a PA (x) ). A nadie se le ocurra postular la siguiente prueba general:

                                     PA (A) = det(A · I − A) = det 0 = 0,

porque es desastrosamente err´nea. En palabras del maestro Enzo Gentile, “es peor que
                              o
pegarle una patada a una vieja en la cara” (sic).
1.8 QR                                                                                                           19




1.8      QR

Otra aplicaci´n importante de las matrices triangulares es el denominado m´todo QR.
             o                                                            e

                                          ıtems 6 y 7 de 1.5.1. Sea A ∈ Mn (C) y fijemos
1.8.1. Repaso: Recordemos lo visto en los ´
una columna Ci (A). Observar que alguna entrada de Ci (A) aparece al calcular cualquier
entrada de AB. Pero siempre multiplicada por alguna entrada de la Fi (B) (recordar que
             m
(AB)st =           Asi Bit ). Por lo tanto, si Fi (B) = 0, entonces podemos cambiar a piacere la
             i=1
Ci (A) sin que ello afecte al producto AB. An´logamente, si Ci (A) = 0, se puede cambiar
                                             a
impunemente a Fi (B) .

Teorema 1.8.2. Sea A ∈ Mn (C). Entonces existen Q ∈ U(n) y R ∈ T S(n) tales que

   a. A = QR.
   b. Rjj ≥ 0, para todo j ∈ In .

Si A ∈ Gl (n), entonces tales Q y R son unicas.
                                        ´

Demostraci´n. Caso A ∈ Gl (n): Por el m´todo de Gramm-Schmidt, si notamos xk = Ck (A),
           o                                e
existe una BON B = {u1 , . . . , un } tal que Gen {x1 , . . . , xk } = Gen {u1 , . . . , uk }, para todo
k ∈ In . Adem´s, por la construcci´n de B por Gramm-Schmidt,
             a                      o
                  j−1
         xj −           xj , ui ui                  j                                j−1
                  i=1
 uj =             j−1
                                         =⇒ xj =         rij ui , con rjj =   xj −         xj , ui ui   > 0 . (1.23)
         xj −           xj , ui ui                 i=1                               i=1
                  i=1

Tomemos Q ∈ U(n) con columnas Ci (Q) = ui , i ∈ In . Y tomemos R ∈ T S(n) dada por
R = (rij )i, j∈In , donde ponemos rij = 0 cuando i > j. Como se vi´ en 1.5.1, tenemos que
                                                                  o
                                     n                   j
 Cj (QR) = Q · Cj (R) =                  rij Ci (Q) =         rij ui = xj = Cj (A) ,       para todo j ∈ In .
                                   i=1                  i=1

Por lo tanto A = QR.

Unicidad: Si hubiera otro par Q , R cumpliendo las hip´tesis, llamemos Ci (Q ) = vi para
                                                                    o
cada i ∈ In . Es f´cil ver que Gen {x1 , . . . , xk } = Gen {v1 , . . . , vk }, k ∈ In (usar la Eq. (1.7) ).
                  a
De ah´ se deduce que existen constantes ci tales que |ci | = 1 y vi = ci ui para todo i ∈ In .
      ı
Como rii > 0, de la Eq. (1.23) y del hecho de que A = Q R , se deduce que
              i                i
                                                                                  rii
      xi =         rsi vs =          rsi cs us =⇒ rii ci = rii =⇒ ci =                > 0 =⇒ ci = 1 ,
             s=1              s=1
                                                                                  rii
20                                                                                              Preliminares




para todo i ∈ In . Luego Q = Q y, por lo tanto R = Q∗ A = R.
Caso general: Si A ∈ Gl (n), el proceso es similar, salvo que, cada vez que aparece un
                   /
                                         xk ∈ Gen {x1 , . . . , xk−1 } ,
se pone uk = 0 en la Ck (Q), y, en la Eq. (1.23), ponemos rkj = 0 para todo j ∈ In , dado que
el uk = 0 no aporta para generar a los xj (j ≥ k). Luego Fk (R) = 0.
As´ queda que R ∈ T S(n), A = QR y rii ≥ 0 para todo i ∈ In , pero Q ∈ U(n). Esto se
   ı                                                                         /
arregla de la siguiente mantera: se cambian las Ck (Q) = uk = 0 del proceso anterior por
                                           ⊥
una BON de R(A)⊥ = Gen {uj : uj = 0} (observar que la cantidad es la correcta). Como
se vi´ en el repaso 1.8.1 (o bien en 1.5.1), al multiplicar la Q cambiada por R, cada una de
     o
las nuevas Ck (Q) s´lo opera con la respectiva Fk (R) = 0. Luego sigue pasando que A = QR,
                   o
pero ahora Q ∈ U(n).
Ejercicio 1.8.3. Sea A ∈ Mn (C). Usando QR, probar que
                                                      n
                                      | det A| ≤             Ci (A)   2    ,                           (1.24)
                                                     i=1

y que son iguales si y s´lo si A∗ A es diagonal (o sea que R lo es). Se sugiere interpretarlo
                        o
tambi´n como un c´lculo de vol´menes.
     e            a             u


1.9     Matrices de rango uno
Recordemos que, si A ∈ Mn,m (C), notamos rk(A) = dim R(A). A continuaci´n daremos una
                                                                       o
caracterizaci´n muy util de las matrices con rango uno.
             o
Definici´n 1.9.1. Dados x ∈ Cn e y ∈ Cm consideremos la matriz
       o
                              
                            x1
           x y := xy ∗ =  .  · [ y1 , . . . , ym ] = (xi yj ) i∈In ∈ Mn,m (C) .
                          . 
                             .                                                                         (1.25)
                                                                               j∈Im
                                      xn
Observar que x      y act´a en Cm de la siguiente manera:
                         u
                x   y(z) = (xy ∗ ) z = x (y ∗ z) = z, y x             para todo z ∈ Cm .               (1.26)
Por lo tanto, se tiene que R(x           y) ⊆ Gen {x}, por lo que rk(x                y) ≤ 1.
Por ejemplo, si A ∈ Mn,m (C) cumple que su unica columna no nula es Ck (A), entonces se ve
                                            ´
                             (m)
f´cilmente que A = Ck (A) ek , tanto por la Eq. (1.25) como por la Eq. (1.26). Observar
 a
que todo Mn,m (C) es el span de este tipo de matrices, porque se tiene la igualdad
          m                          n
                           (m)              (n)
     A=         Ck (A)    ek     =         ej     Fj (A) ,      para toda A ∈ Mn,m (C) .               (1.27)
          k=1                        j=1

La segunda igualdad se sigue de un argumento similar al anterior.
1.9 Matrices de rango uno                                                                                    21




Proposici´n 1.9.2.
         o

  1. Si A ∈ Mn,m (C) tiene rk(A) ≤ 1, existen x ∈ Cn e y ∈ Cm tales que A = x                         y.
  2. Mn,m (C) = Gen {x      y : x ∈ Cn e y ∈ Cm }.

Demostraci´n.
          o

  1. Sea x ∈ Cn tal que R(A) = Gen {x}. Luego existe una funcional lineal
                   ϕ : Cm → C       tal que Az = ϕ(z) · x , para todo z ∈ Cm .
     Es sabido que existe un unico y ∈ Cm tal que ϕ(z) = ϕy (z) = z, y , para todo z ∈ Cm
                               ´
     (basta poner yi = ϕ(ei ), para cada i ∈ Im ). Luego, por la Eq. (1.26), podemos concluir
     que A = x y.
  2. Se deduce de la Eq (1.27).
1.9.3. Estudiaremos a continuaci´n las propiedades de las matrices x y. Enumeraremos
                                    o
los resultados, y las pruebas no escritas quedar´n como ejercicio para el lector. Tomemos dos
                                                a
vectores x ∈ Cn e y ∈ Cm . Luego:

  1. La norma espectral: x      y   sp   = x     y , ya que ϕy        sp   = m´x |ϕy (z)| = y .
                                                                              a
                                                                               z =1

  2. El adjunto: (x    y)∗ = (xy ∗ )∗ = y x∗ = y          x.
  3. Si A ∈ Mn (C), se tiene que A · (x        y) = A · x · y ∗ = (Ax)             y.
  4. Si B ∈ Mm (C), entonces (x          y) · B = x       (B ∗ y) (usar 2 y 3, o la Eq. (1.26) ).
  5. Dados v ∈ Cm y w ∈ Ck , se tiene que (x              y) · (v   w) = v, y · x            w ∈ Mn,k (C).

A partir de ahora supondremos que n = m, o sea que x                y ∈ Mn (C).

  6. El espectro: El unico autovalor de x y que puede ser no nulo es λ1 = x, y (adivinen
                     ´
     qui´n es el autovector). M´s a´n, λ(x y) = ( x, y , 0, . . . , 0). Para verlo basta tomar
        e                      a u
     la matriz de x y en una base que empiece por x, y usar la Proposici´n 1.5.4.
                                                                              o
  7. Si x = 1, entonces x x = Px es el proyector ortogonal sobre Gen {x}. En efecto,
     observar que x x(z) = z, x · x, la conocida f´rmula de dicho proyector (se usa el
                                                  o
     hecho de que z − z, x · x ∈ {x}⊥ ).
                                                      x        x   1
  8. En general, si x = 0, el proyector Px =                     =         2
                                                                               x        x.
                                                      x        x   x
  9. Autoadjuntos: Se tiene que A ∈ H(n) si y s´lo si A se descompone como una suma
                                                   o
     algebr´ica (i.e. con ± 1) de matrices xi xi (elegir los xi entre los autovectores de A y
           a
     esperar hasta el Teorema 2.2.1).
 10. Positivos: A ∈ Mn (C)+ si y s´lo si A se descompone como una suma de matrices
                                   o
     xi xi (ver Proposici´n 3.5.6 de bastante m´s adelante).
                         o                     a
22                                                                                                      Preliminares




1.10      Ejercicios
Ejercicios que aparecen en el texto
1.10.1 (Polarizaci´n, Lema 1.1.10).
                  o

Sea H un C-espacio de Hilbert y sea A ∈ L(H). Entonces
                        4
                   1
         Ax, y =                ik     A (x + i k y), (x + i k y)              para todo par x, y ∈ H .
                   4
                       k=1

1.10.2. Demostrar los 7 items de 1.4.2 (sobre matrices triangulares).
1.10.3. Demostrar los 8 items de 1.5.1 y los 6 items de 1.5.2 (sobre matrices de bloques).
1.10.4. Demostrar la Proposici´n 1.5.4 usando la definici´n del determinante con permuta-
                               o                        o
ciones de Sn . Usar que las permutaciones que no pasan por el bloque nulo de abajo, son
todas las del tipo σ ∈ Sk × Sn−k .
1.10.5. Demostrar los 10 items de 1.9.3 (sobre matrices tipo x                             y).
1.10.6. Sean A, ∈ Mm,n (C). Entonces se tiene que

     A∗ A ∈ Mn (C)+         y        (A∗ A)i,j =    Cj (A) , Ci (A)            ,       para todo par i, j ∈ In .
                                 n                       n
En particular, tr(A∗ A) =              Cj (A)   2
                                                    =            |aij |2 .
                                j=1                     i,j=1

1.10.7. Sean A, ∈ Mm,n (C)               L(Cm , Cn ). Mostrar que entonces
                                                                                   ⊥
                                ker A = Gen {F1 (A), . . . , Fn (A) } ⊆ Cn .

Deducir que rkF (A) := dim Gen {F1 (A), . . . , Fn (A) } = rk(A), o sea que los rangos fila y
columna de A coinciden.
1.10.8. Sea A ∈ Mn (C). Usando QR, probar que
                                                             n
                                          | det A| ≤                  Ci (A)   2
                                                                                   ,
                                                          i=1

y que son iguales si y s´lo si A∗ A es diagonal (o sea que R lo es). Se sugiere interpretarlo
                        o
tambi´n como un c´lculo de vol´menes.
     e            a             u


Ejercicios nuevos
1.10.9. Mostrar que una matriz diagonalizable A satisface una ecuaci´n polinomial de grado
                                                                    o
igual al |σ(A)|, y no menor.
1.10 Ejercicios                                                                                        23




1.10.10. Usar el Teorema 1 de Schur para probar que si, A ∈ Mn (C) tiene vector de auto-
                                                       n
valores λ(A) = (λ1 , . . . , λn ), entonces tr Ak =         λk , para todo k ∈ N.
                                                             i
                                                      i=1

1.10.11. Deducir que, si A, B ∈ Mn (C) cumplen que tr Ak = tr B k para todo k ∈ N, entonces
λ(A) = λ(B) (si usamos el mismo convenio para ordenarlos).
1.10.12. Dadas A, B ∈ Mn (C), notemos C = AB − BA. Probar que si C conmuta con A,
entonces C es nilpotente.
1.10.13 (Triangulares). Si T ∈ T S(n) es inversible, probar que
                                                                    −1
                       T −1 ∈ T S(n)      y    d T −1 = d (T )           = λ(T )−1 .
1.10.14. Sea A ∈ Mn (C). Demostrar:

   1. Para todo ε > 0, existe una matriz diagonalizable Dε tal que A − D                sp   ≤ ε.
                                                                                       −1
   2. Para todo ε > 0 existe una matriz inversible S tal que T = SAS                         es una matriz
      triangular superior que satisface
                                              n−1
                                                        |Tij |2 ≤ ε.
                                              i=1 j>i

      Notar que se suman los cuadrados de los m´dulos de las entradas que est´n estrictamente
                                                o                            a
      sobre la diagonal, por lo que puede decirse que T esta muy pr´xima a ser diagonal.
                                                                    o
1.10.15. El objetivo de este ejercicio es probar que las “matrices de matrices”, com´nmente
                                                                                    u
llamadas matrices de bloques, se comportan del mismo modo que las matrices con entradas
escalares. Una matriz de bloques es una matriz A, de n × m, tal que sus entradas son
matrices: para cada i, j,
                                      Aij ∈ Mni ×mj (C).
Para que tenga sentido multiplicarlas como matrices de bloques, es decir que valga la f´rmula
                                                                                       o
                                                      n
                                       (A · B)ij =          Aik Bkj ,
                                                      k=1

hay que restringirse a conjuntos de matrices donde las condiciones sobre los tama˜os de los
                                                                                    n
bloques son m´s espec´
              a        ıficas. Hallar estas condiciones. Explicitar en el caso m = n = 2.
1.10.16. Considerar la matriz de bloques
                                       A11     0
                              A=                        ,    Aii ∈ Mni (C)
                                        0     A22 ,
Mostrar que σ(A) = σ(A11 ) ∪ σ(A22 ). Si la matriz es triangular de bloques, es decir
                                A11     A12
                        A=                     , Aii ∈ Mni (C) ,          i = 1, 2,
                                 0      A22
¿qu´ se puede decir del σ (A)?.
   e
24                                                                                  Preliminares




1.10.17. Explicar cu´l es el error en cada una de las siguientes “demostraciones” (falsas) del
                    a
Teorema de Hamilton-Cayley:

     1. Como pA (λ) = 0 para cada autovalor λ de A, y como los autovalores de q(A) son los
        q(λ) para cualquier polinomio, se sigue que los autovalores de pA (A) son todos nulos;
        por lo tanto, pA (A) = 0.

     2. Como pA (t) = det(tI − A), pA (A) = det(AI − A) = det(A − A) = det 0 = 0. Por lo
        tanto, pA (A) = 0.

1.10.18. Sea En ∈ Mn (C) la matriz cuyas entradas son todas iguales a 1. Hallar los auto-
valores de E2 y E3 . Generalizar para En .

1.10.19. Probar que cualquier familia de matrices que conmutan dos a dos tiene un autovector
com´n a todas, mediante los siguientes pasos:
    u

     1. Probar que si A, B ∈ Mn (C) conmutan, entonces tienen un autovector en com´n.
                                                                                  u

     2. Si F = {A1 , . . . , Am } es una familia finita de matrices que conmutan dos a dos, usar
        inducci´n para probar que hay un autovector com´n para todos.
               o                                            u

     3. Si la familia tiene cardinal no finito, encontrar alg´n curro para que d´.
                                                            u                  e

1.10.20. Sean A, B ∈ Mn (C), y suponer que una de las dos es no singular. Si AB es
diagonalizable, mostrar que BA es diagonalizable. Hallar un contraejemplo si A y B son
singulares.

1.10.21. Sean x, y, z, w ∈ Cn todos vectores unitarios. Probar que

          x, y = z, w     =⇒       existe U ∈ U(n) tal que U x = z     y    Uy = w .


1.10.22. Sea A ∈ Mn (C). Una factorizaci´n A = BC con B, C ∈ Mn (C) es llamada
                                        o

     1. LU -factorizaci´n si B es triangular inferior y C ∈ T S(n).
                       o

     2. U L-factorizaci´n si C es triangular inferior y B ∈ T S(n).
                       o

Probar que siempre existen tales factorizaciones.

1.10.23. Sean A, B ∈ Mn (C). Definamos las transformaciones lineales

LA y RB : Mn (C) → Mn (C)          dadas por LA (X) = AX y RB (X) = XB , X ∈ Mn (C) .

     1. Probar que σ(LA ) = σ(A) y que σ(RB ) = σ(B).

     2. Probar que σ(LA − RB ) = {λ − µ : λ ∈ σ(A) y µ ∈ σ(B)}.

     3. Deducir que las siguientes condiciones son equivalentes:
1.10 Ejercicios                                                                            25




      (a) Para todo Y ∈ Mn (C), existe un unico X ∈ Mn (C) tal que AX − XB = Y .
                                          ´
      (b) σ(A) ∩ σ(B) = ∅.

1.10.24 (Proceso QR). Sea A ∈ Gl (n). Asumiremos que todos los autovalores de A tienen
m´dulos distintos. Definiremos recursivamente tres sucesiones
  o

   {Am }m∈N       en Mn (C) ,   {Qm }m∈N      en U(n) ,    y    {Rm }m∈N   en T S(n) ,

donde todas las factorizaciones que haremos ser´n la unica QR del Teorema 1.8.2:
                                               a     ´

  1. Pongamos A1 = A = Q1 R1 .

  2. Definimos A2 = R1 Q1 y lo factorizamos A2 = Q2 R2 .
  k. Definido Ak = Rk−1 Qk−1 , lo factorizamos Ak = Qk Rk , y definimos Ak+1 = Rk Qk .
 m. As´ seguimos definiendo y factorizando para todo m ∈ N.
      ı

Probar que estas sucesiones cumplen lo siguiente.

      (a) A2 = Q∗ AQ1 y A3 = Q∗ A2 Q2 = Q∗ Q∗ A Q1 Q2 .
                1             2          2 1
                                    m
                                                                     ∗
      (b) Dado m ∈ N, sea Um =           Qk ∈ U(n). Entonces Am+1 = Um A Um .
                                   k=1
      (c) Se cumple que Qm − − → I. M´s a´n, Um − − → U ∈ U(n).
                            −−       a u         −−
                                m→∞                       m→∞
      (d) Rm − − → T ∈ T S(n), y tambi´n Am = Qm Rm − − → T .
              −−                      e              −−
               m→∞                                              m→∞
                ∗
      (e) T = U AU , por lo que λ(T ) = λ(A).

Este proceso es f´cil de aplicar, porque hacer QR es barato computacionalmente. Observar
                 a
es un algoritmo para realizar el Teorema 1 de Schur 1.6.1, por lo que que permite calcular los
autovalores de A, cosa que en general es bien complicada. Sin embargo, las pruebas de los
items (c), (d) y (e) son bastante dif´
                                     ıciles, y se enuncian m´s a t´
                                                            a      ıtulo informativo que como
verdadero ejercicio. Sugerimos asumir (c) y probar todo lo dem´s.a
26   Preliminares
Cap´
   ıtulo 2

Matrices normales y
Hermitianas

2.1     Matrices normales

2.1.1. Repaso: Sean A ∈ Mn (C) y a = (a1 , . . . , an ) ∈ Cn .

  1. Recordemos que una matriz A ∈ Mn (C) es normal si A∗ A = AA∗ , es decir si A conmuta
     con su adjunta.
  2. Si a = (a1 , . . . , an ) ∈ Cn , recordemos que diag (a) denota la matriz diagonal
                                                                          
                                                                a1 0     0
                          diag (a) = diag (a1 , . . . , an ) =  . . . . .  ∈ Mn (C).
                                                               .        .
                                                                 .       .
                                                                 0  0 an

  3. El Teorema 1.3.3 dec´ que si B ∈ Mn (C) cumple que A ∼ B, entonces
                         ıa                               =

       λ(A) = λ(B) , A     2
                               = B   2
                                         , A   sp   = B   sp   y A es   si y s´lo si B es
                                                                              o             , (2.1)

      con   = Hermitiana, anti-Hermitiana, normal, definda positiva o unitaria.
Teorema 2.1.2. Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 , ... , λn ). Entonces
las siguientes condiciones son equivalentes:

  1. A es normal.
  2. Para todo x ∈ Cn , Ax = A∗ x .
  3. A ∼ D para cierta matriz diagonal D ∈ Mn (C) .
       =
28                                                                                 Matrices normales y Hermitianas




     4. A ∼ diag (λ(A) ).
          =

     5. Existe una BON B = {v1 , . . . , vn } de Cn tal que Avi = λi vi para todo i ∈ In .
                    n
            2
     6. A   2
                =         |λi |2
                    i=1

Demostraci´n. 1 → 2: Para cada x ∈ Cn , se tiene que
          o

                                   Ax     2
                                              = A∗ Ax, x        y           A∗ x   2
                                                                                       = AA∗ x, x .

2 → 3: Por el Teorema 1 de Schur 1.6.1, existen U ∈ U(n) y T ∈ T S(n) tales que T = U ∗ AU .
Luego, tambi´n se tiene que T y = T ∗ y , para todo y ∈ Cn . Aplicando esto a la base
              e
can´nica, se deduce inductivamente (fila por fila) que T debe ser diagonal.
   o
3 → 4: Si A ∼ D, con D diagonal, la Eq. (2.1) asegura que λ(D) = λ(A). Pero como D es
             =
diagonal, λ(D) = d (D) salvo el orden. Conjugando con una matriz de permutaci´n (o sea
                                                                                o
que tiene a la base can´nica en alg´n otro orden en sus columnas, por lo que es unitaria),
                       o           u
reordenamos la diagonal de D, obteniendo que D ∼ diag (λ(A) ).
                                                =

4 ↔ 5: Llamemos D = diag (λ(A) ). Si existe U ∈ U(n) tal que D = U ∗ AU , tomemos
B = {C1 (U ), . . . , Cn (U )}. Como AU = U D, la f´rmula (1.12) dec´ que ACi (U ) = λi Ci (U )
                                                     o              ıa
para todo i ∈ In . Rec´      ıprocamente, si existe B como en 5, tomar la U ∈ U(n) dada por
Ci (U ) = vi , para todo i ∈ In , y hacer la misma cuenta.
                                                                                                                          n
4 → 6: Si A ∼ diag (λ(A) ), la Eq. (2.1) muestra que A
            =                                                                          2
                                                                                       2
                                                                                           = diag (λ(A) )         2
                                                                                                                  2
                                                                                                                      =         |λi |2 .
                                                                                                                          i=1
6 → 1: Si U ∈ U(n) y T ∈ T S(n) cumplen T = U ∗ AU y d (T ) = λ(A), entonces
                                   n                                         n
                                         |λi |2 = A   2
                                                      2
                                                          = T       2
                                                                    2
                                                                        =         |λi |2 +            |tij |2 .
                                   i=1                                      i=1                 i<j


Por lo tanto tij = 0 para i < j, o sea que T es diagonal, y por ende normal. Por la Eq. (2.1),
tambi´n A debe ser (o sea normal).
      e

Definici´n 2.1.3. Sea A ∈ Mn (C) una matriz normal. Diremos que
       o

                             B = {v1 , . . . , vn }       es una BON adaptada a λ(A)

                ıtem 4 del Teorema 2.1.2, es decir que B es una BON de Cn , y Avi = λi (A) vi
si B verifica el ´
para todo i ∈ In .


Hemos visto en la Eq. (1.6) que si A ∈ Mn (C), entonces ρ(A) ≤ w(A) ≤ A sp , y que en
general estas desigualdades pueden ser estrictas. Pero no es as´ cuando A es normal:
                                                               ı

Corolario 2.1.4. Si A ∈ Mn (C) es normal, entonces A                                       sp   = w(A) = ρ(A).
2.2 Matrices Hermitianas                                                                        29




Demostraci´n. Sea λ(A) = (λ1 , ... , λn ) el vector de autovalores de A. Llamemos D =
            o
diag (λ(A) ). Por el Teorema 2.1.2, existe U ∈ U(n) tal que A = U DU ∗ . Por un lado, la Eq.
(2.1) asegura que A sp = D sp y que ρ(A) = ρ(D), pues tienen el mismo espectro. Por
otro lado, si x = (x1 , . . . xn ) ∈ Cn es unitario (i.e. x = 1), entonces
                                  n                                    n
                          2
                     Dx       =         |λi |2 |xi |2 ≤ m´x |λi |2 ·
                                                         a                   |xi |2 = ρ(A)2 ,
                                                      i∈In
                                  i=1                                  i=1

por lo que A   sp   = D   sp   ≤ ρ(A). Las otras desigualdades las vimos en la Eq. (1.6).
Corolario 2.1.5. Sean A, B ∈ Mn (C) matrices normales. Si tomamos un orden fijo en C
para ordenar los vectores λ(A) y λ(B), se tiene que
         λ(A) = λ(B) ⇐⇒ existe U ∈ U(n) tal que B = U AU ∗ , i.e. A ∼ B .
                                                                    =
En otras palabras, si definimos la ´rbita unitaria U(A) := { U AU ∗ : U ∈ U(n)}, entonces
                                  o
                               U(A) = { B ∈ N (n) : λ(B) = λ(A) } .

Demostraci´n. La Eq. (2.1) asegura que si A ∼ B, entonces λ(A) = λ(B). Rec´
           o                                  =                           ıprocamente,
si D = diag (λ(A) ) = diag (λ(B) ), el Teorema 2.1.2 dice que A ∼ D ∼ B.
                                                                = =


2.2     Matrices Hermitianas
Por lo general no es f´cil calcular los autovalores de una matriz. Pero en muchos casos es
                       a
suficiente saber que ellos est´n en un intervalo especificado. En el resto de este Cap´
                             a                                                       ıtulo estu-
diaremos algunas de las principales caracter´ısticas que distinguen a las matrices Hermitianas,
en particular los principios variacionales que se utilizan para localizar su espectro, sin la
necesidad de conocer los autovectores asociados en forma exacta. Recordemos las notaciones
          H(n) = {A ∈ Mn (C) : A = A∗ }                 y    Mn (C)+ = {A ∈ H(n) : A ≥ 0} .
Teorema 2.2.1. Sea A ∈ Mn (C). Luego son equivalentes:

  1. A ∈ H(n) .
  2. A es normal y σ(A) ⊆ R.
  3. λ(A) ∈ Rn y existe una base ortonormal B adaptada a λ(A).
  4. λ(A) ∈ Rn y A ∼ diag (λ(A) ), i.e. existe U ∈ U(n) tal que U ∗ AU = diag (λ(A) ).
                   =
  5. Ax, x ∈ R para todo x ∈ Cn .

Demostraci´n. Por el Corolario 1.6.6, se tiene que λ(A∗ ) = λ(A). Por lo tanto, si A ∈ H(n),
           o
vemos que σ(A) ⊆ R. El resto se deduce del Teorema 2.1.2 y del hecho de que una matriz
diagonal en Mn (R) debe ser autoajunta. La equivalencia entre el ´
                                                                 ıtem 5 y los dem´s se sigue
                                                                                   a
del Corolario 1.1.13.
30                                                         Matrices normales y Hermitianas




Definici´n 2.2.2. Sea A ∈ H(n). Por el Teorema anterior, σ (A) ⊆ R. Por lo tanto, sus
        o
autovalores pueden ordenarse usando el orden de R. En adelante usaremos las siguientes
notaciones:

     1. Escribiremos λ(A) = (λ1 (A), . . . , λn (A)) para denotar al vector de autovalores de A
        ordenados en forma creciente, es decir λk (A) ≤ λk+1 (A), k ∈ In−1 .
     2. µ(A) = (µ1 (A), . . . , µn (A)) ser´ el vector de autovalores de A ordenados en forma
                                           a
        decreciente, es decir µk (A) ≥ µk+1 (A), k ∈ In−1 . Tambi´n µk (A) = λn−k+1 (A).
                                                                    e
     3. Se llamar´n
                 a

       λm´ (A) = λ1 (A) = µn (A) = m´ σ (A)
         ın                         ın             y     λm´x (A) = λn (A) = µ1 (A) = m´x σ (A) .
                                                           a                           a

As´ cuando escribamos λi (A) o, directamente λi (si el contexto es claro) estaremos asum-
   ı,
iendo que al enumerar los autovalores de A lo hemos hecho en forma creciente. Y en forma
decreciente si escibimos µi (A) o µi .
Proposici´n 2.2.3. Sea A ∈ H(n). Entonces se tiene que
         o

                             A   sp   = ρ(A) = m´x{λn (A), −λ1 (A)} .
                                                a                                           (2.2)

Demostraci´n. Como H(n) ⊆ N (n), la igualdad A sp = ρ(A) se sigue del Corolario 2.1.4.
           o
La otra se deduce de que σ(A) ⊆ [λ1 (A), λn (A)] ⊆ R, y contiene a los bordes.


2.3       Principio minimax
Para matrices generales la unica caracterizaci´n conocida de sus autovalores es que son las
                            ´                   o
ra´
  ıces del polinomio caracter´ıstico de la matriz. Pero cuando las matrices son Hermitianas,
el hecho de poder establecer un orden entre ellos nos permite obtener caracterizaciones m´s
                                                                                          a
interesantes. Los pr´ximos teoremas describen al vector λ(A), para A ∈ H(n), en funci´n de
                     o                                                                o
                 Ax, x
las expresiones        , para x ∈ Cn  {0}, conocidas como cocientes de Rayleig-Ritz.
                  x, x
Teorema 2.3.1 (Rayleigh-Ritz). Sea A ∈ H(n). Entonces

     1. Para todo x ∈ Cn se tiene que λm´ (A) x
                                        ın
                                                    2
                                                        ≤ Ax, x ≤ λm´x (A) x 2 .
                                                                    a

                                       Ax, x
     2. λm´x (A) = λn (A) = m´x
          a                  a               = m´x Ax, x .
                                                a
                                 x=0    x, x   x =1

                                       Ax, x
     3. λm´ (A) = λ1 (A) = m´
          ın                ın               = m´ Ax, x .
                                                 ın
                               x=0      x, x   x =1

En particular, si A ∈ H(n), tenemos que

                      A ∈ Mn (C)+ ⇐⇒ λm´ (A) ≥ 0 ⇐⇒ σ (A) ⊆ R+ .
                                       ın
2.3 Principio minimax                                                                                                 31




Demostraci´n. Sea B = {v1 , . . . , vn } una BON de Cn adaptada a λ(A), o sea que Avi =
            o
λi (A)vi para todo i ∈ In . Por lo tanto, dado x ∈ Cn , se tiene que
          n                                     n                                        n
                                        2
     x=         x, vi vi ,        x         =         | x, vi | 2    y      Ax, x =          λi (A) | x, vi | 2 .   (2.3)
          i=1                                   i=1                                   i=1

Luego, si asumimos que x = 1, tenemos que
                          n                                          n
           Ax, x =             λi (A) | x, vi | 2 ≤ λn (A)                | x, vi | 2 = λn (A) = Avn , vn .
                         i=1                                        i=1

                                    n
An´logamente, Ax, x =
  a                                         λi (A) | x, vi | 2 ≥ λ1 (A) = Av1 , v1 . Es claro que estas de-
                                   i=1
sigualdades muestran los tres ´
                              ıtems a probar.
Observaci´n 2.3.2. Dada A ∈ H(n), las caracterizaciones del Teorema anterior se pueden
            o
reescribir de la siguiente forma: λ1 (A) I ≤ A ≤ λn (A) I,

              λ1 (A) = m´x{λ ∈ R : λ I ≤ A}
                        a                                       y              ın{λ ∈ R : A ≤ λ I} .
                                                                     λn (A) = m´

En efecto, para mostrarlo basta recordar que dados B, C ∈ H(n), vale que

                    B ≤ C ⇐⇒ B x , x ≤ C x , x para todo x unitario en Cn .


Notaciones: En el resto de esta secci´n usaremos las siguientes convenciones:
                                     o

   1. Las letras M y S denotar´n subespacios de Cn .
                              a
   2. Dado M ⊆ Cn , escribiremos

                                                      M1 = {x ∈ M : x = 1}

      al conjunto de elementos de M de norma uno.

Teorema 2.3.3 (Courant-Fisher). Sea A ∈ H(n) y sea k ∈ In . Entonces,

                      λk (A) =     m´
                                    ın            m´x Ax, x =
                                                   a                        m´x
                                                                             a        m´ Ax, x .
                                                                                       ın
                                 dim M=k x∈M1                            dim S=n−k+1 x∈S1


Demostraci´n. Sea B = {v1 , . . . , vn } una BON de Cn adaptada a λ(A). Como en la prueba
           o
del Teorema 2.3.1, cualquier x ∈ Cn verifica la Eq. (2.3). Dado r ∈ In , notemos por
Hr = Gen {v1 , . . . , vr } y Kr = Gen {vr , . . . , vn }. Notar que dim Hr = r y dim Kr = n − r + 1.
Por la Eq. (2.3) vemos que, si x ∈ Kk ,
                n
   Ax, x =            λi (A) | x, vi | 2 =⇒ λk (A) = m´
                                                      ın                       Ax, x ≤        m´x
                                                                                               a          m´ Ax, x .
                                                                                                           ın
                                                                    x∈(Kk )1             dim S=n−k+1 x∈S1
                i=k
32                                                                      Matrices normales y Hermitianas




Por otro lado, si dim S = n − k + 1, entonces S ∩ Hk = {0}. Pero si y ∈ (S ∩ Hk )1 , la Eq.
                                       k                                            k
(2.3) asegura que Ay, y =                  λi (A) | y, vi | 2 y que y       2
                                                                                =         | y, vi | 2 = 1 . Luego
                                   i=1                                              i=1

     Ay, y ≤ λk (A) =⇒ m´ Ax, x ≤ λk (A) =⇒ λk (A) ≥
                        ın                                                                    m´x
                                                                                               a          m´ Ax, x .
                                                                                                           ın
                                  x∈S1                                                    dim S=n−k+1 x∈S1

La otra f´rmula se demuestra en forma an´loga: el
         o                              a                             m´
                                                                       ın       se alcanza en M = Hk , y cualquier
                                                                   dim M=k
otro tal M cumple que M ∩ Kk = {0}.
Observaci´n 2.3.4. La versi´n tradicional de las f´rmulas de Courant-Fisher ser´ la sigu-
         o                 o                      o                            ıa
iente:
                                                            x∗ Ax                                                 x∗ Ax
     λk (A) =          m´
                        ın                   m´x
                                              a                   =         m´x a                   m´
                                                                                                     ın                 .
                w1 ,w2 ,...,wn−k ∈Cn      x=0,x∈Cn           x∗ x   w1 ,w2 ,...,wk−1 ∈Cn       x=0,x∈Cn            x∗ x
                                       x⊥w1 ,w2 ,...,wn−k                                    x⊥w1 ,w2 ,...,wk−1




Teorema 2.3.5 (Teorema de Weyl). Sean A, B ∈ H(n). Entonces:
           λj (A) + λ1 (B) ≤ λj (A + B) ≤ λj (A) + λn (B)                           para todo j ∈ In .                 (2.4)

Demostraci´n. Por el Teorema 2.3.1, para todo x ∈ Cn tal que x = 1, se tiene que
          o
                       Ax, x + λ1 (B) ≤ Ax, x + Bx, x ≤ Ax, x + λn (B) .
Por lo tanto el teorema se puede deducir de las f´rmulas de Courant-Fischer.
                                                 o

Observaci´n 2.3.6. Una reformulaci´n del Teorema de Weyl, que es bastante com´n en sus
           o                            o                                    u
aplicaciones, es la siguiente: Sean C, D ∈ H(n), entonces:
            λ1 (C − D) ≤ λj (C) − λj (D) ≤ λn (C − D) ,                             para todo       j ∈ In .           (2.5)
Para mostrarla, basta tomar A = D y B = C − D, observar que ambos viven en H(n), que
A + B = C y, por ultimo, aplicar la Eq. (2.4).
                  ´


Corolario 2.3.7. Sean A, B ∈ H(n) tales que A ≤ B, i.e. B − A ∈ Mn (C)+ . Entonces
                                 λj (A) ≤ λj (B)              para todo j ∈ In .

Demostraci´n. Llamemos C = B − A. Por el Teorema 2.3.5, tenemos que
          o
                    λj (A) + λ1 (C) ≤ λj (A + C) = λj (A + (B − A) ) = λj (B) .
Por otra parte, como C ∈ Mn (C)+ , entonces λ1 (C) = m´ Cx, x ≥ 0.
                                                      ın
                                                                            x =1

Una consecuencia importante del Teorema de Weyl es el hecho de que, entre las autoadjuntas,
matrices muy cercanas tienen autovalores muy cercanos. Y con cotas bien claras:
2.4 Entrelace de Cauchy                                                                     33




Corolario 2.3.8. Sean A, B ∈ H(n). Entonces:
             λ(A) − λ(B)    ∞   := m´x |λj (A) − λj (B)| ≤ ρ(A − B) = A − B
                                    a                                            sp   .
                                  j∈ In


Demostraci´n. Por el Teorema de Weyl, en su versi´n dada por la Eq. (2.5), se tiene que
          o                                      o
            λ1 (A − B) ≤ λj (A) − λj (B) ≤ λn (A − B) ,        para todo     j ∈ In .
Por lo tanto, aplicando la Proposici´n 2.2.3, se obtiene que
                                    o

          λ(A) − λ(B)   ∞   ≤ m´x |λ| : λ ∈ λ1 (A − B), λn (A − B)
                               a                                           = ρ(A − B) .

Ejercicio 2.3.9 (Aronszajn). Demostrar las siguientes afirmaciones:

  1. Dados S1 , S2 y S3 subespacios de Cn , probar que
                       dim(S1 ∩ S2 ∩ S3 ) ≥ dim S1 + dim S2 + dim S3 − 2n .

  2. Sean A, B ∈ H(n). Dados i, j ∈ In tales que i + j ≤ n + 1, se tiene que
                                  µi+j−1 (A + B) ≤ µi (A) + µj (B) .



2.4     Entrelace de Cauchy
Una consecuencia directa del Teorema de Courant-Fisher es el llamado teorema de entrelace
de Cauchy, que relaciona los autovalores de una matriz Hermitiana con los de sus submatrices
principales. Antes fijaremos nuevas notaciones para estas submatrices:
Definici´n 2.4.1. Sean A ∈ Mn (C) y J ⊆ In . Si J tiene k elementos, notaremos
       o
             A[J] = {aij }i,j∈J ∈ Mk (C)      y   A(J) = {aij }i,j ∈J ∈ Mn−k (C) .
                                                                   /

Si el contexto lo permite, a veces abreviaremos A[J] = AJ , como en la secci´n 1.5. Con esa
                                                                              o
convenci´n, se tiene que A(J) = AIn J . Observar que A[J] es la matriz cuadrada resultante
         o
de borrar de A las filas y columnas con ´ ındices fuera de J. Para cada r ∈ In , llamaremos
                            Ar = A({r}) = {aij }i=r=j ∈ Mn−1 (C) ,                        (2.6)
a la submatriz principal obtenida de borrar la fila y la columna r-´simas de A.
                                                                  e

Teorema 2.4.2 (Entrelace de Cauchy). Sean A ∈ H(n), r ∈ In y Ar ∈ Mn−1 (C) la subma-
triz principal de A obtenida como en la Eq. (2.6) . Entonces
                                  λk (A) ≤ λk (Ar ) ≤ λk+1 (A) ,
para cada k ∈ In−1 . Es decir que
              λ1 (A) ≤ λ1 (Ar ) ≤ λ2 (A) ≤ · · · ≤ λn−1 (A) ≤ λn−1 (Ar ) ≤ λn (A) .
34                                                          Matrices normales y Hermitianas




Demostraci´n. Supongamos, por simplicidad, que r = n. Los otros casos se prueban exacta-
          o
mente igual, pero con notaciones algo m´s engorrosas. Fijemos un k ∈ In−1 . Sea
                                       a

                  Hn−1 = {en }⊥ = Gen {e1 , . . . , en−1 } = {x ∈ Cn : xn = 0 } .

Si x ∈ Hn−1 , notaremos x0 = (x1 , . . . , xn−1 ) ∈ Cn−1 a su parte significativa. Observar que
                 n−1
An x0 , x0 =            Aij xj xi = Ax, x , dado que xn = 0. Trabajando s´lo con los subespacios
                                                                         o
                i,j=1
M ⊆ Hn−1 que tienen dim M = k (que son menos que los subespacios de dimensi´n k de   o
todo Cn , pero se identifican con todos los de Cn−1 ), obtenemos, del Teorema 2.3.3, que

            λk (An ) =     m´
                            ın     m´x An x0 , x0 ≥
                                    a                   m´
                                                         ın      m´x Ax, x = λk (A).
                                                                  a
                         dim M=k x∈M1                 dim M=k x∈M1
                                                           n
                         M⊆ Hn−1                       M⊆ C



Tomemos ahora subespacios S ⊆ Hn−1 tales que dim S = n − k. Como n − k = n − (k + 1) + 1
y a la ves, n − k = (n − 1) − k + 1, obtenemos

           λk (An ) =     m´x
                           a       m´ An x0 , x0 ≤
                                    ın                 m´x
                                                        a        m´ Ax, x = λk+1 (A) ,
                                                                  ın
                        dim S=n−k x∈S1               dim S=n−k x∈S1
                         S⊆ Hn−1



lo que prueba el teorema.
Observaci´n 2.4.3. En forma an´loga se puede probar versiones m´s generales del Teorema
           o                  a                                a
anterior: Dado A ∈ H(n),

     1. Si J ⊆ In cumple que |J| = r, entonces para cada k ∈ Ir , se tiene

                                     λk (A) ≤ λk A[J] ≤ λk+n−r (A) .

       Observar que, si r = n − 1, entonces k + n − r = k + 1, como en el Teorema 2.4.2
     2. M´s en general a´n, si P ∈ L(H)+ es un proyector autoadjunto (o sea ortogonal) sobre
          a             u
        un subespacio S de dim S = r, entonces al producto P AP se lo puede pensar como
        un operador en el espacio de Hilbert S (para que su vector de autovalores tenga s´lo
                                                                                         o
        r coordenadas, sacando los n − r ceros que “sobran”). A esta compresi´n se la denota
                                                                             o
        AS = P AP ∈ L(S). Entonces se obtienen desigualdades an´logas:
                                                                    a
                    S


                         λk (A) ≤ λk (AS ) ≤ λk+n−r (A) ,     para cada k ∈ Ir .

       En efecto, basta cambiar coordenadas a una BON de Cn cuyos primeros r vectores
       generen S. En esa base, AS = A[Ir ] y se aplica el caso anterior.
Ejercicio 2.4.4. Escribir expl´
                              ıcitamente c´mo quedan los resultados de esta secci´n (la
                                          o                                         o
f´rmula minimax, el teorema de Weyl y los tres entrelaces) en funci´n de los vectores µ(A)
 o                                                                 o
ordenados decrecientemente.

Ahora, como corolario del Teorema de entrelace, veremos una caracterizaci´n de positividad de
                                                                         o
matrices en t´rminos de submatrices principales. Para ello necesitamos el siguiente resultado
             e
previo.
2.4 Entrelace de Cauchy                                                                            35




Lema 2.4.5. Sea A ∈ Gl (n)+ . Entonces A[J] ∈ Gl (r)+ , para todo J ⊆ In con |J| = r.

Demostraci´n. Si HJ = Gen {ei : i ∈ J} y 0 = x ∈ HJ , llamemos xJ ∈ Cr al vector resultante
            o
de sacarle a x los ceros fuera de J. Entonces

               0 < Ax, x =                  Aij xj xi =           Aij xj xi = A[J] xJ , xJ .
                                   i,j∈In                 i,j∈J


Como tales xJ recorren todo Cr  {0}, vemos que A[J] ∈ Gl (r)+ .

Teorema 2.4.6. Si A ∈ H(n), entonces las siguientes condiciones son equivalentes:

  1. A es definida positiva (i.e. A ∈ Gl (n)+ ).

  2. Si llamamos A[k] = A[Ik ] = {aij }i,j∈Ik ∈ Mk (C) , entonces

                                      det A[k] > 0         para todo k ∈ In ,


  3. Si llamamos A(k) = A(Ik ) = {aij }i,j>k ∈ Mn−k (C) , entonces

                                  det A(k) > 0      para todo k ∈ In−1 ∪ {0} ,


Demostraci´n. El Lema 2.4.5 dice que 1 → 2 y 3, porque es claro que si B ∈ Gl (r)+ , entonces
            o
det B > 0. La rec´ ıproca se prueba por inducci´n sobre n. Si n = 1, entonces tenemos que
                                               o
A = A[1] = det(A[1] ) > 0. Si n > 1, es claro que la condici´n 2 se verifica tambi´n para
                                                              o                       e
A[n−1] , porque tiene las mismas submatrices involucradas. Por hip´tesis inductiva, tenemos
                                                                    o
que A[n−1] ∈ Gl (n − 1)+ , y por el Teorema 2.3.1 sabemos que 0 < λ1 (A[n−1] ) . El Teorema
del entrelace de Cauchy 2.4.2 nos asegura que λ2 (A) ≥ λ1 (A[n−1] ) > 0. Luego

                   n                                                              n
              0<         λk (A)      y tamb´n
                                           e         0 < det A[n] = det A =             λk (A) .
                   k=2                                                            k=1


De ah´ deducimos que λ1 (A) > 0. Usando el Teorema 2.3.1, podemos concluir r´pidamente
      ı                                                                        a
que Ax, x > 0 para todo x = 0, o sea que A ∈ Gl (n)+ . La prueba de la equivalencia con el
ıtem 3 es exactamente igual, pero usando para la inducci´n a A(1) ∈ Mn−1 (C) .
´                                                       o

                    ıcil). Probar que, dada A ∈ H(n), entonces
Ejercicio 2.4.7 (dif´

               A ∈ Mn (C)+            ⇐⇒        det A[J] ≥ 0          para todo       J ⊆ In .

Se suguiere induccionar en n. Luego tomar un J de tama˜o m´ximo para que det A[J] = 0 y
                                                           n    a
aplicar varias veces la f´rmula det(B + εEii ) = det B + ε det B(i), como en la Eq. (8.3).
                         o
36                                                            Matrices normales y Hermitianas




2.5       Ejercicios
Ejercicios del texto
2.5.1. Sea A ∈ H(n) y sea k ∈ In . Probar que

                   µk (A) =     m´x
                                 a       m´ Ax, x =
                                          ın                  m´
                                                               ın     m´x Ax, x .
                                                                       a
                              dim M=k x∈M1               dim S=n−k+1 x∈S1


2.5.2. Sean A, B ∈ H(n). Demostrar las siguientes afirmaciones:

     1. Para todo j ∈ In , se tiene que

                              µj (A) + µn (B) ≤ µj (A + B) ≤ µj (A) + µ1 (B)             (2.7)

     2. Dados S1 , S2 y S3 subespacios de Cn , ellos cumplen que

                         dim(S1 ∩ S2 ∩ S3 ) ≥ dim S1 + dim S2 + dim S3 − 2n .

     3. Dados i, j ∈ In tales que i + j ≤ n + 1, se tiene que

                                      µi+j−1 (A + B) ≤ µi (A) + µj (B) .

                                    C      X      k
2.5.3 (Aronszajn). Sea A =                           ∈ H(n). Probar que
                                    X∗     D     n−k

               µi+j−1 (A) ≤ µi (C) + µj (D)        para todo par i ∈ Ik , j ∈ In−k .

2.5.4. Dado A ∈ H(n), mostrar que:

     1. Si J ⊆ In cumple que |J| = r, entonces para cada k ∈ Ir , se tiene

                                      µk (A) ≥ µk A[J] ≥ µk+n−r (A) .

        En particular, si r ∈ In , entonces µk (A) ≥ µk Ar ≥ µk+1 (A) para todo k ∈ In−1 .

     2. Sea P ∈ L(H)+ es un proyector autoadjunto (o sea ortogonal) sobre un subespacio S
        de dim S = r. Sea AS = P AP S ∈ L(S), la compresi´n de A a S. Luego
                                                         o

                      µk (A) ≥ µk AS ) ≥ µk+n−r (A) ,           para cada k ∈ Ir .

                    ıcil). Probar que, dada A ∈ H(n), entonces
2.5.5 (Ejercicio dif´

                 A ∈ Mn (C)+          ⇐⇒       det A[J] ≥ 0    para todo     J ⊆ In .
2.5 Ejercicios                                                                             37




Ejercicios nuevos
2.5.6. Mostrar que A es normal si y s´lo si sus partes real e imaginaria conmutan.
                                     o
2.5.7. Sea A ∈ Mn (C) y p(t) un polinomio.

  1. Probar que si A es normal entonces p(A) tambi´n lo es.
                                                  e
  2. Si p(A) es normal, ¿ puede asegurarse que A lo sea?.
2.5.8.

  1. Mostrar que si A es similar a una matriz unitaria, entonces A−1 es similar a A∗ .
  2. Considerar la matriz
                                             2    0
                                             0   1/2
     y mostrar que el conjunto de matrices que son similares a una matriz unitaria es un
     subcojunto propio del conjunto de matrices A para las que A−1 es similar a A∗ .
2.5.9. Sea A una matriz normal. Mostrar:

  1. La matriz A es autoadjunta si y s´lo si todos sus autovalores son reales.
                                      o
  2. La matriz A es unitaria si y s´lo si todos sus autovalores tienen m´dulo 1.
                                   o                                    o
  3. Si la matriz A es nilpotente, entonces, A = 0.
2.5.10.

  1. Mostrar que dos matrices normales son similares sii son unitariamente equivalentes.
  2. Mostrar que A es normal sii conmuta con una cierta matriz normal con autovalores
     distintos.
2.5.11. Dada A ∈ Mn (C), probar que A es normal si y s´lo si hay un polinomio p de grado
                                                       o
a lo sumo n − 1 tal que A∗ = p(A). Notar que esto da una buena explicaci´n “intuitiva” de
                                                                         o
por qu´ una matriz normal conmuta con su adjunto. Si A es real, mostrar que se puede elegir
       e
p con coeficientes reales, de manera que AT = p(A).
2.5.12. Sea A ∈ H(n) y S ∈ Mn (C). Mostrar que SAS ∗ es autoadjunta. Si S es invertible,
SAS −1 ¿ es autoadjunta ?
2.5.13 (*). A lo largo de este ejercicio consideraremos la traza normalizada de modo que
                                                            n
                                                         1
tr(I) = 1, es decir, dada una matriz A de n × n, tr(A) =      Aii .
                                                         n
                                                            k=1
Sean A, B ∈ H(n). Demostrar:

  1. tr(AB)2 ≤ tr(A2 B 2 ).
38                                                                  Matrices normales y Hermitianas



                                r(A)   (tr A)2
     2. Si A = 0, entonces,          ≥         .
                                  n     tr A2
(Pista: Usar la desigualdad de Jensen.)
2.5.14. Sea A ∈ Mn (C) una matriz normal. Probar que w(A) = ρ(A) = A                             sp   .
2.5.15 (Gersgorin). Sea A ∈ Mn (C). Para cada i ∈ In , sea Ri =                          |aij | . Mostrar que
                                                                                   j=i


                                   σ(A) ⊆           {z ∈ C : |z − aii | ≤ Ri } .
                                             i∈In

Deducir que, si Ri < |aii | para todo i ∈ In , entonces A ∈ Gl (n). Una tal matriz suele ser
llamada “diagonal dominante”.
                        ıcil). Sea A ∈ H(n). Para cada i ∈ In , mostrar que si
2.5.16 (Este es bien dif´
                                     1/2

                 ri =          |aij |2        =⇒         σ(A) ∩ [aii − ri , aii + ri ] = ∅ .
                          j=i


Esto mejora al Ejercicio anterior en dos aspectos: Primero observar que cada ri ≤ Ri .
Adem´s, ubica al menos un autovalor en cada disquito (ac´ son intervalitos).
     a                                                  a
Cap´
   ıtulo 3

Matrices definidas positivas

3.1     Propiedades b´sicas
                     a
Recordemos que A ∈ Mn (C)+ si Ax, x ≥ 0 para todo x ∈ Cn .
Definici´n 3.1.1. Dadas A, B ∈ H(n), se dice que A ≤ B si se tiene que B − A ∈ Mn (C)+ ,
         o
o sea si Ax, x ≥ Bx, x para todo x ∈ Cn .
Proposici´n 3.1.2. Sean A, B y C ∈ Mn (C). Entonces
         o

  1. A ∈ Mn (C)+ si y s´lo si A ∈ H(n) y σ (A) ⊆ R+ .
                       o
  2. A ∈ Gl (n)+ si y s´lo si A ∈ H(n) y σ (A) ⊆ R∗ .
                       o                          +


  3. Si A = B ∗ B entonces A ∈ Mn (C)+ .
  4. Si A, B ∈ H(n) y A ≤ B, entonces C ∗ AC ≤ C ∗ BC.

Demostraci´n.
          o

  1. Si A ∈ H(n) y σ (A) ⊆ R+ , el Teorema 2.3.1 asegura que
                            2
             0 ≤ λ1 (A) x       ≤ Ax, x   para todo x ∈ Cn   =⇒ A ∈ Mn (C)+ .

      Por el Corolario 1.1.13, sabemos que Mn (C)+ ⊆ H(n) (para que A ∈ H(n) bastaba que
       Ax, x ∈ R para todo x ∈ Cn ). Por el Teorema 2.3.1, se tiene que, si A ∈ Mn (C)+ ,
      entonces λ1 (A) = m´ Ax, x ≥ 0, por lo que σ (A) ⊆ R+ .
                            ın
                         x =1

  2. S´lo difiere del caso anterior en que en ambas situaciones 0 ∈ σ (A). Notar que si A > 0,
      o                                                          /
     como la bola de Cn es compacta, existe un ε > 0 tal que λ1 (A) = m´ Ax, x ≥ ε.
                                                                             ın
                                                                            x =1
      Luego 0 ∈ σ (A), o sea que A es inversible.
              /
40                                                                     Matrices definidas positivas




     3. Para todo x ∈ Cn tenemos que

                                     B ∗ Bx, x = Bx, Bx = Bx            2
                                                                            ≥ 0.

       Por lo tanto B ∗ B ∈ Mn (C)+ .
     4. Si B − A ≥ 0 y x ∈ Cn , entonces C ∗ (B − A)Cx, x = (B − A)Cx, Cx ≥ 0. Luego
        C ∗ (B − A)C ≥ 0, es decir C ∗ AC ≤ C ∗ BC.
Teorema 3.1.3. Sea A ∈ Mn (C). Entonces:

     1. A ∈ Mn (C)+ si y s´lo si existe B ∈ Mn (C) tal que A = B ∗ B.
                          o
     2. En tal caso, existe una unica matriz B ∈ Mn (C)+ tal que A = B ∗ B = B 2 .
                                ´

Demostraci´n. Sabemos que si A = B ∗ B entonces A ∈ Mn (C)+ . Luego basta probar que
           o
si A ∈ Mn (C)+ , entonces existe una raiz cuadrada B ∈ Mn (C)+ para A, y que la tal B es
unica. Escribamos A = U DU ∗ , con U ∈ U(n) y D = diag (λ(A) ) ∈ Mn (C)+ . Se toma
´

                      D1/2 := diag λ1 (A)1/2 , . . . , λn (A)1/2 ∈ Mn (C)+ .

Esto es posible por la Proposici´n 3.1.2. Es claro que (D1/2 )2 = D. Finalmente se define
                                o
B = U D1/2 U ∗ . Luego B ∈ Mn (C)+ y B 2 = A. La unicidad es algo m´s complicada. El
                                                                        a
problema es que la matriz U ∈ U(n) que diagonaliza a A no es unica. Sea otra C ∈ Mn (C)+
                                                              ´
tal que C 2 = A. Entonces, como C y A conmutan, el Teorema 1 de Schur 1.6.1 asegura que

             existe V ∈ U(n) tal que V ∗ AV = D y V ∗ CV ∈ Mn (C)+ es diagonal .

Para lo anterior se usa que N (n) ∩ T S(n) consta de las matrices diagonales, como se vi´ en la
                                                                                        o
prueba del Teorema 2.1.2. Como (V ∗ CV )2 = V ∗ AV = D, es claro que V ∗ CV = D1/2 (entre
diagonales la unicidad es trivial). Por otro lado,

                       U DU ∗ = V DV ∗ = A =⇒ (V ∗ U )D = D(V ∗ U ) .

Aqu´ usaremos que D1/2 se puede escribir como P (D) para cierto polinomio P ∈ R[X]. En
     ı
efecto, basta elegir un P tal que P (λi (A) ) = λi (A)1/2 , para todo i ∈ In . Pero entonces V ∗ U
conmuta con P (D) = D1/2 . Por ello B = U D1/2 U ∗ = V D1/2 V ∗ = C.
Observaci´n 3.1.4 (El Grammiano). Dada una matriz B ∈ Mn (C), llamemos fi = Ci (B),
            o
i ∈ In . Notar que, entonces,
                                                        n
                     G(f1 , . . . , fn ) :=   fi , fj           = B ∗ B ∈ Mn (C)+ .
                                                        i,j=1

La matriz anterior es conocida como matriz de Gramm (o Grammiano) de f1 , . . . , fn . Del
Teorema 3.1.3 deducimos que una matriz es semi definida positiva si y s´lo si es una matriz
                                                                         o
de Gramm. Y que es definida positiva si y s´lo si es una matriz de Gramm de un sistema
                                              o
linealmente independiente (en nuestro caso, esto equivale a que B ∈ Gl (n) ).
3.2 Descomposici´n polar y valores singulares
                o                                                                                 41




    Los mismos resultados son ciertos (la prueba es una ligera variaci´n de la del Teorema
                                                                                o
3.1.3) si la n-unpa f1 , . . . , fn vive en cualquier espacio de Hilbert H (anche infinitodimensional,
porque en tal caso B es un operador B : Cn → H, que es autom´ticamente continuo). Notar
                                                                         a
que la matriz de Gramm sigue estando en Mn (C)+ (y en Gl (n)+ si el sistema es LI), donde
n es el n´mero de vectores en cuesti´n.
          u                                 o

Corolario 3.1.5 (Cholewsky). Sea A ∈ Mn (C)+ . Entonces existe T ∈ T S(n) tal que Tii ≥ 0
para todo i, y tal que A = T ∗ T .

Demostraci´n. Sea B ∈ Mn (C) tal que A = B ∗ B. Sea B = QT , Q ∈ U(n), T ∈ T S(n), una
          o
descomposici´n de B como en el Teorema 1.8.2. Entonces A = T ∗ Q∗ QT = T ∗ T .
            o


3.2      Descomposici´n polar y valores singulares
                     o
Definici´n 3.2.1. Dada A ∈ Mn (C)+ , llamaremos A1/2 a la unica raiz cuadrada de A en
       o                                                 ´
Mn (C)+ , que existe (y es unica) por el Teorema 3.1.3.
                           ´

Observaci´n 3.2.2. Sea A ∈ Mn (C)+ . En la prueba del Teorema 3.1.3 se muestran las dos
          o
maneras usuales de describir a A1/2 :

   1. Si A = U diag (λ(A) ) U ∗ , con U ∈ U(n), se tiene que A1/2 = U diag λ(A)1/2 U ∗ .

   2. A1/2 = P (A) para culquier P ∈ C[x] tal que P (λ) = λ1/2 para todo λ ∈ σ(A).

Definici´n 3.2.3. Sea A ∈ Mn (C),
       o

   1. Llamaremos “m´dulo de A” a la matriz
                   o

                                      |A| = (A∗ A)1/2 ∈ Mn (C)+ .

   2. Llamaremos valores singulares de A a los autovalores de |A| ordenados en forma
      decreciente, not´ndolos s1 (A) ≥ · · · ≥ sn (A) ≥ 0. Notar que, por el Corolario 1.7.2,
                      a

                       si (A) = µi (|A|) = µi (A∗ A)1/2 ,   para todo i ∈ In .                 (3.1)

   3. Llamaremos s(A) = (s1 (A), . . . , sn (A) ) = µ(|A|) y Σ(A) a la matriz diagonal
                                                                       
                                                      s1 (A) 0       0
                         Σ(A) = diag (s(A)) =  .             ..      . .
                                                      .              . 
                                                         .       .    .
                                                         0     0 sn (A)

      Observar que |A| ∼ Σ(A).
                       =
Ejemplos 3.2.4. Sea A ∈ Mn (C).
42                                                                    Matrices definidas positivas




     1. Si A ≥ 0, entonces A = |A| y s(A) = µ(A).

     2. Si A ∈ Mn (C) es normal, entonces s(A) = |λ(A)|, salvo el orden. En efecto, si A =
        U diag (λ(A) ) U ∗ para cierto U ∈ U(n), entonces

                    A∗ A = U diag λ(A) diag (λ(A) ) U ∗ = U diag |λ(A)|2 U ∗ .


     3. En general (fundamentalmente, si A no es normal), los autovalores y los valores singu-
        lares de una misma matriz pueden ser bien distintos. Por ejemplo, si A es un bloque
        nilpotente de Jordan en Mn (C) (i.e. Aek = ek+1 , k ∈ In−1 y Aen = 0), entoces
        σ (A) = {0} porque An = 0, pero s(A) = (1, . . . , 1, 0), porque A∗ A es un proyector de
        rango n − 1.

Teorema 3.2.5 (Descomposici´n polar y en valores singulares). Sea A ∈ Mn (C). Entonces
                           o

     1. Para todo x ∈ Cn , se verifica que Ax = |A|x .

     2. En particular, se tiene que A    sp   = |A|   sp   = ρ(|A|) = s1 (A) = µ1 (A∗ A)1/2 .

     3. Existe una matriz unitaria U ∈ U(n) tal que

                                                A = U |A| ,

       que es la llamada descomposici´n polar (DP) de A, aunque no es siempre unica.
                                     o                                        ´

     4. Cualquier U ∈ U(n) que cumpla A = U |A|, verifica que

               A∗ = U ∗ |A∗ | ,   AA∗ = U A∗ AU ∗ ,        U |A|U ∗ = |A∗ |   y   A = |A∗ | U .

       Esto dice que U ∗ es un unitario admisible para la DP de A∗ . O sea que A tiene una
       descomposici´n polar a derecha A = |A∗ | U con el mismo U que la otra.
                     o

     5. Existen V, W ∈ U(n) tales que A = W Σ(A)V ∗ .

     6. Las columnas Ci (V ) forman una BON de autovectores de |A| (y A∗ A), y las columnas
        Ci (W ) forman una BON de autovectores de |A∗ | (y AA∗ ).

Demostraci´n.
          o

     1. Dado x ∈ Cn , se tiene que

                  Ax   2
                           = Ax, Ax = A∗ Ax, x = |A|2 x, x = |A|x, |A|x = |A|x 2 .

     2. Se deduce de lo anterior, de la definici´n de norma espectral y del Corolario 2.1.4.
                                               o
3.2 Descomposici´n polar y valores singulares
                o                                                                          43




  3. Podemos definir (con buena definici´n) una isometr´ suryectiva
                                      o              ıa

                U1 : R(|A|) → R(A) dada por U1 (|A|x) = Ax, para todo x ∈ Cn .

     De hecho, |A|x = |A|y ⇐⇒ x − y ∈ ker |A| = ker A ⇐⇒ Ax = Ay. Como

              dim R(A)⊥ = n − dim R(A) = dim ker(A) = dim ker(|A|) = dim R(|A|)⊥ ,

     podemos extender la isometr´ U1 a una matriz unitaria U ∈ U(n), operando isom´-
                                 ıa                                                      e
     tricamente desde R(|A|)⊥ sobre R(A)⊥ . Por la definici´n de U , se tiene que A = U |A|.
                                                          o

  4. Notar que AA∗ = U |A|2 U ∗ = U A∗ AU ∗ . Sea P (x) ∈ C[x] tal que P (λ) = λ1/2 , para
     todo λ ∈ σ (AA∗ ) = σ (A∗ A) (acabamos de ver que AA∗ ∼ A∗ A). Luego
                                                           =

                      |A∗ | = (AA∗ )1/2 = P (AA∗ ) = U P (A∗ A)U ∗ = U |A|U ∗ .

     Luego A = U |A| = U |A|U ∗ U = |A∗ |U , por lo que tambi´n A∗ = U ∗ |A∗ |.
                                                             e

  5. Sea V ∈ U(n) tal que |A| = V Σ(A)V ∗ . Si llamamos W = U V ∈ U(n), tenemos que

                                A = U |A| = U V Σ(A)V ∗ = W Σ(A)V ∗ .

  6. Notar que Σ(A) = V ∗ |A|V , por lo que cada Ci (V ) es un autovector de |A|, y todas las
     columnas de V forman una bon, por ser V unitaria. La prueba para W es similar, dado
     que tambi´n Σ(A)2 = W ∗ AA∗ W .
              e


Existe una versi´n de la caracterizaci´n minimax de Courant-Fisher 2.3.3 para los valores
                o                     o
singulares de una matriz:

Proposici´n 3.2.6. Sea A ∈ Mn (C) (no necesariamente autoadjunta). Con las mismas
          o
notaciones (para subespacios) que en el Teorema 2.3.3, se tiene que

   sk (A) =    m´x
                a      m´ Ax =
                        ın                m´
                                           ın     m´x Ax
                                                   a            para todo k ∈ In .       (3.2)
              dim M=k x∈M1            dim S=n−k+1 x∈S1


Demostraci´n. Basta notar que Ax = A∗ Ax, x 1/2 y que sk (A) = µk (A∗ A)1/2 . Luego se
            o
aplica el Teorema 2.3.3 (y el Ejercicio 2.4.4 para traducirlo a µ’es) para A∗ A.

Corolario 3.2.7. Dadas A, C ∈ Mn (C), para todo k ∈ In se tiene que

          sk (AC) ≤ A     sp   sk (C) .   En particular    tr |AC| ≤ A   sp   tr |C| .   (3.3)

Demostraci´n. Se usa la Eq. (3.2) para calcular sk (AC) y sk (C), junto con la siguiente
           o
desigualdad: ACx ≤ A sp Cx , para todo x ∈ Cn .
44                                                              Matrices definidas positivas




3.3       Parte positiva y parte negativa
Fijemos una matriz autoadjunta A ∈ H(n), y tomemos A = U |A|, con U ∈ U(n), una DP
de A. Supongamos, adem´s, que U opera como la identidad en ker A = ker |A| = R(|A|)⊥ .
                          a
Una tal U existe por la construcci´n hecha en el Teorema 3.2.5, y adem´s es unica (Ejercicio:
                                  o                                   a     ´
mostrar ambas cosas). Luego se verifican las siguientes propiedades:

     1. Si B = {v1 , . . . , vn } es una BON de Cn adaptada a µ(A), luego A∗ A = A2 , |A|, |A|1/2
        y U son diagonales en la base B. Por lo tanto conmutan entre ellos (y con A).

     2. En la base B, la matriz de U es diagonal con ±1’s en la diagonal. M´s espec´
                                                                           a       ıficamente,

                    U vk = vk     si µk (A) ≥ 0 ,   y U vk = − vk si µk (A) < 0 ,           (3.4)

       dado que |A| vk = (µ2 (A) )1/2 vk = |µk (A)| vk para todo k ∈ In . Por lo tanto,
                           k

                                U ∗ = U = U −1      y    −I ≤U ≤I .

     3. Podemos deducir que −|A| ≤ A ≤ |A|. En efecto, |A|1/2 U |A|1/2 = A, y

                    −|A| = −|A|1/2 I|A|1/2 ≤ |A|1/2 U |A|1/2 ≤ |A|1/2 I|A|1/2 = |A|.

     4. Luego, si denotamos

                                       A + |A|                 |A| − A
                                A+ =                y   A− =           ,                    (3.5)
                                          2                       2
       se prueba f´cilmente que
                  a

        (a) Ambas matrices A+ , A− ∈ Mn (C)+ .
        (b) A = A+ − A− y |A| = A+ + A− .
         (c) A+ A− = A− A+ = 0.

       Es f´cil ver que A+ y A− son las unicas matrices que cumples las tres propiedades
           a                                 ´
       anteriores. Se las llama partes positiva y negativa de la matriz autoadjunta A.

     5. Otras propiedades que verifican A+ y A− son:

        (a) AA+ = A+ A = (A+ )2 (idem con A− ).
        (b) (−A)+ = A− y (−A)− = A+ .
         (c) Por la definici´n de A+ y la f´rmula (3.4), se tiene que
                           o              o

                            µk (A+ ) = m´x { µk (A) , 0 } ,
                                        a                      para todo k ∈ In .           (3.6)

        (d) µk (A− ) = µk ( (−A)+ ) = m´x{µk (−A), 0} = − m´
                                       a                   ın{µn−k+1 (A), 0}, k ∈ In .
3.4 Normas en Mn (C)                                                                                                         45




  6. Si A = B − C con B, C ∈ Mn (C)+ , entonces se tiene que
                µk (A+ ) ≤ µk (B)         y       µk (A− ) ≤ µk (C) ,                          para todo k ∈ In .       (3.7)
      En efecto, si A < 0, entonces A+ = 0 y la primera desigualdad es obvia. Si µ1 (A) ≥ 0,
      sea p = m´x{k ∈ In : µk (A) ≥ 0}. Luego, como B = C + A ≥ A, se tiene que
                a
           µk (A+ ) = µk (A) ≤ µk (B) para k ∈ Ip                             y         µk (A+ ) = 0 ≤ µk (B) para k > p ,
      por el Teorema de Weyl 2.3.5. La otra desigualdad en (3.7) se deduce de lo anterior
      aplicado a la igualdad −A = C − B, dado que (−A)+ = A− .


3.4        Normas en Mn (C)
Se estudiar´n en esta secci´n distintas normas en el espacio vectorial de matrices Mn (C).
           a               o
Muchas de estas normas son utiles en diversas desigualdades matriciales espec´
                             ´                                               ıficas. Pero no
olvidemos que, como dim Mn (C) < ∞, es un resultado conocido que todas las normas en
Mn (C) son equivalentes.
   En los siguientes ejemplos definiremos las normas m´s cl´sicas para matrices. Dejaremos
                                                         a a
como ejercicio para el lector la verificaci´n (en algunos casos altamente no trivial, pensada a
                                          o
futuro) de que son, efectivamente, normas.

Ejemplos 3.4.1.           1. La norma espectral                      ·   sp       , definida del siguiente modo
                                          A = A               sp   = m´x Ax = s1 (A),
                                                                      a
                                                                         x =1

      donde la ultima igualdad surge de que A
               ´                                                             sp   =      |A|    sp    = ρ(|A|).
  2. Las normas de Schatten. Dado 1 ≤ p < ∞
                                                       n                          1/p
                                                                         p                             1/p
                                     A    p   =               si (A)                    = (tr |A|p )         .
                                                      i=1

      La    ·   2   se llama norma de Frobenius. Ella verifica que
                                                                                        n
                                                  A   2
                                                      2
                                                           = tr A∗ A =                      |aij |2
                                                                                    i,j=1

      y proviene del producto escalar en Mn (C) definido por A, B = tr B ∗ A.
  3. Las normas Ky-Fan. Dado k ∈ {1, . . . , n}
                                                                              k
                                                          A    (k)   =             si (A) .
                                                                             i=1

      Notar que A        (1)   = A   sp   y A         (n)     = A        1    (de Schatten).
46                                                                                     Matrices definidas positivas




     4. Toda norma N en Cn induce una norma ||| · |||N en Mn (C) del siguiente modo:

                                                     |||A|||N = m´x N (Ax).
                                                                 a
                                                                        N (x)=1

       Estas normas satisfacen que:
        (a) |||I|||N = 1
        (b) ρ(A) ≤ |||A|||N
        (c) |||AB|||N ≤ |||A|||N |||B|||N .
Ejercicio 3.4.2. Consideremenos en Cn las siguientes normas:
                           n
               x   1   =         |xi |       y       x   ∞   = m´x |xi | ,
                                                                a                    para todo x ∈ Cn ,
                                                                  i∈In
                           i=1

conocidas como las normas 1 e ∞. Como en el Ejemplo anterior, ellas inducen en Mn (C) las
siguientes normas matriciales: Dada A ∈ Mn (C),

                       |||A|||∞ = m´x
                                   a                 Ax      ∞       y     |||A|||1 = m´x
                                                                                       a              Ax   1
                                                                                                               .
                                         x   ∞ =1                                       x    1
                                                                                                 =1

Probar que estas normas pueden calcularse efectivamente mediante las f´rmulas:
                                                                      o

                       |||A|||∞ = m´x Fi (A)
                                   a                         1      y     |||A|||1 = m´x Ci (A)
                                                                                      a                    1   .   (3.8)
                                         i∈In                                         i∈In

para toda A ∈ Mn (C).
Definici´n 3.4.3. Una norma
       o                                         ·   en Mn (C) se llama:

     1. Matricial: si AB ≤ A                     B
     2. Unitariamente invariante (NUI): si U AV                           = A , para todo U, V ∈ U(n).
Ejemplo 3.4.4. Sea N∞ (A) = m´x |aij |, para A ∈ Mn (C). Sean 1n = (1, . . . , 1) ∈ Cn y
                             a
                                                 ij∈In
En = 1 n     1n . Como 1n , 1n = n, tenemos que

            E2 = 1n
             n              1n · 1n          1n = 1n , 1n 1n                 1n = nEn =⇒ N∞ (E2 ) = n ,
                                                                                              n

mientras que N∞ (En ) = 1. O sea que N∞ no es matricial en Mn (C) para ning´n n > 1. El
                                                                             u
lector interesado puede demostrar que n N∞ (·) s´ es una norma matricial en Mn (C).
                                                ı
Teorema 3.4.5. Sea               ·   una norma matricial en Mn (C). Dada A ∈ Mn (C) se tiene que
                                                                            ∞
     1. A − I < 1 implica que A ∈ Gl (n) y A−1 =                                  (I − A)n
                                                                            n=0

                                                     −1 −1
     2. Si B ∈ Gl (n) y B − A < B                                , entonces, A ∈ Gl (n).
3.4 Normas en Mn (C)                                                                                                     47




Demostraci´n. Comencemos notando que 1 ⇒ 2. En efecto,
          o
      B − A < B −1                −1
                                       =⇒       B −1 A − I = B −1 (A − B) ≤ B −1                          A−B <1 .
                             −1                                          −1
Si valiera 1, luego B A ser´ inversible y A = B(B
                           ıa                                                 A) tambi´n deber´ serlo. Para probar
                                                                                      e       ıa
   ıtem 1, llamemos C = I − A. Tenemos que
el ´
                                                                         ∞                ∞
                                                                                                                1
       C < 1 =⇒               Cm ≤ C          m
                                                     ∀ m ∈ N =⇒                    Ck ≤          C    k
                                                                                                          =          .
                                                                                                              1− C
                                                                         k=0              k=0
                       ∞
Luego, la serie            C k converge. En particular, C k − − → 0. Luego
                                                            −−
                                                                         k→∞
                   k=1

              N                             N                N           N +1
         A         C k = (I − C)                  Ck =            Ck −             C k = 1 − C N +1 − − → 1 .
                                                                                                     −−
                                                                                                          N →∞
             k=0                            k=0             k=0          k=1
                       ∞
Analogamente                 C k A = 1.
                       k=0

Proposici´n 3.4.6. Sea A ∈ Mn (C) y · una norma matricial. Entonces ρ(A) ≤ A .
         o
M´s a´n, Am 1/m ≥ ρ(A) para todo m ∈ N.
 a u

Demostraci´n. Sean λ ∈ σ (A) y x ∈ Cn tales que x = 0 y Ax = λx. Llamemos X a la matriz
           o
cuyas columnas son todas iguales al vector x. Luego, AX = λX, y por ende
                                            |λ| X = AX ≤ A                         X ,
de donde se deduce que |λ| ≤ A . Como el autovalor era cualquiera, ρ(A) ≤ A . Adem´s,  a
                                                    m
por el Corolario 1.7.2, se tiene que σ (Am ) = σ (A) , y entonces tambi´n ρ(Am ) = ρ(A)m .
                                                                       e
Por lo tanto, usando la parte ya probada, obtenemos que ρ(A) ≤ Am 1/m .
Observaci´n 3.4.7. Dada una norma matricial · en Mn (C) y una matriz S ∈ Gl (n), la
         o
f´rmula A S := SAS −1 , A ∈ Mn (C), define otra norma matricial.
 o
Proposici´n 3.4.8. Dados A ∈ Mn (C) y ε > 0, existe una norma matricial NA,ε en Mn (C)
          o
tal que NA,ε (A) ≤ ρ(A) + ε.

Demostraci´n. Sea A = U T U ∗ con T una matriz triangular superior y U ∈ U(n). Luego,
            o
T = U ∗ AU . Sea Ds = diag s, s2 , . . . , sn . Entonces, (Ds T Ds )ij = tij si−j para todo par
                                                                 −1

i, j ∈ In (eso fue visto en la Eq. (1.14) ). Por lo tanto,
                                   −1      En cualquier norma
                             Ds T Ds − − − − − → diag (λ1 (A) , . . . , λn (A)) .
                                      −−−−−
                                                     s→∞
                                                                             −1
Como diag (λ1 (A) , . . . , λn (A))             sp   = ρ(A), entonces, Ds T Ds             sp   − − ρ(A). Luego debe
                                                                                                 −→
                                                                                                 s→∞
                                              −1
existir un s0 ∈ R tal que Ds0 T              Ds0 sp        < ρ(A) + ε. Consideremos ahora la norma
     NA,ε =        ·   sp Ds U ∗       ,    o sea         NA,ε (B) = Ds0 U ∗ B U Ds0
                                                                                  −1
                                                                                                 sp   ,   B ∈ Mn (C).
                            0


Luego NA,ε (A) = Ds0 U ∗ A U Ds0
                              −1
                                                     sp
                                                                   −1
                                                          = Ds0 T Ds0         sp   < ρ(A) + ε.
48                                                                Matrices definidas positivas




Corolario 3.4.9. Si A ∈ Mn (C), entonces Am → 0 si y s´lo si ρ(A) < 1.
                                                      o
Demostraci´n. Es claro que ρ(A) < 1 si y s´lo si ρ(Am ) = ρ(A)m − − → 0. Usando
          o                               o                      −−
                                                                                m→∞
que ρ(Am ) ≤ Am sp para todo m ∈ N, una implicaci´n es clara. Para probar la otra,
                                                       o
supongamos que ρ(A) < 1. Por la Proposici´n 3.4.8, existe una norma matricial N tal que
                                          o
ρ(A) ≤ N (A) < 1. Como N es matricial, deducimos que N (Am ) ≤ N (A)m − − → 0.
                                                                       −−
                                                                                 m→∞

Teorema 3.4.10. Sea A ∈ Mn (C). Entonces, para cualquier norma             ·    en Mn (C),
                                                      m 1/m
                                    ρ(A) = lim    A           .
                                           m→∞

Demostraci´n. Supongamos primero que · es una norma matricial. Por la Proposici´n
           o                                                                       o
3.4.6, sabemos que se tiene ρ(A) ≤ Am 1/m para todo m ∈ N. Fijado ε > 0, consideremos
                   A
la matriz B =            . Como ρ(B) < 1, el Corolario 3.4.9 asegura que B m → 0. En
               ρ(A) + ε
consecuencia existe un m0 ∈ N tal que, para todo m ≥ m0 , se verifica
       Bm < 1 ,      es decir que     Am < (ρ(A) + ε)m =⇒            Am   1/m
                                                                                < ρ(A) + ε ,
lo que prueba el Teorema en este caso. El mismo resultado vale para normas no matriciales,
por ser todas las normas equivalentes.
Ejercicio 3.4.11. Sea A ∈ Mn (C). Si N es una norma matricial en Mn (C), mostrar que
ρ(A) = ´ N (Am )1/m . M´s a´n, probar que en tal caso, N (Am )1/m
        ınf             a u                                          ρ(A) .
        m∈N                                                               m→∞
Observaci´n 3.4.12. Todos los resultados de esta secci´n, a partir del Teorema 3.4.5, son
            o                                               o
tambi´n ciertos en ´lgebras de Banach, donde las normas son matriciales por definici´n. El
      e             a                                                                    o
unico resultado propio de matrices es la Proposici´n 3.4.8, que nos permite dar una prueba f´cil
´                                                 o                                         a
de la f´rmula del radio espectral (Teorema 3.4.10). Esta f´rmula vale tambi´n en dimensi´n
       o                                                     o                 e             o
infinita, y la prueba usa herramientas de an´lisis complejo. El curro es mostrar que la llamada
                                            a
resolvente, que es la funci´n
                           o
        ρA : C  σ(A) → Gl (n)      dada por   ρA (z) = (zI − A)−1 ,      z ∈ C  σ(A) ,
es anal´
       ıtica. La f´rmula dada surge del radio de convergencia de su serie de potencias alrededor
                  o
del “infinito”. Sin embargo, hemos incluido las demostraciones anteriores porque tienen un
buen sabor matricial, salvo el Teorema 3.4.5, que tiene la prueba standard (y no creo que
pueda mejorarse). N´tese que se asumi´ impl´
                     o                   o     ıcitamente que Mn (C) es un espacio completo,
porque usamos que una serie absolutamente sumable es convergente.


3.5     Algunas caracterizaciones
A continuaci´n daremos algunas caracterizaciones f´ciles de la positividad y la contractividad
            o                                     a
de matrices. Al final incluimos una mini-introducci´n al producto de Hadamard, mostrando
                                                   o
el Teorema de Schur 2. A lo largo de ´sta Secci´n abreviaremos A sp = A . Usaremos la
                                      e        o
Proposici´n 1.5.5 que dice que dadas A, B ∈ Mn (C), entonces σ (AB) = σ (BA). El primer
         o
enunciado resume varias caracterizaciones ya mencionadas de esta norma.
3.5 Algunas caracterizaciones                                                                        49




Lema 3.5.1. Sea A ∈ Mn,m (C) entonces

           s1 (A) = A = |A| = ρ(|A|) = ρ(A∗ A)1/2 = A∗ A           1/2
                                                                         = AA∗          1/2
                                                                                              .    (3.9)

Demostraci´n. Como |A| y A∗ A ∈ H(n), la Proposici´n 2.1.4 asegura que
          o                                       o

                   |A| = ρ(|A|) = s1 (A)      y que     ρ(A∗ A)1/2 = A∗ A     1/2
                                                                                    .

Las igualdades A = |A| = s1 (A) se deducen de que Ax = |A|x para todo x ∈ Cn
 ıtem 1 del Teorema 3.2.5). La igualdad ρ(|A|) = ρ(A∗ A)1/2 se sigue del Corolario 1.7.2,
(´
usando que |A|2 = A∗ A. Observar que ρ(A∗ A) = ρ(AA∗ ) porque σ(A∗ A) = σ(AA∗ ).
Proposici´n 3.5.2. Sea A ∈ H(n), entonces − A I ≤ A ≤ A I . M´s a´n,
         o                                                   a u

                         −λI ≤ A ≤ λ I ⇐⇒       A ≤ λ ⇐⇒ ρ(A) ≤ λ ,

para cialquier λ ∈ R∗ .
                    +


Demostraci´n. Notar que si A ∈ H(n), entonces A = ρ(A) = m´x{µ1 (A), −µn (A)}. Por lo
           o                                                a
tanto, ρ(A) ≤ λ ⇐⇒ −λ ≤ µn (A) ≤ µ1 (A) ≤ λ. Por el Teorema 2.3.1, tenemos que

                 −λ ≤ µn (A) = m´ Ax, x ⇐⇒ −λI ≤ A
                                ın                                y adem´s
                                                                        a
                                     x =1

                              m´x Ax, x = µ1 (A) ≤ λ ⇐⇒ A ≤ λI .
                               a
                              x =1

Proposici´n 3.5.3. Dada A ∈ Mn (C), se tienen las equivalencias
         o

             A = s1 (A) ≤ 1 ⇐⇒ |A| ≤ I ⇐⇒ AA∗ ≤ I ⇐⇒ A∗ A ≤ I .                                   (3.10)

Demostraci´n. Es consecuencia del Lema 3.5.1 y de la Proposici´n 3.5.2.
          o                                                   o
Proposici´n 3.5.4. Si A ∈ Mn (C)+ y B ∈ Gl (n)+ , entonces
         o

                   A ≤ B ⇐⇒           A1/2 B −1/2 ≤ 1 ⇐⇒ ρ(AB −1 ) ≤ 1 .                          (3.11)

Demostraci´n. Notemos que
          o

            A ≤ B ⇐⇒ B −1/2 AB −1/2 ≤ I ⇐⇒ (A1/2 B −1/2 )∗ A1/2 B −1/2 ≤ I .

Luego se aplica la Proposici´n 3.5.3 y el hecho de que σ B −1/2 AB −1/2 = σ AB −1 .
                            o
3.5.5. Sea x ∈ Cn con x = 1 (a estos vectores los llamaremos unitarios). Entonces, como
vimos en 1.9.3, la matriz Px = x x = xx∗ = (xi xj )ij ∈ Mn (C)+ es el proyector ortogonal
sobre el subespacio Gen {x}. Por lo tanto, si B = {x1 , . . . , xn } es una BON de Cn , vale que
                    n                                                    n
              z=          z, xi xi   para todo z ∈ Cn      =⇒    I=          xi     xi ,          (3.12)
                   i=1                                                i=1

por lo que {xi   xi : i ∈ In } es un sistema de proyectores (ver Definici´n 5.4.2).
                                                                        o
50                                                                                 Matrices definidas positivas




Proposici´n 3.5.6. Sea A ∈ Mn (C). Las siguientes condiciones son equivalentes:
         o

     1. A ∈ Mn (C)+ .
                                                       r                   r
                                                                                         ∗
     2. Existen y1 , . . . , yr ∈ Cn tales que A =          yi     yi =            yi · yi .
                                                      i=1                 i=1

                                                                      ∗
Demostraci´n. La implicaci´n 2 → 1 es clara, porque cada matriz yi · yi ∈ Mn (C)+ . Rec´
           o                o                                                          ıpro-
                        +                                          n
camente, si A ∈ Mn (C) , sea B = {x1 , . . . , xn } es una BON de C adaptada a µ(A). Usando
la ecuaci´n (3.12), para todo z ∈ Cn se tiene que
         o
                  n                  n                     n                                   n
      Az = A           z, xi xi =         z, xi Axi =            µi (A) z, xi xi =                   µi (A) xi   xi z .
                 i=1                i=1                 i=1                                    i=1

Luego basta elegir yi = µi (A)1/2 xi para aquellos i ∈ In tales que µi (A) > 0.


3.6        El producto de Hadamard
Definici´n 3.6.1. Dadas A, B ∈ Mn,m (C), su producto de Hadamard A ◦ B es la matriz
       o
                                    A ◦ B = aij bij        i∈In
                                                                  ∈ Mn,m (C) .
                                                           j∈Im


Notar que este producto tiene sentido tanto para matrices como para vectores.

A este producto de matrices, tambi´n llamado producto de Schur, le dedicaremos un cap´
                                   e                                                  ıtulo
entero, porque tiene interesant´
                               ısimas aplicaciones dentro y fuera de la teor´ del An´lisis
                                                                            ıa        a
Matricial. Pero vamos adelantando un resultado al respecto (otro teorema de Schur), porque
es elemental y compete a las matrices positivas.
Teorema 3.6.2 (Teorema 2 de Schur). Sean A, B ∈ Mn (C)+ , entonces A ◦ B ∈ Mn (C)+ .
Adem´s, si A, B ∈ Gl (n)+ , entonces A ◦ B ∈ Gl (n)+ .
    a

Demostraci´n. La segunda parte se deduce de la primera. En efecto, si A > 0 y B > 0,
           o
existen n´meros a, b > 0 tales que A ≥ aI y B ≥ bI. Entonces, aplicando dos veces el caso
         u
que a´n no hemos probado, obtendr´
      u                            ıamos
                             A ◦ B ≥ aI ◦ B ≥ aI ◦ bI = ab I ∈ Gl (n)+ .                                             (3.13)
Supongamos entonces que A, B ∈ Mn (C)+ . Por la Proposici´n 3.5.6 (ver tambi´n 1.9.3),
                                                         o                  e
                                                                               r
                                                                                        ∗
deben existir vectores vi ∈ Cn , i ∈ Ir , tales que A =                             vi vi . Como el producto ◦ es
                                                                           i=1
distributivo, basta mostrar que v v ∗ ◦ B ∈ Mn (C)+ para todo v ∈ Cn y toda B ∈ Mn (C)+ .
Y para ver esto, alcanza con hacer la siguiente cuenta:
                                                                                         ∗
                v v∗ ◦ B =     vi vj Bij              = diag (v) B diag (v) ∈ Mn (C)+ ,
                                             i,j∈In

donde la igualdad del medio se testea haciendo la cuenta, o mirando la Eq. (1.14).
3.7 El famoso truco 2 × 2                                                                                  51




Corolario 3.6.3. Sean A, B ∈ Mn (C)+ , entonces

  1. µn (A)µn (B) ≤ µn (A ◦ B).
  2. A ◦ B   sp   = µ1 (A ◦ B) ≤ µ1 (A)µ1 (B) = A       sp    B   sp   .

Demostraci´n. La primera desigualdad se deduce de la ecuaci´n (3.13), pero usando que
           o                                                   o
A ≥ µn (A)I y B ≥ µn (B)I. La segunda, de una cuenta an´loga, pero aplicando ahora las
                                                           a
desigualdades A ≤ µ1 (A)I y B ≤ µ1 (B)I (tadas fueron vistas en la Observaci´n 2.3.2).
                                                                            o
Corolario 3.6.4. Si A ∈ Mn (C)+ , entonces B = |Aij |2              i,j∈In
                                                                             ∈ Mn (C)+ .

Demostraci´n. Se deduce de que AT = A = Aij
          o                                             i,j∈In
                                                                  ∈ Mn (C)+ .

Ejercicio 3.6.5. Mostrar que el resultado anterior falla si uno no eleva los m´dulos al
                                                                              o
cuadrado. En otras palabras, se debe encontrar un ejemplo de una matriz A ∈ Mn (C)+
tal que B = |Aij | i,j∈In ∈ Mn (C)+ . Observar que hay que buscar para n ≥ 3.
                          /

Corolario 3.6.6. Si A ∈ Mn (C)+ y P (x) ∈ R[x] tiene coeficientes no negativos, entonces

                            P◦ (A) :=   P (Aij )             ∈ Mn (C)+ .
                                                   i,j∈In


Demostraci´n. Por una inducci´n directa, podemos ver que A[k] = A ◦ A ◦ · · · ◦ A ∈ Mn (C)+
            o                   o
(se multiplica k veces) para todo k ∈ N. Despu´s se usa lo que cumple P (x).
                                              e

Ejercicio 3.6.7. Probar que, si A ∈ Mn (C)+ , entonces eA :=
                                                        ◦                    eAij            ∈ Mn (C)+ .
                                                                                    i,j∈In



3.7     El famoso truco 2 × 2
Cuando se trabaja con operadores y matrices, muchas veces una cuenta inmanejable termina
saliendo “m´gicamente” y en un par de renglones, con el famoso truco de matrices de bloques
            a
de 2 × 2. Ver, por ejemplo, la Proposici´n 1.5.5, y tratar de probarla de otra manera. En
                                          o
esta secci´n juntaremos varios resultados que aportan t´cnicas para usar dicho m´todo. Para
          o                                              e                      e
operar entre matrices de bloques, se usar´n sistem´ticamente los resultados desarrollados en
                                          a          a
la Secci´n 1.5. En particular, las f´rmulas (1.16), (1.17) y (1.18).
        o                           o
3.7.1. Sea A ∈ Mn (C). Entonces

                                                        A     A
                      A ∈ Mn (C)+ ⇐⇒ A(2) =                            ∈ M2n (C)+ .
                                                        A     A

En efecto, Si tomamos la matriz

                                   1        −I      I
                                U=√                         ∈ U(2n),
                                    2        I      I
52                                                                          Matrices definidas positivas




cuentas elementales muestran que U = U ∗ = U −1 , y que
                                                                   0    0
                               U A(2) U ∗ = U A(2) U =                       .
                                                                   0   2A
Ahora s´ es claro que A ≥ 0 si y s´lo si A(2) ≥ 0. Dejamos como ejercicio la verificaci´n
        ı                         o                                                   o
de que si A(k) ∈ Mkn (C) se define en foma semejante a A(2) , entonces A ≥ 0 si y s´lo si
                                                                                   o
A(k) ≥ 0.
                                               |A∗ | A
3.7.2. Si A ∈ Mn (C), entoces B =                              ≥ 0. En efecto, sea U ∈ U(n) tal que
                                                A∗ |A|
A = U |A|. Entonces
                  U    0       |A|     |A|         U∗     0            U |A| U |A|      U∗   0
          0   ≤                                               =
                  0    I       |A|     |A|         0      I             |A|   |A|       0    I

                  U |A|U ∗     U |A|               |A∗ | A
              =                            =                   ,
                   |A|U ∗       |A|                 A∗ |A|
dado que U |A|U ∗ = |A∗ |. El mismo resultado sigue valiendo si A ∈ Mnm (C), o sea si A es
rectangular. En ese caso B ∈ Mn+m (C)+ (Ejercicio).
Proposici´n 3.7.3. Sea A ∈ Mn,m (C), y llamemos r = m´
         o                                           ın{n, m}. Luego
                             sk (A∗ ) = sk (A)          para todo       k ∈ Ir .                     (3.14)

Demostraci´n. Como vimos en la Observaci´n 1.5.6, µ(AA∗ ) = µ(A∗ A) salvo una cola de
          o                                  o
m − n (o n − m) ceros. Usando el Corolario 1.7.2 (o sea que λ(P (A) ) = P (λ(A) ) para todo
polinomio P ) y la definici´n de |A|, vemos que µ(A∗ A) = µ(|A|2 ) = µ(|A|)2 . De ah´ sale que
                           o                                                       ı
s(A) = s(A∗ ) salvo los ceros finales. Esto muestra la f´rmula (3.14).
                                                       o
Observaci´n 3.7.4 (El rango). Recordemos que, si A ∈ Mn,m (C) decimos que
         o
                      rk A = dim R(A) = dim Gen {C1 (A), . . . , Cm (A)} ,
                                                             ın{n, m}. Sea U ∈ U(n)
lo que usualmente se llama rango columna de A. Llamemos r = m´
tal que A = U |A|. Es f´cil ver que
                       a
                  rk A = rk |A| = rk Σ(A) = m´x{k ∈ Ir : sk (A) = 0} .
                                             a                                                       (3.15)
El rango fila de A es, con esta definici´n, la dim Gen {F1 (A), . . . , Fn (A)} = rk A = rk A∗ .
                                         o                                                       T

Por la Proposici´n 3.7.3, s(A∗ ) = s(A) (salvo ceros finales). Luego la f´rmula (3.15) muestra
                o                                                        o
que ambos rangos son iguales.
Proposici´n 3.7.5. Sea A ∈ Mn (C). Entonces
         o
                               0       A       ∼     Σ(A)   0
                      A :=                     =                            ∈ H(2n) .
                               A∗      0              0   −Σ(A)

En particular, σ(A ) = {±si (A)} (con las mismas multiplicidades). Es decir,
                      µ(A ) = (s1 (A), · · · , sn (A), −sn (A), · · · , −s1 (A) ).                   (3.16)
3.7 El famoso truco 2 × 2                                                                                            53




Demostraci´n. Sean U, V ∈ U(n) tales que Σ(A) = V AU ∗ = U A∗ V ∗ . Es f´cil ver que
          o                                                             a
                                            1        V       U
                                        W =√                          ∈ U(2n).
                                             2      −V       U
Entonces
                                    1      U A∗     VA               V∗    −V ∗
                WA W∗          =
                                    2      U A∗    −V A              U∗     U∗

                                    1      U A∗ V ∗ + V AU ∗               V AU ∗ − U A∗ V ∗
                               =
                                    2      U A∗ V ∗ − V AU ∗              −V AU ∗ − U A∗ V ∗

                                        Σ(A)   0
                               =                                 ,
                                         0   −Σ(A)
como quer´
         ıamos demostrar.
Proposici´n 3.7.6. Sea A ∈ Mn (C). Entonces
         o
                                                                       I      A
                           A       sp   ≤1        ⇐⇒     M=                         ≥ 0.
                                                                       A∗     I

Demostraci´n. Notar que M = I2n + A. Usando que σ(A) = σ(−A) (por la Proposici´n
            o                                                                            o
3.7.5) y luego el Teorema de Rayleigh-Ritz 2.3.1 (o la Observaci´n 2.3.2), obtenemos que
                                                                o
           I    A
                        ≥ 0 ⇐⇒ I2n + A ≥ 0 ⇐⇒ −A ≤ I2n ⇐⇒ −I2n ≤ A ≤ I2n .
           A∗   I

Por la Proposici´n 3.5.2, esto equivale a que A
                o                                             sp     = s1 (A) = ρ(A) = A           sp   ≤ 1.
Observaci´n 3.7.7. Notar que la Proposici´n 3.7.6 sigue siendo v´lida si A es rectangular,
           o                                  o                     a
por el simple recurso de agregarle ceros (arriba o a la derecha) para que A quede cuadrada,
lo que no cambia su norma.
3.7.8. Si A, B ∈ Mn (C)+ , entonces son equivalentes

  1. A ≤ B.
                           B       A
  2. La matriz M =                         ≥ 0.
                           A       B

En efecto, si B ∈ Gl (n)+ , entonces M ≥ 0 si y s´lo si
                                                 o
      B −1/2        0          B       A      B −1/2         0                           I          B −1/2 AB −1/2
0≤                  −1/2                                     −1/2         =       −1/2                                    ,
        0       B              A       B        0        B                    B          AB −1/2           I

lo que, por la Proposici´n 3.7.6, equivale a que A1/2 B −1/2 2 = B −1/2 AB −1/2 ≤ 1. Por
                         o
la Proposici´n 3.5.2, se tiene que A1/2 B −1/2 ≤ 1 si y s´lo si A ≤ B. Un ejercicio f´cil es
            o                                             o                            a
deducir que la equivalencia sigue valiendo si no se pide que B sea inversible (si uno cambia
B por B + εI, entonces M pasa a ser M + εI2n ).
54                                                                                 Matrices definidas positivas




3.7.9. Sea A ∈ Mn (C) una contracci´n, es decir que A
                                   o                                          sp   ≤ 1.
     1. Se tiene que A∗ (I − AA∗ )1/2 = (I − A∗ A)1/2 A∗ .
     2. Entonces las matrices
                        A             (I − AA∗ )1/2                       A                   −(I − AA∗ )1/2
                                                             y
                   (I − A∗ A)1/2          −A∗                        (I − A∗ A)1/2                 A∗
        son unitarias en M2n (C).
En efecto, observar que A∗ (I − AA∗ ) = A∗ − A∗ AA∗ = (I − A∗ A)A∗ . Por inducci´n vemos
                                                                                    o
que A∗ (I − AA∗ )k = (I − A∗ A)k A∗ para todo k ∈ N ∩ {0}. Luego se usa que a (I − AA∗ )1/2 se
lo puede realizar como un polinomio en (I − AA∗ ), y lo mismo para (I − A∗ A), con el mismo
polinomio, dado que tienen el mismo espectro. La verificaci´n la segunda parte es directa, y
                                                            o
se deja como ejercicio.
                                                                                     A        C         k
3.7.10. Sea M ∈ H(n), y represent´mosla por bloques M =
                                 e                                                                          .
                                                                                     C∗       B         n−k
     1. Si A = λIk y B = µIn−k para ciertos λ, µ ∈ R∗ , se tiene que
                                                    +


                            λIk         C
                    M=                         ≥ 0 ⇐⇒ C C ∗ ≤ λ µ Ik ⇐⇒                            C    2
                                                                                                            ≤ λµ .
                            C∗        µIn−k
     2. En el caso general, dado ε > 0, existe λ > 0 tal que
                                         A     C             A + εIk            0
                                                       ≤                                  .
                                         C∗    B                0             λIn−k

                      λIk     C                               λ−1/2 Ik       0
En efecto, si M =       ∗            , conjugandola con D =                         , caemos
                      C     µIn−k                                0      µ−1/2 In−k
en el caso de la Proposici´n 3.7.6 (para C ∈ Mk,n−k (C) rectangular, donde tambi´n es cierto).
                          o                                                      e
Luego, por las citas que se indican sobre los s´
                                               ımbolos,
                                                           Ik                 λ−1/2 µ−1/2 C
                   M ≥0     ⇐⇒ DM D =                  −1/2 −1/2         ∗                              ≥0
                                                   λ        µ        C            In−k
                           Prop. 3.7.6                      Lema 3.5.1
                            ⇐⇒          λ−1 µ−1 C       2
                                                                 =       λ−1 µ−1 C C ∗ ≤ 1
                           Prop. 3.5.3
                            ⇐⇒          C C ∗ ≤ λ µ Ik .
                                                        2
                                                   C
Para la segunda parte, basta tomar λ ≥                      + B . En efecto, en ese caso,
                                                    ε
                                                                                                   2
                                                                                              C
                B ≤ B In−k =⇒ λ In−k − B ≥ λ − B                               In−k ≥                  In−k ,
                                                                                               ε
y, si llamamos m = n − k, se aplica el caso anterior a la matriz
            εIk        −C               εIk       −C                         A + εIk       0                  A      C
     0≤                 2         ≤                                  =                                 −                 .
            −C ∗      C
                       ε  Im            −C ∗   λ Im − B                         0         λIm                 C∗     B
3.8 Cortocircuitos                                                                            55




3.8     Cortocircuitos
Lema 3.8.1. Sean D, A ∈ Mn (C)+ . Luego, las siguientes condiciones son equivalentes:

  1. D ≤ A.
  2. D1/2 x ≤ A1/2 x para todo x ∈ Cn .
  3. Existe C ∈ Mn (C) tal que      C   sp   ≤ 1 y D1/2 = CA1/2 .

Demostraci´n. Observar que D1/2 x 2 = D1/2 x , D1/2 x = Dx , x y lo mismo vale para A.
            o
Esto da la equivalencia 1 ↔ 2. El hecho de que 3 → 1 se deduce de que C sp ≤ 1 ⇒ C ∗ C ≤ I
(por la Proposici´n 3.5.3). Asumamos ahora que vale 2. Entonces ker A1/2 ⊆ ker D1/2 . Luego,
                 o
podemos definir (con buena definici´n) la funci´n
                                    o          o

C0 : R(A1/2 ) → R(D1/2 )    dada por     C0 (A1/2 x) = D1/2 x ,     para cualquier x ∈ Cn .

Es f´cil ver que C0 es lineal. Extend´mosla a una C ∈ Mn (C) poniendo C|ker A1/2 ≡ 0. Ahora
    a                                a
podemos verificar sin dificultades que D1/2 = CA1/2 y, por la condici´n 2, el hecho de que
                                                                     o
 C sp ≤ 1 (ac´ se usa que ker A1/2 = R(A1/2 )⊥ ).
               a

Notaci´n: Recordar que, si M ⊆ Cn es un subespacio, denotamos por PM ∈ Mn (C)+
       o
al proyector ortogonal sobre M. Observar que 0 ≤ PM ≤ I, que PM (M⊥ ) = {0} y que
PM x = x para todo x ∈ M.
Teorema 3.8.2. Sea A ∈ Mn (C)+ y S ⊆ Cn un subespacio. Sea

                  M(A, S) := {D ∈ Mn (C)+ : D ≤ A          y      R(D) ⊆ S} .            (3.17)

Consiredemos el subespacio M = A−1/2 (S) y la matriz T = A1/2 PM A1/2 . Entonces,

  1. T ∈ M(A, S).
  2. Para cualquier D ∈ M(A, S), se cumple que D ≤ T .

En otras palabras, T = A1/2 PM A1/2 es el m´ximo de M(A, S) en el orden usual de H(n) .
                                           a

Demostraci´n. Observar que T = A1/2 PM A1/2 ≤ A1/2 I A1/2 = A. Adem´s, se tiene que
           o                                                                a
R(T ) ⊆ A1/2 (M) ⊆ S. Luego T ∈ M(A, S). Si D ∈ M(A, S), en particular D ≤ A. Por el
Lema 3.8.1, debe existir una contracci´n C tal que D1/2 = CA1/2 , o sea que D1/2 = A1/2 C ∗ .
                                      o

Como A1/2 (R(C ∗ ) ) = R(D1/2 ) ⊆ S, deducimos que R(C ∗ ) ⊆ M, o sea PM C ∗ = C ∗ . Usando
que C ∗ C ≤ I (porque C sp ≤ 1), podemos deducir que C ∗ C = PM C ∗ CPM ≤ PM . Luego

                   D = D1/2 D1/2 = A1/2 C ∗ CA1/2 ≤ A1/2 PM A1/2 = T ,

lo cual muestra que T = m´x M(A, S).
                         a
56                                                                  Matrices definidas positivas




Definici´n 3.8.3. Sean A ∈ Mn (C)+ y S ⊆ Cn , un subespacio. Llamaremos shorted de
        o
A al subespacio S, y lo notaremos Σ (A, S), al m´ximo del conjunto M(A, S).
                                                a

En la siguiente proposici´n, recopilamos una serie de resultados m´s o menos inmediatos de
                         o                                        a
la definici´n y la demostraci´n del Teorema 3.8.2.
          o                 o

Proposici´n 3.8.4. Sean A ∈ Mn (C)+ y S ⊆ Cn , un subespacio. Entonces:
         o

     1. Σ (A, S) ≤ A.

     2. Para todo α ∈ R+ , se tiene que Σ (αA, S) = αΣ (A, S).

     3. Si B ∈ Mn (C)+ cumple que A ≤ B, entonces

                     M(A, S) ⊆ M(B, S)          y por lo tanto    Σ (A, S) ≤ Σ (B, S) .

     4. Si S ⊆ T ⊆ Cn , entonces M(A, S) ⊆ M(A, T ) y Σ (A, S) ≤ Σ (A, T ).

     5. Si R(A) ⊆ S, entonces Σ (A, S) = A.

     6. Σ (Σ (A, S) , S) = Σ (A, S).

Demostraci´n. Ejercicio.
          o

Proposici´n 3.8.5. Sean A ∈ Mn (C)+ y S, T ⊆ Cn , dos subespacios . Entonces
         o

                                   Σ (Σ (A, S) , T ) = Σ (A, S ∩ T ) .

Demostraci´n. Consideremos los conjuntos
          o

                            M(A, S ∩ T ) = {D : 0 ≤ D ≤ A R(D) ⊆ S ∩ T }
                     M(Σ (A, T ) , S) = {D : 0 ≤ D ≤ Σ (A, T ) R(D) ⊆ S}.

Probaremos que estos conjuntos son iguales y por ende sus m´ximos tambi´n lo son. En
                                                           a           e
efecto, sea D ∈ M(A, S ∩ T ), entonces se tiene que

        R(D) ⊆ T        y     D ≤ A =⇒ D ≤ Σ (A, T ) ,           y tambi´n que
                                                                        e        R(D) ⊆ S .

En consecuencia, D ∈ M(Σ (A, T ) , S). Reciprocamente, si D ∈ M(Σ (A, T ) , S) entonces
D ≤ Σ (A, T ), lo cual muestra que R(D) ⊆ T y en consecuencia R(D) ⊆ S ∩ T . Pero como
D ≤ Σ (A, T ) ≤ A se tiene que D ∈ M(A, S ∩ T ).


C´lculo matricial del shorted: complementos de Schur
 a
Se busca dar una expresi´n “en coordenadas” del shorted Σ (A, S). Para ello necesitamos
                         o
seguir haciendo cuentas del estilo 2 × 2, que son interesantes en s´ mismas.
                                                                   ı
3.8 Cortocircuitos                                                                             57



                                                                    A    B     S
Proposici´n 3.8.6. Sea S ⊆ Cn un subespacio, y sea M =
         o                                                                        ∈ Mn (C) .
                                                                    B∗ D       S⊥
Entonces M ∈ Mn (C)+      si y s´lo si se verifican las siguientes condiciones:
                                o

  1. A ∈ L(S)+ y D ∈ L(S ⊥ )+ .

  2. Existe una contracci´n C ∈ L(S ⊥ , S) tal que B = A1/2 CD1/2 .
                         o

En tal caso se tiene que R(B) ⊆ R(A) y que R(B ∗ ) ⊆ R(D).

Demostraci´n. Si se cumplen las condiciones pedidas, se observa que
          o

              A     B        A1/2      0         IS      C       A1/2      0
      M=                =                                                        ∈ Mn (C)+ ,
              B∗    D         0       D1/2       C∗     IS ⊥      0       D1/2

por la Proposici´n 3.7.6 y la Observaci´n 3.7.7. Si suponemos que M ≥ 0, es claro que
                  o                     o
A ∈ L(S)+ y D ∈ L(S ⊥ )+ . Asumamos que ambas son inversibles. Haciendo la cuenta
anterior al reves, si llamamos C = A−1/2 BD−1/2 se tiene que

        IS    C          A−1/2        0          A     B       A−1/2     0
                    =                                                            ∈ Mn (C)+ .
        C∗   IS ⊥          0      D   −1/2       B∗    D         0      D−1/2

Luego queda que C sp ≤ 1 y B = A1/2 CD1/2 . El caso general sale aplicando lo anterior a
las matrices M + n I. Se toma la sucesi´n Cn = (A + n IS )−1/2 B (D + n IS ⊥ )−1/2 , que consta
                 1
                                       o            1                 1

de contracciones. Como la bola de Mn (C) es compacta, hay una subsucesi´n Cnk − − → C,
                                                                             o         −−
                                                                                         k→∞
donde C es tambi´n una contracci´n. Ahora observamos que, para todo k ∈ N,
                e               o

                            1                   1
                B = (A +       IS )1/2 Cnk (D +    IS )1/2 − − → A1/2 CD1/2 ,
                                                           −−
                            nk                  nk         k→∞

donde la continuidad de tomar raices cuadradas se deduce de que todas las matrices de cada
sucesi´n se diagonalizan en la misma base.
      o

Proposici´n 3.8.7. Sean A ∈ Gl(k)+ , C ∈ Mm (C)+ y B ∈ Mk,m (C). Sea
         o

                                    A        B   Cn
                            M=                             ∈ Mk+m (C) .
                                    B∗       C   Cm

Entonces se verifican las siguientes propiedades:

  1. M ∈ Gl(m + k)+ ⇐⇒ B ∗ A−1 B < C (o sea que C − B ∗ A−1 B ∈ Gl(m)+ ).

  2. M ∈ Mk+m (C)+ ⇐⇒ B ∗ A−1 B ≤ C.

                                                 ∗            ∗
  3. Si M ∈ Gl(m + k), entonces M −1 =                                      .
                                                 ∗    (C − B ∗ A−1 B)−1
58                                                                                  Matrices definidas positivas




Demostraci´n. Sea X = −A−1 B ∈ Mkm (C). Entonces, haciendo cuentas elementales, obten-
          o
emos que
                   Ik  0        Ik X          A          0
                            M             =                        ,
                  X ∗ Im        0 Im          0 C − B ∗ A−1 B
                                                                        −1
                                                           Ik     X                  Ik    −X
lo que prueba 1 y 2. Por otra parte, como                                      =                 , deducimos que
                                                           0      Im                 0     Im

                 Ik       −X            −1       Ik       0            A−1                 0
                                    M                             =
                 0        Im                    −X ∗     Im             0          (C − B ∗ A−1 B)−1

y, por lo tanto, que

           Ik   X             A−1            0                        Ik        0          ∗            ∗
M −1 =                                                                                =                             ,
           0    Im             0     (C − B ∗ A−1 B)−1                X∗       Im          ∗    (C − B ∗ A−1 B)−1

lo que prueba la parte 3.

Ejercicio 3.8.8. Dar otra prueba de la Proposici´n 3.8.7, v´ la Proposici´n 3.8.6.
                                                o          ıa            o


Corolario 3.8.9. Sean M ∈ Mn (C)+ y S ⊆ Cn , un subespacio. Supongamos que

                      A        B        S⊥
            M=                                  y que la compresi´n
                                                                 o                 A = MS ⊥ ∈ Gl(S ⊥ )+ ,
                      B∗       C        S

o sea que M x , x > 0 para todo x ∈ S ⊥  {0}. Luego se tiene que

                          0        0                   S⊥
     1. Σ (M, S) =                                        .
                          0   C − B ∗ A−1 B            S

     2. M ∈ Gl (n)+ ⇐⇒ existe un λ ∈ R∗ tal que λ PS ≤ Σ (M, S).
                                      +



Demostraci´n. Pongamos que dim S = m y llamemos k = n − m = dim S ⊥ . Trabajando en
          o
una BON que empiece generando a S ⊥ , podemos asumir que S = Gen {ek+1 , . . . , en } y que
estamos en las condiciones de la Proposici´n 3.8.7 (en particular, que A ∈ Gl(k)+ ). Si ahora
                                          o
                 0        0          S⊥
llamamos T =                              , es claro que R(T ) ⊆ S y que
                 0 C − B ∗ A−1 B     S

                              A     B            0          0
          M −T        =                     −
                              B∗    C            0     C − B ∗ A−1 B

                              A       B                    A1/2            0        A1/2   A−1/2 B
                      =                              =                                                 ≥0,
                              B∗    B A−1 B
                                        ∗
                                                          B A−1/2
                                                              ∗
                                                                           0         0       0
3.9 Ejercicios                                                                                                                59



                                                                                0   0            S⊥
por lo que T ≤ M y T ∈ M(M, S). Tomemos un Q =                                                      ∈ M(M, S). Luego
                                                                                0   D            S
                                A          B
se tiene que M − Q =                                   ∈ Mn (C)+ . Por la Proposici´n 3.8.7 vemos que
                                                                                   o
                                B∗       C −D
                  B ∗ A−1 B ≤ C − D =⇒ D ≤ C − B ∗ A−1 B =⇒ Q ≤ T .
As´ que T = Σ (M, S). La segunda parte surge de que
  ı
                                                                    0        0                        0        0
   C − B ∗ A−1 B ∈ Gl(S)+ ⇐⇒ Σ (M, S) =                                                          ≥                   = λ PS
                                                                    0   C − B ∗ A−1 B                 0       λ IS
para cierto λ ∈ R∗ , volviendo a aplicar la Proposici´n 3.8.7.
                 +
                                                     o
Observaci´n 3.8.10. La definci´n m´s tradicional del shorted de un M ∈ Mn (C)+ se suele
            o                      o     a
hacer usando el complemento de Schur, seg´n la f´rmula que se desarrolla en el Cap´
                                            u     o                                 ıtulo 12 y se
muestra en el Corolario 3.8.9. La ventaja de la definici´n que surge del Teorema 3.8.2 es que no
                                                        o
necesita que haya una submatriz inversible. Sin embargo, utilizando seudoinversas de Moore-
Penrose, se puede dar una f´rmula estilo la del Corolario 3.8.9 para cualquier M ∈ Mn (C)+ ,
                             o
reemplazando B ∗ A−1 B por B ∗ A† B, que en dimensi´n finita siempre existe (ver el Ejercicios
                                                       o
3.9.20 y 3.9.30). M´s all´ de esto, la simpleza de las pruebas de las Proposiciones 3.8.4 y 3.8.5
                    a    a
da una muestra de que el enfoque basado en maximizar el conjunto M(M, S) tiene fuertes
ventajas metodol´gicas.
                  o
Todos los resultados de esta secci´n siguen siendo v´lidos en el contexto de operadores acota-
                                  o                 a
dos en espacios de Hilbert. Las pruebas son muy similares, pero necesitan t´cnicas espec´
                                                                             e           ıficas,
sobre todo para mostrar el Lema 3.8.1 y la Proposici´n 3.8.6 (ojo con la bola compacta). Estos
                                                    o
temas se expondr´n, con mucha mayor profundidad, en el tomo II.
                  a


3.9     Ejercicios
Ejercicios del texto
3.9.1. Mostrar que las normas definidas en 3.4.1 son, efectivamente, normas.
3.9.2. Consideremenos en Cn las siguientes normas:
                          n
              x   1   =         |xi |       y      x   ∞   = m´x |xi | ,
                                                              a                 para todo x ∈ Cn ,
                                                               i∈In
                          i=1

que inducen en Mn (C) las sendas normas matriciales: Dada A ∈ Mn (C),
                      |||A|||∞ = m´x
                                  a                Ax      ∞     y      |||A|||1 = m´x
                                                                                    a            Ax   1   .
                                        x   ∞ =1                                    x   1
                                                                                            =1

Probar que estas normas pueden calcularse efectivamente mediante las f´rmulas:
                                                                      o
                      |||A|||∞ = m´x Fi (A)
                                  a                        1    y       |||A|||1 = m´x Ci (A)
                                                                                    a                 1   .
                                        i∈In                                     i∈In

para toda A ∈ Mn (C).
60                                                                        Matrices definidas positivas




3.9.3. Sea A ∈ Mn (C). Si N es una norma matricial en Mn (C), mostrar que

                  ρ(A) = ´ N (Am )1/m
                         ınf                     y que         N (Am )1/m                   ρ(A) .
                          m∈N                                                  m→∞

3.9.4. Encontrar una matriz A ∈ Mn (C)+ tal que B = |Aij |                         i,j∈In
                                                                                            ∈ Mn (C)+ . Observar
                                                                                            /
que hay que buscar para n ≥ 3.

3.9.5. Probar que, si A ∈ Mn (C)+ , entonces eA :=
                                              ◦                  eAij               ∈ Mn (C)+ .
                                                                        i,j∈In

                                       |A∗ | A
3.9.6. Si A ∈ Mn,m (C), entoces B =                             ∈ Mn+m (C)+ . Se suguiere aplicar 3.7.2
                                        A∗ |A|
agreg´ndole ceros a A para que quede cuadrada.
     a
3.9.7. Sea A ∈ Mn,m (C) una contracci´n, es decir que A
                                     o                                    sp   ≤ 1. Probar que

     1. A∗ (In − AA∗ )1/2 = (Im − A∗ A)1/2 A∗ ∈ Mm,n (C).
     2. Las matrices
                     A           (I − AA∗ )1/2                       A                 −(I − AA∗ )1/2
                                                         y
                (I − A∗ A)1/2        −A∗                        (I − A∗ A)1/2               A∗

       son unitarias en Mn+m (C).
3.9.8. Demostrar los 6 items de la Proposici´n 3.8.4.
                                            o


Ejercicios nuevos
3.9.9. Sea A ∈ Mn,m (C). Probar que, para todo k ∈ In , se tiene que

                   sk (A) = m´x
                             a          m´ Ax =
                                         ın                     m´
                                                                 ın            m´x Ax .
                                                                                a
                            dim S=k     x∈S1             dim M=n−k+1           x∈M1

3.9.10. Consideremos los conjuntos Rk (n) = {T ∈ Mnm (C) : rk T ≤ k}. Mostrar que

             A ∈ Mnm (C) =⇒ sk (A) = min                     A−T        para todo k ∈ In .
                                               T ∈Rk−1

3.9.11. Mostrar que si A, H ∈ Mnm (C), y rk H = k, entonces

                       sj (A) ≥ sj+k (A + H) ,           para todo        j ∈ In−k .

3.9.12. Mostrar que, para cualquier A ∈ Mnm (C) y para cada k ∈ In , vale que

                                 k                        k
                                      sj (A) = max             Axj , yj        ,
                                j=1                      j=1

donde el m´ximo se toma sobre todas las k−uplas ortonormales x1 , . . . , xk e y1 , . . . , yk .
          a
3.9 Ejercicios                                                                                       61




3.9.13. Sean A, B, C ∈ Mn (C) tal que A              sp   ≤ 1. Se definen

                      DA = (I − A∗ A)1/2             y      DA∗ = (I − AA∗ )1/2 .

  1. Suponiendo que A       sp   < 1, verificar:
                  −1           −1
      (a) Si K = DA C ∗ y L = DA∗ B, entonces

              KK ∗ ≤ 1 (resp. LL∗ ≤ 1)           ⇐⇒         A∗ A + C ∗ C ≤ 1 (resp. AA∗ + BB ∗ ≤ 1).
                                                           −2              −1   −1
                                                                                    
                                         −1               DA∗            −DA∗ ADA
                             I      A
      (b) Demostrar que                       =                                     .
                             A∗     I             −1    −1                    −2
                                                −DA A∗ DA∗                   DA
      (c) Sea X ∈ Mn (C). Demostar que las matrices
                                                                                              
                       I     0       A    B                                    I    A     0    B
                      0     I       C    X                                  A∗   I     C∗   0
                       ∗                                    y
                             B∗
                                                                                               
                      A             I    0                                 0     C     I    X
                       C∗    X∗      0    I                                   B∗    0     X∗   I

            son conjugadas y ambas positivas.

  2. (Parrot) Demostrar que las siguientes afirmaciones son equivalentes:

                                                A    B
      (a) Existe X ∈ Mn (C) tal que                              ≤ 1.
                                                C    X      sp

                                    A
      (b)     A   B        ≤1y                ≤ 1.
                      sp            C    sp

3.9.14 (Fejer). Sea A ∈ Mn (C). Probar que

             A ∈ Mn (C)+ ⇐⇒                   Aij Bij ≥ 0        para toda       B ∈ Mn (C)+ .
                                     i,j∈In


3.9.15. Sea A ∈ Mn (C). Probar que

       Re A ∈ Mn (C)+ =⇒ Re (A ◦ B) ∈ Mn (C)+                           para toda   B ∈ Mn (C)+ .

3.9.16. Sea A = {Ak }k∈N una sucesi´n en H(n) tal que, para todo k ∈ N,
                                   o

  1. Ak+1 ≤ Ak (es decir que A es decreciente)

  2. Existe B ∈ H(n) tal que B ≤ Ak (o sea que A es acotada inferiormente). Observar que
     esto equivale pedir que la sucesi´n { Ak sp }k∈N sea acotada.
                                      o
62                                                               Matrices definidas positivas




Entonces existe A = inf Ak = lim Ak ∈ H(n). Es decir que Ak − − → A, que A ≤ Ak para
                                                            −−
                      k∈N        k∈N                                   k→∞
todo k ∈ N y que, si un C ∈ H(n) es menor que todos los Ak , entonces tambi´n C ≤ A.
                                                                           e
Probar un resultado similar si A es creciente y acotada superiormente.

Se suguiere definir Ax , x = lim Ak x , x para cada x ∈ Cn , y extrapolar a Ax , y usando
                               k∈N
polarizaci´n. Otro argumento (bien finitodimensional) ser´ diagonalizar a todas, aplicar el
          o                                             ıa
Teorema de Weyl 2.3.5 y usar que U(n) es compacto, para construir A y ver que el l´
                                                                                  ımite de
arriba camina, y que es un ´
                           ınfimo por hip´tesis.
                                        o


Pseudoinversas y proyecciones oblicuas
Definici´n 3.9.17. Sea A ∈ Mn (C). Se dice que una matriz B ∈ Mn (C) es una pseudoin-
         o
versa de A si verifica que ABA = A y BAB = B.

Observaci´n 3.9.18. En algunos libros, las matrices que cumplen las condiciones de la
           o
definici´n anterior se denominan g-inversas reflexivas.
       o

3.9.19. Sea S un subespacio de Cn . Demostrar que todas las proyecciones oblicuas sobre S
poseen la siguiente representaci´n matricial: Dada Q ∈ Mn (C), se tiene que
                                o

                                                                                   IS   X        S
  Q2 = Q      y    R(Q) = S    ⇐⇒          existe X ∈ L(S ⊥ , S) tal que     Q=                     .
                                                                                    0   0        S⊥
                                  2               2
Ya que estamos, probar que Q      sp   =1+ X      sp   .

3.9.20. Sea A ∈ Mn (C)

     1. Probar que para cualquier pseudoinversa B de A se cumple que

              (AB)2 = AB , (BA)2 = BA , R(AB) = R(A)                   y     ker BA = ker A .

     2. Dadas dos proyecciones oblicuas (o no) P, Q tales que R(P ) = R(A) y ker Q = ker A,
        probar que existe una unica pseudoinversa B (de A) tal que AB = P y BA = Q.

Definici´n 3.9.21. Dada A ∈ Mn (C), se definen:
       o

     1. La pseudoinversa de Moore-Penrose A† de A, como la unica que cumple que las proyec-
                                                           ´
        ciones AA† y A† A ∈ H(n) i.e., son ortogonales.

     2. El m´dulo m´
            o      ınimo reducido de A como:

                            γ(T ) := m´
                                      ın     Ax : x ∈ ker A⊥       x =1       .

3.9.22. Sea A ∈ Gl (n). Probar que, en ese caso, A† = A−1          y       γ(A) = A−1   −1
                                                                                        sp   .

3.9.23. Sea A ∈ Mn (C). Demostrar lo siguiente:
3.9 Ejercicios                                                                                            63




  1. (A∗ )† = (A† )∗ y (A† )† = A.

  2. A† = A∗ (AA∗ )† .

  3. Sea B ∈ Mn (C) tal que

                    R(B) = ker A⊥ ,               ker AB = ker B      y   R(AB) = R(A) .

     Entonces (AB)† = B † A† .

3.9.24. Sea {An } ⊆ Mn (C) una sucesi´n de matrices que poseen el mismo rango. Suponga-
                                     o
mos que {An } − − → L ∈ Mn (C) y que L posee el mismo rango que las An .
              −−
                 n→∞


  1. Probar que A† − − → L† .
                 n − −
                            n→∞

  2. Dar un ejemplo de una sucesi´n {An } − − → L pero tal que {A† } − − → L† .
                                 o        −−                     n   −−
                                                          n→∞                        n→∞

3.9.25. Sea A ∈ Mn (C). Probar:

  1. A† = lim A∗ (εI + AA∗ )−1 .
           ε→0

             ∞                                   ∞
       †                     ∗           ∗
  2. A = α        (I − αA A) A = α   n
                                                       A∗ (I − αAA∗ )n para cualquier 0 < α < 2/ A   2
                                                                                                     sp   .
             n=0                                 n=0

                                                             A1   0   R(A)
3.9.26. Sea A ∈ Mn (C)+ . Probar que A =                                    . Deducir que
                                                             0    0   ker A

                    A−1          0       R(A)
           A† =      1                               y que            ın{λ ∈ σ (A) : λ = 0} .
                                                              γ(A) = m´
                     0           0       ker A

3.9.27. Sea A ∈ Mn (C) tal que su descomposici´n en valores singulares es A = W Σ(A)V ∗ .
                                               o
Expresar A† en funci´n de W , Σ(A), y V . ¿Qu´ relaci´n hay entre los valores singulares de
                    o                        e       o
A y los de A† ?

3.9.28. Dada A ∈ Mn (C) demostrar las siguientes propiedades:

  1. γ(A)2 = γ(A∗ A) = γ(AA∗ ) = γ(A∗ )2 .

  2. γ(A) = A†     −1
                        .

3.9.29. Sean A, B ∈ Mn (C)+ . Probar que A ≤ B ⇐⇒ ρ(AB † ) ≤ 1.

                                                                                        A       B    S⊥
3.9.30. Sean M ∈ Mn (C)+ y un subespacio S ⊆ Cn tales que M =                                           .
                                                                                        B∗      C    S
                                 0       0                S⊥
Probar que Σ (M, S) =                                        .
                                 0   C − B ∗ A† B         S
64                                                                            Matrices definidas positivas




3.9.31. Sean A ∈ Mn (C)+ y S ⊆ Cn un subespacio. Dado x ∈ S, se tiene que
                                » – » –                         » – » –
                              0   0                           y   y
                     Σ (A, S) x , x             = inf       A x , x              : y ∈ S⊥            .

3.9.32. Sean A ∈ Mn (C)+ y S ⊆ Cn un subespacio. Entonces existen unicos
                                                                  ´

      F y G ∈ Mn (C)+      tales que     A=F +G ,                R(F 1/2 ) ⊆ S            y       R(G1/2 ) ∩ S = {0} .

M´s aun, F = Σ (A, S) y G = A − Σ (A, S) .
 a
                                                                                          D         B    S⊥
3.9.33. S ⊆ Cn un subespacio. Consideremos la casimatriz M =                                                . Sea
                                                                                          B∗        ?    S

                                                                D      B
                     P(M, S) = X ∈ L(S)+ :                                   ∈ Mn (C)+ .
                                                                B∗     X

Probar que P(M, S) = ∅ si y s´lo si R(B) ⊆ R(D1/2 ). M´s a´n, probar que en tal caso
                               o                      a u
existe X0 = m´ P(M, S), e identificarlo.
             ın


Definici´n 3.9.34. Dada una matriz A ∈ Mn (C)+ , consideraremos en Cn el pseudoproducto
        o
interno ·, · A definido por

                    x, y   A   = Ax, y      ,       para todo par          x , y ∈ Cn .

3.9.35. Sea A ∈ Mn (C)+ y S un subespacio de Cn . Demostrar las siguientes propiedades:

     1. S ⊥A = A−1 (S ⊥ ) = A(S)⊥ .
     2. T ∈ Mn (C) es A-autoadjunto si y s´lo si T A = A∗ T .
                                          o
     3. El conjunto de las proyecciones A-autoadjuntas con rango S, que denotaremos

                 P(A, S) = {Q ∈ Mn (C) : Q2 = Q, AQ = Q∗ A y R(Q) = S} = ∅ .

                                                                                     a        b    S⊥
3.9.36. Sea A ∈ Mn (C)+ y S un subespacio de Cn . Si A =                                              , probar que la
                                                                                     b∗       c    S
proyecci´n PA, S definida por
        o

                                                1   a† b    S⊥
                                  PA, S =                      ∈ Mn (C)
                                                0    0      S

satisface que PA, S ∈ P(A, S) y encima PA, S               sp   =      m´
                                                                        ın       Q   sp   .
                                                                     Q∈P(A, S)

3.9.37. Dada una un proyecci´n Q ∈ Mn (C), no necesariamente ortogonal, construir una
                             o
matriz A ∈ Gl (n)+ de modo que Q resulte A-autoadjunta.
3.9 Ejercicios                                                                          65




3.9.38. Sea A ∈ Mn (C). Dada una matriz W ∈ Gl (n)+ , demostrar que B = (A∗ W A)† A∗ D
es una pseudoinversa de A tal que AB es una proyecci´n ortogonal respecto al producto
                                                        o
interno ·, · W y BA lo es respecto al producto interno usual.
3.9.39. Dado T ∈ Mn (C) y A ∈ Gl (n)+ , encontrar una expresi´n para la Moore-Penrose de
                                                             o
T respecto al ·, · A .
3.9.40. Sean A, B ∈ Mn (C). Encontrar C ∈ Mn (C), tal que

                            AC − B    sp   =     m´
                                                  ın       AX − B      sp   .
                                               X∈Mn (C)

Ahora reemplazar la norma espectral por alguna otra NUI y encontrar C para dicha norma.
¿Qu´ conclusi´n puede sacar?, ¿puede extender su conclusi´n para otras normas unitariamente
    e         o                                          o
invariantes?.

3.9.41. Dadas A, B ∈ Mn (C), se dice que A ≤* B si BA∗ = AA∗ y B ∗ A = A∗ A. Demostrar:

  1. A ≤* B ⇐⇒ A† A = B † A y AA† = AB † .

  2. A† = m´x {B ∈ Mn (C) : BAB = B, (AB)∗ = AB, y (BA)∗ = BA}.
           a
            ≤*

  3. A† = m´ {B ∈ Mn (C) : ABA = A, (AB)∗ = AB, y (BA)∗ = BA}.
           ın
           ≤*

3.9.42 (Ljance-Ptak.). Sea E ∈ Mn (C) una proyecci´n oblicua. Si P, Q ∈ Mn (C) designan
                                                      o
las proyecciones ortogonales al rango y nucleo de E respectivamente, probar que

                                                           2           1
                       PQ   sp   <1   y    que         E       =            2
                                                                                 .
                                                                   1 − PQ   sp
66   Matrices definidas positivas
Cap´
   ıtulo 4

Mayorizaci´n
          o

Es este cap´ıtulo expondremos las nociones b´sicas de mayorizaci´n, y su relaci´n con combi-
                                            a                    o             o
naciones convexas de permutaciones, matrices doblemente estoc´scticas y funciones convexas.
                                                               a
En la secci´n 3 mostraremos el teorema de Birkhoff que asegura que las matrices de per-
            o
mutaci´n son el conjunto de puntos extremales de las matrices doblemente estoc´scticas. En
       o                                                                         a
la ultima secci´n introduciremos las propiedades b´sicas de la mayorizaci´n logar´
   ´            o                                  a                     o        ıtmica.



4.1     Definiciones y caracterizaciones
Notaciones: Sea x = (x1 , ..., xn ) ∈ Rn .

  1. Notaremos x↓ y x↑ a los vectores obtenidos al reordenar las coordenadas de x en forma
     decreciente y creciente respectivamente. Es decir, por ejemplo, que

                            x↓ = m´x xi , x↓ + x↓ = m´x xi + xj , etc.
                             1    a        1    2    a
                                   i                   i=j


      Por ejemplo, si x es el vector de autovalores de una matriz A ∈ H(n), entonces se tendr´
                                                                                             a
      que x↓ = µ(A) y x↑ = λ(A).

  2. Denotaremos por 1 = (1, 1, . . . , 1) ∈ Rn , al vector con todas sus entradas iguales a uno.
     Si hace falta aclarar el tama˜o, escribiremos 1n .
                                  n
                                       n
  3. Escribiremos tr x = x, 1 =            xi .
                                    j=1


Con estas notaciones podemos dar la definici´n de mayorizaci´n:
                                           o               o

Definici´n 4.1.1. Sean x, y ∈ Rn .
       o
68                                                                                                    Mayorizaci´n
                                                                                                                o




     1. Se dice que y mayoriza a x, y se nota x                       y si se verifica que
                                                            k                 k
                   tr y = tr x ,        y adem´s
                                              a                  x↓
                                                                  j    ≤            ↓
                                                                                   yj   para todo k ∈ In .       (4.1)
                                                           j=1               j=1


                     k                   n−k
     2. Dado que         x↑ = tr x −
                          j                    x↓ para todo k ∈ In , la relaci´n x
                                                j                             o                y equivale a que
                   j=1                   j=1

                                                            k                 k
                   tr y = tr x ,        y adem´s
                                              a                  x↑
                                                                  j    ≥            ↑
                                                                                   yj   para todo k ∈ In .       (4.2)
                                                           j=1               j=1


     3. Si s´lo se cumple la segunda condici´n (4.1) (o sea que se permite que tr x < tr y ), se
            o                               o
        dice que x est´ submayorizado por y y se nota x w y.
                      a
     4. Si s´lo se cumple la segunda condici´n (4.2) (aca se permite que tr x > tr y ), se dice
            o                               o
        que x est´ supramayorizado por y y se nota x w y.
                  a
Ejemplos 4.1.2.
                                                           a a        a   a
     1. Sea x ∈ Rn . Llamemos a = tr x. Entonces              ,         1=
                                                                    ,...,                              x . En efecto,
                                                           n n        n   n
                                                   k       ka
       supongamos que existiera un k ∈ In tal que     x↓ <
                                                       i        . En tal caso,
                                                  i=1      n
                                 k                               n                              n
                             1                 a                             (n − k)a
                x↓ ≤
                 k                     x↓ <
                                        i           =⇒                x↓ <
                                                                       i                 =⇒          x↓ < a .
                                                                                                      i
                             k   i=1
                                               n                                n              i=1
                                                            i=k+1


     2. Si x ∈ Rn , entonces x
                +
                                         (tr x, 0, . . . , 0).

     3. Sean x, y ∈ Rn . Si sucediera que x y e y x, entonces es f´cil ver que x↓ = y ↓ . Por
                                                                  a
        lo tanto, x e y s´lo difieren en una permutaci´n.
                         o                           o

Existe una relaci´n muy estrecha entre las relaciones de mayorizaci´n y las matrices doble-
                 o                                                 o
mente estoc´sticas. Notaciones: Sea A ∈ Mn,m (C).
           a

     1. Diremos A 0 si Aij ≥ 0 para todo par i ∈ In , j ∈ Im . En otras palabras, A                             0 si A
        tiene entradas no negativas. Ojo con el simbolito, no el lo mismo escribir

                         A   0 (entradas positivas) que A ≥ 0 (semidefinida positiva) .

     2. Si x, y ∈ Rn , pondremos x y si se cumple que xi ≥ yi para todo i ∈ In . Tambi´n
                                                                                      e
                                       ∗
        escribiremos que x > 0 si x ∈ R+ n .
4.1 Definiciones y caracterizaciones                                                                69




Definici´n 4.1.3. Una matriz A ∈ Mn (R) se denomina doblemente estoc´stica si
       o                                                           a

            A    0 , tr Fi (A) = 1        y       tr Ci (A) = 1   para todo i ∈ In .

Al conjunto de matrices doble estoc´sticas en Mn (C) lo denotaremos DS (n).
                                   a


Ejercicio 4.1.4. Sea A ∈ Mn (R). Probar que A ∈ DS (n) si y s´lo si
                                                             o

                              A    0,         A1 = 1      y   A∗ 1 = 1,

donde 1 = (1, 1, . . . , 1) ∈ Rn . Deducir que DS (n) es un conjunto convexo, y que dadas dos
matrices A, B ∈ DS (n), entonces tambi´n AB ∈ DS (n).
                                           e

Observaci´n 4.1.5 (Matrices de permutaci´n). Sea n ∈ N.
         o                              o

  1. Llamaremos Sn al n-´simo grupo sim´trico, es decir
                        e              e

                              Sn = {σ : In → In : σ es biyectiva } ,

     con el producto dado por la composici´n de funciones.
                                          o

  2. Dados σ ∈ Sn y x ∈ Cn , llamaremos xσ = (xσ(1) , . . . , xσ(n) ).

  3. Dada σ ∈ Sn , llamaremos Pσ : Cn → Cn al operador dado por

                                          Pσ x = x σ ,        x ∈ Cn .

     Es claro que esta funci´n es lineal, por lo que pensamos a Pσ ∈ Mn (C) como su matriz
                            o
     en la base can´nica.
                   o

  4. Observar que, dado x ∈ Rn , existen σ, τ ∈ Sn tales que x↓ = Pσ x y x↑ = Pτ x.

  5. Dada σ ∈ Sn , las columnas de Pσ est´n dadas por
                                         a

                          Ck (Pσ ) = Pσ (ek ) = (ek )σ = eσ−1 (k) ,       k ∈ In .

  6. Dadas σ, τ ∈ Sn , entonces Pσ Pτ = Pστ , porque (xτ )σ = xστ para todo x ∈ Cn .

  7. El grupo UP (n) = {Pσ : σ ∈ Sn } est´ incluido en U(n), dado que cada Pσ es claramente
                                         a
                                                            −1     ∗     T
     isom´trico. Por lo tanto, para cada σ ∈ Sn , Pσ−1 = Pσ = Pσ = Pσ .
          e

  8. Por otra parte, tambi´n se tiene que UP (n) ⊆ DS (n). En efecto, dada σ ∈ Sn ,
                          e
                                                                    T
         Ck (Pσ ) = Pσ (ek ) = eσ−1 (k)       y     Fk (Pσ ) = Ck (Pσ ) = Ck (Pσ−1 ) = eσ(k) ,   (4.3)
                                                                    T
     para todo k ∈ In . Otra forma de verlo es notando que Pσ 1 = Pσ 1 = 1. M´s adelante
                                                                               a
     veremos que UP (n) es ni m´s ni menos que el conjunto de puntos extremales de DS (n).
                                a
70                                                                                                       Mayorizaci´n
                                                                                                                   o




     9. Dadas A ∈ Mn (C) y Pσ ∈ UP (n), para cada k ∈ In se tiene que

                                                                                                 ∗
          Fk (Pσ A) = Fσ(k) (A) , Ck (APσ ) = Cσ−1 (k) (A)                        y      d (Pσ APσ ) = d (A)σ .   (4.4)

       En efecto, para todo i ∈ In , tenemos que Ci (Pσ A) = Pσ (Ci (A) ) = Ci (A)σ . Luego
       (Pσ A)ki = Aσ(k)i , para todo i ∈ In . Esto prueba la primera igualdad.
       La seguna sale aplicando la de las filas a (APσ )T = Pσ−1 AT . La de las diagonales sale
       porque cada

                 ∗            ∗             ∗       ∗
           (Pσ APσ )kk = Pσ APσ ek , ek = APσ ek , Pσ ek = A eσ(k) , eσ(k) = Aσ(k)σ(k) .

       En resumen, multplicar por Pσ a izquierda permuta las filas, hacerlo a derecha permuta
       las columnas (con σ −1 ), y conjugar con Pσ permuta la diagonal de las matrices.

Teorema 4.1.6. Sea A ∈ Mn (R). Luego se tiene que

                       A ∈ DS (n)         ⇐⇒       Ax           x       para todo x ∈ Rn .

Demostraci´n. Supongamos que Ax x para todo x. Sea E = {e1 , . . . , en } la base can´nica
           o                                                                         o
de Cn . Para cada i ∈ In , se tiene que Ci (A) = Aei ei . Esto implica que A 0 y que

                       1 = tr ei = tr A ei = tr Ci (A)                    para todo         i ∈ In .

Por otra parte, sabemos que A 1 1. Pero por el Ejemplo 4.1.2, como todas las coordenadas
de 1 son iguales, deducimos que 1 A 1. Y como no vale la pena permutar al 1, queda que

                                  1 = A 1 = (tr F1 (A), . . . , tr Fn (A) ) .

   ıprocamente, supongamos que A ∈ DS (n) y llamemos y = Ax. Queremos probar que
Rec´
y x. Se puede suponer que las coordenadas de x y de y est´n ordenadas en forma decreciente,
                                                          a
porque si P, Q ∈ UP (n) son matrices de permutaci´n (ver Observaci´n 4.1.5), entonces QAP ∈
                                                  o               o
DS (n) (por el Ejercicio 4.1.4). Por otra parte, como y = Ax,

                 k            k   n               n         k
                      yj =             aji xi =                 aji xi           para todo        k ∈ In .        (4.5)
                j=1          j=1 i=1              i=1   j=1


                                                                             k
Fijemos un k ∈ In . Si para cada i ∈ In llamamos ti =                             aji , entonces
                                                                            j=1


                                                                    n             k
                      0 ≤ ti ≤ tr Ci (A) = 1            y                 ti =         tr Fi (A) = k .
                                                                    i=1          j=1
4.1 Definiciones y caracterizaciones                                                                                                         71




Luego, aplicando la Eq. (4.5),
            k            k              k     n                    k               n                k
                 yj −         xj   =              aji xi −              xi =            t i xi −         xi
        j=1             j=1            j=1 i=1                    i=1          i=1                 i=1
                                        n                k                      n
                                   =         t i xi −            xi + (k −             ti )xk
                                       i=1              i=1                    i=1
                                        k                    n                 k                            k               n
                                   =         t i xi +              t i xi −            xi + k x k −             t i xk −           t i xk
                                       i=1              i=k+1                 i=1                        i=1               i=k+1
                                        k                          k               k                    n
                                   =         (ti − 1) xi +              xk −            ti xk +                 ti (xi − xk )
                                       i=1                        i=1           i=1                 i=k+1
                                        k                          k                            n
                                   =         (ti − 1) xi +              (1 − ti ) xk +                  ti (xi − xk )
                                       i=1                        i=1                        i=k+1
                                        k                                       n
                                   =         (ti − 1) (xi − xk ) +                      ti (xi − xk ) ≤ 0,
                                       i=1                                    i=k+1

pues los dos sumandos del ultimo rengl´n son sumas de t´rminos no positivos. Por lo tanto
                          ´           o                e
 k               k
      yj ≤            xj para todo k ∈ In . Por ultimo, observar que la Eq. (4.5) muestra que tr y = tr x
                                                ´
j=1             j=1
(para k = n, todos los ti = tr Ci (A) = 1). As´ llegamos a que Ax = y
                                              ı,                                                                     x.
Ejemplo 4.1.7. Como motivaci´n del siguiente resultado, supongamos que
                            o

            x, y ∈ R2          cumplen que        y = (y1 , y2 )           x = (x1 , x2 ) , y1 ≥ y2 y x1 ≥ x2 .

En este caso, esto significa que

                                   x2 ≤ y2 ≤ y1 ≤ x1              y que        y1 + y2 = x1 + x2 .

Luego, debe existir un λ ∈ [0, 1] tal que y1 = λx1 + (1 − λ)x2 . Entonces,

                        y2 = y1 + y2 − y1 = x1 + x2 − y1 = x1 + x2 − λx1 + (1 − λ)x2
                             = (1 − λ)x1 + λx2 .

y por lo tanto y = (y1 , y2 ) = λ(x1 , x2 ) + (1 − λ)(x2 , x1 ) = λx + (1 − λ)Pτ x, donde τ ∈ S2 es
la permutaci´n no trivial.
             o
Teorema 4.1.8. Sean x, y ∈ Rn . Entonces, son equivalentes:

     1. y        x.
     2. y es una combinaci´n convexa de permutaciones de x.
                          o
72                                                                                                           Mayorizaci´n
                                                                                                                       o




     3. Existe A ∈ DS (n) tal que y = Ax.

Demostraci´n. Como DS (n) es convexo y UP (n) ⊆ DS (n), obtenemos que 2 ⇒ 3. Por el
           o
Teorema 4.1.6 se tiene que 3 ⇒ 1. Luego, solo resta probar que 1 ⇒ 2. Lo haremos por
inducci´n sobre la dimensi´n n. Para n = 1 es trivial y el caso n = 2 fue probado en el
       o                  o
Ejemplo 4.1.7. Sea n > 2. Sin perdida de generalidad podemos suponer que los vectores
estan ordenados en forma decreciente. Luego, xn ≤ yn ≤ y1 ≤ x1 . Sea k > 1 tal que
xk ≤ y1 ≤ xk−1 y λ ≥ 0 tal que y1 = λ x1 + (1 − λ) xk . Sea τ ∈ Sn la trasposici´n que
                                                                                o
permuta 1 con k. Luergo Pτ ∈ UP (n) verifica que

                           Pτ x = (xk , x2 , . . . , xk−1 , x1 , xk+1 , . . . , xn ) .

Definamos z = λx + (1 − λ)Pτ x. Observar que z1 = λ x1 + (1 − λ) xk = y1 . Sean

                       y = (y2 , . . . , yn )            y   z = (z2 , . . . , zn ) ∈ Rn−1 .

Vamos a probar que y       z : Como z1 = y1 y tr z = tr x = tr y, se deduce f´cilmente que
                                                                             a
tr(y ) = tr(z ). Si m ≤ k − 1, entonces, como y1 ≤ xk−1 ,
                      m               m                                                          m
                           zi =            xi ≥ (m − 1)xk−1 ≥ (m − 1)y1 ≥                             yi .
                     i=2             i=2                                                        i=2

Por otro lado, si m ≥ k.

                               m            k−1                                           m
                                     zi =         xi + (1 − λ)x1 + λxk +                        xi
                               i=2          i=2                                         i=k+1
                                             m
                                       =          xi − λx1 − (1 − λ)xk
                                            i=1
                                             m                     m                     m
                                       =          xi − y1 ≥             yi − y1 =             yi .
                                            i=1                   i=1                   i=2

                                                              s
Luego y      z y, por hip´tesis inductiva, y =
                         o                                         µi Pσi z para ciertos µi ≥ 0 que suman uno, y
                                                             i=1
para ciertas permutaciones σi ∈ Sn−1 (pensadas como biyecciones del conjunto {2, 3, . . . , n}).
Llamemos tambi´n σi ∈ Sn a la extensi´n de cada permutaci´n σi a todo In , poniendo
                 e                       o                    o
                                                                         s
σi (1) = 1. Luego, como z1 = y1 , se tiene que y =                            µi Pσi z . Pero entonces
                                                                        i=1

                           s                       s                          s
                   y=           µi Pσi z =              λ µi Pσi x +               (1 − λ) µi Pσi Pτ x ,
                        i=1                       i=1                        i=1

que es una combinaci´n convexa de permutaciones de x.
                    o
4.1 Definiciones y caracterizaciones                                                                        73




Observaci´n 4.1.9. Un error t´
            o                    ıpico al tratar de demostrar mayorizaci´n entre dos vectores,
                                                                         o
es olvidarse de ordenarlos antes de sumar sus “primeras” k coordenadas. De hecho, esto
sucede en la prueba anterior con los vectores z e y . Por suerte no es grave en este caso,
porque z est´ del lado de “los mayores”, y lo grave es no reordenar del lado de “los menores”.
              a
M´s expl´
  a      ıcitamente, si x, y ∈ Rn , como
                                                k           k
                                                                   ↓
                                                    yi ≤          yi ,
                                           i=1              i=1

es imprescindible ordenar a y para verificar que y x, pero no para verificar que x                        y. En
la prueba de la relaci´n y
                      o      z , el vector y ya ven´ ordenado correctamente.
                                                   ıa
Corolario 4.1.10. Sean w, z ∈ Rm tales que w         z, y sean x, y ∈ Rk tales que x                        y.
Entonces los vectores (x, w), (y, z) ∈ Rk+m cumplen que (x, w) (y, z).

Demostraci´n. Por el Teorema 4.1.8, existen A ∈ DS (k) y B ∈ DS (m) tales que Ay = x y
          o
Bz = w. Pero si consideramos
                                            A       0
                                    C=                      ∈ Mk+m (C),
                                            0       B

es f´cil ver que C ∈ DS (k + m) y que C(y, z) = (x, w).
    a
Lema 4.1.11. Sean x, u ∈ Rn tales que x                 u. Entonces se tiene que

                                    x↓     u↓           y         x      w   u.

Demostraci´n. Es claro que x↓ = m´x xi ≤ m´x ui = u↓ . Si ambos m´ximos se alcanzan
          o                 1    a        a        1             a
                                         i∈In            i∈In
en la misma coordenada de x y de u, un argumento inductivo permite concluir que x↓ u↓ .
Sin´, supongamos que x↓ = xk mientras que u↓ = uj . Si llamamos y ∈ Rn al resultado de
   o                   1                      1
permutar las cordenadas k y j de x, sigue pasando que y u, porque

            yj = xk ≤ uk ≤ u↓ = uj
                            1               mientras que                  yk = xj ≤ x↓ = xk ≤ uk .
                                                                                     1

Por el caso anterior, x↓ = y ↓   u↓ , y por lo tanto x                w   u.
Proposici´n 4.1.12. Sean x, y ∈ Rn . Entonces
         o

                   x   w   y   ⇐⇒        existe u ∈ Rn tal que x                  u   y .

Demostraci´n. Antes que nada, es claro que si el tal u existe, entonces x w y (por el Lema
            o
4.1.11 y la transitividad de w ). Para probar la rec´
                                                    ıproca, podemos asumir que tr x < tr y,
porque sin´ basta tomar u = x. Asumiremos tambi´n que x e y est´n ordenados en forma
           o                                        e                 a
decreciente, dado que una ves encontrado el u para este caso, luego se lo puede reordenar
igual que a x, lo que preserva la relaci´n x u y no afecta la relaci´n u y.
                                        o                           o
    Se har´ inducci´n sobre n. Si n = 1, el resultado es trivial (en ese caso
          a        o                                                                        significa igualdad,
y   w equivale a   ). Si n > 1, cosideramos dos casos:
74                                                                                                             Mayorizaci´n
                                                                                                                         o



                                                                                k            k
Caso 1: Supongamos que existe k ∈ In−1 tal que                                      xi =          yi . En tal caso, llamaremos
                                                                            i=1             i=1
a = (x1 , . . . , xk ) y b = (y1 , . . . , yk ) ∈ Rk . Como x e y est´n ordenados, es claro que a
                                                                     a                                 b.
Por otra parte, si llamamos w = (xk+1 , . . . , xn ) y z = (yk+1 , . . . , yn ) ∈ Rn−k , es tambi´n claro
                                                                                                 e
que w w z, porque est´n bien ordenados y, si r ∈ In−k , entonces
                             a
                                     r            r              k+r            k+r
                                          zi −            wi =         yi −              xi ≥ 0 .
                                    i=1          i=1             i=1            i=1

Ahora bien, por hip´tesis inductiva, debe existir v ∈ Rn−k tal que w v z. Entonces basta
                   o
tomar u = (a, v) ∈ Rn que cumple lo pedido, porque x = (a, w) (a, v) = u. Por otra parte,
como a b y v z, el Corolario 4.1.10 dice que u = (a, v) (b, z) = y.
                                                      k           k
Caso 2: Supongamos que d = m´
                            ın                            yi −         xi       > 0, y que se realiza en cierto k0 ∈ In .
                                          k∈In    i=1            i=1
Tomemos v = x + d e1 , es decir que agrandamos en d la primera coordenada de x. Observar
que v est´ ordenado decrecientemente, por estarlo x. Por ser d quien es, es claro que x v y
         a
que v w y. Pero claramente v cae en el Caso 1 (sumando hasta k0 , y si k0 era n, bingo).
Entonces existe u ∈ Rn tal que x v u y.

Ejercicio 4.1.13. Probar que, dados x, y ∈ Rn , entoncecs

     1. x   w   y si y s´lo si existe v ∈ Rn tal que x
                        o                                                   v       y.
            w
     2. x       y si y s´lo si −y
                        o                w   −x si y s´lo si existe w ∈ Rn tal que y
                                                      o                                                    w    x.


4.2         Mayorizaci´n y funciones convexas
                      o
Dado I ⊆ R, una funci´n f : I → R, y un vector x ∈ In , notaremos por
                     o

                                         f (x) = (f (x1 ), . . . , f (xn ) ) ∈ Rn .

Por otra parte, cuando I es un intervalo, decimos que f es convexa si, dados a, b ∈ I y
λ ∈ [0, 1], se cumple que

                               f λa + (1 − λ)b ≤ λf (a) + (1 − λ)f (b).

La funci´n f se dice c´ncava si −f es convexa.
        o             o


Teorema 4.2.1. Sean x, y ∈ Rn . Sea I ⊆ R un intervalo (semirrecta o todo R) tal que
x, y ∈ In . Entonces, son equivalentes:

  1. y      x

  2. tr f (y) ≤ tr f (x) para toda funci´n convexa f : I → R.
                                        o
4.2 Mayorizaci´n y funciones convexas
              o                                                                                                                            75


              n                           n
    3.              |yi − t| ≤                  |xi − t| para todo t ∈ R.
              i=1                         i=1

An´logamente, son equivalentes
  a

    1’. y           w   x (submayorizaci´n)
                                        o
    2’. tr f (y) ≤ tr f (x) para toda funci´n f : I → R convexa y no decreciente.
                                           o
              n                               n
    3’.             (yi − t)+ ≤                     (xi − t)+ para todo t ∈ R.
              i=1                          i=1

Demostraci´n. S´lo probaremos la primer parte, puesto que los argumentos para probar
           o     o
la segunda son similares (para 1’ → 2’, se aplica 1 → 2 y la Proposici´n 4.1.12, que ser´
                                                                      o                 a
util para funciones no decrecientes). Supongamos que y
´                                                          x. Entonces, por el Teorema
                         s
4.1.8, y =                       λi Pσi (x) para ciertos λi ≥ 0 que suman uno, y para ciertas σi ∈ Sn . Luego
                        i=1
          s                           s
f             λi Pσi x                    λi f Pσi x (en cada coordenada), y
      i=1                         i=1

                                                s                            s                          s
              tr f (y) = tr f                        λi Pσi x        ≤ tr         λi f Pσi x =              λi tr Pσi f (x) = tr f (x) .
                                              i=1                           i=1                      i=1

La implicaci´n 2 → 3 (respectivamente, 2 → 3 ) se deduce de que la funci´n x → |x − t|
            o                                                                o
(resp. x → (x − t)+ ) es convexa (resp. convexa no decreciente) para todo t ∈ R.

Probemos 3 → 1. Supongamos que los vectores x e y est´n ordenados de forma decreciente
                                                         a
(ni 3 ni 1 depende del orden de las coordenadas). Sean M = m´x{x1 , y1 } y m = m´
                                                            a                   ın{xn , yn }.
Tomando t > M , se tiene que
                                                        n                        n                          n
                                                             |yi − t| =                t − yi = kt −            yi ,
                                                       i=1                   i=1                          i=1

y lo mismo para x. Luego la desigualdad 3 para estos valores de t implica que tr x ≤ tr y.
An´logamente, la desigualdad 3 para valores de t tales que t < m implica que tr y ≤ tr x.
   a
Luego tr x = tr y. Por otro lado, dado x ∈ R, se tiene que 2x+ = x + |x|. Luego
                                  n                          n                         n                               n
                             2         (yi − t)+ =                (yi − t) +               |yi − t| = tr y − nt +            |yi − t|
                                 i=1                        i=1                      i=1                               i=1
                                                                                 n                  n                    n
                                                       ≤ tr x − nt +                   |xi − t| =         (xi − t) +         |xi − t|
                                                                                 i=1                i=1                i=1
                                                                 n
                                                       =2            (xi − t)+ .
                                                             i=1
76                                                                                                                              Mayorizaci´n
                                                                                                                                          o




Deducimos que basta probar 3’ → 1’. Fijemos k ∈ In . Tomando t = xk , resulta que
                                   n                                 k                         k
                                          (xi − t)+ =                    (xi − t)+ =                xi − kt .
                                  i=1                            i=1                          i=1

Por lo tanto
                      k                           k                           k                            n
                                                                                               +
                              yi − kt =                 (yi − t) ≤                  (yi − t) ≤                 (yi − t)+
                   i=1                           i=1                          i=1                      i=1
                                                  n                                k
                                            ≤           (xi − t)+ =                     xi − kt,
                                                 i=1                           i=1

                          k                k
lo cual muestra que            yi ≤              xi .
                      i=1                  i=1


Corolario 4.2.2. Sea I ⊆ R un intervalo. Sea g : I → R una funci´n convexa (resp. convexa
                                                                o
creciente). Entonces, dados x, y ∈ In ,
                              x        y    (resp. x                 w   y)        =⇒          g(x)        w   g(y).
En particualr x   y =⇒ |x|                  w    |y|, y tambi´n x
                                                             e                         w   y =⇒ x+             w   y+ .

Demostraci´n. Sea f : R → R convexa no decreciente. Es f´cil ver, entonces, que f ◦ g es una
           o                                            a
funci´n convexa. Por el Teorema 4.2.1, si x y, entonces
     o
                          tr f (g(x)) = tr f ◦ g (x) ≤ tr f ◦ g (y) = tr f (g(y)).
Pero por el mismo Teorema (en su segunda parte), como lo anterior vale para toda f : R → R
convexa no decreciente, deducimos que g(x) w g(y).
   Si g es creciente y x w y, por el Corolario 4.1.12 existe u ∈ Rn tal que x u y. Luego,
por el caso anterior, g(x) g(u) w g(y). Para concluir que g(x) w g(y) basta aplicar el
Lema 4.1.11.
Corolario 4.2.3. Sean x, y ∈ Rn , tales que x > 0 e y > 0. Entonces, se tiene que
                                                                               n              n
                                            x         y         =⇒                     xi ≥         yi .
                                                                              i=1             i=1

Demostraci´n. Sea g(t) = − log t, que es una funci´n convexa (pero decreciente), definida en
          o                                       o
I = (0, +∞). Por el Corolario 4.2.2, si x y, entonces g(x) w g(y). En particular,
                                  n                       n                            n                           n
                  − log                 xi = −                 log xi ≤ −                  log yi = − log                yi ,
                                  i=1                 i=1                           i=1                            i=1
                                      n               n
de lo que se concluye que                  xi ≥               yi .
                                   i=1             i=1
4.3 Birkhoff, Hall y los casamientos                                                           77




4.3     Birkhoff, Hall y los casamientos
El objetivo de esta secci´n es probar el teorema de Birkhoff que asegura que UP (n) es el
                         o
conjunto de puntos extremales de DS (n) y por ende (ya sea por el teormea de Krein Millman,
o porque va a salir a mano), que toda A ∈ DS (n) es combinaci´n convexa de matrices
                                                                     o
de permutaci´n. Observar que este hecho va a explicar una parte del Teorema 4.1.8. La
               o
herramienta clave, en funci´n de poder probar lo anterior inductivamente, son dos resultados
                           o
combinatorios que son interesantes por s´ mismos: El teorema de los casamientos de Hall, y
                                         ı
el criterio de K¨nig-Frobenius sobre existencia de diagonales sin ning´n cero para matrices.
                 o                                                     u
Empecemos con las “notaciones” para los casamientos:

Sean V = {v1 , . . . , vn } y M = {m1 , . . . , mn } dos conjuntos de n elementos. Pensaremos que
V es un conjunto de varones (humanos) y M de mujeres. Dada una relaci´n C ⊆ V × M ,o
diremos que vi “conoce a” mj (puede usarse tambien “tiene onda con”, o “gusta de”) si
(vi , mj ) ∈ C. El llamado problema de los casamientos (PC) consiste en encontrar condiciones
sobre C que aseguren que exista f : V → M biyectiva, tal que Gr(f ) ⊆ C. Si pensamos que
cada v se casa con f (v), el problema se traduce a poder casar todos los varones de V con
mujeres de M (sin bigamia) y que todas las parejitas sean felices (se gusten mutuamente).
Para describir esas condiciones pongamos un poco de notaci´n: Dado J ⊆ In , llamaremos
                                                                   o

      VJ = {vj : j ∈ J}     y     MJ = {mi ∈ M : (vj , mi ) ∈ C       para alg´n
                                                                              u    j ∈ J}
                                       = { chicas conocidas por alg´n muchacho de VJ } .
                                                                   u

Es claro que esta notaci´n es machista, pero en la ´poca de Hall nadie cuestionaba esas cosas.
                        o                          e
Observar que MJ = πM ([VJ × M ] ∩ C), donde πM es la proyecci´n sobre M . Como siempre,
                                                                  o
se abrevia Mi = M{i} . Es evidente que si el PC tiene soluci´n, debe cumplirse que |MJ | ≥ |J|
                                                            o
para todo J ⊆ In , porque f (VJ ) deber´ estar incluido en MJ . Pero mucho menos claro es
                                        ıa
que vale la rec´
               ıproca:

Teorema 4.3.1 (El problema de los casamientos de Hall). El PC tiene soluci´n para una
                                                                          o
relaci´n C ⊆ V × M si y s´lo si
      o                  o

                                |MJ | ≥ |J|   para todo    J ⊆ In .                         (4.6)

Demostraci´n. Probaremos la suficiencia por inducci´n sobre n. Todo es f´cil si n = 1 (ese
            o                                         o                   a
es el problema de la pareja de n´ufragos). Si n > 1, separemos dos casos:
                                a
Caso 1: Supongamos que tenemos una condici´n mejor que (4.6), a saber,
                                          o

                    |MJ | ≥ |J| + 1      para todo    J ⊆ In , ∅ = J = In .                 (4.7)

En tal caso fijamos al vago vn de V y lo casamos con una chica que conozca (mj ∈ Mn , o
sea que (n, j) ∈ C). Veamos ahora que, si J = In−1 , los conjuntos VJ y M  {mj } cumplen
la condici´n (4.6) (para aplicarles la HI). En efecto, notar que si I ⊆ J, entonces la Eq. (4.7)
          o
asegura que |MI ∩ M  {mj }| ≥ |MI | − 1 ≥ |I|. En otras palabras, dados k de los muchachos
restantes, entre todos deben conocer al menos k chicas todav´ solteras. Por HI, tenemos una
                                                               ıa
78                                                                                 Mayorizaci´n
                                                                                             o




biyecci´n entre VJ y M  {mj } con gr´fico contenido en C, que se puede extender, mandando
       o                             a
n → j, a todo V sobre todo M .
Caso 2: Si existe un J ⊆ In tal que

                             ∅ = J = In      y    |MJ | = |J| = k < n ,                        (4.8)

por HI podemos definir una biyecci´n f1 : VJ → MJ con Gr(f1 ) ⊆ C. Por otra parte, por la
                                      o
igualdad (4.8), es f´cil ver que los conjuntos que quedan, VJ c y M  MJ cumplen tambi´n la
                    a                                                                 e
condici´n (4.6). En efecto, si I ⊆ J c tiene |I| = r, observemos que MI∪J  MJ = MI  MJ
       o
(las que no conocen los de J deben conocerlas los de I). Pero

                        |MI∪J  MJ | ≥ |MI∪J | − |MJ | ≥ (r + k) − k = r .

Luego |MI  MJ | ≥ r = |I|. Otra forma de verlo es la siguiente: casamos k pibes que conoc´
                                                                                          ıan
justo k chicas. Dados r de los solteros, junto con los casados conoc´ al menos k + r chicas,
                                                                     ıan
por lo que los r solteros conoc´ ellos a todas las solteras de este grupo (por lo menos r),
                                ıan
porque los k novios solo conoc´ a las k que se casaron con ellos. Aplicamos nuevamente la
                               ıan
HI para definir otra biyecci´n f2 : VJ c → M  MJ , tambi´n con gr´fico dentro de C. Pegando
                            o                             e        a
ambas funciones, encontramos la biyecci´n buscada.
                                          o
Definici´n 4.3.2. Sea A ∈ Mn (C).
       o

     1. Dada σ ∈ Sn , llamamos al vector (a1σ(1) , . . . , anσ(n) ) una diagonal de A. Notar que las
        diagonales tienen exactamente un elemento de cada fila y uno de cada columna de A.
     2. Decimos que A tiene una diagonal sin ceros si alguna de las diagonales antes definidas
        tiene todas sus coordenadas no nulas.

Corolario 4.3.3 (K¨nig-Frobenius). Sea A ∈ Mn (C). Entonces son equivalentes:
                  o

     1. Toda diagonal de A tiene ceros.
     2. Existen subconjuntos I, J ⊆ In tales que |I| + |J| > n y la submatriz AIJ ≡ 0, es decir
        que aij = 0 para todo par (i, j) ∈ I × J.

Demostraci´n. Consideremos los conjuntos M = V = In y la relaci´n
          o                                                    o

                                  C = {(i, j) ∈ In × In : aij = 0}.

Es claro que A tiene alguna diagonal sin ceros si y s´lo si el PC tiene soluci´n para la relaci´n
                                                     o                        o                o
C. Que A no tenga ninguna diagonal sin ceros equivale, por el Teorema 4.3.1, a que exista
I ⊆ In tal que |MI | < |I| = k. Observar que

                     K := In  MI = {j ∈ In : aij = 0      para todo      i ∈ I}

es el mayor de los conjuntos J de ´ ındices tales que AIJ ≡ 0. Adem´s, si |K| = r, entonces
                                                                     a
k + r > n si y s´lo si n − r = |MI | < k. Y esto concluye la prueba.
                o
4.3 Birkhoff, Hall y los casamientos                                                       79




Corolario 4.3.4. Si A ∈ DS (n), entonces A debe tener alguna diagonal sin ceros.


Demostraci´n. Supongamos que no. Reordenando filas y columnas de A (multiplicando por
           o
matrices de permutacion) podemos suponer, por el Corolario 4.3.3, que existen k, r ∈ In tales
que k + r > n y que aij = 0 si i ∈ Ik y j ∈ Ir . En otras palabras, que existen P, Q ∈ UP (n)
tales que

                                        0k×r   B
                             P AQ =                 ∈ DS (n) ,
                                        C      D


donde 0k×r es la matriz nula de Mk,r (C). En tal caso, las k filas de B deben tener traza uno,
lo mismo que las r columnas de C. Pero entonces la suma de todas las entradas de P AQ (las
de D son no negativas) deber´ sumar estrictamente m´s que n. Pero esto contradice el hecho
                             ıa                       a
de que P AQ ∈ DS (n).

Teorema 4.3.5 (Birkhoff). El conjunto de matrices doble estoc´sticas DS (n) es convexo y
                                                               a
sus puntos extremales son el conjunto UP (n) de matrices de permutaci´n. Es decir que toda
                                                                     o
A ∈ DS (n) es combinaci´n convexa de matrices de permutaci´n.
                        o                                    o


Demostraci´n. Es f´cil ver que si P ∈ UP (n), entonces es extremal en DS (n). Luego basta
           o      a
ver que toda A ∈ DS (n) es combinaci´n convexa de matrices de permutaci´n.
                                     o                                   o
    Sea A ∈ DS (n). Notaremos k(A) = {(i, j) ∈ In × In : aij = 0} . Probaremos el resultado
inducci´n en k(A). Observar que n ≤ k(A) ≤ n2 , y que k(A) = n si y s´lo si A ∈ UP (n), por
       o                                                              o
lo que lo afirmado es trivial en este caso. Supongamos que k(A) > n.
   Por el Corolario 4.3.4 existe σ ∈ Sn tal que aiσ(i) > 0, para todo i ∈ In . Sea P =
Pσ ∈ UP (n) la matriz asociada a la permutaci´n σ. Por la Eq. (4.3), Pij = 0 si y s´lo si
                                               o                                     o
j = σ(i). Sea a = m´ aiσ(i) . Notar que, por el hecho de que k(A) > n, se debe cumplir que
                    ın
                  i∈In
                                                 A − aP
0 < a < 1. Es f´cil ver, entonces, que B =
               a                                         ∈ DS (n). Finalmente, se observa que
                                                  1−a
A = aP + (1 − a)B, y se aplica la hip´tesis inductiva, ya que k(B) < k(A). En efecto, si
                                          o
aij = 0, entonces Pij = 0, por lo que tambi´n bij = 0. Esto dice que k(B) ≤ k(A). Por otra
                                               e
parte, si a = aiσ(i) = 0, entonces biσ(i) = 0, con lo que k(B) < k(A) como se afirm´.
                                                                                   o



Observaci´n 4.3.6. El Teorema de Birkhoff est´ intimamente relacionado con el Teorema
            o                                    a
4.1.8. Sin embargo, no se implican mutuamente. En efecto, el Teorema 4.3.5 da como novedad
la implicaci´n 3 =⇒ 2 del Teorema 4.1.8. Pero esta sal´ impl´
            o                                            ıa      ıcita por el rulo de auqella
prueba, y el Teorema 4.3.5 no dice que si y x entonces haya una A ∈ DS (n) tal que Ax = y.
Mir´ndolos ahora al reves, la implicaci´n 3 =⇒ 2 del Teorema 4.1.8 dice que para cada
    a                                   o
x ∈ Rn , hay una combinaci´n convexa de permutaciones que hace, en ese x, lo mismo que
                            o
hace A. Pero no que haya una que sirva para todos los x a la vez.
80                                                                                                                               Mayorizaci´n
                                                                                                                                           o




4.4       Mayorizaci´n logar´
                    o       ıtmica
Definici´n 4.4.1.
       o                           1. Sean x, y ∈ Rn . Escribiremos x
                                                   +                                                      w   y    si
                                                                                                    log


                                                k                    k
                                                     x↓ ≤
                                                      i
                                                                           ↓
                                                                          yi      para todo                   k ∈ In .                              (4.9)
                                             i=1                   i=1

                                                                                                                         n            n
     2. Si x, y > 0, escribimos x                        y si se cumple que x                   w   y , y adem´s
                                                                                                              a                xi =         yi .
                                                 log                                      log                            i=1          i=1
                                                           ∗
Observaci´n 4.4.2. Sean x, y ∈ R+ n . Si x
         o                                                                      y entonces, como en el caso de la mayorizaci´n
                                                                                                                            o
                                                                          log
com´n, se cumplen desigualdades invesas para las entradas mas peque˜as de x e y. Es decir,
   u                                                               n
                                         n                     n
                                               x↓ ≥
                                                i
                                                                      ↓
                                                                     yi         para todo             k ∈ In .                                     (4.10)
                                         i=k                   i=k

Esto no vale si solo x               w   y, porque usa la igualdad de los productos hasta n.
                               log


Proposici´n 4.4.3. Sean x, y ∈ Rn .
         o                      +


     1. Si x         w   y, entonces xp              w   yp     para todo           p ∈ R+ .
               log


     2. Si x, y > 0, entonces x                      y implica que xp              w   y p para todo p ∈ R .
                                               log


Demostraci´n.
          o

     2. Supongamos que x > 0 e y > 0. Luego x                                             y implica que log x                    log y. Como la
                                                                                    log
                              pt
        funci´n t → e es convexa para todo p ∈ R, deducimos lo afirmado en el item 2. a
             o
        partir del Corolario 4.2.2.
     1. Si x, y ∈ Rn y x
                   +                     w   y, supongamos que x e y est´n ordenados en forma decreciente.
                                                                        a
                                   log

        Observar que, si k1 = m´x{j ∈ In : xj > 0}, entonces la condici´n (4.9) implica que
                                 a                                       o
        yk1 > 0 . Podemos suponer, entonces, que k1 = n, porque las desigualdades que definen
        la relaci´n xp w y p ser´n autom´ticas para k > k1 . Estamos casi en el caso anterior,
                 o              a        a
        dado que la unica diferencia es que tenemos log x w log y en lugar de log x
                      ´                                                                  log y.
        Pero esto es suficiente si suponemos que p ∈ R+ , porque en tal caso se tiene que la
        funci´n t → ept es convexa creciente, y se aplica nuevamente el Corolario 4.2.2.
              o
Observaci´n 4.4.4.
          o             1. El caso m´s usado de la Proposici´n 4.4.3 es cuando p = 1. Es
                                    a                       o
    decir que, si x, y ∈ Rn , entonces x w y implica x w y. Esto ser´ sumamente util
                           +
                                                                         a
                                                                     log
        cuando se lo aplique a desigualdades con valores singulares de matrices, usando t´cnicas
                                                                                         e
        de productos alternados. Observar que, en este caso, el Corolario 4.2.3 nos dice que, si
        hubese quedado x y, deb´ cumplirse que x y .
                                    ıa
                                                                                       log
4.5 Ejercicios                                                                                                  81




  2. Por otra parte, la Proposici´n 4.4.3 se puede generalizar, sin cambiar la prueba, si
                                   o
     remplazamos las funciones f (t) = tp por cualquier funci´n f : R+ → R tal que la
                                                              o
     aplicaci´n t → f (et ) resulte convexa (o convexa creciente). Notar que, en el caso
             o
     demostrado, se usaba esa propiedad para la funci´n t → (et )p = ept .
                                                     o


4.5      Ejercicios
Ejercicios del texto
4.5.1. Sea A ∈ Mn (R). Probar que A ∈ DS (n) si y s´lo si
                                                   o

                                     A       0,   A1 = 1             y       A∗ 1 = 1,

Deducir que DS (n) es un conjunto convexo, y que dadas dos matrices A, B ∈ DS (n), entonces
tambi´n AB ∈ DS (n).
     e

4.5.2. Probar los 9 items de la Observaci´n 4.1.5.
                                         o

4.5.3. Probar que, dados x, y ∈ Rn , entoncecs

  1. x   w   y si y s´lo si existe v ∈ Rn tal que x
                     o                                                   v   y.
         w
  2. x       y si y s´lo si −y
                     o               w   −x si y s´lo si existe w ∈ Rn tal que y
                                                  o                                                  w     x.


Ejercicios nuevos
4.5.4. Sea x ∈ Rn . Probar que

                k
                     x↓ = m´
                      i    ın        y   1   +k z   ∞   :x=y+z                    para todo k ∈ In .
               i=1

4.5.5. Sean x, y ∈ Rn . Demostrar las siguientes propiedades:

                                                             w
  1. x    y si y s´lo si x
                  o              w   y junto con x               y.

  2. Si α > 0, entonces
                                                                              w                 w
                         x   w   y =⇒ αx            w   αy       y       x        y =⇒ αx           αy .

                             w
  3. x   w   y ⇐⇒ −x             −y.

  4. Para cualquier α ∈ R no nulo, se tiene que x                            y ⇐⇒ αx      αy.
82                                                                                                    Mayorizaci´n
                                                                                                                o




4.5.6. Una transformaci´n lineal A en Cn se dice que preserva positividad si lleva vectores
                           o
de coordenadas no negativas en vectores de coordenadas no negativas. Se dice que preserva
la traza si tr Ax = tr x para todo x. Se dice unital si A1 = 1.
Dada A ∈ Mn (C), probar que A ∈ DS (n) si y s´lo si la transformaci´n lineal A preserva
                                                    o                     o
positividad, preserva la traza, y es unital. Mostrar que A preserva la traza si y s´lo si A∗ es
                                                                                   o
unital.
4.5.7. Sea A ∈ DS (n) .

     1. Sea x ∈ Rn . Si |x| = (|x1 |, . . . , |xn |), demostrar que
                         |Ax|    A(|x|)       (        significa coordenada a coordenada) .

     2. Demostrar que 1 ∈ σ(A) y que 1 admite un autovector de coordenadas positivas.
     3. Demostrar que 1 = ρ(A) = A                sp   .
                          n
4.5.8. Sean x, y ∈ R . Probar que

     1. x↓ + y ↑    x+y         x↓ + y ↓ .
     2. Si x, y ∈ Rn , entonces x↓ ◦ y ↑
                   +                              w    x◦y    w    x↓ ◦ y ↓ .
     3. Si x, y ∈ Rn , entonces (x, y)
                   +                              (x + y, 0) en R2n .
     4. Probar que son equivalentes
            a. x w y
            b. Existe w ∈ Rn tal que x            w ≤ y.
4.5.9. Sea f : R+ → R+ c´ncava y tal que f (0) = 0. Probar que:
                        o

     1. f es creciente (¿es continua?).
     2. Si c, d ∈ R+ , entonces f (c + d) ≤ f (c) + f (d).
     3. Si x, y ∈ Rn ,
                   +
                                      x      y         =⇒           f (xi ) ≥           f (yi ).
                                                             i∈In                i∈In
                                                                                 w
        M´s a´n, la misma desigualdad sigue valiendo si x
         a u                                                                       y.
     4. Si x, y ∈ Rn ,
                                          f (|xi + yi |) ≤         f (|xi |) +          f (|yi |) .
                                   i∈In                       ij                 i∈In

4.5.10. Sean x, y, u ∈ Rn tales que sus coordenadas estan ordenadas en forma decreciente.
Probar que:

     1. x     y =⇒       x, u ≤ y, u .
     2. Si solo pedimos que x         w   y pero tenemos que u ∈ Rn , entonces x, u ≤ y, u .
                                                                  +
Cap´
   ıtulo 5

Mayorizaci´n de autovalores y
           o
valores singulares

En este cap´ıtulo estudiaremos numerosas apariciones de relaciones de mayorizaci´n entre vec-
                                                                                o
tores reales asociados a matrices, particularmente a vectores de autovalores, de valores sin-
gulares y a diagonales de matrices. Mostraremos el teorema de Schur-Horn, que caracteriza
todas las posibles diagonales de matrices en la ´rbita unitaria de una matriz A ∈ H(n) como
                                                o
aquellos vectores d ∈ Rn tales que d µ(A). Luego nos concentraremos en una caracterizaci´no
de las normas unitariamente invariantes, y daremos un criterio para mostrar desigualdades
para cualquiera de esas normas, en t´rminos de mayorizaci´n d´bil de vectores de valores
                                        e                     o    e
singulares. Despu´s daremos numerosas propiedades relacionadas con la mayorizaci´n apli-
                   e                                                                 o
cada a matrices autoadjuntas, que ser´n herramientas imprescindibles para atacar distintas
                                        a
desigualdades en los siguientes cap´ıtulos. Culminaremos con una prueba bastante reciente y
asombrosamente simple del famoso teorema de Lidskii, sobre relaciones de mayorizaci´n entre
                                                                                    o
vectores de autovalores de restas de matrices autoadjuntas, lo que da un expectacular avance
sobre el teorema de Weyl 5.1.6, que hace lo mismo con las sumas.
    El teorema de Lidskii fue particularmente famoso porque fue anunciado sin dar detalles de
la prueba (en los a˜os 60). Esto gener´ pol´micas, que dieron lugar a numerosas demostra-
                   n                     o  e
ciones independientes (en el libro de Bhatia [3] aparecen cuatro, todas bien complicadas).
Sin embargo, la que presentamos aqu´ (debida a Chi-Kwong Li y R. Mathias [28]) es par-
                                        ı
ticularmente simple, y usa como unica herramienta importante el teorema de Weyl, que por
                                  ´
muchos a˜os fue considerado escencialmente m´s d´bil. Finalizaremos dando algunas de las
          n                                     a e
importantes aplicaciones del Teorema de Lidskii.
84                                        Mayorizaci´n de autovalores y valores singulares
                                                    o




5.1     Aplicaciones a matrices Hermitianas
Teorema 5.1.1 (Teorema de mayorizaci´n de Schur 3). Sea A ∈ H(n). Recoredemos la
                                                o
notaci´n d (A) = (a11 , . . . , ann ) ∈ Rn . Entonces, se tiene que
      o
                                              d (A)   λ(A).

Demostraci´n. Para demostrar que d (A) λ(A) vamos a probar que d (A) = B λ(A), para
           o
cierta B ∈ DS (n). Como A ∈ H(n), si D = diag (λ(A)), existe U ∈ U(n) tal que A = U ∗ DU .
Mediante cuentas elementales de matrices, se puede verificar que cada entrada de A tiene la
forma: dados i, j ∈ In ,
                         n                                              n
                 aij =         uki λk ukj ,    en particular,   aii =         λk |uki |2 .
                         k=1                                            k=1

Consideremos ahora la matriz B = (|uji |2 )ij que, por ser U unitaria, cumple B ∈ DS (n).
Adem´s
     a                                                 n              
                                                            |uk1 |2 λk 
                       |u11 |2 · · · |un1 |2
                                             
                                               λ1      k=1
                                                                      
                      .        ..      .  .  =           .
            Bλ(A) =  .                 .  .              .         = d (A) .
                                                                       
                          .        .    .       .      n     .        
                             2             2
                      |u1n | · · · |unn |      λn
                                                            |ukn |2 λk
                                                                      
                                                                k=1
Luego, el Teorema 4.1.8 completa la demostraci´n.
                                              o
Observaci´n 5.1.2. Otra demostraci´n del Teorema mayorizaci´n de Schur puede hacerse
            o                          o                        o
por inducci´n, aplicando el Teorema de entrelace de Cauchy 2.4.2. Para ello basta reordenar
            o
la diagonal de A, conjugandola por una matriz de permutaci´n como se hace en la Observaci´n
                                                          o                              o
4.1.5, lo que no cambia sus autovalores.
Observaci´n 5.1.3. La matriz B = (|uji |2 )ij ∈ DS (n) que aparece en el teorema anterior
           o
(para cierta U ∈ U(n) ), es un tipo especial de matriz doble estoc´stica. A tales matrices se
                                                                   a
las llama ortoestoc´sticas. Este simp´tico nombre, que proviene de construir elementos de
                    a                  a
DS (n) a partir de matrices unitarias (que en el caso real se llaman ortogonales), est´ bien
                                                                                      a
elegido porque no toda matriz A ∈ DS (n) tiene la suerte de provenir de una matriz unitaria.
                               
                      1 1 0
                  1
Por ejemplo A =       1 0 1  ∈ DS(3), pero no es ortoestoc´stica, porque no hay modo
                                                                 a
                  2
                      0 1 1
de que sus columnas provengan de vectores ortogonales.

Como corolario del Teorema mayorizaci´n de Schur, encontramos una nueva caracterizaci´n
                                       o                                                 o
para los autovalores de una matriz Hermitiana. En este caso, para la suma de los k-primeros.
Proposici´n 5.1.4 (Principio del M´ximo de Ky Fan). Sea A ∈ H(n). Entonces
         o                        a
                   k                     k
                       µj (A) = m´x
                                 a            Axj , xj ,   para todo k ∈ In ,
                 j=1                    j=1
5.1 Aplicaciones a matrices Hermitianas                                                                                  85




donde el m´ximo se toma sobre todas las k-uplas ortonormales {x1 , ..., xk } en Cn .
          a

Demostraci´n. Fijemos k ∈ In . Sea {x1 , ..., xk } una k-upla ortonormal cualquiera. Sea
          o
U ∈ U(n) tal que sus primeras k columnas sean los vectores dados. Sea B = U ∗ AU . Luego
                                k                k                     k                             k
      µ(B) = µ(A)         y          bjj =            Bej , ej =               A U ej , U ej =            Axj , xj .
                               j=1              j=1                   j=1                           j=1

Pero, por el Teorema de mayorizaci´n de Schur 5.1.1, se tiene que
                                  o
                k                     k                k                   k               k
                                                                 ↓
                        Axj , xj =         bjj ≤            d (B)j ≤           µj (B) =         µj (A) .
               j=1                   j=1              j=1              j=1                j=1

Para ver la otra desigualdad, tomemos B = {v1 , ..., vn } una BON de Cn adaptada a µ(A).
Luego {v1 , ..., vk } es una k-upla ortonormal y
                    k                      k                     k                              k
             m´x
              a          Axj , xj ≥              Avj , vj =           µj (A) vj , vj =               µj (A) ,
                   j=1                    j=1                   j=1                            j=1

como quer´
         ıamos demostrar.
Ejercicios 5.1.5. Sea A ∈ H(n). Identificando las k-uplas ortonormales de Cn con bases de
rangos de proyectores, y con columnas de isometr´ de Ck en Cn , probar que:
                                                ıas

  1. Si, para k ∈ In , notamos Pk (n) = {P ∈ H(n) : P 2 = P y rk(P ) = k}, entonces
                                            k
                                                 µj (A) = m´x
                                                           a               tr P AP .                                   (5.1)
                                                              P ∈Pk (n)
                                           j=1


  2. Para todo k ∈ In , se tiene que
                                           k
                                                µj (A) = m´x
                                                          a                tr U ∗ AU ,                                 (5.2)
                                                             U ∈Uk (n)
                                          j=1


     donde Uk (n) = {U ∈ Mn,k (C) : U ∗ U = Ik } es el espacio de isometr´ de Ck en Cn .
                                                                         ıas


Teorema 5.1.6 (Weyl). Sean A y B ∈ H(n). Entonces

                                          µ(A + B)           µ(A) + µ(B).

Es importante el hecho de que, en la suma µ(A) + µ(B), se asume que ambos vectores est´n
                                                                                      a
ordenados de la misma forma.
86                                        Mayorizaci´n de autovalores y valores singulares
                                                    o




Demostraci´n. Por la f´rmula (5.1), para todo k ∈ In podemos escribir
          o           o

       k
            µj (A + B) = m´x
                          a           tr P (A + B)P     ≤     m´x
                                                               a        tr P AP + m´x
                                                                                   a                tr P BP
                          P ∈Pk (n)                         P ∈Pk (n)                   P ∈Pk (n)
      j=1
                                                             k                k
                                                        =         µj (A) +         µj (B).
                                                            j=1              j=1


La igualdad para k = n surge de que tr(A + B) = tr(A) + tr(B).

Recordar que en la Proposici´n 3.7.5 probamos que, dada C ∈ Mn (C), entonces si
                            o

                                             0     C
                                       C=            ∈ M2n (C) ,
                                             C∗    0

se tiene que σ C = {±si (C)} (con las mismas multiplicidades). Es decir,

                        µ(C) = (s1 (C), · · · , sn (C), −sn (C), · · · , −s1 (C) ) .                          (5.3)

Corolario 5.1.7. Sean A, B ∈ H(n). Entonces

                                       s(A + B)     w   s(A) + s(B).

Demostraci´n. Notar que A + B = A + B. Por la Eq. (5.3) y las desigualdades resultantes
            o
                                                        ındices k ∈ In ⊆ I2n , se tiene que
de la relaci´n µ(A + B) µ(A) + µ(B) para los n primeros ´
            o
s(A + B) w s(A) + s(B).

Observaci´n 5.1.8. Notar que el resultado anterior es necesario para verificar que las normas
            o
  · (k) de Ky Fan, para cada k ∈ N, definidas en el Ejemplo 3.4.1, cumplen la desigualdad
triangular. ¿Les hab´ salido el ejercicio?
                    ıa



5.2        Teorema de Schur-Horn
5.2.1. Sea x ∈ Cn con x = 1 (a estos vectores los llamaremos unitarios). Entonces, como
vimos en 1.9.3, la matriz Px = x x = xx∗ = (xi xj )ij ∈ Mn (C) es el proyector ortogonal
sobre el subespacio Gen {x}. Por lo tanto, si B = {x1 , . . . , xn } es una BON de Cn , vale que
                    n                                                              n
               z=         z, xi xi     para todo z ∈ Cn           =⇒     I=             xi   xi .             (5.4)
                    i=1                                                           i=1
5.2 Teorema de Schur-Horn                                                                                        87




Proposici´n 5.2.2. Sea A ∈ Mn (C). Se tiene que A ∈ Mn (C)+ si y s´lo si existen vectores
           o                                                              o
unitarios x1 , . . . , xr ∈ Cn , y n´meros λ1 , . . . , λr ∈ R+ tales que
                                    u
                           r                                                  r
                     A=         λi xi     xi ,   o sea que         A=              λi Pxi .                    (5.5)
                          i=1                                                i=1


Demostraci´n. Por un lado es claro que si A cumple (5.5), entonces A ≥ 0. Rec´
           o                                                                 ıprocamente,
si A ∈ Mn (C)+ , sea B = {x1 , . . . , xn } es una BON de Cn adaptada a µ(A). Usando la
ecuaci´n (3.12), para todo z ∈ Cn se tiene que,
      o
              n                   n                   n                                 n
    Az = A         z, xi xi =           z, xi Axi =         µi (A) z, xi xi =               µi (A) xi   xi z .
             i=1                 i=1                  i=1                             i=1

Luego A cumple (5.5).

Observaci´n 5.2.3. Notar que la m´
           o                       ınima cantidad r de proyectores de rango uno que puede
usarse para obtener una representaci´n de A como en (5.5) es r = rk(A). Adem´s, si A ∈
                                    o                                           a
       +                                1/2
Mn (C) cumple (5.5), definiendo yi = λi xi , se tiene que las matrices yi yi no son m´s a
                                                                   r
proyectores, pero s´ son positivos y se verifica que A =
                   ı                                                    yi    yi .
                                                                  i=1



Es natural preguntarse, dado A ∈ Mn (C)+ y r ≥ rk(A), para qu´ sucesiones λ1 , . . . , λr en
                                                                e
R+ se puede obtener para A una representaci´n como (5.5). Este problema est´ ´
                                            o                              a ıntimamente
relacionado con el llamado Teorema de Schur-Horn. Recordemos que si A ∈ Mn (C), llamamos
d (A) = (a11 , . . . , ann ) ∈ Cn .

Proposici´n 5.2.4. Sean c ∈ Rn y A ∈ Mn (C)+ . Son equivalentes:
         o                   +


                                                                                  n
  1. Existen vectores unitarios x1 , . . . , xn ∈ Cn tales que A =                    cj x j   xj .
                                                                              j=1

  2. Existe B ∈ Mn (C)+ tal que d (B) = c y µ(B) = µ(A), o sea que B ∼ A.
                                                                     =
                                                                                                  1/2
Demostraci´n. Si se verifica 1, sea X ∈ Mn (C) definida por Ck (X) = ck xk , k ∈ In .
           o
Veamos que XX ∗ = A: Para cada k ∈ In , notemos por Xk ∈ Mn (C) a la matriz tal que
Ck (Xk ) = Ck (X), pero Cj (Xk ) = 0 si j = k. Luego, se tiene que

                             ∗
      X=          Xk ,   Xk Xj = 0         si    j=k         y Xk Xk = ck xk x∗ = ck xk
                                                                   ∗
                                                                              k                         xk .
           k∈In


Es claro que todo esto implica que XX ∗ = A. Por lo tanto µ(A) = µ(XX ∗ ) = µ(X ∗ X). Si
B = X ∗ X, es f´cil ver, adem´s, que Bii = ci xi 2 = ci , i ∈ In , lo que prueba 2.
               a             a
88                                        Mayorizaci´n de autovalores y valores singulares
                                                    o




Rec´ıprocamente, si B ∈ Mn (C)+ cumple µ(B) = µ(A) y d (B) = c, sea U ∈ U(n) tal que
  ∗
U AU = B (se puede hacer, pasando por diag (µ(A)) ). Consideremos la matriz X = A1/2 U .
Entonces X ∗ X = B y XX ∗ = A1/2 U U ∗ A1/2 = A, mientras que ci = Bii = Ci (X) 2 . Basta
                    Ci (X)
ahora definir xi =          , y se verifica como antes que
                    Ci (X)
                                            n                   n
                             A = XX ∗ =          cj xj x∗ =
                                                        j            cj xj   xj ,
                                           j=1                 j=1

lo que prueba 1.

Ahora s´ podemos probar la rec´
        ı,                       ıproca del Teorema 3 de Schur , sobre mayorizac´n entre la
                                                                                  o
diagonal y los autovectores. Este resultado se debe a R. Horn, y poni´ndolos juntos se los
                                                                       e
conoce como el Teorema de Schur-Horn, que tiene importantes aplicaciones y generalizaciones
a operadores en espacios de Hilbert y a ´lgebras de operadores. Como ingrediente extra (clave
                                        a
para la prueba) se incluye una tercera condici´n equivalente (en el caso positivo), que tiene
                                               o
que ver con lo que ven´ıamos viendo, o sea el expresar una matriz A ∈ Mn (C)+ como suma
de m´ltiplos de proyectores unidimensionales.
     u
Teorema 5.2.5. Sean b, c ∈ Rn Entonces son equivalentes:

     1. c   b.
     2. Existe B ∈ H(n) tal que d (B) = c y µ(B) = b↓ .

Si, adem´s, b y c tienen entradas no negativas, lo anterior equivale a
        a

     3. Existen vectores unitarios x1 , . . . , xn ∈ Cn tales que
                                                        n
                                           diag (b) =         cj xj x∗ .
                                                                     j
                                                        j=1


Demostraci´n. Antes que nada, notemos que se puede suponer que b = b↓ y c = c↓ , porque
            o
las tres condiciones son invariantes por permutaciones (en el caso de 2 y 3, v´ conjugar con
                                                                              ıa
matrices de permutaci´n adecuadas, usando la Observaci´n 4.1.5). Notemos A = diag (b). El
                       o                                 o
Teorema 3 de Schur 5.1.1 muestra que 2 implica 1. La Proposici´n 5.2.4 muestra que 2 y 3
                                                                  o
son equivalentes, cuando b y c tienen entradas no negativas.

Verificaremos, en principio, que 1 implica 3 en el caso en que b y c tienen entradas estrictamente
positivas. Lo haremos por inducci´n en n. Si n = 1 no hay nada que probar. Sea n > 1.
                                    o
Como b1 ≥ c1 ≥ bn , podemos tomar un k ∈ In−1 tal que bk ≥ c1 ≥ bk+1 .

Se afirma: existe x1 ∈ Gen {ek , ek+1 } de norma uno, tal que A1 = A − c1 x1 x∗ tiene rango a
                                                                             1
lo sumo n − 1. En efecto, para ver que el tal x1 existe, definimos
                          tπ          tπ
             x(t) = cos      ek + sin    ek+1     y   A(t) = A − c1 x(t)x(t)∗ , t ∈ [0, 1] .
                           2           2
5.2 Teorema de Schur-Horn                                                                                                         89




Entonces la curva d(t) = det A(t) es continua. Pero d(1) ≤ 0 ≤ d(0) porque A(0) y A(1) son
matrices diagonales, con un s´lo elemento diagonal no positivo (es bk+1 − c1 ) en el caso de
                                o
A(1), y con todos no negativos (anche bk − c1 ) en el de A(0). Luego basta tomar x1 = x(t)
para alg´n t ∈ [0, 1] tal que d(t) = 0.
        u

Es claro que existe una BON {y1 , y2 } de Gen {ek , ek+1 } tal que A1 y1 = (bk + bk+1 − c1 )y1 y
A1 y2 = 0. Luego la matriz de A1 en la bon B = {y2 , e1 , . . . , ek−1 , y1 , ek+2 , . . . , en } queda

                      A1         = diag (0, b1 , . . . , bk−1 , (bk + bk+1 − c1 ), bk+2 , . . . , bn ) .                        (5.6)
                            B

Sean a, d ∈ Rn−1 , dados por a = (c2 , . . . , cn ) y

                                d = (b1 , . . . , bk−1 , (bk + bk+1 − c1 ), bk+2 , . . . , bn ) .

Notar que, como bk ≥ c1 ≥ bk+1 , entoncecs dk−1 = bk−1 ≥ bk ≥ dk ≥ bk+1 ≥ bk+2 = dk+1 .
                                            ıamos probar que a d. En efecto, si r ≤ k,
Para aplicar la HI al asunto anterior, deber´
                                     r−1           r           r−1          r−1          r−1
                                           ai =         ci ≤         ci ≤         bi =         di .
                                     i=1          i=2          i=1          i=1          i=1

Si k + 1 ≤ r ≤ n − 1,
         r            r             r−1            r           k−1                                      r            r−1
              ci ≤         bi =⇒           ai =         ci ≤         bi + (bk + bk+1 − c1 ) +                 bi =         di
        i=1          i=1             i=1          i=2          i=1                                    i=k+2          i=1

y las trazas andan bien porque c                   b. En consecuencia, a                     d. Sean, por HI, n − 1 vectores
                                                                       n
                                  n−1                                              ∗
unitarios z2 , . . . , zn ∈ C           tales que diag (d) =                cj zj zj   ∈ Mn−1 (C)+ . Luego
                                                                      j=2

                            n
                                 cj (0, zj )(0, zj )∗ = diag (0, d) = A1                     ∈ Mn (C)+ .                        (5.7)
                                                                                         B
                           j=2

Si definimos x2 , . . . , xn ∈ Cn tales que las coordenadas de cada xj en B sean (0, zj ), resulta
que son tambi´n unitarios (los zj lo son y B es una bon). Traduciendo la ecuaci´n (5.7)
              e                                                                         o
(pensada en la base B) a coordenadas en la base can´nica, obtenemos
                                                        o
                                                        n
                                             A1 =             cj xj x∗ ∈ Mn (C)+
                                                                     j
                                                        j=2

y, por lo tanto,
                                                                            n
                                           A = A1 + c1 x1 x∗ =
                                                           1                    cj x j x ∗ .
                                                                                         j
                                                                        j=1

Conclu´
      ımos que 1 implica 3, si b y c tienen entradas estricatamente positivas.
90                                        Mayorizaci´n de autovalores y valores singulares
                                                    o




De lo anterior podemos deducir que 1 ↔ 2 en ese caso (b, c > 0), porque 1 → 3 y 3 ↔ 2
(2 → 1 era el Teorema 3 de Schur). Pero esto se generaliza sin dificultad al caso general (con
b y c cualesquiera en Rn ) usando que para todo m ∈ R se tiene que
                                 x + m1     y + m1          ⇐⇒         x         y,
y que dada B ∈ H(n), entonces d (B + mI) = d (B) + m1 y µ(B + mI) = µ(B) + m1.
Finalmente, probado 1 ↔ 2 en general, ahora por la Proposici´n 5.2.4, ya sabemos que 3 es
                                                            o
equivalente a ellas si b y c tienen entradas no negativas.
Teorema 5.2.6. Sea a ∈ Rn y A ∈ H(n) tal que µ(A) = a↓ . Entonces,
                      {x ∈ Rn : x         a} =        d ( U AU ∗ ) : U ∈ U(n) .

Demostraci´n. Si B = U AU ∗ , con U ∈ U(n), entoces µ(A) = µ(B) = a↓ . Luego por el
          o
Teorema de mayorizaci´n de Schur 5.1.1, se tiene que d (B) a.
                     o
Rec´ıprocamente, si x ∈ Rn cumple x    a, por el Teorema 5.2.5 existe B ∈ H(n) tal que
d (B) = x y µ(B) = a↓ . Por lo tanto debe existir U ∈ U(n) tal que B = U AU ∗ . Luego
x ∈ {d (U AU ∗ ) : U ∈ U(n)}.
Corolario 5.2.7. Sean A ∈ Mn (C)+ y c ∈ Rm , con m ≥ n. Entonces existen proyectores
                                                   +
autoadjuntos P1 , . . . , Pm de rango uno, tales que
                         m
                 A=          ck Pk    ⇐⇒      c       (µ(A), 0, . . . , 0) := µ(A) ∈ Rm .
                                                                              ˜       +
                      k=1

                              A 0
Demostraci´n. Sea A1 =
          o                         ∈ Mm (C)+ . Luego µ(A1 ) = µ(A). Por el Teorema 5.2.6,
                                                                   ˜
                              0 0
c    µ(A) si y s´lo si existe U ∈ U(m) tal que d (U A1 U ∗ ) = c. Es claro que si
     ˜          o
                    In       0
             P =                  ∈ Mm (C)+ ,         entonces        U A1 U ∗ = U P A1 P U ∗ .
                     0       0
Luego, si llamamos U1 ∈ Mm,n (C) a la parte no nula de U P , entonces U1 AU1 = U A1 U ∗ .
                                                                                     ∗
               ∗                                  1/2 ∗
Notar que U1 U1 = In . Si definimos T = A U1 ∈ Mn,m (C), y xi = Ci (T ) ∈ Cn para
i ∈ Im , se tiene que U A1 U ∗ = T ∗ T , por lo que xi 2 = ci , i ∈ Im . Por otro lado,
                                                  m              m
                                  A = TT∗ =           xk x∗ =
                                                          k           ck P k ,
                                              k=1               k=1

donde Pk = c−1 xk x∗ es proyector autoadjunto de rango uno, para k ∈ Im (si ck = 0, puede
             k     k
tomarse como Pk cualquier cosa). La rec´ ıproca se prueba definiendo T ∈ Mn,m (C) tal que
                      1/2
tenga columnas xk = ck yk , donde yk yk = Pk , k ∈ Im . El hecho de que A = T T ∗ implica
                                       ∗

que existe una U1 ∈ Mm,n (C) que cumple todo lo siguiente:
                         ∗             ∗
               T = A1/2 U1        ,   U1 U1 = In       y    d (U1 AU1 ) = d (T ∗ T ) = c .
                                                                    ∗


Luego se extiende U1 a una U ∈ U(m), con lo que U1 AU1 = U A1 U ∗ .
                                                     ∗
5.3 Normas unitariamente invariantes                                                                 91




Observaci´n 5.2.8. El resultado anterior resulve el problema planteado en el p´rrafo anterior
           o                                                                     a
a la Proposici´n 5.2.4, al menos para el caso r ≥ n. Es f´cil ver, usando el Teorema 5.2.5, que
              o                                          a
si A ∈ Mn (C)+ , rk(A) ≤ r < n y c ∈ Rr , entonces la condici´n necesaria y suficiente para
                                          +
                                                                  o
                                       r
que A pueda ser representado A = k=1 ck Pk para ciertos proyectores Pk de rango uno, es
que µ(A) (c, 0, . . . , 0) ∈ Rn .


5.3      Normas unitariamente invariantes
Definici´n 5.3.1. Dada una norma N en Mn (C), decimos que N es una norma unitariamente
         o
invariante (NUI) , si cumple que

          N (U AV ) = N (A)           para toda A ∈ Mn (C) y todo par U, V ∈ U(n) .

En tal caso, el Teorema 3.2.5 dice que N (A) = N (Σ(A) ) para toda A ∈ Mn (C).

Definici´n 5.3.2. Sea N una NUI en Mn (C). Consideremos la funci´n
       o                                                       o

                        gN : Cn → R+          dada por       gN (x) = N (diag (x) )

para todo x ∈ Cn .

Proposici´n 5.3.3. Sea N una NUI en Mn (C) y sea x ∈ Cn . Entonces:
         o

  1. gN es una norma en Cn .

  2. gN (x) = g(|x|) := gN (|x1 | , . . . , |xn |).

  3. gN (x) = g(xσ ) = gN (xσ(1) , . . . , xσ(n) ), para toda σ ∈ Sn .

Demostraci´n.
          o

  1. Se deduce de que la aplicaci´n Cn
                                 o                    x → diag (x) ∈ Mn (C) es lineal e inyectiva.

  2. Sea xj = ωj |xj | donde wj = ei θj . Como W = diag (ω1 , . . . , ωn ) ∈ U(n), tenemos que

                 gN (|x|) = N (diag (|x|) ) = N (W ∗ diag (x) ) = N (diag (x) ) = gN (x) .

                                                                ∗
  3. Sea Pσ ∈ UP (n) la matriz asociada a σ. Luego Pσ diag (x) Pσ = diag (xσ ) . Entonces,
                                                     ∗
                          gN (xσ ) = N (Pσ diag (x) Pσ ) = N (diag (x) ) = gN (x) .

Definici´n 5.3.4. Una funci´n f : Cn → R que cumple los ´
         o                 o                            ıtems 1, 2 y 3 de la Proposici´n
                                                                                      o
anterior se denomina gauge sim´trica. Abreviaremos esto escribiendo que f es una fgs.
                              e

Lema 5.3.5. Si g es una fgs, entonces, g es mon´tona en el siguiente sentido: Si se cumple
                                                      o
que |xi | ≤ |yi | para todo i ∈ In , entonces, g(x) ≤ g(y).
92                                              Mayorizaci´n de autovalores y valores singulares
                                                          o




Demostraci´n. Por la Proposici´n 5.3.3, podemos suponer que x, y ∈ Rn . Por un argumento
            o                   o                                      +
inductivo, es suficiente verificar que si t ∈ [0, 1] y k ∈ In , entonces
                           g(y1 , . . . , t yk , . . . , yn ) ≤ g(y1 , . . . , yk , . . . , yn ) .
En efecto, si tomamos ese x = (y1 , . . . , t yk , . . . , yn ), entonces
                                  1+t       1−t
                        g(x) = g        y +     (y1 , . . . , −yk , . . . , yn )
                                   2         2
                               1+t          1−t
                             ≤       g(y) +     g(y1 , . . . , −yk , . . . , yn )
                                2            2
                               1+t          1−t
                             =       g(y) +     g(y) = g(y) ,
                                2            2

Este Lema nos permitir´ mostrar la relaci´n clave que existe entre estas fgs’s y la mayorizaci´n
                      a                  o                                                    o
d´bil de vectores.
 e
Teorema 5.3.6. Sea g es una funci´n gauge sim´trica en Cn y sean x, y ∈ Rn tales que
                                 o           e                           +
x w y. Entonces, g(x) ≤ g(y).

Demostraci´n. Como x w y, la Proposici´n 4.1.12 nos asegura que existe u ∈ Rn tal que
          o                           o
x u y. Ahora bien, el Lema 5.3.5 garantiza que g(x) ≤ g(u) (recordar que x 0).
Por otro lado, como u             y, el Teorema 4.1.8 nos dice que u =                                 λσ yσ , para ciertos
                                                                                               σ∈ Sn
λσ ∈ [0, 1] tales que           λσ = 1. Luego
                        σ∈ Sn


               g(u) = g              λσ yσ       ≤           λσ g(yσ ) =              λσ g(y) = g(y) .
                             σ∈ Sn                   σ∈ Sn                    σ∈ Sn

Teorema 5.3.7.

     1. Si N es una NUI en Mn (C), entonces, gN es una fgs en Cn .
     2. Si g es una fgs en Cn , entonces la funci´n Ng : Mn (C) → R+ dada por
                                                 o
                          Ng (A) = g(s1 (A) , . . . , sn (A) ) ,             para       A ∈ Mn (C) ,
       es una NUI en Mn (C).

Demostraci´n.
          o

     1. Esto es la Proposici´n 5.3.3.
                            o
     2. S´lo demostraremos la desigualdad triangular. Las dem´s propiedades quedan como
         o                                                   a
        ejercicio para el lector. Sean A, B ∈ Mn (C). Luego
       Ng (A+B) = g(s(A+B)) ≤ g(s(A)+s(B)) ≤ g(s(A))+g(s(B)) = Ng (A)+Ng (B) ,
       ya que s(A + B)       w   s(A) + s(B) y podemos usar el Teorema 5.3.6.
5.3 Normas unitariamente invariantes                                                                          93




Teorema 5.3.8 (Ky Fan). Sean A, B ∈ Mn (C). Entonces son equivalentes:

  1. N (A) ≤ N (B) para toda norma unitariamente invariante N .
  2. A   (k)   ≤ B         (k)   para todo k ∈ In .
  3. s(A)      w   s(B).

Demostraci´n. Es consecuencia de los Teoremas 5.3.6 y 5.3.7. En efecto, observar que
          o

                   A   (k)     ≤ B   (k)      para todo         k ∈ In         ⇐⇒   s(A)   w    s(B) ,

y en tal caso se tiene que g(s(A) ) ≤ g(s(B) ) para toda fgs. La rec´
                                                                    ıproca es evidente.

Ahora saldamos otra deuda contraida en el Ejemplo 3.4.1:
Corolario 5.3.9. Para todo n ∈ N y todo p ∈ [1 , ∞), la norma p de Schatten, dada por

                                     n                1/p
                                                p                        1/p
                       A   p   =          si (A)            = (tr |A|p )       para A ∈ Mn (C) ,
                                    i=1

es efectivamente una norma en Mn (C), y adem´s es NUI.
                                            a

Demostraci´n. Se usa el Teorema 5.3.7 y el hecho de que la norma p usual en Rn es una
           o
funci´n gauge sim´trica.
     o           e
Corolario 5.3.10. Sean A, B ∈ Mn (C)+ tales que A ≤ B. Entonces, N (A) ≤ N (B) para
toda norma unitariamente invariante N .

Demostraci´n. Aplicando el Corolario 2.3.7, obtenemos que
          o

        0 ≤ A ≤ B =⇒ sk (A) = µk (A) ≤ µk (B) = sk (B) ,                            para todo      k ∈ In .

Luego basta aplicar el Teorema 5.3.8.
Corolario 5.3.11. Sea N una NUI en Mn (C). Dadas A, B ∈ Mn (C), se tiene que

  1. N (AB) ≤ A            sp    N (B).

Adem´s, si N es normalizada (i.e., N (E11 ) = 1),
    a

  2. A   sp    ≤ N (A) ≤ A           1    = tr |A|.
  3. N es una norma matricial.

Demostraci´n.
          o

  1. Se deduce de la desigualdad sk (AB) ≤ A                          sp   sk (B) para todo k ∈ In , vista en la
     f´rmula (3.3), y del Teorema 5.3.8.
      o
94                                               Mayorizaci´n de autovalores y valores singulares
                                                           o




     2. Sea g la funci´n gauge simetrica asociada a N . Como N est´ normalizada, entonces
                       o                                          a
        g(ek ) = 1 para todo k ∈ In . Luego,

                          A     sp   = s1 (A) = g(s1 (A), 0, . . . , 0) ≤ g(s(A) ) = N (A) .
                                                     n                          n
       An´logamente, N (A) = g(s(A) ) ≤
         a                                                 sk (A)g(ek ) =           sk (A) = A    1   .
                                                     k=1                    k=1

     3. Es claro usando lo anterior.

Proposici´n 5.3.12. Sea g : Rn → R, una funci´n convexa e invariante por permutaciones,
           o                                     o
es decir que si x ∈ Rn y P ∈ UP (n) , entonces g(x) = g(P x). Entonces, dados x, y ∈ Rn ,

                                          x      y   =⇒       g(x) ≤ g(y) .

En particular, esto se verifica si g es una fgs.

Demostraci´n. Si x
          o                   y, el Teorema 4.1.8 asegura que x =                             λσ Pσ y . para ciertos
                                                                                      σ∈ Sn
λσ ∈ [0, 1] tales que           λσ = 1. Entonces
                        σ∈ Sn


                         g(x) = g                λσ Pσ y ≤              λσ g (Pσ y) = y .
                                         σ∈ Sn                 σ∈ Sn

Notar que si g es una fgs, es convexa por ser una norma (homogeneidad + DT).

Corolario 5.3.13. Dadas A, B ∈ H(n). Entonces

                                 µ(A)         µ(B)       =⇒         s(A)    w   s(B).

Demostraci´n. Como A ∈ H(n), se tiene que s(A) = | µ(A)| ↓ . Por lo tanto, si g es una
             o
fgs, se tiene que g(s(A) ) = g(µ(A) ). Lo mismo pasa para B, y el resultado se deduce de la
                                                              k
Porposici´n 5.3.12, aplicado a las fgs’s gk (x) =
         o                                                          x↓ , para k ∈ In .
                                                                     i
                                                              i=1

Corolario 5.3.14. Dadas A, B ∈ H(n), si µ(A)                         µ(B) entonces N (A) ≤ N (B) para toda
norma unitariamente invariante N .

Demostraci´n. Se deduce del Corolario 5.3.13 y del Teorema 5.3.7.
          o


5.4       Mayorizaci´n de matrices Hermitianas
                    o
Hasta el momento s´lo hemos visto resultados relacionados con la mayorizaci´n de vectores.
                   o                                                       o
Pero a cada matriz A ∈ H(n) se le puede asociar el vector µ(A) ∈ Rn formado por todos los
autovalores de A. Esto permite la siguiente definici´n,
                                                   o
5.4 Mayorizaci´n de matrices Hermitianas
              o                                                                                                   95




Definici´n 5.4.1. Si A, B ∈ H(n), se dice que A est´ mayorizada por B y se escribe A
          o                                       a                                                                B
si se verifica que µ(A) µ(B). Es decir, A B si
                    k               k
                        µj (A) ≤         µj (B),        1≤k≤n        y   tr A = tr B .
                j=1                j=1


Definici´n 5.4.2. Sea A ∈ Mn (C).
       o

  1. Dado un proyector P ∈ H(n) (o sea P = P 2 = P ∗ ), se define el pinching de A como

                             CP (A) := P AP + (I − P )A(I − P ) ∈ H(n) .

     Por ejemplo, si P proyecta sobre las primeras k coordenadas en Cn , entonces

                                        B    C                                    B   0
                            A=                          =⇒     CP (A) =                       ,
                                        D    E                                    0   E

     donde los bloques tienen los tama˜os adecuados (por ejemplo, B ∈ Mk (C) ). La matriz
                                      n
     de CP (A) tiene siempre esa pinta, si uno trabaja en coordenadas de una BON que
     empiece generando R(P ) y termine generando ker P .

  2. M´s generalmente, un sistema de proyectores en Mn (C) es una conjunto
      a

                                            P = {P1 , . . . , Pr } ⊆ H(n) ,

     donde los Pi son proyectores no nulos tales que
                                                                          r
                              Pi Pj = 0            si    i=j     y                Pi = I .
                                                                         i=1

     Notar que un proyector P ∈ H(n) define un sistema de dos proyectores P = {P, I − P }.

  3. Dado un sistema de proyectores P = {P1 , . . . , Pr } en Mn (C), se define el pinching
     asociado:
                                                                              r
          CP : Mn (C) → Mn (C) ,                 dado por      CP (A) =            Pi APi ,       A ∈ Mn (C),
                                                                          i=1

     que tambi´n puede verse como una compresi´n a bloques diagonales (operando en una
              e                                 o
     BON adecuada). Notar que se tiene la siguiente factorizaci´n:
                                                               o

                                            CP = CP1 ◦ CP2 ◦ · · · ◦ CPr ,                                      (5.8)

     y lo mismo en cualquier otro orden entre los CPi .

Ejercicios 5.4.3.
96                                              Mayorizaci´n de autovalores y valores singulares
                                                          o




     1. Si A ∈ H(n) y σ (A) = {λ1 , . . . , λr } (todos distintos), entonces definiendo Pi como el
        proyector sobre ker(A − λi I), i ∈ Ir , se obtiene un sistema de proyectores que verifica
                   r
        que A =         λi Pi .
                  i=1

     2. Dado un sistema de proyectores P en Mn (C) y una matriz A ∈ Mn (C), se tiene que
        CP (A) = A si y s´lo si A conmuta con todos los Pi de P. O sea, si A es diagonal de
                          o
        bloques. Verificar que eso sucede en el ejemplo anterior.
     3. Probar que, dado un sistema de proyectores P en Mn (C), el operador pinching CP
        verifica las siguientes propiedades:
         (a) Es lineal, idempotente (i.e., CP ◦ CP = CP ) y R(CP ) es el subespacio de matrices
             que conmutan con todos los Pi , i ∈ Ir .
        (b) Reduce normas espectrales y preserva trazas (si no sale, ver la Proposici´n 5.4.9).
                                                                                     o
         (c) Si A ∈ Mn (C) es autoadjunto (resp. positivo) entonces CP (A) es autoadjunto
             (resp. positivo). Por lo tanto, en general, CP (A∗ ) = CP (A)∗ .
Proposici´n 5.4.4. Sea A ∈ H(n) y P un sistema proyectores en H(n). Entonces
         o
                                                     CP (A)    A.

Demostraci´n. Por la Eq. (5.8), basta considerar el caso de pinchings de un solo proyector
            o
P ∈ H(n), o sea, el sistema P = {P, I − P }. Sea U = P − (I − P ) = 2 P − I ∈ H(n). Es f´cil
                                                                                        a
ver que, si R(P ) = S, entonces se tiene que
                              I      0    S
 U = P − (I − P ) =                          ∈ U(n) =⇒ 2 CP (A) = A + U AU = A + U AU ∗ . (5.9)
                              0     −I    S⊥
Pero, como µ(U AU ∗ ) = µ(A), por el Teorema de Weyl 5.1.6 se tiene
                                  2 µ(CP (A))       µ(A) + µ(U AU −1 ) = 2 µ(A) ,
por lo que CP (A)          A.
Ejercicio 5.4.5.   1. Clarificar en qu´ sentido la Proposici´n 5.4.4 es una generalizaci´n
                                     e                     o                           o
     del Teorema de mayorizaci´n de Schur.
                              o
     2. Dados x, y, z, w ∈ Rn tales que x = x↓ , y = y ↓ , z = z ↓ y w = w↓ , probar que
                                      z   w     y    x     y =⇒ x + z           y+w .
        ¿Es cierto si no estan ordenados?
     3. Deducir del Teorema 5.1.6 (+ inducci´n) que, si A1 , . . . , Am ∈ H(n), entonces
                                            o
                                                     m          m
                                                µ         Ak         µ(Ak ) .
                                                    k=1        k=1
5.4 Mayorizaci´n de matrices Hermitianas
              o                                                                                              97




Definici´n 5.4.6. Dado un espacio vectorial V y un subconjunto C ⊆ V, llamaremos conv [C]
         o
a la c´psula convexa de C:
      a
                          m
           conv [C] =          λk bk : m ∈ N, bk ∈ C, λ ∈ Rm y λ                  (1, 0, . . . , 0) .
                         k=1

es decir, el conjunto de todas las combinaciones convexas de elementos de C.

El siguiente teorema da una caracterizaci´n, intr´
                                         o       ınseca de matrices, de la mayorizaci´n ma-
                                                                                     o
tricial:
Teorema 5.4.7. Sea A ∈ H(n). Denotemos por
                  U(A) = {U AU ∗ : U ∈ U(n)} = {B ∈ H(n) : µ(B) = µ(A)}
la ´rbita unitaria de A. Entonces,
   o
                               {T ∈ H(n) : T          A} = conv [U(A) ] .                               (5.10)
O sea que T     A si y s´lo si T es combinaci´n convexa de conjugados unitarios de A.
                        o                    o

Demostraci´n. Tomemos una matriz
          o
                                     m
                                                   ∗
                               T =         λk Uk AUk ∈ conv [U(A) ] ,
                                     k=1

                                                           (m)
donde los Uk ∈ U(n) y λ ∈ Rm cumple que λ
                           +                              e1     . Por el Ejercicio 5.4.5,
                         m                           m
                                        ∗
                µ(T )         µ(λk Uk AUk ) =             λk µ(A) = µ(A) =⇒ T              A.
                        k=1                         k=1

Rec´ıprocamente, sea T ∈ H(n) tal que µ(T ) µ(A). Notaremos a = µ(A). Con las notaciones
de la Observaci´n 4.1.5, el Teorema 4.1.8 dice que
               o

                               µ(T ) =             λ σ Pσ a =            λσ aσ
                                           σ∈ Sn                 σ∈ Sn

para ciertos λσ ∈ [0, 1] tales que           λσ = 1. Notemos D = diag (a). Por la Eq. (4.4) de la
                                     σ∈ Sn
                                     ∗
Observaci´n 4.1.5, se tiene que Pσ DPσ = diag (aσ ). Por lo tanto,
         o
                                                                       ∗
                                 diag (µ(T ) ) =               λσ Pσ DPσ .
                                                     σ∈ Sn

Finalmente, si V, W ∈ U(n) hacen que A = V ∗ DV y T = W diag (µ(T ) ) W ∗ , entonces

    T = W diag (µ(T ) ) W ∗ =            λσ W Pσ DPσ W ∗ =
                                                   ∗
                                                                            λσ (W Pσ V ) A (V ∗ Pσ W ∗ ) .
                                                                                                 ∗

                                 σ∈ Sn                              σ∈ Sn

Luego T ∈ conv [{U AU ∗ : U ∈ U(n)}] = conv [U(A) ].
98                                             Mayorizaci´n de autovalores y valores singulares
                                                         o




Observaci´n 5.4.8. Notar que el Teorema 5.4.7 permite generalizar el Corolario 5.3.14 en
            o
el siguiente sentido: Si A, B ∈ H(n), por la f´rmula (5.10) se tiene que
                                              o
                                       A   B         =⇒    N (A) ≤ N (B)
para toda norma N que verifique N (U CU ∗ ) = N (C), C ∈ Mn (C), U ∈ U(n). Estas normas
se llaman d´bilmente unitariamente invariantes (NDUI). Notar que, por ejemplo,
           e
                         w(C) = m´x | Cx, x | : x = 1 ,
                                 a                                       C ∈ Mn (C),
 que se llama radio num´rico de C, es una tal norma, pero no es NUI. Otro ejemplo de este
                        e
tipo es M (C) = N (C)+| tr C|, que es NDUI para cualquier NUI N . Para el caso de pinchings,
se tiene un resultado m´s general que la Proposici´n 5.4.4:
                       a                          o

Proposici´n 5.4.9. Sean A ∈ Mn (C) (no necesariamente autoadjunta) y P un sistema
           o
proyectores en H(n). Entonces
     N CP (A) ≤ N (A) ,                para toda norma N que sea NDUI en Mn (C) .                   (5.11)

Demostraci´n. Por la Eq. (5.8) basta probarlo para un solo proyector P ∈ H(n). En tal caso,
          o
sea U = P − (I − P ) = 2 P − I ∈ U(n). Por la Eq. (5.9), se tiene que
                                     2 CP (A) = A + U AU = A + U AU ∗ .
Con esto, la desigualdad al tomar N es clara.
Observaci´n 5.4.10. Otra forma de verlo es observar que, en el caso general, siempre se
            o
verifica que CP (A) ∈ conv [{U AU ∗ : U ∈ U(n)}], aunque A no sea autoadjunta. Esto se hace
eligiendo las matrices unitarias y diagonales de bloques (para P), con ± IR(Pi ) en cada bloque
(ver el ejercicio 5.6.4).
Proposici´n 5.4.11. Sean A, B ∈ Mn (C). Sea N una NUI. Entonces se tienen las desigual-
         o
dades
            1     A+B        0            A 0           |A| + |B| 0
              N                   ≤N             ≤N                     .
            2        0    A+B             0 B               0      0

Demostraci´n. La primera desigualdad se deduce de que
          o
                 B       0       ∼     A   0                                0   I
                                 =               ,    v´ la matriz
                                                       ıa                            ∈ U(n) .
                 0       A             0   B                                I   0

Para probar la segunda, notar que, si A = U |A| y B = V |B| con U, V ∈ U(n), entonces
         A 0                 U   0         |A| 0                     A    0            |A| 0
                     =                                    =⇒ N                  =N              ,
         0 B                 0   V          0 |B|                    0    B             0 |B|

por lo que podemos suponer que A, B ∈ Mn (C)+ . En tal caso, si C = A1/2 , D = B 1/2 , y
                                 C    0                        A+B         0
                     T =                   ,    entonces                        = T ∗T .
                                 D    0                         0          0
5.5 Teoremas de Lindskii y sus aplicaciones                                                  99




Por otra parte, T T ∗ ∼ T ∗ T , por lo que N (T T ∗ ) = N (T ∗ T ). Adem´s,
                      =                                                 a

                                        C2    CD             A      CD
                            TT∗ =                    =                     .
                                        DC    D2            DC       B

          A 0
Luego          es un pinching de T T ∗ , y por la f´rmula (5.11), en la Proposici´n 5.4.9, se
                                                   o                             o
          0 B
            A 0
tiene que N         ≤ N (T T ∗ ) .
             0 B


5.5      Teoremas de Lindskii y sus aplicaciones
El teorema de Lidskii tiene tres versiones equivalentes. Comenzaremos enunciando las tres, y
luego iremos armando las pruebas.
Teorema 5.5.1 (Lidskii 1). Sean A, B ∈ H(n). Entonces

                           µ(A) − µ(B)       µ(A − B)      µ(A) − λ(B) .

Ejercicio 5.5.2.    1. Decir porqu´ es incorrecta la siguiente prueba de la primera parte del
                                   e
     Teorema de Lidskii 1: Si A, B ∈ H(n), por el Teorema 5.1.6, µ(A) µ(A − B) + µ(B).
     Por lo tanto, para todo k ∈ In ,
                                  k                         k
                                       µj (A) − µj (B) ≤         µj (A − B) .
                                 j=1                       j=1

      Deducimos entonces que µ(A) − µ(B)         µ(A − B). La igualdad, para k = n, sale
      tomando trazas. Si no ven la pifiada, leer la Observaci´n 4.1.9.
                                                            o
   2. Demostrar (bien) la otra parte del Teorema ( ¿quien era µ(−B)?).

Recordemos que, si B ∈ Mn (C), llamamos s(B) = (s1 (B), . . . , sn (B)) = µ(|B|), al vector de
valores singulares de B, ordenados en forma decreciente.
Teorema 5.5.3 (Lidskii 2). Sean A, B ∈ Mn (C). Entonces

                                  |s(A) − s(B)|     w   s(A − B) .

Una ves resuelto el Ejercicio 5.5.2, se entender´ porque es necesaria (y suficiente) la siguiente
                                                a
versi´n m´s t´cnica del Teorema de Lidskii. Obsrvar que puede verse como una generalizaci´n
     o   a e                                                                                  o
natural del Teorema de Weyl 2.3.5 (que, de hecho, es lo que se usa en su prueba). La prueba,
asombrosamente simple comparada con las que hist´ricamente la precedieron, necesita un
                                                       o
m´ınimo repaso: Si A ∈ H(n), se definen A+ = A+|A| y A− = |A|−A . Se probaba en la
                                                      2                2
Secci´n 3.3 que ambas est´n en Mn (C)+ , que A = A+ − A− y que para todo k ∈ In se tiene
     o                     a

         µk (A+ ) = m´x { µk (A) , 0 }
                     a                       y   µk (A− ) = − m´
                                                               ın{µn−k+1 (A), 0} .       (5.12)
100                                           Mayorizaci´n de autovalores y valores singulares
                                                        o




Teorema 5.5.4 (Lidskii 3). Sean A, B ∈ H(n), k ∈ In y J ⊆ In con |J| = k. Entonces
                                  k                                                          k
                     µj (A) +          λi (B) ≤           µj (A + B) ≤            µj (A) +         µi (B) .        (5.13)
              j∈ J               i=1              j∈ J                     j∈ J              i=1

Demostraci´n. Probaremos, en principio, la desiguadad de la derecha en (5.13). Sin p´rdida
           o                                                                        e
de generalidad podemos suponer que µk (B) = 0. En efecto, si probaramos el resultado para
B − µk (B)I (que cumple lo pedido) y A, podr´ıamos deducir inmediatamente la desigualdad
de la derecha en (5.13), dado que
      µj (A + B) = µj (A + B − µk (B)I) + µk (B) y µi (B) = µi (B − µk (B)I) + µk (B) ,
para todo j ∈ J e i ∈ In (sobrar´ kµk (B) en ambos t´rminos, y se puede cancelar). Sea
                                    a                    e
B = B+ − B− la descomposici´n de B en partes positiva y negativa descriptas en el repaso
                                 o
previo (sino, ver la Eq. (3.5) ). Como µk (B) = 0, aplicando la Eq. (5.12) se tiene que
                                                                                                         k
        µj (B+ ) = m´x { µj (B) , 0 } ,
                    a                                 para todo j ∈ In            =⇒      tr(B+ ) =           µj (B) .
                                                                                                        j=1

Por el teorema de Weyl, m´s especificamente el Corolario 2.3.7, el hecho de que
                         a
           A + B ≤ A + B+ =⇒ µj (A + B) ≤ µj (A + B+ )                             para todo j ∈ In .
En consecuencia,

                              µj (A + B) − µj (A) ≤                   µj (A + B+ ) − µj (A) .
                      j∈ J                                    j∈ J

Por el Corolario 2.3.7, tambi´n µj (A + B+ ) ≥ µj (A), para todo j ∈ In . Por lo tanto
                             e
                                                  n
              µj (A + B+ ) − µj (A) ≤                     µj (A + B+ ) − µj (A) = tr(A + B+ ) − tr(A)
       j∈ J                                   j=1
                                                               k
                                            = tr(B+ ) =              µj (B) .
                                                              j=1

Esto prueba la desiguadad de la derecha en la Eq. (5.13). La otra se deduce de la anterior,
pero aplicada al conjunto J = {n − j + 1 : j ∈ J} y las matrices −A y −B. Se usa que
                                      µr (−C) = −µn−r+1 (C) = −λr (C) ,
para cualquier C ∈ H(n) y para todo r ∈ In .
Observaci´n 5.5.5. Una formulaci´n equivalente del Teorema 5.5.4 que tambi´n se usa
           o                        o                                             e
mucho es la siguiente: Dadas A, B ∈ H(n), k ∈ In y J ⊆ In con |J| = k, se tiene que
                                                      k
                            µj (A) − µj (B) ≤             µi (A − B) ≤            µj (A) − λj (B) .                (5.14)
                     j∈ J                         i=1                     j∈ J

En efecto, basta aplicar la Eq. (5.13) a las matrices B y A − B, y pasar restando.
5.5 Teoremas de Lindskii y sus aplicaciones                                                            101




Demostraci´n del Teorema de Lidskii 1. Usando la formulaci´n (5.14) del tercer Teorema de
            o                                             o
Lidskii, obtenemos
                                                      
          k                                                k
                          ↓
              µ(A) − µ(B) j = m´x
                                a       µj (A) − µj (B) ≤      µj (A − B) ,         (5.15)
                              J⊆In                    
        j=1                                         j∈ J                          j=1
                                           |J|=k

para todo k ∈ In . Como las trazas est´n bien, sale que µ(A) − µ(B)
                                      a                                                    µ(A − B).

Demostraci´n del Teorema de Lidskii 2. Veamos en principio que, si k ∈ In , entonces
          o
                                            
                                                 k
                                                                     ↓
                  m´x
                    a       µj A − µj B         =      s(A) − s(B) j .
                  J⊆I2n                     
                                    j∈ J                                 j=1
                       |J|=k

En efecto, por la f´rmula (3.16) de Proposici´n 3.7.5, si j ∈ In se tiene que
                   o                         o

                                    µj A − µj B = sj (A) − sj (B)                  y

                       µ2n−j+1 A − µ2n−j+1 B = − sj (A) − sj (B) .

Por otro lado, aplicando la f´rmula (5.15) o la (5.14) a A, B y a A − B = A − B, vemos que
                             o
                                        
                                              k                 k
            m´x
              a        µj A − µj B          ≤      µj A − B =        sj (A − B) ,
            J⊆I2n                       
                       j∈ J                                    j=1                  j=1
              |J|=k

                                k                               k
                                                       ↓
y podemos concluir que                s(A) − s(B)      j
                                                           ≤         sj (A − B) para todo k ∈ In .
                               j=1                             j=1

Corolario 5.5.6. Sean N una NUI en Mn (C) y A, B ∈ Mn (C). Entonces

                                       N Σ(A) − Σ(B) ≤ N (A − B) .

Demostraci´n. Notar que s(Σ(A) − Σ(B) ) = |s(A) − s(B)|↓ . Por lo tanto el Teorema de
            o
Lidskii 2 implica que

                      Σ(A) − Σ(B)           (k)    ≤ A−B       (k)      para todo k ∈ In .

Luego se aplica el Teorema 5.3.8.
Corolario 5.5.7. Sean N una NUI en Mn (C) y A ∈ Gl (n). Sea U la unica matriz unitaria
                                                                 ´
tal que A = U |A| (i.e. U = A|A|−1 ∈ U(n)). Entonces

                  dN (A, U(n) ) = N (A − U ) = N (Σ(A) − I) = gN (s(A) − 1) .
102                                        Mayorizaci´n de autovalores y valores singulares
                                                     o




Demostraci´n. Sea V ∈ U(n). Entonces Σ(V ) = I. Por el Corolario 5.5.6, tenemos que
           o
N (A − V ) ≥ N (Σ(A) − I). Por otra parte, sea W ∈ U(n) tal que |A| = W Σ(A)W ∗ . Entonces

                   A − U = U W Σ(A)W ∗ − U W W ∗ = U W (Σ(A) − I)W ∗ .

Dado que N es una NUI, resulta que N (A − U ) = N (Σ(A) − I).

Ejercicio 5.5.8. Sea Mn (C)1 el conjunto de matrices en Mn (C) de rango uno (o cero).
Dada A ∈ Mn (C), llamemos Σ1 (A) = diag (0, s2 (A), . . . , sn (A)) .

Probar que si N es una NUI, dN (A, Mn (C)1 ) = N (Σ1 (A)) y se alcanza en la matriz

                                  A1 = U W diag (s1 (A), 0, . . . , 0) W ∗ ,

donde A = U W Σ(A)W ∗ . Probar, aparte, que A1 no depende de la matriz U ∈ U(n) elegida
para realizar la descomposici´n polar de A, pero s´ puede depender de W (si s1 (A) tiene
                              o                     ı
multiplicidad mayor que uno para |A|). Mostrar que otra manera de encontrar A1 es tomando
A1 = s1 (A)x y = s1 (A)yx∗ , donde x es un vector unitario tal que Ax = A sp = s1 (A),
e y = U x. Generalizar el resultado al conjunto de matrices de rango a lo sumo k.


5.6     Ejercicios
Ejercicios del texto
5.6.1. Sea A ∈ H(n). Para cada k ∈ In , notamos

 Pk (n) = {P ∈ H(n) : P 2 = P y rk(P ) = k}               y    Uk (n) = {U ∈ Mn,k (C) : U ∗ U = Ik } .

Probar que, para todo k ∈ In , se tiene que
                         k
                              µj (A) = m´x
                                        a          tr P AP =     m´x
                                                                  a        tr U ∗ AU .
                                       P ∈Pk (n)               U ∈Uk (n)
                        j=1


5.6.2. Si A ∈ H(n) y σ (A) = {λ1 , . . . , λr } (todos distintos), entonces definiendo Pi como
el proyector ortogonal sobre ker(A − λi I), i ∈ Ir , se obtiene un sistema de proyectores que
                   r
verifica que A =         λi Pi .
                  i=1

5.6.3. Dado un sistema de proyectores P = {P1 , . . . , Pr } en Mn (C), probar que se tiene la
siguiente factorizaci´n de su pinching:
                     o

                                      CP = CP1 ◦ CP2 ◦ · · · ◦ CPr ,

y lo mismo en cualquier otro orden entre los CPi .
5.6 Ejercicios                                                                                 103




5.6.4. Sean A ∈ Mn (C) y P = {P1 , . . . , Pr } ⊆ Mn (C) un sistema de proyectores. Probar
que
                                                                    ∗
                 CP (A) = 2−n           UJ AUJ = 2−n        UJ AUJ ,
                                            J⊆ In                J⊆ In

donde cada UJ =           Pk −          Pk ∈ U(n). Deducir que CP (A) ∈ conv [{U AU ∗ : U ∈ U(n)}].
                    k∈J           k∈J
                                   /

5.6.5. Dado un sistema de proyectores P en Mn (C) y una matriz A ∈ Mn (C), se tiene que
CP (A) = A si y s´lo si A conmuta con todos los Pi de P. O sea, si A es diagonal de bloques.
                 o

5.6.6. Probar que, dado un sistema de proyectores P en Mn (C), el operador pinching CP
verifica las siguientes propiedades:

  1. Es lineal, idempotente (i.e., CP ◦ CP = CP ) y R(CP ) es el subespacio de matrices que
     conmutan con todos los Pi , i ∈ Ir .

  2. Reduce normas espectrales y preserva trazas (si no sale, ver la Proposici´n 5.4.9).
                                                                              o

  3. Si A ∈ Mn (C) es autoadjunto (resp. positivo) entonces CP (A) es autoadjunto (resp.
     positivo). Por lo tanto, en general, CP (A∗ ) = CP (A)∗ .

5.6.7. Dados x, y, z, w ∈ Rn , todos ordenados en forma decreciente, probar que

                              z     w      y x      y =⇒ x + z       y+w .

¿Es cierto si no estan ordenados?
                                                      m          m
5.6.8. Si A1 , . . . , Am ∈ H(n), probar que µ              Ak         µ(Ak ) .
                                                      k=1        k=1

5.6.9. Hacer el Ejercicio 5.5.8


Normas d´bilmente unitariamente invariantes (NDUI’s)
        e
Definici´n 5.6.10. Una norma N en Mn (C) es una NDUI si cumple que
       o

           N (A) = N (U AU ∗ )            para toda   A ∈ Mn (C)         y toda   U ∈ U(n) .

5.6.11. Probar que las siguientes normas son NDUI’s.

  1. El radio num´rico.
                 e

  2. N (A) = A + | tr A|.

  3. N (A) =             m(U AU ∗ )dU , donde m(·) una norma en Mn (C) y dU refiere a la medida
                 U (n)
      de Haar (normalizada) de U(n).
104                                        Mayorizaci´n de autovalores y valores singulares
                                                     o




5.6.12. Sea N una NDUI. Demostrar que

  1. Dadas A, B ∈ Mn (C), si A             B, entonces N (A) ≤ N (B).
  2. Dado un sistema de proyectores P en Cn , se tiene que

                           N (CP (A) ) ≤ N (A)         para toda A ∈ Mn (C) .

                                                                    | tr A|
5.6.13. Probar que si N es una NDUI, entonces N (A) ≥                       N (I). Si no sale a mano,
                                                                       n
esperar hasta el Corolario 10.2.7.


Ejercicios nuevos
5.6.14. Dadas A, B ∈ Mn (C)+ , mostrar que

                                   µ(A) · λ(B)      µ(AB)    µ(A) · µ(B) .

Si s´lo tenemos que A, B ∈ H(n), entonces mostrar que
    o

                                   µ(A) , λ(B) ≤ tr AB ≤ µ(A) , µ(B) .

5.6.15. Dada A ∈ Mn (C), probar que

  1.   A     (k)   = m´
                      ın   B   1   +k C   sp   :A=B+C .
  2. Usar lo anterior para dar una nueva prueba del Teorema 5.5.3 (Lidskii 2), mostrando
     previamente que, dadas A, B ∈ H(n),
       (a)     µ(A) − µ(B)     ∞    ≤ A−B .
       (b) µ(A) − µ(B)         1   ≤ A−B       1   = A−B    (n) .

  3. Mostrar que el Teorema 5.5.3 implica el Teorema 5.5.1 (Lidskii 1).
5.6.16. Sea A ∈ H(n)

  1. Sea S ⊆ Cn un subespacio de dimensi´n n − 1. Si AS = PS APS : S → S es el
                                        o
     comprimido de A a S, entonces:
       (a) µk (A) ≥ µk (AS ) ≥ µk+1 (A), para todo k ∈ In−1 .
       (b) Sea v1 , . . . , vn una BON adaptada a µ(A).
               a. Si v1 , . . . , vk ∈ S, entonces µi (A) = µi (AS ) para i ∈ Ik .
               b. Si vk , . . . , vn ∈ S, entonces µi−1 (AS ) = µi (A), k ≤ i ≤ n.
  2. Probar el Teorema de Lidskii 3 (por inducci´n sobre n) usando el ejercicio anterior, y
                                                o
     considerando independientemente los casos:
       (a) ik < n ,
5.6 Ejercicios                                                                                                105




      (b) 1 < i1 ,
      (c) i1 = 1, ik = n.
5.6.17. Sean A, B ∈ H(n). Entonces

  1. µ(A) + λ(B)        µ(A + B)     µ(A) + µ(A).
                        n
  2. Dados x, y ∈ R , se tiene que
                       x↓ − y ↓   x−y      x↓ − y ↑        y   x↓ + y ↑       x+y        x↓ + y ↓ .
     Por lo tanto g(x↓ − y ↓ ) ≤ g(x − y) para toda f gs.
  3. Si, para C ∈ H(n), llamamos Ed (C) = diag (µ(C)) y Ec (C) = diag (λ(C)), entonces
                       N Ed (A) − Ed (B) ≤ N (A − B) ≤ N Ed (A) − Ec (B)                         y
                        N Ed (A) + Ec (B) ≤ N (A + B) ≤ N Ed (A) + Ed (B) .
5.6.18 (Hoffman-Weilandt y agregados). Sean A, B ∈ Mn (C) matrices normales. Sean
µ(A) y µ(A) sus vectores de autovalores en alg´n orden.
                                              u

  1. Demostrar que existe una matriz doble estoc´stica D ∈ DS (n) tal que
                                                a
                                           2
                                  A−B      2
                                               =         |µi (A) − µj (B)|2 Dij .
                                                   i,j

  2. Probar la siguiente desigualdades:
                   n                                                          n
            m´
             ın         |µi (A) − µσ(i) (B)|2 ≤ A − B          2
                                                               2
                                                                   ≤ m´x
                                                                      a             |µi (A) − µσ(i) (B)|2 .
           σ∈Sn                                                        σ∈Sn
                  i=1                                                         i=1

  3. Sea B ∈ Mn (R) diagonal y definamos
                                  U(B) = {U BU ∗ : U ∈ U(n)} ⊂ H(n).
     Demostar que dada C ∈ Mn (C), la distancia d2 (C, U(B)) (calculada en norma 2, la de
     Frobenius), se realiza en una matriz diagonal D ∈ U(B).
5.6.19. Consideremos el pinching C : M2n (C) → Mn (C) ⊕ Mn (C) dado por
                                         X         Y   X           0
                                     C               =
                                         Z         W   0           W

                                                                                             B    0
  1. Si A ∈ M2n (C)+ entonces: existe U ∈ U(2n) tal que C(U ∗ AU ) =                                si y solo si
                                                                                             0    C
     existe unitarios U1 , U2 ∈ U(2n) tales que

                                       ∗       B    0      ∗ 0            0
                                  A = U1              U + U2                U .
                                               0    0 1      0            C 2
     Sugerencia: primero notar que C(U ∗ AU ) ≥ 0; representar a A como XX ∗ con cierta
     X ∈ M2n (C) y recordar que XX ∗ y X ∗ X son unitariamente equivalentes.
106                                           Mayorizaci´n de autovalores y valores singulares
                                                        o




   2. Usar lo anterior para probar que para A, B ∈ Mn (C)+ se tiene que

                                            (µ(A + B), 0)           (µ(A), µ(B)) .

                                       A+B        0   A 0    0                    In      0   0     0   In
      Sugerencia: verificar que                      =     +                                                  .
                                        0         0   0 0   In                     0          B    In    0
5.6.20. Probar que para cualquier A ∈ Mn,m (C) vale:

               sj (A) = m´x
                         a                  m´
                                             ın     Ax =               m´
                                                                        ın              m´x
                                                                                         a         Ax
                            dim S=j   x∈S, x =1                 dim T =n−j+1       x∈T , x =1

para cualquier j ∈ In .
5.6.21. Para j ∈ {0} ∪ In , sea

                                 Rj = {T ∈ Mn,m (C) : rk(T ) ≤ j} .

Mostrar que para cualquier j ∈ In , se tiene que

                                           sj (A) = m´
                                                     ın             A−T .
                                                   T ∈Rj−1

5.6.22. Mostrar que si A, H ∈ Mn,m (C), y H tiene rango k, entonces

                          sj (A) ≥ sj+k (A + H) ,           para todo           j ∈ In−k .

5.6.23. Mostrar que para cualquier A ∈ Mn,m (C) y para cada k ∈ In , vale

                                       k                        k
                                            sj (A) = m´x
                                                      a              Axj , yj ,
                                      j=1                   j=1


donde el m´ximo se toma sobre todas las k−uplas ortonormales x1 , . . . , xk e y1 , . . . , yk .
          a
5.6.24. Sea A ∈ H(n).

   1. Demostrar que
                   k                                                   k
                        µj (A) = m´x tr(U AU ∗ )
                                  a                         y               λj (A) =     m´ tr(U AU ∗ ) .
                                                                                          ın
                                U ∈Uk (n)                                              U ∈Uk (n)
               j=1                                                    j=1


   2. Por otro lado, si A es positiva demostrar:
               k                                                       k
                       µj (A) = m´x det(U AU ∗ )
                                 a                          y               λj (A) =     m´ det(U AU ∗ ) .
                                                                                          ın
                              U ∈Uk (n)                                                U ∈Uk (n)
              j=1                                                    j=1


Recordar que Uk (n) = {U ∈ Mn,k (C) : U ∗ U = Ik } es el espacio de isometr´ de Ck en Cn .
                                                                           ıas
5.6 Ejercicios                                                                            107




5.6.25. Sean A, B ∈ Mn (C)+ . Probar que

                              λ↓ (A) · λ↑ (B)   λ(AB)   λ↓ (A) · λ↓ (B).

Si s´lo pedimos que A, B ∈ H(n), mostrar que
    o

                              λ↓ (A), λ↑ (B) ≤ tr(AB) ≤ λ↓ (A), λ↓ (B) .

5.6.26. Sean N una NUI y A ∈ Mn (C). Probar que si µ(A) es el vector de los autovalores
de A y Eig(A) = diag(µ(A) ) ∈ Mn (C), entonces

                              N (Eig(A) ) = ´ { SAS −1 : S ∈ Gl (n)}.
                                            ınf

¿Qu´ matrices A verifican que el ´
    e                               ınfimo es un m´ ınimo para toda NUI? Observar que la
conclusi´n anterior no vale para cada NUI sola. Diga algunas en las que s´ vale y otras donde
        o                                                                ı
no.
5.6.27 (Mayo conjunta). Dadas X, Y ∈ Mn,m (R) decimos que

   • Y    s   X si existe D ∈ DS (n) tal que DX = Y
   • Y    p   X si Y v   Xv (mayorizaci´n usual en Rn ) para todo v ∈ Rm
                                       o
   • Y    w   X si existe D estoc´stica por filas tal que DX = Y .
                                 a

Esta es una manera compacta de describir lo que podr´    ıamos llamar mayorizaci´n conjunta
                                                                                o
(fuerte, puntual y d´bil) de m vectores de Rn ; a saber, las columnas de X y de Y .
                    e

  1. Probar que Y        w   X ⇐⇒ las filas de Y son combinaciones convexas de las de X.
  2. Probar que s =⇒ p =⇒ w , pero no valen las rec´          ıprocas (el contraejemplo de
      p =⇒   s es opcional, porque es bastante complicadito).

  3. Si n = 2 (solo dos filas, o mejor dicho, muchos vectores de R2 ), o m = n y las matrices
     son inversibles (esto significa “bases”), entonces s´ vale que p =⇒ s .
                                                        ı
  4. Supongamos que m = n y Y w X. Entonces | det X| ≥ | det Y |. Adem´s, si | det X| =
                                                                       a
     | det Y | = 0, entonces existe una matriz P ∈ Sn tal que Y = P X.


Normas duales
Definici´n 5.6.28. Sean Φ una norma en Cn y N una en Mn (C). Se definen sus normas
         o
del siguiente modo: dados x ∈ Cn y A ∈ Mn (C), ponemos

                   Φ (x) = sup | x, y |         y   N (A) =     sup | tr(A∗ B)| .
                              Φ(x)=1                          |||B|||=1

Las normas duales aparecen como las normas de los operadores adjuntos de los vectores o
matrices, cuando se los piensa como funcionales seg´n indica el siguiete ejercicio:
                                                   u
108                                           Mayorizaci´n de autovalores y valores singulares
                                                        o




5.6.29.        1. Sea φ una funcional lineal en Cn . Probar que existe un unico
                                                                          ´

                  x ∈ Cn       tal que      φ(y) = φx (y) = y, x ,             para todo y ∈ Cn .

  2. Sea ϕ una funcional lineal en Mn,m (C). Probar que existe una unica
                                                                   ´

      X ∈ Mn,m (C)          tal que      ϕ(A) = ϕX (A) = tr(X ∗ A) ,             para todo A ∈ Mmn (C) .

Usando esas identificaciones, definir para las funcionales en Mn (C), las nociones de adjunta,
autoadjunta y positiva, en funci´n de c´mo actua en las matrices. Despu´s comparar lo que
                                o      o                                 e
haya hecho con la Definici´n 8.3.1.
                          o
5.6.30. Sean M una norma en Cn y N una en Mn (C). Ellas inducen normas en las funcionales
lineales. Dados x ∈ Cn y X ∈ Mn (C), mostrar que

          M (x) = φx       M   = m´x |φx (y)|
                                  a                    y       N (X) = ϕX        N   = m´x |ϕX (A)| .
                                                                                        a
                                 M (y)=1                                                  N (A)=1

5.6.31. Sean φ y Ψ normas en Cn , Demostrar:

  1. | x, y | ≤ Φ(x)Φ (y) para todo x, y ∈ Cn .
  2. Si Φ(x) ≤ cΨ(x) para cierto c > 0 y para todo x ∈ Cn , entonces, Φ ≥ c−1 Ψ
5.6.32. Mostrar que para toda norma Φ en Cn , Φ = Φ, es decir que es igual a la norma
dual de su norma dual.
5.6.33. Sea Φ una funci´n gauge simetrica en Cn .
                       o

  1. Mostrar que Φ es tambien una fgs.
  2. Sea NΦ la NUI en Mn (C) asociada a Φ. Probar que NΦ = NΦ .
5.6.34. Demostrar que
                                                   1       1
  1. A     p   = A   q   , donde 1 ≤ p ≤ ∞ y       p   +   q   = 1.
  2. La unica NUI que coincide con su dual es la norma 2.
        ´
                                                                                                1
5.6.35. Dados k ∈ In y A ∈ Mn (C), probar que A                       (k)   = m´x{ A
                                                                               a          (1) , k   A   (n) }.

5.6.36. Sean p, q, r n´meros reales positivos tales que 1/r = 1/p + 1/q.
                      u

  1. Mostrar que para toda funci´n gauge sim´trica Φ se tiene que
                                o           e

                                      Φ(|x ◦ y|r )1/r ≤ Φ(|x|p )1/p Φ(|y|q )1/q .

  2. Probar que para toda norma unitariamente invariante ||| · ||| se verifica que:

                                      ||||AB|r |||1/r ≤ ||||A|p |||1/p ||||B|q |||1/q .
Cap´
   ıtulo 6

Funciones mon´tonas y convexas
              o
de operadores

6.1     C´lculo funcional
         a
Notaciones: Diremos que un subconjunto I ⊆ R es un intervalo, cuando I es un conjunto
convexo (i.e., si I es un intervalo abierto, semiabierto o cerrado; acotado, semirrecta o todo
R). Dado un intervalo I ⊆ R, llamaremos

                            HI (n) = A ∈ H(n) : σ (A) ⊆ I       .

Definici´n 6.1.1. Sea I ⊆ R un intervalo, y sea f : I → C una funci´n cualquiera. Fijada
         o                                                        o
A ∈ HI (n), se define
                                   f (A) = P (A),
donde P ∈ C[x] verifica que P (λ) = f (λ) para todo λ ∈ σ (A). La definici´n es buena, porque
                                                                        o
si Q ∈ C[x] cumple lo mismo que P , entonces, por el Corolario 1.7.2,

               σ (P (A) − Q(A)) = σ ( (P − Q)(A)) = (P − Q)(σ (A) ) = {0},

y esto, dado que P (A) − Q(A) es normal, implica que P (A) = Q(A).

Observaci´n 6.1.2. Sean I ⊆ R un intervalo, f : I → C una funci´n y A ∈ HI (n). Es f´cil
            o                                                         o             a
ver que, si A es diagonl, es decir A = diag (x) para cierto x ∈ I n ⊆ Rn , entonces

                                    f (A) = diag (f (x) ) .

Y de esto puede deducirse que, si B ∈ HI (n) y U ∈ U(n) son tales que

                 B = U diag (µ(B)) U ∗ =⇒ f (B) = U diag (f (µ(B) ) ) U ∗ .
110                                            Funciones mon´tonas y convexas de operadores
                                                            o




Otra manera de ver este c´lculo es la siguiente: Sea σ (A) = {λ1 , . . . , λk } (sin repetici´n).
                               a                                                             o
Llamemos Si = ker(A − λi I), y Pi a los proyectores ortogonales sobre Si , para i ∈ Ik .
Luego P = {P1 , . . . , Pk } es un sistema de proyectores en H(n) (o sea que son autoadjuntos,
ortogonales 2 a 2 y que suman I) que verifica que
                     k                                                    k
               A=         λi Pi .       Entonces se tiene que   f (A) =         f (λi ) Pi .       (6.1)
                    i=1                                                   i=1

Por otra parte, notar que este c´lculo no est´ bien definido en matrices que nos son autoadjun-
                                a            a
                                                               0 1
tas (en realidad, si no son normales). Por ejemplo, si A =           , entonces los polinomios
                                                               0 0
P (t) = t y Q(t) = t2 coinciden en σ (A) = {0}, pero P (A) = A mientras que Q(A) = 0.
Ejercicios 6.1.3. Verificar que el c´lculo funcional cumple las siguientes propiedades: Sean
                                     a
I ⊆ R un intervalo, f, g : I → C dos funciones y A ∈ HI (n). Entonces
  1. (f ± g)(A) = f (A) ± g(A) y f g(A) = f (A)g(A).
  2. σ (f (A) ) = {f (λ) : λ ∈ σ (A)}. M´s a´n, µ(f (A) ) = f (µ(A) )↓ .
                                        a u
  3. f (A) siempre es una matrix normal.
  4. f (t) ∈ R para todo t ∈ I si y s´lo si f (A) ∈ H(n) para toda A ∈ HI (n).
                                     o
  5. f (B) ≥ 0 para toda B ∈ HI (n) si y s´lo si f (t) ≥ 0 para todo t ∈ I.
                                          o
  6. Si U ∈ U(n), entonces f (U AU ∗ ) = U f (A)U ∗ .
  7. Si la matriz de A en alguna BON tiene la forma
                             B      0                                 f (B)    0
                    A=                     ,     entonces   f (A) =                            .
                             0      C                                    0  f (C)

  8. Si una sucesi´n (fm )m∈N de funciones definidas en I convergen puntualmente a f ,
                  o
     entonces fm (B) − − → f (B) para toda B ∈ HI (n).
                      −−
                          m→∞

  9. Si tiene sentido la composici´n h ◦ f , entonces g ◦ f (A) = h(f (A) ).
                                  o
Ejemplos 6.1.4.
  1. Si f : R∗ → R esta dada por f (t) = t−1 , entonces f (A) = A−1 para toda A ∈ Gl (n)+ .
             +
                                                                     √
  2. Si A ∈ Mn (C)+ , entonces A1/2 = f (A), donde I = R+ , f (t) = t y A1/2 es la unica
                                                                                      ´
     raiz cuadrada positiva de A definida en la Proposici´n 3.1.3.
                                                          o
                                                      ∞
                                                         Am
  3. Si A ∈ H(n), entonces eA := exp(A) =                   .
                                                     m=0
                                                         m!

  4. Si A ∈ Gl (n)+ , entonces existe B = log A, que es la unica matriz autoadjunta que
                                                             ´
     verifica la f´rmula eB = A. En efecto, B = log A est´ bien definida, y cumple que
                 o                                          a
     eB = A por 9 del Ejercicio 6.1.3. La unicidad se deduce de la f´rmula (6.1).
                                                                    o
6.1 C´lculo funcional
     a                                                                                  111




6.1.1   Continuidad del c´lculo funcional
                         a
Proposici´n 6.1.5. Sea I un intervalo y f : I → R una funci´n. Entonces
         o                                                 o

  1. HI (n) es un subconjunto convexo de H(n).
  2. Si I es es un intervalo abierto, entonces HI (n) es abierto en H(n).
  3. Si ε > 0 y g : I → R es otra funci´n tal que
                                       o
                             f −g   I, ∞   := sup |f (t) − g(t)| : t ∈ I < ε ,
     entonces f (A) − g(A) < ε para toda A ∈ HI (n).
  4. Si f es continua, dada una sucesi´n (Am )m∈N en HI (n) tal que Am − − → A ∈ HI (n),
                                      o                                 −−
                                                                                  m→∞
     se tiene que f (Am ) − − → f (A).
                           −−
                            m→∞

Demostraci´n.
          o

  1. Sean A, B ∈ HI (n). Dado λ ∈ [0, 1], el Teorema 5.1.6 asegura que
                       x = µ λA + (1 − λ)B           λµ(A) + (1 − λ)µ(B) = y .
     Por lo tanto xi ∈ [yn , y1 ] ⊆ I (porque I es convexo), para todo i ∈ In .
  2. Sea A ∈ HI (n), y sea ε > 0 tal que (µn (A) − ε , µ1 (A) + ε) ⊆ I. Si B ∈ H(n) y
      A − B < ε, entonces, para todo x ∈ Cn con x = 1, se tiene que
                                                                      2
                               Ax, x − Bx, x ≤ A − B              x       <ε.
     Luego, por el Teorema 2.3.1, deducimos que
                         µn (A) − ε < µn (B)         y    µ1 (B) < µ1 (A) + ε ,
     por lo que σ (B) ⊆ I.
  3. Notar que σ (f (A) − g(A)) = (f − g) σ (A) y f (A) − g(A) = ρ(f (A) − g(A) ).
  4. Sea (a, b) ⊆ R un intervalo abierto tal que
                                  σ (A) ⊆ (a, b) ∩ I ⊆ [a , b ] = J ⊆ I .
     Por el item 2, existe m0 ∈ N tal que Am ∈ H(a,b) (n) ∩ HI (n) ⊆ HJ (n), para todo
     m ≥ m0 . Por el teorema de Weierstrass (en el intervalo cerrado J), dado ε > 0, existe
     P ∈ C[x] tal que f − P J, ∞ < ε . Entonces, por el item 3, si m ≥ m0 ,

          f (A) − f (Am )    ≤ f (A) − P (A) + P (A) − P (Am ) + P (Am ) − f (Am )

                             < 2 ε + P (A) − P (Am ) − − → 2 ε ,
                                                      −−
                                                            m→∞

     porque el resultado es claro para polinomios. Luego f (A) − f (Am ) − − → 0.
                                                                          −−
                                                                                  m→∞
112                                    Funciones mon´tonas y convexas de operadores
                                                    o




Observaci´n 6.1.6. El item 1 de la Proposici´n 6.1.5 se puede generalizar de la siguiente
          o                                   o
forma: Dado un conjunto abierto V ⊆ C, el conjunto

                          Mn (C)V = { A ∈ Mn (C) : σ (A) ⊆ V }

es abierto. M´s a´n, el mismo resultado es cierto cambiando Mn (C) por L(H), para cualquier
             a u
espacio de Hilbert H, a´n con dimesi´n infinita. La demostraci´n se deja como ejercicio.
                        u            o                       o

Observaci´n 6.1.7. La noci´n de c´lculo funcional para autoadjuntos que hemos presentado,
           o                 o       a
es una traducci´n al caso matricial del c´lculo funcional continuo para operadores autoadjun-
               o                         a
tos en espacios de Hilbert. Las unicas diferencias en el caso general son:
                                ´

  1. Las funciones a evaluar deben ser continuas.

  2. No existen, en general, polinomios que coincidan con una f dada en todo el espectro
     del operador elegido (o del intervalo I), por lo que se usa el teorema de Weierstrass para
     definir f (A) (la buena definici´n se prueba como en el item 2 de la Proposici´n 6.1.5).
                                    o                                                o

  3. La convergencia util entre funciones no es la puntual, sino la uniforme en compactos
                      ´
     (notar que coinciden en conjuntos finitos).

Todos los dem´s resultados y ejercicios presentados en esta secci´n (salvo las menciones es-
               a                                                  o
pec´
   ıficas de vectores de autovalores, como la Observaci´n 6.1.2) son ciertos en el caso general,
                                                       o
con las mismas pruebas, luego de adaptarlas m´ ınimamente a operadores en espacios de Hilbert.
La unica que necesita m´s cuidado es la identidad σ (f (A)) = f (σ (A)), que es f´cil para poli-
   ´                     a                                                       a
nomios, pero requiere argumentos especiales para funciones continuas en general. Tambi´n     e
son ciertos en general los resultados de las pr´ximas dos secciones, dado que las nociones de
                                               o
monoton´ y convexidad de operadores se reducen al caso de matrices (siempre que valga para
         ıa
matrices de cualquier tama˜o).
                            n


6.1.2    Diferenciabilidad del c´lculo funcional
                                a
En la Proposici´n 6.1.5 hemos visto que, si I un intervalo y f : I → R una funci´n continua,
                o                                                                   o
entonces la aplicaci´n f : HI (n) → H(n) dada por A → f (A), A ∈ HI (n), es tambi´n continua.
                    o                                                               e
En caso de que I sea abierto y que f sea de clase C 1 , veremos que f es diferenciable, y
mostraremos c´mo calcular sus derivadas direccionales. Sin embargo, como una demostraci´n
               o                                                                               o
completa de estos resultados necesita un desarrollo anal´
                                                        ıtico bastante extenso, solo daremos los
enunciados y un esbozo de las demostraciones, dejando ciertos pasos t´cnicos sin demostrar.
                                                                         e
Para una prueba completa de los resultados de esta secci´n, remitimos al Cap´
                                                          o                     ıtulo V del libro
de Bhatia [3].
    Daremos adem´s un resultado probado por Daleki˘ y Kre˘ [23], [24] (ver tambi´n [8] o
                    a                                 ıi      ın                    e
[3]), el cual provee una herramienta importante para derivar curvas de matrices producidas
con el c´lculo funcinal, que puede interpretarse como una especie de regla de la cadena.
          a
M´s adelante, este resultado nos permitir´ encontrar una caracterizaci´n de las denominadas
  a                                      a                            o
funciones mon´tonas de operadores. Para simplificar su enuciado usaremos el producto de
                o
6.1 C´lculo funcional
     a                                                                                    113




Hadamard o de Schur de matrices, el cual ser´ estudiado con m´s detalle en el Cap´
                                              a                 a                  ıtulo 8.
Recordar (de la Secci´n 3.5) que, dadas A, B ∈ Mn,m (C), se define el producto de Hadamard
                     o
A ◦ B como la matriz A ◦ B = aij bij i∈I ∈ Mn,m (C) .
                                              n
                                           j∈Im



Definici´n 6.1.8. Sea I un intervalo abierto de R y f : I → R una funci´n de clase C 1 .
       o                                                              o

  1. Denotaremos por f [1] a la funci´n definida sobre I × I dada por
                                     o
                                         
                                          f (y) − f (x) si x = y
                                          y−x
                                         
                              [1]
                            f (x, y) =                             .
                                         
                                         
                                          f (x)         si x = y

     A esta funci´n se la denomina primera diferencia dividida de f .
                 o

  2. Si D = diag (d1 , . . . , dn ) ∈ Mn (C) es una matriz diagonal, llamaremos

                             f [1] (D) =     f [1] (di , dj )   i,j∈In
                                                                         ∈ Mn (C) .


Notationes: Recordemos que, dada g : U ⊆ Rn → Rm (U abierto), se dice que g es
diferenciable en x0 ∈ U si existe una matriz Dgx0 ∈ Mmn (C) (llamada derivada o diferencial
de g en x0 , y que debe tener las derivadas parciales de g en sus columnas) que cumple

                           g(x0 + h) − g(x0 ) − Dgx0 · h
                                                                         −− 0 .
                                                                         −→             (6.2)
                                        h                                h→0


En tal caso se tiene que, para todo h ∈ Rn , la derivada direccional

                         ∂            d
                            g(x0 ) :=             g(x0 + th) = Dgx0 · h .
                         ∂h           dt    t=0

Observar que si I es un intervalo abierto, entonces HI (n) es abierto en H(n), que es un
R-espacio vectorial que identificaremos con un RM . Luego podemos aplicar las nociones
anteriores, pero reemplazando x0 y h por matrices adecuadas.

Teorema 6.1.9. Sean I ⊆ R un intervalo abierto y f : I → R una funci´n de clase C 1 .
                                                                       o
Entonces su extensi´n f : HI (n) → H(n) es diferenciable en todo punto A ∈ HI (n). Si
                   o
tomamos coordenadas en las que A sea diagonal, se tiene que

                    DfA (H) = f [1] A) ◦ H ,          para todo H ∈ H(n) .              (6.3)

Es decir que dados B ∈ HI (n) y U ∈ U(n) tales que A = U BU ∗ es diagonal, entonces

              DfB (H) = U ∗ f [1] A ◦ U HU ∗ U ,                 para todo H ∈ H(n) ,   (6.4)
114                                         Funciones mon´tonas y convexas de operadores
                                                         o




Demostraci´n. Mostremos el resultado, en principio, para funciones polin´micas. En este
           o                                                            o
contexto, por linealidad podemos asumir que f (x) = xm , para m ∈ N ∪ {0}. Observar que,
                            m
en tal caso, f [1] a, b =         ak−1 bm−k para todo a , b ∈ R (incluso si a = b). Adem´s,
                                                                                        a
                            k=1

                                                                                m
                       d                          d
           DfA (H) =               f (A + tH) =              (A + tH)m =              Ak−1 HAm−k .
                       dt    t=0                  dt   t=0
                                                                                k=1

Si ahora usamos que A = diag (a1 , . . . , an ), nos queda lo que quer´
                                                                      ıamos:
                       m                          m
         DfA (H) =          Ak−1 HAm−k =               ak−1 am−k Hij
                                                        i    j                        = f [1] A) ◦ H .
                                                                           i,j∈In
                      k=1                       k=1

Luego, si f es un polinomio y B ∈ HI (n) no es diagonal, uno puede diagonalizar a B con una
U ∈ U(n), derivar ah´ y desdiagonalizar. Usando que f (U (B + H)U ∗ ) = U f (B + H)U ∗ para
                     ı
todo H ∈ H(n) peque˜o (para que B + H ∈ HI (n) ), no es dif´ ver que
                       n                                      ıcil

            DfB (H) = U ∗ f [1] U BU ∗ ) ◦ U HU ∗ U ,                 para todo H ∈ H(n) .               (6.5)

por el m´todo directo de calcular el cociente incremental, como en la Eq. (6.2). En particular,
        e
el t´rmino de la derecha no depende de la U que diagonalice a B.
    e

Sea ahora f una funci´n de clase C 1 en I. Usando el teorema de Weierstrass se puede
                        o
construir una sucesi´n (Pm )m∈N de polinomios que aproximan uniformemente tanto a f como
                    o
a f en cualquier subintervalo cerrado prefijado de J. Es f´cil ver que Pm [1] A) − − → f [1] A).
                                                         a                       −−
                                                                                                m→∞
Fijemos ahora H ∈ H(n) peque˜o, y U ∈ U(n) tal que A = U BU ∗ es diagonal. Llamemos
                            n

                                   DfB (H) = U ∗ f [1] A) ◦ U HU ∗ U

(para ese U ∈ U(n) fijo), al cadidato a derivada. Hay que mostrar que el cociente incremental

                             f (B + H) − f (B) − DfB (H)              2
                                                                          −− 0.
                                                                          −→                             (6.6)
                                          H 2                             H→0


Esto probar´ que f es diferenciable en B, que su derivada DfB (H) = DfB (H) (o sea que
             ıa
(6.4) es cierta), que su f´rmula no depende del U elegido, y que se cumple la Eq. (6.3), para
                          o
el caso en que B ya era diagonal (tomando U = I).

La prueba de (6.6) es una ardua acotaci´n, de la que s´lo mostraremos sus ideas principales.
                                       o              o
Se hace intercalando t´rminos que involucran a los polinomios Pm . En efecto, si uno fija un
                      e
ε > 0, encuentra un m ∈ N tal que tres cantidades:

   •   f (B + H) − f (B) − (Pm (B + H) − Pm (B) )             2
                                                                  ,
   •   Pm (B + H) − Pm (B) − D(Pm )B (H)           2    y
6.2 Funciones mon´tonas de operadores
                 o                                                                       115




   • DfB (H) − D(Pm )B (H)     2


se pueden hacer menores que ε H 2 , siempre que H sea chico. Luego uno se olvida del m y
queda que el cociente de (6.6) es menor que 3ε para un tal H. Observar que la tercera vale a
partir de un m para todo H. La primera se puede hacer v´lida para todos los m grandes (y
                                                            a
para cualquier H tal que B + H ∈ HJ (n) ), por un argumento que depende del teorema del
valor medio y de la convergencia de las matrices Pm [1] A) (m´s bien de que sean una sucesi´n
                                                              a                            o
de Cauchy). Finalmente, la segunda es la que pide H chico, tama˜o que depende del m, pero
                                                                  n
este m se puede elegir de modo que se cumplan las otras dos.
Corolario 6.1.10 (Daleki˘ y Kre˘
                            ıi      ın). Sean I, J ⊆ R dos intervalos abiertos y consideremos
un curva de clase C 1 γ : I → HJ (n). Sea f : J → R otra funci´n de clase C 1 . Entonces
                                                              o

  1. La curva que llamaremos f • γ : I → H(n) dada por f • γ(t) = f γ(t) , v´ el c´lculo
                                                                            ıa    a
     funcional, es tambi´n de clase C 1 .
                        e
  2. Supongamos que γ(t0 ) = diag (a1 , . . . , an ) para cierto t0 ∈ I. Entonces se cumple la
     siguiente f´rmula:
                o
                             (f • γ) (t0 ) = f [1] γ(t0 ) ◦ γ (t0 ) .                    (6.7)

Demostraci´n. La suavidad de f • γ se deduce de la diferenciablidad de f : HJ (n) → H(n)
            o
(y de la la suavidad de γ). La regla de la cadena y la f´rmula (6.7) se deducen tambi´n del
                                                           o                         e
Teorema 6.1.9, puesto que (f • γ) (t0 ) = Dfγ(t0 ) γ (t0 ) = f [1] γ(t0 ) ◦ γ (t0 ).


6.2     Funciones mon´tonas de operadores
                     o
Definici´n 6.2.1. Sea I ⊆ R un intervalo y f : I → R, una funci´n. Diremos que f es
       o                                                          o
mon´tona de operadores (MOP) si, para todo n ∈ N y A, B ∈ HI (n), se tiene que
   o

                               A≤B          =⇒ f (A) ≤ f (B) .

Notar que, tomando n = 1, se ve que f debe ser mon´tona en el sentido usual.
                                                  o
Ejemplos 6.2.2.

  1. Dados a, b ∈ R, la funcion f (t) = a + bt es MOP si y s´lo si b ≥ 0.
                                                            o
  2. f (t) = t2 no es mon´tona de operadores (en ning´n intervalo I ⊆ [0, +∞) con m´s de
                         o                           u                              a
                                          1 1              2 1
     un punto). En efecto, tomando A =            yB=             , se ve que A ≤ B, pero
                                          1 1              1 1

                                        2    2       5   3
                               A2 =              ≤           = B2 .
                                        2    2       3   2
      El ejemplo se puede cambiar, de acuerdo al intervalo I, tomando C = aI + εA y D =
      aI + εB, para constantes a ∈ I◦ y ε > 0 convenientes. Notar que las entradas 2, 2 de
      C 2 y D2 siguen coincidiendo.
116                                            Funciones mon´tonas y convexas de operadores
                                                            o




  3. f (t) = −t−1 es MOP en I = (0, +∞). En efecto, si 0 < A ≤ B ∈ Mn (C)+ , entonces
     0 < B −1/2 AB −1/2 ≤ I. Luego µ1 (B −1/2 AB −1/2 ) ≤ 1, o sea
            µn ((B −1/2 AB −1/2 )−1 ) ≥ 1 =⇒ (B −1/2 AB −1/2 )−1 = B 1/2 A−1 B 1/2 ≥ I ,
      por lo que A−1 ≥ B −1 .
Ejercicio 6.2.3. Probar que

  1. La suma y la composici´n (cuando tenga sentido) de MOP´s es MOP.
                           o
                                      a   b
  2. Dada una matriz M =                        ∈ M2 (R), con d = 0, definamos la funci´n
                                                                                      o
                                      c   d
                                                     a + bt           −c
                                          fM (t) =          ,    t=      .
                                                     c + dt            d
      Entonces fM es MOP en ( −c , +∞) si y s´lo si det M ≤ 0. Notar que
                               d             o
                                                         b    det M
                                              fM (t) =     +           .
                                                         d   cd + d2 t
      Por lo tanto, si det M < 0, entonces fM es composici´n de MOP´s. Pero si fM fuera
                                                          o
      MOP y det M > 0, podr´ deducirse que t → 1/t es MOP.
                              ıa
Proposici´n 6.2.4. La funci´n f (t) = t1/2 es MOP en I = [0, +∞).
         o                 o

Demostraci´n. Sean A, B ∈ Mn (C)+ tales que A ≤ B. Supongamos, en principio, que B > 0.
           o
Entonces, por la Proposici´n 3.5.4,
                          o
 1 ≥ A1/2 B −1/2        sp   ≥ ρ(A1/2 B −1/2 ) = ρ(B −1/4 A1/2 B −1/4 ) =⇒ I ≥ B −1/4 A1/2 B −1/4 .
Por lo tanto B 1/2 ≥ A1/2 . Si B no es inversible, para cada ε > 0 se toma la matriz B +εI > 0.
                                                                puntualmente
Luego A1/2 ≤ (B + εI)1/2 para todo ε > 0. Como (t + ε)1/2 − − − − t1/2 = f (t),
                                                                 − − −→
                                                                             ε→0

         A1/2 x, x ≤            (B + εI)1/2 x, x − − B 1/2 x, x ,
                                                 −→                        para todo   x ∈ Cn .
                                                   ε→0

Deducimos que A1/2 ≤ B 1/2 .
Ejercicio 6.2.5. Rellenar los detalles de la siguiente prueba alternativa de la Proposici´n
                                                                                         o
6.2.4, que se basa en un resultado del Cap´ıtulo 9: Suponemos que 0 < A < B. Entonces
definimos la funci´n
                  o
           C : [0, 1] → Gl (n)+ ,         dada por        C(t) = A + t(B − A) , t ∈ [0, 1] .
                  1/2
Sea R(t) = C(t)         , t ∈ [0, 1]. Entonces
       R(t)2 = C(t)            =⇒     ˙              ˙      ˙
                                      R(t)R(t) + R(t)R(t) = C(t) = B − A > 0 , t ∈ [0, 1] ,
donde el punto denota derivada respecto de t. Por la Observaci´n 9.1.5, como R(t) > 0 y
                                                              o
 ˙            ˙                 ˙
C(t) = S(R, R) > 0, entonces, R(t) > 0 para todo t ∈ [0, 1]. Luego R es creciente y, en
particular, A1/2 = R(0) < R(1) = B 1/2 .
6.2 Funciones mon´tonas de operadores
                 o                                                                               117




Teorema 6.2.6. Las funciones f (t) = tr son MOP’s en I = [0, +∞), para todo r ∈ [0, 1].
En otras palabras, si 0 ≤ A ≤ B ∈ Mn (C)+ , entonces Ar ≤ B r para todo 0 ≤ r ≤ 1.

Demostraci´n. Supongamos, en principio, que 0 < A ≤ B ∈ Gl (n)+ y que r es di´dico,
            o                                                                     a
es decir que r = k/2m , para k ∈ I2m . En este caso probaremos, por inducci´n en m, que
                                                                           o
Ar ≤ B r . En efecto, si m = 1, ya lo sabemos por la Proposici´n 6.2.4.
                                                              o

Si suponemos el hecho cierto para todo n´mero j/2m , tomemos r = k/2m+1 . Si k ≤ 2m ,
                                          u
entonces k/2m ≤ 1. Por la hip´tesis inductiva y la Proposici´n 6.2.4, se tiene que
                             o                              o
                      m        m                         m                 m
                Ak/2 ≤ B k/2          =⇒ Ar = (Ak/2 )1/2 ≤ (B k/2 )1/2 = B r .

Si k > 2m , usaremos que B −1 ≤ A−1 . Por tanto, B r A−1 B r ≥ B r B −1 B r = B 2r−1 . Luego,
                   k − 2m
como 0 < 2r − 1 =         ≤ 1, por la hip´tesis inductiva tenemos que
                                         o
                     2m
        (A−1/2 B r A−1/2 )2 = A−1/2 B r A−1 B r A−1/2          ≥ A−1/2 B 2r−1 A−1/2

                                                               ≥ A−1/2 A2r−1 A−1/2 = A2(r−1) .

Aplicando la Proposici´n 6.2.4, deducimos que A−1/2 B r A−1/2 ≥ Ar−1 , y por ello B r ≥ Ar .
                      o

Si r no es di´dico, tomemos una sucesi´n de di´dicos rm − − → r. Como las funciones
             a                        o       a          −−
                                                                         m→∞
             puntualmente
fm (t) = trm − − − − f (t) = tr , deducimos que B r ≥ Ar , tambi´n en este caso.
              − − −→                                            e
               m→∞

                                  1            1
Finalmente, si A > 0, como (A + m I)r ≤ (B + m I)r para todo m ∈ N y la funci´n t → tr es
                                                                             o
continua, aplicando la Proposici´n 6.1.5 obtenemos que
                                o
                                          1     r                    1     r
                      Ar = lim     A+       I       ≤ lim       B+     I        = Br ,
                            m→∞           m          m→∞             m
lo que prueba la desigualdad en el caso general.
Lema 6.2.7. Sea A ∈ Gl (n)+ . Entonces

                                            Ah − I
                                        lim        = log A .
                                        h→0   h

Demostraci´n. Observar que, para todo t ∈ (0, +∞), se verifica que
          o

                                th − 1       eh        log t
                                                               −1
                             lim       = lim                        = log t .
                            h→0    h     h→0             h
                                     th − 1 puntualmente
Por lo tanto las funciones fh (t) =         − − − − g(t) = log t en todo (0, +∞). Aplicando
                                             − − −→
                                        h      h→0
el item 8 del Ejercicio 6.1.3, se culmina la prueba.
Proposici´n 6.2.8. La funci´n f (t) = log t es MOP en I = (0, +∞). En otras palabras,
         o                  o
dados A ≤ B ambos en Gl (n)+ , se tiene que log A ≤ log B.
118                                         Funciones mon´tonas y convexas de operadores
                                                         o




Demostraci´n. Se deduce del Lema 6.2.7. En efecto, tomando h con valores en (0, 1), por el
          o
Teorema 6.2.6 se tiene que

                                            Ah − I       Bh − I
                        log A = lim                ≤ lim        = log B .
                                     h→0+     h     h→0+   h
Para finalizar daremos una caracterizaci´n de las MOPs en terminos de la primera diferencia
                                       o
dividida de f , la cual puede interpretarse como an´logo matricial al resultado cl´sico de
                                                    a                                a
c´lculo que dice que una funci´n de una variable real derivable es no-decreciente si y s´lo si
 a                            o                                                         o
su derivada es no-negativa.

Teorema 6.2.9. Sea I un intervalo abierto de R, f : I → R una funci´n de clase C 1 .
                                                                   o
Entonces, las siguientes afirmaciones son equivalente:

  1. f es MOP.

  2. Para todo n ∈ N y toda matriz diagonal D ∈ HI (n), se tiene que f [1] (D) ∈ Mn (C)+ .

Demostraci´n. 1 → 2. Sea D = diag (d1 , . . . , dn ) ∈ HI (n). Recordemos que por medio
            o
de A ◦ B denotamos al producto de Hadamard, i.e., el producto entrada a entrada. Sea
En = 1n 1∗ ∈ Mn (C)+ . Respecto a este producto, En se comporta como la identidad. Sea
           n
γ : (−ε, ε) → H(n) dada por γ(t) = D + t En . Observar que para todo t ≥ 0 se tiene que
D + t En ≥ D. Por la Proposici´n 6.1.5, σ (D + t En ) ⊆ I para valores peque˜os de t. Luego,
                                o                                           n
para dichos valores de t, tiene sentido hacer f ◦ γ. M´s a´n, como f es de clase C 1 y γ es
                                                      a u
suave, podemos derivar la curva f ◦ γ, y por el Teorema 6.1.9 obtenemos

         d
            f (D + t En )         = DfD (En ) = f [1] (D) ◦ γ (0) = f [1] (D) ◦ En = f [1] (D) .
         dt                 t=0

Usando que En ∈ Mn (C)+ y que f es MOP, se tiene que el cociente incremental

               f (D + t En ) − f (D)
                                     ∈ Mn (C)+ ,            para todo t ∈ (−ε, ε) ,
                         t
                              ımite. Por ende, f [1] (D) ∈ Mn (C)+ .
lo cual se preserva al tomar l´

2 → 1. Sean A, B ∈ HI (n) tales que A ≤ B, y definamos la curva γ(t) = (1 − t)A + tB,
para t ∈ [0, 1]. Como HI (n) es convexo (Proposici´n 6.1.5), γ(t) ∈ HI (n) para todo t ∈ [0, 1].
                                                   o
Luego, la nueva curva η(t) = f (γ(t) ) est´ bien definida. El primer paso ser´ probar que
                                            a                                    a
para todo t ∈ (0, 1) se tiene que η (t) ∈ Mn (C)+ . Para ello, fijemos un t ∈ (0, 1) cualquiera.
Sin p´rdida de generalidad podemos suponer que γ(t) es diagonal (sino se conjuga con una
     e
unitaria). Luego, por el Corolario 6.1.10 se tiene que

                 η (t) = f [1] (γ(t) ) ◦ γ (t) = f [1] (γ(t) ) ◦ (B − A) ∈ Mn (C)+ ,

donde usamos que A ≤ B, que f [1] (γ(t) ) ∈ Mn (C)+ y luego el Teorema 2 de Schur 3.6.2
(producto ◦ de positivas es positiva). Ahora bien, fijemos x ∈ Cn . Por la linealidad de la
6.2 Funciones mon´tonas de operadores
                 o                                                                                            119




funci´n A → Ax, x se tiene que la funci´n g(t) = η(t)x, x es continua en el [0, 1], derivable
     o                                      o
en (0, 1). M´s a´n, g (t) = η (t)x, x para todo t ∈ (0, 1). Pero entonces, por lo que acabamos
            a u
de ver, g es creciente en el [0, 1]. En consecuencia

                              f (A)x, x = g(0) ≤ g(1) = f (B)x, x .

Como x ∈ Cn es arbitrario, f (A) ≤ f (B), lo cual concluye la demostraci´n.
                                                                        o

Para ilustrar como se utiliza esta caracterizaci´n para demostrar que una funci´n es mon´tona
                                                o                              o        o
de operadores, probaremos que la funci´n f (t) = tan(t) es MOP en el itervalo (−π, π). Para
                                         o
ello, necesitaremos un par de lemas previos.
Lema 6.2.10. Sea d = (d1 , . . . , dn ) ∈ Rn . Entonces la matricz

                            Ke (d) =             ei(dj −di )            ∈ Mn (C)+ .
                                                               i,j∈In


Demostraci´n. En efecto, si tomamos E = 1 1∗ ∈ Mn (C)+ (la matriz de cuyas entradas son
           o
todas iguales a 1) y U = diag eid1 , . . . , eidn , entonces Ke (d) = U ∗ EU ∈ Mn (C)+ .
Lema 6.2.11. Sea d = (d1 , . . . , dn ) ∈ Rn . Entonces la matriz

                                         sen(dj − di )
                         Ks (d) =                                         ∈ Mn (C)+ ,
                                           dj − di               i,j∈In

                                                                                             sen 0
donde, para abreviar notaciones, estamos aceptando la convenci´n de que
                                                              o                                0     = 1.

Demostraci´n. Este lema se deduce del anterior si recordamos la siguiente identidad, la cual
           o
puede testearse a mano muy facilmente:
                               π
               sen a    1
                     =             eiat dt         para todo a ∈ R (incluso si a = 0) .                       (6.8)
                 a     2π     −π

                                                                                         n
                                                                                             sen(dj − di )
En efecto, dado x = (x1 , . . . , xn ) ∈ Cn se tiene que Ks (d) x, x =                                     xi xj .
                                                                                       i,j=1
                                                                                               dj − di
Pero por la formula integral (6.8) y el lema anterior se tiene que
           n                                 π     n                              π
                sen(dj − di )
     2π                       xi xj =                   ei(dj −di )t xi xj dt =        Ke (d) x, x dt ≥ 0 .
          i,j=1
                  dj − di               −π i,j=1                                  −π


Proposici´n 6.2.12. La funci´n f (t) = tan(t) es MOP en I = (−π/2 , π/2).
         o                  o

Demostraci´n. Sea D = diag (d1 , . . . , dn ) ∈ HI (n) y la matriz de diferencias divididas
          o

                                        tan(dj ) − tan(di ) si d = d
                                       
                       [1]                                         i    j
                    tan (D)ij =                 dj − di                    .
                                             sec2 (di )        si di = dj
                                       
120                                          Funciones mon´tonas y convexas de operadores
                                                          o



                                               sen(x − y)
Usando la identidad tan(x) − tan(y) =                       se tiene que
                                              cos(x) cos(y)

                     1       sen(dj − di )        1
 tan[1] (D)ij =                                                    = sec(D) Ks (d) sec(D)∗ ∈ Mn (C)+ ,
                  cos(di )     dj − di         cos(dj )   i,j∈In

por el Lema 6.2.11. Con esta informaci´n, el Teorema 6.2.9 garantiza que f (t) = tan(t) es
                                      o
MOP en I = (−π, π).


6.3     Funciones convexas de operadores
Recordemos que la Proposici´n 6.1.5 asegura que, si I ⊆ R es un intervalo, HI (n) es comvexo.
                           o
Definici´n 6.3.1. Sea I ⊆ R un intervalo y f : I → R, una funci´n. Diremos que f es
        o                                                            o
convexa de operadores (∪OP) si, para todo n ∈ N, λ ∈ [0, 1] y A, B ∈ HI (n), se tiene

                        f λA + (1 − λ)B           ≤       λf (A) + (1 − λ)f (B) .                 (6.9)

Notar que, tomando n = 1, se ve que f debe ser convexa en el sentido usual. Diremos que f
es c´ncava de operadores (∩OP) si −f es ∪OP.
    o
Observaci´n 6.3.2. Si f : I → R es continua, para verificar que es convexa de operadores,
           o
es suficiente probar que
                                 A+B              f (A) + f (B)
                              f              ≤                  ,
                                   2                    2
para todo par A, B ∈ HI (n) (y todo n ∈ N). En efecto, esta condicion implica que f cumple
la Eq. (6.9) para todo λ di´dico en [0, 1]. Esto se prueba por inducci´n. Por ejemplo,
                           a                                          o

                                                                         A+B
                      1   3                   A+B
                                                       +B           f     2        + f (B)
                                               2
                  f     A+ B         =f                       ≤
                      4   4                        2                           2

                                         f (A)+f (B)
                                              2         + f (B)         1        3
                                     ≤                             =      f (A) + f (B) .
                                                    2                   4        4
Como f es continua, la Proposici´n 6.1.5 dice que (6.9) se cumple para todo λ ∈ [0, 1].
                                o
Ejemplos 6.3.3.

  1. Dados a, b ∈ R, se tiene que la funcion f (t) = a + bt es ∪OP (y ∩OP).
  2. f (t) = t2 s´ es ∪OP en [0, +∞). En efecto, dados A, B ∈ Mn (C)+ , se tiene que
                 ı

                  A2 + B 2   A+B          2       1 2                  1
                           −                  =     A + B 2 − AB − BA = (A − B)2 .
                     2        2                   4                    4
      Como f es continua, esto prueba que es ∪OP.
6.3 Funciones convexas de operadores                                                              121




  3. f (t) = t3 no es ∪OP en [0, +∞). En efecto, una cuenta elemental muestra que, si

            1   1                  3    1                    A3 + B 3   A+B       3       6   1
     A=                y     B=                 entonces              −               =             ,
            1   1                  1    1                       2        2                1   0

     que no es positiva. Tampoco puede ser ∪OP en ning´n intervalo I ⊆ [0, +∞).
                                                      u
  4. f (t) = t−1 es ∪OP en I = (0, +∞). En efecto, si A, B ∈ Gl (n)+ , entonces

      A−1 + B −1   A+B        −1       (A−1 − B −1 )(A−1 + B −1 )−1 (A−1 − B −1 )
                 −                 =                                              ∈ Mn (C)+ .
          2         2                                     2
     En efecto, esto se deduce de la identidad

                2(A + B)−1 = A−1 (A−1 + B −1 )−1 B −1 + B −1 (A−1 + B −1 )−1 A−1 .

     Como f es continua, lo que vimos muestra que es ∪OP.
Ejercicio 6.3.4. Probar que

  1. La suma y la composici´n (cuando tenga sentido) de ∪OP´s es ∪OP.
                           o
                               a   b
  2. Dada una matriz M =                 ∈ M2 (R), con d = 0, definamos la funci´n
                                                                               o
                               c   d

                                                a + bt          −c
                                   fM (t) =            ,   t=      .
                                                c + dt           d
     Entonces fM es ∪OP en I = ( −c , +∞) si y s´lo si det M ≥ 0 . Por otra parte, f es
                                   d              o
     ∩OP en I si y s´lo si f es MOP en I si y s´lo si det M ≤ 0 .
                    o                          o
  3. Sea I ⊆ R un intervalo tal que 0 ∈ I. Sean f (t) = |t| y g(t) = t ∨ 0, t ∈ I. Entonces f
     no es ∪OP y g no es ∪OP ni MOP.
Definici´n 6.3.5. Sean A ∈ Mn (C) y P ∈ H(n) un proyector con R(P ) = S. Llamaremos
        o
compresi´n de A a S, al operador
        o

                    AS : S → S     dado por       AS (x) = P A x ,     x∈S .

Notar que AS = P AP    S
                         pensado en L(S). En coordenadas de una BON de Cn tal que la
                                  I 0
matriz de P en esa base sea P =         , se tiene que
                                  0 0

                              AS   0                            AS      0
                    P AP =                  y     CP (A) =                    ,
                               0   0                             0     AS ⊥

donde las matrices (grandes) viven, ahora, en Mn (C).

Recordemos que, para cada k ∈ In , notamos Uk (n) = {U ∈ Mn,k (C) : U ∗ U = Ik }, es decir,
el espacio de isometr´ de Ck en Cn .
                     ıas
122                                           Funciones mon´tonas y convexas de operadores
                                                           o




Teorema 6.3.6. Sea I ⊆ R un intervalo y f : I → R, una funci´n. Son equivalentes:
                                                            o

  1. f es convexa de operadores.
  2. Para todo n ∈ N y para todo sistema de proyectores P en H(n), se tiene que
                           f CP (A) ≤ CP (f (A) )           para todo A ∈ HI (n) .

  3. Dados n ∈ N, A ∈ HI (n) y S ⊆ Cn un subespacio, se tiene que f (AS ) ≤ f (A)S .
  4. Dados k, n ∈ N tales que k ≤ n, A ∈ HI (n) y V ∈ Uk (n), se verifica que
                                              f (V ∗ AV ) ≤ V ∗ f (A)V .

Demostraci´n. Antes que nada, observar que CP (A) ⊆ HI (n) por la Proposici´n 5.4.4 (o la
           o                                                                   o
Eq. (6.10) de abajo) y el hecho de que HI (n) es convexo. De ahi se deduce que, si dim S = k,
entonces AS ∈ HI (k) y tiene sentido calcular f (AS ), incluso si 0 ∈ I.
                                                                    /

1 → 2. Como otras veces, por la Eq. (5.8), podemos suponer (s.p.g.) que trabajamos con un
solo proyector P ∈ H(n). Observar que, dado A ∈ HI (n), se tiene que
                                   A + U AU ∗
                       CP (A) =               ,        con U = 2P − I ∈ U(n) .                    (6.10)
                                       2
Por lo tanto, si asumimos que f es ∪OP, entonces
                              f (A) + f (U AU ∗ )   f (A) + U f (A)U ∗
             f CP (A) ≤                           =                    = CP f (A) .
                                      2                     2
2 → 3. Basta mirar los bloques 1, 1 de la desigualdad f CPS (A) ≤ CPS f (A) .

3 → 4. Llamemos S = R(V ) ⊆ Cn y P = PS . Entonces se tiene que V ∗ AV = V ∗ (P AP )V .
Por lo tanto, si denotamos V0 : Ck → S, al mismo V correstringido a su imagen, tenemos que
V0 es unitario y que V ∗ AV = V0∗ AS V0 ∈ HI (k). Adem´s
                                                      a
             f (V ∗ AV ) = f (V0∗ AS V0 ) = V0∗ f (AS )V0     y    V ∗ f (A)V = V0∗ f (A)S V0 ,
por lo que
                           f (V ∗ AV ) ≤ V ∗ f (A)V ⇐⇒ f (AS ) ≤ f (A)S .
                                                                             A    0
4 → 1. Dados A, B ∈ HI (n), consideremos el operador T =                               ∈ HI (2n). Dado
                                                                             0    B
                                          1
                                        λ In
                                          2
λ ∈ [0, 1], sean µ = 1 − λ y V =          1         ∈ Un (2n). Una cuenta directa pueba que
                                        µ 2 In
                   V ∗ T V = λA + µB          y que     V ∗ f (T )V = λf (A) + µf (B) ,
                          f (A)    0
usando que f (T ) =                       . Por todo ello, si f cumple 4, se tiene que
                             0  f (B)

                     f λA + µB = f (V ∗ T V ) ≤ V ∗ f (T )V = λf (A) + µf (B).
6.3 Funciones convexas de operadores                                                     123




Corolario 6.3.7. Sean A ∈ Gl (n)+ y P ∈ H(n), un proyector. Entonces

  1. CP (A) ∈ Gl (n)+ y CP (A)−1 ≤ CP (A−1 ).

  2. Si S = R(P ) entonces, AS −1 ≤ (A−1 )S . Es decir que, pensados como operadores en
     L(S), se tiene que
                                   (P AP )−1 ≤ P A−1 P.                          (6.11)

Demostraci´n. Se deduce de que Gl (n)+ = H(0,+∞) (n) y del Teorema 6.3.6, dado que t → t−1
          o
es ∪OP en (0, +∞), como se ha observado en el Ejemplo 6.3.3.4.

Observaci´n 6.3.8. Una versi´n m´s detallada de la desigualdad (6.11) se deduce de la
           o                 o    a
teor´ de complementos de Schur. En la Proposici´n 3.8.7 vimos que, si S = R(P ),
    ıa                                         o

                   a    b    S
            A=                  , =⇒ (A−1 )S −1 = (P A−1 P )−1 = a − bc−1 b∗ .
                   b∗   c    S⊥

En particular, tambi´n as´ se muestra que (P A−1 P )−1 ≤ a = AS .
                    e    ı

Proposici´n 6.3.9. Sea I ⊆ R un intervalo tal que 0 ∈ I y sea f : I → R, una funci´n.
          o                                                                       o
Entonces son equivalentes:

  1. f es convexa de operadores y f (0) ≤ 0.

  2. Dados n ∈ N, A ∈ HI (n) y P ∈ H(n), un proyector, se cumple que

                                      f (P AP ) ≤ P f (A)P ,

     pensados como matrices en Mn (C).

Demostraci´n. Como 0 ∈ I, es f´cil ver que P AP ∈ HI (n). Sea S = R(P ). Entonces, en
          o                   a
                                             I 0
coordenadas de una BON de Cn tal que P =          , se tiene que
                                             0 0

                            AS   0                      f (AS )     0
                P AP =               =⇒ f (P AP ) =                         .
                             0   0                         0    f (0)IS ⊥

Por otra parte, en la misma BON,

                                               f (A)S   0
                                 P f (A)P =                 .
                                                  0     0

Por lo tanto, las condiciones 1 y 2 son equivalentes, por serlo 1 y 3 del Teorema 6.3.6 (es
decir, que f (AS ) ≤ f (A)S para todo el mundo, equivale a que f sea ∪OP).

Ejercicio 6.3.10. Sea I ⊆ R un intervalo tal que 0 ∈ I y sea f : I → R, una funci´n. Entonces
                                                                                 o
son equivalentes:
124                                    Funciones mon´tonas y convexas de operadores
                                                    o




  1. f es convexa de operadores y f (0) ≤ 0.

  2. Dados n ∈ N, A ∈ HI (n), se cumple que

                                       f (C ∗ AC) ≤ C ∗ f (A)C.

      para todo C ∈ Mn (C) tal que C ≤ 1.

  3. Dados n ∈ N, A, B ∈ HI (n) y C, D ∈ Mn (C) tales que C ∗ C + D∗ D ≤ I, se verifica

                         f (C ∗ AC) + f (D∗ BD) ≤ C ∗ f (A)C + D∗ f (B)D.

Se sugiere usar las matrices unitarias construidas en 3.7.9.

Corolario 6.3.11. La funci´n f (t) = tr es ∪OP en I = [0, +∞), para todo r ∈ [1, 2].
                          o

Demostraci´n. Como f (0) = 0, por la Proposici´n 6.3.9, bastar´ probar que
          o                                   o               ıa

       (P AP )r ≤ P Ar P ,    ∀ n ∈ N , A ∈ Mn (C)+ y P un proyector en H(n) .

En efecto, como 0 ≤ P ≤ I, tenemos que 0 ≤ A1/2 P A1/2 ≤ A. Sea g(t) = tr−1 . Por el
Teorema 6.2.6, g es MOP (porque 0 ≤ r − 1 ≤ 1). Luego (A1/2 P A1/2 )r−1 ≤ Ar−1 , por lo que
                                     r−1
                P A1/2 A1/2 P A1/2         A1/2 P ≤ P A1/2 Ar−1 A1/2 P = P Ar P .

Finalmente, observar que para todo k ∈ N ∪ {0} se tiene que
                                                 k
                          P A1/2 A1/2 P A1/2         A1/2 P = (P AP )k+1 .

Por lo tanto, para todo polinomio Q ∈ C[x] vale la igualdad

                      P A1/2 Q A1/2 P A1/2 A1/2 P = Q(P AP ) P AP . ,

De ah´ deducimos que una igualdad similar valdr´ para toda f : [0, +∞) → R (eligiendo un
     ı                                         a
Q ∈ C[x] que coincida con f en σ A1/2 P A1/2 = σ (P AP ) ). En particular,

                                                        r−1
                     P Ar P ≥ P A1/2 A1/2 P A1/2              A1/2 P = (P AP )r .

Proposici´n 6.3.12. Sea f : [0, +∞) → [0, +∞) una funci´n continua. Entonces se tiene
          o                                             o
que f es MOP si y s´lo si f es ∩OP ( i.e., −f es ∪OP ).
                   o

Demostraci´n. Supongamos que f es MOP, y sea S ⊆ Cn un subespacio. Notemos P = PS .
           o
Como f (0) ≥ 0 por hip´tesis, usando la Proposici´n 6.3.9 bastar´ probar que
                      o                          o              ıa

                    P f (A)P ≤ f (P AP ) ,       para toda        A ∈ Mn (C)+ ,
6.3 Funciones convexas de operadores                                                                  125




                         ıamos deducir que −f es ∪OP. Para hacerlo, llamemos Q = I − P y
ya que, en tal caso, podr´
                              P Q                      A 0
tomemos las matrices U =               ∈ U(2n) y T =           ∈ M2n (C)+ . Como se vi´o
                              Q P                      0 0
en 3.7.10, para todo ε > 0 existe λ > 0 tal que
                                        P AP    P AQ           P AP + εI      0
                 UTU = UTU∗ =                             ≤                        .
                                        QAP     QAQ                0         λI
                                 f (A) 0                   f (A)    0
Como f (0) ≥ 0, se tiene que T =          ≤                                 = f (T ) . Reemplazando
                                    0  0                      0  f (0)I
T por T y usando que f es MOP, obtenemos que
   P f (A)P     P f (A)Q                                                  f (P AP + εI)    0
                            = U T U ∗ ≤ U f (T )U ∗ = f (U T U ∗ ) ≤                                   .
   Qf (A)P      Qf (A)Q                                                         0       f (λ)I
En particular, se cumple que P f (A)P ≤ f (P AP + εI) para todo ε > 0. Como f es continua,
por la Proposici´n 6.1.5 se tiene que P f (A)P ≤ f (P AP ), como necesit´bamos.
                o                                                       a
                  ıproca, tomemos A ≤ B ambos en Mn (C)+ .
Para probar la rec´
                                                                             λ
              Dado λ ∈ (0, 1), podemos escribir        λB = λA + (1 − λ)        (B − A) .
                                                                            1−λ
Si f es c´ncava (y con valores positivos), esto nos da que
         o
                                       λ
     f (λB) ≥ λf (A) + (1 − λ)f           (B − A) ≥ λf (A) ,           para todo       λ ∈ (0, 1) .
                                      1−λ
Tomando λ → 1− , del hecho de que f es continua podemos deducir que f (B) ≥ f (A).
Corolario 6.3.13. Sea f (t) = tr , definida en I = [0, +∞). Si r > 1, f no es MOP.
Demostraci´n. Si lo fuera, deber´ ser ∩OP. Pero, como funci´n escalar, es convexa.
          o                     ıa                         o
Corolario 6.3.14.
  1. Las funciones t → tr , para r ∈ (0, 1), son ∩OP en [0, +∞).
  2. f (t) = log t es ∩OP en (0, +∞).
Demostraci´n. La primera parte se deduce de los Teoremas 6.2.6 y 6.3.12. Para probar la
           o
concavidad de operadores del logaritmo, fijemos un subespacio S de Cn . Dada A ∈ Gl (n)+ ,
por lo anterior sabemos que
                                   (Ar )S ≤ (AS )r ,    r ∈ (0, 1) .
Luego, por el Lema 6.2.7,
                                         (AS )r − IS              (Ar )S − IS
                    log(AS )   =     lim+              ≥     lim+
                                    r→0       r             r→0        r
                                          Ar − I n
                               =      lim              = (log A)S .
                                     r→0+     r      S
Por el Teorema 6.3.6, deducimos que log es ∩OP.
126                                     Funciones mon´tonas y convexas de operadores
                                                     o




Observaci´n 6.3.15. El Teorema 6.3.6 da un criterio heur´
           o                                                 ıstico para dilucidar qu´ funciones
                                                                                     e
crecientes pueden ser MOP’s: por lo menos deber´ ser c´ncavas de n´meros. Esto es
                                                      ıan        o             u
coherente con los ejemplos: tr para r ≤ 1, −t−1 , log t son todas c´ncavas.
                                                                    o
    Sin embargo hay que tener mucho cuidado. Porque el Teorema 6.3.6 pide que la f , adem´s  a
de tomar valores positivos, debe estar definida en toda la semirrecta [0, +∞), incluido el cero,
y hasta el infinito. Esto se ve claramente mirando bien la prueba, porque uno hace tender ε
a cero, por lo que λ se va a infinito, y uno necesita poder tomar f (λ). Y para demostrar la
implicaci´n MOP =⇒ ∩OP, se usa tambi´n que exista f (0). (ejercicio: probar ∩OP =⇒
         o                                  e
MOP para f no definida en 0. Ojo con B − A). Por ello el Teorema no se puede aplicar
directamente a los ejemplos −t−1 y log t (para ver que log t es ∩OP hizo falta el razonamiento
de reci´n, pasando por tr ).
       e
    Pero la cosa es m´s grave si el dominio de f se termina antes del infinito. Ah´ el criterio
                      a                                                          ı
heur´ıstico (que los autores difund´ıamos muy confiados hasta que fuimos despabilados por
unos alumnos despiertos) es directamente err´neo. Para convencerse, basta recordar (de la
                                              o
Proposici´n 6.2.12) que la funci´n f : [0, π/2) → [0, +∞) dada por f (t) = tan t es MOP,
           o                     o
siendo a la vez convexa como funci´n num´rica en esa mitad de su dominio.
                                      o     e


6.4     Ejercicios
Ejercicios que aparecen en el texto
6.4.1. Verificar que el c´lculo funcional cumple las siguientes propiedades: Sean I ⊆ R un
                          a
intervalo, f, g : I → C dos funciones y A ∈ HI (n). Entonces

  1. (f ± g)(A) = f (A) ± g(A) y f g(A) = f (A)g(A).
  2. σ (f (A) ) = {f (λ) : λ ∈ σ (A)}. M´s a´n, µ(f (A) ) = f (µ(A) )↓ .
                                        a u
  3. f (A) siempre es una matrix normal.
  4. f (t) ∈ R para todo t ∈ I si y s´lo si f (A) ∈ H(n) para toda A ∈ HI (n).
                                     o
  5. f (B) ≥ 0 para toda B ∈ HI (n) si y s´lo si f (t) ≥ 0 para todo t ∈ I.
                                          o
  6. Si U ∈ U(n), entonces f (U AU ∗ ) = U f (A)U ∗ .
  7. Si la matriz de A en alguna BON tiene la forma

                           B   0                                  f (B)    0
                   A=               ,     entonces      f (A) =                  .
                           0   C                                     0  f (C)

  8. Si una sucesi´n (fm )m∈N de funciones definidas en I convergen puntualmente a f ,
                  o
     entonces fm (B) − − → f (B) para toda B ∈ HI (n).
                      −−
                       m→∞

  9. Si tiene sentido la composici´n h ◦ f , entonces g ◦ f (A) = h(f (A) ).
                                  o
6.4 Ejercicios                                                                             127




6.4.2. Probar las siguientes afirmaciones.

  1. Si f : R∗ → R esta dada por f (t) = t−1 , entonces f (A) = A−1 para toda A ∈ Gl (n)+ .
             +

                                                                     √
  2. Si A ∈ Mn (C)+ , entonces A1/2 = f (A), donde I = R+ , f (t) = t y A1/2 es la unica
                                                                                      ´
     raiz cuadrada positiva de A definida en la Proposici´n 3.1.3.
                                                          o
                                                   ∞
                               A                      Am
  3. Si A ∈ H(n), entonces e := exp(A) =                 .
                                                  m=0
                                                      m!

  4. Si A ∈ Gl (n)+ , entonces existe B = log A, que es la unica matriz autoadjunta que
                                                           ´
     verifica la f´rmula eB = A.
                 o
6.4.3. Completar los detalles de la demostraci´n del Teorema 6.1.9. En particular, con las
                                               o
notaciones de all´ mostrar que dado ε > 0, existe m0 ∈ N tal que, para todo m ≥ m0 ,
                 ı,

                    f (B + H) − f (B) − (Pm (B + H) − Pm (B) )           2
                                                                             ≤ε H   2


para todo H ∈ H(n) tal que B + H ∈ HJ (n) . Se sugiere acotar el incremento de la funci´n
                                                                                       o
Pk − Pm usando su diferencial en un punto intermedio del segmento entre B y B + H, y que
esas diferenciales convergen uniformemente a cero.
6.4.4. Probar que

  1. La suma y la composici´n (cuando tenga sentido) de MOP´s es MOP.
                           o
                                   a   b
  2. Dada una matriz M =                   ∈ M2 (R), con d = 0, definamos la funci´n
                                                                                 o
                                   c   d
                                                  a + bt          −c
                                       fM (t) =          ,   t=      .
                                                  c + dt           d
     Entonces fM es MOP en ( −c , +∞) si y s´lo si det M ≤ 0.
                              d             o
6.4.5. Sea γ : [a, b] → H(n) una curva suave tal que γ(t) ∈ Mn (C)+ para todo t ∈ (a, b).
                                                       ˙
Probar que γ es creciente, en el sentido de que t ≤ s =⇒ γ(t) ≤ γ(s), en el orden de H(n).
En particular, deducir que γ(a) ≤ γ(b). Se suguiere chusmear el Teorema 6.2.9.
6.4.6. Rellenar los detalles de la siguiente prueba alternativa de la Proposici´n 6.2.4:
                                                                               o
Supongamos que A < B, ambos en Gl (n)+ . Entonces definimos la funci´n    o

            C : [0, 1] → Gl (n)+ ,     dada por      C(t) = A + t(B − A) , t ∈ [0, 1] .

Sea R(t) = C(t)1/2 , t ∈ [0, 1]. Entonces

       R(t)2 = C(t)      =⇒      ˙              ˙      ˙
                                 R(t)R(t) + R(t)R(t) = C(t) = B − A > 0 , t ∈ [0, 1] ,

donde el punto denota derivada respecto de t. Por la Observaci´n 9.1.5, como R(t) > 0 y
                                                              o
 ˙            ˙                 ˙
C(t) = S(R, R) > 0, entonces, R(t) > 0 para todo t ∈ [0, 1]. Luego R es creciente y, en
particular, A1/2 = R(0) < R(1) = B 1/2 .
128                                     Funciones mon´tonas y convexas de operadores
                                                     o




6.4.7. Probar que

  1. La suma y la composici´n (cuando tenga sentido) de ∪OP´s es ∪OP.
                           o

                                a   b
  2. Dada una matriz M =                 ∈ M2 (R), con d = 0, definamos la funci´n
                                                                               o
                                c   d

                                               a + bt          −c
                                    fM (t) =          ,   t=      .
                                               c + dt           d

      Entonces fM es ∪OP en I = ( −c , +∞) si y s´lo si det M ≥ 0 . Por otra parte, f es
                                    d              o
      ∩OP en I si y s´lo si f es MOP en I si y s´lo si det M ≤ 0 .
                     o                          o

  3. Sea I ⊆ R un intervalo tal que 0 ∈ I. Sean f (t) = |t| y g(t) = t ∨ 0, t ∈ I. Entonces f
     no es ∪OP y g no es ∪OP ni MOP.

6.4.8. Sea I ⊆ R un intervalo tal que 0 ∈ I y sea f : I → R, una funci´n. Entonces son
                                                                      o
equivalentes:

  1. f es convexa de operadores y f (0) ≤ 0.

  2. Dados n ∈ N, A ∈ HI (n), se cumple que

                                        f (C ∗ AC) ≤ C ∗ f (A)C.                       (6.12)

      para todo C ∈ Mn (C) tal que C ≤ 1.

  3. Dados n ∈ N, A, B ∈ HI (n) y C, D ∈ Mn (C) tales que C ∗ C + D∗ D ≤ I, se verifica

                         f (C ∗ AC) + f (D∗ BD) ≤ C ∗ f (A)C + D∗ f (B)D.

Se sugiere usar las matrices unitarias construidas en 3.7.9.


Ejercicios nuevos
6.4.9. Mostrar que todas las definciones y propiedades del c´lculo funcional no necesitan que
                                                            a
el dominio de f sea un intervalo. En particular, verificar que si U ⊆ R es abierto, entonces

  1. HU (n) := {A ∈ H(n) : σ(A) ⊆ U } es abierto en H(n).

  2. Si f : U → R es C 1 , su extensi´n f : HU (n) → H(n) es diferenciable.
                                     o

  3. El Teorema 6.1.9 y el Corolario 6.1.10 siguen siendo v´lidos en este contexto.
                                                           a

6.4.10. Sea A ∈ H(n) y sea γ : (−1, 1) → H(n) una curva C 1 tal que γ(0) = A. Sea λ ∈ σ(A)
una raiz simple de PA (x), y sea x0 ∈ ker(A − λI) un autovector unitario. Probar que existe
un ε > 0 y una curva suave x : (−ε, ε) → Cn tal que
6.4 Ejercicios                                                                               129




  1. x(0) = x0 .
  2. x(t) es autovector de γ(t) para todo t ∈ (−ε, ε).
  3. La funci´n (−ε, ε)
             o            t → λ(t), que da el autovalor asociado a cada x(t), es suave.
  4. Todos los λ(t) son autovectores simples de γ(t).
                                                   −1
Mostrar, adem´s, que x(0) ≤ d (λ , σ(A)  {λ} )
             a       ˙                                   γ(0) · x0 .
                                                         ˙

Sugerencia: Tomar un abierto U ⊇ σ(A) que separe a λ del resto de σ(A), y definir all´ laı
funci´n f que vale uno cerca de λ y cero en el resto de U . Tomar g(t) = f (γ(t) ), para los
     o
t ∈ (−ε, ε) tales que γ(t) ∈ HU (n), observar que cada g(t) es un proyector autoadjunto de
rango uno (por el Corolario 2.3.8) y usar la Eq. (6.1) para ver qu´ proyector es. Definir
                                                                    e
entonces x(t) = g(t) · x0 . Para obtener λ(t), buscar una coordenada no nula de x0 y dividir
ah´ (o tomar λ(t) = tr g(t)γ(t) ). Para acotar la norma, diagonalizar adecuadamente a A y
  ı
luego usar el Corolario 6.1.10.
                       cos t − sen |t|                   1 + t2     0
6.4.11. Sean U (t) =                      y A(t) = U (t)                 U (t)∗ para t ∈ R.
                      sen |t|    cos t                     0     1 − t2
Mostrar que la curva A(t) es suave cerca de 0, pero como A(0) = I tiene multiplicidades, no
hay curvas suaves x(t) a valores en Rn que cumplan lo mismo que en el ejercicio anterior.

Ojo: La curva x(t) = U (t)e1 no es suave, pero hay que ver que no puede haber otra suave.
6.4.12. Sea I ⊆ R un intervalo tal que 0 ∈ I y sea f : I → R, una funci´n tal que f (0) ≤ 0.
                                                                       o
Entonces son equivalentes:

  1. f es convexa (a secas, no pedimos ∪OP).
  2. Dados n ∈ N y A ∈ HI (n), se cumple que

                                     f (C ∗ AC)    w   C ∗ f (A)C.

     para todo C ∈ Mn (C) tal que C      sp   ≤ 1. Comparar con la Eq. (6.12).

Sugerencia: Probar que si f es convexa entonces f       Ax, x        ≤ f (A)x, x para todo vector
unitario x y toda matriz A ∈ HI (n).
6.4.13. Sea I ⊆ R un intervalo tal que 0 ∈ I y sea f : I → R, una funci´n convexa creciente
                                                                       o
tal que f (0) ≤ 0. Dados n ∈ N y A ∈ HI (n), probar que para todo i ∈ In se verifica que

                              λi (f (C ∗ AC) ) ≤ λi (C ∗ f (A)C) .

donde C ∈ Mn (C) es una contracci´n. Dar un contraejemplo si la funci´n no es creciente.
                                 o                                   o
Sugerencia: Usar minimax.
6.4.14. Sea C ∈ Mn (C) una contracci´n y A ∈ Mn (C)+ . Demostrar que dados r, s ∈ R
                                          o
tales que 1 ≤ r ≤ s, entonces (C ∗ Ar C)1/r ≤ (C ∗ As C)1/s .
130                                       Funciones mon´tonas y convexas de operadores
                                                       o




6.4.15. Sea A, B ∈ Mn (C)+ , r ∈ (1, +∞) y α ∈ [0, 1]. Probar que
                                      1        1                1
                           (Ar + B r ) r ≥ α1− r A + (1 − α)1− r B .
                                                                                            1
Sugerencia: Analizar separadamente los casos α = 0 o 1 y α ∈ (0, 1). Usar que t → t r es
tanto MOP como ∩OP. Si no sale, chusmear el Lema 9.5.3.
6.4.16. Sean A, B ∈ Mn (C)+ . Probar que la funci´n
                                                 o
                                                               1
                                                    Ap + B p   p
                                [1 , +∞)     p −→
                                                       2

es creciente, relativa al orden ≤ de Mn (C)+ .
Sugerencia: Dados r, q ∈ [1 , +∞) tales que r < q, aplicar el ejercicio anterior para los n´meros
                                                                                           u
     q
r = r > 1 y α = 1 . Si no sale, chusmear la Proposici´n 9.5.6.
                   2                                    o
Cap´
   ıtulo 7

Productos tensoriales y
alternados

7.1     Producto tensorial de a dos
Comenzaremos fijando ciertas convenciones de notaci´n adecuadas para esta teor´
                                                  o                          ıa:

  1. Para cada n ∈ N, llamaremos Hn = Cn con el producto interno usual. Denotaremos
          (n)          (n)
     por e1 , . . . , en a los vectores de la base can´nica de Hn .
                                                      o

  2. Llamaremos Hn ⊗ Hk al espacio de funcionales F : Hn × Hk → C bilineales (i.e., lineales
     en cada coordenada), pensado como C-espacio vectorial de la forma natural.
                                                                 (n)   (k)
  3. Dada F ∈ Hn ⊗ Hk , le asociamos la matriz F = F (ei , ej ) ∈ Mn,k (C). Luego

                              n   k
                 F (x, y) =             xi yj Fij = xT F y ,       x ∈ Hn , y ∈ Hk .
                              i=1 j=1

      Esto muestra que podemos identificar naturalmente Hn ⊗ Hk con Mn,k (C).

  4. Esto permite, ademas, definir el producto interno natural en Hn ⊗ Hk . Dadas F, G ∈
     Hn ⊗ Hk , las identificamos con sus matrices en Mn,k (C), definimos

                               F, G = tr G∗ F =                  Fij Gij .             (7.1)
                                                  (i,j)∈In ×Ik


  5. Dados x ∈ Hn e y ∈ Hk , notaremos por x ⊗ y ∈ Hn ⊗ Hk , al llamado tensor elemental,
     dado por
                        x ⊗ y(u, v) = u, x v, y , u ∈ Hn , v ∈ Hk .                 (7.2)
132                                                         Productos tensoriales y alternados




      Observar que u, x v, y = xT u · y T v = uT xy T v. Por lo tanto, la matriz de x ⊗ y es
      xy T ∈ Mn,k (C) . Por lo tanto, no toda F ∈ Hn ⊗ Hk es elemental, pero s´ sucede que
                                                                                 ı
      toda F es suma de tensores elementales, porque las matrices del tipo xy T son todas las
      de rango uno. Observar que la aplicaci´n
                                            o

                                Hn × Hk          (x, y) −→ x ⊗ y ∈ Hn ⊗ Hk

      es bilineal. Adem´s, a partir de la Eq. (7.1), vemos la f´rmula
                       a                                       o

                 x ⊗ y , u ⊗ v = tr (uv T )∗ xy T = tr u∗ x · y T v = x, u · y, v ,               (7.3)

      para x, u ∈ Hn , y, v ∈ Hk .
  6. Se puede deducir que el conjunto
                       (n)      (k)
              En,k = {ei     ⊗ ej     : i ∈ In , j ∈ Ik } ∼ {Eij ∈ Mn,k (C) : i ∈ In , j ∈ Ik }

      es una base ortonormal de Hn ⊗ Hk , que llamaremos base can´nica. La consideraremos
                                                                 o
      ordenada alfab´ticamente (ley´ndola por f ilas).
                     e             e
  7. Dados A ∈ L(Hn ) y B ∈ L(Hk ), podemos definir el operador A ⊗ B ∈ L(Hn ⊗ Hk ), a
     trav´s de la f´rmula A ⊗ B(F ) = AF B T , para F ∈ Hn ⊗ Hk , pensado como una matriz
         e         o
     en Mn,k (C). En particular,

            A ⊗ B(x ⊗ y)       Axy T B T = (Ax) · (By)T         Ax ⊗ By , x ∈ Hn , y ∈ Hk .

      Observar que esta ecuaci´n no define a A ⊗ B en todos los elementos de Hn ⊗ Hk , pero
                               o
      s´ lo caracteriza completamente (por ser lineal).
       ı
  8. El producto tensorial de matrices verifica las siguientes propiedades:
       (a) Sean In ∈ Mn (C) y Ik ∈ Mk (C). Entonces In ⊗ Ik es la identidad de Hn ⊗ Hk .
      (b) (αA1 + A2 ) ⊗ B = α(A1 ⊗ B) + A2 ⊗ B, para todo α ∈ C.
       (c) (A ⊗ B)∗ = A∗ ⊗ B ∗ .
      (d) (A1 ⊗ B1 )(A2 ⊗ B2 ) = A1 A2 ⊗ B1 B2 .
       (e) Si existen A−1 y B −1 , entonces A−1 ⊗B −1 = (A⊗B)−1 . En particular, si A ∈ U(n)
           y B ∈ U(k), entonces A ⊗ B ∈ U(nk).
       (f) A ⊗ B ≥ 0 si A ≥ 0 y B ≥ 0. M´s a´n, |A ⊗ B| = |A| ⊗ |B|. Se usa el Teorema
                                              a u
           3.1.3 y la unicidad de la raiz cuadrada positiva.

Observaci´n 7.1.1. Dados A ∈ L(Hn ) y B ∈ L(Hk ), la matriz de A ⊗ B en la base can´nica
          o                                                                         o
de Hn ⊗ Hk (ordenada por filas) es el llamado producto de Kronecker de A y B que se define
como la matriz por bloques
                                                    
                                  a11 B . . . a1n B
                      A⊗B =
                                       . ..
                                        .          .  ∈ M (C) .
                                                   .                               (7.4)
                                        .    .     .       nk
                                         an1 B    ...   ann B
7.2 Potencias tensoriales                                                                                                 133




La verificaci´n es sumamente tediosa, pero podemos dar un esbozo: La base canonica de
            o
Hn ⊗ Hk se ordena as´
                    ı:
  (n)      (k)          (n)     (k)         (n)       (k)        (n)      (k)                      (k)                  (k)
 e1 ⊗ e1 , . . . , e1 ⊗ ek , e2 ⊗ e1 , . . . , e2 ⊗ ek , . . . . . . , en ⊗ e1 , . . . , e(n) ⊗ ek
                                                                        (n)
                                                                                          n                                   .
                        (n)     (k)
Luego, el vector ei ⊗ er se ubica en el lugar k(i − 1) + r de la base can´nica. Fijemos
                                                                              o
un par i, j ∈ In . Como el bloque de k × k ubicado en el jugar (i, j) involucra las filas entre
k(i − 1) + 1 y ki, y a las columnas k(j − 1) + 1 y kj, se escribe
                 (n)                  (n)                                (n)     (n)
        A ⊗ B(ej       ⊗ e(k) ) , ei
                          s                 ⊗ e(k)
                                               r                 =     Aej , ei        · Be(k) , e(k)
                                                                                           s      r      r,s∈Ik
                                                                                                                  = aij B ,
                                                        r,s∈Ik

como se afirmaba.
Proposici´n 7.1.2. Sean A ∈ Mn (C) y B ∈ Mm (C). Si los autovalores de A son la n-upla
               o
{λ1 , ..., λn }, y los de B son {µ1 , ..., µm }, entonces los autovalores de A ⊗ B son

                              { λ(i,j) }(i,j)∈In ×Im ,           donde          λ(i,j) = λi µj ,

todos contados con multiplicidad.

Demostraci´n. Aplicando el Teorema 1 de Schur 1.6.1, si A = U T1 U ∗ y B = V T2 V ∗ , con
           o
U, V unitarias y T1 , T2 triangulares superiores, entonces

                                      A ⊗ B = U ⊗ V · T1 ⊗ T2 · (U ⊗ V )∗ ,

por lo que σ (A ⊗ B) = σ (T1 ⊗ T2 ) (con multiplicidades). Por la representaci´n matricial de
                                                                              o
T1 ⊗ T2 como producto de Kronecker (que queda tambi´n triangular superior, pero con los
                                                         e
productos λi µj en su diagonal), se obtiene la igualdad anunciada.
Corolario 7.1.3. Sean A ∈ Mn (C) y B ∈ Mm (C).

  1. A ⊗ B       sp    = A    sp   · B      sp    .
  2. M´s a´n, los valores singulares de A ⊗ B son
      a u

                                            s(A ⊗ B) = { si (A)sj (B) }(i,j)∈In ×Im

        contados con multiplicidad, y ordenados en forma decreciente.

Demostraci´n. Se sigue de que |A ⊗ B| = |A| ⊗ |B| y de la Proposici´n 7.1.2.
          o                                                        o


7.2       Potencias tensoriales
Una cuenta muy engorrosa, aunque elemental, muestra que se tiene un isomorfismo natural
entre (Hn ⊗ Hk ) ⊗ Hr y Hn ⊗ (Hk ⊗ Hr ), identificando a ambos con las funciones trilineales
en Hn × Hk × Hr . La clave es observar que, dados x ∈ Hn , y ∈ Hk y z ∈ Hr , a los
134                                                                  Productos tensoriales y alternados




tensores elementales (x ⊗ y) ⊗ z & x ⊗ (y ⊗ z) se los puede identificar con la misma funcional
trilineal, por una f´rmula semejante a (7.2). Es decir, que el producto tensorial es asociativo.
                    o
Esto permite definir productos de varios espacios, sin necesidad de aclarar el orden en que
se los define. Lamentablemente, en ese contexto se pierde la representaci´n de las funciones
                                                                            o
multilineales como matrices, a menos que se quiera pensar en matrices de muchas dimensiones.
Usaremos particularmente la asociatividad para definir potencias, en el sentido tensorial, de
un mismo espacio Hn , y de operadores en Hn . Damos, a continuaci´n, el listado de notaciones
                                                                    o
y resultados que se siguen naturalmente (y que se prueban planarmente por inducci´n usando
                                                                                      o
lo anterior y la asociatividad):
7.2.1. Sean n, k ∈ N.
                        k
   1. Notaremos       Hn , llamado espacio k-tensorial sobre Hn , al producto tensorial de Hn
                                                   k
      por s´ mismo k veces. Los elementos de
           ı                                         Hn se pueden pensar como funcionales
                            k
      k-multilineales F : Hn → C.
   2. Dados x1 , · · · , xk ∈ Hn , se define el k-tensor elemental x1 ⊗ x2 · · · ⊗ xk por la f´rmula
                                                                                             o
                                                              k
                     x1 ⊗ · · · ⊗ xk (u1 , · · · , uk ) =           ui , xi ,   (u1 , · · · , uk ) ∈ Hk .
                                                                                                      n        (7.5)
                                                              i=1

                                            k
      Luego todo elemento de                    Hn es suma de k-tensores elementales.
                                                k
   3. El producto interno sobre     Hn , definido inductivamente en todo par de elementos
           k
      de     Hn , est´ determinado por el producto de k-tensores:
                     a
                                                                                   k
                                  x1 ⊗ x2 · · · ⊗ xk , y1 ⊗ y2 · · · ⊗ yk =             xi , yi ,              (7.6)
                                                                                  i=1

      para x1 , . . . , xk , y1 , . . . , yk ∈ Hn .
                                                                            k
   4. La aplicaci´n Hk
                 o   n             (x1 , . . . , xk ) → x1 ⊗ · · · ⊗ xk ∈       Hn es k-multilineal.
                                                      k
   5. La base can´nica ortonormal de
                 o                                        Hn es, por definici´n,
                                                                            o

                                 e(n) ⊗ e(n) ⊗ · · · ⊗ e(n) : α = (α1 , α2 , · · · , αk ) ∈ Ik .
                                  α1     α2             αk                                   n

                       k
      Luego dim             Hn = n k .
                                                                                        k           k          k
7.2.2. Todo operador A : Hm → Hn induce un operador de                                      A :         Hm →       Hn ,
llamado potencia k-tensorial de A, determinado por la f´rmula
                                                       o
                             k
                                  A (x1 ⊗ x2 · · · ⊗ xk ) = Ax1 ⊗ Ax2 ⊗ · · · ⊗ Axk ,                          (7.7)

para x1 , . . . , xk ∈ Hm . Se tienen las siguientes propiedades:
7.3 Productos alternados y determinantes                                                                                        135




 a. Dados A ∈ L(Hm , Hn ) y B ∈ L(Hn , Hr ),
                                                 k                    k         k
                                                      (AB) =              A·           B.                                       (7.8)

         k              k
 b. (        A)∗ =          A∗ .
                                           k                 k                                          k
  c. Si A ∈ Gl (n), entonces                   A−1 = (           A)−1 . En particular                        A es unitaria si A ∈
     U(n).
                                                 k
 d. Si A ∈ Mn (C)+ , entonces                        A ≥ 0, porque A = C ∗ C para alg´n C ∈ Mn (C), y
                                                                                     u
    ⊗k A = (⊗k C)∗ ⊗k C.
                                                                                   k              k
  e. M´s generalmente, si A ∈ Mn (C), se tiene que |
      a                                                                                A| =           |A|.

  f. Si los autovalores de A son λ1 , . . . , λn , los autovalores (resp. valores singulares) de
        k
          A son
                 k                                                         k
                     λij : (i1 , . . . , ik ) ∈ Ik
                                                 n           resp.              sij (A) : (i1 , . . . , ik ) ∈ Ik
                                                                                                                n           ,
               j=1                                                        j=1

      contados con multiplicidad. En particular se tiene que
                                       k                                       k
                                   ρ       A = ρ(A)k              y                    A   sp
                                                                                                = A     k
                                                                                                        sp   .


7.3      Productos alternados y determinantes
Sea Sk el grupo sim´trico de grado k, esto es el grupo de todas la permutaciones de Ik . Cada
                   e
                                       (n)         k
π ∈ Sk da lugar a un operador linear Pπ ∈ U(         Hn ), por la siguiente f´rmula: Si pensamos
                                                                             o
                     k
a los elementos de     Hn como funcionales k- multilineales F : Hk → C, se define
                                                                      n

     (n)
    Pπ (F ) (x1 , x2 , · · · , xk ) = F (xπ(1) , xπ(2) , · · · , xπ(k) ) ,                 (x1 , x2 , · · · , xk ) ∈ Hk .
                                                                                                                      n         (7.9)

Dados x1 , . . . , xk ∈ Hn , es f´cil ver, usando la f´rmula (7.5), que
                                 a                    o
                       (n)
                      Pπ (x1 ⊗ x2 · · · ⊗ xk ) = xπ−1 (1) ⊗ xπ−1 (2) · · · ⊗ xπ−1 (k) .                                     (7.10)

                                                       (n)
Observaci´n 7.3.1. El hecho de que Pπ sea unitario se puede probar mostrando primero
             o
        (n) ∗    (n)
que (Pπ ) = Pπ−1 (esto puede hacerse usando solo los k-tensores elementales). Despues,
                                 (n)     (n)
ah´ si por definici´n, se ve que Pπ−1 = (Pπ )−1 .
  ı               o

Definiremos a continuaci´n las nociones b´sicas de productos alternados
                       o                a
136                                                               Productos tensoriales y alternados




Definici´n 7.3.2. Sea n ∈ N y k ∈ In . Llamaremos espacio k-alternado (o k-´simo Grass-
       o                                                                  e
                                  k
mann) sobre Hn , al subespacio de   Hn dado por
                                  k
             Λk Hn =     F ∈                (n)
                                      Hn : Pπ F = sgn(π) F                para toda     π ∈ Sk      ,

donde sgn(π) = ±1 de acuerdo a si π es una permutaci´n par o impar. Los elementos de
                                                         o
Λk Hn se llaman k-tensores alternados. Se considera a Λk Hn como un espacio de Hilbert con
                         k
el producto interno de     Hn .
                                                                                            k
Observaci´n 7.3.3. Notaremos por Pn a la proyecci´n ortogonal de
            o                           k        o                                              Hn sobre Λk Hn .
Es f´cil ver que Pn est´ dada por la f´rmula
    a             k    a              o
                                              1
                                       Pn =
                                        k
                                                                   (n)
                                                           sgn(π) Pπ .                                    (7.11)
                                              k!
                                                   π∈ Sk

                            (n)          k                        (n)           (n)         (n)
En efecto, como cada Pπ ∈ U(       Hn ), entonces (Pπ )∗ = (Pπ )−1 = Pπ−1 . Por lo tanto
  n ∗
(Pk ) = Pk , ya que al adjuntarlo tan solo se reordena la suma (se usa sgn(π −1 ) = sgn(π) ).
           n

Por otro lado, como para todo par σ, π ∈ Sk se tiene que
                                                                   (n)   (n) (n)
                        sgn(σπ) = sgn(σ) sgn(π)             y     Pσπ = Pσ Pπ ,
podemos deducir que R(Pn ) ⊆ Λk Hn . Finalmente, es claro, a partir de la definici´n de
                           k                                                     o
Λk Hn , que Pn (F ) = F para toda F ∈ Λk Hn .
             k

Definici´n 7.3.4. Dados x1 , . . . , xk ∈ Hn , se define el k-tensor alternado elemental :
       o
                                                           1
      x1 ∧ x2 · · · ∧ xk := Pn (x1 ⊗ x2 . . . ⊗ xk ) =
                             k                                          sgn(π) xπ(1) ⊗ xπ(2) · · · ⊗ xπ(k) ,
                                                           k!
                                                                π∈ Sk

tambi´n llamado producto alternado de la k-upla ordenada x1 , x2 . . . , xk .
     e
Observaci´n 7.3.5. Enumeraremos aqu´ algunas propiedades de los k-tensores elementales:
         o                         ı
                                               k                                                          k
  1. Notar que, como Λk Hn = Pn k      Hn , y los k-tensores elementales generan                               Hn ,
     podemos asegurar que los k-tensores alternados elementales generan Λk Hn .
  2. Usando el ´ ıtem 5 de 7.2.1 y el hecho de que Pn es lineal, podemos deducir que la
                                                               k
     aplicaci´n (x1 , . . . , xk ) → x1 ∧ · · · ∧ xk es k-multilineal.
             o
  3. Por otra parte, dados x1 , x2 . . . , xk ∈ Hn y π ∈ Sk , se sigue de las definiciones que
                           xπ(1) ∧ xπ(2) ∧ · · · ∧ xπ(k) = sgn(π) x1 ∧ x2 · · · ∧ xk .                    (7.12)
       En resumen, (x1 , . . . , xk ) → x1 ∧ · · · ∧ xk es una aplicaci´n k-multilineal alternada.
                                                                       o
  4. De la f´rmula (7.12) puede deducirse que, si existen xi = xj con i = j, entonces
               o
     x1 ∧ · · · ∧ xk = 0 (usando la transposici´n τ = (i, j) ∈ Sk , cuyo sgn(τ ) = −1).
                                               o
  5. M´s a´n, esto implica que si el conjunto {x1 , . . . , xk } es linealmente dependiente, su
       a u
     produco alternado debe ser nulo. xEsto se usar´ en la subsecci´n siguiente.
                                                    a                   o
7.3 Productos alternados y determinantes                                                    137




Productos alternados y el determinante
En los cap´
          ıtulos anteriores se hizo uso libre de la funci´n determinante
                                                         o

                                 Mn (C)        A → det A ∈ C ,

y de sus conocidas propiedades. Dar una exposici´n completa y formal de dichos resultados
                                                   o
es algo que uno siempre trata de evitar, porque es un asunto complicado y poco amigable. Sin
embargo, con la teor´ de productos alternados a mano, esto est´ bastante cerca, por lo que
                     ıa                                         a
trataremos de dar las dos definiciones usuales, mostrar su equivalencia, y dar pruebas de sus
propiedades m´s importantes. Por lo tanto, en esta secci´n supondremos que nos olvidamos lo
              a                                          o
que sabemos (y hemos usado) al respecto. Empecemos por una de las definiciones. Asumimos
conocida cierta teor´ b´sica de grupos de permutaciones, como hemos hecho hasta ahora.
                    ıa a
Definici´n 7.3.6. Sea A = (aij )i,j∈In ∈ Mn (C). Definimos su determinante por la f´rmula
       o                                                                         o
                                                       n
                           det A =            sgn(σ)         aj,σ(j) ∈ C .                (7.13)
                                      σ∈ Sn            j=1

Con la misma f´rmula se define el determinante de matrices a coeficientes en cualquier anillo
              o
(como en C[X], lo que se usa para definir el polinomio caracter´
                                                              ıstico de una matriz).


7.3.7. A continuaci´n enumeraremos una serie de propiedades que se siguen f´cilmente de
                    o                                                         a
esta definici´n del determinante. Las pruebas que no est´n escritas deben considerarse como
             o                                         e
ejercicios: Sea A ∈ Mn (C).

  1. det AT = det A y det A∗ = det A. Ac´ se usa solamente que sgn(σ −1 ) = sgn(σ).
                                        a
                                     n
  2. det I = 1, ya que el sumando          Ij,σ(j) = 0 para toda σ = Id.
                                     j=1

  3. Si todas las diagonales de A tienen alg´n cero (en el sentido de la Definici´n 4.3.2),
                                            u                                   o
     entonces det A = 0. Por ejemplo (usando el Teorema 4.3.3) esto sucede si existe una
     submatriz nula de tama˜o k × r con k + r > n.
                             n
  4. En particular, si exite alguna Fi (A) = 0 (o bien una columna), entonces det A = 0.
  5. Dada σ ∈ Sn y Pσ ∈ UP (n) su matriz de permutaci´n asociada, entonces se tiene que
                                                       o
     det Pσ = sgn(σ). Esto sale por que la unica diagonal sin ceros de Pσ es la producida
                                           ´
     por la misma σ, como se ve en la Eq. (4.4).
  6. Si T ∈ T S(n), entonces det T =              Tii . Esto se ha usado sistem´ticamente en los
                                                                               a
                                           i∈In
     cap´ıtulos anteriores, y se lo justific´ “desarrollando” por la primera columna. Eso no
                                           o
     es incorrecto (ver el Ejercicio 7.5.11 o la Eq. (12.13) ), pero sale m´s directo con la
                                                                            a
     Definici´n 7.3.6, porque la unica diagonal sin ceros de T (si es que hay una) es la
              o                     ´
     producida por σ = Id.
138                                                                          Productos tensoriales y alternados




   7. La funci´n Mn (C) A → det A ∈ C es continua (m´s a´n, es de clase C ∞ ), debido a
              o                                           a u
      que es un polinomio de grado n en los coeficientes de A.

Para dar la segunda definici´n y probar las principales propiedades del determinante, necesi-
                            o
tamos desarrollar un poco la teor´ de productos alternados. La relaci´n clave entre estos y
                                  ıa                                  o
la f´rmula (7.13) para el determinante es lo siguiente:
    o
Proposici´n 7.3.8. Sean x1 , . . . , xk , y1 , . . . , yk ∈ Hn . Entonces
         o
                                                                                  1
               x1 ∧ x2 ∧ · · · ∧ xk , y1 ∧ y2 ∧ · · · ∧ yk =                         det      xi , yj     i,j∈Ik
                                                                                                                   .   (7.14)
                                                                                  k!
Demostraci´n. Es consecuencia de la ecuaci´n Eq. (7.6), por la Definici´n 7.3.6 para el
          o                                      o                         o
determinante. En efecto, si D = x1 · · · ∧ xk , y1 ∧ · · · ∧ yk , entonces

                   1                                                    1
      D   =                    sgn(π)xπ(1) ⊗ · · · ⊗ xπ(k) ,                        sgn(σ)yσ(1) ⊗ · · · ⊗ yσ(k)
                   k!                                                   k!
                        π∈Sk                                                 σ∈Sk
                                                            k
                 1
          =                       sgn(π) sgn(σ)                   xπ(i) , yσ(i)        como sgn(σ) = sgn(σ −1 ),
               (k!)2                                        i=1
                         π,σ∈Sk
                                                       k
                 1
          =                       sgn(πσ −1 )               xπσ−1 (j) , yj            tomando j = σ(i)
               (k!)2                                  j=1
                         π,σ∈Sk
                                         k
               1                                                   1
          =                    sgn(γ)         xγ(j) , yj =            det          xi , yj   i,j∈Ik
                                                                                                      ,
               k!                       j=1
                                                                   k!
                        γ∈Sk

donde la pen´ltima igualdad surge de considerar la aplicaci´n Sk ×Sk → Sk dada por (σ, π) →
             u                                             o
γ = π −1 σ. Notar que cada γ ∈ Sk es imagen de k! elementos, a saber, los de la forma (πγ, π),
parametrizados por π ∈ Sk .


Potencia alternada de una matriz
Observaci´n 7.3.9. Por las ecuaciones (7.7) y (7.10), si A ∈ L(Hm , Hn ), su k-potencia
           o
                    (n)  (m)
tensorial “mezcla” Pπ y Pπ en el siguiente sentido:
                                   k                   k
                         (n)                                   (m)
                        Pπ              A     =             A Pπ             para toda         π ∈ Sk .

                                                  k
Entonces, por la f´rmula (7.11),
                  o                                   A mezcla las proyecciones Pn y Pm :
                                                                                 k    k
                                                       k                k
                                             Pn
                                              k             A     =          A Pm .
                                                                                k                                      (7.15)

               k
Por lo tanto        A Λk Hm ⊆ Λk Hn .
7.3 Productos alternados y determinantes                                                                139



                                                                            k
Definici´n 7.3.10. Sea A ∈ L(Hn , Hm ). La restricci´n de
        o                                            o                          A al espacio alternado Λk Hn
es llamada la k-potencia exterior de A, y denotada por

                                     Λk A ∈ L(Λk Hn , Λk Hm ) .

Por la Eq. (7.7) y la Observaci´n 7.3.5, la k-potencia exterior Λk A est´ determinada por la
                               o                                             a
f´rmula:
 o
                     Λk A (x1 ∧ x2 ∧ · · · ∧ xk ) = Ax1 ∧ Ax2 ∧ · · · ∧ Axk ,         (7.16)
para toda k-upla x1 , . . . , xk en Hn .
Observaci´n 7.3.11. Si In es la identidad de Hn , entonces Λk In = IΛk Hn . Por otra parte,
            o
se sigue de (7.8) o de (7.16) que, si A ∈ L(Hn , Hm ) y B ∈ L(Hm , Hr ), entonces

                          Λk (AB) = Λk A · Λk B          y    (Λk A)∗ = Λk A∗ .                       (7.17)
                                                                                          k
Cuando n = m, i.e. A ∈ L(Hn ), la Eq. (7.15) dice que Λk Hn reduce a    A, por lo que se
                                       k        Λk A 0       Λk Hn
tiene una identidad matricial del tipo   A=                        ⊥ . De ahi se deducen
                                                  0   ∗     Λk Hn
f´cilmente las siguientes propiedades:
 a

  a. Si A ∈ Gl (n), Λk A−1 = (Λk A)−1 .
 b. Λk A es unitaria si A ∈ U(n).
  c. Λk A ≥ 0 si A ≥ 0. Adem´s |Λk A| = Λk |A|.
                            a
Definici´n 7.3.12.
       o              1. Sea n ∈ N y k ∈ In . Notamos por Qk,n al conjunto de sucesiones
    estrictamente crecientes de k enteros elegidos en In :

                Qk,n = α = (α1 , α2 , · · · , αk ) ∈ Ik : 1 ≤ α1 < α2 < · · · < αk ≤ n
                                                      n                                           .

      Otra manera de verlo es Qk,n = J ⊆ In : |J| = k , si pensamos a los conjuntos J
      ordenados en forma creciente. Luego |Qk,n | = n .
                                                   “ ”
                                                    k

   2. Sean A ∈ Mn,m (C), α ∈ Qk,n y β ∈ Ql,m . Entonces denotaremos por A[α|β] a la
      submatriz de k × l de A dada por

                                 A[α|β] = Aαi βj                       ∈ Mk,l (C) .
                                                        (i,j)∈Ik ×Il

      Cuando α = β, A[α|β] se abreviar´ como A[α]. Si α = In (resp. β = Im ), notaremos
                                       a
      A[α|β] = A[−|β] (resp. A[α|β] = A[α|−]).
   3. Dada α ∈ Qk,n , usaremos la abreviaci´n:
                                           o

                            e∧ = e(n)
                             α    α
                                           ∧
                                               := eα1 ∧ eα2 ∧ · · · ∧ e(n) ∈ Λk Hn .
                                                   (n)   (n)
                                                                       αk

      A continuaci´n veremos que forman una BON de Λk Hn .
                  o
140                                                         Productos tensoriales y alternados




Proposici´n 7.3.13. El conjunto
         o
                                         √
                                 Ek,n = { k! e∧ : α ∈ Qk,n }
                                  ∧
                                              α                                          (7.18)
                                                                              n
es una BON de Λk Hn . Por lo tanto, tenemos que dim Λk Hn = |Qk,n | =
                                                                             “ ”
                                                                              k
                                                                                 .

                                      ∧
Demostraci´n. El hecho de que Ek,n genera Λk Hn se deduce de los ´
           o                                                               ıtems 1, 2 y 3 de la
Observaci´n 7.3.5 (la Eq. (7.12) permite ordenar las coordenadas). Por otro lado, si α, β ∈
         o
Qk,n no son iguales, es f´cil ver que la matriz eαi , eβj i,j∈I debe tener una fila nula (la de
                         a
                                                               k
alg´n αi ∈ β). Luego, por la Proposici´n 7.3.8 y el ´
   u     /                               o           ıtem 4 de 7.3.7, se tiene que e∧ , e∧ = 0.
                                                                                     α β
                                                ∧
Finalmente, como det Ik = 1, llegamos a que Ek,n es una BON.
Proposici´n 7.3.14. Sea A ∈ Mn,m (C). Identifiquemos Λk A ∈ L(Λk Hm , Λk Hn ) con su
           o
                     ∧      ∧
matriz en las bases Ek,m y Ek,n . Dados α ∈ Qk,n y β ∈ Qk,m , se tiene que

                                    Λk A   α,β
                                                 = det A[α|β] .                          (7.19)

Demostraci´n. De acuerdo a las ecuaciones (7.14) y (7.18), se tiene que
          o
                                  √    (m)
                                            √                        (m) (n)
             Λk A α,β =      Λk A k! eβ , k! eα   (n)
                                                       = k! Λk A eβ , eβ
                          =   det   Aeβj , eαi    i,j∈Ik
                                                           = det A[α|β] ,

donde la ultima igualdad se sigue de que Aeβj , eαi = Aαi βj .
         ´


Determinantes
Miremos qu´ es Λn Hn , o sea el caso k = n. Como In es el unico elemento de Qn,n , la
            e                                    √          √         ´
                                                        ∧
Proposici´n 7.3.13 asegura que el vector en = n! eIn = n! e1 ∧ e2 ∧ · · · ∧ en es una BON de
         o
Λn Hn . O sea que Λn Hn = C · en . Dados x1 , . . . , xn ∈ Hn , si tomamos la matriz X ∈ Mn (C)
dada por Fi (X) = xi , queda
                            √
                              n! x1 ∧ x2 ∧ · · · ∧ xn = det X · en .                      (7.20)
En efecto, si abreviamos a = x1 ∧ · · · ∧ xn , entonces a = a, en · en . Ah´ podemos aplicar
                                                                           ı
la Proposici´n 7.3.8, ya que xi , ej = Xij , para todo par i, j ∈ In .
            o
La f´rmula (7.20) es la segunda definici´n para el det X, en el sentido de que X → det X
     o                                     o
es la unica funci´n n-multilineal alternada (en las filas de X) tal que det In = 1 (esto vale
       ´         o
porque la matriz X asociada a e1 ∧ · · · ∧ en es X = In ). La Proposici´n 7.3.8 muestra que es
                                                                       o
equivalente a la de diagonales y permutaciones.
Si en la Proposici´n 7.3.14 consideramos el caso k = n = m, e identificamos L(Λn Hn ) con C
                  o
(v´ zI → z), tenemos que
  ıa
                          Λn A = det A     para toda         A ∈ Mn (C) .                (7.21)
Observar que esto brinda un camino directo para probar la igualdad det AB = det A · det B,
que no se ve tan f´cil v´ la Definici´n 7.3.6.
                  a     ıa          o
7.3 Productos alternados y determinantes                                                               141




Proposici´n 7.3.15. Sean A, B ∈ Mn (C), Entonces se tiene que
         o

  1. det AB = det A · det B.

  2. det A = 0 si y s´lo si A ∈ Gl (n).
                     o

  3. Gl (n) es abierto y denso en Mn (C).

Demostraci´n. Lo primero se deduce de que Λn AB = Λn A · Λn B v´ la f´rmula (7.21). Si
            o                                                        ıa     o
A ∈ Gl (n), tenemos que det A · det A−1 = det In = 1 = 0. Si A ∈ Gl (n), entonces sus
                                                                       /
columnas deben ser un conjunto linealmente dependiente (porque ker A = {0}). Luego se
aplica la Eq. (7.20) y el ultimo punto de la Observaci´n 7.3.5 a la matriz AT , y el hecho de
                          ´                            o
que det A = det AT , como asegura 7.3.7. Como A → det A es continua, el item 2 implica que
Gl (n) = det−1 {z ∈ C : z = 0} es abierto en Mn (C). La densidad podr´ probarse usando
                                                                          ıa
la multilinealidad de A → det A, pero sale m´s f´cil viendo que, para cualqueir A ∈ Mn (C),
                                             a a
existen matrices A + εI ∈ Gl (n) para ε arbitrariamente peque˜o.
                                                              n

Corolario 7.3.16. Sean k, n ∈ N.

  1. Un conjunto {x1 , x2 , . . . , xk } ⊆ Hn es linealmente independiente si y s´lo si el producto
                                                                                 o
     alternado x1 ∧ x2 ∧ · · · ∧ xk = 0.

  2. El espacio Λk Hn = {0} si y s´lo si k ≤ n.
                                  o

Demostraci´n. Sea X ∈ Mn,k dada por Ci (X) = xi , i ∈ Ik . Luego {x1 , x2 , . . . , xk } es
           o
linealmente independiente si y s´lo si ker X = {0}. Esto, a su ves, equivale a que X ∗ X ∈ Gl (k)
                                o
(porque ker X ∗ X = ker X). Pero, por la Proposici´n 7.3.8, tenemos que
                                                    o

   X ∗X =     xj , xi   i,j∈Ik
                                 =     xi , xj   i,j∈Ik
                                                          =⇒ det X ∗ X = k! x1 ∧ x2 ∧ · · · ∧ xk   2
                                                                                                       .

Luego aplicamos la Proposici´n 7.3.15. La segunda parte se deduce inmediatamente de la
                            o
primera, porque en Hn puede haber, a lo sumo, n vectores linealmente independientes.

Observaci´n 7.3.17. Recordemos que, si A ∈ Mn,m (C) decimos que
         o

                        rkA = dim R(A) = dim Gen {C1 (A), . . . , Cm (A)} ,

es el rango columna de A. Como Λk A (e∧ ) = Cα1 (A) ∧ · · · ∧ Cαk (A), para todo α ∈ Qk,m , el
                                      α
Corolario 7.3.16 muestra que

                                     rk A = m´x{k ∈ N : Λk A = 0}
                                             a                                                     (7.22)

(ver tambi´n el Corolario 7.4.3 de m´s adelante). Usando que Λk A∗ = (Λk A)∗ , la f´rmula
           e                        a                                              o
(7.22) da otra prueba de que rk A∗ = rk A.


El siguiente resultado generaliza la Proposici´n 7.3.15 a determinantes de submatrices:
                                              o
142                                                         Productos tensoriales y alternados




Corolario 7.3.18 (F´rmula de Cauchy-Binnet). Dadas A ∈ Mn,r (C) y B ∈ Mr,m (C) , sea
                     o
k ≤ m´
     ın{n, r, m}. Luego, para cada par α ∈ Qk,n , β ∈ Qk,m se tiene que

                        det(AB)[α|β] =              det A[α|ω] det B[ω|β] .                     (7.23)
                                           ω∈Qk,r


Demostraci´n. Por la ley de multiplicaci´n (7.17) y la Proposici´n 7.3.14, tenemos que
          o                             o                       o

                      det(AB)[α|β]     =    (Λk AB)αβ = Λk A · Λk B          αβ
                                                        k          k
                                       =              Λ A    αω
                                                                  Λ B   ωβ
                                            ω∈Qk,r

                                       =             det A[α|ω] det B[ω|β] ,
                                            ω∈Qk,r


lo que prueba lo afirmado.

Observaci´n 7.3.19. La versi´n m´s cl´sica de la F´rmula de Cauchy Binnet es la siguiente:
         o                  o     a a             o
Sean A ∈ Mk,r (C) y B ∈ Mr,k (C) , con k ≤ r. Luego,

                            det AB =            det A[−|ω] det B[ω|−] ,                         (7.24)
                                       ω∈Qk,r


que resulta de operar con todas las submatrices cuadradas de tama˜o m´ximo de A (eligiendo
                                                                 n   a
columnas) y de B (eligiendo las mismas filas). Es claro que (7.24) se deduce del Corolario
7.3.18. Tambi´n vale la rec´
               e             ıproca, porque dadas A y B como en el Corolario 7.3.18, las
matrices A0 = A[α, −] ∈ Mk,r (C) y B0 = B[−, β] ∈ Mr,k (C) cumplen que

      A0 B0 = (AB)[α|β] ,     A0 [−|ω] = A[α|ω]        y     B0 [ω|−] = B[ω|β] ,   ω ∈ Qk,r ;

por lo que (7.23) para A y B se reduce a (7.24) para A0 y B0 .

Proposici´n 7.3.20. Sean A, B ∈ Gl (n)+ y λ ∈ [0, 1]. Entonces
         o

                         det λA + (1 − λ)B ≥ (det A)λ (det B)1−λ .

Es decir, la aplicaci´n Gl (n)+
                     o            A → log det A es c´ncava.
                                                    o

Demostraci´n. Sea C = B −1 A. Como σ (C) = σ B −1/2 AB −1/2 (con multiplicidades),
          o
                                            ∗
podemos llamar µ(C) = µ(B −1/2 AB −1/2 ) ∈ R+ n . Adem´s,
                                                      a

      det λA + (1 − λ)B = det B λB −1 A + (1 − λ)I = det B det λC + (1 − λ)I .

Luego basta probar que

   det λC + (1 − λ)I ≥ (det A)λ (det B)1−λ det B −1 = (det A)λ (det B)−λ = (det C)λ .
7.4 Propiedades utiles de los productos alternados
                ´                                                                             143




En otras palabras, basta ver que
                               n                          n
                                    λµi (C) + 1 − λ ≥          µi (C)λ .
                              i=1                        i=1

Finalmente, veremos que λµi (C) + 1 − λ ≥ µi (C)λ para cada i ∈ In , con lo cual el resultado
quedar´ probado. En efecto, dado c > 0, la funci´n f (t) = ct es convexa en todo R. Notar
       ıa                                       o
que f (0) = 1 y f (1) = c. Por lo tanto

             λc + 1 − λ = λf (1) + (1 − λ)f (0) ≥ f (λ1 + (1 − λ)0) = f (λ) = cλ .

Aplicando lo anterior a cada c = µi (C), obtenemos el resultado.
Ejercicio 7.3.21.      1. Sea H ∈ Gl (n)+ (en principio real). Entonces,

                                        πn
                                             =           e−   Hx,x
                                                                     dx .
                                       det H        Rn

      Para probarlo, hacer un cambio de variables y = U x, para U ∈ U(n) tal que U HU ∗ =
                                                                                        2
      diag (µ(H)). Como U es unitaria, la integral no cambia. Luego usar que Rn e−at dt =
      π 1/2 a−1/2 . De paso, esto prueba que e− Hx,x es integrable en Rn (notar que el cambio
      de variables manda bolas en bolas). ¿Vale lo mismo para matrices complejas?
  2. Probar la Proposici´n 7.3.20 usando lo anterior (y la desigualdad de H¨lder ! ).
                        o                                                  o


7.4      Propiedades utiles de los productos alternados
                     ´
El siguiente resultado, si bien es algo t´cnico, es la llave para la caracterizaci´n completa de
                                         e                                        o
los autovalores de un producto alternado:
Lema 7.4.1. Sea T ∈ T S(n), con los n´meros λ1 , . . . , λn en su diagonal. Sea k ∈ In .
                                     u
                                ∧
  1. En t´rminos de la BON Ek,n de la Eq. (7.18), ordenada lexicogr´ficamente, la matriz
         e                                                         a
     de Λk T es, tambi´n, triangular superior.
                      e

  2. Para cada J ∈ Qk,n , se tiene que (Λk T )JJ =               λi .
                                                          i∈ J

Demostraci´n. Sean I, J ∈ Qk,n tales que I > J. Debemos probar que
          o

                                    (Λk T )IJ = det T [I, J] = 0 ,

donde la primea igualdad sabemos que es cierta por la Proposici´n 7.3.14. Si I = (α1 , · · · , αk )
                                                                    o
y J = (β1 , . . . , βk ) (vectores ordenados en forma creciente), debe existir alg´n j ∈ Ik tal que
                                                                                  u
αj > βj (sino valdr´ que I ≤ J en el lexicogr´fico). Por lo tanto,
                          ıa                       a

                 αi > βr     para todo par (i, r) tal que        1≤r≤j≤i≤k .
144                                                              Productos tensoriales y alternados




Como T ∈ T S(n), tenemos que Tαi βr = 0 para todos esos pares. Es decir que T [I, J] tiene
una submatriz nula de tama˜o (k − j + 1) × j. Aplicando K¨nig-Frobenius (Corolario 4.3.3),
                            n                               o
deducimos que T [I, J] no tiene ninguna diagonal sin ceros. Esto implica que det T [I, J] = 0,
como se afirm´. Por otra parte, si J ∈ Qk,n , por la Proposici´n 7.3.14 sabemos que
             o                                                o

                                   (Λk T )JJ = det T [J] =                  λi ,
                                                                     i∈ J

puesto que T [J] ∈ T S(k).
Teorema 7.4.2. Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 (A), . . . , λn (A) ). Sea
k ∈ In . Entonces los autovalores de Λk A est´n dados por
                                             a

                                 λJ (Λk A) =          λi (A) ,        J ∈ Qk,n ,
                                               i∈ J

contados con multiplicidad.

Demostraci´n. Es similar al caso de los productos tensoriales (Proposici´n 7.1.2). Se aplica el
           o                                                            o
Teorema 1 de Schur 1.6.1 y el hecho de que Λk U es unitaria si U ∈ U(n), pero usando ahora
el Lema 7.4.1.
Corolario 7.4.3. Sea A ∈ Mn (C). Sea k ∈ In . Entonces los valores singulares de Λk A son

                 s Λk A =          sJ Λk A         J∈Qk,n
                                                            =               si (A)   J∈Qk,n
                                                                                               ,
                                                                     i∈ J

contados con multiplicidad, y ordenados en forma decreciente. Adem´s, si ordenamos a los
                                                                           a
autovalores λ1 (A), . . . , λn (A) de A con m´dulos decrecientes, se tiene que
                                             o
                             k                                                         k
              ρ Λk A =           |λi (A)|      y       Λk A     sp
                                                                     = s1 Λk A =            si (A) .
                         i=1                                                          i=1


Demostraci´n. Se deduce del Teorema 7.4.2 y del hecho de que Λk A = Λk |A|.
          o

A continuaci´n veremos algunas propiedades funtoriales de los productos alternados, que ser´n
            o                                                                              a
necesarias para las aplicaciones a desigualdades.
Proposici´n 7.4.4. Sea A ∈ Mn (C) y k ∈ In .
         o

  1. Si Am − − → A, entonces Λk Am − − → Λk A.
            −−                      −−
             m→∞                               m→∞

  2. Si A ∈ Mn (C)+ entonces, para todo r ∈ R+ se tiene que

                                               (Λk A)r = Λk (Ar ) .

  3. Si A es alguna de estas cosas:
7.5 Ejercicios                                                                           145




      a. Idempotente (i.e., A2 = A),
       b. Proyector (i.e., A2 = A = A∗ ),
       c. Isometr´ parcial (i.e., AA∗ y A∗ A son proyectores),
                 ıa
      d. Autoadjunto, normal o unitario,
      entonces Λk A es del mismo tipo.
  4. Si A = U |A| es una DP de A, entonces

                                         Λk A = Λk U Λk |A|                            (7.25)

      es una descomposici´n polar de Λk A.
                         o

Demostraci´n.
          o

  1. Por la f´rmula (7.19), para todo par α, β ∈ Qk,n , tenemos que
             o

                     (Λk Am )αβ = det Am [α|β] − − → det A[α|β] = (Λk A)αβ .
                                                −−
                                                m→∞

      Observar que el determinante de una matriz es un polinomio en sus entradas, por lo que
      la funci´n B → det B es continua.
              o
  2. Como (Λk A)2 = Λk (A2 ), la veracidad del enunciado cuando r ∈ N se deduce a trav´se
     de una simple inducci´n. Recordando que (Λk A)−1 = Λk (A−1 ), es claro que tambi´n
                           o                                                            e
     vale si r ∈ Z. Para extender el resultado a los r ∈ Q, basta notar que si m ∈ N − {0}
     entonces:
                              (Λk A1/m )m = Λk [(A1/m )m ] = Λk A .
      Finalmente, el caso general se obtiene por continuidad (y el item 1.).
  3. Todas estas propiedades se deducen directamente de las propiedades vistas en la Obser-
     vaci´n 7.3.11.
         o
  4. Ya hemos visto (o podemos deducir de lo anterior) que |Λk A| = Λk |A|. Como Λk U es
     isometr´ parcial, y la igualdad (7.25) se tiene que cumplir a partir de que A = U |A|,
            ıa
     entonces (7.25) es una DP de Λk A.


7.5     Ejercicios
Ejercicios del texto
7.5.1. Probar que el producto tensorial de matrices verifica las siguientes propiedades: Fije-
mos A ∈ Mn (C) y B ∈ Mk (C). Se considera que A ⊗ B ∈ L(Hn ⊗ Hk ) ∼ Mnm (C), y en
                                                                           =
Hn ⊗ Hk se usa el producto escalar definido en las Eqs. (7.1) y (7.3).

  1. Sean In ∈ Mn (C) y Ik ∈ Mk (C). Entonces In ⊗ Ik es la identidad de Hn ⊗ Hk .
146                                                         Productos tensoriales y alternados




  2. (αA1 + A2 ) ⊗ B = α(A1 ⊗ B) + A2 ⊗ B, para todo α ∈ C.
  3. (A ⊗ B)∗ = A∗ ⊗ B ∗ .
  4. (A1 ⊗ B1 )(A2 ⊗ B2 ) = A1 A2 ⊗ B1 B2 .
  5. Si existen A−1 y B −1 , entonces A−1 ⊗ B −1 = (A ⊗ B)−1 . En particular, si A ∈ U(n) y
     B ∈ U(k), entonces A ⊗ B ∈ U(nk).
  6. A ⊗ B ≥ 0 si A ≥ 0 y B ≥ 0. M´s a´n, |A ⊗ B| = |A| ⊗ |B|. Se usa el Teorema 3.1.3 y
                                     a u
     la unicidad de la raiz cuadrada positiva.
7.5.2. Completar los detalles de la prueba de la Eq. (7.4).
                                                                            k
7.5.3. Completar los detalles de la definici´n inductiva del espacio
                                           o                                    Hn , probar los 5 items
de 7.2.1 y los 6 de 7.2.2.
                                                                                      (n)          k
7.5.4. Dados n, k ∈ N y π ∈ Sk , tomemos el operador de permutaci´n Pπ
                                                                 o                          ∈ L(       Hn ),
definido en la Eq. (7.9). Probar las siguentes propiedades:
                                                 (n)
  1. La f´rmula (7.10) sobre como act´a Pπ
         o                           u                 en los tensores elementales.
                     (n)                                            (n)         (n)         (n)
  2. Mostrar que Pπ        es untario. M´s a´n, mostrar que (Pπ )∗ = Pπ−1 = (Pπ )−1 .
                                        a u
                                                 k
  3. Sea Pn la proyecci´n ortogonal de
          k            o                             Hn sobre Λk Hn . Completar los detalles de la
     demostraci´n de la Eq. (7.11):
               o
                                            1
                                     Pn =
                                      k
                                                                 (n)
                                                         sgn(π) Pπ .
                                            k!
                                                 π∈ Sk

7.5.5. Dar los detalles de las pruebas de los 5 items de la Observaci´n 7.3.5, sobre las
                                                                     o
propiedades de los k-tensores elementales.
7.5.6. Probar todos los resultados enunciados en la Observaci´n 7.3.11, sobre las propiedades
                                                             o
de las k-potencias alternadas (o exteriores) de matrices.
7.5.7. Probar los 7 items de 7.3.7 (sobre determinantes).
7.5.8. Probar que Gl (n) es denso en Mn (C).
7.5.9. Hacer el Ejercicio 7.3.21.


Ejercicios nuevos
7.5.10. Sea σ ∈ Sn y Pσ ∈ UP (n) su matriz de permutaci´n asociada, definida en la Obser-
                                                         o
vaci´n 4.1.5. Probar que det Pσ = sgn(σ) de las tres maneras propuestas:
    o

  1. Usando la Definici´n 7.3.6 de una (esto es parte del Ejercicio anterior).
                      o
7.5 Ejercicios                                                                                      147




  2. Mostrar que si τ ∈ Sn es una trasposici´n, entonces det Pτ = −1, y usar que sigma es
                                             o
     producto de trasposiciones, y que la flecha σ → det Pσ es un morfismo.
  3. Usando que Pσ tiene filas Fi (Pσ ) = eσ(i) , i ∈ In (por la Eq. (4.3) ), y aplicando luego
     las ecuaciones (7.12) y (7.20).
  4. Alguna otra que se les ocurra.

7.5.11. Demostrar el algoritmo usual para calcular det A, para A ∈ Mn (C), desarrollando
por alguna fila o columna de A. Por ejemplo la fila r-´sima:
                                                    e

                                 det A =          (−1)r+i Ar, i det A(r| i) .                     (7.26)
                                           i∈In

Se sugiere usar la multilinealidad de B → det B (tanto para filas como para columnas) y
calcular det B en el caso de que alguna fila o columna de B est´ en la base can´nica de Cn .
                                                              e               o
Otra opci´n es esperar hasta la Eq. (12.13).
          o

7.5.12. Sea t = (t1 , . . . , tn ) ∈ Cn . Se llama matriz de Vandermonde de t a
                                                  1 t1 . . . tn−1
                                                                  
                                                               1
                                                 1 t2 . . . tn−1 
                                                               2
                 V (t) = tj−1                = . .              .  ∈ Mn (C) .
                                                                  
                                  i
                                      i,j∈In     . . ...
                                                  . .            . 
                                                                 .
                                                  1 tn . . . tn−1
                                                               n

Probar que det V (t) =           (tj − ti ) , por lo que V (t) ∈ Gl (n) si los ti son todos distintos.
                           i<j

7.5.13. Sean A, B ∈ Mn (C). Probar:

  1. (s(A), s(B))    (s(|A| + |B|), 0) en R2n .
                     w
  2. (s(A), s(B))        (s(A + B), 0) en R2n .
  3. Sea F : Mn (C) → R+ dada por F (C) = i f (si (C)), para una f : R+ → R+ c´ncava
                                                                              o
     tal que f (0) = 0. Probar que F es subaditiva, o sea
                                           F (A + B) ≤ F (A) + F (B).
                                    n
  4. Si z ∈ C, det(I + zA) =             z k tr(Λk A).
                                   k=0

                     n−1
  5. PA (x) = xn +         (−1)n−k tr(Λn−k A) xk .
                     k=0

  6. det(I + |A + B|) ≤ det(I + |A|) det(I + |B|).
  7. | det(I + A)| ≤ det(I + |A|).
  8. | det(I + A + B)| ≤ det(I + |A|) det(I + |B|).
148                                                                       Productos tensoriales y alternados




Productos sim´tricos
             e
Sean k, n ∈ N. Recordemos que, dados x1 , . . . , xk ∈ Hn y π ∈ Sk , tenemos que
                      (n)
                     Pπ (x1 ⊗ x2 · · · ⊗ xk ) = xπ−1 (1) ⊗ xπ−1 (2) · · · ⊗ xπ−1 (k) ,
         (n)                                                        (n)          (n)
donde Pπ es un operador unitario que cumple (Pπ−1 ) = (Pπ )−1 . Dado k ∈ In . Llamaremos
                                                k
espacio k-sim´trico sobre Hn , al subespacio de
             e                                    Hn dado por
                                     k
                 ∨k Hn =      F ∈               (n)
                                         H n : Pπ F = F                      para toda      π ∈ Sk      ,

Los elementos de ∨k Hn se llaman k-tensores sim´tricos. Se considera a ∨k Hn como un
                                                e
                                              k
espacio de Hilbert con el producto interno de   Hn . Dados x1 , . . . , xk ∈ Hn , se define el
k-tensor sim´trico elemental:
            e
                                         1
                 x1 ∨ x2 · · · ∨ xk :=                 xπ(1) ⊗ xπ(2) · · · ⊗ xπ(k) ∈ ∨k Hn .
                                         k!
                                              π∈ Sk

7.5.14. Dada A ∈ Mn (C), definimos su permanente por la f´rmula
                                                        o
                                                                n
                                    per A =                          aj,σ(j) ∈ C .                              (7.27)
                                                 σ∈ Sn j=1

Es decir que es como el determinante, pero sin signos negativos.

   1. Probar que, si T ∈ T S(n), entonces per T =                            Tii . En particular, per In = 1.
                                                                     i∈In

   2. Si A 0, mostrar que per A = 0 ⇐⇒ existen subconjuntos I, J ⊆ In tales que
      |I| + |J| > n y la submatriz AIJ ≡ 0, es decir que aij = 0 para todo par (i, j) ∈ I × J.
   3. Deducir que si A ∈ DS (n), entonces per A = 0.
   4. Si B, C ∈ Mn (C)+ cumplen que C ≤ B, probar que 0 ≤ per C ≤ per B.
7.5.15. Sean x1 , . . . , xk , y1 , . . . , yk ∈ Hn . Probar que
                                                                              1
                 x1 ∨ x2 ∨ · · · ∨ xk , y1 ∨ y2 ∨ · · · ∨ yk =                   per     xi , yj   i,j∈Ik
                                                                                                            .
                                                                              k!
7.5.16. Dados x1 , . . . , xk , y1 , . . . , yk ∈ Hn , llamemos

                                 G(x, y) =            xi , yj       i,j∈Ik
                                                                              ∈ Mk (C)

a la matriz que se us´ en el Ejercicio anterior.
                     o

   1. Probar que | det G(x, y)|2 ≤ det G(x, x) det G(y, y)
7.5 Ejercicios                                                                             149




  2. Tambi´n que |per G(x, y)|2 ≤ per G(x, x) per G(y, y) .
          e
  3. Traducir a que si A, B ∈ Mn,k (C), entonces

                                      |per A∗ B|2 ≤ per A∗ A per B ∗ B



  4. (Otro teorema de Schur) Si A ∈ Mn (C)+ , per A ≥ det A (se sugiere usar el teorema de
     Cholewsky, Corolario 3.1.5).
7.5.17. Sea A ∈ Gl (n)+ . Llamemos

                 ri = tr(Fi (A) ) ,    i ∈ In        y    s = r1 + · · · + rn = A1 , 1 .

  1. Probar que sn · per A ≥ n! ·              |ri |2 .
                                      ij∈ In

  2. Deducir que, si A ∈ DS (n) ∩ Gl (n)+ , entonces per A ≥ n! n−n .
150   Productos tensoriales y alternados
Cap´
   ıtulo 8

Producto de Hadamard

8.1     Propiedades b´sicas
                     a
Recordemos algunas nociones adelantadas en la Secci´n 3.5
                                                   o
Definici´n 8.1.1. Dadas A, B ∈ Mn,m (C) se define el producto de Hadamard A ◦ B como
         o
la matriz
                         A ◦ B = aij bij i∈In ∈ Mn,m (C) .
                                            j∈Im


Notar que este producto tiene sentido tanto para matrices como para vectores.
Teorema 8.1.2 (Teorema 2 de Schur). Sean A, B ∈ Mn (C)+ , entonces A ◦ B ∈ Mn (C)+ .
Adem´s, si A > 0 y B > 0, entonces A ◦ B > 0.
    a

Demostraci´n. Ya fue demostrado en 3.6.2
          o
Corolario 8.1.3. Sean A, B ∈ Mn (C)+ , entonces

  1. µn (A)µn (B) ≤ µn (A ◦ B).
  2. A ◦ B = µ1 (A ◦ B) ≤ µ1 (A)µ1 (B) = A         B .

Demostraci´n. Ejercicio.
          o

Ahora empezamos a mostrar novedades sobre el producto de Hadamard.
Proposici´n 8.1.4. Sea S = Gen {ei ⊗ ei : i ∈ In } ⊆ Hn ⊗ Hn . Identificaremos L(S) con
         o
Mn (C) en la manera obvia. Definamos el operador lineal

        Φ : L(Hn ⊗ Hn ) → Mn (C)     dado por      Φ(T ) = TS ,   T ∈ L(Hn ⊗ Hn ) .

Entonces, dados A, B ∈ Mn (C), se verifica que Φ(A ⊗ B) = A ◦ B .
152                                                                                                              Producto de Hadamard




Demostraci´n. Representemos A ⊗ B como producto de Kronecker, como en la Observaci´n
           o                                                                               o
7.1.1. Con las notaciones de submatrices de la Definici´n 7.3.12, es f´cil ver que, si tomamos
                                                        o            a
α = (1, 1), (2, 2), . . . , (n, n) ⊆ In × In , entonces
                           Φ(A ⊗ B) = (A ⊗ B)S = (A ⊗ B)[α] = A ◦ B ,
como se afirmaba.
Definici´n 8.1.5. Dada A ∈ Mn,m (C), llamaremos
       o
                      C(A) = m´x Ci (A)
                              a                                2
                                                                         y           F (A) = m´x Fi (A)
                                                                                              a                       2
                                                                                                                          .
                                 i ∈ Im                                                            i ∈ In

Notar que estos n´meros pueden, tambi´n, caracterizarse por las f´rmulas
                 u                   e                           o
                      C(A)2 = A∗ A ◦ Im                        sp        y           F (A)2 = AA∗ ◦ In               sp   .
Por lo tanto C(A) ≤ A          sp       y F (A) ≤ A                 sp   .
Proposici´n 8.1.6. Sean A, B ∈ Mn,m (C). Entonces
         o
                                    A◦B           sp      ≤ C(A)F (B) ≤ A                     sp     B      sp   .

Demostraci´n. Para cada par x ∈ Cm , y ∈ Cn de vectores unitarios, se tiene que
          o


                       2                                        2                                                2
         A ◦ B x, y        =             aij bij xj yi              =                (aij xj ) (bij yi )
                                i,j                                           i,j
                                              2            2
                           ≤             |aij | |xj |                        |bij |2 |yi |2          (por Cauchy-Schwarz)
                                i,j                                  i,j

                           =             |xj |2            |aij |2                   |yj |2        |bij |2
                                    j                 i                          i            j

                           ≤ C(A)2 x              2
                                                          F (B)2 y           2
                                                                                 = C(A)2 F (B)2 .

Como A ◦ B     sp   = m´x | A ◦ B x, y | : x = y = 1 , el resultado est´ demostrado.
                       a                                               a
Observaci´n 8.1.7. Sean A ∈ Gl (n)+ y J ⊆ In , con |J| = k. Luego se tiene que
         o
                       A[J] = (aij )i,j∈ J ∈ Gl (k)+                                 y    A−1 [J] ≥ A[J]−1 .
En efecto, esto es un caso particular del Corolario 6.3.7 (o de la Proposici´n 3.8.7).
                                                                            o
Proposici´n 8.1.8. Sean A, B ∈ Gl (n)+ . Entonces se verifica que
         o

  1. (A ◦ B)−1 ≤ A−1 ◦ B −1 .
  2. A ◦ A−1 ≥ I ≥ (A ◦ A−1 )−1 .

Demostraci´n. Se deduce de la Observaci´n 8.1.7 y de la Proposici´n 8.1.4, ya que que A ◦ B
           o                           o                         o
es una submatriz principal de A⊗B, mientras que A−1 ◦B −1 lo es de A−1 ⊗B −1 = (A⊗B)−1 ,
para los mismos ´
                ındices.
8.2 La norma de un multiplicador Hadamard                                                                           153




8.2     La norma de un multiplicador Hadamard
Definici´n 8.2.1. Fijemos A ∈ Mn (C), y definamos el operador de multiplicaci´n
       o                                                                   o
        MA : Mn (C) → Mn (C)               dado por                MA (B) = A ◦ B ,       B ∈ Mn (C) .
Fijada una norma N en Mn (C), denotaremos KN (A) a la norma inducida para MA :
        KN (A)       =    m´x N (A ◦ B) : B ∈ Mn (C) es tal que N (B) = 1
                           a
                     =    m´ k ≥ 0 : N (A ◦ B) ≤ k N (B)
                           ın                                                para toda    B ∈ Mn (C) .
En el caso de que N sea la norma espectral, escribiremos KA en lugar de K                           ·   sp
                                                                                                             (A).
Observaci´n 8.2.2. Sea A ∈ Mn (C). Si N es una norma unitariamente invariante tal que
            o
N (E11 ) = 1, entonces
                               m´x |aij | ≤ KN (A) .
                                 a
                                             i,j

En efecto, notar que para todo i, j ∈ In se tiene
                         N (A ◦ Eij ) = |aij |N (Eij ) = |aij |          y     N (Eij ) = 1 .
Por otra parte, para la norma espectral, de la Proposici´n 8.1.6 se puede deducir que
                                                        o
                                   KA ≤ m´ C(A), F (A) ≤ A
                                         ın                                     sp   .
En efecto, notar que para toda B ∈ Mn (C), tenemos que
         A ◦ B ≤ C(A)F (B) ≤ C(A) B                          y       A ◦ B ≤ F (A)C(B) ≤ F (A) B ,
ya que Ci (B)    2   = Bei ≤ B para todo i ∈ In . An´logamente, F (B) ≤ B .
                                                    a
Ejercicios 8.2.3.

  1. Si N = ·        2
                         (la norma de Frobenius), entonces
                                    KN (A) = m´x |aij | ,
                                              a                          A ∈ Mn (C) .
                                                   i,j∈ In

      Notar que (Mn (C), N ) es un espacio de Hilbert, MA es un operador diagonal, y
      KN (A) = MA sp .
  2. Algo m´s complicado es probar que, para cualquier A ∈ Mn (C),
           a
                                                   K   ·     1
                                                                 (A) = KA .
      Debe usarse que · 1 es la norma “dual” de la espectral (esto es del mismo tipo que
      ( 1 )∗ = ∞ , pensada en los valores singulares), y que el operador “adjunto” de MA es
      el mismo MA . Esto ultimo se deduce de la identidad
                          ´
                            tr (A ◦ B)C t =                      aij bij cij = tr B(A ◦ C)t     ,
                                                    i,j∈ In

      donde se identifica a Mn (C) con Mn (C) a trav´s de la aplicaci´n C → ϕC = tr( · C t )
                                                   e                o
      (ver los Ejercicios 5.6.29 al 5.6.33) .
154                                                                              Producto de Hadamard




Teorema 8.2.4. Sea A ∈ Mn (C). Dada una factorizaci´n A = D∗ B, con B, D ∈ Mn (C),
                                                   o
se verifica que
                               KA ≤ C(D)C(B) .

Demostraci´n. Consideremos la siguiente matriz:
          o

                       D∗       0         D     B             D∗ D      A
               P =                                   =                          ∈ M2n (C)+ .
                       B∗       0         0     0              A∗      B∗B

                                                                I       M
Fijemos M ∈ Mn (C) tal que M              sp   ≤ 1. Luego                      ∈ M2n (C)+ , y por el Teorema
                                                                M∗      I
2 de Schur 8.1.2, tenemos que

                             I           M          I ◦ D∗ D          M ◦A
             PM = P ◦                           =                                ∈ M2n (C)+ .
                             M∗          I          (M ◦ A)∗         I ◦ B∗B

Como (D∗ D)ii = Ci (D) 2 , i ∈ In , podemos deducir que I ◦D∗ D ≤ C(D)2 I, y an´logamente
                                                                               a
se ve que I ◦ B ∗ B ≤ C(B)2 I. Por ende,

                                              C(D)2 I        M ◦A
                             PM ≤                                        = RM .
                                             (M ◦ A)∗        C(B)2 I

                        C(D)−1 I                0
Conjugando con F =                                           , obtenemos que
                           0                 C(B)−1 I

                                I                        C(D)−1 C(B)−1 (M ◦ A)
      F RM F =          −1                                                               ∈ M2n (C)+ .
                  C(D)       C(B)−1 (M ◦ A)∗                      I

Esto nos dice que C(D)−1 C(B)−1 (M ◦ A)                 sp   = C(D)−1 C(B)−1 M ◦ A        sp   ≤ 1, o sea

                            M       sp   ≤ 1 =⇒     M ◦A        sp   ≤ C(D)C(B) .

En otras palabras, KA ≤ C(D)C(B).
Corolario 8.2.5 (Schur 4). Sea A ∈ Mn (C)+ . Entonces KA = m´x{Aii : i ∈ In }.
                                                            a

Demostraci´n. Notemos M = m´x{Aii : i ∈ In }. Hemos visto que M ≤ KA (porque
          o                        a
Aii = A ◦ Eii ). Por otra parte, como A ∈ Mn (C)+ , sabemos que existe B ∈ Mn (C) tal
que A = B ∗ B. Es f´cil ver que, en tal caso, Aii = Ci (B) 2 para todo i ∈ In . Esto dice que
                   a
M = C(B)2 . Por el Teorema 8.2.4 deducimos que KA ≤ C(B)2 = M .


8.3     Funcionales positivas

El teorema de Haagerup (1983) dice que, dado A ∈ Mn (C), existe una factorizaci´n A = D∗ B,
                                                                               o
como en el Teorema 8.2.4, tal que se obtiene la igualdad KA = C(D)C(B). Su formulaci´n   o
8.3 Funcionales positivas                                                                 155




y demostraci´n original utilizaba profundas nociones y resultados de ´lgebras de operadores.
             o                                                         a
Esto motiv´ que, desde el ´mbito de los especialistas en an´lisis matricial, fueran apareciendo
           o              a                                a
numerosas pruebas simplificadas del teorema de Haagerup. De todas ellas hemos seleccionado
la obtenida por Paulsen, Power y Smith en [29]. Necesitaremos, sin embargo, adaptar al
contexto de matrices ciertas nociones y resultados elementales de ´lgebras de operadores.
                                                                      a
Fundamentalmente, propiedades y criterios de existencia de funcionales positivas.
Definici´n 8.3.1. Sea S ⊆ Mn (C) un subespacio cerrado por adjunci´n, es decir, T ∈ S si
         o                                                           o
y s´lo si T ∗ ∈ S. Una f uncional en S es una aplicaci´n lineal ϕ : S → C. Se definen los
   o                                                  o
siguientes tipos de funcionales:

  1. Notamos ϕ∗ (adjunta de ϕ) a la funcional dada por ϕ∗ (A) = ϕ(A∗ ), A ∈ S.
  2. Decimos que ϕ es autoadjunta si ϕ∗ = ϕ. Es decir, si ϕ(A∗ ) = ϕ(A), A ∈ S.
  3. La funcional ϕ se llama positiva si ϕ(A) ≥ 0 cuando A ∈ S ∩ Mn (C)+ .
  4. Se considera la norma inducida en las funcionales por la norma espectral de las matrices.
     Es decir ϕ = m´x{|ϕ(A)| : A ∈ S , A sp = 1} .
                       a
Ejercicios 8.3.2. Sea S ⊆ Mn (C) un subespacio cerrado por adjunci´n.
                                                                  o

  1. Sea ϕ una funcional en S. Probar que
      (a)   ϕ = ϕ∗ .
      (b) ϕ es autoadjunta si y s´lo si ϕ(A) ∈ R para toda A ∈ S ∩ H(n).
                                 o
      (c) Si ϕ es positiva, entonces es tambi´n autoadjunta.
                                             e
      (d) Toda funacional autoadjunta en S es resta de dos positivas.
     Se usa que si A ∈ S, entonces Re A ∈ S e Im A ∈ S.
  2. Dada B ∈ Mn (C), se define la siguiente funcional en Mn (C):

            ϕB : Mn (C) → C     dada por    ϕB (A) = A, B = tr(AB ∗ ) ,     A ∈ Mn (C).

     Verificar que
      (a) Para toda funcional ϕ en Mn (C) existe una unica matriz B ∈ Mn (C) tal que
                                                     ´
          ϕ = ϕB .
      (b) Dados x, y ∈ Cn consideremos la matriz x y = xy ∗ ∈ Mn (C) , definida en la
          secci´n 1.9. Se tiene que ϕB (xy ∗ ) = x, By .
               o
      (c) (ϕB )∗ = ϕB ∗ , y por lo tanto ϕB es autoadjunta si y s´lo si B ∈ H(n).
                                                                 o
      (d) ϕB es positiva si y s´lo si B ∈ Mn (C)+ .
                               o
Proposici´n 8.3.3. Sea B ∈ Mn (C). Entonces
         o

  1. | tr B| ≤ tr |B|.
156                                                                              Producto de Hadamard




  2. tr B = tr |B| si y s´lo si B ∈ Mn (C)+ .
                         o

  3. ϕB = B       1   = tr |B|.

Demostraci´n.
          o

  1. Sea B = {v1 , . . . , vn } una bon de vectores propios de |B| asociada a s(B). Luego, si
     B = U |B| es la DP de B, con U ∈ U(n),
                          n                       n                                 n
             | tr B| =         U |B|vk , vk   ≤         sk (B) U vk , vk    ≤           sk (B) = tr |B| .
                         k=1                      k=1                             k=1


  2. Si tr B = tr |B|, entonces
                  n                                     n                  n
                       sk (B) = tr |B| = tr B =             Bvk , vk =           sk (B) U vk , vk .
                 k=1                                  k=1                  k=1

      Dado que | U vk , vk | ≤ 1 para todo k ∈ In , por el caso en que se obtiene igualdad
      en la desigualdad de Cauchy Schwarz, todos los n´meros complejos U vk , vk deben
                                                           u
      tener el mismo argumento. Como la suma da un n´mero positivo, se debe verificar que
                                                         u
       U vk , vk = 1 para todo k ∈ In . Pero un unitario con unos en la diagonal (en nuestro
      caso la matriz de U en la base B) debe ser la identidad. De ello se deduce que U = I y
      que B = |B| ∈ Mn (C)+ . La rec´ ıproca es obvia.

  3. Notar que tr |B| = tr(U |B|U ∗ ) = tr(U B ∗ ) = ϕB (U ) ≤ ϕB . Por otro lado, por el item
     anterior y el Corolario 5.3.11,

                                    | tr(AC)| ≤ tr |AC| ≤ A         sp   tr |C| ,

      para todo par A, C ∈ Mn (C). Entonces

           |ϕB (A)| = | tr(A|B|U ∗ )| = | tr(U ∗ A |B|)| ≤ U ∗ A           sp   tr |B| = (tr |B|) A    sp   ,

      para toda A ∈ Mn (C). Por lo tanto ϕB ≤ tr |B|.

Teorema 8.3.4. Sea S ⊆ Mn (C) un subespacio cerrado por adjunci´n tal que I ∈ S. Sea ϕ
                                                                    o
una funcional en S. Luego las siguientes condiciones son equivalentes:

  1. ϕ es positiva.

  2. ϕ = ϕ(I).

  3. Existe B ∈ Mn (C)+ tal que ϕ es la restricci´n de ϕB a S .
                                                 o

Demostraci´n.
          o
8.4 Matrices incompletas                                                                                157




1 → 2 Sea A ∈ S. Si A = A∗ , se tiene que − A       sp   I≤A≤ A        sp    I. Luego, si ϕ es positiva
      en S, tenemos

                  − A   sp   ϕ(I) ≤ ϕ(A) ≤ A   sp   ϕ(I) =⇒ |ϕ(A)| ≤ A            sp   ϕ(I) .

       Si A = A∗ , sea θ ∈ [0, 2π) tal que ϕ(A) = eiθ |ϕ(A)|, o sea que ϕ(e−iθ A) = |ϕ(A)|.
       Llamenos A0 = e−iθ A. Como ϕ es autoadjunta y ϕ(A0 ) ∈ R, deducimos que ϕ(A0 ) =
       ϕ(Re A0 ). Por todo esto,

           |ϕ(A)| = ϕ(A0 ) = ϕ(Re A0 ) ≤ Re A0       sp   ϕ(I) ≤ A0     sp   ϕ(I) = A      sp   ϕ(I) .

       Luego ϕ ≤ ϕ(I). La otra desigualdad es obvia ( I         sp   = 1).
2 → 3 Sea ϕ una funcional en S tal que ϕ = ϕ(I). Por el teorema de Hahn Banach (en
      dimensi´n finita se lo puede probar por inducci´n con la prueba tradicional), existe una
              o                                     o
      extensi´n Φ de ϕ a todo Mn (C) que tiene la misma norma. Luego existe B ∈ Mn (C)
             o
      tal que Φ = ϕB . Por la Proposici´n 8.3.3, deducimos que
                                       o

                        tr |B| = ϕB = Φ = ϕ = ϕ(I) = ϕB (I) = tr B ,

       y por lo tanto B ∈ Mn (C)+ .
3 → 1 Sea B ∈ Mn (C)+ tal que ϕ es la restricci´n de ϕB a S. Si A ∈ S ∩ Mn (C)+ , tenemos
                                               o
      que
                             ϕ(A) = tr AB = tr B 1/2 AB 1/2 ≥ 0 ,
       porque B 1/2 AB 1/2 ∈ Mn (C)+ y la funcional tr es positiva.
 Corolario 8.3.5. Sea S ⊆ Mn (C) un subespacio cerrado por adjunci´n tal que I ∈ S, y
                                                                      o
 ϕ una funcional positiva en S. Luego existe Φ funcional positiva en Mn (C), con la misma
 norma, tal que ϕ es la restricci´n de Φ a S.
                                 o


 8.4     Matrices incompletas
 Sea J ⊆ In × In . Una matriz incompleta asociada al conjunto J es un “cacho” de matriz
 A = (aij )i,j∈ J . O sea que no se pone nada en las entradas (i, j) ∈ J. Una matriz B ∈ Mn (C)
                                                                     /
 es una completaci´n de A si bij = aij para todo (i, j) ∈ J.
                     o
 Definici´n 8.4.1. Sea J ⊆ In × In .
        o

    1. Llamaremos SJ ⊆ Mn (C) al subespacio

                      SJ = C ∈ Mn (C) : cij = 0           para todo      (i, j) ∈ J .
                                                                                /

    2. Si A est´ definida solo en J, y C ∈ SJ , denotaremos A ◦ C = B ◦ C, donde B ∈ Mn (C)
               a
       es cualquier completaci´n de A. Notar que, como C ∈ SJ , la definici´n no depende de
                              o                                            o
       la completaci´n elegida.
                     o
158                                                                      Producto de Hadamard




  3. Diremos que J cumple (P) si
      (a) (i, j) ∈ J =⇒ (j, i) ∈ J,
      (b) (i, i) ∈ J para todo i ∈ In .
      En otras palabas, si J es sim´trico y contiene a la diagonal (reflexivo).
                                   e

Existen numerosos resultados sobre matrices incompletas, fundamentalmente relativos a pre-
guntas del tipo: ¿que debe cumplir A para que se la pueda completar a una matriz que cumpla
una propiedad dada?

Un ejemplo de este tipo de resultados, es el llamado teorema de Parrot, que describe algunos
casos de matrices incompletas que pueden completarse a una contracci´n. Una versi´n de
                                                                        o              o
aquel resultado aparece en el Ejercicio 3.9.13.

El siguiente teorema da una respuesta al problema de cuando se puede completar una casi-
matriz A para que quede positiva (semidefinida), siempre que el conjunto J en el que est´
                                                                                       a
definida tenga la propiedad (P). Observemos que si B ∈ Mn (C)+ es una completaci´n de un
                                                                                o
tal A, entonces, por el Teorema 2 de Schur 3.6.2, debe cumplirse que

               A ◦ C = B ◦ C ∈ Mn (C)+            para toda      C ∈ SJ ∩ Mn (C)+ .      (8.1)

Esto nos da una condici´n necesaria sobre A para que pueda existir una completacion po-
                         o
sitiva. Esta condici´n ser´ muy pobre si J no cumple (P), porque en tal caso habr´ muy
                    o      ıa                                                     ıa
pocas matrices en SJ ∩ Mn (C)+ . Pero veremos que, si J cumple (P), entonces la condici´n
                                                                                       o
es tambi´n suficiente:
         e
Teorema 8.4.2. Supongamos que J ⊆ In × In cumple (P). Sea A = (aij )i,j∈ J una matriz
definida solo en J. Luego las siguientes condiciones son equivalentes:

  1. Existe una completaci´n B de A tal que B ∈ Mn (C)+ .
                          o
  2. Para toda matriz C ∈ SJ ∩ Mn (C)+ se verifica A ◦ C ∈ Mn (C)+ .

Demostraci´n. En la Eq. (8.1) vimos que la ida es consequencia del Teorema 2 de Schur.
          o
Supongamos entonces que A cumple 2. Sea ϕA : SJ → C la funcional definida por

                         ϕA (C) =              aij cij ,   C = (cij ) ∈ SJ .
                                    (i,j)∈ J

Verifiquemos ahora que ϕA es positiva en SJ . En efecto, si C ∈ SJ ∩ Mn (C)+ , luego tambi´ne
C = C T ∈ SJ ∩ Mn (C)+ . Por hip´tesis A ◦ C ∈ Mn (C)+ . Si llamamos e = (1, . . . , 1) ∈ Rn ,
                                o
entonces
                 0 ≤ (A ◦ C) e, e =           aij cij = ϕA (C) = ϕA (C),
                                           (i,j)∈ J

por lo que ϕA es positiva. Observar que SJ verifica las hip´tesis del Teorema 8.3.4 (es
                                                               o
cerrado por adjunci´n e I ∈ SJ ), gracias a que J cumple (P). Luego, obtenemos una matriz
                   o
8.5 El teorema de Haagerup                                                                                159




B ∈ Mn (C)+ tal que ϕB S = ϕA . Notar que, si (i, j) ∈ J, entonces Eij ∈ SJ . Por otra
                             J
parte, es f´cil ver que tr (BEij ) = bji = bij . Luego,
           a
                bij = tr (BEij ) = ϕB (Eij ) = ϕA (Eij ) = aij         ,   (i, j) ∈ J .
Eso dice que B es una completaci´n positiva de A.
                                o


8.5     El teorema de Haagerup
                                                   ∗
Lema 8.5.1. Sean T ∈ Mn (C) y λ, µ ∈ R+ n . Notemos D1 = diag (λ) , D2 = diag (µ) ∈
                                                            −1/2 −1/2
Gl (n)+ y L ∈ Mn (C) la matriz con entradas Lij = λi            µj    .    Entonces

                              D1      T
                     M=                     ∈ M2n (C)+ ⇐⇒          L◦T ≤1 .
                              T∗      D2

Demostraci´n. Observar que
          o
        −1/2                       −1/2                                           −1/2         −1/2
      D1         0              D1           0                     I            D1        T D2
                −1/2     M                  −1/2       =    −1/2 ∗ −1/2                               .
        0      D2                 0        D2              D2   T D1                      I
                                                                               −1/2       −1/2
Luego, por la Proposici´n 3.7.6, M ∈ M2n (C)+ si y s´lo si D1
                       o                                 o                            T D2        ≤ 1. El
                                               −1/2    −1/2
resultado queda probado con s´lo observar que D1
                             o                      T D2    = L ◦ T.
Teorema 8.5.2. Sea A ∈ Mn (C). Luego las siguientes condiciones son equivalentes:

  1. KA ≤ 1, es decir A ◦ C ≤ C para todo C ∈ Mn (C). .
  2. Existen X, Y ∈ Mn (C)+ tales que
      (a) X ◦ I ≤ I e Y ◦ I ≤ I.
                            X A
      (b) La matriz N =                    ∈ M2n (C)+ .
                            A∗ Y
  3. Existen B, D ∈ Mn (C) tales que
      (a) A = D∗ B.
      (b) C(B) ≤ 1 y C(D) ≤ 1.

Demostraci´n. 1 → 2: Sea J ⊆ I2n × I2n dado por
          o
            J = {(i, i) : i ∈ I2n } ∪ {(i, n + j) : i, j ∈ In } ∪ {(n + i, j) : i, j ∈ In }.
Observar que J cumple (P). Consideremos la matriz P de tama˜o 2n × 2n, definida s´lo en
                                                              n                 o
J, dada por                                                      
                                                     1          ?
                        D A                              ..
                 P =              , donde D =                     ,
                                                                 
                        A∗ D                                .
                                                      ?         1
160                                                                        Producto de Hadamard




que es una matriz de tama˜o n × n definida solamente en la diagonal.
                         n

Clamor: Si M ∈ SJ ∩ M2n (C)+ , entonces P ◦ M ∈ M2n (C)+ .
                   D1 T
En efecto, M =               , donde T ∈ Mn (C), y D1 = diag (λ) , D2 = diag (µ) son matri-
                   T ∗ D2
ces diagonales positivas en Mn (C). Si suponemos que D1 , D2 son estrictamente positivas, y
                                                   −1/2 −1/2
notamos L ∈ Mn (C) la matriz con entradas Lij = λi     µj     , el Lema 8.5.1 nos dice que,
                    +
como M ∈ M2n (C) , entonces L ◦ T ≤ 1. Observar que

                                             D1         A◦T
                               P ◦M =                              .
                                           (A ◦ T )∗     D2

Como KA ≤ 1, tenemos que L ◦ (A ◦ T ) = A ◦ (L ◦ T ) ≤ 1. Usando nuevamente el Lema
8.5.1, deducimos que P ◦ M ∈ M2n (C)+ . El caso general (sin suponer que D1 y D2 son
inversibles) se deduce del anterior, tomando la sucesi´n
                                                      o
                    1
      Mm = M +        I2n    en SJ .   Entonces    M2n (C)+        P ◦ Mm − − → P ◦ M .
                                                                           −−
                    m                                                           m→∞

Como M2n (C)+ es cerrado, el clamor queda demostrado. Por el Teorema 8.4.2, tenemos que
existe una completaci´n N de P tal que
                     o

                   X    A
           N=                ∈ M2n (C)+     y, por lo tanto,       X ◦I =Y ◦I =I .
                   A∗   Y

Luego las matricecs X, Y ∈ Mn (C)+ cumplen lo pedido.
2 → 3: Como N ∈ M2n (C)+ , por el teorema de Cholewsky (Corolario 3.1.5), existe una
matriz K ∈ M2n (C) triangular superior tal que N = K ∗ K. Si la escribimos en bloques de
n × n,

              D    B                      D∗ D           D∗ B                   X     A
      K=                    =⇒ K ∗ K =                                      =             = N.
              0    G                      B∗D          B B + G∗ G
                                                        ∗
                                                                                A∗    Y

El resultado se sigue de que A = D∗ B y, como X ◦ I ≤ I e Y ◦ I ≤ I, entonces

                        C(D)2 = D∗ D ◦ I = X ◦ I ≤ 1                   y

                  C(B)2 = B ∗ B ◦ I ≤ (B ∗ B + G∗ G) ◦ I = X ◦ I ≤ 1 .
La implicaci´n 3 → 1 fu´ probada en el Teorema 8.2.4.
            o          e
Corolario 8.5.3 (Teorema de Haagerup (1983)). Sea A ∈ Mn (C). Entonces

              KA = m´
                    ın       C(B)C(D) : B, D ∈ Mn (C)          y           A = D∗ B   .

Demostraci´n. Si KA = 0, entonces por la Observaci´n 8.2.2, se tiene que A = 0 y el resultado
            o                                     o
es trivial. Si KA > 0, una desigualdad se deduce del Teorema 8.2.4 y, para probar la otra,
                       −1
basta cambiar A por KA A y aplicar 1 → 3 del Teorema 8.5.2.
8.6 Determinantes                                                                                                      161




Corolario 8.5.4. Sea A ∈ Mn (C). Notemos A(k) ∈ Mkn (C) la matriz con k × k bloques de
n × n iguales a A. Entonces KA = KA(k) .

Demostraci´n. Es evidente que KA ≤ KA(k) (trabajando con matrices de n × n rellenadas
           o
con ceros). Rec´ıprocamente, si B, D ∈ Mn (C) cumplen que A = D∗ B y KA = C(B)C(D),
entonces
                                              ∗              
                    A ... A            D ... D         B ... B
                   A ... A   0 ... 0   0 ... 0 
                                                                       ∗
          A(k) =  .         . = .                           .  = Dk Bk .
                                                             
                        .                  .   .   .      .
                   ..  .
                        .    .   .
                             .         .   .
                                           .   .   .
                                               .       .    .
                                                            .  . 
                                                               .
                            A     ...      A                0      ...      0               0      ...     0

Pero es claro que C(Bk ) = C(B) y C(Dk ) = C(D), dado que tienen las mismas columnas
(salvo ceros). As´ KA(k) ≤ C(B)C(D) = KA .
                 ı,


8.6         Determinantes
Teorema 8.6.1 (Desigualdad de Hadamard). Si A ∈ Mn (C)+ , entonces
                                                                                    n
                                               det A ≤ det (A ◦ I) =                    aii .
                                                                                i=1

La igualdad vale si y s´lo si A es diagonal.
                       o

Demostraci´n. Podemos suponer que A > 0, y entonces aii > 0, para todo i ∈ In . Conside-
          o
ramos la matriz diagonal
                                        1/2
                             D = diag a11 , . . . , a1/2 .
                                                     nn

                                               −1/2 −1/2
Entonces B = D−1 AD−1 = (aii                       ajj aij )ij           tiene unos en la diagonal. Adem´s,
                                                                                                        a
                                                                                             n
                                   det B = det A (det D)−2 = det A                                 a−1 .
                                                                                                    ii
                                                                                             i=1

Por lo tanto, ser´ suficiente mostrar que det B ≤ 1. Aplicando la desigualdad aritm´tico-
                 ıa                                                               e
geom´trica 1 obtenemos,
     e
                                          n                          n                  n
                                                                 1                                  B      n
                          det(B) =             λi (B) ≤                    λi (B)           = tr               =1.
                                         i=1
                                                                 n   i=1
                                                                                                    n

y esto prueba el resultado. Con respecto a la igualdad, si la hubiera en la desigualdad
aritm´tico-geom´trica, entonces los n´meros involucrados deben ser todos iguales. Es decir
     e           e                   u
que todos los λi (B) = 1. Pero entonces, como B ≥ 0, debe ser B = I, o sea A = D2 .
                                         m      1          m
  1 Si
                                         Q             1   P
         a1 , . . . , am > 0, entonces         aim ≤   m
                                                                 ai . Sale usando que el log es una funci´n c´ncava.
                                                                                                         o o
                                         i=1               i=1
162                                                                      Producto de Hadamard




Corolario 8.6.2. Sea A ∈ Mn (C). Entonces
                                                  n
                                    | det A| ≤         Ci (A)   2
                                                                    .                    (8.2)
                                                 i=1


Demostraci´n. Se aplica la desigualdad de Haramard a la matriz B = A∗ A ≥ 0. Notar que
            o
det B = | det A|2 y que Bii = Ci (A) 2 , para todo i ∈ In .
                                     2


Ejercicio 8.6.3. Veremos tres demostraciones alternativas de estas desigualdades.

  1. Probar el Teorema 8.6.1 usando el Teorema 3 de Schur 5.1.1 y el Corolario 4.2.3.

  2. Probar que el Corolario 8.6.2 implica la desigualdad de Hadamard.

  3. Probar el Corolario 8.6.2 usando la descomposici´n QR (Teorema 1.8.2) de A ∈ Mn (C).
                                                      o
     Observar que (8.2) es trivial para matrices triangulares.

  4. Probar el Corolario 8.6.2 usando la interpretaci´n del determinante como un ´rea o
                                                     o                           a
     volumen.
                                         detA
Lema 8.6.4. Sean A ∈ Gl (n)+ y α(A) = detA11 , donde A11 = (aij )2≤i,j≤n ∈ Mn−1 (C). Sea
E11 = e1 et ∈ Mn (C). Entonces A − tE11 ≥ 0 si y s´lo si t ≤ α(A).
          1                                       o

Demostraci´n. Es f´cil ver, desarrollando por la primera columna, que
          o       a

                             det(A − tE11 ) = det A − t det A11 .                        (8.3)

Luego, det(A − tE11 ) ≥ 0 si y s´lo si t ≤ α(A). Por otro lado, todas las dem´s submatrices
                                o                                             a
principales de A − tE11 obtenidas con las ultimas i filas y columnas, son las mismas que las
                                           ´
respectivas de A. Por lo tanto, el determinante de cada una de ellas es positivo. Luego, por
el Teorema 2.4.6 (hecho desde abajo), tenemos el resultado para desigualdades estrictas. El
caso general sale tomando l´
                           ımite.

Teorema 8.6.5 (Desigualdad de Oppenheim). Si A, B ∈ Mn (C)+ , entonces
                                n
                      det A ·         bii = det A · det B ◦ I ≤ det A ◦ B
                                i=1


Demostraci´n. Si det A = 0, el resultado se deduce del Teorema 2 de Schur 8.1.2, que asegura
           o
que A ◦ B ≥ 0. Supongamos, entonces, que A > 0. La demostraci´n la realizaremos por
                                                                      o
inducci´n sobre n. Si n = 1, el resultado es inmediato. Sea n ≥ 2 y supongamos el resultado
        o
v´lido para todas las matrices de dimensi´n n − 1. Entonces, con las notaciones del Lema
 a                                         o
8.6.4, sabemos que
                                            n
                             det A11 ·           bii ≤ det A11 ◦ B11 .
                                           i=2
8.6 Determinantes                                                                                          163




Por el Lema 8.6.4, si α = (det A11 )−1 det A, entonces A − αE11 ≥ 0. El Teorema 2 de Schur
8.1.2 dice que (A − αE11 ) ◦ B ≥ 0. Aplicando la f´rmula (8.3), como E11 ◦ B = b11 E11 y
                                                     o
(A ◦ B)11 = A11 ◦ B11 , resulta que

                 0 ≤ det(A ◦ B − αE11 ◦ B) = det A ◦ B − αb11 det(A11 ◦ B11 ).

Aplicando la hip´tesis inductiva, obtenemos
                o
                                                                          n                    n
          det A ◦ B ≥ α b11 det A11 ◦ B11 ≥ α b11 det A11                      bii = det A ·         bii
                                                                         i=2                   i=1

y el teorema queda demostrado.


Teorema 8.6.6 (Desigualdad de Fisher). Sea A ∈ Mn (C)+ , y sea P un sistema de proyec-
tores en H(n). Entonces
                                det A ≤ det(CP (A)).
                                 r
Recordamos que CP (A) =          i=1    Pi APi , si P = {P1 , . . . , Pr }.

Demostraci´n. Por la Eq. (5.8), basta probar el caso P = {P, I − P }, para P ∈ H(n)
            o
un proyector. Supongamos que dim R(P ) = k. Conjugando a P y a A con alguna matriz
unitaria (lo que no cambia los determinantes), podemos suponer que R(P ) es el subespacio
generado por los primeros k elementos de la base can´nica de Cn . O, lo que es lo mismo, que
                                                                o
P = diag (1, . . . , 1, 0, . . . , , 0), donde los unos llegan hasta el lugar k.
   Dado r ∈ N, llamemos Er ∈ Mr (C)+ a la matriz con todas sus entradas iguales a 1. Notar
                       ∗       2
que Er ≥ 0 porque 0 ≤ Er Er = Er = rEr . Consideremos la matriz de bloques

                                              Ek      0
                                    B=                          ∈ Mn (C)+ ,
                                              0      En−k

que verifica que A ◦ B = CP (A). Aplicando la desigualdad de Oppenheim, tenemos que
                n
det A = det A         bii ≤ det A ◦ B = det CP (A).
                i=1

Observaci´n 8.6.7. Otra demostraci´n del Teorema anterior puede hecerse usando las
            o                           o
Proposiciones 5.4.4 y 4.2.3. En efecto, con las notaciones de 8.6.6, como µ(CP (A)) µ(A),
si µn (A) > 0, entonces tambi´n µn (CP (A)) > 0 y
                             e
                                    n                n
                          det A =         µi (A) ≤         µi (CP (A)) = det CP (A) .
                                    i=1              i=1

Si µn (A) = 0, entonces det A = 0, pero CP (A) ≥ 0, por lo que det CP (A) ≥ 0.

De los resultados anteriores obtenemos la siguiente relaci´n para el determinante del producto
                                                          o
convencional de matrices y el producto de Hadamard.
164                                                                                  Producto de Hadamard




Teorema 8.6.8. Si A, B ∈ Mn (C)+ , entonces

                                            det A B ≤ det A ◦ B.

Demostraci´n. El Teorema se deduce de las desigualdades de Hadamard y de Oppenheim.
          o
                                                           n
En efecto, det A B = det A det B ≤ det A                       bii ≤ det A ◦ B.
                                                       i=1



8.7     Ejercicios
Ejercicios del texto
8.7.1. Dada A ∈ Mn,m (C), mostrar que

 C(A) = m´x Ci (A)
         a                    2
                                  = A∗ A ◦ I m   1/2
                                                 sp            y    F (A) = m´x Fi (A)
                                                                             a           2
                                                                                             = AA∗ ◦ In   1/2
                                                                                                          sp    .
         i ∈ Im                                                             i ∈ In


Deducir que m´x C(A) , F (A) ≤ A
             a                                   sp    .

8.7.2. Sea A ∈ Mn (C). Porbar las siguientes afirmaciones:

  1. Si N = ·     2
                      (la norma de Frobenius), entonces

                                       KN (A) = m´x |aij |
                                                 a                   ,   A ∈ Mn (C) .
                                                      i,j


  2. Dadas B, C ∈ Mn (C), se cumple que

                          tr (A ◦ B)C T          =             aij bij cij = tr B(A ◦ C)T    .
                                                       i,j


  3. Probar que el operador “adjunto” de MA ∈ L(Mn (C) ) es el mismo MA , idenficando
     Mn (C) con Mn (C), a trav´s de la aplicaci´n
                               e               o

                                   Mn (C)    C −→ ϕC = tr( · C T ) ∈ Mn (C) .

  4. Probar que K     ·   1
                              (A) = KA .

8.7.3. Sea S ⊆ Mn (C) un subespacio cerrado por adjunci´n (i.e. T ∈ S =⇒ T ∗ ∈ S).
                                                       o

  1. Sea ϕ una funcional en S (usaremos notaciones de la Definici´n 8.3.1). Probar que
                                                                o

      (a)   ϕ = ϕ∗ .
      (b) ϕ es autoadjunta si y s´lo si ϕ(A) ∈ R para toda A ∈ S ∩ H(n).
                                 o
      (c) Si ϕ es positiva, entonces es tambi´n autoadjunta.
                                             e
8.7 Ejercicios                                                                                      165




       (d) Toda funacional autoadjunta en S es resta de dos positivas.

      Se usa que si A ∈ S, entonces Re A ∈ S e Im A ∈ S.

   2. Dada B ∈ Mn (C), se define la siguiente funcional en Mn (C):

            ϕB : Mn (C) → C         dada por            ϕB (A) = A, B = tr(AB ∗ ) ,   A ∈ Mn (C).

      Verificar que

       (a) Para toda funcional ϕ en Mn (C) existe una unica matriz B ∈ Mn (C) tal que
                                                      ´
           ϕ = ϕB .
       (b) Dados x, y ∈ Cn consideremos la matriz x y = xy ∗ ∈ Mn (C) , definida en la
           secci´n 1.9. Se tiene que ϕB (xy ∗ ) = x, By .
                o
       (c) (ϕB )∗ = ϕB ∗ , y por lo tanto ϕB es autoadjunta si y s´lo si B ∈ H(n).
                                                                  o
       (d) ϕB es positiva si y s´lo si B ∈ Mn (C)+ .
                                o

8.7.4 (Hahn Banach finito). Sea S ⊆ Mn (C) un subespacio, y sea ϕ : S → C una funcional
lineal. Si ϕ = m´x{|ϕ(A)| : A ∈ S y A sp = 1}, existe una extensi´n Φ de ϕ a todo
                   a                                                 o
Mn (C) que tiene la misma norma.
                                          n      1          n
                                                        1
8.7.5. Si a1 , . . . , an > 0, entonces         ain ≤   n         ai .
                                          i=1               i=1


8.7.6. Distintas pruebas de la desigualdad de Hadamard:

   1. Probar el Teorema 8.6.1 usando el Teorema 3 de Schur 5.1.1 y el Corolario 4.2.3.

   2. Probar que el Corolario 8.6.2 implica la desigualdad de Hadamard.

   3. Probar el Corolario 8.6.2 usando la descomposici´n QR (Teorema 1.8.2) de A ∈ Mn (C).
                                                       o
      Observar que (8.2) es trivial para matrices triangulares.

   4. Probar el Corolario 8.6.2 usando la interpretaci´n del determinante como un ´rea o
                                                      o                           a
      volumen.

8.7.7. Dar los detalles de la prueba del Lema 8.6.4.


Ejercicios nuevos
8.7.8. Sean x, y ∈ Cn y G ∈ Mn (C). Probar que
                                                                         ∗
                                 G◦x            y = diag (x) G diag (y) .

Definici´n 8.7.9. Dada G ∈ Mn (C)+ , se define:
       o
166                                                                                      Producto de Hadamard




  1. El ´
        ındice minimal de G como
                I(G) = max{λ ≥ 0 : G ◦ B ≥ λB                             para todo         B ∈ Mn (C)+ } .

  2. Dada una norma N en Mn (C), se define el ´
                                             ındice N de Hadamard para G como
           IN (G) = max              λ ≥ 0 : N (G ◦ B) ≥ λN (B)                    para todo        B ∈ Mn (C)+


                     = min           N (G ◦ B) : B ∈ Mn (C)+ y N (B) = 1 .

   ındice de G asociado con la norma espectral · = · sp se denota Isp (G), mientras que
El ´
el asociado a la norma Frobenius · 2 ser´ denotado por I2 (G).
                                         a
8.7.10. Sean G ∈ Mn (C)+ , 1 = (1, . . . , 1) ∈ Cn y E = 1 · 1T . Sea N una norma.

  1. I(G) = 0 si y s´lo si 1 ∈ R(G). Si y ∈ Cn cumple que Gy = 1, entonces
                    o
                          m          −1                                                                 n
                                                   −1
            I(G) =              yi        = y, 1        = ρ(G† E)−1 = min { Gz, z                   :         zi = 1 }
                          i=1                                                                           i=1
                                                      n                   −1             det G
      Y si G > 0, se tiene que I(G) =                     (G−1 )ij             =                      .
                                                     i,j=1                         det(G + E) − det G
  2. I(G) ≤ IN (G) para cualquier norma unitariamente invariante N .
  3. IN (G) = 0 ⇐⇒ G ◦ I = 0 ⇐⇒ Gii = 0 para todo i ∈ In .
  4. Si D = diag (d) ∈ Gl (n)+ es diagonal, IN (D) = N (D−1 )−1 . En part.
                                                 n            −1                             n          −1/2
                 I(D) = Isp (D) =                     d−1
                                                       i              e     I2 (D) =              d−2
                                                                                                   i           .
                                                i=1                                         i=1

  5. Los indices I2 e Isp se alcanzan en matrices B ∈ Mn (C)+ de rango 1. O sea,
                     I2 (G) = min             G ◦ xx∗     2    e       Isp (G) = min             G ◦ yy ∗ .
                                      x =1                                            y =1

      M´s a´n, ambos minimos se alcanzan en vectores x
       a u                                                                         0 (o y     0).
  6. Isp (A) = ´ { Isp (D) : A ≤ D y D es diagonal }.
               ınf
  7. Si x ∈ Cn , entonces Isp (x             x) = m´ |xi |2 .
                                                   ın
                                                   i∈In

                 a    b
  8. Sea A =                  ∈ M2 (C)+ . Probar que
                 b    c
                                                                    ac−|b|2
      (a) Si |b| < min{a, c}, entonces Isp (A) =                   a+c−2|b|    .
      (b) Si |b| ≥ m´
                    ın{a, c}, se tiene que Isp (A) = m´
                                                      ın{a, c}.
Cap´
   ıtulo 9

Algunas desigualdades de
matrices

9.1     Partes reales
Definici´n 9.1.1. Si A ∈ Mn (C), se llama parte real de A a
       o

                                               A + A∗
                                     Re A =           ∈ H(n).
                                                 2
Si x ∈ Cn , notaremos Re x ∈ Rn al vector de las partes reales de sus coordenadas.

Proposici´n 9.1.2 (Fan-Hoffman). Sea A ∈ Mn (C). Entonces
         o

  1. µk (Re A) ≤ µk (|A|) = sk (A), para todo k ∈ In .

  2. Existe U ∈ U(n) tal que Re A ≤ U |A|U ∗ .

Demostraci´n. Sean x1 , . . . , xn y w1 , . . . , wn bases ortonormales de Cn , formadas por au-
           o
tovectores de Re A (resp. A∗ A) adaptadas a µ(Re A) (resp. µ(A∗ A) ). Dado k ∈ In , sea

                          x ∈ Gen {x1 , . . . , xk } ∩ Gen {wk , . . . , wn } ,

un vector unitario (debe existir por las dimensiones de los subespacios). Entonces, por el
Teorema de Courant-Fisher 2.3.3 y la Proposici´n 3.2.6,
                                              o

           µk (Re A) ≤ Re A x, x = Re Ax, x ≤ | Ax, x |

                       ≤ Ax = A∗ Ax, x          1/2
                                                      ≤ µk (A∗ A)1/2 = µk (|A|) = sk (A) .

La segunda parte se deduce de la primera, dado que diag (µ(Re A) ) ≤ Σ(A).
168                                                            Algunas desigualdades de matrices




Proposici´n 9.1.3 (Ky Fan). Dada A ∈ Mn (C), sea µ(A) ∈ Cn el vector de autovalores de
          o
A en alg´n orden. Entonces
        u
                                Re µ(A) µ(Re A)

Demostraci´n. Ordenemos al vector µ(A) de tal modo que
          o

                                 Re µ1 (A) ≥ Re µ2 (A) ≥ . . . ≥ Re µn (A) .

Sea {x1 , . . . , xn } una base ortonormal respecto a la cual A es una matriz triangular superior,
y tal que Axi , xi = µi (A) (que existe por el Teorema 1 de Schur 1.6.1). Dado k ∈ In , por
el Principio del m´ximo de Ky Fan (Proposici´n 5.1.4), se tiene que
                        a                          o
       k                  k                   k                     k                      k
            Re µ(A)↓ =
                   j           Re µj (A) =         Re Axj , xj =         Re A xj , xj ≤         µj (Re A) .
      j=1                j=1                 j=1                   j=1                    j=1

                                                       tr A + tr A      A + A∗
Para k = n hay igualdad porque Re tr(A) =                          = tr        = tr Re A.
                                                            2             2
Corolario 9.1.4. Si A ∈ Mn (C) cumple que A + A∗ > 0, entonces

                                       σ (A) ⊆ {z ∈ C : Re z > 0} .

En realidad, se puede cambiar Re z > 0 por µn (Re A) ≤ Re z ≤ µ1 (Re A).
Observaci´n 9.1.5. Sean A, B ∈ H(n). Se llama producto simetrizado de A y B a
         o

                                    S = S(A, B) = AB + BA ∈ H(n) .

Supongamos que A > 0 y S = S(A, B) > 0. Notar que, si C = A−1/2 BA1/2 ,

                    0 < A−1/2 SA−1/2 = A1/2 BA−1/2 + A−1/2 BA1/2 = Re C .

Por el Corolario 9.1.4, se tiene que σ (C) = σ (B) ⊆ R∗ . Como B ∈ H(n), debe ser B > 0.
                                                      +

Si A ∈ Mn (C)+ no es inversible, notar que dado ε > 0 bien chico, se tiene que

           S(A + εI, B) = S(A, B) + 2εB > 0            (porque Gl (n)+ es abierto en H(n) ) .

Luego se aplica el caso anterior, y tambien A ≥ 0 + S(A, B) > 0 =⇒ B > 0.
Ejercicio 9.1.6. Sean A, B ∈ H(n).

  1. Probar que, para cada x ∈ Cn , se tiene S(A, B)x, x = 2 Re Ax, Bx .
  2. Dar un ejemplo de matrices positivas A y B tales que S(A, B) ≥ 0.

Proposici´n 9.1.7 (Kittaneh ’95). Sean A, B ∈ Mn (C) tales que AB ∈ H(n). Entonces,
         o

                                             |||AB||| ≤ ||| Re BA|||

para toda NUI ||| · ||| en Mn (C).
9.1 Partes reales                                                                       169




Demostraci´n. Comencemos notando que los autovalores de BA son los mismos que los de
          o
AB y por ende son todos reales. M´s a´n, en la Proposici´n 1.5.5 vimos que µ(AB) = µ(BA).
                                  a u                   o
Luego, usando la Proposici´n 9.1.3, obtenemos que
                          o
                         µ(AB) = µ(BA) = Re µ(BA)         µ(Re BA).
Como AB y Re BA ∈ H(n), podemos aplicar el Corolario 5.3.14 (usando que t → |t| es
convexa) y deducir que s(AB) = |µ(AB)|↓ w |µ(Re AB)|↓ = s(Re AB), por lo que |||AB||| ≤
||| Re(BA)||| para toda NUI.
Proposici´n 9.1.8 (Corach-Porta-Recht, ’93). Sean T, S ∈ H(n) y supongamos que S es
            o
inversible. Entonces,
                          |||ST S −1 + S −1 T S||| ≥ 2 |||T |||
para toda NUI ||| · ||| en Mn (C).

Demostraci´n. Aplicar la desigualdad de Kittaneh a A = T S −1 y B = S.
          o
Ejercicios 9.1.9.  1. Usando el famoso truco de las matrices de 2×2, extender la desigual-
     dad CPR a cualquier T ∈ Mn (C), no necesariamente autoadjunta. Se sugiere usar las
     matrices
                                        0 T
                                 T =             ∈ M2n (C)
                                       T∗ 0
     y una adecuada S1 ∈ H(2n) invertible. Ojo con los sk (T ), que son los de T , pero
     repetidos dos veces cada uno.
  2. Con el mismo truco, probar tambi´n que, si T ∈ Mn (C) y S ∈ H(n) es inversible,
                                      e
     entonces
                              |||ST S + S −1 T S −1 ||| ≥ 2 |||T |||
     para toda NUI ||| · ||| en Mn (C).
  3. Verificar, adem´s, que la constante 2 es ´ptima en el primer caso (fijando S y moviendo
                     a                       o
     todos los T ∈ Mn (C) o H(n) ), pero no siempre lo es en el segundo. ¿Para qu´ matrices
                                                                                  e
     S lo ser´? (esto ultimo es dif´ pero es f´cil encontrar familias razonablemente grandes
             a        ´            ıcil,      a
     de ejemplos donde vale, al menos para la norma espectral).
  4. Otra manera de probar la desigualdad CPR (la original) es
      (a) Primero reducir al caso en que S es diagonal.
      (b) Despu´s escribir ST S −1 + S −1 T S como un producto de Hadamard.
                e
      (c) Verificar que la matriz que multiplica Hadamard, luego de “pasarla dividiendo”,
          es semi definida positiva.
      (d) Aplicar el siguiente resultado: Si A ≥ 0, entonces para toda B ∈ Mn (C) y para
          toda nui ||| · ||| en Mn (C), se tiene que
                               |||A ◦ B||| ≤ m´x { aii : i ∈ In } |||B||| .
                                              a
          Esto es conocido como el Teorema de Schur (ver Corolario 8.2.5, Schur 4).
170                                                        Algunas desigualdades de matrices




 9.2     Desigualdad de Thompson
 Observaci´n 9.2.1. A diferencia del m´dulo de n´meros, el de matrices no cumple la de-
            o                             o          u
 sigualdad triangular. O sea que existen matrices A, B tales que |A + B| ≤ |A| + |B| (Ejercicio:
 encontrar un par as´ en M2 (C) ). Esto sucede porque sus partes unitarias pueden mezclar
                     ı
 tama˜os en forma aleatoria. Lo mejor que se tiene para ese lado es el siguiente resultado,
      n
 donde uno corrige ese problema:
 Teorema 9.2.2 (Thompson). Dadas A, B ∈ Mn (C), existen U, V ∈ U(n) tales que
                                   |A + B| ≤ U |A|U ∗ + V |B|V ∗ .                                  (9.1)

 Demostraci´n. Hagamos la descomposici´n polar A+B = W |A+B|, con W ∈ U(n). Entonces
           o                          o
              |A + B| = W ∗ (A + B) = Re W ∗ (A + B) = Re W ∗ A + Re W ∗ B .                        (9.2)
 Por otra parte, por la Proposicion 9.1.2 (Fan-Hoffman), existen U, V ∈ U(n) tales que
          Re W ∗ A ≤ U |W ∗ A|U ∗ = U |A|U ∗        y   Re W ∗ B ≤ U |W ∗ B|U ∗ = U |B|U ∗ ,
 porque (W ∗ A)∗ W ∗ A = A∗ W ∗ W A = A∗ A y entonces |W ∗ A| = |A| (lo mismo para B).
 En el caso de la desigualdad triangular num´rica, la igualdad se da si y s´lo si ambos n´meros
                                            e                              o             u
 poseen igual argumento. Algo similar vale en el caso matricial:
 Teorema 9.2.3. Dadas A, B ∈ Mn (C), las siguientes afirmaciones son equivalentes:

   1. S´lo la igualdad puede darse en la ecuaci´n (9.1).
       o                                       o
   2. Existe W ∈ U(n) tal que A = W |A| y tambi´n B = W |B|.
                                               e

 Demostraci´n.
           o
1 ⇒ 2 Sea A + B = W |A + B| la descomposici´n polar de A + B, con W ∈ U(n). Veremos que
                                           o
      W A ≥ 0 y W B ≥ 0. Como en la Eq. (9.2), se tiene que
                                       |A + B| = Re W ∗ A + Re W ∗ B .
       Llamemos C = W ∗ A y D = W ∗ B. Siguiendo el razonamiento anterior, por la Proposi-
       cion 9.1.2 (Fan-Hoffman), existen U, V ∈ U(n) tales que Re W ∗ A = Re C ≤ U |A|U ∗ y
       Re D ≤ V |B|V ∗ . Ahora bien, la hip´tesis de que s´lo puede darse la igualdad en (9.1)
                                           o              o
       fuerza a que Re C = U |A|U ∗ y Re D = V |B|V ∗ . Por lo tanto,
                        2                           tr AA∗ + tr A∗ A   tr CC ∗ + tr C ∗ C
            tr (Re C)       = tr |A|2 = tr A∗ A =                    =                    .         (9.3)
                                                           2                   2
                                   2
       Observar que 4 tr (Re C)        = tr CC ∗ + tr C ∗ C + tr C 2 + tr(C ∗ )2 , por lo que la Eq. (9.3)
       se traduce como tr CC ∗ + tr C ∗ C = tr C 2 + tr(C ∗ )2 . Luego
                  tr (C − C ∗ )(C ∗ − C) = tr CC ∗ + tr C ∗ C − tr C 2 − tr(C ∗ )2 = 0 .
       Esto muestra que C = W ∗ A ∈ H(n). Luego W ∗ A = Re W ∗ A = U |A|U ∗ ∈ Mn (C)+ .
       Analogamente se prueba que W ∗ B ∈ Mn (C)+ .
9.3 Desigualdad aritm´tico-geom´trica en matrices
                      e         e                                                                    171




2 ⇒ 1 Supongamos ahora que A = W |A| y B = W |B| para la misma W ∈ U(n). Luego
      A + B = W (|A| + |B|) =⇒ |A + B| = |A| + |B|. Si vale (9.1) para alg´n par
                                                                          u
      U, V ∈ U(n), entonces
       |A| + |B| ≤ U |A|U ∗ + V |B|V ∗ =⇒ M = U |A|U ∗ + V |B|V ∗ − |A| − |B| ∈ Mn (C)+ .
       Luego, la matriz M ∈ Mn (C)+ y tiene traza nula, o sea que M = 0. Esto muestra que
       s´lo la igualdad puede complirse en (9.1).
        o



 9.3     Desigualdad aritm´tico-geom´trica en matrices
                          e         e
 Recordemos la siguiente desigualdad num´rica, que ya hab´ aparecido en el Teorema 8.6.1:
                                                 e             ıa
 Dados a1 , . . . , am ∈ R∗ y λ1 . . . , λm ∈ [0, 1] tales que
                          +
                                                               λi = 1, se cumple que
                                                                      i∈Im
                                              m             m
                                                    aλi ≤
                                                     i            λi ai .                            (9.4)
                                              i=1           i=1

 Es la llamada desigualdad aritm´tico-geom´trica, y se demuestra r´pidamente usando que el
                                 e          e                        a
 logaritmo es una funci´n creciente y c´ncava (de n´meros). Como se har´ en la mayor´ de
                         o              o           u                       a              ıa
 las secciones que siguen, daremos versiones matriciales de ella. Pero en principio s´lo para el
                                                                                     o
 caso m = 2 y λ1 = λ2 = 1 . Algunas p´ginas m´s adelante (Teorema 9.4.1), mostraremos una
                           2           a       a
 versi´n m´s general (s´lo se asume que m = 2), que es tambi´n conocida como la desigualdad
      o    a            o                                     e
 de Young. Igual damos una prueba de este caso, porque usa una t´cnica interesante que es
                                                                      e
 bueno ver c´mo funciona.
             o
 Proposici´n 9.3.1. Sean A, B ∈ Mn (C). Entonces
          o
                                     1
                     si (AB ∗ ) ≤      si (A∗ A + B ∗ B)           para todo i ∈ In .
                                     2
                             A       0
 Demostraci´n. Sea X =
           o                              ∈ M2n (C). Cuentas elementales muestran que
                             B       0
                            A∗ A + B ∗ B            0                          AA∗   AB ∗
                 X ∗X =                                     y     XX ∗ =                     .
                                 0                  0                          BA∗   BB ∗
             I   0               I        0
 Sean P =             yU=                           = 2P − I2n ∈ U(2n). Luego
             0   0               0       −I
                       0     AB ∗                                            1
            AB ∗ =                        = XX ∗ − CP (XX ∗ ) =                XX ∗ − U XX ∗ U ∗ .
                      BA∗     0                                              2
                                                        +         −
 Tomemos la descomposici´n AB ∗ = AB ∗ − AB ∗ . Observar que ambas matrices XX ∗ y
                          o
 U XX ∗ U ∗ ∈ M2n (C)+ . Luego, la Eq. (3.7) y el ´
                                                  ıtem 5.b de la Secci´n 3.3 aseguran que
                                                                      o
                                          +          1             1            1
    si (AB ∗ ) = µi AB ∗ = µi AB ∗             ≤       µi (XX ∗ ) = µi (X ∗ X) = si (A∗ A + B ∗ B) ,
                                                     2             2            2
172                                                          Algunas desigualdades de matrices




para todo i ∈ In .

El siguiente resultado es m´s fino que el anterior, y no se generaliza tan f´cilmente (salvo para
                           a                                               a
la norma Frobenius, ver Teorema 9.4.7).
Proposici´n 9.3.2. Sean A, B, X ∈ Mn (C). Entonces se tiene que
         o
                                                1
                               |||AXB ∗ ||| ≤     |||A∗ AX + XB ∗ B||| ,                        (9.5)
                                                2
para toda NUI ||| · ||| en Mn (C).

Demostraci´n. Debemos dividir la prueba en tres pasos:
          o
Paso 1: Supondremos que A = B ∈ H(n) y tambi´n X ∈ H(n). Por la Proposici´n 9.1.7,
                                            e                            o
                                                         1
                        |||AXA||| ≤ ||| Re XA2 ||| =       |||A2 X + XA2 ||| .
                                                         2
Paso 2: Ahora X es cualquiera, pero A, B ∈ H(n): Tomemeos

                           A   0                               0    X
                 T =                 ∈ H(2n)       e   Y =                   ∈ H(2n) .
                           0   B                               X∗   0
                             1
Por el Paso 1, s(T Y T )   w 2   s(T 2 Y + Y T 2 ). Pero cuentas f´ciles muestran que
                                                                  a

              0         AXB
  TY T =                           = A∗ XB       y an´logamente
                                                     a              T 2 Y + Y T 2 = A2 X + XB 2 .
             BX ∗ A      0
                                               1                         1
Luego podemos deducir que s(AXB)             w 2   s(A2 X + XB 2 ) = s   2   [A2 X + XB 2 ] .

Paso 3: El caso general. Tomemos descomposiciones polares A = U |A| y B = V |B|, con
U, V ∈ U(n). Notar que A∗ AX + XB ∗ B = |A|2 X + X|B|2 , mientras que

                      |||AXB ∗ ||| = ||| U |A| X |B| V ∗ ||| = ||| |A| X |B| |||,

con lo que la desigualdad (9.5) queda demostrada en general a partir del Paso 2.


9.4     Desigualdades de Young para matrices
La desigualdad de Young cl´sica dice que si a, b ∈ R+ y p, q ∈ [1, +∞), entonces
                          a

                               1 1            ap   bq
                                + = 1 =⇒ ab ≤    +    ,                                         (9.6)
                               p q            p    q
con igualdad si y s´lo si ap = bq . Observar que escrita as´ es un refraseo de la desigualdad
                   o                                       ı,
aritm´tico geom´trica (9.4). Primero daremos una versi´n de (9.6) para valores singulares de
     e          e                                       o
matrices, que generaliza la Proposici´n 9.3.1.
                                     o
9.4 Desigualdades de Young para matrices                                                              173



                                                                     1       1
Teorema 9.4.1 (Ando [19]). Sean p, q ∈ [1, +∞) tales que             p   +   q   = 1. Entonces para todo
par de matrices A, B ∈ Mn (C) y todo j ∈ In , se tiene que
                                                       |A|p   |B|q
                                 sj (AB ∗ ) ≤ sj            +        ,                                (9.7)
                                                        p      q
                                                                         |A|p   |B|q
o equivalentemente, que existe U ∈ U(n) tal que U |AB ∗ |U ∗ ≤                +      .
                                                                          p      q

Antes de demostrar el teorema, necesitamos algunos pasos t´cnicos:
                                                          e
Lema 9.4.2. Sean Q ∈ Mn (C) una proyecci´n ortogonal y X ∈ Mn (C)+ . Entonces
                                        o
    QX r Q ≤ (QXQ)r        para 0 < r ≤ 1      y       QX r Q ≥ (QXQ)r            para 1 ≤ r ≤ 2 .

Demostraci´n. Puesto que f (t) = tr es c´ncava de operadores para r ∈ [0, 1] y convexa de
           o                               o
operadores para r ∈ [1, 2], este lema es un respaso de la Proposici´n 6.3.9.
                                                                   o

El paso clave para probar el teorema, v´ el c´culo de los autovalores con el principio minimax
                                         ıa    a
del cap´
       ıtulo 2, es el siguiente resultado tecniqu´
                                                 ısimo:
Lema 9.4.3. Sean p ∈ (1, 2] y q ∈ [2, +∞) tales que p + 1 = 1. Sean A ∈ Mn (C)+ ,
                                                            1
                                                                 q
B ∈ Gl (n)+ y k ∈ In . Sean B = {v1 , . . . , vn } una BON de Cn adaptada a µ(|AB|), y Sk =
Gen {v1 , . . . , vk }. Llamemos P al proyector ortogonal sobre Sk y Q al proyector ortogonal
sobre M := R(B −1 P ) = B −1 (Sk ). Si abreviamos µ = µk (|AB|), se tiene que
                                            QAp Q QB q Q
                                   µQ≤           +       .                                            (9.8)
                                             p      q

Demostraci´n. Por la definici´n de Q se tienen las siguientes igualdades:
          o                 o
                          QB −1 P = B −1 P         y     P B −1 Q = P B −1 .                          (9.9)
Por otra parte, sabemos que B(R(Q) ) = B(M) = Sk = R(P ) , por lo que
                                 P BQ = BQ         y     QBP = QB .                                  (9.10)
Luego, juntado esta ultima igualdad con (9.9)
                    ´
                            (QB 2 Q)(B −1 P B −1 ) = QBP B −1 = Q .
An´logamente, se ve que (B −1 P B −1 )(QB 2 Q) = Q, lo cual muestra que la inversa de QB 2 Q
   a
“dentro de M” es B −1 P B −1 . Usando quien es Sk , vemos que µ P ≤ |AB|. Luego,
          (BA2 B)1/2 = |AB| ≥ µP =⇒ BA2 B ≥ µ2 P =⇒ A2 ≥ µ2 B −1 P B −1 ,
donde vale elevar al cuadrado por que |AB| y P conmutan. Como p ∈ (1, 2], tenemos que la
                  p
funci´n f (t) = t 2 es mon´tona de operadores. Luego, usando (9.9), se ve que
     o                    o
                             p                                           p                      p
      Ap ≥ µp (B −1 P B −1 ) 2   =⇒ QAp Q ≥ µp Q(B −1 P B −1 ) 2 Q = µp (B −1 P B −1 ) 2 .
174                                                             Algunas desigualdades de matrices




Como QB 2 Q es la inversa en M de B −1 P B −1 , y en M⊥ todo es nulo, tenemos que
                                             −p
                  QAp Q ≥ µp (QB 2 Q)         2     (todo pensado en L(M) ) .                        (9.11)

Para probar (9.8), primeramente consideremos el caso q ∈ [2, 4]. Por el Lema 9.4.2
                                                                 q
                                        QB q Q ≥ (QB 2 Q) 2 .                                        (9.12)

Luego, juntando (9.11) y (9.12) se tiene que
                                                             −p                     q
                    QAp Q QB q Q   µp (QB 2 Q)                2        (QB 2 Q) 2
                         +       ≥                                   +
                     p      q           p                                 q
                                                            −1                 1
                                             ≥ µ (QB 2 Q)    2   (QB 2 Q) 2 = µ Q ,

donde ≥ se puede probar usando la desigualdad de Young num´rica, puesto que µ(QB 2 Q)−1/2
                                                           e
y (QB 2 Q)1/2 conmutan entre s´ Esto concluye a demostraci´n para este caso. Supongamos
                              ı.                           o
ahora que q ∈ (4, ∞). Sea s = 2 . Entonces 0 < 2 < 1, y q = 2. Por el Lema 9.4.2 se tiene
                              q
                                               s        s
                               q                       q                           2
            Q B q Q = Q (B s ) s Q ≥ (Q B s Q) s             y       (Q B s Q) s ≥ Q B 2 Q .         (9.13)
                                   p
Por lo tanto, usando que f (t) = t 2 es MOP, se tiene que
                     p             p                        −p                     −p
            (QB s Q) s ≥ (QB 2 Q) 2      =⇒ (QB s Q)         s    ≤ (QB 2 Q)        2   en L(M) .

Combinando esta desigualdad con (9.11) se obtiene
                                                                  −p
                                   QAp Q ≥ µp (QB s Q)             s   ,

y luego combin´ndola con (9.13) resulta
              a
                                                            −p                      q
                    QAp Q QB q B      (QB s Q)               s             (QB s Q) s
                         +       ≥ µp                             +
                     p      q             p                                   q
                                                           −1                  1
                                         ≥ µ (QB s Q)       s    (QB s Q) s = µ Q ,

donde nuevamente en la segunda desigualdad se ha usado la versi´n num´rica de la desigualdad
                                                               o     e
de Young.

Demostraci´n del Teorema 9.4.1: Probaremos la Eq. (9.7), mientras que la segunda
             o
formulaci´n queda como ejercicio para el lector. Supongamos primero que A, B ∈ Mn (C)+ .
         o
En tal caso tenemos que |AB| = (BA2 B)1/2 y la ecuaci´n (9.7) puede reescribirse como
                                                      o

                                       1/2           Ap   Bq
   µj   (BA2 B)1/2 = µj BA2 B                ≤ µj       +                   para todo     j ∈ In .   (9.14)
                                                     p    q

Como µj BA2 B = µj AB 2 A para todo j ∈ In , los papeles de A y B son sim´tricos, raz´n
                                                                           e           o
por la cual podemos suponer que p ∈ (1, 2] y q ∈ [2, ∞). M´s a´n, apelando a las tecnicas
                                                          a u
9.4 Desigualdades de Young para matrices                                                              175




usuales de continuidad, podemos tambi´n asumir que B > 0. Dicho todo esto, fijemos k ∈ In
                                          e
                           1/2
y llamemos µ = µk BA2 B         = µk (|AB|). Sean B = {v1 , . . . , vn } una BON de Cn adaptada
a µ(|AB|), y Sk = Gen {v1 , . . . , vk }. Llamemos P al proyector ortogonal sobre Sk y Q al
proyector ortogonal sobre M := R(B −1 P ) = B −1 (Sk ). Entonces, el Lema 9.4.3 dice que
                QAp Q QB q Q                           Ap   Bq
        µQ≤          +                 =⇒      m´
                                                ın        +             x,x      ≥ µ = µk (|AB|) .
                 p      q                      x∈M     p    q
                                               x =1



Observar que dim Sk = dim M = k. Luego, utilizando el principio minimax (Teorema 2.3.3)
                   Ap       Bq
para calcular µk    p   +    q   , la desigualdad (9.14) queda demostrada en este caso.

El caso general se deduce de lo anterior por la siguiente observaci´n: Dadas A, B ∈ Mn (C),
                                                                   o
si hacemos la descomposici´n polar B = V |B| con V ∈ U(n), se tiene que
                           o
                                                                                             2
           |AB ∗ |2 = BA∗ AB ∗ = B|A|2 B ∗ = V |B| |A|2 |B| V ∗ = V |A| |B| V ∗ .

De ah´ podemos deducir que los vectores s(AB ∗ ) = µ(|AB ∗ |) = µ(|A| |B|). Volviendo a mirar
      ı
la Eq. (9.7) se ve que lo anterior hace suficiente probar el caso positivo, cosa que ya hicimos.


Ejercicio 9.4.4. Mostrar con un ejemplo que la desigualdad (9.7) deja de ser cierta si en el
miembro izquierdo se quita la estrella en B. (Ayuda: basta considerar matrices de 2 × 2 y el
caso p = q = 2).
                                                1
Corolario 9.4.5. Sean p, q ∈ [1, +∞) tales que p + 1 = 1 y sea N una NUI en Mn (C).
                                                     q
Entonces para todo par de matrices A, B ∈ Mn (C), se tiene que
                                                      |A|p   |B|q
                                   N (AB ∗ ) ≤ N           +                .
                                                       p      q

Demostraci´n. Evidente a partir del Teorema 9.4.1, porque
          o                                                                     =⇒   w   .


Las desigualdades de Hirzallah-Kittaneh

Cuando uno extiende desigualdades num´ricas a matriciales, aparede un ingrediente nuevo:
                                         e
Dado que las matrices no conmutan, si uno multiplica por una tercera matrix X, c´mo afecta
                                                                                  o
esto a la desigualdad? Y de qu´ lado hay que multiplicar cada factor para que la desigualdad
                              e
se preserve?

Este tipo de an´lisis y generalizaciones aparecer´n seguido en lo que resta del Cap´
                a                                a                                 ıtulo.
Daremos a continuaci´n una primera versi´n que camina para Young, aunque solamente para
                     o                   o
la norma de Frobenius. Lo primero que apareci´ al respecto, es un resultado de Bhatia y
                                                o
Davis [22]: Dados A, B ∈ Mn (C)+ , X ∈ Mn (C), y p, q conjugados, se tiene que
                                                 Ap X   XB q
                                 AXB   2   ≤          +                 .                            (9.15)
                                                  p      q          2
176                                                                      Algunas desigualdades de matrices




Sin embargo, mostraremos un resultado m´s fino, debido a Hirzallah y Kittaneh [26], que
                                         a
adem´s determina completamente los casos en que en (9.15) pudiera darse la igualdad. Para
       a
ello, comenzamos por demostrar unas desigualdades num´ricas:
                                                      e
Lema 9.4.6. Sean a, b ∈ R∗ , y p, q ∈ [1, +∞) tales que
                         +
                                                                                       1
                                                                                       p   +   1
                                                                                               q   = 1. Si r = m´x{p, q},
                                                                                                                a
entonces
                                                   2
                                   ap   bq                 1            2
                                      +                ≥      (ap − bq ) + a2 b2 .                                           (9.16)
                                   p    q                  r2

Demostraci´n. Primero observar que si p = q = 2, tenemos en realidad una igualdad.
          o
Asumamos que q = r > p, o sea que q ∈ [2, +∞). V´ cuentas elementales, se ve que
                                                ıa
                                    2
                   ap   bq                  1 p         2                          2               2 q
                      +                 −      (a − bq ) = ap                1−            ap +      b       ,
                   p    q                   q2                                     q               q

donde se usa la igualdad 1 − 2 = p − 1 = p − 1 p + 1 = p2 − q12 . Ahora, usando la
                              q
                                   1
                                        q
                                              1
                                                  q
                                                     1
                                                          q
                                                                1

desigualdad de Young cl´sica (o la aritm´tico geom´trica), tenemos que
                       a                 e         e

                                    2              2 q          2       2    q−p
                               1−           ap +     b ≥ ap (1− q ) b q q = a q b2 ,
                                    q              q

ya que p(1 − 2 ) = p( p − 1 ) = 1 − p . Adem´s, usando el hecho de que
             q
                      1
                           q        q        a                                                               p
                                                                                                             q   = p − 1, vemos
         q−p
que p + ( q ) = 2. As´ llegamos finalmente a que
                      ı
                   2
         ap   bq           1 p          2      q−p
            +          −     2
                               (a − bq ) ≥ ap a q b2 = a2 b2                           =⇒           Eq. (9.16) .
         p    q            q
                                                                         2
                                                            ap   bq              1 p         2
De manera an´loga, si p > q, queda que
            a                                                  +             ≥      (a − bq ) + a2 b2 .
                                                            p    q               p2
                                                                                                                     1       1
Teorema 9.4.7. Sean A, B ∈ Mn (C)+ , X ∈ Mn (C), y p, q ∈ [1, +∞) tales que                                          p   +   q   = 1.
Si r = m´x{p, q}, entonces
        a

                           2        1                           2            Ap X   XB q             2
               AXB         2   +       Ap X − XB q              2    ≤            +                      .                   (9.17)
                                    r2                                        p      q               2


Demostraci´n. Como A, B ∈ Mn (C)+ , existen U, V ∈ U(n) tales que A = U D1 U ∗ y B =
             o
V D2 V ∗ , donde D1 = diag(µ(A) ) y D2 = diag (µ(B) ). Llamemos Y = U ∗ XV , λ = µ(A) y
µ = µ(B). Entonces tenemos que
                                           p               q                                    p         q
        Ap X   XB q                     U D1 U ∗ X   X V D2 V ∗                                D1 Y   Y D2
             +                 =                   +            = U                                 +                V∗
         p      q                           p            q                                      p       q
                                              λp   µq
                                                    j
                               = U             i
                                                 +             yij            V ∗,
                                              p    q
                                                                     i,j∈In
9.4 Desigualdades de Young para matrices                                                                                     177



                             p        q
           Ap X − XB q = U (D1 Y − Y D2 ) V ∗ = U                         λp − µq yij
                                                                           i    j                             V∗        y
                                                                                                     i,j∈In

                          AXB = U (D1 Y D2 )V ∗ = U λi µj yij                                        V ∗.
                                                                                            i,j∈In

Por la desigualdad (9.16) aplicada a cada par a = λi y b = µj , tenemos que
                                                                          2
               Ap X   XB q
                                2              n
                                                         λp
                                                          i
                                                              µq
                                                               j                        2
                    +                =                      +                  |yij |
                p      q        2          i,j=1
                                                         p    q
                                                    n                                            n
                                           1                               2            2                               2
                                     ≥                         λp
                                                                i   −   µq
                                                                         j        |yij | +               λ2 µ2 |yij |
                                                                                                          i j
                                           r2      i,j=1                                       i,j=1
                                           1                               2                         2
                                     =        Ap X − XB q                  2      + AXB                  ,
                                           r2
lo que completa la prueba del teorema.
Observaci´n 9.4.8. Para el caso p = q = 2, la desigualdad (9.17) es en realidad una igualdad.
             o
Esto se observa en la demostraci´n del Teorema 9.4.7, ya que la desigualdad que se presenta
                                  o
all´ es en realidad una igualdad, como se observ´ en el Lema 9.4.6.
   ı                                            o

A partir de lo anterior pueden encontrarse condiciones necesarias y suficientes para que se
satisfagan las igualdades en (9.15) y (9.7), como se demuestra a continuaci´n.
                                                                           o
Corolario 9.4.9. Sean A, B, X, p y q como en el Teorema 9.4.7. Se tiene que
                     Ap X   XB q
                          +             = AXB              2        ⇐⇒             Ap X = XB q .                            (9.18)
                      p      q      2

                                    Ap X       XB q
Demostraci´n. Si se tiene que
          o                          p     +    q              = AXB              2   , la desigualdad (9.17) asegura que
                                                           2
       p         q                         p                    q
que A X − XB         2   = 0, o sea que A X = XB .

Asumamos que Ap X = XB q . Como antes, tenemos A = U D1 U ∗ , B = V D2 V ∗ , donde
D1 = diag(µ(A) ) y D2 = diag (µ(B) ). Luego
          p             p                                                 q                     q
Ap X = U D1 U ∗ X = U [D1 (U ∗ XV )] V ∗             y         XB q = XV D2 V ∗ = U [(U ∗ XV ) D2 ] V ∗ ,
                                                  p        q
con lo cual, llamando Y = U ∗ XV , tendremos que D1 Y = Y D2 , es decir que
                                                                    q

            λp yij = yij µq =⇒ λi yij = yij µj
             i            j
                                             p
                                                                         para todos los i, j ∈ In .
                                q                                             q
                         p
Llegamos a que D1 Y = Y D2 , y por ende AX = XB p . As´
                                                      ı,
                                q                          XB q   XB q   Ap X   XB q
                AXB = XB p B = XB q =                           +      =      +      .
                                                            p      q      p      q
Vemos que vale la igualdad entre las matrices, que implica la igualdad de sus normas.
178                                                      Algunas desigualdades de matrices



                                                     1       1
Corolario 9.4.10. Sean p, q ∈ [1, +∞) tales que      p   +   q   = 1. Entonces

                Ap X   XB q
           sj        +         = sj (AB)      para todo j ∈ In             ⇐⇒                   Ap = B q .
                 p      q

Demostraci´n. Es consecuencias del Corolario 9.4.9 aplicado a X = I. Observar que la
           o
condici´n Ap = B q implicaba igualdad de matrices.
       o
                                                     1       1
Corolario 9.4.11. Sean p, q ∈ [1, +∞) tales que      p   +   q   = 1. Entonces

            Ap X   XB q
       U         +          U ∗ = |AB|       para alguna U ∈ U(n)                ⇐⇒                  Ap = B q .
             p      q

Demostraci´n. Es lo mismo que el Corolario 9.4.10.
          o

Observaci´n 9.4.12. Sean a, b ∈ R∗ , y p, q ∈ [1, +∞) tales que
         o                       +
                                                                            1
                                                                            p    +          1
                                                                                            q   = 1. Luego
                                    2                             2
                          ap   bq              ap   bq
                             +          ≥         +    − ab           + a2 b2       ,                             (9.19)
                          p    q               p    q
                                    2                             2
                    ap   bq                    ap    bq
                       +     + ab     ≥           +     − ab          + 4a2 b2              y                     (9.20)
                    p     q                     p     q
                         1 p                 ap    bq
                            |a − bq | ≥          +     − ab ,                                                     (9.21)
                         s                   p     q
                                                                                                 p      q
donde s = m´ ın{p, q}. En efecto, para probar (9.19) recordamos que α = a + bq ≥ ab, con lo
                                                                         p
cual α ≥ α −2αab+2a2 b2 = (α−ab)2 +a2 b2 . Tambi´n, (α+ab)2 −(α−ab)2 = 4αab ≥ 4a2 b2 ,
      2    2
                                                      e
y obtenemos (9.20). Para obtener (9.21), si ap ≥ bq , tambi´n tenemos a ≥ bq/p , y como
                                                              e
1/s − 1/p ≥ 0,
                  1 1                    1 1                           1 1
                   −       ap + ab ≥      −      bq + bq/p b =          +           bq =⇒
                  s p                    s p                           s q
                                  1 p           ap   bq
                               =⇒   |a − bq | ≥    +    − ab.
                                  s             p    q
Si bq ≥ ap , la demostraci´n es an´loga. Partiendo de estas desigualdades y siguiendo el
                          o       a
razonamiento de la demostraci´n de (9.17), podemos mostrar que si A, B ∈ Mn (C)+ , X ∈
                              o
Mn (C), y p, q ∈ [1, +∞) cumplen que p + 1 = 1, entonces
                                      1
                                         q

                                    2                                           2
                    Ap X   XB q                Ap X   XB q                                              2
                         +               ≥          +      − ABX                    + AXB               2   ,     (9.22)
                     p      q       2           p      q                        2
                                    2                                           2
            Ap X   XB q                        Ap X   XB q                                              2
                 +      + ABX            ≥          +      − ABX                    + AXB               2   ,     (9.23)
             p      q               2           p      q                        2
                 1                             Ap X   XB q
                    Ap X − XB q     2    ≥          +      − AXB                        ,                         (9.24)
                 s                              p      q                        2
9.5 Desigualdades tipo H¨lder para matrices
                        o                                                                                                                    179




donde s = m´ ın{p, q}. Notar que (9.22) tambi´n es m´s fuerte que (9.15). Adem´s, (9.24)
                                             e       a                        a
puede usarse para demostrar de manera directa los corolarios anteriores.

Ejercicio 9.4.13. Sean A, B, C, D ∈ Mn (C)+ tales que AD = DA y BC = CB. Sean
                                      1
X ∈ Mn (C) y p, q ∈ [1, +∞) tales que p + 1 = 1. Entonces
                                          q

                                                2
         1 p       1                                    1                                         2                   2
           A XC p + Dq XB q                         ≥      Ap XC p − Dq XB q                      2   + ADXCB         2       .          (9.25)
         p         q                            2       r2

donde r = m´x{p, q}. En particular, si C = D = I se recupera (9.17).
           a

Ejercicio 9.4.14. Sean A, B, C, D ∈ Mn (C) tales que AD = DA, A∗ D = DA∗ , BC = CB
y B ∗ C = CB ∗ . Sean X ∈ Mn (C) y p, q ∈ [1, +∞) tales que p + 1 = 1. Entonces
                                                            1
                                                                q

                                                    2
    1    p     p 1   q      q                                   1     p     p     q      q                   2                           2
      |A| X |C| + |D| X |B|                             ≥          |A| X |C| − |D| X |B|                     2   + ADXC ∗ B ∗            2   .
    p            q                                  2           r2

donde r = m´x{p, q}. En particular, si C = D = I, tenemos
           a
                                                            2
                 1    p   1     q                                       1     p          q            2               2
                   |A| X + X |B|                                ≥          |A| X − X |B|              2   + AXB ∗     2   ,              (9.26)
                 p        q                                 2           r2

que es la extensi´n natural de (9.17) a matrices cualesquiera. Extender las desigualdades
                 o
(9.22)-(9.24) de manera an´loga.
                          a



9.5     Desigualdades tipo H¨lder para matrices
                            o
                                                                                                                  1       1
Observaci´n 9.5.1 (Caso num´rico). . Dados p, q ∈ (1, +∞) tales que
          o                    e                                                                                  p   +   q       = 1, la forma
m´s simple de la desigualdad num´rica de H¨lder se escribe
 a                               e        o
                                                        1                                1
                                    p               p               q            q
                                 (|a| + |b| ) p (|c| + |d| ) q ≥ |ac + bd| ,                                                             (9.27)

para todo cuarteto a, b, c, d ∈ C. M´s a´n, podemos escribir:
                                    a u
                                            1
                             p          p                                                     q   q
                          (|a| + |b| ) p = max {|ac + bd| : |c| + |d| = 1} ,                                                             (9.28)
                                                                        p            q
que tiene que ver con la frase “el dual de                                  es           .”

Proposici´n 9.5.2. Sean A, B ∈ Mn (C). Entonces se verifica que
         o
                    1/2
   (A∗ A + B ∗ B)         = m´x |C ∗ A + D∗ B| : C, D ∈ Mn (C) y C ∗ C + D∗ D ≤ I .
                             a                                                                                                           (9.29)

Demostraci´n. Dadas C, D ∈ Mn (C) matrices cualesquiera, tenemos que
          o
180                                                                      Algunas desigualdades de matrices


                                                                                   ∗
                   A∗ A + B ∗ B     A∗ C + B ∗ D                     A       C             A   C
                                                            =                                      ≥0.
                   C ∗ A + D∗ B     C ∗ C + D∗ D                     B       D             B   D

Recordemos que la Proposici´n 3.8.6 asegura que, dadas X ∈ Mn (C)+ e Y ∈ Mn (C),
                           o

                                X    Y∗
                                              ≥ 0 ⇐⇒ X ≥ Y ∗ Y ≥ 0 .                                        (9.30)
                                Y    I

                                                                                                        2
Por lo tanto, si C ∗ C + D∗ D ≤ I, tenemos que A∗ A + B ∗ B ≥ |C ∗ A + D∗ B| . Usando que
f (t) = t1/2 es mon´tona de operadores, llegamos a que
                   o
                                                  1/2
                              (A∗ A + B ∗ B)            ≥ |C ∗ A + D∗ B| .                                  (9.31)

M´s a´n, cuando A∗ A + B ∗ B ∈ Gl (n)+ , si consideramos
 a u

                   C = A(A∗ A + B ∗ B)−1/2              y        D = B(A∗ A + B ∗ B)−1/2 ,

obtenemos una igualdad en la Eq. (9.31). Cuando A∗ A + B ∗ B ∈ Gl (n)+ , observar que
                                                             /

                 S = ker(A∗ A + B ∗ B) = ker(A∗ A) ∩ ker(B ∗ B) = ker A ∩ ker B .

Sean A1 = A|S ⊥ ⊕ I|S , B1 = B|S ⊥ ⊕ I|S . Luego, A∗ A1 + B1 B1 ∈ Gl (n)+ . Tomando
                                                   1
                                                           ∗


                   C = A1 (A∗ A1 + B1 B1 )−1/2 , D = B1 (A∗ A1 + B1 B1 )−1/2 ,
                            1
                                    ∗
                                                          1
                                                                  ∗


una cuenta f´cil mustra que tambi´n obtenemos una igualdad en la Eq. (9.31).
            a                    e

Lema 9.5.3. Sea A, B ∈ Mn (C)+ , p ∈ (1, +∞) y α ∈ [0, 1]. Entonces se tiene que
                                          1             1                              1
                              (Ap + B p ) p ≥ α1− p A + (1 − α)1− p B .

Demostraci´n. Cuando α = 0, tenemos que Ap ≥ 0, con lo cual Ap + B p ≥ B p . Luego, como
             o
f (t) = t1/p es mon´tona de operadores, sale que (Ap + B p )1/p ≥ B. Caso an´logo ocurre para
                   o                                                        a
α = 1. Consideremos entonces 0 < α < 1, y llamemos β = 1 − α. Usando que f (t) = t1/p
tambi´n es c´ncava de operadores, tenemos que
       e       o
                                                                             1
                          1          −1       p                 −1       p   p             1        1
            (Ap + B p ) p = α α       p   A       +β β           p   B           ≥ α1− p A + β 1− p B .



Teorema 9.5.4. Sean A, B, C y D ∈ Mn (C), p, q ∈ [2, +∞) y r ∈ (1, +∞] que cumplen la
ecuaci´n p + 1 = 1 − 1 . Para todo α ∈ (0, 1), si llamamos β = 1 − α, se tiene que
      o 1 q          r

                                                                 2
                                                                 p           1                 1    2
             q        q                       p             p
          |C| + |D| ≤ I         =⇒        |A| + |B|                  ≥ α r C ∗ A + β r D∗ B             .   (9.32)
9.5 Desigualdades tipo H¨lder para matrices
                        o                                                                                                                                      181




Demostraci´n. El caso r = ∞ (o sea, p = q = 2), fue visto en la Proposici´n 9.5.2, con lo
          o                                                              o
cual asumimos r < ∞. Dado que (1/2 − 1/p) + (1/2 − 1/q) = 1/r, tenemos que:
                           2                            2                               1                           1
                      α1− p A∗ A + β 1− p B ∗ B                                    α r A∗ C + β r B ∗ D
                          1           1                                              2
                                                                                  1− q ∗           2                                    =
                        α r C ∗ A + β r D∗ B                                    α      C C + β 1− q D∗ D
                  1   1         1       1           ∗               1       1               1           1
                α2−p A         α2−q C                           α2−p A                  α2−q C
                  1 1            1 1                              1 1                     1 1                           ∈ M2n (C)+ .
                β 2−p B        β 2−q D                          β 2−p B                 β 2−q D

De acuerdo al Lema 9.5.3, tenemos que
     2            2                                             2                                   2                            2                             2
                                         p              p                                                                                      q           q
 α1− p A∗ A + β 1− p B ∗ B ≤ (|A| + |B| ) p                                 y           α1− q C ∗ C + β 1− q D∗ D ≤ (|C| + |D| ) q ,
                                                                             2
                                                    p                p                          1                        1
                                            (|A| + |B| ) p                               α r A∗ C + β r B ∗ D
con lo cual concluimos que                  1                       1                                       q                q   2      ≥
                                        α r C ∗ A + β r D∗ B                                    (|C| + |D| ) q
                      2                         2                               1                           1
                 α1− p A∗ A + β 1− p B ∗ B                             α r A∗ C + β r B ∗ D
           ≥         1           1                                       2
                                                                      1− p ∗           2                                             ∈ M2n (C)+ .
                   α r C ∗ A + β r D∗ B                             α      C C + β 1− p D∗ D
                                                                         q                      q
Usando la Eq. (9.30) y el hecho de que |C ∗ | + |D∗ | ≤ I, estamos hechos.


Definici´n 9.5.5. Dadas C, D ∈ Mn (C)+ , escribimos C
       o                                                    D si C m ≤ Dm , para todo
m ∈ N. Esta relaci´n es un orden parcial denominado orden espectral.
                  o


Proposici´n 9.5.6. Sean A, B ∈ Mn (C)+ . Entonces se verifica:
         o
                                                                        1
                                                    Ap +B p
  1. La funci´n [1 , +∞)
             o                  p −→                   2
                                                                        p
                                                                             es creciente (relativa al orden ≤ de Mn (C)+ ).
  2. El siguiente l´
                   ımite existe y da el                         -supremo de A y B:
                                                        1
             A ∨ B = lim Ap + B p                       p
                                                            = m´
                                                               ın                   C ∈ Mn (C)+ : A                                   C y B        C   .
                          p→∞


Demostraci´n. Sean r, q ∈ [1 , +∞) tales que r < q. Si aplicamos el Lema 9.5.3 para los
          o
                    q
n´meros α = 1 y p = > 1, resulta que
 u          2       r
                                                                                            r
                                    r                       q                       q       q                   1
                   (Aq + B q ) q = (Ar ) r + (B r ) r                                               ≥           1− r
                                                                                                                         (Ar + B r ) .
                                                                                                            2      q


                      1                                                                             −1
Luego, usando que t r es MOP y multiplicando por 2                                                   q      , llegamos a que
                                                                     1                                              1
                                             Aq + B q                q
                                                                                    Ar + B r                        r
                                                                            ≥                                            .
                                                2                                      2
182                                                                                   Algunas desigualdades de matrices




Sea M = m´x{µ1 (A), µ1 (B)}. Para cualquier p ∈ [1, +∞) tenemos que
         a
                                                                                                                      Ap + B p
          M p ≥ m´x{µ1 (Ap ), µ1 (B p )} = m´x{ Ap
                 a                          a                                         sp   , Bp        sp }   ≥                         sp
                                                                                                                                                 ,
                                                                                                                         2
                                   p       p    1                                                                         p     p   1
y por lo tanto M I ≥ A +B p . En resumen, la funci´n p −→ A +B p es creciente y
                         2                              o            2
acotada superiormente. Aplicando el Ejercicio 3.9.16 vemos que debe existir el l´
                                                                                ımite
                                                             1                                         1
                                       Ap + B p              p
                                                                                  Ap + B p             p                                         1
        A∨B =            sup                                     = lim                                      = lim (Ap + B p ) p .
                    p∈[1 ,+∞)             2                          p→∞             2                            p→∞

                                                                          m
Fijemos m ∈ N. Tomando p > m, se tiene que t p es MOP, y as´
                                                           ı
                               m                                m                              1   m
                                                                                                                                    m
                Am = (Ap ) p ≤ (Ap + B p ) p = (Ap + B p ) p                                            − − (A ∨ B)
                                                                                                         −→                              .
                                                                                                           p→∞

                                                                m
An´logamente se muestra que (A ∨ B) ≥ B m . Esto vale para cualquier m ∈ N, y as´
   a                                                                            ı
A, B A ∨ B. Sea ahora C ∈ Mn (C)+ tal que A, B C. Para cada par m, k ∈ N tenemos
                                                                                                                                1/k
                                                            1                                               Akm +B km
que Akm , B km ≤ C km , y usando que t k es MOP, resulta que                                                    2                       ≤ C m . Luego

                                                    m                                              1

            m              Ap + B p                 p
                                                                       Akm + B km                  k

   (A ∨ B)      = lim                                   = lim                                          ≤ Cm ,                 para todo m ∈ N .
                  p→∞         2                             k→∞            2
As´ A ∨ B
  ı,            C. Luego, A ∨ B es el supremo de A, B con respecto al orden espectral.
Corolario 9.5.7. Sean A, B, C, D ∈ Mn (C). Fijado p ∈ [2, ∞), tomemos el q ∈ (1, 2] tal
que se tenga la igualdad p + 1 = 1. Entonces
                         1
                             q

                                                        2                         2
                               q                q                p        p                                       2
                         C         + D                  q
                                                            |A| + |B|             p
                                                                                      ≥ |CA + DB| .                                                  (9.33)
                                                                 2                    2                               2
Por lo tanto, se tiene que             C + D                         |A| ∨ |B|             ≥ |CA + DB| .

Demostraci´n. Fijemos p ∈ [2, ∞). Supongamos en principio que C , D ≤ 1. En tal caso,
            o
se tiene que |C ∗ | ≤ I =⇒ |C ∗ | I y lo mismo para D. Por la Proposici´n 9.5.6,
                                                                       o
                                        1
                     t             t    t
                 |C ∗ | + |D∗ |
                                               ≤ |C ∗ | ∨ |D∗ | ≤ I                   para todo               t ∈ [1, +∞) .                          (9.34)
                        2

Vamos a aplicar el Teorema 9.5.4. Para ello, tomemos t ∈ [2, +∞) y r ∈ (1, +∞] tales que
1   1       1
p + t = 1 − r . Dados α ∈ [0, 1] y β = 1 − α, la Eq. (9.34) y el teorema citado aseguran que

                                                            2
                                                            p         1       1                    1              2
                                       p                p
                                   |A| + |B|                     ≥ 2t     α r CA + β r DB                             .

                                                                                                              2           1                  1       2
                                                                                           p            p
Haciendo t → ∞ (con lo cual r → q), tenemos que (|A| + |B| ) p ≥ α q CA + β q DB .
9.6 La t´cnica alternativa
        e                                                                                                                            183



                                                                      q            q                                                    q
Si ahora suponemos m´s que antes: que C + D = 1, entonces podemos elegir α = C
                       a
                                            −1           −1
           q
y β = D = 1 − α. Reemplazando C = α q C y D = β q D, queda que C = D = 1
(si alguna era nula, su prima tambi´n la hacemos nula). Por el caso anterior obtenemos que
                                   e
                                                                              1                 1         2
          q         q                          p           p 2/p                                                                2
      C       + D       = 1 =⇒ (|A| + |B| )                           ≥ αq C A + β q D B                      = |CA + DB| .         (9.35)

En el caso general, dadas C, D ∈ Mn (C) (alguna de las dos no nulas), consideramos
                                    q              q −1/q                                       q             q −1/q
                    E=( C               + D )                  C       y       F =( C               + D )              D,
                    q           q
con lo cual E           + F         = 1. Por la Eq. (9.35) nos queda que
                                                                                        2
               p        p   2
                                                       2           |CA + DB|
          (|A| + |B| ) p ≥ |EA + F B| =                                                     2   =⇒            la Eq. (9.33) .
                                                                          q             q
                                                                 ( C          + D )q
                                                                ımite para p → ∞.
La otra desigualdad se obtiene de lo anterior, considerando el l´


9.6       La t´cnica alternativa
              e
En esta secci´n repasaremos y mezclaremos una serie de definiciones y resultados de los
               o
Cap´ıtulos 4 y 7 que usaremos seguido en el resto de este Cap´ ıtulo. Primero enunciamos los
relativos a las propiedades espectrales de los productos alternados de matrices (Secci´n 7.3):
                                                                                      o
Teorema 9.6.1. Sea A ∈ Mn (C) con autovalores λ1 (A), . . . , λn (A). Sea k ∈ In . Entonces
los autovalores de Λk A est´n dados por
                           a

                                            λJ (Λk A) =                λi (A) ,         J ∈ Qk,n ,
                                                               i∈ J

contados con multiplicidad.
Corolario 9.6.2. Sea A ∈ Mn (C). Sea k ∈ In . Entonces los valores singulares de Λk A son

                        s Λk A =              sJ Λk A            J∈Qk,n
                                                                               =                si (A)        J∈Qk,n
                                                                                                                        ,
                                                                                        i∈ J

contados con multiplicidad, y ordenados en forma decreciente. Adem´s, si ordenamos a los
                                                                           a
autovalores λ1 (A), . . . , λn (A) de A con m´dulos decrecientes, se tiene que
                                             o
                                     k                                                                          k
                   ρ Λk A =                 |λi (A)|        y             Λk A     sp
                                                                                        = s1 Λk A =                  si (A) .
                                    i=1                                                                        i=1

Ahora vienen los resultados que relacionan la mayorizaci´n logar´
                                                          o     ıtmica con la usual (ver
Secci´n 4.4): Recordemos que, dados x, y ∈ Rn , escribimos x w y si
     o                                      +
                                                                                                    log


                                        k                  k
                                             x↓ ≤
                                              i
                                                                  ↓
                                                                 yi        para todo            k ∈ In .                            (9.36)
                                    i=1                    i=1
184                                                                          Algunas desigualdades de matrices


                                                                                        n          n
Si x > 0 e y > 0, escribimos x                  y si x         w    y y, adem´s,
                                                                             a              xi =         yi .
                                          log            log
                                                                                    i=1            i=1

Observaci´n 9.6.3. Sean x, y ∈ Rn tales que x > 0 e y > 0. Si x
         o                                                                                                      y entonces, como en
                                                                                                          log
el caso de la mayorizaci´n com´n, se cumplen desigualdades invesas para las entradas mas
                        o      u
peque˜as de x e y. Es decir que
      n
                                    n                   n
                                         x↓
                                          i     ≥               ↓
                                                               yi      para todo            k ∈ In .                         (9.37)
                                   i=k                 i=k

Tener cuidado, que esto no vale si s´lo se tiene que x
                                    o                                               w   y, porque se usa la igualdad de los
                                                                              log
productos hasta n.

Proposici´n 9.6.4. Sean x, y ∈ Rn .
         o                      +


  1. Si x         w     y, entonces xp    w     yp      para todo          p ∈ R+ .
            log


  2. Si x > 0 e y > 0, entonces x                      y implica que xp             w   y p para todo p ∈ R .
                                                 log


Observaci´n 9.6.5.
          o             1. El caso m´s usado de la Proposici´n 9.6.4 es cuando p = 1. Es
                                    a                       o
    decir que, si x, y ∈ Rn , entonces x w y implica x w y. Esto ser´ sumamente util
                           +
                                                                         a
                                                               log
      cuando se lo aplique a desigualdades con valores singulares de matrices, usando t´cnicas
                                                                                       e
      de productos alternados. Observar que, en este caso, el Corolario 4.2.3 nos dice que, si
      hubese quedado x y, deb´ cumplirse que x y .
                                  ıa
                                                                            log


  2. Por otra parte, la Proposici´n 9.6.4 se puede generalizar, sin cambiar la prueba, si
                                   o
     remplazamos las funciones f (t) = tp por cualquier funci´n f : R+ → R tal que la
                                                              o
     aplicaci´n t → f (et ) resulte convexa (o convexa creciente). Notar que, en el caso
             o
     demostrado, se usaba esa propiedad para la funci´n t → (et )p = ept .
                                                     o


9.7     Primeras aplicaciones
En esta secci´n veremos tres desigualdades importantes que se prueban en forma directa
              o
usando la t´cnica de extrapolar una desigualdad conocida, pero aplicada a los productos
            e
alternados, y luego deducir una mayorizaci´n v´ la Proposici´n 9.6.4:
                                          o ıa              o


Desigualdad de Weyl
Proposici´n 9.7.1 (Mayorante de Weyl). Sea A ∈ Mn (C). Entonces, si µ(A) denota el
           o
vector de autovalores de A, se tiene que

  1. |µ(A)|             s(A).
                  log
9.7 Primeras aplicaciones                                                                                            185




  2. Para todo p ≥ 0 se tiene que |µ(A)|p                         w   s(A)p .

Demostraci´n. Verifiquemos las desigualdades de la f´rmula (9.36) para los vectores |µ(A)|
            o                                         o
y s(A). Para k = 1, basta notar que ρ(A) ≤ A sp . El caso k ≥ 1 se obtiene considerando
la desigualdad anterior para los tensores alternados Λk (A). En efecto, por el Corolario 9.6.2,
tenemos que
            k                                                         k
                 |µ(A)| ↓ = ρ(Λk A) ≤ Λk A
                        i                                   sp   =          si (A) ,      para todo      k ∈ In .
           i=1                                                        i=1

La igualdad para k = n se deduce de que | det A| = (det A∗ A)1/2 = det |A| . La segunda parte
se deduce de la Proposici´n 9.6.4.
                         o


Desigualdad de B. Simon
La que sigue es una variante de la Proposici´n 9.1.7 (desigualdad de Kittaneh ’95):
                                            o
Proposici´n 9.7.2. Sean A, B ∈ Mn (C) tales que AB es normal. Entonces
         o

                                                       |||AB||| ≤ |||BA|||

para toda NUI ||| · ||| en Mn (C).

Demostraci´n. Como AB es normal, se tiene que AB
          o                                                                        sp   = ρ(AB). Luego

                      s1 (AB) = AB            sp    = ρ(AB) = ρ(BA) ≤ BA                   sp   = s1 (BA) .

Aplicando esta desigualdad a Λk AB (1 ≤ k ≤ n), que tambi´n es normal, obtenemos que
                                                         e
                                                              k                     k
                s(AB)          w   s(BA) ,           i.e.            si (AB) ≤           si (BA) ,     k ∈ In .
                         log
                                                             i=1                   i=1

Por la Proposici´n 9.6.4, deducimos que s(AB)
                o                                                         w     s(BA).


Desigualdad de Horn
Proposici´n 9.7.3 (Teorema de Horn). Sean A, B ∈ Gl (n). Sea µ(AB) el vector de auto-
           o
valores de AB ordenado con m´dulos decrecientes, i.e. |µ(AB)| = |µ(AB)|↓ . Entonces
                            o

                 |µ(AB)|             s(AB)          s(A)s(B) = (s1 (A)s1 (B), . . . , sn (A)sn (B) ) .
                               log            log


En particular, si A, B ∈ Gl (n)+ , para todo k ∈ In se tiene que
                 k                     k                                    n                n
                      µi (AB) ≤             µi (A)µi (B)         y              µi (AB) ≥         µi (A)µi (B) .    (9.38)
                i=1                   i=1                                 i=k               i=k
186                                                                    Algunas desigualdades de matrices




Demostraci´n. Las relaci´n |µ(AB)|
          o             o                             s(AB) se deduce de la Proposici´n 9.7.1. Por otro
                                                                                     o
                                                log
lado, el Corolario 9.6.2 asegura que, para todo k ∈ In ,
      k                                                                                               k
           si (AB) = Λk AB     sp   =     Λk A · Λk B       sp   ≤    Λk A    sp   Λk B   sp    =           si (A) si (B) .
   i=1                                                                                                i=1

Adem´s, como | det C| = det |C| para cualquier C ∈ Mn (C), se tiene que
    a
  n                                                                                                       n
          si (AB) = det |AB| = | det AB| = | det A| | det B| = det |A| det |B| =                              si (A) si (B) .
 i=1                                                                                                   i=1

La Eq. (9.38) se deduce de lo anterior y de la Observaci´n 9.6.3, ya que podemos usar que
                                                        o
                           ∗
µ(AB) = µ(A1/2 BA1/2 ) ∈ R+ n , µ(A) = s(A) y µ(B) = s(B).

Ejercicio 9.7.4. Dadas A, B ∈ Gl (n)+ , probar que µ(A1/2 BA1/2 )2                                   µ(AB 2 A). Comparar
                                                                                               log
con el Teorema 9.9.4 de m´s adelante.
                         a


9.8          La exponencial
Generalidades
Sea A ∈ Mn (C). Recordemos que la exponencial de A es la matriz
                                                                      ∞
                                                                          Am
                                          eA = exp(A) =                      .                                          (9.39)
                                                                      m=0
                                                                          m!

La serie converge absolutamente, porque
                              ∞                       ∞
                                        Am                   A m              A
                                               ≤                 = e               < ∞.
                             m=0
                                        m!            m=0
                                                             m!

Por medio de una prueba similar a la del Corolario 1.7.2 (usando el Teorema 1 de Schur 1.6.1),
se puede ver que, si λ(A) = (λ1 (A) , . . . , λn (A) ), entonces

                                  λ(eA ) = eλ(A) := (eλ1 (A) , . . . , eλn (A) ) .                                      (9.40)

En particular, esto dice que σ eA = eσ(A) y que eA ∈ Gl (n) para toda A ∈ Mn (C). Para
hacer esto se usa que, al igual que con los polinomios, se tiene que
                                  −1
                           eSAS         = SeA S −1 ,        para toda S ∈ Gl (n) .

Por ultimo, no es dif´ verificar con el mismo tipo de argumentos que
    ´                ıcil
                                                                          m
                                                                      A
                                             eA = lim            I+           .                                         (9.41)
                                                   m→∞                m
9.8 La exponencial                                                                          187




Observaci´n 9.8.1. Sean A, B ∈ Mn (C). Por la teor´ general de series de potencias (con
           o                                        ıa
variables que conmutan, para usar el binomio de Newton), se puede ver que
                              si     AB = BA         =⇒     eA+B = eA eB .
Entre otras cosas, esto sirve para probar que (eA )−1 = e−A , porque eA e−A = eA−A = I. En
forma similar puede verse que, si A ∈ H(n), entonces
                                                                         A
                                   eA ∈ Gl (n)+      y    (eA )1/2 = e 2 .                 (9.42)
                                                  A                          t
M´s a´n, cuando A ∈ H(n), se tiene que e = f (A), donde f (t) = e , t ∈ R, en el sentido
  a u
del c´lculo funcional para autoadjuntas visto en el Cap´
     a                                                  ıtulo 6. Esto puede probarse diagonal-
izando a A o bien tomando l´ımite de polinomios en la f´rmula (9.39). Aplicando los resultados
                                                       o
conocidos para dicho c´lculo (en particular 6.1.3), se tienen las siguientes propiedades: Si
                        a
A ∈ H(n), entonces
  1. eA ∈ Gl (n)+ y A = log eA .
  2. (eA )r = erA para todo r ∈ R.
  3. Si A > 0, entonces A = elog A .
  4. M´s a´n, Ar = er log A para todo r ∈ R.
      a u


F´rmula de Lie-Trotter
 o
Lamentablemente, cuando A y B no conmutan, la cosa se pone mucho m´s brava, y es muy
                                                                       a
dificil encontrar las propiedades de eA+B en funci´n de las de A y B. La unica herramienta
                                                 o                      ´
que se tiene, y que se usa sistem´ticamente para este problema, es la famosa f´rmula de
                                   a                                           o
Lie-Trotter que mostraremos a continuaci´n.
                                         o

Teorema 9.8.2. Dadas A y B ∈ Mn (C), se tiene la siguiente f´rmula:
                                                            o
                                                           A    B   m
                                     eA+B =       lim     em em          .                 (9.43)
                                                  m→∞

Demostraci´n. Dadas X, Y ∈ Mn (C), mediante una t´
          o                                      ıpica cuenta telesc´pica puede verse
                                                                    o
                    m−1
que X m − Y m =           X m−1−j (X − Y )Y j para todo m ∈ N. Luego,
                    j=0

                                     m−1
                m        m
            X       −Y       =             X m−1−j (X − Y )Y j
                                     j=0
                                   m−1
                             ≤             X m−1−j       X −Y       Yj                     (9.44)
                                    j=0
                                               m−1
                             ≤      X −Y              M m−1−j M j = m X − Y      M m−1 ,
                                               j=0
188                                                                      Algunas desigualdades de matrices




donde M = m´x( X , Y ). Consideremos ahora las matrices
           a
                               A+B                     A       B
                    Xm = e      m       ,   Ym = e m e m ,               para cada m ∈ N .
                                                           A + B
Observar que Mm = m´x( Xm , Ym ) ≤ e
                   a                                         m          . Por la desigualdad (9.44),
                                            m−1
   m    m                                         ( A + B )                                        A + B
  Xm − Ym ≤ m Xm − Ym e                      m                     ≤ m Xm − Ym e                            , m ∈ N.

Luego del desarrollo en series de la funci´n exponencial, obtenemos que Xm − Ym =
                                          o
                           ∞                                              ∞                                ∞
                A+B             (A + B)k                           A            Ak                   B               Bk
      = 1+          +                    −                 1+        +                       1+        +
                 m               mk k!                             m           mk k!                 m              mk k!
                          k=2                                            k=2                               k=2

                   ∞                                                ∞                        ∞
          1             (A + B)k            A                                  Bk                    Ak             B
      =                          − AB − I +                                              −                      em
          m2             mk−2 k!            m                             mk−2      k!             mk−2    k!
                  k=2                                               k=2                      k=2

          1
      =      Cm (A, B) .
          m2
Si mostr´ramos que C(A, B) = sup Cm (A, B) < ∞, entonces tendr´
        a                                                     ıamos que
                                        m∈N

                                                                                         A + B
           m    m                                      A + B             C(A, B) e
          Xm − Ym ≤ m Xm − Ym e                                     ≤                                 −−→ 0 .
                                                                                                      −−
                                                                                m                         m→∞

Afortunadamente, las constantes Cm (A, B) se pueden acotar con las series de las normas.
                                                                  B     B
Aparecen varios sumandos, todos ellos elementales. Por ejemplo, e m ≤ e m ≤ e B y
          ∞                     ∞                          ∞
                  Ak                        Ak                     Ak          A
                           ≤                       ≤                  ≤e                 para todo m ∈ N .
                mk−2 k!                 mk−2 k!                    k!
          k=2                   k=2                     k=2

                           A    B                                                                     A    B
Por lo tanto, eA+B − (e m e m )m = Xm − Ym − − → 0 =⇒
                                    m    m
                                            −−                                                lim (e m e m )m = eA+B .
                                                                    m→∞                      m→∞



Otras f´rmulas relacionadas
       o
                                                                                                      B
Sean A, B ∈ Mn (C). Conjugando la f´rmula (9.43) con la sucesi´n e 2m (que tiende a I),
                                       o                      o
obtenemos esta otra versi´n de Lie-Trotter
                         o
                                    B         A    B    m           B                    B       A    B    m
                eA+B = lim e 2m             em em              e− 2m = lim           e 2m e m e 2m              ,           (9.45)
                         m→∞                                               m→∞

que es mucho m´s adecuada en caso de que A, B ∈ H(n), para que la cosa pase entre matrices
              a
positivas.

Ejercicios 9.8.3.
9.9 Desigualdades de Araki y Cordes                                                                                                      189




  1. Si suponemos que A, B ∈ H(n), puede obtenerse la siguiente nueva f´rmula:
                                                                       o

                                                                                                          1
                                                                                   tB                tB
                                                  e   A+B
                                                            = lim              e    2   e   tA
                                                                                                 e    2   t .                           (9.46)
                                                                     t→0

                                                                                                                   1
                       tB                tB                                                 tB                tB
      Observar que e    2   e   tA
                                     e    2                     +
                                              ∈ Gl (n) por lo que e                          2   e   tA
                                                                                                          e    2   t tiene sentido para todo
                                tB                tB
                                                           −1            −tB                −tB
      t = 0. Adem´s, e etA e
                   a             2      =e       e−tA e
                                                   2        , por lo que el caso t < 0 no crea
                                                                          2                  2


      problemas.
                                                                    tB       tB
      Sug: Desarrollar el producto de las tres series asociadas a e 2 etA e 2 y aplicarles la
      serie de potencias de −1 < x → log(1 + x). Despues seguir pasos similares a los de la
      prueba del Teorema 9.8.2.

  2. Extendiendo el argumento que utilizamos para probar el Teorema 9.8.2 probar que,
     dadas A1 , A2 , ... , Ak ∈ Mn (C), se tiene que

                                              k                                                                    m
                                                                                   A1       A2            Ak
                            exp                       Ai    =            lim   e m e m ... e m                         .                (9.47)
                                                                     m→∞
                                          i=1



9.9     Desigualdades de Araki y Cordes
Proposici´n 9.9.1. Sean A, B ∈ Gl (n)+ . Entonces, para todo r ∈ (0, 1)
         o

                                                      µ1 (Ar B r ) ≤ µ1 (AB)r .

Demostraci´n. Podemos asumir que µ1 (AB) = 1, porque si α2 = µ1 (AB), basta cambiar
          o
A, B por α−1 A y α−1 A, dado que α = 0 y la desigualdad a probar es homog´nea. Luego
                                                                         e
debemos verificar que µ1 (Ar B r ) ≤ 1. En efecto,

      µ1 (AB) = µ1 A1/2 BA1/2 = 1                                   =⇒         A1/2 BA1/2 ≤ I                          =⇒   B ≤ A−1 .

Como r ∈ (0, 1), el Teorema 6.2.6 dice que f (x) = xr es mon´tona de operadores. Luego
                                                            o

    B r ≤ A−r      =⇒           Ar/2 B r Ar/2 ≤ I                         =⇒        µ1 (Ar B r ) = µ1 Ar/2 B r Ar/2 ≤ 1 ,

como se asever´.
              o

Proposici´n 9.9.2 (Cordes ’87 [5]). Sean A, B ∈ Mn (C)+ . Entonces
         o

                            Ar B r        sp      ≤ AB              r
                                                                    sp     para todo r ∈ [0, 1] .                                       (9.48)
190                                                                                       Algunas desigualdades de matrices




Demostraci´n. Como antes, supondremos que AB
          o                                                                               sp   = 1. En tal caso
            1 = AB          sp   = AB 2 A       sp     =⇒ AB 2 A ≤ 1 =⇒ B 2 ≤ A−2
                                                       =⇒ B 2r ≤ A−2r (por el Teorema 6.2.6)
                                                       =⇒ Ar B 2r Ar ≤ 1 =⇒ Ar B 2r Ar sp ≤ 1
                                                       =⇒ Ar B r sp ≤ 1 .
El caso general sale por homogeneidad.

DadasA, B ∈ H(n), recordar que escribimos A B en lugar de µ(A)                                                                  µ(B) para notar la
mayorizaci´n entre los autovalores de A y los de B.
          o
Definici´n 9.9.3.
       o

  1. Sean A, B ∈ Mn (C)+ . Escribiremos A                                  w    B si µ(A)                  w   µ(B). Es decir, si
                                                                     log                             log


                                        k                k
                                             µi (A) ≤          µi (B)                para todo                 k ∈ In .                           (9.49)
                                    i=1                 i=1

  2. Si A, B ∈ Gl (n)+ , decimos que A                         B si det A = det B y A                                  w   B.
                                                         log                                                     log


Observar que, A             B ⇐⇒ log A                log B , ya que la funci´n t → et es creciente.
                                                                             o
                      log



Teorema 9.9.4 (Araki ’90 [21]). Sean A, B ∈ Mn (C)+ . Para todo r ∈ (0, 1) se tiene que
                                             (Ar/2 B r Ar/2 )1/r                     A1/2 BA1/2
                                                                               log



Demostraci´n. Fijemos un r ∈ (0, 1). Como
          o
                  σ(Ar/2 B r Ar/2 ) = σ(Ar B r )                       y                 σ(A1/2 BA1/2 ) = σ(AB) ,
basta ver que
       k                            k                                                          n                                 n
            µj (Ar B r )1/r ≤               µj (AB) ,     k ∈ In                     y               µj (Ar B r )1/r =                µj (AB) .
      j=1                          j=1                                                         j=1                              j=1

Aplicando la Proposici´n 9.9.1 a Λk A y Λk B, y usando la Proposici´n 7.4.4 se obtiene
                      o                                            o
                       1/r                                     1/r
                     µ1 ((Λk A)r (Λk B)r ) = µ1 (Λk Ar Λk B r ) ≤ µ1 (Λk A Λk B) .
Como (Λk A)(Λk B) = Λk (AB), podemos deducir que
                 k                                                                                                 k
                        1/r                     1/r
                      µj (Ar B r ) = µ1 (Λk (Ar B r )) ≤ µ1 (Λk (AB)) =                                                    µj (AB) .
                j=1                                                                                               j=1

La igualdad en el caso k = n se obtiene tomando determinantes.
9.10 Desigualades entre exponenciales                                                                  191




Corolario 9.9.5. Sea ||| · ||| una NUI en Mn (C). Dados A, B ∈ Mn (C)+ , se tiene que

                      |||Ar B r Ar ||| ≤ |||(ABA)r |||         para todo r ∈ (0, 1) .

Demostraci´n. Aplicando el Teorema 9.9.4 a las matrices A2 y B y la Proposici´n 4.4.3,
          o                                                                  o
obtenemos
      k                         k
           sj (Ar B r Ar ) ≤         sj (ABA)r (k ∈ In ) =⇒ s(Ar B r Ar )        w   s( (ABA)r ) .   (9.50)
     j=1                       j=1

Se usa que si ( (ABA)r ) = µi ( (ABA)r ) = µi (ABA)r = si (ABA)r , para todo i ∈ In .
Observaci´n 9.9.6. En las Proposiciones 9.9.1 y 9.9.2, el Teorema 9.9.4 y el Corolario 9.9.5,
           o
valen las desigualdades inversas si uno considera exponentes t ≥ 1. En efecto, basta aplicar
lo conocido a las matrices At y B t , con el exponente r = t−1 . En el caso del Corolario 9.9.5,
se puede corregir el exponente externo en la Eq. (9.50)
Proposici´n 9.9.7. Dadas A, B ∈ Gl (n)+ , se cumple que
         o

                                       log A + log B      log(A1/2 BA1/2 ) .                         (9.51)

Demostraci´n. Por la f´rmula de Lie-Trotter, en la versi´n dada por la f´rmula (9.46),
          o           o                                 o               o

                                      elog A+log B = lim (Ar/2 B r Ar/2 )1/r
                                                       r→0

Por el Teorema de Araki, (Ar/2 B r Ar/2 )1/r                  (A1/2 BA1/2 ) para todo r ∈ (0, 1). Aplicando
                                                        log
el Corolario 2.3.8, obtenemos que

                elog A+log B         (A1/2 BA1/2 ) =⇒ log A + log B          log(A1/2 BA1/2 ) .
                               log



Ejercicio 9.9.8. Usando el Corolario 9.9.5 para las NUI’s A p = (tr |A|p )1/p , mostrar la
famosa desigualdad de Araki-Lieb-Thirring: Dadas matrices A, B ∈ Gl (n)+ , se tiene que

                                tr (B 1/2 AB 1/2 )st ≤ tr (B t/2 At B t/2 )s     ,

para todo par de n´meros s, t ≥ 1.
                  u


9.10        Desigualades entre exponenciales
Si z ∈ C, uno tiene que |ez | = eRe z = |eRe z |. Veamos qu´ pasa en matrices:
                                                           e
Proposici´n 9.10.1. Sea ||| · ||| una NUI en Mn (C). Para toda A ∈ Mn (C), se tiene que
         o

                                              |||eA ||| ≤ |||eRe A ||| .
192                                                                      Algunas desigualdades de matrices




Demostraci´n. Usando que B m sp ≤ B m y que s1 (B)2 = B 2 = B ∗ B
          o                            sp                        sp                                            sp   , obtenemos
que
               s1 (B m )2 ≤ s1 (B)2m =⇒   s1 ( (B ∗ )m B m ) ≤ s1 (B ∗ B)m ,
para todo m ∈ N y toda B ∈ Mn (C). Aplicando esto a Λk B, tenemos m´s:
                                                                   a
             k                            k
                  si ( (B ∗ )m B m ) ≤         si (B ∗ B)m       para todo k ∈ In y todo m ∈ N .
            i=1                          i=1

                        A
Eligiendo ahora B = exp m y aplicando Lie-Trotter llegamos a que
       k                       k                                   k
                    ∗                     A∗    A                               ∗
            si ( eA eA ) ≤         si [e m e m ]m − − →
                                                   −−                   si eA       +A
                                                                                               para todo k ∈ In .
                                                        m→∞
      i=1                    i=1                                  i=1

Tomando raices cuadradas, llegamos a que s(eA )                         w    s(eRe A ). Usando ahora la Proposici´n
                                                                                                                 o
                                                                   log

4.4.3, tenemos finalmente que s(eA )                 w   s(eRe A ).

Ejercicio 9.10.2. Encontrar A ∈ M2 (C) tal que |||eA ||| < |||eRe A ||| para toda NUI.

Recordemos que si C, D ∈ Mn (C)+ , entonces σ(CD) ⊆ R+ y m´s a´n, al vector de autoval-
                                                          a u
                     1/2    1/2   n
ores µ(CD) = µ(D CD ) ∈ R+ , se lo puede pensar ordenado en forma decreciente. En
particular, se tiene que tr CD ∈ R+ .
Lema 9.10.3. Dadas A, B ∈ Mn (C), se tiene que

                  |λ(eA+B )|       w   µ (eRe A eRe B )      y     | tr eA+B | ≤ tr (eRe A eRe B ) .

Demostraci´n. Fijado k ∈ In , definamos las siguiente funci´n continua:
          o                                               o
                                                                   k
      fk : Mn (C) → R+                 dada por      fk (X) =            |λ(X)|↓ ,
                                                                               i
                                                                                               para X ∈ Mn (C) .
                                                                  i=1

Notar que todas estas fk cumplen que, para todo par X, Y ∈ Mn (C) y todo m ∈ N,

                          fk (XY ) = fk (Y X)           y     fk (X 2m ) ≤ fk ([X ∗ X]m ) .                              (9.52)

En efecto, observar que para todo r ∈ In y todo m ∈ N, se tiene que

             ρ(Λr X 2m ) = ρ(Λr X)2m ≤ Λr X                  2m
                                                             sp   = Λr X ∗ X             m
                                                                                         sp   = ρ(Λr [X ∗ X]m ) .

Por la Proposici´n 9.6.4, deducimos que |λ(X 2m )| w µ([X ∗ X]m ), o sea la desigualdad de
                o
(9.52) para todo k ∈ In . La igualdad vale porque λ(XY ) = λ(Y X). Por lo tanto,
                               m                                       m−1                               m−1
                  fk (XY )2             ≤ fk [ (XY )∗ (XY ) ]2     = fk [ Y ∗ X ∗ XY ]2
                                                 ∗          ∗ 2m−1
                                        = fk [ (X X) (Y Y ) ]       .
9.10 Desigualades entre exponenciales                                                                             193



                                                                m−1                                 m−1
donde la ultima igualdad vale porque [ Y ∗ X ∗ XY ]2
         ´                                            difiere de [ X ∗ XY Y ∗ ]2                             tan s´lo en
                                                                                                                 o
                    ∗
“pasar” el primer Y al final. Repitiendo esto, se llega a que
                 m                                  m−2                                   m−1             m−1
      fk (XY )2       ≤ fk [ (X ∗ X)2 (Y Y ∗ )2 ]2              ≤ · · · ≤ fk (X ∗ X)2           (Y Y ∗ )2

Pongamos ahora X = exp 2A , Y = exp 2B y Mm = 2m . Queda
                        m            m

                       A     B                      A∗      A        1       B       B∗   1
               fk (e Mm e Mm )Mm ≤ fk (e Mm e Mm ) 2 Mm (e Mm e Mm ) 2 Mm .
         ımite m → ∞, y usando Lie-Trotter (y que las fk son continuas), tenemos que
Tomando l´
                                            A∗ +A       B+B ∗
                       fk (eA+B ) ≤ fk (e     2     e     2     ) = fk (eRe A eRe B ) .
Como esto vale para todo k ∈ In , llegamos a que |λ(eA+B )| w µ(eRe A eRe B ). La otra
desigualdad se prueba usando que la funci´n f (X) = | tr X| tambi´n cumple las condiciones
                                           o                      e
de (9.52) (sale usando que f (Y ) ≤ fn (Y ), pero coinciden si Y ∈ Mn (C)+ ), y haciendo el
resto de la cuenta igual.
Observaci´n 9.10.4. Si una funci´n f : Mn (C) → R es continua y cumple las condiciones
         o                      o
                        f (XY ) = f (Y X)       y        |f (X 2m )| ≤ f ([XX ∗ ]m )                             (9.53)
para todo m ∈ N y todo par X, Y ∈ Mn (C), decimos que f es de la clase T. La sutil
diferencia con la Eq. (9.52) es que aca no pedimos que f sea positiva, pero no ponemos
m´dulo en el ultimo t´rmino de (9.53). Toda la cuenta del Lema 9.10.3 puede rehacerse para
  o           ´       e
una tal funci´n, con lo que se obtiene la desigualdad m´s general: Si f es de la clase T,
             o                                         a
                                    f (eA+B ) ≤ f (eRe A eRe B ) ,
para todo par A, B ∈ Mn (C).
Proposici´n 9.10.5. Sea ||| · ||| una NUI en Mn (C). Dadas A, B ∈ H(n), se tiene que
         o
                                     ||| eA+B ||| ≤ ||| eA eB ||| .

Demostraci´n. Por el Lema 9.10.3 y el hecho de que A, B ∈ H(n), tenemos que
          o
                s(eA+B ) = µ(eA+B ) = |µ(eA+B )|                 w   µ(eA eB )   w   s(eA eB ) ,
donde la ultima mayorizaci´n sale de la Proposici´n 9.7.1 (mayorante de Weyl).
         ´                o                      o
Proposici´n 9.10.6 (Desigualdad de Golden-Thompson). Si A, B ∈ H(n), entonces
         o
                                       tr eA+B ≤ tr eA eB .                                                      (9.54)

Demostraci´n. Es consecuencia directa del Lema 9.10.3.
          o
Ejercicio 9.10.7. Usando la Proposici´n 9.10.5, mostrar que
                                     o
                                                    1/2
                     tr eA+B ≤ tr     eB e2A eB                 para A, B ∈ H(n) .
¿Esto es mejor o peor que Golden-Thompson?
194                                                                         Algunas desigualdades de matrices




9.11      Desigualdad de Ando-Johnson-Bapat
Logaritmos
Proposici´n 9.11.1. Sean A ∈ Gl (n)+ y B ∈ Gl (m)+ . Entonces se verifica que
         o
                              log(A ⊗ B) = (log A) ⊗ Im + In ⊗ (log B) .
                                                   k                                 h
Demostraci´n. Supongamos que A =
          o                                             µi Pi y que B =                   λj Qj . Luego
                                                i=1                                 j=1

                                                        k       h
                                        A⊗B =                       µi λj Pi ⊗ Qj .
                                                       i=1 j=1

Notemos que (Pi ⊗ Qj )(i,j) es un sisitema de proyectores para Cn ⊗ Cm . Luego, si u ⊗ v ∈
Cn ⊗ Cm y abreviamos L = log(A ⊗ B)(u ⊗ v), se tiene que
              k       h
      L =                 log(µi λj )[Pi ⊗ Qj (u ⊗ v)]
             i=1 j=1
                                                           
              k                  h                                      h                 k
         =         log(µi )           Pi (u) ⊗ Qj (v) +                   log(λj )           Pi (u) ⊗ Qj (v)
             i=1                 j=1                                j=1                  i=1
                                                              
              k                                h                            h                     k
         =         log(µi ) Pi (u) ⊗                 Qj (v) +                 log(λj )             Pi (u)   ⊗ Qj (v)
             i=1                               j=1                          j=1                  i=1
              k                                    h
         =         log(µi )[Pi (u) ⊗ v] +               log(λj )[u ⊗ Qj (v)]
             i=1                                j=1
                                                                                          
                  k                                                 h
         =             log(µi )Pi (u)      ⊗v+u⊗                       log(λj )Qj (v)
               i=1                                              j=1

         =   [(log A) ⊗ Im ] (u ⊗ v) + [In ⊗ (log B)] (u ⊗ v) .
La igualdad en el resto de los elementos de Cn ⊗ Cm se obtiene por linealidad.
Corolario 9.11.2. Sean A, B ∈ Gl (n)+ . Entonces
                                       log(A ◦ B) ≥ (log A + log B) ◦ In .

Demostraci´n. Consideremos la funci´n Φ : L(Hn ⊗ Hn ) → Mn (C) definida en la Proposici´n
           o                       o                                                  o
8.1.4. Recordar que Φ(T ) = TS (T ∈ L(Hn ⊗ Hn ) ) para cierto subespacio S ⊆ Hn ⊗ Hn ,
y que Φ(A ⊗ B) = A ◦ B, para A, B ∈ Mn (C). Adem´s, por el Corolario 6.3.14, la funci´n
                                                    a                                 o
t → log T es ∩OP en (0, +∞). Luego, aplicando el Teorema 6.3.6 deducimos que
      Φ(log X) = (log X)S ≤ log(XS ) = log Φ(X)                             para todo X ∈ Gl(Hn ⊗ Hn )+ .
9.11 Desigualdad de Ando-Johnson-Bapat                                                                              195




Ahora bien, por la Proposici´n 9.11.1, log A ⊗ B = (log A) ⊗ In + In ⊗ (log B), as´ que
                            o                                                     ı

                    log(A ◦ B) = log Φ(A ⊗ B) ≥                      Φ log(A ⊗ B)
                                                           =         Φ (log A) ⊗ In + In ⊗ (log B)
                                                           =         (log A) ◦ In + In ◦ (log B) ,

como se afirmaba.


La desigualdad
Ahora daremos la prueba obtenida por T. Ando de la que fue llamada muchos a˜os “conjetura
                                                                           n
de Johnson-Bapat”:
Teorema 9.11.3. Sean A, B ∈ Gl (n)+ . Entonces
                             n                      n
                                  µi (A ◦ B) ≥           µi (AB)        para todo         k ∈ In .
                            i=k                    i=k

Demostraci´n. Por el Corolario 9.11.2 sabemos que
          o

                                         log(A ◦ B) ≥ (log A + log B) ◦ In .

Por el Teorema de Weyl 2.3.5, para todo k ∈ In , tenemos que
                n                          n                              n
          log         µi (A ◦ B)     =          µi (log(A ◦ B) ) ≥             µi ( (log A + log B) ◦ In ) .
                i=k                       i=k                            i=k

De acuerdo al Teorema de mayorizaci´n de Schur 5.1.1,
                                   o

                                     (log A + log B) ◦ In               log A + log B,

y entonces
                      n                                          n
                          µi ( (log A + log B) ◦ In ) ≥               µi (log A + log B) ,      k ∈ In .
                    i=k                                         i=k

Por la Proposici´n 9.9.7, log A + log B
                o                                         log(A1/2 BA1/2 ). Luego
     n                                n                                             n
          µi (log A + log B) ≥             µi (log(A1/2 BA1/2 )) = log                   µi (AB)     ,   k ∈ In .
    i=k                              i=k                                           i=k

Combinando estos resultados obtenemos que
                                     n                      n
                                          µi (A ◦ B) ≥           µi (AB) ,       k ∈ In ,
                                    i=k                    i=k

como se quer´ demostrar.
            ıa
196                                                                Algunas desigualdades de matrices




Observaci´n 9.11.4. Este teorema mejora el resultado de Bapat-Sunder:
         o
                    n                       n
                         µi (A ◦ B) ≥            µi (A)µi (B)       para todo    k ∈ In .
                   i=k                   i=k

pues, de acuerdo al Teorema de Horn (Proposici´n 9.7.3), se tiene que
                                              o
                     n                  n
                            µi (AB) ≥           µi (A)µi (B)       para todo    k ∈ In .
                    i=k                 i=k

Tambi´n verificaremos la siguiente variante del Teorema 9.11.3:
     e
Teorema 9.11.5. Sean A, B ∈ Gl (n)+ . Entonces
                        n                       n
                            µi (A ◦ B) ≥            µi (AB t )    para todo     k ∈ In .
                    i=k                     i=k

Demostraci´n. Como log B t = (log B)t , tenemos que
          o
                              (log B t ) ◦ I = (log B)t ◦ I = (log B) ◦ I.
Por lo tanto, podemos reemplazar {log A+log B}◦I por {log A+log B t }◦I en la demostraci´n
                                                                                        o
anterior, con lo que queda demostrado el teorema.

De los Teoremas 9.11.3 y 9.11.5 se deducen los cl´sicos teoremas de Fiedler que aseguran que,
                                                 a
para A, B ∈ Gl (n)+ ,
                            A ◦ B ≥ µn (AB)I              y      A ◦ B ≥ µn (AB t )I


9.12      Medias de operadores positivos
Definici´n 9.12.1. Cuando 0 ≤ α ≤ 1, la α-media de A, B ∈ Gl (n)+ es lo siguiente
       o
                               A#α B = A1/2 (A−1/2 BA−1/2 )α A1/2 .
                                             1
En particular, la media geom´trica A#B es la 2 -media, o sea,
                            e

                               A#B = A1/2 (A−1/2 BA−1/2 )1/2 A1/2 .
Proposici´n 9.12.2. Sean A, B ∈ Gl (n)+ . Entonces A−1/2 (A#B)B −1/2 ∈ U(n).
         o

Demostraci´n. Sea T = A−1/2 B 1/2 . Consideremos su descomposici´n polar a derecha, dada
           o                                                    o
por T = |T ∗ |U , con U ∈ U(n). Luego
            A−1/2 (A#B)B −1/2           = A−1/2 (A1/2 (A−1/2 BA−1/2 )1/2 A1/2 )B −1/2
                                        =       (A−1/2 BA−1/2 )1/2 A1/2 B −1/2
                                        =       (T T ∗ )1/2 T −1 = |T ∗ | T −1 = U ∈ U(n) ,
como quer´
         ıamos demostrar.
9.12 Medias de operadores positivos                                                          197




Lema 9.12.3. Sean A ∈ Gl (n)+ , B ∈ Mn (C)+ y C ∈ Mn (C). Entonces

                             A     C
                                        ≥ 0 ⇐⇒ B ≥ C ∗ A−1 C .
                             C∗    B

                                                                       I   X
Demostraci´n. Para abreviar llamemos X = −A−1 C. Entonces
          o                                                                     es inversible. Un
                                                                       0   I
c´lculo sencillo nos muestra que
 a

                    I    0    A     C       I   X         A        0
                                                     =                      .              (9.55)
                    X∗   I    C∗    B       0   I         0   B − C ∗ A−1 C

Entonces de aqu´ resulta claro el enunciado.
               ı

Proposici´n 9.12.4. Dados A, B ∈ Gl (n)+ , la media geom´trica A#B es la mayor matriz
          o                                             e
autoadjunta del siguiente conjunto:

                                                     A    C
                             Ω=    C ∈ H(n) :               ≥0 .
                                                     C    B

Demostraci´n. Observemos que como (A#B)A−1 (A#B) = A1/2 (A−1/2 BA−1/2 )A1/2 = B,
           o
entonces por el Lema 9.12.3, la matriz

                                         A          A#B
                                        A#B          B

es semidefinida positiva. Luego, A#B ∈ Ω. Para demostrar que es efectivamente el m´ximo
                                                                                  a
tomemos C ∈ Ω arbitrario. Entonces el Lema 9.12.3 nos dice que B ≥ CA−1 C. Por lo tanto,

                (A−1/2 CA−1/2 )2 = A−1/2 (CA−1 C) A−1/2 ≤ A−1/2 BA−1/2

y por el Teorema 6.2.6, tenemos

                  A−1/2 CA−1/2 ≤ | A−1/2 CA−1/2 | ≤ (A−1/2 BA−1/2 )1/2 .

Luego
                         C ≤ A1/2 (A−1/2 BA−1/2 )1/2 A1/2 = A#B,
lo cual demuestra que A#B es el m´ximo del conjunto Ω.
                                 a

Corolario 9.12.5. Sean A, B ∈ Gl (n)+ . Entonces

                     A       A#B                           B     A#B
                                       ≥0       y                          ≥0.
                    A#B       B                           A#B     A

Demostraci´n. Es inmediato a partir de la Proposici´n 9.12.4.
          o                                        o
198                                                              Algunas desigualdades de matrices




Observaci´n 9.12.6. Puede probarse que (A#B)2
         o                                                             A1/2 BA1/2 , lo que implica que
                                                                 log


                        n                       n
                             µi (A#B)2 ≥            µi (AB)     para todo      k ∈ In .
                       i=k                  i=k

En consecuencia, el siguiente resultado mejora el Teorema 9.11.3.

Teorema 9.12.7. Sean A, B ∈ Gl (n)+ . Entonces
                       n                    n
                            µi (A ◦ B) ≥         µi (A#B)2       para todo      k ∈ In .
                      i=k                  i=k


Demostraci´n. Por la Proposici´n 9.12.5 y el Teorema de mayorizaci´n de Schur 5.1.1
          o                   o                                   o

         A         A#B            B        A#B                  A◦B             A#B ◦ A#B
                             ◦                            =                                      ≥0.
        A#B         B            A#B        A                 A#B ◦ A#B           A◦B

Ahora, usando 3.7.8, se deduce que A ◦ B ≥ (A#B) ◦ (A#B) y por ende
                n                   n
                     µi (A ◦ B) ≥         µi [(A#B) ◦ (A#B)]             para todo   k ∈ In .
               i=k                  i=k

Finalmente, aplicando el Teorema 9.11.3 al miembro de la derecha se obtiene
               n                                    n
                     µi [(A#B) ◦ (A#B)] ≥                 µi (A#B)2      para todo    k ∈ In .
              i=k                                   i=k

completanto la demostraci´n.
                         o


9.13      Ejercicios
Ejercicios del texto

9.13.1. Sean A, B ∈ H(n).

  1. Probar que, para cada x ∈ Cn , se tiene S(A, B)x, x = 2 Re Ax, Bx .

  2. Dar un ejemplo de matrices positivas A y B tales que S(A, B) ≥ 0.

9.13.2. Encontrar dos matrices A, B ∈ M2 (C) tales que |A + B| ≤ |A| + |B|.

9.13.3. Mostrar que la desigualdad (9.7) deja de ser cierta si en el miembro izquierdo se quita
la estrella en B. (Ayuda: basta considerar matrices de 2 × 2 y el caso p = q = 2).
9.13 Ejercicios                                                                                                                            199




9.13.4. Sean A, B, C, D ∈ Mn (C)+ tales que AD = DA y BC = CB. Sean X ∈ Mn (C) y
                         1
p, q ∈ [1, +∞) tales que p + 1 = 1. Entonces
                             q

                                                     2
             1 p       1                                      1                                           2                    2
               A XC p + Dq XB q                          ≥       Ap XC p − Dq XB q                        2   + ADXCB          2   .
             p         q                             2        r2

donde r = m´x{p, q}.
           a

9.13.5. Sean A, B, C, D ∈ Mn (C)+ tales que AD = DA, A∗ D = DA∗ , BC = CB y
B ∗ C = CB ∗ . Sean X ∈ Mn (C) y p, q ∈ [1, +∞) tales que p + 1 = 1. Entonces
                                                          1
                                                              q

                                                 2
    1    p     p 1   q      q                                1     p     p     q      q                         2                      2
      |A| X |C| + |D| X |B|                          ≥          |A| X |C| − |D| X |B|                           2   + ADXC ∗ B ∗       2   .
    p            q                               2           r2

donde r = m´x{p, q}. En particular, si C = D = I, mostrar que
           a
                                                         2
                1    p   1     q                                  1     p         q                   2                2
                  |A| X + X |B|                              ≥       |A| X − X |B|                    2   + AXB ∗      2   ,
                p        q                               2        r2

que es la extensi´n natural de (9.17) a matrices cualesquiera. Extender las desigualdades
                 o
(9.22)-(9.24) de manera an´loga.
                          a

9.13.6. Dadas A, B ∈ Gl (n)+ , probar que µ(A1/2 BA1/2 )2                                             µ(AB 2 A).
                                                                                                log


9.13.7. Dada A ∈ Mn (C), probar que
                                                                                       m
                                                                              A
                                                 eA = lim               I+                  .                                          (9.56)
                                                              m→∞             m

9.13.8. Encontrar A ∈ M2 (C) tal que |||eA ||| < |||eRe A ||| para toda NUI.

9.13.9.    1. Dades A, B ∈ H(n), mostrar la siguiente nueva f´rmula:
                                                             o

                                                                                                      1
                                                                              tB                tB
                                             e   A+B
                                                             = lim        e    2   e   tA
                                                                                            e    2    t .
                                                                  t→0

                                                                                                               1
                      tB                tB                                             tB                 tB
     Observar que e    2   e   tA
                                    e    2                    +
                                             ∈ Gl (n) por lo que e                      2   e   tA
                                                                                                      e    2   t tiene sentido para todo
                               tB             tB
                                                         −1         −tB                −tB
     t = 0. Adem´s, e 2 etA e 2
                  a                    = e 2 e−tA e 2 , por lo que el caso t < 0 no crea
     problemas.
                                                                  tB      tB
     Sug: Desarrollar el producto de las tres series asociadas a e 2 etA e 2 y aplicarles la
     serie de potencias de −1 < x → log(1 + x). Despues seguir pasos similares a los de la
     prueba del Teorema 9.8.2.
200                                                                        Algunas desigualdades de matrices




  2. Extendiendo el argumento que utilizamos para probar el Teorema 9.8.2 probar que,
     dadas A1 , A2 , ... , Ak ∈ Mn (C), se tiene que
                                        k                                                      m
                                                                      A1     A2           Ak
                         exp                Ai    =     lim       e m e m ... e m                  .
                                                       m→∞
                                    i=1

9.13.10 (Desigualdad de Araki-Lieb-Thirring). Si A, B ∈ Gl (n)+ , probar que

          tr (B 1/2 AB 1/2 )st ≤ tr (B t/2 At B t/2 )s                 ,        para todo par s, t ≥ 1 .

Sug: Usar el Corolario 9.9.5 para las NUI’s A                 p   = (tr |A|p )1/p .


Ejercicios nuevos
9.13.11. Sean A, B, C ∈ Mn (C). Demostrar:
  1. eA+B = lim (erA/2 erB erA/2 )1/r
              r→0

  2. Si A, B ≥ 0 y r ∈ (0, 1), entonces (Ar/2 B r Ar/2 )1/r                          A1/2 BA1/2
  3. Nuevamente bajo el supuesto que A, B ≥ 0, se tiene que para toda norma unitariamente
     invariante ||| · |||:
                             |||Ar/2 B r Ar/2 |||1/r − → |||eA+B |||,
                                                      −
                                                                       r↓0
      en forma decreciente.
  4. Si A, B > 0, entonces ||| log(A) + log(B)||| ≤ ||| log(A1/2 BA1/2 )||| para toda norma
     unitariamente invariante ||| · |||.
  5. (Golden-Thompson) Si A, B ∈ H(n), entonces tr(eA+B ) ≤ tr(eA eB ).
  6. Dar un ejemplo que muestre que la desigualdad tr(eA+B+C ) ≤ tr(eA eB eC ) es falsa.


Onda Cauchy-Schwarz
9.13.12. Sean A, B ∈ Mn (C). Probar que, para todo r ∈ (0, +∞),
                    sr (AB)         w   sr (A)sr (B) =⇒ sr (AB)                     w    sr (A)sr (B) .
                              log

                                                                       1        1
9.13.13. Sean ϕ una fgs, y p, q ∈ [1, +∞) tales que                    p    +   q   = 1. Dados x, y ∈ Rn , se tiene que
                                                                  1                  1
                                        ϕ(|x · y|) ≤ ϕ(|x|p ) p · ϕ(|y|q ) q .
Sug: usando H¨lder (de n´meros, en las coordenadas) mostrar que, para todo t > 0 se tiene
             o          u
                                                      tp ϕ(|x|p ) ϕ(|y|q )
                                    ϕ(|x · y|) ≤                 +         .
                                                          p        q tq
Luego calcular el m´
                   ınimo de esas cosas.
9.13 Ejercicios                                                                                        201




9.13.14. Sea N una NUI en Mn (C).
                                         1       1
  1. Sean p, q ∈ [1, +∞) tales que       p   +   q   = 1. Mostrar que
                                     1                 1
              N (AB) ≤ N (|A|p ) p · N (|B|q ) q               para todo par A, B ∈ Mn (C) .

                                                                    1       1       1
  2. M´s a´n, si tomamos p, q y r positivos tales que
      a u                                                           p   +   q   =   r   , probar que
                       1                 1                 1
            N (|AB|r ) r ≤ N (|A|p ) p · N (|B|q ) q            para todo par A, B ∈ Mn (C) .

  3. Deducir que N (|AB|1/2 ) ≤ N (A)1/2 ·N (B)1/2 y que N (AB) ≤ N (A∗ A)1/2 ·N (B ∗ B)1/2 .

  4. Otra mejora: Dadas A, B, X ∈ Mn (C) se tiene que

                                N (AXB ∗ )2 ≤ N (A∗ A X) · N (X B ∗ B) .

  5. Peor todav´ si r ∈ R∗ , entonces debe valer que
               ıa:       +



                           N ( |AXB ∗ |r )2 ≤ N ( |A∗ A X|r ) · N ( |X B ∗ B|r ) .

  6. Ahora deducir que, si s ∈ [0, 1], entonces se cumple que

      N (As XB 1−s ) ≤ N (AX)s N (XB)1−s                   y que    N (As XB s ) ≤ N (X)1−s N (AXB)s .

Observar que tomando X = I en la de la derecha, se obtiene una generalizaci´n de la de-
                                                                           o
sigualdad de Cordes (9.48) a todas las NUI’s (porque I sp = 1).
202   Algunas desigualdades de matrices
Cap´
   ıtulo 10

Rango y Radio Num´ricos
                 e

En este cap´ıtulo consideraremos espacios de Hilbert H finito deimensionales (con su producto
interno y la norma eucl´  ıdea). Por lo tanto, puede pensarse que H = Cn , e identificar el
´lgebra de operadores L(H) con Mn (C). La mayor´ de los resultados de este cap´
a                                                   ıa                            ıtulo valen
tambi´n para el caso infinitodimensional, salvo el hacho de que en varias de las igualdades e
      e
inclusiones que aparecen, el rango num´rico (o las c´psulas convexas) deber´ cambiarse por
                                       e            a                      ıan
sus clausuras. Una versi´n general aparece en el tomo II de este libro.
                         o


10.1      Definiciones y propiedades b´sicas
                                     a
Definici´n 10.1.1. Sea A ∈ L(H).
       o

  1. El Rango num´rico de A es el conjunto
                 e

                             W (A) = { Ax, x : x ∈ H, x = 1 } .

  2. Recordemos que el radio num´rico de A se define como
                                e

                    w(A) = m´x |λ| = m´x{ | Ax, x | : x ∈ H, x = 1 }
                            a         a
                            λ∈W (A)

     y que define una norma en L(H) (si el cuerpo es C).


10.1.2. A continuaci´n enumeraremos una serie de propiedades elementales del rango y radio
                     o
num´ricos que se siguen f´cilmente sus definiciones. Las pruebas que no est´n escritas deben
    e                    a                                                e
considerarse como ejercicios. Sea A ∈ L(H).

  1. Se cumplen las siguientes desigualdades:

                                      ρ(A) ≤ w(A) ≤ A    sp   .
204                                                                    Rango y Radio Num´ricos
                                                                                        e




      La segunda se deduce de Cauchy-Schwarz. La primera se deduce de la f´rmula (10.1)
                                                                          o
      de un poco m´s abajo.
                   a
                        0 0
  2. Tomando T =             , se ve que las desiguadades pueden ser estrictas. En efecto, es
                        2 0
      claro que ρ(T ) = 0 y T sp = 2. Por otra parte, como la funci´n
                                                                   o

                 f : {z ∈ C : |z| ≤ 1} → R         dada por       f (z) = 2|z| (1 − |z|2 )1/2

      alcanza el m´ximo f (z) = 1 cuando |z|2 = 1/2, podemos deducir que w(T ) = 1.
                  a

  3. Vimos en el Corolario 2.1.4 que, si A es normal, entonces ρ(A) = w(A) = A                  sp   .
                                A + A∗          A − A∗
  4. Recordemos que Re A =             e Im A =        . Se tiene que
                                  2               2i
                         Re A   sp   = w(Re A) = m´x | Re Ax , x | ≤ w(A) ,
                                                  a
                                                     x =1


      y lo mismo vale para Im A. Luego A       sp   ≤ 2 · w(A).

  5. Dado B ∈ L(H) se cumple que W (A + B) ⊆ W (A) + W (B).

  6. Dado λ ∈ C, se tiene que W (A + λI) = W (A) + λ y W (λ · A) = λ · W (A).

  7. Si U ∈ U(H), entonces W (U AU ∗ ) = W (A) y w(U AU ∗ ) = w(A).

  8. W (A) es compacto (por serlo la c´scara de la bola unidad de H).
                                      a

Proposici´n 10.1.3. Sea A ∈ L(H). Entonces
         o

                                         σ (A) ⊆ W (A) .                                             (10.1)

Demostraci´n. Si λ es autovalor de A, es claro que λ = Ax, x ∈ W (A) para cualquier
           o
autovector unitario x asociado a λ .


10.2      El Teorema de Hausdorff T¨eplitz
                                  o
El Teorema de Hausdorff T¨eplitz dice que, para todo A ∈ L(H), se cumple que W (A) es
                            o
convexo. Para probarlo se necesitan una serie de reducciones. La principal es ver que basta
probarlo para matrices en M2 (C) (esto lo veremos en la prueba del Teorema). Pero a´n entre
                                                                                   u
ellas, necesitamos dos reducciones especiales:

Lema 10.2.1. Dada A ∈ M2 (C), existe U ∈ U(2) tal que,

                                           c   a                         trA
                        B = U ∗ AU =                  ,     con     c=       .
                                           b   c                          2
10.2 El Teorema de Hausdorff T¨eplitz
                             o                                                                       205



                                        tr A
Demostraci´n. Cambiando A por A −
          o                                  I, podemos suponer que tr A = 0 y tratar de
                                          2
hacer que la diagonal de B sea nula. Si σ(A) = {0}, esto es f´cil (por el Teorema 1 de Schur
                                                             a
1.6.1). Sin´, σ(A) = {λ, −λ} con λ = 0. Sean x1 y x2 autovectores unitarios asociados a λ
           o
y −λ, respectivamente. Tomemos la curva x(t) = eit x1 + x2 , para t ∈ [0, 2π]. Observar que
x(t) = 0, por que x1 y x2 son LI. Entonces,

              Ax(t), x(t)    =    λ − λ + eit Ax1 , x2 + e−it Ax2 , x1


                             =    λeit x1 , x2 − λe−it x2 , x1 = 2iλ Im (eit x1 , x2 ) .

Eligiendo t0 ∈ [0, 2π] tal que eit0 x1 , x2 ∈ R, tenemos que Ax(t0 ), x(t0 ) = 0, con x(t0 ) = 0.
Normalizando a x(t0 ), completando a una BON de C2 , y tomando U ∈ U(2) tal que tenga a
esa BON en sus columnas, obtenemos

                                              0       a
                            B = U ∗ AU =                   ,    con       a, b ∈ C ,
                                              b       0

donde B22 = 0 porque B11 = 0 = tr B.

Lema 10.2.2. Dada B ∈ M2 (C) con diagonal nula, existen V ∈ U(2) y w ∈ C con |w| = 1
tales que,
                             0 a
               w · V BV ∗ =         ,   con     a≥0 y b≥0.
                             b 0

                              0   a                             u 0
Demostraci´n. Si B =
          o                            , tomando V =                          ∈ U(2) y w ∈ C con |w| = 1,
                              b   0                             0 1
tenemos que
                                                           0   wu a
                                  w · V B1 V ∗ =                              .
                                                          wu b  0
                                                  i                   i
Si a = eiθ1 |a| y b = eiθ2 |b|, tomando u = e 2 (θ2 −θ1 ) y w = e 2 (θ2 +θ1 ) , se obtiene que

                                                            0 |a|
                                      w · V B1 V ∗ =                      ,
                                                           |b| 0

como dese´bamos.
         a

Teorema 10.2.3 (Hausdorff-T¨eplitz). Sea A ∈ L(H). Entonces W (A) es convexo.
                          o

Demostraci´n. Sean α, β ∈ W (A) distintos, y sean x, y ∈ H unitarios tales que Ax, x = α
          o
y Ay, y = β. Tomemos B0 = {v1 , v2 } una BON de S = Gen {x, y}. Consideremos la
compresi´n AS ∈ L(S). La matriz de AS en la base B0 es B = ( Avj , vi )i,j∈I2 ∈ M2 (C).
        o
Dado z = (z1 , z2 ) ∈ C2 , se tiene que

                w = z1 v1 + z2 v2 ∈ S ,       w = z         2   y     Bz, z = Aw, w ,
206                                                                                   Rango y Radio Num´ricos
                                                                                                       e




por lo que α, β ∈ W (B) y, para probar que las combinaciones convexas de α y β est´n en
                                                                                      a
W (A), basta verificar que est´n en W (B). En otras parabras, alcanza con probar el teorema
                             a
en el caso de que A ∈ M2 (C). Para ello, por los Lemas 10.2.1 y 10.2.2, se puede asumir que
                                       0    a
                             A=                       ,     con       a≥0         y    b≥0,
                                       b    0

puesto que W (C + λI) = W (C) + λ y W (u · V CV ∗ ) = u · W (C) para cualquier C ∈ M2 (C),
λ ∈ C, V ∈ U(2) y u ∈ C con |u| = 1. Obervar que los cambios inducidos por las reduc-
ciones anteriores (translaciones y rotaciones) no perturban el hecho de que W (A) sea convexo.
Veremos que en este caso,

      W (A) = t (a + b) cos θ + i(a − b) sen θ                       : t ∈ [0, 1/2]     y   θ ∈ [0, 2π]   ,        (10.2)

que es una elipse (o eventualmente un segmento) centrada en el origen, y por lo tanto convexa.
En efecto, dado z ∈ C2 con z = 1, como

                             Az, z = Aeiα z, eiα z                    para todo       α∈R,

podemos suponer que z = (t, (1 − t2 )1/2 eiθ ) para t ∈ [0, 1] y θ ∈ [0, 2π]. En tal caso, cuentas
elementales muestran que

                          Az, z = t(1 − t2 ) (a + b) cos θ + i(a − b) sen θ .

Observar que los n´meros t(1 − t2 ) recorren el intervalo [0, 1/2] cuando t ∈ [0, 1]. Esto prueba
                   u
la f´rmula (10.2).
    o
Corolario 10.2.4. Sea A ∈ L(H).

  1. En general se cumple que conv [σ (A) ] ⊆ W (A).
  2. Si A es normal, entonces conv [σ (A) ] = W (A).

Demostraci´n. La inclusi´n σ (A) ⊆ W (A) ya fue vista en la Proposici´n 10.1.3. Pero por
                 o             o                                         o
el Teorema 10.2.3, sabemos que esa incus´n arrastra a la c´psula convexa. Si A es normal,
                                             o               a
sea {x1 , . . . , xn } una BON de H formada por autovectores de A asociados a sus autovalores
λ1 , . . . , λn . Si x ∈ H tiene x = 1, entonces
                         n                      n                          n
         Ax, x =     A         x, xk xk ,                 x, xk xk     =         | x, xk |2 λk ∈ conv [σ (A) ] ,
                         k=1                    k=1                        k=1

         n
porque         | x, xk |2 = x     2
                                      = 1. Por lo tanto W (A) ⊆ conv [σ (A)].
         k=1

Definici´n 10.2.5.
       o                     1. Dados dos espacios de Hilbert H y K, notamos

                                           H ⊕ K = {(x, y) : x ∈ H , y ∈ K} ,

      que es un espacio de Hilbert con el producto (x1 , y1 ) , (x2 , y2 ) = x1 , x2 + y1 , y2 .
10.2 El Teorema de Hausdorff T¨eplitz
                             o                                                                   207




  2. Dados A ∈ L(H) y B ∈ L(K), se define el operador

           A ⊕ B ∈ L(H ⊕ K)          dado por        A ⊕ B(x, y) = (Ax, By), (x, y) ∈ H ⊕ K .

  3. Matricialmente tenemos que

                                             A       0        H
                                A ⊕ B :=                        ∈ L(H ⊕ K) .
                                             0       B        K

  4. En forma similar se definen sumas directas de muchos espacios de Hilbert y de muchos
     operadores en ellos.
Corolario 10.2.6. Sean A ∈ L(H) y B ∈ L(K). Entonces

     W (A ⊕ B) = conv [W (A) ∪ W (A) ]           y       w(A ⊕ B) = m´x{w(A), w(B)} .
                                                                     a                          (10.3)

Idem con muchos bloques diagonales.

Demostraci´n. La inclusi´n W (A) ∪ W (A) ⊆ W (A ⊕ B) se testea inmediatamente usando
           o             o
vectores con una coordenada nula. Por el Teorema 10.2.3, esto arrastra a la c´psula convexa
                                                                             a
de W (A) ∪ W (A). Rec´ ıprocamente, dados x ∈ H e y ∈ K no nulos tales que (x, y) 2 =
 x 2 + y 2 = 1, tenemos que

          A ⊕ B(x, y), (x, y)     =     Ax, x + By, y
                                                x     x                          y   y
                                  =     x 2 A     ,                + y   2
                                                                             B     ,     ,
                                                x     x                          y   y

quien claramente pertenece a conv [W (A) ∪ W (A) ].
Corolario 10.2.7. Sea A ∈ Mn (C). Entonces existe U ∈ U(n) tal que, si B = U ∗ AU , luego
      tr A
Bii =      para todo i ∈ In .
       n
                                         tr A
Demostraci´n. Cambiando A por A −
          o                                   I, lo que debemos probar es que, si tr A = 0,
                                          n
entonces podemos conseguir U ∈ U(n) tal que la diagonal de U ∗ AU sea nula. Lo probaremos
por inducci´n en n. Para n = 1 es trivial. Observar que el caso n = 2 es el Lema 10.2.1. Si
            o
n > 2, aplicando el Corolario 10.2.4 obtenemos que
                                     tr A
                                0=        ∈ conv [σ (A)] ⊆ W (A) .
                                      n
Luego existe un vector unitario x ∈ Cn tal que Ax, x = 0. Completando {x} a una BON de
Cn que lo tenga como primer elemento, y tomando U1 ∈ U(n) la matriz con esa BON en sus
columnas, obtenemos que

                                 ∗                   0    ∗       1
                            C = U1 AU1 =                             ,
                                                     ∗    D      n−1
208                                                                     Rango y Radio Num´ricos
                                                                                         e




porque C11 = Ax, x = 0. Como D ∈ Mn−1 (C) cumple que tr D = 0, podemos aplicar la
hip´tesis inductiva y encontrar V ∈ U(n−1) tal que la diagonal de V ∗ DV sea nula. Definiendo
   o
U2 = 1 ⊕ V ∈ U(n) y U = U1 U2 ∈ U(n), se ve que

                                  1   0         0   ∗       1    0           0       ∗V
         U ∗ AU = U2 CU2 =
                   ∗
                                                                        =                       ,
                                  0   V∗        ∗   D       0    V          V ∗∗   V ∗ DV

que tiene la diagonal nula.


10.3      Caracterizaciones
Observaci´n 10.3.1. Sea W ⊆ C un conjunto convexo compacto, y sea z0 ∈ W . Entonces
            o                                                        /
existe un unico w0 ∈ W tal que
          ´

                                  d(z0 , W ) = |z0 − w0 | = d > 0 .

El tal w0 existe (y es unico) por la teor´ usual de espacios de Hilbert, usando que W es
                        ´                 ıa
convexo y cerrado (para una cuenta ad hoc, ver el Ejercicio 10.5.2). M´s a´n, si x0 = z0 − w0 ,
                                                                      a u
entonces Re (x0 w0 ) + d2 = Re (x0 z0 ) y

                         Re (x0 z) ≤ Re (x0 w0 )        para todo      z∈W .                        (10.4)

Esto se deduce de que w0 es la proyecci´n ortogonal de z0 sobre W , y de que el producto
                                          o
escalar en C pensado como R2 est´ dado por z , w = Re (w z). Observar que la recta
                                       a
{z ∈ C : Re [x0 (z − w0 )] = 0} es ortogonal a z0 − w0 y pasa por w0 .
Teorema 10.3.2. Sea A ∈ L(H). Entonces

             W (A)   =        z ∈ C : |z − λ| ≤ w(A − λI)         para todo      λ∈C


                     =        z ∈ C : |z − λ| ≤ A − λI      sp       para todo     λ∈C      .

Demostraci´n. Notemos W = W (A), X al conjunto de arriba e Y al conjunto de abajo. Es
            o
claro, por las definiciones, que X ⊆ Y . Usando que W (A) − λ = W (A − λI), es f´cil ver que
                                                                               a
W ⊆ X. En lo que sigue probaremos que Y ⊆ W : Supongamos que z0 ∈ W , y sea w0 la
                                                                        /
proyecci´n ortogonal de z0 sobre W (como en la Observaci´n 10.3.1).
        o                                                o

Para facilitar las cuentas, rotaremos y transladaremos el problema para que z0 ∈ R+ , w0 = 0
y W ⊆ {z ∈ C : Re z ≤ 0}. Para hacerlo, sean

             d = |z0 − w0 | = d(z0 , W ) > 0 ,      y     B = e−iθ (A − w0 I) ∈ L(H) ,

donde z0 − w0 = eiθ d. Luego WB = W (B) = e−iθ (W (A) − w0 ) y si tomamos el conjunto

      YB = z ∈ C : |z − λ| ≤ B − λI        sp   , λ∈C ,         entonces    YB = e−iθ (Y − w0 ) .
10.3 Caracterizaciones                                                                    209




Por lo tanto, para ver que z0 ∈ Y , alcanza probar que d = e−iθ (z0 − w0 ) ∈ YB . Observar que,
                              /                                            /
como la funci´n x → e−iθ (x − w0 ) preserva distancias, la proyecci´n de d a WB es, ahora,
               o                                                      o
e−iθ (w0 − w0 ) = 0. Adem´s, como d = d − 0 > 0, si z ∈ WB , la Eq. (10.4) dice que
                          a

                          Re (z d ) = d Re z ≤ 0              =⇒       Re z ≤ 0 ,

         ıamos. Ahora, dados x ∈ Cn con x = 1 y m ∈ N, tendremos que
como quer´
                                   2
                       (B + mI)x        =        (B + mI)x , (B + mI)x
                                                         2
                                        =        Bx          + m2 + 2m Re Bx, x
                                                     2
                                        ≤        B   sp      + m2 ,

porque Bx, x ∈ WB . Es decir que B + mI sp ≤ ( B 2 + m2 )1/2 . Por otro lado, es f´cil
                                                      sp                          a
ver que ( B 2 + m2 )1/2 − m − − → 0. Por lo tanto, debe existir m ∈ N tal que
            sp               −−
                               m→∞

                                                         2
                        B + mI   sp   −m≤( B             sp   + m2 )1/2 − m < d .

En otras palabras, para ese m se tiene que

                               B + mI       sp   < d + m = |d + m| ,

por lo que d ∈ YB y entonces z0 ∈ Y . Resumiendo, vimos que si z0 ∈ W , entonces z0 ∈ Y , o
             /                  /                                 /                 /
sea que Y ⊆ W .

A continuaci´n damos un adelanto del libro II. Se trata de una caracterizaci´n obtenida por
            o                                                                   o
T. Ando [17] del radio num´rico, que es tan util como la caracetrizaci´n de la norma espectral
                            e                ´                        o
dada en la Proposici´n 3.7.6. Su prueba necesita bastantes desarrollos espec´
                      o                                                            ıficos que se
trabajar´n en el libro II, por lo que no creemos necesario reproducirlos aqu´ Sin embargo lo
        a                                                                     ı.
enunciamos ahora, en su versi´n matricial, porque es uno de los criterios b´sicos para trabajar
                               o                                           a
con rangos num´ricos.
                e
Teorema 10.3.3 (Ando 1973). Sea A ∈ Mn (C). Son equivalentes:

  1. w(A) ≤ 1.
  2. Para todo θ ∈ [0, 2π) se tiene que Re(eiθ A) ≤ I.
  3. Existen C ∈ Mn (C) e Y ∈ Mn (C)+ tales que

                      Y ≤I ,      C    sp   ≤2       y        (I − Y )1/2 C Y 1/2 = A .

                                                 I −Y          A∗ /2
  4. Existe Y ∈ Mn (C)+ tal que M1 =                                     ∈ M2n (C)+ .
                                                  A/2           Y

                                            I +L   A∗
  5. Existe L ∈ H(n) tal que M2 =                                  ∈ M2n (C)+ .
                                              A  I −L
210                                                                       Rango y Radio Num´ricos
                                                                                           e




Demostraci´n. Si vale la condici´n 2, como existen x ∈ Cn unitario y θ ∈ [0, 2π) tales que
          o                     o

      w(A) = | Ax, x | = eiθ Ax, x = (eiθ A) x, x = Re (eiθ A) x, x ≤ I x, x = 1 ,

tenemos que 2 → 1. Por otro lado, la implicaci´n 1 → 2 es bien f´cil. Siguiendo, tenemos que
                                               o                a
la equivalencia 3 ↔ 4 no es otra cosa que el Teorema 3.8.6. Veamos que 4 → 5 : Supongamos
que M1 ∈ M2n (C)+ ,, para cierto Y ∈ Mn (C)+ . Luego, si L = I − 2Y ∈ H(n), se tiene que

                                                       I +L   A∗                       I −Y   A∗ /2
  I + L = 2(I − Y ) y I − L = 2Y                 =⇒                       =2                          ≥0.
                                                         A  I −L                        A/2    Y

Ahora veamos que 5 → 2 : Dados x ∈ Cn y θ ∈ [0, 2π), tomemos el vector y = −eiθ x. Luego,
si asumimos que L cumple la condici´n 5, tendremos que
                                   o
                            2
                                           −L     −A
                      » –                              » – » –
                       x                                x
        2 x   2
                  =             ≥                         , x        = 2 Re(eiθ A) x, x .              (10.5)
                       y                   −A∗     L    y   y

Luego Re(eiθ A) ≤ I. Lamentablemente, la implicaci´n 1 → 4 quedar´ para el libro II.
                                                  o              a


10.4      Comparaci´n con NUI’s
                   o
Proposici´n 10.4.1. Sea A ∈ L(H). Entonces
         o
                                             1
                                               A ≤ w(A) ≤ A .
                                             2
Adm´s, las constantes 1 y 1/2 son ´ptimas para la desigualdad anterior.
   a                              o

Demostraci´n. Tomemos partes real e imaginaria: A = Re A + i Im A. Luego
          o

              w(A) ≤ A ≤ Re A + Im A = w(Re A) + w(Im A) ≤ 2 · w(A) ,

donde la ultima desigualdad se deduce de que W (Re A) = {Re z : z ∈ W (A)}, por lo que
         ´
w(Re A) ≤ w(A), y lo mismo para Im A. La optimalidad de las constantes 1 y 1/2 se ve
tomando las matrices E11 y 2E21 .
Proposici´n 10.4.2 (Marcus-Sandy 1985). Sea A ∈ Mn (C). Entonces
         o
                                    n                       n
                                1
                                          si (A) ≤ w(A) ≤         si (A) = A   1   .
                                n   i=1                     i=1

Adm´s, las constantes 1 y 1/n son ´ptimas para la desigualdad anterior.
   a                              o

Demostraci´n. Tomemos la descomposici´n polar A = U |A|, con U ∈ U(n). Conjugando con
           o                            o
otra matriz unitaria (lo que no cambia ni w(A) ni A 1 ), podemos suponer que que U es
diagonal. Observar que |V AV ∗ | = V |A|V ∗ , si V ∈ U(n). Pongamos U = diag (w1 , . . . wn ),
10.4 Comparaci´n con NUI’s
              o                                                                                       211


                                                                         n
                                                          1
con |wi | = 1, i ∈ In . Veremos que, en este caso, el n´mero
                                                       u        si (A) es superado por alguno
                                                          n i=1
de los m´dulos de los elementos diagonales de A. En efecto, si notamos {e1 , . . . , en } a la base
        o
can´nica de Cn , y llamamos P = |A|, dado k ∈ In tenemos que
    o

    |Akk | = | Aek , ek | = | U P ek , ek | = | P ek , U ∗ ek | = |wk P ek , ek | = |Pkk | = Pkk ,

donde la ultima igualdad surge de que P ∈ Mn (C)+ . Por otra parte,
         ´
       n                            n                       n
                                                       1
            Pkk = tr P = tr |A| =         si (A) =⇒              si (A) ≤ Pkk = | Aek , ek | ≤ w(A)
                                    i=1
                                                       n   i=1
      k=1

para alg´n k ∈ In . Para ver que 1 y 1/n son ´ptimas, tomar las matrices E11 e I.
        u                                    o

                                       0 0                                         0   1
Definici´n 10.4.3. Llamemos A =
       o                                       ∈ M2 (C) y V =                               ∈ U(2). Dado
                                       2 0                                         1   0
n ∈ N, si n = 2m consideremos las matrices diagonales de bloques
                                                  m
                    Cn = A ⊕ A ⊕ · · · ⊕ A =           2E2k,2k−1 ∈ Mn (C)          y
                                                 k=1

                                                 m
                   Un = V ⊕ V ⊕ · · · ⊕ V =           E2k,2k−1 + E2k−1,2k ∈ U(n) .
                                                k=1

Si n = 2m + 1 e I1 denota a la “matriz” [ 1 ] ∈ M1 (C),
                                                       m
                Cn = A ⊕ · · · ⊕ A ⊕ I1 = En,n +             2E2k,2k−1 ∈ Mn (C)        y
                                                       k=1

                                                       m
               Un = V ⊕ · · · ⊕ V ⊕ I1 = En,n +             E2k,2k−1 + E2k−1,2k ∈ U(n) .
                                                      k=1

Como w(A) = w(I1 ) = 1, la Eq. (10.3) asegura que w(Cn ) = 1 para todo n ∈ N.

Los resultados anteriores fueron usados por C.R. Johnson y C.K. Li [27] para calcular, para
N una NUI fija en Mn (C), las mejores constantes m y M tales que

                   m · N (T ) ≤ w(T ) ≤ M · N (T )         para todo         T ∈ Mn (C) .


Proposici´n 10.4.4 (Johnson-Li 1988). Sea N una NUI en Mn (C). Luego
         o

           N (Cn )−1 N (T ) ≤ w(T ) ≤ N (E11 )−1 N (T )               para toda    T ∈ Mn (C) .

Adem´s, las constantes N (Cn )−1 y N (E11 )−1 son ´ptimas.
    a                                             o
212                                                                               Rango y Radio Num´ricos
                                                                                                   e




Demostraci´n. Fijemos T ∈ Mn (C). Si T = 0, el resultado es claro. Si no, sea A = w(T )−1 T ,
           o
que tiene w(A) = 1. Por las Proposiciones 10.4.1 y 10.4.2 se tiene que
                                                                  n
                               1 ≤ s1 (A) ≤ 2         y                sk (A) ≤ n .
                                                                k=1

Observar que s(E11 ) = e1 y s(Cn ) = vn , donde
                                                   m
                
                 (2, . . . , 2, 0, . . . , 0) =
                
                                                      2ek                        si   n = 2m
                
                                                   k=1
                
                
           vn =                                                                                          (10.6)
                
                                                   m
                
                (2, . . . , 2, 1, 0, . . . , 0) =
                
                                                      2ek + em+1                 si   n = 2m + 1 .
                
                                                  k=1

Por lo tanto, s(E11 )    w   s(A)   w   s(Cn ). Como N es una NUI, el Teorema de Ky Fan 5.3.8
dice que que
                                                               N (T )
                              N (E11 ) ≤ N (A) =                      ≤ N (Cn ) .
                                                               w(T )
Invirtiendo y multiplicando por N (T ), se obtienen las desigualdades buscadas. Tomando
T = Cn y T = E11 y observando que w(Cn ) = w(E11 ) = 1, podemos deducir que las
constantes dadas son ´ptimas.
                     o
Proposici´n 10.4.5. Sea N es una NUI en Mn (C). Entonces
         o

   w(T ) ≤ N (T ) , para toda T ∈ Mn (C) =⇒                     T     sp   ≤ N (T ) , para toda T ∈ Mn (C) .

Demostraci´n. Observar que T
          o                             sp   = |T |   sp   = w(|T |) ≤ N (|T |) = N (T ).

El siguiente teorema es el contenido del paper de T. Ando [18]:
Teorema 10.4.6 (Ando 2005). Si definimos la norma

                                         T sp         T    1
                   N0 (T ) = m´x
                              a               ,                        para      T ∈ Mn (C) ,
                                          2           n

se tiene que

   1. N0 es una NUI.
   2. N0 (T ) ≤ w(T ) para todo T ∈ Mn (C).
   3. N0 es la mayor NUI en Mn (C) tal que N (T ) ≤ w(T ) para todo T ∈ Mn (C). Es decir,
      si N es una NUI en Mn (C),

            N (T ) ≤ w(T ) , ∀ T ∈ Mn (C)                 =⇒           N (T ) ≤ N0 (T ) , ∀ T ∈ Mn (C) .
10.5 Ejercicios                                                                                       213




Demostraci´n. Los dos primeros items son claros de lo anterior. Fijemos T ∈ Mn (C).
          o
Como la desigualdad a probar es entre normas unitariamente invariantes, podemos asumir
que T = Σ(T ) = diag (s1 (T ), . . . , sn (T )). M´s a´n, supongamos que
                                                  a u
                                                               n
                                                 s1 (T ) 1
                             N0 (T ) = m´x
                                        a               ,              si (T )   =1.
                                                    2     n   i=1

En este caso deber´ıamos probar que N (T ) ≤ 1. Las desigualdades resultantes de la igualdad
anterior implican que s(T ) w vn , donde vn es el vector definido en la Eq. (10.6). Tomemos
Cn y Un las matrices de la Definici´n 10.4.3. Notar que Un Cn = Bn , donde
                                   o

          Bn = diag (2, 0, 2, 0, . . . , 2, 0)   o bien   Bn = diag (2, 0, 2, 0, . . . , 2, 0, 1) .

Observar que s(B) = vn . Luego, como s(T ) w vn = s(Bn ) y N es una NUI, el Teorema de
Ky Fan 5.3.8 nos dice que que N (T ) ≤ N (Bn ), con lo que bastar´ probar que N (Bn ) ≤ 1.
                                                                   ıa
Por otra parte, en la Definici´n 10.4.3 se ve que w(Cn ) = 1 para todo n ∈ N. Como U ∈ U(n)
                             o
y N es una NUI, tenemos que

                    N (T ) ≤ N (Bn ) = N (Un Cn ) = N (Cn ) ≤ w(Cn ) = 1 = N0 (T ) .

Observar que reci´n al final usamos la hip´tesis sobre N .
                 e                       o


10.5       Ejercicios
Ejercicios que aparecen en el texto
10.5.1. Sea A ∈ L(H). Probar las siguientes afirmaciones:

  1. ρ(A) ≤ w(A) ≤ A .
                       0 0
  2. Tomando T =               , se tiene que ρ(T ) = 0, w(T ) = 1/2 y T = 1, por lo que las
                       1 0
       desiguadades de arriba pueden ser estrictas.
  3. Si A es normal, entonces ρ(A) = w(A) = A                 sp   .
  4.    Re A   sp   = w(Re A) = m´x | Re Ax , x | ≤ w(A) y lo mismo vale para Im A.
                                 a
                                    x =1

  5. A    sp   ≤ 2 · w(A).
  6. Dado B ∈ L(H) se cumple que W (A + B) ⊆ W (A) + W (B).
  7. Dado λ ∈ C, se tiene que W (A + λI) = W (A) + λ y W (λ · A) = λ · W (A).
  8. Si U ∈ U(H), entonces W (U AU ∗ ) = W (A) y w(U AU ∗ ) = w(A).
  9. W (A) es compacto.
214                                                                      Rango y Radio Num´ricos
                                                                                          e




10.5.2. Sea W ⊆ Cn un conjunto convexo compacto no vac´ y sea v0 ∈ Cn  W . Entonces:
                                                      ıo,

   1. Existe un unico w0 ∈ W tal que
                ´

                            0 < d = v0 − w0 = d(v0 , W ) := m´ v0 − w .
                                                             ın
                                                                   w∈W

      Para mostrar la unicidad, se suguiere asumir que v0 = 0 y usar que, dados x, y ∈ Cn
      vale la igualdad del paralelogramo, que dice que x − y 2 + x + y 2 = 2( x 2 + y 2 ).
   2. Probar que el hiperplano H = w0 + {v0 − w0 }⊥R separa a W de v0 en el sentido de que

           Re v0 , v0 − w0 > Re w0 , v0 − w0 ≥ Re w, v0 − w0                para todo   w∈W .

Nota: Lo anterior vale en espacios de Hilbert generales, y alcamza con que W sea cerrado
(no hace falta compacto). Sin embargo, proponemos este caso especial porque es lo que se
usa para la Observaci´n 10.3.1.
                     o


Ejercicios nuevos
10.5.3. Sean α1 , . . . , αn , β1 , . . . , βn , γ ∈ C, todos de m´dulo uno. Son equivalentes:
                                                                  o

   1. Existen A , B ∈ U(n) tales que λ(A) = α , λ(B) = β y adem´s γ ∈ σ(BA).
                                                               a
   2. Existe un p ∈ conv [α1 , . . . , αn ] ∩ conv γβ1 , . . . , γβn .

Sugerencia: Usar el ejercicio 1.10.21

10.5.4. Sea w (A) = m´x | tr A∗ B|, la norma dual del radio num´rico en Mn (C). Denota-
                     a                                         e
                        w(B)=1
mos por Bw = {A ∈ Mn (C) : w (A) ≤ 1} a su bola unidad. Probar que

                            Bw = conv [{x       x : x ∈ Cn y      x = 1}] ,

o sea que los puntos extremales de Bw son los proyectores de rk uno.

Sugerencia: Cuanto vale tr B · x         x ?
Cap´
   ıtulo 11

Teor´ de Perron-Frobenius
    ıa

Repasemos algunas notaciones que usaremos sistem´ticamente en los siguientes cap´
                                                a                               ıtulos.
Dados A, B ∈ Mn,m (R) y x ∈ Rn , diremos que

  1. A    0 , si Aij ≥ 0 para todo par i ∈ In , j ∈ Im .
  2. A > 0 , si Aij > 0 para todo par i ∈ In , j ∈ Im .
  3. Las mismas notaciones (x          0 o x > 0) se usar´n para vectores.
                                                         a
  4. Denotaremos por
         MPn,m = {A ∈ Mn,m (R) : A             0}     y    MEPn,m = {A ∈ Mn,m (R) : A > 0} .
     para matrices cuadradas, abreviaremos MPn y MEPn .
  5. |A| = (|aij |) i∈In y analogamente |x| = (|x1 |, . . . , |xn |).
                   j∈Im


  6. A B , si B − A ∈ MPn,m . O sea que aij ≤ bij para todo i, j ∈ In . An´logamente,
                                                                          a
     escribiremos A < B siempre que B − A ∈ MEPn,m .
  7. El vector (1, 1, . . . , 1) ∈ Rn ser´ denotado por medio de 1.
                                         a

Advertencia: Hay overlaps de notaciones entre lo anterior y las que solemos usar para
matrices definidas positivas. Esto es lamentable, pero necesario; porque buscar otras com-
plicar´ notablemente la exposici´n. Las convenciones que usaremos de ahora en m´s ser´n
       ıa                       o                                                 a    a
las siguientes:

  1. Mantendremos la notaci´n A ≥ 0 (resp. B ≥ A) para decir que A ∈ Mn (C)+ (resp.
                           o
     B − A ∈ Mn (C)+ ). Observar que los s´
                                          ımbolos ≥ y son diferentes.
  2. Al escribir A > 0 o B > A solamente aludiremos a los signos de las entradas. Para
     evitar confuciones, si A ∈ Mn (C) es definida positiva, no usaremos la notaci´n A > 0,
                                                                                 o
     sin´ A ∈ Gl (n)+ (o que B − A ∈ Gl (n)+ ).
        o
216                                                            Teor´ de Perron-Frobenius
                                                                   ıa




  3. |A| s´lo se usar´ para los m´dulos de las entradas. El viejo m´dulo se escribir´ (A∗ A)1/2 .
          o          a           o                                 o                a

El objetivo de este cap´
                       ıtulo es la demostraci´n del Teorema de Perron, para matrices de
                                               o
entradas estrictamente positivas y sus generalizaciones a matrices de entradas no negativas.


11.1      Matrices de entradas positivas
Empezamos esta secci´n con el objetivo final de la misma: el teorema de Perron para matrices
                      o
de entradas estrictamente positivas. La idea es anunciar de entrada las propiedades princi-
pales de tales matrices y, adem´s, dar una orientaci´n estrat´gica a los numerosos resultados
                               a                    o        e
parciales (aunque muchos de ellos son son interesantes de por s´ que iremos probando para
                                                                 ı)
llegar a una demostraci´n completa del teorema.
                        o

Teorema 11.1.1 (Teorema de Perron). Sea A ∈ MEPn , es decir que A > 0. Entonces se
verifican las siguientes propiedades:

  1. ρ(A) > 0 y ρ(A) ∈ σ (A).

  2. Existe un x ∈ Rn tal que x > 0 y Ax = ρ(A)x.

  3. Dado y ∈ Rn  {0}, si y    0 y Ay = λy, entonces λ = ρ(A) e y > 0.

  4. ρ(A) es ra´ simple del polinomio caracter´
               ız                             ıstico de A.

  5. Si λ ∈ σ (A) y λ = ρ(A), entonces |λ| < ρ(A).

  6. Si ρ(A) = 1, entonces Am − − → L = xy T , donde x, y ∈ Rn son vectores tales que
                               −−
                                 m→∞


                      x > 0 , y > 0 , x, y = 1 , Ax = x         y   AT y = y .

Antes de demostrar el Teorema de Perron, presentaremos varios resultados generales para
matrices A ∈ MPn , su radio espectral y los autovectores correspondientes. En lo que sigue
de la secci´n, y salvo menci´n expl´
           o                 o      ıcita al contrario, asumiremos que todas las matrices
mencionadas con las letras A y B estar´n en Mn (R), para alg´n n ∈ N.
                                       a                     u

Proposici´n 11.1.2. Sean A, B ∈ MPn tales que A
         o                                               B. Entonces, ρ(A) ≤ ρ(B).

Demostraci´n. Como 0 A B, entonces, para todo n ≥ 1 se tiene que 0 An B n . Por lo
          o
tanto An 1/n ≤ B n 1/n y, tomando l´
          2         2
                                   ımite, se obtiene la desigualdad buscada .

Corolario 11.1.3. Sea A ∈ MEPn . Entonces se cunple que ρ(A) > 0.

Demostraci´n. Como A > 0, existe un ε > 0 tal que εI
          o                                                 A. As´ ρ(A) ≥ ρ(εI) = ε > 0.
                                                                 ı

Corolario 11.1.4. Sean A ∈ MPn , J ⊆ In y A[J] = (aij )i,j∈ J . Entonces ρ(A[J]) ≤ ρ(A).
11.1 Matrices de entradas positivas                                                              217




Demostraci´n. Basta extender A[J] a MPn poniendo ceros en las entradas que le faltan, y
            o
aplicar la Proposici´n 11.1.2.
                    o

Observaci´n 11.1.5. Recordemos (ver Ejercicio 3.4.2) que, dada A ∈ Mn (C),
         o

                           |||A|||∞ = m´x
                                       a            Ax   ∞   = m´x Fi (A)
                                                                a                  1   .
                                         x   ∞ =1                i∈ In


Por otra parte, observar que si A ∈ MPn , entonces Fi (A)                   1   = tr Fi (A).

A continuaci´n vienen tres Lemas que sirven para ubicar el radio espectral de una matriz
            o
A ∈ MPn usando la Observaci´n anterior:
                             o

Lema 11.1.6. Sea A ∈ MPn . Supongamos que 1 ∈ Rn es un autovector de A. Entonces el
autovalor asociado es |||A|||∞ y adem´s ρ(A) = |||A|||∞ .
                                     a

Demostraci´n. La desigualdad ρ(A) ≤ |||A|||∞ vale siempre, porque ||| · |||∞ es matricial y
          o
podemos aplicar la Proposici´n 3.4.6. Por otro lado, si A1 = λ1, entonces
                            o

           Fi (A)   1   = tr Fi (A) = Fi (A) , 1 = (A 1)i = λ               para todo i ∈ In .

Por la Observaci´n 11.1.5, podemos deducir que λ = |||A|||∞ . Finalmente, el hecho de que
                 o
|||A|||∞ ∈ σ(A) implica que |||A|||∞ ≤ ρ(A).

Lema 11.1.7. Sea A ∈ MPn . Llamemos

                    α = m´x tr Fi (A) = |||A|||∞
                         a                                   y     β = m´ tr Fi (A) .
                                                                        ın
                          i∈ In                                           i∈ In

Entonces se verifica que β ≤ ρ(A) ≤ α.

Demostraci´n. La desigualdad ρ(A) ≤ α es conocida (Proposici´n 3.4.6), por lo tanto s´lo
           o                                                o                        o
probaremos que β ≤ ρ(A). Podemos suponer que β > 0, porque sin´ todo es f´cil. Definamos
                                                              o          a
entonces la matriz B ∈ MPn cuyas filas son:

                                  β
                 Fi (B) =               Fi (A)       Fi (A)        para todo i ∈ In .
                              tr Fi (A)

De este modo, tr Fi (B) = β para todo i ≥ 1. En consecuencia, usando el Lema 11.1.6 y la
Proposici´n 11.1.2, β = ρ(B) ≤ ρ(A), ya que, por su construcci´n, 0 B A.
         o                                                    o

Lema 11.1.8. Sean A ∈ MPn y x > 0. Notemos y = Ax. Entonces se tiene que
                                    yi                                    yi
                     β = m´
                          ın           ≤ ρ(A)        y   α = m´x
                                                              a              ≥ ρ(A) .
                           i∈ In    xi                            i∈ In   xi

Demostraci´n. Sea D = diag (x). Entonces, por cuentas elementales, obtenemos que
          o

                                  D−1 AD = (x−1 xj aij )ij∈ In ∈ MPn .
                                             i
218                                                              Teor´ de Perron-Frobenius
                                                                     ıa




Adem´s ρ(D−1 AD) = ρ(A) (porque el espectro no cambia). Por otro lado,
    a
                                            n
                                                             (Ax)i   yi
                    tr Fi (D−1 AD ) = x−1
                                       i          aij xj =         =    .
                                            j=1
                                                               xi    xi

Luego basta aplicar el Lema 11.1.7.

Teorema 11.1.9. Sea A ∈ MPn y fijemos un vector x > 0.

  1. Dados α, β ∈ R, se tiene que

                    βx   Ax =⇒ β ≤ ρ(A)           y   Ax      αx =⇒ ρ(A) ≤ α .

  2. Si x es un autovector de A (y es x > 0), entonces Ax = ρ(A)x.

Demostraci´n. La primera parte se deduce inmediatamente del Lema 11.1.8. Supongamos
           o
que Ax = λx. Como Ax 0, debe cumplirse que λ ≥ 0, en particular λ ∈ R. Luego se
verifican las hip´tesis de la primera parte con α = β = λ.
                o

Observaci´n 11.1.10. En las condiciones del Teorema 11.1.9, tambi´n vale que
         o                                                       e

      si A ∈ MPn   y x>0,       βx < Ax =⇒ β < ρ(A)              y   Ax < αx =⇒ ρ(A) < α .

En efecto, si en los Lemas 11.1.7 y 11.1.8 se toma β estrictamente menor que los m´
                                                                                  ınimos
correspondientes β0 , se obtiene β < β0 ≤ ρ(A). Lo mismo para α.


Observaci´n 11.1.11. Sean A ∈ MEPn y x ∈ Rn  {0}. Notar que, si x
           o                                                                  0, entonces tiene
que valer que Ax > 0. Este hecho se usar´ reiteradas veces.
                                        a


Corolario 11.1.12. Sean A ∈ MEPn , x ∈ Rn  {0} y λ ∈ C tales que x 0 y Ax = λx.
Entonces λ = ρ(A) y x > 0. Otra manera de decirlo es que si un autovector de A es no
negativo, en realidad deb´ ser positivo y corresponder al radio espectral.
                         ıa

Demostraci´n. Por la Observaci´n 11.1.11 sabemos que Ax > 0, y por ende x > 0. Entonces
           o                    o
se puede aplicar el Teorema 11.1.9.

Proposici´n 11.1.13. Sean A ∈ MEPn y λ ∈ σ (A) un autovalor de m´dulo m´ximo, o sea
           o                                                          o      a
que |λ| = ρ(A). Dado un autovector y ∈ Cn  {0} para λ, es decir que Ay = λy, entonces:

                            |y| > 0   y      A |y| = ρ(A) |y| .

Demostraci´n. Llamemos x = |y|. Por la desigualdad triangular, se tiene que
          o

                         ρ(A)x = |λ|x = |λy| = |Ay|          A|y| = Ax.
11.1 Matrices de entradas positivas                                                               219




Sea z = Ax − ρ(A)x 0. Queremos mostrar que z = 0. Supongamos que eso no pasa.
Entonces, por la Observaci´n 11.1.11, tenemos que Az > 0. Si ahora llamamos
                          o

              u = Ax ,      entonces   Az = A(u − ρ(A)x) = Au − ρ(A)u > 0 .

Por lo tanto tenemos que u > 0 y Au > ρ(A)u. Aplicando la Observaci´n 11.1.10, se obtiene
                                                                   o
la contradictoria desigualdad ρ(A) > ρ(A). Dado que esta provino de suponer que z = 0,
ahora sabemos que z = 0 y por ende Ax = ρ(A)x. Notar que, como Ax > 0, esto implica que
|y| = x > 0.

Corolario 11.1.14. Si A ∈ MEPn , entonces

         ρ(A) ∈ σ (A)      y existe un x ∈ Rn tal que x > 0 y Ax = ρ(A)x .

Proposici´n 11.1.15. Sean A ∈ MEPn y λ ∈ σ (A) tales que |λ| = ρ(A). Si y ∈ Cn  {0}
          o
cumple que Ay = λy, entonces, existe θ ∈ [0, 2π) tal que y = eiθ |y|, por lo que λ = ρ(A).

Demostraci´n. Por la Proposici´n 11.1.13 sabenos que A|y| = ρ(A)|y|. Adem´s
          o                   o                                          a

                           |Ay| = |λy| = ρ(A)|y| =⇒ A|y| = |Ay| .

Mirando las primeras coordenadas, tenemos que             A1j |yj | =           A1j yj . Luego vale la
                                                  i∈ In                 i∈ In
igualdad en la desigualdad triangular, y todos los yj deben apuntar para el mismo lado. O
sea que debe existir un θ ∈ [0, 2π) tal que yj = eiθ |yj | para todo j ∈ In .

Corolario 11.1.16. Si A ∈ MEPn , entonces ρ(A) es el unico autovalor de m´dulo m´ximo.
                                                     ´                   o      a

Corolario 11.1.17. Sea A ∈ MEPn . Entonces dim ker(A − ρ(A)I) = 1.

Demostraci´n. Sean x, y ∈ ker(A − ρ(A)I). Probaremos que son linealmente dependientes.
           o
                                                                             xi
Por la Proposici´n 11.1.15 se puede suponer que x > 0 e y > 0. Sea β = m´
                o                                                        ın     , y definamos
                                                                       i∈ In yi
                                        xi
z = x − βy. Como cada xi − βyi ≥ xi − yi yi = 0, se tiene que z ≥ 0.

Dado que Az = ρ(A)z, si sucesidese que z = 0, entonces se tendr´ que z > 0. Pero, si
                                                                   ıa
tomamos un k ∈ In tal que β = xk , entonces la coordenada k-´sima de z deber´ ser nula.
                                y
                                  k
                                                               e            ıa
Este absurdo proviene de suponer que z = 0. Por lo tanto, z = 0 y x = βy.

                                         ımite de las potencias de una matriz A ∈ MPn que
El siguiente resultado, que describe el l´
cumple ciertas hip´tesis, ser´ prontamente aplicado para probar el item 6 del Teorema de
                   o         a
Perron. Lo enunciaremos pidiendo lo esctrictamente necesario que debe cumplir A para que
la tesis pueda probarse. Esto complica su formulaci´n, pero igual es conveniente para poder
                                                     o
aplicarlo luego a matrices primitivas, en las que todas las hip´tesis que pedimos se verifican.
                                                               o

Proposici´n 11.1.18. Sea A ∈ MPn con ρ(A) = 1. Supongamos que A cumple que:
         o

  1. dim ker(A − I) = 1.
220                                                          Teor´ de Perron-Frobenius
                                                                 ıa




  2. 1 ∈ σ(A) es el unico autovalor de m´dulo m´ximo.
                    ´                   o      a

  3. Existen x, y ∈ Rn tales que

                      x > 0 , y > 0 , x, y = 1 , Ax = x      y     AT y = y .

Entonces, se tiene que Am − − → xy T .
                           −−
                           m→∞


Demostraci´n. Llamemos L = xy T = (xi yj )i,j∈ In . Este L es, en realidad, el proyector
            o
espectral asociado al 1 ∈ σ(A). Esto no lo probaremos ahora, pero es util tenerlo en cuenta
                                                                     ´
para entender las propiedades de L que veremos a continuaci´n:
                                                           o

  1. L2 = L. En efecto, L2 = xy T xy T = x x, y y T = xy T = L.

  2. AL = LA = L. Esto se deduce de que Axy T = xy T = xy T A.

  3. (A − L)m = Am − L, para todo m ∈ N.
      Para mostrarlo, razonemos por inducci´n sobre m. El caso m = 1 es trivial. Adem´s,
                                           o                                         a

                 (A − L)m+1 = (A − L)(A − L)m = (A − L)(Am − L)                 (por la HI)
                                   m+1             k         m+1
                             =A          − AL − LA + L = A         −L−L+L
                                   m+1
                             =A          −L .

  4. σ (A − L)  {0} ⊆ σ (A) − {1}. En particular, se tiene que ρ(A − L) < 1.
      En efecto, sean λ ∈ C  {0} y z ∈ Cn  {0} tales que (A − L)z = λz. Entonces

                                         1        1
                                Lz =       L(λz) = L(L − A)z = 0 ,
                                         λ        λ
      por que en 1 y 2 vimos que L(L − A) = 0. Luego Az = λz y por lo tanto λ ∈ σ (A). Si
      tuvi´ramos que λ = 1 = ρ(A), entonces x ∈ Gen {z} (recordar que dim ker(A − I) = 1),
          e
      lo que nos dir´ que (A − L)x = x. Pero Ax = x y Lx = xy T x = x. En consecuencia
                    ıa
      uno tendr´ que (A − L)x = 0 = x, lo que no vale.
               ıa

  5. Como el unico λ ∈ σ (A) con |λ| = 1 es λ = 1, se tiene que ρ(A − L) < 1. Entonces el
              ´
     Corolario 3.4.9 sirve para afirmar que Am − L = (A − L)m − − → 0.
                                                                −−
                                                                   m→∞


Final de la demostraci´n del Teorema de Perron
                      o
Recordemos el enunciado que escribimos al principio de la secci´n:
                                                               o

Teorema de Perron 11.1.1. Sea A ∈ MEPn . Entonces se verifica que

  1. ρ(A) > 0 y ρ(A) ∈ σ (A).
11.1 Matrices de entradas positivas                                                      221




  2. Existe un x ∈ Rn tal que x > 0 y Ax = ρ(A)x.

  3. Dado y ∈ Rn  {0}, si y     0 y Ay = λy, entonces λ = ρ(A) e y > 0.

  4. ρ(A) es ra´ simple del polinomio caracter´
               ız                             ıstico de A.

  5. Si λ ∈ σ (A) y λ = ρ(A), entonces |λ| < ρ(A).

  6. Si ρ(A) = 1, entonces Am − − → L = xy T , donde x, y ∈ Rn son vectores tales que
                               −−
                                 m→∞


                       x > 0 , y > 0 , x, y = 1 , Ax = x       y      AT y = y .


Demostraci´n. Los items 1 y 2 fueron vistos en los Corolarios 11.1.3 y 11.1.14. El item 3 se
           o
prob´ en el Corolario 11.1.12. El item 5 es el Corolario 11.1.16. El item 6 se deduce de la
    o
Proposici´n 11.1.18. Observar que ya hemos visto (aqu´ se usa el Corolario 11.1.17) que si
         o                                              ı
A ∈ MEPn , entonces A cumple las tres condiciones que pide la Proposici´n 11.1.18.
                                                                         o

S´lo falta verificar el item 4, que dice que ρ(A) es ra´ simple de PA (x) = det(xI − A) ∈ C[x].
  o                                                   ız
Con las notaciones del resto del libro esto significa que, si tomamos el vector λ(A) ∈ Cn de
autovalores de A (que cuenta las multiplicidades como raices de PA ) con un orden en el que
los m´dulos decrezcan, entonces λ1 (A) = ρ(A) pero |λ2 (A)| < ρ(A) (ac´ se usa el item 5).
      o                                                                  a

Supongamos, sin perdida de generalidad, que ρ(A) = 1. Apliqu´mosle a A el Teorema 1
                                                                 e
de Schur 1.6.1, considerando en λ(A) el orden mencionado. Luego tendremos U ∈ U(n) y
T ∈ T S(n) tales que U ∗ AU = T y d (T ) = λ(A). Por otra parte,

                             T m = U ∗ Am U − − → U ∗ LU = M .
                                             −−
                                             m→∞


Observar que todos los T m ∈ T S(n), por lo que tambi´n M ∈ T S(n). Adem´s, se tiene que
                                                     e                  a
rk M = rk L = 1. Sin embargo, como T ∈ T S(n), sabemos que

              (T m )ii = (Tii )m = λi (A)m   para todo i ∈ In y todo m ∈ N .

Para cada i ∈ In tal que λi (A) = 1, podemos deducir que Mii = 1. Al estar M ∈ T S(n),
es f´cil ver que su rk ser´, por lo menos, el n´mero de unos que tenga en la diagonal. Como
    a                     a                    u
sabemos que rk M = 1, deducimos que tan solo λ1 (A) = 1 y los dem´s tienen menor m´dulo
                                                                     a                 o
(porque sus potencias deben converger a cero), como se quer´ demostrar.
                                                             ıa

Definici´n 11.1.19. Sea A ∈ MEPn . El unico vector x ∈ Rn tal que
       o                             ´

                             Ax = ρ(A)x , x > 0      y   tr x = 1 ,

se llamar´ vector de Perron de A.
         a
222                                                           Teor´ de Perron-Frobenius
                                                                  ıa




11.2      Matrices de entradas no negativas
El Teorema de Perron falla en general si A ∈ MPn pero A > 0. Por ejemplo, si

                                                0   1
                                        A=              ,
                                                1   0

entonces Am = A o I, seg´n m sea impar o par. Adem´s, σ (A) = {1, −1}. En este caso el
                          u                              a
autovector asociado al 1 es positivo estricto (es 1). Pero eso no pasa si tomamos la matriz
        1 0
B =            . Es m´s, todas las partes del Teorema (salvo una) pueden hacerse fallar
                       a
        0 0
tomando matrices diagonales de bloques adecuadas (Ejercicio). La que se salva es la siguiente:
Proposici´n 11.2.1. Sea A ∈ MPn . Entonces
         o

  1. ρ(A) ∈ σ (A).
  2. Existe x ∈ Rn  {0} tal que x    0 y Ax = ρ(A)x.

Demostraci´n. Sea E = 1 1T ∈ MEPn (todas las entradas de E son iguales a 1). Dado
           o
ε > 0, tenemos que Aε = A + ε E ∈ MEPn . Por la Proposici´n 11.1.2, si 0 < ε < ε, entonces
                                                         o

                                   ρ(A) ≤ ρ(Aε ) ≤ ρ(Aε ).

Llamemos xε > 0 al vector de Perron de cada Aε , normalizado para que tr xε = 1. Como
la bola de Rn es compacta, se puede tomar una sucesi´n decreciente εm
                                                    o                      0 tal que, si
                                                                           m→∞
llamamos Am = Aεm y xm = xεm , entonces existen M ∈ R y x ∈ Rn tales que

                      ρ(Am )         M ≥ ρ(A)       y   xm − − → x
                                                            −−       0.
                               m→∞                          m→∞

Observar que tr x = 1, por lo que x = 0. Adem´s, Am xm = ρ(Am )xm − − → M x y, como
                                             a                     −−
                                                                  m→∞
Am − − → A, entonces Am xm − − → Ax. Por lo tanto deducimos que Ax = M x, con
     −−                          −−
      m→∞                         m→∞
M ≥ ρ(A). Luego M = ρ(A) y x         0 es un autovector.


Matrices primitivas
Definici´n 11.2.2. Sea A ∈ MPn . Diremos que A es una matriz primitiva si existe un
        o
m ∈ N tal que Am ∈ MEPn .

Las matrices primitivas son casi tan buenas como las de MEPn . Veamos que cumplen el
Teorema de Perron tutti, que enunciamos por tercera vez.
Teorema 11.2.3. Sea A ∈ MPn una matriz primitiva. Entonces valen:

  1. ρ(A) > 0 y ρ(A) ∈ σ (A).
11.2 Matrices de entradas no negativas                                                    223




  2. Existe un x ∈ Rn tal que x > 0 y Ax = ρ(A)x.

  3. Dado y ∈ Rn  {0}, si y    0 y Ay = λy, entonces λ = ρ(A) e y > 0.

  4. ρ(A) es ra´ simple del polinomio caracter´
               ız                             ıstico de A.

  5. Si λ ∈ σ (A) y λ = ρ(A), entonces, |λ| < ρ(A).

  6. Si ρ(A) = 1, entonces Am − − → L = xy T , donde x, y ∈ Rn son vectores tales que
                               −−
                                 m→∞


                      x > 0 , y > 0 , x, y = 1 , Ax = x      y       AT y = y .

Demostraci´n. Sea m ∈ N tal que Am > 0. Por el Corolario 1.7.2,
          o

                                σ(Am ) = {λm : λ ∈ σ(A)}.

Por el Teorema 11.1.1 aplicado a Am , concluimos que ρ(A) = ρ(Am )1/m > 0. Sea λ ∈ σ (A)
tal que |λ| = ρ(A) y sea y ∈ Cn  {0} tal que Ay = λy. Entonces

       Am y = λ m y   y   |λ|m = ρ(Am ) =⇒ λm = ρ(Am )           y     Am y = ρ(Am )y .

Por el Teorema 11.1.1 aplicado a Am , podemos deducir que alg´n x ∈ Gen {y} cumple que
                                                             u
x > 0, y por ello λ = ρ(A) y Ax = ρ(A)x.

Adem´s, cada λm ∈ σ(Am ) posee una multiplicidad en el polinomio caracter´
       a                                                                       ıstico de Am
mayor o igual que la de λ en el de A (esto se ve f´cil triangulando con el Teorema 1.6.1).
                                                   a
Por lo tanto ρ(A) posee multiplicidad algebr´ica uno como autavalor de A. Razonamientos
                                            a
similares permiten concluir que ρ(A) es el unico autovalor de m´dulo m´ximo (item 5), y
                                           ´                     o       a
tambi´n la condici´n 3. Finalmente, con los items anteriores ya demostrados, estamos en
      e           o
condiciones de asegurar que A cumple las hip´tesis de la Proposici´n 11.1.18, lo que prueba
                                             o                     o
el item 6.

Observaci´n 11.2.4. Dada una matriz A ∈ MPn , para saber si es primitiva hace falta
           o
calcular muchas potencias Am hasta que caiga en MEPn . Obviamente hace falta un teorema
que diga hasta donde es necesario probar. Algo del tipo: Dado n ∈ N, existe un M (n) ∈ N
(que uno deber´ poder calcular) tal que toda A ∈ MPn que sea primitiva debe cumpir que
               ıa
Am > 0 para alg´n m ≤ M (n). Esta teor´ existe, y se calculan los M (n) ´ptimos. Pero las
                 u                      ıa                              o
cuentas son muy complicadas y no las desarrollaremos aqu´ı.

El lector interesado puede buscar data al respecto en el libro de Horn-Johnson [7]. Sin
embargo, con una hip´tesis razonable (si A ∈ MPn cumple que d (A) > 0), sale mucho m´s
                      o                                                                    a
facilmente que la constante M (n) = n − 1 sirve. Obsrvar que en tal caso, una vez que Am > 0,
eso sigue pasando para las potencias mayores (lo que no es cierto para todas las primitivas).
Esperen algunos renglones y ver´n.
                                a
224                                                                                  Teor´ de Perron-Frobenius
                                                                                         ıa




Matrices irreducibles
Definici´n 11.2.5. Sea A ∈ Mn (C). Decimos que:
       o

  1. A es reducible si existe P ∈ UP (n), una matriz de permutaci´n, tal que
                                                                 o

                                                             B        C       k
                                      P AP −1 =                                   ,
                                                             0        D       n−k

      donde 1 ≤ k ≤ n − 1 y B ∈ Mk (R). Otra manera de decirlo es que existe un J ⊆ In tal
      que 1 ≤ |J| < n (o sea que es propio) que cumpla que

                              A Gen {ej : j ∈ J}                  ⊆ Gen {ej : j ∈ J} .                    (11.1)

      Se dice que A es irreducible si no es reducible.

  2. Denotemos moment´neamente por Vn = {(p, q) ∈ I2 : p = q}, al conjunto de pares de
                         a                         n
     ´
     ındices distintos en In .

  3. Decimos que un par (p, q) ∈ Vn se conecta por A (o que A conecta p con q), si existen
     p = i0 , i1 , . . . , im = q en In tales que aik−1 ik = 0 para todo k ∈ Im .
      Observar que se puede suponer que todos los ik son distintos entre s´ porque si hubiera
                                                                          ı,
      repeticiones, una parte de la sucesi´n se podr´ borrar (los intermedios entre los dos
                                          o         ıa
      repetidos), quedando otra sucesi´n m´s corta que seguir´ conectando a p con q. Por lo
                                      o     a                ıa
      tanto, puede suponerse que m ≤ n − 1.

  4. A es fuertemente conexa (FC) si todo par (p, q) ∈ Vn se conecta por A.

Lema 11.2.6. Sea A ∈ MPn . Dado un par (p, q) ∈ Vn , son equivalentes:

  1. El par (p, q) se conecta por A.

  2. Existe 1 ≤ m ≤ n − 1 tal que la entrada (Am )p q > 0.

Demostraci´n. Basta notar que, como mostrar´ una inducci´n adecuada,
          o                                ıa           o
                               n     n              n
                 (Am )p q =                 ···             ap   i1   ·            aik ik+1 · aim−1 q ,
                              i1 =1 i2 =1         im−1 =1                 k∈Im−2

y que todos estos t´rminos son no negativos. En caso de que alguno de esos sumandos no se
                    e
anule, les sacamos aquellos t´rminos que vivan en la diagonal de A, y nos queda una sucesi´n
                              e                                                            o
que conecta p con q. Recordar que si A conectaba a (p, q), entonces existe alguna sucesi´n de
                                                                                        o
no m´s de n ´
     a        ındices que los conecta.

Ejemplo 11.2.7. Ahorita vamos a ver que irreducible es lo mismo que FC (se lo enunciar´ a
pra matrices de MPn , pero obviamente eso es irrelevante). Veamos una serie de ejemplos
donde se ve independientemente que pasa lo mismo: Sea A ∈ Mn (C) tal que Fi (A) = 0, para
11.2 Matrices de entradas no negativas                                                        225




alg´n i ∈ In . Tomemos cualquier σ ∈ Sn tal que σ(i) = n, y Pσ ∈ UP (n) su matriz asociada.
   u
Por la Eq. (4.3), se tiene que Fn (Pσ A) = 0. Como multiplicar del otro lado permuta s´lo sus
                                                                                      o
                                   −1
ceros, tambi´n vale que Fn (Pσ APσ ) = 0. O sea que A es reducible.
             e

Ve´moslo desde otro punto de vista: Si Fi (A) = 0, entonces a i no se lo puede conectar con
   a
ning´n otro j ∈ In  {i}, porque todos los aik son nulos. Luego A no es FC. Ya que estamos
     u
dejamos un peque˜o ejercicio: A ∈ Mn (C) es reducible si y s´lo si AT lo es. Por lo tanto, lo
                  n                                           o
anterior vale tambi´n para columnas nulas.
                   e

Proposici´n 11.2.8. Sea A ∈ MPn . Entonces son equivalentes:
         o

  1. A es irreducible.

  2. A es FC.

  3. (I + A)n−1 > 0.

  4. I + A es primitiva.

En particular se tiene que, si A es primitiva, entonces es irreducible y FC.

Demostraci´n. 2 ↔ 3: Por el Lema anterior, es claro que 3 implica 2, porque conectar por A
           o
es lo mismo que conectar por I + A, dado que los elementos de la diagonal no se usan para las
conexiones. Rec´ıprocamente, por el teorema del binomio de Newton, se tiene que (I + A)n−1
es combinaci´n lineal, a coeficientes positivos, de las potencias Ak , 0 ≤ k ≤ n − 1. Luego, si
             o
A es FC, el Lema 11.2.6 asegura que todas las entradas de (I + A)n−1 (afuera de la diagonal)
deben ser estrictamente positivas. Adem´s, (I + A)n−1 I n−1 = I.
                                         a

1 → 2: Si A no es FC, existe un par (p, q) ∈ Vn que no se conecta por A. Sean

           J1 = {i ∈ In  {p} : A conecta al par (p, i) } ∪ {p}       y      J2 = In  J1 .

Entonces p ∈ J1 y q ∈ J2 , por lo que ambos son no vac´ıos. En particular, aij = 0 si i ∈ J1 y
j ∈ J2 (sino el par (p, j) ser´ conectado por A, pasando por i). Si reordenamos In poniendo
                              ıa
primero a J2 y luego a J1 , encontraremos una matriz P ∈ UP (n) de permutaci´n tal que
                                                                               o

                                                 ∗       ∗     J2
                                 P AP −1 =                        .
                                                 0       ∗     J1

3 → 4: Obvio.
                                                                      B    C
4 → 1: Si A es reducible, sea P ∈ UP (n) tal que P AP −1 =                     . Entonces
                                                                      0    D

                                             ∗       ∗
     P (I + A)m P −1 = (I + P AP −1 )m =                     ∈ MEPn
                                                             /            para todo   m∈N.
                                             0       ∗

Por lo tanto ning´na potencia (I + A)m ∈ MEPn , o sea que I + A no es primitiva.
                 u
226                                                                 Teor´ de Perron-Frobenius
                                                                        ıa




Teorema 11.2.9 (Teorema de Perron-Frobenius). Sea A ∈ MPn , y asumamos que A es
irreducible. Entonces se verifica que

  1. ρ(A) > 0 y ρ(A) ∈ σ (A).
  2. Existe x > 0 tal que Ax = ρ(A)x.
  3. ρ(A) es ra´ simple del polinomio caracter´
               ız                             ıstico de A.

Demostraci´n. Como A es ireducible, el Ejemplo 11.2.7 nos dice que A no puede tener ninguna
           o
fila nula. Usando el Lema 11.1.7, tenemos que
                                   ρ(A) ≥ β = m´ tr Fi (A) > 0 .
                                               ın
                                                  i∈In

Por otra parte, por la Proposici´n 11.2.1, ρ(A) ∈ σ (A) (para esto alcanza con el hecho de
                                o
que A ∈ MPn ). Adem´s, σ (I + A) = 1 + σ (A). M´s a´n, por el Teorema 1 de Schur 1.6.1,
                        a                           a u
se tiene que λ(I + A) = 1 + λ(A) (contando multiplicidades, y en alg´n orden). Por lo tanto
                                                                    u
ρ(I + A) = 1 + ρ(A) (porque el m´ximo est´ a la derecha y no en la tercera posici´n). Como
                                  a        a                                     o
I + A es primitiva, si denotamos por x al vector de Perron de I + A, entonces tenemos que
               x>0         y       Ax = (I + A − I) x = (1 + ρ(A) ) x − x = ρ(A) x .
Por ultimo, la igualdad λ(I + A) = 1 + λ(A) dice que cada λi (A) = ρ(A) produce un
      ´
λi (I + A) = 1 + ρ(A). Como de ´stos hay uno solo, sale el item 3.
                               e
A continuaci´n presentamos dos resultados sobre matrices irreducibles de MPn que son muy
              o
utiles, pero que quedaron medio aislados:
´
Corolario 11.2.10. Sean A ∈ MPn irreducible y x ∈ Rn  {0}. Si se tiene que
                   x   0       y    Ax    ρ(A)x =⇒ x > 0        y   Ax = ρ(A)x .

Demostraci´n. Como A es irreducible, tambi´n AT lo es (¿porque?). Por el Teorema de
            o                                 e
Perron-Frobenius existe un vector y > 0 tal que AT y = ρ(A)y, o sea que y T A = ρ(A)y T . Por
otra parte, sabemos que Ax − ρ(A)x 0. Si sucediera que Ax − ρ(A)x = 0, entonces
      y T > 0 =⇒ 0 < y T (Ax − ρ(A)x) = y T Ax − ρ(A)y T x = ρ(A)y T x − ρ(A)y T x = 0.
Esta contradicci´n nos convence de que Ax = ρ(A)x. Usando lo anterior, el hecho de que
                o
x > 0 puede deducirse ahora del Teorema de Perron-Frobenius.
Proposici´n 11.2.11. Sean A, B ∈ MPn tales que A es irreducible y B
         o                                                                             A. Si adem´s
                                                                                                 a
asumimos que B = A, entonces ρ(B) < ρ(A).

Demostraci´n. La Proposici´n 11.2.1 nos dice que existe un x ∈ Rn  {0} tal que x
          o               o                                                                     0 y
Bx = ρ(B)x. Supongamos que ρ(B) = ρ(A). En tal caso, por el Corolario 11.2.10,
  x    0   y   A       B =⇒ Ax           Bx = ρ(B)x = ρ(A)x =⇒ Ax = ρ(A)x              y   x>0.
Por lo tanto Ax = ρ(A)x = ρ(B)x = Bx, o sea que (A − B)x = 0. Sin embargo, esto es
imposible porque A = B, A − B 0 y x > 0. La contradicci´n provino de suponer que
                                                        o
ρ(B) = ρ(A). Luego ρ(B) < ρ(A).
11.2 Matrices de entradas no negativas                                                     227




Observaci´n 11.2.12. Sea A ∈ MPn una matriz irreducible. En este caso, ρ(A) no es,
          o
necesariamente, el unico autovector de m´dulo m´ximo. En efecto, tomando
                   ´                    o      a
       0   1
A=             ,    se tiene que A es irreducible porque I + A > 0, pero σ (A) = {1, −1} .
       1   0
En general, puede verse que los otros autovalores de m´dulo m´ximo en el σ(A) son los
                                                              o        a
siguientes: ω1 ρ(A) , . . . , ωk−1 ρ(A), donde los ωi son las ra´
                                                                ıces k-´simas de la unidad, para
                                                                       e
cierto k ≤ n. En el caso anterior, k era 2. El lector interesado puede buscar m´s informaci´n
                                                                                  a           o
al respecto en el libro de A. Benedek y R. Panzone [1], el de Horn y Johnson [7] o en los
siguientes ejercicios.
Ejercicio 11.2.13. Sea A ∈ MPn . Probar que:
  1. A es primitiva si y s´lo si A es irreducible y ρ(A) es el unico autovector de m´dulo
                          o                                    ´                    o
     m´ximo de A.
      a
  2. Si A es irreducible y semidefinida positiva (o sea que A es irreducible, A ≥ 0 y A       0),
     entonces A es primitiva.
Ejercicio 11.2.14. Sean B ∈ Mn (C) y A ∈ MPn una matriz irreducible.
  1. Supongamos que |B| A, ρ(A) = ρ(B) y λ = eiφ ρ(B) es un autovalor de B de m´dulo
                                                                               o
     m´ximo. Entonces, existen n´meros reales θ1 , . . . , θn tales que
      a                         u
                                               B = eiφ D A D−1
     donde D = diag eiθ1 , . . . , eiθn .
  2. Supongamos que ρ(A) = 1 y sea S = {λ1 , . . . , λk } = {λ ∈ σ(A) : |λ| = 1}.
      (a) Pongamos que cada λj = eiφj ρ(A). Probar que µ ∈ σ (A) ⇐⇒ e−iφj µ ∈ σ (A).
      (b) Concluir a partir del item anterior que S es un grupo abeliano.
                                            2πip
      (c) Probar que S = Gk = {e k : p ∈ Ik } y que cada λp ∈ S tiene multiplicidad
          algebraica igual a uno.
      (d) Mostrar que si A es no singular y n es primo, entonces, ρ(A) es el unico autovalor
                                                                             ´
          de m´dulo m´ximo, o bien A posee n autovalores distintos.
               o       a
Ejemplo 11.2.15. Sea Jn ∈ Mn (R) el bloque de Jordan de tama˜o n × n (con n ≥ 2). Es
                                                                 n
decir que Jn e1 = 0 y Jn ek = ek−1 , para 2 ≤ k ≤ n. Llamemos
                                                             
                                    0 1 0 0        .. .. .. 0
                                  1 0 1 0         .. .. .. 0
                                                             
                                  0 1 0 1         .. .. .. 0
                                                          . .
                                                             
                                  0 0 1 . . . . . .      . .
                                  
                                                          . .
                   A = J + JT = . .                           ∈ H(n) ,
                                  . .
                                             .. ..
                                   . .         .    . 1 0 0 
                                  0 .. .. ..      1 0 1 0
                                                             
                                  0 .. .. ..      0 1 0 1
                                    0 .. .. ..     0 0 1 0
228                                                               Teor´ de Perron-Frobenius
                                                                      ıa




que act´a en Rn por Ax = (x2 , x1 +x3 , x2 +x4 , . . . , xn−2 +xn , xn−1 ), x ∈ Rn . No es dif´
       u                                                                                      ıcil
verificar que A es irreducible, ya sea mostrando que (I + A)n−1 > 0, o viendo que satisface la
definici´n de ser FC (con la diagonal de arriba si p < q y con la de abajo si q < p). Tambi´n
       o                                                                                       e
puede probarse que A ∈ Gl (n) si y s´lo si n es par. Esta matriz es muy famosa y es, tal ves,
                                      o
la primera matriz a la que se le calcularon todos los autovalores y autovectores. Esto lo hizo
Lagrange en 1759, para resolver un sistema de ecuaciones diferenciales ordinarias asociado al
problema de la cuerda que vibra. Sus autovalores son, en orden decreciente,
                                                kπ
                              µk (A) = 2 cos       ,    1≤k≤n,
                                               n+1
                                  π
por lo que A = ρ(A) = 2 cos n+1 . Notar que µn (A) = −µ1 (A), luego A no es primitiva.
Adem´s, si n + 1 = 2k (es decir, si n es impar), entonces µk (A) = 2 cos π/2 = 0, lo que prueba
      a
lo antedicho. Los autovectores asociados son, respectivamente,
                             kπ       2kπ               nkπ
               xk =   sen       , sen     , . . . , sen             ,   1≤k≤n.
                            n+1       n+1               n+1
                                                          nπ
Notar que el unico con entradas positivas es x1 , porque n+1 no lleg´ a´n a π. La verificaci´n
              ´                                                     o u                    o
de lo anterior es tediosa pero elemental. Se basa en las f´rmulas del seno y coseno de sumas
                                                          o
y restas, y en que sen(π − t) = sen t y cos(π − t) = − cos t.

A es el prototipo de matriz tridiagonal o de Jacobi. En realidad cumple que I +A es totalmente
positiva, lo que justifica (m´s bien digamos que sugiri´) las propiedades de sus autovalores y
                             a                          o
autovectores, como se ver´ en el Cap´
                           a          ıtulo 13.
                                                                 π
Veamos que Ax1 = µ1 (A)x1 , lo que nos dir´ que ρ(A) = 2 cos n+1 y que x1 es el vector de
                                           a
Perron-Frobenius de A. En efecto, se tienen dos casos: para las entradas 1 y n:
                                 2π          π       π
                A(x1 )1   = sen n+1 = 2 cos n+1 sen n+1       y

                A(x1 )n   = sen (n−1)π = cos n+1 sen n+1 − cos n+1 sen n+1
                                  n+1
                                              π       nπ        nπ      π


                                   π       nπ
                          = 2 cos n+1 sen n+1 .

Para las entradas 2 ≤ k ≤ n − 1 se tiene que A(x1 )k = (x1 )k+1 + (x1 )k−1 . Pero

            (x1 )k+1 = sen (k+1)π
                            n+1
                                            π       kπ        kπ      π
                                     = cos n+1 sen n+1 + cos n+1 sen n+1        y

            (x1 )k−1 = sen (k−1)π
                             n+1
                                            π       kπ        kπ      π
                                     = cos n+1 sen n+1 − cos n+1 sen n+1 .
                                                                      π
Sumando se obtiene la f´rmula buscada. Los n´meros cm = 2 cos m para m ≥ 3, que
                         o                        u
aparececn como normas de las matrices anteriores, son muy importantes en varias ramas de
la matem´tica. Por ejemplo, aparecen en la teor´ del ´
         a                                     ıa    ındice de V. Jones. Tienen la siguiente
particularidad: Sea N (Z) ⊆ R el conjuntos de normas espectrales de matrices de cualquier
tama˜o (incluso rectangulares) con entradas en Z. Entonces
     n
                                                        π
                             N (Z) ∩ (0, 2) = { 2 cos     : m ≥ 3}.
                                                        m
11.3 Ejercicios                                                                                229




Notar que realizamos todos estos valores con las matrices cuadradas anteriores. Sin embargo,
se los puede realizar con matrices m´s peque˜as. En efecto, si n = 2k, sea B ∈ Mk (Z) dada
                                    a        n
por B = Ik + Jk . Entonces la matriz
                                              0   B
                                     B=                   ∈ H(n)
                                             BT   0
difiere de la matriz A del principio s´lo en una reordenaci´n de la base can´nica (poniendo
                                     o                    o                o
los pares primero y los impares al final). Es decir que existe una matriz de permutaci´n o
P ∈ UP (n) tal que P AP −1 = B. Por lo tanto

                          B = s1 (B) = µ1 (B) = B = A = cn+1 .
Por eso era que −µn−j+1 (A) = µj (A) = sj (B), para todo j ∈ Ik (ver Proposici´n 3.7.5). Algo
                                                                              o
similar puede hacecrse si n = 2k + 1, tomando B = (B, ek ) ∈ Mk, k+1 (Z).



11.3      Ejercicios
Ejercicios que aparecen en el texto
11.3.1. El Teorema de Perron falla en general si A             0 pero A > 0. Por ejemplo, si
                                                  0   1
                                            A=             ,
                                                  1   0
entonces Am = A o I, seg´n m sea impar o par. Adem´s, σ (A) = {1, −1}. En este caso
                          u                              a
el autovector asociado al 1 es positivo estricto (es 1). Pero eso no pasa para la matriz
        1 0
A =            . Es m´s, todas las partes del Teorema (salvo una) pueden hacerse fallar
                      a
        0 0
tomando matrices diagonales de bloques adecuadas
11.3.2. Sea A ∈ MPn . Probar que:

  1. A es primitiva si y s´lo si A es irreducible y ρ(A) es el unico autovector de m´dulo
                          o                                    ´                    o
     m´ximo de A.
      a
  2. Si A es irreducible y semidefinida positiva (o sea que A es irreducible, A ≥ 0 y A         0),
     entonces A es primitiva.
11.3.3. Sean B ∈ Mn (C) y A ∈ MPn una matriz irreducible.

  1. Supongamos que |B| A, ρ(A) = ρ(B) y λ = eiφ ρ(B) es un autovalor de B de m´dulo
                                                                               o
     m´ximo. Entonces, existen n´meros reales θ1 , . . . , θn tales que
      a                         u
                                            B = eiφ D A D−1
     donde D = diag eiθ1 , . . . , eiθn .
230                                                                           Teor´ de Perron-Frobenius
                                                                                  ıa




  2. Supongamos que ρ(A) = 1 y sea S = {λ1 , . . . , λk } = {λ ∈ σ(A) : |λ| = 1}.
       (a) Pongamos que cada λj = eiφj ρ(A). Probar que µ ∈ σ (A) ⇐⇒ e−iφj µ ∈ σ (A).
       (b) Concluir a partir del item anterior que S es un grupo abeliano.
                                              2πip
       (c) Probar que S = Gk = {e k : p ∈ Ik } y que cada λp ∈ S tiene multiplicidad
           algebraica igual a uno.
       (d) Mostrar que si A es no singular y n es primo, entonces, ρ(A) es el unico autovalor
                                                                              ´
           de m´dulo m´ximo, o bien A posee n autovalores distintos.
                o       a
11.3.4. Completar las pruebas de lo enunciado en la Observaci´n 11.2.15.
                                                             o


Ejercicios nuevos
11.3.5. Sean A ∈ Mn (R) y x ∈ Rn . Probar que:

  1. Si A > 0 y x         0, pero x = 0, entonces Ax > 0.
  2. Si A       0 y x > 0, entonces Ax = 0 ⇐⇒ A = 0. M´s a´n, (Ax)k = 0 ⇐⇒ Fk (A) = 0.
                                                      a u
  3. Si A > 0 y es inversible, entonces A−1 ∈ MPn .
                                            /
  4. Si A 0 y es inversible, entonces A−1                  0 ⇐⇒ A tiene exactamente una entrada no
     nula por columna.
11.3.6. Si A ∈ MPn posee un autovalor positivo, probar que A es similar a una matriz de
MPn tal que la traza se sus filas es constante. ¿Cual es esa constante?.
11.3.7. Sea A ∈ MPn . Demostrar que
                                                   n                               n
                                             1                                1
                      ρ(A) = m´x m´
                              a   ın                    aij xj = m´ m´x
                                                                  ın a                   aij xj .
                                x>0   i∈In   xi   j=1
                                                                 x>0   i∈In   xi   j=1

11.3.8. Sea A ∈ MPn . Probar que
                                             1/m
                       lim    tr Fi (Am )          = ρ(A)     para cualquier i ∈ In .
                      m→∞


11.3.9. Sea A ∈ Mn (R) tal que las entradas fuera de la diagonal de A son no negativas1 .
Mostrar que A posee un autovalor real r(A) tal que r(A) ≥ Re(λ) para todo λ ∈ σ(A).
11.3.10. Sean σ ∈ Sn y Pσ ∈ UP (n) ⊆ MPn su matriz asociada. Decir que debe cumplir σ
para que Pσ sea irreducible. Se recomienda mirar la Eq. (11.1). De paso, calcular σ(Pσ ).
11.3.11. Probar que si A es una matriz doble estoc´stica reducible, entonces existe una
                                                  a
permutaci´n Pσ ∈ UP (n) tal que
         o

                                                 −1         A1    0
                                            Pσ APσ =                 .
                                                            0     A2

  1 estas   matrices se conocen con el nombre de esencialmente no-negativas.
Cap´
   ıtulo 12

Complementos de Schur y
determinantes

12.1      Notaciones y definiciones
Recordemos las notaciones asociadas a submatrices vistas en Cap´
                                                               ıtulos anteriores:

  1. Sea n ∈ N y k ∈ In . Notamos por Qk,n al conjunto de sucesiones estrictamente crecientes
     de k enteros elegidos en In :

              Qk,n = α = (α1 , α2 , · · · , αk ) ∈ Ik : 1 ≤ α1 < α2 < · · · < αk ≤ n .
                                                    n


     Otra manera de verlo es Qk,n = J ⊆ In : |J| = k , si pensamos a los conjuntos J
     ordenados en forma creciente. Luego |Qk,n | = n .
                                                  “ ”
                                                   k

  2. Dado α ∈ Qk,n , denotaremos por α = In  α ∈ Qn−k ,n a su complemento (ordenado
     convenientemente).

  3. Sean A ∈ Mn,m (C), α ∈ Qk,n y β ∈ Qr,m . Entonces denotaremos por A[α|β] a la
     submatriz de k × r de A dada por

                            A[α|β] = Aαi βj    (i,j)∈Ik ×Ir
                                                              ∈ Mk, r (C) .

     Llamaremos A(α|β) = A[α |β ] ∈ Mn−k , m−r (C) . An´logamente se definen
                                                       a

            A[α|β) = A[α|β ] ∈ Mk , m−r (C)      y    A(α|β] = A[α |β] ∈ Mn−k , r (C) .

  4. Cuando α = β, A[α|α] se abreviar´ como A[α] y A(α|α) = A(α). Si α = In (resp.
                                       a
     β = Im ), notaremos A[α|β] = A[−|β] (resp. A[α|β] = A[α|−]).
232                                                  Complementos de Schur y determinantes




  5. Dadas A ∈ Mn,r (C) y B ∈ Mr,m (C) , sea k ≤ m´    ın{n, r, m}. Luego, para cada par
     α ∈ Qk,n , β ∈ Qk,m se tiene la f´rmula de Cauchy Binnet para AB:
                                      o

                               det (AB)[α|β] =             det A[α|ω] det B[ω|β] .               (12.1)
                                                  ω∈Qk,r


  6. Dada α ∈ Qk,n , usaremos la abreviaci´n:
                                          o

                           e∧ = e(n)
                            α    α
                                          ∧
                                              := e(n) ∧ e(n) ∧ · · · ∧ e(n) ∈ Λk Hn .
                                                  α1     α2             αk

      Luego, por la multilinealidad de la funci´n Hk (x1 , . . . , xk ) → x1 ∧ · · · ∧ xk (ver 7.2.1,
                                               o   n
      item 3 y Definici´n 7.3.4), y por la Eq. (7.18), el conjunto
                      o
                                             √
                                    Ek,n = { k! e∧ : α ∈ Qk,n }
                                     ∧
                                                  α

      es una base ortonormal de“Λk Hn , y se la llama base can´nica. Por lo tanto, tenemos
                                                              o
      que dim Λk Hn = |Qk,n | = n .
                                  ”
                                k



El complemento de Schur
Definici´n 12.1.1. Sea A ∈ Mn (C), k ∈ In y α, β ∈ Qk,n .
       o

  1. Supongamos que A[α|β] es inversible. En tal caso definimos el complemento de Schur
     de A[α|β] en A, como la matriz
                    A/[α|β] = A(α|β) − A(α|β] · A[α|β]−1 · A[α|β) ∈ Mn−k (C) ,                   (12.2)
      indexada por α y β .
  2. Si α = β, escribiremos A/α en lugar de A/[α|α].
Observaci´n 12.1.2. Sean A ∈ Mn (C)+ y α ∈ Qk,n . Si A[α] ∈ Gl (k)+ y consideramos el
           o
subespacio S = Gen {ej : j ∈ α}, entonces el Corolario 3.8.9 dice que
                           /
         A/α    0     S             A(α) − A(α|α] A[α]−1 A(α|α]∗         0     S
                         =                                                        = Σ (A, S) .
          0     0     S⊥                         0                       0     S⊥
Definici´n 12.1.3. Sea α ∈ Qk,n .
       o
                               k
  1. Llamaremos tr α =             αi .
                           i=1

  2. Llamaremos sgn(α) al signo de la permutaci´n πα ∈ Sn dada por πα (αi ) = i para i ∈ Ik ,
                                                  o
     y πα (αj ) = k + j para j ∈ In−k . Es decir que πα pone a los buenos al principio y a los
     malos al final, preservando sus ´rdenes. Por lo tanto,
                                     o
                           k
                                                                               k(k + 1)
               sgn(α) =         (−1)αi −i = (−1)r ,        con   r = tr α −             .        (12.3)
                          i=1
                                                                                  2
12.1 Notaciones y definiciones                                                                        233




     En efecto, se puede ver que

                             πα = (k, . . . , αk ) . . . (2, . . . , α2 )(1, 2, . . . , α1 ),

     donde (a1 , . . . , ar ) denota al r-ciclo asociado. Esto se deduce de que el primer ciclo (que
     consta de α1 − 1 trasposiciones) manda α1 al lugar 1. El segundo (que consta de α2 − 2
     trasposiciones) manda α2 al lugar 2 (observar que (1, 2, . . . , α1 ) no movi´ a α2 ) y deja
                                                                                        o
     a α1 en el lugar 1. Se sigue as´ hasta mandar αk al lugar k . Lo dem´s (los valores
                                            ı                                           a
     que toma en α ) queda armado para producir la permutaci´n πα , porque se mantuvo
                                                                        o
     su orden interno, y van a donde deben ir. Por ejemplo, los ´        ındices 1, . . . , α1 − 1 est´n
                                                                                                      a
     en α (si α1 > 1) y se “corren” un lugar a la derecha por el primer ciclo. Luego, los
     “lugares” 2, . . . , α2 − 1 est´n ocupados por m´s elementos de α y se vuelven a corren
                                     a                    a
     con el segundo ciclo (manteniendo su orden original). Luego de aplicar los k ciclos,
     quedan todos los de α ordenaditos y al final.

  3. Sea Tα ∈ UP (n), la matriz de permutaci´n asociada a πα , dada por
                                            o

                                  Tα ei = eαi                si     i = 1, . . . , k
                                                                                                    (12.4)
                                Tα ek+j = eαj                si     j = 1, . . . n − k .

     Tenemos entonces que det Tα = sgn(πα ) = sgn(α).


El siguiente resultado generaliza la Proposici´n 3.8.7 y el Corolario 3.8.9 a matrices y bloques
                                              o
cualesquiera (siempre que sean cuadrados).

Teorema 12.1.4. Sean A ∈ Mn (C), k ∈ In y α, β ∈ Qk,n . Se tiene que

        A[α|β] ∈ Gl (k) =⇒ det A = sgn(α) sgn(β) det A[α|β] det A/[α|β] .                           (12.5)

Si tambi´n A ∈ Gl (n), entonces A/[α|β] ∈ Gl (n − k) y
        e
                                                    −1
                                       A/[α|β]           = A−1 (β|α) .                              (12.6)

Demostraci´n. Empecemos con el caso particular α = β = Ik . En este caso, se puede aplicar
           o
una argumento igual al de la prueba de la Proposici´n 3.8.7, que mostraremos brevemente:
                                                   o
Un c´lculo elemental prueba que A admite la factorizaci´n
    a                                                  o

                In [α]           0            A[α]  0                 In [α] A[α]−1 A[α|α)
      A=                                                                                        .   (12.7)
             A(α|α]A[α]−1      In (α)          0   A/α                  0       In (α)

A partir de esto podemos deducir sin problemas la Eq. (12.5), porque los factores de la
derecha y de la izquierda en el lado derecho de Eq. (12.7) tienen determinante 1, mientras
que el factor central tiene determinante igual a det A[α] det(A/α). Tambi´n, Eq. (12.6) es
                                                                         e
consequencia de la Eq. (12.7), tomando inversas de ambos lados.
234                                            Complementos de Schur y determinantes




Para probar el caso general, consideremos las matrices Tα , Tβ definidas en Eq. (12.4). Llame-
          −1
mos B = Tα ATβ . Usando la Eq. (12.4) vemos que, como matrices de sus tama˜os,   n
   B[Ik ] = A[α|β] , B(Ik ) = A(α|β) , B(Ik |Ik ] = A(α|β]     y        B[Ik |Ik ) = A[α|β) .         (12.8)
Mostraremos la primera igualdad de la Eq. (12.8), ya que las dem´s se muestran de manera
                                                                a
an´loga: dados i, j ∈ Ik , tenemos que
  a
                           −1                  −1
              B[Ik ]ij = (Tα ATβ )[Ik ]ij   = Tα ATβ ej , ei = ATβ ej , Tα ei

                                            = Aeβj , eαi   = Aαi βj = A[α|β]ij .
Observar que las igualdades de (12.8) aseguran que B/[Ik ] = A/[α|β] . Luego
   sgn(α) sgn(β) det A = det B = det B[Ik |Ik ] det B/[Ik |Ik ] = det A[α|β] det A/[α|β] ,
ya que det Tα = sgn(α). Finalmente, la Eq. (12.6) resulta de la relaci´n:
                                                                      o
                         −1                                            −1               −1
           A−1 (β|α) = (Tβ A−1 Tα )(Ik ) = B −1 (Ik ) = B/[Ik ]             = A/[α|β]        .

En el siguiente enunciado veremos que toda matriz A ∈ Mn (C) puede ser aproximada tanto
como se quiera por matrices tales que todas sus submatrices cuadradas son inversibles. Esto
ser´ usado para obtener varias identidades de determinantes a partir del Teorema 12.1.4.
   a
Lema 12.1.5. Dada A ∈ Mn (C) y ε > 0, existe B ∈ Mn (C) tal que

  1. A − B < ε, donde        ·    es una norma en Mn (C).
  2. Todas las submatrices cuadradas de B son inversibles.
                                                                                  n
                                                                                        n
                                                                                       “ ”2
Demostraci´n. La cantidad total de submatrices cuadradas de A es M =
          o                                                                             k
                                                                                                 . Consider-
                                                                                 k=1
emos la funci´n φ : Mn (C) → CM que asigna a cada B ∈ Mn (C) la lista de los determinantes
             o
de todas sus submatrices cuadradas, en alg´n orden prefijado. Notar que φ es una funci´n
                                          u                                            o
continua. Llamemos
                   Γ = φ−1       a ∈ CM : ai = 0    para todo          i ∈ IM    .

Para probar el Lema, basta ver que Γ es denso en Mn (C). Llamemos, para cada i ∈ IM ,

                                 Γi = φ−1    a ∈ CM : ai = 0       .

                                                                M
Es claro que todos estos conjuntos son abiertos y que Γ =               Γi . Por otra parte, cada Γi
                                                                i=1
es denso en Mn (C), porque Gl (k) es denso en Mk (C) para todo k ∈ N. Por ejemplo, si
φ(A)1 = det A, entonces Γ1 = Gl (n). El resultado se sigue de que una intersecci´n finita de
                                                                                o
abiertos densos es densa. En efecto, si U y V son abiertos densos y Z es abierto, entonces
Z ∩ U es un abierto no vac´ Entonces (Z ∩ U ) ∩ V = Z ∩ (U ∩ V ) = ∅ para todo abierto Z.
                          ıo.
Por lo tanto U ∩ V es denso. Por inducci´n, quien dice 2, dice M .
                                         o
12.2 Identidades asociadas a determinantes                                                                  235




12.2       Identidades asociadas a determinantes
Teorema 12.2.1 (Identidad de Jacobi). Sea A ∈ Gl (n). Entonces

                                          det A(β|α)
     det A−1 [α|β] = sgn(α) sgn(β)                   ,     para todo par         α, β ∈ Qk,n .            (12.9)
                                            det A

Demostraci´n. Se sigue de las ecuaciones (12.6) y (12.5), aplicadas a α y β :
          o

                det A−1 = sgn(α) sgn(β) det A−1 [α|β] det A−1 /[α|β]                =⇒

                            sgn(α) sgn(β)                        sgn(α) sgn(β)
 =⇒      det A−1 [α|β] =                  · (det A−1 /[α|β])−1 =               · det A(β|α) ,
                                det A                                det A
lo que culmina la prueba.

Observaci´n 12.2.2. Cuando k = 1, la Eq. (12.9) induce la identidad:
         o

                                                   det A(j|i)
                           (A−1 )ij = (−1)i+j                 ,   i, j ∈ In ,                            (12.10)
                                                     det A
conocida como la regla de Cramer.

12.2.3. Sean Jn = diag 1, −1, 1, −1, . . . , (−1)n−1 ∈ U(n), y ω, α ∈ Qk,n . Luego
                                                                  k(k−1)
                              det Jn [α|ω] = δαβ sgn(α)(−1)          2       ,

donde δα,β = 1 o 0 de acuerdo a si α = β o α = β. En efecto, si α = ω, en Jn [α|ω] hay una
columna de ceros, y por lo tanto su determinante es cero. Cuando α = ω tenemos que, si pα
denota al n´mero de elementos pares de α, entonces
           u

                                  k
                           pα ≡         (αi − 1) = tr α − k   (m´dulo 2) .
                                                                o
                                  i=1

Luego
                                                               k(k+1)                       k(k−1)
                                                                        −k
        det Jn [α] = (−1)pα = (−1)tr α−k = sgn(α) · (−1)          2          = sgn(α)(−1)      2     ,

lo que culmina la prueba. Si A ∈ Gl (n), suele notarse A# = Jn A−1 Jn a la llamada inversi´n
                                                                                          o
de A. La siguiente igualdad se sigue de la Eq. (12.9), usando (12.1) (Cauchy-Binnet):

                                              det A(β|α)
                   det(Jn A−1 Jn )[α|β] =                     para      α, β ∈ Qk,n ,                    (12.11)
                                                det A

dado que det Jn [α] · sgn(α) = det Jn [β] · sgn(β) = (−1)k(k−1)/2 .
236                                                      Complementos de Schur y determinantes




12.2.4. La siguiente igualdad es v´lida para toda A ∈ Mn (R): dados α, β ∈ Qk,n ,
                                  a

                                 sgn(ω) det A[α|ω] det A(β|ω) = δα,β sgn(β) det A .                         (12.12)
                  ω∈Qk,n

De hecho, cuando A es inversible, por Eq. (12.9), el lado izquierdo de la Eq. (12.12) da

         sgn(β) det A                     det A[α|ω] det A−1 [ω|β] = sgn(β) det A det In [α|β] ,
                                 ω∈Qk,n

por la f´rmula de Cauchy Binnet (12.1). El caso no inversible se deduce por continuidad.
        o
Observar que, tomando k = 1, y fijando cualquier r ∈ In como α = β, nos queda el algoritmo
usual propuesto en el Ejercicio 7.5.11 (y usando n veces) desarrollando por la fila r:

      det A =          sgn {r} sgn{i} Ar,i det A(r|i) =                (−1)r+i Ar,i det A(r|i) .            (12.13)
                i∈In                                            i∈In

El desarrollo por columnas sale aplicando esto a AT .
12.2.5. Dados α, β ∈ Qk,n y, adem´s, ω, τ ∈ Ql,n tales que ω ⊆ α , τ ⊆ β , sean
                                 a

       µ = α ∪ ω = (µ1 , µ2 , . . . , µk+l )         y   ν = β ∪ τ = (ν1 , ν2 , . . . , νk+l ) ∈ Qk+l,n .

Existen entonces γ y σ ∈ Qk,k+l tales que αi = µγi y βi = νσi , i ∈ Ik . Luego definimos
                         α                      k(k+1)                         β
                sgn         = sgn(γ) = (−1)tr γ− 2 ,                    sgn       = sgn(σ) .                (12.14)
                        α∪ω                                                   β∪τ
Con estas notaciones, se tiene la siguiente versi´n local del Teorema 12.1.4:
                                                 o
                                                          α       β
      det A[α|β] det (A/[α|β])[ω|τ ] = sgn                   sgn     det A[α ∪ ω|β ∪ τ ]                    (12.15)
                                                         α∪ω     β∪τ
En efecto, consideremos la matriz B = (aµi νj )i,j∈Ik+l ∈ Mk+l (R). Entonces vemos que Eq.
(12.15) coincide con Eq. (12.5) para B, γ, σ en lugar de A, α, β, respectivamente. De hecho,
como B = A[µ|ν] = A[α ∪ ω|β ∪ τ ], entonces B[γ|σ] = A[α|β] y, por otra parte,

                       B/[γ|σ]        = B(γ|σ) − B(γ|σ] B[γ|σ]−1 B[γ|σ)

                                      = A(α|β)[ω|τ ] − A(α|β] A[α|β]−1 A[α|β)[ω|τ ]

                                      = (A/[α|β])[ω|τ ] .

Una consecuencia inmediata es la siguiente caracterizaci´n de las entradas de un complemento
                                                        o
de Schur: Dados α, β ∈ Qk,n , se tiene

                                             α             β      det A[α ∪ {αi }|β ∪ {βj }]
      {A/[α|β] }(α               = sgn              sgn                                                     (12.16)
                       i ,βj )            α ∪ {αi }     β ∪ {βj }        det A[α|β]
12.2 Identidades asociadas a determinantes                                                                            237




Corolario 12.2.6. Sea A ∈ Mn (R) y sea r ∈ In tal que Arr = 0. Entonces, para todo
α ∈ Qk,n tal que r ∈ α, se tiene que
                   /

                                          (A/[r])[α] = A[{r} ∪ α]/[r] .

Todas esas letras significan que las submatrices principales de A/[r] s´lo dependen de las
                                                                      o
entradas correspondientes de A (y no de las dem´s).
                                               a

Demostraci´n. Dados i, j ∈ α, la f´rmula (12.16) asegura que
          o                       o

                    (A/[r])[α]            =       (A/[r]
                                 ij                         ij
                                                      r          r    det A[{i, r}|{j, r}]
                                          =     sgn        sgn
                                                    {i, r}     {j, r}        Arr
                                          =       A[{r} ∪ α]/[r]              ,
                                                                         ij

por lo ambas matrices coinciden.

12.2.7 (Identidad de Sylvester). Dados A ∈ Mn (R) y α, β ∈ Qk,n , se cumple que

         det    det A[α ∪ {αi }|β ∪ {βj }]              i,j∈In−k
                                                                       = det A · det A[α|β]n−k−1                  (12.17)

Para probarlo, tomemos los n´meros
                            u

                        α                                     β
         εi = sgn                     y       ρj = sgn               ,            para todo i, j ∈ In−k .
                     α ∪ {αi }                             β ∪ {βj }

Por la Eq. (12.16), vemos que el lado izquierdo de la Eq. (12.17) es igual a

                                 det det A[α|β] (A/[α|β])ij εi ρj                     =


            det A[α|β]n−k det diag(ε1 , . . . , εn−k ) A/[α|β] diag(ρ1 , . . . , ρn−k ) =

                                                                 n−k                        n−k
                                                                                 α                         β
      det A[α|β]n−k−1 det A[α|β] det(A/[α|β])                          sgn              ·         sgn             .
                                                                 i=1
                                                                              α ∪ {αi }     i=1
                                                                                                        β ∪ {βj }

La f´rmula (12.17) se sigue ahora de la Eq. (12.5) y del siguiente resultado:
    o

Lema 12.2.8. Sea α ∈ Qk,n . Entonces

                                          n−k
                                                         α
                                                sgn                    = sgn(α) .                                 (12.18)
                                          i=1
                                                      α ∪ {αi }
238                                          Complementos de Schur y determinantes



                                                                    α
Demostraci´n. Recordemos la definici´n de los signos de α y de α∪{α } , para cada entrada
            o                         o
                                                                      i
i ∈ In−k . En ambos casos, es calcular el signo de la permutaci´n que manda a los buenos
                                                                o
al principio y los malos al final. En otras palabras, est´n determinados por la cantidad
                                                           a
de trasposiciones necesarias para efectuar tales ordenamientos. Pero miremos el siguiente
proceso: empezamos por el ultimo elemento de α y lo corremos hasta el final (si no estaba
                              ´
all´ Al pen´ltimo, lo corremos hasta justo despues de αk . Y seguimos as´ con todos los de
   ı).       u                                                              ı
α hasta llegar al primero. El n´mero de trasposiciones en cada paso es justo el que determina
                                u
                          α
el correspondiente sgn α∪{α } , porque los αj que tiene arriba quedaron pegados entre s´ al
                                                                                          ı,
                            i
haber sacado antes los de α mayores que αi . Pero al final de todo mandamos prolijamente
a todo α hasta el final, por lo que la suma total da el sgn(α).

Observaci´n 12.2.9. La prueba anterior es un poco charlada, pero cr´anme que ustedes
            o                                                            e
lo preferir´ as´ antes que tener que leer una cuenta expl´
           ıan ı,                                          ıcita. Igual daremos una versi´n
                                                                                         o
guiada de esa cuenta en los ejercicios. Como aval de la prueba anterior, se ver´ all´ que
                                                                                 a    ı
la suma de los exponentes de la productoria de (12.18) da igual (y no s´lo congruente) al
                                                                          o
exponente de −1 en sgn(α), seg´n las Eq’s (12.3) y (12.14).
                              u


12.3      Un poco m´s de complementos de Schur
                   a
Recordemos que, si A ∈ Mn (C), k ∈ In y α, β ∈ Qk,n satisfacen que A[α|β] es inversible, el
complemento de Schur A[α|β] en A es la matriz

                 A/[α|β] = A(α|β) − A(α|β] · A[α|β]−1 · A[α|β) ∈ Mn−k (C) ,

indexada por α y β . Llamemos Cβ = Gen {ej : j ∈ β } y Cβ = Gen {ek : k ∈ β}. Rep-
resentemos Cn = Cβ ⊕ Cβ , poniendo que un vector Cn     x = xβ + xβ . An´logamente
                                                                          a
  n      α     α                                      β        α
C = C ⊕ C . Observar que A[α|β] opera desde C hacia C , lo que denotaremos
A[α|β] : Cβ → Cα . Por lo tanto A[α|β]−1 : Cα → Cβ . Los otros cachos de A operan en
forma coherente, por ejemplo A[α|β) : Cβ → Cα y as´ Con estas notaciones, podemos
                                                    ı.
pensar que A/[α|β] : Cβ → Cα .

Proposici´n 12.3.1. Sea A ∈ Mn (C) y supongamos que A[α|β] es inversible para ciertos
           o
α, β ∈ Qk,n . Definamos

       P (A, α, β) ∈ Mn (C)    dado por   P (A, α, β) x = xβ − A[α|β]−1 A[α|β) xβ    ,

para x = xβ + xβ ∈ Cn . Entonces, si abreviamos P (A, α, β) = P , se tiene que

  1. P 2 = P .

  2. ker P = Gen {ej : j ∈ β} = Cβ .

  3. (AP )(α|β) = A/[α|β] y las dem´s coordenadas de AP son nulas.
                                   a
12.3 Un poco m´s de complementos de Schur
              a                                                                         239




Demostraci´n. Observar que P x = P xβ y que −A[α|β]−1 A[α|β) xβ ∈ Cβ para todo x ∈ Cn .
            o
Por ello es claro que P 2 = P y que ker P = Cβ , porque los sumandos que definen a P no
interfieren entre s´ por lo que nunca se anula en Cβ  {0}.
                  ı,

De lo anterior, deducimos que si x = xβ ∈ Cβ , entonces AP x = 0. Esto dice que (AP )[α|β] y
(AP )(α|β] son matrices nulas, porque son las partes de AP que act´an en Cβ y van a lugares
                                                                    u
que no interfieren entre s´ Por lo tanto, para cualquier x ∈ Cn , se tiene que
                         ı.
     AP x    = AP xβ = A(α|β) + A[α|β) xβ − A(α|β] + A[α|β] A[α|β]−1 A[α|β) xβ

             = A(α|β) − A(α|β]A[α|β]−1 A[α|β) xβ = A/[α|β] xβ ∈ Cα .

Esto muestra que (AP )[α|β) ≡ 0 y que (AP )(α|β) = A/[α|β].
Corolario 12.3.2. Sean A ∈ Mn (C) y α, β ∈ Qk,n tales que A[α|β] es inversible.

  1. Para todo xβ ∈ Cβ existe un xβ ∈ Cβ tal que A/[α|β] xβ = A(xβ + xβ ) .
  2. Sea Q ∈ Mn (C) tal que

                          Q2 = Q , ker Q = Cβ         y     R(A · Q) ⊆ Cα .          (12.19)

     Entonces se tiene que Q = P (A, α, β).

Demostraci´n. Sea P = P (A, α, β) la proyecci´n de la Proposici´n 12.3.1. Luego
          o                                  o                 o

                 A/[α|β] xβ = AP xβ = A xβ − A A[α|β]−1 A[α|β) xβ             .

Luego basta tomar xβ = −A , A[α|β]−1 A[α|β) xβ . Si me dan ahora un Q que cumple (12.19),
entonces Q2 = Q y ker Q = Cβ . Luego, como en el Ejercicio 3.9.19, se puede ver que

            Qx = Qxβ = xβ + Q[β, β)xβ ,         para todo     x = x β + x β ∈ Cn .

El hecho de que R(AQ) ⊆ Cα indica que (AQ)[α|β) = 0. De lo anterior, uno deduce que

         0 = (AQ)[α|β) = A[α|β) + A[α|β]Q[β, β) =⇒ A[α|β]Q[β, β) = −A[α|β) .

Como A[α|β] es inversible, tenemos que Q[β, β) = −A[α|β]−1 A[α|β), o sea que Q = P .

El siguiente teorema es un resultado an´logo a la Proposici´n 3.8.5.
                                       a                   o
Teorema 12.3.3. Sea A ∈ Mn (C) y supongamos que A[α|β] es inversible para ciertos α, β ∈
Qk,n . Sean ω, τ ∈ Qr,n , tales que ω ⊆ α y τ ⊆ β . Entonces

  1. (A/[α|β])[ω|τ ] ∈ Gl (r) si y s´lo si A[α ∪ ω|β ∪ τ ] ∈ Gl (k + r).
                                    o
  2. En este caso se cumple la siguiente igualdad de matrices:

                                 A/[α|β] /[ω|τ ] = A/[α ∪ ω|β ∪ τ ] .                (12.20)
240                                                       Complementos de Schur y determinantes




Demostraci´n. El item 1 se deduce en forma inmediata de la Eq. (12.15). Por la Proposici´n
            o                                                                                    o
12.3.1, tenemos tres proyectores: P (A, α, β), P (A/[α|β], ω, τ ) y P (A, α ∪ ω, β ∪ τ ) tales que
           A/[α|β] = A · P (A, α, β) , A/[α ∪ ω|β ∪ τ ] = A · P (A, α ∪ ω, β ∪ τ )                        y

      A/[α|β] /[ω|τ ] = A/[α|β] · P (A/[α|β], ω, τ ) = A · P (A, α, β) · P (A/[α|β], ω, τ ) ,                      (12.21)

salvo los ceros. Ahora bien, ker P (A, α, β) = Cβ , mientras que A/[α|β] opera s´lo en Cβ
                                                                                o
por lo que, si pensamos a P (A/[α|β], ω, τ ) ∈ Mn (C) con ceros fuera de β , se tiene que
ker P (A/[α|β], ω, τ ) = Cβ∪τ . En particular, como Cβ ⊆ Cβ∪τ , se tiene que
  P (A/[α|β], ω, τ ) I − P (A, α, β) = 0 =⇒ P (A/[α|β], ω, τ )P (A, α, β) = P (A/[α|β], ω, τ )
y la matriz Q = P (A, α, β) · P (A/[α|β], ω, τ ) ∈ Mn (C) cumple que

                       Q2 = Q , ker Q = Cβ∪τ                 y     R(A · Q) ⊆ C(α∪ω) ,                             (12.22)
donde igualdad del medio es un ligero ejercicio, y la ultima inclusi´n surge de que, como dice
                                                      ´             o
la Eq. (12.21), se tiene que A/[α|β] /[ω|τ ] = AQ. Ahora, la Eq. (12.22) asegura, v´ el  ıa
Corolario 12.3.2, que Q = P (A, α ∪ ω, β ∪ τ ), por lo que

                             A/[α|β] /[ω|τ ] = AQ = A/[α ∪ ω|β ∪ τ ] .

Observaci´n 12.3.4. Otra forma de probar la f´rmula (12.20), con t´cnicas m´s parecidas a
             o                                     o                  e        a
las del resto de este Cap´
                         ıtulo, ser´ calculando las coordenadas como determinantes por medio
                                   ıa
de las ecuaciones (12.15) y (12.16). En efecto, sean i ∈ (α ∪ ω) y j ∈ (β ∪ τ ) , llamemos
µ = {i} y ν = {j} y obsevemos que, en el lado izquierdo de (12.20) tenemos

                                                     ω              τ      det(A/[α|β])[ω ∪ µ|τ ∪ ν]
               (A/[α|β])/[ω|τ ]   i,j
                                        = sgn       ω∪µ   · sgn   τ ∪ν         det (A/[α|β])[ω|τ ]

                                              det A[α ∪ ω ∪ µ|β ∪ τ ∪ ν]
                                        =ε                               ,                    donde
                                                  det A[α ∪ ω|β ∪ τ ]
                        ω             α               α                    τ             β              β
            ε = sgn    ω∪µ   · sgn   α∪ω    · sgn   α∪ω∪µ    · sgn       τ ∪ν   · sgn   β∪τ   · sgn   β∪τ ∪ν   .
La misma entrada del lado derecho de (12.20) es igual a

                                               α∪ω                 β∪τ          det A[α ∪ ω ∪ µ|β ∪ τ ∪ ν]
          A/[α ∪ ω|β ∪ τ ]           = sgn    α∪ω∪µ       sgn     β∪τ ∪ν                                   .
                             ij                                                     det A[α ∪ ω|β ∪ τ ]
Por lo tanto, ambas matrices tienen todas sus coordenadas iguales, salvo los signos. Para ver
que ellos coniciden, bastar´ verificar que, para todo i ∈ (α ∪ ω) y todo j ∈ (β ∪ τ ) ,
                           ıa
                          α∪ω               β∪τ
             ε = sgn     α∪ω∪µ    sgn      β∪τ ∪ν   ,     donde µ = {i} y ν = {j} .                                (12.23)

Esto sale usando la Eq. (12.14) y un sinn´mero de cuentas que, con gran alegr´ le dejamos
                                         u                                   ıa,
al lector interesado como ejercicio.
12.4 Ejercicios                                                                                             241




12.4       Ejercicios
Ejercicios que aparecen en el texto
12.4.1. Completar los detalles de la prueba de la Eq. (12.3).
12.4.2. Dar una prueba num´rica de la Eq. (12.18). Es decir: Dada α ∈ Qk,n probar que
                          e
n−k
            α
      sgn α∪{α         = sgn(α) . Se suguieren los siguientes pasos:
             i}
i=1

  1. Para cada i ∈ In−k , sea γ i ∈ Qk,k+1 , definido como en 12.2.5 para α y α ∪ {αi }.
                                                                                   i  k(k+1)
     Recordemos que en la Eq. (12.14) se vi´ que sgn α∪{α } = sgn(γ i ) = (−1)tr γ − 2 ,
                                            o             α
                                                            i
     donde γ i ∈ Sk+1 manda αi al final de α ∪ {αi }. El tema es ver en qu´ lugar de entre las
                                                                         e
     entradas de α que ubicado el αi . Pongamos, por conveniencia, que α0 = 0 y αk+1 = ∞.
     En tal caso, mostrar que
                              (k + 2)(k + 1)
                  tr γ i =                   −j ,         cuando se tiene que        αj−1 < αi < αj .
                                    2
                       α
  2. Deducir que sgn α∪{α                = sgn(γ i ) = (−1)k−j+1 si αj−1 < αi < αj .
                                    i}

  3. Contemos cuantos hay de cada tipo: probar que
             |{i ∈ In−k : αi < α1 }| = α1 − 1 , |{i ∈ In−k : αk < αi }| = n − αk                      y
                 |{i ∈ In−k : αj−1 < αi < αj }| = αj − αj−1 − 1                 cuando 2 ≤ j ≤ k .
  4. Ahora s´ calcular el exponente de la productoria:
            ı,
                 n−k                                  k
                                   k(k + 1)
                        tr γ i −                 =         (k − j + 1)(αj − αj−1 − 1) + 0 · (n − αk )
                 i=1
                                      2              j=1
                                                      k            k
                                                                                               k(k + 1)
                                                 =         αj −         (k − j + 1) = tr α −            .
                                                     j=1          j=1
                                                                                                  2

  5. Usando la Eq. (12.3), concluir la prueba de la f´rmula (12.18).
                                                     o
12.4.3. Dar una prueba de la f´rmula (12.20) basandose en el camino delineado en la Ob-
                                o
servaci´n 12.3.4. En otras palabras, probar la Eq. (12.23). Se sugieren dos caminos. El
       o
primero es encontrar permutaciones que tengan esos signos y que hagan lo mismo, como en la
prueba del Lema 12.2.8. El segundo es contar todo a lo bestia, y mostrar que son congruentes
m´dulo 2. En ambos casos, se puede reducir el trabajo a probar dos identidades m´s cortas
  o                                                                                 a
y similares, a saber: Dados α ∈ Qk,n , ω ∈ Qr,n y µ = {i}, todos disjuntos,
                              α         ω          α                                α∪ω
                       sgn       · sgn     · sgn                           = sgn         ,
                             α∪ω       ω∪µ       α∪ω∪µ                             α∪ω∪µ
y lo mismo para β, τ y ν. Por ejemplo, se puede mandar ω ∪ µ al final, despu´s mandar a µ
                                                                           e
al ultimo lugar, y despu´s volver a mezclar a ω con α.
   ´                    e
242                                         Complementos de Schur y determinantes




Ejercicios nuevos
Notaci´n:
      o      Sea A ∈ Mm,n (C) tal que m > n y rk(A) = n.

  1. Dado I ⊆ Im con |I| = r y dado b ∈ Cm , denotaremos por bI al vector de C r que se
     obtiene dejando s´lo las coordenadas de b que pertenecen a I.
                      o
  2. J(A) := {I ⊆ Im : |I| = n y det A[I] = 0}. Observar que rk(A) = n =⇒ J(A) = ∅.

12.4.4 (Ben Tal - Teboulle). Dada A ∈ Mm,n (C) tal que m > n y rk(A) = n, sea c ∈ Cn la
soluci´n del problema de cuadrados m´
      o                             ınimos
                                      2
                         m´ Ax − b
                          ın              para un b ∈ Cm fijo .
                        x∈Cn

Si para cada I ∈ J(A) denotamos cI = A[I]−1 bI , probar que c pertenece a la c´psula convexa
                                                                              a
de los cI . Se suguiere probar que c es la unica soluci´n de la denomina ecuaci´n normal
                                           ´           o                       o

                                       A∗ Ax = A∗ b.

Luego, usar la regla de Cramer y la f´rmula de Cauchy-Binet.
                                     o
Cap´
   ıtulo 13

Matrices totalmente positivas

Este cap´ıtulo est´ basado en un trabajo de T. Ando [20], aparecido en 1987, y est´ escrito
                  a                                                               a
utilizando como punto de partida un trabajo de A. Iglesias. Las herramientas fundamentales
para las demostraciones son los intrincados resultados del Cap´
                                                              ıtulo anterior.


13.1      Definiciones y criterios de positividad total
En esta secci´n introducimos las nociones de regularidad de signo y positividad total.
             o
Definici´n 13.1.1.
       o                1. Llamaremos sucesi´n de signatura a una sucesi´n
                                            o                           o

           ε = (εi )i∈N ∈ {−1, 1}N ,    es decir, tal que       εi = ±1      para todo    i∈N.

  2. Dado λ ∈ R con |λ| = 1, notaremos λε a la sucesi´n de signatura λε = (λεi )i∈N .
                                                     o
  3. Si τ es otra sucesi´n de signatura, llamaremos τ ε = (τi εi )i∈N .
                        o
Definici´n 13.1.2. Sean A ∈ Mn,m (R) y ε una sucesi´n de signatura. Sea r = m´
       o                                          o                         ın{n, m}.

  1. Decimos que A es de signo regular con signatura ε, y abreviaremos diciendo que A es
                                          √
                            o      ∧
     ε-RS si, en la base can´nica Ek,n = { k! e∧ : α ∈ Qk,n }de Λk Hn , se tiene que
                                               α

                                 εk · Λk A     0    para todo     k ∈ Ir ,                   (13.1)

     La regularidad de signo de A es equivalente a la condici´n
                                                             o

                    εk · aβ1 ∧ aβ2 ∧ · · · ∧ aβk    0,   para     β ∈ Qk,m k ∈ Ir ,          (13.2)

     o, por la Eq. (7.19), en forma de determinantes,

                    εk det A[α|β] ≥ 0        para   α ∈ Qk,n , β ∈ Qk,m        k ∈ Ir ,      (13.3)
244                                                               Matrices totalmente positivas




  2. A se dice estrictamente de signo regular con signatura ε (A es ε-ERS) si, en la Eq. (13.1)
     (o, equivalentemente, en la Eq. (13.2) o la Eq. (13.3)), reemplazamos por >.
  3. Decimos que A es totalmente positiva (y abreviaremos TP) si es ε-RS respecto de la
     sucesi´n ε ≡ 1, es decir, si
           o
                                     Λk A 0, k ∈ Ir ,                            (13.4)
      o equivalentemente si

                       aβ1 ∧ aβ2 ∧ · · · ∧ aβk   0,   para       β ∈ Qk,m k ∈ Ir ,              (13.5)

      es decir, si
                      det A[α|β] ≥ 0      para    α ∈ Qk,n , β ∈ Qk,m          k ∈ Ir .         (13.6)

  4. A se dice estrictamente totalmente positiva (ETP) si              es reemplazado por > en las
     ecuaciones (13.4), (13.5) o (13.6).

Para testear la regularidad de signo de A se requiere chequear los signos de un n´mero muy
                                                                                   u
grande de determinantes. Pero si el rango de A es conocido, en particular si A es inversible,
el n´mero necesario de determinantes a chequear puede ser considerablemente reducido. La
    u
prueba de este resultado, que es bastante complicada, se posterga a un Ap´ndice al final
                                                                               e
del Cap´ıtulo. Esto se debe a que su aplicaci´n es clave en el desarrollo de la teor´ y la
                                                o                                       ıa
construcci´n de ejemplos, pero estas aplicaciones son de un grado mucho menor de dificultad.
          o
Una ves apreciado el efecto devastador del siguiente Teorema, es probable que el lector afronte
con mayor entusiasmo la dif´ lectura de su demostraci´n.
                             ıcil                        o
Definici´n 13.1.3. Sea n ∈ N, k ∈ In y α ∈ Qk,n . La dispersi´n de α es el n´mero
       o                                                    o              u

                      d(α) = αk − α1 − (k − 1) =                αi+1 − αi − 1 ,
                                                      i∈ Ik−1

con la convenci´n de que d(α) = 0 para los α ∈ Q1,n . Observar que d(α) = 0 si y s´lo si las
               o                                                                  o
entradas de α son consecutivas, i.e. αi+1 = αi + 1 para todo i ∈ Ik−1 .
Teorema 13.1.4. Sea A ∈ Mn,m (R) con rk A = r, y sea ε una sucesi´n de signatura.
                                                                 o

  1. Para que A sea ε-RS, es suficiente que las Eqs. (13.2) o (13.3) se verifiquen en los casos
     en que d(β) ≤ m − r.
  2. En particular, si las Eqs. (13.5) o (13.6) son v´lidas en esos casos, A es TP.
                                                     a

Ahora pasemos a los criterios para la regularidad de signo estricta. El n´mero de determi-
                                                                         u
nantes se reduce a´n m´s. La prueba de este criterio tambi´n se dar´ en el Ap´ndice.
                  u   a                                   e         a        e
Teorema 13.1.5. Sean A ∈ Mn,m (R) y ε una sucesi´n de signatura.
                                                o

  1. Para que A sea ε-ERS es suficiente que, para todo k ∈ Im´
                                                            ın(n,m) ,

          εk det A[α|β] > 0   para     α ∈ Qk,n , β ∈ Qk,m         tales que      d(α) = d(β) = 0 .
13.1 Definiciones y criterios de positividad total                                                            245




   2. En particular A es ETP si
           det A[α|β] > 0         para    α ∈ Qk,n , β ∈ Qk,m              tales que     d(α) = d(β) = 0 .

Ejemplo 13.1.6 (Vandermonde). Sea t = (t1 , . . . , tn ) ∈ Rn . Se llama matriz de Vander-
monde de t a V (t) ∈ Mn (R) dada por V (t)ij = tj−1 . O sea que
                                                     i
                         n−1 
             1 t1 . . . t1
            1 t2 . . . tn−1 
                          2
   V (t) =  . .            .  . Es conocido que          det V (t) =     (tj − ti ) . (13.7)
                             
            . . ...
             . .            . 
                            .                                          i<j
             1 tn . . . tn−1
                          n

La prueba es un ejercicio tradicional de inducci´n (ver Ejercicio 7.5.12). Supongamos que
                                                o
0 < t1 < · · · < tn . Entonces V (t) es ETP.
En efecto, observar en principio que V (t) ∈ Gl (n). Luego, para probar que V (t) es ETP, el
Teorema 13.1.5 nos dice que basta ver que det V (t)[α | β] > 0 para los pares α, β ∈ Qk,n ,
tales que d(α) = d(β) = 0. Si β = (r + 1, r + 2, . . . , r + k) y llamamos tα = (tα1 , . . . , tαk ),
entonces se ve f´cilmente que
                a
                                                     k
                                det V (t)[α | β] =         tr i · det V (tα ) > 0 .
                                                            α
                                                     i=1

El argumento clave es que, gracias a que d(β) = 0, la submatriz V (t)[α | β] tiene en sus filas,
potencias consecutivas de los tαi , por lo que, dividiendo a cada fila por V (t)[α | β]i,1 = tr i , se
                                                                                             α
obtiene la matriz V (tα ) que es tambien una matriz de Vandermonde de una k-upla ordenada.
La positividad del determinante en este caso se deduce de la f´rmula (13.7). Observar que la
                                                                o
ETPcidad se mantendr´ si uno inventara matrices de Vandermonde rectangulares (donde no
                         ıa
coincidan necesariamente el n´mero de potencias y de n´meros ti ) pero siempre pidiendo que
                               u                         u
el vector t tenga entradas estrictamente crecientes.
Corolario 13.1.7. Una matriz A ∈ Gl (n) triangular inferior es TP si det A[α|1, 2, . . . , k] ≥ 0
para cada k ∈ In y cada α ∈ Qk,n .

Demostraci´n. Sea A triangular inferior. Como el rk A = n, de acuerdo al Teorema 13.1.4,
           o
basta mostrar que detA[α|β] ≥ 0, para α, β ∈ Qk,n , con d(β) = 0. Si α1 < β1 , entonces
det A[α|β] = 0 por ser A triangular inferior. Si α1 ≥ β1 , sea τ = {1, 2, . . . , β1 − 1}. Por ser
A triangular inferior, es claro que A[τ |β] ≡ 0. Entonces, por hip´tesis,
                                                                  o
                      0     ≤ det A[α ∪ τ |1, 2, . . . , βk ] = det A[α ∪ τ |β ∪ τ ]
                                                               β1 −1
                            =     det A[τ ] det A[α|β] =               aii det A[α|β].
                                                               i=1
                                                                                 r
Aplicando la hip´tesis a los conjuntos α = Ir , se obtiene que
                o                                                                     aii ≥ 0 para todo r ∈ In .
                                                                                i=1
                      n
Pero como det A =          aii = 0, se sigue que detA[α|β] ≥ 0.
                     i=1
246                                                                  Matrices totalmente positivas




La prueba del Teorema 13.1.5, combinada con el Corolario 13.1.7, genera el siguiente criterio
alternativo:
Corolario 13.1.8. Sea A ∈ Mn (R) triangular inferior. Entonces es TP si se verifica que
det A[α|1, 2, . . . , k] > 0 para cada k ∈ In y cada α ∈ Qk,n , con d(α) = 0.

Demostraci´n. Ejercicio (hace falta ver la prueba del Teorema 13.1.5).
          o
Definici´n 13.1.9. Una matriz A ∈ Mn (C) es llamada una matriz de Jacobi (o tridiagonal )
          o
si aij = 0 siempre que |i − j| > 1.
Teorema 13.1.10. Sea A ∈ Mn (R) una matriz de Jacobi. Supongamos que

   1. A    0.
   2. Para todo k ∈ In y α ∈ Qk,n tal que d(α) = 0, se tiene que det A[α] ≥ 0.
                                                                      ∗
Entonces A es TP y, para cualquier t = (t1 , t2 , . . . , tn ) ∈ R+ n ,
                                                                      n
                                det A + diag ( t )      ≥ det A +          ti .                  (13.8)
                                                                     i=1


Demostraci´n. Por inducci´n en n. La afirmaci´n es trivial para n = 1. Supongmos que el
           o               o                   o
Teorema es v´lido para n − 1 en lugar de n. Consideremos primero el caso en que det A > 0.
             a
Por el Teorema 13.1.4, tenemos que chequear

                   det A[α|β] ≥ 0 ,         para      α, β ∈ Qk,n         con     d(β) = 0.

Para k = n, esto es la hip´tesis. Para k ≤ n − 1, usaremos la hip´tesis inductiva, que asegura
                              o                                  o
que las matrices A(1) y A(n) son TP. Supongamos que 1 ∈ β. Si 1 ∈ α, entonces A[α|β]
                                                             /           /
es submatriz de A(1) y det A[α|β] ≥ 0. Si 1 ∈ α, entonces la primera fila de A[α|β] es
(a1,β1 , 0, . . . , 0). Luego

                     det A[α|β] = a1,β1 det A {α2 , . . . , αk }|{β2 , . . . , βk } ≥ 0 ,

porque la ultima matriz tambi´n vive dentro de A(1). El an´lisis es similar si 1 ∈ β, porque
           ´                  e                              a
en tal caso, como d(β) = 0, debe verificarse que n ∈ β, y puede usarse que A(n) es TP. Por
                                                   /
lo anterior, deducimos que A es TP en este caso (i.e., det A > 0).

Supongamos ahora que a11 > 0 (es f´cil ver que este caso es suficiente). Veamos que, en tal
                                        a
caso, A/{1} cumple las hip´tesis del Teorema. En efecto, es f´cil ver que A/{1} difiere de
                               o                                  a
A(1) s´lo en la entrada 2, 2 (es decir la 1,1 si la numer´ramos de corrido). Por lo tanto, dado
      o                                                  a
α ⊆ {2, . . . , n} con d(α) = 0, si 2 ∈ α entonces det (A/{1}[α]) = det (A(1)[α]) ≥ 0. Si 2 ∈ α,
                                      /
por la Eq. (12.15) se tiene que

                                                                    det A[1, 2, . . . , k]
                det (A/{1}[α]) = det (A/{1}[2, 3, . . . , k]) =                            ≥0.
                                                                           a11
13.1 Definiciones y criterios de positividad total                                                         247




La hip´tesis inductiva nos asegura que A/{1} es TP y
      o
                                                                                  n
                     det A/{1} + diag(t2 , . . . , tn )   ≥ det A/{1} +                 ti .
                                                                                  i=2

Por lo tanto, por el Teorema 12.1.4 y el hecho de que A          0, se tiene que

   det A + diag(t)       =   (a11 + t1 ) det (A + diag(t) )/{1}
                                                                      a12 a21    a12 a21
                         =   (a11 + t1 ) det A/{1} + diag(t2 +                −          , . . . , tn )
                                                                       a11      a11 + t1
                                                 n                   n
                         ≥ a11 det A/{1} +            ti = det A +         ti .
                                                i=1                  i=1

Resta ver que A es TP. Para ello basta observar que, para todo ε > 0, la matriz A + εI
tiene det(A + εI) ≥ εn > 0 y cumple las hip´tesis del Teorema (para ambas cosas se usa la
                                             o
f´rmula (13.8), que fue probada para A, y vale para los los A[α] con d(α) = 0 por la hip´tesis
 o                                                                                      o
inductiva). Luego A+εI es TP por el argumento del principio. Como estas matrices convergen
a A, ella tambi´n debe ser TP.
               e
Corolario 13.1.11. Sea A ∈ Mn (R) de Jacobi y TP. Entonces, dado t ∈ Rn , se tiene que
                                                                      +
A + diag (t) es tambi´n TP.
                     e

Demostraci´n. Se sigue del Teorema 13.1.10, aplicado a las submatrices principales, que
            o
A + diag (t) es una matriz de Jacobi positiva con menores principales no negativos.
Corolario 13.1.12. Sea A ∈ Mn (R) de Jacobi tal que A                 0. Entonces exite ξ ∈ R tal que
ξ I + A es TP.

Demostraci´n. Ejercicio.
          o

Conclu´
      ımos esta secci´n con un teorema de aproximaci´n de una matriz TP con otras ETPs.
                     o                              o
Teorema 13.1.13. Toda matriz ε-RS puede ser aproximadada arbitrariamente cerca por
matrices ε-ERS con la misma signatura. En particular, toda matriz TP puede ser aproximada
arbitrariamente cerca por matrices estrictamente TPs.

Demostraci´n. Sea A ∈ Mn,m una matriz ε-RS. Podemos asumir que n = m, considerando
             o
           0
[A, 0] o [ A ] si es necesario. Como veremos en la Secci´n 8, existe una sucesi´n {Gp } de
                                                        o                      o
matrices n-cuadradas ETPs tales que Gp − − In . Ahora procedamos por inducci´n hacia
                                          −→                                      o
                                               p→∞
atr´s en k = rk A. Notemos que la Eq. (7.17) implica
   a

     εi · Λi (Gp AGp ) > 0    si    i ≤ rk A     y    Λi (Gp AGp ) = 0       si          i > rk A .   (13.9)

Esto se deduce de que, dadas matrices X, Y, Z ∈ Mn (R) tales que X > 0, Z > 0 pero
0 = Y 0, entonces XY Z > 0. Cuando rk A = n, la afirmaci´n se sigue inmediatamente
                                                           o
248                                                             Matrices totalmente positivas




de la Eq. (13.9). Asumamos que la afirmaci´n es cierta para todas las matrices regulares de
                                           o
signo de rango k +1. Si rk A = k, tomemos un p para el que B := Gp AGp est´ suficientemente
                                                                            a
cerca de A. De acuerdo a las ecuaciones (13.9) y (7.19), B tiene la propiedad

                         εi det B[α|β] > 0    para    α, β ∈ Qi,n i ∈ Ik .                     (13.10)

Sea
                        m´ | det B[α|β]| : α, β ∈ Qi,n
                          ın
           δ = m´
                ın                                          ,    donde        det B[∅] = 1 .
              1≤i≤k    m´x | det B[ω|τ ]| : ω, τ ∈ Qi−1,n
                        a
Fijemos 0 < t < δ y consideremos la matriz C = B + tεk εk+1 E11 . Dados α , β ∈ Qr,n ,
desarrollando por la primera columna, se tiene que

           det C[α|β] = det B[α|β] + tεk εk+1 det B[α  {1}|β  {1}]     si      1∈α∩β ,

                          y    det C[α|β] = det B[α|β]      en otro caso .
Para ver que C es ε-RS se consideran tres casos: submatrices de tama˜os r ≤ k (ah´ se usa
                                                                       n             ı
que t < δ y el sumando extra no puede cambiar signos), r > k + 1 (ah´ da todo cero porque
                                                                       ı
rkB = rkA = k) o r = k + 1. Por ejemplo, tomando α , β ∈ Qk+1,n tales que 1 ∈ α ∩ β, se ve
que εk+1 det C[α|β] > 0, porque det B[α|β] = 0 pero εk det B[α  {1}|β  {1}] > 0, por la Eq.
(13.10). En particular, esto muestra que rk C = k + 1. Para t chicos, C est´ suficientemente
                                                                           a
cerca de B, y por lo tanto de A. Ahora, por hip´tesis inductiva C puede ser aproximada
                                                  o
arbitrariamente cerca por matrices estrictamente regulares de signo con signatura ε. Esto
completa la inducci´n.
                   o


13.2        Permanencia de la positividad total
Esta secci´n est´ dedicada a m´todos can´nicos de producci´n de matrices TP nuevas a partir
          o     a             e          o                 o
de otras dadas. Es claro que si A es de ε-RS, tambi´n lo es su adjunta A∗ = AT .
                                                   e

Teorema 13.2.1. Si A ∈ Mn,m (R) es εA -RS y B ∈ Mm,l (R) es εB -RS, entonces:

  1. El producto AB es ε-RS, con ε = εA · εB .

  2. En este caso, AB se convierte en ε-ERS si

        (a) A es εA -ERS y rk B = l, o si
        (b) rk A = n y B es εB -ERS.

  3. Si A y B son ETP, tambien lo es AB.

Demostraci´n. Los ´
          o       ıtems 1 y 3 son consecuencia inmediata de las ecuaciones (7.17) o (12.1)
(Cauchy-Binnet). El ´
                    ıtem 2 se deduce de los siguientes hechos:

      * Si C > 0 y D    0 no tiene columnas nulas (y se puede multiplicar), entonces CD > 0.
13.2 Permanencia de la positividad total                                                        249




   * Si rk B = l, las columnas de B son LI. Luego para todo k ≤ l y todo β ∈ Qk,l , se tiene
     que rk B[−|β] = k, por lo que debe existir un α ∈ Qk,m tal que det A[α|β] = 0.

La suma de dos matrices TPs no es en general TP. Por lo tanto, es poco com´n que una
                                                                            u
matriz A ∈ Mn (R) genere un semigrupo TP de un par´metro. Esto significar´ que etA sea
                                                      a                  ıa
TP para todo t > 0. La excepci´n la dan las matrices de Jacobi TP:
                              o
Teorema 13.2.2. Sea A ∈ Mn (R). Son equivalentes:

  1. etA es TP para todo t > 0.
  2. A = ξI + B para alg´n ξ ∈ R y una matriz B ∈ Mn (R) que es de Jacobi y TP.
                        u

Demostraci´n. Supongamos primero que A es de la forma mencionada. Entonces, como
          o
                                                                    p
                                                               tB
                               etA = eξt etB = eξt lim    I+            ,
                                                   p→∞          p

por la Eq. (9.41), la positividad total de etA resulta del Teorema 13.2.1, ya que B es una
                                       t
matriz de Jacobi y es TP, as´ que I + p B sigue siendo TP por el Corolario 13.1.11.
                             ı

Supongamos rec´ıprocamente que etA es TP para todo t > 0. Por el Corolario 13.1.12, basta
mostrar que A es una matriz real de Jacobi con elementos no negativos fuera de la diagonal.
                                      tk A k
Usando el desarrollo en serie etA =     k!   , es f´cil ver que
                                                   a
                                       k∈N

                    etA − I                                       I + tA − etA
       A = lim                 o equivalentemente que       lim                =0.           (13.11)
             t→0       t                                    t→0         t
Como etA 0, esto muestra que todas las entradas no diagonales de A son no negativas.
Veamos que aij = 0 si |i − j| > 1. Por ejemplo, si i + 1 < j, entonces

                       det etA [i, i + 1|i + 1, j] ≥ 0    para todo         t>0,

lo que, v´ la Eq. (13.11), implica que
         ıa
                   I + tA
  0 ≤ lim det             i, i + 1|i + 1, j = lim {tai,i+1 ai+1,j − (1 + tai+1,i+1 )aij } = −aij .
       t→0            t                       t→0

El caso j + 1 < i es an´logo. Luego A es de Jacobi y ρI + A
                       a                                                    0 para alg´n ρ ∈ R. Para
                                                                                      u
encontrar una B que sea TP, basta usar el Corolario 13.1.12.
Teorema 13.2.3. Sea A ∈ Mn,m (R) ε-RS. Sean α ∈ Qk,n y β ∈ Qk,m . Entonces,

  1. A[α|β] es ε-RS.
  2. Si n = m, d(α) = 0 y A(α) ∈ Gl (n − k), entonces A/α es εα -RS, donde la sucesi´n de
                                                                                    o
     signos εα = (εn−k εn−k+i )i∈Ik .
250                                                             Matrices totalmente positivas




  3. Si n = m y A es inversible, entonces A# = Jn A−1 Jn es εJ -RS, donde εJ = (εn εn−i )i∈N ,
     con la convenci´n de que εj = 1 si j ≤ 0.
                    o

  4. En particular, si A es TP, tambi´n lo ser´n A[α|β], A/α y Jn A−1 Jn .
                                     e        a

Adem´s, los mismos resultados valen reemplazando “regular de signo” por “estrictamente
      a
regular de signo” (o TP por ETP) en todos los casos.

Demostraci´n. Fijemos ω, τ ∈ Qp,n tales que τ ⊆ β , ω ⊆ α.
          o

  1. Es trivial, ya que

                     εp det A[α|β][ω|τ ] = εp det A[ω|τ ] ≥ 0      (resp. > 0)   .

  2. Supongamos ahora que τ ⊆ α. Se sigue de la la Eq. (12.15) que

                                        α          α     det A[α ∪ ω|α ∪ τ ]
               det A/α [ω|τ ] = sgn         · sgn      ·                     .
                                       α ∪ω       α ∪τ        det A[α ]

      Notar que det A[α ∪ ω|α ∪ τ ] tiene signo εn−k+p y detA(α) tiene signo εn−k . Pero
      como d(α) = 0, se ve f´cilmente que sgn(α /α ∪ ω) = sgn(α /α ∪ τ ) (ambos dependen
                            a
      s´lo de cuantos elementos de α est´n despu´s del bloque α).
       o                                a        e

  3. Observar que εn det A > 0 y, por la Eq. (12.11), tenemos que

                                                         det A(β|α)
                               det Jn A−1 Jn [α|β] =                ,
                                                           det A
      donde εn−k det A(β|α) = εn−k det A[β |α ] ≥ 0 (resp > 0).

Las ultimas afirmaciones se deducen de lo anterior.
    ´

En lo que sigue, se usar´ varias veces el Corolario 12.2.6, cuya f´rmula repasaremos para
                         a                                        o
comodidad del lector: Sea A ∈ Mn (R) y sea r ∈ In tal que Arr = 0. Entonces, para todo
α ∈ Qk,n tal que r ∈ α, se tiene que
                   /

                                (A/[r])[α] = A[{r} ∪ α]/[r] .                          (13.12)


Proposici´n 13.2.4 (Pinching). Sea B ∈ Mm (R) una matriz TP. Entonces
         o

                   det B ≤ det B[Ik ] det B(Ik )    para todo      k ∈ Im−1 .          (13.13)

Demostraci´n. Probaremos la Eq. (13.13) por inducci´n en m. Para m = 2, tenemos que
          o                                        o

               b12 ≥ 0    y   b21 ≥ 0 =⇒ det B = b11 b22 − b12 b21 ≤ b11 b22 .
13.2 Permanencia de la positividad total                                                          251




Asumamos que la afirmaci´n es cierta para todos los casos de orden menor que m. Asumamos
                         o
que k > 1 y que b11 > 0. Por la Eq. (12.5) se tiene que

   det B[Ik ] det B(Ik ) = b11 det B[Ik ]/{1} det B(Ik ) = b11 det B/{1}[2, . . . , k] det B(Ik ) ,

donde la ultima igualdad se deduce de la Eq. (13.12), que dec´ que
         ´                                                   ıa

                 B/{1}[α] = B[{1} ∪ α]/{1}         para todo α tal que 1 ∈ α
                                                                         /          .

Como la matriz B[1, k+1, k+2, . . . , m] es de orden menor que m y es TP, la hip´tesis inductiva
                                                                                o
nos asegura que

                     b11 det B(Ik ) ≥ det B[1, k + 1, k + 2, . . . , m]
                                     = b11 det B[1, k + 1, k + 2, . . . m]/{1}
                                     = b11 det B/{1}(Ik ) ,

Usando nuevamente la hip´tesis inductiva en la matriz B/{1} que es de orden m − 1, y es TP
                          o
por el Teorema 13.2.3, obtenemos

        det B[Ik ] det B(Ik )   =   b11 det B/{1}[2, . . . , k]   det B(Ik )

                                ≥   b11 det B/{1}[2, . . . , k]   det B/{1}(Ik )

                                ≥   b11 det B/{1}[2, . . . , m] = b11 det B/{1} = det B .

Si k = 1, asumiendo ahora que bmm > 0, tenemos que

         det B = bmm det(B/{m}) ≤ bmm det(B/{m}[1]) det(B/{m}[2, . . . , m − 1])

                                 b1m bm1
Ahora, det(B/{m}[1]) = b11 −             ≤ b11 por ser B 0. Adem´s, por la Eq. (13.12),
                                                                       a
                                   bmm
tenemos que B/{m}[2, . . . , m − 1] = B[2, . . . , m]/{m} = B(1)/{m} . As´
                                                                         ı,

             det B    ≤ b11 bmm det B(1)/{m} = b11 det B(1) = det B[1] det B(1) .

Los casos en que b11 = 0 o bmm = 0 se pueden anlizar a mano (mostrando que en tal caso
                                                                           1
det B = 0 por tener una fila o columna nula) o bien cambiando b11 por b11 + n (con lo que B
sigue siendo TP) y tomando l´ımite.
Corolario 13.2.5. Si A ∈ Gl (n) es TP, entonces

                 det A[α] > 0       para cada     k ∈ In     y cada      α ∈ Qk,n .           (13.14)

En particular, en este caso siempre existen los complementos de Schur A/[α].

Demostraci´n. Por inducci´n en n. El caso n = 1 es trivial. Asumamos que la afirmaci´n
            o               o                                                             o
vale para n − 1. Por la Proposici´n 13.2.4, tenemos que 0 < det A ≤ a11 det A(1). Luego A(1)
                                 o
252                                                                     Matrices totalmente positivas




es TP e inversible y a11 > 0. Si α1 > 1, entonces α ⊆ In  {1} y la desigualdad det A[α] > 0
se sigue de la hip´tesis inductiva aplicada a A(1). Si α1 = 1, la Eq. (13.12) aplicada a α  {1}
                  o
con r = 1, muestra que

                     det A[α] = a11 det A[α]/{1} = a11 det A/{1}[α  {1}] .

Entonces la desigualdad detA[α] > 0 se deduce de la hip´tesis inductiva aplicada a A/{1},
                                                          o
que es inversible por el Teorema 12.1.4 y es TP por el Teorema 13.2.3.


13.3      Factorizaciones LU y UL

Una factorizaci´n A = BC es llamada una LU -factorizaci´n (resp, U L-factorizaci´n) si B
                o                                            o                  o
(resp. C) es triangular inferior y C (resp. B) es triangular superior.

Teorema 13.3.1. Sea A ∈ Mn,m (R) TP con n ≥ m. Entonces A admite una LU -factoriza-
  o                                 o      ˜ ˜
ci´n A = AL AU y una U L-factorizaci´n A = AL AU , donde las matrices triangulares AL ∈
        ˜U ∈ Mm (R) y AU , AL ∈ Mn,m (R) son todas TPs.
Mn (R), A                   ˜

Para demostrar el Teorema necesitamos dos largos Lemas t´cnicos: Para ellos necesitaremos
                                                             e
una notaci´n nueva: Dados x1 , . . . , xm ∈ Rn , denotaremos por X = [x1 , . . . , xm ] ∈ Mnm (R)
          o
a la matriz cuyas columnas est´n dadas por Ci (X) = xi , para todo i ∈ Im .
                              a

Lema 13.3.2. Sea A = (aij )i,j∈In = [a1 , . . . , an ] ∈ Mn (R) una matriz TP. Si a1k = 0,
entonces tambi´n es TP la matriz B = [b1 , . . . , bn ] ∈ Mn (R) definida por
              e
                                                                 a1i
              bi = ai      si      i ∈ Ik    y    bi = ai −          ak ,   si      i ∈ In  Ik .
                                                                 a1k

Demostraci´n. Por el Teorema 13.1.13 podemos asumir que detA > 0. Como obviamente
           o
det A = det B, de acuerdo al Teorema 13.1.4 basta mostrar que

                         bi ∧ bi+1 ∧ · · · ∧ bj     0     para       1 ≤ i ≤ j ≤ n,                 (13.15)

i.e., la positividad para los α tales que d(α) = 0. Si j ≤ k o i ≤ k ≤ j, entonces

                                bi ∧ bi+1 ∧ · · · ∧ bj = ai ∧ ai+1 ∧ · · · ∧ aj ,

y la Eq. (13.15) es v´lida porque A es TP. Si k < i, consideremos la matriz
                     a

                            C = [ak , ak+1 , . . . , an , 0, . . . , 0] ∈ Mn (R) ,

que es TP, por serlo A. Se ve f´cilmente de la definici´n de C/{1} que
                               a                      o

                                                                     0
               M = [bk+1 , bk+2 , . . . , bn , 0, . . . , 0] =              ∈ Mn, n−1 (R) .
                                                                   C/{1}
13.3 Factorizaciones LU y UL                                                                                           253




En efecto, observar que todas las primeras coordenadas de los bj (j ∈ In  Ik ) son nulas, por
lo que la primera fila va bien. Si j ∈ In−k e i ∈ In−1 , entonces
                               ci+1 , 1 c1 , j+1                       a1 , k+j
(C/{1})ij = ci+1 , j+1 −                         = ai+1 ,    k+j   −            ai+1 ,      k   = bk+j   i+1
                                                                                                               = Mi+1 , j .
                                      c11                               a1 , k
En los dem´s casos, debe ser (C/{1})ij = 0 (y la otra tambi´n). Ahora la ecuaci´n (13.15) se
           a                                               e                   o
deduce de la positividad total de C/{1} y de M , garantizada por el Teorema 13.2.3
Lema 13.3.3. Sea A ∈ Mn (R) una matriz TP. Entonces existen C y S ∈ Mn (R), ambas
TP, tales que C[1, 1) ≡ 0 (i.e., F1 (C) = c11 e1 ), S es triangular superior y A = CS.

Demostraci´n. Para cada j ∈ In−1 , consederemos la matriz
          o
                                                                            Ij−1       0
        Tj := [e1 , e2 , . . . , ej−1 , 0, ej , ej+1 , . . . , en−1 ] =                             ∈ Mn (R) ,
                                                                              0      Nn−j+1
donde Nn−j+1 ∈ Mn−j+1 (R) es el bloque de Jordan con los unos arriba (Jacobi nos rob´o
la J). Observar que T1 = Nn el bloque de Jordan tutti. Cada Tj es una matriz de Jacobi
positiva y triangular superior. Luego las Tj son TP por el Teorema 13.1.10.

Estas matrices nos permitir´n “correr” hacia la izquierda las columnas no nulas de A. Si
                             a
a1 = a2 = . . . = ak−1 = 0 pero ak = 0, entonces
                                                                                k−1
                                   A = [ak , ak+1 , . . . , an , 0, . . . , 0] T1 ,
y la matriz A1 = [ak , ak+1 , . . . , an , 0, . . . , 0] es TP. Si seguimos sin columnas nulas hasta ak+p
y ak+p+r es la primera columna no nula de las que quedan, como antes obtenemos que
                                                                                                  r−1
                     [ak+p+1 , . . . , an , 0, . . . , 0] = [ak+p+r , . . . , an , 0, . . . , 0] T1
o, mirando como dan las cuentas,
                                                                                         r−1
                          A1 = [ak , . . . , ak+p , ak+p+r , . . . , an , 0, . . . , 0] Tp+2 .
Es decir,
                                                                                     r−1  k−1
                       A = [ak , . . . , ak+p , ak+p+r , . . . , an , 0, . . . , 0] Tp+2 T1   .
                                         r−1   k−1
Observar que todo queda TP, y Tp+2 T1              es triangular superior. Aplicando entonces este
procedimiento finitas veces, obtenemos que A = BT , donde T triangular superior y TP y
B = [b1 , b2 , . . . , bn ] es una matriz TP tal que bi = 0 implica que bj = 0, para j > i . Si
B[1|1) = 0, tomemos el mayor i para el cual b1i = 0. Afirmamos que b1,i−1 = 0. En efecto, si
b1,i−1 = 0, para todo j ∈ In , tendr´    ıamos
                      det B[1, j|i − 1, i] = b1i−1 bji − b1i bji−1 = −b1i bji−1 ≥ 0 ,
lo que implicar´ que todos los bj,i−1 = 0, o sea bi−1 = 0, lo que contradice que bi = 0.
               ıa
Entonces B admite una factorizaci´n B = DU1 , donde
                                 o
                                                         b1,i
                       D := [b1 , . . . , bi−1 , bi −          bi−1 , bi+1 , . . . , bn ]       y
                                                        b1,i−1
254                                                                       Matrices totalmente positivas



                                                   b1,i
                     U1 := [e1 , . . . , ei−1 ,            ei−1 + ei , ei+1 , . . . , en ] .
                                                  b1,i−1
Notemos que ahora D1i = 0. Por otro lado, U1 es una matriz de Jacobi positiva, triangular
superior, y por lo tanto TP por el Teorema 13.1.10. La positividad total de D se sigue del
Lema 13.3.2, porque, como b1,j = 0 si j > i, entonces

                               b1,j
                  bj = bj −          bi−1 ,             para     j = i + 1, i + 2, . . . , n .
                              b1,i−1

Repitiendo este procedimiento, llegamos a una factorizaci´in B = CUp Up−1 · · · U1 , donde
                                                           o
cada Ui es triangular superior y TP mientras que C es una matriz TP tal que C[1|1) = 0,
como se buscaba. Ahora basta tomar S = Up Up−1 · · · U1 T que es como se ped´
                                                                            ıa.

Demostraci´n del Teorema 13.3.1: Considerando la matriz [A, 0] ∈ Mn (R), podemos
             o
confinar la prueba al caso n = m. Adem´s, usando conversiones, basta tratar s´lo la factor-
                                         a                                     o
izaci´n LU . Cuando n = 1, es trivial. Asumamos que la afirmaci´n es cierta para n − 1 en
     o                                                            o
lugar de n. Para conseguir hacer el paso inductivo, alcanzar´ con probar que existen R, F y
                                                            ıa
S ∈ Mn (R), todas TP, con S es triangular superior, R es triangular inferior y

                               f11       0
                      F =                           ,      tales que       A = RF S ,
                                0      F (1)

porque en tal caso se factoriza F (1) por hip´tesis inductiva, y se agrandan las matrices
                                                o
triangulares (y TP) de Mn−1 (R) obtenidas, poni´ndoles (f11 )1/2 en el lugar 1, 1. Recordar
                                                  e
que producto de triangulares es triangular, y lo mismo con TPs (por el Teorema 13.2.1).

Pero por el Lema 13.3.3, existen S como antes y C ∈ Mn (R) tal que C es TP, C[1|1) ≡ 0
y A = CS. Y por el mismo Lema, existen R como arriba y F ∈ Mn (R) tal que F es TP,
F (1|1] ≡ 0 y C T = F T RT . Observar que multiplicar por una triangular superior a derecha,
solo cambia a la primera columna multiplic´ndola por un escalar, asi que F hereda lo bueno
                                           a
que ten´ C (ceros en la primera fila) pero gana ceros en la primera columna, quedando como
        ıa
quer´ıamos.
Corolario 13.3.4. Toda A ∈ Gl (n) triangular superior (inferior) y TP es producto de un
cierto n´mero de matrices de Jacobi triangulares superiores (inferiores) y TPs.
        u

Demostraci´n. Por inducci´n en n. El caso n = 1 es trivial. Asumamos que la afirmaci´n
            o                o                                                             o
es cierta para n − 1, y sea A ∈ Gl (n) triangular superior (inferior) y TP. Por el Lema 13.3.3
(y su prueba), tenemos una factorizaci´n A = DS con S un producto de matrices de Jacobi
                                        o
triangulares superiores, todas ellas TP, y D tambi´n TP, con D[1, 1) ≡ 0. Pero como A es
                                                    e
triangular superior, tambi´n se da que D(1, 1] ≡ 0. Luego
                           e

                                                    d11         0
                                         D=
                                                     0         D(1)

y D(1) ∈ Gl (n − 1) es totalmente positva y triangular superior. Por hip´tesis inductiva
                                                                           o
                ˆ ˆ        ˆ
tenemos D(1) = W1 W2 · · · Ws para algunas matrices de Jacobi TPs y triangulares superiores
13.3 Factorizaciones LU y UL                                                                                              255



ˆ
Wi ∈ Gl (n − 1), i ∈ Is . Sean

                                                   1/2
                                               d11        0
                                      Wi =                ˆi          ,       i ∈ Is .
                                                0         W

Entonces A = W1 W2 · · · Ws S es una factorizaci´n como la buscada.
                                                o

Definici´n 13.3.5. Adem´s de la relaci´n de orden usual A
       o              a              o                                                   B entre matrices en Mn (R),
                                                               t
introduzcamos una m´s fuerte: Diremos que A B si Λk A Λk B para todo k ∈ N. En otras
                    a
palabras, si
               det A[α|β] ≥ det B[α|β] para todo k ∈ In y α, β ∈ Qk,n .      (13.16)
                           t
En esta notaci´n, A
              o                0 significa que A es TP.
                                                                          t                                    t
Observaci´n 13.3.6. Es claro que la relaci´n A
         o                                o                                   B implica que A[α|β]                 B[α|β] para
                                                               t
cualquier par α, β ∈ Qk,n , pero no que A − B                      0, como puede verse con las matrices

                                           2   1                               1   0
                                    A=                     y        B=                   .
                                           1   1                               0   1
             t       t                             t                                         t
Tampoco A        B       0 implica que A/{1}           B/{1} o que Jn B −1 Jn                    Jn A−1 Jn .

Teorema 13.3.7. Si A ∈ Mn (R) es TP, y α = Ik o α = {k, k + 1, . . . , n}, entonces, si A(α)
es inversible, se cumple que
                                                          t
                                                   A[α]        A/α .                                                   (13.17)

Demostraci´n. Prueba para el caso α = Ik : Fijemos ω, τ ∈ Ql,n tales que ω ⊆ α y τ ⊆ α.
          o
     ıamos probar que det A[α] [ω|τ ] ≥ det A/α [ω|τ ]. Observar que la Eq. (12.15) nos dice
Deber´
que
                                             A[α ∪ ω|α ∪ τ ]
                          det A/α [ω|τ ] =                    ,
                                                 det A(α)
porque los dos signos que intervienen en la Eq. (12.15) son iguales en este caso, por ser α
quien es. Por lo tanto, bastar´ probar que
                              ıa

         det A[ω ∪ α |τ ∪ α ] ≤ det A[α] [ω|τ ] · det A(α) = det A[ω|τ ] · det A(α) .

Consideremos A[ω ∪ α |τ ∪ α ] ∈ Mn−k+l (R) con su numeraci´n de corrido en In−k+l . Como
                                                          o
ω, τ ⊆ α = Ik , entonces

  A[ω|τ ] = A[α ∪ ω|α ∪ τ ] [1, . . . , l]         y      A(α) = A[α ∪ ω|α ∪ τ ] [l + 1, . . . , n − k + l] ,

y el resultado se deduce de la Proposici´n 13.2.4.
                                        o

Las factorizaciones LU y U L en el Teorema 13.3.1 dan lugar a otras desigualdades.
256                                                                  Matrices totalmente positivas




Teorema 13.3.8. Si A ∈ Mn (R) es TP, y α = Ik o α = In  Ik , entonces, si A(α) es
inversible,
                                                            t
                                           A[α] − A/α           0                                      (13.18)

Demostraci´n. Prueba para el caso α = In  Ik = {k + 1, k + 2, . . . , n}: Sea A = AL AU una
            o
factorizaci´n LU con AL y AU TP, garantizada por el Teorema 13.3.1. Entonces, por las
           o
propiedades de AL y AU , se tiene que A(α) = AL (α)AU (α) (por lo que ambas submatrices
son inversibles), A(α|α] = AL (α)AU (α|α] y A[α|α) = AL [α|α)AU (α). Por lo tanto,
                A[α] − A/α     = A[α|α)A(α)−1 A(α|α]
                               = AL [α|α)AU (α)(AL (α)AU (α))−1 AL (α)AU (α|α]
                               = AL [α|α)AU (α|α].
Como AL [α|α) y AU (α|α] son TPs, tambi´n lo es su producto AL [α|α)AU (α|α]. La prueba
                                          e
para el caso α = Ik se hace usando una factoriaci´n U L.
                                                 o


13.4      Matrices oscilatorias
Una matriz A ∈ Mn (R) se dice oscilatoria (abreviaremos OSC) si es TP y una cierta potencia
Ap es ETP. Las OSC juegan el rol de las primitivas en el Cap´    ıtulo 11. En esta secci´no
presentaremos un criterio simple para que una matriz TP sea OSC. Observemos que una
matriz OSC es inversible, y su adjunta es tambi´n OSC. por lo tanto, por el Corolario 13.2.5,
                                               e
si A ∈ Mn (R) es OSC, entonces se tiene que det A[α] > 0 para todo α ∈ Qk,n .
Teorema 13.4.1. Sea A ∈ Mn (R) una matriz OSC. Entonces

  1. A# = Jn A−1 Jn es OSC.
  2. A[α] y A/α son OSC’s para cada α ∈ Qk,n tal que d(α) = 0.

Demostraci´n. Supongamos que A es TP y Ap es ETP.
          o

  1. El Teorema 13.2.3 asegura que Jn A−1 Jn es TP y que (Jn A−1 Jn )p = Jn (Ap )−1 Jn es
     ETP. As´ Jn A−1 Jn es OSC.
             ı,
  2. Probemos primero que A[α] es OSC para el caso α = In−1 . Sea B = A[In−1 ] = A(n).
     Tomemos β, τ ∈ Qk,n−1 , y sean µ = β ∪ {n} y ν = τ ∪ {n}. Por la f´rmula de Cauchy-
                                                                          o
     Binnet (12.1), el hecho de que det Ap [µ|ν] > 0 implica que existe una sucesi´n
                                                                                  o
                                                                             p
                p
        ω (i)   i=0
                      en Qk+1,n tal que ω 0 = µ, ω (p) = ν ,           y          det A[ω (i−1) |ω (i) ] > 0 .
                                                                            i=1

      Llamemos ω (i) ∈ Qk,n−1 a la k-upla obtenida eliminando la ultima componente de ω (i) .
                ˜                                                   ´
      Como A[ω (i−1) |ω (i) ] es TP con determinante positivo, por la Eq. (13.13) se tiene que
                             det B[˜ (i−1) |˜ (i) ] > 0 ,
                                   ω        ω                   para todo   i ∈ Ip .
13.4 Matrices oscilatorias                                                                            257




     Entonces, nuevamente por la positividad total de B y la Eq. (12.1),
                                                     p
                                 det B p [β|τ ] ≥         det B[˜ (i−1) |˜ (i) ] > 0 ,
                                                                ω        ω
                                                    i=1

     lo que prueba que B p es ETP. El caso A[2, 3, . . . , n] se trata de manera an´loga. El
                                                                                   a
     resto de los casos (α ∈ Qk,n con k < n − 1 y d(α) = 0) ahora se pueden probar por
     inducci´n en n, dado que α ⊆ In−1 o α ⊆ In  {1}.
            o
     Veamos que A/α es OSC: Observar que Jn A−1 Jn [α] = Jk A−1 [α]Jk , dado que d(α) = 0
     (puede aparecer un −Jk , pero se cancela). Por los casos anteriores, sabemos que

                  Jn A−1 Jn es OSC          =⇒           Jk A−1 [α]Jk = Jn A−1 Jn [α] es OSC


                                            =⇒           (A−1 [α])−1 es OSC .

     Pero la Eq. (12.6) dice que A/α = (A−1 [α])−1 .

Lo siguiente da un criterio para la “oscilatoriedad”.
Teorema 13.4.2. Sea A = (aij )i,j∈ In ∈ Mn (R) una matriz TP. Entonces

 A es OSC     ⇐⇒ A ∈ Gl (n) , ai, i+1 > 0                 y    ai+1, i > 0 , para todo i ∈ In−1 . (13.19)

Demostraci´n. Supongamos que A es OSC. Por el Teorema 13.4.1,
          o

                                                            ai, i     ai, i+1
                              B := A[i, i + 1] =
                                                           ai+1, i   ai+1, i+1

debe ser OSC. Luego B p > 0 para alg´n p. Pero esto es posible s´lo cuando ai,i+1 > 0
                                       u                           o
y ai+1,i > 0, ya que si alguno de los dos se anulara, entonces B y todas sus potencias
ser´ triangulares. La otra implicaci´n ser´ probada como consecuencia de un resultado m´s
   ıan                              o     a                                            a
general, hacia el fin de la secci´n.
                                o
Corolario 13.4.3. Sean A, B ∈ Mn (R), ambas TP. Si A es OSC y B es inversible, entonces
AB y BA son OSC.

Demostraci´n. Observar que A ∈ Gl (n), por se OSC. Luego AB y BA ∈ Gl (n). Adem´s,
          o                                                                               a
como B es inversible y TP, entonces bii > 0 para todo i ∈ In (Corolario 13.2.5). Por lo tanto
AB y BA satisfacen la condici´n (13.19), ya que
                              o
                        n
         (AB)i, i+1 =         ai, j bj, i+1 ≥ ai, i+1 bi+1 , i+1 > 0       para todo     i ∈ In−1 .
                        j=1

La prueba para (AB)i+1 , i y las entradas correspondientes de BA es an´loga.
                                                                      a

El siguiente teorema presenta una extensi´n de la condici´n (13.19) para matrices OSCs.
                                         o               o
258                                                                      Matrices totalmente positivas




Proposici´n 13.4.4. Supongamos que A ∈ Gl (n) y es TP. Si A satisface la Eq. (13.19),
          o
entonces det A[α|β] > 0 para cada par α, β ∈ Qk,n tal que

      |αi − βi | ≤ 1     y     m´x {αi , βi } < m´ {αi+1 , βi+1 }
                                a                ın                          para todo          i ∈ Ik ,         (13.20)

donde usamos la convenci´n αk+1 = βk+1 = n + 1.
                        o

Demostraci´n. Haremos la prueba por inducci´n en k. El caso k = 1 se sigue del Corolario
            o                                      o
13.2.5 (si α = β) y la suposici´n (13.19). Fijemos k > 1, y supongamos que la afirmaci´n
                               o                                                            o
es cierta para cada par en Qk−1,n que satisface las hip´tesis. Tomemos un par α, β ∈ Qk,n
                                                             o
que cumpla la Eq. (13.20). Si d(α) = d(β) = 0, entoces la Eq. (13.20) impica que α = β.
Luego det A[α|β] = det A[α|α] > 0, nuevamente por el Corolario 13.2.5. Ahora, asumiendo
que d(β) > 0, sea B = A[α|β] = [bβ1 , bβ2 , . . . bβk ], donde cada bβi ∈ Rα ∼ Rk . Supongamos
                                                                             =
que det B = 0. En principio, por la hip´tesis inductiva, sabemos que
                                       o

        det B[α1 , . . . , αk−1 |β1 , . . . , βk−1 ] > 0   y    det B[α2 , . . . , αk |β2 , . . . , βk ] > 0 .

Junto con la positividad total de B, esto implica que

            0 = bβ1 ∧ bβ2 ∧ . . . ∧ bβk−1       0    y     0 = bβ2 ∧ bβ3 ∧ . . . ∧ bβk      0.                   (13.21)

Entonces el hecho de que det B = 0 garantiza que bβk ∈ Gen {bβi : i ∈ Ik−1 }, y adem´s
                                                                                    a
                               k−1
                       bβk =         ξi bβi     para ciertos ξi ∈ R , donde ξ1 = 0                               (13.22)
                               i=1

(sin´ {bβi : i ∈ Ik  {1} } ser´ LD). Sustituyamos bβk en la Eq. (13.21) para obetener
    o                          ıa

                                 (−1)k−2 ξ1 bβ1 ∧ bβ2 ∧ · · · ∧ bβk−1          0.                                (13.23)

Como d(β) > 0, el conjunto ordenado γ := {j ∈ β : β1 < j < βk } es no vac´ Mostremos
                                                  /                           ıo.
que, para cada j ∈ γ, la α-proyecci´n bj de Cj (A) cumple que bj ∈ Gen bβ1 , bβ2 , . . . , bβk−1 .
                                   o
Es decir que
                               bj ∧ bβ1 ∧ bβ2 ∧ . . . ∧ bβk−1 = 0                          (13.24)
Para esto, tomemos i tal que βi < j < βi+1 . Entonces, como A[α|β ∪ {j}] es TP,

 bβ1 . . . ∧ bβi ∧ bj ∧ bβi+1 ∧ . . . ∧ bβk−1    0    y    bβ2 . . . ∧ bβi ∧ bj ∧ bβi+1 ∧ . . . ∧ bβk      0. (13.25)

Ahora sustituyamos la expresi´n (13.22) para bβk en la Eq. (13.25) para obtener
                             o

                       (−1)k−1 ξ1 bβ1 ∧ . . . ∧ bβi ∧ bj ∧ bβi+1 ∧ . . . ∧ bβk−1           0.                    (13.26)

es claro que las ecuaciones (13.21) y (13.23) versus (13.25) y (13.26) son consistentes s´lo si
                                                                                         o
la igualdad se da en la Eq. (13.26). Pero como ξ1 = 0, solo queda que la Eq. (13.24) sea
v´lida. El argumento muestra que rk A[α|β ∪ γ] = k − 1. Si lo que pasaba era que d(α) > 0,
 a
consideremos el conjunto ordenado τ := {i ∈ α : α1 < i < αk }. El argumento anterior,
                                               /
aplicado a los vectores filas (o a AT ), dice que rkA[α ∪ τ |β ∪ γ] = k − 1.
13.4 Matrices oscilatorias                                                                                  259




Por ultimo, se sigue de la Eq. (13.20) y de que d(β) > 0 o d(α) > 0, que existe alg´n ω ∈ Qk,n
     ´                                                                             u
tal que d(ω) = 0, ω ⊆ α ∪ τ , y ω ⊆ β ∪ γ. Pero, como rkA[α ∪ τ |β ∪ γ] = k − 1, se debe
cumplir que det A[ω] = 0, lo que contradice al Corolario 13.2.5. Esto completa la prueba en
todos los casos.

La “ida” del Teorema 13.4.2 se ver´ como consecuencia del siguiente resultado m´s general.
                                  a                                            a

Teorema 13.4.5. Sean A1 , . . . , Ap ∈ Mn (R), inversibles y TPs, con p ≥ n − 1. Si cada Ai
satisface la Eq. (13.19), entonces el producto A1 A2 · · · Ap es ETP.

Demostraci´n. Por el Teorema 13.1.5 basta mostrar que
          o

      det(A1 A2 · · · Ap )[α|β] > 0       para       α, β ∈ Qk,n       tales que      d(α) = d(β) = 0 .

Asumamos que β1 ≥ α1 y sea ω (0) = α. Definamos ω (l) ∈ Qk,n , para l ∈ Ip−1 , como

                          (l)
                     ωi = m´
                           ın           βi , αi + m´x {l + i − k, 0}
                                                   a                          ,   i ∈ Ik .

Es f´cil ver que ω (p) = β y que cada par ω (l−1) , ω (l) satisface la Eq. (13.20). Usando la
    a
Proposici´n 13.4.4, podemos deducir que det Al [ω (l−1) |ω (l) ] > 0, para todo l ∈ Ip . Por lo
          o
tanto, se sigue de la Eq. (12.1) (Cahuchy-Binnet) y la positividad total que
                                                         p
                     det(A1 A2 · · · Ap )[α|β] ≥              det Al [ω (l−1) |ω (l) ] > 0 ,
                                                        l=1

lo que prueba el Teorema.

Corolario 13.4.6. Sea A ∈ Mn (R).

  1. Si A es OSC, entonces An−1 es ETP.

  2. Si A es ε-RS, es inversible y cumple que

                aii = 0         para   i ∈ In    y     ai , i+1 ai+1 , i > 0 ,      para       i ∈ In−1 ,

     entonces A2(n−1) es ETP.

Demostraci´n.
          o

  1. Se sigue inmediatamente del Teorema 13.4.5.

  2. A2 es TP por ser A ε-RS. Por la hip´tesis se tiene que (A2 )i , i+1 > 0 y (A2 )i+1 , i > 0
                                           o
     para todo i ∈ In−1 . Entonces satisface la Eq. (13.19), y podemos usar la parte 1.
260                                                              Matrices totalmente positivas




13.5      Variaci´n de signos
                 o
Esta secci´n est´ dedicada a caracterizaciones de la regularidad de signo de una matriz en
          o     a
t´rminos de algunas propiedades de disminuci´n de variaci´n del operador lineal que ´sta
 e                                            o             o                         e
induce.

Definici´n 13.5.1. Sea x ∈ Rn . Dada una sucesi´n de signatura ε, decimos que
       o                                      o

  1. ε es una sucesi´n de signo de x si para todo i ∈ In se cumple que εi xi = |xi |.
                    o

  2. En tal caso, el n´mero de cambios de signo de x asociado a ε, denotado por C(ε), es el
                      u
     n´mero de ´
      u         ındices i ∈ In−1 tales que εi εi+1 < 0. Es decir que
                                                 n−1
                                             1
                                    C(ε) =             (1 − εi εi+1 ) .
                                             2   i=1


  3. La m´xima variaci´n de signos V+ (x) (resp. m´
          a            o                           ınima variaci´n de signos V− (x) ) es el
                                                                o
     m´ximo (resp. m´
       a             ınimo) de los valores C(ε), cuando ε recorre todas las sucesiones de
     signo de x. Vemos que

                       0 ≤ V− (x) ≤ V+ (x) ≤ n − 1          para todo     x ∈ Rn .

      Si ninguna componente de x se anula, x tiene una unica sucesi´n de signo, y por lo tanto
                                                       ´           o
      V− (x) = V+ (x). Este valor com´n es llamado la variaci´n de signo exacta y denotado
                                     u                        o
      por V (x).

Observaci´n 13.5.2. Sea x ∈ Rn .
         o

  1. Ojo que x puede tener variaci´n de signo exacta, aunque tenga coordenadas nulas. Por
                                    o
     ejemplo si x = (1, 0, −1), entonces V− (x) = V+ (x) = 1.

  2. Pero si x tiene variaci´n de signo exacta, es f´cil ver que
                            o                       a

       (a) x1 = 0 = xn .
      (b) Si xi = 0, entonces x1−1 xi+1 < 0.
       (c) En particular, x no puede tener dos coordenadas nulas seguidas.

  3. Si α ∈ Qk,n y xα es la α-proyecci´n de x a Rα , entonces
                                      o

                             V− (xα ) ≤ V− (x)    y       V+ (xα ) ≤ V+ (x) .

      En efecto, si ε es una sucesi´n de signo de x, entonces εα lo ser´ para xα (y todas se
                                   o                                   a
      consiguen as´ Pero es f´cil ver que C(εα ) ≤ C(ε).
                   ı).         a

Proposici´n 13.5.3. Sean a1 , a2 , . . . , am ∈ Rn , linealmente independientes, con n > m.
          o
Entonces son equivalentes:
13.5 Variaci´n de signos
            o                                                                                              261




 (1) V+ (b) ≤ m − 1, para todo b ∈ Gen {a1 , a2 , . . . , am }  {0}.
 (2) a = a1 ∧ a2 ∧ · · · ∧ am es estrictamente definido (como vector), i. e. ±a > 0.

Demostraci´n. Sea A = [a1 , a2 , . . . , am ] ∈ Mn,m (R). Es claro que la condici´n a > 0 equivale
           o                                                                     o
a que det A[α|−] > 0 para todo α ∈ Qm,n . Para ver la suficiencia, supongamos que a > 0
y que existe b ∈ Gen {a1 , a2 , . . . , am }  {0} tal que V+ (b) ≥ m. Es f´cil ver que existe
                                                                               a
α ∈ Qm+1,n tal que la α-proyecci´n de b tiene variaci´n m´xima m. Como det A[β|−] > 0
                                      o                    o     a
para todo β ∈ Qm,n , en particular aquellos β ⊆ α, deducimos que las α-proyecciones ai de
ai para i ∈ Im tambi´n cumplen a1 ∧ a2 ∧ · · · ∧ am > 0 y que bα ∈ Gen {a1 , . . . , am }. Por lo
                     e
tanto, considerando la α-proyecci´n si es necesario, podemos suponer que
                                     o
                 n=m+1                y que   (−1)i−1 bi ≥ 0 ,           para todo      i ∈ In .
Como los e∧ = e1 ∧ · · · ∧ ei−1 ∧ ei+1 ∧ · · · ∧ en , i ∈ In forman una base completa ortogonal
            (i)
de Λm Rn , tenemos que
                      n
                                                           √
  a1 ∧ · · · ∧ am =         ξi e∧ ,
                                (i)     donde       ξi =       m a1 ∧ · · · ∧ am , e∧ = det A( i |−] > 0 ,
                                                                                    (i)
                      i=1

para todo i ∈ In .
                                                                 n
   Como b ∈ Gen {a1 , a2 , . . . , am } y, adem´s, b =
                                               a                      bi ei , tenemos que
                                                                i=1

                                                     n
             0 = b ∧ a1 ∧ a2 ∧ · · · ∧ am =               (−1)i−1 ξi bi      · e1 ∧ e2 ∧ · · · ∧ en ,
                                                    i=1

porque ei ∧ e∧ = δij (−1)i−1 e1 ∧ e2 ∧ · · · ∧ en . Pero las condiciones (ya verificadas) ξi > 0 y
             (j)
(−1)i−1 bi ≥ 0, i ∈ In implican entonces que bi = 0, i ∈ In , o sea b = 0, una contradicci´n. o
Esto completa la prueba de la suficiencia.

Probemos ahora la necesidad. Como vimos al principio, bastar´ verificar que
                                                            ıa
                 det A[α|−] det A[β|−] > 0           para todo par              α , β ∈ Qm,n .
Fijados α y β, podemos unirlos por una sucesi´n α = ω (0) , ω (1) , . . . , ω (k) = β en Qm,n que
                                                o
verifica la siguiente propiedad: para cada i ∈ Ik existe
                  τ (i) ∈ Qm+1,n          tal que    ω (i−1) ⊆ τ (i)        y    ω (i) ⊆ τ (i) .
Observar que la desigualdad det A[α|−] det A[β|−] > 0 se sigue de las desigualdades
                            det A[ω (i−1) ] det A[ω (i) |−] > 0 ,           1≤i≤k ,                     (13.27)
dado que
                                                            k
             sgn (det A[α|−] det A[β|−]) = sgn                   det A[ω (i−1) ] det A[ω (i) |−]    .
                                                           i=1
262                                                                          Matrices totalmente positivas




Considerando, en el caso i-´simo de la Eq. (13.27), la proyecci´n sobre τ (i) , podemos asumir
                              e                                 o
nuevamente que n = m + 1, ya que estamos trabajando en dos subconjuntos de τ (i) y, sobre
todo, porque la hip´tesis V+ (b) ≤ m − 1, para todo b ∈ Gen {a1 , a2 , . . . , am }  {0} se preserva
                   o
al proyectar sobre τ (i) , por la Observaci´n 13.5.2. Ahora, como antes,
                                           o
                                                n
                   a1 ∧ a2 ∧ · · · ∧ am =            ξi e∧
                                                         (i)    con         ξi = det A({i}|−] .
                                               i=1

Si ξi = 0 para alg´n i, entonces ei ∈ Gen {a1 , a2 , . . . , am }. Pero en tal caso tendr´
                  u                                                                      ıamos que
V+ (ei ) = n − 1 = m, lo que contradice la condici´n (1). Adem´s, si no todos los ξj tienen
                                                     o                 a
el mismo signo, entonces ξl ξl+1 < 0 para alg´n l. Entonces, si b = ξl+1 el + ξl el+1 , tenemos
                                             u
como antes que

       b ∧ a1 ∧ a2 ∧ · · · ∧ am = (−1)l−i ξl+1 ξl + (−1)l ξl ξl+1                    e1 ∧ e2 ∧ . . . ∧ en = 0 ,

por lo que b ∈ Gen {a1 , a2 , . . . , am }. Pero como ξl ξl+1 < 0, tenemos V+ (b) = n − 1 = m, lo
que tambi´n contradice la condici´n (1). Luego todos los signos de ξi son iguales, es decir, se
          e                             o
cumple (2).
Lema 13.5.4. Sea x ∈ Rn . Entonces

                             V+ (x) + V− (Jn x) = V− (x) + V+ (Jn x) = n − 1 .                                    (13.28)

Demostraci´n. Cuando ε recorre todas las sucesiones de signo de x, Jn ε recorre todas las
           o
sucesiones de signo de Jn x. Observar que
                                              n−1                          n−1
                                          1                            1
              C(ε) + C(Jn ε)        =               (1 − εi εi+1 ) +             (1 − (Jn ε)i (Jn ε)i+1 )
                                          2   i=1
                                                                       2   i=1
                                               n−1
                                          1
                                    =                (1 − εi εi+1 ) + (1 − (−1i−1 )εi (−1)i εi )
                                          2    1=1
                                              n−1
                                          1
                                    =               (1 − εi εi+1 ) + (1 + εi εi+1 ) = n − 1 ,
                                          2   i=1

lo que muestra la Eq. (13.28).
Teorema 13.5.5. Sea M un subespacio de Rn tal que 0 < dim M < n. Entonces, las
siguientes dos condiciones son equivalentes:

 (1) V+ (x) ≤ dim M − 1 para todo x ∈ M  {0}.
 (2) V− (y) ≥ dim M para todo y ∈ M⊥  {0}.

Demostraci´n. Tomemos bases completas ortonormales
          o

         {a1 , a2 , . . . , am }   para   M,          y    {am+1 , am+2 , . . . , an }        para     M⊥ .
13.5 Variaci´n de signos
            o                                                                                           263




Si A = [a1 , a2 , . . . , an ], entonces A es unitaria y podemos asumir que detA = 1. Por la
Proposici´n 13.5.3 (y su prueba), la condici´n (1) es equivalente a que detA[α|Im ] sea no nulo
         o                                      o
y tenga el mismo signo para todo α ∈ Qm,n . Como A ∈ U(n) y det A = 1,

                det(Jn AJn )(α|Im ) =       det(Jn (A∗ )−1 Jn )(α|Im ) = det A∗ [Im |α]
                                        =   det A[α|Im ] ,

por la Eq. (12.11). Luego det(Jn AJn )[τ |m + 1, . . . , n] es no nulo y tiene el mismo signo
para todo τ ∈ Qn−m,n . Llamemos bi = Jn AJn ei = (−1)i Jn ai , para i > m. La condici´n     o
anterior es equivalente a que bm+1 ∧ bm+2 ∧ · · · ∧ bn > 0 (o bien < 0). Por lo tanto, tambi´n
                                                                                            e
Jn am+1 ∧Jn am+2 ∧· · ·∧Jn am es estrictamente definida. Entonces, nuevamente por la Proposi-
ci´n 13.5.3, obtenemos que V+ (Jn y) ≤ n − m − 1 para todo y ∈ M⊥  {0}. Aplicando el Lema
  o
13.5.4, deducimos la condici´n (2). La implicaci´n (2) ⇒ (1) se prueba igual.
                             o                    o

Una versi´n local del Teorema 13.5.5 da la siguiente caracterizaci´n de la regularidad de signo
          o                                                       o
estricta en t´rminos de una propiedad de disminuci´n de variaci´n.
             e                                      o             o
Teorema 13.5.6. Sea A ∈ Mn,m (R), con n ≥ m. Entonces A es ε-ERS si y s´lo si el   o
operador lineal A : Rm → Rn disminuye la variaci´n de signos, en el sentido de que
                                                o

                              V+ (Ax) ≤ V− (x)    para todo          x ∈ Rm  {0}                    (13.29)

Demostraci´n. Supongamos que A = [a1 , a2 , . . . , am ] es ε-ERS. Tomemos x ∈ Rm  {0}, y
          o
llamemos k = V− (x). Entonces existen β, ω ∈ Qk+1,m tales que

               βi ≤ ωi < βi+1         para todo     i ∈ Ik       y    ωk < βk+1 ≤ ωk+1 ,

que describen los signos de x de la siguiente manera:

   • β1 = m´
           ın{j ∈ In : xj = 0} y ωk+1 = m´x{j ∈ In : xj = 0}.
                                         a
   • Las componentes de x tienen signo constante (no nulo en los bordes) para todo j entre
     βi y ωi .
   • xj = 0 si ωi < j < βi+1 para alg´n i.
                                     u
   • Para cada i ∈ Ik , hay un cambio de signo entre xωi y la siguinete entrada no nula de
     x, que es xβi+1 .

Si, para cada i ∈ Ik+1 , llamamos
                                                    k+1                              n
            bi =              xj aj   =⇒     Ax =         bi ,       ya que   Ax =         xi ai ,
                   βi ≤j≤ωi                         i=1                              i=1

y xj = 0 para aquellos j que no aparecen en alg´n bi . Ahora la regularidad estricta de signo de
                                                u
A implica que, si vamos eligiendo k +1-tuplas (j1 , . . . , jk+1 ) tales que βi ≤ ji ≤ ωi , i ∈ Ik+1 ,
tenemos que
                              εk+1 · aj1 ∧ aj2 ∧ · · · ∧ ajk+1 > 0 .
264                                                                       Matrices totalmente positivas


                                         k+1
Por lo tanto, si γ = εk+1 · sgn                xωi , se tiene que
                                         i=1

                                       γ · b1 ∧ b2 ∧ · · · ∧ bk+1 > 0 ,

dado que es una suma de vectores tales que todas sus coordenadas tienen signo γ. Entonces
el Lema 13.5.3 dice que
                                                       k+1
                                  V+ (Ax) = V+               bi   ≤ k = V− (x) ,
                                                       i=1

lo que prueba la Eq. (13.29).

Supongamos rec´
              ıprocamente que A = [a1 , a2 , . . . , am ] satisface la condici´n (13.29). Sean
                                                                              o
                                                  k
ω ∈ Qk,m y x ∈ Rm tales que xω =                       xi eωi = 0. Por otra parte, puede obsevarse que
                                                 i=1
         k
Axω =         xi aωi ∈ Gen {aω1 , . . . , aωk }. Es claro que V− (xω ) ≤ k − 1, de donde por hip´tesis,
                                                                                                o
        i=1
V+ (Axω ) ≤ V− (xω ) ≤ k − 1. Esto dice que

                    V+ (y) ≤ k − 1       para todo        y ∈ Gen {aω1 , . . . , aωk }  {0} .

Entonces se sigue del Lema 13.5.3 que aω1 ∧ aω2 ∧ · · · ∧ aωk es estrictamente definida. Por lo
tanto, A ser´ ε-ERS si el signo aω1 ∧ aω2 ∧ · · · ∧ aωk depende s´lo de k. Para k = m esto es
             a                                                         o
trivial. Fijemos 1 ≤ k ≤ m − 1 y tomemos α, β ∈ Qk,m . Como en la prueba del Lema 13.5.3,
existe una sucesi´n α = ω (0) , ω (p) , . . . , ω (r) = β en Qk,n que verifica la siguiente propiedad:
                  o
para cada i ∈ Ir , existe

                     τ (i) ∈ Qk+1,n      tal que       ω (i−1) ⊆ τ (i)      y   ω (i) ⊆ τ (i) .

Por lo tanto, basta probar que, para cada τ ∈ Qk+1,m e i ∈ Ik+1 , se cumple que

        aτ1 ∧ · · · ∧ aτi−1 ∧ aτi+1 ∧ · · · ∧ aτk+1          y    aτ1 ∧ · · · ∧ aτi ∧ aτi+2 ∧ · · · ∧ aτk+1

tienen el mismo signo. Mediante un argumento de continuidad esto ser´ establecido si
                                                                    a

                    aτ1 ∧ · · · ∧ aτi−1 ∧ {(1 − t)aτi + taτi+1 } ∧ aτi+2 ∧ · · · ∧ aτk+1

es estrictamente definido para cada 0 < t < 1. Y esto se deduce del Lema 13.5.3, v´ la Eq.
                                                                                 ıa
(13.29), porque, si x ∈ Rk  {0}, entonces
                                                                
                       i−1                                            k+1
                V−          xj eτj + xi ((1 − t)eτi + teτi+1 ) +            xj−1 eτj  ≤ k − 1 ,
                       j=1                                           j=i+2


puesto que los signos de las coordenadas τi y τi+1 son iguales.
13.5 Variaci´n de signos
            o                                                                                          265




Lema 13.5.7. Sea x ∈ Rn . Si una sucesi´n xp − − x, entonces
                                       o      −→
                                                        p→∞

                  V− (x) ≤ lim inf V− (xp )        y     lim sup V+ (xp ) ≤ V+ (x) .                (13.30)
                             p→∞                          p→∞


Demostraci´n. Si llamamos J = {i ∈ In : xi = 0}, debe existir alg´n p0 ∈ N tal que
          o                                                      u

            |(xp )j − xj | < m´
                              ın{|xi | : i ∈ J }       para todo     j∈J       y     p ≥ p0 .

Entonces, sgn(xp )j = sgn(xj ) para j ∈ J. Luego, si p ≥ p0 , toda sucesi´n de signo εp para
                                                                          o
xp es tambi´n una sucesi´n de signo para x, porque los signos (de x y xp ) coinciden en J,
             e             o
mientras que en los i ∈ J no hay problemas, porque xi = 0. Resumiendo, para todo p ≥ p0
                       /
debe cumplirse que V− (x) ≤ V− (xp ) para p ≥ p0 (porque x tiene m´s sucesiones de signo que
                                                                     a
xp ). O sea que V− (x) ≤ lim inf p→∞ V− (xp ). La otra desigualdad se prueba igual.

La regularidad de signo est´ caracterizada por una propiedad de variaci´n de signo m´s d´bil.
                           a                                           o            a e
Corolario 13.5.8. Sea A ∈ Mn,m (R) con rkA = m. Entonces A es ε-RS si y s´lo si
                                                                         o

                       V− (Ax) ≤ V− (x)       para todo       x ∈ Rm  {0} .                        (13.31)

Demostraci´n. Como veremos en la Secci´n 7, existe una sucesi´n (Gp )p∈N en Gl (n) de
          o                              o                    o
matrices ETPs , tales que Gp − − In . Supongamos primero que A es ε-RS. Como rkA = m,
                              −→
                               p→∞
el Teorema 13.2.1 asegura que Gp A es ε-ERS para todo p ∈ N. Adem´s Gp A − − A.
                                                                 a        −→
                                                                                                p→∞
Entonces el Teorema 13.5.6 garantiza que

                      V+ (Gp Ax) ≤ V− (x)      para todo           x ∈ Rm  {0} .

Luego, por la Eq. (13.30), tenemos que

                          V− (Ax) ≤ lim inf ≤ V+ (Gp0 Ax) ≤ V− (x) ,
                                       p→∞

lo que muestra la Eq. (13.31). Supongamos ahora que la Eq. (13.31) es v´lida. Por el
                                                                       a
Teorema 13.5.6, aplicado a Gp , como A es inyectiva,

        V+ (Gp (Ax) ) ≤ V− (Ax) ≤ V− (x)       para todo           p∈N     y       x ∈ Rm  {0} ,

El Teorema 13.5.6 (al reves) muestra que Gp A debe ser ε-ERS para todo p ∈ N. Tomando
l´
 ımite, vemos que A debe ser ε-RS.

Usando la relaci´n de dualidad (13.28), podemos hablar de algunas propiedades de aumento
                o
de signo.
Corolario 13.5.9. Sea A ∈ Mn,m (R) con rkA = m. Entonces Jn AJm es ERS (respectiva-
mente, RS) si y s´lo si
                 o

                      n − m + V+ (x) ≤ V− (Ax)           ( resp.       V+ (Ax) ) ,

para todo x ∈ Rm  {0}.
266                                                           Matrices totalmente positivas




 Cuando n = m, la regularidad de signo admite varias caracterizaciones equivalentes.

 Teorema 13.5.10. Sea A ∈ Gl (n). Entonces las siguientes condiciones son equivalentes:

   1. A es regular de signo.

   2. V+ (Ax) ≤ V+ (x) para todo x ∈ Rn  {0}.

   3. V− (Ax) ≤ V+ (x) para todo x ∈ Rn  {0}.

   4. V− (Ax) ≤ V− (x) para todo x ∈ Rn  {0}.

 Demostraci´n.
           o

1 → 2: Si A es regular de signo (e inversible), tambi´n lo es Jn A−1 Jn por el Teorema 13.2.3.
                                                      e
       Entonces 13.5.10 se sigue del Corolario 13.5.9, reemplazando x por Ax y A por A−1 (en
       nuestro caso, n − m = 0).

2 → 3: Trivial.

3 → 4: Uusaremos la sucesi´n Gp que aparece en la prueba del Corolario 13.5.8. El mismo
                          o
       argumento de la prueba de 1 → 2, muestra que,

                    V+ (Gp Ax) ≤ V− (x)    para todo     p∈N       y    x ∈ Rn  {0} ,

       porque Gp A es ERS. Luego, como Gp A x − − Ax, el Lema 13.5.7 nos da que
                                               −→
                                                   p→∞


             V− (Ax) ≤ lim inf V− (Gp Ax) ≤ lim inf V+ (Gp Ax) ≤ V− (x) , x ∈ Rn  {0} .

4 → 1: Se sigue del Corolario 13.5.8.


 13.6       Totalmente Perron-Frobenius
 En esta secci´n estudiaremos propiedades espectrales de las matrices regulares de signo o
              o
 totalmente positivas. La herramienta clave para esto son los resultados de Perron y Frobenius
 para matrices positivas. Recordemos la parte m´s elemental del teorema de Perron-Frobenius:
                                                a

 Observaci´n 13.6.1. Sea A ∈ Mn (R) tal que A
          o                                             0.

    1. Llamaremos λ1 (A), . . . , λn (A) a sus autovalores, ordenados de forma que

                                 |λ1 (A)| ≥ |λ2 (A)| ≥ · · · ≥ |λn (A)| .

    2. El mayor autovalor de A es real y no negativo, i.e., ρ(A) = λ1 (A) ≥ 0, y hay un
       autovector positivo u1 0 correspondiente a λ1 (A).
13.6 Totalmente Perron-Frobenius                                                                                   267




  3. Si A > 0, entonces

                              λ1 (A) > |λ2 (A)|     y      ker(A − λ1 (A)I) = Gen {u1 } ,

      para cierto u1 > 0.
Teorema 13.6.2. Sea A ∈ Mn (R) una matriz ε-ERS. Entonces todos los autovalores de A
son reales y distintos. M´s a´n,
                         a u
                           εm
                               λm (A) > |λm+1 (A)| ,               para todo        m ∈ In ,                 (13.32)
                          εm−1

donde usamos la convenci´n ε0 = 1 y λn+1 (A) = 0. Adem´s, los correspondientes autovectores
                                o                               a
u1 , u2 , . . . , un pueden ser elegidos en Rn , y de modo tal que

                  u1 ∧ u2 ∧ · · · ∧ um > 0          (como vector) , para todo             m ∈ In .           (13.33)

Demostraci´n. La prueba se har´ por inducci´n en m. El caso m = 1 es consecuencia de la
           o                    a            o
Observaci´n 13.6.1 porque ε1 A > 0 por hip´tesis. Supongamos que el resultado es cierto para
         o                                o
1 ≤ i ≤ m − 1. Como εm · Λm A > 0, la Observaci´n 13.6.1 dice que
                                                  o
                                                                              m
                           0 < ρ(εm · Λm A) = λ1 (εm · Λm A) = εm                   λi (A) .
                                                                              i=1

                                                             εi
Por la hip´tesis inductiva, que en particular nos dice que εi−1 λi (A) = |λi (A)| > 0, para
          o
i < m, y del hecho de que ρ(εm · Λ A) es el unico autovalor de εm · Λm A de m´dulo m´ximo,
                                  m
                                            ´                                 o      a
deducimos que
         m                m                                       m−1                           m−1
                                 εi               εm
    εm         λi (A) =                λi (A) =          λm (A)         |λi (A)| > |λm+1 (A)|         |λi (A)| .
         i=1              i=1
                                εi−1              εm−1            i=1                           i=1

Luego la Eq. (13.32) se cumple para m. Ahora, como λm (A) es real, um puede ser elegido real.
Por lo tanto tenemos que u1 ∧ u2 ∧ · · · ∧ um es autovector no nulo de εm · Λm A correspodiente
a λ1 (εm · Λm A), y tiene coordenadas reales. Entonces, por la Observaci´n 13.6.1, tomando
                                                                            o
ξ = 1 o bien ξ = −1, tenemos que ξ · u1 ∧ u2 ∧ u2 ∧ · · · ∧ um > 0. Ahora, reemplazando a um
por ξum en caso de que sea necesario, obtenemos la Eq. (13.33) para todo m ∈ In .

Los autovectores reales {u1 , u2 , . . . , un } conseguidos en el Teorema 13.6.2 posee propiedades
oscilatorias interesantes. Para sus formulaciones, necesitamos algunas definiciones.
Definici´n 13.6.3. Sea x ∈ Rn .
       o

  1. Notaremos por x(t) : [1, n] → Rn a la funci´n linear a trozos
                                                o

             x(t) = (k + 1 − t)xk + (t − k)xk+1              si     k ≤t≤k+1 ,             k ∈ In−1 .        (13.34)

      Observar que x(t) es continua, lineal a trozos, y que x(j) = xj para todo j ∈ In .
268                                                           Matrices totalmente positivas




  2. Los nodos de x(t) son las ra´ de la ecuaci´n x(t) = 0, ordenados de manera creciente
                                    ıces           o
     (si son finitos, i.e., si no hay dos coordenadas nulas consecutivas de x).
  3. Diremos que dos sucesiones ordenadas ξ1 < ξ2 < · · · < ξk y η < η2 · · · < ηk+1 est´n
                                                                                        a
     entrelazadas si se cumple que

                              ηk < ξk < ηk+1 ,    para todo      k ∈ Ik .

Teorema 13.6.4. Sea A ∈ Mn (R) una matriz ε-ERS. Sean u1 , . . . , un sus autovectores
reales, correspondientes a los autovalores λk (A), k ∈ In (ordenados con m´dulos decre-
                                                                          o
cientes). Entonces

 1. La variaci´n de signo de cada uk es exacta. M´s a´n,
              o                                  a u

                              V (uk ) = k − 1 ,   para todo     k ∈ In .                 (13.35)

 2. Adem´s, los nodos de uk (t) y los de uk+1 (t) est´n entrelazados.
        a                                            a

Demostraci´n. Fijemos k ∈ In . Por el Teorema 13.6.2 podemos asumir que u1 ∧ u2 ∧
             o
· · · ∧ uk > 0. Luego, por el Lema 13.5.3, sabemos que V+ (uk ) ≤ k − 1. Consideremos
Jn A−1 Jn , la cual es nuevamente ERS por el Teorema 13.2.3. Como Jn uk es un autovector
de Jn A−1 Jn correspondiente a 1/λk (A) = λn−k+1 (Jn A−1 Jn ), el argumento anterior da que
V+ (Jn uk ) ≤ n − k. Por la Eq. (13.28), deducimos que

                        V− uk = n − 1 − V+ (Jn uk ) ≥ k − 1 ≥ V+ (uk ) ,

lo que prueba el item 1. Para probar el item 2, necesitamos varios pasos previos:

Clamor 1: Para todo k ∈ In−1 y todo (ξ, ζ) ∈ R2  {0}, se cumple que

                          V+ (ξuk + ζuk+1 ) − 1 ≤ V− (ξuk + ζuk+1 ) .                    (13.36)

En efecto, como u1 ∧ · · · ∧ uk ∧ uk+1 > 0 (o < 0), la Proposici´n 13.5.3 garantiza que, si
                                                                       o
llamamos z = ξuk + ζuk+1 , entonces V+ (z) ≤ (k + 1) − 1 = k. Aplicando el mismo argumento
a Jn un , . . . , Jn uk+1 , Jn uk , que son los primeros n − k + 1 autovectores de las matriz ERS
Jn A−1 Jn , obtenemos, v´ la Eq. (13.28), que
                               ıa

                    V+ (Jn z) ≤ n − k =⇒ V− (z) ≥ k − 1 ≥ V+ (z) − 1 ,

lo que termina de mostrar la Eq. (13.36).

Sean x(t) = uk (t) e y(t) = uk+1 (t). Por la Eq. (13.35) y la Observaci´n 13.5.2, si un nodo
                                                                       o
de e x(t) o de y(t) es entero, la coordenada correspondiente de uk o uk+1 es nula, no es ni la
primera ni la ultima, y las dos adyacentes son no nulas y de signos opuestos. Por lo tanto,
               ´
x(t) tiene k − 1 nodos e y(t) tiene k nodos.

Clamor 2: Sean (ξ, ζ) ∈ R2  {0} y j ∈ In  {1, n}. Si ξx(j) + ζy(j) = 0, entonces

                    ξx(j − 1) + ζy(j − 1)     ξx(j + 1) + ζy(j + 1)     < 0.             (13.37)
13.6 Totalmente Perron-Frobenius                                                                    269




En efecto, como en la Observaci´n 13.5.2, si z ∈ Rn cumple que V+ (z) − 1 ≤ V− (z), entonces
                                o
zj = 0 implica que j = 1, j = n, o zj−1 zj+1 < 0. Luego basta aplicar lo anterior y la Eq.
(13.36) al vector z = ξuk + ζuk+1 .

Ahora vamos a por el item 2: Sean t1 < t2 < · · · < tk los nodos de y(t). Entonces bastar´      ıa
probar que, para todo l ∈ Ik−1 , hay al menos un nodo de x(t) en el intervalo abierto (tl , tl+1 ).

Clamor 3: Supongamos que x(t) > 0 para todo t ∈ (tl , tl+1 ). Entonces

           x(tl ) = 0 = x(tl+1 )       y, por ende,             ın{x(t) , t ∈ [tl , tl+1 ] } .
                                                       0 < α = m´

Supongamos, por ejemplo, que x(tl ) = 0. Tomemos i ∈ N tal que i − 1 < tl < i (o bien j − 1
y j + 1 si tl = j es entero). Como x(t) es lineal en [i − 1, i], tenemos que x(i − 1)x(i) < 0
(resp. x(j − 1)x(j + 1) < 0, en este caso por la ecuaci´n (13.37) ). Tomando
                                                       o

                                   y(i)                      y(j + 1)
                           ξ=−                 resp. ξ = −                   ,
                                   x(i)                      x(j + 1)

se tiene que ξx(t)+y(t) se anula en el intervalo [i−1, i], ya que ξx(i)+y(i) = ξx(tl )+y(tl ) = 0,
y es una funci´n lineal en [i − 1, i] (resp. se anula en [j, j + 1] por las mismas razones). Pero
               o
esto contradice la Eq. (13.37).

Recta final: Por la definici´n de nodos, y(t) es definido, supongamos que ≥ 0, en el intervalo
                                o
[tl , tl+1 ]. Sea η el m´ınimo de los η > 0 para los cuales zη (t) = x(t) − ηy(t) tiene un nodo
s ∈ [tl , tl+1 ]. Observar que s = tl porque y(tl ) = 0 = x(tl ). Por lo mismo s = tl+1 . Ahora, por
la minimalidad de η, tenemos que zη (t) ≥ 0 en [tl , tl+1 ]. Pero como zη (t) = (uk − ηuk+1 )(t) es
lineal en los intervalos [j, j + 1], j ∈ In−1 , esto es posible s´lo cuando s ∈ N, o cuando zη (t)
                                                                   o
se anula en todo el intervalo [j, j + 1] que contiene a s. Pero cada una de estas psibilidades
produce una contradicci´n con la Eq. (13.37), en el primer caso porque zη (t) no cambia de
                            o
signo, en el otro porque zη (t) tiene dos ceros enteros consecutivos.

Si A ∈ Mn (R) es estrictamente regular de signo, su adjunta A∗ es tambi´n estrictamente
                                                                                     e
regular de signo. Por el Teorema 13.6.2, los autovectores reales {v1 , v2 , . . . , vn } de A∗ pueden
ser elegidos de forma tal que

                         v1 ∧ v2 ∧ · · · ∧ vk > 0 ,      para todo      k ∈ In .

Las propiedades (13.33) y (13.38) de los autovectores de A y A∗ caracterizan en alg´n sentido
                                                                                   u
la regularidad de signo estricta.

Teorema 13.6.5. Si A ∈ Mn (R) es inversible, tiene n autovalores reales de distinto m´dulo,o
y los autovectores reales uk de A y vk de A∗ , correspondientes a λk (A) = λk (A∗ ), son elegidos
de forma tal que satisfagan las ecuaciones

     u1 ∧ u2 ∧ · · · ∧ uk > 0      y     v1 ∧ v2 ∧ · · · ∧ vk > 0,   para todo      k ∈ In ,     (13.38)

entonces alguna potencia de A es estrictamente regular de signo.
270                                                                                                    Matrices totalmente positivas




Demostraci´n. Notemos λk = λk (A), para k ∈ In . Sean
          o
                               U = [u1 , u2 , . . . , un ]                  y         V = [v1 , v2 , . . . , vn ] .
Entonces U y V son inversibles. Si notamos Λ = diag(λ1 , λ2 , . . . , λn ), entonces
                                      A = U · Λ · U −1                  y           A∗ = V · Λ · V −1 .                                          (13.39)
                                                                                               ∗                                             n
Es f´cil ver que ui , vj = 0 para i = j. Esto dice que V U es diagonal. Sea ρ ∈ C tal que
    a
                                               −1
                                diag (ρ)               = V ∗U           =⇒            U −1 = diag (ρ) V ∗ .                                      (13.40)
Se tiene que ρ > 0 (es decir que sus entradas son positivas), ya que para todo k ∈ In ,
                                                                                                                                 k
                    0 < k! u1 ∧ u2 ∧ · · · ∧ uk , v1 ∧ u2 ∧ · · · ∧ vk = det V ∗ U [Ik ] =                                           ρ−1 .
                                                                                                                                      i
                                                                                                                              i=1

Por las ecuaciones (12.1) (Cauchy-Binnet), (13.39) y (13.40), y varias reducciones elementales,
podemos ver que, para todo p ∈ N y para todo par α, β ∈ Qk,n ,
                                                                                                                   k         p
                                                       −1
                p
      det A [α|β]          =    det(U Λ U      p
                                                            )[α|β] =                  det U [α|ω] ·                    λωi       · det U −1 [ω|β]
                                                                        ω∈Qk,n                                 i=1
                                                                        k              p           k
                           =               det U [α|ω] ·                     λωi           ·           ρωi     · det V [β|ω]
                                ω∈Qk,n                                 i=1                     i=1
                                     k             p         k
                           =              λi           ·          ρi   det U [α|Ik ] det V [β|Ik ]                     +
                                    i=1                     i=1
                                                                                k              p       k
                                +                      det U [α|ω] ·                  λωi                    ρωi       · det V [β|ω].
                                         ω∈Qk,n                                 i=1                    i=1
                                          ω= Ik

Notar que, como |λ1 | > |λ2 | > · · · > |λn | > 0, entonces
                                 k                     k
                                      |λi | >               |λω |      para todo               ω ∈ Qk,n  Ik ,
                                i=1                i=1

mientras que las ecuaciones de (13.38) implican que
                U [α|Ik ] > 0        y     V [β|Ik ] > 0               para todo                   k∈N             y       α, β ∈ Qk,n .
Entonces para un p suficientemente grande, det Ap [α|β] es no nulo y tiene el mismo signo que
  k         p
       λi       para cada α, β ∈ Qk,n . Entonces Ap es ERS.
 i=1

Ahora compararemos los autovalores de A con los de A[α], para un α adecuado. El siguiente
                                   ıamos para A ∈ H(n) y α ∈ Qn−1,n (entrelace de Cauchy)
Teorema generaliza un hecho que sab´
y que hab´
         ıamos mencionado para tambi´n para Qk,n (ver Teorema 2.4.2).
                                      e
13.6 Totalmente Perron-Frobenius                                                                               271




Teorema 13.6.6. Sea A ∈ Mn (R) una matriz ETP. Dados k ∈ N y α ∈ Qk,n con compo-
nentes consecutivas (i.e., tal que d(α) = 0), se tiene que, para todo j ∈ Ik ,

                                    λj (A) > λj (A[α]) > λn+j−k (A)                                         (13.41)

y
                                   λj (A) > λj (A/α ) > λn+j−k (A) .                                        (13.42)

Demostraci´n. El caso que concentra la dificulatad es cuando k = n−1, donde α = In−1 o bien
           o
α = In  {1}. Supongamos que α = In−1 , y llamemos B = A[α]. Observar que λ(A) consta
                                                ıstico PA (t) = det(tI − A). An´logamente
de las n raices distintas del polinomio caracter´                                 a
λ(B) consta de las n − 1 raices distintas del polinomio caracter´ıstico PB (t) = det(tI − B).
Llamemos λi = λi (A), i ∈ In y notemos At = tIn − A y Bt = tIn − B, t ∈ R. Para mostrar
la Eq. (13.41) para este α, basta ver que

                           PB (λi )PB (λi+1 ) < 0 ,           para todo        i ∈ In−1 .                   (13.43)

Consideremos los vectores xt , con par´metro real t, definidos por
                                      a

                                   xt := (−1)n+i det At [α|i)           i∈In
                                                                                .

Entonces la Regla de Cramer (12.10) muestra que, para todo t ∈ σ (A), se tiene la igualdad
                                                                  /
xt = dA (t)A−1 en . Luego, At xt = PA (t)en para esos t, pero por continuidad,
            t

        At x t = 0    si     t ∈ σ (A)      =⇒         Axλj = λj xλj ,              para    j ∈ In .        (13.44)

La n-´sima componente xt (n) de xt coincide con PB (t), mientras que la primera componente
       e
xt (1) admite la representaci´n
                             o
                                   n
                        xt (1) =         tn−j                 det A[ω − {n}|ω − {1}].                       (13.45)
                                   j=2            ω∈Qj,n
                                                ω1 =1,ωj =n

Esto ultimo sale del hecho de que
     ´
                                                                                                       
                                      −a12            −a23        ...      −a1,n−1             −a1,n
                                    t − a22          −a23        ...      −a2,n−1             −a2,n    
                                                                                                       
         At [In−1 |2, . . . , n] =  −a32            t − a33      ...      −a3,n−1             −a3,n
                                                                                                       
                                                                                                        
                                       .
                                        .                                                        .
                                                                                                 .      
                                       .                                                        .      
                                       −an−1,2      −an−1,3       ...   t − an−1,n−1          −an−1,n

y viendo que subdeterminantes le correponden a cada potencia de t.

Clamor: Se cumple que xt (1) > 0 para todo t > 0.
En efecto, como A es TP, la Eq. (13.45) muestra que xt (1) es un polinomio en t con coeficientes
no negativos. Luego bastar´ mostrar que existe un λ > 0 tal que xλ (1) = 0 (as´ ya sabr´
                           ıa                                                    ı       ıamos
272                                                             Matrices totalmente positivas




que alg´n coeficiente no se anula). Para ello usaremos que, como PB (t) tiene s´lo n − 1 raices,
        u                                                                        o
existe j ∈ In tal que xλj (n) = PB (λj ) = 0. Por la Eq. (13.44), xλj es un autovector vector no
nulo (porque xλj (n) = 0) de A, que es ETP. Luego, por el Teorema 13.6.4, xλj tiene variaci´n o
exacta, por lo que su primer componente xλj (1) = 0.
Aplicando el Clamor a los otros λi , junto con la Eq. (13.44), concluimos que xλi es el
i-´simo autovector de A con xλi (1) > 0, para todo i ∈ In . Luego se sigue del Teorema
  e
13.6.4 que la n-´sima componente tiene signo (−1)i−1 . Esto establece la Eq. (13.43), porque
                 e
xλi (n) = PB (λi ), i ∈ In . Para α = {2, 3, . . . , n}, tomamos nuevamente B = A[α] y ahora
                                 yt = (−1)1+i det At [α|i)    i∈In
                                                                     .

En este caso tenemos At yt = PA (t)e1 , lo que tambi´n implica que Ayλj = λj yλj . Aqu´
                                                       e                                   ı,
yt (1) coincide con PB (t), mientras que la ultima admite un representaci´n como la anterior.
                                            ´                            o
Entonces la primera tiene signo (−1)i−1 y obtenemos as´ la Eq. (13.41) para este α.
                                                         ı
El caso k < n − 1 se probar´ por inducci´n descendente. Supongamos que la Eq. (13.41)
                                    a            o
es cierta para cierto k > 1 y tomemos α ∈ Qk−1,n con d(α) = 0. Supongamos que α =
{i, i + 1, . . . , i + k − 2} con i + k − 1 ≤ n. Llamemos β = α ∪ {i + k − 1}. Aplicando el caso
anterior a la matriz ETP A[β] ∈ Mk (R), obtenemos que
                 λj (A[β]) > λj (A[α]) > λj+1 (A[β]) ,      para todo    j ∈ Ik−1 .
Por otro lado, la hip´tesis inductiva asegura que
                     o
                   λj (A) > λj (A[β]) > λn+j−k (A) ,        para todo    j ∈ Ik .
Combinando estas desigualdades, se obtien la Eq. (13.41) para el caso k − 1, lo que completa
la inducci´n. Resta ver el caso en que i + k − 2 = n, i. e. α = {i, i + 1, . . . , n}, que se obtiene
          o
de manera an´loga, aplicando el segundo argumento a la matriz A[α ∪ {i − 1}]. Veamos ahora
              a
la Eq. (13.42): Sabemos que Jn A−1 Jn es tambi´n ETP por el Teorema 13.2.3. Adem´s, por
                                                 e                                            a
el Teorema 12.1.4, se ve f´cilmente que (Jn A−1 Jn )[α] = Jα (A/α )−1 Jα . Observemos que
                           a
                     −1
σ Jn A−1 Jn = σ (A) . Luego,
             1                                          1
                 = λn−j+1 (Jn A−1 Jn )      y                 = λk−j+1 ((Jn A−1 Jn )[α]) .
          λj (A)                                    λj (A/α )
Aplicando la Eq. (13.41) a Jn A−1 Jn , tenemos que
                    λj (Jn A−1 Jn ) > λj (Jn A−1 Jn [α]) > λn+j−k (Jn A−1 Jn ) .
Luego
           λj (A) = λn−j+1 (Jn A−1 Jn )−1       >   λk−j+1 (Jn A−1 Jn [α])−1 = λj (A/α )
                                                >   λj (Jn A−1 Jn )−1 = λn+j−k (A) ,
lo que completa la prueba.
Con la ayuda del Teorema de aproximaci´n 13.1.13, algunos de los resulatdos anteriores
                                           o
pueden ser genarlizados al caso en que A es regular de signo o TP.
13.6 Totalmente Perron-Frobenius                                                                             273




Corolario 13.6.7. Si A ∈ Mn (R) es regular de signo con signatura ε, entonces todos sus
autovalores son reales, y
                          εk
                                λk (A) > 0 ,            para todo         k = 1, 2, . . . , rkA .
                      εk−1

Si A es TP, entonces para cada k ∈ In y cada α ∈ Qk,n tal que d(α) = 0, se tiene que

                                       λj (A) ≥ λj (A[α]) ≥ λn+j−k (A) ,

para todo j ∈ In .

Dado x = (xi ) ∈ Rn , denotemos por x↓ a su reordenaci´n decreciente:
                                                      o

          x↓ ≥ x↓ ≥ · · · ≥ x↓
           1    2            n            y       x↓ = xπ(i)
                                                   i                     para alguna       π ∈ Sn .       (13.46)

Teorema 13.6.8. Sea A ∈ Mn (R) una matriz TP. Entonces

                                                  diag (A)         λ(A) .

                                                                                                      ↓
Demostraci´n. Dada una matriz L ∈ Mm (R), llamemos δ ∗ (L) = diag (L) , a su diagonal
             o
reordenada. Probaremos el teorema por inducci´n en n. El caso n = 1, es trivial. Asumamos
                                             o
que el teorema es cierto en Mn−1 (R). Como tr λ(A) = tr A = tr diag (A), y λi (A) = λ↓ (A),
                                                                                     i
i ∈ In , basta mostrar que
                                k                 k
                                                         ∗
                                     λi (A) ≥           δi (A)      para         k ∈ In−1 .               (13.47)
                               i=1                i=1

                                 ∗                ∗
Sean p, q ∈ In tales que A11 = δp (A) y Ann = δq (A). Tomando la conversi´n de A en
                                                                         o
caso de que sea necesario, podemos asumir que p > q. Sea B = A(n) y C = A(1). Como
B, C ∈ Mn−1 (R) son ambas TP, la hip´tesis inductiva determina que
                                     o
          k                k                            n−1               n−1
                                 ∗                                               ∗
               λi (B) ≥         δi (B)        y               λi (C) ≤          δi (C) ,   k ∈ In−1 .     (13.48)
         i=1              i=1                           i=k               i=k

                ∗        ∗
Observar que δi (B) = δi (A) para 1 ≤ i ≤ p (aca se usa que p > q). Por el Corolario 13.6.7,
λi (A) ≥ λi (B), para i ∈ In−1 . Luego, las desigualdades de (13.48) implican la Eq. (13.47)
para los casos 1 ≤ k ≤ p. Veamos ahora que
                                n                       n
                                                               ∗
                                       λi (A) ≤               δi (A) ,     para      k>p.                 (13.49)
                               i=k+1               i=k+1

                  ∗         ∗
En efecto, como δi (A) = δi (C) si p + 1 ≤ i ≤ n, y λi−1 (C) ≥ λi (A), para todo i ∈ In−1 (por
el Corolario 13.6.7 ), observamos que la Eq. (13.48) implica (13.49), y por ende tambi´n la
                                                                                         e
Eq. (13.47) para estos valores de k.
274                                                            Matrices totalmente positivas




13.7      Algunos ejemplos
En esta secci´n presentamos algunos ejemplos de matrices TPs y la caracterizaci´n de estas
             o                                                                 o
matrices.

13.7.1. [N´cleos totalmente positivos] La mayor parte de las matrices TPs no triviales surgen
           u
de la restricci´n de n´cleos totalmente positivos a conjuntos finitos adecuados. Daremos
               o      u
a continuaci´n algunas f´rmulas de producci´n de n´cleos totalmente positivos: Sean Γ, Λ
             o          o                    o      u
conjuntos totalmente ordenados (en general, subconjuntos de R o Z).

  1. Una funci´n a valores reales K(s, t) para s ∈ Γ, t ∈ Λ es un n´ cleo totalmente
              o                                                           u
     positivo (TP) si la matriz [K(si , tj )]i,j∈In es TP para todo n ∈ N y toda elecci´n
                                                                                       o

                  s1 < s2 < . . . < sn    en Γ   y    t1 < t2 < . . . < tn   en Λ .

      La positividad total estricta de un n´cleo se define an´logamente.
                                           u                a

  2. Si K(s, t) es TP y f (s), g(t) son funciones positivas en Γ y Λ respectivamente, entonces
     el n´cleo f (s)K(s, t)g(t) es TP.
         u

  3. Si K(s, t) es TP y φ(s) es un operador mon´tonamente creciente de un conjunto total-
                                               o
     mente ordenado Γ1 a Γ, y ψ(t) es un operador mon´tonamente creciente de un conjunto
                                                     o
     totalmente ordenado Λ1 a Λ, entonces K(φ(s), ψ(t)) es un n´cleo TP en Γ1 × Λ1 .
                                                               u

  4. Si dos n´cleos L(s, t) y M (s, t) son TPs y dσ(·) es una medida en Γ, entonces el n´cleo
             u                                                                          u

                     K(u, v) :=       L(s, u)M (s, v)dσ(s) ,    para u, v ∈ Λ ,            (13.50)
                                  T

      es TP en Λ × Λ, si la integral existe. Esto es s´lo una modificaci´n del Teorema 13.2.1.
                                                      o                o

Pasemos ahora a la construcci´n de ejemplos concretos
                             o

  1. El n´cleo L(k, t) = tk , definido en en N0 × R+ es TP. Esto es una consecuencia de la
         u
     positividad total de las matrices de Vandermonde, vista en el Ejemplo 13.1.6.
                                                        n
  2. Dados k ∈ In y α ∈ Rn+1 , el n´cleo K(s, t) =
                         +
                                   u                         αk sk tk es TP en R+ ×R+ . En efecto,
                                                       k=0
      a K(s, t) se lo puede realizar como una composici´n del tipo (13.50), con dos copias del
                                                       o
      n´cleo L del item anterior (con la medida en N0 dada por los αk ).
       u

  3. Para cualquier σ > 0 el n´cleo K(s, t) = exp(σst) es TP en R+ × R+ , ya que es un
                                u
      ımite de n´cleos del item anterior (con αk = σ k /k! ).
     l´         u

  4. El n´cleo K(s, t) = exp[−σ(s − t)2 ] es ETP en R+ × R+ , porque
         u

       exp −σ(s − t)2 = exp(−σs2 ) exp(2σst) exp(−σt2 ) ,          para todo par s , t ∈ R+ .
13.7 Algunos ejemplos                                                                                    275




  5. Por lo tanto, para todo n ∈ N y todo p ∈ R∗ , la matriz
                                               +



                              Gp =     exp − p (i − j)2                    ∈ Mn (R)
                                                                 i,j ∈In

     es ETP por el item 3. Adem´s, se tiene que Gp − − In . Esta sucesi´n (tomando
                               a                    −→                 o
                                                                    p→∞
     p ∈ N) ha sido usada varias veces en secciones anteriores.
  6. Para cada 0 < λ < 1 y 0 = p ∈ R, consideremos el promedio pesado en R+ × R+
                                     Mλ,p := {λsp + (1 − λ)tp }1/p .                                  (13.51)
     Entonces Mλ,p (s, t) o 1/Mλ,p (s, t) es TP de acuerdo a si p < 0 o p > 0. Esto se sigue
     de la observaci´n de que para cualquier γ > 0
                    o
                                                            0
                                     1        1                             du
                                           =                    eus eut          ,                    (13.52)
                                  (s + t)γ   Γ(γ)          −∞             |u|1−γ
     donde Γ(·) es la funci´n gamma, y el n´cleo exp(us) es TP en R+ × R+ .
                           o               u
                          ın{s, t} es TP en R+ × R+ , porque
  7. El n´cleo K(s, t) = m´
         u
                                       K(s, t) =       lim Mλ,p (s, t)                                (13.53)
                                                     p → −∞


                                                                                     f (t)
  8. Si f (t), g(t) son funciones positivas en R+ tales que h(t) =                         es no decreciente,
                                                                                     g(t)
     entonces el n´cleo
                  u
                                            ın{s, t} · g m´x{s, t}
                               K(s, t) = f m´             a
     es TP en R+ × R+ . En efecto, es f´cil ver que se la puede reescribir como
                                       a
                     K(s, t)    = m´
                                   ın{h(s), h(t)} g m´
                                                     ın{s, t} g m´x{s, t}
                                                                 a

                                = g(s) · m´
                                          ın{h(s), h(t)} · g(t) .

  9. Dado σ > 0, poniendo g(t) = exp(−σt) y f (t) = exp(σt) (con lo que nos queda h(t) =
     exp(2σt), que es creciente), obtenemos que el n´cleo del item 8,
                                                    u
                       ın{s, t} − σ m´x{s, t} = exp ( −σ|s − t| )
     K(s , t) = exp σ m´             a                                               es TP en R+ × R+ .

 10. Sean {bi }i∈In y {ci }i∈In dos sucesiones en R∗ . Entones la matriz
                                                   +


                                                                               b1   b2         bn
            Mn (R)        bm´
                            ın(i,j) cm´x(i,j)
                                      a         i ,j ∈In
                                                           es TP     ⇐⇒           ≤    ≤ ··· ≤    .
                                                                               c1   c2         cn
     Esto se sigue inmediatamente del item 8, ya que podemos considerar las funciones
               f (t) = bi ,    si i − 1 ≤ t < i y g(t) = ci ,                si i − 1 ≤ t < i .
     Una matriz de este tipo es llamada matriz de Green.
276                                                                                Matrices totalmente positivas




13.7.2 (Matriz de Hurwitz). Un conocido teorema de A. Hurwitz dice que un polinomio
p(z) = d0 z n + d1 z n−1 + . . . + dn a coeficientes reales (d0 > 0) tiene todos sus ceros en
semiplano abierto Re z < 0 si y s´lo si la matriz
                                   o
                                                                
                                    d1 d3 d5 d7 d9 · · · 0
                                  d0 d2 d4 d6 d8 · · · 0 
                                                                
                                  0 d1 d3 d5 d7 · · · 0 
       Hp = d2j−i i,j ∈In =  0 d0 d2 d4 d6 · · · 0  ∈ Mn (R) ,                     (13.54)
                                                                
                                                                
                                  .    .   .    .   .         . 
                                  . .  .
                                        .   .
                                            .    .
                                                 .   .
                                                     .         . 
                                                               .
                                       0     0           0       0     0     ···     dn

donde ponemos que dk = 0 para k < 0 o k > n, tiene menores principales positivos:

                        det Hp [1, 2, . . . , k] > 0 ,               para todo k ∈ In .                   (13.55)

Un tal polinomio p(z) es llamado un polinomio de Hurwitz y la matriz H es la matriz de
Hurwitz asociada a ´l.
                   e

Mostraremos, por inducci´n en n, que en tal caso la matriz de Hurwitz es TP. Observar que
                          o
d1 > 0 para cualquier n, por la Eq. (13.55). Luego el caso n = 1 es trivial. Supongamos
que es cierto para n − 1. Tomemos una Hp ∈ Mn (R) para un buen polinomio p. Llamemos
G = H/{1} ∈ Mn−1 (R), indexada en {2, 3, . . . , n}. La Eq. (12.15) nos asegura que

      d1 det H/{1}[{2, . . . , k}] = det Hp [Ik ] > 0                      para todo k ∈ In  {1} .       (13.56)

                                                                       d0
Sean gj = Fj (G) ∈ Rn−1 , para j = 2, 3, . . . , n. Llamemos c = d1 . Entonces las matriz
T ∈ Mn−1 (R), indexada en {2, 3, . . . , n}, cuyas filas fj = Fj (T ) est´n definidos por
                                                                        a

          f2 = g2 , f2j−1 = g2j−1 ,              y       f2j = g2j − c g2j−1 para j ≥ 2 ,                 (13.57)

tambi´n tiene menores principales positivos. Haciendo la cuenta vemos que T es una matriz
      e
de la forma (13.54) con n − 1 en lugar de n, y dj en lugar de dj , donde

          d2j = d2j+1     y    d2j−1 = d2j − c d2j+1 ,                     para j = 0, 1, 2, . . .        (13.58)

Por la hip´tesis inductiva, tenemos que T es TP, por lo que tambi´n lo es
          o                                                      e

                                      ˜              0       0
                                      T :=                           ∈ Mn (R) .
                                                     0       T

Haciendo algunas cuentas, podemos deducir de la Eq. (13.58) que
                                                                c             ˜
      Hp [1, 2, . . . , n − 2] = Hp (n − 1, n) =             S + (In − Jn ) S T S ∗ (n − 1, n),           (13.59)
                                                                2
donde S = [0, e1 , e2 , . . . , en−1 ]. Las matrices S y S ∗ son TPs, y lo es la matriz triangular
             c
superior S + 2 (In − Jn ). Ahora la positividad total de Hp sale de la Eq. (13.59) por los
Teoremas 13.2.1 y 13.1.4.
13.8 Ap´ndice: La prueba del criterio clave
       e                                                                                                277




13.7.3 (Matrices de Toeplitz). Para una sucesi´n (bi-)infinita {an : −∞ < n < ∞}, la
                                              o
                                                                                     ∞
matriz (ai−j )i,j∈N es llamada su matriz de Toeplitz, y la funci´n f (z) =
                                                                o                         an z n , su funci´n
                                                                                                           o
                                                                                     −∞
generadora. Un matriz de Toeplitz es TP si y s´lo si su funci´n generadora es de la forma
                                              o              o
                                                      ∞                ∞
                                                                                ρn
                                                          (1 + αn z)       1+    z
                                           γ−1        1                1
                   f (z) = Cz k exp γ1 z +     ·      ∞                ∞             ,
                                            z                                   δn
                                                          (1 − βn z)       1−    z
                                                      1                1

donde k es un entero, C ≥ 0, γ1 , γ−1 ≥ 0 y αn , βn , ρn , δn ≥ 0 son tales que
                                 ∞
                                      (αn + βn + ρn + δn ) < ∞ .
                                  1

Cuando an = 0 para n < 0, la matriz de Toeplitz es TP si y s´lo si su funci´n generadora es
                                                            o              o
de la forma
                                            ∞
                                              (1 + αn z)
                                        γz 1
                              f (z) = Ce ∞               ,
                                              (1 − βn z)
                                                  1
                                                          ∞
donde C ≥ 0, γ ≥ 0, y αn , βn ≥ 0 son tales que               (αn + βn ) < ∞. Las pruebas de estos
                                                          1
hechos, basadas fuertemente en la teor´ de funciones anal´
                                                ıa           ıticas est´n m´s all´ del alcance de
                                                                       a    a     a
este trabajo. Cuando es aplicada a un polinomio la caracterizaci´n anterior implica que el
                                                                       o
polinomio p(z) = d0 z n +d1 z n−1 +. . .+dn (d0 > 0) tiene todos sus ceros en eje real no negativo
si y s´lo si la matriz infinita (dn+j−i )i,j∈N es TP, donde dk = 0 para k < 0 o k > n. Notemos
      o
que la matriz de Hurwitz Hp introducida antes es una submatriz de T , m´s precisamente
                                                                                  a
Hp = T [n + 1, n + 2, . . . , 2n|2, 4, . . . , 2n].
13.7.4 (Funci´n de frecuencia de P´lya). Una funci´n f (t) en (−∞, ∞) es llamada una
               o                      o                 o
funci´n de frecuencia de P´lya si el n´cleo K(s, t) := f (s − t) es TP. La siguiente caracteri-
      o                   o            u
zaci´n se debe a Schoenberg (1953), f (t) es una funci´n de frecuencia de P´lya si y s´lo si su
    o                                                 o                     o         o
transformada bil´tera de Laplace existe en una tira abierta que contenga al eje imaginario y
                 a
tiene la forma
                        ∞                                   ∞
                                                               exp(αn t)
                          e−st f (s)ds = C exp(γt2 + δt) ·               ,
                       −∞                                   1
                                                                1 + αn t
                                                                  ∞
donde C > 0, γ ≥ 0, δ y αn son reales tales que 0 <                   |αn |2 < ∞. La prueba de este
                                                                  1
resultatdo est´ m´s alla del alcance de este trabajo.
              a a


13.8      Ap´ndice: La prueba del criterio clave
            e
Las pruebas de los criterios de positividad total se basan en intrincados c´lculos de deter-
                                                                           a
minantes que permiten usar un argumento inductivo. Para ello usaremos fuertemente los
278                                                                     Matrices totalmente positivas




resultados de la secci´n 2 del Cap´
                      o           ıtulo 12. Recordemos, dado que las usaremos bastante,
algunas ecuaciones de all´
                         ı:

Dados α, β ∈ Qk,n y, adem´s, ω, τ ∈ Ql,n tales que ω ⊆ α , τ ⊆ β , sean
                         a

        µ = α ∪ ω = (µ1 , µ2 , . . . , µk+l )      y    ν = β ∪ τ = (ν1 , ν2 , . . . , νk+l ) ∈ Qk+l,n .

Existen entonces γ y σ ∈ Qk,k+l tales que αi = µγi y βi = νσi , i ∈ Ik . Luego definimos

                        α                      k(k+1)                       β
                 sgn       = sgn(γ) = (−1)tr γ− 2 ,                  sgn       = sgn(σ) .                  (13.60)
                       α∪ω                                                 β∪τ

Repasemos la Eq. (12.15): Sea A ∈ Mn (R). Dados α, β ∈ Qk,n y adem´s, ω, τ ∈ Ql,n tales
                                                                  a
que ω ⊆ α , τ ⊆ β , entonce se tiene que
                                                        α       β
       det A[α|β] det (A/[α|β])[ω|τ ] = sgn                sgn     det A[α ∪ ω|β ∪ τ ]                     (13.61)
                                                       α∪ω     β∪τ
Una consecuencia inmediata es la siguiente caracterizaci´n de las entradas de un complemento
                                                        o
de Schur, vista como (12.16): Dados α, β ∈ Qk,n , se tiene

                                           α             β      det A[α ∪ {αi }|β ∪ {βj }]
       {A/[α|β] }(α             = sgn             sgn                                                      (13.62)
                      i ,βj )           α ∪ {αi }     β ∪ {βj }        det A[α|β]

La siguiente igualdad, vista en (12.12), es v´lida para toda A ∈ Mn (R): Dado β ∈ Qk,n ,
                                             a

                                  sgn(ω) det A[ω|β] det A(ω|β) = sgn(β) det A .                            (13.63)
                       ω∈Qk,n


Identidad de Sylvester (Eq. (12.17) ): Dados A ∈ Mn (R) y α, β ∈ Qk,n , se cumple que

          det     det A[α ∪ {αi }|β ∪ {βj }]        i,j∈In−k
                                                               = det A · det A[α|β]n−k−1                   (13.64)

Necesitamos adem´s el siguiente resultado espec´
                a                              ıfico:

Lema 13.8.1. Sea A ∈ Mn (R). Dados α ∈ Qn−1,n y ω ∈ Qn−2,n tales que ω ⊆ α, se tiene

      det A[ω|1, n) det A[α|q) = det A[ω|1, q) det A[α|n) + det A[ω|q, n) det A[α|1) ,                     (13.65)

para todo 1 < q < n. Notar que asumimos que n ≥ 3.

Demostraci´n. Fijemos p ∈ ω y sean µ = ω  {p} y ν = {1, q, n} . Adem´s sean {m} = α  ω.
            o                                                         a
Dividiendo ambos lados de la Eq. (13.65) por det A[µ|ν]2 tenemos que el lado izquierdo de la
(eventual) igualdad queda

                       det A[µ ∪ {p}|ν ∪ {q}] det A[µ ∪ {p, m}|ν ∪ {1, n}]
                                                                           =
                                           det A[µ|ν]2
13.8 Ap´ndice: La prueba del criterio clave
       e                                                                                            279




y el derecho,
                        det A[µ ∪ {p}|ν ∪ {n}] det A[µ ∪ {p, m}|ν ∪ {1, q}]
                                                                               +
                                            det A[µ|ν]2
                   det A[µ ∪ {p}|ν ∪ {1}] det A[µ ∪ {p, m}|ν ∪ {q, n}]
                                                                       =           .
                                       det A[µ|ν]2
Llamemos B = A/[µ|ν] . Notar que, por las ecuaciones (13.61) y (13.62), se tiene que

                   µ         ν          µ           ν
           = sgn µ∪{p} sgn ν∪{q} sgn µ∪{p,m} sgn ν∪{1,n} Bp,q det             B[p, m|1, n]   ,

Por otra parte,      = ε2 Bp,n det B[p, m|1, q] + ε3 Bp,1 det B[p, m|q, n] , donde
                                  µ         ν          µ           ν
                   ε2     = sgn µ∪{p} sgn ν∪{n} sgn µ∪{p,m} sgn ν∪{1,q}        y

                                  µ         ν          µ           ν
                   ε3     = sgn µ∪{p} sgn ν∪{1} sgn µ∪{p,m} sgn ν∪{q,n} .
                               µ          µ
Sacando como factor a sgn µ∪{p} sgn µ∪{p,m} , se ve que la Eq. (13.65) es equivalente a la
                          ν          ν
siguiente relaci´n: sgn ν∪{q} sgn ν∪{1,n} Bp,q det B[p, m|1, n] =
                o

        ν          ν                                  ν          ν
  sgn ν∪{n} sgn ν∪{1,q} Bp,n det B[p, m|1, q] + sgn ν∪{1} sgn ν∪{q,n} Bq,1 det B[p, m|q, n] .

Por otra parte, usando la Eq. (13.60), una cuidadosa cuenta muestra que
           ν          ν                  ν          ν            ν          ν
     sgn ν∪{q} sgn ν∪{1,n}       = sgn ν∪{n} sgn ν∪{1,q} = sgn ν∪{1} sgn ν∪{q,n} .               (13.66)

En efecto, observar que por la definici´n usando permutaciones tenemos que
                                      o
         ν                 ν            ν            ν                                ν
   sgn ν∪{q}      = sgn ν∪{q,n} , sgn ν∪{1} = sgn ν∪{1,n} ,         y que       sgn ν∪{n} = 1 .
                                                       ν             ν          ν
Luego las igualdades de (13.66) surgen de que sgn ν∪{1,q} = sgn ν∪{1} sgn ν∪{q} . Usando
ahora la Eq. (13.66), nos queda que la Eq. (13.65) es equivalente a la relaci´n:
                                                                             o

            Bp,q det B[p, m|1, n] = Bp,n det B[p, m|1, q] + Bp,1 det B[p, m|q, n] ,

que se verifica f´cilmente para cualquier matrix B (notar que son determinantes de matrices
                a
de 2 × 2).

Sean A ∈ Mn,m (R) y ε una sucesi´n de signatura. Sea r = m´
                                   o                      ın{n, m}. Recordemos las
definiciones: A es ε-RS (resp. ε-ERS) si

   εk det A[α|β] ≥ 0        (resp. > 0)   para todo    k ∈ Ir , α ∈ Qk,n , β ∈ Qk,m .            (13.67)

Recordemos el enunciado del Teorema 13.1.4:

Teorema 13.1.4 Sea A ∈ Mn,m (R) con rk A = r, y sea ε una sucesi´n de signatura.
                                                                o
280                                                             Matrices totalmente positivas




   1. Para que A sea ε-RS es suficiente que, para todo k ∈ Im´
                                                            ın{n,m} y α ∈ Qk,n ,

               εk det A[α|β] ≥ 0     para    β ∈ Qk,m     tal que    d(β) ≤ m − r .         (13.68)

   2. En particular, A es TP si det A[α|β] ≥ 0 en esos casos.

Demostraci´n. Observar que cualquier β con d(β) = 0 cumple que d(β) ≤ m − 2. Eso hace
           o
innecesario estudiar los casos en que r ≤ 2, en particular si n ≤ 2 o m ≤ 2. Asumamos
entonces que n , m ≥ 3. Probaremos la la Eq. (13.67) por inducci´n en k, asumiendo que A
                                                                o
cumple la condici´n (13.68). Cuando k = 1, la Eq. (13.67) es cierta porque d(β) = 0 para
                  o
cualquier β ∈ Q1,m . Supongamos que se cumple la Eq. (13.67) para todos los j < k pero no
para k. Luego deben existir un β ∈ Qk,m y un α ∈ Qk,n tales que

                                         εk det A[α|β] < 0 ,                                (13.69)

y que d(β) es el m´
                  ınimo para los β que cumplen tal cosa. En particular tenemos que

                                         l = d(β) > m − r .                                 (13.70)

Afirmamos el tal β cumple que para todo p ∈ β tal que β1 < p < βk , debe pasar que
                                         /

                                    ap ∧ aβ2 ∧ · · · ∧ aβk−1 = 0 .                          (13.71)

En el caso k = 2 esto ser´ que ap = 0. Observar que si (13.71) fuera cierta, tendr´
                           ıa                                                       ıamos
que dim Gen {aj : β1 ≤ j ≤ βk } ≤ k, y estamos considerando k + l columnas. Por lo tanto
r = rk A ≤ m − l, lo que contradir´ la Eq. (13.70). Esta contradicci´n mostrar´ que la Eq.
                                  ıa                                o         ıa
(13.67) es v´lida para d(β) = k.
            a

As´ que vamos a por la f´rmula (13.71): Para esto fijemos un p como antes, y llamemos
   ı                             o
τ = {β2 , β3 , . . . , βk−1 }. Una reformulaci´n de (13.71) es decir que para todo tal p vale que el
                                              o
rk(A[−|τ ∪ {p}] ) ≤ k − 2. Dado ω ∈ Qk−1,n , con ω ⊆ α, el Lema 13.8.1 nos dice que

                             det A[ω|τ ∪ {p}] det A[α|τ ∪ {β1 , βk }] =

      det A[ω|τ ∪ {βk }] det A[α|τ ∪ {β1 , p}] + det A[ω|τ ∪ {β1 }] det A[α|τ ∪ {p, βk }]   (13.72)
Como τ ∪ {β1 , βk } = β, d(τ ∪ {β1 , p}) ≤ l − 1 y d(τ ∪ {p, βk }) ≤ l − 1, se sigue de la Eq.
(13.69), la hip´tesis inductiva y la propiedad minimal de l que la identidad arriba mencionada
               o
s´lo puede ser v´lida cuando
 o               a

                  det A[ω|τ ∪ {p}] = 0 ,     para todo     ω ∈ Qk−1,n , ω ⊆ α ,             (13.73)

pues el lado derecho de la igualdad (13.72) tiene signo εk−1 εk (o 0) y en el izquierdo hay,
por hip´tesis, un factor cumple que εk det A[α|β] < 0 y el otro εk−1 det A[ω|τ ∪ {p}] ≥ 0.
        o
Por otro lado, si k ≥ 3, al calcular det A[α|β] = 0 v´ la Eq. (13.63), vemos que existe un
                                                     ıa
γ ∈ Qk−2 ,n tal que γ ⊆ α y det A[γ|τ ] = 0. Luego, para probar que rkA[−|τ ∪ {p}] ≤ k − 2,
13.8 Ap´ndice: La prueba del criterio clave
       e                                                                                         281




ser´ suficiente mostrar que todo vector fila de A[−|τ ∪ {p}] es una combinaci´n lineal de los
   ıa                                                                      o
vectores fila con ´
                 ındices en γ, o equivalentemente que

                    det A[γ ∪ {q}|τ ∪ {p}] = 0 ,    para todo      q ∈ In  γ .             (13.74)

En el caso k = 2 el tal γ = ∅ (al igual que τ ), pero es claro que (13.74) equivale a que ap = 0,
y el resto de la cuenta funciona. Cuando q ∈ α, (13.74) se deduce de la Eq. (13.73), ya que
γ ∪ {q} ∈ Qk−1,n y est´ dentro de α. Fijemos ahora un q ∈ α. Sean µ = {µ1 , µ2 , µ3 } =
                          a                                      /
(α  γ) ∪ {q}, y ν = {β1 , p, βk }. Consideremos la matriz

         B ∈ M3 (R)     dada por     bij = det A[γ ∪ {µi }|τ ∪ {νj }] ,   para    i , j ∈ I3 .

Entonces por hip´tesis inductiva todos los bij tienen el mismo signo εk−1 y, por la Identidad
                  o
de Sylvester (13.64), todos los subdeterminantes de matrices 2 × 2 de B[−|1) y B[−|3) tienen
el mismo signo εk−2 εk . Por otro lado, la Eq. (13.73) implica que bi,2 = 0 siempre que µi = q.
Luego la Eq. (13.74) equivale a que C2 (B) = b2 = 0. Si q = µ1 , tendr´  ıamos
                                                                                         
           det A[γ ∪ {q}|τ ∪ {β1 }] det A[γ ∪ {q}|τ ∪ {p}] det A[γ ∪ {q}|τ ∪ {βk }]
   B =  det A[γ ∪ {µ2 }|τ ∪ {β1 }]              0             det A[γ ∪ {µ2 }|τ ∪ {βk }]  ,
          det A[γ ∪ {µ3 }|τ ∪ {β1 }]             0             det A[γ ∪ {µ3 }|τ ∪ {βk }]

con todas las entradas del mismo signo. Si b2 = 0, las condiciones anteriores s´lo son consis-
                                                                               o
tentes cuando b2,1 = b3,1 = 0 o bien b2,3 = b3,3 = 0. Esto es as´ porque los de la izquierda
                                                                 ı
producen determinantes (de 2 × 2) de un signo y los de la derecha del signo contrario, cosa
solo permitida si del lado malo (el signo que no concuerda con εk−2 εk ) son ambos cero. En
el caso de que q = µ3 pasa lo mismo (b1,1 = b2,1 = 0 o bien b1,3 = b2,3 = 0).

                                         ıamos que, si α  γ = {a1 a2 }, entonces
Aplicando nuevamente la Eq. (13.64) tendr´

        det A[γ ∪ {a1 }|τ ∪ {β1 }] det A[γ ∪ {a1 }|τ ∪ {βk }]
 det                                                             = det A[α|β] det A[γ|τ ] (13.75)
        det A[γ ∪ {a2 }|τ ∪ {β1 }] det A[γ ∪ {a2 }|τ ∪ {βk }]

es nulo, mientras que det A[γ|τ ] = 0. Llegamos a que det A[α|β] = 0, lo que no vale.

Supongamos ahora que q = µ2 . Queda
                                                                                  
        det A[γ ∪ {µ1 }|τ ∪ {β1 }]         0            det A[γ ∪ {µ1 }|τ ∪ {βk }]
  B =  det A[γ ∪ {q}|τ ∪ {β1 }] det A[γ ∪ {q}|τ ∪ {p}] det A[γ ∪ {q}|τ ∪ {βk }]  ,
        det A[γ ∪ {µ3 }|τ ∪ {β1 }]         0            det A[γ ∪ {µ3 }|τ ∪ {βk }]

Ahora debe pasar que, si b22 = 0, entonces b1,1 = b3,3 = 0 o bien b1,3 = b3,1 = 0. Esto sale
porque det B[1, 2|1, 2] y det B[1, 2|2, 3] deben tener signo εk−2 εk , pero deber´ ser opuestos,
                                                                                 ıan
porque todos los bij tienen el mismo signo. Si por ejemplo el malo es el de la derecha, debe
pasar que b1,3 = 0. Y la misma idea obligar´ a que b3,1 = 0, por lo que B tendr´ una diagonal
                                              ıa                                   a
con tres tipos del mismo signo. Pero en tal caso, la matriz de (13.75), que es B[1, 3|1, 3], ser´
                                                                                                ıa
diagonal y su determinante tendr´ signo εk−2 εk , por lo que el de det A[α|β] ser´ εk . Minga.
                                    ıa                                              ıa
En el caso opuesto (b1,1 = b3,3 = 0), un razonamiento semejante lleva a la misma conclus´n     o
282                                                                  Matrices totalmente positivas




absurda. As´ b2 = 0, lo que establece la validez de la Eq. (13.71). Ya hab´
           ı                                                              ıamos visto que ello
muestra que la Eq. (13.67) es v´lida para d(β) = k, lo que completa la inducci´n.
                                a                                              o

Recordemos el enunciado del Teorema 13.1.5:

Teorema 13.1.5 Sean A ∈ Mn,m (R) y ε una sucesi´n de signatura.
                                               o

  1. Para que A sea ε-ERS es suficiente que, para todo k ∈ Im´
                                                            ın(n,m) ,

          εk det A[α|β] > 0          para     α ∈ Qk,n , β ∈ Qk,m     tales que     d(α) = d(β) = 0 .

  2. En particular, A es ETP si det A[α|β] > 0 es esos casos.

Demostraci´n. Probemos las desigualdades
          o

           εk det A[α|β] > 0           para    α ∈ Qk,n , β ∈ Qk,m , k ∈ Im´
                                                                           ın(n,m) ,               (13.76)

por inducci´n en k. Cuando k = 1, esto es trivial porque d(α) = d(β) = 0 para α ∈ Q1,n y
           o
β ∈ Q1,m . Asumamos que la Eq. (13.76) es cierta con k − 1 en lugar de k. Primero fijemos
un α ∈ Qk,n con d(α) = 0, y probemos la Eq. (13.76) para este α por inducci´n en l = d(β).
                                                                           o
Cuando l = 0, esto se sigue de la hip´tesis del teorema. Supongamos que εk det A[α|γ] > 0
                                     o
siempre que γ ∈ Qk,m y d(γ) ≤ l − 1. Sea β ∈ Qk,m con d(β) = l. Entonces existe p tal que

              β1 < p < β k ,         d(τ ∪ {β1 , p}) ≤ l − 1   y    d(τ ∪ {p , βk }) ≤ l − 1 ,

donde τ = {β2 , . . . , βk−1 }. Se sigue de la Eq. (13.65), como en la Eq. (13.72) de la prueba
del Teorema 13.1.4,
                              det A[ω|τ ∪ {p}] det A[α|τ ∪ {β1 , βk }] =
         det A[ω|τ ∪ {βk }] det A[α|τ ∪ {β1 , p}] + det A[ω|τ ∪ {β1 }] det A[α|τ ∪ {p, βk }]
para cualquier ω ∈ Qk−1 ,n tal que ω ⊆ α. Usando las dos hip´tesis inductivas vemos que
                                                                 o
el lado de la derecha es no nulo con signo εk−1 εk , mientras que det A[ω|τ ∪ {p}] en el lado
izquierdo es no nulo con signo εk−1 . Por lo tanto la igualdad es consistente s´lo cuando
                                                                                 o
εk det A[α|β] > 0. Esto prueba la Eq. (13.76) para los α ∈ Qk,n con d(α) = 0. Luego fijamos
cualquier β ∈ Qk,m y hacemos una inducci´n similar sobre l = d(α), dado que el caso d(α) = 0
                                          o
es lo que probamos antes. Hay que usar la Eq. (13.65) para filas, que se deduce de la usual
tomando traspuestas de las matrices involucradas. As´ podemos concluir que la Eq. (13.76)
                                                       ı
es cierta en general.


13.9       Ejercicios
13.9.1. Sea A ∈ Mn (R) triangular inferior. Entonces es TP si se verifica que

      det A[α|1, 2, . . . , k] > 0      para cada k ∈ In y cada α ∈ Qk,n          con d(α) = 0 .
13.9 Ejercicios                                                                           283




13.9.2. Sea A ∈ Mn (R) tal que A es de Jacobi y A           0 (entradas positivas). Probar que
exite un ξ ∈ R tal que ξ I + A es TP.
13.9.3. Sea A ∈ Mn (R) la matriz del Ejemplo 11.2.15. Porbar que, si λ ∈ R, entonces

                                λI + A     es TP     ⇐⇒    λ≥1.

Cotejar las propiedades de sus autovalores y autovectores con los resultados desarrollados en
las secciones 13.5 y 13.6.
13.9.4. Probar detalladamente el Teorema 13.2.1 que dec´
                                                       ıa:
Sean A ∈ Mn,m (R) y B ∈ Mm,l (R). Probar que entonces

  1. Si A es εA -RS y B es εB -RS, el producto AB es ε-RS, con ε = εA · εB .
  2. En este caso, AB se convierte en ε-ERS si
      (a) A es εA -ERS y rk B = l, o si
      (b) rk A = n y B es εB -ERS.

  3. Si A y B son ETP, tambien lo es AB.
13.9.5. Si dos n´cleos L, M : Γ → Λ son TPs y dσ(·) es una medida positiva en Γ, entonces
                u

    K(u, v) :=        L(s, u)M (s, v)dσ(s) ,   para u, v ∈ Λ ,   es un n´cleo TP.
                                                                        u              (13.77)
                  T

Se sugiere replantearlo para que se pueda deducir del Teorema 13.2.1, en principio para
medidas concentradas en finitos ´tomos.
                               a
13.9.6. Verificar la veracidad de los otros 4 + 10 items del apartado 13.7.1, donde se muestran
los m´s interesantes ejemplos de matrices TP.
     a
284   Matrices totalmente positivas
Bibliograf´
          ıa

      Libros
   [1] A. Benedek y R. Panzone; La matriz positiva y su espectro, Informe T´cnico
                                                                           e
       interno No.86, INMABB, Bah´ Blanca, 2003.
                                 ıa

   [2] G. Golub y C. F. Van Loan, Matrix computations (Third edition) Johns Hopkins
       Studies in the Mathematical Sciences, Johns Hopkins University Press, Balti-
       more, MD, 1996.

   [3] R. Bhatia; Matrix Analysis, Springer, New York, 1997.

   [4] R. Bhatia; Positive Definite Matrices, Princeton Series in Applied Mathematics,
       Princeton University Press, 2006.

   [5] O. Cordes, Spectral theory of linear differential operators and comparison alge-
       bras, London Mathematical Society Lecture Note Series, 76. Cambridge Univer-
       sity Press, Cambridge, 1987

   [6] K. Hoffman y R. Kunze, Linear algebra, Prentice-Hall Mathematics Series,
       Prentice-Hall, Inc., Englewood Cliffs, N.J. 1961.

   [7] R. Horn y C. Johnson; Matrix Analysis, Cambridge University Press, Cambridge,
       1985.

   [8] R. Horn y C. Johnson; Topics in Matrix Analysis, Cambridge University Press,
       Cambridge, 1991.

   [9] T. Kato, Perturbation theory for linear operators, Reprint of the 1980 edition,
       Classics in Mathematics, Springer-Verlag, Berlin, 1995.

  [10] P. D. Lax, Linear Algebra, Springer Verlag, Berl´ 1998.
                                                       ın,

  [11] L. Mirsky, An introduction to Linear Algebra, Clarendon Press, Oxford, 1963.

  [12] M. L. Metha, Matrix Theory, 2a Ed., Hindustan Publishing Co. 1989.
286                                                                     BIBLIOGRAF´
                                                                                  IA




      [13] R. Bellman, Introduction to Matrix Analysis, 2a Ed., McGraw-Hill, New York,
           1970.

      [14] W. F. Donoghue, Jr., Monotone matrix functions and analytic continuation,
           Springer-Verlag, Berl´ 1974.
                                ın,

      [15] A. W. Marshall and I. Olkin, Inequalities: Theory of Mayorization and its Ap-
           plications, Academic Press, New York, 1979.

      [16] B. Simon, Trace ideals and their applications, London Mathematical Society Lec-
           ture Note Series, 35, Cambridge University Press, Cambridge-New York, 1979.


          Papers
      [17] T. Ando; Structure of Operators with Numerical Radius One, Acta Sci. Math
           (Szeged) 34 (1973), 11-15.

      [18] T. Ando; Unitarily invariant norms related to the numerical radius, Linear Al-
           gebra and its Applications, In Press, Corrected Proof, Available online 22 April
           2005.

      [19] T. Ando; Matrix Young inequalities, Operator theory in function spaces and
           Banach lattices, 33–38, Oper. Theory Adv. Appl., 75, Birkh¨user, Basel, 1995.
                                                                     a

      [20] T. Ando, Totally positive matrices, Linear Algebra Appl. 90 (1987), 165-219.

      [21] H. Araki On an inequality of Lieb and Thirring, Lett. Math. Phys. 19 (1990),
           no. 2, 167-170.

      [22] R. Bhatia y C. Davis, More matrix forms of the arithmetic-geometric mean in-
           equality, SIAM J. Matrix Anal. Appl. 14 (1993), no. 1, 132–136.

      [23] J. L. Dalecki˘ S. G. Kre˘ Formulas of differentiation according to a parameter
                        ı,         ın,
           of functions of Hermitian operators, (Russian) Doklady Akad. Nauk SSSR (N.S.)
           76, (1951). 13–16.

      [24] J. L. Dalecki˘ S. G. Kre˘ Integration and differentiation of functions of Hermi-
                        ı,         ın,
           tian operators and applications to the theory of perturbations, (Russian) Voroneˇ.
                                                                                           z
           Gos. Univ. Trudy Sem. Funkcional. Anal. 1956 (1956), no. 1, 81–105.

      [25] M. C. Gonz´lez; Relaciones de Mayorizaci´n para el Producto de Hadamard,
                        a                           o
           Tesis de licenciatura, Depto. Mat. FCEA-UNC, Neuqu´n, 2003.
                                                             e

      [26] O. Hirzallah and F, Kittaneh, Matrix Young inequalities for the Hilbert-Schmidt
           norm, Linear Algebra Appl. 308 (2000), 77-84.

      [27] C.R. Johnson, C.K. Li, Inequalities relating unitarily invariant norms and the
           numerical radius, Linear and Multilinear Algebra 23 (1988) 183-191.
BIBLIOGRAF´
          IA                                                                       287




    [28] Chi-Kwong Li; R. Mathias The Lidskii-Mirsky-Wielandt theorem - additive and
         multiplicative versions, Numer. Math. 81 (1999), no. 3, 377–413.
    [29] V. I. Paulsen, S. C. Power and R.R. Smith, Schur products and matrix comple-
         tions, J. Funct. Anal. 85 (1989), 151-178.

    [30] E. L. Pekarev, Shorts of operators and some extremal problems, Acta Sci. Math.
         (Szeged) 56 (1992), 147-163.
´
Indice alfab´tico
            e


adjunto, 5                                     H¨lder para matrices, 179
                                                 o
autovalor, 7                                   Kittaneh, 168
                                               Oppenheim, 162
base ortonormal, 5                             Simon, 185
    adaptada, 28                               Thompson, 169
                                               Weyl (mayorante de Weyl), 184
c´psula convexa, 97
 a                                             Young, 171, 172
complemento de Schur, 56, ver shorted ,   determinante, 2, 137, 140, 147, 161, 230,
          232                                        234
completaci´n, 157
           o                              diagonales de una matriz, 78
compresi´n, 121
         o                                diferencial, 113
conjunto                                  dispersi´n, 244
                                                   o
     ortogonal, 4, 5
c´lculo funcional, 109
 a                                        espacio
                                              de Hilbert, 4
derivada, ver diferencial                 espectro, 7
     direccional, 113
     parcial, 113                         f´rmula
                                           o
descomposici´no                                Cauchy-Binnet, 141
     polar, 41                                 Daleki˘ y Kre˘ 115
                                                      ıi      ın,
     valores singulares, 41                    del radio espectral, 48
desigualdad                                    Lie-Trotter, 187
     Ando-Johnson-Bapat, 195                   minimax, 31
     Araki, 190                           factorizaci´n
                                                     o
     aritm´tico-geom´trica, 161, 171
           e          e                        Cholewsky, 41
     Aronszajn, 33, 36                         LU, 24, 252
     Cauchy-Schwarz para matrices, 200         QR, 19, 20, 25, 162
     Corach-Porta-Recht, 169                   UL, 24, 252
     Cordes, 189                          funcional, 155
     Fisher, 163                               adjunta, 155
     Golden-Thompson, 193                      autoadjunta, 155
     Hadamard, 161, 165                        positiva, 155
     Hirzallah-Kittaneh, 175              funci´n
                                               o
     Horn, 185                                 convexa, 74
´           ´
INDICE ALFABETICO                                                                  289




    convexa de operadores, 120                   triangular inferior, 10
    c´ncava de operadores, 120
     o                                           triangular superior, 10
    diferencial, ver diferencial                 unitaria, 6
    gauge sim´trica, 91
               e                             mayorizaci´n, 68
                                                        o
    mon´tona de operadores, 115
         o                                       conjunta, 107
                                                 d´bil (submayorizaci´n), 67
                                                  e                    o
g-inversa reflexiva, 62                           de matrices, 94
                                             medias de operadores, 196
identidad                                    menor, ver submatriz
     de Jacobi, 234                          m´dulo de una matriz, 41
                                              o
     de Sylvester, 237, 278                  m´dulo m´
                                              o        ınimo reducido, 62
k-potencia exterior, 139                     n´cleo, 4
                                              u
k-tensor alternado, 136                      norma, 4
k-tensor elemental, 136                          dual, 107
k-tensor sim´trico elemental, 148
             e                                   espectral, 8
                                                 Frobenius, 8
matrices                                         Ky-Fan, 45
    similares, 8                                 matricial, 46
    unitariamente equivalentes, 9                unitariamente invariante, 46, 91
matriz                                           unitariamente invariante d´bil, 103
                                                                            e
    anti-hermitiana, 6                       n´cleos totalmente positivos, 274
                                              u
    con entradas positivas, 68
    de Jacobi (tridiagonal), 246             operador
    de permutaci´n, 69
                  o                              anti-hermitiano, 5
    de signo estrictamente regular, 244          de multiplicaci´n, 153
                                                                 o
    de signo regular, 243                        definido positivo, 5
    definida positiva, 6                          hermitiano, 5
    diagonal dominante, 38                       normal, 5
    doblemente estoc´stica, 69
                      a                          semidefinido positivo, 5
    esencialmente no-negativas, 230              unitario, 5
    estrictamente totalmente positiva, 244   orden
    estrictamente triangular inferior, 10        espectral:    , 181
    estrictamente triangular superior, 10        estrella ≤* , 65
    fuertemente conexa, 224                      mayorizaci´n d´bil: w , 67
                                                             o e
    hermitiana, 6, 29                            mayorizaci´n:
                                                             o      , 67
    identidad, 1                                 por entradas:     , 68, 73, 215
    incompleta, 157                              usual: ≤ , 39
    inversible, 2
    normal, 6, 27                            parte real de una matriz, 167
    primitiva, 222                           permanente, 148
    reducible, 224                           pinching, 95, 98, 99, 103, 250
    semidefinida positiva, 6                  polarizaci´n, 6
                                                       o
    totalmente positiva, 244                 polinomio caracter´ıstico, 2
    traspuesta, 1                            primera diferencias dividida, 113
290                                                      ´           ´
                                                         INDICE ALFABETICO




producto                                         Ky Fan Re µ(A) µ(Re A), 167
    alternado, 136                               Ky Fan (Caracterizaci´n de NUIs), 93
                                                                      o
    de Hadamard, 50, 151                         L¨wner, 117
                                                  o
    de Kronecker, 132, 133                       Lidskii, 99
    sim´trico, 147
        e                                        Marcus-Sandy, 210
    simetrizado, 168                             Parrot, 61
pseudoinversa, 62                                Perron, 216
    de Moore-Penrose, 62                         Perron-Frobenius, 225
                                                 Schur-Horn, 86
radio espectral, 8                               Weyl: λj (A) + λ1 (B) ≤ λj (A + B),
radio num´rico, 8, 98, 203
          e                                          32
raiz cuadrada de una matriz, 41                  Weyl: µ(A + B) µ(A) + µ(B), 85
rango num´rico, 203
           e                                traza, 2
regla de Cramer, 235
                                            valores singulares, 41
shorted, 56                                 Vandermonde, 147, 245, 274
signo de una permutaci´n, 232
                        o                   variaci´n de signos, 259
                                                   o
sistema de proyectores, 49, 95              vector
subespacio                                       de Perr´n, 221
                                                         o
     ortogonal, 4                                ortogonal, 4
submatriz, 33                                    ortonormal, 5
     principal, 33                               unitario, 4
submayorizaci´n, 68
               o
sucesi´n de signatura, 243
      o
supramayorizaci´n, 68
                 o

Teorema
    1 de   Schur:   A = U T U ∗ , 15
    2 de   Schur:   A ◦ B ∈ Mn (C)+ , 50
    3 de   Schur:   d (A) µ(A), 84
    4 de   Schur:   KA = m´x Aii , 154
                            a
                          i∈In
      5 de Schur: per A ≥ det A, 149
      Ando, (radio num´rico), 209
                        e
      Birkhoff (extremales de DS (n) ), 79
      Courant-Fischer (minimax), 31
      entrelace de Cauchy, 33
      Fan-Hoffman, 167
      Haagerup, 160
      Hahn Banach, 157, 165
      Hall (de los casamientos), 77
      Hamilton-Cayley, 18
      Hausdorff T¨eplitz, 204
                   o
      Johnson-Li, 211
      K¨nig-Frobenius, 78
        o
Notaciones y abreviaturas

Se enumeran las principales notaciones y abreviaturas del libro, por orden de aparici´n:
                                                                                     o


Cap´
   ıtulo 1

In = {1, 2, . . . , n}.
R+ = {x ∈ R : x ≥ 0} y R∗ = {x ∈ R : x > 0}.
                        +

Mn (C) = Cn×n y Mn,m (C) = Cn×m
Mn (R) = Rn×n y Mn,m (R) = Rn×m
Gl (n) = {A ∈ Mn (C) : A es inversible }
PA (x) = det(xI − A) ∈ C[x] es el polinomio caracter´
                                                    ıstico de A ∈ Mn (C).
       Pn
tr A =     Aii para una A ∈ Mn (C).
        i=1
Ci (A) = (a1i , a2i , . . . , ani ) ∈ Cn es la i-´sima columna de A ∈ Mn,m (C).
                                                 e
Fj (A) = (aj1 , aj2 , . . . , ajm ) ∈ Cn es la j-´sima fila de A ∈ Mn,m (C).
                                                 e
d (A) = (A11 , . . . , Ann ) ∈ Cn , la diagonal de A ∈ Mn (C).
                                     2            3
                                      a1   0    0
                                     6.   ..    . 7
diag (a) = diag (a1 , . . . , an ) = 6 .
                                     4.      .  . 7 ∈ Mn (C) , para a ∈ Cn .
                                                . 5
                                        0    0 an
         (m)              (m)
Em =   {e1     , . . . , em } es la base can´nica de Cm .
                                             o
               n
              P (n)                       n
1 = 1n =           ek = (1, . . . , 1) ∈ C .
              k=1
En = 1n        1n ∈ Mn (C)+ , la matriz de puros unos.
Gen {X} = Gen {x1 , . . . , xm } es el subespacio generado por X = {x1 , . . . , xm }.
ker A = {x ∈ Cm : Ax = 0}         y    R(A) = A(Cm ) = Im(A) ⊆ Cn , para A ∈ Mn,m (C).
rk(A) = dim R(A) = dim Gen {C1 (A), . . . , Cm (A) }, para A ∈ Mn,m (C).
         n
            xk yk , x, y ∈ Cn .
        P
 x, y =
        k=1
                         „ n         «1/2
 x = x 2 = x, x 1/2 =         |xk |2        para x ∈ Cn .
                           P
                                k=1
L(H, K) es el espacio de operadores lineales de H en K (dos espcios de Hilbert).
292                                                     NOTACIONES Y ABREVIATURAS




BON : base ortonormal.
A∗ = AT ∈ Mm,n (C) la adjunta de A ∈ Mn,m (C) .
H(n) = {A ∈ Mn (C) : A = A∗ }, matrices autoadjuntas.
U(n) = {U ∈ Mn (C) : U ∗ U = I}, matrices unitarias.
N (n) = {N ∈ Mn (C) : N ∗ N = N N ∗ }, matrices normales.
Mn (C)+ = {A ∈ Mn (C) : A ≥ 0} ⊆ H(n), semidefinidas positivas.
Gl (n)+ = {A ∈ Mn (C) : A > 0} = Gl (n) ∩ Mn (C)+ , definidas positivas.
σ (A) = {λ ∈ C : ker(A − λI) = {0} }, el espectro de A ∈ Mn (C).
λ(A) = (λ1 (A), . . . , λn (A) ) los n autovalores (con multiplicidad) de A ∈ Mn (C).
w(A) = m´x{ | Ax, x | : x ∈ Cn ,
        a                            x = 1 } , el radio num´rico de A ∈ Mn (C).
                                                           e
ρ(A) = m´x{ |λ| : λ ∈ σ (A)}, el radio espectral de A ∈ Mn (C).
        a
 A   sp  = m´x{ Ax : x ∈ Cn , x = 1} = m´
             a                                 ın{C ≥ 0 : Ax ≤ C x , x ∈ Cn } .
           n
     2
               |aij |2 = tr(A∗ A), la norma Frobenius de A ∈ Mn (C).
           P
 A   2
         =
           i,j=1
A ∼ B (unitariamente equivalentes) si existe U ∈ U (n)
  =                                                        tal que   A = U ∗ BU .
T S(n) = { T ∈ Mn (C) : Tij = 0 para i ≥ j} las triangulares superiores.
A[I|J] = AIJ = (Arl )r∈I ∈ Mk, m (C) , para A ∈ Mn (C), I, J ⊆ In con |J| = k, |K| = m.
                       l∈J
A[I|J) = A[I|In  J] y A(I|J] = A[In  I|J].
Ar = A({r}) = {aij }i=r=j ∈ Mn−1 (C) , para A ∈ Mn (C) y r ∈ In .
QR es la factorizaci´n A = QR con Q ∈ U (n) y R ∈ T S(n) tal que Rjj ≥ 0, para todo j ∈ In .
                    o
x    y = xy ∗ = (xi yj ) i∈In ∈ Mn,m (C), para x ∈ Cn e y ∈ Cm .
                       j∈Im
Sn = {σ : In → In biyectiva } , el n-grupo simetrico.
LA y RB : Mn (C) → Mn (C) dadas por LA (X) = AX y RB (X) = XB , para X ∈ Mn (C).


Cap´
   ıtulo 2
λ(A) ∈ Rn es el vector creciente de autovalores de A ∈ H(n).
µ(A) ∈ Rn es el vector decreciente de autovalores de A ∈ H(n).
λm´ (A) = λ1 (A) = µn (A) = m´ σ (A)
  ın                         ın             y   λm´x (A) = λn (A) = µ1 (A) = m´x σ (A) .
                                                  a                           a


Cap´
   ıtulo 3
B ≤ C ⇐⇒ B x , x ≤ C x , x para todo x unitario en Cn (con B, C ∈ H(n) ).
M1 = {x ∈ M : x = 1} para un subespacio M ⊆ Cn .
PS ∈ Mn (C) es la proyecci´n ortogonal sobre un subespacio S ⊆ Cn .
                          o
            ˛
AS = PS APS ˛ ∈ L(S) , la compresi´n de A ∈ Mn (C) a un subespacio S ⊆ Cn .
                                   o
                   S
A[k] = A[Ik ] = {aij }i,j∈Ik ∈ Mk (C) y
A(k) = A(Ik ) = {aij }i,j>k ∈ Mn−k (C) , ambos para A ∈ Mn (C) y k ∈ In .
A1/2 ∈ Mn (C)+ es la raiz cuadrada de A ∈ Mn (C)+ .
NOTACIONES Y ABREVIATURAS                                                                             293




|A| = (A∗ A)1/2 , el m´dulo de A ∈ Mn (C).
                      o
si (A) = µi (|A|) = µi (A∗ A)1/2 , los valores singulares de A ∈ Mn (C), para i ∈ In .
s(A) = (s1 (A), . . . , sn (A) ) = µ(|A|) ∈ Rn y
                                             +

Σ(A) = diag (s(A) ) ∈ Mn (C)+ , para A ∈ Mn (C).
A = U |A| = |A∗ |U es una descomposici´n polar de A ∈ Mn (C) si U ∈ U (n).
                                      o
A = W Σ(A)V ∗ es una descomposici´n en valores singulares de A ∈ Mn (C) si W, V ∈ U (n).
                                 o
           |A|+A
A+ =         2
                 y     A− = |A|−A son las partes positiva y negativa de A ∈ H(n).
                                 2
             „ n              «1/p
                            p
                                   = (tr |A|p )1/p (norma de Schatten) para A ∈ Mn (C) y 1 ≤ p < ∞.
               P
 A   p   =           si (A)
               i=1
               Pk
 A   (k)   =         si (A) (norma de Ky Fan) para A ∈ Mn (C) y k ∈ In .
               i=1
|||A|||N = m´x N (Ax) la norma matricial inducida en Mn (C) por una norma N en Cn .
                a
          ` N (x)=1
                  ´
A ◦ B = aij bij i∈I ∈ Mn,m (C) el producto de Hadamard (o Schur) de A, B ∈ Mn,m (C) .
                       n
      "           # j∈Im
                       "           #
         0 A ∼ Σ(A)           0
Ab=                  =               ∈ H(2n) para A ∈ Mn (C).
        A∗ 0             0  −Σ(A)
M(A, S) = {D ∈ Mn (C)+ : D ≤ A y R(D) ⊆ S} para A ∈ Mn (C)+ .
Σ (A, S) = m´x M(A, S) el shorted de A ∈ Mn (C)+ a un subespacio S ⊆ Cn .
            a
                 ≤
A† la seudoinversa de Moore-Penrose de A ∈ Mn (C).
         ın Ax : x ∈ ker A⊥ x = 1 el m´dulo m´
            ˘                           ¯
γ(A) = m´                                   o      ınimo de A ∈ Mn (C).
 x, y    A   = Ax, y para A ∈ Mn (C)+ y x , y ∈ Cn .
P(A, S) = {Q ∈ Mn (C) : Q2 = Q, AQ = Q∗ A y R(Q) = S} para A ∈ Mn (C)+ .
A ≤* B si BA∗ = AA∗ y B ∗ A = A∗ A (orden ∗), para A, B ∈ Mn (C).


Cap´
   ıtulo 4
x↓ y x↑ los reordenados de x ∈ Rn en forma decreciente y creciente.
                n
                   xi , para x ∈ Cn .
                P
tr x = x, 1 =
                       j=1
x    y si y ∈ Rn mayoriza a x ∈ Rn .
                         w
x    w   y (resp. x          y) si y ∈ Rn submayoriza (supramayoriza) a x ∈ Rn .
A    B si Aij ≥ Bij para todo par i ∈ In , j ∈ Im , con A, B ∈ Mn,m (R).
x    y si xi ≥ yi para todo i ∈ In , con x, y ∈ Rn .
|x| = (|x1 |, . . . , |xn |), para x ∈ Rn .
DS (n) = {A ∈ Mn (C) : A             0 , tr Fi (A) = 1 y tr Ci (A) = 1 para todo i ∈ In }.
xσ = (xσ(1) , . . . , xσ(n) ), para σ ∈ Sn y x ∈ Cn .
Pσ ∈ U (n) la matriz de permutaci´n dada por Pσ x = xσ , para σ ∈ Sn y x ∈ Cn .
                                 o
UP (n) = {Pσ : σ ∈ Sn } ⊆ U(n).
I denota un intervalo en R.
f (x) = (f (x1 ), . . . , f (xn ) ) ∈ Rn , para una funci´n f : I → R, y un vector x ∈ In .
                                                         o
294                                                                 NOTACIONES Y ABREVIATURAS



                                                                     ∗
x         y log-mayorizaci´n (con productos), para x, y ∈ R+ n (x, y > 0).
                          o
    log
x         w   y log-mayorizaci´n d´bil, para x, y ∈ Rn .
                              o e                    +
    log




Cap´
   ıtulo 5
Pk (n) = {P ∈ H(n) : P 2 = P y rk(P ) = k}, los proyectores ortogonales de rango k, para k ∈ In .
Uk (n) = {U ∈ Mn,k (C) : U ∗ U = Ik }, el espacio de isometr´ de Ck en Cn .
                                                            ıas
NUI : norma unitariamente invariante.
gN : Cn → R+ dada por gN (x) = N (diag (x) ) para N una NUI en Mn (C) y x ∈ Cn .
fgs : funci´n gauge sim´trica.
           o           e
A         B si µ(A)           µ(B), para A, B ∈ H(n).
CP (A) = P AP + (I − P )A(I − P ) el pinching de A ∈ Mn (C) por P ∈ Pk (n).
          Pr
CP (A) =      Pi APi el pinching de A por el sistema de proyectores P = {P1 , . . . , Pr } ⊆ H(n).
          i=1
           n P m                                                     o
conv [C] =        λk bk : m ∈ N, bk ∈ C, λ ∈ Rm y λ (1, 0, . . . , 0) , la c´psula convexa de C.
                                                                            a
                       k=1
U(A) = {U AU ∗ : U ∈ U (n)} = {B ∈ H(n) : µ(B) = µ(A)}, la orbita unitaria de A ∈ H(n).
                                                           ´
NDUI : norma d´bilmente unitariamente invariante.
              e


Cap´
   ıtulo 6
        ˘                    ¯
HI (n) = A ∈ H(n) : σ (A) ⊆ I .
f (A) : el c´lculo funcional de A ∈ HI (n) por f : I → R.
            a
                  ∞
                  P Am
 A
e = exp(A) =          m!
                          , la exponencial de A ∈ Mn (C).
                 m=0˘                    ¯
 f − g I, ∞ := sup |f (t) − g(t)| : t ∈ I .
f [1] (x, y) es la primera diferencia dividida de una funci´n f : I → R de clase C 1 .
                                                           o
Dgx0 ∈ Mmn (C) es la derivada o diferencial de g : U ⊆ Rn → Rm (U abierto) en x0 ∈ U .
            `    ´
f • γ(t) = f γ(t) es la composici´n de una curva γ y el c´lculo funcional por f .
                                 o                       a
MOP : funci´n mon´tona de operadores.
           o     o
∪OP : funci´n convexa de operadores.
           o
∩OP : funci´n c´ncava de operadores.
           o o


Cap´
   ıtulo 7
Hn = Cn con su producto interno.
Hn ⊗ Hk = { funcionales F : Hn × Hk → C bilineales } el producto tensorial.
x ⊗ y = xy T ∈ Hn ⊗ Hk es el tensor elemental, dado por x ⊗ y(u, v) = u, x v, y , u ∈ Hn , v ∈ Hk .
                 (n)      (k)
En,k = {ei             ⊗ ej     : i ∈ In , j ∈ Ik } ∼ {Eij ∈ Mn,k (C) : i ∈ In , j ∈ Ik }, la BON de Hn ⊗ Hk .
A ⊗ B(x ⊗ y) = Ax ⊗ By , x ∈ Hn , y ∈ Hk , con A ∈ L(Hn ) y B ∈ L(Hk ).
NOTACIONES Y ABREVIATURAS                                                                                           295

             2                                 3
       a11 B                  ...       a1n B
     6      .
            .                  ..            . 7
                                             . 7 ∈ Mnk (C), el producto de Kroneker de A ∈ L(Hn ) y B ∈ L(Hk ).
A⊗B =4
     6
            .                     .          . 5
                 an1 B        ...       ann B
Nk
    Hn es el espacio k-tensorial sobre Hn , el producto tensorial de Hn por s´ mismo k veces.
                                                                                    ı
x1 ⊗ · · · ⊗ xk (u1 , · · · , uk ) = k
                                    Q
                                       i=1 ui , xi , los k-tensores elementales.
Nk         Nk            Nk                                                   Nk
    A:        Hm →             Hn , la potencia k-tensorial de A, dada por       A (x1 ⊗ · · · ⊗ xk ) = Ax1 ⊗
· · · ⊗ Axk .
   (n)                     (n)
Pπ ∈ U ( k Hn ) dado por Pπ (F ) (x1 , · · · , xk ) = F (xπ(1) , · · · , xπ(k) ), para π ∈ Sn .
            N
              Nk         (n)
Λk Hn = F ∈
           ˘                                                                ¯
                 Hn : Pπ F = sgn(π) F            para toda π ∈ Sk , el espacio k-alternado sobre
Hn .
Pn =   1
                 sgn(π) , la proyecci´n ortogonal de k Hn sobre Λk Hn .
              P                                     N
 k     k!
                                      o
           π∈ Sk
x1 ∧ · · · ∧ xk = Pn (x1 ⊗ . . . ⊗ xk ) = k!
                                          1
                                             P
                    k                           sgn(π) xπ(1) ⊗ · · · ⊗ xπ(k) , el k tensor alternado.
                                                          π∈ Sk
Λk A ∈ L(Λk Hn , Λk Hm ) dado por Λk A (x1 ∧ · · · ∧ xk ) = Ax1 ∧ · · · ∧ Axk , k-potencia alternada de A.
Qk,n = α = (α1 , α2 , · · · , αk ) ∈ Ik : 1 ≤ α1 < α2 < · · · < αk ≤ n ∼ {J ⊆ In : |J| = k}.
       ˘                                                                ¯
                                      n

α = In  α ∈ Qn−k,n , el complemento de un α ∈ Qk,n .
            (n) ∧       (n)           (n)           (n)
e∧ = eα
 α           = eα1 ∧ eα2 ∧ · · · ∧ eαk ∈ Λk Hn , para α ∈ Qk,n .
        √
 ∧
Ek,n = { k! e∧ : α ∈ Qk,n }, la BON de Λk Hn .
             α
                       n
                           aj,σ(j) = Λn A, para A ∈ Mn (C).
          P           Q
det A =        sgn(σ)
             σ∈ Sn                    j=1
                 P     n
                       Q
per A =                       aj,σ(j) ∈ C ,       la permanente de A.
              σ∈ Sn j=1
                                 2                            3
                                                          n−1
                                    1 t1           . . . t1
                                                   . . . tn−1 7
                                 6                            7
       “     ”                   6 1 t2                   2
V (t) = tj−1                  =6 .                                                                                    n
                                                            . 7 ∈ Mn (C), el Vandermonde de t = (t1 , . . . , tn ) ∈ C .
                                 6                            7
         i
                     i,j∈In      6 .    .
                                        .                   . 7
                                 4 .    .          ...      . 5
                                                          n−1
                                        1    tn    . . . tn


Cap´
   ıtulo 8
C(A) = m´x Ci (A)
        a           y F (A) = m´x Fi (A) 2 , para A ∈ Mn,m (C).
                                 2a
            i ∈ Im
                               ˘ ∈ In
                               i
                                                                ¯
KN (A) = m´x N (A ◦ B) = m´ k : N (A ◦ B) ≤ k N (B) , B ∈ Mn (C) , con N norma en Mn (C).
          a                 ın
              N (B)=1
KA = K       · sp (A),   para A ∈ Mn (C).
ϕ∗ la adjunta de una funcional ϕ : S ⊆ Mn (C) → C, dada por ϕ∗ (A) = ϕ(A∗ ), A ∈ S.
ϕB : Mn (C) → C dada por ϕB (A) = A, B = tr(AB ∗ ), con B ∈ Mn (C).
     ˘                                        ¯
SJ = C ∈ Mn (C) : cij = 0 para todo (i, j) ∈ J , para J ⊆ In × In .
                                           /
J ⊆ In × In cumple (P) si (i, j) ∈ J =⇒ (j, i) ∈ J y tambi´n (i, i) ∈ J para todo i ∈ In .
                                                          e
                2                 3
                   A ... A
                6 .      .     . 7
A(k) = Ek ⊗ A = 6 .
                4 .      .
                         .     . 7 ∈ Mkn (C), para A ∈ Mn (C).
                               . 5
                               A       ...    A
296                                                       NOTACIONES Y ABREVIATURAS




Cap´
   ıtulo 9
            A+A∗                     A−A∗
Re A =        2
                   ∈ H(n) e Im A =    2i
                                            , para A ∈ Mn (C).
S(A, B) = AB + BA ∈ H(n) es el producto simetrizado de A, B ∈ H(n).
C   D si C m ≤ Dm , para todo m ∈ N, con C, D ∈ Mn (C)+ .
                      ´1
A ∨ B = lim Ap + B p p = m´  ın C ∈ Mn (C)+ : A C y B                           , para A, B ∈ Mn (C)+ .
             `                 ˘                                               ¯
                                                                           C
            p→∞
f : Mn (C) → R es clase T si es continua, f (XY ) = f (Y X) y |f (X 2m )| ≤ f ([XX ∗ ]m ), ∀ m, X, Y .
A#α B = A1/2 (A−1/2 BA−1/2 )α A1/2 , para α ∈ [0, 1], A, B ∈ Mn (C)+ .
A#B = A# 1 B = A1/2 (A−1/2 BA−1/2 )1/2 A1/2 .
               2




Cap´
   ıtulo 10
W (A) = { Ax, x       : x ∈ Cn ,   x = 1 } es el rango num´rico de A ∈ Mn (C).
                                                          e


Cap´
   ıtulo 11
MPn,m = {A ∈ Mn,m (R) : A            0}, matrices de entradas positivas.
MEPn,m = {A ∈ Mn,m (R) : A > 0}, matrices de entradas estrictamente positivas.
Vn = {(p, q) ∈ I2 : p = q}.
                n

FC : matriz fuertemente convexa.


Cap´
   ıtulo 12
A/[α|β] = A(α|β) − A(α|β] · A[α|β]−1 · A[α|β) ∈ Mn−k (C), el complemento de Schur de A ∈ Mn (C).
          k
            (−1)αi −i = (−1)r con r = tr α − k(k+1) , para un α ∈ Qk,n .
          Q
sgn(α) =                                         2
         i=1
Jn = diag 1, −1, 1, −1, . . . , (−1)n−1 ∈ U (n).
          `                            ´
       α
sgn   α∪ω
            = sgn(γ), donde γ manda α al principio de α ∪ ω.


Cap´
   ıtulo 13
ε = (εi )i∈N ∈ {−1, 1}N es una sucesi´n de signatura.
                                     o
Si τ es otra sucesi´n de signatura, llamaremos τ ε = (τi εi )i∈N .
                   o
A es ε-RS si es de signo regular con signatura ε.
A es ε-ERS si es estrictamente de signo regular con signatura ε.
A es TP si es totalmente positiva, o sea que A es ε-RS respecto de la sucesi´n ε ≡ 1.
                                                                            o
A es ETP si es estrictamente totalmente positiva, o sea que A es ε-ERS respecto de la sucesi´n ε ≡ 1.
                                                                                            o
                              P
d(α) = αk − α1 − (k − 1) =        αi+1 − αi − 1 , es la dispersi´n de α ∈ Qk,n .
                                                                o
                               i∈ Ik−1
LU -factorizaci´n: A = LU con L triangular inferior y U triangular superior.
               o
NOTACIONES Y ABREVIATURAS                                                                 297




U L-factorizaci´n: A = U L con L triangular inferior y U triangular superior.
               o
[x1 , . . . , xm ] = X ∈ Mnm (C) si Ci (X) = xi ∈ Cn para cada i ∈ Im .
    t
A       B si Λk A   Λk B, i.e. det A[α|β] ≥ det B[α|β] para todo k ∈ In y α, β ∈ Qk,n .
A es OSC si es TP y una cierta potencia Ap es ETP.
V+ (x) la m´xima variaci´n de signos de x ∈ Rn .
           a            o
       la ınima variaci´” de signos de x ∈ Rn .
V− (x)“ m´             on
Gp = exp − p (i − j)2
           ˆ          ˜
                                 ∈ Mn (R).
                         i,j ∈In
Hp = d2j−i i,j ∈I ∈ Mn (R) , matriz de Hurwitz p(z) = d0 z n + d1 z n−1 + . . . + dn .
      ˆ      ˜
                     n

Más contenido relacionado

PDF
Libro ed
PDF
PDF
Solucion ecuac diferenciales_ferrante
PDF
memoria
PPTX
Diapositivas 2
PDF
Chevallard
Libro ed
Solucion ecuac diferenciales_ferrante
memoria
Diapositivas 2
Chevallard

La actualidad más candente (10)

PDF
César Camacho
PDF
Ensayo estrategias aprendizaje
DOCX
Sillabus sesion de clases - logico matematicas
PDF
Notas algebra
DOCX
guia de matematica basica
PDF
Analisis epistemológico de la secuencia numérica
PDF
Aplicaciones de las matemáticas
DOCX
Lógica matemática
PDF
Recursividad
PPTX
César Camacho
Ensayo estrategias aprendizaje
Sillabus sesion de clases - logico matematicas
Notas algebra
guia de matematica basica
Analisis epistemológico de la secuencia numérica
Aplicaciones de las matemáticas
Lógica matemática
Recursividad
Publicidad

Destacado (20)

PDF
Análisis matricial-de-las-estructuras-por-el-método-de-la-rigidez
PDF
Entrada 2. ejercicio 2 matricial
PDF
Abastecimiento diseo y_constru
PDF
Cap 07 intro-análisismatricialfinal (1)
PDF
Analisis matricial de armaduras 2d - Problemas Resueltos
PDF
128283513 abastecimiento-de-agua-pedro-rodriguez-ruiz
PDF
Analisis matricial de estrcuturas por rigideces d. curasma
PDF
Libro de ingeniería sanitaria ii
PDF
Análisis matricial de estructuras, cuarta edición
PDF
COMPARACIÓN DEL COMPORTAMIENTO SÍSMICO LINEAL Y NO-LINEAL, EN EL ANÁLISIS Y D...
PDF
influencia del aditivo superplastifiante en las propiedades del concreto
PPTX
Problemas y abastecimiento de agua potable
PDF
Analisis matricial de estructuras
PPT
Presentación Análisis Estructural
PDF
Abastecimientos de agua
DOCX
Memoria de cálculo estructural
PDF
Libro resistencia de materiales I
PDF
Tesis PATOLOGIAS DEL CONCRETO UNIVERCIDAD ULADECH
PPTX
El concreto armado en edificaciones
PDF
10 ejercicios resueltos analisis estructural ii
Análisis matricial-de-las-estructuras-por-el-método-de-la-rigidez
Entrada 2. ejercicio 2 matricial
Abastecimiento diseo y_constru
Cap 07 intro-análisismatricialfinal (1)
Analisis matricial de armaduras 2d - Problemas Resueltos
128283513 abastecimiento-de-agua-pedro-rodriguez-ruiz
Analisis matricial de estrcuturas por rigideces d. curasma
Libro de ingeniería sanitaria ii
Análisis matricial de estructuras, cuarta edición
COMPARACIÓN DEL COMPORTAMIENTO SÍSMICO LINEAL Y NO-LINEAL, EN EL ANÁLISIS Y D...
influencia del aditivo superplastifiante en las propiedades del concreto
Problemas y abastecimiento de agua potable
Analisis matricial de estructuras
Presentación Análisis Estructural
Abastecimientos de agua
Memoria de cálculo estructural
Libro resistencia de materiales I
Tesis PATOLOGIAS DEL CONCRETO UNIVERCIDAD ULADECH
El concreto armado en edificaciones
10 ejercicios resueltos analisis estructural ii
Publicidad

Similar a Public espacio de matricesfasc3 (20)

PDF
PDF
Problemario av
PDF
Algebra lineal
PDF
Modelo input - output de Leontief
PDF
Algebralineal
PDF
CALCULO Y ANALISIS / Gabriel Larotonda
PDF
Matrices
PDF
Funciones en varias variables, una introduccion
PDF
Apoyo de ed metodos
PDF
Ecuaciones diferenciales
PDF
Calculo de variaciones
PDF
guia de ejercicios de algebra del cbc
PDF
guia de ejercicios de algebra del cbc
PDF
PDF
Matrices y sistemas lineales
PDF
Matrices y sistemas lineales
PDF
002 cap 2 conceptos basicos
PDF
002 cap 2 conceptos basicos
PDF
Smm pe-textos-2008-v9
PDF
Algebra_para_estudiantes_de_Ciencias_Eco.pdf
Problemario av
Algebra lineal
Modelo input - output de Leontief
Algebralineal
CALCULO Y ANALISIS / Gabriel Larotonda
Matrices
Funciones en varias variables, una introduccion
Apoyo de ed metodos
Ecuaciones diferenciales
Calculo de variaciones
guia de ejercicios de algebra del cbc
guia de ejercicios de algebra del cbc
Matrices y sistemas lineales
Matrices y sistemas lineales
002 cap 2 conceptos basicos
002 cap 2 conceptos basicos
Smm pe-textos-2008-v9
Algebra_para_estudiantes_de_Ciencias_Eco.pdf

Public espacio de matricesfasc3

  • 1. ISSN 1851-149X Cursos y Fascículo 3 seminarios de matemática Serie B Jorge Antezana Demetrio Stojanoff Análisis Matricial Departamento de Matemática Facultad de Ciencias Exactas y Naturales Universidad de Buenos Aires 2009
  • 2. Cursos y Seminarios de Matemática – Serie B Fascículo 3 Comité Editorial: Carlos Cabrelli (Director). Departamento de Matemática, FCEyN, Universidad de Buenos Aires. E-mail: cabrelli@dm.uba.ar Claudia Lederman. Departamento de Matemática, FCEyN, Universidad de Buenos Aires. E-mail: clederma@dm.uba.ar Gabriel Minian. Departamento de Matemática, FCEyN, Universidad de Buenos Aires. E-mail: gminian@dm.uba.ar ISSN 1851-149X Derechos reservados © 2009 Departamento de Matemática, Facultad de Ciencias Exactas y Naturales, Universidad de Buenos Aires. Departamento de Matemática Facultad de Ciencias Exactas y Naturales, Universidad de Buenos Aires Ciudad Universitaria- Pabellón I (1428) Ciudad de Buenos Aires Argentina. http://www.dm.uba.ar e-mail. secre@dm.uba.ar tel/fax: (+54-11)-4576-3335
  • 3. Jorge Antezana y Demetrio Stojanoff An´lisis Matricial a Buenos Aires, Octubre de 2008.
  • 5. Prefacio El an´lisis matricial (AM) es una continuaci´n natural del ´lgebra lineal, pero considerando a o a que el cuerpo de escalares son los n´meros reales o los complejos, y con una mirada basada u en la problem´tica de las teor´ de espacios de Hilbert y de sus operadores acotados. a ıas Muchos problemas del an´lisis, la geometr´ diferencial, el an´lisis funcional, los sistemas a ıa a din´micos, la f´ a ısica te´rica y otras importantes teor´ pueden “bajarse” al caso de matrices. o ıas, Y eso sin mencionar todas las ramas de la matem´tica aplicada, que suelen tener a este tipo de a reducciones como herramienta principal. En general, poder reducir y reformular un problema al caso matricial es un ´xito, porque es mucho m´s viable resolver un problema de matrices e a que el problema de origen. Por todo lo anterior, mencionar aplicaciones del AM es innecesario. Cualquier matem´tico a quiere poder aplicarlo, y trata sistem´ticamente de hacerlo. Porque es un contexto donde las a cuentas se pueden hacer (o la mayor´ cree a priori que deber´ poder hacerse). M´s a´n, ıa ıan a u cuando la reducci´n a matrices de un problema P sigue siendo dif´ o ıcil, se puede concluir que P ten´ una dificultad intr´ ıa ınseca. Pero con dificultad o sin ella, el tema es c´mo resolver P en o matrices. Para poder hacerlo, hay que desarrollar a fondo una teor´ de matrices, o al menos una ıa extensa serie de herramientas para trabajar con ellas, que pueda resolver los inmumerables problemas que le “caen” de arriba. Podr´ decirse que eso es el AM. ıa Lo m´s interesante del AM es que es el contexto m´s basico (un alumno de segundo a a a˜o de la licenciatura ya puede entender la mayor´ de los enunciados) en el que se pueden n ıa plantear problemas matem´ticos bien dif´ a ıciles, muchos de ellos no resueltos a´n. Pero para u entender a fondo este tipo de problemas, sus ramificaciones, y las t´cnicas que se suelen e aplicar para resolverlos, hace falta hacer un curso espec´ ıfico de AM, que pueda ser atendido tanto por matem´ticos formados como por estudiantes de la licenciatura. Otra particularidad a remarcable, es que con ese solo basamento, alcanza para leer y entender (y porqu´ no hacer) e una gran cantidad de publicaciones actuales. Un t´ ıpico trabajo final para un curso de AM, es estudiar un paper de los ultimos 2 o 3 a˜os del tema. Y en muchos casos, con los contenidos ´ n de este texto se tienen (casi) todas las herramientas para poder entenderlo a fondo. Por otra parte, como toda teor´ matem´tica, el AM tiene su problem´tica propia. El tema ıa a a m´s t´ a ıpicamente matricial son las desigualdades, que involucran normas, autovalores, valores singulares, determinantes, trazas, etc. El estudio de desigualdades de matrices y operadores
  • 6. iv es de una gran sutileza y forma una especie de mundo aparte. Sus especialistas son unos tipos especiales, una especie de gremio de artesanos. Las t´cnicas que se usan suelen ser intrincadas e y de un gran ingenio. Se aplican ideas de toda la matem´tica, pero la teor´ tiene sus reglas a ıa propias y toda una gama de herramientas y m´todos espcec´ e ıficos. Una de esas herramientas, fundamental y no muy conocida, es otro tema central para el AM: La teor´ de mayorizaci´n ıa o (de vectores y matrices), y sus m´ltiples ramificaciones. Esta teor´ elemental pero dif´ u ıa, ıcil, est´ poco difundida entre los matem´ticos, por lo que ha sido y sigue siendo redescubierta a a innumerables veces en distintas ´reas, muchas veces con terminolog´ ad hoc. Si bien la a ıas mayorizaci´n aparece como una forma de comparar vectores de Rn , cuando se la piensa en o vectores de autovalores o de valores singulares, se percibe r´pidamente que es una noci´n a o intr´ ınsecamente relacionada con la teor´ de matrices. Estos dos aspectos: mayorizaci´n y ıa o desigualdades, son desarrollados con profundidad en este texto. Una rama muy diferenciada del AM, la de matrices de entradas no negativas, llamada teor´ de Perron y Frobenuis, podr´ tener el rango de ´rea independiente. De ella daremos ıa ıa a un cap´ıtulo con las bases principales de la teor´ y otro cap´ ıa, ıtulo exponiendo una de sus ramas: las matrices totalmente positivas. Este libro es el resultado de m´s de una decena de cursos, dictados en diversos departa- a mentos de matem´tica (FCEN-UBA, FI-UBA, FCE-UNC y, sobre todo, en la FCE-UNLP) y a en varios congresos, en los ultimos a˜os. Es importante aclarar que se asumen como conoci- ´ n dos (y no se exponen en este texto) todos los contenidos de un curso inicial de ´lgebra lineal. a Para comodidad del lector, y para fijar notaciones y prerrequisitos, se enumeran al pricipio del primer cap´ ıtulo todas las nociones y resultados espec´ ıficos de un tal curso que ser´n usados a a lo largo del texto. Cualquier libro de ´lgebra lineal (y hay miles) sirve como referencia a para los mismos. Si me dan a elegir, yo recomiendo el de K. Hoffman y R. Kuntze [6] para algebristas, y el de P. D. Lax [10] para analistas. Debo mencionar que este libro est´ fuertemente basado en cuatro excelentes textos que a son la bibliograf´ b´sica en el tema: los dos tomos Matrix Analysis [7] y Topics of Matrix ıa a Analysis [8] de R. Horn y C. Johnson, el reciente libro [4] y, sobre todo, el maravilloso libro Matrix Analysis [3], ambos de R. Bhatia. Sin embargo, hay varios aspectos que lo diferencian. Por un lado, el presente texto est´ pensado como base para un curso elemental, y organizado a efectivamente para que todo el material pueda darse en un cuatrimestre. Por otro lado, hay fuertes diferencias en la manera de encarar muchos de los temas, y se incluyen resultados m´sa modernos y numerosas pruebas simplificadas de resultados cl´sicos, en base a publicaciones a recientes o al aporte de alumnos, ayudantes y profesores de todos los cursos antes mencionados. Los temas elegidos son solo una peque˜a parte de la teor´ pero son la base principal sobre n ıa, la que se edifican la mayor´ de las ´reas no incuidas en el texto. Hay muchas t´cnicas de ıa a e an´lisis, funciones anal´ a ıticas y geometr´ diferencial que suelen ser efectivas para problemas de ıa matrices. Ese tipo de interacciones no est´n incluidos porque el texto est´ pensado para una a a audiencia no necesariamente experta. Una referencia escencial para esa clase de recursos son los libros mencionado de R. Bhatia [3] y [4]. Otra teor´ aparte, poco desarrollada aqu´ es la ıa ı, de perturbaciones de matrices (autovalores, autovectores, etc). Sobre estos temas, se podr´ ıan mencionar varios cap´ ıtulos de [3], y tambi´n el monumental tratado de T. Kato [9]. Tampoco e se hace mucho incapi´ en este texto en los m´todos algor´ e e ıtmicos, que vendr´ a ser la otra pata ıan
  • 7. v de la teor´ Bajado un problema a matrices, hay dos alternativas: resolverlo te´ricamente ıa. o (para ese lado va este texto) o resolverlo aproximando, dado que en matrices se puede (si no son muy grandes). La bibliograf´ sobre aproximaci´n mediante algoritmos es inmensa, y nos ıa o limitaremos a citar el excelente tratado Matrix computations [2] de G. Golub y C. F. Van Loan, y la bibliograf´ que all´ aparece. La mayor´ de las herramientas necesarias para los ıa ı ıa algoritmos mencionados, y muchos de los procedimientos espec´ ıficos que ellos usan, s´ est´n ı a expuestos en el texto; pero sin hacer hincapi´ en la ´ptica de la velocidad de convergencia o la e o robustez ante perturbaciones, sin´ en la problem´tica te´rica que presentan. Otros temas que o a o no tratamos son los de matrices diagonalizables, polinomios minimales y formas can´nicas, o en particular la forma de Jordan. Esto es porque ese tipo de resultados no se usar´n en el a resto del texto, y porque suelen estar incluidos en un buen curso b´sico de ´lgebra lineal. Los a a dos libros antes mencionados ([6] y [10]) dan excelentes tratamientos de estos temas. Muchos de los resultados que expondremos siguen siendo v´lidos en contextos m´s ge- a a nerales que las matrices reales o complejas. Por ejemplo matrices a coeficientes en cuerpos generales o en anillos, ´lgebras de Banach, operadores en espacios de Banach o de Hilbert, a ´gebras de operadores (C∗ y de von Neumann). Esto sucede particularmente con resultados a de los cap´ ıtulos 1 (en las secciones 5, 7 y 9), 3, 6, 7, 8 (secci´n 3), 9, 10 y 12. La decisi´n o o que tomamos para presentarlos fue dar demostraci´nes espec´ o ıficas para el caso matricial y, por lo general, mencionar luego los contextos donde siguen valiendo, y las t´cnicas diferentes e para cada uno de ellos. La principal raz´n que justifica este enfoque es que el libro busca ser o autocontenido en un nivel elemental, y que las teor´ mencionadas son muy variadas, lo que ıas har´ muy dif´ dar las demostraciones generales sin largas secciones introductorias de cada ıa ıcil una de ellas. Adem´s, las pruebas para el caso matricial suelen ser much´ a ısimo m´s simples a y breves, y brindan un manejo interesante de las t´cnicas propias del AM. Por otra parte, e opinamos que es muy util el enfrentarse con una primera versi´n de enunciados complicados en ´ o un ´mbito menos complicado, para despu´s poder entender el significado de esos enunciados a e en los contextos m´s espec´ a ıficos (adem´s de su nueva demostraci´n). a o Sin embargo, este enfoque tiene un l´ ımite. Por lo tanto, una parte importante del AM hemos decidido desarrollarlo en el ambiente m´s general de operadores en espacios de Hilbert. a Se seleccionaron para esa parte aquellos resultados cuyas pruebas difieren poco al aumentar la generalidad, y que forman una rama imporante de la teor´ de operadores, aunque man- ıa tengan un esp´ıritu claramente matricial. Sin embargo, ese trabajo se realizar´ en un segundo a volumen, dado que el contenido del presente libro ya es suficiente para un curso cuatrimestral, y porque la segunda parte requiere una introducci´n espec´ o ıfica de espacios de Hilbert que no consideramos necesaria para este texto puramente matricial. Los contenidos del libro est´n suficientemente explicitados en los t´ a ıtulos de las secciones del ´ındice. A continuaci´n haremos algunos comentarios sobre el enfoque aplicado en cada o cap´ıtulo. Como se dijo anteriormente, al principio del cap´ıtulo 1 se enumera una serie de notaciones y resultados del ´lgebra lineal elemental. En la secci´n 5 se presentan varias a o f´rmulas elemetales, pero no demasiado conocidas, para operar con matrices. De particular o importancia es el manejo de matrices de bloques y las t´cnicas para operar con ellas. Luego e
  • 8. vi se presenta el teorema de Schur que muestra la equivalencia unitaria de toda matriz con una triangular superior. Este teorema, si bien suele estar incluido en los textos elementales, es presentado en detalle porque ser´ de importancia clave para numerosos resultados a lo largo a de todo el libro. El cap´ ıtulo culmina con tres secciones de resultados elementales, que tambi´n e ser´n muy usados m´s adelante: polinomios aplicados a matrices, descomposici´n QR y las a a o propiedades b´sicas de las matrices de rango uno. a Los cap´ıtulos 2 y 3, sobre matrices normales, autoadjuntas y positivas, empiezan con material b´sico, desarrollan en detalle las propiedades variacionales de los autovalores de a matrices autoadjuntas, y dan una versi´n finitodimensional de los principales resultados de la o teor´ de operadores en espacios de Hilbert, pero con las notaciones tradicionales del AM. Se ıa propone un estudio exhaustivo de las propiedades y caracterizaciones de las matrices definidas positivas, dado que suelen ser las protagonistas de las m´s interesantes desigualdades que se a estudiar´n m´s adelante. Por otra parte, muchos problemas generales de matrices pueden a a reducirse al caso positivo, a traves de yeites como tomar partes reales e imaginarias (ah´ se ı cae en las autoadjuntas) y luego positivas y negativas, usando matrices de bloques de 2 × 2, o bien usando la descomposici´n polar. o Los cap´ıtulos 4 y 5 tratan sobre mayorizaci´n, primero en su versi´n vectorial, y despu´s o o e en sus primeras aplicaciones a las matrices. El tratamiento es muy detallado, porque con- sideramos que es un tema poco difundido, y que es sumamente util en muchas ramas de la ´ matem´tica, adem´s de ser escencial para el AM. El cap´ a a ıtulo 6, sobre monoton´ y convexi- ıa dad de operadores, incluye una introducci´n al c´lculo funcional para matrices autoadjuntas, o a en el estilo del de operadores en espacios de Hilbert, pero con pruebas ad hoc. Luego se dan las principales caracterizaciones y propiedades de las funciones mencionadas, que son herramientas escenciales para estudiar desigualdades de matrices y operadores. Este cap´ ıtulo esta fuertemente basado en la exposici´n de estos temas que se hace en el libro de Bhatia [3]. o Sin embargo, hay importantes diferencias de enfoque, se presentan muchas pruebas diferentes, y la selecci´n de resultados presentados es distinta. o En el cap´ıtulo 7 se da una introducci´n b´sica a la teor´ de productos tensoriales y al- o a ıa ternados, como siempre con pruebas adecuadas al contexto matricial. Esta teor´ por ser ıa, bastante ardua de exponer, suele aparecer mencionada sin mucho detalle en los libros, en funci´n de poder aplicar los recursos que brinda (escenciales para entender las propiedades de o los determinantes y como herramienta para probar desigualdades) sin meterse en camisa de once varas. Aqu´ intentamos dar una exposici´n detallada y (casi) autocontenida, dado que ı o el contexto matricial lo permite sin que el esfuerzo sea excesivo, y porque en cap´ ıtulos poste- riores necesitaremos trabajar con propiedades muy espec´ ıficas del determinante de matrices y submatrices. El tema es que una buena presentaci´n de los productos alternados permite o justificar completamente todas esas propiedades, trabajo que se inicia en la secci´n 3, y se o contin´a en el cap´ u ıtulo 12. El cap´ıtulo 8 trata sobre productos de Hadamard. Aqu´ tambi´n el tratamiento es muy ı e detallado, porque es un ´rea que aparece poco en los tratados del tema, es un tema fuerte de a investigaci´n dentro del AM, y tiene adem´s muy intereantes aplicaciones en otras disciplinas. o a Se presenta una pueba completa del teorema de Haagerup que caracteriza la norma del ope- rador de multiplicaci´n (de Hadamard) por una matriz fija, relativa a la norma espectral de o
  • 9. matrices. El cap´ ıtulo 9 presenta una serie de importantes desigualdades de matrices, y puede pen- sarse como lugar en el que se concentran las t´cnicas y desarrollos realizados en los cap´ e ıtulos anteriores. La lista no es exhaustiva, pero da una idea de las principales l´ ıneas de la teor´ y ıa, presenta la mayor´ de las t´cnicas usuales que se utilizan para mostrar este tipo de desigual- ıa e dades. En el cap´ ıtulo 10 se estudian las principales propiedades del rango y del radio num´ricos e de matrices. Los teoremas m´s importantes que desarrollamos son el de Hausdorff-Toeplitz a sobre la convexidad del rango num´rico, y el de T. Ando sobre caracterizaciones matriciales e del radio num´rico. e Los ultimos tres cap´ ´ ıtulos enfocan la teor´ de Perron-Frobenius sobre las matrices de ıa entradas positivas, y las totalmente positivas. En el 11 se exponen los resultados cl´sicos a sobre matrices estrictamente positivas, no negativas e irreducibles. En el 12 se introducen los complementos de Schur y numerosas t´cnicas con determinandtes que, adem´s de tener un e a inter´s propio, son la herramienta clave para desarrollar, en el cap´ e ıtulo 13, una introducci´n o a la teor´ de matrices totalmente positivas. Esta cap´ ıa ıtulo se basa en un trabajo de T. Ando [20], y est´ escrito utilizando como punto de partida al trabajo final de A. Iglesias para un a curso de AM dictado en La Plata. Todos los cap´ıtulos tienen una ultima secci´n de ejercicios. Se proponen adem´s numerosos ´ o a ejercicios a lo largo del texto de cada cap´ ıtulo. Al principio de las secciones finales se los reenumeran, agreag´ndose a continuaci´n series de ejercicios nuevos. a o Qerr´ ıamos agradecer a Gustavo Corach por haber iniciado y habernos incluido en el trabajo de investigaci´n de nuestro grupo del IAM en los temas de An´lisis Matricial. Tambi´n va o a e nuestro agradecimiento a Celeste Gonz´lez, a partir de cuyo trabajo [25] se comenzo a escribir a la primera versi´n de este libro, a Pedro Massey, que nos aport´ invalorables comentarios e o o ideas (adem´s de muchos ejercicios), y a Agust´ Iglesias e Ivan Angiono, de quienes hemos a ın tomado algunos fragmentos de texto. Tambi´n agradecemos a los alumnos de los distintos e cursos que hemos dictado en estos a˜os, que han aportado una infinidad de sugerencias, n correcciones e ideas.
  • 10. viii
  • 11. ´ Indice General 1 Preliminares 1 1.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 1.2 El espectro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.3 Matrices unitarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 1.4 Matrices triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 1.5 Herramientas para operar con matrices . . . . . . . . . . . . . . . . . . . . . . . 11 1.6 El Teorema de Schur y sus corolarios . . . . . . . . . . . . . . . . . . . . . . . . 15 1.7 Polinomios y matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 1.8 QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 1.9 Matrices de rango uno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 1.10 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22 2 Matrices normales y Hermitianas 27 2.1 Matrices normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 2.2 Matrices Hermitianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29 2.3 Principio minimax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30 2.4 Entrelace de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 2.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36 3 Matrices definidas positivas 39 3.1 Propiedades b´sicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 a 3.2 Descomposici´n polar y valores singulares . . . . . . . . . . . . . . . . . . . . . 41 o 3.3 Parte positiva y parte negativa . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 3.4 Normas en Mn (C) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45 3.5 Algunas caracterizaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48 3.6 El producto de Hadamard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
  • 12. x ´ INDICE GENERAL 3.7 El famoso truco 2 × 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 3.8 Cortocircuitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55 3.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59 4 Mayorizaci´n o 67 4.1 Definiciones y caracterizaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 67 4.2 Mayorizaci´n y funciones convexas . . . . . . . . . . . . . . . . . . . . . . . . . 74 o 4.3 Birkhoff, Hall y los casamientos . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 4.4 Mayorizaci´n logar´ o ıtmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80 4.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 5 Mayorizaci´n de autovalores y valores singulares o 83 5.1 Aplicaciones a matrices Hermitianas . . . . . . . . . . . . . . . . . . . . . . . . 84 5.2 Teorema de Schur-Horn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86 5.3 Normas unitariamente invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . 91 5.4 Mayorizaci´n de matrices Hermitianas . . . . . . . . . . . . . . . . . . . . . . . 94 o 5.5 Teoremas de Lindskii y sus aplicaciones . . . . . . . . . . . . . . . . . . . . . . 99 5.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102 6 Funciones mon´tonas y convexas de operadores o 109 6.1 C´lculo funcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109 a 6.1.1 Continuidad del c´lculo funcional . . . . . . . . . . . . . . . . . . . . . . 111 a 6.1.2 Diferenciabilidad del c´lculo funcional . . . . . . . . . . . . . . . . . . . 112 a 6.2 Funciones mon´tonas de operadores . . . . . . . . . . . . . . . . . . . . . . . . 115 o 6.3 Funciones convexas de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . 120 6.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 7 Productos tensoriales y alternados 131 7.1 Producto tensorial de a dos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 7.2 Potencias tensoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 7.3 Productos alternados y determinantes . . . . . . . . . . . . . . . . . . . . . . . 135 7.4 Propiedades utiles de los productos alternados . . . . . . . . . . . . . . . . . . . 143 ´ 7.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 8 Producto de Hadamard 151 8.1 Propiedades b´sicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151 a 8.2 La norma de un multiplicador Hadamard . . . . . . . . . . . . . . . . . . . . . 153
  • 13. ´ INDICE GENERAL xi 8.3 Funcionales positivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154 8.4 Matrices incompletas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157 8.5 El teorema de Haagerup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159 8.6 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161 8.7 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 9 Algunas desigualdades de matrices 167 9.1 Partes reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167 9.2 Desigualdad de Thompson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170 9.3 Desigualdad aritm´tico-geom´trica en matrices . . . . . . . . . . . . . . . . . . 171 e e 9.4 Desigualdades de Young para matrices . . . . . . . . . . . . . . . . . . . . . . . 172 9.5 Desigualdades tipo H¨lder para matrices . . . . . . . . . . . . . . . . . . . . . . 179 o 9.6 La t´cnica alternativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183 e 9.7 Primeras aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184 9.8 La exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 9.9 Desigualdades de Araki y Cordes . . . . . . . . . . . . . . . . . . . . . . . . . . 189 9.10 Desigualades entre exponenciales . . . . . . . . . . . . . . . . . . . . . . . . . . 191 9.11 Desigualdad de Ando-Johnson-Bapat . . . . . . . . . . . . . . . . . . . . . . . . 194 9.12 Medias de operadores positivos . . . . . . . . . . . . . . . . . . . . . . . . . . . 196 9.13 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198 10 Rango y Radio Num´ricos e 203 10.1 Definiciones y propiedades b´sicas . . . . . . . . . . . . . . . . . . . . . . . . . 203 a 10.2 El Teorema de Hausdorff T¨eplitz o . . . . . . . . . . . . . . . . . . . . . . . . . 204 10.3 Caracterizaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208 10.4 Comparaci´n con NUI’s . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210 o 10.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213 11 Teor´ de Perron-Frobenius ıa 215 11.1 Matrices de entradas positivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216 11.2 Matrices de entradas no negativas . . . . . . . . . . . . . . . . . . . . . . . . . 222 11.3 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229 12 Complementos de Schur y determinantes 231 12.1 Notaciones y definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231 12.2 Identidades asociadas a determinantes . . . . . . . . . . . . . . . . . . . . . . . 235 12.3 Un poco m´s de complementos de Schur . . . . . . . . . . . . . . . . . . . . . . 238 a
  • 14. xii ´ INDICE GENERAL 12.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241 13 Matrices totalmente positivas 243 13.1 Definiciones y criterios de positividad total . . . . . . . . . . . . . . . . . . . . 243 13.2 Permanencia de la positividad total . . . . . . . . . . . . . . . . . . . . . . . . . 248 13.3 Factorizaciones LU y UL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252 13.4 Matrices oscilatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256 13.5 Variaci´n de signos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260 o 13.6 Totalmente Perron-Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266 13.7 Algunos ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274 13.8 Ap´ndice: La prueba del criterio clave . . . . . . . . . . . . . . . . . . . . . . . 277 e 13.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282 Bibliograf´ ıa 284 ´ Indice alfab´tico e 288 Notaciones y abreviaturas 288
  • 16. Cap´ ıtulo 1 Preliminares 1.1 Generalidades 1.1.1. Para empezar, enumeraremos las notaciones y convenciones m´s b´sicas, sobre vectores a a y matrices, que usaremos a lo largo de todo el texto: 1. Usaremos a C o R como cuerpo de escalares. 2. Llamaremos R+ al conjunto de n´meros reales no negativos, y R∗ al conjunto de u + n´meros reales positivos. u 3. Dado n ∈ N, usaremos el s´ ımbolo In para denotar al conjunto {1, 2, . . . , n} ⊆ N. 4. Llamaremos Mn,m (C) = Cn×m , al espacio de matrices rectangulares de n × m. 5. Cuando n = m, notaremos Mn (C) = Mn = Mn,n (C), a las matrices cuadradas de n × n sobre C. 6. Para matrices reales escribiremos Mn,m (R) = Rn×m y Mn (R) = Mn,n (R). 7. Para denotar las entradas de una matriz A ∈ Mn,m (C), usaremos indistintamente, por conveniencia del contexto, las notaciones A = (Aij ) i∈In o A = (aij ) i∈In . j∈Im j∈Im 8. Dada A ∈ Mn,m (C), denotaremos por AT ∈ Mm,n (C) a su matriz traspuesta, dada por AT = Aji , para i ∈ In y j ∈ Im . ij 9. Dado n ∈ N, denotaremos por I ∈ Mn (C), o bien In , si es que hace falta aclarar su tama˜o, a la matriz identidad, dada por Iij = 1 si i = j e Iij = 0 si i = j. n 10. La suma y producto de matrices (cuando sus tama˜os lo permitan) se hacen con las n definiciones usuales del ´lgebra lineal. Por ejemplo, si A ∈ Mn,m (C) y B ∈ Mm,r (C), a
  • 17. 2 Preliminares entonces AB ∈ Mn,r (C) y sus entradas son m (AB)ij = Aik Bkj , para todo i ∈ In y todo j ∈ Ir . (1.1) k=1 11. Dada A ∈ Mn (C), diremos que A es inversible si existe A−1 ∈ Mn (C), la unica matriz ´ que cumple que AA−1 = A−1 A = I. Denotaremos por Gl (n) = {A ∈ Mn (C) : A es inversible } , que es un grupo (de Lie) con la multiplicaci´n usual de matrices. Su neutro es In . o 12. Asumiremos como conocidas las propiedades del “determinante”, que denotaremos det : Mn (A) → A, para cualquier n ∈ N y cualquier anillo conmutativo A. En el Cap´ ıtulo 7 sobre productos tensoriales, se dar´n definiciones precisas, y se demostrar´n la mayor´ a a ıa de dichas propiedades. En el Cap´ ıtulo 12 se profundizar´ ese estudio. Sin embargo, a usaremos desde ahora esas propiedades, ad referendum de sus pruebas (esperemos que no haya c´ ırculos muy viciosos). 13. Dada A ∈ Mn (C), consideremos la matriz xIn − A ∈ Mn (C[x]). El polinomio carac- ıstico de A est´ dado por la f´rmula PA (x) = det(xI − A) ∈ C[x]. Es un polinomio ter´ a o m´nico de grado n. o n 14. Dada A ∈ Mn (C), su traza es el n´mero tr A = u Aii . Usaremos el hecho conocido i=1 de que, si B ∈ Mn (C), entonces tr AB = tr BA. 15. Sea A ∈ Mn,m (C). Las columnas de A se pueden pensar como vectores de Cn , y sus filas, como vectores de Cm . Se usar´ la notaci´n Ci (A) ∈ Cn (respectivamente a o Fi (A) ∈ Cm ) para denotar a la i-´sima columna (resp. fila) de A. e 16. Los vectores de Cn ser´n pensados como vectores columna, es decir que identificamos a Cn con Cn×1 . Sin embargo, a lo largo del texto los describiremos como una fila (estilo x = (x1 , . . . , xn ) ∈ Cn ), para ahorrar espacio. Por ejemplo, si A ∈ Mn (C) e i ∈ In , entonces Ci (A) = (a1i , a2i , . . . , ani ) ∈ Cn . 17. Si a = (a1 , . . . , an ) ∈ Cn , denotaremos por diag (a) a la matriz diagonal   a1 0 0  . .. .  ∈ M (C) . diag (a) = diag (a1 , . . . , an ) =  . . . . . n 0 0 an Por ejemplo, si tomamos 1 = (1, . . . , 1) ∈ Cn , entonces diag (e) = In . 18. Por otra parte, si A ∈ Mn (C), llamaremos d(A) ∈ Cn al la diagonal de A pensada como vector, i.e. d(A) = (A11 , . . . , Ann ).
  • 18. 1.1 Generalidades 3 1.1.2 (Matrices y operadores). Enumeraremos a continuaci´n las propiedades de las matrices o cuando son vistas como transformaciones lineales: 1. Dados dos C-espacios vectoriales V y W, llamaremos L(V, W) al C-espacio vectorial de transformaciones lineales T : V → W. Si V = W, ponemos L(V) = L(V, V). 2. Dado un C-espacio vectorial V y un conjunto X ⊆ V, denotaremos por Gen {X} al subespacio de V generado por X. Si X = {x1 , . . . , xm }, escribiremos tambi´n e Gen {X} = Gen {x1 , . . . , xm }. 3. Si A ∈ Mn,m (C), la pensaremos tambi´n como un elemento de L(Cm , Cn ) actuando por e multiplicaci´n: si x ∈ Cm = Mm,1 (C), entonces A(x) = A · x ∈ Cn , usando el producto o de la Eq. (1.1). En este contexto usaremos las notaciones conocidas: ker A = {x ∈ Cm : Ax = 0} y R(A) = A(Cm ) = Im(A) . 4. Se denotar´ por E = {e1 , . . . , em } a la base can´nica de Cm . A veces seremos m´s a o a (m) (m) ıcitos, poniendo Em = {e1 , . . . , em }, para aclarar el contexto. expl´ 5. Si A ∈ Mn,m (C), entonces se tiene que (m) Aei = Ci (A) ∈ Cn , para todo i ∈ Im . Por lo tanto, tenemos que R(A) = Gen {C1 (A), . . . , Cm (A) }. 6. Por el teorema de la dimensi´n, si A ∈ Mn (C) o L(Cn ), entonces A ∈ Gl (n) ⇐⇒ ker A = {0} ⇐⇒ R(A) = Cn . 7. El rango de A ∈ Mn,m (C) es rk(A) = dim R(A) = dim Gen {C1 (A), . . . , Cm (A) }. M´s a adelante, en la Observaci´n 3.7.4 (ver tambi´n el Ejercicio 1.1.15), veremos que coincide o e con el rango fila de A, que es la dim Gen {F1 (A), . . . , Fn (A) }. 8. Algunas veces pensaremos a ciertas matrices como operando en espacios vectoriales m´s a generales. Por ejemplo, si S ⊆ Cn es un subespacio y A ∈ Mn (C) verifica que A(S) ⊆ S, entonces se puede pensar a A (o su restricci´n a S) como un operador en S. En tal caso o diremos que “pensamos” a A|S ∈ L(S). Espacios de Hilbert finitodimensionales 1.1.3. En Cn consideraremos el producto interno (o escalar) com´n, dado por u n x, y = xk yk , x, y ∈ Cn . (1.2) k=1 Es claro que ·, · : Cn ×Cn → C verifica las propiedades que definen a un tal producto: Dados v, v, w ∈ Cn y λ ∈ C, entonces
  • 19. 4 Preliminares 1. v, v ≥ 0 y v, v = 0 si y s´lo si v = 0. o 2. u, v = v, u . 3. v, u + w = v, u + v, w . 4. λu, v = λ u, v , pero u, λv = λ u, v . Dado x ∈ Cn , definiremos su norma Eucl´ ıdea, a la usual: n 1/2 1/2 x = x 2 = x, x = |xk |2 . k=1 A x se lo llama unitario, si x = 1. Muchas veces consideraremos otras normas de vectores y matrices. Por ello damos una definici´n general: o Definici´n 1.1.4. Sea K = C o R y V un K-espacio vectorial. Una norma en V es una o funci´n N : V → R que verifica las siguientes condiciones: Dados u, v ∈ V y λ ∈ K, o 1. N (v) ≥ 0 y, adem´s, N (v) = 0 si y s´lo si v = 0. a o 2. N (u + v) ≤ N (u) + N (v). 3. N (λv) = |λ| N (v). Definici´n 1.1.5. Sean V un K-espacio vectorial, con K = C o R, y N una norma en V. o 1. Cuando N proviene de un producto interno ·, · , diremos que el par (V, N ) , o bien (V, ·, · ) es un K-espacio de Hilbert . Cuando K = C, tambi´n diremos que V es un “espacio de Hilbert” a secas. Ojo, ac´ se e a asume que dim V < ∞. Sin´ hay que pedir que V sea completo. o 2. Usualmente usaremos letras H o K para tales espacios y notaremos por L(H, K) al espacio de operadores lineales de H en K (acotados, si dim H = ∞). 3. Si H = K, escribimos L(H) en lugar de L(H, H). 4. Si A ∈ L(H, K) notaremos por ker A a su n´cleo y R(A) a su imagen. u Definici´n 1.1.6. Sea H un espacio de Hilbert. o 1. Dados x, y ∈ H, decimos que son ortogonales, y escribimos x ⊥ y si x, y = 0. 2. Sea X ⊆ H. Denotaremos por X ⊥ = {y ∈ H : y ⊥ x para todo x ∈ X}, al subespacio ortogonal a X. 3. Los vectores x1 , . . . , xk ∈ H forman un conjunto ortogonal cuando xi , xj = 0, para todo i = j.
  • 20. 1.1 Generalidades 5 2 4. Si adem´s los vectores est´n normalizados, es decir xi a a = xi , xi = 1 (i ∈ Ik ), entonces el conjunto se dice ortonormal. 5. Usaremos las siglas BON para denotar a una base ortonormal de H. Por ejemplo, la base can´nica En es una BON de Cn con el producto interno de la Eq. (1.2). o Definici´n 1.1.7. Sean H y K espacios de Hilbert y sea A ∈ L(H, K). Se llama adjunto de o A al unico operador A∗ ∈ L(K, H) que satisface ´ Ax, z K = x, A∗ z H , x ∈ H, z ∈ K. (1.3) La demostraci´n de que A∗ existe es un resultado b´sico de la teor´ de espacios de Hilbert. o a ıa En el caso finitodimensional, se puede construir a A∗ usando BONes, como veremos. 1.1.8 (Propiedades de la adjunta). Sean A, B ∈ L(H). Usando la Eq. (1.3) (y la unicidad) se verifican f´cilmente las siguientes propiedades: a 1. Supongamos que dim H = n. Si para cualquier BON fija B = {v1 , . . . , vn } de H, se identifica a los operadores de L(H) con matrices en Mn (C) v´ ıa Aij = Avj , vi , i, j ∈ In , entonces la matriz de A∗ es AT , la traspuesta conjugada de la matriz de A. En otras palabras, A∗ = Aji , para todo par i, j ∈ In . ij 2. (A∗ )∗ = A. 3. Dado λ ∈ C, se tiene que (λA + B)∗ = λ A∗ + B ∗ . 4. ker A = R(A∗ )⊥ y, si dim H < ∞, tambi´n R(A) = (ker A∗ )⊥ . e 5. (AB)∗ = B ∗ A∗ e I ∗ = I. 6. A es inversible si y s´lo si A∗ es inversible. En tal caso, (A∗ )−1 = (A−1 )∗ . o Definici´n 1.1.9. Dado A ∈ L(H) un operador en un espacio de Hilbert, decimos que A es: o 1. Hermitiano si A = A∗ . 2. anti-Hermitiano si A = −A∗ . 3. unitario si AA∗ = A∗ A = I. 4. normal si AA∗ = A∗ A. 5. definido positivo si Ax, x > 0 para todo x ∈ H. En tal caso de escribe A > 0. 6. semidefinido positivo si Ax, x ≥ 0 para todo x ∈ H. En tal caso de escribe A ≥ 0.
  • 21. 6 Preliminares Los mismos nombres tendr´n las matrices de Mn (C), al ser pensadas como operadores en a H = Cn con el producto escalar y la norma usuales. En este contexto recordar que, si A ∈ Mn (C), entonces A∗ = AT . Adem´s usaremos las siguientes notaciones: a 1. H(n) = {A ∈ Mn (C) : A = A∗ }. 2. U(n) = {U ∈ Mn (C) : U es unitaria }. 3. N (n) = {N ∈ Mn (C) : N es normal }. 4. Mn (C)+ = {A ∈ Mn (C) : A ≥ 0}. 5. Gl (n) = {A ∈ Mn (C) : A es invertible } y Gl (n)+ = Gl (n) ∩ Mn (C)+ . Lema 1.1.10 (Polarizaci´n). Sea H un C-espacio de Hilbert y sea A ∈ L(H). Entonces o 4 1 Ax, y = ik A (x + i k y), (x + i k y) para todo par x, y ∈ H . (1.4) 4 k=1 Demostraci´n. La cuenta es directa, y se deja como ejercicio. o Proposici´n 1.1.11. Sea H es un C-espacio de Hilbert y sea A ∈ L(H). Luego, las siguientes o condiciones son equivalentes: 1. A = 0. 2. Ax, y = 0 para todo par x, y ∈ Cn . 3. Az, z = 0 para todo z ∈ Cn . Demostraci´n. Es claro que 1 → 2 → 3. La implicaci´n 3 → 2 es consecuencia directa de o o la f´rmula de polarizaci´n (1.4). Si asumimos 2 y, para cualquier x ∈ H, tomamos y = Ax, o o obtenemos que Ax 2 = Ax, Ax = Ax, y = 0, por lo que A = 0. Observaci´n 1.1.12. Es importante se˜alar que el ´ o n ıtem 3 no implica a los otros en el caso de que H sea s´lo un R-espacio de Hilbert. Observar que no puede valer la polarizaci´n. o o 0 −1 2 Peor a´n, tomando como A = u ∈ L(R ) (una rotaci´n de 90 grados), es claro que o 1 0 Ax, x = 0 para todo x ∈ R2 . Veamos ahora una aplicaci´n a matrices: o Corolario 1.1.13. Sea A ∈ Mn (C). Entonces 1. A ∈ H(n) si y s´lo si Az, z ∈ R para todo z ∈ Cn . o 2. Mn (C)+ ⊆ H(n).
  • 22. 1.2 El espectro 7 Demostraci´n. Si A ∈ H(n) y z ∈ Cn , entonces Az, z = z, Az = Az, z . Si suponemos o que Az, z ∈ R para todo z ∈ Cn , entonces Az, z = Az, z = z, Az = A∗ z, z , ∀ z ∈ Cn =⇒ (A − A∗ ) z, z = 0 , ∀ z ∈ Cn . Por la Proposici´n 1.1.11, deducimos que A = A∗ . Por la definici´n de Mn (C)+ , si se tiene o o que A ∈ Mn (C)+ , entonces Az, z ∈ R+ ⊆ R para todo z ∈ Cn . Ejercicio 1.1.14. Sean A, ∈ Mm,n (C). Entonces se tiene que A∗ A ∈ Mn (C)+ y (A∗ A)i,j = Cj (A) , Ci (A) , para todo par i, j ∈ In . n n En particular, tr(A∗ A) = Cj (A) 2 = |aij |2 . j=1 i,j=1 Ejercicio 1.1.15. Sean A, ∈ Mm,n (C) L(Cm , Cn ). Mostrar que entonces ⊥ ker A = Gen {F1 (A), . . . , Fn (A) } ⊆ Cn . Deducir que rkF (A) := dim Gen {F1 (A), . . . , Fn (A) } = rk(A), o sea que los rangos fila y columna de A coinciden. 1.2 El espectro Definici´n 1.2.1. Se llama espectro de una matriz A ∈ Mn (C) al conjunto de todos los o autovalores de A: σ (A) = {λ ∈ C : λ es autovalor de A} = {λ ∈ C : ker(A − λI) = {0} }, que es un subconjunto finito y no vac´ de C. ıo 1.2.2 (Propiedades del espectro de matrices). Sea A ∈ Mn (C). Valen: 1. λ ∈ σ (A) si y s´lo si existe x ∈ Cn tal que x = 0 y Ax = λx. o 2. Si µ ∈ C, entonces σ(A + µI) = σ(A) + µ = {λ + µ : λ ∈ σ(A)}. 3. A ∈ Gl (n) si y s´lo si 0 ∈ σ (A). M´s a´n, λ ∈ σ (A) si y s´lo si A − λI ∈ Gl (n). o / a u / o 4. Sea PA (x) ∈ C[x] el polinomio caracter´ ıstico de A. Luego λ ∈ σ(A) si y s´lo si o PA (λ) = 0, o sea que σ(A) es el conjunto de ra´ıces de PA (x). 5. Como gr(PA ) = n, se tiene que 0 < |σ(A)| ≤ n. 6. σ(A∗ ) = σ(A). En efecto, usando 1.1.8, tenemos que A − λI ∈ Gl (n) ⇐⇒ (A − λI)∗ = A∗ − λ I ∈ Gl (n) . / /
  • 23. 8 Preliminares −1 7. Si A ∈ Gl (n), entonces σ A−1 = σ (A) = {λ−1 : λ ∈ σ(A)}. En efecto, es conse- cuencia de la igualdad ker(A − λI) = ker(A−1 − λ−1 I) (Ejercicio: probarla). Observaci´n 1.2.3. Vimos que los autovalores de A ∈ Mn (C) son las ra´ o ıces del polinomio ıstico PA (x) = det(xI − A) y que gr(PA ) = n. Pero PA puede tener ra´ caracter´ ıces m´ltiples, u por lo que σ (A) puede tener menos de n elementos (en tanto conjunto, sus elementos s´lo o pueden contarse de a uno). Muchas veces es necesario usar a cada λ ∈ σ (A) tantas veces como multiplicidad tiene como ra´ del caracter´ ız ıstico. Para hacer eso, factorizamos en C[x] a n n PA (x) = (x − λi ) = (x − λi (A) ), y diremos que i=1 i=1 “los autovalores de A son λ1 , . . . , λn ” , o “λ(A) = (λ1 (A), . . . , λn (A) )” , donde estaremos repitiendo cada autovalor de A tantas veces como multiplicidad tiene como ra´ de PA , y disponi´ndolos en alg´n orden de C fijado previamente (por ejemplo, el lex- ız e u icogr´fico en las coordenadas polares, con el cero al final). Por eso quedan n. Al vector a λ(A) ∈ Cn se lo llama “vector de autovalores de A”. Observaci´n 1.2.4. Sean A, B ∈ Mn (C) y S ∈ Gl (n) tales que B = SAS −1 . Luego B o difiere de A en un cambio de base. Se suele decir que A y B son similares y se nota A ∼ B. Por las propiedades del determinante, se tiene que PB (x) = det(xI − SAS −1 ) = det S(xI − A)S −1 = det(xI − A) = PA (x) , por lo que λ(A) = λ(B) y tambi´n σ(A) = σ(B). e Definici´n 1.2.5. Sea A ∈ Mn (C). o 1. El radio num´rico de A se define como e w(A) = m´x{ | Ax, x | : x ∈ Cn , x = 1 } . a 2. El radio espectral de A se define como ρ(A) = m´x{ |λ| : λ ∈ σ (A)} . a 3. La norma espectral de A es su norma como operador, inducida por la norma eucl´ ıdea de Cn . Es decir, A sp = m´x{ Ax : x ∈ Cn , x = 1} = m´ a ın{C ≥ 0 : Ax ≤ C x , x ∈ Cn } . 4. La norma 2 o norma Frobenius de A es su norma eucl´ıdea, si la pensamos como un vector largo. Por el Ejercicio 1.1.14, tenemos que n A 2 2 = |aij |2 = tr(A∗ A) . (1.5) i,j=1
  • 24. 1.3 Matrices unitarias 9 Observar que, analizando los autovectores (unitarios) de A, se muestra f´cilmente que a ρ(A) ≤ w(A) ≤ A sp . (1.6) 0 1 Tomando la matriz A = , se ve que las desiguadades pueden ser estrictas. En efecto, 0 0 ρ(A) = 0 , w(A) = 1/2 y A sp =1. Ejercicio: verificarlo. 1.3 Matrices unitarias Recordemos que U ∈ Mn (C) es unitaria si U U ∗ = U ∗ U = I, y que U(n) denota al conjunto de matrices unitarias en Mn (C). Teorema 1.3.1. Si U ∈ Mn (C), las siguientes afirmaciones son equivalentes: 1. U ∈ U(n). 2. U ∗ ∈ U(n). 3. U ∈ Gl (n) y U −1 = U ∗ . 4. U preserva el producto escalar, o sea que U x, U y = x, y , para todo par x, y ∈ Cn . 5. Si B es una BON de Cn , entonces U (B) tamb´n lo es. e 6. Las columnas de U forman una BON de Cn . 7. Las filas de U forman una BON de Cn . 8. Para todo x ∈ Cn , se tiene que U x = x (o sea que U es una isometr´ ıa). Adem´s, U(n) es un grupo con la multiplicaci´n de matrices. a o Demostraci´n. Ejercicio. Se sugiere usar el Ejercicio 1.1.14 y, para probar que 8 implica todo o lo dem´s, usar la Proposici´n 1.1.11. a o Definici´n 1.3.2. Dadas A, B ∈ Mn (C), se dice que A es unitariamente equivalente a B y o se nota A ∼ B si existe U ∈ U(n) tal que A = U ∗ BU . = Observar que, como U(n) es un grupo, se tiene que ∼ es una relaci´n de equivalencia. = o
  • 25. 10 Preliminares Teorema 1.3.3. Sean A y B ∈ Mn (C) tales que A ∼ B. Entonces = λ(A) = λ(B) , A 2 = B 2 , A sp = B sp y A es si y s´lo si B es o , donde puede significar: Hermitiana, anti-Hermitiana, normal, definda positiva o unitaria. Demostraci´n. La primera igualdad se sigue de la Observaci´n 1.2.4. Sea U ∈ U(n) tal que o o B = U AU ∗ . Entonces, por la Eq. (1.5), B 2 2 = tr(B ∗ B) = tr(U A∗ U ∗ U AU ∗ ) = tr(U A∗ AU ∗ ) = tr(A∗ A) = A 2 2 , donde la pen´ltima igualdad se deduce del hecho de que tr(XY ) = tr(Y X) para todo par u X, Y ∈ Mn (C). Con respecto a las normas espectrales, B sp = m´x U A(U ∗ x) = m´x Ay = A a a sp , x =1 y =1 ya que U ∗ {x ∈ Cn : x = 1} = {y ∈ Cn : y = 1}, porque U y U ∗ son isometr´ ıas sobreyectivas. Las afirmaciones sobre se prueban directamente de las definiciones, porque B ∗ = (U AU ∗ )∗ = U A∗ U ∗ , con la misma U ∈ U(n). 1.4 Matrices triangulares Definici´n 1.4.1. Sea T ∈ Mn (C). Diremos que o 1. T es triangular superior (abreviamos TS) si verifica que Tij = 0 para i > j. Es decir que T tiene ceros por debajo de su diagonal. 2. T es estrictamente TS si Tij = 0 para i ≥ j. Ac´ tambi´n d(T ) = 0. a e 3. An´logamente se definen las matrices triangulares inferiores y estrictamente triangulares a inferiores. 4. Denotaremos por T S(n) = { T ∈ Mn (C) : T es triangular superior }. 1.4.2 (Propiedades de las matrices triangulares). Tenemos las siguientes propiedades (enu- meraremos los resultados, y las pruebas no escritas quedar´n como ejercicio para el lector): a 1. Sea E = {e1 , . . . , en } la base can´nica de Cn . Notemos Hk = Gen {e1 , . . . , ek }, para o cada k ∈ In , y H0 = {0}. Dada T ∈ Mn (C) se tiene que T ∈ T S(n) ⇐⇒ T (Hk ) ⊆ Hk , para todo k ∈ In , (1.7) y T es estrictamente TS ⇐⇒ T (Hk ) ⊆ Hk−1 , para todo k ∈ In . 2. Usando la Eq. (1.7) sale f´cil que T S(n) es un subanillo de Mn (C). Es decir que a T1 , T2 ∈ T S(n) =⇒ T1 + T2 y T1 T2 ∈ T S(n) . (1.8) Tambi´n son subanillos los otros conjuntos de matrices triangulares, pero las estricta- e mente triangulares no tienen uno.
  • 26. 1.5 Herramientas para operar con matrices 11 3. Adem´s, dadas S, T ∈ T S(n), se tiene que a d (ST ) = d (S) · d (T ) := (S11 · T11 , . . . , Snn · Tnn ) . (1.9) Esto se muestra directamente calculando (ST )ii por la f´rmula (1.1). o 4. Si T ∈ Mn (C) es estrictamente triangular, entonces T n = 0. 5. Si T ∈ T S(n), entonces su polinomio caracter´ ıstico cumple que n PT (x) = det (xI − T ) = (x − Tii ) =⇒ λ(T ) = d(T ) (salvo el orden) . (1.10) i=1 Lo mismo pasa para su transpuesta T T , que es una trianagular inferior gen´rica. La e prueba es por inducci´n, desarrollando el determinante por la primera columna. o n n 6. Si T ∈ T S(n), entonces tr T = Tii y det T = Tii . Para la parte del determinante, i=1 i=1 se sugiere mirar la prueba de la Proposici´n 1.5.4. o 7. Si T ∈ T S(n) es inversible, entonces −1 T −1 ∈ T S(n) y d T −1 = d (T ) := (d1 (T )−1 , . . . , dn (T )−1 ) . (1.11) En efecto, por la Eq. (1.7) y el hecho de que T ∈ Gl (n), sabemos que T (Hk ) = Hk =⇒ T −1 (Hk ) = Hk , para todo k ∈ In =⇒ T −1 ∈ T S(n) . −1 La igualdad d T −1 = d (T ) se deduce ahora de la Eq. (1.9). 1.5 Herramientas para operar con matrices En esta secci´n veremos varias estrategias para operar con matrices: o 1.5.1. Sean A ∈ Mn, m (C) y B ∈ Mm,r (C). Enumeraremos los resultados, y las pruebas no escritas quedar´n como ejercicio para el lector. a 1. La entrada (AB)ij es el producto de la Fi (A) ∈ M1, m (C) , por la Cj (B) ∈ Mm,1 (C). m m 2. Si x = (x1 , . . . , xm ) ∈ Cm , entonces Ax = A xi ei = xi Ci (A). i=1 i=1 3. El producto AB ∈ Mn, r (C) representa la composici´n A ◦ B : Cr → Cn , cuando se las o piensa como operadores. Sus columnas se describen por la acci´n de A en las columnas o de B: Ci (AB) = A · Ci (B) ∈ Cn , para todo i ∈ Ir . (1.12) Esto se puede probar directamente por la f´rmula (1.1) del producto, o bien observando o (r) (r) que Ci (AB) = (AB)ei = A · ( Bei ) = A · Ci (B), lo que se sigue de pensar a AB como una composici´n. o
  • 27. 12 Preliminares 4. An´logamente puede verse que a Fi (AB) = Fi (A) · B ∈ Cr , para todo i ∈ In . (1.13) 5. Si alguna Ci (B) = 0, entonces Ci (AB) = 0 (con el mismo i). An´logamente, si se tiene a que Fi (A) = 0, entonces Fi (AB) = 0. Esto se usa para identificar los ideales (a izq. y der.) del anillo Mn (C), cuando n = m. 6. Fijemos una columna Ci (A). Alguna entrada de Ci (A) aparece al calcular cualquier entrada de AB. Pero siempre multiplicada por alguna entrada de la Fi (B) (recordar la m f´rmula (1.1): (AB)st = o Asi Bit ). i=1 7. Por lo tanto, si Fi (B) = 0, entonces podemos cambiar la Ci (A) sin que ello afecte al producto AB. An´logamente, si Ci (A) = 0, se puede cambiar impunemente Fi (B) . a 8. Sean λ ∈ Cn y µ ∈ Cm . Si D1 = diag (λ) ∈ Mn (C) y D2 = diag (µ) ∈ Mm (C), entonces D1 A = λi aij i∈In , AD2 = aij µj i∈In y D1 AD2 = λi µj aij i∈In . (1.14) j∈Im j∈Im j∈Im Bloques 1.5.2. Sea k ∈ In , tal que 0 < k < n y llamemos I = Ik y J = In Ik = {k + 1, . . . , n}. Dada A ∈ Mn (C) notaremos su representaci´n en bloques como sigue: o AI AIJ Ck A= , donde AIJ = (Arl )r∈I ∈ Mk, n−k (C) , AJI AJ Cn−k l∈J y en forma similar se definen AI ∈ Mk (C), AJI ∈ Mn−k, k (C) y AJ ∈ Mn−k (C). M´s a adelante (en la secci´n 2.4 y, sobre todo en los Cap´ o ıtulos 12 y 13) se usar´ una notaci´n m´s a o a detallada, tipo AIJ = A[I|J] = A[I|I) y as´ Para fijar ideas observemos que, por ejemplo, ı. A ∈ T S(n) ⇐⇒ AI ∈ T S(k) , AJ ∈ T S(n − k) y AJI = 0. (1.15) Es extremadamente util el hecho de que esta notaci´n es consistente con las operaciones de ´ o matrices. Por ejemplo: Si B ∈ Mn (C): AI + B I AIJ + BIJ Ck 1. A + B = , AJI + BJI AJ + B J Cn−k A∗ A∗ Ck 2. A∗ = I JI , una especie de transpuesta adjuntada. Luego A∗ IJ A∗ J Cn−k A = A∗ ⇐⇒ AI ∈ H(k) , AJ ∈ H(n − k) y AJI = A∗ . IJ
  • 28. 1.5 Herramientas para operar con matrices 13 3. La m´s importante es la f´rmula del producto: a o AI BI + AIJ BJI AI BIJ + AIJ BJ Ck AB = , (1.16) AJI BI + AJ BJI AJI BIJ + AJ BJ Cn−k que reproduce la f´rmula del producto de matrices en M2 (C). Observar que los tama˜os o n de todos los productos que aparecen son los adecuados al bloque donde viven. La prueba de esta f´rmula es straightforward. Hay que usar la f´rmula (1.1) para (AB)ij , o o dividiendo cada suma en sus primeros k sumandos, y en los otros n − k. 4. Por ejemplo, cualquiera sea C ∈ Mk, n−k (C), se tiene que Ik C Ik −C A= ∈ Gl (n) y, adem´s , a A−1 = ∈ Gl (n) . (1.17) 0 In−k 0 In−k −1 Ik 0 Ik 0 An´logamente, si X ∈ Mn−k, k (C), luego a = . X In−k −X In−k 5. Otra aplicaci´n: Si U ∈ U(k) y V ∈ U(n − k), entonces o U 0 U AI U ∗ U AIJ V ∗ W = ∈ U(n) y W AW∗ = . (1.18) 0 V V AJI U ∗ V AJ V ∗ 6. Si uno parte a In en r mitades (con r ≥ 3), para cada A ∈ Mn (C) se pueden definir sus r × r bloques relativos a esa partici´n. Y valen propiedades an´logas a las del caso o a 2 × 2. En particular, vale algo similar a la f´rmula (1.16), pero imitando el producto en o Mr (C). Observaci´n 1.5.3. Sea S ⊆ Cn un subespaceio con dim S = k. Todo lo que se hizo o reci´n se puede generalizar exactamente igual a una representaci´n de Mn (C) en matrices e o de 2 × 2 de bloques, pero teniendo en cuenta la descomposici´n Cn = S ⊕ S ⊥ . El caso o anterior corresponder´ a tomar S = Gen {e1 , . . . , ek }. La manera m´s econ´mica de verlo ıa a o es tomar una BON {v1 , . . . , vn } = B de Cn tal que S = Gen {v1 , . . . , vk } (por lo que S ⊥ = Gen {vk+1 , . . . , vn } ). Tomando coordenadas de las matrices en la base B, el laburo anterior se extrapola a cualquier descomposici´n. Pedimos que B sea una BON y no una base cuaquiera o (que empiece por una base de S) para que valgan las f´rmulas relativas a A∗ , en particular o (1.18). Las dem´s valen tomando coordenadas en cualquer base de aquel tipo. La notaci´n a o que usaremos para estas representaciones es AS AS, S ⊥ S A= . AS ⊥ , S AS ⊥ S⊥ I 0 S Observar que, si PS es el proyector ortogonal sobre S, entonces PS = . Adem´s, a 0 0 S⊥ AS = PS APS = PS A S , o sea pensado en L(S) (sin los tres ceros). Al operador AS ∈ L(S) se lo llama la compresi´n de A a S. Su matriz concreta (de k × k) depende de la BON B o elegida, pero en tanto operador en L(S), nuestro AS s´lo depende del subsepacio S. F´rmulas o o semejantes se tienen para los otros tres bloques de A.
  • 29. 14 Preliminares Proposici´n 1.5.4. Sea n ≥ 2, A ∈ Mn (C) y S ⊆ Cn un subespacio propio. Si o B C S A= =⇒ det A = det B det D y PA (x) = PC (x)PD (x) . (1.19) 0 D S⊥ Por lo tanto λ(A) = λ(B) , λ(D) . Una f´rmula similar vale si A es triangular inferior de o bloques (para S). Demostraci´n. Eligiendo bases de S y S ⊥ , y usando que la similaridad no cambia ni el det o ıstico, podemos asumir que S = Gen {e1 , . . . , ek }, donde k = dim S. M´s a´n, ni el caracter´ a u ya que elegimos una BON cualquiera de S, podemos suponer su primer elemento era un autovector x1 ∈ S de B para cierto λ ∈ σ(B). Observar que entonces tambi´n se tiene que e Ax1 = λx1 . Al tomar matrices, queda que λ λ ∗ B1 C1 A= y B= con A1 = ∈ Mn−1 (C) . 0 A1 0 B1 0 D Ojo que si k era uno, queda que A1 = D y que B = [λ] (en ese caso ∗, B1 y C1 no existen). Si k > 1, desarrollando por la primer comumna, queda que det A = λ det A1 , det B = λ det B1 , PA (x) = (x − λ) PA1 (x) y PB (x) = (x − λ) PB1 (x) . x−λ − Las dos ultimas salen porque xIn −A = ´ , y lo mismo para B. Haciendo 0 xIn−1 − A1 ahora inducci´n en n ≥ 2 (o en k, va por gustos), estamos hechos. Otra manera de probarlo o es v´ la definici´n con permutaciones de Sn , porque las permutaciones que no pasan por ıa o el bloque nulo de abajo, son todas las del tipo σ ∈ Sk × Sn−k . Este camino queda como ejercicio. Como ejemplo del uso de estas t´cnicas, mostraremos a continuaci´n la relaci´n que hay entre e o o el espectro del producto de dos matrices, en sus dos ´rdenes posibles. Se suguiere tratar de o probar el siguiente enunciado directamente, para ver cuanto m´s f´cil puede hacerse con la a a t´cnica de bloques, y la primera aparici´n del famoso truco de 2 × 2. e o Proposici´n 1.5.5. Dadas A, B ∈ Mn (C), entonces σ (AB) = σ (BA). M´s a´n, AB y BA o a u ıstico, por lo que λ(AB) = λ(BA) ∈ Cn . tienen el mismo polinomio caracter´ Demostraci´n. Por la Eq. (1.17), sabemos que la matriz o I A I −A M= ∈ Gl (2n) , y que M −1 = . 0 I 0 I Adem´s, usando la ecuaci´n (1.16), nos queda que a o AB 0 I −A AB 0 I A M −1 M = B 0 0 I B 0 0 I 0 0 I A 0 0 = = . B 0 0 I B BA
  • 30. 1.6 El Teorema de Schur y sus corolarios 15 Usando la Proposici´n 1.5.4, podemos deducir que PAB = PBA , porque si se tienen dos o polinomios P, Q ∈ C[x] que cumplen xn P (x) = xn Q(x), entonces P = Q. Observaci´n 1.5.6. Sean A ∈ Mn,m (C) y B ∈ Mm,n (C) con m > n. Con casi la misma o prueba que la Proposici´n 1.5.5 puede mostrarse que σ (BA) = σ (AB) ∪ {0}, puesto que sus o ısticos cumplen PBA (x) = xm−n PAB (x). polinomios caracter´ 1.6 El Teorema de Schur y sus corolarios El siguiente resultado, el primero de los varios debidos a Schur que enunciaremos, es suma- mente util, y ser´ usado sistem´ticamente en todo este trabajo. ´ a a Teorema 1.6.1 (Schur 1). Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 , ... , λn ), dispuestos en cualquier orden prefijado. Entonces 1. Existen matrices U ∈ U(n) y T ∈ T S(n) que verifican: a. A = U T U ∗ . b. d (T ) = λ(A), i.e. Tii = λi , para todo i ∈ In . 2. Si A ∈ Mn (R), el teorema sigue valiendo (con U ∈ Mn (R)) siempre que σ (A) ⊆ R. 3. Si B ∈ Mn (C) conmuta con A, existen U ∈ U(n), y T1 , T2 ∈ T S(n) tales que A = U T1 U ∗ , B = U T2 U ∗ (con la misma U ) y d (T1 ) = λ(A) . La d (T2 ) tendr´ a los autovalores de B, pero en un orden que no podremos elegir. a Demostraci´n. La prueba la realizaremos por inducci´n sobre la dimensi´n n. Si n = 1, el o o o resultado es trivial. Si n > 1, tomemos x1 ∈ ker(A − λ1 I) con x1 = 1. Completamos a una BON de Cn con vectores x2 , . . . , xn , y los ponemos en las columnas de una matriz U1 . Por ∗ el Teorema 1.3.1, U1 ∈ U(n). Como U1 (e1 ) = x1 y U1 (x1 ) = e1 , es f´cil ver que a ∗ ∗ ∗ λ1 ∗ C C1 (U1 AU1 ) = U1 AU1 e1 = λ1 e1 =⇒ U1 AU1 = , 0 A2 Cn−1 donde A2 ∈ Mn−1 (C). Por la Observaci´n 1.2.4, sus polinomios caractr´ o ısticos cumplen PA (x) = PU1 AU1 (x) = (x − λ1 )PA2 (x) =⇒ λ(A2 ) = (λ2 , . . . , λn ) ∈ Cn−1 . ∗ Por HI, existen V ∈ U(n − 1) y T2 ∈ T S(n − 1) tales que V ∗ A2 V = T2 y d(T2 ) = λ(A2 ). 1 0 Podemos extender V a otra matriz U2 = ∈ U(n). Sea U = U1 U2 . Entonces, 0 V usando las ecuaciones (1.18) y (1.15) sobre productos de matrices de bloques, nos queda que 1 0 λ1 ∗ 1 0 U ∗ AU = U2 (U1 A U1 ) U2 ∗ ∗ = 0 V∗ 0 A2 0 V λ1 λ1 = = = T ∈ T S(n) , 0 V ∗ A2 V 0 T2
  • 31. 16 Preliminares y se tiene que d(T ) = (λ1 , d(T2 ) ) = (λ1 , λ(A2 ) ) = λ(A). El caso real sale igual. Notar que se puede elegir x1 ∈ Rn siempre que λ1 ∈ R. El caso de dos matrices que conmutan, se deduce de que ker(A − λ1 I) es invariante para B (cuenta f´cil, a ya que conmutan), por lo que el vector x1 se puede elegir como un autovector de B actuando en ker(A−λ1 I) (no se sabe cuales de los autovalores de B en Cn pueden elegirse ah´ El resto ı). de la prueba sigue igual, usando que las matrices achicadas A2 y B2 siguen conmutando. Corolario 1.6.2. Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 , . . . , λn ). Entonces n n tr A = λi y det A = λi . i=1 i=1 Demostraci´n. Por el Teorema 1.6.1 sabemos que podemos escribir A = U ∗ T U , donde se o tiene que U ∈ U(n), T ∈ T S(n) y d(T ) = λ(A). Luego tr A = tr T y det A = det T . Corolario 1.6.3. Sea U ∈ U(n). Entonces | det U | = 1. Demostraci´n. Basta notar que σ (U ) ⊆ {z ∈ C : |z | = 1}, dado que U es una isometr´ o ıa. Observaci´n 1.6.4. Sean A, B ∈ Mn (C). En general, no se tiene la menor idea de qu´ o e pueden ser los espectros σ(A + B) y σ(AB). Sin embargo, cuando A y B conmutan, el Teorema 1 de Schur nos da alguna informaci´n al respecto. El siguiente resultado vale tambi´n o e el ´lgebras de Banach de dimensi´n infinita, pero con una prueba mucho m´s sofisticada. a o a Corolario 1.6.5. Sean A, B ∈ Mn (C), tales que AB = BA. Entonces 1. σ(A + B) ⊆ σ(A) + σ(B) = {λ + µ : λ ∈ σ(A) y µ ∈ σ(B)}. 2. σ(AB) ⊆ σ(A) · σ(B) = {λ · µ : λ ∈ σ(A) y µ ∈ σ(B)}. M´s a´n, existen ciertas ordenaciones de los vectores de autovalores λ(A) y λ(B) tales que a u (operando en esos ´rdenes), λ(A + B) = λ(A) + λ(B) y o λ(AB) = λ(A) · λ(B) = (λ1 (A)λ1 (B), . . . , λn (A)λn (B) ) . (1.20) Demostraci´n. Probaremos solamente la igualdad (1.20). Las cuentas para λ(A + B) son o iguales (y m´s f´ciles). Por el Teorema 1 de Schur 1.6.1, existen U ∈ U(n), y T1 , T2 ∈ T S(n) a a tales que A = U T1 U ∗ , B = U T2 U ∗ , d (T1 ) = λ(A) y d (T2 ) = λ(B), aunque los ´rdenes en o que aparecen λ(A) y λ(B) no lo sabemos. Pero en esos ´rdenes, tenemos que o T1 · T2 ∈ T S(n) =⇒ λ(T1 T2 ) = d (T1 T2 ) = d (T1 ) · d (T2 ) = λ(A) · λ(B) , por las f´rmulas (1.8), (1.10) y (1.9). Pero AB = (U T1 U ∗ )(U T2 U ∗ ) = U (T1 T2 )U ∗ . Luego, o por el Teorema 1.3.3, y en el orden que hab´ λ(T1 T2 ) = λ(AB). ıa, Corolario 1.6.6. Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 , . . . , λn ). Entonces λ(A∗ ) = λ(A) = (λ1 , . . . , λn ) . Esto generaliza la igualdad σ(A∗ ) = σ(A) ya vista.
  • 32. 1.7 Polinomios y matrices 17 Demostraci´n. Sean U ∈ U(n) y T ∈ T S(n), con d (T ) = λ(A), tales que A = U ∗ T U . Luego o A∗ = U ∗ T ∗ U , por lo que λ(A∗ ) = λ(T ∗ ). Pero T ∗ es triangular inferior, as´ que tambi´n se ı e tiene que λ(T ∗ ) = d (T ∗ ) = d (T ) = λ(A). 1.7 Polinomios y matrices m Observaci´n 1.7.1. Si A ∈ Mn (C) y P (x) = o bk xk ∈ C[x], entonces P se puede evaluar k=0 en A de la siguiente manera: m P (A) = bk Ak ∈ Mn (C) , k=0 dado que las potencias (enteras) Ak se definen con el producto de matrices, y viven en Mn (C). Adem´s, se tiene las siguientes propiedades: a 1. Como las potencias de A conmutan entre s´ se deduce f´cilmente que la aplicaci´n ı, a o EA : C[x] → Mn (C) dada por P → P (A) (o sea la evaluaci´n en A) es un morfismo de o anillos. Por lo tanto, si se tiene una factorizaci´n P = QR, con Q, R ∈ C[x], entonces o P (A) = Q(A)R(A), ahora con el producto de matrices. 2. Si S ∈ Gl (n), entonces (SAS −1 )k = SAk S −1 , para todo k ∈ N. Luego, es f´cil ver que a P (SAS −1 ) = S · P (A) · S −1 , para todo P ∈ C[x] . (1.21) 2 3. Si T ∈ T S(n), hemos visto que T 2 ∈ T S(n) y que d T 2 = (T11 , . . . , Tnn ) = d (T ) . 2 2 Esto se extinede a potencias enteras, por inducci´n. Por lo tanto, o P (T ) ∈ T S(n) y P (T )ii = P (Tii ) para todo i ∈ In , (1.22) o sea que d (P (T ) ) = P (d (T ) ) = P (d (T ) ) = (P (T11 ) , . . . , P (Tnn ) ). Corolario 1.7.2. Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 , . . . , λn ). Entonces, λ(P (A) ) = P (λ(A) ) := (P (λ1 ) , ... , P (λn ) ) para todo P ∈ C[x] . En particular, σ (P (A) ) = P (σ (A) ) := P (λ) : λ ∈ σ (A) . Demostraci´n. Supongamos que T ∈ T S(n). Recordemos de la Eq. (1.10) que d (T ) = λ(T ). o Por la Eq. (1.22), sabemos que P (T ) ∈ T S(n) y d (P (T ) ) = P (d (T ) ). Luego, (1.10) λ(P (T ) ) = d(P (T ) ) = P (d (T ) ) = P (λ(T ) ) , lo que prueba el Corolario en este caso. Si A ∈ Mn (C) es cualquier matriz, sean U ∈ U(n) y T ∈ T S(n) tales que A = U ∗ T U y λ(A) = d(T ) = λ(T ) .
  • 33. 18 Preliminares Por la Eq. (1.21), tenemos que P (A) = U ∗ P (T )U . Luego, por la Observaci´n 1.2.4 (que o dec´ que cambiar de base no cambia el vector λ) y el caso anterior, sabemos que ıa λ(P (A) ) = λ(P (T ) ) = P (λ(T ) ) = P (λ(A) ) . Se sugiere otra manera de hacerlo, aplicando cuentas de polinomios. Por ejemplo, factorizar el polinomio Q(x) = P (x) − µ, para µ ∈ P (σ (A) ) o µ ∈ σ (P (A) ), y analizar qu´ pasa con e Q(A). Esta prueba es la que sirve en dimensi´n infinita. Pero tiene el defecto que no da o informaci´n sobre multiplicidades. o Corolario 1.7.3 (Hamilton-Cayley). Sea A ∈ Mn (C). Luego PA (A) es la matriz nula. Demostraci´n. Por el Teorema 1.6.1, la Eq. (1.21) y la Observaci´n 1.2.4, sabemos que o o existen U ∈ U(n) y T ∈ T S(n) tales que U T U ∗ = A, PT (x) = PA (x) y PA (A) = U PT (T )U ∗ . Luego basta probar que PT (T ) = 0 para matrices T ∈ T S(n). En este caso, por la Eq. (1.10), sabemos que n n PT (x) = (x − Tii ) =⇒ PT (T ) = (T − Tii I) . i=1 i=1 Llamemos Ti = (T − Tii I) y Hi = Gen {e1 , . . . , ei }, para cada i ∈ In . Todas las Ti estan en T S(n), comnutan entre s´ y cumplen que (Ti )ii = 0. Luego, si H0 = {0}, se tiene que ı, Ti (Hi ) = Ti Hi−1 ⊕ Gen {ei } = Ti Hi−1 + Gen {T ei } ⊆ Hi−1 para todo i ∈ In . Si al producto de ellas PT (T ) = Ti lo ordenamos as´ T1 T2 . . . Tn (total las Ti conmutan), ı: i∈In vemos inmediatamente que Ti (Cn ) = Ti (Hn ) ⊆ Ti (Hn−1 ) ⊆ . . . ⊆ T1 T2 (H2 ) ⊆ T1 (H1 ) = {0} . i∈In i∈In i∈In−1 O sea que PT (T ) = 0. Observaci´n 1.7.4. El Teorema de Hamilton Cayley vale para matrices en cualquier cuerpo. o La prueba anterior es simple, pero para generalizarla hace falta subir a una clausura algebr´ica a (o aun cuerpo de descomposici´n de PA (x) ), porque necesita del Teorema 1 de Schur, que o solo vale para cuerpos algebr´icamente cerrados (se necesitan los λi (A) , que son las raices a que factorizan a PA (x) ). A nadie se le ocurra postular la siguiente prueba general: PA (A) = det(A · I − A) = det 0 = 0, porque es desastrosamente err´nea. En palabras del maestro Enzo Gentile, “es peor que o pegarle una patada a una vieja en la cara” (sic).
  • 34. 1.8 QR 19 1.8 QR Otra aplicaci´n importante de las matrices triangulares es el denominado m´todo QR. o e ıtems 6 y 7 de 1.5.1. Sea A ∈ Mn (C) y fijemos 1.8.1. Repaso: Recordemos lo visto en los ´ una columna Ci (A). Observar que alguna entrada de Ci (A) aparece al calcular cualquier entrada de AB. Pero siempre multiplicada por alguna entrada de la Fi (B) (recordar que m (AB)st = Asi Bit ). Por lo tanto, si Fi (B) = 0, entonces podemos cambiar a piacere la i=1 Ci (A) sin que ello afecte al producto AB. An´logamente, si Ci (A) = 0, se puede cambiar a impunemente a Fi (B) . Teorema 1.8.2. Sea A ∈ Mn (C). Entonces existen Q ∈ U(n) y R ∈ T S(n) tales que a. A = QR. b. Rjj ≥ 0, para todo j ∈ In . Si A ∈ Gl (n), entonces tales Q y R son unicas. ´ Demostraci´n. Caso A ∈ Gl (n): Por el m´todo de Gramm-Schmidt, si notamos xk = Ck (A), o e existe una BON B = {u1 , . . . , un } tal que Gen {x1 , . . . , xk } = Gen {u1 , . . . , uk }, para todo k ∈ In . Adem´s, por la construcci´n de B por Gramm-Schmidt, a o j−1 xj − xj , ui ui j j−1 i=1 uj = j−1 =⇒ xj = rij ui , con rjj = xj − xj , ui ui > 0 . (1.23) xj − xj , ui ui i=1 i=1 i=1 Tomemos Q ∈ U(n) con columnas Ci (Q) = ui , i ∈ In . Y tomemos R ∈ T S(n) dada por R = (rij )i, j∈In , donde ponemos rij = 0 cuando i > j. Como se vi´ en 1.5.1, tenemos que o n j Cj (QR) = Q · Cj (R) = rij Ci (Q) = rij ui = xj = Cj (A) , para todo j ∈ In . i=1 i=1 Por lo tanto A = QR. Unicidad: Si hubiera otro par Q , R cumpliendo las hip´tesis, llamemos Ci (Q ) = vi para o cada i ∈ In . Es f´cil ver que Gen {x1 , . . . , xk } = Gen {v1 , . . . , vk }, k ∈ In (usar la Eq. (1.7) ). a De ah´ se deduce que existen constantes ci tales que |ci | = 1 y vi = ci ui para todo i ∈ In . ı Como rii > 0, de la Eq. (1.23) y del hecho de que A = Q R , se deduce que i i rii xi = rsi vs = rsi cs us =⇒ rii ci = rii =⇒ ci = > 0 =⇒ ci = 1 , s=1 s=1 rii
  • 35. 20 Preliminares para todo i ∈ In . Luego Q = Q y, por lo tanto R = Q∗ A = R. Caso general: Si A ∈ Gl (n), el proceso es similar, salvo que, cada vez que aparece un / xk ∈ Gen {x1 , . . . , xk−1 } , se pone uk = 0 en la Ck (Q), y, en la Eq. (1.23), ponemos rkj = 0 para todo j ∈ In , dado que el uk = 0 no aporta para generar a los xj (j ≥ k). Luego Fk (R) = 0. As´ queda que R ∈ T S(n), A = QR y rii ≥ 0 para todo i ∈ In , pero Q ∈ U(n). Esto se ı / arregla de la siguiente mantera: se cambian las Ck (Q) = uk = 0 del proceso anterior por ⊥ una BON de R(A)⊥ = Gen {uj : uj = 0} (observar que la cantidad es la correcta). Como se vi´ en el repaso 1.8.1 (o bien en 1.5.1), al multiplicar la Q cambiada por R, cada una de o las nuevas Ck (Q) s´lo opera con la respectiva Fk (R) = 0. Luego sigue pasando que A = QR, o pero ahora Q ∈ U(n). Ejercicio 1.8.3. Sea A ∈ Mn (C). Usando QR, probar que n | det A| ≤ Ci (A) 2 , (1.24) i=1 y que son iguales si y s´lo si A∗ A es diagonal (o sea que R lo es). Se sugiere interpretarlo o tambi´n como un c´lculo de vol´menes. e a u 1.9 Matrices de rango uno Recordemos que, si A ∈ Mn,m (C), notamos rk(A) = dim R(A). A continuaci´n daremos una o caracterizaci´n muy util de las matrices con rango uno. o Definici´n 1.9.1. Dados x ∈ Cn e y ∈ Cm consideremos la matriz o   x1 x y := xy ∗ =  .  · [ y1 , . . . , ym ] = (xi yj ) i∈In ∈ Mn,m (C) .  .  . (1.25) j∈Im xn Observar que x y act´a en Cm de la siguiente manera: u x y(z) = (xy ∗ ) z = x (y ∗ z) = z, y x para todo z ∈ Cm . (1.26) Por lo tanto, se tiene que R(x y) ⊆ Gen {x}, por lo que rk(x y) ≤ 1. Por ejemplo, si A ∈ Mn,m (C) cumple que su unica columna no nula es Ck (A), entonces se ve ´ (m) f´cilmente que A = Ck (A) ek , tanto por la Eq. (1.25) como por la Eq. (1.26). Observar a que todo Mn,m (C) es el span de este tipo de matrices, porque se tiene la igualdad m n (m) (n) A= Ck (A) ek = ej Fj (A) , para toda A ∈ Mn,m (C) . (1.27) k=1 j=1 La segunda igualdad se sigue de un argumento similar al anterior.
  • 36. 1.9 Matrices de rango uno 21 Proposici´n 1.9.2. o 1. Si A ∈ Mn,m (C) tiene rk(A) ≤ 1, existen x ∈ Cn e y ∈ Cm tales que A = x y. 2. Mn,m (C) = Gen {x y : x ∈ Cn e y ∈ Cm }. Demostraci´n. o 1. Sea x ∈ Cn tal que R(A) = Gen {x}. Luego existe una funcional lineal ϕ : Cm → C tal que Az = ϕ(z) · x , para todo z ∈ Cm . Es sabido que existe un unico y ∈ Cm tal que ϕ(z) = ϕy (z) = z, y , para todo z ∈ Cm ´ (basta poner yi = ϕ(ei ), para cada i ∈ Im ). Luego, por la Eq. (1.26), podemos concluir que A = x y. 2. Se deduce de la Eq (1.27). 1.9.3. Estudiaremos a continuaci´n las propiedades de las matrices x y. Enumeraremos o los resultados, y las pruebas no escritas quedar´n como ejercicio para el lector. Tomemos dos a vectores x ∈ Cn e y ∈ Cm . Luego: 1. La norma espectral: x y sp = x y , ya que ϕy sp = m´x |ϕy (z)| = y . a z =1 2. El adjunto: (x y)∗ = (xy ∗ )∗ = y x∗ = y x. 3. Si A ∈ Mn (C), se tiene que A · (x y) = A · x · y ∗ = (Ax) y. 4. Si B ∈ Mm (C), entonces (x y) · B = x (B ∗ y) (usar 2 y 3, o la Eq. (1.26) ). 5. Dados v ∈ Cm y w ∈ Ck , se tiene que (x y) · (v w) = v, y · x w ∈ Mn,k (C). A partir de ahora supondremos que n = m, o sea que x y ∈ Mn (C). 6. El espectro: El unico autovalor de x y que puede ser no nulo es λ1 = x, y (adivinen ´ qui´n es el autovector). M´s a´n, λ(x y) = ( x, y , 0, . . . , 0). Para verlo basta tomar e a u la matriz de x y en una base que empiece por x, y usar la Proposici´n 1.5.4. o 7. Si x = 1, entonces x x = Px es el proyector ortogonal sobre Gen {x}. En efecto, observar que x x(z) = z, x · x, la conocida f´rmula de dicho proyector (se usa el o hecho de que z − z, x · x ∈ {x}⊥ ). x x 1 8. En general, si x = 0, el proyector Px = = 2 x x. x x x 9. Autoadjuntos: Se tiene que A ∈ H(n) si y s´lo si A se descompone como una suma o algebr´ica (i.e. con ± 1) de matrices xi xi (elegir los xi entre los autovectores de A y a esperar hasta el Teorema 2.2.1). 10. Positivos: A ∈ Mn (C)+ si y s´lo si A se descompone como una suma de matrices o xi xi (ver Proposici´n 3.5.6 de bastante m´s adelante). o a
  • 37. 22 Preliminares 1.10 Ejercicios Ejercicios que aparecen en el texto 1.10.1 (Polarizaci´n, Lema 1.1.10). o Sea H un C-espacio de Hilbert y sea A ∈ L(H). Entonces 4 1 Ax, y = ik A (x + i k y), (x + i k y) para todo par x, y ∈ H . 4 k=1 1.10.2. Demostrar los 7 items de 1.4.2 (sobre matrices triangulares). 1.10.3. Demostrar los 8 items de 1.5.1 y los 6 items de 1.5.2 (sobre matrices de bloques). 1.10.4. Demostrar la Proposici´n 1.5.4 usando la definici´n del determinante con permuta- o o ciones de Sn . Usar que las permutaciones que no pasan por el bloque nulo de abajo, son todas las del tipo σ ∈ Sk × Sn−k . 1.10.5. Demostrar los 10 items de 1.9.3 (sobre matrices tipo x y). 1.10.6. Sean A, ∈ Mm,n (C). Entonces se tiene que A∗ A ∈ Mn (C)+ y (A∗ A)i,j = Cj (A) , Ci (A) , para todo par i, j ∈ In . n n En particular, tr(A∗ A) = Cj (A) 2 = |aij |2 . j=1 i,j=1 1.10.7. Sean A, ∈ Mm,n (C) L(Cm , Cn ). Mostrar que entonces ⊥ ker A = Gen {F1 (A), . . . , Fn (A) } ⊆ Cn . Deducir que rkF (A) := dim Gen {F1 (A), . . . , Fn (A) } = rk(A), o sea que los rangos fila y columna de A coinciden. 1.10.8. Sea A ∈ Mn (C). Usando QR, probar que n | det A| ≤ Ci (A) 2 , i=1 y que son iguales si y s´lo si A∗ A es diagonal (o sea que R lo es). Se sugiere interpretarlo o tambi´n como un c´lculo de vol´menes. e a u Ejercicios nuevos 1.10.9. Mostrar que una matriz diagonalizable A satisface una ecuaci´n polinomial de grado o igual al |σ(A)|, y no menor.
  • 38. 1.10 Ejercicios 23 1.10.10. Usar el Teorema 1 de Schur para probar que si, A ∈ Mn (C) tiene vector de auto- n valores λ(A) = (λ1 , . . . , λn ), entonces tr Ak = λk , para todo k ∈ N. i i=1 1.10.11. Deducir que, si A, B ∈ Mn (C) cumplen que tr Ak = tr B k para todo k ∈ N, entonces λ(A) = λ(B) (si usamos el mismo convenio para ordenarlos). 1.10.12. Dadas A, B ∈ Mn (C), notemos C = AB − BA. Probar que si C conmuta con A, entonces C es nilpotente. 1.10.13 (Triangulares). Si T ∈ T S(n) es inversible, probar que −1 T −1 ∈ T S(n) y d T −1 = d (T ) = λ(T )−1 . 1.10.14. Sea A ∈ Mn (C). Demostrar: 1. Para todo ε > 0, existe una matriz diagonalizable Dε tal que A − D sp ≤ ε. −1 2. Para todo ε > 0 existe una matriz inversible S tal que T = SAS es una matriz triangular superior que satisface n−1 |Tij |2 ≤ ε. i=1 j>i Notar que se suman los cuadrados de los m´dulos de las entradas que est´n estrictamente o a sobre la diagonal, por lo que puede decirse que T esta muy pr´xima a ser diagonal. o 1.10.15. El objetivo de este ejercicio es probar que las “matrices de matrices”, com´nmente u llamadas matrices de bloques, se comportan del mismo modo que las matrices con entradas escalares. Una matriz de bloques es una matriz A, de n × m, tal que sus entradas son matrices: para cada i, j, Aij ∈ Mni ×mj (C). Para que tenga sentido multiplicarlas como matrices de bloques, es decir que valga la f´rmula o n (A · B)ij = Aik Bkj , k=1 hay que restringirse a conjuntos de matrices donde las condiciones sobre los tama˜os de los n bloques son m´s espec´ a ıficas. Hallar estas condiciones. Explicitar en el caso m = n = 2. 1.10.16. Considerar la matriz de bloques A11 0 A= , Aii ∈ Mni (C) 0 A22 , Mostrar que σ(A) = σ(A11 ) ∪ σ(A22 ). Si la matriz es triangular de bloques, es decir A11 A12 A= , Aii ∈ Mni (C) , i = 1, 2, 0 A22 ¿qu´ se puede decir del σ (A)?. e
  • 39. 24 Preliminares 1.10.17. Explicar cu´l es el error en cada una de las siguientes “demostraciones” (falsas) del a Teorema de Hamilton-Cayley: 1. Como pA (λ) = 0 para cada autovalor λ de A, y como los autovalores de q(A) son los q(λ) para cualquier polinomio, se sigue que los autovalores de pA (A) son todos nulos; por lo tanto, pA (A) = 0. 2. Como pA (t) = det(tI − A), pA (A) = det(AI − A) = det(A − A) = det 0 = 0. Por lo tanto, pA (A) = 0. 1.10.18. Sea En ∈ Mn (C) la matriz cuyas entradas son todas iguales a 1. Hallar los auto- valores de E2 y E3 . Generalizar para En . 1.10.19. Probar que cualquier familia de matrices que conmutan dos a dos tiene un autovector com´n a todas, mediante los siguientes pasos: u 1. Probar que si A, B ∈ Mn (C) conmutan, entonces tienen un autovector en com´n. u 2. Si F = {A1 , . . . , Am } es una familia finita de matrices que conmutan dos a dos, usar inducci´n para probar que hay un autovector com´n para todos. o u 3. Si la familia tiene cardinal no finito, encontrar alg´n curro para que d´. u e 1.10.20. Sean A, B ∈ Mn (C), y suponer que una de las dos es no singular. Si AB es diagonalizable, mostrar que BA es diagonalizable. Hallar un contraejemplo si A y B son singulares. 1.10.21. Sean x, y, z, w ∈ Cn todos vectores unitarios. Probar que x, y = z, w =⇒ existe U ∈ U(n) tal que U x = z y Uy = w . 1.10.22. Sea A ∈ Mn (C). Una factorizaci´n A = BC con B, C ∈ Mn (C) es llamada o 1. LU -factorizaci´n si B es triangular inferior y C ∈ T S(n). o 2. U L-factorizaci´n si C es triangular inferior y B ∈ T S(n). o Probar que siempre existen tales factorizaciones. 1.10.23. Sean A, B ∈ Mn (C). Definamos las transformaciones lineales LA y RB : Mn (C) → Mn (C) dadas por LA (X) = AX y RB (X) = XB , X ∈ Mn (C) . 1. Probar que σ(LA ) = σ(A) y que σ(RB ) = σ(B). 2. Probar que σ(LA − RB ) = {λ − µ : λ ∈ σ(A) y µ ∈ σ(B)}. 3. Deducir que las siguientes condiciones son equivalentes:
  • 40. 1.10 Ejercicios 25 (a) Para todo Y ∈ Mn (C), existe un unico X ∈ Mn (C) tal que AX − XB = Y . ´ (b) σ(A) ∩ σ(B) = ∅. 1.10.24 (Proceso QR). Sea A ∈ Gl (n). Asumiremos que todos los autovalores de A tienen m´dulos distintos. Definiremos recursivamente tres sucesiones o {Am }m∈N en Mn (C) , {Qm }m∈N en U(n) , y {Rm }m∈N en T S(n) , donde todas las factorizaciones que haremos ser´n la unica QR del Teorema 1.8.2: a ´ 1. Pongamos A1 = A = Q1 R1 . 2. Definimos A2 = R1 Q1 y lo factorizamos A2 = Q2 R2 . k. Definido Ak = Rk−1 Qk−1 , lo factorizamos Ak = Qk Rk , y definimos Ak+1 = Rk Qk . m. As´ seguimos definiendo y factorizando para todo m ∈ N. ı Probar que estas sucesiones cumplen lo siguiente. (a) A2 = Q∗ AQ1 y A3 = Q∗ A2 Q2 = Q∗ Q∗ A Q1 Q2 . 1 2 2 1 m ∗ (b) Dado m ∈ N, sea Um = Qk ∈ U(n). Entonces Am+1 = Um A Um . k=1 (c) Se cumple que Qm − − → I. M´s a´n, Um − − → U ∈ U(n). −− a u −− m→∞ m→∞ (d) Rm − − → T ∈ T S(n), y tambi´n Am = Qm Rm − − → T . −− e −− m→∞ m→∞ ∗ (e) T = U AU , por lo que λ(T ) = λ(A). Este proceso es f´cil de aplicar, porque hacer QR es barato computacionalmente. Observar a es un algoritmo para realizar el Teorema 1 de Schur 1.6.1, por lo que que permite calcular los autovalores de A, cosa que en general es bien complicada. Sin embargo, las pruebas de los items (c), (d) y (e) son bastante dif´ ıciles, y se enuncian m´s a t´ a ıtulo informativo que como verdadero ejercicio. Sugerimos asumir (c) y probar todo lo dem´s.a
  • 41. 26 Preliminares
  • 42. Cap´ ıtulo 2 Matrices normales y Hermitianas 2.1 Matrices normales 2.1.1. Repaso: Sean A ∈ Mn (C) y a = (a1 , . . . , an ) ∈ Cn . 1. Recordemos que una matriz A ∈ Mn (C) es normal si A∗ A = AA∗ , es decir si A conmuta con su adjunta. 2. Si a = (a1 , . . . , an ) ∈ Cn , recordemos que diag (a) denota la matriz diagonal   a1 0 0 diag (a) = diag (a1 , . . . , an ) =  . . . . .  ∈ Mn (C). . . . . 0 0 an 3. El Teorema 1.3.3 dec´ que si B ∈ Mn (C) cumple que A ∼ B, entonces ıa = λ(A) = λ(B) , A 2 = B 2 , A sp = B sp y A es si y s´lo si B es o , (2.1) con = Hermitiana, anti-Hermitiana, normal, definda positiva o unitaria. Teorema 2.1.2. Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 , ... , λn ). Entonces las siguientes condiciones son equivalentes: 1. A es normal. 2. Para todo x ∈ Cn , Ax = A∗ x . 3. A ∼ D para cierta matriz diagonal D ∈ Mn (C) . =
  • 43. 28 Matrices normales y Hermitianas 4. A ∼ diag (λ(A) ). = 5. Existe una BON B = {v1 , . . . , vn } de Cn tal que Avi = λi vi para todo i ∈ In . n 2 6. A 2 = |λi |2 i=1 Demostraci´n. 1 → 2: Para cada x ∈ Cn , se tiene que o Ax 2 = A∗ Ax, x y A∗ x 2 = AA∗ x, x . 2 → 3: Por el Teorema 1 de Schur 1.6.1, existen U ∈ U(n) y T ∈ T S(n) tales que T = U ∗ AU . Luego, tambi´n se tiene que T y = T ∗ y , para todo y ∈ Cn . Aplicando esto a la base e can´nica, se deduce inductivamente (fila por fila) que T debe ser diagonal. o 3 → 4: Si A ∼ D, con D diagonal, la Eq. (2.1) asegura que λ(D) = λ(A). Pero como D es = diagonal, λ(D) = d (D) salvo el orden. Conjugando con una matriz de permutaci´n (o sea o que tiene a la base can´nica en alg´n otro orden en sus columnas, por lo que es unitaria), o u reordenamos la diagonal de D, obteniendo que D ∼ diag (λ(A) ). = 4 ↔ 5: Llamemos D = diag (λ(A) ). Si existe U ∈ U(n) tal que D = U ∗ AU , tomemos B = {C1 (U ), . . . , Cn (U )}. Como AU = U D, la f´rmula (1.12) dec´ que ACi (U ) = λi Ci (U ) o ıa para todo i ∈ In . Rec´ ıprocamente, si existe B como en 5, tomar la U ∈ U(n) dada por Ci (U ) = vi , para todo i ∈ In , y hacer la misma cuenta. n 4 → 6: Si A ∼ diag (λ(A) ), la Eq. (2.1) muestra que A = 2 2 = diag (λ(A) ) 2 2 = |λi |2 . i=1 6 → 1: Si U ∈ U(n) y T ∈ T S(n) cumplen T = U ∗ AU y d (T ) = λ(A), entonces n n |λi |2 = A 2 2 = T 2 2 = |λi |2 + |tij |2 . i=1 i=1 i<j Por lo tanto tij = 0 para i < j, o sea que T es diagonal, y por ende normal. Por la Eq. (2.1), tambi´n A debe ser (o sea normal). e Definici´n 2.1.3. Sea A ∈ Mn (C) una matriz normal. Diremos que o B = {v1 , . . . , vn } es una BON adaptada a λ(A) ıtem 4 del Teorema 2.1.2, es decir que B es una BON de Cn , y Avi = λi (A) vi si B verifica el ´ para todo i ∈ In . Hemos visto en la Eq. (1.6) que si A ∈ Mn (C), entonces ρ(A) ≤ w(A) ≤ A sp , y que en general estas desigualdades pueden ser estrictas. Pero no es as´ cuando A es normal: ı Corolario 2.1.4. Si A ∈ Mn (C) es normal, entonces A sp = w(A) = ρ(A).
  • 44. 2.2 Matrices Hermitianas 29 Demostraci´n. Sea λ(A) = (λ1 , ... , λn ) el vector de autovalores de A. Llamemos D = o diag (λ(A) ). Por el Teorema 2.1.2, existe U ∈ U(n) tal que A = U DU ∗ . Por un lado, la Eq. (2.1) asegura que A sp = D sp y que ρ(A) = ρ(D), pues tienen el mismo espectro. Por otro lado, si x = (x1 , . . . xn ) ∈ Cn es unitario (i.e. x = 1), entonces n n 2 Dx = |λi |2 |xi |2 ≤ m´x |λi |2 · a |xi |2 = ρ(A)2 , i∈In i=1 i=1 por lo que A sp = D sp ≤ ρ(A). Las otras desigualdades las vimos en la Eq. (1.6). Corolario 2.1.5. Sean A, B ∈ Mn (C) matrices normales. Si tomamos un orden fijo en C para ordenar los vectores λ(A) y λ(B), se tiene que λ(A) = λ(B) ⇐⇒ existe U ∈ U(n) tal que B = U AU ∗ , i.e. A ∼ B . = En otras palabras, si definimos la ´rbita unitaria U(A) := { U AU ∗ : U ∈ U(n)}, entonces o U(A) = { B ∈ N (n) : λ(B) = λ(A) } . Demostraci´n. La Eq. (2.1) asegura que si A ∼ B, entonces λ(A) = λ(B). Rec´ o = ıprocamente, si D = diag (λ(A) ) = diag (λ(B) ), el Teorema 2.1.2 dice que A ∼ D ∼ B. = = 2.2 Matrices Hermitianas Por lo general no es f´cil calcular los autovalores de una matriz. Pero en muchos casos es a suficiente saber que ellos est´n en un intervalo especificado. En el resto de este Cap´ a ıtulo estu- diaremos algunas de las principales caracter´ısticas que distinguen a las matrices Hermitianas, en particular los principios variacionales que se utilizan para localizar su espectro, sin la necesidad de conocer los autovectores asociados en forma exacta. Recordemos las notaciones H(n) = {A ∈ Mn (C) : A = A∗ } y Mn (C)+ = {A ∈ H(n) : A ≥ 0} . Teorema 2.2.1. Sea A ∈ Mn (C). Luego son equivalentes: 1. A ∈ H(n) . 2. A es normal y σ(A) ⊆ R. 3. λ(A) ∈ Rn y existe una base ortonormal B adaptada a λ(A). 4. λ(A) ∈ Rn y A ∼ diag (λ(A) ), i.e. existe U ∈ U(n) tal que U ∗ AU = diag (λ(A) ). = 5. Ax, x ∈ R para todo x ∈ Cn . Demostraci´n. Por el Corolario 1.6.6, se tiene que λ(A∗ ) = λ(A). Por lo tanto, si A ∈ H(n), o vemos que σ(A) ⊆ R. El resto se deduce del Teorema 2.1.2 y del hecho de que una matriz diagonal en Mn (R) debe ser autoajunta. La equivalencia entre el ´ ıtem 5 y los dem´s se sigue a del Corolario 1.1.13.
  • 45. 30 Matrices normales y Hermitianas Definici´n 2.2.2. Sea A ∈ H(n). Por el Teorema anterior, σ (A) ⊆ R. Por lo tanto, sus o autovalores pueden ordenarse usando el orden de R. En adelante usaremos las siguientes notaciones: 1. Escribiremos λ(A) = (λ1 (A), . . . , λn (A)) para denotar al vector de autovalores de A ordenados en forma creciente, es decir λk (A) ≤ λk+1 (A), k ∈ In−1 . 2. µ(A) = (µ1 (A), . . . , µn (A)) ser´ el vector de autovalores de A ordenados en forma a decreciente, es decir µk (A) ≥ µk+1 (A), k ∈ In−1 . Tambi´n µk (A) = λn−k+1 (A). e 3. Se llamar´n a λm´ (A) = λ1 (A) = µn (A) = m´ σ (A) ın ın y λm´x (A) = λn (A) = µ1 (A) = m´x σ (A) . a a As´ cuando escribamos λi (A) o, directamente λi (si el contexto es claro) estaremos asum- ı, iendo que al enumerar los autovalores de A lo hemos hecho en forma creciente. Y en forma decreciente si escibimos µi (A) o µi . Proposici´n 2.2.3. Sea A ∈ H(n). Entonces se tiene que o A sp = ρ(A) = m´x{λn (A), −λ1 (A)} . a (2.2) Demostraci´n. Como H(n) ⊆ N (n), la igualdad A sp = ρ(A) se sigue del Corolario 2.1.4. o La otra se deduce de que σ(A) ⊆ [λ1 (A), λn (A)] ⊆ R, y contiene a los bordes. 2.3 Principio minimax Para matrices generales la unica caracterizaci´n conocida de sus autovalores es que son las ´ o ra´ ıces del polinomio caracter´ıstico de la matriz. Pero cuando las matrices son Hermitianas, el hecho de poder establecer un orden entre ellos nos permite obtener caracterizaciones m´s a interesantes. Los pr´ximos teoremas describen al vector λ(A), para A ∈ H(n), en funci´n de o o Ax, x las expresiones , para x ∈ Cn {0}, conocidas como cocientes de Rayleig-Ritz. x, x Teorema 2.3.1 (Rayleigh-Ritz). Sea A ∈ H(n). Entonces 1. Para todo x ∈ Cn se tiene que λm´ (A) x ın 2 ≤ Ax, x ≤ λm´x (A) x 2 . a Ax, x 2. λm´x (A) = λn (A) = m´x a a = m´x Ax, x . a x=0 x, x x =1 Ax, x 3. λm´ (A) = λ1 (A) = m´ ın ın = m´ Ax, x . ın x=0 x, x x =1 En particular, si A ∈ H(n), tenemos que A ∈ Mn (C)+ ⇐⇒ λm´ (A) ≥ 0 ⇐⇒ σ (A) ⊆ R+ . ın
  • 46. 2.3 Principio minimax 31 Demostraci´n. Sea B = {v1 , . . . , vn } una BON de Cn adaptada a λ(A), o sea que Avi = o λi (A)vi para todo i ∈ In . Por lo tanto, dado x ∈ Cn , se tiene que n n n 2 x= x, vi vi , x = | x, vi | 2 y Ax, x = λi (A) | x, vi | 2 . (2.3) i=1 i=1 i=1 Luego, si asumimos que x = 1, tenemos que n n Ax, x = λi (A) | x, vi | 2 ≤ λn (A) | x, vi | 2 = λn (A) = Avn , vn . i=1 i=1 n An´logamente, Ax, x = a λi (A) | x, vi | 2 ≥ λ1 (A) = Av1 , v1 . Es claro que estas de- i=1 sigualdades muestran los tres ´ ıtems a probar. Observaci´n 2.3.2. Dada A ∈ H(n), las caracterizaciones del Teorema anterior se pueden o reescribir de la siguiente forma: λ1 (A) I ≤ A ≤ λn (A) I, λ1 (A) = m´x{λ ∈ R : λ I ≤ A} a y ın{λ ∈ R : A ≤ λ I} . λn (A) = m´ En efecto, para mostrarlo basta recordar que dados B, C ∈ H(n), vale que B ≤ C ⇐⇒ B x , x ≤ C x , x para todo x unitario en Cn . Notaciones: En el resto de esta secci´n usaremos las siguientes convenciones: o 1. Las letras M y S denotar´n subespacios de Cn . a 2. Dado M ⊆ Cn , escribiremos M1 = {x ∈ M : x = 1} al conjunto de elementos de M de norma uno. Teorema 2.3.3 (Courant-Fisher). Sea A ∈ H(n) y sea k ∈ In . Entonces, λk (A) = m´ ın m´x Ax, x = a m´x a m´ Ax, x . ın dim M=k x∈M1 dim S=n−k+1 x∈S1 Demostraci´n. Sea B = {v1 , . . . , vn } una BON de Cn adaptada a λ(A). Como en la prueba o del Teorema 2.3.1, cualquier x ∈ Cn verifica la Eq. (2.3). Dado r ∈ In , notemos por Hr = Gen {v1 , . . . , vr } y Kr = Gen {vr , . . . , vn }. Notar que dim Hr = r y dim Kr = n − r + 1. Por la Eq. (2.3) vemos que, si x ∈ Kk , n Ax, x = λi (A) | x, vi | 2 =⇒ λk (A) = m´ ın Ax, x ≤ m´x a m´ Ax, x . ın x∈(Kk )1 dim S=n−k+1 x∈S1 i=k
  • 47. 32 Matrices normales y Hermitianas Por otro lado, si dim S = n − k + 1, entonces S ∩ Hk = {0}. Pero si y ∈ (S ∩ Hk )1 , la Eq. k k (2.3) asegura que Ay, y = λi (A) | y, vi | 2 y que y 2 = | y, vi | 2 = 1 . Luego i=1 i=1 Ay, y ≤ λk (A) =⇒ m´ Ax, x ≤ λk (A) =⇒ λk (A) ≥ ın m´x a m´ Ax, x . ın x∈S1 dim S=n−k+1 x∈S1 La otra f´rmula se demuestra en forma an´loga: el o a m´ ın se alcanza en M = Hk , y cualquier dim M=k otro tal M cumple que M ∩ Kk = {0}. Observaci´n 2.3.4. La versi´n tradicional de las f´rmulas de Courant-Fisher ser´ la sigu- o o o ıa iente: x∗ Ax x∗ Ax λk (A) = m´ ın m´x a = m´x a m´ ın . w1 ,w2 ,...,wn−k ∈Cn x=0,x∈Cn x∗ x w1 ,w2 ,...,wk−1 ∈Cn x=0,x∈Cn x∗ x x⊥w1 ,w2 ,...,wn−k x⊥w1 ,w2 ,...,wk−1 Teorema 2.3.5 (Teorema de Weyl). Sean A, B ∈ H(n). Entonces: λj (A) + λ1 (B) ≤ λj (A + B) ≤ λj (A) + λn (B) para todo j ∈ In . (2.4) Demostraci´n. Por el Teorema 2.3.1, para todo x ∈ Cn tal que x = 1, se tiene que o Ax, x + λ1 (B) ≤ Ax, x + Bx, x ≤ Ax, x + λn (B) . Por lo tanto el teorema se puede deducir de las f´rmulas de Courant-Fischer. o Observaci´n 2.3.6. Una reformulaci´n del Teorema de Weyl, que es bastante com´n en sus o o u aplicaciones, es la siguiente: Sean C, D ∈ H(n), entonces: λ1 (C − D) ≤ λj (C) − λj (D) ≤ λn (C − D) , para todo j ∈ In . (2.5) Para mostrarla, basta tomar A = D y B = C − D, observar que ambos viven en H(n), que A + B = C y, por ultimo, aplicar la Eq. (2.4). ´ Corolario 2.3.7. Sean A, B ∈ H(n) tales que A ≤ B, i.e. B − A ∈ Mn (C)+ . Entonces λj (A) ≤ λj (B) para todo j ∈ In . Demostraci´n. Llamemos C = B − A. Por el Teorema 2.3.5, tenemos que o λj (A) + λ1 (C) ≤ λj (A + C) = λj (A + (B − A) ) = λj (B) . Por otra parte, como C ∈ Mn (C)+ , entonces λ1 (C) = m´ Cx, x ≥ 0. ın x =1 Una consecuencia importante del Teorema de Weyl es el hecho de que, entre las autoadjuntas, matrices muy cercanas tienen autovalores muy cercanos. Y con cotas bien claras:
  • 48. 2.4 Entrelace de Cauchy 33 Corolario 2.3.8. Sean A, B ∈ H(n). Entonces: λ(A) − λ(B) ∞ := m´x |λj (A) − λj (B)| ≤ ρ(A − B) = A − B a sp . j∈ In Demostraci´n. Por el Teorema de Weyl, en su versi´n dada por la Eq. (2.5), se tiene que o o λ1 (A − B) ≤ λj (A) − λj (B) ≤ λn (A − B) , para todo j ∈ In . Por lo tanto, aplicando la Proposici´n 2.2.3, se obtiene que o λ(A) − λ(B) ∞ ≤ m´x |λ| : λ ∈ λ1 (A − B), λn (A − B) a = ρ(A − B) . Ejercicio 2.3.9 (Aronszajn). Demostrar las siguientes afirmaciones: 1. Dados S1 , S2 y S3 subespacios de Cn , probar que dim(S1 ∩ S2 ∩ S3 ) ≥ dim S1 + dim S2 + dim S3 − 2n . 2. Sean A, B ∈ H(n). Dados i, j ∈ In tales que i + j ≤ n + 1, se tiene que µi+j−1 (A + B) ≤ µi (A) + µj (B) . 2.4 Entrelace de Cauchy Una consecuencia directa del Teorema de Courant-Fisher es el llamado teorema de entrelace de Cauchy, que relaciona los autovalores de una matriz Hermitiana con los de sus submatrices principales. Antes fijaremos nuevas notaciones para estas submatrices: Definici´n 2.4.1. Sean A ∈ Mn (C) y J ⊆ In . Si J tiene k elementos, notaremos o A[J] = {aij }i,j∈J ∈ Mk (C) y A(J) = {aij }i,j ∈J ∈ Mn−k (C) . / Si el contexto lo permite, a veces abreviaremos A[J] = AJ , como en la secci´n 1.5. Con esa o convenci´n, se tiene que A(J) = AIn J . Observar que A[J] es la matriz cuadrada resultante o de borrar de A las filas y columnas con ´ ındices fuera de J. Para cada r ∈ In , llamaremos Ar = A({r}) = {aij }i=r=j ∈ Mn−1 (C) , (2.6) a la submatriz principal obtenida de borrar la fila y la columna r-´simas de A. e Teorema 2.4.2 (Entrelace de Cauchy). Sean A ∈ H(n), r ∈ In y Ar ∈ Mn−1 (C) la subma- triz principal de A obtenida como en la Eq. (2.6) . Entonces λk (A) ≤ λk (Ar ) ≤ λk+1 (A) , para cada k ∈ In−1 . Es decir que λ1 (A) ≤ λ1 (Ar ) ≤ λ2 (A) ≤ · · · ≤ λn−1 (A) ≤ λn−1 (Ar ) ≤ λn (A) .
  • 49. 34 Matrices normales y Hermitianas Demostraci´n. Supongamos, por simplicidad, que r = n. Los otros casos se prueban exacta- o mente igual, pero con notaciones algo m´s engorrosas. Fijemos un k ∈ In−1 . Sea a Hn−1 = {en }⊥ = Gen {e1 , . . . , en−1 } = {x ∈ Cn : xn = 0 } . Si x ∈ Hn−1 , notaremos x0 = (x1 , . . . , xn−1 ) ∈ Cn−1 a su parte significativa. Observar que n−1 An x0 , x0 = Aij xj xi = Ax, x , dado que xn = 0. Trabajando s´lo con los subespacios o i,j=1 M ⊆ Hn−1 que tienen dim M = k (que son menos que los subespacios de dimensi´n k de o todo Cn , pero se identifican con todos los de Cn−1 ), obtenemos, del Teorema 2.3.3, que λk (An ) = m´ ın m´x An x0 , x0 ≥ a m´ ın m´x Ax, x = λk (A). a dim M=k x∈M1 dim M=k x∈M1 n M⊆ Hn−1 M⊆ C Tomemos ahora subespacios S ⊆ Hn−1 tales que dim S = n − k. Como n − k = n − (k + 1) + 1 y a la ves, n − k = (n − 1) − k + 1, obtenemos λk (An ) = m´x a m´ An x0 , x0 ≤ ın m´x a m´ Ax, x = λk+1 (A) , ın dim S=n−k x∈S1 dim S=n−k x∈S1 S⊆ Hn−1 lo que prueba el teorema. Observaci´n 2.4.3. En forma an´loga se puede probar versiones m´s generales del Teorema o a a anterior: Dado A ∈ H(n), 1. Si J ⊆ In cumple que |J| = r, entonces para cada k ∈ Ir , se tiene λk (A) ≤ λk A[J] ≤ λk+n−r (A) . Observar que, si r = n − 1, entonces k + n − r = k + 1, como en el Teorema 2.4.2 2. M´s en general a´n, si P ∈ L(H)+ es un proyector autoadjunto (o sea ortogonal) sobre a u un subespacio S de dim S = r, entonces al producto P AP se lo puede pensar como un operador en el espacio de Hilbert S (para que su vector de autovalores tenga s´lo o r coordenadas, sacando los n − r ceros que “sobran”). A esta compresi´n se la denota o AS = P AP ∈ L(S). Entonces se obtienen desigualdades an´logas: a S λk (A) ≤ λk (AS ) ≤ λk+n−r (A) , para cada k ∈ Ir . En efecto, basta cambiar coordenadas a una BON de Cn cuyos primeros r vectores generen S. En esa base, AS = A[Ir ] y se aplica el caso anterior. Ejercicio 2.4.4. Escribir expl´ ıcitamente c´mo quedan los resultados de esta secci´n (la o o f´rmula minimax, el teorema de Weyl y los tres entrelaces) en funci´n de los vectores µ(A) o o ordenados decrecientemente. Ahora, como corolario del Teorema de entrelace, veremos una caracterizaci´n de positividad de o matrices en t´rminos de submatrices principales. Para ello necesitamos el siguiente resultado e previo.
  • 50. 2.4 Entrelace de Cauchy 35 Lema 2.4.5. Sea A ∈ Gl (n)+ . Entonces A[J] ∈ Gl (r)+ , para todo J ⊆ In con |J| = r. Demostraci´n. Si HJ = Gen {ei : i ∈ J} y 0 = x ∈ HJ , llamemos xJ ∈ Cr al vector resultante o de sacarle a x los ceros fuera de J. Entonces 0 < Ax, x = Aij xj xi = Aij xj xi = A[J] xJ , xJ . i,j∈In i,j∈J Como tales xJ recorren todo Cr {0}, vemos que A[J] ∈ Gl (r)+ . Teorema 2.4.6. Si A ∈ H(n), entonces las siguientes condiciones son equivalentes: 1. A es definida positiva (i.e. A ∈ Gl (n)+ ). 2. Si llamamos A[k] = A[Ik ] = {aij }i,j∈Ik ∈ Mk (C) , entonces det A[k] > 0 para todo k ∈ In , 3. Si llamamos A(k) = A(Ik ) = {aij }i,j>k ∈ Mn−k (C) , entonces det A(k) > 0 para todo k ∈ In−1 ∪ {0} , Demostraci´n. El Lema 2.4.5 dice que 1 → 2 y 3, porque es claro que si B ∈ Gl (r)+ , entonces o det B > 0. La rec´ ıproca se prueba por inducci´n sobre n. Si n = 1, entonces tenemos que o A = A[1] = det(A[1] ) > 0. Si n > 1, es claro que la condici´n 2 se verifica tambi´n para o e A[n−1] , porque tiene las mismas submatrices involucradas. Por hip´tesis inductiva, tenemos o que A[n−1] ∈ Gl (n − 1)+ , y por el Teorema 2.3.1 sabemos que 0 < λ1 (A[n−1] ) . El Teorema del entrelace de Cauchy 2.4.2 nos asegura que λ2 (A) ≥ λ1 (A[n−1] ) > 0. Luego n n 0< λk (A) y tamb´n e 0 < det A[n] = det A = λk (A) . k=2 k=1 De ah´ deducimos que λ1 (A) > 0. Usando el Teorema 2.3.1, podemos concluir r´pidamente ı a que Ax, x > 0 para todo x = 0, o sea que A ∈ Gl (n)+ . La prueba de la equivalencia con el ıtem 3 es exactamente igual, pero usando para la inducci´n a A(1) ∈ Mn−1 (C) . ´ o ıcil). Probar que, dada A ∈ H(n), entonces Ejercicio 2.4.7 (dif´ A ∈ Mn (C)+ ⇐⇒ det A[J] ≥ 0 para todo J ⊆ In . Se suguiere induccionar en n. Luego tomar un J de tama˜o m´ximo para que det A[J] = 0 y n a aplicar varias veces la f´rmula det(B + εEii ) = det B + ε det B(i), como en la Eq. (8.3). o
  • 51. 36 Matrices normales y Hermitianas 2.5 Ejercicios Ejercicios del texto 2.5.1. Sea A ∈ H(n) y sea k ∈ In . Probar que µk (A) = m´x a m´ Ax, x = ın m´ ın m´x Ax, x . a dim M=k x∈M1 dim S=n−k+1 x∈S1 2.5.2. Sean A, B ∈ H(n). Demostrar las siguientes afirmaciones: 1. Para todo j ∈ In , se tiene que µj (A) + µn (B) ≤ µj (A + B) ≤ µj (A) + µ1 (B) (2.7) 2. Dados S1 , S2 y S3 subespacios de Cn , ellos cumplen que dim(S1 ∩ S2 ∩ S3 ) ≥ dim S1 + dim S2 + dim S3 − 2n . 3. Dados i, j ∈ In tales que i + j ≤ n + 1, se tiene que µi+j−1 (A + B) ≤ µi (A) + µj (B) . C X k 2.5.3 (Aronszajn). Sea A = ∈ H(n). Probar que X∗ D n−k µi+j−1 (A) ≤ µi (C) + µj (D) para todo par i ∈ Ik , j ∈ In−k . 2.5.4. Dado A ∈ H(n), mostrar que: 1. Si J ⊆ In cumple que |J| = r, entonces para cada k ∈ Ir , se tiene µk (A) ≥ µk A[J] ≥ µk+n−r (A) . En particular, si r ∈ In , entonces µk (A) ≥ µk Ar ≥ µk+1 (A) para todo k ∈ In−1 . 2. Sea P ∈ L(H)+ es un proyector autoadjunto (o sea ortogonal) sobre un subespacio S de dim S = r. Sea AS = P AP S ∈ L(S), la compresi´n de A a S. Luego o µk (A) ≥ µk AS ) ≥ µk+n−r (A) , para cada k ∈ Ir . ıcil). Probar que, dada A ∈ H(n), entonces 2.5.5 (Ejercicio dif´ A ∈ Mn (C)+ ⇐⇒ det A[J] ≥ 0 para todo J ⊆ In .
  • 52. 2.5 Ejercicios 37 Ejercicios nuevos 2.5.6. Mostrar que A es normal si y s´lo si sus partes real e imaginaria conmutan. o 2.5.7. Sea A ∈ Mn (C) y p(t) un polinomio. 1. Probar que si A es normal entonces p(A) tambi´n lo es. e 2. Si p(A) es normal, ¿ puede asegurarse que A lo sea?. 2.5.8. 1. Mostrar que si A es similar a una matriz unitaria, entonces A−1 es similar a A∗ . 2. Considerar la matriz 2 0 0 1/2 y mostrar que el conjunto de matrices que son similares a una matriz unitaria es un subcojunto propio del conjunto de matrices A para las que A−1 es similar a A∗ . 2.5.9. Sea A una matriz normal. Mostrar: 1. La matriz A es autoadjunta si y s´lo si todos sus autovalores son reales. o 2. La matriz A es unitaria si y s´lo si todos sus autovalores tienen m´dulo 1. o o 3. Si la matriz A es nilpotente, entonces, A = 0. 2.5.10. 1. Mostrar que dos matrices normales son similares sii son unitariamente equivalentes. 2. Mostrar que A es normal sii conmuta con una cierta matriz normal con autovalores distintos. 2.5.11. Dada A ∈ Mn (C), probar que A es normal si y s´lo si hay un polinomio p de grado o a lo sumo n − 1 tal que A∗ = p(A). Notar que esto da una buena explicaci´n “intuitiva” de o por qu´ una matriz normal conmuta con su adjunto. Si A es real, mostrar que se puede elegir e p con coeficientes reales, de manera que AT = p(A). 2.5.12. Sea A ∈ H(n) y S ∈ Mn (C). Mostrar que SAS ∗ es autoadjunta. Si S es invertible, SAS −1 ¿ es autoadjunta ? 2.5.13 (*). A lo largo de este ejercicio consideraremos la traza normalizada de modo que n 1 tr(I) = 1, es decir, dada una matriz A de n × n, tr(A) = Aii . n k=1 Sean A, B ∈ H(n). Demostrar: 1. tr(AB)2 ≤ tr(A2 B 2 ).
  • 53. 38 Matrices normales y Hermitianas r(A) (tr A)2 2. Si A = 0, entonces, ≥ . n tr A2 (Pista: Usar la desigualdad de Jensen.) 2.5.14. Sea A ∈ Mn (C) una matriz normal. Probar que w(A) = ρ(A) = A sp . 2.5.15 (Gersgorin). Sea A ∈ Mn (C). Para cada i ∈ In , sea Ri = |aij | . Mostrar que j=i σ(A) ⊆ {z ∈ C : |z − aii | ≤ Ri } . i∈In Deducir que, si Ri < |aii | para todo i ∈ In , entonces A ∈ Gl (n). Una tal matriz suele ser llamada “diagonal dominante”. ıcil). Sea A ∈ H(n). Para cada i ∈ In , mostrar que si 2.5.16 (Este es bien dif´  1/2 ri =  |aij |2  =⇒ σ(A) ∩ [aii − ri , aii + ri ] = ∅ . j=i Esto mejora al Ejercicio anterior en dos aspectos: Primero observar que cada ri ≤ Ri . Adem´s, ubica al menos un autovalor en cada disquito (ac´ son intervalitos). a a
  • 54. Cap´ ıtulo 3 Matrices definidas positivas 3.1 Propiedades b´sicas a Recordemos que A ∈ Mn (C)+ si Ax, x ≥ 0 para todo x ∈ Cn . Definici´n 3.1.1. Dadas A, B ∈ H(n), se dice que A ≤ B si se tiene que B − A ∈ Mn (C)+ , o o sea si Ax, x ≥ Bx, x para todo x ∈ Cn . Proposici´n 3.1.2. Sean A, B y C ∈ Mn (C). Entonces o 1. A ∈ Mn (C)+ si y s´lo si A ∈ H(n) y σ (A) ⊆ R+ . o 2. A ∈ Gl (n)+ si y s´lo si A ∈ H(n) y σ (A) ⊆ R∗ . o + 3. Si A = B ∗ B entonces A ∈ Mn (C)+ . 4. Si A, B ∈ H(n) y A ≤ B, entonces C ∗ AC ≤ C ∗ BC. Demostraci´n. o 1. Si A ∈ H(n) y σ (A) ⊆ R+ , el Teorema 2.3.1 asegura que 2 0 ≤ λ1 (A) x ≤ Ax, x para todo x ∈ Cn =⇒ A ∈ Mn (C)+ . Por el Corolario 1.1.13, sabemos que Mn (C)+ ⊆ H(n) (para que A ∈ H(n) bastaba que Ax, x ∈ R para todo x ∈ Cn ). Por el Teorema 2.3.1, se tiene que, si A ∈ Mn (C)+ , entonces λ1 (A) = m´ Ax, x ≥ 0, por lo que σ (A) ⊆ R+ . ın x =1 2. S´lo difiere del caso anterior en que en ambas situaciones 0 ∈ σ (A). Notar que si A > 0, o / como la bola de Cn es compacta, existe un ε > 0 tal que λ1 (A) = m´ Ax, x ≥ ε. ın x =1 Luego 0 ∈ σ (A), o sea que A es inversible. /
  • 55. 40 Matrices definidas positivas 3. Para todo x ∈ Cn tenemos que B ∗ Bx, x = Bx, Bx = Bx 2 ≥ 0. Por lo tanto B ∗ B ∈ Mn (C)+ . 4. Si B − A ≥ 0 y x ∈ Cn , entonces C ∗ (B − A)Cx, x = (B − A)Cx, Cx ≥ 0. Luego C ∗ (B − A)C ≥ 0, es decir C ∗ AC ≤ C ∗ BC. Teorema 3.1.3. Sea A ∈ Mn (C). Entonces: 1. A ∈ Mn (C)+ si y s´lo si existe B ∈ Mn (C) tal que A = B ∗ B. o 2. En tal caso, existe una unica matriz B ∈ Mn (C)+ tal que A = B ∗ B = B 2 . ´ Demostraci´n. Sabemos que si A = B ∗ B entonces A ∈ Mn (C)+ . Luego basta probar que o si A ∈ Mn (C)+ , entonces existe una raiz cuadrada B ∈ Mn (C)+ para A, y que la tal B es unica. Escribamos A = U DU ∗ , con U ∈ U(n) y D = diag (λ(A) ) ∈ Mn (C)+ . Se toma ´ D1/2 := diag λ1 (A)1/2 , . . . , λn (A)1/2 ∈ Mn (C)+ . Esto es posible por la Proposici´n 3.1.2. Es claro que (D1/2 )2 = D. Finalmente se define o B = U D1/2 U ∗ . Luego B ∈ Mn (C)+ y B 2 = A. La unicidad es algo m´s complicada. El a problema es que la matriz U ∈ U(n) que diagonaliza a A no es unica. Sea otra C ∈ Mn (C)+ ´ tal que C 2 = A. Entonces, como C y A conmutan, el Teorema 1 de Schur 1.6.1 asegura que existe V ∈ U(n) tal que V ∗ AV = D y V ∗ CV ∈ Mn (C)+ es diagonal . Para lo anterior se usa que N (n) ∩ T S(n) consta de las matrices diagonales, como se vi´ en la o prueba del Teorema 2.1.2. Como (V ∗ CV )2 = V ∗ AV = D, es claro que V ∗ CV = D1/2 (entre diagonales la unicidad es trivial). Por otro lado, U DU ∗ = V DV ∗ = A =⇒ (V ∗ U )D = D(V ∗ U ) . Aqu´ usaremos que D1/2 se puede escribir como P (D) para cierto polinomio P ∈ R[X]. En ı efecto, basta elegir un P tal que P (λi (A) ) = λi (A)1/2 , para todo i ∈ In . Pero entonces V ∗ U conmuta con P (D) = D1/2 . Por ello B = U D1/2 U ∗ = V D1/2 V ∗ = C. Observaci´n 3.1.4 (El Grammiano). Dada una matriz B ∈ Mn (C), llamemos fi = Ci (B), o i ∈ In . Notar que, entonces, n G(f1 , . . . , fn ) := fi , fj = B ∗ B ∈ Mn (C)+ . i,j=1 La matriz anterior es conocida como matriz de Gramm (o Grammiano) de f1 , . . . , fn . Del Teorema 3.1.3 deducimos que una matriz es semi definida positiva si y s´lo si es una matriz o de Gramm. Y que es definida positiva si y s´lo si es una matriz de Gramm de un sistema o linealmente independiente (en nuestro caso, esto equivale a que B ∈ Gl (n) ).
  • 56. 3.2 Descomposici´n polar y valores singulares o 41 Los mismos resultados son ciertos (la prueba es una ligera variaci´n de la del Teorema o 3.1.3) si la n-unpa f1 , . . . , fn vive en cualquier espacio de Hilbert H (anche infinitodimensional, porque en tal caso B es un operador B : Cn → H, que es autom´ticamente continuo). Notar a que la matriz de Gramm sigue estando en Mn (C)+ (y en Gl (n)+ si el sistema es LI), donde n es el n´mero de vectores en cuesti´n. u o Corolario 3.1.5 (Cholewsky). Sea A ∈ Mn (C)+ . Entonces existe T ∈ T S(n) tal que Tii ≥ 0 para todo i, y tal que A = T ∗ T . Demostraci´n. Sea B ∈ Mn (C) tal que A = B ∗ B. Sea B = QT , Q ∈ U(n), T ∈ T S(n), una o descomposici´n de B como en el Teorema 1.8.2. Entonces A = T ∗ Q∗ QT = T ∗ T . o 3.2 Descomposici´n polar y valores singulares o Definici´n 3.2.1. Dada A ∈ Mn (C)+ , llamaremos A1/2 a la unica raiz cuadrada de A en o ´ Mn (C)+ , que existe (y es unica) por el Teorema 3.1.3. ´ Observaci´n 3.2.2. Sea A ∈ Mn (C)+ . En la prueba del Teorema 3.1.3 se muestran las dos o maneras usuales de describir a A1/2 : 1. Si A = U diag (λ(A) ) U ∗ , con U ∈ U(n), se tiene que A1/2 = U diag λ(A)1/2 U ∗ . 2. A1/2 = P (A) para culquier P ∈ C[x] tal que P (λ) = λ1/2 para todo λ ∈ σ(A). Definici´n 3.2.3. Sea A ∈ Mn (C), o 1. Llamaremos “m´dulo de A” a la matriz o |A| = (A∗ A)1/2 ∈ Mn (C)+ . 2. Llamaremos valores singulares de A a los autovalores de |A| ordenados en forma decreciente, not´ndolos s1 (A) ≥ · · · ≥ sn (A) ≥ 0. Notar que, por el Corolario 1.7.2, a si (A) = µi (|A|) = µi (A∗ A)1/2 , para todo i ∈ In . (3.1) 3. Llamaremos s(A) = (s1 (A), . . . , sn (A) ) = µ(|A|) y Σ(A) a la matriz diagonal   s1 (A) 0 0 Σ(A) = diag (s(A)) =  . .. . .  . .  . . . 0 0 sn (A) Observar que |A| ∼ Σ(A). = Ejemplos 3.2.4. Sea A ∈ Mn (C).
  • 57. 42 Matrices definidas positivas 1. Si A ≥ 0, entonces A = |A| y s(A) = µ(A). 2. Si A ∈ Mn (C) es normal, entonces s(A) = |λ(A)|, salvo el orden. En efecto, si A = U diag (λ(A) ) U ∗ para cierto U ∈ U(n), entonces A∗ A = U diag λ(A) diag (λ(A) ) U ∗ = U diag |λ(A)|2 U ∗ . 3. En general (fundamentalmente, si A no es normal), los autovalores y los valores singu- lares de una misma matriz pueden ser bien distintos. Por ejemplo, si A es un bloque nilpotente de Jordan en Mn (C) (i.e. Aek = ek+1 , k ∈ In−1 y Aen = 0), entoces σ (A) = {0} porque An = 0, pero s(A) = (1, . . . , 1, 0), porque A∗ A es un proyector de rango n − 1. Teorema 3.2.5 (Descomposici´n polar y en valores singulares). Sea A ∈ Mn (C). Entonces o 1. Para todo x ∈ Cn , se verifica que Ax = |A|x . 2. En particular, se tiene que A sp = |A| sp = ρ(|A|) = s1 (A) = µ1 (A∗ A)1/2 . 3. Existe una matriz unitaria U ∈ U(n) tal que A = U |A| , que es la llamada descomposici´n polar (DP) de A, aunque no es siempre unica. o ´ 4. Cualquier U ∈ U(n) que cumpla A = U |A|, verifica que A∗ = U ∗ |A∗ | , AA∗ = U A∗ AU ∗ , U |A|U ∗ = |A∗ | y A = |A∗ | U . Esto dice que U ∗ es un unitario admisible para la DP de A∗ . O sea que A tiene una descomposici´n polar a derecha A = |A∗ | U con el mismo U que la otra. o 5. Existen V, W ∈ U(n) tales que A = W Σ(A)V ∗ . 6. Las columnas Ci (V ) forman una BON de autovectores de |A| (y A∗ A), y las columnas Ci (W ) forman una BON de autovectores de |A∗ | (y AA∗ ). Demostraci´n. o 1. Dado x ∈ Cn , se tiene que Ax 2 = Ax, Ax = A∗ Ax, x = |A|2 x, x = |A|x, |A|x = |A|x 2 . 2. Se deduce de lo anterior, de la definici´n de norma espectral y del Corolario 2.1.4. o
  • 58. 3.2 Descomposici´n polar y valores singulares o 43 3. Podemos definir (con buena definici´n) una isometr´ suryectiva o ıa U1 : R(|A|) → R(A) dada por U1 (|A|x) = Ax, para todo x ∈ Cn . De hecho, |A|x = |A|y ⇐⇒ x − y ∈ ker |A| = ker A ⇐⇒ Ax = Ay. Como dim R(A)⊥ = n − dim R(A) = dim ker(A) = dim ker(|A|) = dim R(|A|)⊥ , podemos extender la isometr´ U1 a una matriz unitaria U ∈ U(n), operando isom´- ıa e tricamente desde R(|A|)⊥ sobre R(A)⊥ . Por la definici´n de U , se tiene que A = U |A|. o 4. Notar que AA∗ = U |A|2 U ∗ = U A∗ AU ∗ . Sea P (x) ∈ C[x] tal que P (λ) = λ1/2 , para todo λ ∈ σ (AA∗ ) = σ (A∗ A) (acabamos de ver que AA∗ ∼ A∗ A). Luego = |A∗ | = (AA∗ )1/2 = P (AA∗ ) = U P (A∗ A)U ∗ = U |A|U ∗ . Luego A = U |A| = U |A|U ∗ U = |A∗ |U , por lo que tambi´n A∗ = U ∗ |A∗ |. e 5. Sea V ∈ U(n) tal que |A| = V Σ(A)V ∗ . Si llamamos W = U V ∈ U(n), tenemos que A = U |A| = U V Σ(A)V ∗ = W Σ(A)V ∗ . 6. Notar que Σ(A) = V ∗ |A|V , por lo que cada Ci (V ) es un autovector de |A|, y todas las columnas de V forman una bon, por ser V unitaria. La prueba para W es similar, dado que tambi´n Σ(A)2 = W ∗ AA∗ W . e Existe una versi´n de la caracterizaci´n minimax de Courant-Fisher 2.3.3 para los valores o o singulares de una matriz: Proposici´n 3.2.6. Sea A ∈ Mn (C) (no necesariamente autoadjunta). Con las mismas o notaciones (para subespacios) que en el Teorema 2.3.3, se tiene que sk (A) = m´x a m´ Ax = ın m´ ın m´x Ax a para todo k ∈ In . (3.2) dim M=k x∈M1 dim S=n−k+1 x∈S1 Demostraci´n. Basta notar que Ax = A∗ Ax, x 1/2 y que sk (A) = µk (A∗ A)1/2 . Luego se o aplica el Teorema 2.3.3 (y el Ejercicio 2.4.4 para traducirlo a µ’es) para A∗ A. Corolario 3.2.7. Dadas A, C ∈ Mn (C), para todo k ∈ In se tiene que sk (AC) ≤ A sp sk (C) . En particular tr |AC| ≤ A sp tr |C| . (3.3) Demostraci´n. Se usa la Eq. (3.2) para calcular sk (AC) y sk (C), junto con la siguiente o desigualdad: ACx ≤ A sp Cx , para todo x ∈ Cn .
  • 59. 44 Matrices definidas positivas 3.3 Parte positiva y parte negativa Fijemos una matriz autoadjunta A ∈ H(n), y tomemos A = U |A|, con U ∈ U(n), una DP de A. Supongamos, adem´s, que U opera como la identidad en ker A = ker |A| = R(|A|)⊥ . a Una tal U existe por la construcci´n hecha en el Teorema 3.2.5, y adem´s es unica (Ejercicio: o a ´ mostrar ambas cosas). Luego se verifican las siguientes propiedades: 1. Si B = {v1 , . . . , vn } es una BON de Cn adaptada a µ(A), luego A∗ A = A2 , |A|, |A|1/2 y U son diagonales en la base B. Por lo tanto conmutan entre ellos (y con A). 2. En la base B, la matriz de U es diagonal con ±1’s en la diagonal. M´s espec´ a ıficamente, U vk = vk si µk (A) ≥ 0 , y U vk = − vk si µk (A) < 0 , (3.4) dado que |A| vk = (µ2 (A) )1/2 vk = |µk (A)| vk para todo k ∈ In . Por lo tanto, k U ∗ = U = U −1 y −I ≤U ≤I . 3. Podemos deducir que −|A| ≤ A ≤ |A|. En efecto, |A|1/2 U |A|1/2 = A, y −|A| = −|A|1/2 I|A|1/2 ≤ |A|1/2 U |A|1/2 ≤ |A|1/2 I|A|1/2 = |A|. 4. Luego, si denotamos A + |A| |A| − A A+ = y A− = , (3.5) 2 2 se prueba f´cilmente que a (a) Ambas matrices A+ , A− ∈ Mn (C)+ . (b) A = A+ − A− y |A| = A+ + A− . (c) A+ A− = A− A+ = 0. Es f´cil ver que A+ y A− son las unicas matrices que cumples las tres propiedades a ´ anteriores. Se las llama partes positiva y negativa de la matriz autoadjunta A. 5. Otras propiedades que verifican A+ y A− son: (a) AA+ = A+ A = (A+ )2 (idem con A− ). (b) (−A)+ = A− y (−A)− = A+ . (c) Por la definici´n de A+ y la f´rmula (3.4), se tiene que o o µk (A+ ) = m´x { µk (A) , 0 } , a para todo k ∈ In . (3.6) (d) µk (A− ) = µk ( (−A)+ ) = m´x{µk (−A), 0} = − m´ a ın{µn−k+1 (A), 0}, k ∈ In .
  • 60. 3.4 Normas en Mn (C) 45 6. Si A = B − C con B, C ∈ Mn (C)+ , entonces se tiene que µk (A+ ) ≤ µk (B) y µk (A− ) ≤ µk (C) , para todo k ∈ In . (3.7) En efecto, si A < 0, entonces A+ = 0 y la primera desigualdad es obvia. Si µ1 (A) ≥ 0, sea p = m´x{k ∈ In : µk (A) ≥ 0}. Luego, como B = C + A ≥ A, se tiene que a µk (A+ ) = µk (A) ≤ µk (B) para k ∈ Ip y µk (A+ ) = 0 ≤ µk (B) para k > p , por el Teorema de Weyl 2.3.5. La otra desigualdad en (3.7) se deduce de lo anterior aplicado a la igualdad −A = C − B, dado que (−A)+ = A− . 3.4 Normas en Mn (C) Se estudiar´n en esta secci´n distintas normas en el espacio vectorial de matrices Mn (C). a o Muchas de estas normas son utiles en diversas desigualdades matriciales espec´ ´ ıficas. Pero no olvidemos que, como dim Mn (C) < ∞, es un resultado conocido que todas las normas en Mn (C) son equivalentes. En los siguientes ejemplos definiremos las normas m´s cl´sicas para matrices. Dejaremos a a como ejercicio para el lector la verificaci´n (en algunos casos altamente no trivial, pensada a o futuro) de que son, efectivamente, normas. Ejemplos 3.4.1. 1. La norma espectral · sp , definida del siguiente modo A = A sp = m´x Ax = s1 (A), a x =1 donde la ultima igualdad surge de que A ´ sp = |A| sp = ρ(|A|). 2. Las normas de Schatten. Dado 1 ≤ p < ∞ n 1/p p 1/p A p = si (A) = (tr |A|p ) . i=1 La · 2 se llama norma de Frobenius. Ella verifica que n A 2 2 = tr A∗ A = |aij |2 i,j=1 y proviene del producto escalar en Mn (C) definido por A, B = tr B ∗ A. 3. Las normas Ky-Fan. Dado k ∈ {1, . . . , n} k A (k) = si (A) . i=1 Notar que A (1) = A sp y A (n) = A 1 (de Schatten).
  • 61. 46 Matrices definidas positivas 4. Toda norma N en Cn induce una norma ||| · |||N en Mn (C) del siguiente modo: |||A|||N = m´x N (Ax). a N (x)=1 Estas normas satisfacen que: (a) |||I|||N = 1 (b) ρ(A) ≤ |||A|||N (c) |||AB|||N ≤ |||A|||N |||B|||N . Ejercicio 3.4.2. Consideremenos en Cn las siguientes normas: n x 1 = |xi | y x ∞ = m´x |xi | , a para todo x ∈ Cn , i∈In i=1 conocidas como las normas 1 e ∞. Como en el Ejemplo anterior, ellas inducen en Mn (C) las siguientes normas matriciales: Dada A ∈ Mn (C), |||A|||∞ = m´x a Ax ∞ y |||A|||1 = m´x a Ax 1 . x ∞ =1 x 1 =1 Probar que estas normas pueden calcularse efectivamente mediante las f´rmulas: o |||A|||∞ = m´x Fi (A) a 1 y |||A|||1 = m´x Ci (A) a 1 . (3.8) i∈In i∈In para toda A ∈ Mn (C). Definici´n 3.4.3. Una norma o · en Mn (C) se llama: 1. Matricial: si AB ≤ A B 2. Unitariamente invariante (NUI): si U AV = A , para todo U, V ∈ U(n). Ejemplo 3.4.4. Sea N∞ (A) = m´x |aij |, para A ∈ Mn (C). Sean 1n = (1, . . . , 1) ∈ Cn y a ij∈In En = 1 n 1n . Como 1n , 1n = n, tenemos que E2 = 1n n 1n · 1n 1n = 1n , 1n 1n 1n = nEn =⇒ N∞ (E2 ) = n , n mientras que N∞ (En ) = 1. O sea que N∞ no es matricial en Mn (C) para ning´n n > 1. El u lector interesado puede demostrar que n N∞ (·) s´ es una norma matricial en Mn (C). ı Teorema 3.4.5. Sea · una norma matricial en Mn (C). Dada A ∈ Mn (C) se tiene que ∞ 1. A − I < 1 implica que A ∈ Gl (n) y A−1 = (I − A)n n=0 −1 −1 2. Si B ∈ Gl (n) y B − A < B , entonces, A ∈ Gl (n).
  • 62. 3.4 Normas en Mn (C) 47 Demostraci´n. Comencemos notando que 1 ⇒ 2. En efecto, o B − A < B −1 −1 =⇒ B −1 A − I = B −1 (A − B) ≤ B −1 A−B <1 . −1 −1 Si valiera 1, luego B A ser´ inversible y A = B(B ıa A) tambi´n deber´ serlo. Para probar e ıa ıtem 1, llamemos C = I − A. Tenemos que el ´ ∞ ∞ 1 C < 1 =⇒ Cm ≤ C m ∀ m ∈ N =⇒ Ck ≤ C k = . 1− C k=0 k=0 ∞ Luego, la serie C k converge. En particular, C k − − → 0. Luego −− k→∞ k=1 N N N N +1 A C k = (I − C) Ck = Ck − C k = 1 − C N +1 − − → 1 . −− N →∞ k=0 k=0 k=0 k=1 ∞ Analogamente C k A = 1. k=0 Proposici´n 3.4.6. Sea A ∈ Mn (C) y · una norma matricial. Entonces ρ(A) ≤ A . o M´s a´n, Am 1/m ≥ ρ(A) para todo m ∈ N. a u Demostraci´n. Sean λ ∈ σ (A) y x ∈ Cn tales que x = 0 y Ax = λx. Llamemos X a la matriz o cuyas columnas son todas iguales al vector x. Luego, AX = λX, y por ende |λ| X = AX ≤ A X , de donde se deduce que |λ| ≤ A . Como el autovalor era cualquiera, ρ(A) ≤ A . Adem´s, a m por el Corolario 1.7.2, se tiene que σ (Am ) = σ (A) , y entonces tambi´n ρ(Am ) = ρ(A)m . e Por lo tanto, usando la parte ya probada, obtenemos que ρ(A) ≤ Am 1/m . Observaci´n 3.4.7. Dada una norma matricial · en Mn (C) y una matriz S ∈ Gl (n), la o f´rmula A S := SAS −1 , A ∈ Mn (C), define otra norma matricial. o Proposici´n 3.4.8. Dados A ∈ Mn (C) y ε > 0, existe una norma matricial NA,ε en Mn (C) o tal que NA,ε (A) ≤ ρ(A) + ε. Demostraci´n. Sea A = U T U ∗ con T una matriz triangular superior y U ∈ U(n). Luego, o T = U ∗ AU . Sea Ds = diag s, s2 , . . . , sn . Entonces, (Ds T Ds )ij = tij si−j para todo par −1 i, j ∈ In (eso fue visto en la Eq. (1.14) ). Por lo tanto, −1 En cualquier norma Ds T Ds − − − − − → diag (λ1 (A) , . . . , λn (A)) . −−−−− s→∞ −1 Como diag (λ1 (A) , . . . , λn (A)) sp = ρ(A), entonces, Ds T Ds sp − − ρ(A). Luego debe −→ s→∞ −1 existir un s0 ∈ R tal que Ds0 T Ds0 sp < ρ(A) + ε. Consideremos ahora la norma NA,ε = · sp Ds U ∗ , o sea NA,ε (B) = Ds0 U ∗ B U Ds0 −1 sp , B ∈ Mn (C). 0 Luego NA,ε (A) = Ds0 U ∗ A U Ds0 −1 sp −1 = Ds0 T Ds0 sp < ρ(A) + ε.
  • 63. 48 Matrices definidas positivas Corolario 3.4.9. Si A ∈ Mn (C), entonces Am → 0 si y s´lo si ρ(A) < 1. o Demostraci´n. Es claro que ρ(A) < 1 si y s´lo si ρ(Am ) = ρ(A)m − − → 0. Usando o o −− m→∞ que ρ(Am ) ≤ Am sp para todo m ∈ N, una implicaci´n es clara. Para probar la otra, o supongamos que ρ(A) < 1. Por la Proposici´n 3.4.8, existe una norma matricial N tal que o ρ(A) ≤ N (A) < 1. Como N es matricial, deducimos que N (Am ) ≤ N (A)m − − → 0. −− m→∞ Teorema 3.4.10. Sea A ∈ Mn (C). Entonces, para cualquier norma · en Mn (C), m 1/m ρ(A) = lim A . m→∞ Demostraci´n. Supongamos primero que · es una norma matricial. Por la Proposici´n o o 3.4.6, sabemos que se tiene ρ(A) ≤ Am 1/m para todo m ∈ N. Fijado ε > 0, consideremos A la matriz B = . Como ρ(B) < 1, el Corolario 3.4.9 asegura que B m → 0. En ρ(A) + ε consecuencia existe un m0 ∈ N tal que, para todo m ≥ m0 , se verifica Bm < 1 , es decir que Am < (ρ(A) + ε)m =⇒ Am 1/m < ρ(A) + ε , lo que prueba el Teorema en este caso. El mismo resultado vale para normas no matriciales, por ser todas las normas equivalentes. Ejercicio 3.4.11. Sea A ∈ Mn (C). Si N es una norma matricial en Mn (C), mostrar que ρ(A) = ´ N (Am )1/m . M´s a´n, probar que en tal caso, N (Am )1/m ınf a u ρ(A) . m∈N m→∞ Observaci´n 3.4.12. Todos los resultados de esta secci´n, a partir del Teorema 3.4.5, son o o tambi´n ciertos en ´lgebras de Banach, donde las normas son matriciales por definici´n. El e a o unico resultado propio de matrices es la Proposici´n 3.4.8, que nos permite dar una prueba f´cil ´ o a de la f´rmula del radio espectral (Teorema 3.4.10). Esta f´rmula vale tambi´n en dimensi´n o o e o infinita, y la prueba usa herramientas de an´lisis complejo. El curro es mostrar que la llamada a resolvente, que es la funci´n o ρA : C σ(A) → Gl (n) dada por ρA (z) = (zI − A)−1 , z ∈ C σ(A) , es anal´ ıtica. La f´rmula dada surge del radio de convergencia de su serie de potencias alrededor o del “infinito”. Sin embargo, hemos incluido las demostraciones anteriores porque tienen un buen sabor matricial, salvo el Teorema 3.4.5, que tiene la prueba standard (y no creo que pueda mejorarse). N´tese que se asumi´ impl´ o o ıcitamente que Mn (C) es un espacio completo, porque usamos que una serie absolutamente sumable es convergente. 3.5 Algunas caracterizaciones A continuaci´n daremos algunas caracterizaciones f´ciles de la positividad y la contractividad o a de matrices. Al final incluimos una mini-introducci´n al producto de Hadamard, mostrando o el Teorema de Schur 2. A lo largo de ´sta Secci´n abreviaremos A sp = A . Usaremos la e o Proposici´n 1.5.5 que dice que dadas A, B ∈ Mn (C), entonces σ (AB) = σ (BA). El primer o enunciado resume varias caracterizaciones ya mencionadas de esta norma.
  • 64. 3.5 Algunas caracterizaciones 49 Lema 3.5.1. Sea A ∈ Mn,m (C) entonces s1 (A) = A = |A| = ρ(|A|) = ρ(A∗ A)1/2 = A∗ A 1/2 = AA∗ 1/2 . (3.9) Demostraci´n. Como |A| y A∗ A ∈ H(n), la Proposici´n 2.1.4 asegura que o o |A| = ρ(|A|) = s1 (A) y que ρ(A∗ A)1/2 = A∗ A 1/2 . Las igualdades A = |A| = s1 (A) se deducen de que Ax = |A|x para todo x ∈ Cn ıtem 1 del Teorema 3.2.5). La igualdad ρ(|A|) = ρ(A∗ A)1/2 se sigue del Corolario 1.7.2, (´ usando que |A|2 = A∗ A. Observar que ρ(A∗ A) = ρ(AA∗ ) porque σ(A∗ A) = σ(AA∗ ). Proposici´n 3.5.2. Sea A ∈ H(n), entonces − A I ≤ A ≤ A I . M´s a´n, o a u −λI ≤ A ≤ λ I ⇐⇒ A ≤ λ ⇐⇒ ρ(A) ≤ λ , para cialquier λ ∈ R∗ . + Demostraci´n. Notar que si A ∈ H(n), entonces A = ρ(A) = m´x{µ1 (A), −µn (A)}. Por lo o a tanto, ρ(A) ≤ λ ⇐⇒ −λ ≤ µn (A) ≤ µ1 (A) ≤ λ. Por el Teorema 2.3.1, tenemos que −λ ≤ µn (A) = m´ Ax, x ⇐⇒ −λI ≤ A ın y adem´s a x =1 m´x Ax, x = µ1 (A) ≤ λ ⇐⇒ A ≤ λI . a x =1 Proposici´n 3.5.3. Dada A ∈ Mn (C), se tienen las equivalencias o A = s1 (A) ≤ 1 ⇐⇒ |A| ≤ I ⇐⇒ AA∗ ≤ I ⇐⇒ A∗ A ≤ I . (3.10) Demostraci´n. Es consecuencia del Lema 3.5.1 y de la Proposici´n 3.5.2. o o Proposici´n 3.5.4. Si A ∈ Mn (C)+ y B ∈ Gl (n)+ , entonces o A ≤ B ⇐⇒ A1/2 B −1/2 ≤ 1 ⇐⇒ ρ(AB −1 ) ≤ 1 . (3.11) Demostraci´n. Notemos que o A ≤ B ⇐⇒ B −1/2 AB −1/2 ≤ I ⇐⇒ (A1/2 B −1/2 )∗ A1/2 B −1/2 ≤ I . Luego se aplica la Proposici´n 3.5.3 y el hecho de que σ B −1/2 AB −1/2 = σ AB −1 . o 3.5.5. Sea x ∈ Cn con x = 1 (a estos vectores los llamaremos unitarios). Entonces, como vimos en 1.9.3, la matriz Px = x x = xx∗ = (xi xj )ij ∈ Mn (C)+ es el proyector ortogonal sobre el subespacio Gen {x}. Por lo tanto, si B = {x1 , . . . , xn } es una BON de Cn , vale que n n z= z, xi xi para todo z ∈ Cn =⇒ I= xi xi , (3.12) i=1 i=1 por lo que {xi xi : i ∈ In } es un sistema de proyectores (ver Definici´n 5.4.2). o
  • 65. 50 Matrices definidas positivas Proposici´n 3.5.6. Sea A ∈ Mn (C). Las siguientes condiciones son equivalentes: o 1. A ∈ Mn (C)+ . r r ∗ 2. Existen y1 , . . . , yr ∈ Cn tales que A = yi yi = yi · yi . i=1 i=1 ∗ Demostraci´n. La implicaci´n 2 → 1 es clara, porque cada matriz yi · yi ∈ Mn (C)+ . Rec´ o o ıpro- + n camente, si A ∈ Mn (C) , sea B = {x1 , . . . , xn } es una BON de C adaptada a µ(A). Usando la ecuaci´n (3.12), para todo z ∈ Cn se tiene que o n n n n Az = A z, xi xi = z, xi Axi = µi (A) z, xi xi = µi (A) xi xi z . i=1 i=1 i=1 i=1 Luego basta elegir yi = µi (A)1/2 xi para aquellos i ∈ In tales que µi (A) > 0. 3.6 El producto de Hadamard Definici´n 3.6.1. Dadas A, B ∈ Mn,m (C), su producto de Hadamard A ◦ B es la matriz o A ◦ B = aij bij i∈In ∈ Mn,m (C) . j∈Im Notar que este producto tiene sentido tanto para matrices como para vectores. A este producto de matrices, tambi´n llamado producto de Schur, le dedicaremos un cap´ e ıtulo entero, porque tiene interesant´ ısimas aplicaciones dentro y fuera de la teor´ del An´lisis ıa a Matricial. Pero vamos adelantando un resultado al respecto (otro teorema de Schur), porque es elemental y compete a las matrices positivas. Teorema 3.6.2 (Teorema 2 de Schur). Sean A, B ∈ Mn (C)+ , entonces A ◦ B ∈ Mn (C)+ . Adem´s, si A, B ∈ Gl (n)+ , entonces A ◦ B ∈ Gl (n)+ . a Demostraci´n. La segunda parte se deduce de la primera. En efecto, si A > 0 y B > 0, o existen n´meros a, b > 0 tales que A ≥ aI y B ≥ bI. Entonces, aplicando dos veces el caso u que a´n no hemos probado, obtendr´ u ıamos A ◦ B ≥ aI ◦ B ≥ aI ◦ bI = ab I ∈ Gl (n)+ . (3.13) Supongamos entonces que A, B ∈ Mn (C)+ . Por la Proposici´n 3.5.6 (ver tambi´n 1.9.3), o e r ∗ deben existir vectores vi ∈ Cn , i ∈ Ir , tales que A = vi vi . Como el producto ◦ es i=1 distributivo, basta mostrar que v v ∗ ◦ B ∈ Mn (C)+ para todo v ∈ Cn y toda B ∈ Mn (C)+ . Y para ver esto, alcanza con hacer la siguiente cuenta: ∗ v v∗ ◦ B = vi vj Bij = diag (v) B diag (v) ∈ Mn (C)+ , i,j∈In donde la igualdad del medio se testea haciendo la cuenta, o mirando la Eq. (1.14).
  • 66. 3.7 El famoso truco 2 × 2 51 Corolario 3.6.3. Sean A, B ∈ Mn (C)+ , entonces 1. µn (A)µn (B) ≤ µn (A ◦ B). 2. A ◦ B sp = µ1 (A ◦ B) ≤ µ1 (A)µ1 (B) = A sp B sp . Demostraci´n. La primera desigualdad se deduce de la ecuaci´n (3.13), pero usando que o o A ≥ µn (A)I y B ≥ µn (B)I. La segunda, de una cuenta an´loga, pero aplicando ahora las a desigualdades A ≤ µ1 (A)I y B ≤ µ1 (B)I (tadas fueron vistas en la Observaci´n 2.3.2). o Corolario 3.6.4. Si A ∈ Mn (C)+ , entonces B = |Aij |2 i,j∈In ∈ Mn (C)+ . Demostraci´n. Se deduce de que AT = A = Aij o i,j∈In ∈ Mn (C)+ . Ejercicio 3.6.5. Mostrar que el resultado anterior falla si uno no eleva los m´dulos al o cuadrado. En otras palabras, se debe encontrar un ejemplo de una matriz A ∈ Mn (C)+ tal que B = |Aij | i,j∈In ∈ Mn (C)+ . Observar que hay que buscar para n ≥ 3. / Corolario 3.6.6. Si A ∈ Mn (C)+ y P (x) ∈ R[x] tiene coeficientes no negativos, entonces P◦ (A) := P (Aij ) ∈ Mn (C)+ . i,j∈In Demostraci´n. Por una inducci´n directa, podemos ver que A[k] = A ◦ A ◦ · · · ◦ A ∈ Mn (C)+ o o (se multiplica k veces) para todo k ∈ N. Despu´s se usa lo que cumple P (x). e Ejercicio 3.6.7. Probar que, si A ∈ Mn (C)+ , entonces eA := ◦ eAij ∈ Mn (C)+ . i,j∈In 3.7 El famoso truco 2 × 2 Cuando se trabaja con operadores y matrices, muchas veces una cuenta inmanejable termina saliendo “m´gicamente” y en un par de renglones, con el famoso truco de matrices de bloques a de 2 × 2. Ver, por ejemplo, la Proposici´n 1.5.5, y tratar de probarla de otra manera. En o esta secci´n juntaremos varios resultados que aportan t´cnicas para usar dicho m´todo. Para o e e operar entre matrices de bloques, se usar´n sistem´ticamente los resultados desarrollados en a a la Secci´n 1.5. En particular, las f´rmulas (1.16), (1.17) y (1.18). o o 3.7.1. Sea A ∈ Mn (C). Entonces A A A ∈ Mn (C)+ ⇐⇒ A(2) = ∈ M2n (C)+ . A A En efecto, Si tomamos la matriz 1 −I I U=√ ∈ U(2n), 2 I I
  • 67. 52 Matrices definidas positivas cuentas elementales muestran que U = U ∗ = U −1 , y que 0 0 U A(2) U ∗ = U A(2) U = . 0 2A Ahora s´ es claro que A ≥ 0 si y s´lo si A(2) ≥ 0. Dejamos como ejercicio la verificaci´n ı o o de que si A(k) ∈ Mkn (C) se define en foma semejante a A(2) , entonces A ≥ 0 si y s´lo si o A(k) ≥ 0. |A∗ | A 3.7.2. Si A ∈ Mn (C), entoces B = ≥ 0. En efecto, sea U ∈ U(n) tal que A∗ |A| A = U |A|. Entonces U 0 |A| |A| U∗ 0 U |A| U |A| U∗ 0 0 ≤ = 0 I |A| |A| 0 I |A| |A| 0 I U |A|U ∗ U |A| |A∗ | A = = , |A|U ∗ |A| A∗ |A| dado que U |A|U ∗ = |A∗ |. El mismo resultado sigue valiendo si A ∈ Mnm (C), o sea si A es rectangular. En ese caso B ∈ Mn+m (C)+ (Ejercicio). Proposici´n 3.7.3. Sea A ∈ Mn,m (C), y llamemos r = m´ o ın{n, m}. Luego sk (A∗ ) = sk (A) para todo k ∈ Ir . (3.14) Demostraci´n. Como vimos en la Observaci´n 1.5.6, µ(AA∗ ) = µ(A∗ A) salvo una cola de o o m − n (o n − m) ceros. Usando el Corolario 1.7.2 (o sea que λ(P (A) ) = P (λ(A) ) para todo polinomio P ) y la definici´n de |A|, vemos que µ(A∗ A) = µ(|A|2 ) = µ(|A|)2 . De ah´ sale que o ı s(A) = s(A∗ ) salvo los ceros finales. Esto muestra la f´rmula (3.14). o Observaci´n 3.7.4 (El rango). Recordemos que, si A ∈ Mn,m (C) decimos que o rk A = dim R(A) = dim Gen {C1 (A), . . . , Cm (A)} , ın{n, m}. Sea U ∈ U(n) lo que usualmente se llama rango columna de A. Llamemos r = m´ tal que A = U |A|. Es f´cil ver que a rk A = rk |A| = rk Σ(A) = m´x{k ∈ Ir : sk (A) = 0} . a (3.15) El rango fila de A es, con esta definici´n, la dim Gen {F1 (A), . . . , Fn (A)} = rk A = rk A∗ . o T Por la Proposici´n 3.7.3, s(A∗ ) = s(A) (salvo ceros finales). Luego la f´rmula (3.15) muestra o o que ambos rangos son iguales. Proposici´n 3.7.5. Sea A ∈ Mn (C). Entonces o 0 A ∼ Σ(A) 0 A := = ∈ H(2n) . A∗ 0 0 −Σ(A) En particular, σ(A ) = {±si (A)} (con las mismas multiplicidades). Es decir, µ(A ) = (s1 (A), · · · , sn (A), −sn (A), · · · , −s1 (A) ). (3.16)
  • 68. 3.7 El famoso truco 2 × 2 53 Demostraci´n. Sean U, V ∈ U(n) tales que Σ(A) = V AU ∗ = U A∗ V ∗ . Es f´cil ver que o a 1 V U W =√ ∈ U(2n). 2 −V U Entonces 1 U A∗ VA V∗ −V ∗ WA W∗ = 2 U A∗ −V A U∗ U∗ 1 U A∗ V ∗ + V AU ∗ V AU ∗ − U A∗ V ∗ = 2 U A∗ V ∗ − V AU ∗ −V AU ∗ − U A∗ V ∗ Σ(A) 0 = , 0 −Σ(A) como quer´ ıamos demostrar. Proposici´n 3.7.6. Sea A ∈ Mn (C). Entonces o I A A sp ≤1 ⇐⇒ M= ≥ 0. A∗ I Demostraci´n. Notar que M = I2n + A. Usando que σ(A) = σ(−A) (por la Proposici´n o o 3.7.5) y luego el Teorema de Rayleigh-Ritz 2.3.1 (o la Observaci´n 2.3.2), obtenemos que o I A ≥ 0 ⇐⇒ I2n + A ≥ 0 ⇐⇒ −A ≤ I2n ⇐⇒ −I2n ≤ A ≤ I2n . A∗ I Por la Proposici´n 3.5.2, esto equivale a que A o sp = s1 (A) = ρ(A) = A sp ≤ 1. Observaci´n 3.7.7. Notar que la Proposici´n 3.7.6 sigue siendo v´lida si A es rectangular, o o a por el simple recurso de agregarle ceros (arriba o a la derecha) para que A quede cuadrada, lo que no cambia su norma. 3.7.8. Si A, B ∈ Mn (C)+ , entonces son equivalentes 1. A ≤ B. B A 2. La matriz M = ≥ 0. A B En efecto, si B ∈ Gl (n)+ , entonces M ≥ 0 si y s´lo si o B −1/2 0 B A B −1/2 0 I B −1/2 AB −1/2 0≤ −1/2 −1/2 = −1/2 , 0 B A B 0 B B AB −1/2 I lo que, por la Proposici´n 3.7.6, equivale a que A1/2 B −1/2 2 = B −1/2 AB −1/2 ≤ 1. Por o la Proposici´n 3.5.2, se tiene que A1/2 B −1/2 ≤ 1 si y s´lo si A ≤ B. Un ejercicio f´cil es o o a deducir que la equivalencia sigue valiendo si no se pide que B sea inversible (si uno cambia B por B + εI, entonces M pasa a ser M + εI2n ).
  • 69. 54 Matrices definidas positivas 3.7.9. Sea A ∈ Mn (C) una contracci´n, es decir que A o sp ≤ 1. 1. Se tiene que A∗ (I − AA∗ )1/2 = (I − A∗ A)1/2 A∗ . 2. Entonces las matrices A (I − AA∗ )1/2 A −(I − AA∗ )1/2 y (I − A∗ A)1/2 −A∗ (I − A∗ A)1/2 A∗ son unitarias en M2n (C). En efecto, observar que A∗ (I − AA∗ ) = A∗ − A∗ AA∗ = (I − A∗ A)A∗ . Por inducci´n vemos o que A∗ (I − AA∗ )k = (I − A∗ A)k A∗ para todo k ∈ N ∩ {0}. Luego se usa que a (I − AA∗ )1/2 se lo puede realizar como un polinomio en (I − AA∗ ), y lo mismo para (I − A∗ A), con el mismo polinomio, dado que tienen el mismo espectro. La verificaci´n la segunda parte es directa, y o se deja como ejercicio. A C k 3.7.10. Sea M ∈ H(n), y represent´mosla por bloques M = e . C∗ B n−k 1. Si A = λIk y B = µIn−k para ciertos λ, µ ∈ R∗ , se tiene que + λIk C M= ≥ 0 ⇐⇒ C C ∗ ≤ λ µ Ik ⇐⇒ C 2 ≤ λµ . C∗ µIn−k 2. En el caso general, dado ε > 0, existe λ > 0 tal que A C A + εIk 0 ≤ . C∗ B 0 λIn−k λIk C λ−1/2 Ik 0 En efecto, si M = ∗ , conjugandola con D = , caemos C µIn−k 0 µ−1/2 In−k en el caso de la Proposici´n 3.7.6 (para C ∈ Mk,n−k (C) rectangular, donde tambi´n es cierto). o e Luego, por las citas que se indican sobre los s´ ımbolos, Ik λ−1/2 µ−1/2 C M ≥0 ⇐⇒ DM D = −1/2 −1/2 ∗ ≥0 λ µ C In−k Prop. 3.7.6 Lema 3.5.1 ⇐⇒ λ−1 µ−1 C 2 = λ−1 µ−1 C C ∗ ≤ 1 Prop. 3.5.3 ⇐⇒ C C ∗ ≤ λ µ Ik . 2 C Para la segunda parte, basta tomar λ ≥ + B . En efecto, en ese caso, ε 2 C B ≤ B In−k =⇒ λ In−k − B ≥ λ − B In−k ≥ In−k , ε y, si llamamos m = n − k, se aplica el caso anterior a la matriz εIk −C εIk −C A + εIk 0 A C 0≤ 2 ≤ = − . −C ∗ C ε Im −C ∗ λ Im − B 0 λIm C∗ B
  • 70. 3.8 Cortocircuitos 55 3.8 Cortocircuitos Lema 3.8.1. Sean D, A ∈ Mn (C)+ . Luego, las siguientes condiciones son equivalentes: 1. D ≤ A. 2. D1/2 x ≤ A1/2 x para todo x ∈ Cn . 3. Existe C ∈ Mn (C) tal que C sp ≤ 1 y D1/2 = CA1/2 . Demostraci´n. Observar que D1/2 x 2 = D1/2 x , D1/2 x = Dx , x y lo mismo vale para A. o Esto da la equivalencia 1 ↔ 2. El hecho de que 3 → 1 se deduce de que C sp ≤ 1 ⇒ C ∗ C ≤ I (por la Proposici´n 3.5.3). Asumamos ahora que vale 2. Entonces ker A1/2 ⊆ ker D1/2 . Luego, o podemos definir (con buena definici´n) la funci´n o o C0 : R(A1/2 ) → R(D1/2 ) dada por C0 (A1/2 x) = D1/2 x , para cualquier x ∈ Cn . Es f´cil ver que C0 es lineal. Extend´mosla a una C ∈ Mn (C) poniendo C|ker A1/2 ≡ 0. Ahora a a podemos verificar sin dificultades que D1/2 = CA1/2 y, por la condici´n 2, el hecho de que o C sp ≤ 1 (ac´ se usa que ker A1/2 = R(A1/2 )⊥ ). a Notaci´n: Recordar que, si M ⊆ Cn es un subespacio, denotamos por PM ∈ Mn (C)+ o al proyector ortogonal sobre M. Observar que 0 ≤ PM ≤ I, que PM (M⊥ ) = {0} y que PM x = x para todo x ∈ M. Teorema 3.8.2. Sea A ∈ Mn (C)+ y S ⊆ Cn un subespacio. Sea M(A, S) := {D ∈ Mn (C)+ : D ≤ A y R(D) ⊆ S} . (3.17) Consiredemos el subespacio M = A−1/2 (S) y la matriz T = A1/2 PM A1/2 . Entonces, 1. T ∈ M(A, S). 2. Para cualquier D ∈ M(A, S), se cumple que D ≤ T . En otras palabras, T = A1/2 PM A1/2 es el m´ximo de M(A, S) en el orden usual de H(n) . a Demostraci´n. Observar que T = A1/2 PM A1/2 ≤ A1/2 I A1/2 = A. Adem´s, se tiene que o a R(T ) ⊆ A1/2 (M) ⊆ S. Luego T ∈ M(A, S). Si D ∈ M(A, S), en particular D ≤ A. Por el Lema 3.8.1, debe existir una contracci´n C tal que D1/2 = CA1/2 , o sea que D1/2 = A1/2 C ∗ . o Como A1/2 (R(C ∗ ) ) = R(D1/2 ) ⊆ S, deducimos que R(C ∗ ) ⊆ M, o sea PM C ∗ = C ∗ . Usando que C ∗ C ≤ I (porque C sp ≤ 1), podemos deducir que C ∗ C = PM C ∗ CPM ≤ PM . Luego D = D1/2 D1/2 = A1/2 C ∗ CA1/2 ≤ A1/2 PM A1/2 = T , lo cual muestra que T = m´x M(A, S). a
  • 71. 56 Matrices definidas positivas Definici´n 3.8.3. Sean A ∈ Mn (C)+ y S ⊆ Cn , un subespacio. Llamaremos shorted de o A al subespacio S, y lo notaremos Σ (A, S), al m´ximo del conjunto M(A, S). a En la siguiente proposici´n, recopilamos una serie de resultados m´s o menos inmediatos de o a la definici´n y la demostraci´n del Teorema 3.8.2. o o Proposici´n 3.8.4. Sean A ∈ Mn (C)+ y S ⊆ Cn , un subespacio. Entonces: o 1. Σ (A, S) ≤ A. 2. Para todo α ∈ R+ , se tiene que Σ (αA, S) = αΣ (A, S). 3. Si B ∈ Mn (C)+ cumple que A ≤ B, entonces M(A, S) ⊆ M(B, S) y por lo tanto Σ (A, S) ≤ Σ (B, S) . 4. Si S ⊆ T ⊆ Cn , entonces M(A, S) ⊆ M(A, T ) y Σ (A, S) ≤ Σ (A, T ). 5. Si R(A) ⊆ S, entonces Σ (A, S) = A. 6. Σ (Σ (A, S) , S) = Σ (A, S). Demostraci´n. Ejercicio. o Proposici´n 3.8.5. Sean A ∈ Mn (C)+ y S, T ⊆ Cn , dos subespacios . Entonces o Σ (Σ (A, S) , T ) = Σ (A, S ∩ T ) . Demostraci´n. Consideremos los conjuntos o M(A, S ∩ T ) = {D : 0 ≤ D ≤ A R(D) ⊆ S ∩ T } M(Σ (A, T ) , S) = {D : 0 ≤ D ≤ Σ (A, T ) R(D) ⊆ S}. Probaremos que estos conjuntos son iguales y por ende sus m´ximos tambi´n lo son. En a e efecto, sea D ∈ M(A, S ∩ T ), entonces se tiene que R(D) ⊆ T y D ≤ A =⇒ D ≤ Σ (A, T ) , y tambi´n que e R(D) ⊆ S . En consecuencia, D ∈ M(Σ (A, T ) , S). Reciprocamente, si D ∈ M(Σ (A, T ) , S) entonces D ≤ Σ (A, T ), lo cual muestra que R(D) ⊆ T y en consecuencia R(D) ⊆ S ∩ T . Pero como D ≤ Σ (A, T ) ≤ A se tiene que D ∈ M(A, S ∩ T ). C´lculo matricial del shorted: complementos de Schur a Se busca dar una expresi´n “en coordenadas” del shorted Σ (A, S). Para ello necesitamos o seguir haciendo cuentas del estilo 2 × 2, que son interesantes en s´ mismas. ı
  • 72. 3.8 Cortocircuitos 57 A B S Proposici´n 3.8.6. Sea S ⊆ Cn un subespacio, y sea M = o ∈ Mn (C) . B∗ D S⊥ Entonces M ∈ Mn (C)+ si y s´lo si se verifican las siguientes condiciones: o 1. A ∈ L(S)+ y D ∈ L(S ⊥ )+ . 2. Existe una contracci´n C ∈ L(S ⊥ , S) tal que B = A1/2 CD1/2 . o En tal caso se tiene que R(B) ⊆ R(A) y que R(B ∗ ) ⊆ R(D). Demostraci´n. Si se cumplen las condiciones pedidas, se observa que o A B A1/2 0 IS C A1/2 0 M= = ∈ Mn (C)+ , B∗ D 0 D1/2 C∗ IS ⊥ 0 D1/2 por la Proposici´n 3.7.6 y la Observaci´n 3.7.7. Si suponemos que M ≥ 0, es claro que o o A ∈ L(S)+ y D ∈ L(S ⊥ )+ . Asumamos que ambas son inversibles. Haciendo la cuenta anterior al reves, si llamamos C = A−1/2 BD−1/2 se tiene que IS C A−1/2 0 A B A−1/2 0 = ∈ Mn (C)+ . C∗ IS ⊥ 0 D −1/2 B∗ D 0 D−1/2 Luego queda que C sp ≤ 1 y B = A1/2 CD1/2 . El caso general sale aplicando lo anterior a las matrices M + n I. Se toma la sucesi´n Cn = (A + n IS )−1/2 B (D + n IS ⊥ )−1/2 , que consta 1 o 1 1 de contracciones. Como la bola de Mn (C) es compacta, hay una subsucesi´n Cnk − − → C, o −− k→∞ donde C es tambi´n una contracci´n. Ahora observamos que, para todo k ∈ N, e o 1 1 B = (A + IS )1/2 Cnk (D + IS )1/2 − − → A1/2 CD1/2 , −− nk nk k→∞ donde la continuidad de tomar raices cuadradas se deduce de que todas las matrices de cada sucesi´n se diagonalizan en la misma base. o Proposici´n 3.8.7. Sean A ∈ Gl(k)+ , C ∈ Mm (C)+ y B ∈ Mk,m (C). Sea o A B Cn M= ∈ Mk+m (C) . B∗ C Cm Entonces se verifican las siguientes propiedades: 1. M ∈ Gl(m + k)+ ⇐⇒ B ∗ A−1 B < C (o sea que C − B ∗ A−1 B ∈ Gl(m)+ ). 2. M ∈ Mk+m (C)+ ⇐⇒ B ∗ A−1 B ≤ C. ∗ ∗ 3. Si M ∈ Gl(m + k), entonces M −1 = . ∗ (C − B ∗ A−1 B)−1
  • 73. 58 Matrices definidas positivas Demostraci´n. Sea X = −A−1 B ∈ Mkm (C). Entonces, haciendo cuentas elementales, obten- o emos que Ik 0 Ik X A 0 M = , X ∗ Im 0 Im 0 C − B ∗ A−1 B −1 Ik X Ik −X lo que prueba 1 y 2. Por otra parte, como = , deducimos que 0 Im 0 Im Ik −X −1 Ik 0 A−1 0 M = 0 Im −X ∗ Im 0 (C − B ∗ A−1 B)−1 y, por lo tanto, que Ik X A−1 0 Ik 0 ∗ ∗ M −1 = = , 0 Im 0 (C − B ∗ A−1 B)−1 X∗ Im ∗ (C − B ∗ A−1 B)−1 lo que prueba la parte 3. Ejercicio 3.8.8. Dar otra prueba de la Proposici´n 3.8.7, v´ la Proposici´n 3.8.6. o ıa o Corolario 3.8.9. Sean M ∈ Mn (C)+ y S ⊆ Cn , un subespacio. Supongamos que A B S⊥ M= y que la compresi´n o A = MS ⊥ ∈ Gl(S ⊥ )+ , B∗ C S o sea que M x , x > 0 para todo x ∈ S ⊥ {0}. Luego se tiene que 0 0 S⊥ 1. Σ (M, S) = . 0 C − B ∗ A−1 B S 2. M ∈ Gl (n)+ ⇐⇒ existe un λ ∈ R∗ tal que λ PS ≤ Σ (M, S). + Demostraci´n. Pongamos que dim S = m y llamemos k = n − m = dim S ⊥ . Trabajando en o una BON que empiece generando a S ⊥ , podemos asumir que S = Gen {ek+1 , . . . , en } y que estamos en las condiciones de la Proposici´n 3.8.7 (en particular, que A ∈ Gl(k)+ ). Si ahora o 0 0 S⊥ llamamos T = , es claro que R(T ) ⊆ S y que 0 C − B ∗ A−1 B S A B 0 0 M −T = − B∗ C 0 C − B ∗ A−1 B A B A1/2 0 A1/2 A−1/2 B = = ≥0, B∗ B A−1 B ∗ B A−1/2 ∗ 0 0 0
  • 74. 3.9 Ejercicios 59 0 0 S⊥ por lo que T ≤ M y T ∈ M(M, S). Tomemos un Q = ∈ M(M, S). Luego 0 D S A B se tiene que M − Q = ∈ Mn (C)+ . Por la Proposici´n 3.8.7 vemos que o B∗ C −D B ∗ A−1 B ≤ C − D =⇒ D ≤ C − B ∗ A−1 B =⇒ Q ≤ T . As´ que T = Σ (M, S). La segunda parte surge de que ı 0 0 0 0 C − B ∗ A−1 B ∈ Gl(S)+ ⇐⇒ Σ (M, S) = ≥ = λ PS 0 C − B ∗ A−1 B 0 λ IS para cierto λ ∈ R∗ , volviendo a aplicar la Proposici´n 3.8.7. + o Observaci´n 3.8.10. La definci´n m´s tradicional del shorted de un M ∈ Mn (C)+ se suele o o a hacer usando el complemento de Schur, seg´n la f´rmula que se desarrolla en el Cap´ u o ıtulo 12 y se muestra en el Corolario 3.8.9. La ventaja de la definici´n que surge del Teorema 3.8.2 es que no o necesita que haya una submatriz inversible. Sin embargo, utilizando seudoinversas de Moore- Penrose, se puede dar una f´rmula estilo la del Corolario 3.8.9 para cualquier M ∈ Mn (C)+ , o reemplazando B ∗ A−1 B por B ∗ A† B, que en dimensi´n finita siempre existe (ver el Ejercicios o 3.9.20 y 3.9.30). M´s all´ de esto, la simpleza de las pruebas de las Proposiciones 3.8.4 y 3.8.5 a a da una muestra de que el enfoque basado en maximizar el conjunto M(M, S) tiene fuertes ventajas metodol´gicas. o Todos los resultados de esta secci´n siguen siendo v´lidos en el contexto de operadores acota- o a dos en espacios de Hilbert. Las pruebas son muy similares, pero necesitan t´cnicas espec´ e ıficas, sobre todo para mostrar el Lema 3.8.1 y la Proposici´n 3.8.6 (ojo con la bola compacta). Estos o temas se expondr´n, con mucha mayor profundidad, en el tomo II. a 3.9 Ejercicios Ejercicios del texto 3.9.1. Mostrar que las normas definidas en 3.4.1 son, efectivamente, normas. 3.9.2. Consideremenos en Cn las siguientes normas: n x 1 = |xi | y x ∞ = m´x |xi | , a para todo x ∈ Cn , i∈In i=1 que inducen en Mn (C) las sendas normas matriciales: Dada A ∈ Mn (C), |||A|||∞ = m´x a Ax ∞ y |||A|||1 = m´x a Ax 1 . x ∞ =1 x 1 =1 Probar que estas normas pueden calcularse efectivamente mediante las f´rmulas: o |||A|||∞ = m´x Fi (A) a 1 y |||A|||1 = m´x Ci (A) a 1 . i∈In i∈In para toda A ∈ Mn (C).
  • 75. 60 Matrices definidas positivas 3.9.3. Sea A ∈ Mn (C). Si N es una norma matricial en Mn (C), mostrar que ρ(A) = ´ N (Am )1/m ınf y que N (Am )1/m ρ(A) . m∈N m→∞ 3.9.4. Encontrar una matriz A ∈ Mn (C)+ tal que B = |Aij | i,j∈In ∈ Mn (C)+ . Observar / que hay que buscar para n ≥ 3. 3.9.5. Probar que, si A ∈ Mn (C)+ , entonces eA := ◦ eAij ∈ Mn (C)+ . i,j∈In |A∗ | A 3.9.6. Si A ∈ Mn,m (C), entoces B = ∈ Mn+m (C)+ . Se suguiere aplicar 3.7.2 A∗ |A| agreg´ndole ceros a A para que quede cuadrada. a 3.9.7. Sea A ∈ Mn,m (C) una contracci´n, es decir que A o sp ≤ 1. Probar que 1. A∗ (In − AA∗ )1/2 = (Im − A∗ A)1/2 A∗ ∈ Mm,n (C). 2. Las matrices A (I − AA∗ )1/2 A −(I − AA∗ )1/2 y (I − A∗ A)1/2 −A∗ (I − A∗ A)1/2 A∗ son unitarias en Mn+m (C). 3.9.8. Demostrar los 6 items de la Proposici´n 3.8.4. o Ejercicios nuevos 3.9.9. Sea A ∈ Mn,m (C). Probar que, para todo k ∈ In , se tiene que sk (A) = m´x a m´ Ax = ın m´ ın m´x Ax . a dim S=k x∈S1 dim M=n−k+1 x∈M1 3.9.10. Consideremos los conjuntos Rk (n) = {T ∈ Mnm (C) : rk T ≤ k}. Mostrar que A ∈ Mnm (C) =⇒ sk (A) = min A−T para todo k ∈ In . T ∈Rk−1 3.9.11. Mostrar que si A, H ∈ Mnm (C), y rk H = k, entonces sj (A) ≥ sj+k (A + H) , para todo j ∈ In−k . 3.9.12. Mostrar que, para cualquier A ∈ Mnm (C) y para cada k ∈ In , vale que k k sj (A) = max Axj , yj , j=1 j=1 donde el m´ximo se toma sobre todas las k−uplas ortonormales x1 , . . . , xk e y1 , . . . , yk . a
  • 76. 3.9 Ejercicios 61 3.9.13. Sean A, B, C ∈ Mn (C) tal que A sp ≤ 1. Se definen DA = (I − A∗ A)1/2 y DA∗ = (I − AA∗ )1/2 . 1. Suponiendo que A sp < 1, verificar: −1 −1 (a) Si K = DA C ∗ y L = DA∗ B, entonces KK ∗ ≤ 1 (resp. LL∗ ≤ 1) ⇐⇒ A∗ A + C ∗ C ≤ 1 (resp. AA∗ + BB ∗ ≤ 1). −2 −1 −1   −1 DA∗ −DA∗ ADA I A (b) Demostrar que = . A∗ I −1 −1 −2 −DA A∗ DA∗ DA (c) Sea X ∈ Mn (C). Demostar que las matrices     I 0 A B I A 0 B 0 I C X  A∗ I C∗ 0  ∗ y B∗    A I 0 0 C I X C∗ X∗ 0 I B∗ 0 X∗ I son conjugadas y ambas positivas. 2. (Parrot) Demostrar que las siguientes afirmaciones son equivalentes: A B (a) Existe X ∈ Mn (C) tal que ≤ 1. C X sp A (b) A B ≤1y ≤ 1. sp C sp 3.9.14 (Fejer). Sea A ∈ Mn (C). Probar que A ∈ Mn (C)+ ⇐⇒ Aij Bij ≥ 0 para toda B ∈ Mn (C)+ . i,j∈In 3.9.15. Sea A ∈ Mn (C). Probar que Re A ∈ Mn (C)+ =⇒ Re (A ◦ B) ∈ Mn (C)+ para toda B ∈ Mn (C)+ . 3.9.16. Sea A = {Ak }k∈N una sucesi´n en H(n) tal que, para todo k ∈ N, o 1. Ak+1 ≤ Ak (es decir que A es decreciente) 2. Existe B ∈ H(n) tal que B ≤ Ak (o sea que A es acotada inferiormente). Observar que esto equivale pedir que la sucesi´n { Ak sp }k∈N sea acotada. o
  • 77. 62 Matrices definidas positivas Entonces existe A = inf Ak = lim Ak ∈ H(n). Es decir que Ak − − → A, que A ≤ Ak para −− k∈N k∈N k→∞ todo k ∈ N y que, si un C ∈ H(n) es menor que todos los Ak , entonces tambi´n C ≤ A. e Probar un resultado similar si A es creciente y acotada superiormente. Se suguiere definir Ax , x = lim Ak x , x para cada x ∈ Cn , y extrapolar a Ax , y usando k∈N polarizaci´n. Otro argumento (bien finitodimensional) ser´ diagonalizar a todas, aplicar el o ıa Teorema de Weyl 2.3.5 y usar que U(n) es compacto, para construir A y ver que el l´ ımite de arriba camina, y que es un ´ ınfimo por hip´tesis. o Pseudoinversas y proyecciones oblicuas Definici´n 3.9.17. Sea A ∈ Mn (C). Se dice que una matriz B ∈ Mn (C) es una pseudoin- o versa de A si verifica que ABA = A y BAB = B. Observaci´n 3.9.18. En algunos libros, las matrices que cumplen las condiciones de la o definici´n anterior se denominan g-inversas reflexivas. o 3.9.19. Sea S un subespacio de Cn . Demostrar que todas las proyecciones oblicuas sobre S poseen la siguiente representaci´n matricial: Dada Q ∈ Mn (C), se tiene que o IS X S Q2 = Q y R(Q) = S ⇐⇒ existe X ∈ L(S ⊥ , S) tal que Q= . 0 0 S⊥ 2 2 Ya que estamos, probar que Q sp =1+ X sp . 3.9.20. Sea A ∈ Mn (C) 1. Probar que para cualquier pseudoinversa B de A se cumple que (AB)2 = AB , (BA)2 = BA , R(AB) = R(A) y ker BA = ker A . 2. Dadas dos proyecciones oblicuas (o no) P, Q tales que R(P ) = R(A) y ker Q = ker A, probar que existe una unica pseudoinversa B (de A) tal que AB = P y BA = Q. Definici´n 3.9.21. Dada A ∈ Mn (C), se definen: o 1. La pseudoinversa de Moore-Penrose A† de A, como la unica que cumple que las proyec- ´ ciones AA† y A† A ∈ H(n) i.e., son ortogonales. 2. El m´dulo m´ o ınimo reducido de A como: γ(T ) := m´ ın Ax : x ∈ ker A⊥ x =1 . 3.9.22. Sea A ∈ Gl (n). Probar que, en ese caso, A† = A−1 y γ(A) = A−1 −1 sp . 3.9.23. Sea A ∈ Mn (C). Demostrar lo siguiente:
  • 78. 3.9 Ejercicios 63 1. (A∗ )† = (A† )∗ y (A† )† = A. 2. A† = A∗ (AA∗ )† . 3. Sea B ∈ Mn (C) tal que R(B) = ker A⊥ , ker AB = ker B y R(AB) = R(A) . Entonces (AB)† = B † A† . 3.9.24. Sea {An } ⊆ Mn (C) una sucesi´n de matrices que poseen el mismo rango. Suponga- o mos que {An } − − → L ∈ Mn (C) y que L posee el mismo rango que las An . −− n→∞ 1. Probar que A† − − → L† . n − − n→∞ 2. Dar un ejemplo de una sucesi´n {An } − − → L pero tal que {A† } − − → L† . o −− n −− n→∞ n→∞ 3.9.25. Sea A ∈ Mn (C). Probar: 1. A† = lim A∗ (εI + AA∗ )−1 . ε→0 ∞ ∞ † ∗ ∗ 2. A = α (I − αA A) A = α n A∗ (I − αAA∗ )n para cualquier 0 < α < 2/ A 2 sp . n=0 n=0 A1 0 R(A) 3.9.26. Sea A ∈ Mn (C)+ . Probar que A = . Deducir que 0 0 ker A A−1 0 R(A) A† = 1 y que ın{λ ∈ σ (A) : λ = 0} . γ(A) = m´ 0 0 ker A 3.9.27. Sea A ∈ Mn (C) tal que su descomposici´n en valores singulares es A = W Σ(A)V ∗ . o Expresar A† en funci´n de W , Σ(A), y V . ¿Qu´ relaci´n hay entre los valores singulares de o e o A y los de A† ? 3.9.28. Dada A ∈ Mn (C) demostrar las siguientes propiedades: 1. γ(A)2 = γ(A∗ A) = γ(AA∗ ) = γ(A∗ )2 . 2. γ(A) = A† −1 . 3.9.29. Sean A, B ∈ Mn (C)+ . Probar que A ≤ B ⇐⇒ ρ(AB † ) ≤ 1. A B S⊥ 3.9.30. Sean M ∈ Mn (C)+ y un subespacio S ⊆ Cn tales que M = . B∗ C S 0 0 S⊥ Probar que Σ (M, S) = . 0 C − B ∗ A† B S
  • 79. 64 Matrices definidas positivas 3.9.31. Sean A ∈ Mn (C)+ y S ⊆ Cn un subespacio. Dado x ∈ S, se tiene que » – » – » – » – 0 0 y y Σ (A, S) x , x = inf A x , x : y ∈ S⊥ . 3.9.32. Sean A ∈ Mn (C)+ y S ⊆ Cn un subespacio. Entonces existen unicos ´ F y G ∈ Mn (C)+ tales que A=F +G , R(F 1/2 ) ⊆ S y R(G1/2 ) ∩ S = {0} . M´s aun, F = Σ (A, S) y G = A − Σ (A, S) . a D B S⊥ 3.9.33. S ⊆ Cn un subespacio. Consideremos la casimatriz M = . Sea B∗ ? S D B P(M, S) = X ∈ L(S)+ : ∈ Mn (C)+ . B∗ X Probar que P(M, S) = ∅ si y s´lo si R(B) ⊆ R(D1/2 ). M´s a´n, probar que en tal caso o a u existe X0 = m´ P(M, S), e identificarlo. ın Definici´n 3.9.34. Dada una matriz A ∈ Mn (C)+ , consideraremos en Cn el pseudoproducto o interno ·, · A definido por x, y A = Ax, y , para todo par x , y ∈ Cn . 3.9.35. Sea A ∈ Mn (C)+ y S un subespacio de Cn . Demostrar las siguientes propiedades: 1. S ⊥A = A−1 (S ⊥ ) = A(S)⊥ . 2. T ∈ Mn (C) es A-autoadjunto si y s´lo si T A = A∗ T . o 3. El conjunto de las proyecciones A-autoadjuntas con rango S, que denotaremos P(A, S) = {Q ∈ Mn (C) : Q2 = Q, AQ = Q∗ A y R(Q) = S} = ∅ . a b S⊥ 3.9.36. Sea A ∈ Mn (C)+ y S un subespacio de Cn . Si A = , probar que la b∗ c S proyecci´n PA, S definida por o 1 a† b S⊥ PA, S = ∈ Mn (C) 0 0 S satisface que PA, S ∈ P(A, S) y encima PA, S sp = m´ ın Q sp . Q∈P(A, S) 3.9.37. Dada una un proyecci´n Q ∈ Mn (C), no necesariamente ortogonal, construir una o matriz A ∈ Gl (n)+ de modo que Q resulte A-autoadjunta.
  • 80. 3.9 Ejercicios 65 3.9.38. Sea A ∈ Mn (C). Dada una matriz W ∈ Gl (n)+ , demostrar que B = (A∗ W A)† A∗ D es una pseudoinversa de A tal que AB es una proyecci´n ortogonal respecto al producto o interno ·, · W y BA lo es respecto al producto interno usual. 3.9.39. Dado T ∈ Mn (C) y A ∈ Gl (n)+ , encontrar una expresi´n para la Moore-Penrose de o T respecto al ·, · A . 3.9.40. Sean A, B ∈ Mn (C). Encontrar C ∈ Mn (C), tal que AC − B sp = m´ ın AX − B sp . X∈Mn (C) Ahora reemplazar la norma espectral por alguna otra NUI y encontrar C para dicha norma. ¿Qu´ conclusi´n puede sacar?, ¿puede extender su conclusi´n para otras normas unitariamente e o o invariantes?. 3.9.41. Dadas A, B ∈ Mn (C), se dice que A ≤* B si BA∗ = AA∗ y B ∗ A = A∗ A. Demostrar: 1. A ≤* B ⇐⇒ A† A = B † A y AA† = AB † . 2. A† = m´x {B ∈ Mn (C) : BAB = B, (AB)∗ = AB, y (BA)∗ = BA}. a ≤* 3. A† = m´ {B ∈ Mn (C) : ABA = A, (AB)∗ = AB, y (BA)∗ = BA}. ın ≤* 3.9.42 (Ljance-Ptak.). Sea E ∈ Mn (C) una proyecci´n oblicua. Si P, Q ∈ Mn (C) designan o las proyecciones ortogonales al rango y nucleo de E respectivamente, probar que 2 1 PQ sp <1 y que E = 2 . 1 − PQ sp
  • 81. 66 Matrices definidas positivas
  • 82. Cap´ ıtulo 4 Mayorizaci´n o Es este cap´ıtulo expondremos las nociones b´sicas de mayorizaci´n, y su relaci´n con combi- a o o naciones convexas de permutaciones, matrices doblemente estoc´scticas y funciones convexas. a En la secci´n 3 mostraremos el teorema de Birkhoff que asegura que las matrices de per- o mutaci´n son el conjunto de puntos extremales de las matrices doblemente estoc´scticas. En o a la ultima secci´n introduciremos las propiedades b´sicas de la mayorizaci´n logar´ ´ o a o ıtmica. 4.1 Definiciones y caracterizaciones Notaciones: Sea x = (x1 , ..., xn ) ∈ Rn . 1. Notaremos x↓ y x↑ a los vectores obtenidos al reordenar las coordenadas de x en forma decreciente y creciente respectivamente. Es decir, por ejemplo, que x↓ = m´x xi , x↓ + x↓ = m´x xi + xj , etc. 1 a 1 2 a i i=j Por ejemplo, si x es el vector de autovalores de una matriz A ∈ H(n), entonces se tendr´ a que x↓ = µ(A) y x↑ = λ(A). 2. Denotaremos por 1 = (1, 1, . . . , 1) ∈ Rn , al vector con todas sus entradas iguales a uno. Si hace falta aclarar el tama˜o, escribiremos 1n . n n 3. Escribiremos tr x = x, 1 = xi . j=1 Con estas notaciones podemos dar la definici´n de mayorizaci´n: o o Definici´n 4.1.1. Sean x, y ∈ Rn . o
  • 83. 68 Mayorizaci´n o 1. Se dice que y mayoriza a x, y se nota x y si se verifica que k k tr y = tr x , y adem´s a x↓ j ≤ ↓ yj para todo k ∈ In . (4.1) j=1 j=1 k n−k 2. Dado que x↑ = tr x − j x↓ para todo k ∈ In , la relaci´n x j o y equivale a que j=1 j=1 k k tr y = tr x , y adem´s a x↑ j ≥ ↑ yj para todo k ∈ In . (4.2) j=1 j=1 3. Si s´lo se cumple la segunda condici´n (4.1) (o sea que se permite que tr x < tr y ), se o o dice que x est´ submayorizado por y y se nota x w y. a 4. Si s´lo se cumple la segunda condici´n (4.2) (aca se permite que tr x > tr y ), se dice o o que x est´ supramayorizado por y y se nota x w y. a Ejemplos 4.1.2. a a a a 1. Sea x ∈ Rn . Llamemos a = tr x. Entonces , 1= ,..., x . En efecto, n n n n k ka supongamos que existiera un k ∈ In tal que x↓ < i . En tal caso, i=1 n k n n 1 a (n − k)a x↓ ≤ k x↓ < i =⇒ x↓ < i =⇒ x↓ < a . i k i=1 n n i=1 i=k+1 2. Si x ∈ Rn , entonces x + (tr x, 0, . . . , 0). 3. Sean x, y ∈ Rn . Si sucediera que x y e y x, entonces es f´cil ver que x↓ = y ↓ . Por a lo tanto, x e y s´lo difieren en una permutaci´n. o o Existe una relaci´n muy estrecha entre las relaciones de mayorizaci´n y las matrices doble- o o mente estoc´sticas. Notaciones: Sea A ∈ Mn,m (C). a 1. Diremos A 0 si Aij ≥ 0 para todo par i ∈ In , j ∈ Im . En otras palabras, A 0 si A tiene entradas no negativas. Ojo con el simbolito, no el lo mismo escribir A 0 (entradas positivas) que A ≥ 0 (semidefinida positiva) . 2. Si x, y ∈ Rn , pondremos x y si se cumple que xi ≥ yi para todo i ∈ In . Tambi´n e ∗ escribiremos que x > 0 si x ∈ R+ n .
  • 84. 4.1 Definiciones y caracterizaciones 69 Definici´n 4.1.3. Una matriz A ∈ Mn (R) se denomina doblemente estoc´stica si o a A 0 , tr Fi (A) = 1 y tr Ci (A) = 1 para todo i ∈ In . Al conjunto de matrices doble estoc´sticas en Mn (C) lo denotaremos DS (n). a Ejercicio 4.1.4. Sea A ∈ Mn (R). Probar que A ∈ DS (n) si y s´lo si o A 0, A1 = 1 y A∗ 1 = 1, donde 1 = (1, 1, . . . , 1) ∈ Rn . Deducir que DS (n) es un conjunto convexo, y que dadas dos matrices A, B ∈ DS (n), entonces tambi´n AB ∈ DS (n). e Observaci´n 4.1.5 (Matrices de permutaci´n). Sea n ∈ N. o o 1. Llamaremos Sn al n-´simo grupo sim´trico, es decir e e Sn = {σ : In → In : σ es biyectiva } , con el producto dado por la composici´n de funciones. o 2. Dados σ ∈ Sn y x ∈ Cn , llamaremos xσ = (xσ(1) , . . . , xσ(n) ). 3. Dada σ ∈ Sn , llamaremos Pσ : Cn → Cn al operador dado por Pσ x = x σ , x ∈ Cn . Es claro que esta funci´n es lineal, por lo que pensamos a Pσ ∈ Mn (C) como su matriz o en la base can´nica. o 4. Observar que, dado x ∈ Rn , existen σ, τ ∈ Sn tales que x↓ = Pσ x y x↑ = Pτ x. 5. Dada σ ∈ Sn , las columnas de Pσ est´n dadas por a Ck (Pσ ) = Pσ (ek ) = (ek )σ = eσ−1 (k) , k ∈ In . 6. Dadas σ, τ ∈ Sn , entonces Pσ Pτ = Pστ , porque (xτ )σ = xστ para todo x ∈ Cn . 7. El grupo UP (n) = {Pσ : σ ∈ Sn } est´ incluido en U(n), dado que cada Pσ es claramente a −1 ∗ T isom´trico. Por lo tanto, para cada σ ∈ Sn , Pσ−1 = Pσ = Pσ = Pσ . e 8. Por otra parte, tambi´n se tiene que UP (n) ⊆ DS (n). En efecto, dada σ ∈ Sn , e T Ck (Pσ ) = Pσ (ek ) = eσ−1 (k) y Fk (Pσ ) = Ck (Pσ ) = Ck (Pσ−1 ) = eσ(k) , (4.3) T para todo k ∈ In . Otra forma de verlo es notando que Pσ 1 = Pσ 1 = 1. M´s adelante a veremos que UP (n) es ni m´s ni menos que el conjunto de puntos extremales de DS (n). a
  • 85. 70 Mayorizaci´n o 9. Dadas A ∈ Mn (C) y Pσ ∈ UP (n), para cada k ∈ In se tiene que ∗ Fk (Pσ A) = Fσ(k) (A) , Ck (APσ ) = Cσ−1 (k) (A) y d (Pσ APσ ) = d (A)σ . (4.4) En efecto, para todo i ∈ In , tenemos que Ci (Pσ A) = Pσ (Ci (A) ) = Ci (A)σ . Luego (Pσ A)ki = Aσ(k)i , para todo i ∈ In . Esto prueba la primera igualdad. La seguna sale aplicando la de las filas a (APσ )T = Pσ−1 AT . La de las diagonales sale porque cada ∗ ∗ ∗ ∗ (Pσ APσ )kk = Pσ APσ ek , ek = APσ ek , Pσ ek = A eσ(k) , eσ(k) = Aσ(k)σ(k) . En resumen, multplicar por Pσ a izquierda permuta las filas, hacerlo a derecha permuta las columnas (con σ −1 ), y conjugar con Pσ permuta la diagonal de las matrices. Teorema 4.1.6. Sea A ∈ Mn (R). Luego se tiene que A ∈ DS (n) ⇐⇒ Ax x para todo x ∈ Rn . Demostraci´n. Supongamos que Ax x para todo x. Sea E = {e1 , . . . , en } la base can´nica o o de Cn . Para cada i ∈ In , se tiene que Ci (A) = Aei ei . Esto implica que A 0 y que 1 = tr ei = tr A ei = tr Ci (A) para todo i ∈ In . Por otra parte, sabemos que A 1 1. Pero por el Ejemplo 4.1.2, como todas las coordenadas de 1 son iguales, deducimos que 1 A 1. Y como no vale la pena permutar al 1, queda que 1 = A 1 = (tr F1 (A), . . . , tr Fn (A) ) . ıprocamente, supongamos que A ∈ DS (n) y llamemos y = Ax. Queremos probar que Rec´ y x. Se puede suponer que las coordenadas de x y de y est´n ordenadas en forma decreciente, a porque si P, Q ∈ UP (n) son matrices de permutaci´n (ver Observaci´n 4.1.5), entonces QAP ∈ o o DS (n) (por el Ejercicio 4.1.4). Por otra parte, como y = Ax, k k n n k yj = aji xi = aji xi para todo k ∈ In . (4.5) j=1 j=1 i=1 i=1 j=1 k Fijemos un k ∈ In . Si para cada i ∈ In llamamos ti = aji , entonces j=1 n k 0 ≤ ti ≤ tr Ci (A) = 1 y ti = tr Fi (A) = k . i=1 j=1
  • 86. 4.1 Definiciones y caracterizaciones 71 Luego, aplicando la Eq. (4.5), k k k n k n k yj − xj = aji xi − xi = t i xi − xi j=1 j=1 j=1 i=1 i=1 i=1 i=1 n k n = t i xi − xi + (k − ti )xk i=1 i=1 i=1 k n k k n = t i xi + t i xi − xi + k x k − t i xk − t i xk i=1 i=k+1 i=1 i=1 i=k+1 k k k n = (ti − 1) xi + xk − ti xk + ti (xi − xk ) i=1 i=1 i=1 i=k+1 k k n = (ti − 1) xi + (1 − ti ) xk + ti (xi − xk ) i=1 i=1 i=k+1 k n = (ti − 1) (xi − xk ) + ti (xi − xk ) ≤ 0, i=1 i=k+1 pues los dos sumandos del ultimo rengl´n son sumas de t´rminos no positivos. Por lo tanto ´ o e k k yj ≤ xj para todo k ∈ In . Por ultimo, observar que la Eq. (4.5) muestra que tr y = tr x ´ j=1 j=1 (para k = n, todos los ti = tr Ci (A) = 1). As´ llegamos a que Ax = y ı, x. Ejemplo 4.1.7. Como motivaci´n del siguiente resultado, supongamos que o x, y ∈ R2 cumplen que y = (y1 , y2 ) x = (x1 , x2 ) , y1 ≥ y2 y x1 ≥ x2 . En este caso, esto significa que x2 ≤ y2 ≤ y1 ≤ x1 y que y1 + y2 = x1 + x2 . Luego, debe existir un λ ∈ [0, 1] tal que y1 = λx1 + (1 − λ)x2 . Entonces, y2 = y1 + y2 − y1 = x1 + x2 − y1 = x1 + x2 − λx1 + (1 − λ)x2 = (1 − λ)x1 + λx2 . y por lo tanto y = (y1 , y2 ) = λ(x1 , x2 ) + (1 − λ)(x2 , x1 ) = λx + (1 − λ)Pτ x, donde τ ∈ S2 es la permutaci´n no trivial. o Teorema 4.1.8. Sean x, y ∈ Rn . Entonces, son equivalentes: 1. y x. 2. y es una combinaci´n convexa de permutaciones de x. o
  • 87. 72 Mayorizaci´n o 3. Existe A ∈ DS (n) tal que y = Ax. Demostraci´n. Como DS (n) es convexo y UP (n) ⊆ DS (n), obtenemos que 2 ⇒ 3. Por el o Teorema 4.1.6 se tiene que 3 ⇒ 1. Luego, solo resta probar que 1 ⇒ 2. Lo haremos por inducci´n sobre la dimensi´n n. Para n = 1 es trivial y el caso n = 2 fue probado en el o o Ejemplo 4.1.7. Sea n > 2. Sin perdida de generalidad podemos suponer que los vectores estan ordenados en forma decreciente. Luego, xn ≤ yn ≤ y1 ≤ x1 . Sea k > 1 tal que xk ≤ y1 ≤ xk−1 y λ ≥ 0 tal que y1 = λ x1 + (1 − λ) xk . Sea τ ∈ Sn la trasposici´n que o permuta 1 con k. Luergo Pτ ∈ UP (n) verifica que Pτ x = (xk , x2 , . . . , xk−1 , x1 , xk+1 , . . . , xn ) . Definamos z = λx + (1 − λ)Pτ x. Observar que z1 = λ x1 + (1 − λ) xk = y1 . Sean y = (y2 , . . . , yn ) y z = (z2 , . . . , zn ) ∈ Rn−1 . Vamos a probar que y z : Como z1 = y1 y tr z = tr x = tr y, se deduce f´cilmente que a tr(y ) = tr(z ). Si m ≤ k − 1, entonces, como y1 ≤ xk−1 , m m m zi = xi ≥ (m − 1)xk−1 ≥ (m − 1)y1 ≥ yi . i=2 i=2 i=2 Por otro lado, si m ≥ k. m k−1 m zi = xi + (1 − λ)x1 + λxk + xi i=2 i=2 i=k+1 m = xi − λx1 − (1 − λ)xk i=1 m m m = xi − y1 ≥ yi − y1 = yi . i=1 i=1 i=2 s Luego y z y, por hip´tesis inductiva, y = o µi Pσi z para ciertos µi ≥ 0 que suman uno, y i=1 para ciertas permutaciones σi ∈ Sn−1 (pensadas como biyecciones del conjunto {2, 3, . . . , n}). Llamemos tambi´n σi ∈ Sn a la extensi´n de cada permutaci´n σi a todo In , poniendo e o o s σi (1) = 1. Luego, como z1 = y1 , se tiene que y = µi Pσi z . Pero entonces i=1 s s s y= µi Pσi z = λ µi Pσi x + (1 − λ) µi Pσi Pτ x , i=1 i=1 i=1 que es una combinaci´n convexa de permutaciones de x. o
  • 88. 4.1 Definiciones y caracterizaciones 73 Observaci´n 4.1.9. Un error t´ o ıpico al tratar de demostrar mayorizaci´n entre dos vectores, o es olvidarse de ordenarlos antes de sumar sus “primeras” k coordenadas. De hecho, esto sucede en la prueba anterior con los vectores z e y . Por suerte no es grave en este caso, porque z est´ del lado de “los mayores”, y lo grave es no reordenar del lado de “los menores”. a M´s expl´ a ıcitamente, si x, y ∈ Rn , como k k ↓ yi ≤ yi , i=1 i=1 es imprescindible ordenar a y para verificar que y x, pero no para verificar que x y. En la prueba de la relaci´n y o z , el vector y ya ven´ ordenado correctamente. ıa Corolario 4.1.10. Sean w, z ∈ Rm tales que w z, y sean x, y ∈ Rk tales que x y. Entonces los vectores (x, w), (y, z) ∈ Rk+m cumplen que (x, w) (y, z). Demostraci´n. Por el Teorema 4.1.8, existen A ∈ DS (k) y B ∈ DS (m) tales que Ay = x y o Bz = w. Pero si consideramos A 0 C= ∈ Mk+m (C), 0 B es f´cil ver que C ∈ DS (k + m) y que C(y, z) = (x, w). a Lema 4.1.11. Sean x, u ∈ Rn tales que x u. Entonces se tiene que x↓ u↓ y x w u. Demostraci´n. Es claro que x↓ = m´x xi ≤ m´x ui = u↓ . Si ambos m´ximos se alcanzan o 1 a a 1 a i∈In i∈In en la misma coordenada de x y de u, un argumento inductivo permite concluir que x↓ u↓ . Sin´, supongamos que x↓ = xk mientras que u↓ = uj . Si llamamos y ∈ Rn al resultado de o 1 1 permutar las cordenadas k y j de x, sigue pasando que y u, porque yj = xk ≤ uk ≤ u↓ = uj 1 mientras que yk = xj ≤ x↓ = xk ≤ uk . 1 Por el caso anterior, x↓ = y ↓ u↓ , y por lo tanto x w u. Proposici´n 4.1.12. Sean x, y ∈ Rn . Entonces o x w y ⇐⇒ existe u ∈ Rn tal que x u y . Demostraci´n. Antes que nada, es claro que si el tal u existe, entonces x w y (por el Lema o 4.1.11 y la transitividad de w ). Para probar la rec´ ıproca, podemos asumir que tr x < tr y, porque sin´ basta tomar u = x. Asumiremos tambi´n que x e y est´n ordenados en forma o e a decreciente, dado que una ves encontrado el u para este caso, luego se lo puede reordenar igual que a x, lo que preserva la relaci´n x u y no afecta la relaci´n u y. o o Se har´ inducci´n sobre n. Si n = 1, el resultado es trivial (en ese caso a o significa igualdad, y w equivale a ). Si n > 1, cosideramos dos casos:
  • 89. 74 Mayorizaci´n o k k Caso 1: Supongamos que existe k ∈ In−1 tal que xi = yi . En tal caso, llamaremos i=1 i=1 a = (x1 , . . . , xk ) y b = (y1 , . . . , yk ) ∈ Rk . Como x e y est´n ordenados, es claro que a a b. Por otra parte, si llamamos w = (xk+1 , . . . , xn ) y z = (yk+1 , . . . , yn ) ∈ Rn−k , es tambi´n claro e que w w z, porque est´n bien ordenados y, si r ∈ In−k , entonces a r r k+r k+r zi − wi = yi − xi ≥ 0 . i=1 i=1 i=1 i=1 Ahora bien, por hip´tesis inductiva, debe existir v ∈ Rn−k tal que w v z. Entonces basta o tomar u = (a, v) ∈ Rn que cumple lo pedido, porque x = (a, w) (a, v) = u. Por otra parte, como a b y v z, el Corolario 4.1.10 dice que u = (a, v) (b, z) = y. k k Caso 2: Supongamos que d = m´ ın yi − xi > 0, y que se realiza en cierto k0 ∈ In . k∈In i=1 i=1 Tomemos v = x + d e1 , es decir que agrandamos en d la primera coordenada de x. Observar que v est´ ordenado decrecientemente, por estarlo x. Por ser d quien es, es claro que x v y a que v w y. Pero claramente v cae en el Caso 1 (sumando hasta k0 , y si k0 era n, bingo). Entonces existe u ∈ Rn tal que x v u y. Ejercicio 4.1.13. Probar que, dados x, y ∈ Rn , entoncecs 1. x w y si y s´lo si existe v ∈ Rn tal que x o v y. w 2. x y si y s´lo si −y o w −x si y s´lo si existe w ∈ Rn tal que y o w x. 4.2 Mayorizaci´n y funciones convexas o Dado I ⊆ R, una funci´n f : I → R, y un vector x ∈ In , notaremos por o f (x) = (f (x1 ), . . . , f (xn ) ) ∈ Rn . Por otra parte, cuando I es un intervalo, decimos que f es convexa si, dados a, b ∈ I y λ ∈ [0, 1], se cumple que f λa + (1 − λ)b ≤ λf (a) + (1 − λ)f (b). La funci´n f se dice c´ncava si −f es convexa. o o Teorema 4.2.1. Sean x, y ∈ Rn . Sea I ⊆ R un intervalo (semirrecta o todo R) tal que x, y ∈ In . Entonces, son equivalentes: 1. y x 2. tr f (y) ≤ tr f (x) para toda funci´n convexa f : I → R. o
  • 90. 4.2 Mayorizaci´n y funciones convexas o 75 n n 3. |yi − t| ≤ |xi − t| para todo t ∈ R. i=1 i=1 An´logamente, son equivalentes a 1’. y w x (submayorizaci´n) o 2’. tr f (y) ≤ tr f (x) para toda funci´n f : I → R convexa y no decreciente. o n n 3’. (yi − t)+ ≤ (xi − t)+ para todo t ∈ R. i=1 i=1 Demostraci´n. S´lo probaremos la primer parte, puesto que los argumentos para probar o o la segunda son similares (para 1’ → 2’, se aplica 1 → 2 y la Proposici´n 4.1.12, que ser´ o a util para funciones no decrecientes). Supongamos que y ´ x. Entonces, por el Teorema s 4.1.8, y = λi Pσi (x) para ciertos λi ≥ 0 que suman uno, y para ciertas σi ∈ Sn . Luego i=1 s s f λi Pσi x λi f Pσi x (en cada coordenada), y i=1 i=1 s s s tr f (y) = tr f λi Pσi x ≤ tr λi f Pσi x = λi tr Pσi f (x) = tr f (x) . i=1 i=1 i=1 La implicaci´n 2 → 3 (respectivamente, 2 → 3 ) se deduce de que la funci´n x → |x − t| o o (resp. x → (x − t)+ ) es convexa (resp. convexa no decreciente) para todo t ∈ R. Probemos 3 → 1. Supongamos que los vectores x e y est´n ordenados de forma decreciente a (ni 3 ni 1 depende del orden de las coordenadas). Sean M = m´x{x1 , y1 } y m = m´ a ın{xn , yn }. Tomando t > M , se tiene que n n n |yi − t| = t − yi = kt − yi , i=1 i=1 i=1 y lo mismo para x. Luego la desigualdad 3 para estos valores de t implica que tr x ≤ tr y. An´logamente, la desigualdad 3 para valores de t tales que t < m implica que tr y ≤ tr x. a Luego tr x = tr y. Por otro lado, dado x ∈ R, se tiene que 2x+ = x + |x|. Luego n n n n 2 (yi − t)+ = (yi − t) + |yi − t| = tr y − nt + |yi − t| i=1 i=1 i=1 i=1 n n n ≤ tr x − nt + |xi − t| = (xi − t) + |xi − t| i=1 i=1 i=1 n =2 (xi − t)+ . i=1
  • 91. 76 Mayorizaci´n o Deducimos que basta probar 3’ → 1’. Fijemos k ∈ In . Tomando t = xk , resulta que n k k (xi − t)+ = (xi − t)+ = xi − kt . i=1 i=1 i=1 Por lo tanto k k k n + yi − kt = (yi − t) ≤ (yi − t) ≤ (yi − t)+ i=1 i=1 i=1 i=1 n k ≤ (xi − t)+ = xi − kt, i=1 i=1 k k lo cual muestra que yi ≤ xi . i=1 i=1 Corolario 4.2.2. Sea I ⊆ R un intervalo. Sea g : I → R una funci´n convexa (resp. convexa o creciente). Entonces, dados x, y ∈ In , x y (resp. x w y) =⇒ g(x) w g(y). En particualr x y =⇒ |x| w |y|, y tambi´n x e w y =⇒ x+ w y+ . Demostraci´n. Sea f : R → R convexa no decreciente. Es f´cil ver, entonces, que f ◦ g es una o a funci´n convexa. Por el Teorema 4.2.1, si x y, entonces o tr f (g(x)) = tr f ◦ g (x) ≤ tr f ◦ g (y) = tr f (g(y)). Pero por el mismo Teorema (en su segunda parte), como lo anterior vale para toda f : R → R convexa no decreciente, deducimos que g(x) w g(y). Si g es creciente y x w y, por el Corolario 4.1.12 existe u ∈ Rn tal que x u y. Luego, por el caso anterior, g(x) g(u) w g(y). Para concluir que g(x) w g(y) basta aplicar el Lema 4.1.11. Corolario 4.2.3. Sean x, y ∈ Rn , tales que x > 0 e y > 0. Entonces, se tiene que n n x y =⇒ xi ≥ yi . i=1 i=1 Demostraci´n. Sea g(t) = − log t, que es una funci´n convexa (pero decreciente), definida en o o I = (0, +∞). Por el Corolario 4.2.2, si x y, entonces g(x) w g(y). En particular, n n n n − log xi = − log xi ≤ − log yi = − log yi , i=1 i=1 i=1 i=1 n n de lo que se concluye que xi ≥ yi . i=1 i=1
  • 92. 4.3 Birkhoff, Hall y los casamientos 77 4.3 Birkhoff, Hall y los casamientos El objetivo de esta secci´n es probar el teorema de Birkhoff que asegura que UP (n) es el o conjunto de puntos extremales de DS (n) y por ende (ya sea por el teormea de Krein Millman, o porque va a salir a mano), que toda A ∈ DS (n) es combinaci´n convexa de matrices o de permutaci´n. Observar que este hecho va a explicar una parte del Teorema 4.1.8. La o herramienta clave, en funci´n de poder probar lo anterior inductivamente, son dos resultados o combinatorios que son interesantes por s´ mismos: El teorema de los casamientos de Hall, y ı el criterio de K¨nig-Frobenius sobre existencia de diagonales sin ning´n cero para matrices. o u Empecemos con las “notaciones” para los casamientos: Sean V = {v1 , . . . , vn } y M = {m1 , . . . , mn } dos conjuntos de n elementos. Pensaremos que V es un conjunto de varones (humanos) y M de mujeres. Dada una relaci´n C ⊆ V × M ,o diremos que vi “conoce a” mj (puede usarse tambien “tiene onda con”, o “gusta de”) si (vi , mj ) ∈ C. El llamado problema de los casamientos (PC) consiste en encontrar condiciones sobre C que aseguren que exista f : V → M biyectiva, tal que Gr(f ) ⊆ C. Si pensamos que cada v se casa con f (v), el problema se traduce a poder casar todos los varones de V con mujeres de M (sin bigamia) y que todas las parejitas sean felices (se gusten mutuamente). Para describir esas condiciones pongamos un poco de notaci´n: Dado J ⊆ In , llamaremos o VJ = {vj : j ∈ J} y MJ = {mi ∈ M : (vj , mi ) ∈ C para alg´n u j ∈ J} = { chicas conocidas por alg´n muchacho de VJ } . u Es claro que esta notaci´n es machista, pero en la ´poca de Hall nadie cuestionaba esas cosas. o e Observar que MJ = πM ([VJ × M ] ∩ C), donde πM es la proyecci´n sobre M . Como siempre, o se abrevia Mi = M{i} . Es evidente que si el PC tiene soluci´n, debe cumplirse que |MJ | ≥ |J| o para todo J ⊆ In , porque f (VJ ) deber´ estar incluido en MJ . Pero mucho menos claro es ıa que vale la rec´ ıproca: Teorema 4.3.1 (El problema de los casamientos de Hall). El PC tiene soluci´n para una o relaci´n C ⊆ V × M si y s´lo si o o |MJ | ≥ |J| para todo J ⊆ In . (4.6) Demostraci´n. Probaremos la suficiencia por inducci´n sobre n. Todo es f´cil si n = 1 (ese o o a es el problema de la pareja de n´ufragos). Si n > 1, separemos dos casos: a Caso 1: Supongamos que tenemos una condici´n mejor que (4.6), a saber, o |MJ | ≥ |J| + 1 para todo J ⊆ In , ∅ = J = In . (4.7) En tal caso fijamos al vago vn de V y lo casamos con una chica que conozca (mj ∈ Mn , o sea que (n, j) ∈ C). Veamos ahora que, si J = In−1 , los conjuntos VJ y M {mj } cumplen la condici´n (4.6) (para aplicarles la HI). En efecto, notar que si I ⊆ J, entonces la Eq. (4.7) o asegura que |MI ∩ M {mj }| ≥ |MI | − 1 ≥ |I|. En otras palabras, dados k de los muchachos restantes, entre todos deben conocer al menos k chicas todav´ solteras. Por HI, tenemos una ıa
  • 93. 78 Mayorizaci´n o biyecci´n entre VJ y M {mj } con gr´fico contenido en C, que se puede extender, mandando o a n → j, a todo V sobre todo M . Caso 2: Si existe un J ⊆ In tal que ∅ = J = In y |MJ | = |J| = k < n , (4.8) por HI podemos definir una biyecci´n f1 : VJ → MJ con Gr(f1 ) ⊆ C. Por otra parte, por la o igualdad (4.8), es f´cil ver que los conjuntos que quedan, VJ c y M MJ cumplen tambi´n la a e condici´n (4.6). En efecto, si I ⊆ J c tiene |I| = r, observemos que MI∪J MJ = MI MJ o (las que no conocen los de J deben conocerlas los de I). Pero |MI∪J MJ | ≥ |MI∪J | − |MJ | ≥ (r + k) − k = r . Luego |MI MJ | ≥ r = |I|. Otra forma de verlo es la siguiente: casamos k pibes que conoc´ ıan justo k chicas. Dados r de los solteros, junto con los casados conoc´ al menos k + r chicas, ıan por lo que los r solteros conoc´ ellos a todas las solteras de este grupo (por lo menos r), ıan porque los k novios solo conoc´ a las k que se casaron con ellos. Aplicamos nuevamente la ıan HI para definir otra biyecci´n f2 : VJ c → M MJ , tambi´n con gr´fico dentro de C. Pegando o e a ambas funciones, encontramos la biyecci´n buscada. o Definici´n 4.3.2. Sea A ∈ Mn (C). o 1. Dada σ ∈ Sn , llamamos al vector (a1σ(1) , . . . , anσ(n) ) una diagonal de A. Notar que las diagonales tienen exactamente un elemento de cada fila y uno de cada columna de A. 2. Decimos que A tiene una diagonal sin ceros si alguna de las diagonales antes definidas tiene todas sus coordenadas no nulas. Corolario 4.3.3 (K¨nig-Frobenius). Sea A ∈ Mn (C). Entonces son equivalentes: o 1. Toda diagonal de A tiene ceros. 2. Existen subconjuntos I, J ⊆ In tales que |I| + |J| > n y la submatriz AIJ ≡ 0, es decir que aij = 0 para todo par (i, j) ∈ I × J. Demostraci´n. Consideremos los conjuntos M = V = In y la relaci´n o o C = {(i, j) ∈ In × In : aij = 0}. Es claro que A tiene alguna diagonal sin ceros si y s´lo si el PC tiene soluci´n para la relaci´n o o o C. Que A no tenga ninguna diagonal sin ceros equivale, por el Teorema 4.3.1, a que exista I ⊆ In tal que |MI | < |I| = k. Observar que K := In MI = {j ∈ In : aij = 0 para todo i ∈ I} es el mayor de los conjuntos J de ´ ındices tales que AIJ ≡ 0. Adem´s, si |K| = r, entonces a k + r > n si y s´lo si n − r = |MI | < k. Y esto concluye la prueba. o
  • 94. 4.3 Birkhoff, Hall y los casamientos 79 Corolario 4.3.4. Si A ∈ DS (n), entonces A debe tener alguna diagonal sin ceros. Demostraci´n. Supongamos que no. Reordenando filas y columnas de A (multiplicando por o matrices de permutacion) podemos suponer, por el Corolario 4.3.3, que existen k, r ∈ In tales que k + r > n y que aij = 0 si i ∈ Ik y j ∈ Ir . En otras palabras, que existen P, Q ∈ UP (n) tales que 0k×r B P AQ = ∈ DS (n) , C D donde 0k×r es la matriz nula de Mk,r (C). En tal caso, las k filas de B deben tener traza uno, lo mismo que las r columnas de C. Pero entonces la suma de todas las entradas de P AQ (las de D son no negativas) deber´ sumar estrictamente m´s que n. Pero esto contradice el hecho ıa a de que P AQ ∈ DS (n). Teorema 4.3.5 (Birkhoff). El conjunto de matrices doble estoc´sticas DS (n) es convexo y a sus puntos extremales son el conjunto UP (n) de matrices de permutaci´n. Es decir que toda o A ∈ DS (n) es combinaci´n convexa de matrices de permutaci´n. o o Demostraci´n. Es f´cil ver que si P ∈ UP (n), entonces es extremal en DS (n). Luego basta o a ver que toda A ∈ DS (n) es combinaci´n convexa de matrices de permutaci´n. o o Sea A ∈ DS (n). Notaremos k(A) = {(i, j) ∈ In × In : aij = 0} . Probaremos el resultado inducci´n en k(A). Observar que n ≤ k(A) ≤ n2 , y que k(A) = n si y s´lo si A ∈ UP (n), por o o lo que lo afirmado es trivial en este caso. Supongamos que k(A) > n. Por el Corolario 4.3.4 existe σ ∈ Sn tal que aiσ(i) > 0, para todo i ∈ In . Sea P = Pσ ∈ UP (n) la matriz asociada a la permutaci´n σ. Por la Eq. (4.3), Pij = 0 si y s´lo si o o j = σ(i). Sea a = m´ aiσ(i) . Notar que, por el hecho de que k(A) > n, se debe cumplir que ın i∈In A − aP 0 < a < 1. Es f´cil ver, entonces, que B = a ∈ DS (n). Finalmente, se observa que 1−a A = aP + (1 − a)B, y se aplica la hip´tesis inductiva, ya que k(B) < k(A). En efecto, si o aij = 0, entonces Pij = 0, por lo que tambi´n bij = 0. Esto dice que k(B) ≤ k(A). Por otra e parte, si a = aiσ(i) = 0, entonces biσ(i) = 0, con lo que k(B) < k(A) como se afirm´. o Observaci´n 4.3.6. El Teorema de Birkhoff est´ intimamente relacionado con el Teorema o a 4.1.8. Sin embargo, no se implican mutuamente. En efecto, el Teorema 4.3.5 da como novedad la implicaci´n 3 =⇒ 2 del Teorema 4.1.8. Pero esta sal´ impl´ o ıa ıcita por el rulo de auqella prueba, y el Teorema 4.3.5 no dice que si y x entonces haya una A ∈ DS (n) tal que Ax = y. Mir´ndolos ahora al reves, la implicaci´n 3 =⇒ 2 del Teorema 4.1.8 dice que para cada a o x ∈ Rn , hay una combinaci´n convexa de permutaciones que hace, en ese x, lo mismo que o hace A. Pero no que haya una que sirva para todos los x a la vez.
  • 95. 80 Mayorizaci´n o 4.4 Mayorizaci´n logar´ o ıtmica Definici´n 4.4.1. o 1. Sean x, y ∈ Rn . Escribiremos x + w y si log k k x↓ ≤ i ↓ yi para todo k ∈ In . (4.9) i=1 i=1 n n 2. Si x, y > 0, escribimos x y si se cumple que x w y , y adem´s a xi = yi . log log i=1 i=1 ∗ Observaci´n 4.4.2. Sean x, y ∈ R+ n . Si x o y entonces, como en el caso de la mayorizaci´n o log com´n, se cumplen desigualdades invesas para las entradas mas peque˜as de x e y. Es decir, u n n n x↓ ≥ i ↓ yi para todo k ∈ In . (4.10) i=k i=k Esto no vale si solo x w y, porque usa la igualdad de los productos hasta n. log Proposici´n 4.4.3. Sean x, y ∈ Rn . o + 1. Si x w y, entonces xp w yp para todo p ∈ R+ . log 2. Si x, y > 0, entonces x y implica que xp w y p para todo p ∈ R . log Demostraci´n. o 2. Supongamos que x > 0 e y > 0. Luego x y implica que log x log y. Como la log pt funci´n t → e es convexa para todo p ∈ R, deducimos lo afirmado en el item 2. a o partir del Corolario 4.2.2. 1. Si x, y ∈ Rn y x + w y, supongamos que x e y est´n ordenados en forma decreciente. a log Observar que, si k1 = m´x{j ∈ In : xj > 0}, entonces la condici´n (4.9) implica que a o yk1 > 0 . Podemos suponer, entonces, que k1 = n, porque las desigualdades que definen la relaci´n xp w y p ser´n autom´ticas para k > k1 . Estamos casi en el caso anterior, o a a dado que la unica diferencia es que tenemos log x w log y en lugar de log x ´ log y. Pero esto es suficiente si suponemos que p ∈ R+ , porque en tal caso se tiene que la funci´n t → ept es convexa creciente, y se aplica nuevamente el Corolario 4.2.2. o Observaci´n 4.4.4. o 1. El caso m´s usado de la Proposici´n 4.4.3 es cuando p = 1. Es a o decir que, si x, y ∈ Rn , entonces x w y implica x w y. Esto ser´ sumamente util + a log cuando se lo aplique a desigualdades con valores singulares de matrices, usando t´cnicas e de productos alternados. Observar que, en este caso, el Corolario 4.2.3 nos dice que, si hubese quedado x y, deb´ cumplirse que x y . ıa log
  • 96. 4.5 Ejercicios 81 2. Por otra parte, la Proposici´n 4.4.3 se puede generalizar, sin cambiar la prueba, si o remplazamos las funciones f (t) = tp por cualquier funci´n f : R+ → R tal que la o aplicaci´n t → f (et ) resulte convexa (o convexa creciente). Notar que, en el caso o demostrado, se usaba esa propiedad para la funci´n t → (et )p = ept . o 4.5 Ejercicios Ejercicios del texto 4.5.1. Sea A ∈ Mn (R). Probar que A ∈ DS (n) si y s´lo si o A 0, A1 = 1 y A∗ 1 = 1, Deducir que DS (n) es un conjunto convexo, y que dadas dos matrices A, B ∈ DS (n), entonces tambi´n AB ∈ DS (n). e 4.5.2. Probar los 9 items de la Observaci´n 4.1.5. o 4.5.3. Probar que, dados x, y ∈ Rn , entoncecs 1. x w y si y s´lo si existe v ∈ Rn tal que x o v y. w 2. x y si y s´lo si −y o w −x si y s´lo si existe w ∈ Rn tal que y o w x. Ejercicios nuevos 4.5.4. Sea x ∈ Rn . Probar que k x↓ = m´ i ın y 1 +k z ∞ :x=y+z para todo k ∈ In . i=1 4.5.5. Sean x, y ∈ Rn . Demostrar las siguientes propiedades: w 1. x y si y s´lo si x o w y junto con x y. 2. Si α > 0, entonces w w x w y =⇒ αx w αy y x y =⇒ αx αy . w 3. x w y ⇐⇒ −x −y. 4. Para cualquier α ∈ R no nulo, se tiene que x y ⇐⇒ αx αy.
  • 97. 82 Mayorizaci´n o 4.5.6. Una transformaci´n lineal A en Cn se dice que preserva positividad si lleva vectores o de coordenadas no negativas en vectores de coordenadas no negativas. Se dice que preserva la traza si tr Ax = tr x para todo x. Se dice unital si A1 = 1. Dada A ∈ Mn (C), probar que A ∈ DS (n) si y s´lo si la transformaci´n lineal A preserva o o positividad, preserva la traza, y es unital. Mostrar que A preserva la traza si y s´lo si A∗ es o unital. 4.5.7. Sea A ∈ DS (n) . 1. Sea x ∈ Rn . Si |x| = (|x1 |, . . . , |xn |), demostrar que |Ax| A(|x|) ( significa coordenada a coordenada) . 2. Demostrar que 1 ∈ σ(A) y que 1 admite un autovector de coordenadas positivas. 3. Demostrar que 1 = ρ(A) = A sp . n 4.5.8. Sean x, y ∈ R . Probar que 1. x↓ + y ↑ x+y x↓ + y ↓ . 2. Si x, y ∈ Rn , entonces x↓ ◦ y ↑ + w x◦y w x↓ ◦ y ↓ . 3. Si x, y ∈ Rn , entonces (x, y) + (x + y, 0) en R2n . 4. Probar que son equivalentes a. x w y b. Existe w ∈ Rn tal que x w ≤ y. 4.5.9. Sea f : R+ → R+ c´ncava y tal que f (0) = 0. Probar que: o 1. f es creciente (¿es continua?). 2. Si c, d ∈ R+ , entonces f (c + d) ≤ f (c) + f (d). 3. Si x, y ∈ Rn , + x y =⇒ f (xi ) ≥ f (yi ). i∈In i∈In w M´s a´n, la misma desigualdad sigue valiendo si x a u y. 4. Si x, y ∈ Rn , f (|xi + yi |) ≤ f (|xi |) + f (|yi |) . i∈In ij i∈In 4.5.10. Sean x, y, u ∈ Rn tales que sus coordenadas estan ordenadas en forma decreciente. Probar que: 1. x y =⇒ x, u ≤ y, u . 2. Si solo pedimos que x w y pero tenemos que u ∈ Rn , entonces x, u ≤ y, u . +
  • 98. Cap´ ıtulo 5 Mayorizaci´n de autovalores y o valores singulares En este cap´ıtulo estudiaremos numerosas apariciones de relaciones de mayorizaci´n entre vec- o tores reales asociados a matrices, particularmente a vectores de autovalores, de valores sin- gulares y a diagonales de matrices. Mostraremos el teorema de Schur-Horn, que caracteriza todas las posibles diagonales de matrices en la ´rbita unitaria de una matriz A ∈ H(n) como o aquellos vectores d ∈ Rn tales que d µ(A). Luego nos concentraremos en una caracterizaci´no de las normas unitariamente invariantes, y daremos un criterio para mostrar desigualdades para cualquiera de esas normas, en t´rminos de mayorizaci´n d´bil de vectores de valores e o e singulares. Despu´s daremos numerosas propiedades relacionadas con la mayorizaci´n apli- e o cada a matrices autoadjuntas, que ser´n herramientas imprescindibles para atacar distintas a desigualdades en los siguientes cap´ıtulos. Culminaremos con una prueba bastante reciente y asombrosamente simple del famoso teorema de Lidskii, sobre relaciones de mayorizaci´n entre o vectores de autovalores de restas de matrices autoadjuntas, lo que da un expectacular avance sobre el teorema de Weyl 5.1.6, que hace lo mismo con las sumas. El teorema de Lidskii fue particularmente famoso porque fue anunciado sin dar detalles de la prueba (en los a˜os 60). Esto gener´ pol´micas, que dieron lugar a numerosas demostra- n o e ciones independientes (en el libro de Bhatia [3] aparecen cuatro, todas bien complicadas). Sin embargo, la que presentamos aqu´ (debida a Chi-Kwong Li y R. Mathias [28]) es par- ı ticularmente simple, y usa como unica herramienta importante el teorema de Weyl, que por ´ muchos a˜os fue considerado escencialmente m´s d´bil. Finalizaremos dando algunas de las n a e importantes aplicaciones del Teorema de Lidskii.
  • 99. 84 Mayorizaci´n de autovalores y valores singulares o 5.1 Aplicaciones a matrices Hermitianas Teorema 5.1.1 (Teorema de mayorizaci´n de Schur 3). Sea A ∈ H(n). Recoredemos la o notaci´n d (A) = (a11 , . . . , ann ) ∈ Rn . Entonces, se tiene que o d (A) λ(A). Demostraci´n. Para demostrar que d (A) λ(A) vamos a probar que d (A) = B λ(A), para o cierta B ∈ DS (n). Como A ∈ H(n), si D = diag (λ(A)), existe U ∈ U(n) tal que A = U ∗ DU . Mediante cuentas elementales de matrices, se puede verificar que cada entrada de A tiene la forma: dados i, j ∈ In , n n aij = uki λk ukj , en particular, aii = λk |uki |2 . k=1 k=1 Consideremos ahora la matriz B = (|uji |2 )ij que, por ser U unitaria, cumple B ∈ DS (n). Adem´s a  n  |uk1 |2 λk  |u11 |2 · · · |un1 |2    λ1  k=1    . .. .  .  =  . Bλ(A) =  . .  .   .  = d (A) .  . . . .  n .  2 2 |u1n | · · · |unn | λn |ukn |2 λk   k=1 Luego, el Teorema 4.1.8 completa la demostraci´n. o Observaci´n 5.1.2. Otra demostraci´n del Teorema mayorizaci´n de Schur puede hacerse o o o por inducci´n, aplicando el Teorema de entrelace de Cauchy 2.4.2. Para ello basta reordenar o la diagonal de A, conjugandola por una matriz de permutaci´n como se hace en la Observaci´n o o 4.1.5, lo que no cambia sus autovalores. Observaci´n 5.1.3. La matriz B = (|uji |2 )ij ∈ DS (n) que aparece en el teorema anterior o (para cierta U ∈ U(n) ), es un tipo especial de matriz doble estoc´stica. A tales matrices se a las llama ortoestoc´sticas. Este simp´tico nombre, que proviene de construir elementos de a a DS (n) a partir de matrices unitarias (que en el caso real se llaman ortogonales), est´ bien a elegido porque no toda matriz A ∈ DS (n) tiene la suerte de provenir de una matriz unitaria.   1 1 0 1 Por ejemplo A = 1 0 1  ∈ DS(3), pero no es ortoestoc´stica, porque no hay modo a 2 0 1 1 de que sus columnas provengan de vectores ortogonales. Como corolario del Teorema mayorizaci´n de Schur, encontramos una nueva caracterizaci´n o o para los autovalores de una matriz Hermitiana. En este caso, para la suma de los k-primeros. Proposici´n 5.1.4 (Principio del M´ximo de Ky Fan). Sea A ∈ H(n). Entonces o a k k µj (A) = m´x a Axj , xj , para todo k ∈ In , j=1 j=1
  • 100. 5.1 Aplicaciones a matrices Hermitianas 85 donde el m´ximo se toma sobre todas las k-uplas ortonormales {x1 , ..., xk } en Cn . a Demostraci´n. Fijemos k ∈ In . Sea {x1 , ..., xk } una k-upla ortonormal cualquiera. Sea o U ∈ U(n) tal que sus primeras k columnas sean los vectores dados. Sea B = U ∗ AU . Luego k k k k µ(B) = µ(A) y bjj = Bej , ej = A U ej , U ej = Axj , xj . j=1 j=1 j=1 j=1 Pero, por el Teorema de mayorizaci´n de Schur 5.1.1, se tiene que o k k k k k ↓ Axj , xj = bjj ≤ d (B)j ≤ µj (B) = µj (A) . j=1 j=1 j=1 j=1 j=1 Para ver la otra desigualdad, tomemos B = {v1 , ..., vn } una BON de Cn adaptada a µ(A). Luego {v1 , ..., vk } es una k-upla ortonormal y k k k k m´x a Axj , xj ≥ Avj , vj = µj (A) vj , vj = µj (A) , j=1 j=1 j=1 j=1 como quer´ ıamos demostrar. Ejercicios 5.1.5. Sea A ∈ H(n). Identificando las k-uplas ortonormales de Cn con bases de rangos de proyectores, y con columnas de isometr´ de Ck en Cn , probar que: ıas 1. Si, para k ∈ In , notamos Pk (n) = {P ∈ H(n) : P 2 = P y rk(P ) = k}, entonces k µj (A) = m´x a tr P AP . (5.1) P ∈Pk (n) j=1 2. Para todo k ∈ In , se tiene que k µj (A) = m´x a tr U ∗ AU , (5.2) U ∈Uk (n) j=1 donde Uk (n) = {U ∈ Mn,k (C) : U ∗ U = Ik } es el espacio de isometr´ de Ck en Cn . ıas Teorema 5.1.6 (Weyl). Sean A y B ∈ H(n). Entonces µ(A + B) µ(A) + µ(B). Es importante el hecho de que, en la suma µ(A) + µ(B), se asume que ambos vectores est´n a ordenados de la misma forma.
  • 101. 86 Mayorizaci´n de autovalores y valores singulares o Demostraci´n. Por la f´rmula (5.1), para todo k ∈ In podemos escribir o o k µj (A + B) = m´x a tr P (A + B)P ≤ m´x a tr P AP + m´x a tr P BP P ∈Pk (n) P ∈Pk (n) P ∈Pk (n) j=1 k k = µj (A) + µj (B). j=1 j=1 La igualdad para k = n surge de que tr(A + B) = tr(A) + tr(B). Recordar que en la Proposici´n 3.7.5 probamos que, dada C ∈ Mn (C), entonces si o 0 C C= ∈ M2n (C) , C∗ 0 se tiene que σ C = {±si (C)} (con las mismas multiplicidades). Es decir, µ(C) = (s1 (C), · · · , sn (C), −sn (C), · · · , −s1 (C) ) . (5.3) Corolario 5.1.7. Sean A, B ∈ H(n). Entonces s(A + B) w s(A) + s(B). Demostraci´n. Notar que A + B = A + B. Por la Eq. (5.3) y las desigualdades resultantes o ındices k ∈ In ⊆ I2n , se tiene que de la relaci´n µ(A + B) µ(A) + µ(B) para los n primeros ´ o s(A + B) w s(A) + s(B). Observaci´n 5.1.8. Notar que el resultado anterior es necesario para verificar que las normas o · (k) de Ky Fan, para cada k ∈ N, definidas en el Ejemplo 3.4.1, cumplen la desigualdad triangular. ¿Les hab´ salido el ejercicio? ıa 5.2 Teorema de Schur-Horn 5.2.1. Sea x ∈ Cn con x = 1 (a estos vectores los llamaremos unitarios). Entonces, como vimos en 1.9.3, la matriz Px = x x = xx∗ = (xi xj )ij ∈ Mn (C) es el proyector ortogonal sobre el subespacio Gen {x}. Por lo tanto, si B = {x1 , . . . , xn } es una BON de Cn , vale que n n z= z, xi xi para todo z ∈ Cn =⇒ I= xi xi . (5.4) i=1 i=1
  • 102. 5.2 Teorema de Schur-Horn 87 Proposici´n 5.2.2. Sea A ∈ Mn (C). Se tiene que A ∈ Mn (C)+ si y s´lo si existen vectores o o unitarios x1 , . . . , xr ∈ Cn , y n´meros λ1 , . . . , λr ∈ R+ tales que u r r A= λi xi xi , o sea que A= λi Pxi . (5.5) i=1 i=1 Demostraci´n. Por un lado es claro que si A cumple (5.5), entonces A ≥ 0. Rec´ o ıprocamente, si A ∈ Mn (C)+ , sea B = {x1 , . . . , xn } es una BON de Cn adaptada a µ(A). Usando la ecuaci´n (3.12), para todo z ∈ Cn se tiene que, o n n n n Az = A z, xi xi = z, xi Axi = µi (A) z, xi xi = µi (A) xi xi z . i=1 i=1 i=1 i=1 Luego A cumple (5.5). Observaci´n 5.2.3. Notar que la m´ o ınima cantidad r de proyectores de rango uno que puede usarse para obtener una representaci´n de A como en (5.5) es r = rk(A). Adem´s, si A ∈ o a + 1/2 Mn (C) cumple (5.5), definiendo yi = λi xi , se tiene que las matrices yi yi no son m´s a r proyectores, pero s´ son positivos y se verifica que A = ı yi yi . i=1 Es natural preguntarse, dado A ∈ Mn (C)+ y r ≥ rk(A), para qu´ sucesiones λ1 , . . . , λr en e R+ se puede obtener para A una representaci´n como (5.5). Este problema est´ ´ o a ıntimamente relacionado con el llamado Teorema de Schur-Horn. Recordemos que si A ∈ Mn (C), llamamos d (A) = (a11 , . . . , ann ) ∈ Cn . Proposici´n 5.2.4. Sean c ∈ Rn y A ∈ Mn (C)+ . Son equivalentes: o + n 1. Existen vectores unitarios x1 , . . . , xn ∈ Cn tales que A = cj x j xj . j=1 2. Existe B ∈ Mn (C)+ tal que d (B) = c y µ(B) = µ(A), o sea que B ∼ A. = 1/2 Demostraci´n. Si se verifica 1, sea X ∈ Mn (C) definida por Ck (X) = ck xk , k ∈ In . o Veamos que XX ∗ = A: Para cada k ∈ In , notemos por Xk ∈ Mn (C) a la matriz tal que Ck (Xk ) = Ck (X), pero Cj (Xk ) = 0 si j = k. Luego, se tiene que ∗ X= Xk , Xk Xj = 0 si j=k y Xk Xk = ck xk x∗ = ck xk ∗ k xk . k∈In Es claro que todo esto implica que XX ∗ = A. Por lo tanto µ(A) = µ(XX ∗ ) = µ(X ∗ X). Si B = X ∗ X, es f´cil ver, adem´s, que Bii = ci xi 2 = ci , i ∈ In , lo que prueba 2. a a
  • 103. 88 Mayorizaci´n de autovalores y valores singulares o Rec´ıprocamente, si B ∈ Mn (C)+ cumple µ(B) = µ(A) y d (B) = c, sea U ∈ U(n) tal que ∗ U AU = B (se puede hacer, pasando por diag (µ(A)) ). Consideremos la matriz X = A1/2 U . Entonces X ∗ X = B y XX ∗ = A1/2 U U ∗ A1/2 = A, mientras que ci = Bii = Ci (X) 2 . Basta Ci (X) ahora definir xi = , y se verifica como antes que Ci (X) n n A = XX ∗ = cj xj x∗ = j cj xj xj , j=1 j=1 lo que prueba 1. Ahora s´ podemos probar la rec´ ı, ıproca del Teorema 3 de Schur , sobre mayorizac´n entre la o diagonal y los autovectores. Este resultado se debe a R. Horn, y poni´ndolos juntos se los e conoce como el Teorema de Schur-Horn, que tiene importantes aplicaciones y generalizaciones a operadores en espacios de Hilbert y a ´lgebras de operadores. Como ingrediente extra (clave a para la prueba) se incluye una tercera condici´n equivalente (en el caso positivo), que tiene o que ver con lo que ven´ıamos viendo, o sea el expresar una matriz A ∈ Mn (C)+ como suma de m´ltiplos de proyectores unidimensionales. u Teorema 5.2.5. Sean b, c ∈ Rn Entonces son equivalentes: 1. c b. 2. Existe B ∈ H(n) tal que d (B) = c y µ(B) = b↓ . Si, adem´s, b y c tienen entradas no negativas, lo anterior equivale a a 3. Existen vectores unitarios x1 , . . . , xn ∈ Cn tales que n diag (b) = cj xj x∗ . j j=1 Demostraci´n. Antes que nada, notemos que se puede suponer que b = b↓ y c = c↓ , porque o las tres condiciones son invariantes por permutaciones (en el caso de 2 y 3, v´ conjugar con ıa matrices de permutaci´n adecuadas, usando la Observaci´n 4.1.5). Notemos A = diag (b). El o o Teorema 3 de Schur 5.1.1 muestra que 2 implica 1. La Proposici´n 5.2.4 muestra que 2 y 3 o son equivalentes, cuando b y c tienen entradas no negativas. Verificaremos, en principio, que 1 implica 3 en el caso en que b y c tienen entradas estrictamente positivas. Lo haremos por inducci´n en n. Si n = 1 no hay nada que probar. Sea n > 1. o Como b1 ≥ c1 ≥ bn , podemos tomar un k ∈ In−1 tal que bk ≥ c1 ≥ bk+1 . Se afirma: existe x1 ∈ Gen {ek , ek+1 } de norma uno, tal que A1 = A − c1 x1 x∗ tiene rango a 1 lo sumo n − 1. En efecto, para ver que el tal x1 existe, definimos tπ tπ x(t) = cos ek + sin ek+1 y A(t) = A − c1 x(t)x(t)∗ , t ∈ [0, 1] . 2 2
  • 104. 5.2 Teorema de Schur-Horn 89 Entonces la curva d(t) = det A(t) es continua. Pero d(1) ≤ 0 ≤ d(0) porque A(0) y A(1) son matrices diagonales, con un s´lo elemento diagonal no positivo (es bk+1 − c1 ) en el caso de o A(1), y con todos no negativos (anche bk − c1 ) en el de A(0). Luego basta tomar x1 = x(t) para alg´n t ∈ [0, 1] tal que d(t) = 0. u Es claro que existe una BON {y1 , y2 } de Gen {ek , ek+1 } tal que A1 y1 = (bk + bk+1 − c1 )y1 y A1 y2 = 0. Luego la matriz de A1 en la bon B = {y2 , e1 , . . . , ek−1 , y1 , ek+2 , . . . , en } queda A1 = diag (0, b1 , . . . , bk−1 , (bk + bk+1 − c1 ), bk+2 , . . . , bn ) . (5.6) B Sean a, d ∈ Rn−1 , dados por a = (c2 , . . . , cn ) y d = (b1 , . . . , bk−1 , (bk + bk+1 − c1 ), bk+2 , . . . , bn ) . Notar que, como bk ≥ c1 ≥ bk+1 , entoncecs dk−1 = bk−1 ≥ bk ≥ dk ≥ bk+1 ≥ bk+2 = dk+1 . ıamos probar que a d. En efecto, si r ≤ k, Para aplicar la HI al asunto anterior, deber´ r−1 r r−1 r−1 r−1 ai = ci ≤ ci ≤ bi = di . i=1 i=2 i=1 i=1 i=1 Si k + 1 ≤ r ≤ n − 1, r r r−1 r k−1 r r−1 ci ≤ bi =⇒ ai = ci ≤ bi + (bk + bk+1 − c1 ) + bi = di i=1 i=1 i=1 i=2 i=1 i=k+2 i=1 y las trazas andan bien porque c b. En consecuencia, a d. Sean, por HI, n − 1 vectores n n−1 ∗ unitarios z2 , . . . , zn ∈ C tales que diag (d) = cj zj zj ∈ Mn−1 (C)+ . Luego j=2 n cj (0, zj )(0, zj )∗ = diag (0, d) = A1 ∈ Mn (C)+ . (5.7) B j=2 Si definimos x2 , . . . , xn ∈ Cn tales que las coordenadas de cada xj en B sean (0, zj ), resulta que son tambi´n unitarios (los zj lo son y B es una bon). Traduciendo la ecuaci´n (5.7) e o (pensada en la base B) a coordenadas en la base can´nica, obtenemos o n A1 = cj xj x∗ ∈ Mn (C)+ j j=2 y, por lo tanto, n A = A1 + c1 x1 x∗ = 1 cj x j x ∗ . j j=1 Conclu´ ımos que 1 implica 3, si b y c tienen entradas estricatamente positivas.
  • 105. 90 Mayorizaci´n de autovalores y valores singulares o De lo anterior podemos deducir que 1 ↔ 2 en ese caso (b, c > 0), porque 1 → 3 y 3 ↔ 2 (2 → 1 era el Teorema 3 de Schur). Pero esto se generaliza sin dificultad al caso general (con b y c cualesquiera en Rn ) usando que para todo m ∈ R se tiene que x + m1 y + m1 ⇐⇒ x y, y que dada B ∈ H(n), entonces d (B + mI) = d (B) + m1 y µ(B + mI) = µ(B) + m1. Finalmente, probado 1 ↔ 2 en general, ahora por la Proposici´n 5.2.4, ya sabemos que 3 es o equivalente a ellas si b y c tienen entradas no negativas. Teorema 5.2.6. Sea a ∈ Rn y A ∈ H(n) tal que µ(A) = a↓ . Entonces, {x ∈ Rn : x a} = d ( U AU ∗ ) : U ∈ U(n) . Demostraci´n. Si B = U AU ∗ , con U ∈ U(n), entoces µ(A) = µ(B) = a↓ . Luego por el o Teorema de mayorizaci´n de Schur 5.1.1, se tiene que d (B) a. o Rec´ıprocamente, si x ∈ Rn cumple x a, por el Teorema 5.2.5 existe B ∈ H(n) tal que d (B) = x y µ(B) = a↓ . Por lo tanto debe existir U ∈ U(n) tal que B = U AU ∗ . Luego x ∈ {d (U AU ∗ ) : U ∈ U(n)}. Corolario 5.2.7. Sean A ∈ Mn (C)+ y c ∈ Rm , con m ≥ n. Entonces existen proyectores + autoadjuntos P1 , . . . , Pm de rango uno, tales que m A= ck Pk ⇐⇒ c (µ(A), 0, . . . , 0) := µ(A) ∈ Rm . ˜ + k=1 A 0 Demostraci´n. Sea A1 = o ∈ Mm (C)+ . Luego µ(A1 ) = µ(A). Por el Teorema 5.2.6, ˜ 0 0 c µ(A) si y s´lo si existe U ∈ U(m) tal que d (U A1 U ∗ ) = c. Es claro que si ˜ o In 0 P = ∈ Mm (C)+ , entonces U A1 U ∗ = U P A1 P U ∗ . 0 0 Luego, si llamamos U1 ∈ Mm,n (C) a la parte no nula de U P , entonces U1 AU1 = U A1 U ∗ . ∗ ∗ 1/2 ∗ Notar que U1 U1 = In . Si definimos T = A U1 ∈ Mn,m (C), y xi = Ci (T ) ∈ Cn para i ∈ Im , se tiene que U A1 U ∗ = T ∗ T , por lo que xi 2 = ci , i ∈ Im . Por otro lado, m m A = TT∗ = xk x∗ = k ck P k , k=1 k=1 donde Pk = c−1 xk x∗ es proyector autoadjunto de rango uno, para k ∈ Im (si ck = 0, puede k k tomarse como Pk cualquier cosa). La rec´ ıproca se prueba definiendo T ∈ Mn,m (C) tal que 1/2 tenga columnas xk = ck yk , donde yk yk = Pk , k ∈ Im . El hecho de que A = T T ∗ implica ∗ que existe una U1 ∈ Mm,n (C) que cumple todo lo siguiente: ∗ ∗ T = A1/2 U1 , U1 U1 = In y d (U1 AU1 ) = d (T ∗ T ) = c . ∗ Luego se extiende U1 a una U ∈ U(m), con lo que U1 AU1 = U A1 U ∗ . ∗
  • 106. 5.3 Normas unitariamente invariantes 91 Observaci´n 5.2.8. El resultado anterior resulve el problema planteado en el p´rrafo anterior o a a la Proposici´n 5.2.4, al menos para el caso r ≥ n. Es f´cil ver, usando el Teorema 5.2.5, que o a si A ∈ Mn (C)+ , rk(A) ≤ r < n y c ∈ Rr , entonces la condici´n necesaria y suficiente para + o r que A pueda ser representado A = k=1 ck Pk para ciertos proyectores Pk de rango uno, es que µ(A) (c, 0, . . . , 0) ∈ Rn . 5.3 Normas unitariamente invariantes Definici´n 5.3.1. Dada una norma N en Mn (C), decimos que N es una norma unitariamente o invariante (NUI) , si cumple que N (U AV ) = N (A) para toda A ∈ Mn (C) y todo par U, V ∈ U(n) . En tal caso, el Teorema 3.2.5 dice que N (A) = N (Σ(A) ) para toda A ∈ Mn (C). Definici´n 5.3.2. Sea N una NUI en Mn (C). Consideremos la funci´n o o gN : Cn → R+ dada por gN (x) = N (diag (x) ) para todo x ∈ Cn . Proposici´n 5.3.3. Sea N una NUI en Mn (C) y sea x ∈ Cn . Entonces: o 1. gN es una norma en Cn . 2. gN (x) = g(|x|) := gN (|x1 | , . . . , |xn |). 3. gN (x) = g(xσ ) = gN (xσ(1) , . . . , xσ(n) ), para toda σ ∈ Sn . Demostraci´n. o 1. Se deduce de que la aplicaci´n Cn o x → diag (x) ∈ Mn (C) es lineal e inyectiva. 2. Sea xj = ωj |xj | donde wj = ei θj . Como W = diag (ω1 , . . . , ωn ) ∈ U(n), tenemos que gN (|x|) = N (diag (|x|) ) = N (W ∗ diag (x) ) = N (diag (x) ) = gN (x) . ∗ 3. Sea Pσ ∈ UP (n) la matriz asociada a σ. Luego Pσ diag (x) Pσ = diag (xσ ) . Entonces, ∗ gN (xσ ) = N (Pσ diag (x) Pσ ) = N (diag (x) ) = gN (x) . Definici´n 5.3.4. Una funci´n f : Cn → R que cumple los ´ o o ıtems 1, 2 y 3 de la Proposici´n o anterior se denomina gauge sim´trica. Abreviaremos esto escribiendo que f es una fgs. e Lema 5.3.5. Si g es una fgs, entonces, g es mon´tona en el siguiente sentido: Si se cumple o que |xi | ≤ |yi | para todo i ∈ In , entonces, g(x) ≤ g(y).
  • 107. 92 Mayorizaci´n de autovalores y valores singulares o Demostraci´n. Por la Proposici´n 5.3.3, podemos suponer que x, y ∈ Rn . Por un argumento o o + inductivo, es suficiente verificar que si t ∈ [0, 1] y k ∈ In , entonces g(y1 , . . . , t yk , . . . , yn ) ≤ g(y1 , . . . , yk , . . . , yn ) . En efecto, si tomamos ese x = (y1 , . . . , t yk , . . . , yn ), entonces 1+t 1−t g(x) = g y + (y1 , . . . , −yk , . . . , yn ) 2 2 1+t 1−t ≤ g(y) + g(y1 , . . . , −yk , . . . , yn ) 2 2 1+t 1−t = g(y) + g(y) = g(y) , 2 2 Este Lema nos permitir´ mostrar la relaci´n clave que existe entre estas fgs’s y la mayorizaci´n a o o d´bil de vectores. e Teorema 5.3.6. Sea g es una funci´n gauge sim´trica en Cn y sean x, y ∈ Rn tales que o e + x w y. Entonces, g(x) ≤ g(y). Demostraci´n. Como x w y, la Proposici´n 4.1.12 nos asegura que existe u ∈ Rn tal que o o x u y. Ahora bien, el Lema 5.3.5 garantiza que g(x) ≤ g(u) (recordar que x 0). Por otro lado, como u y, el Teorema 4.1.8 nos dice que u = λσ yσ , para ciertos σ∈ Sn λσ ∈ [0, 1] tales que λσ = 1. Luego σ∈ Sn g(u) = g λσ yσ ≤ λσ g(yσ ) = λσ g(y) = g(y) . σ∈ Sn σ∈ Sn σ∈ Sn Teorema 5.3.7. 1. Si N es una NUI en Mn (C), entonces, gN es una fgs en Cn . 2. Si g es una fgs en Cn , entonces la funci´n Ng : Mn (C) → R+ dada por o Ng (A) = g(s1 (A) , . . . , sn (A) ) , para A ∈ Mn (C) , es una NUI en Mn (C). Demostraci´n. o 1. Esto es la Proposici´n 5.3.3. o 2. S´lo demostraremos la desigualdad triangular. Las dem´s propiedades quedan como o a ejercicio para el lector. Sean A, B ∈ Mn (C). Luego Ng (A+B) = g(s(A+B)) ≤ g(s(A)+s(B)) ≤ g(s(A))+g(s(B)) = Ng (A)+Ng (B) , ya que s(A + B) w s(A) + s(B) y podemos usar el Teorema 5.3.6.
  • 108. 5.3 Normas unitariamente invariantes 93 Teorema 5.3.8 (Ky Fan). Sean A, B ∈ Mn (C). Entonces son equivalentes: 1. N (A) ≤ N (B) para toda norma unitariamente invariante N . 2. A (k) ≤ B (k) para todo k ∈ In . 3. s(A) w s(B). Demostraci´n. Es consecuencia de los Teoremas 5.3.6 y 5.3.7. En efecto, observar que o A (k) ≤ B (k) para todo k ∈ In ⇐⇒ s(A) w s(B) , y en tal caso se tiene que g(s(A) ) ≤ g(s(B) ) para toda fgs. La rec´ ıproca es evidente. Ahora saldamos otra deuda contraida en el Ejemplo 3.4.1: Corolario 5.3.9. Para todo n ∈ N y todo p ∈ [1 , ∞), la norma p de Schatten, dada por n 1/p p 1/p A p = si (A) = (tr |A|p ) para A ∈ Mn (C) , i=1 es efectivamente una norma en Mn (C), y adem´s es NUI. a Demostraci´n. Se usa el Teorema 5.3.7 y el hecho de que la norma p usual en Rn es una o funci´n gauge sim´trica. o e Corolario 5.3.10. Sean A, B ∈ Mn (C)+ tales que A ≤ B. Entonces, N (A) ≤ N (B) para toda norma unitariamente invariante N . Demostraci´n. Aplicando el Corolario 2.3.7, obtenemos que o 0 ≤ A ≤ B =⇒ sk (A) = µk (A) ≤ µk (B) = sk (B) , para todo k ∈ In . Luego basta aplicar el Teorema 5.3.8. Corolario 5.3.11. Sea N una NUI en Mn (C). Dadas A, B ∈ Mn (C), se tiene que 1. N (AB) ≤ A sp N (B). Adem´s, si N es normalizada (i.e., N (E11 ) = 1), a 2. A sp ≤ N (A) ≤ A 1 = tr |A|. 3. N es una norma matricial. Demostraci´n. o 1. Se deduce de la desigualdad sk (AB) ≤ A sp sk (B) para todo k ∈ In , vista en la f´rmula (3.3), y del Teorema 5.3.8. o
  • 109. 94 Mayorizaci´n de autovalores y valores singulares o 2. Sea g la funci´n gauge simetrica asociada a N . Como N est´ normalizada, entonces o a g(ek ) = 1 para todo k ∈ In . Luego, A sp = s1 (A) = g(s1 (A), 0, . . . , 0) ≤ g(s(A) ) = N (A) . n n An´logamente, N (A) = g(s(A) ) ≤ a sk (A)g(ek ) = sk (A) = A 1 . k=1 k=1 3. Es claro usando lo anterior. Proposici´n 5.3.12. Sea g : Rn → R, una funci´n convexa e invariante por permutaciones, o o es decir que si x ∈ Rn y P ∈ UP (n) , entonces g(x) = g(P x). Entonces, dados x, y ∈ Rn , x y =⇒ g(x) ≤ g(y) . En particular, esto se verifica si g es una fgs. Demostraci´n. Si x o y, el Teorema 4.1.8 asegura que x = λσ Pσ y . para ciertos σ∈ Sn λσ ∈ [0, 1] tales que λσ = 1. Entonces σ∈ Sn g(x) = g λσ Pσ y ≤ λσ g (Pσ y) = y . σ∈ Sn σ∈ Sn Notar que si g es una fgs, es convexa por ser una norma (homogeneidad + DT). Corolario 5.3.13. Dadas A, B ∈ H(n). Entonces µ(A) µ(B) =⇒ s(A) w s(B). Demostraci´n. Como A ∈ H(n), se tiene que s(A) = | µ(A)| ↓ . Por lo tanto, si g es una o fgs, se tiene que g(s(A) ) = g(µ(A) ). Lo mismo pasa para B, y el resultado se deduce de la k Porposici´n 5.3.12, aplicado a las fgs’s gk (x) = o x↓ , para k ∈ In . i i=1 Corolario 5.3.14. Dadas A, B ∈ H(n), si µ(A) µ(B) entonces N (A) ≤ N (B) para toda norma unitariamente invariante N . Demostraci´n. Se deduce del Corolario 5.3.13 y del Teorema 5.3.7. o 5.4 Mayorizaci´n de matrices Hermitianas o Hasta el momento s´lo hemos visto resultados relacionados con la mayorizaci´n de vectores. o o Pero a cada matriz A ∈ H(n) se le puede asociar el vector µ(A) ∈ Rn formado por todos los autovalores de A. Esto permite la siguiente definici´n, o
  • 110. 5.4 Mayorizaci´n de matrices Hermitianas o 95 Definici´n 5.4.1. Si A, B ∈ H(n), se dice que A est´ mayorizada por B y se escribe A o a B si se verifica que µ(A) µ(B). Es decir, A B si k k µj (A) ≤ µj (B), 1≤k≤n y tr A = tr B . j=1 j=1 Definici´n 5.4.2. Sea A ∈ Mn (C). o 1. Dado un proyector P ∈ H(n) (o sea P = P 2 = P ∗ ), se define el pinching de A como CP (A) := P AP + (I − P )A(I − P ) ∈ H(n) . Por ejemplo, si P proyecta sobre las primeras k coordenadas en Cn , entonces B C B 0 A= =⇒ CP (A) = , D E 0 E donde los bloques tienen los tama˜os adecuados (por ejemplo, B ∈ Mk (C) ). La matriz n de CP (A) tiene siempre esa pinta, si uno trabaja en coordenadas de una BON que empiece generando R(P ) y termine generando ker P . 2. M´s generalmente, un sistema de proyectores en Mn (C) es una conjunto a P = {P1 , . . . , Pr } ⊆ H(n) , donde los Pi son proyectores no nulos tales que r Pi Pj = 0 si i=j y Pi = I . i=1 Notar que un proyector P ∈ H(n) define un sistema de dos proyectores P = {P, I − P }. 3. Dado un sistema de proyectores P = {P1 , . . . , Pr } en Mn (C), se define el pinching asociado: r CP : Mn (C) → Mn (C) , dado por CP (A) = Pi APi , A ∈ Mn (C), i=1 que tambi´n puede verse como una compresi´n a bloques diagonales (operando en una e o BON adecuada). Notar que se tiene la siguiente factorizaci´n: o CP = CP1 ◦ CP2 ◦ · · · ◦ CPr , (5.8) y lo mismo en cualquier otro orden entre los CPi . Ejercicios 5.4.3.
  • 111. 96 Mayorizaci´n de autovalores y valores singulares o 1. Si A ∈ H(n) y σ (A) = {λ1 , . . . , λr } (todos distintos), entonces definiendo Pi como el proyector sobre ker(A − λi I), i ∈ Ir , se obtiene un sistema de proyectores que verifica r que A = λi Pi . i=1 2. Dado un sistema de proyectores P en Mn (C) y una matriz A ∈ Mn (C), se tiene que CP (A) = A si y s´lo si A conmuta con todos los Pi de P. O sea, si A es diagonal de o bloques. Verificar que eso sucede en el ejemplo anterior. 3. Probar que, dado un sistema de proyectores P en Mn (C), el operador pinching CP verifica las siguientes propiedades: (a) Es lineal, idempotente (i.e., CP ◦ CP = CP ) y R(CP ) es el subespacio de matrices que conmutan con todos los Pi , i ∈ Ir . (b) Reduce normas espectrales y preserva trazas (si no sale, ver la Proposici´n 5.4.9). o (c) Si A ∈ Mn (C) es autoadjunto (resp. positivo) entonces CP (A) es autoadjunto (resp. positivo). Por lo tanto, en general, CP (A∗ ) = CP (A)∗ . Proposici´n 5.4.4. Sea A ∈ H(n) y P un sistema proyectores en H(n). Entonces o CP (A) A. Demostraci´n. Por la Eq. (5.8), basta considerar el caso de pinchings de un solo proyector o P ∈ H(n), o sea, el sistema P = {P, I − P }. Sea U = P − (I − P ) = 2 P − I ∈ H(n). Es f´cil a ver que, si R(P ) = S, entonces se tiene que I 0 S U = P − (I − P ) = ∈ U(n) =⇒ 2 CP (A) = A + U AU = A + U AU ∗ . (5.9) 0 −I S⊥ Pero, como µ(U AU ∗ ) = µ(A), por el Teorema de Weyl 5.1.6 se tiene 2 µ(CP (A)) µ(A) + µ(U AU −1 ) = 2 µ(A) , por lo que CP (A) A. Ejercicio 5.4.5. 1. Clarificar en qu´ sentido la Proposici´n 5.4.4 es una generalizaci´n e o o del Teorema de mayorizaci´n de Schur. o 2. Dados x, y, z, w ∈ Rn tales que x = x↓ , y = y ↓ , z = z ↓ y w = w↓ , probar que z w y x y =⇒ x + z y+w . ¿Es cierto si no estan ordenados? 3. Deducir del Teorema 5.1.6 (+ inducci´n) que, si A1 , . . . , Am ∈ H(n), entonces o m m µ Ak µ(Ak ) . k=1 k=1
  • 112. 5.4 Mayorizaci´n de matrices Hermitianas o 97 Definici´n 5.4.6. Dado un espacio vectorial V y un subconjunto C ⊆ V, llamaremos conv [C] o a la c´psula convexa de C: a m conv [C] = λk bk : m ∈ N, bk ∈ C, λ ∈ Rm y λ (1, 0, . . . , 0) . k=1 es decir, el conjunto de todas las combinaciones convexas de elementos de C. El siguiente teorema da una caracterizaci´n, intr´ o ınseca de matrices, de la mayorizaci´n ma- o tricial: Teorema 5.4.7. Sea A ∈ H(n). Denotemos por U(A) = {U AU ∗ : U ∈ U(n)} = {B ∈ H(n) : µ(B) = µ(A)} la ´rbita unitaria de A. Entonces, o {T ∈ H(n) : T A} = conv [U(A) ] . (5.10) O sea que T A si y s´lo si T es combinaci´n convexa de conjugados unitarios de A. o o Demostraci´n. Tomemos una matriz o m ∗ T = λk Uk AUk ∈ conv [U(A) ] , k=1 (m) donde los Uk ∈ U(n) y λ ∈ Rm cumple que λ + e1 . Por el Ejercicio 5.4.5, m m ∗ µ(T ) µ(λk Uk AUk ) = λk µ(A) = µ(A) =⇒ T A. k=1 k=1 Rec´ıprocamente, sea T ∈ H(n) tal que µ(T ) µ(A). Notaremos a = µ(A). Con las notaciones de la Observaci´n 4.1.5, el Teorema 4.1.8 dice que o µ(T ) = λ σ Pσ a = λσ aσ σ∈ Sn σ∈ Sn para ciertos λσ ∈ [0, 1] tales que λσ = 1. Notemos D = diag (a). Por la Eq. (4.4) de la σ∈ Sn ∗ Observaci´n 4.1.5, se tiene que Pσ DPσ = diag (aσ ). Por lo tanto, o ∗ diag (µ(T ) ) = λσ Pσ DPσ . σ∈ Sn Finalmente, si V, W ∈ U(n) hacen que A = V ∗ DV y T = W diag (µ(T ) ) W ∗ , entonces T = W diag (µ(T ) ) W ∗ = λσ W Pσ DPσ W ∗ = ∗ λσ (W Pσ V ) A (V ∗ Pσ W ∗ ) . ∗ σ∈ Sn σ∈ Sn Luego T ∈ conv [{U AU ∗ : U ∈ U(n)}] = conv [U(A) ].
  • 113. 98 Mayorizaci´n de autovalores y valores singulares o Observaci´n 5.4.8. Notar que el Teorema 5.4.7 permite generalizar el Corolario 5.3.14 en o el siguiente sentido: Si A, B ∈ H(n), por la f´rmula (5.10) se tiene que o A B =⇒ N (A) ≤ N (B) para toda norma N que verifique N (U CU ∗ ) = N (C), C ∈ Mn (C), U ∈ U(n). Estas normas se llaman d´bilmente unitariamente invariantes (NDUI). Notar que, por ejemplo, e w(C) = m´x | Cx, x | : x = 1 , a C ∈ Mn (C), que se llama radio num´rico de C, es una tal norma, pero no es NUI. Otro ejemplo de este e tipo es M (C) = N (C)+| tr C|, que es NDUI para cualquier NUI N . Para el caso de pinchings, se tiene un resultado m´s general que la Proposici´n 5.4.4: a o Proposici´n 5.4.9. Sean A ∈ Mn (C) (no necesariamente autoadjunta) y P un sistema o proyectores en H(n). Entonces N CP (A) ≤ N (A) , para toda norma N que sea NDUI en Mn (C) . (5.11) Demostraci´n. Por la Eq. (5.8) basta probarlo para un solo proyector P ∈ H(n). En tal caso, o sea U = P − (I − P ) = 2 P − I ∈ U(n). Por la Eq. (5.9), se tiene que 2 CP (A) = A + U AU = A + U AU ∗ . Con esto, la desigualdad al tomar N es clara. Observaci´n 5.4.10. Otra forma de verlo es observar que, en el caso general, siempre se o verifica que CP (A) ∈ conv [{U AU ∗ : U ∈ U(n)}], aunque A no sea autoadjunta. Esto se hace eligiendo las matrices unitarias y diagonales de bloques (para P), con ± IR(Pi ) en cada bloque (ver el ejercicio 5.6.4). Proposici´n 5.4.11. Sean A, B ∈ Mn (C). Sea N una NUI. Entonces se tienen las desigual- o dades 1 A+B 0 A 0 |A| + |B| 0 N ≤N ≤N . 2 0 A+B 0 B 0 0 Demostraci´n. La primera desigualdad se deduce de que o B 0 ∼ A 0 0 I = , v´ la matriz ıa ∈ U(n) . 0 A 0 B I 0 Para probar la segunda, notar que, si A = U |A| y B = V |B| con U, V ∈ U(n), entonces A 0 U 0 |A| 0 A 0 |A| 0 = =⇒ N =N , 0 B 0 V 0 |B| 0 B 0 |B| por lo que podemos suponer que A, B ∈ Mn (C)+ . En tal caso, si C = A1/2 , D = B 1/2 , y C 0 A+B 0 T = , entonces = T ∗T . D 0 0 0
  • 114. 5.5 Teoremas de Lindskii y sus aplicaciones 99 Por otra parte, T T ∗ ∼ T ∗ T , por lo que N (T T ∗ ) = N (T ∗ T ). Adem´s, = a C2 CD A CD TT∗ = = . DC D2 DC B A 0 Luego es un pinching de T T ∗ , y por la f´rmula (5.11), en la Proposici´n 5.4.9, se o o 0 B A 0 tiene que N ≤ N (T T ∗ ) . 0 B 5.5 Teoremas de Lindskii y sus aplicaciones El teorema de Lidskii tiene tres versiones equivalentes. Comenzaremos enunciando las tres, y luego iremos armando las pruebas. Teorema 5.5.1 (Lidskii 1). Sean A, B ∈ H(n). Entonces µ(A) − µ(B) µ(A − B) µ(A) − λ(B) . Ejercicio 5.5.2. 1. Decir porqu´ es incorrecta la siguiente prueba de la primera parte del e Teorema de Lidskii 1: Si A, B ∈ H(n), por el Teorema 5.1.6, µ(A) µ(A − B) + µ(B). Por lo tanto, para todo k ∈ In , k k µj (A) − µj (B) ≤ µj (A − B) . j=1 j=1 Deducimos entonces que µ(A) − µ(B) µ(A − B). La igualdad, para k = n, sale tomando trazas. Si no ven la pifiada, leer la Observaci´n 4.1.9. o 2. Demostrar (bien) la otra parte del Teorema ( ¿quien era µ(−B)?). Recordemos que, si B ∈ Mn (C), llamamos s(B) = (s1 (B), . . . , sn (B)) = µ(|B|), al vector de valores singulares de B, ordenados en forma decreciente. Teorema 5.5.3 (Lidskii 2). Sean A, B ∈ Mn (C). Entonces |s(A) − s(B)| w s(A − B) . Una ves resuelto el Ejercicio 5.5.2, se entender´ porque es necesaria (y suficiente) la siguiente a versi´n m´s t´cnica del Teorema de Lidskii. Obsrvar que puede verse como una generalizaci´n o a e o natural del Teorema de Weyl 2.3.5 (que, de hecho, es lo que se usa en su prueba). La prueba, asombrosamente simple comparada con las que hist´ricamente la precedieron, necesita un o m´ınimo repaso: Si A ∈ H(n), se definen A+ = A+|A| y A− = |A|−A . Se probaba en la 2 2 Secci´n 3.3 que ambas est´n en Mn (C)+ , que A = A+ − A− y que para todo k ∈ In se tiene o a µk (A+ ) = m´x { µk (A) , 0 } a y µk (A− ) = − m´ ın{µn−k+1 (A), 0} . (5.12)
  • 115. 100 Mayorizaci´n de autovalores y valores singulares o Teorema 5.5.4 (Lidskii 3). Sean A, B ∈ H(n), k ∈ In y J ⊆ In con |J| = k. Entonces k k µj (A) + λi (B) ≤ µj (A + B) ≤ µj (A) + µi (B) . (5.13) j∈ J i=1 j∈ J j∈ J i=1 Demostraci´n. Probaremos, en principio, la desiguadad de la derecha en (5.13). Sin p´rdida o e de generalidad podemos suponer que µk (B) = 0. En efecto, si probaramos el resultado para B − µk (B)I (que cumple lo pedido) y A, podr´ıamos deducir inmediatamente la desigualdad de la derecha en (5.13), dado que µj (A + B) = µj (A + B − µk (B)I) + µk (B) y µi (B) = µi (B − µk (B)I) + µk (B) , para todo j ∈ J e i ∈ In (sobrar´ kµk (B) en ambos t´rminos, y se puede cancelar). Sea a e B = B+ − B− la descomposici´n de B en partes positiva y negativa descriptas en el repaso o previo (sino, ver la Eq. (3.5) ). Como µk (B) = 0, aplicando la Eq. (5.12) se tiene que k µj (B+ ) = m´x { µj (B) , 0 } , a para todo j ∈ In =⇒ tr(B+ ) = µj (B) . j=1 Por el teorema de Weyl, m´s especificamente el Corolario 2.3.7, el hecho de que a A + B ≤ A + B+ =⇒ µj (A + B) ≤ µj (A + B+ ) para todo j ∈ In . En consecuencia, µj (A + B) − µj (A) ≤ µj (A + B+ ) − µj (A) . j∈ J j∈ J Por el Corolario 2.3.7, tambi´n µj (A + B+ ) ≥ µj (A), para todo j ∈ In . Por lo tanto e n µj (A + B+ ) − µj (A) ≤ µj (A + B+ ) − µj (A) = tr(A + B+ ) − tr(A) j∈ J j=1 k = tr(B+ ) = µj (B) . j=1 Esto prueba la desiguadad de la derecha en la Eq. (5.13). La otra se deduce de la anterior, pero aplicada al conjunto J = {n − j + 1 : j ∈ J} y las matrices −A y −B. Se usa que µr (−C) = −µn−r+1 (C) = −λr (C) , para cualquier C ∈ H(n) y para todo r ∈ In . Observaci´n 5.5.5. Una formulaci´n equivalente del Teorema 5.5.4 que tambi´n se usa o o e mucho es la siguiente: Dadas A, B ∈ H(n), k ∈ In y J ⊆ In con |J| = k, se tiene que k µj (A) − µj (B) ≤ µi (A − B) ≤ µj (A) − λj (B) . (5.14) j∈ J i=1 j∈ J En efecto, basta aplicar la Eq. (5.13) a las matrices B y A − B, y pasar restando.
  • 116. 5.5 Teoremas de Lindskii y sus aplicaciones 101 Demostraci´n del Teorema de Lidskii 1. Usando la formulaci´n (5.14) del tercer Teorema de o o Lidskii, obtenemos   k   k ↓ µ(A) − µ(B) j = m´x a µj (A) − µj (B) ≤ µj (A − B) , (5.15) J⊆In   j=1 j∈ J j=1 |J|=k para todo k ∈ In . Como las trazas est´n bien, sale que µ(A) − µ(B) a µ(A − B). Demostraci´n del Teorema de Lidskii 2. Veamos en principio que, si k ∈ In , entonces o     k ↓ m´x a µj A − µj B = s(A) − s(B) j . J⊆I2n   j∈ J j=1 |J|=k En efecto, por la f´rmula (3.16) de Proposici´n 3.7.5, si j ∈ In se tiene que o o µj A − µj B = sj (A) − sj (B) y µ2n−j+1 A − µ2n−j+1 B = − sj (A) − sj (B) . Por otro lado, aplicando la f´rmula (5.15) o la (5.14) a A, B y a A − B = A − B, vemos que o     k k m´x a µj A − µj B ≤ µj A − B = sj (A − B) , J⊆I2n   j∈ J j=1 j=1 |J|=k k k ↓ y podemos concluir que s(A) − s(B) j ≤ sj (A − B) para todo k ∈ In . j=1 j=1 Corolario 5.5.6. Sean N una NUI en Mn (C) y A, B ∈ Mn (C). Entonces N Σ(A) − Σ(B) ≤ N (A − B) . Demostraci´n. Notar que s(Σ(A) − Σ(B) ) = |s(A) − s(B)|↓ . Por lo tanto el Teorema de o Lidskii 2 implica que Σ(A) − Σ(B) (k) ≤ A−B (k) para todo k ∈ In . Luego se aplica el Teorema 5.3.8. Corolario 5.5.7. Sean N una NUI en Mn (C) y A ∈ Gl (n). Sea U la unica matriz unitaria ´ tal que A = U |A| (i.e. U = A|A|−1 ∈ U(n)). Entonces dN (A, U(n) ) = N (A − U ) = N (Σ(A) − I) = gN (s(A) − 1) .
  • 117. 102 Mayorizaci´n de autovalores y valores singulares o Demostraci´n. Sea V ∈ U(n). Entonces Σ(V ) = I. Por el Corolario 5.5.6, tenemos que o N (A − V ) ≥ N (Σ(A) − I). Por otra parte, sea W ∈ U(n) tal que |A| = W Σ(A)W ∗ . Entonces A − U = U W Σ(A)W ∗ − U W W ∗ = U W (Σ(A) − I)W ∗ . Dado que N es una NUI, resulta que N (A − U ) = N (Σ(A) − I). Ejercicio 5.5.8. Sea Mn (C)1 el conjunto de matrices en Mn (C) de rango uno (o cero). Dada A ∈ Mn (C), llamemos Σ1 (A) = diag (0, s2 (A), . . . , sn (A)) . Probar que si N es una NUI, dN (A, Mn (C)1 ) = N (Σ1 (A)) y se alcanza en la matriz A1 = U W diag (s1 (A), 0, . . . , 0) W ∗ , donde A = U W Σ(A)W ∗ . Probar, aparte, que A1 no depende de la matriz U ∈ U(n) elegida para realizar la descomposici´n polar de A, pero s´ puede depender de W (si s1 (A) tiene o ı multiplicidad mayor que uno para |A|). Mostrar que otra manera de encontrar A1 es tomando A1 = s1 (A)x y = s1 (A)yx∗ , donde x es un vector unitario tal que Ax = A sp = s1 (A), e y = U x. Generalizar el resultado al conjunto de matrices de rango a lo sumo k. 5.6 Ejercicios Ejercicios del texto 5.6.1. Sea A ∈ H(n). Para cada k ∈ In , notamos Pk (n) = {P ∈ H(n) : P 2 = P y rk(P ) = k} y Uk (n) = {U ∈ Mn,k (C) : U ∗ U = Ik } . Probar que, para todo k ∈ In , se tiene que k µj (A) = m´x a tr P AP = m´x a tr U ∗ AU . P ∈Pk (n) U ∈Uk (n) j=1 5.6.2. Si A ∈ H(n) y σ (A) = {λ1 , . . . , λr } (todos distintos), entonces definiendo Pi como el proyector ortogonal sobre ker(A − λi I), i ∈ Ir , se obtiene un sistema de proyectores que r verifica que A = λi Pi . i=1 5.6.3. Dado un sistema de proyectores P = {P1 , . . . , Pr } en Mn (C), probar que se tiene la siguiente factorizaci´n de su pinching: o CP = CP1 ◦ CP2 ◦ · · · ◦ CPr , y lo mismo en cualquier otro orden entre los CPi .
  • 118. 5.6 Ejercicios 103 5.6.4. Sean A ∈ Mn (C) y P = {P1 , . . . , Pr } ⊆ Mn (C) un sistema de proyectores. Probar que ∗ CP (A) = 2−n UJ AUJ = 2−n UJ AUJ , J⊆ In J⊆ In donde cada UJ = Pk − Pk ∈ U(n). Deducir que CP (A) ∈ conv [{U AU ∗ : U ∈ U(n)}]. k∈J k∈J / 5.6.5. Dado un sistema de proyectores P en Mn (C) y una matriz A ∈ Mn (C), se tiene que CP (A) = A si y s´lo si A conmuta con todos los Pi de P. O sea, si A es diagonal de bloques. o 5.6.6. Probar que, dado un sistema de proyectores P en Mn (C), el operador pinching CP verifica las siguientes propiedades: 1. Es lineal, idempotente (i.e., CP ◦ CP = CP ) y R(CP ) es el subespacio de matrices que conmutan con todos los Pi , i ∈ Ir . 2. Reduce normas espectrales y preserva trazas (si no sale, ver la Proposici´n 5.4.9). o 3. Si A ∈ Mn (C) es autoadjunto (resp. positivo) entonces CP (A) es autoadjunto (resp. positivo). Por lo tanto, en general, CP (A∗ ) = CP (A)∗ . 5.6.7. Dados x, y, z, w ∈ Rn , todos ordenados en forma decreciente, probar que z w y x y =⇒ x + z y+w . ¿Es cierto si no estan ordenados? m m 5.6.8. Si A1 , . . . , Am ∈ H(n), probar que µ Ak µ(Ak ) . k=1 k=1 5.6.9. Hacer el Ejercicio 5.5.8 Normas d´bilmente unitariamente invariantes (NDUI’s) e Definici´n 5.6.10. Una norma N en Mn (C) es una NDUI si cumple que o N (A) = N (U AU ∗ ) para toda A ∈ Mn (C) y toda U ∈ U(n) . 5.6.11. Probar que las siguientes normas son NDUI’s. 1. El radio num´rico. e 2. N (A) = A + | tr A|. 3. N (A) = m(U AU ∗ )dU , donde m(·) una norma en Mn (C) y dU refiere a la medida U (n) de Haar (normalizada) de U(n).
  • 119. 104 Mayorizaci´n de autovalores y valores singulares o 5.6.12. Sea N una NDUI. Demostrar que 1. Dadas A, B ∈ Mn (C), si A B, entonces N (A) ≤ N (B). 2. Dado un sistema de proyectores P en Cn , se tiene que N (CP (A) ) ≤ N (A) para toda A ∈ Mn (C) . | tr A| 5.6.13. Probar que si N es una NDUI, entonces N (A) ≥ N (I). Si no sale a mano, n esperar hasta el Corolario 10.2.7. Ejercicios nuevos 5.6.14. Dadas A, B ∈ Mn (C)+ , mostrar que µ(A) · λ(B) µ(AB) µ(A) · µ(B) . Si s´lo tenemos que A, B ∈ H(n), entonces mostrar que o µ(A) , λ(B) ≤ tr AB ≤ µ(A) , µ(B) . 5.6.15. Dada A ∈ Mn (C), probar que 1. A (k) = m´ ın B 1 +k C sp :A=B+C . 2. Usar lo anterior para dar una nueva prueba del Teorema 5.5.3 (Lidskii 2), mostrando previamente que, dadas A, B ∈ H(n), (a) µ(A) − µ(B) ∞ ≤ A−B . (b) µ(A) − µ(B) 1 ≤ A−B 1 = A−B (n) . 3. Mostrar que el Teorema 5.5.3 implica el Teorema 5.5.1 (Lidskii 1). 5.6.16. Sea A ∈ H(n) 1. Sea S ⊆ Cn un subespacio de dimensi´n n − 1. Si AS = PS APS : S → S es el o comprimido de A a S, entonces: (a) µk (A) ≥ µk (AS ) ≥ µk+1 (A), para todo k ∈ In−1 . (b) Sea v1 , . . . , vn una BON adaptada a µ(A). a. Si v1 , . . . , vk ∈ S, entonces µi (A) = µi (AS ) para i ∈ Ik . b. Si vk , . . . , vn ∈ S, entonces µi−1 (AS ) = µi (A), k ≤ i ≤ n. 2. Probar el Teorema de Lidskii 3 (por inducci´n sobre n) usando el ejercicio anterior, y o considerando independientemente los casos: (a) ik < n ,
  • 120. 5.6 Ejercicios 105 (b) 1 < i1 , (c) i1 = 1, ik = n. 5.6.17. Sean A, B ∈ H(n). Entonces 1. µ(A) + λ(B) µ(A + B) µ(A) + µ(A). n 2. Dados x, y ∈ R , se tiene que x↓ − y ↓ x−y x↓ − y ↑ y x↓ + y ↑ x+y x↓ + y ↓ . Por lo tanto g(x↓ − y ↓ ) ≤ g(x − y) para toda f gs. 3. Si, para C ∈ H(n), llamamos Ed (C) = diag (µ(C)) y Ec (C) = diag (λ(C)), entonces N Ed (A) − Ed (B) ≤ N (A − B) ≤ N Ed (A) − Ec (B) y N Ed (A) + Ec (B) ≤ N (A + B) ≤ N Ed (A) + Ed (B) . 5.6.18 (Hoffman-Weilandt y agregados). Sean A, B ∈ Mn (C) matrices normales. Sean µ(A) y µ(A) sus vectores de autovalores en alg´n orden. u 1. Demostrar que existe una matriz doble estoc´stica D ∈ DS (n) tal que a 2 A−B 2 = |µi (A) − µj (B)|2 Dij . i,j 2. Probar la siguiente desigualdades: n n m´ ın |µi (A) − µσ(i) (B)|2 ≤ A − B 2 2 ≤ m´x a |µi (A) − µσ(i) (B)|2 . σ∈Sn σ∈Sn i=1 i=1 3. Sea B ∈ Mn (R) diagonal y definamos U(B) = {U BU ∗ : U ∈ U(n)} ⊂ H(n). Demostar que dada C ∈ Mn (C), la distancia d2 (C, U(B)) (calculada en norma 2, la de Frobenius), se realiza en una matriz diagonal D ∈ U(B). 5.6.19. Consideremos el pinching C : M2n (C) → Mn (C) ⊕ Mn (C) dado por X Y X 0 C = Z W 0 W B 0 1. Si A ∈ M2n (C)+ entonces: existe U ∈ U(2n) tal que C(U ∗ AU ) = si y solo si 0 C existe unitarios U1 , U2 ∈ U(2n) tales que ∗ B 0 ∗ 0 0 A = U1 U + U2 U . 0 0 1 0 C 2 Sugerencia: primero notar que C(U ∗ AU ) ≥ 0; representar a A como XX ∗ con cierta X ∈ M2n (C) y recordar que XX ∗ y X ∗ X son unitariamente equivalentes.
  • 121. 106 Mayorizaci´n de autovalores y valores singulares o 2. Usar lo anterior para probar que para A, B ∈ Mn (C)+ se tiene que (µ(A + B), 0) (µ(A), µ(B)) . A+B 0 A 0 0 In 0 0 0 In Sugerencia: verificar que = + . 0 0 0 0 In 0 B In 0 5.6.20. Probar que para cualquier A ∈ Mn,m (C) vale: sj (A) = m´x a m´ ın Ax = m´ ın m´x a Ax dim S=j x∈S, x =1 dim T =n−j+1 x∈T , x =1 para cualquier j ∈ In . 5.6.21. Para j ∈ {0} ∪ In , sea Rj = {T ∈ Mn,m (C) : rk(T ) ≤ j} . Mostrar que para cualquier j ∈ In , se tiene que sj (A) = m´ ın A−T . T ∈Rj−1 5.6.22. Mostrar que si A, H ∈ Mn,m (C), y H tiene rango k, entonces sj (A) ≥ sj+k (A + H) , para todo j ∈ In−k . 5.6.23. Mostrar que para cualquier A ∈ Mn,m (C) y para cada k ∈ In , vale k k sj (A) = m´x a Axj , yj , j=1 j=1 donde el m´ximo se toma sobre todas las k−uplas ortonormales x1 , . . . , xk e y1 , . . . , yk . a 5.6.24. Sea A ∈ H(n). 1. Demostrar que k k µj (A) = m´x tr(U AU ∗ ) a y λj (A) = m´ tr(U AU ∗ ) . ın U ∈Uk (n) U ∈Uk (n) j=1 j=1 2. Por otro lado, si A es positiva demostrar: k k µj (A) = m´x det(U AU ∗ ) a y λj (A) = m´ det(U AU ∗ ) . ın U ∈Uk (n) U ∈Uk (n) j=1 j=1 Recordar que Uk (n) = {U ∈ Mn,k (C) : U ∗ U = Ik } es el espacio de isometr´ de Ck en Cn . ıas
  • 122. 5.6 Ejercicios 107 5.6.25. Sean A, B ∈ Mn (C)+ . Probar que λ↓ (A) · λ↑ (B) λ(AB) λ↓ (A) · λ↓ (B). Si s´lo pedimos que A, B ∈ H(n), mostrar que o λ↓ (A), λ↑ (B) ≤ tr(AB) ≤ λ↓ (A), λ↓ (B) . 5.6.26. Sean N una NUI y A ∈ Mn (C). Probar que si µ(A) es el vector de los autovalores de A y Eig(A) = diag(µ(A) ) ∈ Mn (C), entonces N (Eig(A) ) = ´ { SAS −1 : S ∈ Gl (n)}. ınf ¿Qu´ matrices A verifican que el ´ e ınfimo es un m´ ınimo para toda NUI? Observar que la conclusi´n anterior no vale para cada NUI sola. Diga algunas en las que s´ vale y otras donde o ı no. 5.6.27 (Mayo conjunta). Dadas X, Y ∈ Mn,m (R) decimos que • Y s X si existe D ∈ DS (n) tal que DX = Y • Y p X si Y v Xv (mayorizaci´n usual en Rn ) para todo v ∈ Rm o • Y w X si existe D estoc´stica por filas tal que DX = Y . a Esta es una manera compacta de describir lo que podr´ ıamos llamar mayorizaci´n conjunta o (fuerte, puntual y d´bil) de m vectores de Rn ; a saber, las columnas de X y de Y . e 1. Probar que Y w X ⇐⇒ las filas de Y son combinaciones convexas de las de X. 2. Probar que s =⇒ p =⇒ w , pero no valen las rec´ ıprocas (el contraejemplo de p =⇒ s es opcional, porque es bastante complicadito). 3. Si n = 2 (solo dos filas, o mejor dicho, muchos vectores de R2 ), o m = n y las matrices son inversibles (esto significa “bases”), entonces s´ vale que p =⇒ s . ı 4. Supongamos que m = n y Y w X. Entonces | det X| ≥ | det Y |. Adem´s, si | det X| = a | det Y | = 0, entonces existe una matriz P ∈ Sn tal que Y = P X. Normas duales Definici´n 5.6.28. Sean Φ una norma en Cn y N una en Mn (C). Se definen sus normas o del siguiente modo: dados x ∈ Cn y A ∈ Mn (C), ponemos Φ (x) = sup | x, y | y N (A) = sup | tr(A∗ B)| . Φ(x)=1 |||B|||=1 Las normas duales aparecen como las normas de los operadores adjuntos de los vectores o matrices, cuando se los piensa como funcionales seg´n indica el siguiete ejercicio: u
  • 123. 108 Mayorizaci´n de autovalores y valores singulares o 5.6.29. 1. Sea φ una funcional lineal en Cn . Probar que existe un unico ´ x ∈ Cn tal que φ(y) = φx (y) = y, x , para todo y ∈ Cn . 2. Sea ϕ una funcional lineal en Mn,m (C). Probar que existe una unica ´ X ∈ Mn,m (C) tal que ϕ(A) = ϕX (A) = tr(X ∗ A) , para todo A ∈ Mmn (C) . Usando esas identificaciones, definir para las funcionales en Mn (C), las nociones de adjunta, autoadjunta y positiva, en funci´n de c´mo actua en las matrices. Despu´s comparar lo que o o e haya hecho con la Definici´n 8.3.1. o 5.6.30. Sean M una norma en Cn y N una en Mn (C). Ellas inducen normas en las funcionales lineales. Dados x ∈ Cn y X ∈ Mn (C), mostrar que M (x) = φx M = m´x |φx (y)| a y N (X) = ϕX N = m´x |ϕX (A)| . a M (y)=1 N (A)=1 5.6.31. Sean φ y Ψ normas en Cn , Demostrar: 1. | x, y | ≤ Φ(x)Φ (y) para todo x, y ∈ Cn . 2. Si Φ(x) ≤ cΨ(x) para cierto c > 0 y para todo x ∈ Cn , entonces, Φ ≥ c−1 Ψ 5.6.32. Mostrar que para toda norma Φ en Cn , Φ = Φ, es decir que es igual a la norma dual de su norma dual. 5.6.33. Sea Φ una funci´n gauge simetrica en Cn . o 1. Mostrar que Φ es tambien una fgs. 2. Sea NΦ la NUI en Mn (C) asociada a Φ. Probar que NΦ = NΦ . 5.6.34. Demostrar que 1 1 1. A p = A q , donde 1 ≤ p ≤ ∞ y p + q = 1. 2. La unica NUI que coincide con su dual es la norma 2. ´ 1 5.6.35. Dados k ∈ In y A ∈ Mn (C), probar que A (k) = m´x{ A a (1) , k A (n) }. 5.6.36. Sean p, q, r n´meros reales positivos tales que 1/r = 1/p + 1/q. u 1. Mostrar que para toda funci´n gauge sim´trica Φ se tiene que o e Φ(|x ◦ y|r )1/r ≤ Φ(|x|p )1/p Φ(|y|q )1/q . 2. Probar que para toda norma unitariamente invariante ||| · ||| se verifica que: ||||AB|r |||1/r ≤ ||||A|p |||1/p ||||B|q |||1/q .
  • 124. Cap´ ıtulo 6 Funciones mon´tonas y convexas o de operadores 6.1 C´lculo funcional a Notaciones: Diremos que un subconjunto I ⊆ R es un intervalo, cuando I es un conjunto convexo (i.e., si I es un intervalo abierto, semiabierto o cerrado; acotado, semirrecta o todo R). Dado un intervalo I ⊆ R, llamaremos HI (n) = A ∈ H(n) : σ (A) ⊆ I . Definici´n 6.1.1. Sea I ⊆ R un intervalo, y sea f : I → C una funci´n cualquiera. Fijada o o A ∈ HI (n), se define f (A) = P (A), donde P ∈ C[x] verifica que P (λ) = f (λ) para todo λ ∈ σ (A). La definici´n es buena, porque o si Q ∈ C[x] cumple lo mismo que P , entonces, por el Corolario 1.7.2, σ (P (A) − Q(A)) = σ ( (P − Q)(A)) = (P − Q)(σ (A) ) = {0}, y esto, dado que P (A) − Q(A) es normal, implica que P (A) = Q(A). Observaci´n 6.1.2. Sean I ⊆ R un intervalo, f : I → C una funci´n y A ∈ HI (n). Es f´cil o o a ver que, si A es diagonl, es decir A = diag (x) para cierto x ∈ I n ⊆ Rn , entonces f (A) = diag (f (x) ) . Y de esto puede deducirse que, si B ∈ HI (n) y U ∈ U(n) son tales que B = U diag (µ(B)) U ∗ =⇒ f (B) = U diag (f (µ(B) ) ) U ∗ .
  • 125. 110 Funciones mon´tonas y convexas de operadores o Otra manera de ver este c´lculo es la siguiente: Sea σ (A) = {λ1 , . . . , λk } (sin repetici´n). a o Llamemos Si = ker(A − λi I), y Pi a los proyectores ortogonales sobre Si , para i ∈ Ik . Luego P = {P1 , . . . , Pk } es un sistema de proyectores en H(n) (o sea que son autoadjuntos, ortogonales 2 a 2 y que suman I) que verifica que k k A= λi Pi . Entonces se tiene que f (A) = f (λi ) Pi . (6.1) i=1 i=1 Por otra parte, notar que este c´lculo no est´ bien definido en matrices que nos son autoadjun- a a 0 1 tas (en realidad, si no son normales). Por ejemplo, si A = , entonces los polinomios 0 0 P (t) = t y Q(t) = t2 coinciden en σ (A) = {0}, pero P (A) = A mientras que Q(A) = 0. Ejercicios 6.1.3. Verificar que el c´lculo funcional cumple las siguientes propiedades: Sean a I ⊆ R un intervalo, f, g : I → C dos funciones y A ∈ HI (n). Entonces 1. (f ± g)(A) = f (A) ± g(A) y f g(A) = f (A)g(A). 2. σ (f (A) ) = {f (λ) : λ ∈ σ (A)}. M´s a´n, µ(f (A) ) = f (µ(A) )↓ . a u 3. f (A) siempre es una matrix normal. 4. f (t) ∈ R para todo t ∈ I si y s´lo si f (A) ∈ H(n) para toda A ∈ HI (n). o 5. f (B) ≥ 0 para toda B ∈ HI (n) si y s´lo si f (t) ≥ 0 para todo t ∈ I. o 6. Si U ∈ U(n), entonces f (U AU ∗ ) = U f (A)U ∗ . 7. Si la matriz de A en alguna BON tiene la forma B 0 f (B) 0 A= , entonces f (A) = . 0 C 0 f (C) 8. Si una sucesi´n (fm )m∈N de funciones definidas en I convergen puntualmente a f , o entonces fm (B) − − → f (B) para toda B ∈ HI (n). −− m→∞ 9. Si tiene sentido la composici´n h ◦ f , entonces g ◦ f (A) = h(f (A) ). o Ejemplos 6.1.4. 1. Si f : R∗ → R esta dada por f (t) = t−1 , entonces f (A) = A−1 para toda A ∈ Gl (n)+ . + √ 2. Si A ∈ Mn (C)+ , entonces A1/2 = f (A), donde I = R+ , f (t) = t y A1/2 es la unica ´ raiz cuadrada positiva de A definida en la Proposici´n 3.1.3. o ∞ Am 3. Si A ∈ H(n), entonces eA := exp(A) = . m=0 m! 4. Si A ∈ Gl (n)+ , entonces existe B = log A, que es la unica matriz autoadjunta que ´ verifica la f´rmula eB = A. En efecto, B = log A est´ bien definida, y cumple que o a eB = A por 9 del Ejercicio 6.1.3. La unicidad se deduce de la f´rmula (6.1). o
  • 126. 6.1 C´lculo funcional a 111 6.1.1 Continuidad del c´lculo funcional a Proposici´n 6.1.5. Sea I un intervalo y f : I → R una funci´n. Entonces o o 1. HI (n) es un subconjunto convexo de H(n). 2. Si I es es un intervalo abierto, entonces HI (n) es abierto en H(n). 3. Si ε > 0 y g : I → R es otra funci´n tal que o f −g I, ∞ := sup |f (t) − g(t)| : t ∈ I < ε , entonces f (A) − g(A) < ε para toda A ∈ HI (n). 4. Si f es continua, dada una sucesi´n (Am )m∈N en HI (n) tal que Am − − → A ∈ HI (n), o −− m→∞ se tiene que f (Am ) − − → f (A). −− m→∞ Demostraci´n. o 1. Sean A, B ∈ HI (n). Dado λ ∈ [0, 1], el Teorema 5.1.6 asegura que x = µ λA + (1 − λ)B λµ(A) + (1 − λ)µ(B) = y . Por lo tanto xi ∈ [yn , y1 ] ⊆ I (porque I es convexo), para todo i ∈ In . 2. Sea A ∈ HI (n), y sea ε > 0 tal que (µn (A) − ε , µ1 (A) + ε) ⊆ I. Si B ∈ H(n) y A − B < ε, entonces, para todo x ∈ Cn con x = 1, se tiene que 2 Ax, x − Bx, x ≤ A − B x <ε. Luego, por el Teorema 2.3.1, deducimos que µn (A) − ε < µn (B) y µ1 (B) < µ1 (A) + ε , por lo que σ (B) ⊆ I. 3. Notar que σ (f (A) − g(A)) = (f − g) σ (A) y f (A) − g(A) = ρ(f (A) − g(A) ). 4. Sea (a, b) ⊆ R un intervalo abierto tal que σ (A) ⊆ (a, b) ∩ I ⊆ [a , b ] = J ⊆ I . Por el item 2, existe m0 ∈ N tal que Am ∈ H(a,b) (n) ∩ HI (n) ⊆ HJ (n), para todo m ≥ m0 . Por el teorema de Weierstrass (en el intervalo cerrado J), dado ε > 0, existe P ∈ C[x] tal que f − P J, ∞ < ε . Entonces, por el item 3, si m ≥ m0 , f (A) − f (Am ) ≤ f (A) − P (A) + P (A) − P (Am ) + P (Am ) − f (Am ) < 2 ε + P (A) − P (Am ) − − → 2 ε , −− m→∞ porque el resultado es claro para polinomios. Luego f (A) − f (Am ) − − → 0. −− m→∞
  • 127. 112 Funciones mon´tonas y convexas de operadores o Observaci´n 6.1.6. El item 1 de la Proposici´n 6.1.5 se puede generalizar de la siguiente o o forma: Dado un conjunto abierto V ⊆ C, el conjunto Mn (C)V = { A ∈ Mn (C) : σ (A) ⊆ V } es abierto. M´s a´n, el mismo resultado es cierto cambiando Mn (C) por L(H), para cualquier a u espacio de Hilbert H, a´n con dimesi´n infinita. La demostraci´n se deja como ejercicio. u o o Observaci´n 6.1.7. La noci´n de c´lculo funcional para autoadjuntos que hemos presentado, o o a es una traducci´n al caso matricial del c´lculo funcional continuo para operadores autoadjun- o a tos en espacios de Hilbert. Las unicas diferencias en el caso general son: ´ 1. Las funciones a evaluar deben ser continuas. 2. No existen, en general, polinomios que coincidan con una f dada en todo el espectro del operador elegido (o del intervalo I), por lo que se usa el teorema de Weierstrass para definir f (A) (la buena definici´n se prueba como en el item 2 de la Proposici´n 6.1.5). o o 3. La convergencia util entre funciones no es la puntual, sino la uniforme en compactos ´ (notar que coinciden en conjuntos finitos). Todos los dem´s resultados y ejercicios presentados en esta secci´n (salvo las menciones es- a o pec´ ıficas de vectores de autovalores, como la Observaci´n 6.1.2) son ciertos en el caso general, o con las mismas pruebas, luego de adaptarlas m´ ınimamente a operadores en espacios de Hilbert. La unica que necesita m´s cuidado es la identidad σ (f (A)) = f (σ (A)), que es f´cil para poli- ´ a a nomios, pero requiere argumentos especiales para funciones continuas en general. Tambi´n e son ciertos en general los resultados de las pr´ximas dos secciones, dado que las nociones de o monoton´ y convexidad de operadores se reducen al caso de matrices (siempre que valga para ıa matrices de cualquier tama˜o). n 6.1.2 Diferenciabilidad del c´lculo funcional a En la Proposici´n 6.1.5 hemos visto que, si I un intervalo y f : I → R una funci´n continua, o o entonces la aplicaci´n f : HI (n) → H(n) dada por A → f (A), A ∈ HI (n), es tambi´n continua. o e En caso de que I sea abierto y que f sea de clase C 1 , veremos que f es diferenciable, y mostraremos c´mo calcular sus derivadas direccionales. Sin embargo, como una demostraci´n o o completa de estos resultados necesita un desarrollo anal´ ıtico bastante extenso, solo daremos los enunciados y un esbozo de las demostraciones, dejando ciertos pasos t´cnicos sin demostrar. e Para una prueba completa de los resultados de esta secci´n, remitimos al Cap´ o ıtulo V del libro de Bhatia [3]. Daremos adem´s un resultado probado por Daleki˘ y Kre˘ [23], [24] (ver tambi´n [8] o a ıi ın e [3]), el cual provee una herramienta importante para derivar curvas de matrices producidas con el c´lculo funcinal, que puede interpretarse como una especie de regla de la cadena. a M´s adelante, este resultado nos permitir´ encontrar una caracterizaci´n de las denominadas a a o funciones mon´tonas de operadores. Para simplificar su enuciado usaremos el producto de o
  • 128. 6.1 C´lculo funcional a 113 Hadamard o de Schur de matrices, el cual ser´ estudiado con m´s detalle en el Cap´ a a ıtulo 8. Recordar (de la Secci´n 3.5) que, dadas A, B ∈ Mn,m (C), se define el producto de Hadamard o A ◦ B como la matriz A ◦ B = aij bij i∈I ∈ Mn,m (C) . n j∈Im Definici´n 6.1.8. Sea I un intervalo abierto de R y f : I → R una funci´n de clase C 1 . o o 1. Denotaremos por f [1] a la funci´n definida sobre I × I dada por o   f (y) − f (x) si x = y  y−x  [1] f (x, y) = .    f (x) si x = y A esta funci´n se la denomina primera diferencia dividida de f . o 2. Si D = diag (d1 , . . . , dn ) ∈ Mn (C) es una matriz diagonal, llamaremos f [1] (D) = f [1] (di , dj ) i,j∈In ∈ Mn (C) . Notationes: Recordemos que, dada g : U ⊆ Rn → Rm (U abierto), se dice que g es diferenciable en x0 ∈ U si existe una matriz Dgx0 ∈ Mmn (C) (llamada derivada o diferencial de g en x0 , y que debe tener las derivadas parciales de g en sus columnas) que cumple g(x0 + h) − g(x0 ) − Dgx0 · h −− 0 . −→ (6.2) h h→0 En tal caso se tiene que, para todo h ∈ Rn , la derivada direccional ∂ d g(x0 ) := g(x0 + th) = Dgx0 · h . ∂h dt t=0 Observar que si I es un intervalo abierto, entonces HI (n) es abierto en H(n), que es un R-espacio vectorial que identificaremos con un RM . Luego podemos aplicar las nociones anteriores, pero reemplazando x0 y h por matrices adecuadas. Teorema 6.1.9. Sean I ⊆ R un intervalo abierto y f : I → R una funci´n de clase C 1 . o Entonces su extensi´n f : HI (n) → H(n) es diferenciable en todo punto A ∈ HI (n). Si o tomamos coordenadas en las que A sea diagonal, se tiene que DfA (H) = f [1] A) ◦ H , para todo H ∈ H(n) . (6.3) Es decir que dados B ∈ HI (n) y U ∈ U(n) tales que A = U BU ∗ es diagonal, entonces DfB (H) = U ∗ f [1] A ◦ U HU ∗ U , para todo H ∈ H(n) , (6.4)
  • 129. 114 Funciones mon´tonas y convexas de operadores o Demostraci´n. Mostremos el resultado, en principio, para funciones polin´micas. En este o o contexto, por linealidad podemos asumir que f (x) = xm , para m ∈ N ∪ {0}. Observar que, m en tal caso, f [1] a, b = ak−1 bm−k para todo a , b ∈ R (incluso si a = b). Adem´s, a k=1 m d d DfA (H) = f (A + tH) = (A + tH)m = Ak−1 HAm−k . dt t=0 dt t=0 k=1 Si ahora usamos que A = diag (a1 , . . . , an ), nos queda lo que quer´ ıamos: m m DfA (H) = Ak−1 HAm−k = ak−1 am−k Hij i j = f [1] A) ◦ H . i,j∈In k=1 k=1 Luego, si f es un polinomio y B ∈ HI (n) no es diagonal, uno puede diagonalizar a B con una U ∈ U(n), derivar ah´ y desdiagonalizar. Usando que f (U (B + H)U ∗ ) = U f (B + H)U ∗ para ı todo H ∈ H(n) peque˜o (para que B + H ∈ HI (n) ), no es dif´ ver que n ıcil DfB (H) = U ∗ f [1] U BU ∗ ) ◦ U HU ∗ U , para todo H ∈ H(n) . (6.5) por el m´todo directo de calcular el cociente incremental, como en la Eq. (6.2). En particular, e el t´rmino de la derecha no depende de la U que diagonalice a B. e Sea ahora f una funci´n de clase C 1 en I. Usando el teorema de Weierstrass se puede o construir una sucesi´n (Pm )m∈N de polinomios que aproximan uniformemente tanto a f como o a f en cualquier subintervalo cerrado prefijado de J. Es f´cil ver que Pm [1] A) − − → f [1] A). a −− m→∞ Fijemos ahora H ∈ H(n) peque˜o, y U ∈ U(n) tal que A = U BU ∗ es diagonal. Llamemos n DfB (H) = U ∗ f [1] A) ◦ U HU ∗ U (para ese U ∈ U(n) fijo), al cadidato a derivada. Hay que mostrar que el cociente incremental f (B + H) − f (B) − DfB (H) 2 −− 0. −→ (6.6) H 2 H→0 Esto probar´ que f es diferenciable en B, que su derivada DfB (H) = DfB (H) (o sea que ıa (6.4) es cierta), que su f´rmula no depende del U elegido, y que se cumple la Eq. (6.3), para o el caso en que B ya era diagonal (tomando U = I). La prueba de (6.6) es una ardua acotaci´n, de la que s´lo mostraremos sus ideas principales. o o Se hace intercalando t´rminos que involucran a los polinomios Pm . En efecto, si uno fija un e ε > 0, encuentra un m ∈ N tal que tres cantidades: • f (B + H) − f (B) − (Pm (B + H) − Pm (B) ) 2 , • Pm (B + H) − Pm (B) − D(Pm )B (H) 2 y
  • 130. 6.2 Funciones mon´tonas de operadores o 115 • DfB (H) − D(Pm )B (H) 2 se pueden hacer menores que ε H 2 , siempre que H sea chico. Luego uno se olvida del m y queda que el cociente de (6.6) es menor que 3ε para un tal H. Observar que la tercera vale a partir de un m para todo H. La primera se puede hacer v´lida para todos los m grandes (y a para cualquier H tal que B + H ∈ HJ (n) ), por un argumento que depende del teorema del valor medio y de la convergencia de las matrices Pm [1] A) (m´s bien de que sean una sucesi´n a o de Cauchy). Finalmente, la segunda es la que pide H chico, tama˜o que depende del m, pero n este m se puede elegir de modo que se cumplan las otras dos. Corolario 6.1.10 (Daleki˘ y Kre˘ ıi ın). Sean I, J ⊆ R dos intervalos abiertos y consideremos un curva de clase C 1 γ : I → HJ (n). Sea f : J → R otra funci´n de clase C 1 . Entonces o 1. La curva que llamaremos f • γ : I → H(n) dada por f • γ(t) = f γ(t) , v´ el c´lculo ıa a funcional, es tambi´n de clase C 1 . e 2. Supongamos que γ(t0 ) = diag (a1 , . . . , an ) para cierto t0 ∈ I. Entonces se cumple la siguiente f´rmula: o (f • γ) (t0 ) = f [1] γ(t0 ) ◦ γ (t0 ) . (6.7) Demostraci´n. La suavidad de f • γ se deduce de la diferenciablidad de f : HJ (n) → H(n) o (y de la la suavidad de γ). La regla de la cadena y la f´rmula (6.7) se deducen tambi´n del o e Teorema 6.1.9, puesto que (f • γ) (t0 ) = Dfγ(t0 ) γ (t0 ) = f [1] γ(t0 ) ◦ γ (t0 ). 6.2 Funciones mon´tonas de operadores o Definici´n 6.2.1. Sea I ⊆ R un intervalo y f : I → R, una funci´n. Diremos que f es o o mon´tona de operadores (MOP) si, para todo n ∈ N y A, B ∈ HI (n), se tiene que o A≤B =⇒ f (A) ≤ f (B) . Notar que, tomando n = 1, se ve que f debe ser mon´tona en el sentido usual. o Ejemplos 6.2.2. 1. Dados a, b ∈ R, la funcion f (t) = a + bt es MOP si y s´lo si b ≥ 0. o 2. f (t) = t2 no es mon´tona de operadores (en ning´n intervalo I ⊆ [0, +∞) con m´s de o u a 1 1 2 1 un punto). En efecto, tomando A = yB= , se ve que A ≤ B, pero 1 1 1 1 2 2 5 3 A2 = ≤ = B2 . 2 2 3 2 El ejemplo se puede cambiar, de acuerdo al intervalo I, tomando C = aI + εA y D = aI + εB, para constantes a ∈ I◦ y ε > 0 convenientes. Notar que las entradas 2, 2 de C 2 y D2 siguen coincidiendo.
  • 131. 116 Funciones mon´tonas y convexas de operadores o 3. f (t) = −t−1 es MOP en I = (0, +∞). En efecto, si 0 < A ≤ B ∈ Mn (C)+ , entonces 0 < B −1/2 AB −1/2 ≤ I. Luego µ1 (B −1/2 AB −1/2 ) ≤ 1, o sea µn ((B −1/2 AB −1/2 )−1 ) ≥ 1 =⇒ (B −1/2 AB −1/2 )−1 = B 1/2 A−1 B 1/2 ≥ I , por lo que A−1 ≥ B −1 . Ejercicio 6.2.3. Probar que 1. La suma y la composici´n (cuando tenga sentido) de MOP´s es MOP. o a b 2. Dada una matriz M = ∈ M2 (R), con d = 0, definamos la funci´n o c d a + bt −c fM (t) = , t= . c + dt d Entonces fM es MOP en ( −c , +∞) si y s´lo si det M ≤ 0. Notar que d o b det M fM (t) = + . d cd + d2 t Por lo tanto, si det M < 0, entonces fM es composici´n de MOP´s. Pero si fM fuera o MOP y det M > 0, podr´ deducirse que t → 1/t es MOP. ıa Proposici´n 6.2.4. La funci´n f (t) = t1/2 es MOP en I = [0, +∞). o o Demostraci´n. Sean A, B ∈ Mn (C)+ tales que A ≤ B. Supongamos, en principio, que B > 0. o Entonces, por la Proposici´n 3.5.4, o 1 ≥ A1/2 B −1/2 sp ≥ ρ(A1/2 B −1/2 ) = ρ(B −1/4 A1/2 B −1/4 ) =⇒ I ≥ B −1/4 A1/2 B −1/4 . Por lo tanto B 1/2 ≥ A1/2 . Si B no es inversible, para cada ε > 0 se toma la matriz B +εI > 0. puntualmente Luego A1/2 ≤ (B + εI)1/2 para todo ε > 0. Como (t + ε)1/2 − − − − t1/2 = f (t), − − −→ ε→0 A1/2 x, x ≤ (B + εI)1/2 x, x − − B 1/2 x, x , −→ para todo x ∈ Cn . ε→0 Deducimos que A1/2 ≤ B 1/2 . Ejercicio 6.2.5. Rellenar los detalles de la siguiente prueba alternativa de la Proposici´n o 6.2.4, que se basa en un resultado del Cap´ıtulo 9: Suponemos que 0 < A < B. Entonces definimos la funci´n o C : [0, 1] → Gl (n)+ , dada por C(t) = A + t(B − A) , t ∈ [0, 1] . 1/2 Sea R(t) = C(t) , t ∈ [0, 1]. Entonces R(t)2 = C(t) =⇒ ˙ ˙ ˙ R(t)R(t) + R(t)R(t) = C(t) = B − A > 0 , t ∈ [0, 1] , donde el punto denota derivada respecto de t. Por la Observaci´n 9.1.5, como R(t) > 0 y o ˙ ˙ ˙ C(t) = S(R, R) > 0, entonces, R(t) > 0 para todo t ∈ [0, 1]. Luego R es creciente y, en particular, A1/2 = R(0) < R(1) = B 1/2 .
  • 132. 6.2 Funciones mon´tonas de operadores o 117 Teorema 6.2.6. Las funciones f (t) = tr son MOP’s en I = [0, +∞), para todo r ∈ [0, 1]. En otras palabras, si 0 ≤ A ≤ B ∈ Mn (C)+ , entonces Ar ≤ B r para todo 0 ≤ r ≤ 1. Demostraci´n. Supongamos, en principio, que 0 < A ≤ B ∈ Gl (n)+ y que r es di´dico, o a es decir que r = k/2m , para k ∈ I2m . En este caso probaremos, por inducci´n en m, que o Ar ≤ B r . En efecto, si m = 1, ya lo sabemos por la Proposici´n 6.2.4. o Si suponemos el hecho cierto para todo n´mero j/2m , tomemos r = k/2m+1 . Si k ≤ 2m , u entonces k/2m ≤ 1. Por la hip´tesis inductiva y la Proposici´n 6.2.4, se tiene que o o m m m m Ak/2 ≤ B k/2 =⇒ Ar = (Ak/2 )1/2 ≤ (B k/2 )1/2 = B r . Si k > 2m , usaremos que B −1 ≤ A−1 . Por tanto, B r A−1 B r ≥ B r B −1 B r = B 2r−1 . Luego, k − 2m como 0 < 2r − 1 = ≤ 1, por la hip´tesis inductiva tenemos que o 2m (A−1/2 B r A−1/2 )2 = A−1/2 B r A−1 B r A−1/2 ≥ A−1/2 B 2r−1 A−1/2 ≥ A−1/2 A2r−1 A−1/2 = A2(r−1) . Aplicando la Proposici´n 6.2.4, deducimos que A−1/2 B r A−1/2 ≥ Ar−1 , y por ello B r ≥ Ar . o Si r no es di´dico, tomemos una sucesi´n de di´dicos rm − − → r. Como las funciones a o a −− m→∞ puntualmente fm (t) = trm − − − − f (t) = tr , deducimos que B r ≥ Ar , tambi´n en este caso. − − −→ e m→∞ 1 1 Finalmente, si A > 0, como (A + m I)r ≤ (B + m I)r para todo m ∈ N y la funci´n t → tr es o continua, aplicando la Proposici´n 6.1.5 obtenemos que o 1 r 1 r Ar = lim A+ I ≤ lim B+ I = Br , m→∞ m m→∞ m lo que prueba la desigualdad en el caso general. Lema 6.2.7. Sea A ∈ Gl (n)+ . Entonces Ah − I lim = log A . h→0 h Demostraci´n. Observar que, para todo t ∈ (0, +∞), se verifica que o th − 1 eh log t −1 lim = lim = log t . h→0 h h→0 h th − 1 puntualmente Por lo tanto las funciones fh (t) = − − − − g(t) = log t en todo (0, +∞). Aplicando − − −→ h h→0 el item 8 del Ejercicio 6.1.3, se culmina la prueba. Proposici´n 6.2.8. La funci´n f (t) = log t es MOP en I = (0, +∞). En otras palabras, o o dados A ≤ B ambos en Gl (n)+ , se tiene que log A ≤ log B.
  • 133. 118 Funciones mon´tonas y convexas de operadores o Demostraci´n. Se deduce del Lema 6.2.7. En efecto, tomando h con valores en (0, 1), por el o Teorema 6.2.6 se tiene que Ah − I Bh − I log A = lim ≤ lim = log B . h→0+ h h→0+ h Para finalizar daremos una caracterizaci´n de las MOPs en terminos de la primera diferencia o dividida de f , la cual puede interpretarse como an´logo matricial al resultado cl´sico de a a c´lculo que dice que una funci´n de una variable real derivable es no-decreciente si y s´lo si a o o su derivada es no-negativa. Teorema 6.2.9. Sea I un intervalo abierto de R, f : I → R una funci´n de clase C 1 . o Entonces, las siguientes afirmaciones son equivalente: 1. f es MOP. 2. Para todo n ∈ N y toda matriz diagonal D ∈ HI (n), se tiene que f [1] (D) ∈ Mn (C)+ . Demostraci´n. 1 → 2. Sea D = diag (d1 , . . . , dn ) ∈ HI (n). Recordemos que por medio o de A ◦ B denotamos al producto de Hadamard, i.e., el producto entrada a entrada. Sea En = 1n 1∗ ∈ Mn (C)+ . Respecto a este producto, En se comporta como la identidad. Sea n γ : (−ε, ε) → H(n) dada por γ(t) = D + t En . Observar que para todo t ≥ 0 se tiene que D + t En ≥ D. Por la Proposici´n 6.1.5, σ (D + t En ) ⊆ I para valores peque˜os de t. Luego, o n para dichos valores de t, tiene sentido hacer f ◦ γ. M´s a´n, como f es de clase C 1 y γ es a u suave, podemos derivar la curva f ◦ γ, y por el Teorema 6.1.9 obtenemos d f (D + t En ) = DfD (En ) = f [1] (D) ◦ γ (0) = f [1] (D) ◦ En = f [1] (D) . dt t=0 Usando que En ∈ Mn (C)+ y que f es MOP, se tiene que el cociente incremental f (D + t En ) − f (D) ∈ Mn (C)+ , para todo t ∈ (−ε, ε) , t ımite. Por ende, f [1] (D) ∈ Mn (C)+ . lo cual se preserva al tomar l´ 2 → 1. Sean A, B ∈ HI (n) tales que A ≤ B, y definamos la curva γ(t) = (1 − t)A + tB, para t ∈ [0, 1]. Como HI (n) es convexo (Proposici´n 6.1.5), γ(t) ∈ HI (n) para todo t ∈ [0, 1]. o Luego, la nueva curva η(t) = f (γ(t) ) est´ bien definida. El primer paso ser´ probar que a a para todo t ∈ (0, 1) se tiene que η (t) ∈ Mn (C)+ . Para ello, fijemos un t ∈ (0, 1) cualquiera. Sin p´rdida de generalidad podemos suponer que γ(t) es diagonal (sino se conjuga con una e unitaria). Luego, por el Corolario 6.1.10 se tiene que η (t) = f [1] (γ(t) ) ◦ γ (t) = f [1] (γ(t) ) ◦ (B − A) ∈ Mn (C)+ , donde usamos que A ≤ B, que f [1] (γ(t) ) ∈ Mn (C)+ y luego el Teorema 2 de Schur 3.6.2 (producto ◦ de positivas es positiva). Ahora bien, fijemos x ∈ Cn . Por la linealidad de la
  • 134. 6.2 Funciones mon´tonas de operadores o 119 funci´n A → Ax, x se tiene que la funci´n g(t) = η(t)x, x es continua en el [0, 1], derivable o o en (0, 1). M´s a´n, g (t) = η (t)x, x para todo t ∈ (0, 1). Pero entonces, por lo que acabamos a u de ver, g es creciente en el [0, 1]. En consecuencia f (A)x, x = g(0) ≤ g(1) = f (B)x, x . Como x ∈ Cn es arbitrario, f (A) ≤ f (B), lo cual concluye la demostraci´n. o Para ilustrar como se utiliza esta caracterizaci´n para demostrar que una funci´n es mon´tona o o o de operadores, probaremos que la funci´n f (t) = tan(t) es MOP en el itervalo (−π, π). Para o ello, necesitaremos un par de lemas previos. Lema 6.2.10. Sea d = (d1 , . . . , dn ) ∈ Rn . Entonces la matricz Ke (d) = ei(dj −di ) ∈ Mn (C)+ . i,j∈In Demostraci´n. En efecto, si tomamos E = 1 1∗ ∈ Mn (C)+ (la matriz de cuyas entradas son o todas iguales a 1) y U = diag eid1 , . . . , eidn , entonces Ke (d) = U ∗ EU ∈ Mn (C)+ . Lema 6.2.11. Sea d = (d1 , . . . , dn ) ∈ Rn . Entonces la matriz sen(dj − di ) Ks (d) = ∈ Mn (C)+ , dj − di i,j∈In sen 0 donde, para abreviar notaciones, estamos aceptando la convenci´n de que o 0 = 1. Demostraci´n. Este lema se deduce del anterior si recordamos la siguiente identidad, la cual o puede testearse a mano muy facilmente: π sen a 1 = eiat dt para todo a ∈ R (incluso si a = 0) . (6.8) a 2π −π n sen(dj − di ) En efecto, dado x = (x1 , . . . , xn ) ∈ Cn se tiene que Ks (d) x, x = xi xj . i,j=1 dj − di Pero por la formula integral (6.8) y el lema anterior se tiene que n π n π sen(dj − di ) 2π xi xj = ei(dj −di )t xi xj dt = Ke (d) x, x dt ≥ 0 . i,j=1 dj − di −π i,j=1 −π Proposici´n 6.2.12. La funci´n f (t) = tan(t) es MOP en I = (−π/2 , π/2). o o Demostraci´n. Sea D = diag (d1 , . . . , dn ) ∈ HI (n) y la matriz de diferencias divididas o  tan(dj ) − tan(di ) si d = d  [1] i j tan (D)ij = dj − di . sec2 (di ) si di = dj 
  • 135. 120 Funciones mon´tonas y convexas de operadores o sen(x − y) Usando la identidad tan(x) − tan(y) = se tiene que cos(x) cos(y) 1 sen(dj − di ) 1 tan[1] (D)ij = = sec(D) Ks (d) sec(D)∗ ∈ Mn (C)+ , cos(di ) dj − di cos(dj ) i,j∈In por el Lema 6.2.11. Con esta informaci´n, el Teorema 6.2.9 garantiza que f (t) = tan(t) es o MOP en I = (−π, π). 6.3 Funciones convexas de operadores Recordemos que la Proposici´n 6.1.5 asegura que, si I ⊆ R es un intervalo, HI (n) es comvexo. o Definici´n 6.3.1. Sea I ⊆ R un intervalo y f : I → R, una funci´n. Diremos que f es o o convexa de operadores (∪OP) si, para todo n ∈ N, λ ∈ [0, 1] y A, B ∈ HI (n), se tiene f λA + (1 − λ)B ≤ λf (A) + (1 − λ)f (B) . (6.9) Notar que, tomando n = 1, se ve que f debe ser convexa en el sentido usual. Diremos que f es c´ncava de operadores (∩OP) si −f es ∪OP. o Observaci´n 6.3.2. Si f : I → R es continua, para verificar que es convexa de operadores, o es suficiente probar que A+B f (A) + f (B) f ≤ , 2 2 para todo par A, B ∈ HI (n) (y todo n ∈ N). En efecto, esta condicion implica que f cumple la Eq. (6.9) para todo λ di´dico en [0, 1]. Esto se prueba por inducci´n. Por ejemplo, a o A+B 1 3 A+B +B f 2 + f (B) 2 f A+ B =f ≤ 4 4 2 2 f (A)+f (B) 2 + f (B) 1 3 ≤ = f (A) + f (B) . 2 4 4 Como f es continua, la Proposici´n 6.1.5 dice que (6.9) se cumple para todo λ ∈ [0, 1]. o Ejemplos 6.3.3. 1. Dados a, b ∈ R, se tiene que la funcion f (t) = a + bt es ∪OP (y ∩OP). 2. f (t) = t2 s´ es ∪OP en [0, +∞). En efecto, dados A, B ∈ Mn (C)+ , se tiene que ı A2 + B 2 A+B 2 1 2 1 − = A + B 2 − AB − BA = (A − B)2 . 2 2 4 4 Como f es continua, esto prueba que es ∪OP.
  • 136. 6.3 Funciones convexas de operadores 121 3. f (t) = t3 no es ∪OP en [0, +∞). En efecto, una cuenta elemental muestra que, si 1 1 3 1 A3 + B 3 A+B 3 6 1 A= y B= entonces − = , 1 1 1 1 2 2 1 0 que no es positiva. Tampoco puede ser ∪OP en ning´n intervalo I ⊆ [0, +∞). u 4. f (t) = t−1 es ∪OP en I = (0, +∞). En efecto, si A, B ∈ Gl (n)+ , entonces A−1 + B −1 A+B −1 (A−1 − B −1 )(A−1 + B −1 )−1 (A−1 − B −1 ) − = ∈ Mn (C)+ . 2 2 2 En efecto, esto se deduce de la identidad 2(A + B)−1 = A−1 (A−1 + B −1 )−1 B −1 + B −1 (A−1 + B −1 )−1 A−1 . Como f es continua, lo que vimos muestra que es ∪OP. Ejercicio 6.3.4. Probar que 1. La suma y la composici´n (cuando tenga sentido) de ∪OP´s es ∪OP. o a b 2. Dada una matriz M = ∈ M2 (R), con d = 0, definamos la funci´n o c d a + bt −c fM (t) = , t= . c + dt d Entonces fM es ∪OP en I = ( −c , +∞) si y s´lo si det M ≥ 0 . Por otra parte, f es d o ∩OP en I si y s´lo si f es MOP en I si y s´lo si det M ≤ 0 . o o 3. Sea I ⊆ R un intervalo tal que 0 ∈ I. Sean f (t) = |t| y g(t) = t ∨ 0, t ∈ I. Entonces f no es ∪OP y g no es ∪OP ni MOP. Definici´n 6.3.5. Sean A ∈ Mn (C) y P ∈ H(n) un proyector con R(P ) = S. Llamaremos o compresi´n de A a S, al operador o AS : S → S dado por AS (x) = P A x , x∈S . Notar que AS = P AP S pensado en L(S). En coordenadas de una BON de Cn tal que la I 0 matriz de P en esa base sea P = , se tiene que 0 0 AS 0 AS 0 P AP = y CP (A) = , 0 0 0 AS ⊥ donde las matrices (grandes) viven, ahora, en Mn (C). Recordemos que, para cada k ∈ In , notamos Uk (n) = {U ∈ Mn,k (C) : U ∗ U = Ik }, es decir, el espacio de isometr´ de Ck en Cn . ıas
  • 137. 122 Funciones mon´tonas y convexas de operadores o Teorema 6.3.6. Sea I ⊆ R un intervalo y f : I → R, una funci´n. Son equivalentes: o 1. f es convexa de operadores. 2. Para todo n ∈ N y para todo sistema de proyectores P en H(n), se tiene que f CP (A) ≤ CP (f (A) ) para todo A ∈ HI (n) . 3. Dados n ∈ N, A ∈ HI (n) y S ⊆ Cn un subespacio, se tiene que f (AS ) ≤ f (A)S . 4. Dados k, n ∈ N tales que k ≤ n, A ∈ HI (n) y V ∈ Uk (n), se verifica que f (V ∗ AV ) ≤ V ∗ f (A)V . Demostraci´n. Antes que nada, observar que CP (A) ⊆ HI (n) por la Proposici´n 5.4.4 (o la o o Eq. (6.10) de abajo) y el hecho de que HI (n) es convexo. De ahi se deduce que, si dim S = k, entonces AS ∈ HI (k) y tiene sentido calcular f (AS ), incluso si 0 ∈ I. / 1 → 2. Como otras veces, por la Eq. (5.8), podemos suponer (s.p.g.) que trabajamos con un solo proyector P ∈ H(n). Observar que, dado A ∈ HI (n), se tiene que A + U AU ∗ CP (A) = , con U = 2P − I ∈ U(n) . (6.10) 2 Por lo tanto, si asumimos que f es ∪OP, entonces f (A) + f (U AU ∗ ) f (A) + U f (A)U ∗ f CP (A) ≤ = = CP f (A) . 2 2 2 → 3. Basta mirar los bloques 1, 1 de la desigualdad f CPS (A) ≤ CPS f (A) . 3 → 4. Llamemos S = R(V ) ⊆ Cn y P = PS . Entonces se tiene que V ∗ AV = V ∗ (P AP )V . Por lo tanto, si denotamos V0 : Ck → S, al mismo V correstringido a su imagen, tenemos que V0 es unitario y que V ∗ AV = V0∗ AS V0 ∈ HI (k). Adem´s a f (V ∗ AV ) = f (V0∗ AS V0 ) = V0∗ f (AS )V0 y V ∗ f (A)V = V0∗ f (A)S V0 , por lo que f (V ∗ AV ) ≤ V ∗ f (A)V ⇐⇒ f (AS ) ≤ f (A)S . A 0 4 → 1. Dados A, B ∈ HI (n), consideremos el operador T = ∈ HI (2n). Dado 0 B 1 λ In 2 λ ∈ [0, 1], sean µ = 1 − λ y V = 1 ∈ Un (2n). Una cuenta directa pueba que µ 2 In V ∗ T V = λA + µB y que V ∗ f (T )V = λf (A) + µf (B) , f (A) 0 usando que f (T ) = . Por todo ello, si f cumple 4, se tiene que 0 f (B) f λA + µB = f (V ∗ T V ) ≤ V ∗ f (T )V = λf (A) + µf (B).
  • 138. 6.3 Funciones convexas de operadores 123 Corolario 6.3.7. Sean A ∈ Gl (n)+ y P ∈ H(n), un proyector. Entonces 1. CP (A) ∈ Gl (n)+ y CP (A)−1 ≤ CP (A−1 ). 2. Si S = R(P ) entonces, AS −1 ≤ (A−1 )S . Es decir que, pensados como operadores en L(S), se tiene que (P AP )−1 ≤ P A−1 P. (6.11) Demostraci´n. Se deduce de que Gl (n)+ = H(0,+∞) (n) y del Teorema 6.3.6, dado que t → t−1 o es ∪OP en (0, +∞), como se ha observado en el Ejemplo 6.3.3.4. Observaci´n 6.3.8. Una versi´n m´s detallada de la desigualdad (6.11) se deduce de la o o a teor´ de complementos de Schur. En la Proposici´n 3.8.7 vimos que, si S = R(P ), ıa o a b S A= , =⇒ (A−1 )S −1 = (P A−1 P )−1 = a − bc−1 b∗ . b∗ c S⊥ En particular, tambi´n as´ se muestra que (P A−1 P )−1 ≤ a = AS . e ı Proposici´n 6.3.9. Sea I ⊆ R un intervalo tal que 0 ∈ I y sea f : I → R, una funci´n. o o Entonces son equivalentes: 1. f es convexa de operadores y f (0) ≤ 0. 2. Dados n ∈ N, A ∈ HI (n) y P ∈ H(n), un proyector, se cumple que f (P AP ) ≤ P f (A)P , pensados como matrices en Mn (C). Demostraci´n. Como 0 ∈ I, es f´cil ver que P AP ∈ HI (n). Sea S = R(P ). Entonces, en o a I 0 coordenadas de una BON de Cn tal que P = , se tiene que 0 0 AS 0 f (AS ) 0 P AP = =⇒ f (P AP ) = . 0 0 0 f (0)IS ⊥ Por otra parte, en la misma BON, f (A)S 0 P f (A)P = . 0 0 Por lo tanto, las condiciones 1 y 2 son equivalentes, por serlo 1 y 3 del Teorema 6.3.6 (es decir, que f (AS ) ≤ f (A)S para todo el mundo, equivale a que f sea ∪OP). Ejercicio 6.3.10. Sea I ⊆ R un intervalo tal que 0 ∈ I y sea f : I → R, una funci´n. Entonces o son equivalentes:
  • 139. 124 Funciones mon´tonas y convexas de operadores o 1. f es convexa de operadores y f (0) ≤ 0. 2. Dados n ∈ N, A ∈ HI (n), se cumple que f (C ∗ AC) ≤ C ∗ f (A)C. para todo C ∈ Mn (C) tal que C ≤ 1. 3. Dados n ∈ N, A, B ∈ HI (n) y C, D ∈ Mn (C) tales que C ∗ C + D∗ D ≤ I, se verifica f (C ∗ AC) + f (D∗ BD) ≤ C ∗ f (A)C + D∗ f (B)D. Se sugiere usar las matrices unitarias construidas en 3.7.9. Corolario 6.3.11. La funci´n f (t) = tr es ∪OP en I = [0, +∞), para todo r ∈ [1, 2]. o Demostraci´n. Como f (0) = 0, por la Proposici´n 6.3.9, bastar´ probar que o o ıa (P AP )r ≤ P Ar P , ∀ n ∈ N , A ∈ Mn (C)+ y P un proyector en H(n) . En efecto, como 0 ≤ P ≤ I, tenemos que 0 ≤ A1/2 P A1/2 ≤ A. Sea g(t) = tr−1 . Por el Teorema 6.2.6, g es MOP (porque 0 ≤ r − 1 ≤ 1). Luego (A1/2 P A1/2 )r−1 ≤ Ar−1 , por lo que r−1 P A1/2 A1/2 P A1/2 A1/2 P ≤ P A1/2 Ar−1 A1/2 P = P Ar P . Finalmente, observar que para todo k ∈ N ∪ {0} se tiene que k P A1/2 A1/2 P A1/2 A1/2 P = (P AP )k+1 . Por lo tanto, para todo polinomio Q ∈ C[x] vale la igualdad P A1/2 Q A1/2 P A1/2 A1/2 P = Q(P AP ) P AP . , De ah´ deducimos que una igualdad similar valdr´ para toda f : [0, +∞) → R (eligiendo un ı a Q ∈ C[x] que coincida con f en σ A1/2 P A1/2 = σ (P AP ) ). En particular, r−1 P Ar P ≥ P A1/2 A1/2 P A1/2 A1/2 P = (P AP )r . Proposici´n 6.3.12. Sea f : [0, +∞) → [0, +∞) una funci´n continua. Entonces se tiene o o que f es MOP si y s´lo si f es ∩OP ( i.e., −f es ∪OP ). o Demostraci´n. Supongamos que f es MOP, y sea S ⊆ Cn un subespacio. Notemos P = PS . o Como f (0) ≥ 0 por hip´tesis, usando la Proposici´n 6.3.9 bastar´ probar que o o ıa P f (A)P ≤ f (P AP ) , para toda A ∈ Mn (C)+ ,
  • 140. 6.3 Funciones convexas de operadores 125 ıamos deducir que −f es ∪OP. Para hacerlo, llamemos Q = I − P y ya que, en tal caso, podr´ P Q A 0 tomemos las matrices U = ∈ U(2n) y T = ∈ M2n (C)+ . Como se vi´o Q P 0 0 en 3.7.10, para todo ε > 0 existe λ > 0 tal que P AP P AQ P AP + εI 0 UTU = UTU∗ = ≤ . QAP QAQ 0 λI f (A) 0 f (A) 0 Como f (0) ≥ 0, se tiene que T = ≤ = f (T ) . Reemplazando 0 0 0 f (0)I T por T y usando que f es MOP, obtenemos que P f (A)P P f (A)Q f (P AP + εI) 0 = U T U ∗ ≤ U f (T )U ∗ = f (U T U ∗ ) ≤ . Qf (A)P Qf (A)Q 0 f (λ)I En particular, se cumple que P f (A)P ≤ f (P AP + εI) para todo ε > 0. Como f es continua, por la Proposici´n 6.1.5 se tiene que P f (A)P ≤ f (P AP ), como necesit´bamos. o a ıproca, tomemos A ≤ B ambos en Mn (C)+ . Para probar la rec´ λ Dado λ ∈ (0, 1), podemos escribir λB = λA + (1 − λ) (B − A) . 1−λ Si f es c´ncava (y con valores positivos), esto nos da que o λ f (λB) ≥ λf (A) + (1 − λ)f (B − A) ≥ λf (A) , para todo λ ∈ (0, 1) . 1−λ Tomando λ → 1− , del hecho de que f es continua podemos deducir que f (B) ≥ f (A). Corolario 6.3.13. Sea f (t) = tr , definida en I = [0, +∞). Si r > 1, f no es MOP. Demostraci´n. Si lo fuera, deber´ ser ∩OP. Pero, como funci´n escalar, es convexa. o ıa o Corolario 6.3.14. 1. Las funciones t → tr , para r ∈ (0, 1), son ∩OP en [0, +∞). 2. f (t) = log t es ∩OP en (0, +∞). Demostraci´n. La primera parte se deduce de los Teoremas 6.2.6 y 6.3.12. Para probar la o concavidad de operadores del logaritmo, fijemos un subespacio S de Cn . Dada A ∈ Gl (n)+ , por lo anterior sabemos que (Ar )S ≤ (AS )r , r ∈ (0, 1) . Luego, por el Lema 6.2.7, (AS )r − IS (Ar )S − IS log(AS ) = lim+ ≥ lim+ r→0 r r→0 r Ar − I n = lim = (log A)S . r→0+ r S Por el Teorema 6.3.6, deducimos que log es ∩OP.
  • 141. 126 Funciones mon´tonas y convexas de operadores o Observaci´n 6.3.15. El Teorema 6.3.6 da un criterio heur´ o ıstico para dilucidar qu´ funciones e crecientes pueden ser MOP’s: por lo menos deber´ ser c´ncavas de n´meros. Esto es ıan o u coherente con los ejemplos: tr para r ≤ 1, −t−1 , log t son todas c´ncavas. o Sin embargo hay que tener mucho cuidado. Porque el Teorema 6.3.6 pide que la f , adem´s a de tomar valores positivos, debe estar definida en toda la semirrecta [0, +∞), incluido el cero, y hasta el infinito. Esto se ve claramente mirando bien la prueba, porque uno hace tender ε a cero, por lo que λ se va a infinito, y uno necesita poder tomar f (λ). Y para demostrar la implicaci´n MOP =⇒ ∩OP, se usa tambi´n que exista f (0). (ejercicio: probar ∩OP =⇒ o e MOP para f no definida en 0. Ojo con B − A). Por ello el Teorema no se puede aplicar directamente a los ejemplos −t−1 y log t (para ver que log t es ∩OP hizo falta el razonamiento de reci´n, pasando por tr ). e Pero la cosa es m´s grave si el dominio de f se termina antes del infinito. Ah´ el criterio a ı heur´ıstico (que los autores difund´ıamos muy confiados hasta que fuimos despabilados por unos alumnos despiertos) es directamente err´neo. Para convencerse, basta recordar (de la o Proposici´n 6.2.12) que la funci´n f : [0, π/2) → [0, +∞) dada por f (t) = tan t es MOP, o o siendo a la vez convexa como funci´n num´rica en esa mitad de su dominio. o e 6.4 Ejercicios Ejercicios que aparecen en el texto 6.4.1. Verificar que el c´lculo funcional cumple las siguientes propiedades: Sean I ⊆ R un a intervalo, f, g : I → C dos funciones y A ∈ HI (n). Entonces 1. (f ± g)(A) = f (A) ± g(A) y f g(A) = f (A)g(A). 2. σ (f (A) ) = {f (λ) : λ ∈ σ (A)}. M´s a´n, µ(f (A) ) = f (µ(A) )↓ . a u 3. f (A) siempre es una matrix normal. 4. f (t) ∈ R para todo t ∈ I si y s´lo si f (A) ∈ H(n) para toda A ∈ HI (n). o 5. f (B) ≥ 0 para toda B ∈ HI (n) si y s´lo si f (t) ≥ 0 para todo t ∈ I. o 6. Si U ∈ U(n), entonces f (U AU ∗ ) = U f (A)U ∗ . 7. Si la matriz de A en alguna BON tiene la forma B 0 f (B) 0 A= , entonces f (A) = . 0 C 0 f (C) 8. Si una sucesi´n (fm )m∈N de funciones definidas en I convergen puntualmente a f , o entonces fm (B) − − → f (B) para toda B ∈ HI (n). −− m→∞ 9. Si tiene sentido la composici´n h ◦ f , entonces g ◦ f (A) = h(f (A) ). o
  • 142. 6.4 Ejercicios 127 6.4.2. Probar las siguientes afirmaciones. 1. Si f : R∗ → R esta dada por f (t) = t−1 , entonces f (A) = A−1 para toda A ∈ Gl (n)+ . + √ 2. Si A ∈ Mn (C)+ , entonces A1/2 = f (A), donde I = R+ , f (t) = t y A1/2 es la unica ´ raiz cuadrada positiva de A definida en la Proposici´n 3.1.3. o ∞ A Am 3. Si A ∈ H(n), entonces e := exp(A) = . m=0 m! 4. Si A ∈ Gl (n)+ , entonces existe B = log A, que es la unica matriz autoadjunta que ´ verifica la f´rmula eB = A. o 6.4.3. Completar los detalles de la demostraci´n del Teorema 6.1.9. En particular, con las o notaciones de all´ mostrar que dado ε > 0, existe m0 ∈ N tal que, para todo m ≥ m0 , ı, f (B + H) − f (B) − (Pm (B + H) − Pm (B) ) 2 ≤ε H 2 para todo H ∈ H(n) tal que B + H ∈ HJ (n) . Se sugiere acotar el incremento de la funci´n o Pk − Pm usando su diferencial en un punto intermedio del segmento entre B y B + H, y que esas diferenciales convergen uniformemente a cero. 6.4.4. Probar que 1. La suma y la composici´n (cuando tenga sentido) de MOP´s es MOP. o a b 2. Dada una matriz M = ∈ M2 (R), con d = 0, definamos la funci´n o c d a + bt −c fM (t) = , t= . c + dt d Entonces fM es MOP en ( −c , +∞) si y s´lo si det M ≤ 0. d o 6.4.5. Sea γ : [a, b] → H(n) una curva suave tal que γ(t) ∈ Mn (C)+ para todo t ∈ (a, b). ˙ Probar que γ es creciente, en el sentido de que t ≤ s =⇒ γ(t) ≤ γ(s), en el orden de H(n). En particular, deducir que γ(a) ≤ γ(b). Se suguiere chusmear el Teorema 6.2.9. 6.4.6. Rellenar los detalles de la siguiente prueba alternativa de la Proposici´n 6.2.4: o Supongamos que A < B, ambos en Gl (n)+ . Entonces definimos la funci´n o C : [0, 1] → Gl (n)+ , dada por C(t) = A + t(B − A) , t ∈ [0, 1] . Sea R(t) = C(t)1/2 , t ∈ [0, 1]. Entonces R(t)2 = C(t) =⇒ ˙ ˙ ˙ R(t)R(t) + R(t)R(t) = C(t) = B − A > 0 , t ∈ [0, 1] , donde el punto denota derivada respecto de t. Por la Observaci´n 9.1.5, como R(t) > 0 y o ˙ ˙ ˙ C(t) = S(R, R) > 0, entonces, R(t) > 0 para todo t ∈ [0, 1]. Luego R es creciente y, en particular, A1/2 = R(0) < R(1) = B 1/2 .
  • 143. 128 Funciones mon´tonas y convexas de operadores o 6.4.7. Probar que 1. La suma y la composici´n (cuando tenga sentido) de ∪OP´s es ∪OP. o a b 2. Dada una matriz M = ∈ M2 (R), con d = 0, definamos la funci´n o c d a + bt −c fM (t) = , t= . c + dt d Entonces fM es ∪OP en I = ( −c , +∞) si y s´lo si det M ≥ 0 . Por otra parte, f es d o ∩OP en I si y s´lo si f es MOP en I si y s´lo si det M ≤ 0 . o o 3. Sea I ⊆ R un intervalo tal que 0 ∈ I. Sean f (t) = |t| y g(t) = t ∨ 0, t ∈ I. Entonces f no es ∪OP y g no es ∪OP ni MOP. 6.4.8. Sea I ⊆ R un intervalo tal que 0 ∈ I y sea f : I → R, una funci´n. Entonces son o equivalentes: 1. f es convexa de operadores y f (0) ≤ 0. 2. Dados n ∈ N, A ∈ HI (n), se cumple que f (C ∗ AC) ≤ C ∗ f (A)C. (6.12) para todo C ∈ Mn (C) tal que C ≤ 1. 3. Dados n ∈ N, A, B ∈ HI (n) y C, D ∈ Mn (C) tales que C ∗ C + D∗ D ≤ I, se verifica f (C ∗ AC) + f (D∗ BD) ≤ C ∗ f (A)C + D∗ f (B)D. Se sugiere usar las matrices unitarias construidas en 3.7.9. Ejercicios nuevos 6.4.9. Mostrar que todas las definciones y propiedades del c´lculo funcional no necesitan que a el dominio de f sea un intervalo. En particular, verificar que si U ⊆ R es abierto, entonces 1. HU (n) := {A ∈ H(n) : σ(A) ⊆ U } es abierto en H(n). 2. Si f : U → R es C 1 , su extensi´n f : HU (n) → H(n) es diferenciable. o 3. El Teorema 6.1.9 y el Corolario 6.1.10 siguen siendo v´lidos en este contexto. a 6.4.10. Sea A ∈ H(n) y sea γ : (−1, 1) → H(n) una curva C 1 tal que γ(0) = A. Sea λ ∈ σ(A) una raiz simple de PA (x), y sea x0 ∈ ker(A − λI) un autovector unitario. Probar que existe un ε > 0 y una curva suave x : (−ε, ε) → Cn tal que
  • 144. 6.4 Ejercicios 129 1. x(0) = x0 . 2. x(t) es autovector de γ(t) para todo t ∈ (−ε, ε). 3. La funci´n (−ε, ε) o t → λ(t), que da el autovalor asociado a cada x(t), es suave. 4. Todos los λ(t) son autovectores simples de γ(t). −1 Mostrar, adem´s, que x(0) ≤ d (λ , σ(A) {λ} ) a ˙ γ(0) · x0 . ˙ Sugerencia: Tomar un abierto U ⊇ σ(A) que separe a λ del resto de σ(A), y definir all´ laı funci´n f que vale uno cerca de λ y cero en el resto de U . Tomar g(t) = f (γ(t) ), para los o t ∈ (−ε, ε) tales que γ(t) ∈ HU (n), observar que cada g(t) es un proyector autoadjunto de rango uno (por el Corolario 2.3.8) y usar la Eq. (6.1) para ver qu´ proyector es. Definir e entonces x(t) = g(t) · x0 . Para obtener λ(t), buscar una coordenada no nula de x0 y dividir ah´ (o tomar λ(t) = tr g(t)γ(t) ). Para acotar la norma, diagonalizar adecuadamente a A y ı luego usar el Corolario 6.1.10. cos t − sen |t| 1 + t2 0 6.4.11. Sean U (t) = y A(t) = U (t) U (t)∗ para t ∈ R. sen |t| cos t 0 1 − t2 Mostrar que la curva A(t) es suave cerca de 0, pero como A(0) = I tiene multiplicidades, no hay curvas suaves x(t) a valores en Rn que cumplan lo mismo que en el ejercicio anterior. Ojo: La curva x(t) = U (t)e1 no es suave, pero hay que ver que no puede haber otra suave. 6.4.12. Sea I ⊆ R un intervalo tal que 0 ∈ I y sea f : I → R, una funci´n tal que f (0) ≤ 0. o Entonces son equivalentes: 1. f es convexa (a secas, no pedimos ∪OP). 2. Dados n ∈ N y A ∈ HI (n), se cumple que f (C ∗ AC) w C ∗ f (A)C. para todo C ∈ Mn (C) tal que C sp ≤ 1. Comparar con la Eq. (6.12). Sugerencia: Probar que si f es convexa entonces f Ax, x ≤ f (A)x, x para todo vector unitario x y toda matriz A ∈ HI (n). 6.4.13. Sea I ⊆ R un intervalo tal que 0 ∈ I y sea f : I → R, una funci´n convexa creciente o tal que f (0) ≤ 0. Dados n ∈ N y A ∈ HI (n), probar que para todo i ∈ In se verifica que λi (f (C ∗ AC) ) ≤ λi (C ∗ f (A)C) . donde C ∈ Mn (C) es una contracci´n. Dar un contraejemplo si la funci´n no es creciente. o o Sugerencia: Usar minimax. 6.4.14. Sea C ∈ Mn (C) una contracci´n y A ∈ Mn (C)+ . Demostrar que dados r, s ∈ R o tales que 1 ≤ r ≤ s, entonces (C ∗ Ar C)1/r ≤ (C ∗ As C)1/s .
  • 145. 130 Funciones mon´tonas y convexas de operadores o 6.4.15. Sea A, B ∈ Mn (C)+ , r ∈ (1, +∞) y α ∈ [0, 1]. Probar que 1 1 1 (Ar + B r ) r ≥ α1− r A + (1 − α)1− r B . 1 Sugerencia: Analizar separadamente los casos α = 0 o 1 y α ∈ (0, 1). Usar que t → t r es tanto MOP como ∩OP. Si no sale, chusmear el Lema 9.5.3. 6.4.16. Sean A, B ∈ Mn (C)+ . Probar que la funci´n o 1 Ap + B p p [1 , +∞) p −→ 2 es creciente, relativa al orden ≤ de Mn (C)+ . Sugerencia: Dados r, q ∈ [1 , +∞) tales que r < q, aplicar el ejercicio anterior para los n´meros u q r = r > 1 y α = 1 . Si no sale, chusmear la Proposici´n 9.5.6. 2 o
  • 146. Cap´ ıtulo 7 Productos tensoriales y alternados 7.1 Producto tensorial de a dos Comenzaremos fijando ciertas convenciones de notaci´n adecuadas para esta teor´ o ıa: 1. Para cada n ∈ N, llamaremos Hn = Cn con el producto interno usual. Denotaremos (n) (n) por e1 , . . . , en a los vectores de la base can´nica de Hn . o 2. Llamaremos Hn ⊗ Hk al espacio de funcionales F : Hn × Hk → C bilineales (i.e., lineales en cada coordenada), pensado como C-espacio vectorial de la forma natural. (n) (k) 3. Dada F ∈ Hn ⊗ Hk , le asociamos la matriz F = F (ei , ej ) ∈ Mn,k (C). Luego n k F (x, y) = xi yj Fij = xT F y , x ∈ Hn , y ∈ Hk . i=1 j=1 Esto muestra que podemos identificar naturalmente Hn ⊗ Hk con Mn,k (C). 4. Esto permite, ademas, definir el producto interno natural en Hn ⊗ Hk . Dadas F, G ∈ Hn ⊗ Hk , las identificamos con sus matrices en Mn,k (C), definimos F, G = tr G∗ F = Fij Gij . (7.1) (i,j)∈In ×Ik 5. Dados x ∈ Hn e y ∈ Hk , notaremos por x ⊗ y ∈ Hn ⊗ Hk , al llamado tensor elemental, dado por x ⊗ y(u, v) = u, x v, y , u ∈ Hn , v ∈ Hk . (7.2)
  • 147. 132 Productos tensoriales y alternados Observar que u, x v, y = xT u · y T v = uT xy T v. Por lo tanto, la matriz de x ⊗ y es xy T ∈ Mn,k (C) . Por lo tanto, no toda F ∈ Hn ⊗ Hk es elemental, pero s´ sucede que ı toda F es suma de tensores elementales, porque las matrices del tipo xy T son todas las de rango uno. Observar que la aplicaci´n o Hn × Hk (x, y) −→ x ⊗ y ∈ Hn ⊗ Hk es bilineal. Adem´s, a partir de la Eq. (7.1), vemos la f´rmula a o x ⊗ y , u ⊗ v = tr (uv T )∗ xy T = tr u∗ x · y T v = x, u · y, v , (7.3) para x, u ∈ Hn , y, v ∈ Hk . 6. Se puede deducir que el conjunto (n) (k) En,k = {ei ⊗ ej : i ∈ In , j ∈ Ik } ∼ {Eij ∈ Mn,k (C) : i ∈ In , j ∈ Ik } es una base ortonormal de Hn ⊗ Hk , que llamaremos base can´nica. La consideraremos o ordenada alfab´ticamente (ley´ndola por f ilas). e e 7. Dados A ∈ L(Hn ) y B ∈ L(Hk ), podemos definir el operador A ⊗ B ∈ L(Hn ⊗ Hk ), a trav´s de la f´rmula A ⊗ B(F ) = AF B T , para F ∈ Hn ⊗ Hk , pensado como una matriz e o en Mn,k (C). En particular, A ⊗ B(x ⊗ y) Axy T B T = (Ax) · (By)T Ax ⊗ By , x ∈ Hn , y ∈ Hk . Observar que esta ecuaci´n no define a A ⊗ B en todos los elementos de Hn ⊗ Hk , pero o s´ lo caracteriza completamente (por ser lineal). ı 8. El producto tensorial de matrices verifica las siguientes propiedades: (a) Sean In ∈ Mn (C) y Ik ∈ Mk (C). Entonces In ⊗ Ik es la identidad de Hn ⊗ Hk . (b) (αA1 + A2 ) ⊗ B = α(A1 ⊗ B) + A2 ⊗ B, para todo α ∈ C. (c) (A ⊗ B)∗ = A∗ ⊗ B ∗ . (d) (A1 ⊗ B1 )(A2 ⊗ B2 ) = A1 A2 ⊗ B1 B2 . (e) Si existen A−1 y B −1 , entonces A−1 ⊗B −1 = (A⊗B)−1 . En particular, si A ∈ U(n) y B ∈ U(k), entonces A ⊗ B ∈ U(nk). (f) A ⊗ B ≥ 0 si A ≥ 0 y B ≥ 0. M´s a´n, |A ⊗ B| = |A| ⊗ |B|. Se usa el Teorema a u 3.1.3 y la unicidad de la raiz cuadrada positiva. Observaci´n 7.1.1. Dados A ∈ L(Hn ) y B ∈ L(Hk ), la matriz de A ⊗ B en la base can´nica o o de Hn ⊗ Hk (ordenada por filas) es el llamado producto de Kronecker de A y B que se define como la matriz por bloques   a11 B . . . a1n B A⊗B =  . .. . .  ∈ M (C) . .  (7.4) . . . nk an1 B ... ann B
  • 148. 7.2 Potencias tensoriales 133 La verificaci´n es sumamente tediosa, pero podemos dar un esbozo: La base canonica de o Hn ⊗ Hk se ordena as´ ı: (n) (k) (n) (k) (n) (k) (n) (k) (k) (k) e1 ⊗ e1 , . . . , e1 ⊗ ek , e2 ⊗ e1 , . . . , e2 ⊗ ek , . . . . . . , en ⊗ e1 , . . . , e(n) ⊗ ek (n) n . (n) (k) Luego, el vector ei ⊗ er se ubica en el lugar k(i − 1) + r de la base can´nica. Fijemos o un par i, j ∈ In . Como el bloque de k × k ubicado en el jugar (i, j) involucra las filas entre k(i − 1) + 1 y ki, y a las columnas k(j − 1) + 1 y kj, se escribe (n) (n) (n) (n) A ⊗ B(ej ⊗ e(k) ) , ei s ⊗ e(k) r = Aej , ei · Be(k) , e(k) s r r,s∈Ik = aij B , r,s∈Ik como se afirmaba. Proposici´n 7.1.2. Sean A ∈ Mn (C) y B ∈ Mm (C). Si los autovalores de A son la n-upla o {λ1 , ..., λn }, y los de B son {µ1 , ..., µm }, entonces los autovalores de A ⊗ B son { λ(i,j) }(i,j)∈In ×Im , donde λ(i,j) = λi µj , todos contados con multiplicidad. Demostraci´n. Aplicando el Teorema 1 de Schur 1.6.1, si A = U T1 U ∗ y B = V T2 V ∗ , con o U, V unitarias y T1 , T2 triangulares superiores, entonces A ⊗ B = U ⊗ V · T1 ⊗ T2 · (U ⊗ V )∗ , por lo que σ (A ⊗ B) = σ (T1 ⊗ T2 ) (con multiplicidades). Por la representaci´n matricial de o T1 ⊗ T2 como producto de Kronecker (que queda tambi´n triangular superior, pero con los e productos λi µj en su diagonal), se obtiene la igualdad anunciada. Corolario 7.1.3. Sean A ∈ Mn (C) y B ∈ Mm (C). 1. A ⊗ B sp = A sp · B sp . 2. M´s a´n, los valores singulares de A ⊗ B son a u s(A ⊗ B) = { si (A)sj (B) }(i,j)∈In ×Im contados con multiplicidad, y ordenados en forma decreciente. Demostraci´n. Se sigue de que |A ⊗ B| = |A| ⊗ |B| y de la Proposici´n 7.1.2. o o 7.2 Potencias tensoriales Una cuenta muy engorrosa, aunque elemental, muestra que se tiene un isomorfismo natural entre (Hn ⊗ Hk ) ⊗ Hr y Hn ⊗ (Hk ⊗ Hr ), identificando a ambos con las funciones trilineales en Hn × Hk × Hr . La clave es observar que, dados x ∈ Hn , y ∈ Hk y z ∈ Hr , a los
  • 149. 134 Productos tensoriales y alternados tensores elementales (x ⊗ y) ⊗ z & x ⊗ (y ⊗ z) se los puede identificar con la misma funcional trilineal, por una f´rmula semejante a (7.2). Es decir, que el producto tensorial es asociativo. o Esto permite definir productos de varios espacios, sin necesidad de aclarar el orden en que se los define. Lamentablemente, en ese contexto se pierde la representaci´n de las funciones o multilineales como matrices, a menos que se quiera pensar en matrices de muchas dimensiones. Usaremos particularmente la asociatividad para definir potencias, en el sentido tensorial, de un mismo espacio Hn , y de operadores en Hn . Damos, a continuaci´n, el listado de notaciones o y resultados que se siguen naturalmente (y que se prueban planarmente por inducci´n usando o lo anterior y la asociatividad): 7.2.1. Sean n, k ∈ N. k 1. Notaremos Hn , llamado espacio k-tensorial sobre Hn , al producto tensorial de Hn k por s´ mismo k veces. Los elementos de ı Hn se pueden pensar como funcionales k k-multilineales F : Hn → C. 2. Dados x1 , · · · , xk ∈ Hn , se define el k-tensor elemental x1 ⊗ x2 · · · ⊗ xk por la f´rmula o k x1 ⊗ · · · ⊗ xk (u1 , · · · , uk ) = ui , xi , (u1 , · · · , uk ) ∈ Hk . n (7.5) i=1 k Luego todo elemento de Hn es suma de k-tensores elementales. k 3. El producto interno sobre Hn , definido inductivamente en todo par de elementos k de Hn , est´ determinado por el producto de k-tensores: a k x1 ⊗ x2 · · · ⊗ xk , y1 ⊗ y2 · · · ⊗ yk = xi , yi , (7.6) i=1 para x1 , . . . , xk , y1 , . . . , yk ∈ Hn . k 4. La aplicaci´n Hk o n (x1 , . . . , xk ) → x1 ⊗ · · · ⊗ xk ∈ Hn es k-multilineal. k 5. La base can´nica ortonormal de o Hn es, por definici´n, o e(n) ⊗ e(n) ⊗ · · · ⊗ e(n) : α = (α1 , α2 , · · · , αk ) ∈ Ik . α1 α2 αk n k Luego dim Hn = n k . k k k 7.2.2. Todo operador A : Hm → Hn induce un operador de A : Hm → Hn , llamado potencia k-tensorial de A, determinado por la f´rmula o k A (x1 ⊗ x2 · · · ⊗ xk ) = Ax1 ⊗ Ax2 ⊗ · · · ⊗ Axk , (7.7) para x1 , . . . , xk ∈ Hm . Se tienen las siguientes propiedades:
  • 150. 7.3 Productos alternados y determinantes 135 a. Dados A ∈ L(Hm , Hn ) y B ∈ L(Hn , Hr ), k k k (AB) = A· B. (7.8) k k b. ( A)∗ = A∗ . k k k c. Si A ∈ Gl (n), entonces A−1 = ( A)−1 . En particular A es unitaria si A ∈ U(n). k d. Si A ∈ Mn (C)+ , entonces A ≥ 0, porque A = C ∗ C para alg´n C ∈ Mn (C), y u ⊗k A = (⊗k C)∗ ⊗k C. k k e. M´s generalmente, si A ∈ Mn (C), se tiene que | a A| = |A|. f. Si los autovalores de A son λ1 , . . . , λn , los autovalores (resp. valores singulares) de k A son k k λij : (i1 , . . . , ik ) ∈ Ik n resp. sij (A) : (i1 , . . . , ik ) ∈ Ik n , j=1 j=1 contados con multiplicidad. En particular se tiene que k k ρ A = ρ(A)k y A sp = A k sp . 7.3 Productos alternados y determinantes Sea Sk el grupo sim´trico de grado k, esto es el grupo de todas la permutaciones de Ik . Cada e (n) k π ∈ Sk da lugar a un operador linear Pπ ∈ U( Hn ), por la siguiente f´rmula: Si pensamos o k a los elementos de Hn como funcionales k- multilineales F : Hk → C, se define n (n) Pπ (F ) (x1 , x2 , · · · , xk ) = F (xπ(1) , xπ(2) , · · · , xπ(k) ) , (x1 , x2 , · · · , xk ) ∈ Hk . n (7.9) Dados x1 , . . . , xk ∈ Hn , es f´cil ver, usando la f´rmula (7.5), que a o (n) Pπ (x1 ⊗ x2 · · · ⊗ xk ) = xπ−1 (1) ⊗ xπ−1 (2) · · · ⊗ xπ−1 (k) . (7.10) (n) Observaci´n 7.3.1. El hecho de que Pπ sea unitario se puede probar mostrando primero o (n) ∗ (n) que (Pπ ) = Pπ−1 (esto puede hacerse usando solo los k-tensores elementales). Despues, (n) (n) ah´ si por definici´n, se ve que Pπ−1 = (Pπ )−1 . ı o Definiremos a continuaci´n las nociones b´sicas de productos alternados o a
  • 151. 136 Productos tensoriales y alternados Definici´n 7.3.2. Sea n ∈ N y k ∈ In . Llamaremos espacio k-alternado (o k-´simo Grass- o e k mann) sobre Hn , al subespacio de Hn dado por k Λk Hn = F ∈ (n) Hn : Pπ F = sgn(π) F para toda π ∈ Sk , donde sgn(π) = ±1 de acuerdo a si π es una permutaci´n par o impar. Los elementos de o Λk Hn se llaman k-tensores alternados. Se considera a Λk Hn como un espacio de Hilbert con k el producto interno de Hn . k Observaci´n 7.3.3. Notaremos por Pn a la proyecci´n ortogonal de o k o Hn sobre Λk Hn . Es f´cil ver que Pn est´ dada por la f´rmula a k a o 1 Pn = k (n) sgn(π) Pπ . (7.11) k! π∈ Sk (n) k (n) (n) (n) En efecto, como cada Pπ ∈ U( Hn ), entonces (Pπ )∗ = (Pπ )−1 = Pπ−1 . Por lo tanto n ∗ (Pk ) = Pk , ya que al adjuntarlo tan solo se reordena la suma (se usa sgn(π −1 ) = sgn(π) ). n Por otro lado, como para todo par σ, π ∈ Sk se tiene que (n) (n) (n) sgn(σπ) = sgn(σ) sgn(π) y Pσπ = Pσ Pπ , podemos deducir que R(Pn ) ⊆ Λk Hn . Finalmente, es claro, a partir de la definici´n de k o Λk Hn , que Pn (F ) = F para toda F ∈ Λk Hn . k Definici´n 7.3.4. Dados x1 , . . . , xk ∈ Hn , se define el k-tensor alternado elemental : o 1 x1 ∧ x2 · · · ∧ xk := Pn (x1 ⊗ x2 . . . ⊗ xk ) = k sgn(π) xπ(1) ⊗ xπ(2) · · · ⊗ xπ(k) , k! π∈ Sk tambi´n llamado producto alternado de la k-upla ordenada x1 , x2 . . . , xk . e Observaci´n 7.3.5. Enumeraremos aqu´ algunas propiedades de los k-tensores elementales: o ı k k 1. Notar que, como Λk Hn = Pn k Hn , y los k-tensores elementales generan Hn , podemos asegurar que los k-tensores alternados elementales generan Λk Hn . 2. Usando el ´ ıtem 5 de 7.2.1 y el hecho de que Pn es lineal, podemos deducir que la k aplicaci´n (x1 , . . . , xk ) → x1 ∧ · · · ∧ xk es k-multilineal. o 3. Por otra parte, dados x1 , x2 . . . , xk ∈ Hn y π ∈ Sk , se sigue de las definiciones que xπ(1) ∧ xπ(2) ∧ · · · ∧ xπ(k) = sgn(π) x1 ∧ x2 · · · ∧ xk . (7.12) En resumen, (x1 , . . . , xk ) → x1 ∧ · · · ∧ xk es una aplicaci´n k-multilineal alternada. o 4. De la f´rmula (7.12) puede deducirse que, si existen xi = xj con i = j, entonces o x1 ∧ · · · ∧ xk = 0 (usando la transposici´n τ = (i, j) ∈ Sk , cuyo sgn(τ ) = −1). o 5. M´s a´n, esto implica que si el conjunto {x1 , . . . , xk } es linealmente dependiente, su a u produco alternado debe ser nulo. xEsto se usar´ en la subsecci´n siguiente. a o
  • 152. 7.3 Productos alternados y determinantes 137 Productos alternados y el determinante En los cap´ ıtulos anteriores se hizo uso libre de la funci´n determinante o Mn (C) A → det A ∈ C , y de sus conocidas propiedades. Dar una exposici´n completa y formal de dichos resultados o es algo que uno siempre trata de evitar, porque es un asunto complicado y poco amigable. Sin embargo, con la teor´ de productos alternados a mano, esto est´ bastante cerca, por lo que ıa a trataremos de dar las dos definiciones usuales, mostrar su equivalencia, y dar pruebas de sus propiedades m´s importantes. Por lo tanto, en esta secci´n supondremos que nos olvidamos lo a o que sabemos (y hemos usado) al respecto. Empecemos por una de las definiciones. Asumimos conocida cierta teor´ b´sica de grupos de permutaciones, como hemos hecho hasta ahora. ıa a Definici´n 7.3.6. Sea A = (aij )i,j∈In ∈ Mn (C). Definimos su determinante por la f´rmula o o n det A = sgn(σ) aj,σ(j) ∈ C . (7.13) σ∈ Sn j=1 Con la misma f´rmula se define el determinante de matrices a coeficientes en cualquier anillo o (como en C[X], lo que se usa para definir el polinomio caracter´ ıstico de una matriz). 7.3.7. A continuaci´n enumeraremos una serie de propiedades que se siguen f´cilmente de o a esta definici´n del determinante. Las pruebas que no est´n escritas deben considerarse como o e ejercicios: Sea A ∈ Mn (C). 1. det AT = det A y det A∗ = det A. Ac´ se usa solamente que sgn(σ −1 ) = sgn(σ). a n 2. det I = 1, ya que el sumando Ij,σ(j) = 0 para toda σ = Id. j=1 3. Si todas las diagonales de A tienen alg´n cero (en el sentido de la Definici´n 4.3.2), u o entonces det A = 0. Por ejemplo (usando el Teorema 4.3.3) esto sucede si existe una submatriz nula de tama˜o k × r con k + r > n. n 4. En particular, si exite alguna Fi (A) = 0 (o bien una columna), entonces det A = 0. 5. Dada σ ∈ Sn y Pσ ∈ UP (n) su matriz de permutaci´n asociada, entonces se tiene que o det Pσ = sgn(σ). Esto sale por que la unica diagonal sin ceros de Pσ es la producida ´ por la misma σ, como se ve en la Eq. (4.4). 6. Si T ∈ T S(n), entonces det T = Tii . Esto se ha usado sistem´ticamente en los a i∈In cap´ıtulos anteriores, y se lo justific´ “desarrollando” por la primera columna. Eso no o es incorrecto (ver el Ejercicio 7.5.11 o la Eq. (12.13) ), pero sale m´s directo con la a Definici´n 7.3.6, porque la unica diagonal sin ceros de T (si es que hay una) es la o ´ producida por σ = Id.
  • 153. 138 Productos tensoriales y alternados 7. La funci´n Mn (C) A → det A ∈ C es continua (m´s a´n, es de clase C ∞ ), debido a o a u que es un polinomio de grado n en los coeficientes de A. Para dar la segunda definici´n y probar las principales propiedades del determinante, necesi- o tamos desarrollar un poco la teor´ de productos alternados. La relaci´n clave entre estos y ıa o la f´rmula (7.13) para el determinante es lo siguiente: o Proposici´n 7.3.8. Sean x1 , . . . , xk , y1 , . . . , yk ∈ Hn . Entonces o 1 x1 ∧ x2 ∧ · · · ∧ xk , y1 ∧ y2 ∧ · · · ∧ yk = det xi , yj i,j∈Ik . (7.14) k! Demostraci´n. Es consecuencia de la ecuaci´n Eq. (7.6), por la Definici´n 7.3.6 para el o o o determinante. En efecto, si D = x1 · · · ∧ xk , y1 ∧ · · · ∧ yk , entonces 1 1 D = sgn(π)xπ(1) ⊗ · · · ⊗ xπ(k) , sgn(σ)yσ(1) ⊗ · · · ⊗ yσ(k) k! k! π∈Sk σ∈Sk k 1 = sgn(π) sgn(σ) xπ(i) , yσ(i) como sgn(σ) = sgn(σ −1 ), (k!)2 i=1 π,σ∈Sk k 1 = sgn(πσ −1 ) xπσ−1 (j) , yj tomando j = σ(i) (k!)2 j=1 π,σ∈Sk k 1 1 = sgn(γ) xγ(j) , yj = det xi , yj i,j∈Ik , k! j=1 k! γ∈Sk donde la pen´ltima igualdad surge de considerar la aplicaci´n Sk ×Sk → Sk dada por (σ, π) → u o γ = π −1 σ. Notar que cada γ ∈ Sk es imagen de k! elementos, a saber, los de la forma (πγ, π), parametrizados por π ∈ Sk . Potencia alternada de una matriz Observaci´n 7.3.9. Por las ecuaciones (7.7) y (7.10), si A ∈ L(Hm , Hn ), su k-potencia o (n) (m) tensorial “mezcla” Pπ y Pπ en el siguiente sentido: k k (n) (m) Pπ A = A Pπ para toda π ∈ Sk . k Entonces, por la f´rmula (7.11), o A mezcla las proyecciones Pn y Pm : k k k k Pn k A = A Pm . k (7.15) k Por lo tanto A Λk Hm ⊆ Λk Hn .
  • 154. 7.3 Productos alternados y determinantes 139 k Definici´n 7.3.10. Sea A ∈ L(Hn , Hm ). La restricci´n de o o A al espacio alternado Λk Hn es llamada la k-potencia exterior de A, y denotada por Λk A ∈ L(Λk Hn , Λk Hm ) . Por la Eq. (7.7) y la Observaci´n 7.3.5, la k-potencia exterior Λk A est´ determinada por la o a f´rmula: o Λk A (x1 ∧ x2 ∧ · · · ∧ xk ) = Ax1 ∧ Ax2 ∧ · · · ∧ Axk , (7.16) para toda k-upla x1 , . . . , xk en Hn . Observaci´n 7.3.11. Si In es la identidad de Hn , entonces Λk In = IΛk Hn . Por otra parte, o se sigue de (7.8) o de (7.16) que, si A ∈ L(Hn , Hm ) y B ∈ L(Hm , Hr ), entonces Λk (AB) = Λk A · Λk B y (Λk A)∗ = Λk A∗ . (7.17) k Cuando n = m, i.e. A ∈ L(Hn ), la Eq. (7.15) dice que Λk Hn reduce a A, por lo que se k Λk A 0 Λk Hn tiene una identidad matricial del tipo A= ⊥ . De ahi se deducen 0 ∗ Λk Hn f´cilmente las siguientes propiedades: a a. Si A ∈ Gl (n), Λk A−1 = (Λk A)−1 . b. Λk A es unitaria si A ∈ U(n). c. Λk A ≥ 0 si A ≥ 0. Adem´s |Λk A| = Λk |A|. a Definici´n 7.3.12. o 1. Sea n ∈ N y k ∈ In . Notamos por Qk,n al conjunto de sucesiones estrictamente crecientes de k enteros elegidos en In : Qk,n = α = (α1 , α2 , · · · , αk ) ∈ Ik : 1 ≤ α1 < α2 < · · · < αk ≤ n n . Otra manera de verlo es Qk,n = J ⊆ In : |J| = k , si pensamos a los conjuntos J ordenados en forma creciente. Luego |Qk,n | = n . “ ” k 2. Sean A ∈ Mn,m (C), α ∈ Qk,n y β ∈ Ql,m . Entonces denotaremos por A[α|β] a la submatriz de k × l de A dada por A[α|β] = Aαi βj ∈ Mk,l (C) . (i,j)∈Ik ×Il Cuando α = β, A[α|β] se abreviar´ como A[α]. Si α = In (resp. β = Im ), notaremos a A[α|β] = A[−|β] (resp. A[α|β] = A[α|−]). 3. Dada α ∈ Qk,n , usaremos la abreviaci´n: o e∧ = e(n) α α ∧ := eα1 ∧ eα2 ∧ · · · ∧ e(n) ∈ Λk Hn . (n) (n) αk A continuaci´n veremos que forman una BON de Λk Hn . o
  • 155. 140 Productos tensoriales y alternados Proposici´n 7.3.13. El conjunto o √ Ek,n = { k! e∧ : α ∈ Qk,n } ∧ α (7.18) n es una BON de Λk Hn . Por lo tanto, tenemos que dim Λk Hn = |Qk,n | = “ ” k . ∧ Demostraci´n. El hecho de que Ek,n genera Λk Hn se deduce de los ´ o ıtems 1, 2 y 3 de la Observaci´n 7.3.5 (la Eq. (7.12) permite ordenar las coordenadas). Por otro lado, si α, β ∈ o Qk,n no son iguales, es f´cil ver que la matriz eαi , eβj i,j∈I debe tener una fila nula (la de a k alg´n αi ∈ β). Luego, por la Proposici´n 7.3.8 y el ´ u / o ıtem 4 de 7.3.7, se tiene que e∧ , e∧ = 0. α β ∧ Finalmente, como det Ik = 1, llegamos a que Ek,n es una BON. Proposici´n 7.3.14. Sea A ∈ Mn,m (C). Identifiquemos Λk A ∈ L(Λk Hm , Λk Hn ) con su o ∧ ∧ matriz en las bases Ek,m y Ek,n . Dados α ∈ Qk,n y β ∈ Qk,m , se tiene que Λk A α,β = det A[α|β] . (7.19) Demostraci´n. De acuerdo a las ecuaciones (7.14) y (7.18), se tiene que o √ (m) √ (m) (n) Λk A α,β = Λk A k! eβ , k! eα (n) = k! Λk A eβ , eβ = det Aeβj , eαi i,j∈Ik = det A[α|β] , donde la ultima igualdad se sigue de que Aeβj , eαi = Aαi βj . ´ Determinantes Miremos qu´ es Λn Hn , o sea el caso k = n. Como In es el unico elemento de Qn,n , la e √ √ ´ ∧ Proposici´n 7.3.13 asegura que el vector en = n! eIn = n! e1 ∧ e2 ∧ · · · ∧ en es una BON de o Λn Hn . O sea que Λn Hn = C · en . Dados x1 , . . . , xn ∈ Hn , si tomamos la matriz X ∈ Mn (C) dada por Fi (X) = xi , queda √ n! x1 ∧ x2 ∧ · · · ∧ xn = det X · en . (7.20) En efecto, si abreviamos a = x1 ∧ · · · ∧ xn , entonces a = a, en · en . Ah´ podemos aplicar ı la Proposici´n 7.3.8, ya que xi , ej = Xij , para todo par i, j ∈ In . o La f´rmula (7.20) es la segunda definici´n para el det X, en el sentido de que X → det X o o es la unica funci´n n-multilineal alternada (en las filas de X) tal que det In = 1 (esto vale ´ o porque la matriz X asociada a e1 ∧ · · · ∧ en es X = In ). La Proposici´n 7.3.8 muestra que es o equivalente a la de diagonales y permutaciones. Si en la Proposici´n 7.3.14 consideramos el caso k = n = m, e identificamos L(Λn Hn ) con C o (v´ zI → z), tenemos que ıa Λn A = det A para toda A ∈ Mn (C) . (7.21) Observar que esto brinda un camino directo para probar la igualdad det AB = det A · det B, que no se ve tan f´cil v´ la Definici´n 7.3.6. a ıa o
  • 156. 7.3 Productos alternados y determinantes 141 Proposici´n 7.3.15. Sean A, B ∈ Mn (C), Entonces se tiene que o 1. det AB = det A · det B. 2. det A = 0 si y s´lo si A ∈ Gl (n). o 3. Gl (n) es abierto y denso en Mn (C). Demostraci´n. Lo primero se deduce de que Λn AB = Λn A · Λn B v´ la f´rmula (7.21). Si o ıa o A ∈ Gl (n), tenemos que det A · det A−1 = det In = 1 = 0. Si A ∈ Gl (n), entonces sus / columnas deben ser un conjunto linealmente dependiente (porque ker A = {0}). Luego se aplica la Eq. (7.20) y el ultimo punto de la Observaci´n 7.3.5 a la matriz AT , y el hecho de ´ o que det A = det AT , como asegura 7.3.7. Como A → det A es continua, el item 2 implica que Gl (n) = det−1 {z ∈ C : z = 0} es abierto en Mn (C). La densidad podr´ probarse usando ıa la multilinealidad de A → det A, pero sale m´s f´cil viendo que, para cualqueir A ∈ Mn (C), a a existen matrices A + εI ∈ Gl (n) para ε arbitrariamente peque˜o. n Corolario 7.3.16. Sean k, n ∈ N. 1. Un conjunto {x1 , x2 , . . . , xk } ⊆ Hn es linealmente independiente si y s´lo si el producto o alternado x1 ∧ x2 ∧ · · · ∧ xk = 0. 2. El espacio Λk Hn = {0} si y s´lo si k ≤ n. o Demostraci´n. Sea X ∈ Mn,k dada por Ci (X) = xi , i ∈ Ik . Luego {x1 , x2 , . . . , xk } es o linealmente independiente si y s´lo si ker X = {0}. Esto, a su ves, equivale a que X ∗ X ∈ Gl (k) o (porque ker X ∗ X = ker X). Pero, por la Proposici´n 7.3.8, tenemos que o X ∗X = xj , xi i,j∈Ik = xi , xj i,j∈Ik =⇒ det X ∗ X = k! x1 ∧ x2 ∧ · · · ∧ xk 2 . Luego aplicamos la Proposici´n 7.3.15. La segunda parte se deduce inmediatamente de la o primera, porque en Hn puede haber, a lo sumo, n vectores linealmente independientes. Observaci´n 7.3.17. Recordemos que, si A ∈ Mn,m (C) decimos que o rkA = dim R(A) = dim Gen {C1 (A), . . . , Cm (A)} , es el rango columna de A. Como Λk A (e∧ ) = Cα1 (A) ∧ · · · ∧ Cαk (A), para todo α ∈ Qk,m , el α Corolario 7.3.16 muestra que rk A = m´x{k ∈ N : Λk A = 0} a (7.22) (ver tambi´n el Corolario 7.4.3 de m´s adelante). Usando que Λk A∗ = (Λk A)∗ , la f´rmula e a o (7.22) da otra prueba de que rk A∗ = rk A. El siguiente resultado generaliza la Proposici´n 7.3.15 a determinantes de submatrices: o
  • 157. 142 Productos tensoriales y alternados Corolario 7.3.18 (F´rmula de Cauchy-Binnet). Dadas A ∈ Mn,r (C) y B ∈ Mr,m (C) , sea o k ≤ m´ ın{n, r, m}. Luego, para cada par α ∈ Qk,n , β ∈ Qk,m se tiene que det(AB)[α|β] = det A[α|ω] det B[ω|β] . (7.23) ω∈Qk,r Demostraci´n. Por la ley de multiplicaci´n (7.17) y la Proposici´n 7.3.14, tenemos que o o o det(AB)[α|β] = (Λk AB)αβ = Λk A · Λk B αβ k k = Λ A αω Λ B ωβ ω∈Qk,r = det A[α|ω] det B[ω|β] , ω∈Qk,r lo que prueba lo afirmado. Observaci´n 7.3.19. La versi´n m´s cl´sica de la F´rmula de Cauchy Binnet es la siguiente: o o a a o Sean A ∈ Mk,r (C) y B ∈ Mr,k (C) , con k ≤ r. Luego, det AB = det A[−|ω] det B[ω|−] , (7.24) ω∈Qk,r que resulta de operar con todas las submatrices cuadradas de tama˜o m´ximo de A (eligiendo n a columnas) y de B (eligiendo las mismas filas). Es claro que (7.24) se deduce del Corolario 7.3.18. Tambi´n vale la rec´ e ıproca, porque dadas A y B como en el Corolario 7.3.18, las matrices A0 = A[α, −] ∈ Mk,r (C) y B0 = B[−, β] ∈ Mr,k (C) cumplen que A0 B0 = (AB)[α|β] , A0 [−|ω] = A[α|ω] y B0 [ω|−] = B[ω|β] , ω ∈ Qk,r ; por lo que (7.23) para A y B se reduce a (7.24) para A0 y B0 . Proposici´n 7.3.20. Sean A, B ∈ Gl (n)+ y λ ∈ [0, 1]. Entonces o det λA + (1 − λ)B ≥ (det A)λ (det B)1−λ . Es decir, la aplicaci´n Gl (n)+ o A → log det A es c´ncava. o Demostraci´n. Sea C = B −1 A. Como σ (C) = σ B −1/2 AB −1/2 (con multiplicidades), o ∗ podemos llamar µ(C) = µ(B −1/2 AB −1/2 ) ∈ R+ n . Adem´s, a det λA + (1 − λ)B = det B λB −1 A + (1 − λ)I = det B det λC + (1 − λ)I . Luego basta probar que det λC + (1 − λ)I ≥ (det A)λ (det B)1−λ det B −1 = (det A)λ (det B)−λ = (det C)λ .
  • 158. 7.4 Propiedades utiles de los productos alternados ´ 143 En otras palabras, basta ver que n n λµi (C) + 1 − λ ≥ µi (C)λ . i=1 i=1 Finalmente, veremos que λµi (C) + 1 − λ ≥ µi (C)λ para cada i ∈ In , con lo cual el resultado quedar´ probado. En efecto, dado c > 0, la funci´n f (t) = ct es convexa en todo R. Notar ıa o que f (0) = 1 y f (1) = c. Por lo tanto λc + 1 − λ = λf (1) + (1 − λ)f (0) ≥ f (λ1 + (1 − λ)0) = f (λ) = cλ . Aplicando lo anterior a cada c = µi (C), obtenemos el resultado. Ejercicio 7.3.21. 1. Sea H ∈ Gl (n)+ (en principio real). Entonces, πn = e− Hx,x dx . det H Rn Para probarlo, hacer un cambio de variables y = U x, para U ∈ U(n) tal que U HU ∗ = 2 diag (µ(H)). Como U es unitaria, la integral no cambia. Luego usar que Rn e−at dt = π 1/2 a−1/2 . De paso, esto prueba que e− Hx,x es integrable en Rn (notar que el cambio de variables manda bolas en bolas). ¿Vale lo mismo para matrices complejas? 2. Probar la Proposici´n 7.3.20 usando lo anterior (y la desigualdad de H¨lder ! ). o o 7.4 Propiedades utiles de los productos alternados ´ El siguiente resultado, si bien es algo t´cnico, es la llave para la caracterizaci´n completa de e o los autovalores de un producto alternado: Lema 7.4.1. Sea T ∈ T S(n), con los n´meros λ1 , . . . , λn en su diagonal. Sea k ∈ In . u ∧ 1. En t´rminos de la BON Ek,n de la Eq. (7.18), ordenada lexicogr´ficamente, la matriz e a de Λk T es, tambi´n, triangular superior. e 2. Para cada J ∈ Qk,n , se tiene que (Λk T )JJ = λi . i∈ J Demostraci´n. Sean I, J ∈ Qk,n tales que I > J. Debemos probar que o (Λk T )IJ = det T [I, J] = 0 , donde la primea igualdad sabemos que es cierta por la Proposici´n 7.3.14. Si I = (α1 , · · · , αk ) o y J = (β1 , . . . , βk ) (vectores ordenados en forma creciente), debe existir alg´n j ∈ Ik tal que u αj > βj (sino valdr´ que I ≤ J en el lexicogr´fico). Por lo tanto, ıa a αi > βr para todo par (i, r) tal que 1≤r≤j≤i≤k .
  • 159. 144 Productos tensoriales y alternados Como T ∈ T S(n), tenemos que Tαi βr = 0 para todos esos pares. Es decir que T [I, J] tiene una submatriz nula de tama˜o (k − j + 1) × j. Aplicando K¨nig-Frobenius (Corolario 4.3.3), n o deducimos que T [I, J] no tiene ninguna diagonal sin ceros. Esto implica que det T [I, J] = 0, como se afirm´. Por otra parte, si J ∈ Qk,n , por la Proposici´n 7.3.14 sabemos que o o (Λk T )JJ = det T [J] = λi , i∈ J puesto que T [J] ∈ T S(k). Teorema 7.4.2. Sea A ∈ Mn (C) con vector de autovalores λ(A) = (λ1 (A), . . . , λn (A) ). Sea k ∈ In . Entonces los autovalores de Λk A est´n dados por a λJ (Λk A) = λi (A) , J ∈ Qk,n , i∈ J contados con multiplicidad. Demostraci´n. Es similar al caso de los productos tensoriales (Proposici´n 7.1.2). Se aplica el o o Teorema 1 de Schur 1.6.1 y el hecho de que Λk U es unitaria si U ∈ U(n), pero usando ahora el Lema 7.4.1. Corolario 7.4.3. Sea A ∈ Mn (C). Sea k ∈ In . Entonces los valores singulares de Λk A son s Λk A = sJ Λk A J∈Qk,n = si (A) J∈Qk,n , i∈ J contados con multiplicidad, y ordenados en forma decreciente. Adem´s, si ordenamos a los a autovalores λ1 (A), . . . , λn (A) de A con m´dulos decrecientes, se tiene que o k k ρ Λk A = |λi (A)| y Λk A sp = s1 Λk A = si (A) . i=1 i=1 Demostraci´n. Se deduce del Teorema 7.4.2 y del hecho de que Λk A = Λk |A|. o A continuaci´n veremos algunas propiedades funtoriales de los productos alternados, que ser´n o a necesarias para las aplicaciones a desigualdades. Proposici´n 7.4.4. Sea A ∈ Mn (C) y k ∈ In . o 1. Si Am − − → A, entonces Λk Am − − → Λk A. −− −− m→∞ m→∞ 2. Si A ∈ Mn (C)+ entonces, para todo r ∈ R+ se tiene que (Λk A)r = Λk (Ar ) . 3. Si A es alguna de estas cosas:
  • 160. 7.5 Ejercicios 145 a. Idempotente (i.e., A2 = A), b. Proyector (i.e., A2 = A = A∗ ), c. Isometr´ parcial (i.e., AA∗ y A∗ A son proyectores), ıa d. Autoadjunto, normal o unitario, entonces Λk A es del mismo tipo. 4. Si A = U |A| es una DP de A, entonces Λk A = Λk U Λk |A| (7.25) es una descomposici´n polar de Λk A. o Demostraci´n. o 1. Por la f´rmula (7.19), para todo par α, β ∈ Qk,n , tenemos que o (Λk Am )αβ = det Am [α|β] − − → det A[α|β] = (Λk A)αβ . −− m→∞ Observar que el determinante de una matriz es un polinomio en sus entradas, por lo que la funci´n B → det B es continua. o 2. Como (Λk A)2 = Λk (A2 ), la veracidad del enunciado cuando r ∈ N se deduce a trav´se de una simple inducci´n. Recordando que (Λk A)−1 = Λk (A−1 ), es claro que tambi´n o e vale si r ∈ Z. Para extender el resultado a los r ∈ Q, basta notar que si m ∈ N − {0} entonces: (Λk A1/m )m = Λk [(A1/m )m ] = Λk A . Finalmente, el caso general se obtiene por continuidad (y el item 1.). 3. Todas estas propiedades se deducen directamente de las propiedades vistas en la Obser- vaci´n 7.3.11. o 4. Ya hemos visto (o podemos deducir de lo anterior) que |Λk A| = Λk |A|. Como Λk U es isometr´ parcial, y la igualdad (7.25) se tiene que cumplir a partir de que A = U |A|, ıa entonces (7.25) es una DP de Λk A. 7.5 Ejercicios Ejercicios del texto 7.5.1. Probar que el producto tensorial de matrices verifica las siguientes propiedades: Fije- mos A ∈ Mn (C) y B ∈ Mk (C). Se considera que A ⊗ B ∈ L(Hn ⊗ Hk ) ∼ Mnm (C), y en = Hn ⊗ Hk se usa el producto escalar definido en las Eqs. (7.1) y (7.3). 1. Sean In ∈ Mn (C) y Ik ∈ Mk (C). Entonces In ⊗ Ik es la identidad de Hn ⊗ Hk .
  • 161. 146 Productos tensoriales y alternados 2. (αA1 + A2 ) ⊗ B = α(A1 ⊗ B) + A2 ⊗ B, para todo α ∈ C. 3. (A ⊗ B)∗ = A∗ ⊗ B ∗ . 4. (A1 ⊗ B1 )(A2 ⊗ B2 ) = A1 A2 ⊗ B1 B2 . 5. Si existen A−1 y B −1 , entonces A−1 ⊗ B −1 = (A ⊗ B)−1 . En particular, si A ∈ U(n) y B ∈ U(k), entonces A ⊗ B ∈ U(nk). 6. A ⊗ B ≥ 0 si A ≥ 0 y B ≥ 0. M´s a´n, |A ⊗ B| = |A| ⊗ |B|. Se usa el Teorema 3.1.3 y a u la unicidad de la raiz cuadrada positiva. 7.5.2. Completar los detalles de la prueba de la Eq. (7.4). k 7.5.3. Completar los detalles de la definici´n inductiva del espacio o Hn , probar los 5 items de 7.2.1 y los 6 de 7.2.2. (n) k 7.5.4. Dados n, k ∈ N y π ∈ Sk , tomemos el operador de permutaci´n Pπ o ∈ L( Hn ), definido en la Eq. (7.9). Probar las siguentes propiedades: (n) 1. La f´rmula (7.10) sobre como act´a Pπ o u en los tensores elementales. (n) (n) (n) (n) 2. Mostrar que Pπ es untario. M´s a´n, mostrar que (Pπ )∗ = Pπ−1 = (Pπ )−1 . a u k 3. Sea Pn la proyecci´n ortogonal de k o Hn sobre Λk Hn . Completar los detalles de la demostraci´n de la Eq. (7.11): o 1 Pn = k (n) sgn(π) Pπ . k! π∈ Sk 7.5.5. Dar los detalles de las pruebas de los 5 items de la Observaci´n 7.3.5, sobre las o propiedades de los k-tensores elementales. 7.5.6. Probar todos los resultados enunciados en la Observaci´n 7.3.11, sobre las propiedades o de las k-potencias alternadas (o exteriores) de matrices. 7.5.7. Probar los 7 items de 7.3.7 (sobre determinantes). 7.5.8. Probar que Gl (n) es denso en Mn (C). 7.5.9. Hacer el Ejercicio 7.3.21. Ejercicios nuevos 7.5.10. Sea σ ∈ Sn y Pσ ∈ UP (n) su matriz de permutaci´n asociada, definida en la Obser- o vaci´n 4.1.5. Probar que det Pσ = sgn(σ) de las tres maneras propuestas: o 1. Usando la Definici´n 7.3.6 de una (esto es parte del Ejercicio anterior). o
  • 162. 7.5 Ejercicios 147 2. Mostrar que si τ ∈ Sn es una trasposici´n, entonces det Pτ = −1, y usar que sigma es o producto de trasposiciones, y que la flecha σ → det Pσ es un morfismo. 3. Usando que Pσ tiene filas Fi (Pσ ) = eσ(i) , i ∈ In (por la Eq. (4.3) ), y aplicando luego las ecuaciones (7.12) y (7.20). 4. Alguna otra que se les ocurra. 7.5.11. Demostrar el algoritmo usual para calcular det A, para A ∈ Mn (C), desarrollando por alguna fila o columna de A. Por ejemplo la fila r-´sima: e det A = (−1)r+i Ar, i det A(r| i) . (7.26) i∈In Se sugiere usar la multilinealidad de B → det B (tanto para filas como para columnas) y calcular det B en el caso de que alguna fila o columna de B est´ en la base can´nica de Cn . e o Otra opci´n es esperar hasta la Eq. (12.13). o 7.5.12. Sea t = (t1 , . . . , tn ) ∈ Cn . Se llama matriz de Vandermonde de t a 1 t1 . . . tn−1   1  1 t2 . . . tn−1  2 V (t) = tj−1 = . . .  ∈ Mn (C) .   i i,j∈In  . . ... . . .  . 1 tn . . . tn−1 n Probar que det V (t) = (tj − ti ) , por lo que V (t) ∈ Gl (n) si los ti son todos distintos. i<j 7.5.13. Sean A, B ∈ Mn (C). Probar: 1. (s(A), s(B)) (s(|A| + |B|), 0) en R2n . w 2. (s(A), s(B)) (s(A + B), 0) en R2n . 3. Sea F : Mn (C) → R+ dada por F (C) = i f (si (C)), para una f : R+ → R+ c´ncava o tal que f (0) = 0. Probar que F es subaditiva, o sea F (A + B) ≤ F (A) + F (B). n 4. Si z ∈ C, det(I + zA) = z k tr(Λk A). k=0 n−1 5. PA (x) = xn + (−1)n−k tr(Λn−k A) xk . k=0 6. det(I + |A + B|) ≤ det(I + |A|) det(I + |B|). 7. | det(I + A)| ≤ det(I + |A|). 8. | det(I + A + B)| ≤ det(I + |A|) det(I + |B|).
  • 163. 148 Productos tensoriales y alternados Productos sim´tricos e Sean k, n ∈ N. Recordemos que, dados x1 , . . . , xk ∈ Hn y π ∈ Sk , tenemos que (n) Pπ (x1 ⊗ x2 · · · ⊗ xk ) = xπ−1 (1) ⊗ xπ−1 (2) · · · ⊗ xπ−1 (k) , (n) (n) (n) donde Pπ es un operador unitario que cumple (Pπ−1 ) = (Pπ )−1 . Dado k ∈ In . Llamaremos k espacio k-sim´trico sobre Hn , al subespacio de e Hn dado por k ∨k Hn = F ∈ (n) H n : Pπ F = F para toda π ∈ Sk , Los elementos de ∨k Hn se llaman k-tensores sim´tricos. Se considera a ∨k Hn como un e k espacio de Hilbert con el producto interno de Hn . Dados x1 , . . . , xk ∈ Hn , se define el k-tensor sim´trico elemental: e 1 x1 ∨ x2 · · · ∨ xk := xπ(1) ⊗ xπ(2) · · · ⊗ xπ(k) ∈ ∨k Hn . k! π∈ Sk 7.5.14. Dada A ∈ Mn (C), definimos su permanente por la f´rmula o n per A = aj,σ(j) ∈ C . (7.27) σ∈ Sn j=1 Es decir que es como el determinante, pero sin signos negativos. 1. Probar que, si T ∈ T S(n), entonces per T = Tii . En particular, per In = 1. i∈In 2. Si A 0, mostrar que per A = 0 ⇐⇒ existen subconjuntos I, J ⊆ In tales que |I| + |J| > n y la submatriz AIJ ≡ 0, es decir que aij = 0 para todo par (i, j) ∈ I × J. 3. Deducir que si A ∈ DS (n), entonces per A = 0. 4. Si B, C ∈ Mn (C)+ cumplen que C ≤ B, probar que 0 ≤ per C ≤ per B. 7.5.15. Sean x1 , . . . , xk , y1 , . . . , yk ∈ Hn . Probar que 1 x1 ∨ x2 ∨ · · · ∨ xk , y1 ∨ y2 ∨ · · · ∨ yk = per xi , yj i,j∈Ik . k! 7.5.16. Dados x1 , . . . , xk , y1 , . . . , yk ∈ Hn , llamemos G(x, y) = xi , yj i,j∈Ik ∈ Mk (C) a la matriz que se us´ en el Ejercicio anterior. o 1. Probar que | det G(x, y)|2 ≤ det G(x, x) det G(y, y)
  • 164. 7.5 Ejercicios 149 2. Tambi´n que |per G(x, y)|2 ≤ per G(x, x) per G(y, y) . e 3. Traducir a que si A, B ∈ Mn,k (C), entonces |per A∗ B|2 ≤ per A∗ A per B ∗ B 4. (Otro teorema de Schur) Si A ∈ Mn (C)+ , per A ≥ det A (se sugiere usar el teorema de Cholewsky, Corolario 3.1.5). 7.5.17. Sea A ∈ Gl (n)+ . Llamemos ri = tr(Fi (A) ) , i ∈ In y s = r1 + · · · + rn = A1 , 1 . 1. Probar que sn · per A ≥ n! · |ri |2 . ij∈ In 2. Deducir que, si A ∈ DS (n) ∩ Gl (n)+ , entonces per A ≥ n! n−n .
  • 165. 150 Productos tensoriales y alternados
  • 166. Cap´ ıtulo 8 Producto de Hadamard 8.1 Propiedades b´sicas a Recordemos algunas nociones adelantadas en la Secci´n 3.5 o Definici´n 8.1.1. Dadas A, B ∈ Mn,m (C) se define el producto de Hadamard A ◦ B como o la matriz A ◦ B = aij bij i∈In ∈ Mn,m (C) . j∈Im Notar que este producto tiene sentido tanto para matrices como para vectores. Teorema 8.1.2 (Teorema 2 de Schur). Sean A, B ∈ Mn (C)+ , entonces A ◦ B ∈ Mn (C)+ . Adem´s, si A > 0 y B > 0, entonces A ◦ B > 0. a Demostraci´n. Ya fue demostrado en 3.6.2 o Corolario 8.1.3. Sean A, B ∈ Mn (C)+ , entonces 1. µn (A)µn (B) ≤ µn (A ◦ B). 2. A ◦ B = µ1 (A ◦ B) ≤ µ1 (A)µ1 (B) = A B . Demostraci´n. Ejercicio. o Ahora empezamos a mostrar novedades sobre el producto de Hadamard. Proposici´n 8.1.4. Sea S = Gen {ei ⊗ ei : i ∈ In } ⊆ Hn ⊗ Hn . Identificaremos L(S) con o Mn (C) en la manera obvia. Definamos el operador lineal Φ : L(Hn ⊗ Hn ) → Mn (C) dado por Φ(T ) = TS , T ∈ L(Hn ⊗ Hn ) . Entonces, dados A, B ∈ Mn (C), se verifica que Φ(A ⊗ B) = A ◦ B .
  • 167. 152 Producto de Hadamard Demostraci´n. Representemos A ⊗ B como producto de Kronecker, como en la Observaci´n o o 7.1.1. Con las notaciones de submatrices de la Definici´n 7.3.12, es f´cil ver que, si tomamos o a α = (1, 1), (2, 2), . . . , (n, n) ⊆ In × In , entonces Φ(A ⊗ B) = (A ⊗ B)S = (A ⊗ B)[α] = A ◦ B , como se afirmaba. Definici´n 8.1.5. Dada A ∈ Mn,m (C), llamaremos o C(A) = m´x Ci (A) a 2 y F (A) = m´x Fi (A) a 2 . i ∈ Im i ∈ In Notar que estos n´meros pueden, tambi´n, caracterizarse por las f´rmulas u e o C(A)2 = A∗ A ◦ Im sp y F (A)2 = AA∗ ◦ In sp . Por lo tanto C(A) ≤ A sp y F (A) ≤ A sp . Proposici´n 8.1.6. Sean A, B ∈ Mn,m (C). Entonces o A◦B sp ≤ C(A)F (B) ≤ A sp B sp . Demostraci´n. Para cada par x ∈ Cm , y ∈ Cn de vectores unitarios, se tiene que o 2 2 2 A ◦ B x, y = aij bij xj yi = (aij xj ) (bij yi ) i,j i,j 2 2 ≤ |aij | |xj | |bij |2 |yi |2 (por Cauchy-Schwarz) i,j i,j = |xj |2 |aij |2 |yj |2 |bij |2 j i i j ≤ C(A)2 x 2 F (B)2 y 2 = C(A)2 F (B)2 . Como A ◦ B sp = m´x | A ◦ B x, y | : x = y = 1 , el resultado est´ demostrado. a a Observaci´n 8.1.7. Sean A ∈ Gl (n)+ y J ⊆ In , con |J| = k. Luego se tiene que o A[J] = (aij )i,j∈ J ∈ Gl (k)+ y A−1 [J] ≥ A[J]−1 . En efecto, esto es un caso particular del Corolario 6.3.7 (o de la Proposici´n 3.8.7). o Proposici´n 8.1.8. Sean A, B ∈ Gl (n)+ . Entonces se verifica que o 1. (A ◦ B)−1 ≤ A−1 ◦ B −1 . 2. A ◦ A−1 ≥ I ≥ (A ◦ A−1 )−1 . Demostraci´n. Se deduce de la Observaci´n 8.1.7 y de la Proposici´n 8.1.4, ya que que A ◦ B o o o es una submatriz principal de A⊗B, mientras que A−1 ◦B −1 lo es de A−1 ⊗B −1 = (A⊗B)−1 , para los mismos ´ ındices.
  • 168. 8.2 La norma de un multiplicador Hadamard 153 8.2 La norma de un multiplicador Hadamard Definici´n 8.2.1. Fijemos A ∈ Mn (C), y definamos el operador de multiplicaci´n o o MA : Mn (C) → Mn (C) dado por MA (B) = A ◦ B , B ∈ Mn (C) . Fijada una norma N en Mn (C), denotaremos KN (A) a la norma inducida para MA : KN (A) = m´x N (A ◦ B) : B ∈ Mn (C) es tal que N (B) = 1 a = m´ k ≥ 0 : N (A ◦ B) ≤ k N (B) ın para toda B ∈ Mn (C) . En el caso de que N sea la norma espectral, escribiremos KA en lugar de K · sp (A). Observaci´n 8.2.2. Sea A ∈ Mn (C). Si N es una norma unitariamente invariante tal que o N (E11 ) = 1, entonces m´x |aij | ≤ KN (A) . a i,j En efecto, notar que para todo i, j ∈ In se tiene N (A ◦ Eij ) = |aij |N (Eij ) = |aij | y N (Eij ) = 1 . Por otra parte, para la norma espectral, de la Proposici´n 8.1.6 se puede deducir que o KA ≤ m´ C(A), F (A) ≤ A ın sp . En efecto, notar que para toda B ∈ Mn (C), tenemos que A ◦ B ≤ C(A)F (B) ≤ C(A) B y A ◦ B ≤ F (A)C(B) ≤ F (A) B , ya que Ci (B) 2 = Bei ≤ B para todo i ∈ In . An´logamente, F (B) ≤ B . a Ejercicios 8.2.3. 1. Si N = · 2 (la norma de Frobenius), entonces KN (A) = m´x |aij | , a A ∈ Mn (C) . i,j∈ In Notar que (Mn (C), N ) es un espacio de Hilbert, MA es un operador diagonal, y KN (A) = MA sp . 2. Algo m´s complicado es probar que, para cualquier A ∈ Mn (C), a K · 1 (A) = KA . Debe usarse que · 1 es la norma “dual” de la espectral (esto es del mismo tipo que ( 1 )∗ = ∞ , pensada en los valores singulares), y que el operador “adjunto” de MA es el mismo MA . Esto ultimo se deduce de la identidad ´ tr (A ◦ B)C t = aij bij cij = tr B(A ◦ C)t , i,j∈ In donde se identifica a Mn (C) con Mn (C) a trav´s de la aplicaci´n C → ϕC = tr( · C t ) e o (ver los Ejercicios 5.6.29 al 5.6.33) .
  • 169. 154 Producto de Hadamard Teorema 8.2.4. Sea A ∈ Mn (C). Dada una factorizaci´n A = D∗ B, con B, D ∈ Mn (C), o se verifica que KA ≤ C(D)C(B) . Demostraci´n. Consideremos la siguiente matriz: o D∗ 0 D B D∗ D A P = = ∈ M2n (C)+ . B∗ 0 0 0 A∗ B∗B I M Fijemos M ∈ Mn (C) tal que M sp ≤ 1. Luego ∈ M2n (C)+ , y por el Teorema M∗ I 2 de Schur 8.1.2, tenemos que I M I ◦ D∗ D M ◦A PM = P ◦ = ∈ M2n (C)+ . M∗ I (M ◦ A)∗ I ◦ B∗B Como (D∗ D)ii = Ci (D) 2 , i ∈ In , podemos deducir que I ◦D∗ D ≤ C(D)2 I, y an´logamente a se ve que I ◦ B ∗ B ≤ C(B)2 I. Por ende, C(D)2 I M ◦A PM ≤ = RM . (M ◦ A)∗ C(B)2 I C(D)−1 I 0 Conjugando con F = , obtenemos que 0 C(B)−1 I I C(D)−1 C(B)−1 (M ◦ A) F RM F = −1 ∈ M2n (C)+ . C(D) C(B)−1 (M ◦ A)∗ I Esto nos dice que C(D)−1 C(B)−1 (M ◦ A) sp = C(D)−1 C(B)−1 M ◦ A sp ≤ 1, o sea M sp ≤ 1 =⇒ M ◦A sp ≤ C(D)C(B) . En otras palabras, KA ≤ C(D)C(B). Corolario 8.2.5 (Schur 4). Sea A ∈ Mn (C)+ . Entonces KA = m´x{Aii : i ∈ In }. a Demostraci´n. Notemos M = m´x{Aii : i ∈ In }. Hemos visto que M ≤ KA (porque o a Aii = A ◦ Eii ). Por otra parte, como A ∈ Mn (C)+ , sabemos que existe B ∈ Mn (C) tal que A = B ∗ B. Es f´cil ver que, en tal caso, Aii = Ci (B) 2 para todo i ∈ In . Esto dice que a M = C(B)2 . Por el Teorema 8.2.4 deducimos que KA ≤ C(B)2 = M . 8.3 Funcionales positivas El teorema de Haagerup (1983) dice que, dado A ∈ Mn (C), existe una factorizaci´n A = D∗ B, o como en el Teorema 8.2.4, tal que se obtiene la igualdad KA = C(D)C(B). Su formulaci´n o
  • 170. 8.3 Funcionales positivas 155 y demostraci´n original utilizaba profundas nociones y resultados de ´lgebras de operadores. o a Esto motiv´ que, desde el ´mbito de los especialistas en an´lisis matricial, fueran apareciendo o a a numerosas pruebas simplificadas del teorema de Haagerup. De todas ellas hemos seleccionado la obtenida por Paulsen, Power y Smith en [29]. Necesitaremos, sin embargo, adaptar al contexto de matrices ciertas nociones y resultados elementales de ´lgebras de operadores. a Fundamentalmente, propiedades y criterios de existencia de funcionales positivas. Definici´n 8.3.1. Sea S ⊆ Mn (C) un subespacio cerrado por adjunci´n, es decir, T ∈ S si o o y s´lo si T ∗ ∈ S. Una f uncional en S es una aplicaci´n lineal ϕ : S → C. Se definen los o o siguientes tipos de funcionales: 1. Notamos ϕ∗ (adjunta de ϕ) a la funcional dada por ϕ∗ (A) = ϕ(A∗ ), A ∈ S. 2. Decimos que ϕ es autoadjunta si ϕ∗ = ϕ. Es decir, si ϕ(A∗ ) = ϕ(A), A ∈ S. 3. La funcional ϕ se llama positiva si ϕ(A) ≥ 0 cuando A ∈ S ∩ Mn (C)+ . 4. Se considera la norma inducida en las funcionales por la norma espectral de las matrices. Es decir ϕ = m´x{|ϕ(A)| : A ∈ S , A sp = 1} . a Ejercicios 8.3.2. Sea S ⊆ Mn (C) un subespacio cerrado por adjunci´n. o 1. Sea ϕ una funcional en S. Probar que (a) ϕ = ϕ∗ . (b) ϕ es autoadjunta si y s´lo si ϕ(A) ∈ R para toda A ∈ S ∩ H(n). o (c) Si ϕ es positiva, entonces es tambi´n autoadjunta. e (d) Toda funacional autoadjunta en S es resta de dos positivas. Se usa que si A ∈ S, entonces Re A ∈ S e Im A ∈ S. 2. Dada B ∈ Mn (C), se define la siguiente funcional en Mn (C): ϕB : Mn (C) → C dada por ϕB (A) = A, B = tr(AB ∗ ) , A ∈ Mn (C). Verificar que (a) Para toda funcional ϕ en Mn (C) existe una unica matriz B ∈ Mn (C) tal que ´ ϕ = ϕB . (b) Dados x, y ∈ Cn consideremos la matriz x y = xy ∗ ∈ Mn (C) , definida en la secci´n 1.9. Se tiene que ϕB (xy ∗ ) = x, By . o (c) (ϕB )∗ = ϕB ∗ , y por lo tanto ϕB es autoadjunta si y s´lo si B ∈ H(n). o (d) ϕB es positiva si y s´lo si B ∈ Mn (C)+ . o Proposici´n 8.3.3. Sea B ∈ Mn (C). Entonces o 1. | tr B| ≤ tr |B|.
  • 171. 156 Producto de Hadamard 2. tr B = tr |B| si y s´lo si B ∈ Mn (C)+ . o 3. ϕB = B 1 = tr |B|. Demostraci´n. o 1. Sea B = {v1 , . . . , vn } una bon de vectores propios de |B| asociada a s(B). Luego, si B = U |B| es la DP de B, con U ∈ U(n), n n n | tr B| = U |B|vk , vk ≤ sk (B) U vk , vk ≤ sk (B) = tr |B| . k=1 k=1 k=1 2. Si tr B = tr |B|, entonces n n n sk (B) = tr |B| = tr B = Bvk , vk = sk (B) U vk , vk . k=1 k=1 k=1 Dado que | U vk , vk | ≤ 1 para todo k ∈ In , por el caso en que se obtiene igualdad en la desigualdad de Cauchy Schwarz, todos los n´meros complejos U vk , vk deben u tener el mismo argumento. Como la suma da un n´mero positivo, se debe verificar que u U vk , vk = 1 para todo k ∈ In . Pero un unitario con unos en la diagonal (en nuestro caso la matriz de U en la base B) debe ser la identidad. De ello se deduce que U = I y que B = |B| ∈ Mn (C)+ . La rec´ ıproca es obvia. 3. Notar que tr |B| = tr(U |B|U ∗ ) = tr(U B ∗ ) = ϕB (U ) ≤ ϕB . Por otro lado, por el item anterior y el Corolario 5.3.11, | tr(AC)| ≤ tr |AC| ≤ A sp tr |C| , para todo par A, C ∈ Mn (C). Entonces |ϕB (A)| = | tr(A|B|U ∗ )| = | tr(U ∗ A |B|)| ≤ U ∗ A sp tr |B| = (tr |B|) A sp , para toda A ∈ Mn (C). Por lo tanto ϕB ≤ tr |B|. Teorema 8.3.4. Sea S ⊆ Mn (C) un subespacio cerrado por adjunci´n tal que I ∈ S. Sea ϕ o una funcional en S. Luego las siguientes condiciones son equivalentes: 1. ϕ es positiva. 2. ϕ = ϕ(I). 3. Existe B ∈ Mn (C)+ tal que ϕ es la restricci´n de ϕB a S . o Demostraci´n. o
  • 172. 8.4 Matrices incompletas 157 1 → 2 Sea A ∈ S. Si A = A∗ , se tiene que − A sp I≤A≤ A sp I. Luego, si ϕ es positiva en S, tenemos − A sp ϕ(I) ≤ ϕ(A) ≤ A sp ϕ(I) =⇒ |ϕ(A)| ≤ A sp ϕ(I) . Si A = A∗ , sea θ ∈ [0, 2π) tal que ϕ(A) = eiθ |ϕ(A)|, o sea que ϕ(e−iθ A) = |ϕ(A)|. Llamenos A0 = e−iθ A. Como ϕ es autoadjunta y ϕ(A0 ) ∈ R, deducimos que ϕ(A0 ) = ϕ(Re A0 ). Por todo esto, |ϕ(A)| = ϕ(A0 ) = ϕ(Re A0 ) ≤ Re A0 sp ϕ(I) ≤ A0 sp ϕ(I) = A sp ϕ(I) . Luego ϕ ≤ ϕ(I). La otra desigualdad es obvia ( I sp = 1). 2 → 3 Sea ϕ una funcional en S tal que ϕ = ϕ(I). Por el teorema de Hahn Banach (en dimensi´n finita se lo puede probar por inducci´n con la prueba tradicional), existe una o o extensi´n Φ de ϕ a todo Mn (C) que tiene la misma norma. Luego existe B ∈ Mn (C) o tal que Φ = ϕB . Por la Proposici´n 8.3.3, deducimos que o tr |B| = ϕB = Φ = ϕ = ϕ(I) = ϕB (I) = tr B , y por lo tanto B ∈ Mn (C)+ . 3 → 1 Sea B ∈ Mn (C)+ tal que ϕ es la restricci´n de ϕB a S. Si A ∈ S ∩ Mn (C)+ , tenemos o que ϕ(A) = tr AB = tr B 1/2 AB 1/2 ≥ 0 , porque B 1/2 AB 1/2 ∈ Mn (C)+ y la funcional tr es positiva. Corolario 8.3.5. Sea S ⊆ Mn (C) un subespacio cerrado por adjunci´n tal que I ∈ S, y o ϕ una funcional positiva en S. Luego existe Φ funcional positiva en Mn (C), con la misma norma, tal que ϕ es la restricci´n de Φ a S. o 8.4 Matrices incompletas Sea J ⊆ In × In . Una matriz incompleta asociada al conjunto J es un “cacho” de matriz A = (aij )i,j∈ J . O sea que no se pone nada en las entradas (i, j) ∈ J. Una matriz B ∈ Mn (C) / es una completaci´n de A si bij = aij para todo (i, j) ∈ J. o Definici´n 8.4.1. Sea J ⊆ In × In . o 1. Llamaremos SJ ⊆ Mn (C) al subespacio SJ = C ∈ Mn (C) : cij = 0 para todo (i, j) ∈ J . / 2. Si A est´ definida solo en J, y C ∈ SJ , denotaremos A ◦ C = B ◦ C, donde B ∈ Mn (C) a es cualquier completaci´n de A. Notar que, como C ∈ SJ , la definici´n no depende de o o la completaci´n elegida. o
  • 173. 158 Producto de Hadamard 3. Diremos que J cumple (P) si (a) (i, j) ∈ J =⇒ (j, i) ∈ J, (b) (i, i) ∈ J para todo i ∈ In . En otras palabas, si J es sim´trico y contiene a la diagonal (reflexivo). e Existen numerosos resultados sobre matrices incompletas, fundamentalmente relativos a pre- guntas del tipo: ¿que debe cumplir A para que se la pueda completar a una matriz que cumpla una propiedad dada? Un ejemplo de este tipo de resultados, es el llamado teorema de Parrot, que describe algunos casos de matrices incompletas que pueden completarse a una contracci´n. Una versi´n de o o aquel resultado aparece en el Ejercicio 3.9.13. El siguiente teorema da una respuesta al problema de cuando se puede completar una casi- matriz A para que quede positiva (semidefinida), siempre que el conjunto J en el que est´ a definida tenga la propiedad (P). Observemos que si B ∈ Mn (C)+ es una completaci´n de un o tal A, entonces, por el Teorema 2 de Schur 3.6.2, debe cumplirse que A ◦ C = B ◦ C ∈ Mn (C)+ para toda C ∈ SJ ∩ Mn (C)+ . (8.1) Esto nos da una condici´n necesaria sobre A para que pueda existir una completacion po- o sitiva. Esta condici´n ser´ muy pobre si J no cumple (P), porque en tal caso habr´ muy o ıa ıa pocas matrices en SJ ∩ Mn (C)+ . Pero veremos que, si J cumple (P), entonces la condici´n o es tambi´n suficiente: e Teorema 8.4.2. Supongamos que J ⊆ In × In cumple (P). Sea A = (aij )i,j∈ J una matriz definida solo en J. Luego las siguientes condiciones son equivalentes: 1. Existe una completaci´n B de A tal que B ∈ Mn (C)+ . o 2. Para toda matriz C ∈ SJ ∩ Mn (C)+ se verifica A ◦ C ∈ Mn (C)+ . Demostraci´n. En la Eq. (8.1) vimos que la ida es consequencia del Teorema 2 de Schur. o Supongamos entonces que A cumple 2. Sea ϕA : SJ → C la funcional definida por ϕA (C) = aij cij , C = (cij ) ∈ SJ . (i,j)∈ J Verifiquemos ahora que ϕA es positiva en SJ . En efecto, si C ∈ SJ ∩ Mn (C)+ , luego tambi´ne C = C T ∈ SJ ∩ Mn (C)+ . Por hip´tesis A ◦ C ∈ Mn (C)+ . Si llamamos e = (1, . . . , 1) ∈ Rn , o entonces 0 ≤ (A ◦ C) e, e = aij cij = ϕA (C) = ϕA (C), (i,j)∈ J por lo que ϕA es positiva. Observar que SJ verifica las hip´tesis del Teorema 8.3.4 (es o cerrado por adjunci´n e I ∈ SJ ), gracias a que J cumple (P). Luego, obtenemos una matriz o
  • 174. 8.5 El teorema de Haagerup 159 B ∈ Mn (C)+ tal que ϕB S = ϕA . Notar que, si (i, j) ∈ J, entonces Eij ∈ SJ . Por otra J parte, es f´cil ver que tr (BEij ) = bji = bij . Luego, a bij = tr (BEij ) = ϕB (Eij ) = ϕA (Eij ) = aij , (i, j) ∈ J . Eso dice que B es una completaci´n positiva de A. o 8.5 El teorema de Haagerup ∗ Lema 8.5.1. Sean T ∈ Mn (C) y λ, µ ∈ R+ n . Notemos D1 = diag (λ) , D2 = diag (µ) ∈ −1/2 −1/2 Gl (n)+ y L ∈ Mn (C) la matriz con entradas Lij = λi µj . Entonces D1 T M= ∈ M2n (C)+ ⇐⇒ L◦T ≤1 . T∗ D2 Demostraci´n. Observar que o −1/2 −1/2 −1/2 −1/2 D1 0 D1 0 I D1 T D2 −1/2 M −1/2 = −1/2 ∗ −1/2 . 0 D2 0 D2 D2 T D1 I −1/2 −1/2 Luego, por la Proposici´n 3.7.6, M ∈ M2n (C)+ si y s´lo si D1 o o T D2 ≤ 1. El −1/2 −1/2 resultado queda probado con s´lo observar que D1 o T D2 = L ◦ T. Teorema 8.5.2. Sea A ∈ Mn (C). Luego las siguientes condiciones son equivalentes: 1. KA ≤ 1, es decir A ◦ C ≤ C para todo C ∈ Mn (C). . 2. Existen X, Y ∈ Mn (C)+ tales que (a) X ◦ I ≤ I e Y ◦ I ≤ I. X A (b) La matriz N = ∈ M2n (C)+ . A∗ Y 3. Existen B, D ∈ Mn (C) tales que (a) A = D∗ B. (b) C(B) ≤ 1 y C(D) ≤ 1. Demostraci´n. 1 → 2: Sea J ⊆ I2n × I2n dado por o J = {(i, i) : i ∈ I2n } ∪ {(i, n + j) : i, j ∈ In } ∪ {(n + i, j) : i, j ∈ In }. Observar que J cumple (P). Consideremos la matriz P de tama˜o 2n × 2n, definida s´lo en n o J, dada por   1 ? D A .. P = , donde D =   ,   A∗ D . ? 1
  • 175. 160 Producto de Hadamard que es una matriz de tama˜o n × n definida solamente en la diagonal. n Clamor: Si M ∈ SJ ∩ M2n (C)+ , entonces P ◦ M ∈ M2n (C)+ . D1 T En efecto, M = , donde T ∈ Mn (C), y D1 = diag (λ) , D2 = diag (µ) son matri- T ∗ D2 ces diagonales positivas en Mn (C). Si suponemos que D1 , D2 son estrictamente positivas, y −1/2 −1/2 notamos L ∈ Mn (C) la matriz con entradas Lij = λi µj , el Lema 8.5.1 nos dice que, + como M ∈ M2n (C) , entonces L ◦ T ≤ 1. Observar que D1 A◦T P ◦M = . (A ◦ T )∗ D2 Como KA ≤ 1, tenemos que L ◦ (A ◦ T ) = A ◦ (L ◦ T ) ≤ 1. Usando nuevamente el Lema 8.5.1, deducimos que P ◦ M ∈ M2n (C)+ . El caso general (sin suponer que D1 y D2 son inversibles) se deduce del anterior, tomando la sucesi´n o 1 Mm = M + I2n en SJ . Entonces M2n (C)+ P ◦ Mm − − → P ◦ M . −− m m→∞ Como M2n (C)+ es cerrado, el clamor queda demostrado. Por el Teorema 8.4.2, tenemos que existe una completaci´n N de P tal que o X A N= ∈ M2n (C)+ y, por lo tanto, X ◦I =Y ◦I =I . A∗ Y Luego las matricecs X, Y ∈ Mn (C)+ cumplen lo pedido. 2 → 3: Como N ∈ M2n (C)+ , por el teorema de Cholewsky (Corolario 3.1.5), existe una matriz K ∈ M2n (C) triangular superior tal que N = K ∗ K. Si la escribimos en bloques de n × n, D B D∗ D D∗ B X A K= =⇒ K ∗ K = = = N. 0 G B∗D B B + G∗ G ∗ A∗ Y El resultado se sigue de que A = D∗ B y, como X ◦ I ≤ I e Y ◦ I ≤ I, entonces C(D)2 = D∗ D ◦ I = X ◦ I ≤ 1 y C(B)2 = B ∗ B ◦ I ≤ (B ∗ B + G∗ G) ◦ I = X ◦ I ≤ 1 . La implicaci´n 3 → 1 fu´ probada en el Teorema 8.2.4. o e Corolario 8.5.3 (Teorema de Haagerup (1983)). Sea A ∈ Mn (C). Entonces KA = m´ ın C(B)C(D) : B, D ∈ Mn (C) y A = D∗ B . Demostraci´n. Si KA = 0, entonces por la Observaci´n 8.2.2, se tiene que A = 0 y el resultado o o es trivial. Si KA > 0, una desigualdad se deduce del Teorema 8.2.4 y, para probar la otra, −1 basta cambiar A por KA A y aplicar 1 → 3 del Teorema 8.5.2.
  • 176. 8.6 Determinantes 161 Corolario 8.5.4. Sea A ∈ Mn (C). Notemos A(k) ∈ Mkn (C) la matriz con k × k bloques de n × n iguales a A. Entonces KA = KA(k) . Demostraci´n. Es evidente que KA ≤ KA(k) (trabajando con matrices de n × n rellenadas o con ceros). Rec´ıprocamente, si B, D ∈ Mn (C) cumplen que A = D∗ B y KA = C(B)C(D), entonces    ∗   A ... A D ... D B ... B  A ... A   0 ... 0   0 ... 0  ∗ A(k) =  . . = . .  = Dk Bk .       . . .   . .  .. . . .   . . . . . .   . . . . . .  . A ... A 0 ... 0 0 ... 0 Pero es claro que C(Bk ) = C(B) y C(Dk ) = C(D), dado que tienen las mismas columnas (salvo ceros). As´ KA(k) ≤ C(B)C(D) = KA . ı, 8.6 Determinantes Teorema 8.6.1 (Desigualdad de Hadamard). Si A ∈ Mn (C)+ , entonces n det A ≤ det (A ◦ I) = aii . i=1 La igualdad vale si y s´lo si A es diagonal. o Demostraci´n. Podemos suponer que A > 0, y entonces aii > 0, para todo i ∈ In . Conside- o ramos la matriz diagonal 1/2 D = diag a11 , . . . , a1/2 . nn −1/2 −1/2 Entonces B = D−1 AD−1 = (aii ajj aij )ij tiene unos en la diagonal. Adem´s, a n det B = det A (det D)−2 = det A a−1 . ii i=1 Por lo tanto, ser´ suficiente mostrar que det B ≤ 1. Aplicando la desigualdad aritm´tico- ıa e geom´trica 1 obtenemos, e n n n 1 B n det(B) = λi (B) ≤ λi (B) = tr =1. i=1 n i=1 n y esto prueba el resultado. Con respecto a la igualdad, si la hubiera en la desigualdad aritm´tico-geom´trica, entonces los n´meros involucrados deben ser todos iguales. Es decir e e u que todos los λi (B) = 1. Pero entonces, como B ≥ 0, debe ser B = I, o sea A = D2 . m 1 m 1 Si Q 1 P a1 , . . . , am > 0, entonces aim ≤ m ai . Sale usando que el log es una funci´n c´ncava. o o i=1 i=1
  • 177. 162 Producto de Hadamard Corolario 8.6.2. Sea A ∈ Mn (C). Entonces n | det A| ≤ Ci (A) 2 . (8.2) i=1 Demostraci´n. Se aplica la desigualdad de Haramard a la matriz B = A∗ A ≥ 0. Notar que o det B = | det A|2 y que Bii = Ci (A) 2 , para todo i ∈ In . 2 Ejercicio 8.6.3. Veremos tres demostraciones alternativas de estas desigualdades. 1. Probar el Teorema 8.6.1 usando el Teorema 3 de Schur 5.1.1 y el Corolario 4.2.3. 2. Probar que el Corolario 8.6.2 implica la desigualdad de Hadamard. 3. Probar el Corolario 8.6.2 usando la descomposici´n QR (Teorema 1.8.2) de A ∈ Mn (C). o Observar que (8.2) es trivial para matrices triangulares. 4. Probar el Corolario 8.6.2 usando la interpretaci´n del determinante como un ´rea o o a volumen. detA Lema 8.6.4. Sean A ∈ Gl (n)+ y α(A) = detA11 , donde A11 = (aij )2≤i,j≤n ∈ Mn−1 (C). Sea E11 = e1 et ∈ Mn (C). Entonces A − tE11 ≥ 0 si y s´lo si t ≤ α(A). 1 o Demostraci´n. Es f´cil ver, desarrollando por la primera columna, que o a det(A − tE11 ) = det A − t det A11 . (8.3) Luego, det(A − tE11 ) ≥ 0 si y s´lo si t ≤ α(A). Por otro lado, todas las dem´s submatrices o a principales de A − tE11 obtenidas con las ultimas i filas y columnas, son las mismas que las ´ respectivas de A. Por lo tanto, el determinante de cada una de ellas es positivo. Luego, por el Teorema 2.4.6 (hecho desde abajo), tenemos el resultado para desigualdades estrictas. El caso general sale tomando l´ ımite. Teorema 8.6.5 (Desigualdad de Oppenheim). Si A, B ∈ Mn (C)+ , entonces n det A · bii = det A · det B ◦ I ≤ det A ◦ B i=1 Demostraci´n. Si det A = 0, el resultado se deduce del Teorema 2 de Schur 8.1.2, que asegura o que A ◦ B ≥ 0. Supongamos, entonces, que A > 0. La demostraci´n la realizaremos por o inducci´n sobre n. Si n = 1, el resultado es inmediato. Sea n ≥ 2 y supongamos el resultado o v´lido para todas las matrices de dimensi´n n − 1. Entonces, con las notaciones del Lema a o 8.6.4, sabemos que n det A11 · bii ≤ det A11 ◦ B11 . i=2
  • 178. 8.6 Determinantes 163 Por el Lema 8.6.4, si α = (det A11 )−1 det A, entonces A − αE11 ≥ 0. El Teorema 2 de Schur 8.1.2 dice que (A − αE11 ) ◦ B ≥ 0. Aplicando la f´rmula (8.3), como E11 ◦ B = b11 E11 y o (A ◦ B)11 = A11 ◦ B11 , resulta que 0 ≤ det(A ◦ B − αE11 ◦ B) = det A ◦ B − αb11 det(A11 ◦ B11 ). Aplicando la hip´tesis inductiva, obtenemos o n n det A ◦ B ≥ α b11 det A11 ◦ B11 ≥ α b11 det A11 bii = det A · bii i=2 i=1 y el teorema queda demostrado. Teorema 8.6.6 (Desigualdad de Fisher). Sea A ∈ Mn (C)+ , y sea P un sistema de proyec- tores en H(n). Entonces det A ≤ det(CP (A)). r Recordamos que CP (A) = i=1 Pi APi , si P = {P1 , . . . , Pr }. Demostraci´n. Por la Eq. (5.8), basta probar el caso P = {P, I − P }, para P ∈ H(n) o un proyector. Supongamos que dim R(P ) = k. Conjugando a P y a A con alguna matriz unitaria (lo que no cambia los determinantes), podemos suponer que R(P ) es el subespacio generado por los primeros k elementos de la base can´nica de Cn . O, lo que es lo mismo, que o P = diag (1, . . . , 1, 0, . . . , , 0), donde los unos llegan hasta el lugar k. Dado r ∈ N, llamemos Er ∈ Mr (C)+ a la matriz con todas sus entradas iguales a 1. Notar ∗ 2 que Er ≥ 0 porque 0 ≤ Er Er = Er = rEr . Consideremos la matriz de bloques Ek 0 B= ∈ Mn (C)+ , 0 En−k que verifica que A ◦ B = CP (A). Aplicando la desigualdad de Oppenheim, tenemos que n det A = det A bii ≤ det A ◦ B = det CP (A). i=1 Observaci´n 8.6.7. Otra demostraci´n del Teorema anterior puede hecerse usando las o o Proposiciones 5.4.4 y 4.2.3. En efecto, con las notaciones de 8.6.6, como µ(CP (A)) µ(A), si µn (A) > 0, entonces tambi´n µn (CP (A)) > 0 y e n n det A = µi (A) ≤ µi (CP (A)) = det CP (A) . i=1 i=1 Si µn (A) = 0, entonces det A = 0, pero CP (A) ≥ 0, por lo que det CP (A) ≥ 0. De los resultados anteriores obtenemos la siguiente relaci´n para el determinante del producto o convencional de matrices y el producto de Hadamard.
  • 179. 164 Producto de Hadamard Teorema 8.6.8. Si A, B ∈ Mn (C)+ , entonces det A B ≤ det A ◦ B. Demostraci´n. El Teorema se deduce de las desigualdades de Hadamard y de Oppenheim. o n En efecto, det A B = det A det B ≤ det A bii ≤ det A ◦ B. i=1 8.7 Ejercicios Ejercicios del texto 8.7.1. Dada A ∈ Mn,m (C), mostrar que C(A) = m´x Ci (A) a 2 = A∗ A ◦ I m 1/2 sp y F (A) = m´x Fi (A) a 2 = AA∗ ◦ In 1/2 sp . i ∈ Im i ∈ In Deducir que m´x C(A) , F (A) ≤ A a sp . 8.7.2. Sea A ∈ Mn (C). Porbar las siguientes afirmaciones: 1. Si N = · 2 (la norma de Frobenius), entonces KN (A) = m´x |aij | a , A ∈ Mn (C) . i,j 2. Dadas B, C ∈ Mn (C), se cumple que tr (A ◦ B)C T = aij bij cij = tr B(A ◦ C)T . i,j 3. Probar que el operador “adjunto” de MA ∈ L(Mn (C) ) es el mismo MA , idenficando Mn (C) con Mn (C), a trav´s de la aplicaci´n e o Mn (C) C −→ ϕC = tr( · C T ) ∈ Mn (C) . 4. Probar que K · 1 (A) = KA . 8.7.3. Sea S ⊆ Mn (C) un subespacio cerrado por adjunci´n (i.e. T ∈ S =⇒ T ∗ ∈ S). o 1. Sea ϕ una funcional en S (usaremos notaciones de la Definici´n 8.3.1). Probar que o (a) ϕ = ϕ∗ . (b) ϕ es autoadjunta si y s´lo si ϕ(A) ∈ R para toda A ∈ S ∩ H(n). o (c) Si ϕ es positiva, entonces es tambi´n autoadjunta. e
  • 180. 8.7 Ejercicios 165 (d) Toda funacional autoadjunta en S es resta de dos positivas. Se usa que si A ∈ S, entonces Re A ∈ S e Im A ∈ S. 2. Dada B ∈ Mn (C), se define la siguiente funcional en Mn (C): ϕB : Mn (C) → C dada por ϕB (A) = A, B = tr(AB ∗ ) , A ∈ Mn (C). Verificar que (a) Para toda funcional ϕ en Mn (C) existe una unica matriz B ∈ Mn (C) tal que ´ ϕ = ϕB . (b) Dados x, y ∈ Cn consideremos la matriz x y = xy ∗ ∈ Mn (C) , definida en la secci´n 1.9. Se tiene que ϕB (xy ∗ ) = x, By . o (c) (ϕB )∗ = ϕB ∗ , y por lo tanto ϕB es autoadjunta si y s´lo si B ∈ H(n). o (d) ϕB es positiva si y s´lo si B ∈ Mn (C)+ . o 8.7.4 (Hahn Banach finito). Sea S ⊆ Mn (C) un subespacio, y sea ϕ : S → C una funcional lineal. Si ϕ = m´x{|ϕ(A)| : A ∈ S y A sp = 1}, existe una extensi´n Φ de ϕ a todo a o Mn (C) que tiene la misma norma. n 1 n 1 8.7.5. Si a1 , . . . , an > 0, entonces ain ≤ n ai . i=1 i=1 8.7.6. Distintas pruebas de la desigualdad de Hadamard: 1. Probar el Teorema 8.6.1 usando el Teorema 3 de Schur 5.1.1 y el Corolario 4.2.3. 2. Probar que el Corolario 8.6.2 implica la desigualdad de Hadamard. 3. Probar el Corolario 8.6.2 usando la descomposici´n QR (Teorema 1.8.2) de A ∈ Mn (C). o Observar que (8.2) es trivial para matrices triangulares. 4. Probar el Corolario 8.6.2 usando la interpretaci´n del determinante como un ´rea o o a volumen. 8.7.7. Dar los detalles de la prueba del Lema 8.6.4. Ejercicios nuevos 8.7.8. Sean x, y ∈ Cn y G ∈ Mn (C). Probar que ∗ G◦x y = diag (x) G diag (y) . Definici´n 8.7.9. Dada G ∈ Mn (C)+ , se define: o
  • 181. 166 Producto de Hadamard 1. El ´ ındice minimal de G como I(G) = max{λ ≥ 0 : G ◦ B ≥ λB para todo B ∈ Mn (C)+ } . 2. Dada una norma N en Mn (C), se define el ´ ındice N de Hadamard para G como IN (G) = max λ ≥ 0 : N (G ◦ B) ≥ λN (B) para todo B ∈ Mn (C)+ = min N (G ◦ B) : B ∈ Mn (C)+ y N (B) = 1 . ındice de G asociado con la norma espectral · = · sp se denota Isp (G), mientras que El ´ el asociado a la norma Frobenius · 2 ser´ denotado por I2 (G). a 8.7.10. Sean G ∈ Mn (C)+ , 1 = (1, . . . , 1) ∈ Cn y E = 1 · 1T . Sea N una norma. 1. I(G) = 0 si y s´lo si 1 ∈ R(G). Si y ∈ Cn cumple que Gy = 1, entonces o m −1 n −1 I(G) = yi = y, 1 = ρ(G† E)−1 = min { Gz, z : zi = 1 } i=1 i=1 n −1 det G Y si G > 0, se tiene que I(G) = (G−1 )ij = . i,j=1 det(G + E) − det G 2. I(G) ≤ IN (G) para cualquier norma unitariamente invariante N . 3. IN (G) = 0 ⇐⇒ G ◦ I = 0 ⇐⇒ Gii = 0 para todo i ∈ In . 4. Si D = diag (d) ∈ Gl (n)+ es diagonal, IN (D) = N (D−1 )−1 . En part. n −1 n −1/2 I(D) = Isp (D) = d−1 i e I2 (D) = d−2 i . i=1 i=1 5. Los indices I2 e Isp se alcanzan en matrices B ∈ Mn (C)+ de rango 1. O sea, I2 (G) = min G ◦ xx∗ 2 e Isp (G) = min G ◦ yy ∗ . x =1 y =1 M´s a´n, ambos minimos se alcanzan en vectores x a u 0 (o y 0). 6. Isp (A) = ´ { Isp (D) : A ≤ D y D es diagonal }. ınf 7. Si x ∈ Cn , entonces Isp (x x) = m´ |xi |2 . ın i∈In a b 8. Sea A = ∈ M2 (C)+ . Probar que b c ac−|b|2 (a) Si |b| < min{a, c}, entonces Isp (A) = a+c−2|b| . (b) Si |b| ≥ m´ ın{a, c}, se tiene que Isp (A) = m´ ın{a, c}.
  • 182. Cap´ ıtulo 9 Algunas desigualdades de matrices 9.1 Partes reales Definici´n 9.1.1. Si A ∈ Mn (C), se llama parte real de A a o A + A∗ Re A = ∈ H(n). 2 Si x ∈ Cn , notaremos Re x ∈ Rn al vector de las partes reales de sus coordenadas. Proposici´n 9.1.2 (Fan-Hoffman). Sea A ∈ Mn (C). Entonces o 1. µk (Re A) ≤ µk (|A|) = sk (A), para todo k ∈ In . 2. Existe U ∈ U(n) tal que Re A ≤ U |A|U ∗ . Demostraci´n. Sean x1 , . . . , xn y w1 , . . . , wn bases ortonormales de Cn , formadas por au- o tovectores de Re A (resp. A∗ A) adaptadas a µ(Re A) (resp. µ(A∗ A) ). Dado k ∈ In , sea x ∈ Gen {x1 , . . . , xk } ∩ Gen {wk , . . . , wn } , un vector unitario (debe existir por las dimensiones de los subespacios). Entonces, por el Teorema de Courant-Fisher 2.3.3 y la Proposici´n 3.2.6, o µk (Re A) ≤ Re A x, x = Re Ax, x ≤ | Ax, x | ≤ Ax = A∗ Ax, x 1/2 ≤ µk (A∗ A)1/2 = µk (|A|) = sk (A) . La segunda parte se deduce de la primera, dado que diag (µ(Re A) ) ≤ Σ(A).
  • 183. 168 Algunas desigualdades de matrices Proposici´n 9.1.3 (Ky Fan). Dada A ∈ Mn (C), sea µ(A) ∈ Cn el vector de autovalores de o A en alg´n orden. Entonces u Re µ(A) µ(Re A) Demostraci´n. Ordenemos al vector µ(A) de tal modo que o Re µ1 (A) ≥ Re µ2 (A) ≥ . . . ≥ Re µn (A) . Sea {x1 , . . . , xn } una base ortonormal respecto a la cual A es una matriz triangular superior, y tal que Axi , xi = µi (A) (que existe por el Teorema 1 de Schur 1.6.1). Dado k ∈ In , por el Principio del m´ximo de Ky Fan (Proposici´n 5.1.4), se tiene que a o k k k k k Re µ(A)↓ = j Re µj (A) = Re Axj , xj = Re A xj , xj ≤ µj (Re A) . j=1 j=1 j=1 j=1 j=1 tr A + tr A A + A∗ Para k = n hay igualdad porque Re tr(A) = = tr = tr Re A. 2 2 Corolario 9.1.4. Si A ∈ Mn (C) cumple que A + A∗ > 0, entonces σ (A) ⊆ {z ∈ C : Re z > 0} . En realidad, se puede cambiar Re z > 0 por µn (Re A) ≤ Re z ≤ µ1 (Re A). Observaci´n 9.1.5. Sean A, B ∈ H(n). Se llama producto simetrizado de A y B a o S = S(A, B) = AB + BA ∈ H(n) . Supongamos que A > 0 y S = S(A, B) > 0. Notar que, si C = A−1/2 BA1/2 , 0 < A−1/2 SA−1/2 = A1/2 BA−1/2 + A−1/2 BA1/2 = Re C . Por el Corolario 9.1.4, se tiene que σ (C) = σ (B) ⊆ R∗ . Como B ∈ H(n), debe ser B > 0. + Si A ∈ Mn (C)+ no es inversible, notar que dado ε > 0 bien chico, se tiene que S(A + εI, B) = S(A, B) + 2εB > 0 (porque Gl (n)+ es abierto en H(n) ) . Luego se aplica el caso anterior, y tambien A ≥ 0 + S(A, B) > 0 =⇒ B > 0. Ejercicio 9.1.6. Sean A, B ∈ H(n). 1. Probar que, para cada x ∈ Cn , se tiene S(A, B)x, x = 2 Re Ax, Bx . 2. Dar un ejemplo de matrices positivas A y B tales que S(A, B) ≥ 0. Proposici´n 9.1.7 (Kittaneh ’95). Sean A, B ∈ Mn (C) tales que AB ∈ H(n). Entonces, o |||AB||| ≤ ||| Re BA||| para toda NUI ||| · ||| en Mn (C).
  • 184. 9.1 Partes reales 169 Demostraci´n. Comencemos notando que los autovalores de BA son los mismos que los de o AB y por ende son todos reales. M´s a´n, en la Proposici´n 1.5.5 vimos que µ(AB) = µ(BA). a u o Luego, usando la Proposici´n 9.1.3, obtenemos que o µ(AB) = µ(BA) = Re µ(BA) µ(Re BA). Como AB y Re BA ∈ H(n), podemos aplicar el Corolario 5.3.14 (usando que t → |t| es convexa) y deducir que s(AB) = |µ(AB)|↓ w |µ(Re AB)|↓ = s(Re AB), por lo que |||AB||| ≤ ||| Re(BA)||| para toda NUI. Proposici´n 9.1.8 (Corach-Porta-Recht, ’93). Sean T, S ∈ H(n) y supongamos que S es o inversible. Entonces, |||ST S −1 + S −1 T S||| ≥ 2 |||T ||| para toda NUI ||| · ||| en Mn (C). Demostraci´n. Aplicar la desigualdad de Kittaneh a A = T S −1 y B = S. o Ejercicios 9.1.9. 1. Usando el famoso truco de las matrices de 2×2, extender la desigual- dad CPR a cualquier T ∈ Mn (C), no necesariamente autoadjunta. Se sugiere usar las matrices 0 T T = ∈ M2n (C) T∗ 0 y una adecuada S1 ∈ H(2n) invertible. Ojo con los sk (T ), que son los de T , pero repetidos dos veces cada uno. 2. Con el mismo truco, probar tambi´n que, si T ∈ Mn (C) y S ∈ H(n) es inversible, e entonces |||ST S + S −1 T S −1 ||| ≥ 2 |||T ||| para toda NUI ||| · ||| en Mn (C). 3. Verificar, adem´s, que la constante 2 es ´ptima en el primer caso (fijando S y moviendo a o todos los T ∈ Mn (C) o H(n) ), pero no siempre lo es en el segundo. ¿Para qu´ matrices e S lo ser´? (esto ultimo es dif´ pero es f´cil encontrar familias razonablemente grandes a ´ ıcil, a de ejemplos donde vale, al menos para la norma espectral). 4. Otra manera de probar la desigualdad CPR (la original) es (a) Primero reducir al caso en que S es diagonal. (b) Despu´s escribir ST S −1 + S −1 T S como un producto de Hadamard. e (c) Verificar que la matriz que multiplica Hadamard, luego de “pasarla dividiendo”, es semi definida positiva. (d) Aplicar el siguiente resultado: Si A ≥ 0, entonces para toda B ∈ Mn (C) y para toda nui ||| · ||| en Mn (C), se tiene que |||A ◦ B||| ≤ m´x { aii : i ∈ In } |||B||| . a Esto es conocido como el Teorema de Schur (ver Corolario 8.2.5, Schur 4).
  • 185. 170 Algunas desigualdades de matrices 9.2 Desigualdad de Thompson Observaci´n 9.2.1. A diferencia del m´dulo de n´meros, el de matrices no cumple la de- o o u sigualdad triangular. O sea que existen matrices A, B tales que |A + B| ≤ |A| + |B| (Ejercicio: encontrar un par as´ en M2 (C) ). Esto sucede porque sus partes unitarias pueden mezclar ı tama˜os en forma aleatoria. Lo mejor que se tiene para ese lado es el siguiente resultado, n donde uno corrige ese problema: Teorema 9.2.2 (Thompson). Dadas A, B ∈ Mn (C), existen U, V ∈ U(n) tales que |A + B| ≤ U |A|U ∗ + V |B|V ∗ . (9.1) Demostraci´n. Hagamos la descomposici´n polar A+B = W |A+B|, con W ∈ U(n). Entonces o o |A + B| = W ∗ (A + B) = Re W ∗ (A + B) = Re W ∗ A + Re W ∗ B . (9.2) Por otra parte, por la Proposicion 9.1.2 (Fan-Hoffman), existen U, V ∈ U(n) tales que Re W ∗ A ≤ U |W ∗ A|U ∗ = U |A|U ∗ y Re W ∗ B ≤ U |W ∗ B|U ∗ = U |B|U ∗ , porque (W ∗ A)∗ W ∗ A = A∗ W ∗ W A = A∗ A y entonces |W ∗ A| = |A| (lo mismo para B). En el caso de la desigualdad triangular num´rica, la igualdad se da si y s´lo si ambos n´meros e o u poseen igual argumento. Algo similar vale en el caso matricial: Teorema 9.2.3. Dadas A, B ∈ Mn (C), las siguientes afirmaciones son equivalentes: 1. S´lo la igualdad puede darse en la ecuaci´n (9.1). o o 2. Existe W ∈ U(n) tal que A = W |A| y tambi´n B = W |B|. e Demostraci´n. o 1 ⇒ 2 Sea A + B = W |A + B| la descomposici´n polar de A + B, con W ∈ U(n). Veremos que o W A ≥ 0 y W B ≥ 0. Como en la Eq. (9.2), se tiene que |A + B| = Re W ∗ A + Re W ∗ B . Llamemos C = W ∗ A y D = W ∗ B. Siguiendo el razonamiento anterior, por la Proposi- cion 9.1.2 (Fan-Hoffman), existen U, V ∈ U(n) tales que Re W ∗ A = Re C ≤ U |A|U ∗ y Re D ≤ V |B|V ∗ . Ahora bien, la hip´tesis de que s´lo puede darse la igualdad en (9.1) o o fuerza a que Re C = U |A|U ∗ y Re D = V |B|V ∗ . Por lo tanto, 2 tr AA∗ + tr A∗ A tr CC ∗ + tr C ∗ C tr (Re C) = tr |A|2 = tr A∗ A = = . (9.3) 2 2 2 Observar que 4 tr (Re C) = tr CC ∗ + tr C ∗ C + tr C 2 + tr(C ∗ )2 , por lo que la Eq. (9.3) se traduce como tr CC ∗ + tr C ∗ C = tr C 2 + tr(C ∗ )2 . Luego tr (C − C ∗ )(C ∗ − C) = tr CC ∗ + tr C ∗ C − tr C 2 − tr(C ∗ )2 = 0 . Esto muestra que C = W ∗ A ∈ H(n). Luego W ∗ A = Re W ∗ A = U |A|U ∗ ∈ Mn (C)+ . Analogamente se prueba que W ∗ B ∈ Mn (C)+ .
  • 186. 9.3 Desigualdad aritm´tico-geom´trica en matrices e e 171 2 ⇒ 1 Supongamos ahora que A = W |A| y B = W |B| para la misma W ∈ U(n). Luego A + B = W (|A| + |B|) =⇒ |A + B| = |A| + |B|. Si vale (9.1) para alg´n par u U, V ∈ U(n), entonces |A| + |B| ≤ U |A|U ∗ + V |B|V ∗ =⇒ M = U |A|U ∗ + V |B|V ∗ − |A| − |B| ∈ Mn (C)+ . Luego, la matriz M ∈ Mn (C)+ y tiene traza nula, o sea que M = 0. Esto muestra que s´lo la igualdad puede complirse en (9.1). o 9.3 Desigualdad aritm´tico-geom´trica en matrices e e Recordemos la siguiente desigualdad num´rica, que ya hab´ aparecido en el Teorema 8.6.1: e ıa Dados a1 , . . . , am ∈ R∗ y λ1 . . . , λm ∈ [0, 1] tales que + λi = 1, se cumple que i∈Im m m aλi ≤ i λi ai . (9.4) i=1 i=1 Es la llamada desigualdad aritm´tico-geom´trica, y se demuestra r´pidamente usando que el e e a logaritmo es una funci´n creciente y c´ncava (de n´meros). Como se har´ en la mayor´ de o o u a ıa las secciones que siguen, daremos versiones matriciales de ella. Pero en principio s´lo para el o caso m = 2 y λ1 = λ2 = 1 . Algunas p´ginas m´s adelante (Teorema 9.4.1), mostraremos una 2 a a versi´n m´s general (s´lo se asume que m = 2), que es tambi´n conocida como la desigualdad o a o e de Young. Igual damos una prueba de este caso, porque usa una t´cnica interesante que es e bueno ver c´mo funciona. o Proposici´n 9.3.1. Sean A, B ∈ Mn (C). Entonces o 1 si (AB ∗ ) ≤ si (A∗ A + B ∗ B) para todo i ∈ In . 2 A 0 Demostraci´n. Sea X = o ∈ M2n (C). Cuentas elementales muestran que B 0 A∗ A + B ∗ B 0 AA∗ AB ∗ X ∗X = y XX ∗ = . 0 0 BA∗ BB ∗ I 0 I 0 Sean P = yU= = 2P − I2n ∈ U(2n). Luego 0 0 0 −I 0 AB ∗ 1 AB ∗ = = XX ∗ − CP (XX ∗ ) = XX ∗ − U XX ∗ U ∗ . BA∗ 0 2 + − Tomemos la descomposici´n AB ∗ = AB ∗ − AB ∗ . Observar que ambas matrices XX ∗ y o U XX ∗ U ∗ ∈ M2n (C)+ . Luego, la Eq. (3.7) y el ´ ıtem 5.b de la Secci´n 3.3 aseguran que o + 1 1 1 si (AB ∗ ) = µi AB ∗ = µi AB ∗ ≤ µi (XX ∗ ) = µi (X ∗ X) = si (A∗ A + B ∗ B) , 2 2 2
  • 187. 172 Algunas desigualdades de matrices para todo i ∈ In . El siguiente resultado es m´s fino que el anterior, y no se generaliza tan f´cilmente (salvo para a a la norma Frobenius, ver Teorema 9.4.7). Proposici´n 9.3.2. Sean A, B, X ∈ Mn (C). Entonces se tiene que o 1 |||AXB ∗ ||| ≤ |||A∗ AX + XB ∗ B||| , (9.5) 2 para toda NUI ||| · ||| en Mn (C). Demostraci´n. Debemos dividir la prueba en tres pasos: o Paso 1: Supondremos que A = B ∈ H(n) y tambi´n X ∈ H(n). Por la Proposici´n 9.1.7, e o 1 |||AXA||| ≤ ||| Re XA2 ||| = |||A2 X + XA2 ||| . 2 Paso 2: Ahora X es cualquiera, pero A, B ∈ H(n): Tomemeos A 0 0 X T = ∈ H(2n) e Y = ∈ H(2n) . 0 B X∗ 0 1 Por el Paso 1, s(T Y T ) w 2 s(T 2 Y + Y T 2 ). Pero cuentas f´ciles muestran que a 0 AXB TY T = = A∗ XB y an´logamente a T 2 Y + Y T 2 = A2 X + XB 2 . BX ∗ A 0 1 1 Luego podemos deducir que s(AXB) w 2 s(A2 X + XB 2 ) = s 2 [A2 X + XB 2 ] . Paso 3: El caso general. Tomemos descomposiciones polares A = U |A| y B = V |B|, con U, V ∈ U(n). Notar que A∗ AX + XB ∗ B = |A|2 X + X|B|2 , mientras que |||AXB ∗ ||| = ||| U |A| X |B| V ∗ ||| = ||| |A| X |B| |||, con lo que la desigualdad (9.5) queda demostrada en general a partir del Paso 2. 9.4 Desigualdades de Young para matrices La desigualdad de Young cl´sica dice que si a, b ∈ R+ y p, q ∈ [1, +∞), entonces a 1 1 ap bq + = 1 =⇒ ab ≤ + , (9.6) p q p q con igualdad si y s´lo si ap = bq . Observar que escrita as´ es un refraseo de la desigualdad o ı, aritm´tico geom´trica (9.4). Primero daremos una versi´n de (9.6) para valores singulares de e e o matrices, que generaliza la Proposici´n 9.3.1. o
  • 188. 9.4 Desigualdades de Young para matrices 173 1 1 Teorema 9.4.1 (Ando [19]). Sean p, q ∈ [1, +∞) tales que p + q = 1. Entonces para todo par de matrices A, B ∈ Mn (C) y todo j ∈ In , se tiene que |A|p |B|q sj (AB ∗ ) ≤ sj + , (9.7) p q |A|p |B|q o equivalentemente, que existe U ∈ U(n) tal que U |AB ∗ |U ∗ ≤ + . p q Antes de demostrar el teorema, necesitamos algunos pasos t´cnicos: e Lema 9.4.2. Sean Q ∈ Mn (C) una proyecci´n ortogonal y X ∈ Mn (C)+ . Entonces o QX r Q ≤ (QXQ)r para 0 < r ≤ 1 y QX r Q ≥ (QXQ)r para 1 ≤ r ≤ 2 . Demostraci´n. Puesto que f (t) = tr es c´ncava de operadores para r ∈ [0, 1] y convexa de o o operadores para r ∈ [1, 2], este lema es un respaso de la Proposici´n 6.3.9. o El paso clave para probar el teorema, v´ el c´culo de los autovalores con el principio minimax ıa a del cap´ ıtulo 2, es el siguiente resultado tecniqu´ ısimo: Lema 9.4.3. Sean p ∈ (1, 2] y q ∈ [2, +∞) tales que p + 1 = 1. Sean A ∈ Mn (C)+ , 1 q B ∈ Gl (n)+ y k ∈ In . Sean B = {v1 , . . . , vn } una BON de Cn adaptada a µ(|AB|), y Sk = Gen {v1 , . . . , vk }. Llamemos P al proyector ortogonal sobre Sk y Q al proyector ortogonal sobre M := R(B −1 P ) = B −1 (Sk ). Si abreviamos µ = µk (|AB|), se tiene que QAp Q QB q Q µQ≤ + . (9.8) p q Demostraci´n. Por la definici´n de Q se tienen las siguientes igualdades: o o QB −1 P = B −1 P y P B −1 Q = P B −1 . (9.9) Por otra parte, sabemos que B(R(Q) ) = B(M) = Sk = R(P ) , por lo que P BQ = BQ y QBP = QB . (9.10) Luego, juntado esta ultima igualdad con (9.9) ´ (QB 2 Q)(B −1 P B −1 ) = QBP B −1 = Q . An´logamente, se ve que (B −1 P B −1 )(QB 2 Q) = Q, lo cual muestra que la inversa de QB 2 Q a “dentro de M” es B −1 P B −1 . Usando quien es Sk , vemos que µ P ≤ |AB|. Luego, (BA2 B)1/2 = |AB| ≥ µP =⇒ BA2 B ≥ µ2 P =⇒ A2 ≥ µ2 B −1 P B −1 , donde vale elevar al cuadrado por que |AB| y P conmutan. Como p ∈ (1, 2], tenemos que la p funci´n f (t) = t 2 es mon´tona de operadores. Luego, usando (9.9), se ve que o o p p p Ap ≥ µp (B −1 P B −1 ) 2 =⇒ QAp Q ≥ µp Q(B −1 P B −1 ) 2 Q = µp (B −1 P B −1 ) 2 .
  • 189. 174 Algunas desigualdades de matrices Como QB 2 Q es la inversa en M de B −1 P B −1 , y en M⊥ todo es nulo, tenemos que −p QAp Q ≥ µp (QB 2 Q) 2 (todo pensado en L(M) ) . (9.11) Para probar (9.8), primeramente consideremos el caso q ∈ [2, 4]. Por el Lema 9.4.2 q QB q Q ≥ (QB 2 Q) 2 . (9.12) Luego, juntando (9.11) y (9.12) se tiene que −p q QAp Q QB q Q µp (QB 2 Q) 2 (QB 2 Q) 2 + ≥ + p q p q −1 1 ≥ µ (QB 2 Q) 2 (QB 2 Q) 2 = µ Q , donde ≥ se puede probar usando la desigualdad de Young num´rica, puesto que µ(QB 2 Q)−1/2 e y (QB 2 Q)1/2 conmutan entre s´ Esto concluye a demostraci´n para este caso. Supongamos ı. o ahora que q ∈ (4, ∞). Sea s = 2 . Entonces 0 < 2 < 1, y q = 2. Por el Lema 9.4.2 se tiene q s s q q 2 Q B q Q = Q (B s ) s Q ≥ (Q B s Q) s y (Q B s Q) s ≥ Q B 2 Q . (9.13) p Por lo tanto, usando que f (t) = t 2 es MOP, se tiene que p p −p −p (QB s Q) s ≥ (QB 2 Q) 2 =⇒ (QB s Q) s ≤ (QB 2 Q) 2 en L(M) . Combinando esta desigualdad con (9.11) se obtiene −p QAp Q ≥ µp (QB s Q) s , y luego combin´ndola con (9.13) resulta a −p q QAp Q QB q B (QB s Q) s (QB s Q) s + ≥ µp + p q p q −1 1 ≥ µ (QB s Q) s (QB s Q) s = µ Q , donde nuevamente en la segunda desigualdad se ha usado la versi´n num´rica de la desigualdad o e de Young. Demostraci´n del Teorema 9.4.1: Probaremos la Eq. (9.7), mientras que la segunda o formulaci´n queda como ejercicio para el lector. Supongamos primero que A, B ∈ Mn (C)+ . o En tal caso tenemos que |AB| = (BA2 B)1/2 y la ecuaci´n (9.7) puede reescribirse como o 1/2 Ap Bq µj (BA2 B)1/2 = µj BA2 B ≤ µj + para todo j ∈ In . (9.14) p q Como µj BA2 B = µj AB 2 A para todo j ∈ In , los papeles de A y B son sim´tricos, raz´n e o por la cual podemos suponer que p ∈ (1, 2] y q ∈ [2, ∞). M´s a´n, apelando a las tecnicas a u
  • 190. 9.4 Desigualdades de Young para matrices 175 usuales de continuidad, podemos tambi´n asumir que B > 0. Dicho todo esto, fijemos k ∈ In e 1/2 y llamemos µ = µk BA2 B = µk (|AB|). Sean B = {v1 , . . . , vn } una BON de Cn adaptada a µ(|AB|), y Sk = Gen {v1 , . . . , vk }. Llamemos P al proyector ortogonal sobre Sk y Q al proyector ortogonal sobre M := R(B −1 P ) = B −1 (Sk ). Entonces, el Lema 9.4.3 dice que QAp Q QB q Q Ap Bq µQ≤ + =⇒ m´ ın + x,x ≥ µ = µk (|AB|) . p q x∈M p q x =1 Observar que dim Sk = dim M = k. Luego, utilizando el principio minimax (Teorema 2.3.3) Ap Bq para calcular µk p + q , la desigualdad (9.14) queda demostrada en este caso. El caso general se deduce de lo anterior por la siguiente observaci´n: Dadas A, B ∈ Mn (C), o si hacemos la descomposici´n polar B = V |B| con V ∈ U(n), se tiene que o 2 |AB ∗ |2 = BA∗ AB ∗ = B|A|2 B ∗ = V |B| |A|2 |B| V ∗ = V |A| |B| V ∗ . De ah´ podemos deducir que los vectores s(AB ∗ ) = µ(|AB ∗ |) = µ(|A| |B|). Volviendo a mirar ı la Eq. (9.7) se ve que lo anterior hace suficiente probar el caso positivo, cosa que ya hicimos. Ejercicio 9.4.4. Mostrar con un ejemplo que la desigualdad (9.7) deja de ser cierta si en el miembro izquierdo se quita la estrella en B. (Ayuda: basta considerar matrices de 2 × 2 y el caso p = q = 2). 1 Corolario 9.4.5. Sean p, q ∈ [1, +∞) tales que p + 1 = 1 y sea N una NUI en Mn (C). q Entonces para todo par de matrices A, B ∈ Mn (C), se tiene que |A|p |B|q N (AB ∗ ) ≤ N + . p q Demostraci´n. Evidente a partir del Teorema 9.4.1, porque o =⇒ w . Las desigualdades de Hirzallah-Kittaneh Cuando uno extiende desigualdades num´ricas a matriciales, aparede un ingrediente nuevo: e Dado que las matrices no conmutan, si uno multiplica por una tercera matrix X, c´mo afecta o esto a la desigualdad? Y de qu´ lado hay que multiplicar cada factor para que la desigualdad e se preserve? Este tipo de an´lisis y generalizaciones aparecer´n seguido en lo que resta del Cap´ a a ıtulo. Daremos a continuaci´n una primera versi´n que camina para Young, aunque solamente para o o la norma de Frobenius. Lo primero que apareci´ al respecto, es un resultado de Bhatia y o Davis [22]: Dados A, B ∈ Mn (C)+ , X ∈ Mn (C), y p, q conjugados, se tiene que Ap X XB q AXB 2 ≤ + . (9.15) p q 2
  • 191. 176 Algunas desigualdades de matrices Sin embargo, mostraremos un resultado m´s fino, debido a Hirzallah y Kittaneh [26], que a adem´s determina completamente los casos en que en (9.15) pudiera darse la igualdad. Para a ello, comenzamos por demostrar unas desigualdades num´ricas: e Lema 9.4.6. Sean a, b ∈ R∗ , y p, q ∈ [1, +∞) tales que + 1 p + 1 q = 1. Si r = m´x{p, q}, a entonces 2 ap bq 1 2 + ≥ (ap − bq ) + a2 b2 . (9.16) p q r2 Demostraci´n. Primero observar que si p = q = 2, tenemos en realidad una igualdad. o Asumamos que q = r > p, o sea que q ∈ [2, +∞). V´ cuentas elementales, se ve que ıa 2 ap bq 1 p 2 2 2 q + − (a − bq ) = ap 1− ap + b , p q q2 q q donde se usa la igualdad 1 − 2 = p − 1 = p − 1 p + 1 = p2 − q12 . Ahora, usando la q 1 q 1 q 1 q 1 desigualdad de Young cl´sica (o la aritm´tico geom´trica), tenemos que a e e 2 2 q 2 2 q−p 1− ap + b ≥ ap (1− q ) b q q = a q b2 , q q ya que p(1 − 2 ) = p( p − 1 ) = 1 − p . Adem´s, usando el hecho de que q 1 q q a p q = p − 1, vemos q−p que p + ( q ) = 2. As´ llegamos finalmente a que ı 2 ap bq 1 p 2 q−p + − 2 (a − bq ) ≥ ap a q b2 = a2 b2 =⇒ Eq. (9.16) . p q q 2 ap bq 1 p 2 De manera an´loga, si p > q, queda que a + ≥ (a − bq ) + a2 b2 . p q p2 1 1 Teorema 9.4.7. Sean A, B ∈ Mn (C)+ , X ∈ Mn (C), y p, q ∈ [1, +∞) tales que p + q = 1. Si r = m´x{p, q}, entonces a 2 1 2 Ap X XB q 2 AXB 2 + Ap X − XB q 2 ≤ + . (9.17) r2 p q 2 Demostraci´n. Como A, B ∈ Mn (C)+ , existen U, V ∈ U(n) tales que A = U D1 U ∗ y B = o V D2 V ∗ , donde D1 = diag(µ(A) ) y D2 = diag (µ(B) ). Llamemos Y = U ∗ XV , λ = µ(A) y µ = µ(B). Entonces tenemos que p q p q Ap X XB q U D1 U ∗ X X V D2 V ∗ D1 Y Y D2 + = + = U + V∗ p q p q p q λp µq j = U i + yij V ∗, p q i,j∈In
  • 192. 9.4 Desigualdades de Young para matrices 177 p q Ap X − XB q = U (D1 Y − Y D2 ) V ∗ = U λp − µq yij i j V∗ y i,j∈In AXB = U (D1 Y D2 )V ∗ = U λi µj yij V ∗. i,j∈In Por la desigualdad (9.16) aplicada a cada par a = λi y b = µj , tenemos que 2 Ap X XB q 2 n λp i µq j 2 + = + |yij | p q 2 i,j=1 p q n n 1 2 2 2 ≥ λp i − µq j |yij | + λ2 µ2 |yij | i j r2 i,j=1 i,j=1 1 2 2 = Ap X − XB q 2 + AXB , r2 lo que completa la prueba del teorema. Observaci´n 9.4.8. Para el caso p = q = 2, la desigualdad (9.17) es en realidad una igualdad. o Esto se observa en la demostraci´n del Teorema 9.4.7, ya que la desigualdad que se presenta o all´ es en realidad una igualdad, como se observ´ en el Lema 9.4.6. ı o A partir de lo anterior pueden encontrarse condiciones necesarias y suficientes para que se satisfagan las igualdades en (9.15) y (9.7), como se demuestra a continuaci´n. o Corolario 9.4.9. Sean A, B, X, p y q como en el Teorema 9.4.7. Se tiene que Ap X XB q + = AXB 2 ⇐⇒ Ap X = XB q . (9.18) p q 2 Ap X XB q Demostraci´n. Si se tiene que o p + q = AXB 2 , la desigualdad (9.17) asegura que 2 p q p q que A X − XB 2 = 0, o sea que A X = XB . Asumamos que Ap X = XB q . Como antes, tenemos A = U D1 U ∗ , B = V D2 V ∗ , donde D1 = diag(µ(A) ) y D2 = diag (µ(B) ). Luego p p q q Ap X = U D1 U ∗ X = U [D1 (U ∗ XV )] V ∗ y XB q = XV D2 V ∗ = U [(U ∗ XV ) D2 ] V ∗ , p q con lo cual, llamando Y = U ∗ XV , tendremos que D1 Y = Y D2 , es decir que q λp yij = yij µq =⇒ λi yij = yij µj i j p para todos los i, j ∈ In . q q p Llegamos a que D1 Y = Y D2 , y por ende AX = XB p . As´ ı, q XB q XB q Ap X XB q AXB = XB p B = XB q = + = + . p q p q Vemos que vale la igualdad entre las matrices, que implica la igualdad de sus normas.
  • 193. 178 Algunas desigualdades de matrices 1 1 Corolario 9.4.10. Sean p, q ∈ [1, +∞) tales que p + q = 1. Entonces Ap X XB q sj + = sj (AB) para todo j ∈ In ⇐⇒ Ap = B q . p q Demostraci´n. Es consecuencias del Corolario 9.4.9 aplicado a X = I. Observar que la o condici´n Ap = B q implicaba igualdad de matrices. o 1 1 Corolario 9.4.11. Sean p, q ∈ [1, +∞) tales que p + q = 1. Entonces Ap X XB q U + U ∗ = |AB| para alguna U ∈ U(n) ⇐⇒ Ap = B q . p q Demostraci´n. Es lo mismo que el Corolario 9.4.10. o Observaci´n 9.4.12. Sean a, b ∈ R∗ , y p, q ∈ [1, +∞) tales que o + 1 p + 1 q = 1. Luego 2 2 ap bq ap bq + ≥ + − ab + a2 b2 , (9.19) p q p q 2 2 ap bq ap bq + + ab ≥ + − ab + 4a2 b2 y (9.20) p q p q 1 p ap bq |a − bq | ≥ + − ab , (9.21) s p q p q donde s = m´ ın{p, q}. En efecto, para probar (9.19) recordamos que α = a + bq ≥ ab, con lo p cual α ≥ α −2αab+2a2 b2 = (α−ab)2 +a2 b2 . Tambi´n, (α+ab)2 −(α−ab)2 = 4αab ≥ 4a2 b2 , 2 2 e y obtenemos (9.20). Para obtener (9.21), si ap ≥ bq , tambi´n tenemos a ≥ bq/p , y como e 1/s − 1/p ≥ 0, 1 1 1 1 1 1 − ap + ab ≥ − bq + bq/p b = + bq =⇒ s p s p s q 1 p ap bq =⇒ |a − bq | ≥ + − ab. s p q Si bq ≥ ap , la demostraci´n es an´loga. Partiendo de estas desigualdades y siguiendo el o a razonamiento de la demostraci´n de (9.17), podemos mostrar que si A, B ∈ Mn (C)+ , X ∈ o Mn (C), y p, q ∈ [1, +∞) cumplen que p + 1 = 1, entonces 1 q 2 2 Ap X XB q Ap X XB q 2 + ≥ + − ABX + AXB 2 , (9.22) p q 2 p q 2 2 2 Ap X XB q Ap X XB q 2 + + ABX ≥ + − ABX + AXB 2 , (9.23) p q 2 p q 2 1 Ap X XB q Ap X − XB q 2 ≥ + − AXB , (9.24) s p q 2
  • 194. 9.5 Desigualdades tipo H¨lder para matrices o 179 donde s = m´ ın{p, q}. Notar que (9.22) tambi´n es m´s fuerte que (9.15). Adem´s, (9.24) e a a puede usarse para demostrar de manera directa los corolarios anteriores. Ejercicio 9.4.13. Sean A, B, C, D ∈ Mn (C)+ tales que AD = DA y BC = CB. Sean 1 X ∈ Mn (C) y p, q ∈ [1, +∞) tales que p + 1 = 1. Entonces q 2 1 p 1 1 2 2 A XC p + Dq XB q ≥ Ap XC p − Dq XB q 2 + ADXCB 2 . (9.25) p q 2 r2 donde r = m´x{p, q}. En particular, si C = D = I se recupera (9.17). a Ejercicio 9.4.14. Sean A, B, C, D ∈ Mn (C) tales que AD = DA, A∗ D = DA∗ , BC = CB y B ∗ C = CB ∗ . Sean X ∈ Mn (C) y p, q ∈ [1, +∞) tales que p + 1 = 1. Entonces 1 q 2 1 p p 1 q q 1 p p q q 2 2 |A| X |C| + |D| X |B| ≥ |A| X |C| − |D| X |B| 2 + ADXC ∗ B ∗ 2 . p q 2 r2 donde r = m´x{p, q}. En particular, si C = D = I, tenemos a 2 1 p 1 q 1 p q 2 2 |A| X + X |B| ≥ |A| X − X |B| 2 + AXB ∗ 2 , (9.26) p q 2 r2 que es la extensi´n natural de (9.17) a matrices cualesquiera. Extender las desigualdades o (9.22)-(9.24) de manera an´loga. a 9.5 Desigualdades tipo H¨lder para matrices o 1 1 Observaci´n 9.5.1 (Caso num´rico). . Dados p, q ∈ (1, +∞) tales que o e p + q = 1, la forma m´s simple de la desigualdad num´rica de H¨lder se escribe a e o 1 1 p p q q (|a| + |b| ) p (|c| + |d| ) q ≥ |ac + bd| , (9.27) para todo cuarteto a, b, c, d ∈ C. M´s a´n, podemos escribir: a u 1 p p q q (|a| + |b| ) p = max {|ac + bd| : |c| + |d| = 1} , (9.28) p q que tiene que ver con la frase “el dual de es .” Proposici´n 9.5.2. Sean A, B ∈ Mn (C). Entonces se verifica que o 1/2 (A∗ A + B ∗ B) = m´x |C ∗ A + D∗ B| : C, D ∈ Mn (C) y C ∗ C + D∗ D ≤ I . a (9.29) Demostraci´n. Dadas C, D ∈ Mn (C) matrices cualesquiera, tenemos que o
  • 195. 180 Algunas desigualdades de matrices ∗ A∗ A + B ∗ B A∗ C + B ∗ D A C A C = ≥0. C ∗ A + D∗ B C ∗ C + D∗ D B D B D Recordemos que la Proposici´n 3.8.6 asegura que, dadas X ∈ Mn (C)+ e Y ∈ Mn (C), o X Y∗ ≥ 0 ⇐⇒ X ≥ Y ∗ Y ≥ 0 . (9.30) Y I 2 Por lo tanto, si C ∗ C + D∗ D ≤ I, tenemos que A∗ A + B ∗ B ≥ |C ∗ A + D∗ B| . Usando que f (t) = t1/2 es mon´tona de operadores, llegamos a que o 1/2 (A∗ A + B ∗ B) ≥ |C ∗ A + D∗ B| . (9.31) M´s a´n, cuando A∗ A + B ∗ B ∈ Gl (n)+ , si consideramos a u C = A(A∗ A + B ∗ B)−1/2 y D = B(A∗ A + B ∗ B)−1/2 , obtenemos una igualdad en la Eq. (9.31). Cuando A∗ A + B ∗ B ∈ Gl (n)+ , observar que / S = ker(A∗ A + B ∗ B) = ker(A∗ A) ∩ ker(B ∗ B) = ker A ∩ ker B . Sean A1 = A|S ⊥ ⊕ I|S , B1 = B|S ⊥ ⊕ I|S . Luego, A∗ A1 + B1 B1 ∈ Gl (n)+ . Tomando 1 ∗ C = A1 (A∗ A1 + B1 B1 )−1/2 , D = B1 (A∗ A1 + B1 B1 )−1/2 , 1 ∗ 1 ∗ una cuenta f´cil mustra que tambi´n obtenemos una igualdad en la Eq. (9.31). a e Lema 9.5.3. Sea A, B ∈ Mn (C)+ , p ∈ (1, +∞) y α ∈ [0, 1]. Entonces se tiene que 1 1 1 (Ap + B p ) p ≥ α1− p A + (1 − α)1− p B . Demostraci´n. Cuando α = 0, tenemos que Ap ≥ 0, con lo cual Ap + B p ≥ B p . Luego, como o f (t) = t1/p es mon´tona de operadores, sale que (Ap + B p )1/p ≥ B. Caso an´logo ocurre para o a α = 1. Consideremos entonces 0 < α < 1, y llamemos β = 1 − α. Usando que f (t) = t1/p tambi´n es c´ncava de operadores, tenemos que e o 1 1 −1 p −1 p p 1 1 (Ap + B p ) p = α α p A +β β p B ≥ α1− p A + β 1− p B . Teorema 9.5.4. Sean A, B, C y D ∈ Mn (C), p, q ∈ [2, +∞) y r ∈ (1, +∞] que cumplen la ecuaci´n p + 1 = 1 − 1 . Para todo α ∈ (0, 1), si llamamos β = 1 − α, se tiene que o 1 q r 2 p 1 1 2 q q p p |C| + |D| ≤ I =⇒ |A| + |B| ≥ α r C ∗ A + β r D∗ B . (9.32)
  • 196. 9.5 Desigualdades tipo H¨lder para matrices o 181 Demostraci´n. El caso r = ∞ (o sea, p = q = 2), fue visto en la Proposici´n 9.5.2, con lo o o cual asumimos r < ∞. Dado que (1/2 − 1/p) + (1/2 − 1/q) = 1/r, tenemos que: 2 2 1 1 α1− p A∗ A + β 1− p B ∗ B α r A∗ C + β r B ∗ D 1 1 2 1− q ∗ 2 = α r C ∗ A + β r D∗ B α C C + β 1− q D∗ D 1 1 1 1 ∗ 1 1 1 1 α2−p A α2−q C α2−p A α2−q C 1 1 1 1 1 1 1 1 ∈ M2n (C)+ . β 2−p B β 2−q D β 2−p B β 2−q D De acuerdo al Lema 9.5.3, tenemos que 2 2 2 2 2 2 p p q q α1− p A∗ A + β 1− p B ∗ B ≤ (|A| + |B| ) p y α1− q C ∗ C + β 1− q D∗ D ≤ (|C| + |D| ) q , 2 p p 1 1 (|A| + |B| ) p α r A∗ C + β r B ∗ D con lo cual concluimos que 1 1 q q 2 ≥ α r C ∗ A + β r D∗ B (|C| + |D| ) q 2 2 1 1 α1− p A∗ A + β 1− p B ∗ B α r A∗ C + β r B ∗ D ≥ 1 1 2 1− p ∗ 2 ∈ M2n (C)+ . α r C ∗ A + β r D∗ B α C C + β 1− p D∗ D q q Usando la Eq. (9.30) y el hecho de que |C ∗ | + |D∗ | ≤ I, estamos hechos. Definici´n 9.5.5. Dadas C, D ∈ Mn (C)+ , escribimos C o D si C m ≤ Dm , para todo m ∈ N. Esta relaci´n es un orden parcial denominado orden espectral. o Proposici´n 9.5.6. Sean A, B ∈ Mn (C)+ . Entonces se verifica: o 1 Ap +B p 1. La funci´n [1 , +∞) o p −→ 2 p es creciente (relativa al orden ≤ de Mn (C)+ ). 2. El siguiente l´ ımite existe y da el -supremo de A y B: 1 A ∨ B = lim Ap + B p p = m´ ın C ∈ Mn (C)+ : A C y B C . p→∞ Demostraci´n. Sean r, q ∈ [1 , +∞) tales que r < q. Si aplicamos el Lema 9.5.3 para los o q n´meros α = 1 y p = > 1, resulta que u 2 r r r q q q 1 (Aq + B q ) q = (Ar ) r + (B r ) r ≥ 1− r (Ar + B r ) . 2 q 1 −1 Luego, usando que t r es MOP y multiplicando por 2 q , llegamos a que 1 1 Aq + B q q Ar + B r r ≥ . 2 2
  • 197. 182 Algunas desigualdades de matrices Sea M = m´x{µ1 (A), µ1 (B)}. Para cualquier p ∈ [1, +∞) tenemos que a Ap + B p M p ≥ m´x{µ1 (Ap ), µ1 (B p )} = m´x{ Ap a a sp , Bp sp } ≥ sp , 2 p p 1 p p 1 y por lo tanto M I ≥ A +B p . En resumen, la funci´n p −→ A +B p es creciente y 2 o 2 acotada superiormente. Aplicando el Ejercicio 3.9.16 vemos que debe existir el l´ ımite 1 1 Ap + B p p Ap + B p p 1 A∨B = sup = lim = lim (Ap + B p ) p . p∈[1 ,+∞) 2 p→∞ 2 p→∞ m Fijemos m ∈ N. Tomando p > m, se tiene que t p es MOP, y as´ ı m m 1 m m Am = (Ap ) p ≤ (Ap + B p ) p = (Ap + B p ) p − − (A ∨ B) −→ . p→∞ m An´logamente se muestra que (A ∨ B) ≥ B m . Esto vale para cualquier m ∈ N, y as´ a ı A, B A ∨ B. Sea ahora C ∈ Mn (C)+ tal que A, B C. Para cada par m, k ∈ N tenemos 1/k 1 Akm +B km que Akm , B km ≤ C km , y usando que t k es MOP, resulta que 2 ≤ C m . Luego m 1 m Ap + B p p Akm + B km k (A ∨ B) = lim = lim ≤ Cm , para todo m ∈ N . p→∞ 2 k→∞ 2 As´ A ∨ B ı, C. Luego, A ∨ B es el supremo de A, B con respecto al orden espectral. Corolario 9.5.7. Sean A, B, C, D ∈ Mn (C). Fijado p ∈ [2, ∞), tomemos el q ∈ (1, 2] tal que se tenga la igualdad p + 1 = 1. Entonces 1 q 2 2 q q p p 2 C + D q |A| + |B| p ≥ |CA + DB| . (9.33) 2 2 2 Por lo tanto, se tiene que C + D |A| ∨ |B| ≥ |CA + DB| . Demostraci´n. Fijemos p ∈ [2, ∞). Supongamos en principio que C , D ≤ 1. En tal caso, o se tiene que |C ∗ | ≤ I =⇒ |C ∗ | I y lo mismo para D. Por la Proposici´n 9.5.6, o 1 t t t |C ∗ | + |D∗ | ≤ |C ∗ | ∨ |D∗ | ≤ I para todo t ∈ [1, +∞) . (9.34) 2 Vamos a aplicar el Teorema 9.5.4. Para ello, tomemos t ∈ [2, +∞) y r ∈ (1, +∞] tales que 1 1 1 p + t = 1 − r . Dados α ∈ [0, 1] y β = 1 − α, la Eq. (9.34) y el teorema citado aseguran que 2 p 1 1 1 2 p p |A| + |B| ≥ 2t α r CA + β r DB . 2 1 1 2 p p Haciendo t → ∞ (con lo cual r → q), tenemos que (|A| + |B| ) p ≥ α q CA + β q DB .
  • 198. 9.6 La t´cnica alternativa e 183 q q q Si ahora suponemos m´s que antes: que C + D = 1, entonces podemos elegir α = C a −1 −1 q y β = D = 1 − α. Reemplazando C = α q C y D = β q D, queda que C = D = 1 (si alguna era nula, su prima tambi´n la hacemos nula). Por el caso anterior obtenemos que e 1 1 2 q q p p 2/p 2 C + D = 1 =⇒ (|A| + |B| ) ≥ αq C A + β q D B = |CA + DB| . (9.35) En el caso general, dadas C, D ∈ Mn (C) (alguna de las dos no nulas), consideramos q q −1/q q q −1/q E=( C + D ) C y F =( C + D ) D, q q con lo cual E + F = 1. Por la Eq. (9.35) nos queda que 2 p p 2 2 |CA + DB| (|A| + |B| ) p ≥ |EA + F B| = 2 =⇒ la Eq. (9.33) . q q ( C + D )q ımite para p → ∞. La otra desigualdad se obtiene de lo anterior, considerando el l´ 9.6 La t´cnica alternativa e En esta secci´n repasaremos y mezclaremos una serie de definiciones y resultados de los o Cap´ıtulos 4 y 7 que usaremos seguido en el resto de este Cap´ ıtulo. Primero enunciamos los relativos a las propiedades espectrales de los productos alternados de matrices (Secci´n 7.3): o Teorema 9.6.1. Sea A ∈ Mn (C) con autovalores λ1 (A), . . . , λn (A). Sea k ∈ In . Entonces los autovalores de Λk A est´n dados por a λJ (Λk A) = λi (A) , J ∈ Qk,n , i∈ J contados con multiplicidad. Corolario 9.6.2. Sea A ∈ Mn (C). Sea k ∈ In . Entonces los valores singulares de Λk A son s Λk A = sJ Λk A J∈Qk,n = si (A) J∈Qk,n , i∈ J contados con multiplicidad, y ordenados en forma decreciente. Adem´s, si ordenamos a los a autovalores λ1 (A), . . . , λn (A) de A con m´dulos decrecientes, se tiene que o k k ρ Λk A = |λi (A)| y Λk A sp = s1 Λk A = si (A) . i=1 i=1 Ahora vienen los resultados que relacionan la mayorizaci´n logar´ o ıtmica con la usual (ver Secci´n 4.4): Recordemos que, dados x, y ∈ Rn , escribimos x w y si o + log k k x↓ ≤ i ↓ yi para todo k ∈ In . (9.36) i=1 i=1
  • 199. 184 Algunas desigualdades de matrices n n Si x > 0 e y > 0, escribimos x y si x w y y, adem´s, a xi = yi . log log i=1 i=1 Observaci´n 9.6.3. Sean x, y ∈ Rn tales que x > 0 e y > 0. Si x o y entonces, como en log el caso de la mayorizaci´n com´n, se cumplen desigualdades invesas para las entradas mas o u peque˜as de x e y. Es decir que n n n x↓ i ≥ ↓ yi para todo k ∈ In . (9.37) i=k i=k Tener cuidado, que esto no vale si s´lo se tiene que x o w y, porque se usa la igualdad de los log productos hasta n. Proposici´n 9.6.4. Sean x, y ∈ Rn . o + 1. Si x w y, entonces xp w yp para todo p ∈ R+ . log 2. Si x > 0 e y > 0, entonces x y implica que xp w y p para todo p ∈ R . log Observaci´n 9.6.5. o 1. El caso m´s usado de la Proposici´n 9.6.4 es cuando p = 1. Es a o decir que, si x, y ∈ Rn , entonces x w y implica x w y. Esto ser´ sumamente util + a log cuando se lo aplique a desigualdades con valores singulares de matrices, usando t´cnicas e de productos alternados. Observar que, en este caso, el Corolario 4.2.3 nos dice que, si hubese quedado x y, deb´ cumplirse que x y . ıa log 2. Por otra parte, la Proposici´n 9.6.4 se puede generalizar, sin cambiar la prueba, si o remplazamos las funciones f (t) = tp por cualquier funci´n f : R+ → R tal que la o aplicaci´n t → f (et ) resulte convexa (o convexa creciente). Notar que, en el caso o demostrado, se usaba esa propiedad para la funci´n t → (et )p = ept . o 9.7 Primeras aplicaciones En esta secci´n veremos tres desigualdades importantes que se prueban en forma directa o usando la t´cnica de extrapolar una desigualdad conocida, pero aplicada a los productos e alternados, y luego deducir una mayorizaci´n v´ la Proposici´n 9.6.4: o ıa o Desigualdad de Weyl Proposici´n 9.7.1 (Mayorante de Weyl). Sea A ∈ Mn (C). Entonces, si µ(A) denota el o vector de autovalores de A, se tiene que 1. |µ(A)| s(A). log
  • 200. 9.7 Primeras aplicaciones 185 2. Para todo p ≥ 0 se tiene que |µ(A)|p w s(A)p . Demostraci´n. Verifiquemos las desigualdades de la f´rmula (9.36) para los vectores |µ(A)| o o y s(A). Para k = 1, basta notar que ρ(A) ≤ A sp . El caso k ≥ 1 se obtiene considerando la desigualdad anterior para los tensores alternados Λk (A). En efecto, por el Corolario 9.6.2, tenemos que k k |µ(A)| ↓ = ρ(Λk A) ≤ Λk A i sp = si (A) , para todo k ∈ In . i=1 i=1 La igualdad para k = n se deduce de que | det A| = (det A∗ A)1/2 = det |A| . La segunda parte se deduce de la Proposici´n 9.6.4. o Desigualdad de B. Simon La que sigue es una variante de la Proposici´n 9.1.7 (desigualdad de Kittaneh ’95): o Proposici´n 9.7.2. Sean A, B ∈ Mn (C) tales que AB es normal. Entonces o |||AB||| ≤ |||BA||| para toda NUI ||| · ||| en Mn (C). Demostraci´n. Como AB es normal, se tiene que AB o sp = ρ(AB). Luego s1 (AB) = AB sp = ρ(AB) = ρ(BA) ≤ BA sp = s1 (BA) . Aplicando esta desigualdad a Λk AB (1 ≤ k ≤ n), que tambi´n es normal, obtenemos que e k k s(AB) w s(BA) , i.e. si (AB) ≤ si (BA) , k ∈ In . log i=1 i=1 Por la Proposici´n 9.6.4, deducimos que s(AB) o w s(BA). Desigualdad de Horn Proposici´n 9.7.3 (Teorema de Horn). Sean A, B ∈ Gl (n). Sea µ(AB) el vector de auto- o valores de AB ordenado con m´dulos decrecientes, i.e. |µ(AB)| = |µ(AB)|↓ . Entonces o |µ(AB)| s(AB) s(A)s(B) = (s1 (A)s1 (B), . . . , sn (A)sn (B) ) . log log En particular, si A, B ∈ Gl (n)+ , para todo k ∈ In se tiene que k k n n µi (AB) ≤ µi (A)µi (B) y µi (AB) ≥ µi (A)µi (B) . (9.38) i=1 i=1 i=k i=k
  • 201. 186 Algunas desigualdades de matrices Demostraci´n. Las relaci´n |µ(AB)| o o s(AB) se deduce de la Proposici´n 9.7.1. Por otro o log lado, el Corolario 9.6.2 asegura que, para todo k ∈ In , k k si (AB) = Λk AB sp = Λk A · Λk B sp ≤ Λk A sp Λk B sp = si (A) si (B) . i=1 i=1 Adem´s, como | det C| = det |C| para cualquier C ∈ Mn (C), se tiene que a n n si (AB) = det |AB| = | det AB| = | det A| | det B| = det |A| det |B| = si (A) si (B) . i=1 i=1 La Eq. (9.38) se deduce de lo anterior y de la Observaci´n 9.6.3, ya que podemos usar que o ∗ µ(AB) = µ(A1/2 BA1/2 ) ∈ R+ n , µ(A) = s(A) y µ(B) = s(B). Ejercicio 9.7.4. Dadas A, B ∈ Gl (n)+ , probar que µ(A1/2 BA1/2 )2 µ(AB 2 A). Comparar log con el Teorema 9.9.4 de m´s adelante. a 9.8 La exponencial Generalidades Sea A ∈ Mn (C). Recordemos que la exponencial de A es la matriz ∞ Am eA = exp(A) = . (9.39) m=0 m! La serie converge absolutamente, porque ∞ ∞ Am A m A ≤ = e < ∞. m=0 m! m=0 m! Por medio de una prueba similar a la del Corolario 1.7.2 (usando el Teorema 1 de Schur 1.6.1), se puede ver que, si λ(A) = (λ1 (A) , . . . , λn (A) ), entonces λ(eA ) = eλ(A) := (eλ1 (A) , . . . , eλn (A) ) . (9.40) En particular, esto dice que σ eA = eσ(A) y que eA ∈ Gl (n) para toda A ∈ Mn (C). Para hacer esto se usa que, al igual que con los polinomios, se tiene que −1 eSAS = SeA S −1 , para toda S ∈ Gl (n) . Por ultimo, no es dif´ verificar con el mismo tipo de argumentos que ´ ıcil m A eA = lim I+ . (9.41) m→∞ m
  • 202. 9.8 La exponencial 187 Observaci´n 9.8.1. Sean A, B ∈ Mn (C). Por la teor´ general de series de potencias (con o ıa variables que conmutan, para usar el binomio de Newton), se puede ver que si AB = BA =⇒ eA+B = eA eB . Entre otras cosas, esto sirve para probar que (eA )−1 = e−A , porque eA e−A = eA−A = I. En forma similar puede verse que, si A ∈ H(n), entonces A eA ∈ Gl (n)+ y (eA )1/2 = e 2 . (9.42) A t M´s a´n, cuando A ∈ H(n), se tiene que e = f (A), donde f (t) = e , t ∈ R, en el sentido a u del c´lculo funcional para autoadjuntas visto en el Cap´ a ıtulo 6. Esto puede probarse diagonal- izando a A o bien tomando l´ımite de polinomios en la f´rmula (9.39). Aplicando los resultados o conocidos para dicho c´lculo (en particular 6.1.3), se tienen las siguientes propiedades: Si a A ∈ H(n), entonces 1. eA ∈ Gl (n)+ y A = log eA . 2. (eA )r = erA para todo r ∈ R. 3. Si A > 0, entonces A = elog A . 4. M´s a´n, Ar = er log A para todo r ∈ R. a u F´rmula de Lie-Trotter o Lamentablemente, cuando A y B no conmutan, la cosa se pone mucho m´s brava, y es muy a dificil encontrar las propiedades de eA+B en funci´n de las de A y B. La unica herramienta o ´ que se tiene, y que se usa sistem´ticamente para este problema, es la famosa f´rmula de a o Lie-Trotter que mostraremos a continuaci´n. o Teorema 9.8.2. Dadas A y B ∈ Mn (C), se tiene la siguiente f´rmula: o A B m eA+B = lim em em . (9.43) m→∞ Demostraci´n. Dadas X, Y ∈ Mn (C), mediante una t´ o ıpica cuenta telesc´pica puede verse o m−1 que X m − Y m = X m−1−j (X − Y )Y j para todo m ∈ N. Luego, j=0 m−1 m m X −Y = X m−1−j (X − Y )Y j j=0 m−1 ≤ X m−1−j X −Y Yj (9.44) j=0 m−1 ≤ X −Y M m−1−j M j = m X − Y M m−1 , j=0
  • 203. 188 Algunas desigualdades de matrices donde M = m´x( X , Y ). Consideremos ahora las matrices a A+B A B Xm = e m , Ym = e m e m , para cada m ∈ N . A + B Observar que Mm = m´x( Xm , Ym ) ≤ e a m . Por la desigualdad (9.44), m−1 m m ( A + B ) A + B Xm − Ym ≤ m Xm − Ym e m ≤ m Xm − Ym e , m ∈ N. Luego del desarrollo en series de la funci´n exponencial, obtenemos que Xm − Ym = o ∞ ∞ ∞ A+B (A + B)k A Ak B Bk = 1+ + − 1+ + 1+ + m mk k! m mk k! m mk k! k=2 k=2 k=2 ∞ ∞ ∞ 1 (A + B)k A Bk Ak B = − AB − I + − em m2 mk−2 k! m mk−2 k! mk−2 k! k=2 k=2 k=2 1 = Cm (A, B) . m2 Si mostr´ramos que C(A, B) = sup Cm (A, B) < ∞, entonces tendr´ a ıamos que m∈N A + B m m A + B C(A, B) e Xm − Ym ≤ m Xm − Ym e ≤ −−→ 0 . −− m m→∞ Afortunadamente, las constantes Cm (A, B) se pueden acotar con las series de las normas. B B Aparecen varios sumandos, todos ellos elementales. Por ejemplo, e m ≤ e m ≤ e B y ∞ ∞ ∞ Ak Ak Ak A ≤ ≤ ≤e para todo m ∈ N . mk−2 k! mk−2 k! k! k=2 k=2 k=2 A B A B Por lo tanto, eA+B − (e m e m )m = Xm − Ym − − → 0 =⇒ m m −− lim (e m e m )m = eA+B . m→∞ m→∞ Otras f´rmulas relacionadas o B Sean A, B ∈ Mn (C). Conjugando la f´rmula (9.43) con la sucesi´n e 2m (que tiende a I), o o obtenemos esta otra versi´n de Lie-Trotter o B A B m B B A B m eA+B = lim e 2m em em e− 2m = lim e 2m e m e 2m , (9.45) m→∞ m→∞ que es mucho m´s adecuada en caso de que A, B ∈ H(n), para que la cosa pase entre matrices a positivas. Ejercicios 9.8.3.
  • 204. 9.9 Desigualdades de Araki y Cordes 189 1. Si suponemos que A, B ∈ H(n), puede obtenerse la siguiente nueva f´rmula: o 1 tB tB e A+B = lim e 2 e tA e 2 t . (9.46) t→0 1 tB tB tB tB Observar que e 2 e tA e 2 + ∈ Gl (n) por lo que e 2 e tA e 2 t tiene sentido para todo tB tB −1 −tB −tB t = 0. Adem´s, e etA e a 2 =e e−tA e 2 , por lo que el caso t < 0 no crea 2 2 problemas. tB tB Sug: Desarrollar el producto de las tres series asociadas a e 2 etA e 2 y aplicarles la serie de potencias de −1 < x → log(1 + x). Despues seguir pasos similares a los de la prueba del Teorema 9.8.2. 2. Extendiendo el argumento que utilizamos para probar el Teorema 9.8.2 probar que, dadas A1 , A2 , ... , Ak ∈ Mn (C), se tiene que k m A1 A2 Ak exp Ai = lim e m e m ... e m . (9.47) m→∞ i=1 9.9 Desigualdades de Araki y Cordes Proposici´n 9.9.1. Sean A, B ∈ Gl (n)+ . Entonces, para todo r ∈ (0, 1) o µ1 (Ar B r ) ≤ µ1 (AB)r . Demostraci´n. Podemos asumir que µ1 (AB) = 1, porque si α2 = µ1 (AB), basta cambiar o A, B por α−1 A y α−1 A, dado que α = 0 y la desigualdad a probar es homog´nea. Luego e debemos verificar que µ1 (Ar B r ) ≤ 1. En efecto, µ1 (AB) = µ1 A1/2 BA1/2 = 1 =⇒ A1/2 BA1/2 ≤ I =⇒ B ≤ A−1 . Como r ∈ (0, 1), el Teorema 6.2.6 dice que f (x) = xr es mon´tona de operadores. Luego o B r ≤ A−r =⇒ Ar/2 B r Ar/2 ≤ I =⇒ µ1 (Ar B r ) = µ1 Ar/2 B r Ar/2 ≤ 1 , como se asever´. o Proposici´n 9.9.2 (Cordes ’87 [5]). Sean A, B ∈ Mn (C)+ . Entonces o Ar B r sp ≤ AB r sp para todo r ∈ [0, 1] . (9.48)
  • 205. 190 Algunas desigualdades de matrices Demostraci´n. Como antes, supondremos que AB o sp = 1. En tal caso 1 = AB sp = AB 2 A sp =⇒ AB 2 A ≤ 1 =⇒ B 2 ≤ A−2 =⇒ B 2r ≤ A−2r (por el Teorema 6.2.6) =⇒ Ar B 2r Ar ≤ 1 =⇒ Ar B 2r Ar sp ≤ 1 =⇒ Ar B r sp ≤ 1 . El caso general sale por homogeneidad. DadasA, B ∈ H(n), recordar que escribimos A B en lugar de µ(A) µ(B) para notar la mayorizaci´n entre los autovalores de A y los de B. o Definici´n 9.9.3. o 1. Sean A, B ∈ Mn (C)+ . Escribiremos A w B si µ(A) w µ(B). Es decir, si log log k k µi (A) ≤ µi (B) para todo k ∈ In . (9.49) i=1 i=1 2. Si A, B ∈ Gl (n)+ , decimos que A B si det A = det B y A w B. log log Observar que, A B ⇐⇒ log A log B , ya que la funci´n t → et es creciente. o log Teorema 9.9.4 (Araki ’90 [21]). Sean A, B ∈ Mn (C)+ . Para todo r ∈ (0, 1) se tiene que (Ar/2 B r Ar/2 )1/r A1/2 BA1/2 log Demostraci´n. Fijemos un r ∈ (0, 1). Como o σ(Ar/2 B r Ar/2 ) = σ(Ar B r ) y σ(A1/2 BA1/2 ) = σ(AB) , basta ver que k k n n µj (Ar B r )1/r ≤ µj (AB) , k ∈ In y µj (Ar B r )1/r = µj (AB) . j=1 j=1 j=1 j=1 Aplicando la Proposici´n 9.9.1 a Λk A y Λk B, y usando la Proposici´n 7.4.4 se obtiene o o 1/r 1/r µ1 ((Λk A)r (Λk B)r ) = µ1 (Λk Ar Λk B r ) ≤ µ1 (Λk A Λk B) . Como (Λk A)(Λk B) = Λk (AB), podemos deducir que k k 1/r 1/r µj (Ar B r ) = µ1 (Λk (Ar B r )) ≤ µ1 (Λk (AB)) = µj (AB) . j=1 j=1 La igualdad en el caso k = n se obtiene tomando determinantes.
  • 206. 9.10 Desigualades entre exponenciales 191 Corolario 9.9.5. Sea ||| · ||| una NUI en Mn (C). Dados A, B ∈ Mn (C)+ , se tiene que |||Ar B r Ar ||| ≤ |||(ABA)r ||| para todo r ∈ (0, 1) . Demostraci´n. Aplicando el Teorema 9.9.4 a las matrices A2 y B y la Proposici´n 4.4.3, o o obtenemos k k sj (Ar B r Ar ) ≤ sj (ABA)r (k ∈ In ) =⇒ s(Ar B r Ar ) w s( (ABA)r ) . (9.50) j=1 j=1 Se usa que si ( (ABA)r ) = µi ( (ABA)r ) = µi (ABA)r = si (ABA)r , para todo i ∈ In . Observaci´n 9.9.6. En las Proposiciones 9.9.1 y 9.9.2, el Teorema 9.9.4 y el Corolario 9.9.5, o valen las desigualdades inversas si uno considera exponentes t ≥ 1. En efecto, basta aplicar lo conocido a las matrices At y B t , con el exponente r = t−1 . En el caso del Corolario 9.9.5, se puede corregir el exponente externo en la Eq. (9.50) Proposici´n 9.9.7. Dadas A, B ∈ Gl (n)+ , se cumple que o log A + log B log(A1/2 BA1/2 ) . (9.51) Demostraci´n. Por la f´rmula de Lie-Trotter, en la versi´n dada por la f´rmula (9.46), o o o o elog A+log B = lim (Ar/2 B r Ar/2 )1/r r→0 Por el Teorema de Araki, (Ar/2 B r Ar/2 )1/r (A1/2 BA1/2 ) para todo r ∈ (0, 1). Aplicando log el Corolario 2.3.8, obtenemos que elog A+log B (A1/2 BA1/2 ) =⇒ log A + log B log(A1/2 BA1/2 ) . log Ejercicio 9.9.8. Usando el Corolario 9.9.5 para las NUI’s A p = (tr |A|p )1/p , mostrar la famosa desigualdad de Araki-Lieb-Thirring: Dadas matrices A, B ∈ Gl (n)+ , se tiene que tr (B 1/2 AB 1/2 )st ≤ tr (B t/2 At B t/2 )s , para todo par de n´meros s, t ≥ 1. u 9.10 Desigualades entre exponenciales Si z ∈ C, uno tiene que |ez | = eRe z = |eRe z |. Veamos qu´ pasa en matrices: e Proposici´n 9.10.1. Sea ||| · ||| una NUI en Mn (C). Para toda A ∈ Mn (C), se tiene que o |||eA ||| ≤ |||eRe A ||| .
  • 207. 192 Algunas desigualdades de matrices Demostraci´n. Usando que B m sp ≤ B m y que s1 (B)2 = B 2 = B ∗ B o sp sp sp , obtenemos que s1 (B m )2 ≤ s1 (B)2m =⇒ s1 ( (B ∗ )m B m ) ≤ s1 (B ∗ B)m , para todo m ∈ N y toda B ∈ Mn (C). Aplicando esto a Λk B, tenemos m´s: a k k si ( (B ∗ )m B m ) ≤ si (B ∗ B)m para todo k ∈ In y todo m ∈ N . i=1 i=1 A Eligiendo ahora B = exp m y aplicando Lie-Trotter llegamos a que k k k ∗ A∗ A ∗ si ( eA eA ) ≤ si [e m e m ]m − − → −− si eA +A para todo k ∈ In . m→∞ i=1 i=1 i=1 Tomando raices cuadradas, llegamos a que s(eA ) w s(eRe A ). Usando ahora la Proposici´n o log 4.4.3, tenemos finalmente que s(eA ) w s(eRe A ). Ejercicio 9.10.2. Encontrar A ∈ M2 (C) tal que |||eA ||| < |||eRe A ||| para toda NUI. Recordemos que si C, D ∈ Mn (C)+ , entonces σ(CD) ⊆ R+ y m´s a´n, al vector de autoval- a u 1/2 1/2 n ores µ(CD) = µ(D CD ) ∈ R+ , se lo puede pensar ordenado en forma decreciente. En particular, se tiene que tr CD ∈ R+ . Lema 9.10.3. Dadas A, B ∈ Mn (C), se tiene que |λ(eA+B )| w µ (eRe A eRe B ) y | tr eA+B | ≤ tr (eRe A eRe B ) . Demostraci´n. Fijado k ∈ In , definamos las siguiente funci´n continua: o o k fk : Mn (C) → R+ dada por fk (X) = |λ(X)|↓ , i para X ∈ Mn (C) . i=1 Notar que todas estas fk cumplen que, para todo par X, Y ∈ Mn (C) y todo m ∈ N, fk (XY ) = fk (Y X) y fk (X 2m ) ≤ fk ([X ∗ X]m ) . (9.52) En efecto, observar que para todo r ∈ In y todo m ∈ N, se tiene que ρ(Λr X 2m ) = ρ(Λr X)2m ≤ Λr X 2m sp = Λr X ∗ X m sp = ρ(Λr [X ∗ X]m ) . Por la Proposici´n 9.6.4, deducimos que |λ(X 2m )| w µ([X ∗ X]m ), o sea la desigualdad de o (9.52) para todo k ∈ In . La igualdad vale porque λ(XY ) = λ(Y X). Por lo tanto, m m−1 m−1 fk (XY )2 ≤ fk [ (XY )∗ (XY ) ]2 = fk [ Y ∗ X ∗ XY ]2 ∗ ∗ 2m−1 = fk [ (X X) (Y Y ) ] .
  • 208. 9.10 Desigualades entre exponenciales 193 m−1 m−1 donde la ultima igualdad vale porque [ Y ∗ X ∗ XY ]2 ´ difiere de [ X ∗ XY Y ∗ ]2 tan s´lo en o ∗ “pasar” el primer Y al final. Repitiendo esto, se llega a que m m−2 m−1 m−1 fk (XY )2 ≤ fk [ (X ∗ X)2 (Y Y ∗ )2 ]2 ≤ · · · ≤ fk (X ∗ X)2 (Y Y ∗ )2 Pongamos ahora X = exp 2A , Y = exp 2B y Mm = 2m . Queda m m A B A∗ A 1 B B∗ 1 fk (e Mm e Mm )Mm ≤ fk (e Mm e Mm ) 2 Mm (e Mm e Mm ) 2 Mm . ımite m → ∞, y usando Lie-Trotter (y que las fk son continuas), tenemos que Tomando l´ A∗ +A B+B ∗ fk (eA+B ) ≤ fk (e 2 e 2 ) = fk (eRe A eRe B ) . Como esto vale para todo k ∈ In , llegamos a que |λ(eA+B )| w µ(eRe A eRe B ). La otra desigualdad se prueba usando que la funci´n f (X) = | tr X| tambi´n cumple las condiciones o e de (9.52) (sale usando que f (Y ) ≤ fn (Y ), pero coinciden si Y ∈ Mn (C)+ ), y haciendo el resto de la cuenta igual. Observaci´n 9.10.4. Si una funci´n f : Mn (C) → R es continua y cumple las condiciones o o f (XY ) = f (Y X) y |f (X 2m )| ≤ f ([XX ∗ ]m ) (9.53) para todo m ∈ N y todo par X, Y ∈ Mn (C), decimos que f es de la clase T. La sutil diferencia con la Eq. (9.52) es que aca no pedimos que f sea positiva, pero no ponemos m´dulo en el ultimo t´rmino de (9.53). Toda la cuenta del Lema 9.10.3 puede rehacerse para o ´ e una tal funci´n, con lo que se obtiene la desigualdad m´s general: Si f es de la clase T, o a f (eA+B ) ≤ f (eRe A eRe B ) , para todo par A, B ∈ Mn (C). Proposici´n 9.10.5. Sea ||| · ||| una NUI en Mn (C). Dadas A, B ∈ H(n), se tiene que o ||| eA+B ||| ≤ ||| eA eB ||| . Demostraci´n. Por el Lema 9.10.3 y el hecho de que A, B ∈ H(n), tenemos que o s(eA+B ) = µ(eA+B ) = |µ(eA+B )| w µ(eA eB ) w s(eA eB ) , donde la ultima mayorizaci´n sale de la Proposici´n 9.7.1 (mayorante de Weyl). ´ o o Proposici´n 9.10.6 (Desigualdad de Golden-Thompson). Si A, B ∈ H(n), entonces o tr eA+B ≤ tr eA eB . (9.54) Demostraci´n. Es consecuencia directa del Lema 9.10.3. o Ejercicio 9.10.7. Usando la Proposici´n 9.10.5, mostrar que o 1/2 tr eA+B ≤ tr eB e2A eB para A, B ∈ H(n) . ¿Esto es mejor o peor que Golden-Thompson?
  • 209. 194 Algunas desigualdades de matrices 9.11 Desigualdad de Ando-Johnson-Bapat Logaritmos Proposici´n 9.11.1. Sean A ∈ Gl (n)+ y B ∈ Gl (m)+ . Entonces se verifica que o log(A ⊗ B) = (log A) ⊗ Im + In ⊗ (log B) . k h Demostraci´n. Supongamos que A = o µi Pi y que B = λj Qj . Luego i=1 j=1 k h A⊗B = µi λj Pi ⊗ Qj . i=1 j=1 Notemos que (Pi ⊗ Qj )(i,j) es un sisitema de proyectores para Cn ⊗ Cm . Luego, si u ⊗ v ∈ Cn ⊗ Cm y abreviamos L = log(A ⊗ B)(u ⊗ v), se tiene que k h L = log(µi λj )[Pi ⊗ Qj (u ⊗ v)] i=1 j=1   k h h k = log(µi ) Pi (u) ⊗ Qj (v) + log(λj ) Pi (u) ⊗ Qj (v) i=1 j=1 j=1 i=1    k h h k = log(µi ) Pi (u) ⊗  Qj (v) + log(λj ) Pi (u) ⊗ Qj (v) i=1 j=1 j=1 i=1 k h = log(µi )[Pi (u) ⊗ v] + log(λj )[u ⊗ Qj (v)] i=1 j=1   k h = log(µi )Pi (u) ⊗v+u⊗ log(λj )Qj (v) i=1 j=1 = [(log A) ⊗ Im ] (u ⊗ v) + [In ⊗ (log B)] (u ⊗ v) . La igualdad en el resto de los elementos de Cn ⊗ Cm se obtiene por linealidad. Corolario 9.11.2. Sean A, B ∈ Gl (n)+ . Entonces log(A ◦ B) ≥ (log A + log B) ◦ In . Demostraci´n. Consideremos la funci´n Φ : L(Hn ⊗ Hn ) → Mn (C) definida en la Proposici´n o o o 8.1.4. Recordar que Φ(T ) = TS (T ∈ L(Hn ⊗ Hn ) ) para cierto subespacio S ⊆ Hn ⊗ Hn , y que Φ(A ⊗ B) = A ◦ B, para A, B ∈ Mn (C). Adem´s, por el Corolario 6.3.14, la funci´n a o t → log T es ∩OP en (0, +∞). Luego, aplicando el Teorema 6.3.6 deducimos que Φ(log X) = (log X)S ≤ log(XS ) = log Φ(X) para todo X ∈ Gl(Hn ⊗ Hn )+ .
  • 210. 9.11 Desigualdad de Ando-Johnson-Bapat 195 Ahora bien, por la Proposici´n 9.11.1, log A ⊗ B = (log A) ⊗ In + In ⊗ (log B), as´ que o ı log(A ◦ B) = log Φ(A ⊗ B) ≥ Φ log(A ⊗ B) = Φ (log A) ⊗ In + In ⊗ (log B) = (log A) ◦ In + In ◦ (log B) , como se afirmaba. La desigualdad Ahora daremos la prueba obtenida por T. Ando de la que fue llamada muchos a˜os “conjetura n de Johnson-Bapat”: Teorema 9.11.3. Sean A, B ∈ Gl (n)+ . Entonces n n µi (A ◦ B) ≥ µi (AB) para todo k ∈ In . i=k i=k Demostraci´n. Por el Corolario 9.11.2 sabemos que o log(A ◦ B) ≥ (log A + log B) ◦ In . Por el Teorema de Weyl 2.3.5, para todo k ∈ In , tenemos que n n n log µi (A ◦ B) = µi (log(A ◦ B) ) ≥ µi ( (log A + log B) ◦ In ) . i=k i=k i=k De acuerdo al Teorema de mayorizaci´n de Schur 5.1.1, o (log A + log B) ◦ In log A + log B, y entonces n n µi ( (log A + log B) ◦ In ) ≥ µi (log A + log B) , k ∈ In . i=k i=k Por la Proposici´n 9.9.7, log A + log B o log(A1/2 BA1/2 ). Luego n n n µi (log A + log B) ≥ µi (log(A1/2 BA1/2 )) = log µi (AB) , k ∈ In . i=k i=k i=k Combinando estos resultados obtenemos que n n µi (A ◦ B) ≥ µi (AB) , k ∈ In , i=k i=k como se quer´ demostrar. ıa
  • 211. 196 Algunas desigualdades de matrices Observaci´n 9.11.4. Este teorema mejora el resultado de Bapat-Sunder: o n n µi (A ◦ B) ≥ µi (A)µi (B) para todo k ∈ In . i=k i=k pues, de acuerdo al Teorema de Horn (Proposici´n 9.7.3), se tiene que o n n µi (AB) ≥ µi (A)µi (B) para todo k ∈ In . i=k i=k Tambi´n verificaremos la siguiente variante del Teorema 9.11.3: e Teorema 9.11.5. Sean A, B ∈ Gl (n)+ . Entonces n n µi (A ◦ B) ≥ µi (AB t ) para todo k ∈ In . i=k i=k Demostraci´n. Como log B t = (log B)t , tenemos que o (log B t ) ◦ I = (log B)t ◦ I = (log B) ◦ I. Por lo tanto, podemos reemplazar {log A+log B}◦I por {log A+log B t }◦I en la demostraci´n o anterior, con lo que queda demostrado el teorema. De los Teoremas 9.11.3 y 9.11.5 se deducen los cl´sicos teoremas de Fiedler que aseguran que, a para A, B ∈ Gl (n)+ , A ◦ B ≥ µn (AB)I y A ◦ B ≥ µn (AB t )I 9.12 Medias de operadores positivos Definici´n 9.12.1. Cuando 0 ≤ α ≤ 1, la α-media de A, B ∈ Gl (n)+ es lo siguiente o A#α B = A1/2 (A−1/2 BA−1/2 )α A1/2 . 1 En particular, la media geom´trica A#B es la 2 -media, o sea, e A#B = A1/2 (A−1/2 BA−1/2 )1/2 A1/2 . Proposici´n 9.12.2. Sean A, B ∈ Gl (n)+ . Entonces A−1/2 (A#B)B −1/2 ∈ U(n). o Demostraci´n. Sea T = A−1/2 B 1/2 . Consideremos su descomposici´n polar a derecha, dada o o por T = |T ∗ |U , con U ∈ U(n). Luego A−1/2 (A#B)B −1/2 = A−1/2 (A1/2 (A−1/2 BA−1/2 )1/2 A1/2 )B −1/2 = (A−1/2 BA−1/2 )1/2 A1/2 B −1/2 = (T T ∗ )1/2 T −1 = |T ∗ | T −1 = U ∈ U(n) , como quer´ ıamos demostrar.
  • 212. 9.12 Medias de operadores positivos 197 Lema 9.12.3. Sean A ∈ Gl (n)+ , B ∈ Mn (C)+ y C ∈ Mn (C). Entonces A C ≥ 0 ⇐⇒ B ≥ C ∗ A−1 C . C∗ B I X Demostraci´n. Para abreviar llamemos X = −A−1 C. Entonces o es inversible. Un 0 I c´lculo sencillo nos muestra que a I 0 A C I X A 0 = . (9.55) X∗ I C∗ B 0 I 0 B − C ∗ A−1 C Entonces de aqu´ resulta claro el enunciado. ı Proposici´n 9.12.4. Dados A, B ∈ Gl (n)+ , la media geom´trica A#B es la mayor matriz o e autoadjunta del siguiente conjunto: A C Ω= C ∈ H(n) : ≥0 . C B Demostraci´n. Observemos que como (A#B)A−1 (A#B) = A1/2 (A−1/2 BA−1/2 )A1/2 = B, o entonces por el Lema 9.12.3, la matriz A A#B A#B B es semidefinida positiva. Luego, A#B ∈ Ω. Para demostrar que es efectivamente el m´ximo a tomemos C ∈ Ω arbitrario. Entonces el Lema 9.12.3 nos dice que B ≥ CA−1 C. Por lo tanto, (A−1/2 CA−1/2 )2 = A−1/2 (CA−1 C) A−1/2 ≤ A−1/2 BA−1/2 y por el Teorema 6.2.6, tenemos A−1/2 CA−1/2 ≤ | A−1/2 CA−1/2 | ≤ (A−1/2 BA−1/2 )1/2 . Luego C ≤ A1/2 (A−1/2 BA−1/2 )1/2 A1/2 = A#B, lo cual demuestra que A#B es el m´ximo del conjunto Ω. a Corolario 9.12.5. Sean A, B ∈ Gl (n)+ . Entonces A A#B B A#B ≥0 y ≥0. A#B B A#B A Demostraci´n. Es inmediato a partir de la Proposici´n 9.12.4. o o
  • 213. 198 Algunas desigualdades de matrices Observaci´n 9.12.6. Puede probarse que (A#B)2 o A1/2 BA1/2 , lo que implica que log n n µi (A#B)2 ≥ µi (AB) para todo k ∈ In . i=k i=k En consecuencia, el siguiente resultado mejora el Teorema 9.11.3. Teorema 9.12.7. Sean A, B ∈ Gl (n)+ . Entonces n n µi (A ◦ B) ≥ µi (A#B)2 para todo k ∈ In . i=k i=k Demostraci´n. Por la Proposici´n 9.12.5 y el Teorema de mayorizaci´n de Schur 5.1.1 o o o A A#B B A#B A◦B A#B ◦ A#B ◦ = ≥0. A#B B A#B A A#B ◦ A#B A◦B Ahora, usando 3.7.8, se deduce que A ◦ B ≥ (A#B) ◦ (A#B) y por ende n n µi (A ◦ B) ≥ µi [(A#B) ◦ (A#B)] para todo k ∈ In . i=k i=k Finalmente, aplicando el Teorema 9.11.3 al miembro de la derecha se obtiene n n µi [(A#B) ◦ (A#B)] ≥ µi (A#B)2 para todo k ∈ In . i=k i=k completanto la demostraci´n. o 9.13 Ejercicios Ejercicios del texto 9.13.1. Sean A, B ∈ H(n). 1. Probar que, para cada x ∈ Cn , se tiene S(A, B)x, x = 2 Re Ax, Bx . 2. Dar un ejemplo de matrices positivas A y B tales que S(A, B) ≥ 0. 9.13.2. Encontrar dos matrices A, B ∈ M2 (C) tales que |A + B| ≤ |A| + |B|. 9.13.3. Mostrar que la desigualdad (9.7) deja de ser cierta si en el miembro izquierdo se quita la estrella en B. (Ayuda: basta considerar matrices de 2 × 2 y el caso p = q = 2).
  • 214. 9.13 Ejercicios 199 9.13.4. Sean A, B, C, D ∈ Mn (C)+ tales que AD = DA y BC = CB. Sean X ∈ Mn (C) y 1 p, q ∈ [1, +∞) tales que p + 1 = 1. Entonces q 2 1 p 1 1 2 2 A XC p + Dq XB q ≥ Ap XC p − Dq XB q 2 + ADXCB 2 . p q 2 r2 donde r = m´x{p, q}. a 9.13.5. Sean A, B, C, D ∈ Mn (C)+ tales que AD = DA, A∗ D = DA∗ , BC = CB y B ∗ C = CB ∗ . Sean X ∈ Mn (C) y p, q ∈ [1, +∞) tales que p + 1 = 1. Entonces 1 q 2 1 p p 1 q q 1 p p q q 2 2 |A| X |C| + |D| X |B| ≥ |A| X |C| − |D| X |B| 2 + ADXC ∗ B ∗ 2 . p q 2 r2 donde r = m´x{p, q}. En particular, si C = D = I, mostrar que a 2 1 p 1 q 1 p q 2 2 |A| X + X |B| ≥ |A| X − X |B| 2 + AXB ∗ 2 , p q 2 r2 que es la extensi´n natural de (9.17) a matrices cualesquiera. Extender las desigualdades o (9.22)-(9.24) de manera an´loga. a 9.13.6. Dadas A, B ∈ Gl (n)+ , probar que µ(A1/2 BA1/2 )2 µ(AB 2 A). log 9.13.7. Dada A ∈ Mn (C), probar que m A eA = lim I+ . (9.56) m→∞ m 9.13.8. Encontrar A ∈ M2 (C) tal que |||eA ||| < |||eRe A ||| para toda NUI. 9.13.9. 1. Dades A, B ∈ H(n), mostrar la siguiente nueva f´rmula: o 1 tB tB e A+B = lim e 2 e tA e 2 t . t→0 1 tB tB tB tB Observar que e 2 e tA e 2 + ∈ Gl (n) por lo que e 2 e tA e 2 t tiene sentido para todo tB tB −1 −tB −tB t = 0. Adem´s, e 2 etA e 2 a = e 2 e−tA e 2 , por lo que el caso t < 0 no crea problemas. tB tB Sug: Desarrollar el producto de las tres series asociadas a e 2 etA e 2 y aplicarles la serie de potencias de −1 < x → log(1 + x). Despues seguir pasos similares a los de la prueba del Teorema 9.8.2.
  • 215. 200 Algunas desigualdades de matrices 2. Extendiendo el argumento que utilizamos para probar el Teorema 9.8.2 probar que, dadas A1 , A2 , ... , Ak ∈ Mn (C), se tiene que k m A1 A2 Ak exp Ai = lim e m e m ... e m . m→∞ i=1 9.13.10 (Desigualdad de Araki-Lieb-Thirring). Si A, B ∈ Gl (n)+ , probar que tr (B 1/2 AB 1/2 )st ≤ tr (B t/2 At B t/2 )s , para todo par s, t ≥ 1 . Sug: Usar el Corolario 9.9.5 para las NUI’s A p = (tr |A|p )1/p . Ejercicios nuevos 9.13.11. Sean A, B, C ∈ Mn (C). Demostrar: 1. eA+B = lim (erA/2 erB erA/2 )1/r r→0 2. Si A, B ≥ 0 y r ∈ (0, 1), entonces (Ar/2 B r Ar/2 )1/r A1/2 BA1/2 3. Nuevamente bajo el supuesto que A, B ≥ 0, se tiene que para toda norma unitariamente invariante ||| · |||: |||Ar/2 B r Ar/2 |||1/r − → |||eA+B |||, − r↓0 en forma decreciente. 4. Si A, B > 0, entonces ||| log(A) + log(B)||| ≤ ||| log(A1/2 BA1/2 )||| para toda norma unitariamente invariante ||| · |||. 5. (Golden-Thompson) Si A, B ∈ H(n), entonces tr(eA+B ) ≤ tr(eA eB ). 6. Dar un ejemplo que muestre que la desigualdad tr(eA+B+C ) ≤ tr(eA eB eC ) es falsa. Onda Cauchy-Schwarz 9.13.12. Sean A, B ∈ Mn (C). Probar que, para todo r ∈ (0, +∞), sr (AB) w sr (A)sr (B) =⇒ sr (AB) w sr (A)sr (B) . log 1 1 9.13.13. Sean ϕ una fgs, y p, q ∈ [1, +∞) tales que p + q = 1. Dados x, y ∈ Rn , se tiene que 1 1 ϕ(|x · y|) ≤ ϕ(|x|p ) p · ϕ(|y|q ) q . Sug: usando H¨lder (de n´meros, en las coordenadas) mostrar que, para todo t > 0 se tiene o u tp ϕ(|x|p ) ϕ(|y|q ) ϕ(|x · y|) ≤ + . p q tq Luego calcular el m´ ınimo de esas cosas.
  • 216. 9.13 Ejercicios 201 9.13.14. Sea N una NUI en Mn (C). 1 1 1. Sean p, q ∈ [1, +∞) tales que p + q = 1. Mostrar que 1 1 N (AB) ≤ N (|A|p ) p · N (|B|q ) q para todo par A, B ∈ Mn (C) . 1 1 1 2. M´s a´n, si tomamos p, q y r positivos tales que a u p + q = r , probar que 1 1 1 N (|AB|r ) r ≤ N (|A|p ) p · N (|B|q ) q para todo par A, B ∈ Mn (C) . 3. Deducir que N (|AB|1/2 ) ≤ N (A)1/2 ·N (B)1/2 y que N (AB) ≤ N (A∗ A)1/2 ·N (B ∗ B)1/2 . 4. Otra mejora: Dadas A, B, X ∈ Mn (C) se tiene que N (AXB ∗ )2 ≤ N (A∗ A X) · N (X B ∗ B) . 5. Peor todav´ si r ∈ R∗ , entonces debe valer que ıa: + N ( |AXB ∗ |r )2 ≤ N ( |A∗ A X|r ) · N ( |X B ∗ B|r ) . 6. Ahora deducir que, si s ∈ [0, 1], entonces se cumple que N (As XB 1−s ) ≤ N (AX)s N (XB)1−s y que N (As XB s ) ≤ N (X)1−s N (AXB)s . Observar que tomando X = I en la de la derecha, se obtiene una generalizaci´n de la de- o sigualdad de Cordes (9.48) a todas las NUI’s (porque I sp = 1).
  • 217. 202 Algunas desigualdades de matrices
  • 218. Cap´ ıtulo 10 Rango y Radio Num´ricos e En este cap´ıtulo consideraremos espacios de Hilbert H finito deimensionales (con su producto interno y la norma eucl´ ıdea). Por lo tanto, puede pensarse que H = Cn , e identificar el ´lgebra de operadores L(H) con Mn (C). La mayor´ de los resultados de este cap´ a ıa ıtulo valen tambi´n para el caso infinitodimensional, salvo el hacho de que en varias de las igualdades e e inclusiones que aparecen, el rango num´rico (o las c´psulas convexas) deber´ cambiarse por e a ıan sus clausuras. Una versi´n general aparece en el tomo II de este libro. o 10.1 Definiciones y propiedades b´sicas a Definici´n 10.1.1. Sea A ∈ L(H). o 1. El Rango num´rico de A es el conjunto e W (A) = { Ax, x : x ∈ H, x = 1 } . 2. Recordemos que el radio num´rico de A se define como e w(A) = m´x |λ| = m´x{ | Ax, x | : x ∈ H, x = 1 } a a λ∈W (A) y que define una norma en L(H) (si el cuerpo es C). 10.1.2. A continuaci´n enumeraremos una serie de propiedades elementales del rango y radio o num´ricos que se siguen f´cilmente sus definiciones. Las pruebas que no est´n escritas deben e a e considerarse como ejercicios. Sea A ∈ L(H). 1. Se cumplen las siguientes desigualdades: ρ(A) ≤ w(A) ≤ A sp .
  • 219. 204 Rango y Radio Num´ricos e La segunda se deduce de Cauchy-Schwarz. La primera se deduce de la f´rmula (10.1) o de un poco m´s abajo. a 0 0 2. Tomando T = , se ve que las desiguadades pueden ser estrictas. En efecto, es 2 0 claro que ρ(T ) = 0 y T sp = 2. Por otra parte, como la funci´n o f : {z ∈ C : |z| ≤ 1} → R dada por f (z) = 2|z| (1 − |z|2 )1/2 alcanza el m´ximo f (z) = 1 cuando |z|2 = 1/2, podemos deducir que w(T ) = 1. a 3. Vimos en el Corolario 2.1.4 que, si A es normal, entonces ρ(A) = w(A) = A sp . A + A∗ A − A∗ 4. Recordemos que Re A = e Im A = . Se tiene que 2 2i Re A sp = w(Re A) = m´x | Re Ax , x | ≤ w(A) , a x =1 y lo mismo vale para Im A. Luego A sp ≤ 2 · w(A). 5. Dado B ∈ L(H) se cumple que W (A + B) ⊆ W (A) + W (B). 6. Dado λ ∈ C, se tiene que W (A + λI) = W (A) + λ y W (λ · A) = λ · W (A). 7. Si U ∈ U(H), entonces W (U AU ∗ ) = W (A) y w(U AU ∗ ) = w(A). 8. W (A) es compacto (por serlo la c´scara de la bola unidad de H). a Proposici´n 10.1.3. Sea A ∈ L(H). Entonces o σ (A) ⊆ W (A) . (10.1) Demostraci´n. Si λ es autovalor de A, es claro que λ = Ax, x ∈ W (A) para cualquier o autovector unitario x asociado a λ . 10.2 El Teorema de Hausdorff T¨eplitz o El Teorema de Hausdorff T¨eplitz dice que, para todo A ∈ L(H), se cumple que W (A) es o convexo. Para probarlo se necesitan una serie de reducciones. La principal es ver que basta probarlo para matrices en M2 (C) (esto lo veremos en la prueba del Teorema). Pero a´n entre u ellas, necesitamos dos reducciones especiales: Lema 10.2.1. Dada A ∈ M2 (C), existe U ∈ U(2) tal que, c a trA B = U ∗ AU = , con c= . b c 2
  • 220. 10.2 El Teorema de Hausdorff T¨eplitz o 205 tr A Demostraci´n. Cambiando A por A − o I, podemos suponer que tr A = 0 y tratar de 2 hacer que la diagonal de B sea nula. Si σ(A) = {0}, esto es f´cil (por el Teorema 1 de Schur a 1.6.1). Sin´, σ(A) = {λ, −λ} con λ = 0. Sean x1 y x2 autovectores unitarios asociados a λ o y −λ, respectivamente. Tomemos la curva x(t) = eit x1 + x2 , para t ∈ [0, 2π]. Observar que x(t) = 0, por que x1 y x2 son LI. Entonces, Ax(t), x(t) = λ − λ + eit Ax1 , x2 + e−it Ax2 , x1 = λeit x1 , x2 − λe−it x2 , x1 = 2iλ Im (eit x1 , x2 ) . Eligiendo t0 ∈ [0, 2π] tal que eit0 x1 , x2 ∈ R, tenemos que Ax(t0 ), x(t0 ) = 0, con x(t0 ) = 0. Normalizando a x(t0 ), completando a una BON de C2 , y tomando U ∈ U(2) tal que tenga a esa BON en sus columnas, obtenemos 0 a B = U ∗ AU = , con a, b ∈ C , b 0 donde B22 = 0 porque B11 = 0 = tr B. Lema 10.2.2. Dada B ∈ M2 (C) con diagonal nula, existen V ∈ U(2) y w ∈ C con |w| = 1 tales que, 0 a w · V BV ∗ = , con a≥0 y b≥0. b 0 0 a u 0 Demostraci´n. Si B = o , tomando V = ∈ U(2) y w ∈ C con |w| = 1, b 0 0 1 tenemos que 0 wu a w · V B1 V ∗ = . wu b 0 i i Si a = eiθ1 |a| y b = eiθ2 |b|, tomando u = e 2 (θ2 −θ1 ) y w = e 2 (θ2 +θ1 ) , se obtiene que 0 |a| w · V B1 V ∗ = , |b| 0 como dese´bamos. a Teorema 10.2.3 (Hausdorff-T¨eplitz). Sea A ∈ L(H). Entonces W (A) es convexo. o Demostraci´n. Sean α, β ∈ W (A) distintos, y sean x, y ∈ H unitarios tales que Ax, x = α o y Ay, y = β. Tomemos B0 = {v1 , v2 } una BON de S = Gen {x, y}. Consideremos la compresi´n AS ∈ L(S). La matriz de AS en la base B0 es B = ( Avj , vi )i,j∈I2 ∈ M2 (C). o Dado z = (z1 , z2 ) ∈ C2 , se tiene que w = z1 v1 + z2 v2 ∈ S , w = z 2 y Bz, z = Aw, w ,
  • 221. 206 Rango y Radio Num´ricos e por lo que α, β ∈ W (B) y, para probar que las combinaciones convexas de α y β est´n en a W (A), basta verificar que est´n en W (B). En otras parabras, alcanza con probar el teorema a en el caso de que A ∈ M2 (C). Para ello, por los Lemas 10.2.1 y 10.2.2, se puede asumir que 0 a A= , con a≥0 y b≥0, b 0 puesto que W (C + λI) = W (C) + λ y W (u · V CV ∗ ) = u · W (C) para cualquier C ∈ M2 (C), λ ∈ C, V ∈ U(2) y u ∈ C con |u| = 1. Obervar que los cambios inducidos por las reduc- ciones anteriores (translaciones y rotaciones) no perturban el hecho de que W (A) sea convexo. Veremos que en este caso, W (A) = t (a + b) cos θ + i(a − b) sen θ : t ∈ [0, 1/2] y θ ∈ [0, 2π] , (10.2) que es una elipse (o eventualmente un segmento) centrada en el origen, y por lo tanto convexa. En efecto, dado z ∈ C2 con z = 1, como Az, z = Aeiα z, eiα z para todo α∈R, podemos suponer que z = (t, (1 − t2 )1/2 eiθ ) para t ∈ [0, 1] y θ ∈ [0, 2π]. En tal caso, cuentas elementales muestran que Az, z = t(1 − t2 ) (a + b) cos θ + i(a − b) sen θ . Observar que los n´meros t(1 − t2 ) recorren el intervalo [0, 1/2] cuando t ∈ [0, 1]. Esto prueba u la f´rmula (10.2). o Corolario 10.2.4. Sea A ∈ L(H). 1. En general se cumple que conv [σ (A) ] ⊆ W (A). 2. Si A es normal, entonces conv [σ (A) ] = W (A). Demostraci´n. La inclusi´n σ (A) ⊆ W (A) ya fue vista en la Proposici´n 10.1.3. Pero por o o o el Teorema 10.2.3, sabemos que esa incus´n arrastra a la c´psula convexa. Si A es normal, o a sea {x1 , . . . , xn } una BON de H formada por autovectores de A asociados a sus autovalores λ1 , . . . , λn . Si x ∈ H tiene x = 1, entonces n n n Ax, x = A x, xk xk , x, xk xk = | x, xk |2 λk ∈ conv [σ (A) ] , k=1 k=1 k=1 n porque | x, xk |2 = x 2 = 1. Por lo tanto W (A) ⊆ conv [σ (A)]. k=1 Definici´n 10.2.5. o 1. Dados dos espacios de Hilbert H y K, notamos H ⊕ K = {(x, y) : x ∈ H , y ∈ K} , que es un espacio de Hilbert con el producto (x1 , y1 ) , (x2 , y2 ) = x1 , x2 + y1 , y2 .
  • 222. 10.2 El Teorema de Hausdorff T¨eplitz o 207 2. Dados A ∈ L(H) y B ∈ L(K), se define el operador A ⊕ B ∈ L(H ⊕ K) dado por A ⊕ B(x, y) = (Ax, By), (x, y) ∈ H ⊕ K . 3. Matricialmente tenemos que A 0 H A ⊕ B := ∈ L(H ⊕ K) . 0 B K 4. En forma similar se definen sumas directas de muchos espacios de Hilbert y de muchos operadores en ellos. Corolario 10.2.6. Sean A ∈ L(H) y B ∈ L(K). Entonces W (A ⊕ B) = conv [W (A) ∪ W (A) ] y w(A ⊕ B) = m´x{w(A), w(B)} . a (10.3) Idem con muchos bloques diagonales. Demostraci´n. La inclusi´n W (A) ∪ W (A) ⊆ W (A ⊕ B) se testea inmediatamente usando o o vectores con una coordenada nula. Por el Teorema 10.2.3, esto arrastra a la c´psula convexa a de W (A) ∪ W (A). Rec´ ıprocamente, dados x ∈ H e y ∈ K no nulos tales que (x, y) 2 = x 2 + y 2 = 1, tenemos que A ⊕ B(x, y), (x, y) = Ax, x + By, y x x y y = x 2 A , + y 2 B , , x x y y quien claramente pertenece a conv [W (A) ∪ W (A) ]. Corolario 10.2.7. Sea A ∈ Mn (C). Entonces existe U ∈ U(n) tal que, si B = U ∗ AU , luego tr A Bii = para todo i ∈ In . n tr A Demostraci´n. Cambiando A por A − o I, lo que debemos probar es que, si tr A = 0, n entonces podemos conseguir U ∈ U(n) tal que la diagonal de U ∗ AU sea nula. Lo probaremos por inducci´n en n. Para n = 1 es trivial. Observar que el caso n = 2 es el Lema 10.2.1. Si o n > 2, aplicando el Corolario 10.2.4 obtenemos que tr A 0= ∈ conv [σ (A)] ⊆ W (A) . n Luego existe un vector unitario x ∈ Cn tal que Ax, x = 0. Completando {x} a una BON de Cn que lo tenga como primer elemento, y tomando U1 ∈ U(n) la matriz con esa BON en sus columnas, obtenemos que ∗ 0 ∗ 1 C = U1 AU1 = , ∗ D n−1
  • 223. 208 Rango y Radio Num´ricos e porque C11 = Ax, x = 0. Como D ∈ Mn−1 (C) cumple que tr D = 0, podemos aplicar la hip´tesis inductiva y encontrar V ∈ U(n−1) tal que la diagonal de V ∗ DV sea nula. Definiendo o U2 = 1 ⊕ V ∈ U(n) y U = U1 U2 ∈ U(n), se ve que 1 0 0 ∗ 1 0 0 ∗V U ∗ AU = U2 CU2 = ∗ = , 0 V∗ ∗ D 0 V V ∗∗ V ∗ DV que tiene la diagonal nula. 10.3 Caracterizaciones Observaci´n 10.3.1. Sea W ⊆ C un conjunto convexo compacto, y sea z0 ∈ W . Entonces o / existe un unico w0 ∈ W tal que ´ d(z0 , W ) = |z0 − w0 | = d > 0 . El tal w0 existe (y es unico) por la teor´ usual de espacios de Hilbert, usando que W es ´ ıa convexo y cerrado (para una cuenta ad hoc, ver el Ejercicio 10.5.2). M´s a´n, si x0 = z0 − w0 , a u entonces Re (x0 w0 ) + d2 = Re (x0 z0 ) y Re (x0 z) ≤ Re (x0 w0 ) para todo z∈W . (10.4) Esto se deduce de que w0 es la proyecci´n ortogonal de z0 sobre W , y de que el producto o escalar en C pensado como R2 est´ dado por z , w = Re (w z). Observar que la recta a {z ∈ C : Re [x0 (z − w0 )] = 0} es ortogonal a z0 − w0 y pasa por w0 . Teorema 10.3.2. Sea A ∈ L(H). Entonces W (A) = z ∈ C : |z − λ| ≤ w(A − λI) para todo λ∈C = z ∈ C : |z − λ| ≤ A − λI sp para todo λ∈C . Demostraci´n. Notemos W = W (A), X al conjunto de arriba e Y al conjunto de abajo. Es o claro, por las definiciones, que X ⊆ Y . Usando que W (A) − λ = W (A − λI), es f´cil ver que a W ⊆ X. En lo que sigue probaremos que Y ⊆ W : Supongamos que z0 ∈ W , y sea w0 la / proyecci´n ortogonal de z0 sobre W (como en la Observaci´n 10.3.1). o o Para facilitar las cuentas, rotaremos y transladaremos el problema para que z0 ∈ R+ , w0 = 0 y W ⊆ {z ∈ C : Re z ≤ 0}. Para hacerlo, sean d = |z0 − w0 | = d(z0 , W ) > 0 , y B = e−iθ (A − w0 I) ∈ L(H) , donde z0 − w0 = eiθ d. Luego WB = W (B) = e−iθ (W (A) − w0 ) y si tomamos el conjunto YB = z ∈ C : |z − λ| ≤ B − λI sp , λ∈C , entonces YB = e−iθ (Y − w0 ) .
  • 224. 10.3 Caracterizaciones 209 Por lo tanto, para ver que z0 ∈ Y , alcanza probar que d = e−iθ (z0 − w0 ) ∈ YB . Observar que, / / como la funci´n x → e−iθ (x − w0 ) preserva distancias, la proyecci´n de d a WB es, ahora, o o e−iθ (w0 − w0 ) = 0. Adem´s, como d = d − 0 > 0, si z ∈ WB , la Eq. (10.4) dice que a Re (z d ) = d Re z ≤ 0 =⇒ Re z ≤ 0 , ıamos. Ahora, dados x ∈ Cn con x = 1 y m ∈ N, tendremos que como quer´ 2 (B + mI)x = (B + mI)x , (B + mI)x 2 = Bx + m2 + 2m Re Bx, x 2 ≤ B sp + m2 , porque Bx, x ∈ WB . Es decir que B + mI sp ≤ ( B 2 + m2 )1/2 . Por otro lado, es f´cil sp a ver que ( B 2 + m2 )1/2 − m − − → 0. Por lo tanto, debe existir m ∈ N tal que sp −− m→∞ 2 B + mI sp −m≤( B sp + m2 )1/2 − m < d . En otras palabras, para ese m se tiene que B + mI sp < d + m = |d + m| , por lo que d ∈ YB y entonces z0 ∈ Y . Resumiendo, vimos que si z0 ∈ W , entonces z0 ∈ Y , o / / / / sea que Y ⊆ W . A continuaci´n damos un adelanto del libro II. Se trata de una caracterizaci´n obtenida por o o T. Ando [17] del radio num´rico, que es tan util como la caracetrizaci´n de la norma espectral e ´ o dada en la Proposici´n 3.7.6. Su prueba necesita bastantes desarrollos espec´ o ıficos que se trabajar´n en el libro II, por lo que no creemos necesario reproducirlos aqu´ Sin embargo lo a ı. enunciamos ahora, en su versi´n matricial, porque es uno de los criterios b´sicos para trabajar o a con rangos num´ricos. e Teorema 10.3.3 (Ando 1973). Sea A ∈ Mn (C). Son equivalentes: 1. w(A) ≤ 1. 2. Para todo θ ∈ [0, 2π) se tiene que Re(eiθ A) ≤ I. 3. Existen C ∈ Mn (C) e Y ∈ Mn (C)+ tales que Y ≤I , C sp ≤2 y (I − Y )1/2 C Y 1/2 = A . I −Y A∗ /2 4. Existe Y ∈ Mn (C)+ tal que M1 = ∈ M2n (C)+ . A/2 Y I +L A∗ 5. Existe L ∈ H(n) tal que M2 = ∈ M2n (C)+ . A I −L
  • 225. 210 Rango y Radio Num´ricos e Demostraci´n. Si vale la condici´n 2, como existen x ∈ Cn unitario y θ ∈ [0, 2π) tales que o o w(A) = | Ax, x | = eiθ Ax, x = (eiθ A) x, x = Re (eiθ A) x, x ≤ I x, x = 1 , tenemos que 2 → 1. Por otro lado, la implicaci´n 1 → 2 es bien f´cil. Siguiendo, tenemos que o a la equivalencia 3 ↔ 4 no es otra cosa que el Teorema 3.8.6. Veamos que 4 → 5 : Supongamos que M1 ∈ M2n (C)+ ,, para cierto Y ∈ Mn (C)+ . Luego, si L = I − 2Y ∈ H(n), se tiene que I +L A∗ I −Y A∗ /2 I + L = 2(I − Y ) y I − L = 2Y =⇒ =2 ≥0. A I −L A/2 Y Ahora veamos que 5 → 2 : Dados x ∈ Cn y θ ∈ [0, 2π), tomemos el vector y = −eiθ x. Luego, si asumimos que L cumple la condici´n 5, tendremos que o 2 −L −A » – » – » – x x 2 x 2 = ≥ , x = 2 Re(eiθ A) x, x . (10.5) y −A∗ L y y Luego Re(eiθ A) ≤ I. Lamentablemente, la implicaci´n 1 → 4 quedar´ para el libro II. o a 10.4 Comparaci´n con NUI’s o Proposici´n 10.4.1. Sea A ∈ L(H). Entonces o 1 A ≤ w(A) ≤ A . 2 Adm´s, las constantes 1 y 1/2 son ´ptimas para la desigualdad anterior. a o Demostraci´n. Tomemos partes real e imaginaria: A = Re A + i Im A. Luego o w(A) ≤ A ≤ Re A + Im A = w(Re A) + w(Im A) ≤ 2 · w(A) , donde la ultima desigualdad se deduce de que W (Re A) = {Re z : z ∈ W (A)}, por lo que ´ w(Re A) ≤ w(A), y lo mismo para Im A. La optimalidad de las constantes 1 y 1/2 se ve tomando las matrices E11 y 2E21 . Proposici´n 10.4.2 (Marcus-Sandy 1985). Sea A ∈ Mn (C). Entonces o n n 1 si (A) ≤ w(A) ≤ si (A) = A 1 . n i=1 i=1 Adm´s, las constantes 1 y 1/n son ´ptimas para la desigualdad anterior. a o Demostraci´n. Tomemos la descomposici´n polar A = U |A|, con U ∈ U(n). Conjugando con o o otra matriz unitaria (lo que no cambia ni w(A) ni A 1 ), podemos suponer que que U es diagonal. Observar que |V AV ∗ | = V |A|V ∗ , si V ∈ U(n). Pongamos U = diag (w1 , . . . wn ),
  • 226. 10.4 Comparaci´n con NUI’s o 211 n 1 con |wi | = 1, i ∈ In . Veremos que, en este caso, el n´mero u si (A) es superado por alguno n i=1 de los m´dulos de los elementos diagonales de A. En efecto, si notamos {e1 , . . . , en } a la base o can´nica de Cn , y llamamos P = |A|, dado k ∈ In tenemos que o |Akk | = | Aek , ek | = | U P ek , ek | = | P ek , U ∗ ek | = |wk P ek , ek | = |Pkk | = Pkk , donde la ultima igualdad surge de que P ∈ Mn (C)+ . Por otra parte, ´ n n n 1 Pkk = tr P = tr |A| = si (A) =⇒ si (A) ≤ Pkk = | Aek , ek | ≤ w(A) i=1 n i=1 k=1 para alg´n k ∈ In . Para ver que 1 y 1/n son ´ptimas, tomar las matrices E11 e I. u o 0 0 0 1 Definici´n 10.4.3. Llamemos A = o ∈ M2 (C) y V = ∈ U(2). Dado 2 0 1 0 n ∈ N, si n = 2m consideremos las matrices diagonales de bloques m Cn = A ⊕ A ⊕ · · · ⊕ A = 2E2k,2k−1 ∈ Mn (C) y k=1 m Un = V ⊕ V ⊕ · · · ⊕ V = E2k,2k−1 + E2k−1,2k ∈ U(n) . k=1 Si n = 2m + 1 e I1 denota a la “matriz” [ 1 ] ∈ M1 (C), m Cn = A ⊕ · · · ⊕ A ⊕ I1 = En,n + 2E2k,2k−1 ∈ Mn (C) y k=1 m Un = V ⊕ · · · ⊕ V ⊕ I1 = En,n + E2k,2k−1 + E2k−1,2k ∈ U(n) . k=1 Como w(A) = w(I1 ) = 1, la Eq. (10.3) asegura que w(Cn ) = 1 para todo n ∈ N. Los resultados anteriores fueron usados por C.R. Johnson y C.K. Li [27] para calcular, para N una NUI fija en Mn (C), las mejores constantes m y M tales que m · N (T ) ≤ w(T ) ≤ M · N (T ) para todo T ∈ Mn (C) . Proposici´n 10.4.4 (Johnson-Li 1988). Sea N una NUI en Mn (C). Luego o N (Cn )−1 N (T ) ≤ w(T ) ≤ N (E11 )−1 N (T ) para toda T ∈ Mn (C) . Adem´s, las constantes N (Cn )−1 y N (E11 )−1 son ´ptimas. a o
  • 227. 212 Rango y Radio Num´ricos e Demostraci´n. Fijemos T ∈ Mn (C). Si T = 0, el resultado es claro. Si no, sea A = w(T )−1 T , o que tiene w(A) = 1. Por las Proposiciones 10.4.1 y 10.4.2 se tiene que n 1 ≤ s1 (A) ≤ 2 y sk (A) ≤ n . k=1 Observar que s(E11 ) = e1 y s(Cn ) = vn , donde  m   (2, . . . , 2, 0, . . . , 0) =   2ek si n = 2m  k=1   vn = (10.6)   m  (2, . . . , 2, 1, 0, . . . , 0) =   2ek + em+1 si n = 2m + 1 .  k=1 Por lo tanto, s(E11 ) w s(A) w s(Cn ). Como N es una NUI, el Teorema de Ky Fan 5.3.8 dice que que N (T ) N (E11 ) ≤ N (A) = ≤ N (Cn ) . w(T ) Invirtiendo y multiplicando por N (T ), se obtienen las desigualdades buscadas. Tomando T = Cn y T = E11 y observando que w(Cn ) = w(E11 ) = 1, podemos deducir que las constantes dadas son ´ptimas. o Proposici´n 10.4.5. Sea N es una NUI en Mn (C). Entonces o w(T ) ≤ N (T ) , para toda T ∈ Mn (C) =⇒ T sp ≤ N (T ) , para toda T ∈ Mn (C) . Demostraci´n. Observar que T o sp = |T | sp = w(|T |) ≤ N (|T |) = N (T ). El siguiente teorema es el contenido del paper de T. Ando [18]: Teorema 10.4.6 (Ando 2005). Si definimos la norma T sp T 1 N0 (T ) = m´x a , para T ∈ Mn (C) , 2 n se tiene que 1. N0 es una NUI. 2. N0 (T ) ≤ w(T ) para todo T ∈ Mn (C). 3. N0 es la mayor NUI en Mn (C) tal que N (T ) ≤ w(T ) para todo T ∈ Mn (C). Es decir, si N es una NUI en Mn (C), N (T ) ≤ w(T ) , ∀ T ∈ Mn (C) =⇒ N (T ) ≤ N0 (T ) , ∀ T ∈ Mn (C) .
  • 228. 10.5 Ejercicios 213 Demostraci´n. Los dos primeros items son claros de lo anterior. Fijemos T ∈ Mn (C). o Como la desigualdad a probar es entre normas unitariamente invariantes, podemos asumir que T = Σ(T ) = diag (s1 (T ), . . . , sn (T )). M´s a´n, supongamos que a u n s1 (T ) 1 N0 (T ) = m´x a , si (T ) =1. 2 n i=1 En este caso deber´ıamos probar que N (T ) ≤ 1. Las desigualdades resultantes de la igualdad anterior implican que s(T ) w vn , donde vn es el vector definido en la Eq. (10.6). Tomemos Cn y Un las matrices de la Definici´n 10.4.3. Notar que Un Cn = Bn , donde o Bn = diag (2, 0, 2, 0, . . . , 2, 0) o bien Bn = diag (2, 0, 2, 0, . . . , 2, 0, 1) . Observar que s(B) = vn . Luego, como s(T ) w vn = s(Bn ) y N es una NUI, el Teorema de Ky Fan 5.3.8 nos dice que que N (T ) ≤ N (Bn ), con lo que bastar´ probar que N (Bn ) ≤ 1. ıa Por otra parte, en la Definici´n 10.4.3 se ve que w(Cn ) = 1 para todo n ∈ N. Como U ∈ U(n) o y N es una NUI, tenemos que N (T ) ≤ N (Bn ) = N (Un Cn ) = N (Cn ) ≤ w(Cn ) = 1 = N0 (T ) . Observar que reci´n al final usamos la hip´tesis sobre N . e o 10.5 Ejercicios Ejercicios que aparecen en el texto 10.5.1. Sea A ∈ L(H). Probar las siguientes afirmaciones: 1. ρ(A) ≤ w(A) ≤ A . 0 0 2. Tomando T = , se tiene que ρ(T ) = 0, w(T ) = 1/2 y T = 1, por lo que las 1 0 desiguadades de arriba pueden ser estrictas. 3. Si A es normal, entonces ρ(A) = w(A) = A sp . 4. Re A sp = w(Re A) = m´x | Re Ax , x | ≤ w(A) y lo mismo vale para Im A. a x =1 5. A sp ≤ 2 · w(A). 6. Dado B ∈ L(H) se cumple que W (A + B) ⊆ W (A) + W (B). 7. Dado λ ∈ C, se tiene que W (A + λI) = W (A) + λ y W (λ · A) = λ · W (A). 8. Si U ∈ U(H), entonces W (U AU ∗ ) = W (A) y w(U AU ∗ ) = w(A). 9. W (A) es compacto.
  • 229. 214 Rango y Radio Num´ricos e 10.5.2. Sea W ⊆ Cn un conjunto convexo compacto no vac´ y sea v0 ∈ Cn W . Entonces: ıo, 1. Existe un unico w0 ∈ W tal que ´ 0 < d = v0 − w0 = d(v0 , W ) := m´ v0 − w . ın w∈W Para mostrar la unicidad, se suguiere asumir que v0 = 0 y usar que, dados x, y ∈ Cn vale la igualdad del paralelogramo, que dice que x − y 2 + x + y 2 = 2( x 2 + y 2 ). 2. Probar que el hiperplano H = w0 + {v0 − w0 }⊥R separa a W de v0 en el sentido de que Re v0 , v0 − w0 > Re w0 , v0 − w0 ≥ Re w, v0 − w0 para todo w∈W . Nota: Lo anterior vale en espacios de Hilbert generales, y alcamza con que W sea cerrado (no hace falta compacto). Sin embargo, proponemos este caso especial porque es lo que se usa para la Observaci´n 10.3.1. o Ejercicios nuevos 10.5.3. Sean α1 , . . . , αn , β1 , . . . , βn , γ ∈ C, todos de m´dulo uno. Son equivalentes: o 1. Existen A , B ∈ U(n) tales que λ(A) = α , λ(B) = β y adem´s γ ∈ σ(BA). a 2. Existe un p ∈ conv [α1 , . . . , αn ] ∩ conv γβ1 , . . . , γβn . Sugerencia: Usar el ejercicio 1.10.21 10.5.4. Sea w (A) = m´x | tr A∗ B|, la norma dual del radio num´rico en Mn (C). Denota- a e w(B)=1 mos por Bw = {A ∈ Mn (C) : w (A) ≤ 1} a su bola unidad. Probar que Bw = conv [{x x : x ∈ Cn y x = 1}] , o sea que los puntos extremales de Bw son los proyectores de rk uno. Sugerencia: Cuanto vale tr B · x x ?
  • 230. Cap´ ıtulo 11 Teor´ de Perron-Frobenius ıa Repasemos algunas notaciones que usaremos sistem´ticamente en los siguientes cap´ a ıtulos. Dados A, B ∈ Mn,m (R) y x ∈ Rn , diremos que 1. A 0 , si Aij ≥ 0 para todo par i ∈ In , j ∈ Im . 2. A > 0 , si Aij > 0 para todo par i ∈ In , j ∈ Im . 3. Las mismas notaciones (x 0 o x > 0) se usar´n para vectores. a 4. Denotaremos por MPn,m = {A ∈ Mn,m (R) : A 0} y MEPn,m = {A ∈ Mn,m (R) : A > 0} . para matrices cuadradas, abreviaremos MPn y MEPn . 5. |A| = (|aij |) i∈In y analogamente |x| = (|x1 |, . . . , |xn |). j∈Im 6. A B , si B − A ∈ MPn,m . O sea que aij ≤ bij para todo i, j ∈ In . An´logamente, a escribiremos A < B siempre que B − A ∈ MEPn,m . 7. El vector (1, 1, . . . , 1) ∈ Rn ser´ denotado por medio de 1. a Advertencia: Hay overlaps de notaciones entre lo anterior y las que solemos usar para matrices definidas positivas. Esto es lamentable, pero necesario; porque buscar otras com- plicar´ notablemente la exposici´n. Las convenciones que usaremos de ahora en m´s ser´n ıa o a a las siguientes: 1. Mantendremos la notaci´n A ≥ 0 (resp. B ≥ A) para decir que A ∈ Mn (C)+ (resp. o B − A ∈ Mn (C)+ ). Observar que los s´ ımbolos ≥ y son diferentes. 2. Al escribir A > 0 o B > A solamente aludiremos a los signos de las entradas. Para evitar confuciones, si A ∈ Mn (C) es definida positiva, no usaremos la notaci´n A > 0, o sin´ A ∈ Gl (n)+ (o que B − A ∈ Gl (n)+ ). o
  • 231. 216 Teor´ de Perron-Frobenius ıa 3. |A| s´lo se usar´ para los m´dulos de las entradas. El viejo m´dulo se escribir´ (A∗ A)1/2 . o a o o a El objetivo de este cap´ ıtulo es la demostraci´n del Teorema de Perron, para matrices de o entradas estrictamente positivas y sus generalizaciones a matrices de entradas no negativas. 11.1 Matrices de entradas positivas Empezamos esta secci´n con el objetivo final de la misma: el teorema de Perron para matrices o de entradas estrictamente positivas. La idea es anunciar de entrada las propiedades princi- pales de tales matrices y, adem´s, dar una orientaci´n estrat´gica a los numerosos resultados a o e parciales (aunque muchos de ellos son son interesantes de por s´ que iremos probando para ı) llegar a una demostraci´n completa del teorema. o Teorema 11.1.1 (Teorema de Perron). Sea A ∈ MEPn , es decir que A > 0. Entonces se verifican las siguientes propiedades: 1. ρ(A) > 0 y ρ(A) ∈ σ (A). 2. Existe un x ∈ Rn tal que x > 0 y Ax = ρ(A)x. 3. Dado y ∈ Rn {0}, si y 0 y Ay = λy, entonces λ = ρ(A) e y > 0. 4. ρ(A) es ra´ simple del polinomio caracter´ ız ıstico de A. 5. Si λ ∈ σ (A) y λ = ρ(A), entonces |λ| < ρ(A). 6. Si ρ(A) = 1, entonces Am − − → L = xy T , donde x, y ∈ Rn son vectores tales que −− m→∞ x > 0 , y > 0 , x, y = 1 , Ax = x y AT y = y . Antes de demostrar el Teorema de Perron, presentaremos varios resultados generales para matrices A ∈ MPn , su radio espectral y los autovectores correspondientes. En lo que sigue de la secci´n, y salvo menci´n expl´ o o ıcita al contrario, asumiremos que todas las matrices mencionadas con las letras A y B estar´n en Mn (R), para alg´n n ∈ N. a u Proposici´n 11.1.2. Sean A, B ∈ MPn tales que A o B. Entonces, ρ(A) ≤ ρ(B). Demostraci´n. Como 0 A B, entonces, para todo n ≥ 1 se tiene que 0 An B n . Por lo o tanto An 1/n ≤ B n 1/n y, tomando l´ 2 2 ımite, se obtiene la desigualdad buscada . Corolario 11.1.3. Sea A ∈ MEPn . Entonces se cunple que ρ(A) > 0. Demostraci´n. Como A > 0, existe un ε > 0 tal que εI o A. As´ ρ(A) ≥ ρ(εI) = ε > 0. ı Corolario 11.1.4. Sean A ∈ MPn , J ⊆ In y A[J] = (aij )i,j∈ J . Entonces ρ(A[J]) ≤ ρ(A).
  • 232. 11.1 Matrices de entradas positivas 217 Demostraci´n. Basta extender A[J] a MPn poniendo ceros en las entradas que le faltan, y o aplicar la Proposici´n 11.1.2. o Observaci´n 11.1.5. Recordemos (ver Ejercicio 3.4.2) que, dada A ∈ Mn (C), o |||A|||∞ = m´x a Ax ∞ = m´x Fi (A) a 1 . x ∞ =1 i∈ In Por otra parte, observar que si A ∈ MPn , entonces Fi (A) 1 = tr Fi (A). A continuaci´n vienen tres Lemas que sirven para ubicar el radio espectral de una matriz o A ∈ MPn usando la Observaci´n anterior: o Lema 11.1.6. Sea A ∈ MPn . Supongamos que 1 ∈ Rn es un autovector de A. Entonces el autovalor asociado es |||A|||∞ y adem´s ρ(A) = |||A|||∞ . a Demostraci´n. La desigualdad ρ(A) ≤ |||A|||∞ vale siempre, porque ||| · |||∞ es matricial y o podemos aplicar la Proposici´n 3.4.6. Por otro lado, si A1 = λ1, entonces o Fi (A) 1 = tr Fi (A) = Fi (A) , 1 = (A 1)i = λ para todo i ∈ In . Por la Observaci´n 11.1.5, podemos deducir que λ = |||A|||∞ . Finalmente, el hecho de que o |||A|||∞ ∈ σ(A) implica que |||A|||∞ ≤ ρ(A). Lema 11.1.7. Sea A ∈ MPn . Llamemos α = m´x tr Fi (A) = |||A|||∞ a y β = m´ tr Fi (A) . ın i∈ In i∈ In Entonces se verifica que β ≤ ρ(A) ≤ α. Demostraci´n. La desigualdad ρ(A) ≤ α es conocida (Proposici´n 3.4.6), por lo tanto s´lo o o o probaremos que β ≤ ρ(A). Podemos suponer que β > 0, porque sin´ todo es f´cil. Definamos o a entonces la matriz B ∈ MPn cuyas filas son: β Fi (B) = Fi (A) Fi (A) para todo i ∈ In . tr Fi (A) De este modo, tr Fi (B) = β para todo i ≥ 1. En consecuencia, usando el Lema 11.1.6 y la Proposici´n 11.1.2, β = ρ(B) ≤ ρ(A), ya que, por su construcci´n, 0 B A. o o Lema 11.1.8. Sean A ∈ MPn y x > 0. Notemos y = Ax. Entonces se tiene que yi yi β = m´ ın ≤ ρ(A) y α = m´x a ≥ ρ(A) . i∈ In xi i∈ In xi Demostraci´n. Sea D = diag (x). Entonces, por cuentas elementales, obtenemos que o D−1 AD = (x−1 xj aij )ij∈ In ∈ MPn . i
  • 233. 218 Teor´ de Perron-Frobenius ıa Adem´s ρ(D−1 AD) = ρ(A) (porque el espectro no cambia). Por otro lado, a n (Ax)i yi tr Fi (D−1 AD ) = x−1 i aij xj = = . j=1 xi xi Luego basta aplicar el Lema 11.1.7. Teorema 11.1.9. Sea A ∈ MPn y fijemos un vector x > 0. 1. Dados α, β ∈ R, se tiene que βx Ax =⇒ β ≤ ρ(A) y Ax αx =⇒ ρ(A) ≤ α . 2. Si x es un autovector de A (y es x > 0), entonces Ax = ρ(A)x. Demostraci´n. La primera parte se deduce inmediatamente del Lema 11.1.8. Supongamos o que Ax = λx. Como Ax 0, debe cumplirse que λ ≥ 0, en particular λ ∈ R. Luego se verifican las hip´tesis de la primera parte con α = β = λ. o Observaci´n 11.1.10. En las condiciones del Teorema 11.1.9, tambi´n vale que o e si A ∈ MPn y x>0, βx < Ax =⇒ β < ρ(A) y Ax < αx =⇒ ρ(A) < α . En efecto, si en los Lemas 11.1.7 y 11.1.8 se toma β estrictamente menor que los m´ ınimos correspondientes β0 , se obtiene β < β0 ≤ ρ(A). Lo mismo para α. Observaci´n 11.1.11. Sean A ∈ MEPn y x ∈ Rn {0}. Notar que, si x o 0, entonces tiene que valer que Ax > 0. Este hecho se usar´ reiteradas veces. a Corolario 11.1.12. Sean A ∈ MEPn , x ∈ Rn {0} y λ ∈ C tales que x 0 y Ax = λx. Entonces λ = ρ(A) y x > 0. Otra manera de decirlo es que si un autovector de A es no negativo, en realidad deb´ ser positivo y corresponder al radio espectral. ıa Demostraci´n. Por la Observaci´n 11.1.11 sabemos que Ax > 0, y por ende x > 0. Entonces o o se puede aplicar el Teorema 11.1.9. Proposici´n 11.1.13. Sean A ∈ MEPn y λ ∈ σ (A) un autovalor de m´dulo m´ximo, o sea o o a que |λ| = ρ(A). Dado un autovector y ∈ Cn {0} para λ, es decir que Ay = λy, entonces: |y| > 0 y A |y| = ρ(A) |y| . Demostraci´n. Llamemos x = |y|. Por la desigualdad triangular, se tiene que o ρ(A)x = |λ|x = |λy| = |Ay| A|y| = Ax.
  • 234. 11.1 Matrices de entradas positivas 219 Sea z = Ax − ρ(A)x 0. Queremos mostrar que z = 0. Supongamos que eso no pasa. Entonces, por la Observaci´n 11.1.11, tenemos que Az > 0. Si ahora llamamos o u = Ax , entonces Az = A(u − ρ(A)x) = Au − ρ(A)u > 0 . Por lo tanto tenemos que u > 0 y Au > ρ(A)u. Aplicando la Observaci´n 11.1.10, se obtiene o la contradictoria desigualdad ρ(A) > ρ(A). Dado que esta provino de suponer que z = 0, ahora sabemos que z = 0 y por ende Ax = ρ(A)x. Notar que, como Ax > 0, esto implica que |y| = x > 0. Corolario 11.1.14. Si A ∈ MEPn , entonces ρ(A) ∈ σ (A) y existe un x ∈ Rn tal que x > 0 y Ax = ρ(A)x . Proposici´n 11.1.15. Sean A ∈ MEPn y λ ∈ σ (A) tales que |λ| = ρ(A). Si y ∈ Cn {0} o cumple que Ay = λy, entonces, existe θ ∈ [0, 2π) tal que y = eiθ |y|, por lo que λ = ρ(A). Demostraci´n. Por la Proposici´n 11.1.13 sabenos que A|y| = ρ(A)|y|. Adem´s o o a |Ay| = |λy| = ρ(A)|y| =⇒ A|y| = |Ay| . Mirando las primeras coordenadas, tenemos que A1j |yj | = A1j yj . Luego vale la i∈ In i∈ In igualdad en la desigualdad triangular, y todos los yj deben apuntar para el mismo lado. O sea que debe existir un θ ∈ [0, 2π) tal que yj = eiθ |yj | para todo j ∈ In . Corolario 11.1.16. Si A ∈ MEPn , entonces ρ(A) es el unico autovalor de m´dulo m´ximo. ´ o a Corolario 11.1.17. Sea A ∈ MEPn . Entonces dim ker(A − ρ(A)I) = 1. Demostraci´n. Sean x, y ∈ ker(A − ρ(A)I). Probaremos que son linealmente dependientes. o xi Por la Proposici´n 11.1.15 se puede suponer que x > 0 e y > 0. Sea β = m´ o ın , y definamos i∈ In yi xi z = x − βy. Como cada xi − βyi ≥ xi − yi yi = 0, se tiene que z ≥ 0. Dado que Az = ρ(A)z, si sucesidese que z = 0, entonces se tendr´ que z > 0. Pero, si ıa tomamos un k ∈ In tal que β = xk , entonces la coordenada k-´sima de z deber´ ser nula. y k e ıa Este absurdo proviene de suponer que z = 0. Por lo tanto, z = 0 y x = βy. ımite de las potencias de una matriz A ∈ MPn que El siguiente resultado, que describe el l´ cumple ciertas hip´tesis, ser´ prontamente aplicado para probar el item 6 del Teorema de o a Perron. Lo enunciaremos pidiendo lo esctrictamente necesario que debe cumplir A para que la tesis pueda probarse. Esto complica su formulaci´n, pero igual es conveniente para poder o aplicarlo luego a matrices primitivas, en las que todas las hip´tesis que pedimos se verifican. o Proposici´n 11.1.18. Sea A ∈ MPn con ρ(A) = 1. Supongamos que A cumple que: o 1. dim ker(A − I) = 1.
  • 235. 220 Teor´ de Perron-Frobenius ıa 2. 1 ∈ σ(A) es el unico autovalor de m´dulo m´ximo. ´ o a 3. Existen x, y ∈ Rn tales que x > 0 , y > 0 , x, y = 1 , Ax = x y AT y = y . Entonces, se tiene que Am − − → xy T . −− m→∞ Demostraci´n. Llamemos L = xy T = (xi yj )i,j∈ In . Este L es, en realidad, el proyector o espectral asociado al 1 ∈ σ(A). Esto no lo probaremos ahora, pero es util tenerlo en cuenta ´ para entender las propiedades de L que veremos a continuaci´n: o 1. L2 = L. En efecto, L2 = xy T xy T = x x, y y T = xy T = L. 2. AL = LA = L. Esto se deduce de que Axy T = xy T = xy T A. 3. (A − L)m = Am − L, para todo m ∈ N. Para mostrarlo, razonemos por inducci´n sobre m. El caso m = 1 es trivial. Adem´s, o a (A − L)m+1 = (A − L)(A − L)m = (A − L)(Am − L) (por la HI) m+1 k m+1 =A − AL − LA + L = A −L−L+L m+1 =A −L . 4. σ (A − L) {0} ⊆ σ (A) − {1}. En particular, se tiene que ρ(A − L) < 1. En efecto, sean λ ∈ C {0} y z ∈ Cn {0} tales que (A − L)z = λz. Entonces 1 1 Lz = L(λz) = L(L − A)z = 0 , λ λ por que en 1 y 2 vimos que L(L − A) = 0. Luego Az = λz y por lo tanto λ ∈ σ (A). Si tuvi´ramos que λ = 1 = ρ(A), entonces x ∈ Gen {z} (recordar que dim ker(A − I) = 1), e lo que nos dir´ que (A − L)x = x. Pero Ax = x y Lx = xy T x = x. En consecuencia ıa uno tendr´ que (A − L)x = 0 = x, lo que no vale. ıa 5. Como el unico λ ∈ σ (A) con |λ| = 1 es λ = 1, se tiene que ρ(A − L) < 1. Entonces el ´ Corolario 3.4.9 sirve para afirmar que Am − L = (A − L)m − − → 0. −− m→∞ Final de la demostraci´n del Teorema de Perron o Recordemos el enunciado que escribimos al principio de la secci´n: o Teorema de Perron 11.1.1. Sea A ∈ MEPn . Entonces se verifica que 1. ρ(A) > 0 y ρ(A) ∈ σ (A).
  • 236. 11.1 Matrices de entradas positivas 221 2. Existe un x ∈ Rn tal que x > 0 y Ax = ρ(A)x. 3. Dado y ∈ Rn {0}, si y 0 y Ay = λy, entonces λ = ρ(A) e y > 0. 4. ρ(A) es ra´ simple del polinomio caracter´ ız ıstico de A. 5. Si λ ∈ σ (A) y λ = ρ(A), entonces |λ| < ρ(A). 6. Si ρ(A) = 1, entonces Am − − → L = xy T , donde x, y ∈ Rn son vectores tales que −− m→∞ x > 0 , y > 0 , x, y = 1 , Ax = x y AT y = y . Demostraci´n. Los items 1 y 2 fueron vistos en los Corolarios 11.1.3 y 11.1.14. El item 3 se o prob´ en el Corolario 11.1.12. El item 5 es el Corolario 11.1.16. El item 6 se deduce de la o Proposici´n 11.1.18. Observar que ya hemos visto (aqu´ se usa el Corolario 11.1.17) que si o ı A ∈ MEPn , entonces A cumple las tres condiciones que pide la Proposici´n 11.1.18. o S´lo falta verificar el item 4, que dice que ρ(A) es ra´ simple de PA (x) = det(xI − A) ∈ C[x]. o ız Con las notaciones del resto del libro esto significa que, si tomamos el vector λ(A) ∈ Cn de autovalores de A (que cuenta las multiplicidades como raices de PA ) con un orden en el que los m´dulos decrezcan, entonces λ1 (A) = ρ(A) pero |λ2 (A)| < ρ(A) (ac´ se usa el item 5). o a Supongamos, sin perdida de generalidad, que ρ(A) = 1. Apliqu´mosle a A el Teorema 1 e de Schur 1.6.1, considerando en λ(A) el orden mencionado. Luego tendremos U ∈ U(n) y T ∈ T S(n) tales que U ∗ AU = T y d (T ) = λ(A). Por otra parte, T m = U ∗ Am U − − → U ∗ LU = M . −− m→∞ Observar que todos los T m ∈ T S(n), por lo que tambi´n M ∈ T S(n). Adem´s, se tiene que e a rk M = rk L = 1. Sin embargo, como T ∈ T S(n), sabemos que (T m )ii = (Tii )m = λi (A)m para todo i ∈ In y todo m ∈ N . Para cada i ∈ In tal que λi (A) = 1, podemos deducir que Mii = 1. Al estar M ∈ T S(n), es f´cil ver que su rk ser´, por lo menos, el n´mero de unos que tenga en la diagonal. Como a a u sabemos que rk M = 1, deducimos que tan solo λ1 (A) = 1 y los dem´s tienen menor m´dulo a o (porque sus potencias deben converger a cero), como se quer´ demostrar. ıa Definici´n 11.1.19. Sea A ∈ MEPn . El unico vector x ∈ Rn tal que o ´ Ax = ρ(A)x , x > 0 y tr x = 1 , se llamar´ vector de Perron de A. a
  • 237. 222 Teor´ de Perron-Frobenius ıa 11.2 Matrices de entradas no negativas El Teorema de Perron falla en general si A ∈ MPn pero A > 0. Por ejemplo, si 0 1 A= , 1 0 entonces Am = A o I, seg´n m sea impar o par. Adem´s, σ (A) = {1, −1}. En este caso el u a autovector asociado al 1 es positivo estricto (es 1). Pero eso no pasa si tomamos la matriz 1 0 B = . Es m´s, todas las partes del Teorema (salvo una) pueden hacerse fallar a 0 0 tomando matrices diagonales de bloques adecuadas (Ejercicio). La que se salva es la siguiente: Proposici´n 11.2.1. Sea A ∈ MPn . Entonces o 1. ρ(A) ∈ σ (A). 2. Existe x ∈ Rn {0} tal que x 0 y Ax = ρ(A)x. Demostraci´n. Sea E = 1 1T ∈ MEPn (todas las entradas de E son iguales a 1). Dado o ε > 0, tenemos que Aε = A + ε E ∈ MEPn . Por la Proposici´n 11.1.2, si 0 < ε < ε, entonces o ρ(A) ≤ ρ(Aε ) ≤ ρ(Aε ). Llamemos xε > 0 al vector de Perron de cada Aε , normalizado para que tr xε = 1. Como la bola de Rn es compacta, se puede tomar una sucesi´n decreciente εm o 0 tal que, si m→∞ llamamos Am = Aεm y xm = xεm , entonces existen M ∈ R y x ∈ Rn tales que ρ(Am ) M ≥ ρ(A) y xm − − → x −− 0. m→∞ m→∞ Observar que tr x = 1, por lo que x = 0. Adem´s, Am xm = ρ(Am )xm − − → M x y, como a −− m→∞ Am − − → A, entonces Am xm − − → Ax. Por lo tanto deducimos que Ax = M x, con −− −− m→∞ m→∞ M ≥ ρ(A). Luego M = ρ(A) y x 0 es un autovector. Matrices primitivas Definici´n 11.2.2. Sea A ∈ MPn . Diremos que A es una matriz primitiva si existe un o m ∈ N tal que Am ∈ MEPn . Las matrices primitivas son casi tan buenas como las de MEPn . Veamos que cumplen el Teorema de Perron tutti, que enunciamos por tercera vez. Teorema 11.2.3. Sea A ∈ MPn una matriz primitiva. Entonces valen: 1. ρ(A) > 0 y ρ(A) ∈ σ (A).
  • 238. 11.2 Matrices de entradas no negativas 223 2. Existe un x ∈ Rn tal que x > 0 y Ax = ρ(A)x. 3. Dado y ∈ Rn {0}, si y 0 y Ay = λy, entonces λ = ρ(A) e y > 0. 4. ρ(A) es ra´ simple del polinomio caracter´ ız ıstico de A. 5. Si λ ∈ σ (A) y λ = ρ(A), entonces, |λ| < ρ(A). 6. Si ρ(A) = 1, entonces Am − − → L = xy T , donde x, y ∈ Rn son vectores tales que −− m→∞ x > 0 , y > 0 , x, y = 1 , Ax = x y AT y = y . Demostraci´n. Sea m ∈ N tal que Am > 0. Por el Corolario 1.7.2, o σ(Am ) = {λm : λ ∈ σ(A)}. Por el Teorema 11.1.1 aplicado a Am , concluimos que ρ(A) = ρ(Am )1/m > 0. Sea λ ∈ σ (A) tal que |λ| = ρ(A) y sea y ∈ Cn {0} tal que Ay = λy. Entonces Am y = λ m y y |λ|m = ρ(Am ) =⇒ λm = ρ(Am ) y Am y = ρ(Am )y . Por el Teorema 11.1.1 aplicado a Am , podemos deducir que alg´n x ∈ Gen {y} cumple que u x > 0, y por ello λ = ρ(A) y Ax = ρ(A)x. Adem´s, cada λm ∈ σ(Am ) posee una multiplicidad en el polinomio caracter´ a ıstico de Am mayor o igual que la de λ en el de A (esto se ve f´cil triangulando con el Teorema 1.6.1). a Por lo tanto ρ(A) posee multiplicidad algebr´ica uno como autavalor de A. Razonamientos a similares permiten concluir que ρ(A) es el unico autovalor de m´dulo m´ximo (item 5), y ´ o a tambi´n la condici´n 3. Finalmente, con los items anteriores ya demostrados, estamos en e o condiciones de asegurar que A cumple las hip´tesis de la Proposici´n 11.1.18, lo que prueba o o el item 6. Observaci´n 11.2.4. Dada una matriz A ∈ MPn , para saber si es primitiva hace falta o calcular muchas potencias Am hasta que caiga en MEPn . Obviamente hace falta un teorema que diga hasta donde es necesario probar. Algo del tipo: Dado n ∈ N, existe un M (n) ∈ N (que uno deber´ poder calcular) tal que toda A ∈ MPn que sea primitiva debe cumpir que ıa Am > 0 para alg´n m ≤ M (n). Esta teor´ existe, y se calculan los M (n) ´ptimos. Pero las u ıa o cuentas son muy complicadas y no las desarrollaremos aqu´ı. El lector interesado puede buscar data al respecto en el libro de Horn-Johnson [7]. Sin embargo, con una hip´tesis razonable (si A ∈ MPn cumple que d (A) > 0), sale mucho m´s o a facilmente que la constante M (n) = n − 1 sirve. Obsrvar que en tal caso, una vez que Am > 0, eso sigue pasando para las potencias mayores (lo que no es cierto para todas las primitivas). Esperen algunos renglones y ver´n. a
  • 239. 224 Teor´ de Perron-Frobenius ıa Matrices irreducibles Definici´n 11.2.5. Sea A ∈ Mn (C). Decimos que: o 1. A es reducible si existe P ∈ UP (n), una matriz de permutaci´n, tal que o B C k P AP −1 = , 0 D n−k donde 1 ≤ k ≤ n − 1 y B ∈ Mk (R). Otra manera de decirlo es que existe un J ⊆ In tal que 1 ≤ |J| < n (o sea que es propio) que cumpla que A Gen {ej : j ∈ J} ⊆ Gen {ej : j ∈ J} . (11.1) Se dice que A es irreducible si no es reducible. 2. Denotemos moment´neamente por Vn = {(p, q) ∈ I2 : p = q}, al conjunto de pares de a n ´ ındices distintos en In . 3. Decimos que un par (p, q) ∈ Vn se conecta por A (o que A conecta p con q), si existen p = i0 , i1 , . . . , im = q en In tales que aik−1 ik = 0 para todo k ∈ Im . Observar que se puede suponer que todos los ik son distintos entre s´ porque si hubiera ı, repeticiones, una parte de la sucesi´n se podr´ borrar (los intermedios entre los dos o ıa repetidos), quedando otra sucesi´n m´s corta que seguir´ conectando a p con q. Por lo o a ıa tanto, puede suponerse que m ≤ n − 1. 4. A es fuertemente conexa (FC) si todo par (p, q) ∈ Vn se conecta por A. Lema 11.2.6. Sea A ∈ MPn . Dado un par (p, q) ∈ Vn , son equivalentes: 1. El par (p, q) se conecta por A. 2. Existe 1 ≤ m ≤ n − 1 tal que la entrada (Am )p q > 0. Demostraci´n. Basta notar que, como mostrar´ una inducci´n adecuada, o ıa o n n n (Am )p q = ··· ap i1 · aik ik+1 · aim−1 q , i1 =1 i2 =1 im−1 =1 k∈Im−2 y que todos estos t´rminos son no negativos. En caso de que alguno de esos sumandos no se e anule, les sacamos aquellos t´rminos que vivan en la diagonal de A, y nos queda una sucesi´n e o que conecta p con q. Recordar que si A conectaba a (p, q), entonces existe alguna sucesi´n de o no m´s de n ´ a ındices que los conecta. Ejemplo 11.2.7. Ahorita vamos a ver que irreducible es lo mismo que FC (se lo enunciar´ a pra matrices de MPn , pero obviamente eso es irrelevante). Veamos una serie de ejemplos donde se ve independientemente que pasa lo mismo: Sea A ∈ Mn (C) tal que Fi (A) = 0, para
  • 240. 11.2 Matrices de entradas no negativas 225 alg´n i ∈ In . Tomemos cualquier σ ∈ Sn tal que σ(i) = n, y Pσ ∈ UP (n) su matriz asociada. u Por la Eq. (4.3), se tiene que Fn (Pσ A) = 0. Como multiplicar del otro lado permuta s´lo sus o −1 ceros, tambi´n vale que Fn (Pσ APσ ) = 0. O sea que A es reducible. e Ve´moslo desde otro punto de vista: Si Fi (A) = 0, entonces a i no se lo puede conectar con a ning´n otro j ∈ In {i}, porque todos los aik son nulos. Luego A no es FC. Ya que estamos u dejamos un peque˜o ejercicio: A ∈ Mn (C) es reducible si y s´lo si AT lo es. Por lo tanto, lo n o anterior vale tambi´n para columnas nulas. e Proposici´n 11.2.8. Sea A ∈ MPn . Entonces son equivalentes: o 1. A es irreducible. 2. A es FC. 3. (I + A)n−1 > 0. 4. I + A es primitiva. En particular se tiene que, si A es primitiva, entonces es irreducible y FC. Demostraci´n. 2 ↔ 3: Por el Lema anterior, es claro que 3 implica 2, porque conectar por A o es lo mismo que conectar por I + A, dado que los elementos de la diagonal no se usan para las conexiones. Rec´ıprocamente, por el teorema del binomio de Newton, se tiene que (I + A)n−1 es combinaci´n lineal, a coeficientes positivos, de las potencias Ak , 0 ≤ k ≤ n − 1. Luego, si o A es FC, el Lema 11.2.6 asegura que todas las entradas de (I + A)n−1 (afuera de la diagonal) deben ser estrictamente positivas. Adem´s, (I + A)n−1 I n−1 = I. a 1 → 2: Si A no es FC, existe un par (p, q) ∈ Vn que no se conecta por A. Sean J1 = {i ∈ In {p} : A conecta al par (p, i) } ∪ {p} y J2 = In J1 . Entonces p ∈ J1 y q ∈ J2 , por lo que ambos son no vac´ıos. En particular, aij = 0 si i ∈ J1 y j ∈ J2 (sino el par (p, j) ser´ conectado por A, pasando por i). Si reordenamos In poniendo ıa primero a J2 y luego a J1 , encontraremos una matriz P ∈ UP (n) de permutaci´n tal que o ∗ ∗ J2 P AP −1 = . 0 ∗ J1 3 → 4: Obvio. B C 4 → 1: Si A es reducible, sea P ∈ UP (n) tal que P AP −1 = . Entonces 0 D ∗ ∗ P (I + A)m P −1 = (I + P AP −1 )m = ∈ MEPn / para todo m∈N. 0 ∗ Por lo tanto ning´na potencia (I + A)m ∈ MEPn , o sea que I + A no es primitiva. u
  • 241. 226 Teor´ de Perron-Frobenius ıa Teorema 11.2.9 (Teorema de Perron-Frobenius). Sea A ∈ MPn , y asumamos que A es irreducible. Entonces se verifica que 1. ρ(A) > 0 y ρ(A) ∈ σ (A). 2. Existe x > 0 tal que Ax = ρ(A)x. 3. ρ(A) es ra´ simple del polinomio caracter´ ız ıstico de A. Demostraci´n. Como A es ireducible, el Ejemplo 11.2.7 nos dice que A no puede tener ninguna o fila nula. Usando el Lema 11.1.7, tenemos que ρ(A) ≥ β = m´ tr Fi (A) > 0 . ın i∈In Por otra parte, por la Proposici´n 11.2.1, ρ(A) ∈ σ (A) (para esto alcanza con el hecho de o que A ∈ MPn ). Adem´s, σ (I + A) = 1 + σ (A). M´s a´n, por el Teorema 1 de Schur 1.6.1, a a u se tiene que λ(I + A) = 1 + λ(A) (contando multiplicidades, y en alg´n orden). Por lo tanto u ρ(I + A) = 1 + ρ(A) (porque el m´ximo est´ a la derecha y no en la tercera posici´n). Como a a o I + A es primitiva, si denotamos por x al vector de Perron de I + A, entonces tenemos que x>0 y Ax = (I + A − I) x = (1 + ρ(A) ) x − x = ρ(A) x . Por ultimo, la igualdad λ(I + A) = 1 + λ(A) dice que cada λi (A) = ρ(A) produce un ´ λi (I + A) = 1 + ρ(A). Como de ´stos hay uno solo, sale el item 3. e A continuaci´n presentamos dos resultados sobre matrices irreducibles de MPn que son muy o utiles, pero que quedaron medio aislados: ´ Corolario 11.2.10. Sean A ∈ MPn irreducible y x ∈ Rn {0}. Si se tiene que x 0 y Ax ρ(A)x =⇒ x > 0 y Ax = ρ(A)x . Demostraci´n. Como A es irreducible, tambi´n AT lo es (¿porque?). Por el Teorema de o e Perron-Frobenius existe un vector y > 0 tal que AT y = ρ(A)y, o sea que y T A = ρ(A)y T . Por otra parte, sabemos que Ax − ρ(A)x 0. Si sucediera que Ax − ρ(A)x = 0, entonces y T > 0 =⇒ 0 < y T (Ax − ρ(A)x) = y T Ax − ρ(A)y T x = ρ(A)y T x − ρ(A)y T x = 0. Esta contradicci´n nos convence de que Ax = ρ(A)x. Usando lo anterior, el hecho de que o x > 0 puede deducirse ahora del Teorema de Perron-Frobenius. Proposici´n 11.2.11. Sean A, B ∈ MPn tales que A es irreducible y B o A. Si adem´s a asumimos que B = A, entonces ρ(B) < ρ(A). Demostraci´n. La Proposici´n 11.2.1 nos dice que existe un x ∈ Rn {0} tal que x o o 0 y Bx = ρ(B)x. Supongamos que ρ(B) = ρ(A). En tal caso, por el Corolario 11.2.10, x 0 y A B =⇒ Ax Bx = ρ(B)x = ρ(A)x =⇒ Ax = ρ(A)x y x>0. Por lo tanto Ax = ρ(A)x = ρ(B)x = Bx, o sea que (A − B)x = 0. Sin embargo, esto es imposible porque A = B, A − B 0 y x > 0. La contradicci´n provino de suponer que o ρ(B) = ρ(A). Luego ρ(B) < ρ(A).
  • 242. 11.2 Matrices de entradas no negativas 227 Observaci´n 11.2.12. Sea A ∈ MPn una matriz irreducible. En este caso, ρ(A) no es, o necesariamente, el unico autovector de m´dulo m´ximo. En efecto, tomando ´ o a 0 1 A= , se tiene que A es irreducible porque I + A > 0, pero σ (A) = {1, −1} . 1 0 En general, puede verse que los otros autovalores de m´dulo m´ximo en el σ(A) son los o a siguientes: ω1 ρ(A) , . . . , ωk−1 ρ(A), donde los ωi son las ra´ ıces k-´simas de la unidad, para e cierto k ≤ n. En el caso anterior, k era 2. El lector interesado puede buscar m´s informaci´n a o al respecto en el libro de A. Benedek y R. Panzone [1], el de Horn y Johnson [7] o en los siguientes ejercicios. Ejercicio 11.2.13. Sea A ∈ MPn . Probar que: 1. A es primitiva si y s´lo si A es irreducible y ρ(A) es el unico autovector de m´dulo o ´ o m´ximo de A. a 2. Si A es irreducible y semidefinida positiva (o sea que A es irreducible, A ≥ 0 y A 0), entonces A es primitiva. Ejercicio 11.2.14. Sean B ∈ Mn (C) y A ∈ MPn una matriz irreducible. 1. Supongamos que |B| A, ρ(A) = ρ(B) y λ = eiφ ρ(B) es un autovalor de B de m´dulo o m´ximo. Entonces, existen n´meros reales θ1 , . . . , θn tales que a u B = eiφ D A D−1 donde D = diag eiθ1 , . . . , eiθn . 2. Supongamos que ρ(A) = 1 y sea S = {λ1 , . . . , λk } = {λ ∈ σ(A) : |λ| = 1}. (a) Pongamos que cada λj = eiφj ρ(A). Probar que µ ∈ σ (A) ⇐⇒ e−iφj µ ∈ σ (A). (b) Concluir a partir del item anterior que S es un grupo abeliano. 2πip (c) Probar que S = Gk = {e k : p ∈ Ik } y que cada λp ∈ S tiene multiplicidad algebraica igual a uno. (d) Mostrar que si A es no singular y n es primo, entonces, ρ(A) es el unico autovalor ´ de m´dulo m´ximo, o bien A posee n autovalores distintos. o a Ejemplo 11.2.15. Sea Jn ∈ Mn (R) el bloque de Jordan de tama˜o n × n (con n ≥ 2). Es n decir que Jn e1 = 0 y Jn ek = ek−1 , para 2 ≤ k ≤ n. Llamemos   0 1 0 0 .. .. .. 0 1 0 1 0 .. .. .. 0   0 1 0 1 .. .. .. 0 . .   0 0 1 . . . . . . . .  . . A = J + JT = . .  ∈ H(n) , . .  .. ..  . . . . 1 0 0  0 .. .. .. 1 0 1 0   0 .. .. .. 0 1 0 1 0 .. .. .. 0 0 1 0
  • 243. 228 Teor´ de Perron-Frobenius ıa que act´a en Rn por Ax = (x2 , x1 +x3 , x2 +x4 , . . . , xn−2 +xn , xn−1 ), x ∈ Rn . No es dif´ u ıcil verificar que A es irreducible, ya sea mostrando que (I + A)n−1 > 0, o viendo que satisface la definici´n de ser FC (con la diagonal de arriba si p < q y con la de abajo si q < p). Tambi´n o e puede probarse que A ∈ Gl (n) si y s´lo si n es par. Esta matriz es muy famosa y es, tal ves, o la primera matriz a la que se le calcularon todos los autovalores y autovectores. Esto lo hizo Lagrange en 1759, para resolver un sistema de ecuaciones diferenciales ordinarias asociado al problema de la cuerda que vibra. Sus autovalores son, en orden decreciente, kπ µk (A) = 2 cos , 1≤k≤n, n+1 π por lo que A = ρ(A) = 2 cos n+1 . Notar que µn (A) = −µ1 (A), luego A no es primitiva. Adem´s, si n + 1 = 2k (es decir, si n es impar), entonces µk (A) = 2 cos π/2 = 0, lo que prueba a lo antedicho. Los autovectores asociados son, respectivamente, kπ 2kπ nkπ xk = sen , sen , . . . , sen , 1≤k≤n. n+1 n+1 n+1 nπ Notar que el unico con entradas positivas es x1 , porque n+1 no lleg´ a´n a π. La verificaci´n ´ o u o de lo anterior es tediosa pero elemental. Se basa en las f´rmulas del seno y coseno de sumas o y restas, y en que sen(π − t) = sen t y cos(π − t) = − cos t. A es el prototipo de matriz tridiagonal o de Jacobi. En realidad cumple que I +A es totalmente positiva, lo que justifica (m´s bien digamos que sugiri´) las propiedades de sus autovalores y a o autovectores, como se ver´ en el Cap´ a ıtulo 13. π Veamos que Ax1 = µ1 (A)x1 , lo que nos dir´ que ρ(A) = 2 cos n+1 y que x1 es el vector de a Perron-Frobenius de A. En efecto, se tienen dos casos: para las entradas 1 y n: 2π π π A(x1 )1 = sen n+1 = 2 cos n+1 sen n+1 y A(x1 )n = sen (n−1)π = cos n+1 sen n+1 − cos n+1 sen n+1 n+1 π nπ nπ π π nπ = 2 cos n+1 sen n+1 . Para las entradas 2 ≤ k ≤ n − 1 se tiene que A(x1 )k = (x1 )k+1 + (x1 )k−1 . Pero (x1 )k+1 = sen (k+1)π n+1 π kπ kπ π = cos n+1 sen n+1 + cos n+1 sen n+1 y (x1 )k−1 = sen (k−1)π n+1 π kπ kπ π = cos n+1 sen n+1 − cos n+1 sen n+1 . π Sumando se obtiene la f´rmula buscada. Los n´meros cm = 2 cos m para m ≥ 3, que o u aparececn como normas de las matrices anteriores, son muy importantes en varias ramas de la matem´tica. Por ejemplo, aparecen en la teor´ del ´ a ıa ındice de V. Jones. Tienen la siguiente particularidad: Sea N (Z) ⊆ R el conjuntos de normas espectrales de matrices de cualquier tama˜o (incluso rectangulares) con entradas en Z. Entonces n π N (Z) ∩ (0, 2) = { 2 cos : m ≥ 3}. m
  • 244. 11.3 Ejercicios 229 Notar que realizamos todos estos valores con las matrices cuadradas anteriores. Sin embargo, se los puede realizar con matrices m´s peque˜as. En efecto, si n = 2k, sea B ∈ Mk (Z) dada a n por B = Ik + Jk . Entonces la matriz 0 B B= ∈ H(n) BT 0 difiere de la matriz A del principio s´lo en una reordenaci´n de la base can´nica (poniendo o o o los pares primero y los impares al final). Es decir que existe una matriz de permutaci´n o P ∈ UP (n) tal que P AP −1 = B. Por lo tanto B = s1 (B) = µ1 (B) = B = A = cn+1 . Por eso era que −µn−j+1 (A) = µj (A) = sj (B), para todo j ∈ Ik (ver Proposici´n 3.7.5). Algo o similar puede hacecrse si n = 2k + 1, tomando B = (B, ek ) ∈ Mk, k+1 (Z). 11.3 Ejercicios Ejercicios que aparecen en el texto 11.3.1. El Teorema de Perron falla en general si A 0 pero A > 0. Por ejemplo, si 0 1 A= , 1 0 entonces Am = A o I, seg´n m sea impar o par. Adem´s, σ (A) = {1, −1}. En este caso u a el autovector asociado al 1 es positivo estricto (es 1). Pero eso no pasa para la matriz 1 0 A = . Es m´s, todas las partes del Teorema (salvo una) pueden hacerse fallar a 0 0 tomando matrices diagonales de bloques adecuadas 11.3.2. Sea A ∈ MPn . Probar que: 1. A es primitiva si y s´lo si A es irreducible y ρ(A) es el unico autovector de m´dulo o ´ o m´ximo de A. a 2. Si A es irreducible y semidefinida positiva (o sea que A es irreducible, A ≥ 0 y A 0), entonces A es primitiva. 11.3.3. Sean B ∈ Mn (C) y A ∈ MPn una matriz irreducible. 1. Supongamos que |B| A, ρ(A) = ρ(B) y λ = eiφ ρ(B) es un autovalor de B de m´dulo o m´ximo. Entonces, existen n´meros reales θ1 , . . . , θn tales que a u B = eiφ D A D−1 donde D = diag eiθ1 , . . . , eiθn .
  • 245. 230 Teor´ de Perron-Frobenius ıa 2. Supongamos que ρ(A) = 1 y sea S = {λ1 , . . . , λk } = {λ ∈ σ(A) : |λ| = 1}. (a) Pongamos que cada λj = eiφj ρ(A). Probar que µ ∈ σ (A) ⇐⇒ e−iφj µ ∈ σ (A). (b) Concluir a partir del item anterior que S es un grupo abeliano. 2πip (c) Probar que S = Gk = {e k : p ∈ Ik } y que cada λp ∈ S tiene multiplicidad algebraica igual a uno. (d) Mostrar que si A es no singular y n es primo, entonces, ρ(A) es el unico autovalor ´ de m´dulo m´ximo, o bien A posee n autovalores distintos. o a 11.3.4. Completar las pruebas de lo enunciado en la Observaci´n 11.2.15. o Ejercicios nuevos 11.3.5. Sean A ∈ Mn (R) y x ∈ Rn . Probar que: 1. Si A > 0 y x 0, pero x = 0, entonces Ax > 0. 2. Si A 0 y x > 0, entonces Ax = 0 ⇐⇒ A = 0. M´s a´n, (Ax)k = 0 ⇐⇒ Fk (A) = 0. a u 3. Si A > 0 y es inversible, entonces A−1 ∈ MPn . / 4. Si A 0 y es inversible, entonces A−1 0 ⇐⇒ A tiene exactamente una entrada no nula por columna. 11.3.6. Si A ∈ MPn posee un autovalor positivo, probar que A es similar a una matriz de MPn tal que la traza se sus filas es constante. ¿Cual es esa constante?. 11.3.7. Sea A ∈ MPn . Demostrar que n n 1 1 ρ(A) = m´x m´ a ın aij xj = m´ m´x ın a aij xj . x>0 i∈In xi j=1 x>0 i∈In xi j=1 11.3.8. Sea A ∈ MPn . Probar que 1/m lim tr Fi (Am ) = ρ(A) para cualquier i ∈ In . m→∞ 11.3.9. Sea A ∈ Mn (R) tal que las entradas fuera de la diagonal de A son no negativas1 . Mostrar que A posee un autovalor real r(A) tal que r(A) ≥ Re(λ) para todo λ ∈ σ(A). 11.3.10. Sean σ ∈ Sn y Pσ ∈ UP (n) ⊆ MPn su matriz asociada. Decir que debe cumplir σ para que Pσ sea irreducible. Se recomienda mirar la Eq. (11.1). De paso, calcular σ(Pσ ). 11.3.11. Probar que si A es una matriz doble estoc´stica reducible, entonces existe una a permutaci´n Pσ ∈ UP (n) tal que o −1 A1 0 Pσ APσ = . 0 A2 1 estas matrices se conocen con el nombre de esencialmente no-negativas.
  • 246. Cap´ ıtulo 12 Complementos de Schur y determinantes 12.1 Notaciones y definiciones Recordemos las notaciones asociadas a submatrices vistas en Cap´ ıtulos anteriores: 1. Sea n ∈ N y k ∈ In . Notamos por Qk,n al conjunto de sucesiones estrictamente crecientes de k enteros elegidos en In : Qk,n = α = (α1 , α2 , · · · , αk ) ∈ Ik : 1 ≤ α1 < α2 < · · · < αk ≤ n . n Otra manera de verlo es Qk,n = J ⊆ In : |J| = k , si pensamos a los conjuntos J ordenados en forma creciente. Luego |Qk,n | = n . “ ” k 2. Dado α ∈ Qk,n , denotaremos por α = In α ∈ Qn−k ,n a su complemento (ordenado convenientemente). 3. Sean A ∈ Mn,m (C), α ∈ Qk,n y β ∈ Qr,m . Entonces denotaremos por A[α|β] a la submatriz de k × r de A dada por A[α|β] = Aαi βj (i,j)∈Ik ×Ir ∈ Mk, r (C) . Llamaremos A(α|β) = A[α |β ] ∈ Mn−k , m−r (C) . An´logamente se definen a A[α|β) = A[α|β ] ∈ Mk , m−r (C) y A(α|β] = A[α |β] ∈ Mn−k , r (C) . 4. Cuando α = β, A[α|α] se abreviar´ como A[α] y A(α|α) = A(α). Si α = In (resp. a β = Im ), notaremos A[α|β] = A[−|β] (resp. A[α|β] = A[α|−]).
  • 247. 232 Complementos de Schur y determinantes 5. Dadas A ∈ Mn,r (C) y B ∈ Mr,m (C) , sea k ≤ m´ ın{n, r, m}. Luego, para cada par α ∈ Qk,n , β ∈ Qk,m se tiene la f´rmula de Cauchy Binnet para AB: o det (AB)[α|β] = det A[α|ω] det B[ω|β] . (12.1) ω∈Qk,r 6. Dada α ∈ Qk,n , usaremos la abreviaci´n: o e∧ = e(n) α α ∧ := e(n) ∧ e(n) ∧ · · · ∧ e(n) ∈ Λk Hn . α1 α2 αk Luego, por la multilinealidad de la funci´n Hk (x1 , . . . , xk ) → x1 ∧ · · · ∧ xk (ver 7.2.1, o n item 3 y Definici´n 7.3.4), y por la Eq. (7.18), el conjunto o √ Ek,n = { k! e∧ : α ∈ Qk,n } ∧ α es una base ortonormal de“Λk Hn , y se la llama base can´nica. Por lo tanto, tenemos o que dim Λk Hn = |Qk,n | = n . ” k El complemento de Schur Definici´n 12.1.1. Sea A ∈ Mn (C), k ∈ In y α, β ∈ Qk,n . o 1. Supongamos que A[α|β] es inversible. En tal caso definimos el complemento de Schur de A[α|β] en A, como la matriz A/[α|β] = A(α|β) − A(α|β] · A[α|β]−1 · A[α|β) ∈ Mn−k (C) , (12.2) indexada por α y β . 2. Si α = β, escribiremos A/α en lugar de A/[α|α]. Observaci´n 12.1.2. Sean A ∈ Mn (C)+ y α ∈ Qk,n . Si A[α] ∈ Gl (k)+ y consideramos el o subespacio S = Gen {ej : j ∈ α}, entonces el Corolario 3.8.9 dice que / A/α 0 S A(α) − A(α|α] A[α]−1 A(α|α]∗ 0 S = = Σ (A, S) . 0 0 S⊥ 0 0 S⊥ Definici´n 12.1.3. Sea α ∈ Qk,n . o k 1. Llamaremos tr α = αi . i=1 2. Llamaremos sgn(α) al signo de la permutaci´n πα ∈ Sn dada por πα (αi ) = i para i ∈ Ik , o y πα (αj ) = k + j para j ∈ In−k . Es decir que πα pone a los buenos al principio y a los malos al final, preservando sus ´rdenes. Por lo tanto, o k k(k + 1) sgn(α) = (−1)αi −i = (−1)r , con r = tr α − . (12.3) i=1 2
  • 248. 12.1 Notaciones y definiciones 233 En efecto, se puede ver que πα = (k, . . . , αk ) . . . (2, . . . , α2 )(1, 2, . . . , α1 ), donde (a1 , . . . , ar ) denota al r-ciclo asociado. Esto se deduce de que el primer ciclo (que consta de α1 − 1 trasposiciones) manda α1 al lugar 1. El segundo (que consta de α2 − 2 trasposiciones) manda α2 al lugar 2 (observar que (1, 2, . . . , α1 ) no movi´ a α2 ) y deja o a α1 en el lugar 1. Se sigue as´ hasta mandar αk al lugar k . Lo dem´s (los valores ı a que toma en α ) queda armado para producir la permutaci´n πα , porque se mantuvo o su orden interno, y van a donde deben ir. Por ejemplo, los ´ ındices 1, . . . , α1 − 1 est´n a en α (si α1 > 1) y se “corren” un lugar a la derecha por el primer ciclo. Luego, los “lugares” 2, . . . , α2 − 1 est´n ocupados por m´s elementos de α y se vuelven a corren a a con el segundo ciclo (manteniendo su orden original). Luego de aplicar los k ciclos, quedan todos los de α ordenaditos y al final. 3. Sea Tα ∈ UP (n), la matriz de permutaci´n asociada a πα , dada por o Tα ei = eαi si i = 1, . . . , k (12.4) Tα ek+j = eαj si j = 1, . . . n − k . Tenemos entonces que det Tα = sgn(πα ) = sgn(α). El siguiente resultado generaliza la Proposici´n 3.8.7 y el Corolario 3.8.9 a matrices y bloques o cualesquiera (siempre que sean cuadrados). Teorema 12.1.4. Sean A ∈ Mn (C), k ∈ In y α, β ∈ Qk,n . Se tiene que A[α|β] ∈ Gl (k) =⇒ det A = sgn(α) sgn(β) det A[α|β] det A/[α|β] . (12.5) Si tambi´n A ∈ Gl (n), entonces A/[α|β] ∈ Gl (n − k) y e −1 A/[α|β] = A−1 (β|α) . (12.6) Demostraci´n. Empecemos con el caso particular α = β = Ik . En este caso, se puede aplicar o una argumento igual al de la prueba de la Proposici´n 3.8.7, que mostraremos brevemente: o Un c´lculo elemental prueba que A admite la factorizaci´n a o In [α] 0 A[α] 0 In [α] A[α]−1 A[α|α) A= . (12.7) A(α|α]A[α]−1 In (α) 0 A/α 0 In (α) A partir de esto podemos deducir sin problemas la Eq. (12.5), porque los factores de la derecha y de la izquierda en el lado derecho de Eq. (12.7) tienen determinante 1, mientras que el factor central tiene determinante igual a det A[α] det(A/α). Tambi´n, Eq. (12.6) es e consequencia de la Eq. (12.7), tomando inversas de ambos lados.
  • 249. 234 Complementos de Schur y determinantes Para probar el caso general, consideremos las matrices Tα , Tβ definidas en Eq. (12.4). Llame- −1 mos B = Tα ATβ . Usando la Eq. (12.4) vemos que, como matrices de sus tama˜os, n B[Ik ] = A[α|β] , B(Ik ) = A(α|β) , B(Ik |Ik ] = A(α|β] y B[Ik |Ik ) = A[α|β) . (12.8) Mostraremos la primera igualdad de la Eq. (12.8), ya que las dem´s se muestran de manera a an´loga: dados i, j ∈ Ik , tenemos que a −1 −1 B[Ik ]ij = (Tα ATβ )[Ik ]ij = Tα ATβ ej , ei = ATβ ej , Tα ei = Aeβj , eαi = Aαi βj = A[α|β]ij . Observar que las igualdades de (12.8) aseguran que B/[Ik ] = A/[α|β] . Luego sgn(α) sgn(β) det A = det B = det B[Ik |Ik ] det B/[Ik |Ik ] = det A[α|β] det A/[α|β] , ya que det Tα = sgn(α). Finalmente, la Eq. (12.6) resulta de la relaci´n: o −1 −1 −1 A−1 (β|α) = (Tβ A−1 Tα )(Ik ) = B −1 (Ik ) = B/[Ik ] = A/[α|β] . En el siguiente enunciado veremos que toda matriz A ∈ Mn (C) puede ser aproximada tanto como se quiera por matrices tales que todas sus submatrices cuadradas son inversibles. Esto ser´ usado para obtener varias identidades de determinantes a partir del Teorema 12.1.4. a Lema 12.1.5. Dada A ∈ Mn (C) y ε > 0, existe B ∈ Mn (C) tal que 1. A − B < ε, donde · es una norma en Mn (C). 2. Todas las submatrices cuadradas de B son inversibles. n n “ ”2 Demostraci´n. La cantidad total de submatrices cuadradas de A es M = o k . Consider- k=1 emos la funci´n φ : Mn (C) → CM que asigna a cada B ∈ Mn (C) la lista de los determinantes o de todas sus submatrices cuadradas, en alg´n orden prefijado. Notar que φ es una funci´n u o continua. Llamemos Γ = φ−1 a ∈ CM : ai = 0 para todo i ∈ IM . Para probar el Lema, basta ver que Γ es denso en Mn (C). Llamemos, para cada i ∈ IM , Γi = φ−1 a ∈ CM : ai = 0 . M Es claro que todos estos conjuntos son abiertos y que Γ = Γi . Por otra parte, cada Γi i=1 es denso en Mn (C), porque Gl (k) es denso en Mk (C) para todo k ∈ N. Por ejemplo, si φ(A)1 = det A, entonces Γ1 = Gl (n). El resultado se sigue de que una intersecci´n finita de o abiertos densos es densa. En efecto, si U y V son abiertos densos y Z es abierto, entonces Z ∩ U es un abierto no vac´ Entonces (Z ∩ U ) ∩ V = Z ∩ (U ∩ V ) = ∅ para todo abierto Z. ıo. Por lo tanto U ∩ V es denso. Por inducci´n, quien dice 2, dice M . o
  • 250. 12.2 Identidades asociadas a determinantes 235 12.2 Identidades asociadas a determinantes Teorema 12.2.1 (Identidad de Jacobi). Sea A ∈ Gl (n). Entonces det A(β|α) det A−1 [α|β] = sgn(α) sgn(β) , para todo par α, β ∈ Qk,n . (12.9) det A Demostraci´n. Se sigue de las ecuaciones (12.6) y (12.5), aplicadas a α y β : o det A−1 = sgn(α) sgn(β) det A−1 [α|β] det A−1 /[α|β] =⇒ sgn(α) sgn(β) sgn(α) sgn(β) =⇒ det A−1 [α|β] = · (det A−1 /[α|β])−1 = · det A(β|α) , det A det A lo que culmina la prueba. Observaci´n 12.2.2. Cuando k = 1, la Eq. (12.9) induce la identidad: o det A(j|i) (A−1 )ij = (−1)i+j , i, j ∈ In , (12.10) det A conocida como la regla de Cramer. 12.2.3. Sean Jn = diag 1, −1, 1, −1, . . . , (−1)n−1 ∈ U(n), y ω, α ∈ Qk,n . Luego k(k−1) det Jn [α|ω] = δαβ sgn(α)(−1) 2 , donde δα,β = 1 o 0 de acuerdo a si α = β o α = β. En efecto, si α = ω, en Jn [α|ω] hay una columna de ceros, y por lo tanto su determinante es cero. Cuando α = ω tenemos que, si pα denota al n´mero de elementos pares de α, entonces u k pα ≡ (αi − 1) = tr α − k (m´dulo 2) . o i=1 Luego k(k+1) k(k−1) −k det Jn [α] = (−1)pα = (−1)tr α−k = sgn(α) · (−1) 2 = sgn(α)(−1) 2 , lo que culmina la prueba. Si A ∈ Gl (n), suele notarse A# = Jn A−1 Jn a la llamada inversi´n o de A. La siguiente igualdad se sigue de la Eq. (12.9), usando (12.1) (Cauchy-Binnet): det A(β|α) det(Jn A−1 Jn )[α|β] = para α, β ∈ Qk,n , (12.11) det A dado que det Jn [α] · sgn(α) = det Jn [β] · sgn(β) = (−1)k(k−1)/2 .
  • 251. 236 Complementos de Schur y determinantes 12.2.4. La siguiente igualdad es v´lida para toda A ∈ Mn (R): dados α, β ∈ Qk,n , a sgn(ω) det A[α|ω] det A(β|ω) = δα,β sgn(β) det A . (12.12) ω∈Qk,n De hecho, cuando A es inversible, por Eq. (12.9), el lado izquierdo de la Eq. (12.12) da sgn(β) det A det A[α|ω] det A−1 [ω|β] = sgn(β) det A det In [α|β] , ω∈Qk,n por la f´rmula de Cauchy Binnet (12.1). El caso no inversible se deduce por continuidad. o Observar que, tomando k = 1, y fijando cualquier r ∈ In como α = β, nos queda el algoritmo usual propuesto en el Ejercicio 7.5.11 (y usando n veces) desarrollando por la fila r: det A = sgn {r} sgn{i} Ar,i det A(r|i) = (−1)r+i Ar,i det A(r|i) . (12.13) i∈In i∈In El desarrollo por columnas sale aplicando esto a AT . 12.2.5. Dados α, β ∈ Qk,n y, adem´s, ω, τ ∈ Ql,n tales que ω ⊆ α , τ ⊆ β , sean a µ = α ∪ ω = (µ1 , µ2 , . . . , µk+l ) y ν = β ∪ τ = (ν1 , ν2 , . . . , νk+l ) ∈ Qk+l,n . Existen entonces γ y σ ∈ Qk,k+l tales que αi = µγi y βi = νσi , i ∈ Ik . Luego definimos α k(k+1) β sgn = sgn(γ) = (−1)tr γ− 2 , sgn = sgn(σ) . (12.14) α∪ω β∪τ Con estas notaciones, se tiene la siguiente versi´n local del Teorema 12.1.4: o α β det A[α|β] det (A/[α|β])[ω|τ ] = sgn sgn det A[α ∪ ω|β ∪ τ ] (12.15) α∪ω β∪τ En efecto, consideremos la matriz B = (aµi νj )i,j∈Ik+l ∈ Mk+l (R). Entonces vemos que Eq. (12.15) coincide con Eq. (12.5) para B, γ, σ en lugar de A, α, β, respectivamente. De hecho, como B = A[µ|ν] = A[α ∪ ω|β ∪ τ ], entonces B[γ|σ] = A[α|β] y, por otra parte, B/[γ|σ] = B(γ|σ) − B(γ|σ] B[γ|σ]−1 B[γ|σ) = A(α|β)[ω|τ ] − A(α|β] A[α|β]−1 A[α|β)[ω|τ ] = (A/[α|β])[ω|τ ] . Una consecuencia inmediata es la siguiente caracterizaci´n de las entradas de un complemento o de Schur: Dados α, β ∈ Qk,n , se tiene α β det A[α ∪ {αi }|β ∪ {βj }] {A/[α|β] }(α = sgn sgn (12.16) i ,βj ) α ∪ {αi } β ∪ {βj } det A[α|β]
  • 252. 12.2 Identidades asociadas a determinantes 237 Corolario 12.2.6. Sea A ∈ Mn (R) y sea r ∈ In tal que Arr = 0. Entonces, para todo α ∈ Qk,n tal que r ∈ α, se tiene que / (A/[r])[α] = A[{r} ∪ α]/[r] . Todas esas letras significan que las submatrices principales de A/[r] s´lo dependen de las o entradas correspondientes de A (y no de las dem´s). a Demostraci´n. Dados i, j ∈ α, la f´rmula (12.16) asegura que o o (A/[r])[α] = (A/[r] ij ij r r det A[{i, r}|{j, r}] = sgn sgn {i, r} {j, r} Arr = A[{r} ∪ α]/[r] , ij por lo ambas matrices coinciden. 12.2.7 (Identidad de Sylvester). Dados A ∈ Mn (R) y α, β ∈ Qk,n , se cumple que det det A[α ∪ {αi }|β ∪ {βj }] i,j∈In−k = det A · det A[α|β]n−k−1 (12.17) Para probarlo, tomemos los n´meros u α β εi = sgn y ρj = sgn , para todo i, j ∈ In−k . α ∪ {αi } β ∪ {βj } Por la Eq. (12.16), vemos que el lado izquierdo de la Eq. (12.17) es igual a det det A[α|β] (A/[α|β])ij εi ρj = det A[α|β]n−k det diag(ε1 , . . . , εn−k ) A/[α|β] diag(ρ1 , . . . , ρn−k ) = n−k n−k α β det A[α|β]n−k−1 det A[α|β] det(A/[α|β]) sgn · sgn . i=1 α ∪ {αi } i=1 β ∪ {βj } La f´rmula (12.17) se sigue ahora de la Eq. (12.5) y del siguiente resultado: o Lema 12.2.8. Sea α ∈ Qk,n . Entonces n−k α sgn = sgn(α) . (12.18) i=1 α ∪ {αi }
  • 253. 238 Complementos de Schur y determinantes α Demostraci´n. Recordemos la definici´n de los signos de α y de α∪{α } , para cada entrada o o i i ∈ In−k . En ambos casos, es calcular el signo de la permutaci´n que manda a los buenos o al principio y los malos al final. En otras palabras, est´n determinados por la cantidad a de trasposiciones necesarias para efectuar tales ordenamientos. Pero miremos el siguiente proceso: empezamos por el ultimo elemento de α y lo corremos hasta el final (si no estaba ´ all´ Al pen´ltimo, lo corremos hasta justo despues de αk . Y seguimos as´ con todos los de ı). u ı α hasta llegar al primero. El n´mero de trasposiciones en cada paso es justo el que determina u α el correspondiente sgn α∪{α } , porque los αj que tiene arriba quedaron pegados entre s´ al ı, i haber sacado antes los de α mayores que αi . Pero al final de todo mandamos prolijamente a todo α hasta el final, por lo que la suma total da el sgn(α). Observaci´n 12.2.9. La prueba anterior es un poco charlada, pero cr´anme que ustedes o e lo preferir´ as´ antes que tener que leer una cuenta expl´ ıan ı, ıcita. Igual daremos una versi´n o guiada de esa cuenta en los ejercicios. Como aval de la prueba anterior, se ver´ all´ que a ı la suma de los exponentes de la productoria de (12.18) da igual (y no s´lo congruente) al o exponente de −1 en sgn(α), seg´n las Eq’s (12.3) y (12.14). u 12.3 Un poco m´s de complementos de Schur a Recordemos que, si A ∈ Mn (C), k ∈ In y α, β ∈ Qk,n satisfacen que A[α|β] es inversible, el complemento de Schur A[α|β] en A es la matriz A/[α|β] = A(α|β) − A(α|β] · A[α|β]−1 · A[α|β) ∈ Mn−k (C) , indexada por α y β . Llamemos Cβ = Gen {ej : j ∈ β } y Cβ = Gen {ek : k ∈ β}. Rep- resentemos Cn = Cβ ⊕ Cβ , poniendo que un vector Cn x = xβ + xβ . An´logamente a n α α β α C = C ⊕ C . Observar que A[α|β] opera desde C hacia C , lo que denotaremos A[α|β] : Cβ → Cα . Por lo tanto A[α|β]−1 : Cα → Cβ . Los otros cachos de A operan en forma coherente, por ejemplo A[α|β) : Cβ → Cα y as´ Con estas notaciones, podemos ı. pensar que A/[α|β] : Cβ → Cα . Proposici´n 12.3.1. Sea A ∈ Mn (C) y supongamos que A[α|β] es inversible para ciertos o α, β ∈ Qk,n . Definamos P (A, α, β) ∈ Mn (C) dado por P (A, α, β) x = xβ − A[α|β]−1 A[α|β) xβ , para x = xβ + xβ ∈ Cn . Entonces, si abreviamos P (A, α, β) = P , se tiene que 1. P 2 = P . 2. ker P = Gen {ej : j ∈ β} = Cβ . 3. (AP )(α|β) = A/[α|β] y las dem´s coordenadas de AP son nulas. a
  • 254. 12.3 Un poco m´s de complementos de Schur a 239 Demostraci´n. Observar que P x = P xβ y que −A[α|β]−1 A[α|β) xβ ∈ Cβ para todo x ∈ Cn . o Por ello es claro que P 2 = P y que ker P = Cβ , porque los sumandos que definen a P no interfieren entre s´ por lo que nunca se anula en Cβ {0}. ı, De lo anterior, deducimos que si x = xβ ∈ Cβ , entonces AP x = 0. Esto dice que (AP )[α|β] y (AP )(α|β] son matrices nulas, porque son las partes de AP que act´an en Cβ y van a lugares u que no interfieren entre s´ Por lo tanto, para cualquier x ∈ Cn , se tiene que ı. AP x = AP xβ = A(α|β) + A[α|β) xβ − A(α|β] + A[α|β] A[α|β]−1 A[α|β) xβ = A(α|β) − A(α|β]A[α|β]−1 A[α|β) xβ = A/[α|β] xβ ∈ Cα . Esto muestra que (AP )[α|β) ≡ 0 y que (AP )(α|β) = A/[α|β]. Corolario 12.3.2. Sean A ∈ Mn (C) y α, β ∈ Qk,n tales que A[α|β] es inversible. 1. Para todo xβ ∈ Cβ existe un xβ ∈ Cβ tal que A/[α|β] xβ = A(xβ + xβ ) . 2. Sea Q ∈ Mn (C) tal que Q2 = Q , ker Q = Cβ y R(A · Q) ⊆ Cα . (12.19) Entonces se tiene que Q = P (A, α, β). Demostraci´n. Sea P = P (A, α, β) la proyecci´n de la Proposici´n 12.3.1. Luego o o o A/[α|β] xβ = AP xβ = A xβ − A A[α|β]−1 A[α|β) xβ . Luego basta tomar xβ = −A , A[α|β]−1 A[α|β) xβ . Si me dan ahora un Q que cumple (12.19), entonces Q2 = Q y ker Q = Cβ . Luego, como en el Ejercicio 3.9.19, se puede ver que Qx = Qxβ = xβ + Q[β, β)xβ , para todo x = x β + x β ∈ Cn . El hecho de que R(AQ) ⊆ Cα indica que (AQ)[α|β) = 0. De lo anterior, uno deduce que 0 = (AQ)[α|β) = A[α|β) + A[α|β]Q[β, β) =⇒ A[α|β]Q[β, β) = −A[α|β) . Como A[α|β] es inversible, tenemos que Q[β, β) = −A[α|β]−1 A[α|β), o sea que Q = P . El siguiente teorema es un resultado an´logo a la Proposici´n 3.8.5. a o Teorema 12.3.3. Sea A ∈ Mn (C) y supongamos que A[α|β] es inversible para ciertos α, β ∈ Qk,n . Sean ω, τ ∈ Qr,n , tales que ω ⊆ α y τ ⊆ β . Entonces 1. (A/[α|β])[ω|τ ] ∈ Gl (r) si y s´lo si A[α ∪ ω|β ∪ τ ] ∈ Gl (k + r). o 2. En este caso se cumple la siguiente igualdad de matrices: A/[α|β] /[ω|τ ] = A/[α ∪ ω|β ∪ τ ] . (12.20)
  • 255. 240 Complementos de Schur y determinantes Demostraci´n. El item 1 se deduce en forma inmediata de la Eq. (12.15). Por la Proposici´n o o 12.3.1, tenemos tres proyectores: P (A, α, β), P (A/[α|β], ω, τ ) y P (A, α ∪ ω, β ∪ τ ) tales que A/[α|β] = A · P (A, α, β) , A/[α ∪ ω|β ∪ τ ] = A · P (A, α ∪ ω, β ∪ τ ) y A/[α|β] /[ω|τ ] = A/[α|β] · P (A/[α|β], ω, τ ) = A · P (A, α, β) · P (A/[α|β], ω, τ ) , (12.21) salvo los ceros. Ahora bien, ker P (A, α, β) = Cβ , mientras que A/[α|β] opera s´lo en Cβ o por lo que, si pensamos a P (A/[α|β], ω, τ ) ∈ Mn (C) con ceros fuera de β , se tiene que ker P (A/[α|β], ω, τ ) = Cβ∪τ . En particular, como Cβ ⊆ Cβ∪τ , se tiene que P (A/[α|β], ω, τ ) I − P (A, α, β) = 0 =⇒ P (A/[α|β], ω, τ )P (A, α, β) = P (A/[α|β], ω, τ ) y la matriz Q = P (A, α, β) · P (A/[α|β], ω, τ ) ∈ Mn (C) cumple que Q2 = Q , ker Q = Cβ∪τ y R(A · Q) ⊆ C(α∪ω) , (12.22) donde igualdad del medio es un ligero ejercicio, y la ultima inclusi´n surge de que, como dice ´ o la Eq. (12.21), se tiene que A/[α|β] /[ω|τ ] = AQ. Ahora, la Eq. (12.22) asegura, v´ el ıa Corolario 12.3.2, que Q = P (A, α ∪ ω, β ∪ τ ), por lo que A/[α|β] /[ω|τ ] = AQ = A/[α ∪ ω|β ∪ τ ] . Observaci´n 12.3.4. Otra forma de probar la f´rmula (12.20), con t´cnicas m´s parecidas a o o e a las del resto de este Cap´ ıtulo, ser´ calculando las coordenadas como determinantes por medio ıa de las ecuaciones (12.15) y (12.16). En efecto, sean i ∈ (α ∪ ω) y j ∈ (β ∪ τ ) , llamemos µ = {i} y ν = {j} y obsevemos que, en el lado izquierdo de (12.20) tenemos ω τ det(A/[α|β])[ω ∪ µ|τ ∪ ν] (A/[α|β])/[ω|τ ] i,j = sgn ω∪µ · sgn τ ∪ν det (A/[α|β])[ω|τ ] det A[α ∪ ω ∪ µ|β ∪ τ ∪ ν] =ε , donde det A[α ∪ ω|β ∪ τ ] ω α α τ β β ε = sgn ω∪µ · sgn α∪ω · sgn α∪ω∪µ · sgn τ ∪ν · sgn β∪τ · sgn β∪τ ∪ν . La misma entrada del lado derecho de (12.20) es igual a α∪ω β∪τ det A[α ∪ ω ∪ µ|β ∪ τ ∪ ν] A/[α ∪ ω|β ∪ τ ] = sgn α∪ω∪µ sgn β∪τ ∪ν . ij det A[α ∪ ω|β ∪ τ ] Por lo tanto, ambas matrices tienen todas sus coordenadas iguales, salvo los signos. Para ver que ellos coniciden, bastar´ verificar que, para todo i ∈ (α ∪ ω) y todo j ∈ (β ∪ τ ) , ıa α∪ω β∪τ ε = sgn α∪ω∪µ sgn β∪τ ∪ν , donde µ = {i} y ν = {j} . (12.23) Esto sale usando la Eq. (12.14) y un sinn´mero de cuentas que, con gran alegr´ le dejamos u ıa, al lector interesado como ejercicio.
  • 256. 12.4 Ejercicios 241 12.4 Ejercicios Ejercicios que aparecen en el texto 12.4.1. Completar los detalles de la prueba de la Eq. (12.3). 12.4.2. Dar una prueba num´rica de la Eq. (12.18). Es decir: Dada α ∈ Qk,n probar que e n−k α sgn α∪{α = sgn(α) . Se suguieren los siguientes pasos: i} i=1 1. Para cada i ∈ In−k , sea γ i ∈ Qk,k+1 , definido como en 12.2.5 para α y α ∪ {αi }. i k(k+1) Recordemos que en la Eq. (12.14) se vi´ que sgn α∪{α } = sgn(γ i ) = (−1)tr γ − 2 , o α i donde γ i ∈ Sk+1 manda αi al final de α ∪ {αi }. El tema es ver en qu´ lugar de entre las e entradas de α que ubicado el αi . Pongamos, por conveniencia, que α0 = 0 y αk+1 = ∞. En tal caso, mostrar que (k + 2)(k + 1) tr γ i = −j , cuando se tiene que αj−1 < αi < αj . 2 α 2. Deducir que sgn α∪{α = sgn(γ i ) = (−1)k−j+1 si αj−1 < αi < αj . i} 3. Contemos cuantos hay de cada tipo: probar que |{i ∈ In−k : αi < α1 }| = α1 − 1 , |{i ∈ In−k : αk < αi }| = n − αk y |{i ∈ In−k : αj−1 < αi < αj }| = αj − αj−1 − 1 cuando 2 ≤ j ≤ k . 4. Ahora s´ calcular el exponente de la productoria: ı, n−k k k(k + 1) tr γ i − = (k − j + 1)(αj − αj−1 − 1) + 0 · (n − αk ) i=1 2 j=1 k k k(k + 1) = αj − (k − j + 1) = tr α − . j=1 j=1 2 5. Usando la Eq. (12.3), concluir la prueba de la f´rmula (12.18). o 12.4.3. Dar una prueba de la f´rmula (12.20) basandose en el camino delineado en la Ob- o servaci´n 12.3.4. En otras palabras, probar la Eq. (12.23). Se sugieren dos caminos. El o primero es encontrar permutaciones que tengan esos signos y que hagan lo mismo, como en la prueba del Lema 12.2.8. El segundo es contar todo a lo bestia, y mostrar que son congruentes m´dulo 2. En ambos casos, se puede reducir el trabajo a probar dos identidades m´s cortas o a y similares, a saber: Dados α ∈ Qk,n , ω ∈ Qr,n y µ = {i}, todos disjuntos, α ω α α∪ω sgn · sgn · sgn = sgn , α∪ω ω∪µ α∪ω∪µ α∪ω∪µ y lo mismo para β, τ y ν. Por ejemplo, se puede mandar ω ∪ µ al final, despu´s mandar a µ e al ultimo lugar, y despu´s volver a mezclar a ω con α. ´ e
  • 257. 242 Complementos de Schur y determinantes Ejercicios nuevos Notaci´n: o Sea A ∈ Mm,n (C) tal que m > n y rk(A) = n. 1. Dado I ⊆ Im con |I| = r y dado b ∈ Cm , denotaremos por bI al vector de C r que se obtiene dejando s´lo las coordenadas de b que pertenecen a I. o 2. J(A) := {I ⊆ Im : |I| = n y det A[I] = 0}. Observar que rk(A) = n =⇒ J(A) = ∅. 12.4.4 (Ben Tal - Teboulle). Dada A ∈ Mm,n (C) tal que m > n y rk(A) = n, sea c ∈ Cn la soluci´n del problema de cuadrados m´ o ınimos 2 m´ Ax − b ın para un b ∈ Cm fijo . x∈Cn Si para cada I ∈ J(A) denotamos cI = A[I]−1 bI , probar que c pertenece a la c´psula convexa a de los cI . Se suguiere probar que c es la unica soluci´n de la denomina ecuaci´n normal ´ o o A∗ Ax = A∗ b. Luego, usar la regla de Cramer y la f´rmula de Cauchy-Binet. o
  • 258. Cap´ ıtulo 13 Matrices totalmente positivas Este cap´ıtulo est´ basado en un trabajo de T. Ando [20], aparecido en 1987, y est´ escrito a a utilizando como punto de partida un trabajo de A. Iglesias. Las herramientas fundamentales para las demostraciones son los intrincados resultados del Cap´ ıtulo anterior. 13.1 Definiciones y criterios de positividad total En esta secci´n introducimos las nociones de regularidad de signo y positividad total. o Definici´n 13.1.1. o 1. Llamaremos sucesi´n de signatura a una sucesi´n o o ε = (εi )i∈N ∈ {−1, 1}N , es decir, tal que εi = ±1 para todo i∈N. 2. Dado λ ∈ R con |λ| = 1, notaremos λε a la sucesi´n de signatura λε = (λεi )i∈N . o 3. Si τ es otra sucesi´n de signatura, llamaremos τ ε = (τi εi )i∈N . o Definici´n 13.1.2. Sean A ∈ Mn,m (R) y ε una sucesi´n de signatura. Sea r = m´ o o ın{n, m}. 1. Decimos que A es de signo regular con signatura ε, y abreviaremos diciendo que A es √ o ∧ ε-RS si, en la base can´nica Ek,n = { k! e∧ : α ∈ Qk,n }de Λk Hn , se tiene que α εk · Λk A 0 para todo k ∈ Ir , (13.1) La regularidad de signo de A es equivalente a la condici´n o εk · aβ1 ∧ aβ2 ∧ · · · ∧ aβk 0, para β ∈ Qk,m k ∈ Ir , (13.2) o, por la Eq. (7.19), en forma de determinantes, εk det A[α|β] ≥ 0 para α ∈ Qk,n , β ∈ Qk,m k ∈ Ir , (13.3)
  • 259. 244 Matrices totalmente positivas 2. A se dice estrictamente de signo regular con signatura ε (A es ε-ERS) si, en la Eq. (13.1) (o, equivalentemente, en la Eq. (13.2) o la Eq. (13.3)), reemplazamos por >. 3. Decimos que A es totalmente positiva (y abreviaremos TP) si es ε-RS respecto de la sucesi´n ε ≡ 1, es decir, si o Λk A 0, k ∈ Ir , (13.4) o equivalentemente si aβ1 ∧ aβ2 ∧ · · · ∧ aβk 0, para β ∈ Qk,m k ∈ Ir , (13.5) es decir, si det A[α|β] ≥ 0 para α ∈ Qk,n , β ∈ Qk,m k ∈ Ir . (13.6) 4. A se dice estrictamente totalmente positiva (ETP) si es reemplazado por > en las ecuaciones (13.4), (13.5) o (13.6). Para testear la regularidad de signo de A se requiere chequear los signos de un n´mero muy u grande de determinantes. Pero si el rango de A es conocido, en particular si A es inversible, el n´mero necesario de determinantes a chequear puede ser considerablemente reducido. La u prueba de este resultado, que es bastante complicada, se posterga a un Ap´ndice al final e del Cap´ıtulo. Esto se debe a que su aplicaci´n es clave en el desarrollo de la teor´ y la o ıa construcci´n de ejemplos, pero estas aplicaciones son de un grado mucho menor de dificultad. o Una ves apreciado el efecto devastador del siguiente Teorema, es probable que el lector afronte con mayor entusiasmo la dif´ lectura de su demostraci´n. ıcil o Definici´n 13.1.3. Sea n ∈ N, k ∈ In y α ∈ Qk,n . La dispersi´n de α es el n´mero o o u d(α) = αk − α1 − (k − 1) = αi+1 − αi − 1 , i∈ Ik−1 con la convenci´n de que d(α) = 0 para los α ∈ Q1,n . Observar que d(α) = 0 si y s´lo si las o o entradas de α son consecutivas, i.e. αi+1 = αi + 1 para todo i ∈ Ik−1 . Teorema 13.1.4. Sea A ∈ Mn,m (R) con rk A = r, y sea ε una sucesi´n de signatura. o 1. Para que A sea ε-RS, es suficiente que las Eqs. (13.2) o (13.3) se verifiquen en los casos en que d(β) ≤ m − r. 2. En particular, si las Eqs. (13.5) o (13.6) son v´lidas en esos casos, A es TP. a Ahora pasemos a los criterios para la regularidad de signo estricta. El n´mero de determi- u nantes se reduce a´n m´s. La prueba de este criterio tambi´n se dar´ en el Ap´ndice. u a e a e Teorema 13.1.5. Sean A ∈ Mn,m (R) y ε una sucesi´n de signatura. o 1. Para que A sea ε-ERS es suficiente que, para todo k ∈ Im´ ın(n,m) , εk det A[α|β] > 0 para α ∈ Qk,n , β ∈ Qk,m tales que d(α) = d(β) = 0 .
  • 260. 13.1 Definiciones y criterios de positividad total 245 2. En particular A es ETP si det A[α|β] > 0 para α ∈ Qk,n , β ∈ Qk,m tales que d(α) = d(β) = 0 . Ejemplo 13.1.6 (Vandermonde). Sea t = (t1 , . . . , tn ) ∈ Rn . Se llama matriz de Vander- monde de t a V (t) ∈ Mn (R) dada por V (t)ij = tj−1 . O sea que i  n−1  1 t1 . . . t1  1 t2 . . . tn−1  2 V (t) =  . . .  . Es conocido que det V (t) = (tj − ti ) . (13.7)    . . ... . . .  . i<j 1 tn . . . tn−1 n La prueba es un ejercicio tradicional de inducci´n (ver Ejercicio 7.5.12). Supongamos que o 0 < t1 < · · · < tn . Entonces V (t) es ETP. En efecto, observar en principio que V (t) ∈ Gl (n). Luego, para probar que V (t) es ETP, el Teorema 13.1.5 nos dice que basta ver que det V (t)[α | β] > 0 para los pares α, β ∈ Qk,n , tales que d(α) = d(β) = 0. Si β = (r + 1, r + 2, . . . , r + k) y llamamos tα = (tα1 , . . . , tαk ), entonces se ve f´cilmente que a k det V (t)[α | β] = tr i · det V (tα ) > 0 . α i=1 El argumento clave es que, gracias a que d(β) = 0, la submatriz V (t)[α | β] tiene en sus filas, potencias consecutivas de los tαi , por lo que, dividiendo a cada fila por V (t)[α | β]i,1 = tr i , se α obtiene la matriz V (tα ) que es tambien una matriz de Vandermonde de una k-upla ordenada. La positividad del determinante en este caso se deduce de la f´rmula (13.7). Observar que la o ETPcidad se mantendr´ si uno inventara matrices de Vandermonde rectangulares (donde no ıa coincidan necesariamente el n´mero de potencias y de n´meros ti ) pero siempre pidiendo que u u el vector t tenga entradas estrictamente crecientes. Corolario 13.1.7. Una matriz A ∈ Gl (n) triangular inferior es TP si det A[α|1, 2, . . . , k] ≥ 0 para cada k ∈ In y cada α ∈ Qk,n . Demostraci´n. Sea A triangular inferior. Como el rk A = n, de acuerdo al Teorema 13.1.4, o basta mostrar que detA[α|β] ≥ 0, para α, β ∈ Qk,n , con d(β) = 0. Si α1 < β1 , entonces det A[α|β] = 0 por ser A triangular inferior. Si α1 ≥ β1 , sea τ = {1, 2, . . . , β1 − 1}. Por ser A triangular inferior, es claro que A[τ |β] ≡ 0. Entonces, por hip´tesis, o 0 ≤ det A[α ∪ τ |1, 2, . . . , βk ] = det A[α ∪ τ |β ∪ τ ] β1 −1 = det A[τ ] det A[α|β] = aii det A[α|β]. i=1 r Aplicando la hip´tesis a los conjuntos α = Ir , se obtiene que o aii ≥ 0 para todo r ∈ In . i=1 n Pero como det A = aii = 0, se sigue que detA[α|β] ≥ 0. i=1
  • 261. 246 Matrices totalmente positivas La prueba del Teorema 13.1.5, combinada con el Corolario 13.1.7, genera el siguiente criterio alternativo: Corolario 13.1.8. Sea A ∈ Mn (R) triangular inferior. Entonces es TP si se verifica que det A[α|1, 2, . . . , k] > 0 para cada k ∈ In y cada α ∈ Qk,n , con d(α) = 0. Demostraci´n. Ejercicio (hace falta ver la prueba del Teorema 13.1.5). o Definici´n 13.1.9. Una matriz A ∈ Mn (C) es llamada una matriz de Jacobi (o tridiagonal ) o si aij = 0 siempre que |i − j| > 1. Teorema 13.1.10. Sea A ∈ Mn (R) una matriz de Jacobi. Supongamos que 1. A 0. 2. Para todo k ∈ In y α ∈ Qk,n tal que d(α) = 0, se tiene que det A[α] ≥ 0. ∗ Entonces A es TP y, para cualquier t = (t1 , t2 , . . . , tn ) ∈ R+ n , n det A + diag ( t ) ≥ det A + ti . (13.8) i=1 Demostraci´n. Por inducci´n en n. La afirmaci´n es trivial para n = 1. Supongmos que el o o o Teorema es v´lido para n − 1 en lugar de n. Consideremos primero el caso en que det A > 0. a Por el Teorema 13.1.4, tenemos que chequear det A[α|β] ≥ 0 , para α, β ∈ Qk,n con d(β) = 0. Para k = n, esto es la hip´tesis. Para k ≤ n − 1, usaremos la hip´tesis inductiva, que asegura o o que las matrices A(1) y A(n) son TP. Supongamos que 1 ∈ β. Si 1 ∈ α, entonces A[α|β] / / es submatriz de A(1) y det A[α|β] ≥ 0. Si 1 ∈ α, entonces la primera fila de A[α|β] es (a1,β1 , 0, . . . , 0). Luego det A[α|β] = a1,β1 det A {α2 , . . . , αk }|{β2 , . . . , βk } ≥ 0 , porque la ultima matriz tambi´n vive dentro de A(1). El an´lisis es similar si 1 ∈ β, porque ´ e a en tal caso, como d(β) = 0, debe verificarse que n ∈ β, y puede usarse que A(n) es TP. Por / lo anterior, deducimos que A es TP en este caso (i.e., det A > 0). Supongamos ahora que a11 > 0 (es f´cil ver que este caso es suficiente). Veamos que, en tal a caso, A/{1} cumple las hip´tesis del Teorema. En efecto, es f´cil ver que A/{1} difiere de o a A(1) s´lo en la entrada 2, 2 (es decir la 1,1 si la numer´ramos de corrido). Por lo tanto, dado o a α ⊆ {2, . . . , n} con d(α) = 0, si 2 ∈ α entonces det (A/{1}[α]) = det (A(1)[α]) ≥ 0. Si 2 ∈ α, / por la Eq. (12.15) se tiene que det A[1, 2, . . . , k] det (A/{1}[α]) = det (A/{1}[2, 3, . . . , k]) = ≥0. a11
  • 262. 13.1 Definiciones y criterios de positividad total 247 La hip´tesis inductiva nos asegura que A/{1} es TP y o n det A/{1} + diag(t2 , . . . , tn ) ≥ det A/{1} + ti . i=2 Por lo tanto, por el Teorema 12.1.4 y el hecho de que A 0, se tiene que det A + diag(t) = (a11 + t1 ) det (A + diag(t) )/{1} a12 a21 a12 a21 = (a11 + t1 ) det A/{1} + diag(t2 + − , . . . , tn ) a11 a11 + t1 n n ≥ a11 det A/{1} + ti = det A + ti . i=1 i=1 Resta ver que A es TP. Para ello basta observar que, para todo ε > 0, la matriz A + εI tiene det(A + εI) ≥ εn > 0 y cumple las hip´tesis del Teorema (para ambas cosas se usa la o f´rmula (13.8), que fue probada para A, y vale para los los A[α] con d(α) = 0 por la hip´tesis o o inductiva). Luego A+εI es TP por el argumento del principio. Como estas matrices convergen a A, ella tambi´n debe ser TP. e Corolario 13.1.11. Sea A ∈ Mn (R) de Jacobi y TP. Entonces, dado t ∈ Rn , se tiene que + A + diag (t) es tambi´n TP. e Demostraci´n. Se sigue del Teorema 13.1.10, aplicado a las submatrices principales, que o A + diag (t) es una matriz de Jacobi positiva con menores principales no negativos. Corolario 13.1.12. Sea A ∈ Mn (R) de Jacobi tal que A 0. Entonces exite ξ ∈ R tal que ξ I + A es TP. Demostraci´n. Ejercicio. o Conclu´ ımos esta secci´n con un teorema de aproximaci´n de una matriz TP con otras ETPs. o o Teorema 13.1.13. Toda matriz ε-RS puede ser aproximadada arbitrariamente cerca por matrices ε-ERS con la misma signatura. En particular, toda matriz TP puede ser aproximada arbitrariamente cerca por matrices estrictamente TPs. Demostraci´n. Sea A ∈ Mn,m una matriz ε-RS. Podemos asumir que n = m, considerando o 0 [A, 0] o [ A ] si es necesario. Como veremos en la Secci´n 8, existe una sucesi´n {Gp } de o o matrices n-cuadradas ETPs tales que Gp − − In . Ahora procedamos por inducci´n hacia −→ o p→∞ atr´s en k = rk A. Notemos que la Eq. (7.17) implica a εi · Λi (Gp AGp ) > 0 si i ≤ rk A y Λi (Gp AGp ) = 0 si i > rk A . (13.9) Esto se deduce de que, dadas matrices X, Y, Z ∈ Mn (R) tales que X > 0, Z > 0 pero 0 = Y 0, entonces XY Z > 0. Cuando rk A = n, la afirmaci´n se sigue inmediatamente o
  • 263. 248 Matrices totalmente positivas de la Eq. (13.9). Asumamos que la afirmaci´n es cierta para todas las matrices regulares de o signo de rango k +1. Si rk A = k, tomemos un p para el que B := Gp AGp est´ suficientemente a cerca de A. De acuerdo a las ecuaciones (13.9) y (7.19), B tiene la propiedad εi det B[α|β] > 0 para α, β ∈ Qi,n i ∈ Ik . (13.10) Sea m´ | det B[α|β]| : α, β ∈ Qi,n ın δ = m´ ın , donde det B[∅] = 1 . 1≤i≤k m´x | det B[ω|τ ]| : ω, τ ∈ Qi−1,n a Fijemos 0 < t < δ y consideremos la matriz C = B + tεk εk+1 E11 . Dados α , β ∈ Qr,n , desarrollando por la primera columna, se tiene que det C[α|β] = det B[α|β] + tεk εk+1 det B[α {1}|β {1}] si 1∈α∩β , y det C[α|β] = det B[α|β] en otro caso . Para ver que C es ε-RS se consideran tres casos: submatrices de tama˜os r ≤ k (ah´ se usa n ı que t < δ y el sumando extra no puede cambiar signos), r > k + 1 (ah´ da todo cero porque ı rkB = rkA = k) o r = k + 1. Por ejemplo, tomando α , β ∈ Qk+1,n tales que 1 ∈ α ∩ β, se ve que εk+1 det C[α|β] > 0, porque det B[α|β] = 0 pero εk det B[α {1}|β {1}] > 0, por la Eq. (13.10). En particular, esto muestra que rk C = k + 1. Para t chicos, C est´ suficientemente a cerca de B, y por lo tanto de A. Ahora, por hip´tesis inductiva C puede ser aproximada o arbitrariamente cerca por matrices estrictamente regulares de signo con signatura ε. Esto completa la inducci´n. o 13.2 Permanencia de la positividad total Esta secci´n est´ dedicada a m´todos can´nicos de producci´n de matrices TP nuevas a partir o a e o o de otras dadas. Es claro que si A es de ε-RS, tambi´n lo es su adjunta A∗ = AT . e Teorema 13.2.1. Si A ∈ Mn,m (R) es εA -RS y B ∈ Mm,l (R) es εB -RS, entonces: 1. El producto AB es ε-RS, con ε = εA · εB . 2. En este caso, AB se convierte en ε-ERS si (a) A es εA -ERS y rk B = l, o si (b) rk A = n y B es εB -ERS. 3. Si A y B son ETP, tambien lo es AB. Demostraci´n. Los ´ o ıtems 1 y 3 son consecuencia inmediata de las ecuaciones (7.17) o (12.1) (Cauchy-Binnet). El ´ ıtem 2 se deduce de los siguientes hechos: * Si C > 0 y D 0 no tiene columnas nulas (y se puede multiplicar), entonces CD > 0.
  • 264. 13.2 Permanencia de la positividad total 249 * Si rk B = l, las columnas de B son LI. Luego para todo k ≤ l y todo β ∈ Qk,l , se tiene que rk B[−|β] = k, por lo que debe existir un α ∈ Qk,m tal que det A[α|β] = 0. La suma de dos matrices TPs no es en general TP. Por lo tanto, es poco com´n que una u matriz A ∈ Mn (R) genere un semigrupo TP de un par´metro. Esto significar´ que etA sea a ıa TP para todo t > 0. La excepci´n la dan las matrices de Jacobi TP: o Teorema 13.2.2. Sea A ∈ Mn (R). Son equivalentes: 1. etA es TP para todo t > 0. 2. A = ξI + B para alg´n ξ ∈ R y una matriz B ∈ Mn (R) que es de Jacobi y TP. u Demostraci´n. Supongamos primero que A es de la forma mencionada. Entonces, como o p tB etA = eξt etB = eξt lim I+ , p→∞ p por la Eq. (9.41), la positividad total de etA resulta del Teorema 13.2.1, ya que B es una t matriz de Jacobi y es TP, as´ que I + p B sigue siendo TP por el Corolario 13.1.11. ı Supongamos rec´ıprocamente que etA es TP para todo t > 0. Por el Corolario 13.1.12, basta mostrar que A es una matriz real de Jacobi con elementos no negativos fuera de la diagonal. tk A k Usando el desarrollo en serie etA = k! , es f´cil ver que a k∈N etA − I I + tA − etA A = lim o equivalentemente que lim =0. (13.11) t→0 t t→0 t Como etA 0, esto muestra que todas las entradas no diagonales de A son no negativas. Veamos que aij = 0 si |i − j| > 1. Por ejemplo, si i + 1 < j, entonces det etA [i, i + 1|i + 1, j] ≥ 0 para todo t>0, lo que, v´ la Eq. (13.11), implica que ıa I + tA 0 ≤ lim det i, i + 1|i + 1, j = lim {tai,i+1 ai+1,j − (1 + tai+1,i+1 )aij } = −aij . t→0 t t→0 El caso j + 1 < i es an´logo. Luego A es de Jacobi y ρI + A a 0 para alg´n ρ ∈ R. Para u encontrar una B que sea TP, basta usar el Corolario 13.1.12. Teorema 13.2.3. Sea A ∈ Mn,m (R) ε-RS. Sean α ∈ Qk,n y β ∈ Qk,m . Entonces, 1. A[α|β] es ε-RS. 2. Si n = m, d(α) = 0 y A(α) ∈ Gl (n − k), entonces A/α es εα -RS, donde la sucesi´n de o signos εα = (εn−k εn−k+i )i∈Ik .
  • 265. 250 Matrices totalmente positivas 3. Si n = m y A es inversible, entonces A# = Jn A−1 Jn es εJ -RS, donde εJ = (εn εn−i )i∈N , con la convenci´n de que εj = 1 si j ≤ 0. o 4. En particular, si A es TP, tambi´n lo ser´n A[α|β], A/α y Jn A−1 Jn . e a Adem´s, los mismos resultados valen reemplazando “regular de signo” por “estrictamente a regular de signo” (o TP por ETP) en todos los casos. Demostraci´n. Fijemos ω, τ ∈ Qp,n tales que τ ⊆ β , ω ⊆ α. o 1. Es trivial, ya que εp det A[α|β][ω|τ ] = εp det A[ω|τ ] ≥ 0 (resp. > 0) . 2. Supongamos ahora que τ ⊆ α. Se sigue de la la Eq. (12.15) que α α det A[α ∪ ω|α ∪ τ ] det A/α [ω|τ ] = sgn · sgn · . α ∪ω α ∪τ det A[α ] Notar que det A[α ∪ ω|α ∪ τ ] tiene signo εn−k+p y detA(α) tiene signo εn−k . Pero como d(α) = 0, se ve f´cilmente que sgn(α /α ∪ ω) = sgn(α /α ∪ τ ) (ambos dependen a s´lo de cuantos elementos de α est´n despu´s del bloque α). o a e 3. Observar que εn det A > 0 y, por la Eq. (12.11), tenemos que det A(β|α) det Jn A−1 Jn [α|β] = , det A donde εn−k det A(β|α) = εn−k det A[β |α ] ≥ 0 (resp > 0). Las ultimas afirmaciones se deducen de lo anterior. ´ En lo que sigue, se usar´ varias veces el Corolario 12.2.6, cuya f´rmula repasaremos para a o comodidad del lector: Sea A ∈ Mn (R) y sea r ∈ In tal que Arr = 0. Entonces, para todo α ∈ Qk,n tal que r ∈ α, se tiene que / (A/[r])[α] = A[{r} ∪ α]/[r] . (13.12) Proposici´n 13.2.4 (Pinching). Sea B ∈ Mm (R) una matriz TP. Entonces o det B ≤ det B[Ik ] det B(Ik ) para todo k ∈ Im−1 . (13.13) Demostraci´n. Probaremos la Eq. (13.13) por inducci´n en m. Para m = 2, tenemos que o o b12 ≥ 0 y b21 ≥ 0 =⇒ det B = b11 b22 − b12 b21 ≤ b11 b22 .
  • 266. 13.2 Permanencia de la positividad total 251 Asumamos que la afirmaci´n es cierta para todos los casos de orden menor que m. Asumamos o que k > 1 y que b11 > 0. Por la Eq. (12.5) se tiene que det B[Ik ] det B(Ik ) = b11 det B[Ik ]/{1} det B(Ik ) = b11 det B/{1}[2, . . . , k] det B(Ik ) , donde la ultima igualdad se deduce de la Eq. (13.12), que dec´ que ´ ıa B/{1}[α] = B[{1} ∪ α]/{1} para todo α tal que 1 ∈ α / . Como la matriz B[1, k+1, k+2, . . . , m] es de orden menor que m y es TP, la hip´tesis inductiva o nos asegura que b11 det B(Ik ) ≥ det B[1, k + 1, k + 2, . . . , m] = b11 det B[1, k + 1, k + 2, . . . m]/{1} = b11 det B/{1}(Ik ) , Usando nuevamente la hip´tesis inductiva en la matriz B/{1} que es de orden m − 1, y es TP o por el Teorema 13.2.3, obtenemos det B[Ik ] det B(Ik ) = b11 det B/{1}[2, . . . , k] det B(Ik ) ≥ b11 det B/{1}[2, . . . , k] det B/{1}(Ik ) ≥ b11 det B/{1}[2, . . . , m] = b11 det B/{1} = det B . Si k = 1, asumiendo ahora que bmm > 0, tenemos que det B = bmm det(B/{m}) ≤ bmm det(B/{m}[1]) det(B/{m}[2, . . . , m − 1]) b1m bm1 Ahora, det(B/{m}[1]) = b11 − ≤ b11 por ser B 0. Adem´s, por la Eq. (13.12), a bmm tenemos que B/{m}[2, . . . , m − 1] = B[2, . . . , m]/{m} = B(1)/{m} . As´ ı, det B ≤ b11 bmm det B(1)/{m} = b11 det B(1) = det B[1] det B(1) . Los casos en que b11 = 0 o bmm = 0 se pueden anlizar a mano (mostrando que en tal caso 1 det B = 0 por tener una fila o columna nula) o bien cambiando b11 por b11 + n (con lo que B sigue siendo TP) y tomando l´ımite. Corolario 13.2.5. Si A ∈ Gl (n) es TP, entonces det A[α] > 0 para cada k ∈ In y cada α ∈ Qk,n . (13.14) En particular, en este caso siempre existen los complementos de Schur A/[α]. Demostraci´n. Por inducci´n en n. El caso n = 1 es trivial. Asumamos que la afirmaci´n o o o vale para n − 1. Por la Proposici´n 13.2.4, tenemos que 0 < det A ≤ a11 det A(1). Luego A(1) o
  • 267. 252 Matrices totalmente positivas es TP e inversible y a11 > 0. Si α1 > 1, entonces α ⊆ In {1} y la desigualdad det A[α] > 0 se sigue de la hip´tesis inductiva aplicada a A(1). Si α1 = 1, la Eq. (13.12) aplicada a α {1} o con r = 1, muestra que det A[α] = a11 det A[α]/{1} = a11 det A/{1}[α {1}] . Entonces la desigualdad detA[α] > 0 se deduce de la hip´tesis inductiva aplicada a A/{1}, o que es inversible por el Teorema 12.1.4 y es TP por el Teorema 13.2.3. 13.3 Factorizaciones LU y UL Una factorizaci´n A = BC es llamada una LU -factorizaci´n (resp, U L-factorizaci´n) si B o o o (resp. C) es triangular inferior y C (resp. B) es triangular superior. Teorema 13.3.1. Sea A ∈ Mn,m (R) TP con n ≥ m. Entonces A admite una LU -factoriza- o o ˜ ˜ ci´n A = AL AU y una U L-factorizaci´n A = AL AU , donde las matrices triangulares AL ∈ ˜U ∈ Mm (R) y AU , AL ∈ Mn,m (R) son todas TPs. Mn (R), A ˜ Para demostrar el Teorema necesitamos dos largos Lemas t´cnicos: Para ellos necesitaremos e una notaci´n nueva: Dados x1 , . . . , xm ∈ Rn , denotaremos por X = [x1 , . . . , xm ] ∈ Mnm (R) o a la matriz cuyas columnas est´n dadas por Ci (X) = xi , para todo i ∈ Im . a Lema 13.3.2. Sea A = (aij )i,j∈In = [a1 , . . . , an ] ∈ Mn (R) una matriz TP. Si a1k = 0, entonces tambi´n es TP la matriz B = [b1 , . . . , bn ] ∈ Mn (R) definida por e a1i bi = ai si i ∈ Ik y bi = ai − ak , si i ∈ In Ik . a1k Demostraci´n. Por el Teorema 13.1.13 podemos asumir que detA > 0. Como obviamente o det A = det B, de acuerdo al Teorema 13.1.4 basta mostrar que bi ∧ bi+1 ∧ · · · ∧ bj 0 para 1 ≤ i ≤ j ≤ n, (13.15) i.e., la positividad para los α tales que d(α) = 0. Si j ≤ k o i ≤ k ≤ j, entonces bi ∧ bi+1 ∧ · · · ∧ bj = ai ∧ ai+1 ∧ · · · ∧ aj , y la Eq. (13.15) es v´lida porque A es TP. Si k < i, consideremos la matriz a C = [ak , ak+1 , . . . , an , 0, . . . , 0] ∈ Mn (R) , que es TP, por serlo A. Se ve f´cilmente de la definici´n de C/{1} que a o 0 M = [bk+1 , bk+2 , . . . , bn , 0, . . . , 0] = ∈ Mn, n−1 (R) . C/{1}
  • 268. 13.3 Factorizaciones LU y UL 253 En efecto, observar que todas las primeras coordenadas de los bj (j ∈ In Ik ) son nulas, por lo que la primera fila va bien. Si j ∈ In−k e i ∈ In−1 , entonces ci+1 , 1 c1 , j+1 a1 , k+j (C/{1})ij = ci+1 , j+1 − = ai+1 , k+j − ai+1 , k = bk+j i+1 = Mi+1 , j . c11 a1 , k En los dem´s casos, debe ser (C/{1})ij = 0 (y la otra tambi´n). Ahora la ecuaci´n (13.15) se a e o deduce de la positividad total de C/{1} y de M , garantizada por el Teorema 13.2.3 Lema 13.3.3. Sea A ∈ Mn (R) una matriz TP. Entonces existen C y S ∈ Mn (R), ambas TP, tales que C[1, 1) ≡ 0 (i.e., F1 (C) = c11 e1 ), S es triangular superior y A = CS. Demostraci´n. Para cada j ∈ In−1 , consederemos la matriz o Ij−1 0 Tj := [e1 , e2 , . . . , ej−1 , 0, ej , ej+1 , . . . , en−1 ] = ∈ Mn (R) , 0 Nn−j+1 donde Nn−j+1 ∈ Mn−j+1 (R) es el bloque de Jordan con los unos arriba (Jacobi nos rob´o la J). Observar que T1 = Nn el bloque de Jordan tutti. Cada Tj es una matriz de Jacobi positiva y triangular superior. Luego las Tj son TP por el Teorema 13.1.10. Estas matrices nos permitir´n “correr” hacia la izquierda las columnas no nulas de A. Si a a1 = a2 = . . . = ak−1 = 0 pero ak = 0, entonces k−1 A = [ak , ak+1 , . . . , an , 0, . . . , 0] T1 , y la matriz A1 = [ak , ak+1 , . . . , an , 0, . . . , 0] es TP. Si seguimos sin columnas nulas hasta ak+p y ak+p+r es la primera columna no nula de las que quedan, como antes obtenemos que r−1 [ak+p+1 , . . . , an , 0, . . . , 0] = [ak+p+r , . . . , an , 0, . . . , 0] T1 o, mirando como dan las cuentas, r−1 A1 = [ak , . . . , ak+p , ak+p+r , . . . , an , 0, . . . , 0] Tp+2 . Es decir, r−1 k−1 A = [ak , . . . , ak+p , ak+p+r , . . . , an , 0, . . . , 0] Tp+2 T1 . r−1 k−1 Observar que todo queda TP, y Tp+2 T1 es triangular superior. Aplicando entonces este procedimiento finitas veces, obtenemos que A = BT , donde T triangular superior y TP y B = [b1 , b2 , . . . , bn ] es una matriz TP tal que bi = 0 implica que bj = 0, para j > i . Si B[1|1) = 0, tomemos el mayor i para el cual b1i = 0. Afirmamos que b1,i−1 = 0. En efecto, si b1,i−1 = 0, para todo j ∈ In , tendr´ ıamos det B[1, j|i − 1, i] = b1i−1 bji − b1i bji−1 = −b1i bji−1 ≥ 0 , lo que implicar´ que todos los bj,i−1 = 0, o sea bi−1 = 0, lo que contradice que bi = 0. ıa Entonces B admite una factorizaci´n B = DU1 , donde o b1,i D := [b1 , . . . , bi−1 , bi − bi−1 , bi+1 , . . . , bn ] y b1,i−1
  • 269. 254 Matrices totalmente positivas b1,i U1 := [e1 , . . . , ei−1 , ei−1 + ei , ei+1 , . . . , en ] . b1,i−1 Notemos que ahora D1i = 0. Por otro lado, U1 es una matriz de Jacobi positiva, triangular superior, y por lo tanto TP por el Teorema 13.1.10. La positividad total de D se sigue del Lema 13.3.2, porque, como b1,j = 0 si j > i, entonces b1,j bj = bj − bi−1 , para j = i + 1, i + 2, . . . , n . b1,i−1 Repitiendo este procedimiento, llegamos a una factorizaci´in B = CUp Up−1 · · · U1 , donde o cada Ui es triangular superior y TP mientras que C es una matriz TP tal que C[1|1) = 0, como se buscaba. Ahora basta tomar S = Up Up−1 · · · U1 T que es como se ped´ ıa. Demostraci´n del Teorema 13.3.1: Considerando la matriz [A, 0] ∈ Mn (R), podemos o confinar la prueba al caso n = m. Adem´s, usando conversiones, basta tratar s´lo la factor- a o izaci´n LU . Cuando n = 1, es trivial. Asumamos que la afirmaci´n es cierta para n − 1 en o o lugar de n. Para conseguir hacer el paso inductivo, alcanzar´ con probar que existen R, F y ıa S ∈ Mn (R), todas TP, con S es triangular superior, R es triangular inferior y f11 0 F = , tales que A = RF S , 0 F (1) porque en tal caso se factoriza F (1) por hip´tesis inductiva, y se agrandan las matrices o triangulares (y TP) de Mn−1 (R) obtenidas, poni´ndoles (f11 )1/2 en el lugar 1, 1. Recordar e que producto de triangulares es triangular, y lo mismo con TPs (por el Teorema 13.2.1). Pero por el Lema 13.3.3, existen S como antes y C ∈ Mn (R) tal que C es TP, C[1|1) ≡ 0 y A = CS. Y por el mismo Lema, existen R como arriba y F ∈ Mn (R) tal que F es TP, F (1|1] ≡ 0 y C T = F T RT . Observar que multiplicar por una triangular superior a derecha, solo cambia a la primera columna multiplic´ndola por un escalar, asi que F hereda lo bueno a que ten´ C (ceros en la primera fila) pero gana ceros en la primera columna, quedando como ıa quer´ıamos. Corolario 13.3.4. Toda A ∈ Gl (n) triangular superior (inferior) y TP es producto de un cierto n´mero de matrices de Jacobi triangulares superiores (inferiores) y TPs. u Demostraci´n. Por inducci´n en n. El caso n = 1 es trivial. Asumamos que la afirmaci´n o o o es cierta para n − 1, y sea A ∈ Gl (n) triangular superior (inferior) y TP. Por el Lema 13.3.3 (y su prueba), tenemos una factorizaci´n A = DS con S un producto de matrices de Jacobi o triangulares superiores, todas ellas TP, y D tambi´n TP, con D[1, 1) ≡ 0. Pero como A es e triangular superior, tambi´n se da que D(1, 1] ≡ 0. Luego e d11 0 D= 0 D(1) y D(1) ∈ Gl (n − 1) es totalmente positva y triangular superior. Por hip´tesis inductiva o ˆ ˆ ˆ tenemos D(1) = W1 W2 · · · Ws para algunas matrices de Jacobi TPs y triangulares superiores
  • 270. 13.3 Factorizaciones LU y UL 255 ˆ Wi ∈ Gl (n − 1), i ∈ Is . Sean 1/2 d11 0 Wi = ˆi , i ∈ Is . 0 W Entonces A = W1 W2 · · · Ws S es una factorizaci´n como la buscada. o Definici´n 13.3.5. Adem´s de la relaci´n de orden usual A o a o B entre matrices en Mn (R), t introduzcamos una m´s fuerte: Diremos que A B si Λk A Λk B para todo k ∈ N. En otras a palabras, si det A[α|β] ≥ det B[α|β] para todo k ∈ In y α, β ∈ Qk,n . (13.16) t En esta notaci´n, A o 0 significa que A es TP. t t Observaci´n 13.3.6. Es claro que la relaci´n A o o B implica que A[α|β] B[α|β] para t cualquier par α, β ∈ Qk,n , pero no que A − B 0, como puede verse con las matrices 2 1 1 0 A= y B= . 1 1 0 1 t t t t Tampoco A B 0 implica que A/{1} B/{1} o que Jn B −1 Jn Jn A−1 Jn . Teorema 13.3.7. Si A ∈ Mn (R) es TP, y α = Ik o α = {k, k + 1, . . . , n}, entonces, si A(α) es inversible, se cumple que t A[α] A/α . (13.17) Demostraci´n. Prueba para el caso α = Ik : Fijemos ω, τ ∈ Ql,n tales que ω ⊆ α y τ ⊆ α. o ıamos probar que det A[α] [ω|τ ] ≥ det A/α [ω|τ ]. Observar que la Eq. (12.15) nos dice Deber´ que A[α ∪ ω|α ∪ τ ] det A/α [ω|τ ] = , det A(α) porque los dos signos que intervienen en la Eq. (12.15) son iguales en este caso, por ser α quien es. Por lo tanto, bastar´ probar que ıa det A[ω ∪ α |τ ∪ α ] ≤ det A[α] [ω|τ ] · det A(α) = det A[ω|τ ] · det A(α) . Consideremos A[ω ∪ α |τ ∪ α ] ∈ Mn−k+l (R) con su numeraci´n de corrido en In−k+l . Como o ω, τ ⊆ α = Ik , entonces A[ω|τ ] = A[α ∪ ω|α ∪ τ ] [1, . . . , l] y A(α) = A[α ∪ ω|α ∪ τ ] [l + 1, . . . , n − k + l] , y el resultado se deduce de la Proposici´n 13.2.4. o Las factorizaciones LU y U L en el Teorema 13.3.1 dan lugar a otras desigualdades.
  • 271. 256 Matrices totalmente positivas Teorema 13.3.8. Si A ∈ Mn (R) es TP, y α = Ik o α = In Ik , entonces, si A(α) es inversible, t A[α] − A/α 0 (13.18) Demostraci´n. Prueba para el caso α = In Ik = {k + 1, k + 2, . . . , n}: Sea A = AL AU una o factorizaci´n LU con AL y AU TP, garantizada por el Teorema 13.3.1. Entonces, por las o propiedades de AL y AU , se tiene que A(α) = AL (α)AU (α) (por lo que ambas submatrices son inversibles), A(α|α] = AL (α)AU (α|α] y A[α|α) = AL [α|α)AU (α). Por lo tanto, A[α] − A/α = A[α|α)A(α)−1 A(α|α] = AL [α|α)AU (α)(AL (α)AU (α))−1 AL (α)AU (α|α] = AL [α|α)AU (α|α]. Como AL [α|α) y AU (α|α] son TPs, tambi´n lo es su producto AL [α|α)AU (α|α]. La prueba e para el caso α = Ik se hace usando una factoriaci´n U L. o 13.4 Matrices oscilatorias Una matriz A ∈ Mn (R) se dice oscilatoria (abreviaremos OSC) si es TP y una cierta potencia Ap es ETP. Las OSC juegan el rol de las primitivas en el Cap´ ıtulo 11. En esta secci´no presentaremos un criterio simple para que una matriz TP sea OSC. Observemos que una matriz OSC es inversible, y su adjunta es tambi´n OSC. por lo tanto, por el Corolario 13.2.5, e si A ∈ Mn (R) es OSC, entonces se tiene que det A[α] > 0 para todo α ∈ Qk,n . Teorema 13.4.1. Sea A ∈ Mn (R) una matriz OSC. Entonces 1. A# = Jn A−1 Jn es OSC. 2. A[α] y A/α son OSC’s para cada α ∈ Qk,n tal que d(α) = 0. Demostraci´n. Supongamos que A es TP y Ap es ETP. o 1. El Teorema 13.2.3 asegura que Jn A−1 Jn es TP y que (Jn A−1 Jn )p = Jn (Ap )−1 Jn es ETP. As´ Jn A−1 Jn es OSC. ı, 2. Probemos primero que A[α] es OSC para el caso α = In−1 . Sea B = A[In−1 ] = A(n). Tomemos β, τ ∈ Qk,n−1 , y sean µ = β ∪ {n} y ν = τ ∪ {n}. Por la f´rmula de Cauchy- o Binnet (12.1), el hecho de que det Ap [µ|ν] > 0 implica que existe una sucesi´n o p p ω (i) i=0 en Qk+1,n tal que ω 0 = µ, ω (p) = ν , y det A[ω (i−1) |ω (i) ] > 0 . i=1 Llamemos ω (i) ∈ Qk,n−1 a la k-upla obtenida eliminando la ultima componente de ω (i) . ˜ ´ Como A[ω (i−1) |ω (i) ] es TP con determinante positivo, por la Eq. (13.13) se tiene que det B[˜ (i−1) |˜ (i) ] > 0 , ω ω para todo i ∈ Ip .
  • 272. 13.4 Matrices oscilatorias 257 Entonces, nuevamente por la positividad total de B y la Eq. (12.1), p det B p [β|τ ] ≥ det B[˜ (i−1) |˜ (i) ] > 0 , ω ω i=1 lo que prueba que B p es ETP. El caso A[2, 3, . . . , n] se trata de manera an´loga. El a resto de los casos (α ∈ Qk,n con k < n − 1 y d(α) = 0) ahora se pueden probar por inducci´n en n, dado que α ⊆ In−1 o α ⊆ In {1}. o Veamos que A/α es OSC: Observar que Jn A−1 Jn [α] = Jk A−1 [α]Jk , dado que d(α) = 0 (puede aparecer un −Jk , pero se cancela). Por los casos anteriores, sabemos que Jn A−1 Jn es OSC =⇒ Jk A−1 [α]Jk = Jn A−1 Jn [α] es OSC =⇒ (A−1 [α])−1 es OSC . Pero la Eq. (12.6) dice que A/α = (A−1 [α])−1 . Lo siguiente da un criterio para la “oscilatoriedad”. Teorema 13.4.2. Sea A = (aij )i,j∈ In ∈ Mn (R) una matriz TP. Entonces A es OSC ⇐⇒ A ∈ Gl (n) , ai, i+1 > 0 y ai+1, i > 0 , para todo i ∈ In−1 . (13.19) Demostraci´n. Supongamos que A es OSC. Por el Teorema 13.4.1, o ai, i ai, i+1 B := A[i, i + 1] = ai+1, i ai+1, i+1 debe ser OSC. Luego B p > 0 para alg´n p. Pero esto es posible s´lo cuando ai,i+1 > 0 u o y ai+1,i > 0, ya que si alguno de los dos se anulara, entonces B y todas sus potencias ser´ triangulares. La otra implicaci´n ser´ probada como consecuencia de un resultado m´s ıan o a a general, hacia el fin de la secci´n. o Corolario 13.4.3. Sean A, B ∈ Mn (R), ambas TP. Si A es OSC y B es inversible, entonces AB y BA son OSC. Demostraci´n. Observar que A ∈ Gl (n), por se OSC. Luego AB y BA ∈ Gl (n). Adem´s, o a como B es inversible y TP, entonces bii > 0 para todo i ∈ In (Corolario 13.2.5). Por lo tanto AB y BA satisfacen la condici´n (13.19), ya que o n (AB)i, i+1 = ai, j bj, i+1 ≥ ai, i+1 bi+1 , i+1 > 0 para todo i ∈ In−1 . j=1 La prueba para (AB)i+1 , i y las entradas correspondientes de BA es an´loga. a El siguiente teorema presenta una extensi´n de la condici´n (13.19) para matrices OSCs. o o
  • 273. 258 Matrices totalmente positivas Proposici´n 13.4.4. Supongamos que A ∈ Gl (n) y es TP. Si A satisface la Eq. (13.19), o entonces det A[α|β] > 0 para cada par α, β ∈ Qk,n tal que |αi − βi | ≤ 1 y m´x {αi , βi } < m´ {αi+1 , βi+1 } a ın para todo i ∈ Ik , (13.20) donde usamos la convenci´n αk+1 = βk+1 = n + 1. o Demostraci´n. Haremos la prueba por inducci´n en k. El caso k = 1 se sigue del Corolario o o 13.2.5 (si α = β) y la suposici´n (13.19). Fijemos k > 1, y supongamos que la afirmaci´n o o es cierta para cada par en Qk−1,n que satisface las hip´tesis. Tomemos un par α, β ∈ Qk,n o que cumpla la Eq. (13.20). Si d(α) = d(β) = 0, entoces la Eq. (13.20) impica que α = β. Luego det A[α|β] = det A[α|α] > 0, nuevamente por el Corolario 13.2.5. Ahora, asumiendo que d(β) > 0, sea B = A[α|β] = [bβ1 , bβ2 , . . . bβk ], donde cada bβi ∈ Rα ∼ Rk . Supongamos = que det B = 0. En principio, por la hip´tesis inductiva, sabemos que o det B[α1 , . . . , αk−1 |β1 , . . . , βk−1 ] > 0 y det B[α2 , . . . , αk |β2 , . . . , βk ] > 0 . Junto con la positividad total de B, esto implica que 0 = bβ1 ∧ bβ2 ∧ . . . ∧ bβk−1 0 y 0 = bβ2 ∧ bβ3 ∧ . . . ∧ bβk 0. (13.21) Entonces el hecho de que det B = 0 garantiza que bβk ∈ Gen {bβi : i ∈ Ik−1 }, y adem´s a k−1 bβk = ξi bβi para ciertos ξi ∈ R , donde ξ1 = 0 (13.22) i=1 (sin´ {bβi : i ∈ Ik {1} } ser´ LD). Sustituyamos bβk en la Eq. (13.21) para obetener o ıa (−1)k−2 ξ1 bβ1 ∧ bβ2 ∧ · · · ∧ bβk−1 0. (13.23) Como d(β) > 0, el conjunto ordenado γ := {j ∈ β : β1 < j < βk } es no vac´ Mostremos / ıo. que, para cada j ∈ γ, la α-proyecci´n bj de Cj (A) cumple que bj ∈ Gen bβ1 , bβ2 , . . . , bβk−1 . o Es decir que bj ∧ bβ1 ∧ bβ2 ∧ . . . ∧ bβk−1 = 0 (13.24) Para esto, tomemos i tal que βi < j < βi+1 . Entonces, como A[α|β ∪ {j}] es TP, bβ1 . . . ∧ bβi ∧ bj ∧ bβi+1 ∧ . . . ∧ bβk−1 0 y bβ2 . . . ∧ bβi ∧ bj ∧ bβi+1 ∧ . . . ∧ bβk 0. (13.25) Ahora sustituyamos la expresi´n (13.22) para bβk en la Eq. (13.25) para obtener o (−1)k−1 ξ1 bβ1 ∧ . . . ∧ bβi ∧ bj ∧ bβi+1 ∧ . . . ∧ bβk−1 0. (13.26) es claro que las ecuaciones (13.21) y (13.23) versus (13.25) y (13.26) son consistentes s´lo si o la igualdad se da en la Eq. (13.26). Pero como ξ1 = 0, solo queda que la Eq. (13.24) sea v´lida. El argumento muestra que rk A[α|β ∪ γ] = k − 1. Si lo que pasaba era que d(α) > 0, a consideremos el conjunto ordenado τ := {i ∈ α : α1 < i < αk }. El argumento anterior, / aplicado a los vectores filas (o a AT ), dice que rkA[α ∪ τ |β ∪ γ] = k − 1.
  • 274. 13.4 Matrices oscilatorias 259 Por ultimo, se sigue de la Eq. (13.20) y de que d(β) > 0 o d(α) > 0, que existe alg´n ω ∈ Qk,n ´ u tal que d(ω) = 0, ω ⊆ α ∪ τ , y ω ⊆ β ∪ γ. Pero, como rkA[α ∪ τ |β ∪ γ] = k − 1, se debe cumplir que det A[ω] = 0, lo que contradice al Corolario 13.2.5. Esto completa la prueba en todos los casos. La “ida” del Teorema 13.4.2 se ver´ como consecuencia del siguiente resultado m´s general. a a Teorema 13.4.5. Sean A1 , . . . , Ap ∈ Mn (R), inversibles y TPs, con p ≥ n − 1. Si cada Ai satisface la Eq. (13.19), entonces el producto A1 A2 · · · Ap es ETP. Demostraci´n. Por el Teorema 13.1.5 basta mostrar que o det(A1 A2 · · · Ap )[α|β] > 0 para α, β ∈ Qk,n tales que d(α) = d(β) = 0 . Asumamos que β1 ≥ α1 y sea ω (0) = α. Definamos ω (l) ∈ Qk,n , para l ∈ Ip−1 , como (l) ωi = m´ ın βi , αi + m´x {l + i − k, 0} a , i ∈ Ik . Es f´cil ver que ω (p) = β y que cada par ω (l−1) , ω (l) satisface la Eq. (13.20). Usando la a Proposici´n 13.4.4, podemos deducir que det Al [ω (l−1) |ω (l) ] > 0, para todo l ∈ Ip . Por lo o tanto, se sigue de la Eq. (12.1) (Cahuchy-Binnet) y la positividad total que p det(A1 A2 · · · Ap )[α|β] ≥ det Al [ω (l−1) |ω (l) ] > 0 , l=1 lo que prueba el Teorema. Corolario 13.4.6. Sea A ∈ Mn (R). 1. Si A es OSC, entonces An−1 es ETP. 2. Si A es ε-RS, es inversible y cumple que aii = 0 para i ∈ In y ai , i+1 ai+1 , i > 0 , para i ∈ In−1 , entonces A2(n−1) es ETP. Demostraci´n. o 1. Se sigue inmediatamente del Teorema 13.4.5. 2. A2 es TP por ser A ε-RS. Por la hip´tesis se tiene que (A2 )i , i+1 > 0 y (A2 )i+1 , i > 0 o para todo i ∈ In−1 . Entonces satisface la Eq. (13.19), y podemos usar la parte 1.
  • 275. 260 Matrices totalmente positivas 13.5 Variaci´n de signos o Esta secci´n est´ dedicada a caracterizaciones de la regularidad de signo de una matriz en o a t´rminos de algunas propiedades de disminuci´n de variaci´n del operador lineal que ´sta e o o e induce. Definici´n 13.5.1. Sea x ∈ Rn . Dada una sucesi´n de signatura ε, decimos que o o 1. ε es una sucesi´n de signo de x si para todo i ∈ In se cumple que εi xi = |xi |. o 2. En tal caso, el n´mero de cambios de signo de x asociado a ε, denotado por C(ε), es el u n´mero de ´ u ındices i ∈ In−1 tales que εi εi+1 < 0. Es decir que n−1 1 C(ε) = (1 − εi εi+1 ) . 2 i=1 3. La m´xima variaci´n de signos V+ (x) (resp. m´ a o ınima variaci´n de signos V− (x) ) es el o m´ximo (resp. m´ a ınimo) de los valores C(ε), cuando ε recorre todas las sucesiones de signo de x. Vemos que 0 ≤ V− (x) ≤ V+ (x) ≤ n − 1 para todo x ∈ Rn . Si ninguna componente de x se anula, x tiene una unica sucesi´n de signo, y por lo tanto ´ o V− (x) = V+ (x). Este valor com´n es llamado la variaci´n de signo exacta y denotado u o por V (x). Observaci´n 13.5.2. Sea x ∈ Rn . o 1. Ojo que x puede tener variaci´n de signo exacta, aunque tenga coordenadas nulas. Por o ejemplo si x = (1, 0, −1), entonces V− (x) = V+ (x) = 1. 2. Pero si x tiene variaci´n de signo exacta, es f´cil ver que o a (a) x1 = 0 = xn . (b) Si xi = 0, entonces x1−1 xi+1 < 0. (c) En particular, x no puede tener dos coordenadas nulas seguidas. 3. Si α ∈ Qk,n y xα es la α-proyecci´n de x a Rα , entonces o V− (xα ) ≤ V− (x) y V+ (xα ) ≤ V+ (x) . En efecto, si ε es una sucesi´n de signo de x, entonces εα lo ser´ para xα (y todas se o a consiguen as´ Pero es f´cil ver que C(εα ) ≤ C(ε). ı). a Proposici´n 13.5.3. Sean a1 , a2 , . . . , am ∈ Rn , linealmente independientes, con n > m. o Entonces son equivalentes:
  • 276. 13.5 Variaci´n de signos o 261 (1) V+ (b) ≤ m − 1, para todo b ∈ Gen {a1 , a2 , . . . , am } {0}. (2) a = a1 ∧ a2 ∧ · · · ∧ am es estrictamente definido (como vector), i. e. ±a > 0. Demostraci´n. Sea A = [a1 , a2 , . . . , am ] ∈ Mn,m (R). Es claro que la condici´n a > 0 equivale o o a que det A[α|−] > 0 para todo α ∈ Qm,n . Para ver la suficiencia, supongamos que a > 0 y que existe b ∈ Gen {a1 , a2 , . . . , am } {0} tal que V+ (b) ≥ m. Es f´cil ver que existe a α ∈ Qm+1,n tal que la α-proyecci´n de b tiene variaci´n m´xima m. Como det A[β|−] > 0 o o a para todo β ∈ Qm,n , en particular aquellos β ⊆ α, deducimos que las α-proyecciones ai de ai para i ∈ Im tambi´n cumplen a1 ∧ a2 ∧ · · · ∧ am > 0 y que bα ∈ Gen {a1 , . . . , am }. Por lo e tanto, considerando la α-proyecci´n si es necesario, podemos suponer que o n=m+1 y que (−1)i−1 bi ≥ 0 , para todo i ∈ In . Como los e∧ = e1 ∧ · · · ∧ ei−1 ∧ ei+1 ∧ · · · ∧ en , i ∈ In forman una base completa ortogonal (i) de Λm Rn , tenemos que n √ a1 ∧ · · · ∧ am = ξi e∧ , (i) donde ξi = m a1 ∧ · · · ∧ am , e∧ = det A( i |−] > 0 , (i) i=1 para todo i ∈ In . n Como b ∈ Gen {a1 , a2 , . . . , am } y, adem´s, b = a bi ei , tenemos que i=1 n 0 = b ∧ a1 ∧ a2 ∧ · · · ∧ am = (−1)i−1 ξi bi · e1 ∧ e2 ∧ · · · ∧ en , i=1 porque ei ∧ e∧ = δij (−1)i−1 e1 ∧ e2 ∧ · · · ∧ en . Pero las condiciones (ya verificadas) ξi > 0 y (j) (−1)i−1 bi ≥ 0, i ∈ In implican entonces que bi = 0, i ∈ In , o sea b = 0, una contradicci´n. o Esto completa la prueba de la suficiencia. Probemos ahora la necesidad. Como vimos al principio, bastar´ verificar que ıa det A[α|−] det A[β|−] > 0 para todo par α , β ∈ Qm,n . Fijados α y β, podemos unirlos por una sucesi´n α = ω (0) , ω (1) , . . . , ω (k) = β en Qm,n que o verifica la siguiente propiedad: para cada i ∈ Ik existe τ (i) ∈ Qm+1,n tal que ω (i−1) ⊆ τ (i) y ω (i) ⊆ τ (i) . Observar que la desigualdad det A[α|−] det A[β|−] > 0 se sigue de las desigualdades det A[ω (i−1) ] det A[ω (i) |−] > 0 , 1≤i≤k , (13.27) dado que k sgn (det A[α|−] det A[β|−]) = sgn det A[ω (i−1) ] det A[ω (i) |−] . i=1
  • 277. 262 Matrices totalmente positivas Considerando, en el caso i-´simo de la Eq. (13.27), la proyecci´n sobre τ (i) , podemos asumir e o nuevamente que n = m + 1, ya que estamos trabajando en dos subconjuntos de τ (i) y, sobre todo, porque la hip´tesis V+ (b) ≤ m − 1, para todo b ∈ Gen {a1 , a2 , . . . , am } {0} se preserva o al proyectar sobre τ (i) , por la Observaci´n 13.5.2. Ahora, como antes, o n a1 ∧ a2 ∧ · · · ∧ am = ξi e∧ (i) con ξi = det A({i}|−] . i=1 Si ξi = 0 para alg´n i, entonces ei ∈ Gen {a1 , a2 , . . . , am }. Pero en tal caso tendr´ u ıamos que V+ (ei ) = n − 1 = m, lo que contradice la condici´n (1). Adem´s, si no todos los ξj tienen o a el mismo signo, entonces ξl ξl+1 < 0 para alg´n l. Entonces, si b = ξl+1 el + ξl el+1 , tenemos u como antes que b ∧ a1 ∧ a2 ∧ · · · ∧ am = (−1)l−i ξl+1 ξl + (−1)l ξl ξl+1 e1 ∧ e2 ∧ . . . ∧ en = 0 , por lo que b ∈ Gen {a1 , a2 , . . . , am }. Pero como ξl ξl+1 < 0, tenemos V+ (b) = n − 1 = m, lo que tambi´n contradice la condici´n (1). Luego todos los signos de ξi son iguales, es decir, se e o cumple (2). Lema 13.5.4. Sea x ∈ Rn . Entonces V+ (x) + V− (Jn x) = V− (x) + V+ (Jn x) = n − 1 . (13.28) Demostraci´n. Cuando ε recorre todas las sucesiones de signo de x, Jn ε recorre todas las o sucesiones de signo de Jn x. Observar que n−1 n−1 1 1 C(ε) + C(Jn ε) = (1 − εi εi+1 ) + (1 − (Jn ε)i (Jn ε)i+1 ) 2 i=1 2 i=1 n−1 1 = (1 − εi εi+1 ) + (1 − (−1i−1 )εi (−1)i εi ) 2 1=1 n−1 1 = (1 − εi εi+1 ) + (1 + εi εi+1 ) = n − 1 , 2 i=1 lo que muestra la Eq. (13.28). Teorema 13.5.5. Sea M un subespacio de Rn tal que 0 < dim M < n. Entonces, las siguientes dos condiciones son equivalentes: (1) V+ (x) ≤ dim M − 1 para todo x ∈ M {0}. (2) V− (y) ≥ dim M para todo y ∈ M⊥ {0}. Demostraci´n. Tomemos bases completas ortonormales o {a1 , a2 , . . . , am } para M, y {am+1 , am+2 , . . . , an } para M⊥ .
  • 278. 13.5 Variaci´n de signos o 263 Si A = [a1 , a2 , . . . , an ], entonces A es unitaria y podemos asumir que detA = 1. Por la Proposici´n 13.5.3 (y su prueba), la condici´n (1) es equivalente a que detA[α|Im ] sea no nulo o o y tenga el mismo signo para todo α ∈ Qm,n . Como A ∈ U(n) y det A = 1, det(Jn AJn )(α|Im ) = det(Jn (A∗ )−1 Jn )(α|Im ) = det A∗ [Im |α] = det A[α|Im ] , por la Eq. (12.11). Luego det(Jn AJn )[τ |m + 1, . . . , n] es no nulo y tiene el mismo signo para todo τ ∈ Qn−m,n . Llamemos bi = Jn AJn ei = (−1)i Jn ai , para i > m. La condici´n o anterior es equivalente a que bm+1 ∧ bm+2 ∧ · · · ∧ bn > 0 (o bien < 0). Por lo tanto, tambi´n e Jn am+1 ∧Jn am+2 ∧· · ·∧Jn am es estrictamente definida. Entonces, nuevamente por la Proposi- ci´n 13.5.3, obtenemos que V+ (Jn y) ≤ n − m − 1 para todo y ∈ M⊥ {0}. Aplicando el Lema o 13.5.4, deducimos la condici´n (2). La implicaci´n (2) ⇒ (1) se prueba igual. o o Una versi´n local del Teorema 13.5.5 da la siguiente caracterizaci´n de la regularidad de signo o o estricta en t´rminos de una propiedad de disminuci´n de variaci´n. e o o Teorema 13.5.6. Sea A ∈ Mn,m (R), con n ≥ m. Entonces A es ε-ERS si y s´lo si el o operador lineal A : Rm → Rn disminuye la variaci´n de signos, en el sentido de que o V+ (Ax) ≤ V− (x) para todo x ∈ Rm {0} (13.29) Demostraci´n. Supongamos que A = [a1 , a2 , . . . , am ] es ε-ERS. Tomemos x ∈ Rm {0}, y o llamemos k = V− (x). Entonces existen β, ω ∈ Qk+1,m tales que βi ≤ ωi < βi+1 para todo i ∈ Ik y ωk < βk+1 ≤ ωk+1 , que describen los signos de x de la siguiente manera: • β1 = m´ ın{j ∈ In : xj = 0} y ωk+1 = m´x{j ∈ In : xj = 0}. a • Las componentes de x tienen signo constante (no nulo en los bordes) para todo j entre βi y ωi . • xj = 0 si ωi < j < βi+1 para alg´n i. u • Para cada i ∈ Ik , hay un cambio de signo entre xωi y la siguinete entrada no nula de x, que es xβi+1 . Si, para cada i ∈ Ik+1 , llamamos k+1 n bi = xj aj =⇒ Ax = bi , ya que Ax = xi ai , βi ≤j≤ωi i=1 i=1 y xj = 0 para aquellos j que no aparecen en alg´n bi . Ahora la regularidad estricta de signo de u A implica que, si vamos eligiendo k +1-tuplas (j1 , . . . , jk+1 ) tales que βi ≤ ji ≤ ωi , i ∈ Ik+1 , tenemos que εk+1 · aj1 ∧ aj2 ∧ · · · ∧ ajk+1 > 0 .
  • 279. 264 Matrices totalmente positivas k+1 Por lo tanto, si γ = εk+1 · sgn xωi , se tiene que i=1 γ · b1 ∧ b2 ∧ · · · ∧ bk+1 > 0 , dado que es una suma de vectores tales que todas sus coordenadas tienen signo γ. Entonces el Lema 13.5.3 dice que k+1 V+ (Ax) = V+ bi ≤ k = V− (x) , i=1 lo que prueba la Eq. (13.29). Supongamos rec´ ıprocamente que A = [a1 , a2 , . . . , am ] satisface la condici´n (13.29). Sean o k ω ∈ Qk,m y x ∈ Rm tales que xω = xi eωi = 0. Por otra parte, puede obsevarse que i=1 k Axω = xi aωi ∈ Gen {aω1 , . . . , aωk }. Es claro que V− (xω ) ≤ k − 1, de donde por hip´tesis, o i=1 V+ (Axω ) ≤ V− (xω ) ≤ k − 1. Esto dice que V+ (y) ≤ k − 1 para todo y ∈ Gen {aω1 , . . . , aωk } {0} . Entonces se sigue del Lema 13.5.3 que aω1 ∧ aω2 ∧ · · · ∧ aωk es estrictamente definida. Por lo tanto, A ser´ ε-ERS si el signo aω1 ∧ aω2 ∧ · · · ∧ aωk depende s´lo de k. Para k = m esto es a o trivial. Fijemos 1 ≤ k ≤ m − 1 y tomemos α, β ∈ Qk,m . Como en la prueba del Lema 13.5.3, existe una sucesi´n α = ω (0) , ω (p) , . . . , ω (r) = β en Qk,n que verifica la siguiente propiedad: o para cada i ∈ Ir , existe τ (i) ∈ Qk+1,n tal que ω (i−1) ⊆ τ (i) y ω (i) ⊆ τ (i) . Por lo tanto, basta probar que, para cada τ ∈ Qk+1,m e i ∈ Ik+1 , se cumple que aτ1 ∧ · · · ∧ aτi−1 ∧ aτi+1 ∧ · · · ∧ aτk+1 y aτ1 ∧ · · · ∧ aτi ∧ aτi+2 ∧ · · · ∧ aτk+1 tienen el mismo signo. Mediante un argumento de continuidad esto ser´ establecido si a aτ1 ∧ · · · ∧ aτi−1 ∧ {(1 − t)aτi + taτi+1 } ∧ aτi+2 ∧ · · · ∧ aτk+1 es estrictamente definido para cada 0 < t < 1. Y esto se deduce del Lema 13.5.3, v´ la Eq. ıa (13.29), porque, si x ∈ Rk {0}, entonces   i−1 k+1 V−  xj eτj + xi ((1 − t)eτi + teτi+1 ) + xj−1 eτj  ≤ k − 1 , j=1 j=i+2 puesto que los signos de las coordenadas τi y τi+1 son iguales.
  • 280. 13.5 Variaci´n de signos o 265 Lema 13.5.7. Sea x ∈ Rn . Si una sucesi´n xp − − x, entonces o −→ p→∞ V− (x) ≤ lim inf V− (xp ) y lim sup V+ (xp ) ≤ V+ (x) . (13.30) p→∞ p→∞ Demostraci´n. Si llamamos J = {i ∈ In : xi = 0}, debe existir alg´n p0 ∈ N tal que o u |(xp )j − xj | < m´ ın{|xi | : i ∈ J } para todo j∈J y p ≥ p0 . Entonces, sgn(xp )j = sgn(xj ) para j ∈ J. Luego, si p ≥ p0 , toda sucesi´n de signo εp para o xp es tambi´n una sucesi´n de signo para x, porque los signos (de x y xp ) coinciden en J, e o mientras que en los i ∈ J no hay problemas, porque xi = 0. Resumiendo, para todo p ≥ p0 / debe cumplirse que V− (x) ≤ V− (xp ) para p ≥ p0 (porque x tiene m´s sucesiones de signo que a xp ). O sea que V− (x) ≤ lim inf p→∞ V− (xp ). La otra desigualdad se prueba igual. La regularidad de signo est´ caracterizada por una propiedad de variaci´n de signo m´s d´bil. a o a e Corolario 13.5.8. Sea A ∈ Mn,m (R) con rkA = m. Entonces A es ε-RS si y s´lo si o V− (Ax) ≤ V− (x) para todo x ∈ Rm {0} . (13.31) Demostraci´n. Como veremos en la Secci´n 7, existe una sucesi´n (Gp )p∈N en Gl (n) de o o o matrices ETPs , tales que Gp − − In . Supongamos primero que A es ε-RS. Como rkA = m, −→ p→∞ el Teorema 13.2.1 asegura que Gp A es ε-ERS para todo p ∈ N. Adem´s Gp A − − A. a −→ p→∞ Entonces el Teorema 13.5.6 garantiza que V+ (Gp Ax) ≤ V− (x) para todo x ∈ Rm {0} . Luego, por la Eq. (13.30), tenemos que V− (Ax) ≤ lim inf ≤ V+ (Gp0 Ax) ≤ V− (x) , p→∞ lo que muestra la Eq. (13.31). Supongamos ahora que la Eq. (13.31) es v´lida. Por el a Teorema 13.5.6, aplicado a Gp , como A es inyectiva, V+ (Gp (Ax) ) ≤ V− (Ax) ≤ V− (x) para todo p∈N y x ∈ Rm {0} , El Teorema 13.5.6 (al reves) muestra que Gp A debe ser ε-ERS para todo p ∈ N. Tomando l´ ımite, vemos que A debe ser ε-RS. Usando la relaci´n de dualidad (13.28), podemos hablar de algunas propiedades de aumento o de signo. Corolario 13.5.9. Sea A ∈ Mn,m (R) con rkA = m. Entonces Jn AJm es ERS (respectiva- mente, RS) si y s´lo si o n − m + V+ (x) ≤ V− (Ax) ( resp. V+ (Ax) ) , para todo x ∈ Rm {0}.
  • 281. 266 Matrices totalmente positivas Cuando n = m, la regularidad de signo admite varias caracterizaciones equivalentes. Teorema 13.5.10. Sea A ∈ Gl (n). Entonces las siguientes condiciones son equivalentes: 1. A es regular de signo. 2. V+ (Ax) ≤ V+ (x) para todo x ∈ Rn {0}. 3. V− (Ax) ≤ V+ (x) para todo x ∈ Rn {0}. 4. V− (Ax) ≤ V− (x) para todo x ∈ Rn {0}. Demostraci´n. o 1 → 2: Si A es regular de signo (e inversible), tambi´n lo es Jn A−1 Jn por el Teorema 13.2.3. e Entonces 13.5.10 se sigue del Corolario 13.5.9, reemplazando x por Ax y A por A−1 (en nuestro caso, n − m = 0). 2 → 3: Trivial. 3 → 4: Uusaremos la sucesi´n Gp que aparece en la prueba del Corolario 13.5.8. El mismo o argumento de la prueba de 1 → 2, muestra que, V+ (Gp Ax) ≤ V− (x) para todo p∈N y x ∈ Rn {0} , porque Gp A es ERS. Luego, como Gp A x − − Ax, el Lema 13.5.7 nos da que −→ p→∞ V− (Ax) ≤ lim inf V− (Gp Ax) ≤ lim inf V+ (Gp Ax) ≤ V− (x) , x ∈ Rn {0} . 4 → 1: Se sigue del Corolario 13.5.8. 13.6 Totalmente Perron-Frobenius En esta secci´n estudiaremos propiedades espectrales de las matrices regulares de signo o o totalmente positivas. La herramienta clave para esto son los resultados de Perron y Frobenius para matrices positivas. Recordemos la parte m´s elemental del teorema de Perron-Frobenius: a Observaci´n 13.6.1. Sea A ∈ Mn (R) tal que A o 0. 1. Llamaremos λ1 (A), . . . , λn (A) a sus autovalores, ordenados de forma que |λ1 (A)| ≥ |λ2 (A)| ≥ · · · ≥ |λn (A)| . 2. El mayor autovalor de A es real y no negativo, i.e., ρ(A) = λ1 (A) ≥ 0, y hay un autovector positivo u1 0 correspondiente a λ1 (A).
  • 282. 13.6 Totalmente Perron-Frobenius 267 3. Si A > 0, entonces λ1 (A) > |λ2 (A)| y ker(A − λ1 (A)I) = Gen {u1 } , para cierto u1 > 0. Teorema 13.6.2. Sea A ∈ Mn (R) una matriz ε-ERS. Entonces todos los autovalores de A son reales y distintos. M´s a´n, a u εm λm (A) > |λm+1 (A)| , para todo m ∈ In , (13.32) εm−1 donde usamos la convenci´n ε0 = 1 y λn+1 (A) = 0. Adem´s, los correspondientes autovectores o a u1 , u2 , . . . , un pueden ser elegidos en Rn , y de modo tal que u1 ∧ u2 ∧ · · · ∧ um > 0 (como vector) , para todo m ∈ In . (13.33) Demostraci´n. La prueba se har´ por inducci´n en m. El caso m = 1 es consecuencia de la o a o Observaci´n 13.6.1 porque ε1 A > 0 por hip´tesis. Supongamos que el resultado es cierto para o o 1 ≤ i ≤ m − 1. Como εm · Λm A > 0, la Observaci´n 13.6.1 dice que o m 0 < ρ(εm · Λm A) = λ1 (εm · Λm A) = εm λi (A) . i=1 εi Por la hip´tesis inductiva, que en particular nos dice que εi−1 λi (A) = |λi (A)| > 0, para o i < m, y del hecho de que ρ(εm · Λ A) es el unico autovalor de εm · Λm A de m´dulo m´ximo, m ´ o a deducimos que m m m−1 m−1 εi εm εm λi (A) = λi (A) = λm (A) |λi (A)| > |λm+1 (A)| |λi (A)| . i=1 i=1 εi−1 εm−1 i=1 i=1 Luego la Eq. (13.32) se cumple para m. Ahora, como λm (A) es real, um puede ser elegido real. Por lo tanto tenemos que u1 ∧ u2 ∧ · · · ∧ um es autovector no nulo de εm · Λm A correspodiente a λ1 (εm · Λm A), y tiene coordenadas reales. Entonces, por la Observaci´n 13.6.1, tomando o ξ = 1 o bien ξ = −1, tenemos que ξ · u1 ∧ u2 ∧ u2 ∧ · · · ∧ um > 0. Ahora, reemplazando a um por ξum en caso de que sea necesario, obtenemos la Eq. (13.33) para todo m ∈ In . Los autovectores reales {u1 , u2 , . . . , un } conseguidos en el Teorema 13.6.2 posee propiedades oscilatorias interesantes. Para sus formulaciones, necesitamos algunas definiciones. Definici´n 13.6.3. Sea x ∈ Rn . o 1. Notaremos por x(t) : [1, n] → Rn a la funci´n linear a trozos o x(t) = (k + 1 − t)xk + (t − k)xk+1 si k ≤t≤k+1 , k ∈ In−1 . (13.34) Observar que x(t) es continua, lineal a trozos, y que x(j) = xj para todo j ∈ In .
  • 283. 268 Matrices totalmente positivas 2. Los nodos de x(t) son las ra´ de la ecuaci´n x(t) = 0, ordenados de manera creciente ıces o (si son finitos, i.e., si no hay dos coordenadas nulas consecutivas de x). 3. Diremos que dos sucesiones ordenadas ξ1 < ξ2 < · · · < ξk y η < η2 · · · < ηk+1 est´n a entrelazadas si se cumple que ηk < ξk < ηk+1 , para todo k ∈ Ik . Teorema 13.6.4. Sea A ∈ Mn (R) una matriz ε-ERS. Sean u1 , . . . , un sus autovectores reales, correspondientes a los autovalores λk (A), k ∈ In (ordenados con m´dulos decre- o cientes). Entonces 1. La variaci´n de signo de cada uk es exacta. M´s a´n, o a u V (uk ) = k − 1 , para todo k ∈ In . (13.35) 2. Adem´s, los nodos de uk (t) y los de uk+1 (t) est´n entrelazados. a a Demostraci´n. Fijemos k ∈ In . Por el Teorema 13.6.2 podemos asumir que u1 ∧ u2 ∧ o · · · ∧ uk > 0. Luego, por el Lema 13.5.3, sabemos que V+ (uk ) ≤ k − 1. Consideremos Jn A−1 Jn , la cual es nuevamente ERS por el Teorema 13.2.3. Como Jn uk es un autovector de Jn A−1 Jn correspondiente a 1/λk (A) = λn−k+1 (Jn A−1 Jn ), el argumento anterior da que V+ (Jn uk ) ≤ n − k. Por la Eq. (13.28), deducimos que V− uk = n − 1 − V+ (Jn uk ) ≥ k − 1 ≥ V+ (uk ) , lo que prueba el item 1. Para probar el item 2, necesitamos varios pasos previos: Clamor 1: Para todo k ∈ In−1 y todo (ξ, ζ) ∈ R2 {0}, se cumple que V+ (ξuk + ζuk+1 ) − 1 ≤ V− (ξuk + ζuk+1 ) . (13.36) En efecto, como u1 ∧ · · · ∧ uk ∧ uk+1 > 0 (o < 0), la Proposici´n 13.5.3 garantiza que, si o llamamos z = ξuk + ζuk+1 , entonces V+ (z) ≤ (k + 1) − 1 = k. Aplicando el mismo argumento a Jn un , . . . , Jn uk+1 , Jn uk , que son los primeros n − k + 1 autovectores de las matriz ERS Jn A−1 Jn , obtenemos, v´ la Eq. (13.28), que ıa V+ (Jn z) ≤ n − k =⇒ V− (z) ≥ k − 1 ≥ V+ (z) − 1 , lo que termina de mostrar la Eq. (13.36). Sean x(t) = uk (t) e y(t) = uk+1 (t). Por la Eq. (13.35) y la Observaci´n 13.5.2, si un nodo o de e x(t) o de y(t) es entero, la coordenada correspondiente de uk o uk+1 es nula, no es ni la primera ni la ultima, y las dos adyacentes son no nulas y de signos opuestos. Por lo tanto, ´ x(t) tiene k − 1 nodos e y(t) tiene k nodos. Clamor 2: Sean (ξ, ζ) ∈ R2 {0} y j ∈ In {1, n}. Si ξx(j) + ζy(j) = 0, entonces ξx(j − 1) + ζy(j − 1) ξx(j + 1) + ζy(j + 1) < 0. (13.37)
  • 284. 13.6 Totalmente Perron-Frobenius 269 En efecto, como en la Observaci´n 13.5.2, si z ∈ Rn cumple que V+ (z) − 1 ≤ V− (z), entonces o zj = 0 implica que j = 1, j = n, o zj−1 zj+1 < 0. Luego basta aplicar lo anterior y la Eq. (13.36) al vector z = ξuk + ζuk+1 . Ahora vamos a por el item 2: Sean t1 < t2 < · · · < tk los nodos de y(t). Entonces bastar´ ıa probar que, para todo l ∈ Ik−1 , hay al menos un nodo de x(t) en el intervalo abierto (tl , tl+1 ). Clamor 3: Supongamos que x(t) > 0 para todo t ∈ (tl , tl+1 ). Entonces x(tl ) = 0 = x(tl+1 ) y, por ende, ın{x(t) , t ∈ [tl , tl+1 ] } . 0 < α = m´ Supongamos, por ejemplo, que x(tl ) = 0. Tomemos i ∈ N tal que i − 1 < tl < i (o bien j − 1 y j + 1 si tl = j es entero). Como x(t) es lineal en [i − 1, i], tenemos que x(i − 1)x(i) < 0 (resp. x(j − 1)x(j + 1) < 0, en este caso por la ecuaci´n (13.37) ). Tomando o y(i) y(j + 1) ξ=− resp. ξ = − , x(i) x(j + 1) se tiene que ξx(t)+y(t) se anula en el intervalo [i−1, i], ya que ξx(i)+y(i) = ξx(tl )+y(tl ) = 0, y es una funci´n lineal en [i − 1, i] (resp. se anula en [j, j + 1] por las mismas razones). Pero o esto contradice la Eq. (13.37). Recta final: Por la definici´n de nodos, y(t) es definido, supongamos que ≥ 0, en el intervalo o [tl , tl+1 ]. Sea η el m´ınimo de los η > 0 para los cuales zη (t) = x(t) − ηy(t) tiene un nodo s ∈ [tl , tl+1 ]. Observar que s = tl porque y(tl ) = 0 = x(tl ). Por lo mismo s = tl+1 . Ahora, por la minimalidad de η, tenemos que zη (t) ≥ 0 en [tl , tl+1 ]. Pero como zη (t) = (uk − ηuk+1 )(t) es lineal en los intervalos [j, j + 1], j ∈ In−1 , esto es posible s´lo cuando s ∈ N, o cuando zη (t) o se anula en todo el intervalo [j, j + 1] que contiene a s. Pero cada una de estas psibilidades produce una contradicci´n con la Eq. (13.37), en el primer caso porque zη (t) no cambia de o signo, en el otro porque zη (t) tiene dos ceros enteros consecutivos. Si A ∈ Mn (R) es estrictamente regular de signo, su adjunta A∗ es tambi´n estrictamente e regular de signo. Por el Teorema 13.6.2, los autovectores reales {v1 , v2 , . . . , vn } de A∗ pueden ser elegidos de forma tal que v1 ∧ v2 ∧ · · · ∧ vk > 0 , para todo k ∈ In . Las propiedades (13.33) y (13.38) de los autovectores de A y A∗ caracterizan en alg´n sentido u la regularidad de signo estricta. Teorema 13.6.5. Si A ∈ Mn (R) es inversible, tiene n autovalores reales de distinto m´dulo,o y los autovectores reales uk de A y vk de A∗ , correspondientes a λk (A) = λk (A∗ ), son elegidos de forma tal que satisfagan las ecuaciones u1 ∧ u2 ∧ · · · ∧ uk > 0 y v1 ∧ v2 ∧ · · · ∧ vk > 0, para todo k ∈ In , (13.38) entonces alguna potencia de A es estrictamente regular de signo.
  • 285. 270 Matrices totalmente positivas Demostraci´n. Notemos λk = λk (A), para k ∈ In . Sean o U = [u1 , u2 , . . . , un ] y V = [v1 , v2 , . . . , vn ] . Entonces U y V son inversibles. Si notamos Λ = diag(λ1 , λ2 , . . . , λn ), entonces A = U · Λ · U −1 y A∗ = V · Λ · V −1 . (13.39) ∗ n Es f´cil ver que ui , vj = 0 para i = j. Esto dice que V U es diagonal. Sea ρ ∈ C tal que a −1 diag (ρ) = V ∗U =⇒ U −1 = diag (ρ) V ∗ . (13.40) Se tiene que ρ > 0 (es decir que sus entradas son positivas), ya que para todo k ∈ In , k 0 < k! u1 ∧ u2 ∧ · · · ∧ uk , v1 ∧ u2 ∧ · · · ∧ vk = det V ∗ U [Ik ] = ρ−1 . i i=1 Por las ecuaciones (12.1) (Cauchy-Binnet), (13.39) y (13.40), y varias reducciones elementales, podemos ver que, para todo p ∈ N y para todo par α, β ∈ Qk,n , k p −1 p det A [α|β] = det(U Λ U p )[α|β] = det U [α|ω] · λωi · det U −1 [ω|β] ω∈Qk,n i=1 k p k = det U [α|ω] · λωi · ρωi · det V [β|ω] ω∈Qk,n i=1 i=1 k p k = λi · ρi det U [α|Ik ] det V [β|Ik ] + i=1 i=1 k p k + det U [α|ω] · λωi ρωi · det V [β|ω]. ω∈Qk,n i=1 i=1 ω= Ik Notar que, como |λ1 | > |λ2 | > · · · > |λn | > 0, entonces k k |λi | > |λω | para todo ω ∈ Qk,n Ik , i=1 i=1 mientras que las ecuaciones de (13.38) implican que U [α|Ik ] > 0 y V [β|Ik ] > 0 para todo k∈N y α, β ∈ Qk,n . Entonces para un p suficientemente grande, det Ap [α|β] es no nulo y tiene el mismo signo que k p λi para cada α, β ∈ Qk,n . Entonces Ap es ERS. i=1 Ahora compararemos los autovalores de A con los de A[α], para un α adecuado. El siguiente ıamos para A ∈ H(n) y α ∈ Qn−1,n (entrelace de Cauchy) Teorema generaliza un hecho que sab´ y que hab´ ıamos mencionado para tambi´n para Qk,n (ver Teorema 2.4.2). e
  • 286. 13.6 Totalmente Perron-Frobenius 271 Teorema 13.6.6. Sea A ∈ Mn (R) una matriz ETP. Dados k ∈ N y α ∈ Qk,n con compo- nentes consecutivas (i.e., tal que d(α) = 0), se tiene que, para todo j ∈ Ik , λj (A) > λj (A[α]) > λn+j−k (A) (13.41) y λj (A) > λj (A/α ) > λn+j−k (A) . (13.42) Demostraci´n. El caso que concentra la dificulatad es cuando k = n−1, donde α = In−1 o bien o α = In {1}. Supongamos que α = In−1 , y llamemos B = A[α]. Observar que λ(A) consta ıstico PA (t) = det(tI − A). An´logamente de las n raices distintas del polinomio caracter´ a λ(B) consta de las n − 1 raices distintas del polinomio caracter´ıstico PB (t) = det(tI − B). Llamemos λi = λi (A), i ∈ In y notemos At = tIn − A y Bt = tIn − B, t ∈ R. Para mostrar la Eq. (13.41) para este α, basta ver que PB (λi )PB (λi+1 ) < 0 , para todo i ∈ In−1 . (13.43) Consideremos los vectores xt , con par´metro real t, definidos por a xt := (−1)n+i det At [α|i) i∈In . Entonces la Regla de Cramer (12.10) muestra que, para todo t ∈ σ (A), se tiene la igualdad / xt = dA (t)A−1 en . Luego, At xt = PA (t)en para esos t, pero por continuidad, t At x t = 0 si t ∈ σ (A) =⇒ Axλj = λj xλj , para j ∈ In . (13.44) La n-´sima componente xt (n) de xt coincide con PB (t), mientras que la primera componente e xt (1) admite la representaci´n o n xt (1) = tn−j det A[ω − {n}|ω − {1}]. (13.45) j=2 ω∈Qj,n ω1 =1,ωj =n Esto ultimo sale del hecho de que ´   −a12 −a23 ... −a1,n−1 −a1,n  t − a22 −a23 ... −a2,n−1 −a2,n    At [In−1 |2, . . . , n] =  −a32 t − a33 ... −a3,n−1 −a3,n     . . . .   . .  −an−1,2 −an−1,3 ... t − an−1,n−1 −an−1,n y viendo que subdeterminantes le correponden a cada potencia de t. Clamor: Se cumple que xt (1) > 0 para todo t > 0. En efecto, como A es TP, la Eq. (13.45) muestra que xt (1) es un polinomio en t con coeficientes no negativos. Luego bastar´ mostrar que existe un λ > 0 tal que xλ (1) = 0 (as´ ya sabr´ ıa ı ıamos
  • 287. 272 Matrices totalmente positivas que alg´n coeficiente no se anula). Para ello usaremos que, como PB (t) tiene s´lo n − 1 raices, u o existe j ∈ In tal que xλj (n) = PB (λj ) = 0. Por la Eq. (13.44), xλj es un autovector vector no nulo (porque xλj (n) = 0) de A, que es ETP. Luego, por el Teorema 13.6.4, xλj tiene variaci´n o exacta, por lo que su primer componente xλj (1) = 0. Aplicando el Clamor a los otros λi , junto con la Eq. (13.44), concluimos que xλi es el i-´simo autovector de A con xλi (1) > 0, para todo i ∈ In . Luego se sigue del Teorema e 13.6.4 que la n-´sima componente tiene signo (−1)i−1 . Esto establece la Eq. (13.43), porque e xλi (n) = PB (λi ), i ∈ In . Para α = {2, 3, . . . , n}, tomamos nuevamente B = A[α] y ahora yt = (−1)1+i det At [α|i) i∈In . En este caso tenemos At yt = PA (t)e1 , lo que tambi´n implica que Ayλj = λj yλj . Aqu´ e ı, yt (1) coincide con PB (t), mientras que la ultima admite un representaci´n como la anterior. ´ o Entonces la primera tiene signo (−1)i−1 y obtenemos as´ la Eq. (13.41) para este α. ı El caso k < n − 1 se probar´ por inducci´n descendente. Supongamos que la Eq. (13.41) a o es cierta para cierto k > 1 y tomemos α ∈ Qk−1,n con d(α) = 0. Supongamos que α = {i, i + 1, . . . , i + k − 2} con i + k − 1 ≤ n. Llamemos β = α ∪ {i + k − 1}. Aplicando el caso anterior a la matriz ETP A[β] ∈ Mk (R), obtenemos que λj (A[β]) > λj (A[α]) > λj+1 (A[β]) , para todo j ∈ Ik−1 . Por otro lado, la hip´tesis inductiva asegura que o λj (A) > λj (A[β]) > λn+j−k (A) , para todo j ∈ Ik . Combinando estas desigualdades, se obtien la Eq. (13.41) para el caso k − 1, lo que completa la inducci´n. Resta ver el caso en que i + k − 2 = n, i. e. α = {i, i + 1, . . . , n}, que se obtiene o de manera an´loga, aplicando el segundo argumento a la matriz A[α ∪ {i − 1}]. Veamos ahora a la Eq. (13.42): Sabemos que Jn A−1 Jn es tambi´n ETP por el Teorema 13.2.3. Adem´s, por e a el Teorema 12.1.4, se ve f´cilmente que (Jn A−1 Jn )[α] = Jα (A/α )−1 Jα . Observemos que a −1 σ Jn A−1 Jn = σ (A) . Luego, 1 1 = λn−j+1 (Jn A−1 Jn ) y = λk−j+1 ((Jn A−1 Jn )[α]) . λj (A) λj (A/α ) Aplicando la Eq. (13.41) a Jn A−1 Jn , tenemos que λj (Jn A−1 Jn ) > λj (Jn A−1 Jn [α]) > λn+j−k (Jn A−1 Jn ) . Luego λj (A) = λn−j+1 (Jn A−1 Jn )−1 > λk−j+1 (Jn A−1 Jn [α])−1 = λj (A/α ) > λj (Jn A−1 Jn )−1 = λn+j−k (A) , lo que completa la prueba. Con la ayuda del Teorema de aproximaci´n 13.1.13, algunos de los resulatdos anteriores o pueden ser genarlizados al caso en que A es regular de signo o TP.
  • 288. 13.6 Totalmente Perron-Frobenius 273 Corolario 13.6.7. Si A ∈ Mn (R) es regular de signo con signatura ε, entonces todos sus autovalores son reales, y εk λk (A) > 0 , para todo k = 1, 2, . . . , rkA . εk−1 Si A es TP, entonces para cada k ∈ In y cada α ∈ Qk,n tal que d(α) = 0, se tiene que λj (A) ≥ λj (A[α]) ≥ λn+j−k (A) , para todo j ∈ In . Dado x = (xi ) ∈ Rn , denotemos por x↓ a su reordenaci´n decreciente: o x↓ ≥ x↓ ≥ · · · ≥ x↓ 1 2 n y x↓ = xπ(i) i para alguna π ∈ Sn . (13.46) Teorema 13.6.8. Sea A ∈ Mn (R) una matriz TP. Entonces diag (A) λ(A) . ↓ Demostraci´n. Dada una matriz L ∈ Mm (R), llamemos δ ∗ (L) = diag (L) , a su diagonal o reordenada. Probaremos el teorema por inducci´n en n. El caso n = 1, es trivial. Asumamos o que el teorema es cierto en Mn−1 (R). Como tr λ(A) = tr A = tr diag (A), y λi (A) = λ↓ (A), i i ∈ In , basta mostrar que k k ∗ λi (A) ≥ δi (A) para k ∈ In−1 . (13.47) i=1 i=1 ∗ ∗ Sean p, q ∈ In tales que A11 = δp (A) y Ann = δq (A). Tomando la conversi´n de A en o caso de que sea necesario, podemos asumir que p > q. Sea B = A(n) y C = A(1). Como B, C ∈ Mn−1 (R) son ambas TP, la hip´tesis inductiva determina que o k k n−1 n−1 ∗ ∗ λi (B) ≥ δi (B) y λi (C) ≤ δi (C) , k ∈ In−1 . (13.48) i=1 i=1 i=k i=k ∗ ∗ Observar que δi (B) = δi (A) para 1 ≤ i ≤ p (aca se usa que p > q). Por el Corolario 13.6.7, λi (A) ≥ λi (B), para i ∈ In−1 . Luego, las desigualdades de (13.48) implican la Eq. (13.47) para los casos 1 ≤ k ≤ p. Veamos ahora que n n ∗ λi (A) ≤ δi (A) , para k>p. (13.49) i=k+1 i=k+1 ∗ ∗ En efecto, como δi (A) = δi (C) si p + 1 ≤ i ≤ n, y λi−1 (C) ≥ λi (A), para todo i ∈ In−1 (por el Corolario 13.6.7 ), observamos que la Eq. (13.48) implica (13.49), y por ende tambi´n la e Eq. (13.47) para estos valores de k.
  • 289. 274 Matrices totalmente positivas 13.7 Algunos ejemplos En esta secci´n presentamos algunos ejemplos de matrices TPs y la caracterizaci´n de estas o o matrices. 13.7.1. [N´cleos totalmente positivos] La mayor parte de las matrices TPs no triviales surgen u de la restricci´n de n´cleos totalmente positivos a conjuntos finitos adecuados. Daremos o u a continuaci´n algunas f´rmulas de producci´n de n´cleos totalmente positivos: Sean Γ, Λ o o o u conjuntos totalmente ordenados (en general, subconjuntos de R o Z). 1. Una funci´n a valores reales K(s, t) para s ∈ Γ, t ∈ Λ es un n´ cleo totalmente o u positivo (TP) si la matriz [K(si , tj )]i,j∈In es TP para todo n ∈ N y toda elecci´n o s1 < s2 < . . . < sn en Γ y t1 < t2 < . . . < tn en Λ . La positividad total estricta de un n´cleo se define an´logamente. u a 2. Si K(s, t) es TP y f (s), g(t) son funciones positivas en Γ y Λ respectivamente, entonces el n´cleo f (s)K(s, t)g(t) es TP. u 3. Si K(s, t) es TP y φ(s) es un operador mon´tonamente creciente de un conjunto total- o mente ordenado Γ1 a Γ, y ψ(t) es un operador mon´tonamente creciente de un conjunto o totalmente ordenado Λ1 a Λ, entonces K(φ(s), ψ(t)) es un n´cleo TP en Γ1 × Λ1 . u 4. Si dos n´cleos L(s, t) y M (s, t) son TPs y dσ(·) es una medida en Γ, entonces el n´cleo u u K(u, v) := L(s, u)M (s, v)dσ(s) , para u, v ∈ Λ , (13.50) T es TP en Λ × Λ, si la integral existe. Esto es s´lo una modificaci´n del Teorema 13.2.1. o o Pasemos ahora a la construcci´n de ejemplos concretos o 1. El n´cleo L(k, t) = tk , definido en en N0 × R+ es TP. Esto es una consecuencia de la u positividad total de las matrices de Vandermonde, vista en el Ejemplo 13.1.6. n 2. Dados k ∈ In y α ∈ Rn+1 , el n´cleo K(s, t) = + u αk sk tk es TP en R+ ×R+ . En efecto, k=0 a K(s, t) se lo puede realizar como una composici´n del tipo (13.50), con dos copias del o n´cleo L del item anterior (con la medida en N0 dada por los αk ). u 3. Para cualquier σ > 0 el n´cleo K(s, t) = exp(σst) es TP en R+ × R+ , ya que es un u ımite de n´cleos del item anterior (con αk = σ k /k! ). l´ u 4. El n´cleo K(s, t) = exp[−σ(s − t)2 ] es ETP en R+ × R+ , porque u exp −σ(s − t)2 = exp(−σs2 ) exp(2σst) exp(−σt2 ) , para todo par s , t ∈ R+ .
  • 290. 13.7 Algunos ejemplos 275 5. Por lo tanto, para todo n ∈ N y todo p ∈ R∗ , la matriz + Gp = exp − p (i − j)2 ∈ Mn (R) i,j ∈In es ETP por el item 3. Adem´s, se tiene que Gp − − In . Esta sucesi´n (tomando a −→ o p→∞ p ∈ N) ha sido usada varias veces en secciones anteriores. 6. Para cada 0 < λ < 1 y 0 = p ∈ R, consideremos el promedio pesado en R+ × R+ Mλ,p := {λsp + (1 − λ)tp }1/p . (13.51) Entonces Mλ,p (s, t) o 1/Mλ,p (s, t) es TP de acuerdo a si p < 0 o p > 0. Esto se sigue de la observaci´n de que para cualquier γ > 0 o 0 1 1 du = eus eut , (13.52) (s + t)γ Γ(γ) −∞ |u|1−γ donde Γ(·) es la funci´n gamma, y el n´cleo exp(us) es TP en R+ × R+ . o u ın{s, t} es TP en R+ × R+ , porque 7. El n´cleo K(s, t) = m´ u K(s, t) = lim Mλ,p (s, t) (13.53) p → −∞ f (t) 8. Si f (t), g(t) son funciones positivas en R+ tales que h(t) = es no decreciente, g(t) entonces el n´cleo u ın{s, t} · g m´x{s, t} K(s, t) = f m´ a es TP en R+ × R+ . En efecto, es f´cil ver que se la puede reescribir como a K(s, t) = m´ ın{h(s), h(t)} g m´ ın{s, t} g m´x{s, t} a = g(s) · m´ ın{h(s), h(t)} · g(t) . 9. Dado σ > 0, poniendo g(t) = exp(−σt) y f (t) = exp(σt) (con lo que nos queda h(t) = exp(2σt), que es creciente), obtenemos que el n´cleo del item 8, u ın{s, t} − σ m´x{s, t} = exp ( −σ|s − t| ) K(s , t) = exp σ m´ a es TP en R+ × R+ . 10. Sean {bi }i∈In y {ci }i∈In dos sucesiones en R∗ . Entones la matriz + b1 b2 bn Mn (R) bm´ ın(i,j) cm´x(i,j) a i ,j ∈In es TP ⇐⇒ ≤ ≤ ··· ≤ . c1 c2 cn Esto se sigue inmediatamente del item 8, ya que podemos considerar las funciones f (t) = bi , si i − 1 ≤ t < i y g(t) = ci , si i − 1 ≤ t < i . Una matriz de este tipo es llamada matriz de Green.
  • 291. 276 Matrices totalmente positivas 13.7.2 (Matriz de Hurwitz). Un conocido teorema de A. Hurwitz dice que un polinomio p(z) = d0 z n + d1 z n−1 + . . . + dn a coeficientes reales (d0 > 0) tiene todos sus ceros en semiplano abierto Re z < 0 si y s´lo si la matriz o   d1 d3 d5 d7 d9 · · · 0  d0 d2 d4 d6 d8 · · · 0     0 d1 d3 d5 d7 · · · 0  Hp = d2j−i i,j ∈In =  0 d0 d2 d4 d6 · · · 0  ∈ Mn (R) , (13.54)      . . . . . .   . . . . . . . . . . .  . 0 0 0 0 0 ··· dn donde ponemos que dk = 0 para k < 0 o k > n, tiene menores principales positivos: det Hp [1, 2, . . . , k] > 0 , para todo k ∈ In . (13.55) Un tal polinomio p(z) es llamado un polinomio de Hurwitz y la matriz H es la matriz de Hurwitz asociada a ´l. e Mostraremos, por inducci´n en n, que en tal caso la matriz de Hurwitz es TP. Observar que o d1 > 0 para cualquier n, por la Eq. (13.55). Luego el caso n = 1 es trivial. Supongamos que es cierto para n − 1. Tomemos una Hp ∈ Mn (R) para un buen polinomio p. Llamemos G = H/{1} ∈ Mn−1 (R), indexada en {2, 3, . . . , n}. La Eq. (12.15) nos asegura que d1 det H/{1}[{2, . . . , k}] = det Hp [Ik ] > 0 para todo k ∈ In {1} . (13.56) d0 Sean gj = Fj (G) ∈ Rn−1 , para j = 2, 3, . . . , n. Llamemos c = d1 . Entonces las matriz T ∈ Mn−1 (R), indexada en {2, 3, . . . , n}, cuyas filas fj = Fj (T ) est´n definidos por a f2 = g2 , f2j−1 = g2j−1 , y f2j = g2j − c g2j−1 para j ≥ 2 , (13.57) tambi´n tiene menores principales positivos. Haciendo la cuenta vemos que T es una matriz e de la forma (13.54) con n − 1 en lugar de n, y dj en lugar de dj , donde d2j = d2j+1 y d2j−1 = d2j − c d2j+1 , para j = 0, 1, 2, . . . (13.58) Por la hip´tesis inductiva, tenemos que T es TP, por lo que tambi´n lo es o e ˜ 0 0 T := ∈ Mn (R) . 0 T Haciendo algunas cuentas, podemos deducir de la Eq. (13.58) que c ˜ Hp [1, 2, . . . , n − 2] = Hp (n − 1, n) = S + (In − Jn ) S T S ∗ (n − 1, n), (13.59) 2 donde S = [0, e1 , e2 , . . . , en−1 ]. Las matrices S y S ∗ son TPs, y lo es la matriz triangular c superior S + 2 (In − Jn ). Ahora la positividad total de Hp sale de la Eq. (13.59) por los Teoremas 13.2.1 y 13.1.4.
  • 292. 13.8 Ap´ndice: La prueba del criterio clave e 277 13.7.3 (Matrices de Toeplitz). Para una sucesi´n (bi-)infinita {an : −∞ < n < ∞}, la o ∞ matriz (ai−j )i,j∈N es llamada su matriz de Toeplitz, y la funci´n f (z) = o an z n , su funci´n o −∞ generadora. Un matriz de Toeplitz es TP si y s´lo si su funci´n generadora es de la forma o o ∞ ∞ ρn (1 + αn z) 1+ z γ−1 1 1 f (z) = Cz k exp γ1 z + · ∞ ∞ , z δn (1 − βn z) 1− z 1 1 donde k es un entero, C ≥ 0, γ1 , γ−1 ≥ 0 y αn , βn , ρn , δn ≥ 0 son tales que ∞ (αn + βn + ρn + δn ) < ∞ . 1 Cuando an = 0 para n < 0, la matriz de Toeplitz es TP si y s´lo si su funci´n generadora es o o de la forma ∞ (1 + αn z) γz 1 f (z) = Ce ∞ , (1 − βn z) 1 ∞ donde C ≥ 0, γ ≥ 0, y αn , βn ≥ 0 son tales que (αn + βn ) < ∞. Las pruebas de estos 1 hechos, basadas fuertemente en la teor´ de funciones anal´ ıa ıticas est´n m´s all´ del alcance de a a a este trabajo. Cuando es aplicada a un polinomio la caracterizaci´n anterior implica que el o polinomio p(z) = d0 z n +d1 z n−1 +. . .+dn (d0 > 0) tiene todos sus ceros en eje real no negativo si y s´lo si la matriz infinita (dn+j−i )i,j∈N es TP, donde dk = 0 para k < 0 o k > n. Notemos o que la matriz de Hurwitz Hp introducida antes es una submatriz de T , m´s precisamente a Hp = T [n + 1, n + 2, . . . , 2n|2, 4, . . . , 2n]. 13.7.4 (Funci´n de frecuencia de P´lya). Una funci´n f (t) en (−∞, ∞) es llamada una o o o funci´n de frecuencia de P´lya si el n´cleo K(s, t) := f (s − t) es TP. La siguiente caracteri- o o u zaci´n se debe a Schoenberg (1953), f (t) es una funci´n de frecuencia de P´lya si y s´lo si su o o o o transformada bil´tera de Laplace existe en una tira abierta que contenga al eje imaginario y a tiene la forma ∞ ∞ exp(αn t) e−st f (s)ds = C exp(γt2 + δt) · , −∞ 1 1 + αn t ∞ donde C > 0, γ ≥ 0, δ y αn son reales tales que 0 < |αn |2 < ∞. La prueba de este 1 resultatdo est´ m´s alla del alcance de este trabajo. a a 13.8 Ap´ndice: La prueba del criterio clave e Las pruebas de los criterios de positividad total se basan en intrincados c´lculos de deter- a minantes que permiten usar un argumento inductivo. Para ello usaremos fuertemente los
  • 293. 278 Matrices totalmente positivas resultados de la secci´n 2 del Cap´ o ıtulo 12. Recordemos, dado que las usaremos bastante, algunas ecuaciones de all´ ı: Dados α, β ∈ Qk,n y, adem´s, ω, τ ∈ Ql,n tales que ω ⊆ α , τ ⊆ β , sean a µ = α ∪ ω = (µ1 , µ2 , . . . , µk+l ) y ν = β ∪ τ = (ν1 , ν2 , . . . , νk+l ) ∈ Qk+l,n . Existen entonces γ y σ ∈ Qk,k+l tales que αi = µγi y βi = νσi , i ∈ Ik . Luego definimos α k(k+1) β sgn = sgn(γ) = (−1)tr γ− 2 , sgn = sgn(σ) . (13.60) α∪ω β∪τ Repasemos la Eq. (12.15): Sea A ∈ Mn (R). Dados α, β ∈ Qk,n y adem´s, ω, τ ∈ Ql,n tales a que ω ⊆ α , τ ⊆ β , entonce se tiene que α β det A[α|β] det (A/[α|β])[ω|τ ] = sgn sgn det A[α ∪ ω|β ∪ τ ] (13.61) α∪ω β∪τ Una consecuencia inmediata es la siguiente caracterizaci´n de las entradas de un complemento o de Schur, vista como (12.16): Dados α, β ∈ Qk,n , se tiene α β det A[α ∪ {αi }|β ∪ {βj }] {A/[α|β] }(α = sgn sgn (13.62) i ,βj ) α ∪ {αi } β ∪ {βj } det A[α|β] La siguiente igualdad, vista en (12.12), es v´lida para toda A ∈ Mn (R): Dado β ∈ Qk,n , a sgn(ω) det A[ω|β] det A(ω|β) = sgn(β) det A . (13.63) ω∈Qk,n Identidad de Sylvester (Eq. (12.17) ): Dados A ∈ Mn (R) y α, β ∈ Qk,n , se cumple que det det A[α ∪ {αi }|β ∪ {βj }] i,j∈In−k = det A · det A[α|β]n−k−1 (13.64) Necesitamos adem´s el siguiente resultado espec´ a ıfico: Lema 13.8.1. Sea A ∈ Mn (R). Dados α ∈ Qn−1,n y ω ∈ Qn−2,n tales que ω ⊆ α, se tiene det A[ω|1, n) det A[α|q) = det A[ω|1, q) det A[α|n) + det A[ω|q, n) det A[α|1) , (13.65) para todo 1 < q < n. Notar que asumimos que n ≥ 3. Demostraci´n. Fijemos p ∈ ω y sean µ = ω {p} y ν = {1, q, n} . Adem´s sean {m} = α ω. o a Dividiendo ambos lados de la Eq. (13.65) por det A[µ|ν]2 tenemos que el lado izquierdo de la (eventual) igualdad queda det A[µ ∪ {p}|ν ∪ {q}] det A[µ ∪ {p, m}|ν ∪ {1, n}] = det A[µ|ν]2
  • 294. 13.8 Ap´ndice: La prueba del criterio clave e 279 y el derecho, det A[µ ∪ {p}|ν ∪ {n}] det A[µ ∪ {p, m}|ν ∪ {1, q}] + det A[µ|ν]2 det A[µ ∪ {p}|ν ∪ {1}] det A[µ ∪ {p, m}|ν ∪ {q, n}] = . det A[µ|ν]2 Llamemos B = A/[µ|ν] . Notar que, por las ecuaciones (13.61) y (13.62), se tiene que µ ν µ ν = sgn µ∪{p} sgn ν∪{q} sgn µ∪{p,m} sgn ν∪{1,n} Bp,q det B[p, m|1, n] , Por otra parte, = ε2 Bp,n det B[p, m|1, q] + ε3 Bp,1 det B[p, m|q, n] , donde µ ν µ ν ε2 = sgn µ∪{p} sgn ν∪{n} sgn µ∪{p,m} sgn ν∪{1,q} y µ ν µ ν ε3 = sgn µ∪{p} sgn ν∪{1} sgn µ∪{p,m} sgn ν∪{q,n} . µ µ Sacando como factor a sgn µ∪{p} sgn µ∪{p,m} , se ve que la Eq. (13.65) es equivalente a la ν ν siguiente relaci´n: sgn ν∪{q} sgn ν∪{1,n} Bp,q det B[p, m|1, n] = o ν ν ν ν sgn ν∪{n} sgn ν∪{1,q} Bp,n det B[p, m|1, q] + sgn ν∪{1} sgn ν∪{q,n} Bq,1 det B[p, m|q, n] . Por otra parte, usando la Eq. (13.60), una cuidadosa cuenta muestra que ν ν ν ν ν ν sgn ν∪{q} sgn ν∪{1,n} = sgn ν∪{n} sgn ν∪{1,q} = sgn ν∪{1} sgn ν∪{q,n} . (13.66) En efecto, observar que por la definici´n usando permutaciones tenemos que o ν ν ν ν ν sgn ν∪{q} = sgn ν∪{q,n} , sgn ν∪{1} = sgn ν∪{1,n} , y que sgn ν∪{n} = 1 . ν ν ν Luego las igualdades de (13.66) surgen de que sgn ν∪{1,q} = sgn ν∪{1} sgn ν∪{q} . Usando ahora la Eq. (13.66), nos queda que la Eq. (13.65) es equivalente a la relaci´n: o Bp,q det B[p, m|1, n] = Bp,n det B[p, m|1, q] + Bp,1 det B[p, m|q, n] , que se verifica f´cilmente para cualquier matrix B (notar que son determinantes de matrices a de 2 × 2). Sean A ∈ Mn,m (R) y ε una sucesi´n de signatura. Sea r = m´ o ın{n, m}. Recordemos las definiciones: A es ε-RS (resp. ε-ERS) si εk det A[α|β] ≥ 0 (resp. > 0) para todo k ∈ Ir , α ∈ Qk,n , β ∈ Qk,m . (13.67) Recordemos el enunciado del Teorema 13.1.4: Teorema 13.1.4 Sea A ∈ Mn,m (R) con rk A = r, y sea ε una sucesi´n de signatura. o
  • 295. 280 Matrices totalmente positivas 1. Para que A sea ε-RS es suficiente que, para todo k ∈ Im´ ın{n,m} y α ∈ Qk,n , εk det A[α|β] ≥ 0 para β ∈ Qk,m tal que d(β) ≤ m − r . (13.68) 2. En particular, A es TP si det A[α|β] ≥ 0 en esos casos. Demostraci´n. Observar que cualquier β con d(β) = 0 cumple que d(β) ≤ m − 2. Eso hace o innecesario estudiar los casos en que r ≤ 2, en particular si n ≤ 2 o m ≤ 2. Asumamos entonces que n , m ≥ 3. Probaremos la la Eq. (13.67) por inducci´n en k, asumiendo que A o cumple la condici´n (13.68). Cuando k = 1, la Eq. (13.67) es cierta porque d(β) = 0 para o cualquier β ∈ Q1,m . Supongamos que se cumple la Eq. (13.67) para todos los j < k pero no para k. Luego deben existir un β ∈ Qk,m y un α ∈ Qk,n tales que εk det A[α|β] < 0 , (13.69) y que d(β) es el m´ ınimo para los β que cumplen tal cosa. En particular tenemos que l = d(β) > m − r . (13.70) Afirmamos el tal β cumple que para todo p ∈ β tal que β1 < p < βk , debe pasar que / ap ∧ aβ2 ∧ · · · ∧ aβk−1 = 0 . (13.71) En el caso k = 2 esto ser´ que ap = 0. Observar que si (13.71) fuera cierta, tendr´ ıa ıamos que dim Gen {aj : β1 ≤ j ≤ βk } ≤ k, y estamos considerando k + l columnas. Por lo tanto r = rk A ≤ m − l, lo que contradir´ la Eq. (13.70). Esta contradicci´n mostrar´ que la Eq. ıa o ıa (13.67) es v´lida para d(β) = k. a As´ que vamos a por la f´rmula (13.71): Para esto fijemos un p como antes, y llamemos ı o τ = {β2 , β3 , . . . , βk−1 }. Una reformulaci´n de (13.71) es decir que para todo tal p vale que el o rk(A[−|τ ∪ {p}] ) ≤ k − 2. Dado ω ∈ Qk−1,n , con ω ⊆ α, el Lema 13.8.1 nos dice que det A[ω|τ ∪ {p}] det A[α|τ ∪ {β1 , βk }] = det A[ω|τ ∪ {βk }] det A[α|τ ∪ {β1 , p}] + det A[ω|τ ∪ {β1 }] det A[α|τ ∪ {p, βk }] (13.72) Como τ ∪ {β1 , βk } = β, d(τ ∪ {β1 , p}) ≤ l − 1 y d(τ ∪ {p, βk }) ≤ l − 1, se sigue de la Eq. (13.69), la hip´tesis inductiva y la propiedad minimal de l que la identidad arriba mencionada o s´lo puede ser v´lida cuando o a det A[ω|τ ∪ {p}] = 0 , para todo ω ∈ Qk−1,n , ω ⊆ α , (13.73) pues el lado derecho de la igualdad (13.72) tiene signo εk−1 εk (o 0) y en el izquierdo hay, por hip´tesis, un factor cumple que εk det A[α|β] < 0 y el otro εk−1 det A[ω|τ ∪ {p}] ≥ 0. o Por otro lado, si k ≥ 3, al calcular det A[α|β] = 0 v´ la Eq. (13.63), vemos que existe un ıa γ ∈ Qk−2 ,n tal que γ ⊆ α y det A[γ|τ ] = 0. Luego, para probar que rkA[−|τ ∪ {p}] ≤ k − 2,
  • 296. 13.8 Ap´ndice: La prueba del criterio clave e 281 ser´ suficiente mostrar que todo vector fila de A[−|τ ∪ {p}] es una combinaci´n lineal de los ıa o vectores fila con ´ ındices en γ, o equivalentemente que det A[γ ∪ {q}|τ ∪ {p}] = 0 , para todo q ∈ In γ . (13.74) En el caso k = 2 el tal γ = ∅ (al igual que τ ), pero es claro que (13.74) equivale a que ap = 0, y el resto de la cuenta funciona. Cuando q ∈ α, (13.74) se deduce de la Eq. (13.73), ya que γ ∪ {q} ∈ Qk−1,n y est´ dentro de α. Fijemos ahora un q ∈ α. Sean µ = {µ1 , µ2 , µ3 } = a / (α γ) ∪ {q}, y ν = {β1 , p, βk }. Consideremos la matriz B ∈ M3 (R) dada por bij = det A[γ ∪ {µi }|τ ∪ {νj }] , para i , j ∈ I3 . Entonces por hip´tesis inductiva todos los bij tienen el mismo signo εk−1 y, por la Identidad o de Sylvester (13.64), todos los subdeterminantes de matrices 2 × 2 de B[−|1) y B[−|3) tienen el mismo signo εk−2 εk . Por otro lado, la Eq. (13.73) implica que bi,2 = 0 siempre que µi = q. Luego la Eq. (13.74) equivale a que C2 (B) = b2 = 0. Si q = µ1 , tendr´ ıamos   det A[γ ∪ {q}|τ ∪ {β1 }] det A[γ ∪ {q}|τ ∪ {p}] det A[γ ∪ {q}|τ ∪ {βk }] B =  det A[γ ∪ {µ2 }|τ ∪ {β1 }] 0 det A[γ ∪ {µ2 }|τ ∪ {βk }]  , det A[γ ∪ {µ3 }|τ ∪ {β1 }] 0 det A[γ ∪ {µ3 }|τ ∪ {βk }] con todas las entradas del mismo signo. Si b2 = 0, las condiciones anteriores s´lo son consis- o tentes cuando b2,1 = b3,1 = 0 o bien b2,3 = b3,3 = 0. Esto es as´ porque los de la izquierda ı producen determinantes (de 2 × 2) de un signo y los de la derecha del signo contrario, cosa solo permitida si del lado malo (el signo que no concuerda con εk−2 εk ) son ambos cero. En el caso de que q = µ3 pasa lo mismo (b1,1 = b2,1 = 0 o bien b1,3 = b2,3 = 0). ıamos que, si α γ = {a1 a2 }, entonces Aplicando nuevamente la Eq. (13.64) tendr´ det A[γ ∪ {a1 }|τ ∪ {β1 }] det A[γ ∪ {a1 }|τ ∪ {βk }] det = det A[α|β] det A[γ|τ ] (13.75) det A[γ ∪ {a2 }|τ ∪ {β1 }] det A[γ ∪ {a2 }|τ ∪ {βk }] es nulo, mientras que det A[γ|τ ] = 0. Llegamos a que det A[α|β] = 0, lo que no vale. Supongamos ahora que q = µ2 . Queda   det A[γ ∪ {µ1 }|τ ∪ {β1 }] 0 det A[γ ∪ {µ1 }|τ ∪ {βk }] B =  det A[γ ∪ {q}|τ ∪ {β1 }] det A[γ ∪ {q}|τ ∪ {p}] det A[γ ∪ {q}|τ ∪ {βk }]  , det A[γ ∪ {µ3 }|τ ∪ {β1 }] 0 det A[γ ∪ {µ3 }|τ ∪ {βk }] Ahora debe pasar que, si b22 = 0, entonces b1,1 = b3,3 = 0 o bien b1,3 = b3,1 = 0. Esto sale porque det B[1, 2|1, 2] y det B[1, 2|2, 3] deben tener signo εk−2 εk , pero deber´ ser opuestos, ıan porque todos los bij tienen el mismo signo. Si por ejemplo el malo es el de la derecha, debe pasar que b1,3 = 0. Y la misma idea obligar´ a que b3,1 = 0, por lo que B tendr´ una diagonal ıa a con tres tipos del mismo signo. Pero en tal caso, la matriz de (13.75), que es B[1, 3|1, 3], ser´ ıa diagonal y su determinante tendr´ signo εk−2 εk , por lo que el de det A[α|β] ser´ εk . Minga. ıa ıa En el caso opuesto (b1,1 = b3,3 = 0), un razonamiento semejante lleva a la misma conclus´n o
  • 297. 282 Matrices totalmente positivas absurda. As´ b2 = 0, lo que establece la validez de la Eq. (13.71). Ya hab´ ı ıamos visto que ello muestra que la Eq. (13.67) es v´lida para d(β) = k, lo que completa la inducci´n. a o Recordemos el enunciado del Teorema 13.1.5: Teorema 13.1.5 Sean A ∈ Mn,m (R) y ε una sucesi´n de signatura. o 1. Para que A sea ε-ERS es suficiente que, para todo k ∈ Im´ ın(n,m) , εk det A[α|β] > 0 para α ∈ Qk,n , β ∈ Qk,m tales que d(α) = d(β) = 0 . 2. En particular, A es ETP si det A[α|β] > 0 es esos casos. Demostraci´n. Probemos las desigualdades o εk det A[α|β] > 0 para α ∈ Qk,n , β ∈ Qk,m , k ∈ Im´ ın(n,m) , (13.76) por inducci´n en k. Cuando k = 1, esto es trivial porque d(α) = d(β) = 0 para α ∈ Q1,n y o β ∈ Q1,m . Asumamos que la Eq. (13.76) es cierta con k − 1 en lugar de k. Primero fijemos un α ∈ Qk,n con d(α) = 0, y probemos la Eq. (13.76) para este α por inducci´n en l = d(β). o Cuando l = 0, esto se sigue de la hip´tesis del teorema. Supongamos que εk det A[α|γ] > 0 o siempre que γ ∈ Qk,m y d(γ) ≤ l − 1. Sea β ∈ Qk,m con d(β) = l. Entonces existe p tal que β1 < p < β k , d(τ ∪ {β1 , p}) ≤ l − 1 y d(τ ∪ {p , βk }) ≤ l − 1 , donde τ = {β2 , . . . , βk−1 }. Se sigue de la Eq. (13.65), como en la Eq. (13.72) de la prueba del Teorema 13.1.4, det A[ω|τ ∪ {p}] det A[α|τ ∪ {β1 , βk }] = det A[ω|τ ∪ {βk }] det A[α|τ ∪ {β1 , p}] + det A[ω|τ ∪ {β1 }] det A[α|τ ∪ {p, βk }] para cualquier ω ∈ Qk−1 ,n tal que ω ⊆ α. Usando las dos hip´tesis inductivas vemos que o el lado de la derecha es no nulo con signo εk−1 εk , mientras que det A[ω|τ ∪ {p}] en el lado izquierdo es no nulo con signo εk−1 . Por lo tanto la igualdad es consistente s´lo cuando o εk det A[α|β] > 0. Esto prueba la Eq. (13.76) para los α ∈ Qk,n con d(α) = 0. Luego fijamos cualquier β ∈ Qk,m y hacemos una inducci´n similar sobre l = d(α), dado que el caso d(α) = 0 o es lo que probamos antes. Hay que usar la Eq. (13.65) para filas, que se deduce de la usual tomando traspuestas de las matrices involucradas. As´ podemos concluir que la Eq. (13.76) ı es cierta en general. 13.9 Ejercicios 13.9.1. Sea A ∈ Mn (R) triangular inferior. Entonces es TP si se verifica que det A[α|1, 2, . . . , k] > 0 para cada k ∈ In y cada α ∈ Qk,n con d(α) = 0 .
  • 298. 13.9 Ejercicios 283 13.9.2. Sea A ∈ Mn (R) tal que A es de Jacobi y A 0 (entradas positivas). Probar que exite un ξ ∈ R tal que ξ I + A es TP. 13.9.3. Sea A ∈ Mn (R) la matriz del Ejemplo 11.2.15. Porbar que, si λ ∈ R, entonces λI + A es TP ⇐⇒ λ≥1. Cotejar las propiedades de sus autovalores y autovectores con los resultados desarrollados en las secciones 13.5 y 13.6. 13.9.4. Probar detalladamente el Teorema 13.2.1 que dec´ ıa: Sean A ∈ Mn,m (R) y B ∈ Mm,l (R). Probar que entonces 1. Si A es εA -RS y B es εB -RS, el producto AB es ε-RS, con ε = εA · εB . 2. En este caso, AB se convierte en ε-ERS si (a) A es εA -ERS y rk B = l, o si (b) rk A = n y B es εB -ERS. 3. Si A y B son ETP, tambien lo es AB. 13.9.5. Si dos n´cleos L, M : Γ → Λ son TPs y dσ(·) es una medida positiva en Γ, entonces u K(u, v) := L(s, u)M (s, v)dσ(s) , para u, v ∈ Λ , es un n´cleo TP. u (13.77) T Se sugiere replantearlo para que se pueda deducir del Teorema 13.2.1, en principio para medidas concentradas en finitos ´tomos. a 13.9.6. Verificar la veracidad de los otros 4 + 10 items del apartado 13.7.1, donde se muestran los m´s interesantes ejemplos de matrices TP. a
  • 299. 284 Matrices totalmente positivas
  • 300. Bibliograf´ ıa Libros [1] A. Benedek y R. Panzone; La matriz positiva y su espectro, Informe T´cnico e interno No.86, INMABB, Bah´ Blanca, 2003. ıa [2] G. Golub y C. F. Van Loan, Matrix computations (Third edition) Johns Hopkins Studies in the Mathematical Sciences, Johns Hopkins University Press, Balti- more, MD, 1996. [3] R. Bhatia; Matrix Analysis, Springer, New York, 1997. [4] R. Bhatia; Positive Definite Matrices, Princeton Series in Applied Mathematics, Princeton University Press, 2006. [5] O. Cordes, Spectral theory of linear differential operators and comparison alge- bras, London Mathematical Society Lecture Note Series, 76. Cambridge Univer- sity Press, Cambridge, 1987 [6] K. Hoffman y R. Kunze, Linear algebra, Prentice-Hall Mathematics Series, Prentice-Hall, Inc., Englewood Cliffs, N.J. 1961. [7] R. Horn y C. Johnson; Matrix Analysis, Cambridge University Press, Cambridge, 1985. [8] R. Horn y C. Johnson; Topics in Matrix Analysis, Cambridge University Press, Cambridge, 1991. [9] T. Kato, Perturbation theory for linear operators, Reprint of the 1980 edition, Classics in Mathematics, Springer-Verlag, Berlin, 1995. [10] P. D. Lax, Linear Algebra, Springer Verlag, Berl´ 1998. ın, [11] L. Mirsky, An introduction to Linear Algebra, Clarendon Press, Oxford, 1963. [12] M. L. Metha, Matrix Theory, 2a Ed., Hindustan Publishing Co. 1989.
  • 301. 286 BIBLIOGRAF´ IA [13] R. Bellman, Introduction to Matrix Analysis, 2a Ed., McGraw-Hill, New York, 1970. [14] W. F. Donoghue, Jr., Monotone matrix functions and analytic continuation, Springer-Verlag, Berl´ 1974. ın, [15] A. W. Marshall and I. Olkin, Inequalities: Theory of Mayorization and its Ap- plications, Academic Press, New York, 1979. [16] B. Simon, Trace ideals and their applications, London Mathematical Society Lec- ture Note Series, 35, Cambridge University Press, Cambridge-New York, 1979. Papers [17] T. Ando; Structure of Operators with Numerical Radius One, Acta Sci. Math (Szeged) 34 (1973), 11-15. [18] T. Ando; Unitarily invariant norms related to the numerical radius, Linear Al- gebra and its Applications, In Press, Corrected Proof, Available online 22 April 2005. [19] T. Ando; Matrix Young inequalities, Operator theory in function spaces and Banach lattices, 33–38, Oper. Theory Adv. Appl., 75, Birkh¨user, Basel, 1995. a [20] T. Ando, Totally positive matrices, Linear Algebra Appl. 90 (1987), 165-219. [21] H. Araki On an inequality of Lieb and Thirring, Lett. Math. Phys. 19 (1990), no. 2, 167-170. [22] R. Bhatia y C. Davis, More matrix forms of the arithmetic-geometric mean in- equality, SIAM J. Matrix Anal. Appl. 14 (1993), no. 1, 132–136. [23] J. L. Dalecki˘ S. G. Kre˘ Formulas of differentiation according to a parameter ı, ın, of functions of Hermitian operators, (Russian) Doklady Akad. Nauk SSSR (N.S.) 76, (1951). 13–16. [24] J. L. Dalecki˘ S. G. Kre˘ Integration and differentiation of functions of Hermi- ı, ın, tian operators and applications to the theory of perturbations, (Russian) Voroneˇ. z Gos. Univ. Trudy Sem. Funkcional. Anal. 1956 (1956), no. 1, 81–105. [25] M. C. Gonz´lez; Relaciones de Mayorizaci´n para el Producto de Hadamard, a o Tesis de licenciatura, Depto. Mat. FCEA-UNC, Neuqu´n, 2003. e [26] O. Hirzallah and F, Kittaneh, Matrix Young inequalities for the Hilbert-Schmidt norm, Linear Algebra Appl. 308 (2000), 77-84. [27] C.R. Johnson, C.K. Li, Inequalities relating unitarily invariant norms and the numerical radius, Linear and Multilinear Algebra 23 (1988) 183-191.
  • 302. BIBLIOGRAF´ IA 287 [28] Chi-Kwong Li; R. Mathias The Lidskii-Mirsky-Wielandt theorem - additive and multiplicative versions, Numer. Math. 81 (1999), no. 3, 377–413. [29] V. I. Paulsen, S. C. Power and R.R. Smith, Schur products and matrix comple- tions, J. Funct. Anal. 85 (1989), 151-178. [30] E. L. Pekarev, Shorts of operators and some extremal problems, Acta Sci. Math. (Szeged) 56 (1992), 147-163.
  • 303. ´ Indice alfab´tico e adjunto, 5 H¨lder para matrices, 179 o autovalor, 7 Kittaneh, 168 Oppenheim, 162 base ortonormal, 5 Simon, 185 adaptada, 28 Thompson, 169 Weyl (mayorante de Weyl), 184 c´psula convexa, 97 a Young, 171, 172 complemento de Schur, 56, ver shorted , determinante, 2, 137, 140, 147, 161, 230, 232 234 completaci´n, 157 o diagonales de una matriz, 78 compresi´n, 121 o diferencial, 113 conjunto dispersi´n, 244 o ortogonal, 4, 5 c´lculo funcional, 109 a espacio de Hilbert, 4 derivada, ver diferencial espectro, 7 direccional, 113 parcial, 113 f´rmula o descomposici´no Cauchy-Binnet, 141 polar, 41 Daleki˘ y Kre˘ 115 ıi ın, valores singulares, 41 del radio espectral, 48 desigualdad Lie-Trotter, 187 Ando-Johnson-Bapat, 195 minimax, 31 Araki, 190 factorizaci´n o aritm´tico-geom´trica, 161, 171 e e Cholewsky, 41 Aronszajn, 33, 36 LU, 24, 252 Cauchy-Schwarz para matrices, 200 QR, 19, 20, 25, 162 Corach-Porta-Recht, 169 UL, 24, 252 Cordes, 189 funcional, 155 Fisher, 163 adjunta, 155 Golden-Thompson, 193 autoadjunta, 155 Hadamard, 161, 165 positiva, 155 Hirzallah-Kittaneh, 175 funci´n o Horn, 185 convexa, 74
  • 304. ´ ´ INDICE ALFABETICO 289 convexa de operadores, 120 triangular inferior, 10 c´ncava de operadores, 120 o triangular superior, 10 diferencial, ver diferencial unitaria, 6 gauge sim´trica, 91 e mayorizaci´n, 68 o mon´tona de operadores, 115 o conjunta, 107 d´bil (submayorizaci´n), 67 e o g-inversa reflexiva, 62 de matrices, 94 medias de operadores, 196 identidad menor, ver submatriz de Jacobi, 234 m´dulo de una matriz, 41 o de Sylvester, 237, 278 m´dulo m´ o ınimo reducido, 62 k-potencia exterior, 139 n´cleo, 4 u k-tensor alternado, 136 norma, 4 k-tensor elemental, 136 dual, 107 k-tensor sim´trico elemental, 148 e espectral, 8 Frobenius, 8 matrices Ky-Fan, 45 similares, 8 matricial, 46 unitariamente equivalentes, 9 unitariamente invariante, 46, 91 matriz unitariamente invariante d´bil, 103 e anti-hermitiana, 6 n´cleos totalmente positivos, 274 u con entradas positivas, 68 de Jacobi (tridiagonal), 246 operador de permutaci´n, 69 o anti-hermitiano, 5 de signo estrictamente regular, 244 de multiplicaci´n, 153 o de signo regular, 243 definido positivo, 5 definida positiva, 6 hermitiano, 5 diagonal dominante, 38 normal, 5 doblemente estoc´stica, 69 a semidefinido positivo, 5 esencialmente no-negativas, 230 unitario, 5 estrictamente totalmente positiva, 244 orden estrictamente triangular inferior, 10 espectral: , 181 estrictamente triangular superior, 10 estrella ≤* , 65 fuertemente conexa, 224 mayorizaci´n d´bil: w , 67 o e hermitiana, 6, 29 mayorizaci´n: o , 67 identidad, 1 por entradas: , 68, 73, 215 incompleta, 157 usual: ≤ , 39 inversible, 2 normal, 6, 27 parte real de una matriz, 167 primitiva, 222 permanente, 148 reducible, 224 pinching, 95, 98, 99, 103, 250 semidefinida positiva, 6 polarizaci´n, 6 o totalmente positiva, 244 polinomio caracter´ıstico, 2 traspuesta, 1 primera diferencias dividida, 113
  • 305. 290 ´ ´ INDICE ALFABETICO producto Ky Fan Re µ(A) µ(Re A), 167 alternado, 136 Ky Fan (Caracterizaci´n de NUIs), 93 o de Hadamard, 50, 151 L¨wner, 117 o de Kronecker, 132, 133 Lidskii, 99 sim´trico, 147 e Marcus-Sandy, 210 simetrizado, 168 Parrot, 61 pseudoinversa, 62 Perron, 216 de Moore-Penrose, 62 Perron-Frobenius, 225 Schur-Horn, 86 radio espectral, 8 Weyl: λj (A) + λ1 (B) ≤ λj (A + B), radio num´rico, 8, 98, 203 e 32 raiz cuadrada de una matriz, 41 Weyl: µ(A + B) µ(A) + µ(B), 85 rango num´rico, 203 e traza, 2 regla de Cramer, 235 valores singulares, 41 shorted, 56 Vandermonde, 147, 245, 274 signo de una permutaci´n, 232 o variaci´n de signos, 259 o sistema de proyectores, 49, 95 vector subespacio de Perr´n, 221 o ortogonal, 4 ortogonal, 4 submatriz, 33 ortonormal, 5 principal, 33 unitario, 4 submayorizaci´n, 68 o sucesi´n de signatura, 243 o supramayorizaci´n, 68 o Teorema 1 de Schur: A = U T U ∗ , 15 2 de Schur: A ◦ B ∈ Mn (C)+ , 50 3 de Schur: d (A) µ(A), 84 4 de Schur: KA = m´x Aii , 154 a i∈In 5 de Schur: per A ≥ det A, 149 Ando, (radio num´rico), 209 e Birkhoff (extremales de DS (n) ), 79 Courant-Fischer (minimax), 31 entrelace de Cauchy, 33 Fan-Hoffman, 167 Haagerup, 160 Hahn Banach, 157, 165 Hall (de los casamientos), 77 Hamilton-Cayley, 18 Hausdorff T¨eplitz, 204 o Johnson-Li, 211 K¨nig-Frobenius, 78 o
  • 306. Notaciones y abreviaturas Se enumeran las principales notaciones y abreviaturas del libro, por orden de aparici´n: o Cap´ ıtulo 1 In = {1, 2, . . . , n}. R+ = {x ∈ R : x ≥ 0} y R∗ = {x ∈ R : x > 0}. + Mn (C) = Cn×n y Mn,m (C) = Cn×m Mn (R) = Rn×n y Mn,m (R) = Rn×m Gl (n) = {A ∈ Mn (C) : A es inversible } PA (x) = det(xI − A) ∈ C[x] es el polinomio caracter´ ıstico de A ∈ Mn (C). Pn tr A = Aii para una A ∈ Mn (C). i=1 Ci (A) = (a1i , a2i , . . . , ani ) ∈ Cn es la i-´sima columna de A ∈ Mn,m (C). e Fj (A) = (aj1 , aj2 , . . . , ajm ) ∈ Cn es la j-´sima fila de A ∈ Mn,m (C). e d (A) = (A11 , . . . , Ann ) ∈ Cn , la diagonal de A ∈ Mn (C). 2 3 a1 0 0 6. .. . 7 diag (a) = diag (a1 , . . . , an ) = 6 . 4. . . 7 ∈ Mn (C) , para a ∈ Cn . . 5 0 0 an (m) (m) Em = {e1 , . . . , em } es la base can´nica de Cm . o n P (n) n 1 = 1n = ek = (1, . . . , 1) ∈ C . k=1 En = 1n 1n ∈ Mn (C)+ , la matriz de puros unos. Gen {X} = Gen {x1 , . . . , xm } es el subespacio generado por X = {x1 , . . . , xm }. ker A = {x ∈ Cm : Ax = 0} y R(A) = A(Cm ) = Im(A) ⊆ Cn , para A ∈ Mn,m (C). rk(A) = dim R(A) = dim Gen {C1 (A), . . . , Cm (A) }, para A ∈ Mn,m (C). n xk yk , x, y ∈ Cn . P x, y = k=1 „ n «1/2 x = x 2 = x, x 1/2 = |xk |2 para x ∈ Cn . P k=1 L(H, K) es el espacio de operadores lineales de H en K (dos espcios de Hilbert).
  • 307. 292 NOTACIONES Y ABREVIATURAS BON : base ortonormal. A∗ = AT ∈ Mm,n (C) la adjunta de A ∈ Mn,m (C) . H(n) = {A ∈ Mn (C) : A = A∗ }, matrices autoadjuntas. U(n) = {U ∈ Mn (C) : U ∗ U = I}, matrices unitarias. N (n) = {N ∈ Mn (C) : N ∗ N = N N ∗ }, matrices normales. Mn (C)+ = {A ∈ Mn (C) : A ≥ 0} ⊆ H(n), semidefinidas positivas. Gl (n)+ = {A ∈ Mn (C) : A > 0} = Gl (n) ∩ Mn (C)+ , definidas positivas. σ (A) = {λ ∈ C : ker(A − λI) = {0} }, el espectro de A ∈ Mn (C). λ(A) = (λ1 (A), . . . , λn (A) ) los n autovalores (con multiplicidad) de A ∈ Mn (C). w(A) = m´x{ | Ax, x | : x ∈ Cn , a x = 1 } , el radio num´rico de A ∈ Mn (C). e ρ(A) = m´x{ |λ| : λ ∈ σ (A)}, el radio espectral de A ∈ Mn (C). a A sp = m´x{ Ax : x ∈ Cn , x = 1} = m´ a ın{C ≥ 0 : Ax ≤ C x , x ∈ Cn } . n 2 |aij |2 = tr(A∗ A), la norma Frobenius de A ∈ Mn (C). P A 2 = i,j=1 A ∼ B (unitariamente equivalentes) si existe U ∈ U (n) = tal que A = U ∗ BU . T S(n) = { T ∈ Mn (C) : Tij = 0 para i ≥ j} las triangulares superiores. A[I|J] = AIJ = (Arl )r∈I ∈ Mk, m (C) , para A ∈ Mn (C), I, J ⊆ In con |J| = k, |K| = m. l∈J A[I|J) = A[I|In J] y A(I|J] = A[In I|J]. Ar = A({r}) = {aij }i=r=j ∈ Mn−1 (C) , para A ∈ Mn (C) y r ∈ In . QR es la factorizaci´n A = QR con Q ∈ U (n) y R ∈ T S(n) tal que Rjj ≥ 0, para todo j ∈ In . o x y = xy ∗ = (xi yj ) i∈In ∈ Mn,m (C), para x ∈ Cn e y ∈ Cm . j∈Im Sn = {σ : In → In biyectiva } , el n-grupo simetrico. LA y RB : Mn (C) → Mn (C) dadas por LA (X) = AX y RB (X) = XB , para X ∈ Mn (C). Cap´ ıtulo 2 λ(A) ∈ Rn es el vector creciente de autovalores de A ∈ H(n). µ(A) ∈ Rn es el vector decreciente de autovalores de A ∈ H(n). λm´ (A) = λ1 (A) = µn (A) = m´ σ (A) ın ın y λm´x (A) = λn (A) = µ1 (A) = m´x σ (A) . a a Cap´ ıtulo 3 B ≤ C ⇐⇒ B x , x ≤ C x , x para todo x unitario en Cn (con B, C ∈ H(n) ). M1 = {x ∈ M : x = 1} para un subespacio M ⊆ Cn . PS ∈ Mn (C) es la proyecci´n ortogonal sobre un subespacio S ⊆ Cn . o ˛ AS = PS APS ˛ ∈ L(S) , la compresi´n de A ∈ Mn (C) a un subespacio S ⊆ Cn . o S A[k] = A[Ik ] = {aij }i,j∈Ik ∈ Mk (C) y A(k) = A(Ik ) = {aij }i,j>k ∈ Mn−k (C) , ambos para A ∈ Mn (C) y k ∈ In . A1/2 ∈ Mn (C)+ es la raiz cuadrada de A ∈ Mn (C)+ .
  • 308. NOTACIONES Y ABREVIATURAS 293 |A| = (A∗ A)1/2 , el m´dulo de A ∈ Mn (C). o si (A) = µi (|A|) = µi (A∗ A)1/2 , los valores singulares de A ∈ Mn (C), para i ∈ In . s(A) = (s1 (A), . . . , sn (A) ) = µ(|A|) ∈ Rn y + Σ(A) = diag (s(A) ) ∈ Mn (C)+ , para A ∈ Mn (C). A = U |A| = |A∗ |U es una descomposici´n polar de A ∈ Mn (C) si U ∈ U (n). o A = W Σ(A)V ∗ es una descomposici´n en valores singulares de A ∈ Mn (C) si W, V ∈ U (n). o |A|+A A+ = 2 y A− = |A|−A son las partes positiva y negativa de A ∈ H(n). 2 „ n «1/p p = (tr |A|p )1/p (norma de Schatten) para A ∈ Mn (C) y 1 ≤ p < ∞. P A p = si (A) i=1 Pk A (k) = si (A) (norma de Ky Fan) para A ∈ Mn (C) y k ∈ In . i=1 |||A|||N = m´x N (Ax) la norma matricial inducida en Mn (C) por una norma N en Cn . a ` N (x)=1 ´ A ◦ B = aij bij i∈I ∈ Mn,m (C) el producto de Hadamard (o Schur) de A, B ∈ Mn,m (C) . n " # j∈Im " # 0 A ∼ Σ(A) 0 Ab= = ∈ H(2n) para A ∈ Mn (C). A∗ 0 0 −Σ(A) M(A, S) = {D ∈ Mn (C)+ : D ≤ A y R(D) ⊆ S} para A ∈ Mn (C)+ . Σ (A, S) = m´x M(A, S) el shorted de A ∈ Mn (C)+ a un subespacio S ⊆ Cn . a ≤ A† la seudoinversa de Moore-Penrose de A ∈ Mn (C). ın Ax : x ∈ ker A⊥ x = 1 el m´dulo m´ ˘ ¯ γ(A) = m´ o ınimo de A ∈ Mn (C). x, y A = Ax, y para A ∈ Mn (C)+ y x , y ∈ Cn . P(A, S) = {Q ∈ Mn (C) : Q2 = Q, AQ = Q∗ A y R(Q) = S} para A ∈ Mn (C)+ . A ≤* B si BA∗ = AA∗ y B ∗ A = A∗ A (orden ∗), para A, B ∈ Mn (C). Cap´ ıtulo 4 x↓ y x↑ los reordenados de x ∈ Rn en forma decreciente y creciente. n xi , para x ∈ Cn . P tr x = x, 1 = j=1 x y si y ∈ Rn mayoriza a x ∈ Rn . w x w y (resp. x y) si y ∈ Rn submayoriza (supramayoriza) a x ∈ Rn . A B si Aij ≥ Bij para todo par i ∈ In , j ∈ Im , con A, B ∈ Mn,m (R). x y si xi ≥ yi para todo i ∈ In , con x, y ∈ Rn . |x| = (|x1 |, . . . , |xn |), para x ∈ Rn . DS (n) = {A ∈ Mn (C) : A 0 , tr Fi (A) = 1 y tr Ci (A) = 1 para todo i ∈ In }. xσ = (xσ(1) , . . . , xσ(n) ), para σ ∈ Sn y x ∈ Cn . Pσ ∈ U (n) la matriz de permutaci´n dada por Pσ x = xσ , para σ ∈ Sn y x ∈ Cn . o UP (n) = {Pσ : σ ∈ Sn } ⊆ U(n). I denota un intervalo en R. f (x) = (f (x1 ), . . . , f (xn ) ) ∈ Rn , para una funci´n f : I → R, y un vector x ∈ In . o
  • 309. 294 NOTACIONES Y ABREVIATURAS ∗ x y log-mayorizaci´n (con productos), para x, y ∈ R+ n (x, y > 0). o log x w y log-mayorizaci´n d´bil, para x, y ∈ Rn . o e + log Cap´ ıtulo 5 Pk (n) = {P ∈ H(n) : P 2 = P y rk(P ) = k}, los proyectores ortogonales de rango k, para k ∈ In . Uk (n) = {U ∈ Mn,k (C) : U ∗ U = Ik }, el espacio de isometr´ de Ck en Cn . ıas NUI : norma unitariamente invariante. gN : Cn → R+ dada por gN (x) = N (diag (x) ) para N una NUI en Mn (C) y x ∈ Cn . fgs : funci´n gauge sim´trica. o e A B si µ(A) µ(B), para A, B ∈ H(n). CP (A) = P AP + (I − P )A(I − P ) el pinching de A ∈ Mn (C) por P ∈ Pk (n). Pr CP (A) = Pi APi el pinching de A por el sistema de proyectores P = {P1 , . . . , Pr } ⊆ H(n). i=1 n P m o conv [C] = λk bk : m ∈ N, bk ∈ C, λ ∈ Rm y λ (1, 0, . . . , 0) , la c´psula convexa de C. a k=1 U(A) = {U AU ∗ : U ∈ U (n)} = {B ∈ H(n) : µ(B) = µ(A)}, la orbita unitaria de A ∈ H(n). ´ NDUI : norma d´bilmente unitariamente invariante. e Cap´ ıtulo 6 ˘ ¯ HI (n) = A ∈ H(n) : σ (A) ⊆ I . f (A) : el c´lculo funcional de A ∈ HI (n) por f : I → R. a ∞ P Am A e = exp(A) = m! , la exponencial de A ∈ Mn (C). m=0˘ ¯ f − g I, ∞ := sup |f (t) − g(t)| : t ∈ I . f [1] (x, y) es la primera diferencia dividida de una funci´n f : I → R de clase C 1 . o Dgx0 ∈ Mmn (C) es la derivada o diferencial de g : U ⊆ Rn → Rm (U abierto) en x0 ∈ U . ` ´ f • γ(t) = f γ(t) es la composici´n de una curva γ y el c´lculo funcional por f . o a MOP : funci´n mon´tona de operadores. o o ∪OP : funci´n convexa de operadores. o ∩OP : funci´n c´ncava de operadores. o o Cap´ ıtulo 7 Hn = Cn con su producto interno. Hn ⊗ Hk = { funcionales F : Hn × Hk → C bilineales } el producto tensorial. x ⊗ y = xy T ∈ Hn ⊗ Hk es el tensor elemental, dado por x ⊗ y(u, v) = u, x v, y , u ∈ Hn , v ∈ Hk . (n) (k) En,k = {ei ⊗ ej : i ∈ In , j ∈ Ik } ∼ {Eij ∈ Mn,k (C) : i ∈ In , j ∈ Ik }, la BON de Hn ⊗ Hk . A ⊗ B(x ⊗ y) = Ax ⊗ By , x ∈ Hn , y ∈ Hk , con A ∈ L(Hn ) y B ∈ L(Hk ).
  • 310. NOTACIONES Y ABREVIATURAS 295 2 3 a11 B ... a1n B 6 . . .. . 7 . 7 ∈ Mnk (C), el producto de Kroneker de A ∈ L(Hn ) y B ∈ L(Hk ). A⊗B =4 6 . . . 5 an1 B ... ann B Nk Hn es el espacio k-tensorial sobre Hn , el producto tensorial de Hn por s´ mismo k veces. ı x1 ⊗ · · · ⊗ xk (u1 , · · · , uk ) = k Q i=1 ui , xi , los k-tensores elementales. Nk Nk Nk Nk A: Hm → Hn , la potencia k-tensorial de A, dada por A (x1 ⊗ · · · ⊗ xk ) = Ax1 ⊗ · · · ⊗ Axk . (n) (n) Pπ ∈ U ( k Hn ) dado por Pπ (F ) (x1 , · · · , xk ) = F (xπ(1) , · · · , xπ(k) ), para π ∈ Sn . N Nk (n) Λk Hn = F ∈ ˘ ¯ Hn : Pπ F = sgn(π) F para toda π ∈ Sk , el espacio k-alternado sobre Hn . Pn = 1 sgn(π) , la proyecci´n ortogonal de k Hn sobre Λk Hn . P N k k! o π∈ Sk x1 ∧ · · · ∧ xk = Pn (x1 ⊗ . . . ⊗ xk ) = k! 1 P k sgn(π) xπ(1) ⊗ · · · ⊗ xπ(k) , el k tensor alternado. π∈ Sk Λk A ∈ L(Λk Hn , Λk Hm ) dado por Λk A (x1 ∧ · · · ∧ xk ) = Ax1 ∧ · · · ∧ Axk , k-potencia alternada de A. Qk,n = α = (α1 , α2 , · · · , αk ) ∈ Ik : 1 ≤ α1 < α2 < · · · < αk ≤ n ∼ {J ⊆ In : |J| = k}. ˘ ¯ n α = In α ∈ Qn−k,n , el complemento de un α ∈ Qk,n . (n) ∧ (n) (n) (n) e∧ = eα α = eα1 ∧ eα2 ∧ · · · ∧ eαk ∈ Λk Hn , para α ∈ Qk,n . √ ∧ Ek,n = { k! e∧ : α ∈ Qk,n }, la BON de Λk Hn . α n aj,σ(j) = Λn A, para A ∈ Mn (C). P Q det A = sgn(σ) σ∈ Sn j=1 P n Q per A = aj,σ(j) ∈ C , la permanente de A. σ∈ Sn j=1 2 3 n−1 1 t1 . . . t1 . . . tn−1 7 6 7 “ ” 6 1 t2 2 V (t) = tj−1 =6 . n . 7 ∈ Mn (C), el Vandermonde de t = (t1 , . . . , tn ) ∈ C . 6 7 i i,j∈In 6 . . . . 7 4 . . ... . 5 n−1 1 tn . . . tn Cap´ ıtulo 8 C(A) = m´x Ci (A) a y F (A) = m´x Fi (A) 2 , para A ∈ Mn,m (C). 2a i ∈ Im ˘ ∈ In i ¯ KN (A) = m´x N (A ◦ B) = m´ k : N (A ◦ B) ≤ k N (B) , B ∈ Mn (C) , con N norma en Mn (C). a ın N (B)=1 KA = K · sp (A), para A ∈ Mn (C). ϕ∗ la adjunta de una funcional ϕ : S ⊆ Mn (C) → C, dada por ϕ∗ (A) = ϕ(A∗ ), A ∈ S. ϕB : Mn (C) → C dada por ϕB (A) = A, B = tr(AB ∗ ), con B ∈ Mn (C). ˘ ¯ SJ = C ∈ Mn (C) : cij = 0 para todo (i, j) ∈ J , para J ⊆ In × In . / J ⊆ In × In cumple (P) si (i, j) ∈ J =⇒ (j, i) ∈ J y tambi´n (i, i) ∈ J para todo i ∈ In . e 2 3 A ... A 6 . . . 7 A(k) = Ek ⊗ A = 6 . 4 . . . . 7 ∈ Mkn (C), para A ∈ Mn (C). . 5 A ... A
  • 311. 296 NOTACIONES Y ABREVIATURAS Cap´ ıtulo 9 A+A∗ A−A∗ Re A = 2 ∈ H(n) e Im A = 2i , para A ∈ Mn (C). S(A, B) = AB + BA ∈ H(n) es el producto simetrizado de A, B ∈ H(n). C D si C m ≤ Dm , para todo m ∈ N, con C, D ∈ Mn (C)+ . ´1 A ∨ B = lim Ap + B p p = m´ ın C ∈ Mn (C)+ : A C y B , para A, B ∈ Mn (C)+ . ` ˘ ¯ C p→∞ f : Mn (C) → R es clase T si es continua, f (XY ) = f (Y X) y |f (X 2m )| ≤ f ([XX ∗ ]m ), ∀ m, X, Y . A#α B = A1/2 (A−1/2 BA−1/2 )α A1/2 , para α ∈ [0, 1], A, B ∈ Mn (C)+ . A#B = A# 1 B = A1/2 (A−1/2 BA−1/2 )1/2 A1/2 . 2 Cap´ ıtulo 10 W (A) = { Ax, x : x ∈ Cn , x = 1 } es el rango num´rico de A ∈ Mn (C). e Cap´ ıtulo 11 MPn,m = {A ∈ Mn,m (R) : A 0}, matrices de entradas positivas. MEPn,m = {A ∈ Mn,m (R) : A > 0}, matrices de entradas estrictamente positivas. Vn = {(p, q) ∈ I2 : p = q}. n FC : matriz fuertemente convexa. Cap´ ıtulo 12 A/[α|β] = A(α|β) − A(α|β] · A[α|β]−1 · A[α|β) ∈ Mn−k (C), el complemento de Schur de A ∈ Mn (C). k (−1)αi −i = (−1)r con r = tr α − k(k+1) , para un α ∈ Qk,n . Q sgn(α) = 2 i=1 Jn = diag 1, −1, 1, −1, . . . , (−1)n−1 ∈ U (n). ` ´ α sgn α∪ω = sgn(γ), donde γ manda α al principio de α ∪ ω. Cap´ ıtulo 13 ε = (εi )i∈N ∈ {−1, 1}N es una sucesi´n de signatura. o Si τ es otra sucesi´n de signatura, llamaremos τ ε = (τi εi )i∈N . o A es ε-RS si es de signo regular con signatura ε. A es ε-ERS si es estrictamente de signo regular con signatura ε. A es TP si es totalmente positiva, o sea que A es ε-RS respecto de la sucesi´n ε ≡ 1. o A es ETP si es estrictamente totalmente positiva, o sea que A es ε-ERS respecto de la sucesi´n ε ≡ 1. o P d(α) = αk − α1 − (k − 1) = αi+1 − αi − 1 , es la dispersi´n de α ∈ Qk,n . o i∈ Ik−1 LU -factorizaci´n: A = LU con L triangular inferior y U triangular superior. o
  • 312. NOTACIONES Y ABREVIATURAS 297 U L-factorizaci´n: A = U L con L triangular inferior y U triangular superior. o [x1 , . . . , xm ] = X ∈ Mnm (C) si Ci (X) = xi ∈ Cn para cada i ∈ Im . t A B si Λk A Λk B, i.e. det A[α|β] ≥ det B[α|β] para todo k ∈ In y α, β ∈ Qk,n . A es OSC si es TP y una cierta potencia Ap es ETP. V+ (x) la m´xima variaci´n de signos de x ∈ Rn . a o la ınima variaci´” de signos de x ∈ Rn . V− (x)“ m´ on Gp = exp − p (i − j)2 ˆ ˜ ∈ Mn (R). i,j ∈In Hp = d2j−i i,j ∈I ∈ Mn (R) , matriz de Hurwitz p(z) = d0 z n + d1 z n−1 + . . . + dn . ˆ ˜ n