En este post menciono el resto de las demostraciones que encontré o se me ocurrieron para obtener la matriz de la transformación lineal que proyecta sobre un subespacio .

Indice

La demostración más interesante (para mí)

Usando Cuadrados Mínimos

Agarrarse de acá para demostrar esto es como usar un cañon para matar un mosquito (¿cómo le apuntas?) pero lo voy a mencionar por completitud, ya que es la demostración “oficial”.

La siguiente deducción que se puede encontrar en la página 97 del apunte de Muszkats y Pustilnik, nombrado Teorema 3.19 (revisión del 2 de abril del 2017), dentro del tema de Cuadrados Mínimos (ya que tenían el cañon, lo usaron –y es genial también–).

Vamos a trabajar en el espacio vectorial , con el producto interno canónico, definido como .

Partimos de un sistema que no necesariamente tiene solución, y planteamos la solución por cuadrados mínimos, que desemboca en resolver . La solución de este problema viene dado mediante las ecuaciones normales:

En este marco teórico, tomemos un vector cualquera y una matriz tal que en sus columnas posee una BON de un subespacio de dimensión . En este caso el no nos interesa.

Por un lado, tenemos que . Esto nos conduce a:

Ahora metemos eso de vuelta en la ecuación original:

Como esta expresión vale , signfica que si posee en sus columnas una BON de entonces:

Demostración vía diagonalización unitaria

Podemos obtener la matriz analizando sus autovectores y autovalores. Una demostración utilizando sólo los temas de transformaciones lineales y producto interno se puede encontrar acá.

Vamos a trabajar en el espacio vectorial , con el producto interno canónico, definido como .

Sabemos que

Y que además:

Llamemos BON de y BON de .

Como podemos obtener una BON de uniendo una BON de con una de . Esta resulta una base ortonormal formada por autovectores de . Por ende podemos descomponer unitariamente a la matriz en como:

(Los detalles de cómo hacer ese producto matricial en forma de matrices por bloques se pueden ver en la siguiente demostración.)

Vemos que los primeros vectores de , los que generan , quedan multiplicados por unos; mientras que aquellos que generan quedan multiplicados por ceros. Podemos eliminar todos los vectores que se anulan, quedando:

(Si se te complica cazar la idea, acá lo explico más detenidamente.)

Ahora llamando llegamos a expresión:

Demostración vía transformaciones lineales

No es necesario utilizar conceptos de autovectores y autovalores para obtener la expresión, podemos hacer lo mismo utilizando sólo conceptos de transformaciones lineales, analizando la matriz de la transformación en una base particular.

Vamos a trabajar en el espacio vectorial , con el producto interno canónico, definido como .

Sea BON de . Donde BON de , y BON de .

Vamos a analizar por un momento, cómo queda :

Por lo tanto, resulta:

La cual podemos escribir de forma compacta como la matriz en bloques:

Donde es la matriz identidad de y es la matriz nula de .

Ahora multiplicamos por los cambios de base correspondientes para obtener la matriz de :

Donde por definición: y .

Pero como las columnas de son BON de es fácil verificar que y (solo basta ver el producto matricial como los productos internos de las columnas).

Dado lo anterior, podemos concluir que . Las matrices que cumplen con esta propiedad se llaman “Hermíticas” –como la banda, pero con “í”–. En el caso particular que las matrices fuesen reales, es decir: se la llama “Matriz Ortogonal” (pero todo esto se ve bien en la guía 5).

Dicho esto, podemos reescribir la relación anterior como:

A fin de evitar más líos, voy a definir las matrices y como:

Lo cual permite escribir:

Ahora podemos hacer alarde de que sabemos multiplicar matrices por bloque. Si no sabéis, es muy fácil: Simplemente hay que multiplicar los bloques de las matrices como si fuesen escalares, teniendo el cuidado de armar bloques de dimensiones consistentes a la hora de multiplicar. Veamos:

Concuerdo que esta demostración es un quilombo tremendo, pero me sirve de ejemplo para mostrar cómo operar con matrices con bloques –es la principal razón por la cual me molesté en escribir esto, porque es bonita… o al menos tiene linda peronalidad (?).

Demostración Teórica Particular en dimensión 1

Esta es una demostración sencilla para cuando , es decir, cuando es un espacio de dimensión 1. Después podemos externder el razonamiento a un caso más general.

Vamos a trabajar en el espacio vectorial , con el producto interno canónico, definido como .

Sea , y pidamos ademas que .

Sabemos que es una transformación lineal. Por lo tanto, como , alcanza con verificar que y

Sea .

Luego

Por otro lado, sea , es decir, .

Entonces

Por lo tanto, podemos concluir que , y por ende, .

Demostración Teórica (caso general)

En esta demostración vamos a limitarnos a ver que es justamente , verificando que hace lo que tiene que hacer, pero tener idea de dónde salió. Vamos a extender el razonamiento anterior utlizando muchas cuentas.

Vamos a trabajar en el espacio vectorial , con el producto interno canónico, definido como .

Sabemos que es una transformación lineal. Por lo tanto, como , alcanza con verificar que y

Sea BON de . Y sea la matriz que tiene dichos vectores por columnas.

Sea .

Luego:

Donde hicimos varias cosas:

  • Distribuimos el producto sobre los términos la combinación lineal.
  • Asociamos los escalares fuera del producto de matrices, y asociamos el producto como
  • Consideramos el producto como el producto escalar entre cada una de las columnas de con el vector . Ya que éstas son BON, dicho producto vale 0 para todas las columnas excepto aquella que contiene , en cuyo caso vale 1 (si no te queda claro, echale un vistazo a esto).
  • Consideramos el producto de con el vector que tiene un 1 en la posición i-ésima como la combinación lineal de las columnas de con los coeficientes del vector, resultando por lo anteriormente dicho.

Cumplida esta parte, resta analizar el complemento ortogonal. Sea , es decir, .

Entonces pues es ortogonal a las columnas de . Y por lo tanto, .

Por lo expuesto, podemos concluir que , y por ende, .