Definiciones previas editar
Dada una matriz real A ∈ M m × n ( R ) {\displaystyle A\in {\mathcal {M}}_{m\times n}(\mathbb {R} )} , los valores propios de la matriz cuadrada , simétrica y semidefinida positiva A T A ∈ M n ( R ) {\displaystyle A^{T}A\in {\mathcal {M}}_{n}(\mathbb {R} )} son siempre reales y mayores o iguales a cero. Teniendo en cuenta el producto escalar estándar vemos que:
( A T A ) T = A T ( A T ) T = A T A {\displaystyle (A^{T}A)^{T}=A^{T}(A^{T})^{T}=A^{T}A} , o sea que es simétrica .
⟨ x , A T A x ⟩ = x T A T A x = ( A x ) T A x = ‖ A x ‖ 2 ≥ 0 {\displaystyle \langle x,A^{T}Ax\rangle =x^{T}A^{T}Ax=(Ax)^{T}Ax=\|Ax\|^{2}\geq 0} , es decir A T A {\displaystyle A^{T}A} es semidefinida positiva .
Por ser A T A {\displaystyle A^{T}A} una matriz real simétrica, todos sus valores propios son reales —en particular, como es semidefinida positiva, son todos mayores o iguales a cero—. Ver demostración .
Sean λ 1 ≥ λ 2 ≥ ⋯ ≥ λ n ≥ 0 {\displaystyle \lambda _{1}\geq \lambda _{2}\geq \cdots \geq \lambda _{n}\geq 0} los valores propios de la matriz A T A {\displaystyle A^{T}A} ordenados de mayor a menor. Entonces σ i := λ i {\displaystyle \sigma _{i}:={\sqrt {\lambda _{i}}}} es el i {\displaystyle i} -ésimo valor singular de la matriz A {\displaystyle A} .
Sea A ∈ M m × n ( R ) {\displaystyle A\in {\mathcal {M}}_{m\times n}(\mathbb {R} )} y λ 1 ≥ ⋯ ≥ λ r > λ r + 1 = ⋯ = λ n = 0 {\displaystyle \lambda _{1}\geq \cdots \geq \lambda _{r}>\lambda _{r+1}=\cdots =\lambda _{n}=0} los valores propios de A T A {\displaystyle A^{T}A} . Es decir, los primeros r {\displaystyle r} valores propios no nulos, ordenados de manera decreciente, y los n − r {\displaystyle n-r} valores propios nulos.
Sea ( v 1 , … , v n ) {\displaystyle (v_{1},\ldots ,v_{n})} una base ortonormal de R n {\displaystyle \mathbb {R} ^{n}\,} formada por valores propios de A T A {\displaystyle A^{T}A} —que existe por el teorema espectral —. Entonces:
Los vectores A v 1 , … , A v r {\displaystyle Av_{1},\ldots ,Av_{r}} son ortogonales dos a dos y ‖ A v i ‖ = λ i = σ i {\displaystyle \|Av_{i}\|={\sqrt {\lambda _{i}}}=\sigma _{i}} . ( 1 σ 1 A v 1 , … , 1 σ r A v r ) {\displaystyle {\big (}{\tfrac {1}{\sigma _{1}}}Av_{1},\ldots ,{\tfrac {1}{\sigma _{r}}}Av_{r}{\big )}} es una base ortonormal del subespacio fundamental Col ( A ) {\displaystyle \operatorname {Col} (A)} . ( v r + 1 , … , v n ) {\displaystyle (v_{r+1},\ldots ,v_{n})} es una base ortonormal del subespacio fundamental Nul ( A ) {\displaystyle \operatorname {Nul} (A)} . rg ( A ) = r {\displaystyle \operatorname {rg} (A)=r} es decir, el rango de la matriz A {\displaystyle A} coincide con la cantidad de valores singulares no nulos.Demostración editar ⟨ A v i , A v j ⟩ = v i T A T A v j = λ j v i T v j = { λ j i = j 0 i ≠ j {\displaystyle \langle Av_{i},Av_{j}\rangle =v_{i}^{T}A^{T}Av_{j}=\lambda _{j}v_{i}^{T}v_{j}={\begin{cases}\lambda _{j}&i=j\\0&i\neq j\end{cases}}} . Teniendo en cuenta este resultado, ‖ A v i ‖ = ⟨ A v i , A v i ⟩ = λ i = σ i {\displaystyle \|Av_{i}\|={\sqrt {\langle Av_{i},Av_{i}\rangle }}={\sqrt {\lambda _{i}}}=\sigma _{i}} .Como la familia de vectores ( v i ) 1 ≤ i ≤ r {\displaystyle (v_{i})_{1\leq i\leq r}} es ortonormal —en particular, linealmente independiente —, los productos A v i {\displaystyle Av_{i}} son combinaciones lineales de las columnas de A {\displaystyle A} , por lo que el subespacio generado por estos productos está contenido en Col ( A ) {\displaystyle \operatorname {Col} (A)} . Además, los vectores A v 1 , … , A v r {\displaystyle Av_{1},\ldots ,Av_{r}} son ortogonales dos a dos —en particular, linealmente independientes —, por lo tanto deducimos que dim ( ⟨ 1 σ 1 A v 1 , … , 1 σ r A v r ⟩ ) = r = dim ( Col ( A ) ) {\displaystyle \dim {\big (}{\big \langle }{\tfrac {1}{\sigma _{1}}}Av_{1},\ldots ,{\tfrac {1}{\sigma _{r}}}Av_{r}{\big \rangle }{\big )}=r=\dim(\operatorname {Col} (A))} , de donde Col ( A ) = ⟨ 1 σ 1 A v 1 , … , 1 σ r A v r ⟩ {\displaystyle \operatorname {Col} (A)={\big \langle }{\tfrac {1}{\sigma _{1}}}Av_{1},\ldots ,{\tfrac {1}{\sigma _{r}}}Av_{r}{\big \rangle }} . Así, teniendo en cuenta lo demostrado en el punto anterior, ( 1 σ 1 A v 1 , … , 1 σ r A v r ) {\displaystyle {\big (}{\tfrac {1}{\sigma _{1}}}Av_{1},\ldots ,{\tfrac {1}{\sigma _{r}}}Av_{r}{\big )}} es una base ortonormal de Col ( A ) {\displaystyle \operatorname {Col} (A)} . Es claro que si la familia de vectores ( v i ) r < i ≤ n {\displaystyle (v_{i})_{r<i\leq n}} , está asociada a valores propios nulos, teniendo en cuenta lo visto en el punto 1 y también sabiendo que Nul ( A ) = Nul ( A T A ) {\displaystyle \operatorname {Nul} (A)=\operatorname {Nul} (A^{T}A)} —demostración en el último punto de esta lista de propiedades— se ve que ( v r + 1 , … , v n ) {\displaystyle (v_{r+1},\ldots ,v_{n})} es una base ortonormal de Nul ( A ) {\displaystyle \operatorname {Nul} (A)} Mirando la dimensión del subespacio hallado en el punto 2 de esta demostración, es claro que rg ( A ) = r {\displaystyle \operatorname {rg} (A)=r} . Descomposición en valores singulares de una matriz editar
Una DVS de A ∈ M m × n ( R ) {\displaystyle A\in {\mathcal {M}}_{m\times n}(\mathbb {R} )} es una factorización del tipo A = U Σ V T {\displaystyle A=U\Sigma V^{T}} con U ∈ M m ( R ) {\displaystyle U\in {\mathcal {M}}_{m}(\mathbb {R} )} y V ∈ M n ( R ) {\displaystyle V\in {\mathcal {M}}_{n}(\mathbb {R} )} ortogonales y Σ ∈ M m × n ( R ) {\displaystyle \Sigma \in {\mathcal {M}}_{m\times n}(\mathbb {R} )} una matriz formada por los valores singulares de A {\displaystyle A} en su diagonal principal ordenados de mayor a menor, y ceros en el resto de entradas.
Toda matriz A ∈ M m × n ( R ) {\displaystyle A\in {\mathcal {M}}_{m\times n}(\mathbb {R} )} admite una DVS.
Demostración editar Sean λ 1 ≥ ⋯ ≥ λ r > λ r + 1 = ⋯ = λ n = 0 {\displaystyle \lambda _{1}\geq \cdots \geq \lambda _{r}>\lambda _{r+1}=\cdots =\lambda _{n}=0} los valores propios de A T A ∈ M n ( R ) {\displaystyle A^{T}A\in {\mathcal {M}}_{n}(\mathbb {R} )} ordenados de esta manera. Sea ( v 1 , … , v n ) {\displaystyle (v_{1},\ldots ,v_{n})} una base ortonormal de R n {\displaystyle \mathbb {R} ^{n}} formada por vectores propios de A T A {\displaystyle A^{T}A} , cada uno asociado —en orden— a un valor propio .
Recordemos que los vectores A v 1 , … , A v n {\displaystyle Av_{1},\ldots ,Av_{n}} son ortogonales dos a dos, con A v r + 1 = ⋯ = A v m = 0 {\displaystyle Av_{r+1}=\cdots =Av_{m}=0} . Si llamamos u 1 := 1 σ 1 A v 1 , … , u r := 1 σ r A v r {\displaystyle u_{1}:={\frac {1}{\sigma _{1}}}Av_{1},\ldots ,u_{r}:={\frac {1}{\sigma _{r}}}Av_{r}} , vemos que:
u 1 , … , u r {\displaystyle u_{1},\ldots ,u_{r}} son ortonormales. Entonces, si r < m {\displaystyle r<m} , podemos completar con vectores u r + 1 , … , u m {\displaystyle u_{r+1},\ldots ,u_{m}} hasta formar una base ortonormal de R m {\displaystyle \mathbb {R} ^{m}}
{ A v 1 = σ 1 u 1 ⋮ A v r = σ r u r A v r + 1 = 0 ⋮ A v n = 0 {\displaystyle \left\{{\begin{array}{c}Av_{1}=\sigma _{1}u_{1}\\\vdots \\Av_{r}=\sigma _{r}u_{r}\\Av_{r+1}=0\\\vdots \\Av_{n}=0\end{array}}\right.}
Reescribiendo este último sistema de ecuaciones de manera matricial con las matrices V = ( | | v 1 ⋯ v n | | ) ∈ M n ( R ) {\displaystyle V={\begin{pmatrix}|&&|\\v_{1}&\cdots &v_{n}\\|&&|\end{pmatrix}}\in {\mathcal {M}}_{n}(\mathbb {R} )} ortogonal y
U Σ = ( | | u 1 ⋯ u n | | ) ⏟ U ∈ M m ( R ) ortogonal ( σ 1 0 ⋯ 0 0 ⋯ 0 0 σ 2 ⋯ 0 0 ⋯ 0 ⋮ ⋮ ⋱ ⋮ ⋮ ⋱ ⋮ 0 0 ⋯ σ r 0 ⋯ 0 0 0 ⋯ 0 0 ⋯ 0 ⋮ ⋮ ⋱ ⋮ ⋮ ⋱ ⋮ 0 0 ⋯ 0 0 ⋯ 0 ) ⏟ Σ ∈ M m × n ( R ) = ( | | | | σ 1 u 1 ⋯ σ r u r 0 ⋯ 0 | | | | ) {\displaystyle U\Sigma =\underbrace {\begin{pmatrix}|&&|\\u_{1}&\cdots &u_{n}\\|&&|\end{pmatrix}} _{U\in {\mathcal {M}}_{m}(\mathbb {R} ){\text{ ortogonal}}}\underbrace {\begin{pmatrix}\sigma _{1}&0&\cdots &0&0&\cdots &0\\0&\sigma _{2}&\cdots &0&0&\cdots &0\\\vdots &\vdots &\ddots &\vdots &\vdots &\ddots &\vdots \\0&0&\cdots &\sigma _{r}&0&\cdots &0\\0&0&\cdots &0&0&\cdots &0\\\vdots &\vdots &\ddots &\vdots &\vdots &\ddots &\vdots \\0&0&\cdots &0&0&\cdots &0\\\end{pmatrix}} _{\Sigma \in {\mathcal {M}}_{m\times n}(\mathbb {R} )}={\begin{pmatrix}|&&|&|&&|\\\sigma _{1}u_{1}&\cdots &\sigma _{r}u_{r}&0&\cdots &0\\|&&|&|&&|\end{pmatrix}}}
Claramente A V = U Σ {\displaystyle AV=U\Sigma \,} y, finalmente, como V {\displaystyle V} es una matriz ortogonal , A = U Σ V T {\displaystyle A=U\Sigma V^{T}} . Esta es la ecuación de una DVS de A {\displaystyle A\,} .
Viendo esta descomposición, es claro que la matriz A {\displaystyle A} puede escribirse como combinación lineal de matrices de rango 1 tal que:
A = ∑ i = 1 r σ i u i v i T {\displaystyle A=\sum _{i=1}^{r}\sigma _{i}u_{i}v_{i}^{T}}
Descomposición en valores singulares reducida (DVS reducida) editar Las matrices a continuación denotadas con la letra P {\displaystyle P} , son de proyección sobre el subespacio indicado. Las matrices denotadas con la letra I {\displaystyle I} son las identidades del orden denotado.
P Col ( A ) = U r U r T {\displaystyle P_{\operatorname {Col} (A)}=U_{r}U_{r}^{T}}
P Nul ( A t ) = I m − U r U r T = U m − r U m − r T {\displaystyle P_{\operatorname {Nul} (A^{t})}=I_{m}-U_{r}U_{r}^{T}=U_{m-r}U_{m-r}^{T}}
P Fil ( A ) = V r V r T {\displaystyle P_{\operatorname {Fil} (A)}=V_{r}V_{r}^{T}}
P Nul ( A ) = I n − V r V r T = V n − r V n − r T {\displaystyle P_{\operatorname {Nul} (A)}=I_{n}-V_{r}V_{r}^{T}=V_{n-r}V_{n-r}^{T}}
U r T U r = U m − r T U m − r = I m {\displaystyle U_{r}^{T}U_{r}=U_{m-r}^{T}U_{m-r}=I_{m}}
V r T V r = V n − r T V n − r = I n {\displaystyle V_{r}^{T}V_{r}=V_{n-r}^{T}V_{n-r}=I_{n}}
( u 1 , … , u r ) {\displaystyle (u_{1},\ldots ,u_{r})} es una base ortonormal de Col ( A ) {\displaystyle \operatorname {Col} (A)}
( u r + 1 , … , u m ) {\displaystyle (u_{r+1},\ldots ,u_{m})} es una base ortonormal de Nul ( A T ) {\displaystyle \operatorname {Nul} (A^{T})}
( v 1 , … , v r ) {\displaystyle (v_{1},\ldots ,v_{r})} es una base ortonormal de Fil ( A ) {\displaystyle \operatorname {Fil} (A)}
( v r + 1 , … , v n ) {\displaystyle (v_{r+1},\ldots ,v_{n})} es una base ortonormal de Nul ( A ) {\displaystyle \operatorname {Nul} (A)}
A = U Σ V T {\displaystyle A=U\Sigma V^{T}} implica que A T = ( U Σ V T ) T = V Σ T U T {\displaystyle A^{T}=(U\Sigma V^{T})^{T}=V\Sigma ^{T}U^{T}} .
A T A = V Σ T U T U Σ V T ⇔ A T = V Σ T Σ V T ⇔ A T A = V r diag ( λ 1 , … , λ r ) V r T {\displaystyle A^{T}A=V\Sigma ^{T}U^{T}U\Sigma V^{T}\Leftrightarrow A^{T}=V\Sigma ^{T}\Sigma V^{T}\Leftrightarrow A^{T}A=V_{r}\operatorname {diag} (\lambda _{1},\ldots ,\lambda _{r})V_{r}^{T}} —una diagonalización ortogonal de A T A {\displaystyle A^{T}A} —.
Las matrices simétricas A T A ∈ M n ( R ) {\displaystyle A^{T}A\in {\mathcal {M}}_{n}(\mathbb {R} )} y A A T ∈ M m ( R ) {\displaystyle AA^{T}\in {\mathcal {M}}_{m}(\mathbb {R} )} tienen los mismos valores propios no nulos y, por lo tanto, los valores singulares no nulos de la matriz A {\displaystyle A} pueden calcularse usando cualquiera de estas dos. Además, todos los vectores del conjunto { u 1 , … , u r } {\displaystyle \{u_{1},\ldots ,u_{r}\}} son vectores propios de A A T ∈ M m ( R ) {\displaystyle AA^{T}\in {\mathcal {M}}_{m}(\mathbb {R} )} y también, como ya se mencionó, Nul ( A T ) = ⟨ u r + 1 , … , u m ⟩ {\displaystyle \operatorname {Nul} (A^{T})=\langle u_{r+1},\ldots ,u_{m}\rangle } . Esto es fácil de ver, teniendo en cuenta que
∀ 1 ≤ i ≤ r , A v i = σ i u i ⇔ A A T A v i ⏟ λ i v i = σ i A A t u i ⇔ λ i A v i = σ i 2 A v i ⏟ σ i u i = σ i ⋅ A A T u i ⇔ A A T u i = σ i 2 u i = λ i u i {\displaystyle \forall 1\leq i\leq r,\ Av_{i}=\sigma _{i}u_{i}\Leftrightarrow A\underbrace {A^{T}Av_{i}} _{\lambda _{i}v_{i}}=\sigma _{i}AA^{t}u_{i}\Leftrightarrow \lambda _{i}Av_{i}=\sigma _{i}^{2}\underbrace {Av_{i}} _{\sigma _{i}u_{i}}=\sigma _{i}\cdot AA^{T}u_{i}\Leftrightarrow AA^{T}u_{i}=\sigma _{i}^{2}u_{i}=\lambda _{i}u_{i}}
Este resultado es útil para facilitar el cálculo de valores singulares. Por ejemplo, dada A ∈ M 2 × 8 ( R ) {\displaystyle A\in {\mathcal {M}}_{2\times 8}(\mathbb {R} )} , entonces A T A ∈ M 8 ( R ) {\displaystyle A^{T}A\in {\mathcal {M}}_{8}(\mathbb {R} )} tiene un polinomio característico de grado 8 y A A T ∈ M 2 ( R ) {\displaystyle AA^{T}\in {\mathcal {M}}_{2}(\mathbb {R} )} tiene un polinomio característico de grado 2. Como los valores propios no nulos de ambas matrices coinciden, el cálculo de valores singulares de A {\displaystyle A} se hace más sencillo.
Aplicaciones editar Ejemplos de cálculo de DVS editar Si A = ( 0 0 0 9 3 0 ) {\displaystyle A={\begin{pmatrix}0&0\\0&9\\3&0\end{pmatrix}}} , entonces A T A = ( 9 0 0 81 ) {\displaystyle A^{T}A={\begin{pmatrix}9&0\\0&81\end{pmatrix}}} , cuyos autovalores son λ 1 = 81 {\displaystyle \lambda _{1}=81} y λ 2 = 9 {\displaystyle \lambda _{2}=9} asociados a los autovectores v 1 = ( 0 , 1 ) {\displaystyle v_{1}=(0,1)} y v 2 = ( 1 , 0 ) {\displaystyle v_{2}=(1,0)} . Ya que la matriz es simétrica, estos vectores son ortogonales (ver diagonalización de matrices Hermíticas ).
Entonces, los valores singulares de A {\displaystyle A} son σ 1 = 81 = 9 {\displaystyle \sigma _{1}={\sqrt {81}}=9} y σ 2 = 9 = 3 {\displaystyle \sigma _{2}={\sqrt {9}}=3} . Observamos que, efectivamente, la cantidad de valores singulares no nulos coincide con el rango de la matriz.
Ahora buscamos los vectores u 1 , u 2 , u 3 ∈ R 3 {\displaystyle u_{1},u_{2},u_{3}\in \mathbb {R} ^{3}} que deberán cumplir
{ A v 1 = σ 1 u 1 A v 2 = σ 2 u 2 A v 3 = 0 {\displaystyle \left\{{\begin{array}{c}Av_{1}=\sigma _{1}u_{1}\\Av_{2}=\sigma _{2}u_{2}\\Av_{3}=0\end{array}}\right.}
Esto es u 1 = 1 σ 1 A v 1 = 1 9 ( 0 , 9 , 0 ) = ( 0 , 1 , 0 ) {\displaystyle u_{1}={\frac {1}{\sigma _{1}}}Av_{1}={\frac {1}{9}}(0,9,0)=(0,1,0)} y u 2 = 1 σ 2 A v 2 = 1 3 ( 0 , 0 , 3 ) = ( 0 , 0 , 1 ) {\displaystyle u_{2}={\frac {1}{\sigma _{2}}}Av_{2}={\frac {1}{3}}(0,0,3)=(0,0,1)} .
Entonces completamos a una base ortonormal de R 3 {\displaystyle \mathbb {R} ^{3}} , ( ( 0 , 1 , 0 ) , ( 0 , 0 , 1 ) , ( 1 , 0 , 0 ) ) {\displaystyle ((0,1,0),(0,0,1),(1,0,0))} .
Nuestras matrices ortogonales son:
U = ( 0 0 1 1 0 0 0 1 0 ) {\displaystyle U={\begin{pmatrix}0&0&1\\1&0&0\\0&1&0\end{pmatrix}}} y V = ( 0 1 1 0 ) {\displaystyle V={\begin{pmatrix}0&1\\1&0\end{pmatrix}}}
Y la matriz compuesta por los valores singulares ordenados :
Σ = ( 9 0 0 3 0 0 ) {\displaystyle \Sigma ={\begin{pmatrix}9&0\\0&3\\0&0\end{pmatrix}}}
Por lo tanto la DVS de A {\displaystyle A\,} es:
A = ( 0 0 1 1 0 0 0 1 0 ) ( 9 0 0 3 0 0 ) ( 0 1 1 0 ) = 9 ( 0 1 0 ) ( 0 1 ) + 3 ( 0 0 1 ) ( 1 0 ) = ( 0 0 0 9 3 0 ) {\displaystyle A={\begin{pmatrix}0&0&1\\1&0&0\\0&1&0\end{pmatrix}}{\begin{pmatrix}9&0\\0&3\\0&0\end{pmatrix}}{\begin{pmatrix}0&1\\1&0\end{pmatrix}}=9{\begin{pmatrix}0\\1\\0\end{pmatrix}}{\begin{pmatrix}0&1\end{pmatrix}}+3{\begin{pmatrix}0\\0\\1\end{pmatrix}}{\begin{pmatrix}1&0\end{pmatrix}}={\begin{pmatrix}0&0\\0&9\\3&0\end{pmatrix}}} .
Y la DVS reducida es
A = ( 0 0 1 0 0 1 ) ( 9 0 0 3 ) ( 0 1 1 0 ) {\displaystyle A={\begin{pmatrix}0&0\\1&0\\0&1\end{pmatrix}}{\begin{pmatrix}9&0\\0&3\end{pmatrix}}{\begin{pmatrix}0&1\\1&0\end{pmatrix}}}
Observación: No siempre ocurre que V = V T {\displaystyle V=V^{T}} como en este caso.
Sea B = ( 0 0 1 0 0 1 ) {\displaystyle B={\begin{pmatrix}0&0&1\\0&0&1\end{pmatrix}}} . Entonces, para hacer más sencillo el proceso, calculamos B B T = ( 1 1 1 1 ) {\displaystyle BB^{T}={\begin{pmatrix}1&1\\1&1\end{pmatrix}}} que tiene un polinomio característico de grado 2. Los autovalores son λ 1 = 2 {\displaystyle \lambda _{1}=2} y λ 2 = 0 {\displaystyle \lambda _{2}=0} asociados a los autovectores de norma unitaria u 1 = 1 2 ( 1 , 1 ) {\displaystyle u_{1}={\frac {1}{\sqrt {2}}}(1,1)} y u 2 = 1 2 ( − 1 , 1 ) {\displaystyle u_{2}={\frac {1}{\sqrt {2}}}(-1,1)} . Nuestro único valor singular no nulo es σ 1 = 2 {\displaystyle \sigma _{1}={\sqrt {2}}} .
Observaciones:
Es claro que rg ( B ) = 1 {\displaystyle \operatorname {rg} (B)=1} coincide con la cantidad de valores singulares no nulos de la matriz y además Col ( B ) = ⟨ 1 2 ( 1 , 1 ) ⟩ {\displaystyle \operatorname {Col} (B)=\left\langle {\frac {1}{\sqrt {2}}}(1,1)\right\rangle } . Sabemos que B T B ∈ M 3 ( R ) {\displaystyle B^{T}B\in {\mathcal {M}}_{3}(\mathbb {R} )} tiene un polinomio característico de grado 3. Sus raíces son λ 1 = 2 {\displaystyle \lambda _{1}=2} , λ 2 = λ 3 = 0 {\displaystyle \lambda _{2}=\lambda _{3}=0} . Veámoslo:
B T B = ( 0 0 0 0 0 0 0 0 2 ) ⟹ p B T B ( x ) = det ( x I 3 − B T B ) = x 2 ( x − 2 ) {\displaystyle B^{T}B={\begin{pmatrix}0&0&0\\0&0&0\\0&0&2\end{pmatrix}}\Longrightarrow p_{B^{T}B}(x)=\det(xI_{3}-B^{T}B)=x^{2}(x-2)} .
Ahora, sabemos que B v i = σ i u i ⇔ B T B v i = σ i 2 v i = σ i B T u i {\displaystyle Bv_{i}=\sigma _{i}u_{i}\Leftrightarrow B^{T}Bv_{i}=\sigma _{i}^{2}v_{i}=\sigma _{i}B^{T}u_{i}} , es decir B T u i = σ i v i ⇔ v i = 1 σ i B T u i {\displaystyle B^{T}u_{i}=\sigma _{i}v_{i}\Leftrightarrow v_{i}={\frac {1}{\sigma _{i}}}B^{T}u_{i}} . Entonces, resulta del único valor singular no nulo: v 1 = 1 2 ( 0 , 0 , 2 ) = ( 0 , 0 , 1 ) {\displaystyle v_{1}={\frac {1}{2}}(0,0,2)=(0,0,1)} .
Ahora, completamos a una base ortonormal de R 3 {\displaystyle \mathbb {R} ^{3}} , ( ( 0 , 0 , 1 ) , ( 1 , 0 , 0 ) , ( 0 , 1 , 0 ) ) {\displaystyle ((0,0,1),(1,0,0),(0,1,0))} . En este ejemplo, nuestras matrices ortogonales son:
U = 1 2 ( 1 − 1 1 1 ) {\displaystyle U={\frac {1}{\sqrt {2}}}{\begin{pmatrix}1&-1\\1&1\end{pmatrix}}} y V = ( 0 1 0 0 0 1 1 0 0 ) {\displaystyle V={\begin{pmatrix}0&1&0\\0&0&1\\1&0&0\end{pmatrix}}} .
Σ = ( 2 0 0 0 0 0 ) {\displaystyle \Sigma ={\begin{pmatrix}{\sqrt {2}}&0&0\\0&0&0\end{pmatrix}}} .
Y la DVS resulta entonces
B = 1 2 ( 1 − 1 1 1 ) ( 2 0 0 0 0 0 ) ( 0 0 1 1 0 0 0 1 0 ) = ( 1 1 ) ( 0 0 1 ) = ( 0 0 1 0 0 1 ) {\displaystyle B={\frac {1}{\sqrt {2}}}{\begin{pmatrix}1&-1\\1&1\end{pmatrix}}{\begin{pmatrix}{\sqrt {2}}&0&0\\0&0&0\end{pmatrix}}{\begin{pmatrix}0&0&1\\1&0&0\\0&1&0\end{pmatrix}}={\begin{pmatrix}1\\1\end{pmatrix}}{\begin{pmatrix}0&0&1\end{pmatrix}}={\begin{pmatrix}0&0&1\\0&0&1\end{pmatrix}}} .
Nota: la DVS reducida se muestra en la segunda igualdad de la ecuación anterior.
Véase también editar