Matriz ortogonal

Rotación de los vectores de la base usual al multiplicarlos por una matriz ortogonal Q.

Una matriz ortogonal es una matriz cuadrada cuya matriz inversa coincide con su matriz traspuesta. El conjunto de matrices ortogonales constituyen una representación lineal del grupo ortogonal O ( n , R ) {\displaystyle \scriptstyle O(n,\mathbb {R} )} .

Geométricamente, las matrices ortogonales representan transformaciones isométricas en espacios vectoriales reales[1]​ (o más exactamente espacios de Hilbert reales) llamadas justamente, transformaciones ortogonales. Estas transformaciones son isomorfismos internos del espacio vectorial en cuestión. En el caso real, dichas transformaciones pueden ser rotaciones, reflexiones especulares o inversiones y son usadas extensivamente en computación gráfica. Por sus propiedades, también son usadas para el estudio de ciertos fibrados y en física se las usa en el estudio del movimiento de cuerpos rígidos y en la formulación de ciertas teorías de campos.

Definición

Sea n {\displaystyle n} un número natural y sea A {\displaystyle A} una matriz cuadrada n {\displaystyle n} por n {\displaystyle n} , con entradas reales. Se dice que la matriz es ortogonal si:

A A T = I {\displaystyle A\cdot A^{\mathrm {T} }=I}

donde A T {\displaystyle A^{\mathrm {T} }} representa la matriz traspuesta de A {\displaystyle A} e I {\displaystyle I} representa la matriz identidad.

Ejemplos

Supongamos que la matriz de números reales

M = ( a b c d ) , {\displaystyle M={\begin{pmatrix}a&b\\c&d\end{pmatrix}},}

es ortogonal y su determinante es +1 o -1.

( a b c d ) ( a c b d ) = ( 1 0 0 1 ) , {\displaystyle {\begin{pmatrix}a&b\\c&d\end{pmatrix}}{\begin{pmatrix}a&c\\b&d\end{pmatrix}}={\begin{pmatrix}1&0\\0&1\end{pmatrix}},}

Por lo que: a 2 + b 2 = 1 , a c + b d = 0 , c 2 + d 2 = 1 {\displaystyle a^{2}+b^{2}=1,\quad ac+bd=0,\quad c^{2}+d^{2}=1}

Así que los números a {\displaystyle a} , b {\displaystyle b} , c {\displaystyle c} y d {\displaystyle d} satisfacen, además, la propiedad que la suma de sus cuadrados vale 1. Por lo tanto, existen un par de números reales θ {\displaystyle \theta } y ϕ {\displaystyle \phi } para los cuales

a = cos θ b = sen θ c = sen ϕ d = cos ϕ . {\displaystyle a=\cos \theta \quad b=\operatorname {sen} \theta \quad c=\operatorname {sen} \phi \quad d=\cos \phi .}

Por lo tanto, sustituyendo en a c + b d = 0 {\displaystyle ac+bd=0} queda: cos θ sen ϕ + sen θ cos ϕ = 0 {\displaystyle \cos \theta \operatorname {sen} \phi +\operatorname {sen} \theta \cos \phi =0}

Y tan ϕ = tan θ {\displaystyle \tan \phi =-\tan \theta } . Entonces, se cumple que sen ϕ = sen θ {\displaystyle \operatorname {sen} \phi =-\operatorname {sen} \theta } o cos ϕ = cos θ {\displaystyle \cos \phi =-\cos \theta }

Concluimos que toda matriz ortogonal de tamaño 2 puede escribirse como

M 1 = ( cos θ sen θ sen θ cos θ ) {\displaystyle M_{1}={\begin{pmatrix}\,\,\,\,\,\cos \theta &\operatorname {sen} \theta \\-\operatorname {sen} \theta &\cos \theta \end{pmatrix}}}

con θ {\displaystyle \theta } real y

M 2 = ( cos ϕ sen ϕ sen ϕ cos ϕ ) {\displaystyle M_{2}={\begin{pmatrix}\cos \phi &\,\,\,\,\,\operatorname {sen} \phi \\\operatorname {sen} \phi &-\cos \phi \end{pmatrix}}} con ϕ {\displaystyle \phi } real

Caracterización

Sea A {\displaystyle A} una matriz ortogonal n {\displaystyle n} por n {\displaystyle n} . Sean v 1 {\displaystyle \mathbf {v} _{1}} , v 2 {\displaystyle \mathbf {v} _{2}} , {\displaystyle \cdots } v n {\displaystyle \mathbf {v} _{n}} los n {\displaystyle n} vectores fila de la matriz. En término de estos vectores, es muy fácil expresar los elementos de la matriz que resulta de multiplicar A {\displaystyle A} por su transpuesta:

( A A T ) i j = v i v j = δ i j = { 1 si  i = j , 0 , si  i j {\displaystyle (A\cdot A^{\mathrm {T} })_{ij}=\mathbf {v} _{i}\cdot \mathbf {v} _{j}=\delta _{ij}={\begin{cases}1&{\mbox{si }}i=j,\\0,&{\mbox{si }}i\neq j\end{cases}}}

De modo que los vectores fila de una matriz ortogonal forman un conjunto de n {\displaystyle n} vectores ortonormales. Puesto que la ecuación

A T A = I {\displaystyle A^{\mathrm {T} }\cdot A=I}

también se verifica, tenemos que los vectores columna de la matriz A {\displaystyle A} también forman un conjunto ortonormal de vectores. Como el recíproco de todo esto también es cierto, tenemos

Una matriz real A {\displaystyle A} es ortogonal si y sólo si sus vectores filas o vectores columna son cada uno un conjunto ortonormal de vectores.

Es en este sentido que se dice que se ha hecho una caracterización de las matrices ortogonales. Dada una matriz, basta verificar esta propiedad entre sus vectores fila y columna para determinar si dicha matriz es o no ortogonal.

Propiedades

  • De la definición, es inmediato que si una matriz es ortogonal, la matriz es no singular o invertible y su transpuesta coincide con su inversa
  • El determinante de una matriz ortogonal A {\displaystyle A} es +1 o -1. En efecto, de las propiedades del determinante tenemos
det ( A A T ) = det A   det A T = det A   det A = ( det A ) 2 = det I = 1 , {\displaystyle \det(A\cdot A^{\mathrm {T} })=\det A\ \det A^{\mathrm {T} }=\det A\ \det A=(\det A)^{2}=\det I=1,}

y por tanto,

det A = ± 1. {\displaystyle \det A=\pm 1.}
  • El conjunto de matrices n × n {\displaystyle n\times n} ortogonales, junto con la operación de producto de matrices es un grupo llamado grupo ortogonal O(n). Supongamos que A {\displaystyle A} y B {\displaystyle B} son matrices ortogonales y sea C {\displaystyle C} igual al producto de A {\displaystyle A} por B {\displaystyle B} . Usando las propiedades del producto de matrices, tenemos
C C T = ( A B ) ( A B ) T = ( A B ) ( B T A T ) = A ( B B T ) A T = A I A T = A A T = I , {\displaystyle {\begin{aligned}C\cdot C^{\mathrm {T} }&=(A\cdot B)\cdot (A\cdot B)^{\mathrm {T} }=(A\cdot B)\cdot (B^{\mathrm {T} }\cdot A^{\mathrm {T} })\\&=A\cdot (B\cdot B^{\mathrm {T} })\cdot A^{\mathrm {T} }=A\cdot I\cdot A^{\mathrm {T} }=A\cdot A^{\mathrm {T} }=I,\end{aligned}}}
y así, el producto de matrices ortogonales es una matriz ortogonal.
  • En teoría de grupos, al grupo de matrices ortogonales n {\displaystyle n} por n {\displaystyle n} con coeficientes en el cuerpo K {\displaystyle \mathbb {K} } se denomina grupo ortogonal de dimensión n {\displaystyle n} y se representa con O ( n , K ) {\displaystyle \mathrm {O} (n,\mathbb {K} )} . En particular el subgrupo formado por las matrices ortogonales de determinante +1, se llama grupo especial ortogonal y se le representa con S O ( n , K ) {\displaystyle \mathrm {SO} (n,\mathbb {K} )} . Entre las matrices ortogonales se encuentran las matrices de rotación y las de permutación. Cuando el cuerpo es el de los reales K = R {\displaystyle \mathbb {K} =\mathbb {R} } entonces se escribe simplemente O ( n ) := O ( n , R ) {\displaystyle \mathrm {O} (n):=\mathrm {O} (n,\mathbb {R} )} y S O ( n ) := S O ( n , R ) {\displaystyle \mathrm {SO} (n):=\mathrm {SO} (n,\mathbb {R} )} .

Notas

  1. Se sobreentiende que al espacio vectorial real, se le ha dotado de un producto interno

Bibliografía

  • Para profundizar sobre este tema y en general sobre álgebra, puede consultar
G. Birkhoff, S MacLane, Álgebra Moderna, ed. Vicens-Vives, Madrid 1980. ISBN 84-316-1226-6
Control de autoridades
  • Proyectos Wikimedia
  • Wd Datos: Q333871
  • Ontologías
  • Número IEV: 102-06-26
  • Wd Datos: Q333871