Matrice invertibile

In matematica, in particolare in algebra lineare, una matrice quadrata è detta invertibile, o regolare, o non singolare se esiste un'altra matrice tale che il prodotto matriciale tra le due restituisce la matrice identità.

L'insieme delle matrici invertibili di dimensioni n × n {\displaystyle n\times n} è un gruppo moltiplicativo rispetto all'ordinaria operazione di prodotto matriciale; tale struttura algebrica è detta Gruppo generale lineare ed è indicata con il simbolo G L ( n ) {\displaystyle \mathrm {GL} (n)} .

Definizione

Una matrice quadrata A n × n {\displaystyle A_{n\times n}} è detta invertibile se esiste una matrice B n × n {\displaystyle B_{n\times n}} tale che:[1]

A B = B A = I n {\displaystyle AB=BA=I_{n}}

dove I n {\displaystyle I_{n}} denota la matrice identità n × n {\displaystyle {n\times n}} e la moltiplicazione usata è l'ordinaria moltiplicazione di matrici.

Se è questo il caso, allora la matrice B {\displaystyle B} è univocamente determinata da A {\displaystyle A} ed è chiamata l'inversa di A {\displaystyle A} , indicata con A 1 {\displaystyle A^{-1}} .

Nella definizione, le matrici A {\displaystyle A} e B {\displaystyle B} hanno valori in un anello con unità.

Definizioni equivalenti

Una matrice A {\displaystyle A} è singolare se ha determinante uguale a zero. Tra le affermazioni elencate sotto, la più importante dice che se A {\displaystyle A} ha valori in un campo, come ad esempio quello dei numeri reali o complessi, la matrice è invertibile se e solo se non è singolare.

Sia A {\displaystyle A} una matrice quadrata n × n {\displaystyle {n\times n}} con valori in un campo k {\displaystyle \Bbbk } (ad esempio, il campo dei numeri reali o complessi).

Le seguenti affermazioni sono equivalenti e caratterizzano una matrice A {\displaystyle A} invertibile:

  • Esiste una matrice B n × n {\displaystyle B_{n\times n}} tale che A B = B A = I n {\displaystyle AB=BA=I_{n}} .
  • Il determinante non è nullo: det A 0 {\displaystyle \det A\neq 0} .
  • Il rango di A {\displaystyle A} è n {\displaystyle n} .
  • La trasposta A T {\displaystyle A^{T}} è una matrice invertibile.
  • L'equazione A x = 0 {\displaystyle Ax=0} (con x {\displaystyle x} e 0 {\displaystyle 0} vettori colonna in k n {\displaystyle \Bbbk ^{n}} ) ha solamente la soluzione banale x = 0 {\displaystyle x=0} .
  • L'equazione A x = b {\displaystyle Ax=b} ha esattamente una soluzione per ogni b {\displaystyle b} in k n {\displaystyle \Bbbk ^{n}} .
  • Le colonne di A {\displaystyle A} sono linearmente indipendenti.
  • Le righe di A {\displaystyle A} sono linearmente indipendenti.
  • Le colonne di A {\displaystyle A} generano k n {\displaystyle \Bbbk ^{n}} .
  • Le colonne di A {\displaystyle A} formano una base di k n {\displaystyle \Bbbk ^{n}} .
  • L'applicazione lineare L A {\displaystyle L_{A}} da k n {\displaystyle \Bbbk ^{n}} in k n {\displaystyle \Bbbk ^{n}} data da: L A : x A x {\displaystyle L_{A}:x\mapsto Ax} è biiettiva.
  • Il numero 0 non è un autovalore di A {\displaystyle A} .
  • A {\displaystyle A} è trasformabile nella matrice identità I n {\displaystyle I_{n}} tramite l'algoritmo di Gauss-Jordan.
  • A {\displaystyle A} è trasformabile mediante algoritmo di Gauss-Jordan in una matrice a scalini con n {\displaystyle n} pivot.

Proprietà

Lo stesso argomento in dettaglio: Gruppo generale lineare.
  • L'inversa di una matrice invertibile A {\displaystyle A} è essa stessa invertibile, e si ha:[2]
( A 1 ) 1 = A   {\displaystyle (A^{-1})^{-1}=A\ }
  • Il prodotto di due matrici invertibili A n × n {\displaystyle A_{n\times n}} e B n × n {\displaystyle B_{n\times n}} è ancora invertibile, con inversa data da:
( A B ) 1 = B 1 A 1   {\displaystyle (AB)^{-1}=B^{-1}A^{-1}\ }

Come conseguenza delle proprietà precedenti, l'insieme delle matrici invertibili n × n {\displaystyle n\times n} costituisce un gruppo con la moltiplicazione, noto come il gruppo generale lineare G L ( n ) {\displaystyle \mathrm {GL} (n)} .

Poiché le matrici invertibili formano un gruppo, possono in molti casi essere manipolate come se fossero dei numeri reali. Ad esempio:

  • Se A {\displaystyle A} è invertibile, l'equazione A X = B {\displaystyle AX=B} ha una sola soluzione, data da X = A 1 B {\displaystyle X=A^{-1}B} . Analogamente X A = B {\displaystyle XA=B} ha come unica soluzione X = B A 1 {\displaystyle X=BA^{-1}} .

Matrici reali

Sul campo dei numeri reali l'insieme di tutte le matrici n × n {\displaystyle n\times n} è uno spazio vettoriale isomorfo a R n 2 {\displaystyle \mathbb {R} ^{n^{2}}} , e il sottoinsieme delle matrici non invertibili è un insieme nullo, cioè ha misura di Lebesgue zero, essendo l'insieme degli zeri della funzione determinante, che è un polinomio. Intuitivamente, questo vuol dire che la probabilità che una matrice quadrata casuale a valori reali sia non-invertibile è zero. Parlando in modo approssimativo, si dice che "quasi tutte" le matrici sono invertibili.

Matrice invertibile in un anello

Il teorema della matrice invertibile generalmente non vale in un anello commutativo. In questo caso, la matrice è invertibile se e solo se il suo determinante è una unità, ossia è invertibile, in questo anello.

Sistemi lineari

Lo stesso argomento in dettaglio: Sistema di equazioni lineari.

Se A {\displaystyle A} è invertibile, l'equazione A X = B {\displaystyle AX=B} ha una sola soluzione, data da X = A 1 B {\displaystyle X=A^{-1}B} . Analogamente X A = B {\displaystyle XA=B} ha come unica soluzione X = B A 1 {\displaystyle X=BA^{-1}} .

Nel caso particolare in cui X {\displaystyle X} e B {\displaystyle B} abbiano dimensioni n × 1 {\displaystyle {n\times 1}} , ovvero siano vettori colonna, l'equazione A X = B {\displaystyle AX=B} rappresenta un sistema lineare, dove A {\displaystyle A} è la matrice dei coefficienti.[3]

A {\displaystyle A} è invertibile se il sistema ha una soluzione unica o, in modo equivalente, se il sistema omogeneo associato ha come unica soluzione il vettore nullo.[4]

Calcolo della matrice inversa

Esistono vari metodi per il calcolo dell'inversa di una matrice quadrata invertibile A {\displaystyle A} .

Matrici di ordine 2

La matrice inversa di una matrice 2 per 2 invertibile:

( a b c d ) {\displaystyle {\begin{pmatrix}{a}&{b}\\{c}&{d}\end{pmatrix}}}

è la seguente:

( d a d b c b a d b c c a d b c a a d b c ) = 1 a d b c ( d b c a ) {\displaystyle {\begin{pmatrix}{\frac {d}{{a}{d}-{b}{c}}}&{\frac {-b}{{a}{d}-{b}{c}}}\\{\frac {-c}{{a}{d}-{b}{c}}}&{\frac {a}{{a}{d}-{b}{c}}}\end{pmatrix}}={\frac {1}{{a}{d}-{b}{c}}}{\begin{pmatrix}d&-b\\-c&a\end{pmatrix}}}

Si noti come questa formula è ricavabile del metodo dei cofattori sotto spiegato.

Metodo della matrice dei cofattori

Lo stesso argomento in dettaglio: Matrice dei cofattori e Cofattore (matematica).

Il metodo della matrice dei cofattori risulta particolarmente rapido quando non interessa calcolare tutti gli elementi della matrice inversa, e quando la matrice è di dimensione contenuta. Inoltre, la presenza di variabili letterali tra gli elementi non aumenta di molto la complessità del calcolo.

Data una matrice A {\displaystyle A} quadrata e invertibile:

A = ( [ A ] 1 , 1 [ A ] 1 , n [ A ] n , 1 [ A ] n , n ) {\displaystyle A={\begin{pmatrix}\;[A]_{1,1}&\ldots &[A]_{1,n}\\\vdots &\ddots &\vdots \\\;[A]_{n,1}&\ldots &[A]_{n,n}\\\end{pmatrix}}}

la sua inversa A 1 {\displaystyle A^{-1}} è la seguente:

A 1 = 1 det ( A ) ( c o f A ) T {\displaystyle A^{-1}={\frac {1}{\det(A)}}\cdot (\mathrm {cof} \;A)^{T}}

dove det ( A ) {\displaystyle \det(A)} è il determinante di A {\displaystyle A} , la matrice c o f A {\displaystyle \mathrm {cof} A} è la matrice dei cofattori (o dei complementi algebrici) e l'esponente T {\displaystyle T} indica l'operazione di trasposizione di matrici.

Uno schema mnemonico per la variazione del segno ( 1 ) i + j {\displaystyle (-1)^{i+j}} è il seguente:

( + + + + + ) {\displaystyle {\begin{pmatrix}+&-&+&\ldots \\-&+&-&\ldots \\+&-&+&\ldots \\\vdots &\vdots &\vdots &\ddots \end{pmatrix}}}

Dimostrazione

Si consideri la matrice A {\displaystyle A} e la sua inversa A 1 {\displaystyle A^{-1}} . La formula

A 1 = 1 det ( A ) ( c o f A ) T {\displaystyle A^{-1}={\frac {1}{\det(A)}}\cdot (\mathrm {cof} \;A)^{T}}

equivale a

A ( c o f A ) T = I ( det A ) , {\displaystyle A(\mathrm {cof} \;A)^{T}=I(\det A),}

dove I {\displaystyle I} è la matrice identità. Quindi, se A i h {\displaystyle A_{ih}} indica l'elemento della matrice A {\displaystyle A} nella riga i {\displaystyle i} e colonna h {\displaystyle h} e A ( j , h ) {\displaystyle A_{(j,h)}} indica il minore di A {\displaystyle A} ottenuto cancellando la riga j {\displaystyle j} e la colonna h , {\displaystyle h,} si ha

h = 1 n A i h ( ( c o f A ) T ) h j = h = 1 n A i h ( c o f A ) j h = h = 1 n A i h ( 1 ) j + h det A ( j , h ) = { det A , se  i = j , 0 , se  i j , {\displaystyle \sum _{h=1}^{n}A_{ih}((\mathrm {cof} \;A)^{T})_{hj}=\sum _{h=1}^{n}A_{ih}(\mathrm {cof} \;A)_{jh}=\sum _{h=1}^{n}A_{ih}(-1)^{j+h}\det A_{(j,h)}={\begin{cases}\det A,&{\text{se }}i=j,\\0,&{\text{se }}i\neq j,\end{cases}}}

dove se i j {\displaystyle i\neq j} si ha zero poiché la quantità considerata corrisponde al determinante di una matrice A {\displaystyle A'} che si ottiene sostituendo in A {\displaystyle A} la riga j {\displaystyle j} -esima con una copia della riga i {\displaystyle i} -esima. La matrice A {\displaystyle A'} ha quindi due righe uguali e dunque il determinante è 0.

Algoritmo di Gauss-Jordan

L'algoritmo di Gauss-Jordan, può essere usato per trovare (quando esiste) l'inversa di una matrice. Funziona nel modo seguente: sia A {\displaystyle A} una matrice invertibile. Si costruisce la matrice B = ( A | I ) {\displaystyle B=(A|I)} con n {\displaystyle n} righe e 2 n {\displaystyle 2n} colonne affiancando A {\displaystyle A} e la matrice identità I {\displaystyle I} . A questo punto si applica l'algoritmo di Gauss-Jordan alla nuova B {\displaystyle B} . Questo algoritmo trasforma la matrice B {\displaystyle B} in una matrice a scalini, che sarà del tipo ( I | C ) {\displaystyle (I|C)} . La matrice C {\displaystyle C} così trovata è proprio l'inversa di A {\displaystyle A} . Infatti se si considera la matrice ( A | e i ) {\displaystyle (A|e_{i})} , il sistema associato ha come unica soluzione un vettore x i {\displaystyle x_{i}} che per definizione di inversa è la i {\displaystyle i} -esima colonna della matrice inversa di A . {\displaystyle A.} Con le operazioni elementari la si trasforma nella matrice ( I | B i ) {\displaystyle (I|B^{i})} la cui soluzione è sempre il vettore x i {\displaystyle x_{i}} (perché l'insieme delle soluzioni di un sistema lineare rimane invariato usando le operazioni elementari). Questo equivale a dire che I x i {\displaystyle Ix_{i}} è uguale a B i , {\displaystyle B^{i},} ossia B i = x i {\displaystyle B^{i}=x_{i}} . Questo vale per ogni colonna. Quindi, dato che il vettore x i {\displaystyle x_{i}} è la i {\displaystyle i} -esima colonna della matrice inversa, allora C = A 1 . {\displaystyle C=A^{-1}.}

L'esempio seguente mostra che l'inversa di:

A = ( 1 2 2 3 ) {\displaystyle A={\begin{pmatrix}1&2\\2&3\end{pmatrix}}}

è la matrice:

C = ( 3 2 2 1 ) {\displaystyle C={\begin{pmatrix}-3&2\\2&-1\end{pmatrix}}}

Infatti:

( 1 2 1 0 2 3 0 1 ) ( 2 4 2 0 2 3 0 1 ) ( 2 4 2 0 0 1 2 1 ) {\displaystyle {\begin{pmatrix}1&2&\|&1&0\\2&3&\|&0&1\end{pmatrix}}\to {\begin{pmatrix}-2&-4&\|&-2&0\\2&3&\|&0&1\end{pmatrix}}\to {\begin{pmatrix}-2&-4&\|&-2&0\\0&-1&\|&-2&1\end{pmatrix}}\to }
( 2 4 2 0 0 4 8 4 ) ( 2 0 6 4 0 4 8 4 ) ( 1 0 3 2 0 1 2 1 ) {\displaystyle {\begin{pmatrix}-2&-4&\|&-2&0\\0&4&\|&8&-4\end{pmatrix}}\to {\begin{pmatrix}-2&0&\|&6&-4\\0&4&\|&8&-4\end{pmatrix}}\to {\begin{pmatrix}1&0&\|&-3&2\\0&1&\|&2&-1\end{pmatrix}}}

Nel primo passaggio si è moltiplicata la prima riga per 2 {\displaystyle -2} , nel secondo si è sommata alla seconda riga la prima, nel terzo si è moltiplicata la seconda riga per 4 {\displaystyle -4} , nel quarto passaggio si è sommata alla prima riga la seconda e infine nell'ultimo passaggio si è divisa la prima riga per 2 {\displaystyle -2} e la seconda per 4 {\displaystyle 4} . In questo modo si è partiti da una matrice di ( A | I ) {\displaystyle (A|I)} e si è arrivati a ( I | C ) {\displaystyle (I|C)} . Si ha che C {\displaystyle C} è l'inversa di A {\displaystyle A} .

Inversa di una matrice partizionata

Data una matrice partizionata a blocchi:

A = ( A 11 A 12 A 21 A 22 ) {\displaystyle A={\begin{pmatrix}A_{11}&A_{12}\\A_{21}&A_{22}\end{pmatrix}}}

in cui le sottomatrici sulla diagonale ( A 11 {\displaystyle (A_{11}} e A 22 ) {\displaystyle A_{22})} sono quadrate e non singolari, si può dimostrare che l'inversa di A {\displaystyle A} risulta uguale a:

A 1 = ( A 11 1 ( I + A 12 B 22 A 21 A 11 1 ) A 11 1 A 12 B 22 B 22 A 21 A 11 1 B 22 ) {\displaystyle A^{-1}={\begin{pmatrix}A_{11}^{-1}(I+A_{12}\,B_{22}\,A_{21}A_{11}^{-1})&-A_{11}^{-1}A_{12}\,B_{22}\\-B_{22}A_{21}A_{11}^{-1}&B_{22}\end{pmatrix}}}

dove I {\displaystyle I} è una matrice identità di ordine appropriato e:

B 22 = ( A 22 A 21 A 11 1 A 12 ) 1 {\displaystyle B_{22}=(A_{22}-A_{21}A_{11}^{-1}A_{12})^{-1}}

ovvero:

A 1 = ( B 11 B 11 A 12 A 22 1 A 22 1 A 21 B 11 A 22 1 ( I + A 21 B 11 A 12 A 22 1 ) ) {\displaystyle A^{-1}={\begin{pmatrix}B_{11}&-B_{11}A_{12}A_{22}^{-1}\\-A_{22}^{-1}A_{21}B_{11}&A_{22}^{-1}(I+A_{21}B_{11}A_{12}A_{22}^{-1})\end{pmatrix}}}

con:

B 11 = ( A 11 A 12 A 22 1 A 21 ) 1 {\displaystyle B_{11}=(A_{11}-A_{12}A_{22}^{-1}A_{21})^{-1}}

Note

  1. ^ S. Lang, Pag. 68.
  2. ^ Hoffman, Kunze, Pag. 22.
  3. ^ Un ragionamento analogo vale anche per X A = B {\displaystyle XA=B} , ma qui X {\displaystyle X} e B {\displaystyle B} devono essere vettori riga.
  4. ^ Hoffman, Kunze, Pag. 23.

Bibliografia

  • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992, ISBN 88-339-5035-2.
  • (EN) Kenneth Hoffman, Ray Kunze, Linear Algebra, 2ª ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971, ISBN 0-13-536821-9.
  • (EN) Roger A. Horn e Charles R. Johnson, Matrix Analysis, Cambridge University Press, 1985, p. 14, ISBN 978-0-521-38632-6.
  • (EN) Gilbert Strang, Introduction to linear algebra, 3rd, SIAM, 2003, p. 71, ISBN 0-9614088-9-8., Chapter 2, page 71
  • (EN) Dennis Bernstein, Matrix Mathematics, Princeton University Press, 2005, p. 44, ISBN 0-691-11802-7.

Voci correlate

Collegamenti esterni

  • matrice invertibile, in Enciclopedia della Matematica, Istituto dell'Enciclopedia Italiana, 2013. Modifica su Wikidata
  • (EN) Eric W. Weisstein, Matrice invertibile, su MathWorld, Wolfram Research. Modifica su Wikidata
  • (EN) Matrice invertibile, su Encyclopaedia of Mathematics, Springer e European Mathematical Society. Modifica su Wikidata
  • (EN) Matrix Mathematics: Theory, Facts, and Formulas at Google books
  • (EN) Equations Solver Online, su solvingequations.net. URL consultato il 24 aprile 2019 (archiviato dall'url originale il 18 marzo 2016).
  • (EN) Lecture on Inverse Matrices by Khan Academy, su khanacademy.org (archiviato dall'url originale il 3 novembre 2011).
  • (EN) Linear Algebra Lecture on Inverse Matrices by MIT, su ocw.mit.edu.
  • (EN) LAPACK is a collection of FORTRAN subroutines for solving dense linear algebra problems
  • Programma che calcola l'inversa di una matrice, su evinive.altervista.org. URL consultato il 21 luglio 2021 (archiviato dall'url originale il 22 aprile 2016).
  • Programma parallelo in MPI per calcolare l'inversa di una matrice, su parallelknoppix.info. URL consultato il 10 aprile 2011 (archiviato dall'url originale il 13 gennaio 2012).
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica