Trasformazione lineare

In matematica, e più precisamente in algebra lineare, una trasformazione lineare, detta anche applicazione lineare o mappa lineare, è una funzione lineare tra due spazi vettoriali sullo stesso campo, cioè una funzione che conserva le operazioni di somma di vettori e di moltiplicazione per uno scalare. In altre parole, una trasformazione lineare preserva le combinazioni lineari. Nel linguaggio dell'algebra astratta, una trasformazione lineare è un omomorfismo di spazi vettoriali, in quanto conserva le operazioni che caratterizzano gli spazi vettoriali.

In analisi funzionale una trasformazione lineare è spesso detta operatore lineare. In tale contesto, particolare importanza rivestono gli operatori lineari continui tra spazi vettoriali topologici, come ad esempio spazi di Banach.

Definizione

Siano V {\displaystyle V} e W {\displaystyle W} due spazi vettoriali sullo stesso campo K . {\displaystyle K.} Una funzione f : V W {\displaystyle f\colon V\to W} è una trasformazione lineare se soddisfa le seguenti proprietà:[1][2]

  • f ( x + y ) = f ( x ) + f ( y ) , {\displaystyle f(\mathbf {x} +\mathbf {y} )=f(\mathbf {x} )+f(\mathbf {y} ),}
  • f ( a x ) = a f ( x ) , {\displaystyle f(a\mathbf {x} )=af(\mathbf {x} ),}

per ogni coppia di vettori x {\displaystyle \mathbf {x} } e y {\displaystyle \mathbf {y} } in V {\displaystyle V} e per ogni scalare a {\displaystyle a} in K . {\displaystyle K.} La prima proprietà è detta additività, la seconda omogeneità di grado 1.

Equivalentemente, f {\displaystyle f} è lineare se "preserva le combinazioni lineari" (principio di sovrapposizione), ossia se:

f ( a 1 x 1 + + a m x m ) = a 1 f ( x 1 ) + + a m f ( x m ) , {\displaystyle f(a_{1}\mathbf {x} _{1}+\cdots +a_{m}\mathbf {x} _{m})=a_{1}f(\mathbf {x} _{1})+\cdots +a_{m}f(\mathbf {x} _{m}),}

per ogni intero positivo m {\displaystyle m} e ogni scelta dei vettori x 1 , , x m {\displaystyle \mathbf {x} _{1},\ldots ,\mathbf {x} _{m}} e degli scalari a 1 , , a m . {\displaystyle a_{1},\ldots ,a_{m}.}

Se f : V W {\displaystyle f\colon V\to W} è una applicazione lineare e 0 V {\displaystyle \mathbf {0} _{V}} e 0 W {\displaystyle \mathbf {0} _{W}} sono i vettori nulli di V {\displaystyle V} e W {\displaystyle W} rispettivamente, allora:[3]

f ( 0 V ) = f ( 0 V + 0 V ) = f ( 0 V ) + f ( 0 V ) , {\displaystyle f(\mathbf {0} _{V})=f(\mathbf {0} _{V}+\mathbf {0} _{V})=f(\mathbf {0} _{V})+f(\mathbf {0} _{V}),}

e togliendo f ( 0 V ) {\displaystyle f(\mathbf {0} _{V})} da ambo i membri si ottiene

0 W = f ( 0 V ) . {\displaystyle \mathbf {0} _{W}=f(\mathbf {0} _{V}).}

Sostituendo allo zero una combinazione lineare di vettori linearmente dipendenti si dimostra che un'applicazione lineare iniettiva manda sottoinsiemi del dominio linearmente indipendenti in sottoinsiemi del codominio linearmente indipendenti.[4]

Un'applicazione lineare è descritta completamente attraverso la sua azione sui vettori di una base qualsiasi del dominio.[5] Poiché la scrittura di un vettore in una data base è unica, la linearità dell'applicazione determina l'unicità del vettore immagine.

Un'applicazione lineare biunivoca (o invertibile) è inoltre un isomorfismo tra spazi vettoriali.[6]

Esistenza e unicità dell'applicazione lineare

Siano V {\displaystyle V} e W {\displaystyle W} due spazi vettoriali di dimensione finita. Sia B V = ( v 1 , , v n ) {\displaystyle B_{V}=(\mathbf {v} _{1},\ldots ,\mathbf {v} _{n})} una base di V {\displaystyle V} e siano w 1 , , w n {\displaystyle \mathbf {w} _{1},\ldots ,\mathbf {w} _{n}} vettori di W . {\displaystyle W.} Allora esiste un'unica applicazione lineare da V {\displaystyle V} in W {\displaystyle W} tale che:[7]

f ( v i ) = w i ,   i = 1 , , n . {\displaystyle f(\mathbf {v} _{i})=\mathbf {w} _{i},\quad \forall \ i=1,\ldots ,n.}

Nel caso non si conosca la forma esplicita dell'applicazione è comunque possibile stabilirne l'esistenza e l'unicità attraverso la conoscenza dell'azione dell'applicazione su un insieme di vettori dati { v i } {\displaystyle \{{\mathbf {v} }_{i}\}} , dei quali si conosce quindi l'immagine. Se l'insieme di vettori è una base del dominio allora l'applicazione è univocamente determinata, mentre se i vettori dati non costituiscono una base ci sono due casi:

  • I vettori di cui si conosce l'immagine sono linearmente indipendenti: in tal caso l'applicazione esiste ma non è unica.
  • I vettori di cui si conosce l'immagine sono linearmente dipendenti: in tal caso uno o più vettori sono combinazione lineare dei restanti. Si ha:
v j = i = 1 n a i v i . {\displaystyle \mathbf {v} _{j}=\sum _{i=1}^{n}a_{i}\mathbf {v} _{i}.}

L'applicazione esiste (ma non è unica) se e solo se:

f ( v j ) = i = 1 n a i f ( v i ) . {\displaystyle f(\mathbf {v} _{j})=\sum _{i=1}^{n}a_{i}f(\mathbf {v} _{i}).}

Matrice associata

Lo stesso argomento in dettaglio: Matrice di trasformazione.

Siano V {\displaystyle V} e W {\displaystyle W} due spazi vettoriali di dimensione finita. Scelte due basi B V {\displaystyle B_{V}} e B W {\displaystyle B_{W}} per V {\displaystyle V} e W , {\displaystyle W,} ogni trasformazione lineare da V {\displaystyle V} a W {\displaystyle W} è rappresentabile come una matrice. Si ponga:

B V = ( v 1 , , v n ) , {\displaystyle B_{V}=(\mathbf {v} _{1},\ldots ,\mathbf {v} _{n}),}
B W = ( w 1 , , w m ) . {\displaystyle B_{W}=(\mathbf {w} _{1},\ldots ,\mathbf {w} _{m}).}

Ogni vettore v {\displaystyle \mathbf {v} } in V {\displaystyle V} è univocamente determinato dalle sue coordinate c 1 , , c n , {\displaystyle c_{1},\ldots ,c_{n},} definite in modo che:

v = c 1 v 1 + + c n v n . {\displaystyle \mathbf {v} =c_{1}\mathbf {v} _{1}+\cdots +c_{n}\mathbf {v} _{n}.}

Se f : V W {\displaystyle f\colon V\to W} è una trasformazione lineare si ha:

f ( v ) = f ( c 1 v 1 + + c n v n ) = c 1 f ( v 1 ) + + c n f ( v n ) . {\displaystyle f(\mathbf {v} )=f(c_{1}\mathbf {v} _{1}+\cdots +c_{n}\mathbf {v} _{n})=c_{1}f(\mathbf {v} _{1})+\cdots +c_{n}f(\mathbf {v} _{n}).}

Quindi la funzione f {\displaystyle f} è determinata dai vettori f ( v 1 ) , , f ( v n ) {\displaystyle f(\mathbf {v} _{1}),\ldots ,f(\mathbf {v} _{n})} . Ciascuno di questi è scrivibile come:

f ( v j ) = a 1 j w 1 + + a m j w m . {\displaystyle f(\mathbf {v} _{j})=a_{1j}\mathbf {w} _{1}+\cdots +a_{mj}\mathbf {w} _{m}.}

La funzione f {\displaystyle f} è dunque interamente determinata dai valori di a i , j , {\displaystyle a_{i,j},} che formano la matrice associata a f {\displaystyle f} nelle basi B V {\displaystyle B_{V}} e B W . {\displaystyle B_{W}.} [8]

La matrice associata A {\displaystyle A} è di tipo m × n , {\displaystyle m\times n,} e può essere usata agevolmente per calcolare l'immagine f ( v ) {\displaystyle f(\mathbf {v} )} di ogni vettore di V {\displaystyle V} grazie alla relazione seguente:

A [ v ] B V = [ w ] B W , {\displaystyle A[\mathbf {v} ]_{B_{V}}=[\mathbf {w} ]_{B_{W}},}

dove [ v ] B V {\displaystyle [\mathbf {v} ]_{B_{V}}} e [ w ] B W {\displaystyle [\mathbf {w} ]_{B_{W}}} sono le coordinate di v {\displaystyle \mathbf {v} } e w {\displaystyle \mathbf {w} } nelle rispettive basi.

Si nota che la scelta delle basi è essenziale: la stessa matrice, usata su basi diverse, può rappresentare applicazioni lineari diverse.

Struttura di spazio vettoriale

L'insieme H o m ( V , W ) {\displaystyle \mathrm {Hom} (V,W)} delle applicazioni lineari da V {\displaystyle V} in W {\displaystyle W} è un sottospazio vettoriale dello spazio vettoriale sul campo K {\displaystyle K} formato da tutte le funzioni da V {\displaystyle V} in W , {\displaystyle W,} infatti:[9]

  • se f : V W {\displaystyle f\colon V\to W} e g : V W {\displaystyle g\colon V\to W} sono lineari, allora è lineare la loro somma f + g , {\displaystyle f+g,} definita dalla relazione
( f + g ) ( v ) = f ( v ) + g ( v ) ; {\displaystyle (f+g)(\mathbf {v} )=f(\mathbf {v} )+g(\mathbf {v} );}
  • se f : V W {\displaystyle f\colon V\to W} è lineare e a {\displaystyle a} è un elemento del campo K , {\displaystyle K,} allora la funzione a f , {\displaystyle af,} definita da ( a f ) ( v ) = a ( f ( v ) ) , {\displaystyle (af)(\mathbf {v} )=a(f(\mathbf {v} )),} è anch'essa lineare.

Nel caso finito-dimensionale, dopo aver fissato delle basi, le operazioni di somma e prodotto di una funzione per uno scalare di applicazioni lineari corrispondono rispettivamente a somma di matrici e moltiplicazione di matrici per uno scalare. Le basi definiscono quindi un isomorfismo H o m ( V , W ) M ( n , m ) {\displaystyle \mathrm {Hom} (V,W)\to M(n,m)} tra gli spazi vettoriali delle applicazioni lineari e delle matrici n × m , {\displaystyle n\times m,} dove m {\displaystyle m} e n {\displaystyle n} sono le dimensioni rispettivamente di V {\displaystyle V} e W . {\displaystyle W.}

Nucleo e immagine

Lo stesso argomento in dettaglio: Teorema della dimensione.

Se f : V W {\displaystyle f\colon V\to W} è lineare, il nucleo di f {\displaystyle f} è l'insieme:[10]

K e r ( f ) = { x V : f ( x ) = 0 } , {\displaystyle \mathrm {Ker} (f)=\{\mathbf {x} \in V:f(\mathbf {x} )=0\},}

mentre l'immagine di f {\displaystyle f} è l'insieme:[11]

Im ( f ) = { f ( x ) W : x V } . {\displaystyle \operatorname {Im} (f)=\{f(\mathbf {x} )\in W:\mathbf {x} \in V\}.}

L'insieme K e r ( f ) {\displaystyle \mathrm {Ker} (f)} è un sottospazio di V {\displaystyle V} , mentre Im ( f ) {\displaystyle \operatorname {Im} (f)} è un sottospazio di W {\displaystyle W} . Se V {\displaystyle V} e W {\displaystyle W} hanno dimensione finita, il teorema della dimensione asserisce che:[12]

dim ( K e r ( f ) ) + dim ( Im ( f ) ) = dim ( V ) . {\displaystyle \dim(\mathrm {Ker} (f))+\dim(\operatorname {Im} (f))=\dim(V).}

Questo teorema fornisce un criterio necessario e sufficiente al fine di stabilire l'esistenza di una trasformazione lineare.

Endomorfismi e automorfismi

Una trasformazione lineare f : V V {\displaystyle f\colon V\to V} è un endomorfismo di V . {\displaystyle V.} L'insieme di tutti gli endomorfismi End ( V ) {\displaystyle {\text{End}}(V)} insieme a addizione, composizione e moltiplicazione per uno scalare come descritti sopra formano un'algebra associativa con unità sul campo K {\displaystyle K} : in particolare formano un anello e uno spazio vettoriale su K . {\displaystyle K.} L'elemento identità di questa algebra è la trasformazione identità di V . {\displaystyle V.}

Un endomorfismo biiettivo di V {\displaystyle V} viene chiamato automorfismo di V . {\displaystyle V.} La composizione di due automorfismi è di nuovo un automorfismo, e l'insieme di tutti gli automorfismi di V {\displaystyle V} forma un gruppo, il gruppo generale lineare di V , {\displaystyle V,} chiamato A u t ( V ) {\displaystyle \mathrm {Aut} (V)} o G L ( V ) . {\displaystyle \mathrm {GL} (V).}

Se la dimensione di V {\displaystyle V} è finita basterà che f {\displaystyle f} sia iniettiva per poter affermare che sia anche suriettiva (per il teorema della dimensione). Inoltre l'isomorfismo

End ( V ) M ( n ) {\displaystyle {\textrm {End}}(V)\to M(n)}

fra gli endomorfismi e le matrici quadrate n × n {\displaystyle n\times n} descritto sopra è un isomorfismo di algebre. Il gruppo degli automorfismi di V {\displaystyle V} è isomorfo al gruppo lineare generale G L ( n , K ) {\displaystyle \mathrm {GL} (n,K)} di tutte le matrici n × n {\displaystyle n\times n} invertibili a valori in K . {\displaystyle K.}

Pull-Back di funzioni ed applicazione trasposta

Lo stesso argomento in dettaglio: Pull-back.

Siano A , {\displaystyle A,} B {\displaystyle B} e C {\displaystyle C} insiemi e siano F ( A , C ) {\displaystyle F(A,C)} e F ( B , C ) {\displaystyle F(B,C)} le famiglie di funzioni da A {\displaystyle A} in C {\displaystyle C} e da B {\displaystyle B} in C {\displaystyle C} rispettivamente. Ogni ϕ : A B {\displaystyle \phi \colon A\to B} determina univocamente una corrispondenza ϕ : F ( B , C ) F ( A , C ) {\displaystyle \phi ^{*}\colon F(B,C)\to F(A,C)} chiamata pull-back tramite ϕ , {\displaystyle \phi ,} che manda F {\displaystyle F} in F ϕ . {\displaystyle F\circ \phi .}

Se nello specifico si considerano A = V {\displaystyle A=V} e B = W {\displaystyle B=W} due spazi vettoriali su un campo K = C {\displaystyle K=C} e anziché prendere interamente F ( V , K ) {\displaystyle F(V,K)} e F ( W , K ) {\displaystyle F(W,K)} si considerano gli spazi duali V {\displaystyle V^{*}} e W {\displaystyle W^{*}} si ha che ad ogni trasformazione lineare ϕ : V W {\displaystyle \phi \colon V\to W} si può associare l'opportuna restrizione del pull-back tramite ϕ {\displaystyle \phi } , ovvero la funzione ϕ : W V {\displaystyle \phi ^{*}\colon W^{*}\to V^{*}} che prende il nome di trasposta di ϕ . {\displaystyle \phi .}

Segue direttamente da come sono definite le operazioni in V {\displaystyle V^{*}} e W {\displaystyle W^{*}} che ϕ {\displaystyle \phi ^{*}} è a sua volta lineare. Con un semplice calcolo si vede che fissate delle basi per V {\displaystyle V} e W {\displaystyle W} e le rispettive duali in V {\displaystyle V^{*}} e W , {\displaystyle W^{*},} la matrice di trasformazione associata a ϕ {\displaystyle \phi ^{*}} è la trasposta di quella di ϕ . {\displaystyle \phi .}

Segue dalla definizione che un funzionale λ W {\displaystyle \lambda \in W^{*}} viene mandato in zero da ϕ {\displaystyle \phi ^{*}} solo se l'immagine di ϕ {\displaystyle \phi } è contenuta nel nucleo di λ {\displaystyle \lambda } cioè, indicando con U {\displaystyle U^{\perp }} il sottospazio dei funzionali che annullano U W {\displaystyle U\subset W} , si ha K e r ( ϕ ) ( ϕ ) {\displaystyle \mathrm {Ker} (\phi ^{*})\subseteq (\Im \phi )^{\perp }} . Inoltre dalla stessa definizione si deduce che un funzionale μ V {\displaystyle \mu \in V^{*}} è immagine di un funzionale η W {\displaystyle \eta \in W^{*}} (vale a dire μ = ϕ ( η ) {\displaystyle \mu =\phi ^{*}(\eta )} solo se η {\displaystyle \eta } annulla il nucleo di ϕ {\displaystyle \phi } , ossia ( ϕ ) ( K e r ϕ ) {\displaystyle \Im (\phi ^{*})\subseteq (\mathrm {Ker} \phi )^{\perp }} . Nel caso in cui V {\displaystyle V} e W {\displaystyle W} siano di dimensione finita si deduce dal teorema della dimensione e dalle relazioni dim   V = K e r ϕ + ( K e r ϕ ) {\displaystyle \dim ~V=\mathrm {Ker} \phi +(\mathrm {Ker} \phi )^{\perp }} e dim   W = dim   W = ϕ + ( ϕ ) {\displaystyle \dim ~W^{*}=\dim ~W=\Im \phi +(\Im \phi )^{\perp }} che le due inclusioni precedenti sono a tutti gli effetti uguaglianze.

Esempi

  • La moltiplicazione f ( v ) = a v , {\displaystyle f(v)=av,} in qualsiasi spazio vettoriale su K , {\displaystyle K,} per una costante fissata a K . {\displaystyle a\in K.}
  • Una rotazione del piano euclideo rispetto all'origine di un angolo fissato.
  • Una riflessione del piano euclideo rispetto ad una retta passante per l'origine.
  • La proiezione di uno spazio vettoriale V {\displaystyle V} decomposto in somma diretta:
    V = U W {\displaystyle V=U\oplus W}
    su uno dei due sottospazi U {\displaystyle U} o W . {\displaystyle W.}
  • Una matrice A {\displaystyle A} di tipo m × n {\displaystyle m\times n} con valori reali definisce una trasformazione lineare:
    L A : R n R m , L A ( v ) = A v , {\displaystyle L_{A}\colon \mathbb {R} ^{n}\to \mathbb {R} ^{m},\qquad L_{A}(v)=Av,}
    dove A v {\displaystyle Av} è il prodotto di A {\displaystyle A} e v . {\displaystyle v.} Ogni trasformazione lineare tra spazi vettoriali di dimensione finita è essenzialmente di questo tipo: si veda la sezione seguente.
  • L'integrale di una funzione reale su un intervallo definisce una mappa lineare dallo spazio vettoriale delle funzioni continue definite sull'intervallo nello spazio vettoriale R . {\displaystyle \mathbb {R} .}
  • La derivata definisce una mappa lineare dallo spazio vettoriale di tutte le funzioni derivabili in qualche intervallo aperto di R {\displaystyle \mathbb {R} } nello spazio di tutte le funzioni.
  • Lo spazio C {\displaystyle \mathbb {C} } dei numeri complessi ha una struttura di spazio vettoriale complesso di dimensione 1, e anche di spazio vettoriale reale di dimensione 2. La coniugazione
    f : C C , f ( z ) = z ¯ {\displaystyle f\colon \mathbb {C} \to \mathbb {C} ,\qquad f(z)={\bar {z}}}
    è una mappa R {\displaystyle \mathbb {R} } -lineare ma non C {\displaystyle \mathbb {C} } -lineare: infatti la proprietà di omogeneità vale solo per scalari reali.

Note

  1. ^ S. Lang, Pag. 82.
  2. ^ Hoffman, Kunze, Pag. 67.
  3. ^ Hoffman, Kunze, Pag. 68.
  4. ^ Hoffman, Kunze, Pag. 80.
  5. ^ S. Lang, Pag. 86.
  6. ^ S. Lang, Pag. 96.
  7. ^ Ray Alden Kunze, Linear algebra, 2d ed, 1971, p. 69, ISBN 0-13-536797-2, OCLC 139865. URL consultato l'8 gennaio 2022.
  8. ^ S. Lang, Pag. 84.
  9. ^ S. Lang, Pag. 85.
  10. ^ S. Lang, Pag. 90.
  11. ^ S. Lang, Pag. 91.
  12. ^ S. Lang, Pag. 92.

Bibliografia

  • Serge Lang, Algebra lineare, Torino, Bollati Boringhieri, 1992, ISBN 88-339-5035-2.
  • Kenneth Hoffman, Ray Kunze, Linear Algebra, 2ª ed., Englewood Cliffs, New Jersey, Prentice - Hall, inc., 1971, ISBN 0-13-536821-9.

Voci correlate

Altri progetti

Altri progetti

  • Wikiversità
  • Wikimedia Commons
  • Collabora a Wikiversità Wikiversità contiene risorse su trasformazione lineare
  • Collabora a Wikimedia Commons Wikimedia Commons contiene immagini o altri file su trasformazione lineare

Collegamenti esterni

  • (EN) Eric W. Weisstein, Trasformazione lineare, su MathWorld, Wolfram Research. Modifica su Wikidata
  • (EN) Trasformazione lineare, su Encyclopaedia of Mathematics, Springer e European Mathematical Society. Modifica su Wikidata
  • (EN) http://www.falstad.com/matrix/
Controllo di autoritàThesaurus BNCF 45394 · LCCN (EN) sh85077178 · GND (DE) 4167700-6 · BNF (FR) cb11944511p (data) · J9U (ENHE) 987007529341405171
  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica