Controllabilità

Nell'analisi dei sistemi dinamici, la controllabilità di un sistema dinamico è la sua capacità di raggiungere qualsiasi punto dello spazio delle fasi mediante un qualche insieme di manipolazioni. La definizione rigorosa dipende dal contesto in cui viene presentato il problema dinamico; generalmente si riferisce alla capacità di un ingresso (controllo esterno) di agire sullo stato del sistema in modo tale da condurlo da un'arbitraria configurazione iniziale ad una arbitraria configurazione finale in un intervallo di tempo finito. Il concetto duale a quello di controllabilità è l'osservabilità, che riguarda la possibilità di studiare lo stato del sistema a partire dalle uscite.

Si parla nello specifico di controllabilità per riferirsi alla capacità di portare il sistema da uno stato qualsiasi all'origine, e di raggiungibilità per riferirsi, al contrario, alla possibilità di controllare il sistema una volta che esso ha raggiunto un certo stato iniziale, ovvero di poter raggiungere qualsiasi stato a partire dall'origine. Nei sistemi LTI le due proprietà si implicano a vicenda.[1]

Gli autovalori della parte non raggiungibile di un sistema non compaiono come poli della funzione di trasferimento, e in particolare si dimostra che un sistema è controllabile se e solo se tutti gli autovalori della sua parte non raggiungibile sono nulli. La raggiungibilità implica dunque la controllabilità, ma in generale non vale il viceversa (l'equivalenza si ha solamente nei sistemi a tempo continuo).

Si tratta di proprietà introdotte per valutare le condizioni operative (come il suo stato o la sua uscita) in cui è possibile portare un sistema dinamico, specialmente se è lineare, applicando un controllo al sistema. Una nozione più debole di controllabilità è quella di stabilizzabilità: un sistema è stabilizzabile se tutti gli stati (variabili di stato) non controllabili possono essere resi stabili.

Sistemi dinamici lineari

Lo stesso argomento in dettaglio: Sistema dinamico lineare.

Dato un sistema lineare:

x ˙ ( t ) = A ( t ) x ( t ) + B ( t ) u ( t ) {\displaystyle {\dot {\mathbf {x} }}(t)=A(t)\mathbf {x} (t)+B(t)\mathbf {u} (t)}
y ( t ) = C ( t ) x ( t ) + D ( t ) u ( t ) {\displaystyle \mathbf {y} (t)=C(t)\mathbf {x} (t)+D(t)\mathbf {u} (t)}

esiste un controllo u {\displaystyle u} dallo stato x 0 {\displaystyle x_{0}} al tempo t 0 {\displaystyle t_{0}} allo stato x 1 {\displaystyle x_{1}} al tempo t 1 > t 0 {\displaystyle t_{1}>t_{0}} se e solo se x 1 ϕ ( t 0 , t 1 ) x 0 {\displaystyle x_{1}-\phi (t_{0},t_{1})x_{0}} è nello spazio delle colonne di:

W ( t 0 , t 1 ) = t 0 t 1 ϕ ( t 0 , t ) B ( t ) B ( t ) T ϕ ( t 0 , t ) T d t {\displaystyle W(t_{0},t_{1})=\int _{t_{0}}^{t_{1}}\phi (t_{0},t)B(t)B(t)^{T}\phi (t_{0},t)^{T}dt}

dove ϕ {\displaystyle \phi } è la matrice di transizione di stato e W ( t 0 , t 1 ) {\displaystyle W(t_{0},t_{1})} è la matrice gramiana di controllabilità.

Infatti, se η 0 {\displaystyle \eta _{0}} è la soluzione di:

W ( t 0 , t 1 ) η = x 1 ϕ ( t 0 , t 1 ) x 0 {\displaystyle W(t_{0},t_{1})\eta =x_{1}-\phi (t_{0},t_{1})x_{0}}

allora il controllo dato da:

u ( t ) = B ( t ) T ϕ ( t 0 , t ) T η 0 {\displaystyle u(t)=-B(t)^{T}\phi (t_{0},t)^{T}\eta _{0}}

realizza il trasferimento richiesto.

Si nota che W {\displaystyle W} in questo modo è simmetrica, semidefinita positiva e soddisfa le equazioni:

d d t W ( t , t 1 ) = A ( t ) W ( t , t 1 ) + W ( t , t 1 ) A ( t ) T B ( t ) B ( t ) T , W ( t 1 , t 1 ) = 0 {\displaystyle {\frac {d}{dt}}W(t,t_{1})=A(t)W(t,t_{1})+W(t,t_{1})A(t)^{T}-B(t)B(t)^{T},\;W(t_{1},t_{1})=0}
W ( t 0 , t 1 ) = W ( t 0 , t ) + ϕ ( t 0 , t ) W ( t , t 1 ) ϕ ( t 0 , t ) T {\displaystyle W(t_{0},t_{1})=W(t_{0},t)+\phi (t_{0},t)W(t,t_{1})\phi (t_{0},t)^{T}}

Sistemi dinamici lineari stazionari

Lo stesso argomento in dettaglio: Sistema dinamico lineare stazionario.

Dato il sistema lineare stazionario (LTI):

x ˙ ( t ) = A x ( t ) + B u ( t ) {\displaystyle {\dot {\mathbf {x} }}(t)=A\mathbf {x} (t)+B\mathbf {u} (t)}
y ( t ) = C x ( t ) + D u ( t ) {\displaystyle \mathbf {y} (t)=C\mathbf {x} (t)+D\mathbf {u} (t)}

dove x {\displaystyle \mathbf {x} } ha dimensione n × 1 {\displaystyle n\times 1} ed è il vettore di stato, y {\displaystyle \mathbf {y} } ha dimensione m × 1 {\displaystyle m\times 1} ed è l'uscita, u {\displaystyle \mathbf {u} } ha dimensione r × 1 {\displaystyle r\times 1} ed è l'ingresso (controllo), A {\displaystyle A} ha dimensione n × n {\displaystyle n\times n} , B {\displaystyle B} ha dimensione n × r {\displaystyle n\times r} , C {\displaystyle C} ha dimensione m × n {\displaystyle m\times n} e D {\displaystyle D} ha dimensione m × r {\displaystyle m\times r} .

La matrice di controllabilità ha dimensione n × n r {\displaystyle n\times nr} ed ha la forma:

R = [ B A B A 2 B . . . A n 1 B ] {\displaystyle R={\begin{bmatrix}B&AB&A^{2}B&...&A^{n-1}B\end{bmatrix}}}

Il sistema LTI è controllabile se la matrice ha tutte le colonne (o tutte le righe) linearmente indipendenti (ha rango n {\displaystyle n} ).

In modo equivalente, il sistema:

x ˙ ( t ) = A x ( t ) + B u ( t ) {\displaystyle {\dot {x}}(t)=Ax(t)+Bu(t)}

è controllabile se per ogni coppia di stati iniziale x 0 = x ( 0 ) {\displaystyle x_{0}=x(0)} e finale x f {\displaystyle x_{f}} esistono un tempo T < {\displaystyle T<\infty } e un ingresso u {\displaystyle u} tali che:

x ( T ) = e A t x 0 + 0 T e A ( t τ ) B u ( τ ) d τ = x f {\displaystyle x(T)=e^{At}x_{0}+\int _{0}^{T}e^{A(t-\tau )}Bu(\tau )d\tau =x_{f}}

Sistemi lineari stazionari discreti

Lo stesso argomento in dettaglio: Sistema dinamico lineare stazionario discreto.

Per un sistema a tempo discreto ( k Z {\displaystyle k\in \mathbb {Z} } ) l'equazione di stato ha la forma:

x ( k + 1 ) = A x ( k ) + B u ( k ) {\displaystyle {\textbf {x}}(k+1)=A{\textbf {x}}(k)+B{\textbf {u}}(k)}

dove A {\displaystyle A} è una matrice n × n {\displaystyle n\times n} e B {\displaystyle B} ha dimensione n × r {\displaystyle n\times r} matrix ( u {\displaystyle \mathbf {u} } sono r {\displaystyle r} input in un vettore colonna r × 1 {\displaystyle r\times 1} ). Similmente al caso continuo, se la matrice n × n r {\displaystyle n\times nr} data da:

C = [ B A B A 2 B A n 1 B ] {\displaystyle C={\begin{bmatrix}B&AB&A^{2}B&\cdots &A^{n-1}B\end{bmatrix}}}

ha rango massimo (pari ad n {\displaystyle n} ) il sistema è controllabile.

L'insieme degli stati raggiungibili è dato dall'immagine I m ( C ) {\displaystyle Im(C)} di C {\displaystyle C} , mentre l'insieme degli stati controllabili è dato da A n I m ( C ) {\displaystyle A^{-n}Im(C)} . Se C {\displaystyle C} ha rango massimo i due insiemi coincidono.

Infatti, preso lo stato x ( 0 ) {\displaystyle {\textbf {x}}(0)} al tempo iniziale k = 0 {\displaystyle k=0} , l'equazione di stato fornisce:

x ( 1 ) = A x ( 0 ) + B u ( 0 ) {\displaystyle {\textbf {x}}(1)=A{\textbf {x}}(0)+B{\textbf {u}}(0)}

allora:

x ( 2 ) = A x ( 1 ) + B u ( 1 ) = A 2 x ( 0 ) + A B u ( 0 ) + B u ( 1 ) {\displaystyle {\textbf {x}}(2)=A{\textbf {x}}(1)+B{\textbf {u}}(1)=A^{2}{\textbf {x}}(0)+AB{\textbf {u}}(0)+B{\textbf {u}}(1)}

e procedendo in tal modo (ovvero effettuando ricorsivamente la sostituzione del vettore x {\displaystyle {\textbf {x}}} delle variabili di stato al tempo precedente) si ottiene una forma del tipo:

x ( n ) = B u ( n 1 ) + A B u ( n 2 ) + + A n 1 B u ( 0 ) + A n x ( 0 ) {\displaystyle {\textbf {x}}(n)=B{\textbf {u}}(n-1)+AB{\textbf {u}}(n-2)+\cdots +A^{n-1}B{\textbf {u}}(0)+A^{n}{\textbf {x}}(0)}

o in modo equivalente:

x ( n ) A n x ( 0 ) = [ B A B A n 1 B ] [ u T ( n 1 ) u T ( n 2 ) u T ( 0 ) ] T . {\displaystyle {\textbf {x}}(n)-A^{n}{\textbf {x}}(0)=[B\,\,AB\,\,\cdots \,\,A^{n-1}B][{\textbf {u}}^{T}(n-1)\,\,{\textbf {u}}^{T}(n-2)\,\,\cdots \,\,{\textbf {u}}^{T}(0)]^{T}.}

Assegnando un valore a x ( n ) {\displaystyle {\textbf {x}}(n)} , l'equazione può essere sempre risolta per un vettore di vettori di controllo u T ( n i ) {\displaystyle {\textbf {u}}^{T}(n-i)} se e soltanto se la matrice delle matrici B A B A n 1 B {\displaystyle B\,\,AB\,\,\cdots \,\,A^{n-1}B} ha rango massimo.

Sistemi non lineari

Sezione vuotaQuesta sezione sugli argomenti ingegneria e fisica è ancora vuota. Aiutaci a scriverla!

Note

  1. ^ Gustavo Belforte - Controllabilità ed Osservabilità

Bibliografia

  • (EN) Katsuhiko Ogata, Modern Control Engineering, 3rd, Upper Saddle River, NJ, Prentice-Hall, 1997, ISBN 0-13-227307-1.
  • (EN) Roger W. Brockett, Finite Dimensional Linear Systems, John Wiley & Sons, 1970, ISBN 978-0-471-10585-5.
  • (EN) Jean-Pierre Aubin, Viability Theory, Birkhauser, 1991, ISBN 0-8176-3571-8.
  • (EN) Jan Polderman, Jan Willems, Introduction to Mathematical Systems Theory: A Behavioral Approach, 1st, New York, Springer Verlag, 1998, ISBN 0-387-98266-3.
  • (EN) Brian D.O. Anderson e John B. Moore, Optimal Control: Linear Quadratic Methods, Englewood Cliffs, NJ, Prentice Hall, 1990, ISBN 978-0-13-638560-8.

Voci correlate

Collegamenti esterni

Controllo di autoritàGND (DE) 4134713-4
  Portale Controlli automatici
  Portale Fisica
  Portale Matematica