caricato da xxx.ingegnere

Corso Pratico Teoria dei Sistemi per Ingegneria Informatica ( Appunti Esempi esercizi svolti)

annuncio pubblicitario
Corso Pratico Appunti ed
Esercizi Svolti di:
Teoria dei Sistemi

A cura di: Francesco di Dio
[email protected]
Indice
1. Definizione di Sistemi e Teoria dei Sistemi .....................................................3
1.2 Contesto e Radici della Teoria dei sistemi ............................................................ 3
1.3 Il Modello e il Sistema Astratto............................................................................ 3
1.4 Tipi di Sistemi ..................................................................................................... 4
2. I sistemi allo studio ........................................................................................6
2.1 Le rappresentazioni con lo stato ........................................................................... 6
2.2 Le classi di rappresentazioni dei sistemi allo studio ................................................ 6
2.3 Sistemi a tempo continuo e a tempo discreto ........................................................ 8
3 Introduzione ai metodi di Analisi.....................................................................8
3.1 Analisi nel dominio del tempo............................................................................... 9
3.2 Analisi del comportamento in Frequenza............................................................. 11
3.3 Analisi qualitativa delle soluzioni......................................................................... 11
3.4 Sistemi interconnessi ......................................................................................... 11
4 Rappresentazioni Approssimate ....................................................................13
4.1 Tecnica per L’Approssimazione Lineare ............................................................... 13
4.2 Campionamento e Tenuta per sistemi a tempo continuo...................................... 15
5 Analisi nel Tempo delle rappresentazioni Lineari...........................................17
5.1 Impulso di Dirac................................................................................................ 17
5.2 La Realizzazione Esplicita (nel tempo continuo) ................................................... 19
5.3 La realizzazione esplicita (nel tempo discreto) ..................................................... 25
6 La trasformata di Laplace ..............................................................................30
7 Analisi nel dominio complesso nel caso generale ..........................................31
7.1 Analisi nel Tempo Continuo................................................................................ 31
8 Forma e Diagrammi di Bode...........................................................................33
8.2 Diagrammi di Bode............................................................................................ 34
9 Proprietà dello stato:.....................................................................................40
La Stabilità..........................................................................................................40
9.2 Tecniche per lo studio della Stabilità................................................................... 42
10 Proprietà dello stato: ...................................................................................51
Raggiungibilità e Osservabilità ...............................................................................51
10.2 La scomposizione di Kalman............................................................................. 53
Appendice A .....................................................................................................56
Forma di Jordan ..................................................................................................56
1. Definizione di Sistemi e
Teoria dei Sistemi
Per Sistema intendiamo un aggregato di oggetti rispetto ad un
certo punto di vista, che possono essere trattati come se si
trattasse di un unico oggetto.
Punto di Vista
 Sistema Arterioso, Sistema Venoso…
Forma
 Sistema Circolatorio,…
Funzione
1.2 Contesto e Radici
della Teoria dei sistemi
Il contesto nel quale nasce la teoria dei sistemi è quello del
novecento, caratterizzato da:
Spinta verso teorie unitarie;
Metodi di analisi descrittiva;
Nascita della teoria dell’informazione;
Questo favorisce la teorizzazione di un’analogia tra i processi
naturali, fisici, comportamentali, che costituisce la base sulla quale
si sviluppano i primi modelli matematici validi per diversi tipi di
sistemi.
1.3 Il Modello e il
Sistema Astratto
Il modello, è una rappresentazione per analogia “dell’ oggetto” che
vogliamo rappresentare, più in generale, il modello matematico
è la rappresentazione più astratta.
Per esempio, una popolazione di conigli può essere rappresentata
matematicamente, dall’espressione: p' (t )  cp (t ) ; dove p(t)
rappresenta il numero di conigli nel tempo, e c è il tasso di
crescita.
Ma si è visto che:
Fenomeni diversi possono essere rappresentati dallo stesso
Modello;
Lo stesso Fenomeno può essere rappresentato da più Modelli;
Per esempio:
Una resistenza ed una forza sono rappresentati dallo stesso modello:
Resistenza: V  RI (t ) ;
Forza: F  ma(t );
Questo ci porta a considerare che lo studio di un solo modello, con le
dovute interpretazioni, si può applicare ai diversi contesti a cui può
far riferimento.
La popolazione dei conigli può essere modellizzata sia con
l’equazione:
p' (t )  cp(t );
Ma anche con un equazione equivalente, dove per esempio p(t)
risulta:
p(t )  e c (t t0 )  p (t 0 ) ;
Ciò suggerisce l’idea che un modello non è l’equivalenza astratta del
fenomeno, ma una classe di equivalenza.
1.4 Tipi di Sistemi
Abbiamo diversi tipi di sistemi:
Sistema Astratto
Sistema Orientato
Sistema Autonomo
Sistema Dinamico
Sistema Causale
Sistema Stazionario
Sistema astratto:
Quando associamo ad un fenomeno fisico, non uno specifico modello
matematico,
ma
una
classe
d’equivalenza
di
possibili
rappresentazioni (modelli matematici);
Sistema astratto Orientato:
Lo studio del fenomeno comprende le relazioni che intercorrono tra
le cause (input) e gli effetti (output), che ci consente di comprendere
come il fenomeno si comporta.
La scelta delle grandezza che ci interessa studiare, condiziona la
costruzione del corretto modello matematico associato.
Sistema Autonomo:
Gli “input” del fenomeno non sempre sono necessari all’evoluzione
del sistema. Una popolazioni di conigli ad esempio si evolve a
prescindere se continuiamo ad immettere conigli nel sistema.
Sistema Dinamico:
Un sistema è dinamico, quando la sua evoluzione e quindi la sua
“uscita” varia al variare dei parametri d’ingresso (t0) e all’istante t1
continuo ad avere diverse possibili uscite.
La popolazione di conigli è anch’esso un sistema dinamico. Il suo
andamento sarà diverso se all’istante t0 ho una coppia di conigli o
dieci coppie, e all’istante t1 avrò diversi possibili “scenari” che
dipendono dalle condizioni di partenza. La resistenza invece non è un
sistema dinamico, ad ogni entrata corrisponde un’uscita.
Sistema causale:
Quando l’uscita dipende non solo dall’ingresso, ma anche
dall’andamento del fenomeno fino all’istante d’interesse (passato),
ma non dal “futuro”.
Sistema Stazionario:
Si tratta, come l'intuizione suggerisce, di sistemi in cui i possibili
comportamenti non dipendono dal tempo; in altre parole il risultato
di esperimenti sul sistema non dipende dall'istante in cui
l'esperimento inizia. I comportamenti sono dunque invarianti rispetto
alla traslazione temporale.
I sistemi allo studio sono del tipo: Lineari, Dinamici e
Stazionari.
2. I sistemi allo studio
2.1 Le rappresentazioni
con lo stato
Una rappresentazione di un sistema non è fatta solo di variabili di
entrata e variabili d’uscita, ma il rapporto che intercorre tra loro
mette in gioco altre variabili che vengono chiamate di stato.
Queste variabili hanno lo scopo di mantenere tutte le
informazioni sul passato del sistema.
Esempio: Popolazioni di farfalle
BRUCOCRISALIDEFARFALLA
Con Xi identifichiamo il numero di individui nelle diverse fasi, e in
particolare:
X1= numero di Bruchi
X2=numero di Crisalidi
X3=numero di Farfalle
Xi(k) è il numero di individui nella fase i;
Consideriamo come si sviluppa il sistema in un periodo finito,
supponiamo un mese.
Il numero di bruchi è funzione del numero di farfalle che li
producono;
X 2 (k  1)  s ( X 1 (k )); s  1 Il numero di crisalidi è inferiore di un fattore s al numero di bruchi;
X 3 (k  1)  n( X 2 (k ))
Il numero di farfalle è proporzionale al numero di crisalidi;
g(k)=X3(k)
G(k) rappresenta l’uscita del sistema e cioè il numero di farfalle;
X 1 (k  1)  f ( X 3 (k ))
Come si vede, grazie alle variabili di stato (X1,X2), è possibile per ogni
istante k del sistema avere tutte le informazioni sul passato del
sistema.
Quindi fissati gli ingressi, per ogni istante di tempo ho una sola uscita
che contiene tutte le informazioni sul sistema.
2.2 Le classi di
rappresentazioni dei
sistemi allo studio

I sistemi lineari a tempo continuo( t  R ), e a tempo discreto( t  Z )
che AMMETTONO rappresentazioni con lo stato, vengono tipicamente
descritte dal seguente sistema, se t  R
x ' (t )  Ax (t )  Bu (t )
y (t )  Cx (t )  Du (t )
2.0.1 Tempo continuo
Dove:
u
y
x
vettore degli ingressi di dimensione Rn;
vettore che rappresenta le uscite del sistema di dimensione Rm;
vettore che rappresenta le variabili di stato di dimensione Rp;
A
B
C
D
matrice
matrice
matrice
matrice
pxp (x) (Matrice di Stato);
pxn (x n) (Matrice che « forza » l’entrata;
mxp(y x) (Matrice delle uscite dello Stato);
mxn (y n) (Matrice delle uscite delle “entrate”;
Se per esempio abbiamo un sistema con 2 variabili d’ingresso,1
d’uscita e 2 di stato,
quindi abbiamo: n=2; m=1; p=2;
Il sistema che descrive ciò è:
  

x


a
a
x
b
b
u
1










11
12
12
 1    11
 1 
     a
 21 a 22  x2   b21 b22  u 2 
 x2 



 x1 


y  c1 c 2  
x


 2
Lo schema sarebbe:
U1
S
y
U2
X1,2
Se invece il sistema è a tempo discreto, l’unico accorgimento da
attuare è che la derivata delle variabili di stato rispetto al tempo è
sostituita dalla variabile al tempo (t+1), quindi diventa:
x (t  1)  Ax (t )  Bu (t )
y (t )  Cx (t )  Du (t )
1.2 Tempo discreto
Tutti i sistemi lineari:
 Possono esseri descritti con questa rappresentazione (1.1 e 1.2);
 Vettori d’uscita (y1…yn ) e combinazioni lineari di essi sono ancora
soluzioni del sistema;
 Possiamo fare diverse scelte sulle variabili di stato.

La corretta scelta delle variabili di stato può semplificare il sistema,
per cui a partire da:
x(t) possiamo fissare un nuovo vettore z(t) legato ad x(t) dalla
relazione:
z(t)=T(x(t))
Con T matrice non singolare.
In questo caso avremo il sistema del tipo :

z (t )  TAT 1 x(t )  TBu (t )
y (t )  CT 1 x(t )  Du (t )
Nota che: Questa rappresentazione equivalente può non essere
lineare.
2.3 Sistemi a tempo
continuo e a tempo
discreto
Alle rappresentazioni che abbiamo già visto (1.1 e 1.2) implicite (in
quanto sono presenti le variabili di stato, è associato uno schema di
realizzazione o di simulazione.
U(t)
B
+
x(t)
Integra
+
+
C
x’(t)
Y(t)
+
A
Questo dispositivo simula il sistema in oggetto, per i sistemi a tempo
discreto, basta sostituire “l’integratore” con un elemento che genera
ritardo.
U(t)
B
+
+
x’(t)
Ritardo
X(t+1)
A
x(t)
+
C
+
Y(t)
3 Introduzione ai metodi di
Analisi




Vediamo ora quali sono i metodi di analisi dei sistemi che
utilizzeremo nel corso:
Analisi nel dominio del tempo
Analisi nel dominio della frequenza
Analisi qualitativa delle soluzioni
Analisi dei sistemi interconnessi
3.1 Analisi nel dominio
del tempo

Effettuiamo ora l’analisi nel dominio del tempo di una popolazione di
studenti di un corso di studi di tre anni.
Indichiamo con Xi(t) Il numero di studenti iscritti nell’anno di corso i
nel tempo (anno) t;
Indichiamo con ri il numero di studenti ripetenti nell’anno di corso i;
Indichiamo con u il numero di iscritti all’inizio dell’anno;
Indichiamo con y(t) il numero di studenti che frequentano il corso di
studi al tempo t;
Le equazioni che descrivono il modello sono:
Tabella 3-1
x1 (t  1)  r1 x1 (t )  u (t )
Il numero di studenti del primo anno dipende dal numero di
ripetenti del primo anno più il numero di iscritti;
x 2 (t  1)  (1  r1 ) x1 (t )  r2 x 2 (t ) Il numero di studenti del secondo anno dipende dal numero
di studenti che passano il primo più quello degli studenti che
ripetono il secondo;
x3 (t  1)  (1  r2 ) x 2 (t )  r3 x 2 (t ) Il numero di studenti del terzo anno dipende dal numero di
studenti che passano il secondo più quello degli studenti che
ripetono il terzo;
y (t )  x1 (t )  x 2 (t )  x3 (t )
Il numero totale degli studenti al tempo t è la somma degli
studenti di tutti e tre gli anni del corso;
Fissiamo i coefficienti dei ripetenti di ogni anno a:
r1= 0.3 (30%);
r2= 0.2 (20%);
r3= 0.1 (10%);
Questo è un sistema lineare a tempo discreto (annuale) ed è quindi
possibile esprimerlo attraverso la relazione:
x (t  1)  Ax (t )  Bu (t )
y (t )  Cx (t )  Du (t )
Dove le matrici A,B,C,D sono così definite:
0
0 
 0. 3
1


 
A  1  0.3
0.2
0  B  0
 0
0
1  0.2 0.1

 
1 0 0


C   0 1 0
 0 0 1


0
 
D  0
0
 
E il sistema prende così la forma di:
x(t+1)=
1

y(t)=  0
0

0
0   x1   1 
 0. 3

   
A  1  0.3
0.2
0   x 2  +  0  1000
 0
1  0.2 0.1  x 3   0 

0 0   x1   0 
   
1 0   x 2  +  0  1000
0 1   x 3   0 
Che è assolutamente equivalente a ciò che abbiamo scritto nella
tabella 3.1;
E’ possibile visualizzare il grafico di questo sistema
utilizzando matlab.
Si definiscono le matrici A,B,C,D.
Si digita al prompt:
S=ss(A,B,C,D,1)
Ltiview(S);
Come si vede dal grafico, il numero di studenti si assesta dopo 5 /6
anni, ed il numero è dato dalla somma degli studenti delle diverse
classi (X1,X2,X3);
3.2 Analisi del
comportamento in
Frequenza
Lo studio del comportamento in frequenza rappresenta un approccio
alternativo all’analisi dei sistemi dinamici. In particolare si studiano i
risultati a partire da sollecitazioni di tipo periodico alle variabili di
stato e alle variabili in ingresso che lo permettono.
3.3 Analisi qualitativa
delle soluzioni
L’analisi qualitativa delle soluzioni consiste nello studio del sistema
grazie al quale è possibile conoscere il comportamento generale del
sistema. A questo punto è possibile fare delle considerazioni sullo
stesso senza dover calcolare la specifica soluzione.
Nel caso della popolazioni di studenti, dal grafico emerge che:
 La numerosità della popolazione si stabilisce dopo un certo tempo t;
 E’ possibile imporre che gli studenti in uscita dal corso siano un
determinato numero, e trarre delle conclusioni sul numero di studenti
che devono entrare per soddisfare questa condizione;
 E’ possibile imporre il numero massimo di studenti presenti ai vari
anni e conoscere il numero di studenti che ogni anno escono dal
corso;
Queste considerazioni fanno parte dell’analisi qualitativa del sistema
che più in generale prevede:
Analisi Qualitativa
Descrizione
Stabilità
Forma delle soluzioni nel punto d’equilibrio;
Raggiungibilità
E’ possibile avere certi valori di in e out?
Osservabilità
Posso analizzare lo stato a partire dalle
equazioni di ingresso e di uscita?
3.4 Sistemi
interconnessi
I sistemi interconnessi sono generalmente tutti quei sistemi lo stato
dipende dall’uscita e viceversa. Sistemi di questo genere sono per
esempio i controlli a retroazione; Nella forma più generale si
presentano come in figura:
Un motore e il suo driver sono sistemi interconnessi in quanto la
velocità angolare in uscita dal sistema meccanico, deve essere
misurata dal driver per agire sulla corrente (o sulla tensione) in
ingresso al motore.
4 Rappresentazioni
Approssimate
Le rappresentazioni dei sistemi lineari non sempre sono fedeli al
100% al modello reale, le cause di ciò possono essere molteplici:
 Ipotesi Semplificative (ma non ce ne occuperemo)
 Semplificazioni del modello:
1. Non Lineare  Lineare;
2. Tempo continuoTempo discreto;
Quando ci troviamo di fronte ad un sistema non lineare, (vedi
Geometria) abbiamo una tecnica che ci permette di approssimarla ad
un sistema lineare, allo stesso modo di come la derivata di una
funzione in un punto approssima a quel punto,in un certo intervallo
I;
P(s)
I
s0
s
4.1 Tecnica per
L’Approssimazione
Lineare
Ammettiamo di avere un sistema non lineare del tipo:

x  f ( x, u )
y  h ( x, u )
E supponiamo che i punti di equilibrio, cioè i punti nei quali le
equazioni di stato f(x,u) si annullano, siano xe,ue. Avremo:
f(xe,ue) = 0;
h(xe,ue) = y(e);
Possiamo scrivere l’uguaglianza:
f ( x, u )  f ( xe , ue ) 
df
df
( x  xe ) ( xe ,ue ) 
(u  ue ) ( xe ,ue )
dx( xe )
du(ue )
Jacobiano
h( x, u )  h( xe , ue ) 
Jacobiano
dh
dh
( x  xe ) ( xe ,ue ) 
(u  ue ) ( xe ,ue )
dx
du
Jacobiano
Jacobiano
Da queste equazioni possiamo ricavarci le matrici che descrivono il
nostro sistema.
A=
df
( x  xe )( xe ,ue ) ;
dx
Jacobiano
B=
df
(u  ue )( xe ,ue ) ;
du
Jacobiano
C=
dh
( x  xe )( xe ,ue ) ;
dx
Jacobiano
D=
dh
(u  ue ) ( xe ,ue )
du
Jacobiano
Se poniamo:
x  x  x e
u  u  u e 
y  y  y e
Avremo:

 x  Ax  Bu
y  Cx  Du
La soluzione dei questo sistema coincide con l’approssimazione della
soluzione del sistema non lineare.
Esempio Preda-Predatore
L’esempio prevede due equazioni di stato non lineari, una per la
preda e l’altra per il predatore.

x1  ax1  bx12  cx1 x 2
Preda:

Predatore: x 2  ex 2  c ' x1 x 2
Troviamo gli zeri delle equazioni che corrispondono ai punti
d’equilibrio.
e
E1 X 2 
x1 (a  bx1  cx 2 )  0
E1X 1  0
c'
ac'be
E1 X 2  0
x 2 (e  c ' x1 )  0
E2 X 2 
cc'
La matrice Jacobiana delle equazioni vale:
 f ( x1 )



 x1
J( x 1 ; x 2 )= 
f ( x 2 )

 x 2
E quindi, calcolata

f ( x1 ) 

x1 x 2 
f ( x 2 ) 

x 2 
nello specifico avremo:
 a  2bx1  cx 2
c' x 2


J( x 1 ; x 2 )= 
 cx1 

 e  c ' x1 
Da cui, calcolandola nei punti E1 ed E2:


a 0 

0

e


J(0,0)( x 1 ; x 2 )= 
  be

c'

 e ac 'be   
J ,
 ( x 1 ; x 2 )=  ac' be
 c cc' 

 c

 e


0 

Queste due matrici rappresentano le approssimazioni lineari di stato
per il sistema preda predatore nei punti E1 ed E2, quindi otteniamo
due matrici A.
4.2 Campionamento e
Tenuta per sistemi a
tempo continuo
Per approssimare un sistema a tempo continuo in uno a tempo
discreto occorre fare il campionamento del sistema. Questo è tipico
dei processi economici molti dei quali evolvono in modo continuo ma
una loro discretizzazione li semplifica enormemente. L’andamento del
PIL in una nazione evolve in maniera continua, ma possiamo creare
un modello matematico che sfruttando delle opportune variabili di
stato gestisca il sistema con tempo unitario pari a un mese. Per far
ciò occorre campionare il sistema, le variabili ecc..
Campionamento
E’ un processo di misurazione a tempo discreto. Ogni tot tempo
effettuo una misurazione. Il grafico risultante approssimerà a quello
reale in modo inversamente proporzionale al tempo tra un
campionamento e l’altro.
Sistema a tempo continuo
Sistema a tempo discreto (tc=1)
Sistema a tempo discreto (tc=1/2)
Come si vede dai grafici, maggiore è il tempo di campionamento,
minore sarà la precisione. Ma un altro parametro importante è la
quantizzazione.
Quantizzazione
Il calcolatore non ha precisione infinita, quindi oltre alla limitazione
della discretizzazione del tempo, abbiamo anche il limite della misura
approssimata del valore della funzione nel tempo, dato che il
calcolatore non lavora con precisione infinita.
Se nell’esempio precedente, fossimo limitati a soli tre valori della f(t),
il grafico, pur con tempo di campionamento (tc) uguale a 1,
risulterebbe molto poco accurato.
Sistema a tempo discreto (tc=1/2) Quantizzato
Inoltre nel calcolo della derivata in sistemi a tempo discreto, questa
approssima con l’incremento della variabile tempo.
xkT  T  x (kT ) 
T
E quindi…

x( k T ) 

x(t )  f x (t ), u (t ) 
x(k  1)  f c x(k ), u (k ) 
5 Analisi nel Tempo delle
rappresentazioni Lineari
Esistono due tipi di rappresentazioni dei sistemi. Il modello implicito
e il modello esplicito.
 La rappresentazione implicita, è costituita dalle equazioni racchiuse
dal sistema del tipo:
x ' (t )  Ax (t )  Bu (t )
y (t )  Cx (t )  Du (t )
 La rappresentazione esplicita invece è quella che restituisce le
soluzioni del sistema differenziale visto in precedenza.
Possiamo individuare due casi:
CASO I
Sistemi con un solo ingresso, una sola uscita, un solo stato.
Praticamente, in questo caso le matrici A,B,C e D sono degli scalari. E
il sistema è un semplice sistema differenziale le cui soluzioni sono la
somma della omogenea, più la soluzione generale.
x' (t )  Ax (t )  Bu (t )
diventa:
x' (t )  ax (t )
La cui soluzione è data: Omogenea: x(t0)=x0 + Soluzione generale;
Quindi:
t
x(t )  e
a ( t t0 )
x0   e a (t t0 ) bu (t ) dt
t0
Analogamente, per l’equazione implicita:
y  cx(t )  du (t )
la soluzione è:
t
y (t )  c(e
a ( t t0 )
x0 )   e a ( t t0 ) (bu )dt  Du (t )
t0
5.1 Impulso di Dirac
Per avere una rappresentazione più sintetica della rappresentazione
esplicita utilizziamo la funzione:
 (t )  Impulso di Dirac
Funzione che vale +  nell’istante in cui si annulla l’argomento.
Impulso
a
b
b
0  [ a, b]
  ( )d  1
a
In t0 abbiamo l’impulso  (t 0 ) , quindi:
b
 f ( ) (t  t
0
)d  f (t 0 ) da cui possiamo scrivere:
a
b
u (t )   u ( ) (t   )d
a
Sostituendo avremo:
t
y  c(e
a ( t t0 )
x 0 )   (ce a ( t  ) b  d (t   ))u ( )d
t0
CASO II
Abbiamo un sistema con più ingressi, più uscite e più stati. In questo
caso i coefficienti delle nostre equazioni differenziali nel modello
implicito sono delle matrici. Il risultato non cambia.
E avremo:
t
x (t )  e
A ( t t0 )
x 0   e A( t  ) Bu ( )d
t0
Evoluzione Libera dello stato
Q(t)
Evoluzione Forzata dello stato
H(t)
t
y (t )  C
A ( t t0 )
x0   (Ce A( t  ) B )u ( )d
t0
Evoluzione libera della risposta
Ψ(t)
Q (t )  e At
Evoluzione forzata della risposta
W(t)
H (t )  e At B
 (t )  Ce At
W (t )  Ce At B
Quindi il calcolo del modello esplicito si riduce ad
eAt.
5.2 La Realizzazione
Esplicita (nel tempo
continuo)
Per calcolare ed analizzare esplicitamente il sistema, dobbiamo
studiare la matrice eAt. Lo studio di questa matrice porta ad
analizzare delle soluzione. Il tipo di queste soluzioni porta a
comprendere in che modo evolve il sistema. Abbiamo due casi di
studio nelle rappresentazioni lineari: a tempo continuo e a tempo
discreto.


Se poniamo D=TAT-1
E sappiamo calcolare eDt allora
-1 Dt
eAt= eT-1DTt= T e T
La matrice A è nota ;
La matrice D è funzione di A e di T, allora basta calcolare T.
La matrice T-1 è la matrice degli autovettori di A.
Studieremo i casi in cui A è SEMPLICE, cioè gli autovettori di A sono
tutti distinti, o se la loro molteplicità è uguale alla dimensione del
rispettivo autospazio. (vedi Geometria).
 1
3 2
  d ( )   2  5  4  1
Esempio: A  
2  4
1 2
Sostituendo questi valori alla matrice
 3  k
 1
A  I   
2 

2   k 
ottengo una matrice, i cui vettori linearmente indipendenti saranno
gli autovettori (u,u1,…uk), dell’autospazio k .
1
 2
In questo caso sostituendo λ1 ottengo u1=   e con λ2=  
 1
1
Avremo che:
 1 2
1  2 
3 2



T 1  
T  
A  
 1 1
1 1 
1 2
E che:
 1 0   1 0 
  
  
T 1 AT  
 0 2   0 4 
Dato che:
 1 2  e t

eAt=T-1eΛtT= 
  1 1  0
 e t  2e 4t
 t
  e  e 4t

0 1  2 

=
4t 
e 1 1 
 2e t  2e 4t 

t
4t
2 e  e 
A questo punto siamo in grado di calcolare esplicitamente
l’evoluzione generale del sistema.
 e t  2e 4 t  2e t  2e 4 t 
x
Q (t )   t
4t
t
4t  0

e

e
2
e

e


t
4t
t
 e  2e
 2e  2e 4 t 

B
H (t )   t
4t
t
4t 

e

e
2
e

e


 e t  2e 4t  2et  2e 4t 
x
 (t )  C t
4t
t
4t  0

e

e
2
e

e


t
4t
t
4t
 e  2e
 2e  2e 
B  D
W (t )  C  t
4t
t
4t


e

e
2
e

e


Se gli autovalori non appartengono tutti ai reali, ma
abbiamo coppie di complessi coniugati, la soluzione esplicita
ha una forma diversa.
Poniamo il caso che n(A)=3.
d ( )  3  a 2 2  a1  a
Con :
λ1
α  jω
 Reale
 Complessi Coniugati
Adesso associamo gli autovettori agli autovalori in questo
modo.
λ1u (come abbiamo fatto prima)
Ua=[α;α]
(Dividendoli in parte reale (ua) ed immaginaria(ub));
Ub=[ω;-ω]
Gli autovettori associati ai complessi coniugati, (per essere trovati
esplicitamente)devono soddisfare:
 a c   a c    
a
c
  

  u a    ; u b   
A
 b d   b d     
b
d 
Risolto il sistema, possiamo trovarci le matrici di trasformazione T e
T-1:
T
1
 

  u ua
 



E TAT-1=  0
0

e
…


ub 
 
 v


T   va  
v 
 b 
0
0

   =Λ
   
 

 



 t

ma eΛt...
 cos(  t )
 e  t 
  sin(  t )
sin(  t ) 

cos(  t ) 
Quindi
 e t

eΛt=  0
 0



cos(t ) sin( t ) 
 sin( t ) cos(t ) 
0
0
infine:
 

At
e =  u ua
 



ub 
 
 e t

 0
 0

 v


cos(t ) sin( t )   v a  
 sin( t ) cos(t )   vb  
0
0
Le cui soluzioni sono:
eAt=
eλt
eλt
eλt u v +
ua ( vacosωt + vb sin ωt ) +
ub ( vbcosωt – va sin ωt )
Conclusioni
Se moltiplichiamo quanto abbiamo ottenuto per x0 (eAtx0)
siamo in grado di calcolare l’evoluzione libera dello stato del
sistema.
Tuttavia possiamo ancora applicare qualche sostituzione per
semplificare i calcoli:
Posto:
v' x 0  c v' a x0  c a
v' b x0  cb
(rappresentano le componenti di x0 nella nuova base u ua
ub)
E:
m  c a2  cb2
sin  
ca
m
cos  
cb
m
Troviamo che l’evoluzione libera vale:
ce t u  me t sin(t   )u a  cos(t   )u b 
Evoluzione Libera
E Inoltre:
Calcolo Esplicito delle Soluzioni
(a tempo continuo)
Evoluzione Libera
Evoluzione Forzata
eAtx0
eAtB
Risposta Libera
Risposta Forzata
At
CeAtB+D
Ce x0


I modi naturali ci indicano ,attraverso le soluzioni che abbiamo
trovato con lo studio di eAt, il modo in cui evolve il sistema. Questa
evoluzione (legge di moto) nel tempo dipende dagli autovalori
della matrice A. In corrispondenza degli autovalori reali abbiamo un
modo aperiodico, in corrispondenza di autovalori complessi abbiamo
un modo pseudo-periodico.
Nel caso generale (n dimensione) avremo:
+ autovalori reali;
+ autovalori complessi;
Ma abbiamo sempre due modi:
 Uno dato dalla somma degli autovalori reali: aperiodico;
 Uno dato dalla somme degli autovalori complessi: pseudoperiodico;
La combinazione lineare di queste due leggi di moto, ci dà
l’andamento del sistema in funzione del tempo.
MODO APERIODICO
E’ il modo associato agli autovalori reali nello spazio nella direzione
dei corrispondenti autovettori che formano la nuova base sulla quale
il sistema evolve.
E’ definito dalla legge di moto:
e t u
Legge di moto esponenziale nella direzione del vettore (autovettore)
u.
Il verso è stabilito da λ.
λ>0  Si muove in direzione u verso infinito;
λ=0  Il moto è zero sul vettore (componente) u;
λ<0  Si muove verso lo zero in direzione u man mano che
il sistema evolve;
MODO PSEUDO-PERIODICO
E’ associato alle coppie di autovalori complessi coniugati. Essendo
leggi di moto definite lungo le direzioni associate a questi autovalori
con funzioni di tipo seno e coseno, hanno un andamento di tipo
elicoidale.
In particolare se abbiamo:
    ju
Se
a=0  Il moto è rappresentato da un ellisse;
a<0  Il moto è di tipo a spirale che si chiude, (tende a
zero);
a>0  Il moto è di tipo a spirale che tende a infinito,
come in figura;
Le leggi di moto nel dominio del tempo saranno delle oscillazioni
smorzate, amplificate o costanti dipendentemente dal valore del
parametro alfa;
In generale quando il sistema A è semplice la sua evoluzione nel
tempo sarà la combinazione lineare dei due modi; Se abbiamo per
esempio un modo aperiodico che tende a zero, e alfa uguale a zero
ci aspetteremo che il sistema evolva ad elica che si schiaccia in
prossimità dello zero. Come in figura.
Aperiodico:
Pseudo Periodico:
λ<0;
α=0
5.3 La realizzazione
esplicita (nel tempo
discreto)
La rappresentazione con lo stato nel caso discreto, non cambia
rispetto al dominio nel tempo continuo.
x(k  1)  Ax(k )  Bu (t )
y (k )  Cx(k )  Du(t )
x(k 0 )  x0
La realizzazione esplicita, è molto semplice da calcolare, basta
semplicemente sviluppare i calcoli:
x( k 0  1)  Ax 0  Bu ( k 0 )
x( k 0  2)  Ax (k 0  1)  Bu ( k 0  1) 
A( Ax 0  Bu (k 0 ))  Bu (k 0  1) 
A 2 x0  ABu ( k 0 )  Bu ( k 0  1)
x( k 0  3)  A 3 x0  A 2 Bu (k 0 )  ABu ( k 0  1)  Bu (k 0  2)
E quindi la rappresentazione esplicita possiamo sintetizzarla con:
k 1
x(k )  A
k  k0
x0 
A


k  1
Bu ( )
 k0
k 1
y ( k )  CA
k  k0
x0 
CA


k  1
Bu ( )  Du ( k )
 k0
Sintetizzando Avremo:
 (k )  A k
 (k )  CA k
H (k )  A k 1 B
CA k 1 B; k  0
W (k )  
 D; k  0
Rappresentazione Esplicita
Φ Matrice di Transizione
Η Matrice delle risposte Impulsive
Ψ Trasferimento in Uscita
W Matrice delle risposte Impulsive in Uscita
Similmente al caso a t continuo, il calcolo delle soluzioni passa per il
calcolo di Ak.
La differenza sta nel fatto che, per una semplicità di calcolo, nel
caso di autovalori complessi utilizziamo la forma di rappresentazione
esponenziale:
a  ij   (cos   isen )  e ij
Esempio:
n=3
Abbiamo 3 autovalori:
 ij
e ij

Calcoliamo gli autovettori nel modo che abbiamo già visto in 5.2.1
Otteniamo:
T 1  u u a
TAT
1
ub 


 0
0

A k  u u a
 v' 
 
T   v a' 
 v' 
 b
0
 cos 
  sin 
0


 sin  
 cos  
0


u b  0  cos 
 0   sin 

0
 v' 
 
 sin   v a' 
 cos   vb' 
Facendo i calcoli otteniamo:


A k  k uv '  k u a cos kv a'  sin kv 'b   k u b cos kv ' b  sin kv ' b 
Evoluzione Libera
Per il calcolo dell’evoluzione libera dobbiamo calcolare Akx0, ma
dobbiamo calcolare x0, nella nuova base, u, ua, ub:
 v' x0  c

v' a x0  c a
v' x  c
b
 b 0
Se poi, poniamo:
m  c a2  cb2
c
sen  a
m
c
cos   b
m
A k x0  ck u  m k sin(k   )u a  cos(k   )ub 
In generale, in corrispondenza di autovalori reali abbiamo
sommatorie del tipo cλku.
In corrispondenza di autovalori complessi coniugati, abbiamo una
sommatoria del tipo: m k sin(k   )u a  cos(k   )u b .


Quindi, anche in questo caso possiamo stabilire l’andamento
dell’evoluzione libera, nelle diverse direzioni (u,ua,ub) “guardando” gli
autovalori della matrice A.
I modi naturali nel tempo discreto sono 3:
λ reale
Aperiodico
Alternante
1 APERIODICO   R   0
Il sistema evolve nella direzione di u ( k u )
Ma distinguiamo due casi:
0<l<1
l>1
2 ALTERNANTE   R
Ricordandoci che per:
λk
  1 decrescente Alternante
0
K pariλk>0
K dispari λk<0
  1 crescente Alternante
3 PSEUDO PERIODICO
 C
E’ il modo associato agli autovalori complessi coniugati, da quello che
abbiamo visto nel calcolo delle soluzioni, la legge di moto associata a
questi tipi di autovalori sono descritte da equazioni del tipo:
m k sin(k   )u a  cos(k   )u b 
Per cui se:
0<ρ<1 Nel piano complesso generato da ua ub abbiamo un elicoide che
converge nell’origine, mentre nel dominio del tempo avremo un moto
sinusoidale che tenderà a smorzarsi nel tempo.
r>1
Nel piano complesso generato da ua ub abbiamo un elicoide che
diverge dall’origine, nel dominio del tempo, invece avremo una
sinusoide che tenderà ad amplificarsi nel tempo.
6 La trasformata di Laplace
La trasformata di Laplace risulta essere fondamentale per passare
dal dominio della variabile complessa, a quello della variabile reale
(del tempo,…).
Indicando con L( f (t )) l’operazione di trasformazione della funzione
f(t), valgono le seguenti proprietà:
1) Linearità:
2) Derivazione:
Lf (t )  g (t )   F ( s )  G (s )
L f(t )  sF ( s )  f (0)
 
Ricordando che è (quasi) sempre possibile scomporre la nostra f(t) in
somma di funzione più semplici, vediamo alcune semplici
trasformate-antitrasformate.
F(s)

F(t)
Descrizione
1
 (t )
Funzione Impulsiva
1
s

2
s 2
s
2
s 2
b
sa
F(s-α)
1 (t )
Funzione Gradino
Unitario
F(s) e
 sT
sin(t )1 (t )
cos(t )1 (t )
be at

L et f (t )

Lf (t  T )
Cambio di variabile
Teorema della
Traslazione
7 Analisi nel dominio
complesso nel caso generale
7.1 Analisi nel Tempo
Continuo
Nel caso in cui la matrice A non sia semplice, ovvero che la
molteplicità geometrica degli autovalori sia diversa da uno, il
procedimento per il calcolo delle soluzioni risulta essere più
complesso.
Possiamo immediatamente verificare la semplicità di A, andando a
trasformarla nel dominio complesso:
sI  A1 
E ( s)
;
m( s )
m( s)  ( s  1 )1 ( s  2 )1 ...(s  n )1
Se tutti i fattori di m(s) sono elevati ‘1’, allora A è semplice. In caso
contrario non lo è.
Se A non è semplice bisogna riscrivere Φ(s) in frazioni parziali:
m
 ( s)  
i 1
Ri , k *
s  i
*: k è la potenza con la quale appare il fattore che contiene i
Quindi nel caso di fattori con molteplicità mi  1, avremo k=mi
frazioni parziali di quel fattore:
Esempio:
s 2  3s  5
p( s ) 
( s  1)( s  2) 2 (s  1)( s  3) 3
p(s) 
b
d
a
b1
c
d1
d2






2
3
2
( s  1) ( s  2)
( s  2) ( s  1) ( s  3)
( s  3)
( s  3)
Chiarito che:
kh= esponente del binomio a denominatore del resto h;
mh= molteplicità dell’autovalore λh;
In b:
k=2; m=2;
In b1:
k=1; m=2;
La formula generale per trovare i resti b1 e b2, d1, d2,ecc… è:
mh  k
bh 
1
d
mh
*
p
(
s
)

s



s


h
h
(mh  k )! ds mh  k


*:calcolata nel punto  h
Nel caso specifico:
b  p( s)s  2  s  2
2
2
 1  dp( s )(s  2)
b1  
s  2

ds
 2 1
A questo punto per calcolare la  (t ) basta antitrasformare la  (s) , il
che è molto semplice in quanto è già espressa in frazioni parziali.
8 Forma e Diagrammi di Bode


L’analisi della risposta armonica della funzione di trasferimento della
variabile complessa s(j,ω) restituisce gli andamenti di modulo M(ω)
e fase Φ(ω) della risposta armonica in frequenza.
Questi due valori sono importanti in quanto riescono a descrivere la
risposta del sistema nel suo complesso, in quanto:
M(ω),Φ(ω)W(s)W(t)
Per ottenere la W(s) del sistema a partire dalla rappresentazione con
lo stato, basta eseguire la seguente operazione.
W(s)=C(sI-A)-1+D
Questa operazione restituisce una funzione in s razionale, del tipo:
num(s ) bm s m  ...  b0

den(s )
an s n  ...s n
(Con m  n)


Questa rappresentazione della funzione di trasferimento non è la sola
disponibile. E’ anche possibile esprimerla in forma di poli e zeri.
Infatti essendo dei polinomi a comporla, sia il numeratore che il
denominatore può essere espresso attraverso gli zeri del polinomio
stesso, come produttoria dei binomi espressi come differenza tra la
variabile complessa s e gli zeri del polinomio.
m
 (s  z )
i
W ( s)  k
i
n
 (s  p )
i
i
zi= ZERI (zeri del numeratore)
pi= POLI (zeri del denominatori)
k= GUADAGNO (costante di guadagno)
La funzione tende a k quando l’ingresso tende al gradino
unitario, infatti si dimostra in questo caso che la funzione razionale
tende ad 1 e di conseguenza W(s) tende a k.

Nel caso in cui uno o più degli zeri della funzione è una coppia di
complessi coniugati, a questo particolare zero (autovalore) del
polinomio al numeratore o al denominatore non sarà più associato un
binomio (s-λ) ma un trinomio di secondo grado: (s2+as+b).
Dividendo le produttoria tra binomi e trinomi avremo la funzione di
trasferimento espressa come di seguito:
 ( s  z ) ( s
W ( s)  k
 ( s  p) (s
2
2
 as  b)
 a ' s  b' )
Ricordandoci che:
(s2+as+b) è il risultato di ( s + (α+jω) ) (s + (α-jω))
E che :
 2 2
Pulsazione Naturale=
ωk=
Smorzamento=
 

k
E Ponendo
1
 
p
1
 ' 
z
Sostituendo otteniamo la Forma di Bode, in grado di esprimere la
funzione di trasferimento al più utilizzando costanti,monomi,binomi e
trinomi.
Forma di Bode:

s2
 (1  s ' )1  2  s  w 2
k
k
W (s)  k
'
s2
r
s  (1  s ) (1  2
s 2
k '
k '
8.2 Diagrammi di Bode
I diagrammi di Bode non fanno altro che rappresentare l’impulso
M(ω) e la fase Φ(ω) nel dominio delle frequenze di omega.
Per fare ciò utilizza una scala logaritmica per rappresentare il
dominio delle frequenze, allo scopo di comprimere i dati compresi tra
uno e infinito ed espandere quelli compresi tra 0 e 1.
Inoltre il modulo vero e proprio M(ω), viene rappresentato in decibel,
quindi:
M(ω)=20log10 M(ω)
Questo per fare in modo che il prodotto di due moduli che escono
fuori da elementi diversi della W(s) (che stanno in relazione tra loro
come fattori), sia definito da una somma (vedi proprietà dei
logaritmi).
In questo modo il diagramma di una generica W(s) è dato dalle
somme dei diversi diagrammi ottenuti a partire dalle combinazione
delle 4 componenti elementari che individuano la forma di bode di
quella funzione di trasferimento.
Conoscendo il comportamento del modulo e della fase di ogni singolo
elemento (costanti, monomi binomi e trinomi) , il grafico risultante
sarà la somma dei singoli contributi.
1 K
2 Jω
3 1+jωτ

j 2
4 1+ 2 j   2
k
k
Costante
Monomio
Binomio
K
s
1+as
Trinomio
1+a’s+b’s2
Diagrammi di Bode (Analisi Degli elementi)

K>0
Esempio k=20
Il grafico del modulo è costante e si attesta sul valore 20log1020=26
Il grafico della fase è costantemente 0 o π, essendo sempre reale
positivo. Quindi:
K<0
Il modulo resta sempre lo stesso, mentre la fase cambia, a 180° o –
π, in quanto è sempre un valore reale (asse delle y) ma negativo
(nel piano complesso), quindi:
ω
Il modulo y del monomio s, segue l’andamento di una retta del tipo
y=20x
Cioè una retta che interseca M(ω)=0 nel punto 1, con pendenza 20
decibel per decade.

E con fase pari a 90° o
(infatti nel piano complesso s rappresenta
2
la parte immaginaria).
Quindi il grafico avrà un andamento del tipo:
1
 
s
Avrà un andamento definito come y=-mx con m=20 decibel per
decade per il modulo;

Ed una fase pari a 270° (-90°) o - , in questo modo:
2
1  j 
In questo caso M(dB)= 20 log 10 1   2 2 .
Il comportamento asintotico di questa funzione M(ω) è:
1
Per   1     avremo che ωτ tenderà a zero e avremo

M(dB)=20log10(1) = 0;
Per ωτ>1  M (dB)  20 log 10 ( ) 2  20 log 10   20 log 10 
Quindi avremo una retta avente per coefficiente angolare 20log10(ω)
e per costante 20log10 (τ)
Per valori minori di
1
il modulo tenderà a zero:

Per  
1
troviamo che M(dB)=20log10 2  3 ;

Per  
1
abbiamo una retta che cresce di 20dB per decade;

Fase da 0 a

;
2

1

1  j
Facendo i calcoli arriviamo alle stesse soluzioni, cambiano solo i
segni, per cui avremo il coefficiente angolare negativo, e per
convenzione fase che va da 90° a 0°.
Binomio
Binomio a denominatore

1

2


j   
1  2

j 
2 



n
n


Nel caso del trinomio (che troviamo in corrispondenza di poli
complessi, il calcolo dell’andamento del modulo è un po’ più
complesso.
Il modulo varrà comunque:
M ( dB)  20 log10
2
(1   2
 n
2

 2
  4
n

Come si vede, la quantità dominante è

:
n
Per   0 , il radicando tenderà ad 1, e il modulo a zero:
M (dB)  20 log 10 1  0 ;
Per    , per una nota proprietà dei logaritmi possiamo scrivere:
2

M (dB)  20 log10 2  40 log10

n
n
 40 log10   40 log10  n
Che non è altro che l’equazione di una retta, con coefficiente
angolare -40log10ω.
Per    n vediamo che l’unico valore che resta nell’equazione è:  .
In quel punto il modulo varrà:
M (dB )  20 log 10 2 
In questo punto si ha generalmente un’amplificazione del modulo, è
il valore ωn rappresenta in questo caso il modulo alla risonanza
del sistema.La fase di questo tipo di equazioni è data

dall’arcotangente di τ da 0 a ;
2

 j 

1 2
j 

n
n2
2
Valgono le stesse regole del trinomio a denominatore, cambiano
soltanto i segni, e la fase che risulta opposta.
9 Proprietà dello stato:
La Stabilità
La stabilità è una proprietà relativa all’effetto di perturbazioni al
sistema. Le perturbazioni possono avere natura diversa, a
seconda di dove agiscono:
Perturbazione
Sui Parametri
Sullo Stato
Sugli Ingressi
Stabilità
Strutturale
Interna
Esterna (In-Out)
L’unico tipo di stabilita che comunque studieremo è la stabilità
interna.
Definiamo la Stabilità Interna:
Ammettiamo di avere:
x  f x(t ), u (t ) 
Supponiamo che (xe,ue) sia una coppia di equilibrio, cioè che
(xe,ue)=0
Che cosa accede se perturbiamo xe?
La definizione di stabilità interna ci dice che:
xe è Stabile se:
x e
 (t0 ) : x0  xe   (t0 )
Cioè, se fissiamo, un certo ε, noi vogliamo che preso un
    l’evoluzione del sistema non si discosti più di ε
xe è Attrattivo se: al diminuire della distanza
 x(t )  x  il
e
sistema tende ad avvicinarsi a xe.
xe è Asintoticamente Stabile se: xe è stabile ed attrattivo
xe è Globalmente Asintoticamente Stabile se: Se xe è
stabile ed attrattivo anche se   
xe è Esponenzialmente Stabile se: xe è stabile e tende ad
avvicinarsi nel punto d’equilibrio con una legge di tipo
esponenziale del tipo:
e  ( t  t0 )
Affinché si abbia Stabilità Asintotica è necessario che xe sia
un punto isolato, per qualsiasi intorno di xe non vi devono
essere altri punti d’equilibrio.
Lo studio della stabilità si riduce allo studio della
stabilità del/i punto/i d’equilibrio.
Nei sistemi lineari la stabilità di un qualsiasi moto si
riduce alla stabilità dell’origine del sistema.
Si osservi che in un qualsiasi sistema lineare, l’origine dello
stesso è sempre un punto d’equilibrio.
E’ facile,dunque, osservare che affinché il sistema sia stabile è
necessario (e sufficiente) che gli autovalori del sistema
siano minori o uguali a 0. Infatti, in queste condizioni, tutte
le leggi di moto presenti nel sistema, tendono a zero,
garantendo la stabilità del sistema nei pressi dell’origine dello
stesso.






PERCHE’:
Le leggi di moto
relative ad autovalori
con molteplicità
uguale ad 1 sono del
tipo:
ceλt
Le leggi di moto
relative ad autovalori
con molteplicità
maggiore di 1 sono
del tipo:
p(t)eλt
Xe è stabile se:
xe  0
 0 se m g'  1
Rei 
 0 se m g'  1
Con xe punto d’equilibrio e mg molteplicità geometrica;
Xe è asintoticamente stabile se:
Rei   0
Si verifica facilmente



Xe è stabile se:
 1 se m g'  1
i
 1 se m g'  1
Xe è asintoticamente stabile se:
i  1




Un sistema è Stabile Esternamente quando ad una
perturbazione in entrata, corrisponde una perturbazione in
uscita dello stesso ordine di grandezza.
La condizione necessaria e sufficiente a verificare ciò è:
Per xe=0
Rei di W (t )  0
(Poli di W(s) siano con parte reale
negativa)
Per xe  0 devo anche verificare che:
 0 se mg'  1
Rei di  (s)
 0 se mg'  1
9.2 Tecniche per lo
studio della Stabilità
Abbiamo fin qui visto che la discriminante per verificare la
stabilità di un sistema è data dallo studio della parte reale degli
autovalori del sistema, in particolare essa deve risultare almeno
negativa per tutti gli autovalori, per avere una qualche stabilità
nello stesso.
Il calcolo delle radici di un polinomio può non sempre essere un
problema semplice, polinomi di grado superiori al quarto danno
già abbastanza difficoltà nel calcolo delle loro radici. Per questo
motivo esistono delle tecniche che permettono di studiare il
segno delle radici senza calcolarne il risultato.In particolare
abbiamo:
Stabilità
Condizione di stabilità
e stabilità asintotica
Condizione di stabilità
e stabilità asintotica
Studio della stabilità
Stabilità
lineari
nei
Sistema
Sistemi a tempo
continuo
Sistemi a tempo
discreto
Sistemi a tempo
continuo
e
discreto
sistemi Lineari discreti e
continui
Criterio
Criterio di ROUTH
Criterio di JURY
Mediante
APPROSSIMAZIONE
LINEARE
Mediante Tecnica
Rapida


Possiamo considerare il criterio di Routh come un estensione
del principio di Cartesio, il quale dimostra che in presenza di un
polinomio di secondo grado:
2
p( x)  ax  bx  c
Considerando le coppie di coefficienti consecutive (a;b) (b;c)
Per ogni VARIAZIONE di segno

ABBIAMO
 zero a parte reale POSITIVA;
Per ogni PERMANENZA di segno  ABBIAMO
 zero a parte reale NEGATIVA;
Il criterio consiste nella costruzione di una tabella e il relativo
studio che ne esce fuori che ci da la possibilità di stabilire:
1.
2.
Se tutte le radici hanno parte reale negativa;
Quante eventuali radici a parte reale positive sono presenti;
Ammettiamo di avere un polinomio di grado n del tipo:
p ( )  a n n  a n 1 n 1  ...  a11  a 0
Per applicare il criterio di Routh ad un polinomio di questo tipo
di 5° grado costruiamo una tabella di n+1 righe (6), così fatta:
n
n-1
n-2
n-3
…
an
an-1
bn-2
cn-3
an-2
an-3
bn-3
cn-4
an-4
an-5
0
0
I coefficienti bn-2 , bn-3, cn-3 , cn-4 si calcolano in questo modo:
bn-2
an an-2
an-1 an-3
bn-2
Prendendo questi coefficienti si calcola:
bn  2  
an
a n 1
a n2
a n 3
a n 1
bn3
an an  4
a
a n 5
  n1
an1
cn-3
an-1 an-3
bn-2 bn-3
cn-2
Esempio:
d ( )  5  3 4 23  22  2  4
Otteniamo:
5
1
2
2
(0)
4
3
-2
4
(0)
3
8/3
2/3
0
2
-11/4
4
0
1
75/4
0
16
Il risultato non cambia se moltiplichiamo una riga per un
numero positivo; ciò può semplificare i calcoli per trovare i
coefficienti successivi!
Ammettendo di svolgere le seguenti operazioni:
R3=R3 x 1/3;
R2=R2 x 1/4;
R1=R1 x 1/4;
Otteniamo:
5
1
2
2
(0)
4
3
-2
4
(0)
3
8
2
0
2
-11
1
0
1
75
0
16
Ricordando che: Condizione necessaria e sufficiente
affinché tutte le radici abbiano parte reale negativa è
che non vi siano variazioni di segno tra i coefficienti
della prima colonna;
Il numero delle variazioni di segno è equivalente alle radici a
parte reale positiva.
Righe
R5 R4
Variazione
No
1  negativa
R4 R3
No
2  negativa
R3 R2
Si
4  positiva
R2 R1
Si
5  positiva
R1 R0
No
6  negativa
Casi Singolari
1 Se si annulla il primo elemento della riga;
2 Se si annulla tutta una riga;
1)
Esempio:
d ( )  4 23  22  4  3
Con il criterio di Routh otteniamo la seguente tabella:
4
1
2
3
3
2
4
0
2
0
3
1
-3
3
0
3
In questo caso, esiste una tecnica che permette di sostituire la
riga con lo 0, con un'altra equivalente.
Basta sommare alla riga con lo 0 (nel nostro caso la riga
2), la riga 2 traslata di tante posizioni quanti sono gli
zeri (nel nostro caso 1).
Con un piccolo accorgimento:
Se il numero di traslazioni effettuate (numero di
zeri) è dispari cambio di segno:
Nel nostro caso:
La nostra nuova
Riga sarà:
0
-3
-3
3
0
3
+
=
2) Se un’intera riga si annulla il procedimento da eseguire è più
complesso.
Ammettiamo di trovare la seguente situazione:
7
1
2
1
1
6
2
4
2
2
5
0
0
0
Si può dimostrare in questo caso che il nostro polinomio si può
scrivere come prodotto di polinomi:
d ( )  d1 ( )  d 2 ( )
d1 ( ) ha radici descritte dalla tabella di routh fino alla riga 7;
d 2 ( ) è un polinomio avente come coefficienti gli elementi della
riga 6, elevati con le potenze pari:
d 2 (  )  2 6  4 4  2 2  2
Si dimostra che: Il criterio di Routh resta valido se al
posto della riga nulla, sostituiamo i coefficienti della
derivata della d2(λ) nel nostro caso: ( 12, 16, 4 ).
Quando accade ciò possiamo affermare con sicurezza che gli
zeri di d2(λ) hanno simmetria quadratale.
Ciò vuol dire che sono simmetrici rispetto sia all’asse
reale che a quello immaginario.

Il metodo di Jury è più semplice di quello di Routh. E si applica
ai sistemi a tempo discreto. Anch’esso passa per la
costruzione di una tabella del tipo:
a0
an
B0
Bn-1
C0
…
T0
a1
an-1
B1
Bn-2
Cn-1
a2
an-2
…
…
Cn-2
T1
T2
..
an
..
a0
Bn-1
B0
Dove l’elemento Bk si calcola come Routh, ma senza la
divisione.
Bk 
a0
a k 1
an
a n  k 1
Calcolata la tabella, le condizioni necessarie e sufficienti
per avere tutte le radici con modulo <1 (Ricorda che
siamo in presenza di un sistema a tempo discreto, e abbiamo
già detto che per avere stabilità la condizione necessaria è che
le radici abbiano modulo <1!) sono:
 d (1)  0
(1) n d (1)  0

 a n  a0
 B  B
0
n 1

 T0  T2

Il metodo di Lyapunov si basa su un concetto noto della fisica
meccanica che ha applicato ai sistemi di equazioni differenziali.
E’ noto infatti, prendendo come esempio le montagne russe,
che nel percorso sono presenti dei punti di equilibrio, in
corrispondenza dei massimi e dei minimi locali, che possono
essere instabili (massimi) o stabili (minimi).
Punto
D’equilibrio
Non Stabile
Punto
D’equilibrio
Stabile
Il metodo di Lyapunov, ci permette di avere in maniera diretta,
informazione sulla stabilità di sistemi lineari e non, a tempo
continuo o discreto.
Per poterlo applicare correttamente sono però indispensabili
alcuni concetti.




Funzioni Definite Positive;
Funzioni Quadratiche;
Criterio di Sylvester;
Derivata lungo il moto (Gradiente);
 Funzioni Definite Positive
Supponiamo di avere:
.
x  f ( x)
Con xe punto d’equilibrio, cioè:
f ( xe )  0
Per avere stabilità asintotica in xe è necessario che esso sia
isolato, cioè: J f ( x e )  0
Se adesso prendiamo un intorno sferico di S(xe,r),
La nostra nuova funzione (applicazione):
V : Rn  R
È definita positiva se:
V ( x e )  0, e x  S ( x e , r ),V ( x)  0
E’ semidefinita positiva se:
V ( xe )  0, e x  S ( xe , r ),V ( x )  0
 Funzioni Quadratiche
Sono funzioni del tipo: y  ax 2 le quali sono sempre positive o
sempre negative, (in questo caso dipende unicamente dal
coefficiente a ), possono essere anche vettoriali, in particolare
(per quello che interessa questo specifico caso) del tipo:
V ( x)  x  x e  Q x  x e 
T
1x n
nxn
n x1
Con Q matrice simmetrica definita positiva;
 Criterio di Sylvester
La condizione necessaria e sufficiente affinché Q sia simmetrica
definita positiva, è che tutti i suoi minori principali siano
positivi.
Ricorda:
I minori principali
sono i determinanti
delle sottomatrici
che condividono la
diagonale.
 x x x ...

 x x x ...
 x x x ...

 ... ... ... ...
 x x x ...

x

x
x

x
x 


 Derivata Lungo il Moto V (x) 


E’ il prodotto del gradiente della V(x) (FdL) per la f(x).
.
V ( x ) .
V ( x) 
x
x
Ricapitolando:
V(x) è Funzione di Lyapunov se:
E’ semidefinita positiva ed è contenuta in f(x)V(x)>0

La sua derivata lungo il moto e semidefinita negativa; V ( x)  0
V(x) è FdL asintotica se:

V(x)>0 e V ( x)  0
Xe è localmente stabile se V(x) è FdL in S(xe,r)
Xe è localmente e asintoticamente stabile se V(x) è
asintotica
Xe è globalmente asintoticamente stabile se rInf e
Lim V (x)  
x 
ESEMPIO
xR
.
x  x3
xe  0
Costruiamo una funzione V(x) def. Positiva contenuta in f(x);
V ( x)  x 2  0
Verifichiamo che la derivata lungo il moto sia def. Negativa;
.
.
V ( x )  2 x x  2 x ( x 3 )  2 x 4  0
Quindi: Il nostro punto d’equilibrio è localmente asintoticamente
stabile!

Per il calcolo rapido della stabilità asintotica nei sistemi lineari a
tempo continuo e a tempo discreto, esiste una tecnica che ci
permette di verificare immediatamente se abbiamo a che fare
con sistemi stabili o no, cioè ci consente di verificare se tutti gli
autovalori del sistema siano a parte reale negativa.
Sistemi a tempo continuo
Si dimostra che comunque fissata una matrice P simmetrica
def. Positiva, vale l’equazione:
A' Q  QA   P
Se Q esiste allora tutti gli autovalori di A sono a parte
reale negativa.
Sistemi a tempo discreto
Per i sistemi a tempo discreto, comunque fissiamo P simmetrica
e def. Positiva, se esiste Q soluzione dell’equazione:
A' QA  Q   P
Allora, tutti gli autovalori di A sono a parte reale <1, che poi è
la condizione di stabilità asintotica per sistemi a tempo discreto!
10 Proprietà dello stato:
Raggiungibilità e Osservabilità
Definiamo la raggiungibilità, la possibilità del sistema di
passare da uno stato all’altro. Definiamo osservabilità la
capacità di identificare tutti gli ingressi osservando le uscite del
sistema.
Queste due caratteristiche del sistema fanno parte dell’analisi
qualitativa dello stesso, in quanto ne studiano le caratteristiche
senza calcolarne direttamente le soluzioni.

Uno stato è raggiungibile al tempo t, se esiste una
coppia (t0,u0) che porta quello stato a un valore x al
tempo t.
Questa caratteristica la si osserva nell’evoluzione forzata, e per
verificare la raggiungibilità di tutti gli stati nei sistemi lineari, si
calcola l’immagine di una determinata matrice.

Q  B AB ... A n 1 B

Nel caso di sistemi lineari con matrici 3x3, Q diventa:
Q=[B|AB|A2B]
A questo punto si calcola il rango dell’immagine di Q.
Se  (Im( Q ))
controllabile.
 n allora il sistema non è completamente
E’ possibile trovare una realizzazione, trasformando le
coordinate con una matrice T, in modo da esplicitare i
sottosistemi.
La matrice T che permette di fare ciò, e composta dai vettori
L.I. di Q, e da un completamento qualsiasi che rendono la
matrice T di Rango uguale alla matrice A originaria.
 base di completamento 

T 1  

R

ESEMPIO
1
B   
1
*.In questo caso
Il vettore (1,0) è un
qualsiasi vettore L.I.
complemento di T-1
1 2 
1 3  1 
 R  Im( AB )  
    
A  
1 2 
1 3  1 
T
1
1 1 

 
1 0 
*
Se andiamo a realizzare la trasformazione, potremo vedere
facilmente quali sono i sottosistemi raggiungibili, dato che
questi sono caratterizzati da tutti e soli i modi eccitabili.
Inoltre la Risposta Impulsiva, coincide con quella del
sottosistema raggiungibile.

Uno stato x è controllabile se esiste un particolare ingresso che
porta lo stato al valore zero nel tempo t.
Nei sistemi a t continuo controllabilità=osservabilità
Nei sistemi a t discreto controllabilità=osservabilità
(solo se A è invertibile)

Uno stato è detto osservabile se è possibile al tempo t0
distinguere la sua evoluzione in uscita rispetto a un altro stato.
Poiché analiticamente è possibile calcolare l’inosservabilità
degli stati, calcoleremo questa.
Per calcolare l’inosservabilità occorre verificare il rango del
ker(f) di una determinata matrice Q così fatta.
 C 


CA


Q
... 
 n 1 
 CA 


Nel caso di una matrice a 3x3, la matrice Q diventa:
 C 


Q   CA 
 CA 2 


ESEMPIO
1 2

A  
C  1 1
2
1


1
1



Q  
3
3


 x  x 2  0 1
Ker Q    1
  
3
x

3
x

0
2
1
 1
Poichè la dimensione di Ker(Q) è minore di 2 (in generale di n),
il sistema non è completamente osservabile.
E’, anche in questo caso, possibile trovare una realizzazione,
trasformando le coordinate con una matrice T, in modo da
esplicitare i sottosistemi.
La matrice T che permette di fare ciò, e composta dai vettori
L.I. di Ker(Q), e da un completamento qualsiasi che rendono la
matrice T di Rango uguale alla matrice A originaria.
T 1  Completamento Ker(Q) 
Anche in questo caso, la Risposta Impulsiva coincide con
quella del sottosistema osservabile (ottenibile attraverso la
trasformazione con T-1).
Il sottosistema osservabile è caratterizzato da tutti e soli i modi
eccitabili.
10.2 La scomposizione
di Kalman
La scomposizione di Kalman ha lo scopo di trovare una matrice
di trasformazione T-1, in grado di esplicitare il sistema lineare in
un insieme di coordinate, che lo dividono in 4 sottosistemi (vedi
anche figura)




S1:
S2:
S3:
S4:
Sottosistema
Sottosistema
Sottosistema
Sottosistema
Controllabile e Non Osservabile;
Controllabile e Osservabile;
Non Controllabile e Non Osservabile;
Non Controllabile e Osservabile;
La matrice T-1 è così formata:
T 1  T1 T2 T3 T4 
Ricordando che…
1 0
 
Se A   1 0  lo spazio B ortogonale ad A si calcola:
01
 

1
 

a b c  1   0
 0

 

 0

 
a b c  0   0

1

 
ab  0
c0
B  1  1 0 
L’intersezione tra Spazi vettoriali va calcolata in questo
modo:
Abbiamo due spazi vettoriali A e B:
A  B  a1
a3  b1
a2
b3 
b2
Se ai (con i che va da 1 a n ) può essere generato da un
qualunque vettore di B, allora ai fa parte dello spazio
intersezione.
A questo punto definiamo i vari spazi:
Xr : Sottospazio di Raggiungibilità: Colonne L.I. di Im(Q);
Xor : Sottospazio Ortogonale a Xr;
XI : Sottospazio di Non Osservabilità: Righe L.I. di Ker(Q);
XoI : Sottospazio Ortogonale a XI;
Adesso possiamo calcolare le colonne della matrice T-1 si
trovano in questo modo:
T1  X r  X I
T2  X r  ( X oR | X oI )
T3  X I  ( X oR | X oI )
T4  X oR  X oI
Fatto ciò possiamo operare la trasformazione di base che ci
consentirà di ottenere una realizzazione standard che esplicita i
sottospazi nel modo che abbiamo già descritto.
 A11
0

TAT 1  
0
 0
CT 1  0 C 2
A12
A22
A13
0
0
A33
0
0
0 C4 
A14 
A24 

A34 
A44 
 B1 
B 
 
TB   2 
0
 0 
Il sistema, in queste coordinate si presenta:
u
S1
S2
S3
S4
y
Appendice A
Forma di Jordan
Nel caso in cui la matrice A della rappresentazione di stato non
sia diagonalizzabile, per potere effettuare lo studio della matrice
di transizione si utilizza la forma matriciale di Jordan che ci
consente di pseudo-diagonalizzare la matrice A.
La matrice A non è diagonalizzabile se gli autospazi associati
agli autovalori hanno dimensione diversa alla molteplicità del
rispettivo autovalore.
Ricordando che:
dim v1  n   ( A  1 I )
Se dimV1 (dimensione dell’autospazio v1 relativo all’autovalore
λ1 è diversa dalla molteplicità di λ1, e questo per ogni
autovalore, allora A non è diagonalizzabile.
Ma può essere diagonalizzata con la forma di Jordan.
Che ci dice che esiste una matrice T tale che:
T-1 AT=J
Dove J è la matrice di Jordan, diagonale a blocchi.
Sulla diagonale andranno tutti gli autovalori della matrice, negli
elementi J(i,i+1) andranno degli uno in corrispondenza di quegli
autovalori che generano autospazi di dimensioni non uguali alla
loro molteplicità.
Esempio:
Se la matrice A(4x4) ha 3 autovalori:
λ1=4 µ1=2
λ2=2 µ2=1
λ3=1 µ3=1
E dim(vλ1)=1 anziché 2 = µ1, allora…
 4 1 0 0


 0 4 0 0
J ( A)  
0 0 2 0


0 0 0 1


Se (per assurdo) anche dim(vλ2)  µ2, allora…
4

0
J ( A)  
0

0

1
4
0
0
0
1
2
0
0

0
0

1 
Trovare le Matrici di Trasformazione di Jordan
Esempio (n=2):
 2  1

A  
1 4 
Troviamo gli autovalori di A:
 2
1 
  (  3) 2  0
( A   I )  
4   
 1
1  2  3 ; quindi molteplicità aritmetica 2;
Troviamo gli autovettori di A:
  1  1

Costruiamo la matrice P=(A-3I)= 
1 
1
L’unico autovettore linearmente indipendente (si considerano le
  1
colonne) è  
1
L’autospazio generato da questo vettore ha dimensione 1,
diversa dalla molteplicità dell’autovalore.
Infatti: dim p1  2   ( A  3I )  2  1  1
Quindi:
Forma di Jordan:
 Scegliamo un vettore v2 tale che Pv2  0; ad esempio v2=(1,0);
 Scegliamo un vettore v1=v2P’=(-1,1);
Abbiamo costruito la matrice T!
 3 1
1 1

 J= T-1AT= 
T= 
 0 3
 1 0
Esempio (n=3)
8

Prendiamo la matrice A=  0
9

Troviamo gli autovalori:
λ1=2 µ1=3 ( molteplicità 3
6  4

2 0 
9 4 
)
Troviamo gli autovettori:
6 6  4


La matrice P=(A-2I)=  0 0 0 
9 9 6 


Il rango di questa matrice è 1, quindi la dimensione
dell’autospazio associato a λ1=3-1=2  1 ;
Quindi forma di Jordan;
 Troviamo un autovettore v2 tale che T’v2  0 v2=(1 ,0, 0);
 Troviamo v1 = T’v2 = (6, 0, 9);
 Troviamo un terzo vettore v3 indipendente da v1 tale che
v3  ker T , per es. v3=(0, 2, 3);
6 1 0


Abbiamo trovato la matrice T=  0 0 2 
9 0 3


2 1 0


La matrice J=T-1AT=  0 2 0 
 0 0 2


Scarica