Regressione non lineare Introduzione Ottimizzazione: definizione funzione obiettivo Metodi diretti Metodi del gradiente Metodo della massima pendenza Metodo di Newton-Raphson Metodo di Gauss-Newton Metodo d d di Levenberg-Marquardt b d Matrice di covarianza per parametri (cenni) Regressione non lineare Introduzione Regressione non lineare • Sino ad ora si sono considerati casi in cui i modelli fossero lineari nei parametri: y = β 0 + β1 f1 + β 2 f 2 + ... + +β k f K • Tale scrittura risulta più generica di quanto sembri dato che la singola variabile regressore può essere una funzione non lineare generica delle condizioni sperimentali. • Esempi: f1 = z 2 z f 2 = log(z ) etc. Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 1 Regressione non lineare Introduzione Regressione non lineare • Ci possono essere dei casi in cui il modello fisico non può essere più descritto da una dipendenza lineare nei parametri: [ y = exp θ1 + θ1 x 2 ] θ1 y= [exp(− θ1 x ) − exp(− θ 2 x )] θ1 + θ 2 1) 2) • Il modello 1) può essere “linearizzato”, come visto nelle precedenti lezioni. – NB: Trasformazioni non lineari di variabili aleatorie sono comunque da evitare • Il modello 2) non permette invece alcun tipo di linearizzazione. Regressione non lineare Introduzione Regressione non lineare • I modelli non lineari possono essere scritti nella generica forma: y = f (x, θ ) • Nei casi precedenti: x = {x} ⎧θ ⎫ θ = ⎨ 1⎬ ⎩θ 2 ⎭ • Per la generica prova si può scrivere: yi = f (x i , θ ) Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 2 Regressione non lineare Introduzione Regressione non lineare • Come nel caso lineare si può definire la funzione somma quadratica degli errori: n Φ (θ ) = ∑ ( yi − f (x i , θ ))2 i =1 • Tale funzione dipende solo dal vettore parametri θ, dato che le osservazioni yi e le corrispondenti condizioni sperimentali xi sono fissate. • Si può quindi applicare il metodo dei Minimi Quadrati, analogamente l t all caso li lineare: il valore l d dell vettore tt θ che h rende d minima la distanza tra i valori osservati ed i valori predetti dal modello (e quindi la funzione Φ(θ)) è il vettore θ ricercato. Regressione non lineare Introduzione • Da notare che nel caso in cui: ( ε i = N 0,σ 2I Regressione non lineare ) • Lo stimatore θ dei minimi quadrati coincide con lo stimatore Massima Verosimiglianza: ( ) ( L θ,σ 2 = 2πσ 2 ) − n 2 ⎡ ε2⎤ exp ⎢− ∑ 2i ⎥ = 2πσ 2 ⎣ 2σ ⎦ ( ) − n 2 ⎡ Φ (θ )⎤ exp ⎢− 2⎥ ⎣ 2σ ⎦ • Cercare il minimo della funzione Φ(θ) equivale a cercare il massimo della funzione Verosimiglianza, indipendentemente dal valore che assume σ2. Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 3 Regressione non lineare Introduzione Regressione non lineare • Se si differenzia rispetto al vettore parametri θ, non si perviene ad una soluzione analitica, come nel caso della regressione lineare ∂ Φ(θ ) n ∂ Φ(θ ) = ∑ ( yi − f ( xi , θ )) =0 ∂ θi ∂ θi x i =1 i Funzioni non lineari di θ • In conclusione, si approda ad un sistema di equazioni non lineari. Regressione non lineare Introduzione Regressione non lineare • Conseguenze della non linearità: – Non è possibile ottenere una soluzione analitica del problema. – Il vettore θ sarà una funzione non lineare delle condizioni sperimentali xi e dei valori osservati yi (supposti gaussiani): i parametri quindi non saranno più delle variabili aleatorie di tipo gaussiano. – Non è affatto detto che esista una ed una sola soluzione del sistema di equazioni non lineari Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 4 Regressione non lineare Introduzione Regressione non lineare • L’inferenza puntuale per modelli non lineari coincide quindi con la ricerca del minimo della funzione dei parametri Φ(θ). • La ricerca del minimo ((o del massimo)) di una funzione ((detta funzione obiettivo) è un problema dalle molteplici applicazioni: – Stima dei parametri di un modello non lineare data una campagna sperimentale. – Ricerca condizioni di progetto per la massima produttività di un processo di impianto – Ricerca parametri ottimali per un controllore di impianto – Etc. Et etc. t • Tali tipi di procedura numerica prendono il nome di algoritmi di ottimizzazione Ottimizzazione – Funzioni obiettivo Regressione non lineare • Il diagramma della funzione Φ(θ) non sarà più un paraboloide come nel caso della regressione lineare. Φ(θ) Φ(θ) • Per esempio, esempio in un caso scalare (θ Є R) si può avere: θmin θ Caso Lineare Analisi dei Processi Chimici e Biotecnologici Regressione non lineare θmin θ Caso Non Lineare 5 Ottimizzazione – Funzioni obiettivo Regressione non lineare • Si possono avere casi più complicati con la presenza di più minimi nella funzione obiettivo: Φ(θ) Minimo relativo Minimo Assoluto • In questo caso è necessario individuare il minimo assoluto θ Ottimizzazione – Funzioni obiettivo Regressione non lineare • Nel caso di una funzione dipendente da più variabili (per esempio θ Є R2) la funzione obiettivo può essere molto complicata da g gestire Φ(θ1,θ2) Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 6 Ottimizzazione – Funzioni obiettivo Regressione non lineare • Rappresentando le curve di isolivello Punto di minimo assoluto Punti di massimo Punto di sella Per tutti I punti riportati si ha: ∂ Φ ∂Φ = =0 ∂θ1 ∂θ2 Punti di massimo Curve di isolivello Punto di minimo relativo Algoritmi di ottimizzazione • La ricerca del minimo di una funzione obiettivo è effettuata per via numerica utilizzando metodi iterativi: • Si parte da un valore di primo tentativo θ0 e si genera una successione di valori Regressione non lineare Necessità di ricorrere a metodi iterativi θ0, θ1, θ2, ... , θn • Che si spera converga verso il minimo θmin • Quando i valori della successione θi non cambiano più in modo d significativo f (ovvero ( sono uguali l a meno d di una fissata tolleranza) il metodo è giunto a convergenza Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 7 Algoritmi di ottimizzazione • La convergenza può essere valutata sui valori di θ o, alternativamente, sui valori che assume la funzione obiettivo: θ i − θi−1 ≤ toll1 o alternativamente Regressione non lineare Definizione tolleranza Φ (θ i ) − θ (θ i−1 ) ≤ toll2 • N.B. Il valore θ* che soddisfa le relazioni precedenti non è, dal punto di vista rigoroso, il valore θmin, minimo della funzione obbiettivo, ma una sua ragionevole approssimazione. approssimazione • Non è garantita la convergenza al minimo assoluto!!! (può essere che si è in presenza di un minimo relativo) Algoritmi di ottimizzazione Definizioni Regressione non lineare • Definizioni: • Metodo ammissibile • Un algoritmo di ottimizzazione si definisce ammissibile se: Φ(θi+1 ) ≤ Φ(θi ) ∀i • Velocità di convergenza • Un algoritmo di ottimizzazione converge linearmente se, nei pressi del minimo: lim i→∞ θi+1 − θmin ≤c θi − θmin 0 ≤ c ≤1 • In genere, la convergenza è di ordine p se θi+1 − θmin lim i→∞ θ i − θmin p ≤c 0 ≤ c ≤ 1, p ≥ 1 Analisi dei Processi Chimici e Biotecnologici Regressione non lineare p=2 Î convergenza quadratica 8 Algoritmi di ottimizzazione Definizioni • Regressione non lineare Metodi diretti – Richiedono la conoscenza della sola funzione obiettivo • Semplici da implementare • Relativamente lenti nel convergere verso il minimo • Robusti (in grado di gestire facilmente anche problemi con discontinuità) • Metodi del gradiente – Richiedono la conoscenza delle derivate (p (prima ed eventualmente anche seconda) della funzione obiettivo rispetto alle variabili • Più sofisticati • Convergono velocemente • Difficoltà in caso di discontinuità Algoritmi di ottimizzazione – Metodi diretti – Ricerca a griglie Regressione non lineare • Si fissa una griglia nello spazio e si cerca nell’intorno del valore iesimo della successione quale è il punto dell’intorno dell intorno che abbia valore minimo. θ0 valore di primo tentativo θ1 valore in cui la funzione assume valore valore in cui la funzione assume valore minimo nell’intorno di θ0 θ2 valore in cui la funzione assume valore minimo nell’intorno di θ1 Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 9 Algoritmi di ottimizzazione – Metodi diretti – Ricerca a griglie Regressione non lineare • Caratteristiche del metodo: • Vantaggi – È necessaria la conoscenza della sola funzione obiettivo. • Svantaggi – Può rivelarsi molto oneroso dal punto di vista computazionale: per ogni iterazione è necessaria la valutazione della funzione in (3n-1) punti, dove n è la dimensione dello spazio delle variabili di stato t t ((nell caso in i esame n =2). 2) Algoritmi di ottimizzazione – Metodi diretti – Nelder - Mead Regressione non lineare • Il metodo di Nelder-Mead, detto anche Metodo del Simplesso è stato sviluppato dagli autori nel 1965. • Definizione Simplesso: • Un simplesso in uno spazio di dimensioni Rn è un insieme di (n+1) punti che non giacciono in uno stesso iperpiano di dimensioni (n1) Simplesso in 2D in 2D Si l Simplesso i 3D in 3D Non è un simplesso in 2D Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 10 Algoritmi di ottimizzazione – Metodi diretti – Nelder - Mead Regressione non lineare • Filosofia: • Informazioni sulla direzione in cui muoversi nello spazio dei parametri, a partire dalla valutazione della funzione obiettivo in più punti • Si genera una successione di simplessi (e non di valori puntuali) – Due simplessi successivi generati nell’algoritmo • sono contigui (hanno un “lato” in comune) oppure • sono delle “contrazioni” Algoritmi di ottimizzazione – Metodi diretti – Nelder - Mead Regressione non lineare • Procedura: Esempio 2D • Si considera un simplesso di primo tentativo e si valuta la funzione obbiettivo in corrispondenza di esso: v1 v1=(x1,y1) v2=(x2,y2) v3 v2 200 150 v3=(x3,y3) 100 • Si valuta la funzione obiettivo in corrispondenza dei punti del simplesso e si stabilisce un ordine. Per esempio: Φ(v1)<Φ(v2)<Φ(v3) • La funzione assume valore massimo in corrispondenza di v3 Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 11 Algoritmi di ottimizzazione – Metodi diretti – Nelder - Mead Regressione non lineare • Procedura di riflessione (“reflect”) • Per muovermi verso valori più bassi, mi devo allontanare il più possibile da v3. • Una possibilità è di considerare un nuovo punto v4, ad esso speculare, rispetto al segmento definito dagli altri due punti v1 e v2 del simplesso v1 v1 v4 m1 v3 v3 v2 m1 = v1 + v 2 ⎛ x1 + x2 y1 + y2 ⎞ =⎜ , ⎟ ⎝ 2 2 2 ⎠ v2 ||d1||= ||d2||= ||m1-v3|| ||(m1-v3)|| v 4 = m1 + (m1 − v 3 ) = 2m1 − v 3 Algoritmi di ottimizzazione – Metodi diretti – Nelder - Mead Regressione non lineare • Caso 1: Φ(v4) < Φ(v3) • Il nuovo simplesso da prendere in considerazione è rappresentato dal triangolo (v1,v2,v4) riportato con il tratto arancione. • Nella iterazione successiva si valuta di nuovo la funzione obiettivo nei nuovi punti del simplesso. Si può avere, per esempio: Φ(v4)<Φ(v1)<Φ(v2) • La funzione assume valore massimo in corrispondenza di v2 v5 • Èp possibile q quindi eseguire, g , eventualmente, una nuova v1 riflessione m2 v4 ⎛x + x y + y ⎞ v +v m2 = 1 4 = ⎜ 1 4 , 1 4 ⎟ ⎝ 2 2 2 ⎠ v3 v 5 = 2m 2 − v 2 v2 Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 12 Algoritmi di ottimizzazione – Metodi diretti – Nelder - Mead Regressione non lineare • Caso 2: Φ(v4) > Φ(v3) • In questo caso il nuovo valore ottenuto è maggiore del valore di partenza. • Sarà quindi necessaria la ricerca di un nuovo vertice per il simplesso, sempre lungo la direzione supposta di massima decrescita (ovvero v3-m1) • Possiamo avere diverse v1 opzioni: • Espansione (expand) • Contrazione “in avanti” (forward contraction) v3 m1 • Contrazione all’indietro” v2 (backward contraction) • Restringimento (shrink) Algoritmi di ottimizzazione – Metodi diretti – Nelder - Mead Regressione non lineare • Caso 2 (Espansione: “expand”): • Si prova un nuovo punto di tentativo v’4 ad una distanza doppia da m1 v1 v'4 v4 v' 4 = m1 + 2(m1 − v 3 ) = 3m1 − 2v 3 m1 v3 v2 ||d||= ||d1||=2 ||(m1-v3)|| ||m1-v3|| =2 ||d|| Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 13 Algoritmi di ottimizzazione – Metodi diretti – Nelder - Mead Regressione non lineare • Caso 2 (Contrazione: “forward contraction” o “backward contraction”) • Si prova un nuovo punto di tentativo v v’4 ad una distanza inferiore da m1 a destra di esso, o alternativamente, a sinistra v1 v’’’4 v’’4 v4 v4 m m 1 1 v3 v3 v2 d=m1-v3 ½ d= ½ (m1-v3) 1 3 1 v'' 4 = m1 + (m1 − v 3 ) = m1 − v 3 2 2 2 v2 d=m1-v3 ½ d= ½ (m1-v3) 1 1 1 v''' 4 = m1 − (m1 − v 3 ) = m1 + v 3 2 2 2 Algoritmi di ottimizzazione – Metodi diretti – Nelder - Mead Regressione non lineare • Da notare che non si può mai scegliere il punto m1 come nuovo vertice, dato che altrimenti non si otterrebbe un simplesso (i punti m1, v2, v3 sono allineati)) • Nel caso in cui: Φ(v 4 ) Φ(v' 4 ) > Φ(v 3 ) Φ(v'' 4 ) Φ(v''' ''' 4 ) • Nessun punto lungo la direzione v3m1 ha portato ad una decrescita della funzione obiettivo. Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 14 Algoritmi di ottimizzazione – Metodi diretti – Nelder - Mead Regressione non lineare • Caso 2 (Restringimento: “shrink”) • Ci avviciniamo al minimo v1 selezionando come vertici del nuovo simplesso il punto v1 (ricordiamo che in corrispondenza di esso la funzione obiettivo assumeva il valore minimo tra i tre punti) ed i punti medi dei segmenti m1=v1v2 e m’1=v1v3 v1 m1 = m’1 m1 v3 v1 + v 2 ⎛ x1 + x2 y1 + y2 ⎞ =⎜ , ⎟ ⎝ 2 2 2 ⎠ m'1 = v2 v1 + v 3 ⎛ x1 + x 3 y1 + y3 ⎞ =⎜ , ⎟ ⎝ 2 2 2 ⎠ Algoritmi di ottimizzazione – Metodi diretti – Nelder - Mead Regressione non lineare • Vantaggi: – Non richiede la conoscenza delle derivate della funzione obiettivo – Relativamente semplice da implementare – Robusto: in grado di gestire funzioni con discontinuità • Difetti: – Lento – Poco controllo nella direzione Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 15 Algoritmi di ottimizzazione – Metodi del gradiente Regressione non lineare • La ricerca del minimo risulterebbe meno onerosa se si avessero informazioni sulla “direzione” lungo cui muoversi nello spazio dei p parametri. θi +1 = θi + σ i • dove Lungo la direzione fissata il problema diventa di natura scalare σ i = λi v i Modulo del passo i‐esimo Direzione del passo i‐esimo Algoritmi di ottimizzazione – Metodi del gradiente Regressione non lineare • Il gradiente della funzione obiettivo ∂Φ ∂θ θi • Rappresenta la direzione di massima crescita della funzione nello spazio delle variabili θ. • Quindi, per procedere verso il minimo si deve comunque scegliere una qualunque direzione opposta alla direzione del gradiente: Direzione del gradiente 150 100 50 Direzioni ammissibili vi Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 16 Algoritmi di ottimizzazione – Metodi del gradiente Regressione non lineare • La direzione vi può essere scritta nella seguente forma: vi = −R i ∂Φ ∂θ θ i • Il tensore R è un tensore definito positivo che “modula” opportunamente la direzione di θi. • Il vettore v ha un ruolo più importante di λ. Infatti, una volta scelto v si può scegliere λ con grandissima precisione, per esempio per tentativi: min Φ(θi +1 ) λ Metodi del Gradiente – Metodo Massima Pendenza Regressione non lineare • In inglese: Steepest Descent Method • Nel metodo della massima pendenza si adotta R = I (matrice identità) e λ fissato (da notare che sarà spesso necessario adottare valori piccoli di λ per problemi di stabilità). Il metodo si traduce quindi nella formula: θi+1 = θi+1 − λi ∂Φ ∂θ θi • O, equivalentemente: R= I λi ∈ ℜ+ Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 17 Metodi del Gradiente – Metodo Massima Pendenza Regressione non lineare • Metodo Gradiente Coniugato: • Il passo λi alla iterazione i-esima è dato da λi = σ Ti σ Ti ⋅ σ i ⋅ H (θ i ) ⋅ σ i • dove: ∂φ ∂θ θ i σi = − ( p×1) • e H(θi) è l’Hessiano della funzione obiettivo valutato in corrispondenza di θi, matrice di dimensioni (p,p) ∂ 2φ (H (θ i ))lm = ∂θ ∂θ l m θ =θ i Metodi del Gradiente – Metodo Massima Pendenza Regressione non lineare • Vantaggi: • Molto semplice da implementare. • Svantaggi: • E' estremamente lento nella convergenza ed instabile. • Da origine ad un percorso "zig-zag" in funzioni "banana shaped" Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 18 Metodi del Gradiente – Metodo di Newton-Raphson Regressione non lineare • Il metodo della massima pendenza può essere migliorato con una opportuna scelta della matrice R. • È possibile approssimare la funzione obiettivo con un’altra funzione il cui minimo è molto più semplice da calcolare. • Per semplicità si incominci a considerare un caso scalare e si sviluppi la funzione obiettivo in serie di Taylor intorno al punto generico θi delle iterazioni: Φ (θ ) ≈ Q (θ ) = Φ (θ i ) + 2 ∂Φ (θ − θi ) + 1 ∂ Φ2 (θ − θi )2 2 ∂θ θ =θ ∂θ θ =θ i i Metodi del Gradiente – Metodo di Newton-Raphson Regressione non lineare • Dal punto di vista grafico, si approssima la funzione con una curva quadratica passante per θi: La curva Q(θ) è la quadratica che approssima meglio la funzione in θ0 Q(θ) Il nuovo valore di ttentativo t ti θ1 è il valore l in cui Q(θ) assume valore minimo Φ(θ) θ θmin θ1 θ0 Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 19 Metodi del Gradiente – Metodo di Newton-Raphson Regressione non lineare • Per trovare il minimo, si può derivare la Q(θ) rispetto a θ: ∂Q Q ∂Φ ∂ 2Φ (θ − θi ) = 0 + 2 = ∂θ ∂θ θ =θ ∂θ θ =θ i i • Da cui, con semplici passaggi, si perviene al valore θi+1 della successione θi +1 = θi − 1 ∂Φ ⋅ ∂θ θ ∂ 2Φ 2 ∂θ θ i i Metodi del Gradiente – Metodo di Newton-Raphson Regressione non lineare • Il caso precedente può essere concettualmente esteso senza problemi al caso vettoriale: θi +1 ( p × 1) = Hθ−i1 − θi ( p × 1) ( p × p) T ⋅ ⎛ ∂Φ ⎞ ⎜ ⎟ ⎝ ∂θ ⎠θ ( p × 1) i • dove p è il numero dei parametri e: (H(θ )) i ij = ∂ 2Φ ∂θ i ∂θ j • è l’ Hessiano della funzione Φ Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 20 Metodi del Gradiente – Metodo di Newton-Raphson Regressione non lineare • Limiti: – Il metodo di NR è estremamente veloce nei pressi del minimo, i i ma non è garantita tit la l convergenza se llontani t id dall limite – In particolare, la matrice Hessiana deve essere definita positiva per ciascuna iterazione affinché la funzione obiettivo decresca nelle iterazioni – (Hessiano definito positivo) = gli autovalori della matrice sono tutti positivi • Per ovviare a questo inconveniente è possibile modificare il metodo, ricordando che la funzione obiettivo è definita come somma di quadrati. Metodi del Gradiente – Metodo di Gauss-Newton Regressione non lineare • Esplicitando le derivate della funzione obiettivo Φ (θ ) = ∑ ( yi − f ( xi , θ )) = ∑ ( yi − f i (θ )) n i =1 n 2 2 i =1 n ∂f ∂Φ = −∑ ( yi − f ( xi , θ )) i i =1 ∂θ j ∂θ j n n ∂f ∂ 2Φ ∂ 2 fi ∂f i = − ∑ ( yi − f ( xi , θ )) + 2∑ i i =1 ∂θ ∂θ i =1 ∂θ j ∂θ k ∂θ j ∂θ k j k • Il metodo di Gauss-Newton prevede l’adozione della seguente forma approssimata per l’Hessiano n ∂f ∂f i ∂ 2Φ ≈ 2∑ i i =1 ∂θ ∂θ ∂θ j ∂θ k j k 2 ⎛ n ⎞ ⎜ − ∑ ( yi − f ( xi , θ )) ∂ f i ≈ 0 ⎟ ⎜ i =1 ⎟ ∂θ j ∂θ k ⎝ ⎠ Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 21 Metodi del Gradiente – Metodo di Gauss-Newton Regressione non lineare • Si definisce la matrice V: Vij = ∂f i ∂θ j i = 1,,...,, N ; j = 1,,...,, p • Vantaggi del metodo di Gauss-Newton – La matrice: (V T ∂f i ∂f i i =1 ∂θ ∂θ j k ⋅ V ) jk = 2∑ n è sempre definita positiva – È più semplice da calcolare (non è necessario calcolare derivate seconde) • Problemi: • Non si può escludere l’eventualità che la matrice sia malcondizionata Metodi del Gradiente – Metodo di Levenberg-Marquardt Regressione non lineare • Per ovviare al problema della gestione dell’eventualità di matrici malcondizionate la matrice V può essere modificata, con l’introduzione di un opportuno pp fattore di condizionamento k: • Metodo di Levenberg (1944) Q = V T V + kI R = Q −1 • Metodo di Marquardt (1963) Q = V T V + kD R = Q −1 • dove D è una matrice diagonale i cui elementi sono gli elementi diagonali di VTV Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 22 Inferenza di intervallo e test statistici per modelli non lineari Regressione non lineare • Nel caso di modelli non lineari non è possibile effettuare dei test rigorosi, dato che la maggior parte delle variabili non sono assimilabili a VA normali. • Si deve far ricorso a delle approssimazioni, ovvero una linearizzazione del modello nei pressi della stima puntuale dei parametri. • È possibile solo esprimere giudizi approssimativi e qualitativi 45 Inferenza di intervallo e test statistici per modelli non lineari Regressione non lineare • È possibile effettuare una linearizzazione del generico modello non lineare sviluppandolo in serie di Taylor: ∂f ( x, θ ) ∂f ( x, θ ) yi = f ( xi , θ ) ≈ f xi , θˆ + θ1 − θˆ1 + ... + θ p − θˆp ∂θ1 (x ,θˆ ) ∂θ p (x ,θˆ ) ( ) ( ) i • Da cui ( ) i ( ) b = (θ − θˆ ) ∂f (x , θ̂ ) V = V (x ) = ξ i = yi − f xi , θˆ = b1V1 ( xi ) + b2V2 ( xi ) + ... + bpV p ( xi ) j j ij j j i i ∂θ j 46 Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 23 Inferenza di intervallo e test statistici per modelli non lineari Regressione non lineare • In conclusione, il modello linearizzato nei pressi della stima puntuale di θ, può essere riscritto nella seguente forma: () p ξ i = ∑Vij θˆ b j j =1 Vettore [nх1] (riparametrizzato) delle osservazioni sperimentali i = 1,..., n Ha il ruolo che aveva la matrice X delle condizioni sperimentali per la regressione lineare Vettore [pх1] (riparametrizzato) dei parametri Inferenza di intervallo e test statistici per modelli non lineari Regressione non lineare • Da notare che nella matrice V compaiono i valori dei parametri stimati, quindi non è nota a priori • È inoltre sensibile alla stima ottenuta per i parametri (ed ovviamente al modello) • E’ possibile (per esempio) definire una matrice asintotica di covarianza () () () T cov θˆ = MSE ⎛⎜ V θˆ ⋅ V θˆ ⎞⎟ ⎝ ⎠ −1 • dove MSE = () ( ( )) 1 1 n Φ θˆ = ∑ yi − f xi , θˆ n− p n − p i =1 2 48 Analisi dei Processi Chimici e Biotecnologici Regressione non lineare 24