Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non...
Transcript of Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non...
![Page 1: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/1.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Ottimizzazione Non Lineare
G. Liuzzi1
Venerdı 9 Novembre 2018
1Istituto di Analisi dei Sistemi ed Informatica IASI - CNR
Ottimizzazione Non Lineare G. Liuzzi
![Page 2: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/2.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Informazioni
Giampaolo Liuzzi
studio: IASI (CNR), Via dei Taurini 19 (00185, Roma),V piano, stanza 514 (poco utile)
tel: 06 49937129 (poco utile)
email: [email protected] (utile)
didattica: (utilissimo!!)http://www.iasi.cnr.it/∼liuzzi/teachita.htmhttps://groups.google.com/d/forum/onl tor vergata 2018-2019
Ottimizzazione Non Lineare G. Liuzzi
![Page 3: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/3.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Informazioni
Giampaolo Liuzzi
studio: IASI (CNR), Via dei Taurini 19 (00185, Roma),V piano, stanza 514 (poco utile)
tel: 06 49937129 (poco utile)
email: [email protected] (utile)
didattica: (utilissimo!!)http://www.iasi.cnr.it/∼liuzzi/teachita.htmhttps://groups.google.com/d/forum/onl tor vergata 2018-2019
Ottimizzazione Non Lineare G. Liuzzi
![Page 4: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/4.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Informazioni
Ottimizzazione Non Lineare
Orario delle Lezioni:Mercoledı 11:30-13:30 (aula C2)Giovedı 11:30-13:30 (aula C2)Venerdı 11:30-13:30 (aula C2)
Ricevimento: Mercoledı, Giovedı o Venerdı subito primadella lezione c/o stanza Prof. V. PiccialliMateriale didattico:
slides delle lezionidispensehttp://www.iasi.cnr.it/∼liuzzi/teachita.htmhttp://people.uniroma2.it/veronica.piccialli/
/Ottimizzazione.html
Modalita d’esame:esonero oppureprova scritta
Ottimizzazione Non Lineare G. Liuzzi
![Page 5: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/5.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
A questo punto...
Ottimizzazione Non Lineare G. Liuzzi
![Page 6: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/6.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
A questo punto... vi presento
“Julia is a high-level, high-performance dynamicprogramming language for technical comput-ing”
http://julialang.org/
Disponibile per
1 Windows (32/64 bit) self-extracting archive (.exe)2 Mac OS (ver. > 10.7, 64 bit) package (.dmg)3 Ubuntu (32/64 bit) packages (.deb)4 Fedora/RHEL/CentOS/SL (32/64 bit) packages (.rpm)5 Generic Linux (32/64 bit) binaries
Utilizzabile in tre modi
1 riga di comando2 Juno IDE3 online su https://www.juliabox.org/
Ottimizzazione Non Lineare G. Liuzzi
![Page 7: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/7.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
A questo punto... vi presento
“Julia is a high-level, high-performance dynamicprogramming language for technical comput-ing”
http://julialang.org/
Disponibile per
1 Windows (32/64 bit) self-extracting archive (.exe)2 Mac OS (ver. > 10.7, 64 bit) package (.dmg)3 Ubuntu (32/64 bit) packages (.deb)4 Fedora/RHEL/CentOS/SL (32/64 bit) packages (.rpm)5 Generic Linux (32/64 bit) binaries
Utilizzabile in tre modi
1 riga di comando2 Juno IDE3 online su https://www.juliabox.org/
Ottimizzazione Non Lineare G. Liuzzi
![Page 8: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/8.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
A questo punto... vi presento
“Julia is a high-level, high-performance dynamicprogramming language for technical comput-ing”
http://julialang.org/
Disponibile per
1 Windows (32/64 bit) self-extracting archive (.exe)2 Mac OS (ver. > 10.7, 64 bit) package (.dmg)3 Ubuntu (32/64 bit) packages (.deb)4 Fedora/RHEL/CentOS/SL (32/64 bit) packages (.rpm)5 Generic Linux (32/64 bit) binaries
Utilizzabile in tre modi
1 riga di comando2 Juno IDE3 online su https://www.juliabox.org/
Ottimizzazione Non Lineare G. Liuzzi
![Page 9: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/9.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
A questo punto... vi presento Julia!
“Julia is a high-level, high-performance dynamicprogramming language for technical comput-ing”
Alcune caratteristiche
gratis e open-source
script-type molto simile a Matlab R© e R
ideato per il parallelismo e il “distributed computing”
estendibile tramite uso di moduli
JuliaOpt (Optimization packages for the Julia language)
JuMP (Julia for Mathematical Programming)CPLEX, GUROBI, GLPK, COIN-Clp, ...Ipopt, KNITRO, NLopt, ...
Ottimizzazione Non Lineare G. Liuzzi
![Page 10: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/10.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Julia
Se avete intenzione di utilizzare Julia sul vostro PC:
Scaricare ed installare Julia dahttp://julialang.org/downloads/
Avviare una sessione interattiva di Julia (p.es. da unterminale/prompt DOS). Dovreste ottenere:
_ _ _(_)_ | A fresh approach to technical computing
(_) | (_) (_) | Documentation: https://docs.julialang.org
_ _ _| |_ __ _ | Type "?help" for help.
| | | | | | |/ _‘ | |
| | |_| | | | (_| | | Version 0.6.2 (2017-12-13 18:08 UTC)
_/ |\__’_|_|_|\__’_| | Official http://julialang.org/ release
|__/ | x86_64-pc-linux-gnu
Ottimizzazione Non Lineare G. Liuzzi
![Page 11: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/11.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Julia
al prompt di Julia eseguire i comandi:
julia> Pkg.update() \# Get latest package info
julia> Pkg.add("Optim")
julia> Pkg.add("JuMP")
julia> Pkg.add("NLopt")
Ottimizzazione Non Lineare G. Liuzzi
![Page 12: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/12.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Un problema di minimo (nella fisica delle particelle)
Ottimizzazione Non Lineare G. Liuzzi
![Page 13: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/13.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Un problema di minimo (nella fisica delle particelle)
Ottimizzazione Non Lineare G. Liuzzi
![Page 14: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/14.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Un problema di minimo (nella fisica delle particelle)
LOS ALAMOS SCIENTIFIC LABORATORY
of the
UNIVERSITY OF CALIFORNIA
Report written:November 19, 1952
LA-1h92Report distributed: , - I
on; 3 195A
NUMERICAL SOLUTION OF A MINIMUM PROBLEM
Work done bz: Report written by:
E. Fermi E. FermiN. Metropolis
PHYSICS
Ottimizzazione Non Lineare G. Liuzzi
![Page 15: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/15.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Un problema di minimo (nella fisica delle particelle)
Abstract“A particular non-linear function of six independent variables isminimized, using the Los Alamos electronic computer. The valuesof the variables at the minimum correspond to the phase shiftangles in the scattering of pions by hydrogen”
mesone = particella composta da quark + antiquark
pione = mesone π (il piu leggero dei mesoni)
Ci sono tre tipi di pione distinti per la loro carica elettrica:
π+, π0, π−
Ottimizzazione Non Lineare G. Liuzzi
![Page 16: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/16.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Dispersione (scattering) π − H
Due livelli di energia: 113 MeV e 135 MeV.
Per ciascun livello di energia si considerano tre processi didispersione (scattering) per collisione π − H
π− + p → π− + p
π+ + p → π+ + p
π− + p → π0 + n→ γγ + n
I risultati degli esperimenti (cross sections, densita) sono acquisititramite rivelatori posti ad angoli di: 45◦, 90◦ e 135◦ attorno allacamera a idrogeno (dove avviene la dispersione).
σ1−, σ2−, σ
3−
σ1+, σ2+, σ
3+
σ1γ , σ2γ , σ
3γ
Ottimizzazione Non Lineare G. Liuzzi
![Page 17: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/17.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Stima dei parametri
La teoria della dispersione vuole che le cross sections (σ1, . . . , σ9)siano funzione di certi parametri teorici incogniti (phase shifts,sfasamenti delle onde s e p di irradiamento dei pioni) α1, . . . , α6.
σ1 = f1(α1, . . . , α6)
......
σ9 = f9(α1, . . . , α6)
σ = F (α)
Ottimizzazione Non Lineare G. Liuzzi
![Page 18: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/18.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Stima dei parametri
La teoria della dispersione vuole che le cross sections (σ1, . . . , σ9)siano funzione di certi parametri teorici incogniti (phase shifts,sfasamenti delle onde s e p di irradiamento dei pioni) α1, . . . , α6.
σ1 = f1(α1, . . . , α6)
......
σ9 = f9(α1, . . . , α6)
σ = F (α)
Ottimizzazione Non Lineare G. Liuzzi
![Page 19: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/19.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Stima dei parametri
La teoria della dispersione vuole che le cross sections (σ1, . . . , σ9)siano funzione di certi parametri teorici incogniti (phase shifts,sfasamenti delle onde s e p di irradiamento dei pioni) α1, . . . , α6.
σ1 = f1(α1, . . . , α6)
......
σ9 = f9(α1, . . . , α6)
σ = F (α)
Ottimizzazione Non Lineare G. Liuzzi
![Page 20: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/20.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Stima dei parametri
Quindi, possiamo scrivere il sistema non-lineare seguente
σ = F (α),
definire la funzione di errore:
M(α) =9∑
i=1
(σi − Fi (α)
εi
)2
risolvere il problemaminα
M(α)
Ottimizzazione Non Lineare G. Liuzzi
![Page 21: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/21.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Stima dei parametri
Quindi, possiamo scrivere il sistema non-lineare seguente
σ = F (α),
definire la funzione di errore:
M(α) =9∑
i=1
(σi − Fi (α)
εi
)2
risolvere il problemaminα
M(α)
Ottimizzazione Non Lineare G. Liuzzi
![Page 22: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/22.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Stima dei parametri
Quindi, possiamo scrivere il sistema non-lineare seguente
σ = F (α),
definire la funzione di errore:
M(α) =9∑
i=1
(σi − Fi (α)
εi
)2
risolvere il problemaminα
M(α)
Ottimizzazione Non Lineare G. Liuzzi
![Page 23: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/23.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Soluzione del problema
Dal rapporto LA-1492, pp. 12-13
“The problem that has been here discussed is an example of aminimum problem for a function of many variables.”
“In principle, problems of this type could be handled in two ways.”
“One involves standard mathematical procedure of equating to 0all the partial derivatives of the function and obtaining thereby asystem of n equations with n unknowns.”
“The second procedure is the one chosen in the present example:to search for the minimum value by computing the function at verymany points until the minimum is attained”
Ottimizzazione Non Lineare G. Liuzzi
![Page 24: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/24.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Soluzione del problema
Dal rapporto LA-1492, pp. 12-13
“The problem that has been here discussed is an example of aminimum problem for a function of many variables.”
“In principle, problems of this type could be handled in two ways.”
“One involves standard mathematical procedure of equating to 0all the partial derivatives of the function and obtaining thereby asystem of n equations with n unknowns.”
“The second procedure is the one chosen in the present example:to search for the minimum value by computing the function at verymany points until the minimum is attained”
Ottimizzazione Non Lineare G. Liuzzi
![Page 25: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/25.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Soluzione del problema
Dal rapporto LA-1492, pp. 12-13
“The problem that has been here discussed is an example of aminimum problem for a function of many variables.”
“In principle, problems of this type could be handled in two ways.”
“One involves standard mathematical procedure of equating to 0all the partial derivatives of the function and obtaining thereby asystem of n equations with n unknowns.”
“The second procedure is the one chosen in the present example:to search for the minimum value by computing the function at verymany points until the minimum is attained”
Ottimizzazione Non Lineare G. Liuzzi
![Page 26: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/26.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Soluzione del problema
Dal rapporto LA-1492, pp. 12-13
“The problem that has been here discussed is an example of aminimum problem for a function of many variables.”
“In principle, problems of this type could be handled in two ways.”
“One involves standard mathematical procedure of equating to 0all the partial derivatives of the function and obtaining thereby asystem of n equations with n unknowns.”
“The second procedure is the one chosen in the present example:to search for the minimum value by computing the function at verymany points until the minimum is attained”
Ottimizzazione Non Lineare G. Liuzzi
![Page 27: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/27.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
MANIAC I
Fermi e Metropolis usarono il computer MANIAC(Mathematical Analyzer, Numerical Integrator, And Computer,1952-1958) del Los Alamos Laboratory per calcolare la funzioneM(x)
Ottimizzazione Non Lineare G. Liuzzi
![Page 28: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/28.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
MANIAC I
“The coding of this part of the problem [M(x + ∆x)] requiresapproximately 150 memory positions ... the machine computes itsvalue in approximately 4/10 of a second, whereas a handcomputation of the same function takes about 20 minutes”
Ottimizzazione Non Lineare G. Liuzzi
![Page 29: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/29.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Algoritmo “Fermi-Metropolis”
1 calcola il valore di M(α) per gli angoli iniziali
2 aumenta α1 con passi di 1/2◦ (α1 + 1/2◦, α1 + 1◦ . . . ) fincheil valore di M diminuisce
3 se α1 + 1/2◦ produce un aumento di M, diminuisci α1 conpassi di −1/2◦ finche M diminuisce
4 ripeti i passi 2 e 3 con α2, α3, . . . , α6 al posto di α1
5 ripeti 2, 3 e 4 finche per due cicli consecutivi il valore di Mnon si riduce
Al termine, ripeti lo stesso procedimento con passi di ±1/16◦
Ottimizzazione Non Lineare G. Liuzzi
![Page 30: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/30.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Algoritmo “Fermi-Metropolis”
1 calcola il valore di M(α) per gli angoli iniziali
2 aumenta α1 con passi di 1/2◦ (α1 + 1/2◦, α1 + 1◦ . . . ) fincheil valore di M diminuisce
3 se α1 + 1/2◦ produce un aumento di M, diminuisci α1 conpassi di −1/2◦ finche M diminuisce
4 ripeti i passi 2 e 3 con α2, α3, . . . , α6 al posto di α1
5 ripeti 2, 3 e 4 finche per due cicli consecutivi il valore di Mnon si riduce
Al termine, ripeti lo stesso procedimento con passi di ±1/16◦
Ottimizzazione Non Lineare G. Liuzzi
![Page 31: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/31.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Algoritmo “Fermi-Metropolis”
1 calcola il valore di M(α) per gli angoli iniziali
2 aumenta α1 con passi di 1/2◦ (α1 + 1/2◦, α1 + 1◦ . . . ) fincheil valore di M diminuisce
3 se α1 + 1/2◦ produce un aumento di M, diminuisci α1 conpassi di −1/2◦ finche M diminuisce
4 ripeti i passi 2 e 3 con α2, α3, . . . , α6 al posto di α1
5 ripeti 2, 3 e 4 finche per due cicli consecutivi il valore di Mnon si riduce
Al termine, ripeti lo stesso procedimento con passi di ±1/16◦
Ottimizzazione Non Lineare G. Liuzzi
![Page 32: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/32.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Algoritmo “Fermi-Metropolis”
1 calcola il valore di M(α) per gli angoli iniziali
2 aumenta α1 con passi di 1/2◦ (α1 + 1/2◦, α1 + 1◦ . . . ) fincheil valore di M diminuisce
3 se α1 + 1/2◦ produce un aumento di M, diminuisci α1 conpassi di −1/2◦ finche M diminuisce
4 ripeti i passi 2 e 3 con α2, α3, . . . , α6 al posto di α1
5 ripeti 2, 3 e 4 finche per due cicli consecutivi il valore di Mnon si riduce
Al termine, ripeti lo stesso procedimento con passi di ±1/16◦
Ottimizzazione Non Lineare G. Liuzzi
![Page 33: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/33.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Algoritmo “Fermi-Metropolis”
1 calcola il valore di M(α) per gli angoli iniziali
2 aumenta α1 con passi di 1/2◦ (α1 + 1/2◦, α1 + 1◦ . . . ) fincheil valore di M diminuisce
3 se α1 + 1/2◦ produce un aumento di M, diminuisci α1 conpassi di −1/2◦ finche M diminuisce
4 ripeti i passi 2 e 3 con α2, α3, . . . , α6 al posto di α1
5 ripeti 2, 3 e 4 finche per due cicli consecutivi il valore di Mnon si riduce
Al termine, ripeti lo stesso procedimento con passi di ±1/16◦
Ottimizzazione Non Lineare G. Liuzzi
![Page 34: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/34.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Programma d’esame
Ottimizzazione senza l’uso delle derivate
Ottimizzazione globale
Ottimizzazione in presenza di vincoli
Ottimizzazione Non Lineare G. Liuzzi
![Page 35: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/35.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Materiale didattico
Ottimizzazione senza l’uso delle derivateDispense e trasparenze delle lezioni(www.iasi.cnr.it/∼liuzzi/teachita.htm)
Ottimizzazione globaleTrasparenze(http://www.dis.uniroma1.it/∼lucidi/didattica/Ott-Glob.html)
Ottimizzazione in presenza di vincoliDispense e trasparenze delle lezioni(www.iasi.cnr.it/∼liuzzi/teachita.htm)
Ottimizzazione Non Lineare G. Liuzzi
![Page 36: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/36.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Materiale didattico
Ottimizzazione senza l’uso delle derivateDispense e trasparenze delle lezioni(www.iasi.cnr.it/∼liuzzi/teachita.htm)
Ottimizzazione globaleTrasparenze(http://www.dis.uniroma1.it/∼lucidi/didattica/Ott-Glob.html)
Ottimizzazione in presenza di vincoliDispense e trasparenze delle lezioni(www.iasi.cnr.it/∼liuzzi/teachita.htm)
Ottimizzazione Non Lineare G. Liuzzi
![Page 37: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/37.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Cosa ci servira/cosa dovete ricordare
Un insieme “compatto” e un insieme chiuso e limitato
Una funzione continua su un compatto ammette sempremassimo e minimo globale
∇f (x)>d = limε→0
f (x + εd)− f (x)
ε∂f (x)
∂xi= lim
ε→0
f (x + εei )− f (x)
ε
Ottimizzazione Non Lineare G. Liuzzi
![Page 38: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/38.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Cosa ci servira/cosa dovete ricordare
min f (x)x ∈ Rn
min f (x)s.t. x ∈ S ⊆ Rn
min f (x)s.t. g(x) ≤ 0
dove
f : Rn → R, f ∈ C 1
S insieme convesso
g : Rn → Rm, m ≥ 1, gi ∈ C 1
Condizioni di ottimo:
caso non vincolato, ∇f (x?) = 0
caso vincoli “facili”, ∇f (x?)>(x − x?) ≥ 0, per ogni x ∈ S
caso vincolato, Fritz-John, ∃λ0, λi :λ0∇f (x?) +
∑mi=1 λi∇gi (x?) = 0n
λ0, λi ≥ 0 e non tutti nulliλigi (x
?) = 0,
Ottimizzazione Non Lineare G. Liuzzi
![Page 39: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/39.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Cosa ci servira/cosa dovete ricordare
min f (x)x ∈ Rn
min f (x)s.t. x ∈ S ⊆ Rn
min f (x)s.t. g(x) ≤ 0
dove
f : Rn → R, f ∈ C 1
S insieme convesso
g : Rn → Rm, m ≥ 1, gi ∈ C 1
Condizioni di ottimo:
caso non vincolato, ∇f (x?) = 0
caso vincoli “facili”, ∇f (x?)>(x − x?) ≥ 0, per ogni x ∈ S
caso vincolato, Fritz-John, ∃λ0, λi :λ0∇f (x?) +
∑mi=1 λi∇gi (x?) = 0n
λ0, λi ≥ 0 e non tutti nulliλigi (x
?) = 0,
Ottimizzazione Non Lineare G. Liuzzi
![Page 40: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/40.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Cosa ci servira/cosa dovete ricordare
min f (x)x ∈ Rn
min f (x)s.t. x ∈ S ⊆ Rn
min f (x)s.t. g(x) ≤ 0
dove
f : Rn → R, f ∈ C 1
S insieme convesso
g : Rn → Rm, m ≥ 1, gi ∈ C 1
Condizioni di ottimo:
caso non vincolato, ∇f (x?) = 0
caso vincoli “facili”, ∇f (x?)>(x − x?) ≥ 0, per ogni x ∈ S
caso vincolato, Karush-Kuhn-Tucker, ∃λi :∇f (x?) +
∑mi=1 λi∇gi (x?) = 0n
λi ≥ 0, x? “regolare”λigi (x
?) = 0,
Ottimizzazione Non Lineare G. Liuzzi
![Page 41: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/41.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Metodo del Gradiente ...
... anche noto come metodo Steepest Descent o GradientDescent per la soluzione di
minx∈IRn
f (x)
In cosa consiste?
For k = 0, . . . ,maxit
Calcola dk = −∇f (xk)
If ‖dk‖ ≤tol STOP
Definisci xk+1 = xk + αkdkαk ottenuto mediante una ricerca di linea “tipo Armijo”
End For
Ottimizzazione Non Lineare G. Liuzzi
![Page 42: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/42.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Metodo del Gradiente ...
... anche noto come metodo Steepest Descent o GradientDescent per la soluzione di
minx∈IRn
f (x)
In cosa consiste?
For k = 0, . . . ,maxit
Calcola dk = −∇f (xk)
If ‖dk‖ ≤tol STOP
Definisci xk+1 = xk + αkdkαk ottenuto mediante una ricerca di linea “tipo Armijo”
End For
Ottimizzazione Non Lineare G. Liuzzi
![Page 43: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/43.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Se non possiamo usare ∇f ?
Soluzione: Invece di ∇f (xk) possiamo utilizzare ∇εf (xk), cioe
∇εf (xk) =
f (xk+εe1)−f (xk )
ε...
f (xk+εen)−f (xk )ε
For k = 0, . . . ,maxit
Calcola dk = −∇εf (xk)
If ‖dk‖ ≤tol STOP
Definisci xk+1 = xk + αkdkαk ottenuto mediante una ricerca di linea “tipo Armijo”
End For
Ottimizzazione Non Lineare G. Liuzzi
![Page 44: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/44.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Se non possiamo usare ∇f ?
Soluzione: Invece di ∇f (xk) possiamo utilizzare ∇εf (xk), cioe
∇εf (xk) =
f (xk+εe1)−f (xk )
ε...
f (xk+εen)−f (xk )ε
For k = 0, . . . ,maxit
Calcola dk = −∇εf (xk)
If ‖dk‖ ≤tol STOP
Definisci xk+1 = xk + αkdkαk ottenuto mediante una ricerca di linea “tipo Armijo”
End For
Ottimizzazione Non Lineare G. Liuzzi
![Page 45: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/45.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Quale e il problema?
esempio
f(x)
−2
−1
0
1
2
f(x)
−6 −4 −2 0 2 4 6x
Ottimizzazione Non Lineare G. Liuzzi
![Page 46: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/46.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Quale e il problema?
esempio
f(x)f(x)
fnoise(x)
−2
−1
0
1
2
f(x)
−6 −4 −2 0 2 4 6x
Ottimizzazione Non Lineare G. Liuzzi
![Page 47: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/47.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Quale e il problema?
esempio
f(x)f(x)
fnoise(x)
f(x)
fnoise(x)
GD points
−2
−1
0
1
2
f(x)
−6 −4 −2 0 2 4 6x
200 minimizzazioni a par-tire da 200 p.ti inizialirandom
Ottimizzazione Non Lineare G. Liuzzi
![Page 48: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/48.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Perche?
Supponiamo f (x) sia affetta da rumore additivo quindi
f (x) = f (x) + ε
Differenze finite su f :
∂ f
∂xi(x) ∼=
f (x + ∆ei )− f (x)
∆=
f (x + ∆ei ) + ε1 − f (x)− ε2∆
∼=∂f
∂xi(x) +
ε1 − ε2∆
Problema: per avere una buona approssimazione devo usare∆� 1 ma in questo caso
ε1 − ε2∆
� 1!!!
Ottimizzazione Non Lineare G. Liuzzi
![Page 49: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/49.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Perche?
Supponiamo f (x) sia affetta da rumore additivo quindi
f (x) = f (x) + ε
Differenze finite su f :
∂ f
∂xi(x) ∼=
f (x + ∆ei )− f (x)
∆=
f (x + ∆ei ) + ε1 − f (x)− ε2∆
∼=∂f
∂xi(x) +
ε1 − ε2∆
Problema: per avere una buona approssimazione devo usare∆� 1 ma in questo caso
ε1 − ε2∆
� 1!!!
Ottimizzazione Non Lineare G. Liuzzi
![Page 50: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/50.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Perche?
Supponiamo f (x) sia affetta da rumore additivo quindi
f (x) = f (x) + ε
Differenze finite su f :
∂ f
∂xi(x) ∼=
f (x + ∆ei )− f (x)
∆=
f (x + ∆ei ) + ε1 − f (x)− ε2∆
∼=∂f
∂xi(x) +
ε1 − ε2∆
Problema: per avere una buona approssimazione devo usare∆� 1 ma in questo caso
ε1 − ε2∆
� 1!!!
Ottimizzazione Non Lineare G. Liuzzi
![Page 51: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/51.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Perche?
Supponiamo f (x) sia affetta da rumore additivo quindi
f (x) = f (x) + ε
Differenze finite su f :
∂ f
∂xi(x) ∼=
f (x + ∆ei )− f (x)
∆=
f (x + ∆ei ) + ε1 − f (x)− ε2∆
∼=∂f
∂xi(x) +
ε1 − ε2∆
Problema: per avere una buona approssimazione devo usare∆� 1 ma in questo caso
ε1 − ε2∆
� 1!!!
Ottimizzazione Non Lineare G. Liuzzi
![Page 52: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/52.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Perche?
Supponiamo f (x) sia affetta da rumore additivo quindi
f (x) = f (x) + ε
Differenze finite su f :
∂ f
∂xi(x) ∼=
f (x + ∆ei )− f (x)
∆=
f (x + ∆ei ) + ε1 − f (x)− ε2∆
∼=∂f
∂xi(x) +
ε1 − ε2∆
Problema: per avere una buona approssimazione devo usare∆� 1 ma in questo caso
ε1 − ε2∆
� 1!!!
Ottimizzazione Non Lineare G. Liuzzi
![Page 53: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/53.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Un altro esempio (no rumore, ma molti minimi locali
esempio
f(x)
0
5
10
15
20
f(x)
−10 −5 0 5 10x
Ottimizzazione Non Lineare G. Liuzzi
![Page 54: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/54.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Un altro esempio (no rumore, ma molti minimi locali
esempio
f(x)f(x)
GD points
0
5
10
15
20
f(x)
−10 −5 0 5 10x
Ottimizzazione Non Lineare G. Liuzzi
![Page 55: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/55.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Voi come fareste?
Obiettivo: minimizzare una funzione f (x) di n variabili reali per laquale non e possibile/conveniente utilizzare derivate prime ne diordine superiore
Algoritmo di Fermi-Metropolis
Ottimizzazione Non Lineare G. Liuzzi
![Page 56: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/56.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Voi come fareste?
Obiettivo: minimizzare una funzione f (x) di n variabili reali per laquale non e possibile/conveniente utilizzare derivate prime ne diordine superiore
Algoritmo di Fermi-Metropolis
Ottimizzazione Non Lineare G. Liuzzi
![Page 57: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/57.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto iniziale: x0 = (−0.9;−1.0)>
f (x) iniziale: f (x0) = 11.3524Passo iniziale: ∆ = 0.3 −1.5 −1 −0.5 0
−1.5
−1
−0.5
0
Ottimizzazione Non Lineare G. Liuzzi
![Page 58: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/58.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto iniziale: x0 = (−0.9;−1.0)>
f (x) iniziale: f (x0) = 11.3524Passo iniziale: ∆ = 0.3 -1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Est 11.7904
Ovest 19.9504
Nord
Nord 6.4948
Ottimizzazione Non Lineare G. Liuzzi
![Page 59: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/59.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto iniziale: x0 = (−0.9;−1.0)>
f (x) iniziale: f (x0) = 11.3524Passo iniziale: ∆ = 0.3 -1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Est 11.7904
Ovest 19.9504
Nord 5.0788
Nord 6.4948
Ottimizzazione Non Lineare G. Liuzzi
![Page 60: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/60.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto corrente: xk = (−0.9;−0.7)>
f (x) corrente: f (xk) = 5.0788Passo corrente: ∆ = 0.3 -1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Est 11.7904
Ovest 19.9504
Nord 5.0788Nord 6.4948
Ottimizzazione Non Lineare G. Liuzzi
![Page 61: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/61.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto corrente: xk = (−0.9;−0.7)>
f (x) corrente: f (xk) = 5.0788Passo corrente: ∆ = 0.3 -1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Est
Est 4.9108
Ottimizzazione Non Lineare G. Liuzzi
![Page 62: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/62.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto corrente: xk = (−0.9;−0.7)>
f (x) corrente: f (xk) = 5.0788Passo corrente: ∆ = 0.3 -1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Est 2.2048
Est 4.9108
Ottimizzazione Non Lineare G. Liuzzi
![Page 63: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/63.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto corrente: xk = (−0.6;−0.7)>
f (x) corrente: f (xk) = 2.2048Passo corrente: ∆ = 0.3 -1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Est 2.2048Est 4.9108
Ottimizzazione Non Lineare G. Liuzzi
![Page 64: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/64.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto corrente: xk = (−0.6;−0.7)>
f (x) corrente: f (xk) = 2.2048Passo corrente: ∆ = 0.3 -1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Nord
Nord 3.3808
Ottimizzazione Non Lineare G. Liuzzi
![Page 65: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/65.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto corrente: xk = (−0.6;−0.7)>
f (x) corrente: f (xk) = 2.2048Passo corrente: ∆ = 0.3 -1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Nord 0.5248
Nord 3.3808
Ottimizzazione Non Lineare G. Liuzzi
![Page 66: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/66.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto corrente: xk = (−0.6;−0.4)>
f (x) corrente: f (xk) = 0.5248Passo corrente: ∆ = 0.3 -1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Nord 0.5248Nord 3.3808
Ottimizzazione Non Lineare G. Liuzzi
![Page 67: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/67.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto corrente: xk = (−0.6;−0.4)>
f (x) corrente: f (xk) = 0.5248Passo corrente: ∆ = 0.3 -1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Est 0.5668
Ovest 6.4948
Nord 3.3808
Sud 2.2048
Ottimizzazione Non Lineare G. Liuzzi
![Page 68: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/68.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto corrente: xk = (−0.6;−0.4)>
f (x) corrente: f (xk) = 0.5248Passo corrente: ∆ = 0.3 -1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Est 0.5668
Ovest 6.4948
Nord 3.3808
Sud 2.2048
Ottimizzazione Non Lineare G. Liuzzi
![Page 69: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/69.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto corrente: xk = (−0.6;−0.4)>
f (x) corrente: f (xk) = 0.5248Passo corrente: ∆ = 0.15 -1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Est
Est 0.5668
Ottimizzazione Non Lineare G. Liuzzi
![Page 70: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/70.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto corrente: xk = (−0.6;−0.4)>
f (x) corrente: f (xk) = 0.5248Passo corrente: ∆ = 0.15 -1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Est 0.0069
Est 0.5668
Ottimizzazione Non Lineare G. Liuzzi
![Page 71: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/71.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto corrente: xk = (−0.45;−0.4)>
f (x) corrente: f (xk) = 0.0069Passo corrente: ∆ = 0.15
-1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Est 0.0069Est 0.5668
Ottimizzazione Non Lineare G. Liuzzi
![Page 72: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/72.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto corrente: xk = (−0.45;−0.4)>
f (x) corrente: f (xk) = 0.0069Passo corrente: ∆ = 0.15
-1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Est 0.5668
Ovest 0.5248
Nord 0.3957
Sud 0.7670
Ottimizzazione Non Lineare G. Liuzzi
![Page 73: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/73.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto corrente: xk = (−0.45;−0.4)>
f (x) corrente: f (xk) = 0.0069Passo corrente: ∆ = 0.15
-1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Est 0.5668
Ovest 0.5248
Nord 0.3957
Sud 0.7670
Ottimizzazione Non Lineare G. Liuzzi
![Page 74: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/74.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto corrente: xk = (−0.45;−0.4)>
f (x) corrente: f (xk) = 0.0069Passo corrente: ∆ = 0.075
-1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Est 0.5668
Ovest 0.5248
Nord 0.3957
Sud 0.7670
Ottimizzazione Non Lineare G. Liuzzi
![Page 75: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/75.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Fermi-Metropolis
Consideriamo il problema:
minx∈R2
f (x)
Punto corrente: xk = (−0.45;−0.4)>
f (x) corrente: f (xk) = 0.0069Passo corrente: ∆ = 0.075
-1.5 -1 -0.5 0
-1.5
-1
-0.5
0
Calcoliamo f (x) nei punti
Est 0.5668
Ovest 0.5248
Nord 0.3957
Sud 0.7670
Ottimizzazione Non Lineare G. Liuzzi
![Page 76: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/76.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Ricapitolando
f (xk) ∆k
11.352400 0.3000005.078800 0.3000000.524800 0.3000000.524800 0.1500000.006925 0.1500000.006925 0.0750000.006925 0.0375000.006925 0.0187500.004715 0.0187500.004715 0.0093750.000671 0.0093750.000671 0.0046870.000033 0.0046870.000033 0.0023440.000033 0.0011720.000005 0.0011720.000005 0.0005860.000002 0.0005860.000002 0.0002930.000000 0.000293
Ottimizzazione Non Lineare G. Liuzzi
![Page 77: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/77.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Ricapitolando
f (xk) ∆k
11.352400 0.3000005.078800 0.3000000.524800 0.3000000.524800 0.1500000.006925 0.1500000.006925 0.0750000.006925 0.0375000.006925 0.0187500.004715 0.0187500.004715 0.0093750.000671 0.0093750.000671 0.0046870.000033 0.0046870.000033 0.0023440.000033 0.0011720.000005 0.0011720.000005 0.0005860.000002 0.0005860.000002 0.0002930.000000 0.000293
Ottimizzazione Non Lineare G. Liuzzi
![Page 78: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/78.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Ricapitolando
f (xk) ∆k
11.352400 0.3000005.078800 0.3000000.524800 0.3000000.524800 0.1500000.006925 0.1500000.006925 0.0750000.006925 0.0375000.006925 0.0187500.004715 0.0187500.004715 0.0093750.000671 0.0093750.000671 0.0046870.000033 0.0046870.000033 0.0023440.000033 0.0011720.000005 0.0011720.000005 0.0005860.000002 0.0005860.000002 0.0002930.000000 0.000293
Ottimizzazione Non Lineare G. Liuzzi
![Page 79: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/79.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Ricapitolando
f (xk) ∆k
11.352400 0.3000005.078800 0.3000000.524800 0.3000000.524800 0.1500000.006925 0.1500000.006925 0.0750000.006925 0.0375000.006925 0.0187500.004715 0.0187500.004715 0.0093750.000671 0.0093750.000671 0.0046870.000033 0.0046870.000033 0.0023440.000033 0.0011720.000005 0.0011720.000005 0.0005860.000002 0.0005860.000002 0.0002930.000000 0.000293
Ottimizzazione Non Lineare G. Liuzzi
![Page 80: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/80.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Ricapitolando
f (xk) ∆k
11.352400 0.3000005.078800 0.3000000.524800 0.3000000.524800 0.1500000.006925 0.1500000.006925 0.0750000.006925 0.0375000.006925 0.0187500.004715 0.0187500.004715 0.0093750.000671 0.0093750.000671 0.0046870.000033 0.0046870.000033 0.0023440.000033 0.0011720.000005 0.0011720.000005 0.0005860.000002 0.0005860.000002 0.0002930.000000 0.000293
Ottimizzazione Non Lineare G. Liuzzi
![Page 81: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/81.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Ricapitolando
f (xk) ∆k
11.352400 0.3000005.078800 0.3000000.524800 0.3000000.524800 0.1500000.006925 0.1500000.006925 0.0750000.006925 0.0375000.006925 0.0187500.004715 0.0187500.004715 0.0093750.000671 0.0093750.000671 0.0046870.000033 0.0046870.000033 0.0023440.000033 0.0011720.000005 0.0011720.000005 0.0005860.000002 0.0005860.000002 0.0002930.000000 0.000293
Ottimizzazione Non Lineare G. Liuzzi
![Page 82: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/82.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Ricapitolando
f (xk) ∆k
11.352400 0.3000005.078800 0.3000000.524800 0.3000000.524800 0.1500000.006925 0.1500000.006925 0.0750000.006925 0.0375000.006925 0.0187500.004715 0.0187500.004715 0.0093750.000671 0.0093750.000671 0.0046870.000033 0.0046870.000033 0.0023440.000033 0.0011720.000005 0.0011720.000005 0.0005860.000002 0.0005860.000002 0.0002930.000000 0.000293
Ottimizzazione Non Lineare G. Liuzzi
![Page 83: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/83.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Pseudo-code del metodo “Fermi-Metropolis”
Input: x0, ∆0, ∆min, maxit
k ← 0, x ← x0, ∆← ∆0
while k ≤maxit and ∆ ≥ ∆min dok ← k + 1, x ← xfor i = 1, 2, . . . , n
if f (x + ∆ei ) < f (x) thenwhile f (x + ∆ei ) < f (x) do x ← x + ∆ei end while
else if f (x −∆ei ) < f (x) thenwhile f (x −∆ei ) < f (x) do x ← x −∆ei end while
end ifend forif f (x) = f (x) then ∆← ∆/2else x ← xend if
end while
Return: x (miglior punto determinato)
Ottimizzazione Non Lineare G. Liuzzi
![Page 84: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/84.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Pseudo-code del metodo “Fermi-Metropolis”
Input: x0, ∆0, ∆min, maxit
k ← 0, x ← x0, ∆← ∆0
while k ≤maxit and ∆ ≥ ∆min dok ← k + 1, x ← xfor i = 1, 2, . . . , n
if f (x + ∆ei ) < f (x) thenwhile f (x + ∆ei ) < f (x) do x ← x + ∆ei end while
else if f (x −∆ei ) < f (x) thenwhile f (x −∆ei ) < f (x) do x ← x −∆ei end while
end ifend forif f (x) = f (x) then ∆← ∆/2else x ← xend if
end while
Return: x (miglior punto determinato)
Ottimizzazione Non Lineare G. Liuzzi
![Page 85: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/85.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Pseudo-code del metodo “Fermi-Metropolis”
Input: x0, ∆0, ∆min, maxit
k ← 0, x ← x0, ∆← ∆0
while k ≤maxit and ∆ ≥ ∆min dok ← k + 1, x ← xfor i = 1, 2, . . . , n
if f (x + ∆ei ) < f (x) thenwhile f (x + ∆ei ) < f (x) do x ← x + ∆ei end while
else if f (x −∆ei ) < f (x) thenwhile f (x −∆ei ) < f (x) do x ← x −∆ei end while
end ifend forif f (x) = f (x) then ∆← ∆/2else x ← xend if
end while
Return: x (miglior punto determinato)
Ottimizzazione Non Lineare G. Liuzzi
![Page 86: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/86.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Pseudo-code del metodo “Fermi-Metropolis”
Input: x0, ∆0, ∆min, maxit
k ← 0, x ← x0, ∆← ∆0
while k ≤maxit and ∆ ≥ ∆min dok ← k + 1, x ← xfor i = 1, 2, . . . , n
if f (x + ∆ei ) < f (x) thenwhile f (x + ∆ei ) < f (x) do x ← x + ∆ei end while
else if f (x −∆ei ) < f (x) thenwhile f (x −∆ei ) < f (x) do x ← x −∆ei end while
end ifend forif f (x) = f (x) then ∆← ∆/2else x ← xend if
end while
Return: x (miglior punto determinato)
Ottimizzazione Non Lineare G. Liuzzi
![Page 87: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/87.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Pseudo-code del metodo “Fermi-Metropolis”
Input: x0, ∆0, ∆min, maxit
k ← 0, x ← x0, ∆← ∆0
while k ≤maxit and ∆ ≥ ∆min dok ← k + 1, x ← xfor i = 1, 2, . . . , n
if f (x + ∆ei ) < f (x) thenwhile f (x + ∆ei ) < f (x) do x ← x + ∆ei end while
else if f (x −∆ei ) < f (x) thenwhile f (x −∆ei ) < f (x) do x ← x −∆ei end while
end ifend forif f (x) = f (x) then ∆← ∆/2else x ← xend if
end while
Return: x (miglior punto determinato)
Ottimizzazione Non Lineare G. Liuzzi
![Page 88: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/88.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Pseudo-code del metodo “Fermi-Metropolis”
Input: x0, ∆0, ∆min, maxit
k ← 0, x ← x0, ∆← ∆0
while k ≤maxit and ∆ ≥ ∆min dok ← k + 1, x ← xfor i = 1, 2, . . . , n
if f (x + ∆ei ) < f (x) thenwhile f (x + ∆ei ) < f (x) do x ← x + ∆ei end while
else if f (x −∆ei ) < f (x) thenwhile f (x −∆ei ) < f (x) do x ← x −∆ei end while
end ifend forif f (x) = f (x) then ∆← ∆/2else x ← xend if
end while
Return: x (miglior punto determinato)
Ottimizzazione Non Lineare G. Liuzzi
![Page 89: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/89.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Pseudo-code del metodo “Fermi-Metropolis”
Input: x0, ∆0, ∆min, maxit
k ← 0, x ← x0, ∆← ∆0
while k ≤maxit and ∆ ≥ ∆min dok ← k + 1, x ← xfor i = 1, 2, . . . , n
if f (x + ∆ei ) < f (x) thenwhile f (x + ∆ei ) < f (x) do x ← x + ∆ei end while
else if f (x −∆ei ) < f (x) thenwhile f (x −∆ei ) < f (x) do x ← x −∆ei end while
end ifend forif f (x) = f (x) then ∆← ∆/2else x ← xend if
end while
Return: x (miglior punto determinato)
Ottimizzazione Non Lineare G. Liuzzi
![Page 90: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/90.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Pseudo-code del metodo “Fermi-Metropolis”
Input: x0, ∆0, ∆min, maxit
k ← 0, x ← x0, ∆← ∆0
while k ≤maxit and ∆ ≥ ∆min dok ← k + 1, x ← xfor i = 1, 2, . . . , n
if f (x + ∆ei ) < f (x) thenwhile f (x + ∆ei ) < f (x) do x ← x + ∆ei end while
else if f (x −∆ei ) < f (x) thenwhile f (x −∆ei ) < f (x) do x ← x −∆ei end while
end ifend forif f (x) = f (x) then ∆← ∆/2else x ← xend if
end while
Return: x (miglior punto determinato)
Ottimizzazione Non Lineare G. Liuzzi
![Page 91: Ottimizzazione Non Lineare - iasi.cnr.itliuzzi/ONL2018/lezione_intro.pdf · Ottimizzazione Non Lineare G. Liuzzi1 Venerd 9 Novembre 2018 1 Istituto di Analisi dei Sistemi ed Informatica](https://reader030.fdocument.pub/reader030/viewer/2022013102/5c65707809d3f2ad6e8ca152/html5/thumbnails/91.jpg)
logo.pdf
Introduzione Dispersione π − H Dove eravamo Ott. senza derivate
Pseudo-code del metodo “Fermi-Metropolis”
Input: x0, ∆0, ∆min, maxit
k ← 0, x ← x0, ∆← ∆0
while k ≤maxit and ∆ ≥ ∆min dok ← k + 1, x ← xfor i = 1, 2, . . . , n
if f (x + ∆ei ) < f (x) thenwhile f (x + ∆ei ) < f (x) do x ← x + ∆ei end while
else if f (x −∆ei ) < f (x) thenwhile f (x −∆ei ) < f (x) do x ← x −∆ei end while
end ifend forif f (x) = f (x) then ∆← ∆/2else x ← xend if
end while
Return: x (miglior punto determinato)
Ottimizzazione Non Lineare G. Liuzzi