Buonasera!
Abbiamo preparato un form in cui votare per il vostro argomento preferito, e per segnalare se siete interessati o meno a seguire il reading course. Vi chiederemmo di compilarlo entro martedì 21/02, così poi possiamo cominciare con la parte logistica, ed avviare il reading course poco dopo l'inizio del semestre.
https://forms.gle/F9BubyYgXqz8VTBd9
Grazie!
A presto, -- Leonardo, Fabio e Stefano.
On 08/02/2023 09:54, Leonardo Robol wrote:
Car* partecipanti del reading course,
dopo l'esperienza (speriamo) positiva di quest'autunno, vorremmo organizzarci per riprendere gli incontri in primavera. La prima cosa da fare è quella di scegliere un argomento che ci diverta.
Dopo averci pensato un po' su, ci sembra che una tra le tre seguenti possibilità possa essere di interesse per diversi di noi. Ovviamente, se vi fa piacere potete aggiungerne di vostre inviandocele. Come limite di tempo vorremo fissarci questa settimana.
- *Riemannian optimization*: some ci ottimizza una funzione obiettivo F(X) con X in qualche varietà Riemanniana (nella maggior parte dei casi, varietà di matrici con qualche struttura)? L'idea sarebbe di approfondire le tecniche collegate a questo problemi (calcolo concreto di piani tangenti e retrazioni, mappe esponenziali, ecc.), e di vedere un po' di applicazioni alla vita "reale" (low-rank approximation, Netflix problem, ...).
- *Koopman operators*: Ora sempre di più di moda, gli operatori Koopman permettono di rappresentare sistemi dinamici nonlineari come sistemi dinamici equivalenti lineari, passando però ad un numero infinito di dimensioni. La teoria è sempre stata un po' fumosa ed euristica, ma di recente ci sono stati dei contributi che hanno permesso di precisare perché l'approccio funziona, e in parte di giustificare varie metodologie di model reduction. Ci piacerebbe capirci qualcosa di più.
- *Model reduction*: Un argomento piuttosto standard di numerical linear algebra, di cui è sempre bene sapere qualcosa. Nella sua forma più essenziale, dato una ODE x' = Ax con x che vive in uno spazio "grande", possiamo "comprimerla" con un modellino molto più piccolo, che però contenga sufficiente informazione da essere di fatto indistinguibile da quello originale (a meno di un piccolo errore ammissibile, e considerato che le nostre osservazioni ed input al sistema sono limitate a pochi gradi di libertà)? Le tecniche che si usano si intrecciano con la low-rank approximation, di cui abbiamo abbondantemente parlato.
Le uniremmo alle proposte che ci farete avere (non siate timidi!), e poi proporrei di votare, e scegliere di cosa occuparci.
A presto! -- Leo, Fabio, Stefano.