Title: Is there a Kemeny’s constant for second-order random walks?,
Speaker(s): Prof. Dario Fasino, Università di Udine,
Date and time: Feb 6, 2024, 10:00 AM (Europe/Rome),
Lecture series: Seminar on Numerical Analysis,
Venue: Dipartimento di Matematica (Aula Magna).
Address:
Largo Bruno Pontecorvo, 5 – 56127 Pisa
You can access the full event here: https://events.dm.unipi.it/e/258
Abstract
--------
Kemeny's constant is a measure of the navigability of a network by ordinary random walks, which appears in a famous result on Markov chains known as the Random Target Lemma.
A second-order random walk is a random walk where the transition probabilities depend on two past states. It can be turned into a Markov chain by lifting the state space from the nodes to the directed edges of the graph. The corresponding Kemeny constant is well known but says very little about the second-order walk on the original network. We extend certain definitions and results on standard random walk's mean hitting and return times to the second-order case and provide simple formulas that allow us to compute these numbers by solving suitable systems of linear equations.
New results show that there is an infinite family of graphs for which certain second-order random walks, including the best-known non-backtracking random walk, satisfy a precise second-order counterpart of the Random Target Lemma.
So, in summary, the answer to the question in the title is: Yes, sometimes.
--
Indico :: Email Notifier
https://events.dm.unipi.it/e/258
Title: How to express the solution of an ODE as a linear system (in a suitable algebra) and exploit it for fast computation.,
Speaker(s): Dr Stefano Pozza, Charles University,
Date and time: Feb 13, 2024, 3:00 PM (Europe/Rome),
Lecture series: Seminar on Numerical Analysis,
Venue: Scuola Normale Superiore (Aula Mancini).
Address:
P.za dei Cavalieri, 7, 56126 Pisa PI
You can access the full event here: https://events.dm.unipi.it/e/254
Abstract
--------
The solution of systems of non-autonomous linear ordinary differential equations is crucial in various applications, such as nuclear magnetic resonance spectroscopy. We introduced a new solution expression in terms of a generalization of the Volterra composition. Such an expression is linear in a particular algebraic structure of distributions, which can be mapped onto a subalgebra of infinite matrices.
It is possible to exploit the new expression to devise fast numerical methods for linear non-autonomous ODEs. As a first example, we present a new method for the operator solution of the generalized Rosen-Zener model, a system of linear non-autonomous ODEs from quantum mechanics. The new method’s computing time scales linearly with the model’s size in the numerical experiments.
--
Indico :: Email Notifier
https://events.dm.unipi.it/e/254
Buongiorno,
segnalo che è uscito il bando per una posizione RTT in analisi
numerica (MAT/08) al dipartimento di informatica.
Bando e istruzioni per fare domanda sono disponibili su
https://bandi.unipi.it/public/Bandi/Detail/b34b7404-9d5a-4180-81e2-bd461bfe…
.
La scadenza per le domande è il 23 febbraio alle 13:00.
La posizione è riservata a coloro che hanno trascorso un periodo di
almeno 36 mesi in incarichi di ricerca o corsi di dottorato /al di
fuori/ dell'università di Pisa.
Tutti gli interessati sono invitati a partecipare!
--
--Federico Poloni
Dipartimento di Informatica, Università di Pisa
https://www.di.unipi.it/~fpoloni/ tel:+39-050-2213143
Dear all,
I would like to share this message from Iacopo Carusotto
(iacopo.carusotto(a)unitn.it), in case someone you know is interested in
the PhD positions advertised below.
Best wishes,
Paola Boito
---------------------------------------------------
TENORS (*T*ensor mod*E*li*N*g, ge*O*met*R*y and optimi*S*ation) is a
Marie Skłodowska-Curie Doctoral Network / Joint Doctorate (2024-2027),
offering
*
*
* 15 PhD positions.*
The objective of TENORS is to conduct advanced research that addresses
critical challenges in the fields of *tensor modeling and computation*,
joining forces from *algebraic geometry, global optimisation, numerical
computation, high performance computing, data science, quantum physics.*
It aims to feed an innovative and ambitious *joint-PhD program* to train
highly qualified young scientists in new scientific and technological
knowledge.
The PhD candidates will obtain joint/double PhD diplomas from reputed
universities within TENORS project.
For more information on TENORS see http://tenors-network.eu/
<http://tenors-network.eu/>
Application deadline: March 31st, 2024.
How to apply: https://project.inria.fr/tenors/phd-positions/
<https://project.inria.fr/tenors/phd-positions/>
Where to submit your application:
https://easychair.org/my/conference?conf=tenors2427
<https://easychair.org/my/conference?conf=tenors2427>
Carǝ tuttǝ,
Vi segnalo che domani *12 dicembre* alle ore *16:00* ci sarà un seminario
tenuto da Alessandro Filippo (Roma Tor Vergata) in *Aula Seminari*.
I seminari PYSANUM sono dei seminari informali di analisi numerica e
matematica applicata rivolti a studenti, organizzati da alcuni dottorandi
Unipi e SNS, con l'obiettivo di presentare in maniera accessibile argomenti
di ricerca di analisi numerica ad un pubblico studentesco. Si possono
trovare ulteriori informazioni sul nostro sito
<https://pysanum.dm.unipi.it/>.
A presto,
Nikita
-----
Titolo: *"Reti complesse: Robustezza, indici di centralità e nuove
strategie per il ranking dei nodi"*
Abstract:
Determinare quali siano i nodi più importanti in una rete complessa è uno
dei problemi principali dell’analisi delle reti. Tale problema, anche noto
come il problema del ranking, viene tipicamente risolto attraverso il
calcolo delle misure di centralità.
Tuttavia, cambiamenti strutturali improvvisi, quali la rimozione di alcuni
nodi o archi, possono invalidare la nostra conoscenza dei nodi più critici.
Per esempio, nodi dapprima cruciali potrebbero perdere tutta la loro
importanza qualora rimanessero isolati.
Quindi, per studiare l’impatto della rimozione dei nodi più influenti da
una rete, sarebbe necessario ricalcolare costantemente le misure di
centralità, un’operazione spesso impraticabile per reti di grandi
dimensioni. Al contrario, evitare del tutto il ricalcolo potrebbe fornire
una rappresentazione della realtà poco accurata.
In questo talk illustrerò due nuove strategie per ridurre il costo
computazionale del calcolo sequenziale delle centralità, fornendo
giustificazioni teoriche a supporto. Infine, mostrerò come sia possibile
impiegare queste strategie per valutare la robustezza di una rete ad
attacchi mirati.
Tratto da un lavoro in collaborazione con Daniele Bertaccini.
D. Bertaccini, A. Filippo. *A proposal for ranking through selective
computation of centrality measures*. PLOS ONE, 18, 2023.
Carǝ tuttǝ,
Vi scrivo per segnalare che lunedì 27 novembre Martina Iannacito (KU
Leuven) terrà un seminario in Aula Riunioni alle 16.00, nell'ambito del
ciclo di seminari PYSANUM. Di seguito titolo e abstract della presentazione.
I seminari PYSANUM sono dei seminari informali di analisi numerica e
matematica applicata rivolti a studenti, organizzati da alcuni dottorandi
Unipi e SNS, con l'obiettivo di presentare in maniera accessibile argomenti
di ricerca di analisi numerica ad un pubblico studentesco. Si possono
trovare ulteriori informazioni sul nostro sito
<https://pysanum.dm.unipi.it/>.
A presto,
Igor
-----
Titolo: Introduzione ai tensori: dalle applicazioni alle sfide contemporanee
Abstract:
Per oltre un secolo, i matematici sono stati affascinati dallo studio delle
proprietà di famiglie di matrici. Gli oggetti con cui allora iniziarono a
confrontarsi sono oggi noti come tensori o array multidirezionali. Lo
studio dei tensori ha acquisito particolare rilevanza grazie alle
molteplici applicazioni in cui forniscono importanti benefici. Queste
strutture matematiche multidimensionali garantiscono l’unicità della
fattorizzazione (sotto ipotesi non eccessivamente complesse), consentono
rappresentazioni più adatte di fenomeni complessi e delle loro intricate
interazioni. Infine, se rappresentati in modo ottimale, i tensori offrono
vantaggi computazionali. Tutte queste loro proprietà hanno aperto diverse
nuove direzioni di ricerca in campo matematico, numerico e computazionale.
Nella prima metà di questa presentazione, esamineremo problemi provenienti
da applicazioni concrete in cui i tensori sono stati di innovazione.
Contemporaneamente, verrà fornita una panoramica di alcune tecniche di
decomposizione tensoriale che meglio si adattano al problema considerato di
volta in volta.
Il focus della seconda parte si sposterà sulle sfide contemporanee
incontrate nello sviluppo di tecniche basate su array multidimensionali, e
nell’implementazione di nuovi algoritmi per la fattorizzazione tensoriale.
Questa discussione offrirà spunti di riflessione sul panorama in evoluzione
della ricerca sui tensori, evidenziandone la rilevanza e il potenziale.
Buonasera,
A seguito del voto, l'argomento scelto per questa nuova edizione del Reading Course sarà /Riemannian Optimization/; abbiamo impostato una bozza di programma e contattato alcuni di voi per iniziare (in modo da concedere il tempo per preparare il materiale): il primo incontro sarà il 17/11 alle 16:00, in Aula Riunioni.
Trovate tutti i dettagli qui: https://numpi.dm.unipi.it/reading-course-in-numerical-analysis/
C'è ancora spazio per candidarsi a tenere gli altri incontri.
A presto!
Fabio, Leonardo e Stefano.
Carə tuttə,
Vi scriviamo perché abbiamo l'intenzione di ripartire con una nuova edizione del Reading Course Analisi Numerica. Si tratta di una serie di incontri dove verranno presentati alcuni risultati recenti vicini ad argomenti di ricerca di interesse, solitamente da studentə e/o dottorandə. Ogni iterazione del corso è dedicata ad un argomento specifico, e può essere seguito in modo indipendente dagli altri. Le proposta per questo semestre è una tra:
- Ottimizzazione Riemanniana,
- Operatori di Koopman.
Aiutateci a decidere tra le due compilando il seguente form (su cui trovate anche alcune informazioni bibliografiche e contenutistiche sulle due proposte):
- https://forms.gle/QfHpfE1WdjJH9Z6Q8
Se avete idee riguardo altri possibili argomenti che volete suggerire potete inserirle all'interno del modulo, insieme a delle preferenze orientative per il giorno di svolgimento.
Trovate ulteriori informazioni sulle passate edizioni sul sito:
- https://numpi.dm.unipi.it/reading-course-in-numerical-analysis/
E potete restare aggiornati sugli sviluppi iscrivendovi alla mailing list:
- https://lists.dm.unipi.it/postorius/lists/reading-num.lists.dm.unipi.it/
A parte queste mail di annuncio, le informazioni riguardanti l'organizzazione circoleranno /unicamente/ sulla mailing list dedicata, per cui se siete interessati a seguire il corso iscrivetevi lì.
Avete tempo per esprime le vostre preferenze fino a *Mercoledì 18 Ottobre* (incluso).
Cordiali saluti,
Fabio Durastante, Stefano Massei & Leonardo Robol
Title: On the influence of stochastic rounding bias in implementing gradient descent with applications in low-precision training,
Speaker(s): Mrs Lu Xia, Eindhoven University of Technology,
Date and time: 18 Jul 2023, 14:00 (Europe/Rome),
Lecture series: Seminar on Numerical Analysis,
Venue: Dipartimento di Matematica (Aula Magna).
You can access the full event here: https://events.dm.unipi.it/e/201
Abstract
--------
In the context of low-precision computation for the training of neural networks with thegradient descent method (GD), the occurrence of deterministic rounding errors often leadsto stagnation or adversely affects the convergence of the optimizers. The employ-ment of unbiased stochastic rounding (SR) may partially capture gradient updates thatare lower than the minimum rounding precision, with a certain probability. Weprovide a theoretical elucidation for the stagnation observed in GD when training neuralnetworks with low-precision computation. We analyze the impact of floating-point round-off errors on the convergence behavior of GD with a particular focus on convex problems.Two biased stochastic rounding methods, signed-SR$_\varepsilon$ and SR$_\varepsilon$, are proposed, which havebeen demonstrated to eliminate the stagnation of GD and to result in significantly fasterconvergence than SR in low-precision floating-point computation.We validate our theoretical analysis by training a binary logistic regression model onthe Cifar10 database and a 4-layer fully-connected neural network model on the MNISTdatabase, utilizing a 16-bit floating-point representation and various rounding techniques.The experiments demonstrate that signed-SR$_\varepsilon$ and SR$_\varepsilon$ may achieve higher classificationaccuracy than rounding to the nearest (RN) and SR, with the same number of trainingepochs. It is shown that a faster convergence may be obtained by the new roundingmethods with 16-bit floating-point representation than by RN with 32-bit floating-pointrepresentation.
--
Indico :: Email Notifier
https://events.dm.unipi.it/e/201
Title: On the influence of stochastic rounding bias in implementing gradient descent with applications in low-precision training,
Speaker(s): Mrs Lu Xia, Eindhoven University of Technology,
Date and time: 18 Jul 2023, 14:00 (Europe/Rome),
Lecture series: Seminar on Numerical Analysis,
Venue: Dipartimento di Matematica (Aula Magna).
You can access the full event here: https://events.dm.unipi.it/e/201
Abstract
--------
In the context of low-precision computation for the training of neural networks with thegradient descent method (GD), the occurrence of deterministic rounding errors often leadsto stagnation or adversely affects the convergence of the optimizers. The employ-ment of unbiased stochastic rounding (SR) may partially capture gradient updates thatare lower than the minimum rounding precision, with a certain probability. Weprovide a theoretical elucidation for the stagnation observed in GD when training neuralnetworks with low-precision computation. We analyze the impact of floating-point round-off errors on the convergence behavior of GD with a particular focus on convex problems.Two biased stochastic rounding methods, signed-SR$_\varepsilon$ and SR$_\varepsilon$, are proposed, which havebeen demonstrated to eliminate the stagnation of GD and to result in significantly fasterconvergence than SR in low-precision floating-point computation.We validate our theoretical analysis by training a binary logistic regression model onthe Cifar10 database and a 4-layer fully-connected neural network model on the MNISTdatabase, utilizing a 16-bit floating-point representation and various rounding techniques.The experiments demonstrate that signed-SR$_\varepsilon$ and SR$_\varepsilon$ may achieve higher classificationaccuracy than rounding to the nearest (RN) and SR, with the same number of trainingepochs. It is shown that a faster convergence may be obtained by the new roundingmethods with 16-bit floating-point representation than by RN with 32-bit floating-pointrepresentation.
--
Indico :: Email Notifier
https://events.dm.unipi.it/e/201