Partager

Colloquium du CMAP

Colloquium du CMAP

Le Colloquium du CMAP, organisé 5 à 6 fois par an, propose un exposé d'ouverture à destination de tout le laboratoire CMAP, les doctorants et doctorantes sont particulièrement incité-e-s à venir. Il peut s'agir de domaines représentés dans le CMAP ou de domaines connexes (Mathématiques pures, Informatique, Physique, Biologie,...).

Le Colloquium a remplacé le séminaire du CMAP, dont les archives sont disponibles ici.

 

Prochains Colloquiums:

 

 

Mars 2025


Mardi 11 Mars 2025 à 11h en Amphi  Becquerel

Francis Bach (INRIA, Ecole Normale Supérieure, université PSL)

Sampling Binary Data by Denoising through Score Functions

Gaussian smoothing combined with a probabilistic framework for denoising via the empirical Bayes formalism, i.e., the Tweedie-Miyasawa formula (TMF), are the two key ingredients in the success of score-based generative models in Euclidean spaces. Smoothing holds the key for easing the problem of learning and sampling in high dimensions, denoising is needed for recovering the original signal, and TMF ties these together via the score function of noisy data. In this work, we extend this paradigm to the problem of learning and sampling the distribution of binary data on the Boolean hypercube by adopting
Bernoulli noise, instead of Gaussian noise, as a smoothing device. We first derive a TMF-like expression for the optimal denoiser for the Hamming loss, where a score function naturally appears. Sampling noisy binary data is then achieved using a Langevin-like sampler which we theoretically analyze for different noise levels. At high Bernoulli noise levels sampling becomes easy, akin to log-concave sampling
in Euclidean spaces. In addition, we extend the sequential multi-measurement sampling of Saremi et al. (2024) to the binary setting where we can bring the “effective noise” down by sampling multiple noisy measurements at a fixed noise level, without the need for continuous-time stochastic processes. We validate our formalism and theoretical findings by experiments on synthetic data and binarized images.

 

 

L'exposé sera précédé d'une pause café devant l'amphi à partir de 10h45. 

 

Colloquiums Précédents: 

 

 


Mardi 26 Novembre 2024 à 11h en Amphi Cauchy

Cristina Toninelli (Ceremade, Université Paris Dauphine)

Bootstrap percolation and kinetically constrained models: universality results

Recent years have witnessed great progresses in the study of bootstrap percolation models (BP). 
In the initial configuration sites are occupied with probability p. The evolution of BP occurs at discrete times: empty sites stay empty and occupied sites are emptied iff a certain model dependent neighborhood is already empty.  On Z^d there is now a quite complete understanding of their evolution starting from a random initial condition, with a universality picture for their critical behavior.
Much less is known for their non-monotone stochastic counterpart, namely kinetically constrained models (KCM). Here each vertex is either infected or healthy and, iff it is infectable according to the BP rules,  its state is resampled (independently) at rate one to infected with probability p, and healthy with probability 1-p.  These models, which have been introduced and intensively investigated in physics literature as toy models for the liquid/glass transitions, pose very challenging and interesting mathematical problems. In fact, the presence of the constraints induce non-attractiveness, the occurrence of several invariant measures, and the failure of many powerful tools (coercive inequalities, coupling, censoring) to analyze relaxation to equilibrium.
I will discuss a series of results which establish the full universality picture of KCM in two dimensions. We will see that, compared to those of BP, the universality classes for the stochastic dynamics are richer and the critical time scales diverge faster due to the dominant contribution of energy barriers. 

The seminar is based on joint works with I.Hartarsky, L.Marêché, F.Martinelli, and R.Morris.

 


Mercredi 29 Mai 2024 à 14h en Amphi GAY LUSSAC

Nick Trefethen (Harvard University)

The AAA Algorithm for Rational Approximation

With the introduction of the AAA algorithm in 2018 (Nakatsukasa-Sete-T., SISC), the computation of rational approximations changed from a hard problem to an easy one. We've been exploring the implications of this transformation ever since.  This talk will review the algorithm and then present about 15 demonstrations of applications in various areas including interpolation of missing data, analytic continuation, function extension, analysis of solutions of dynamical systems, model order reduction, nonlinear eigenvalues, and numerical computation of the Schwarz function.

 

 


Mardi 27 Février 2024 à 11h en Amphi Becquerel

Maria Esteban (CNRS et Université Paris-Dauphine)

Stabilité optimale pour les inégalités de Sobolev et de Sobolev logarithmique

Les inégalités de Sobolev et de Sobolev logarithmique jouent un rôle important dans de nombreux domaines des mathématiques. Elles sont bien comprises, ainsi que leurs fonctions extrémales.

Une question intéressante est de comprendre leur stabilité, c’est-à-dire, jusqu’à quel point ces inégalités mesurent bien la distance d’une fonction quelconque à la variété de leurs fonctions extrémales. Cette question, qu’on appelle stabilité de l’inégalité, semble simple, mais s’avère compliquée quand on cherche des réponses optimales et surtout de nature quantitative.

Récemment, avec J. Dolbeault, A. Figalli, R. Frank et M. Loss, nous avons pu donner une réponse optimale à la question en ce qui concerne l’inégalité de Sobolev, et  ceci avec des bornes calculables explicitement. Nous avons également pu montrer que grâce au caractère optimal de ce résultat, une estimation pour la constante de stabilité de l’inégalité de Sobolev logarithmique avec mesure Gaussienne, et dans la norme optimale, devient possible.

 

 


Jeudi 16 Novembre 2023 13h30 - 14h30 (Amphi CURIE)

Eric Cances (Ecole des Ponts ParisTech et INRIA Paris) 

Simuler la matière à partir des lois fondamentales de la physique

Dans un article fondateur de 1929, P.A.M. Dirac écrivait «  les lois physiques sous-jacentes nécessaires à une théorie mathématique d’une grande partie de la physique et de la totalité de la chimie sont ainsi complètement connues, et la difficulté est seulement que l’application exacte de ces lois conduit à des équations beaucoup trop compliquées pour être résolues. Il est donc souhaitable que soient développées des méthodes d’approximation des modèles de la mécanique quantique, qui permettraient d’expliquer les propriétés de systèmes atomiques complexes sans faire trop de calculs ».

 

Dans cet exposé, je montrerai comment, grâce aux efforts conjoints des physiciens, des chimistes, des mathématiciens et des informaticiens, la simulation numérique de la matière à partir des lois fondamentales de la physique est aujourd'hui un outil essentiel dans de très nombreux domaines des sciences appliquées : astrophysique, physique de la matière condensée, science des matériaux, chimie, biologie moléculaire, nanotechnologies… Je monterai également que les modèles et méthodes numériques utilisés dans ce domaine reposent sur un très large spectre d'outils de mathématiques pures et appliquées. Enfin, je présenterai quelques problèmes actuellement sur le from de la recherche dans ce domaine.