Extrait de JAX-COSMO: An End-to-End Differentiable and GPU Accelerated Cosmology Library (https://arxiv.org/abs/2302.05163)
Carrière : chronologie en quelques étapes
- 2010-: Études en Cosmologie:
- Relevé optique auprès du grand télescope Vera Rubin Observatory: travail actuel dans les WGs de la collaboration DESC.
- Raie 21cm de l’hydrogène: j’ai participé aux programmes HI-Cluster au Radio-télescope de Nançay, et PAON2&4 à Nançay (R&D IDROGEN)
- Développements algorithmiques: Calcul non-Limber de spectre angulaire Angpow, Transformation Harmonique Sphérique Laguerre (LagSHT), AstroLabSoftware (usage de Spark en Astro), Broker FINK, Études des Réseaux de Neurones Profonds (en lien avec les cours de Stéphane Mallat, voir ci-après), Études de l’usage de la différentiation automatique et génération de chaines de Markov pour les méthodes bayésiennes (notamment en JAX). Participation aux librairies Core Cosmology Library et Jax-Cosmo
- 2005-2010: Prospectives Oscillations de Neutrinos: Usines à Neutrinos (programme européen BENE), PMm2 R&D générique électronique innovante financée par l’ANR, LAGUNA projet européen d’étude de faisabilité d’un grand laboratoire souterrain en Europe (Cerenkov à eau, Argon Liquide, Scintillateur liquide).
- 1998-2005: Oscillations de Neutrinos (OPERA/CERN -> Gran Sasso), construction des grandes Cornes du CNGS au LAL
- 1990-1998: Double désintégration bêta avec et sans Neutrino NEMO/LAL
- 1988-1990: Expérience DELPHI au LEP/CERN: calucl des corrections radiatives dans les collisions e+e–
Travaux transverses
- Tutorials JAX accessibles sur Github, d’autres notebooks (ici) sont développés en JAX pour illustrer le cours de S.Mallat depuis 2022 (voir ci-après).
- Réseaux de Neurones Profonds. Depuis 2018 j’ai entrepris de rédiger des notes des cours de Stéphane Mallat, professeur au Collège de France, dont le thème général concerne les Sciences des données. Voici la liste des différents cours du Collège de France. Un repository GitHub est associé au cours depuis 2022. L’ensemble des notes depuis 2018 sont disponibles et mises à jour sur ce repository en Français et en Anglais. Voici la liste des leçons:
- En 2024: Apprentissage et génération par échantillonnage aléatoire
- En 2023: Modélisation, Information et Physique Statistique
- En 2022: Théorie de l’Information
- En 2021 : Représentations parcimonieuses
- En 2020 : Modèles multi-échelles et réseaux de neurones convolutifs
- En 2019 : L’apprentissage par réseaux de neurones profonds
- En 2018 : L’apprentissage face à la malédiction de la grande dimension
- En 2024: Apprentissage et génération par échantillonnage aléatoire
Publications:
https://orcid.org/0000-0002-1590-6927
Administration de la Recherche
- Président du Conseil Scientifique du Laboratoire Souterrain de Modane (2005-2009)
- Membre du CSTS Irfu/SPP de 2010 à 2013
Distinctions
- Médaille de Bronze du CNRS en 1996
- Prime d’excellence du CNRS en 2011