PDF
Analyse des résultats de reflectometrie X sur les structures Ge/Si et Si/Ge/Si pour DoTPIX
Analysis of reflectometry results obtained on Ge/Si and Si/Ge/Si DoTPIX structures

Spécialité

PHYSIQUE

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

20/06/2024

Durée

6 mois

Poursuite possible en thèse

oui

Contact

FOURCHES Nicolas
+33 1 69 08 61 64

Résumé/Summary
Le stage consiste à l'étude en réflectométrie X de structures Ge/Si et Si/Ge/Si soumises à des recuits successifs. Il est nécessaire de connaitre l'influence des recuits pour s'assurer d'obtenir des substrats conformes et compatibles avec la technologie DoTPIX.
The subject consists in the study of Ge/Si and Si/Ge/Si structures. These structures will be thermally annealed during the processsing of the DoTPIX. Thus, it is necessary to have a clear view of the annealing effects to assess the ability of these structures with the future DoTPIX technology.
Sujet détaillé/Full description
Le développement des détecteurs internes en physique des particules exige toujours plus de progrès en terme de résolution spatiale et de résolution en temps. Pour le premier critère nous avons proposé une structure, basée sur un puit quantique enterré en dessous d’un dispositif MOS. Cette structure a été simulée de manière systématique pour s’assurer de sa fonctionnalité, et d’obtenir les critères nécessaires à sa faisabilité. Nous avons commencé à réaliser et caractériser les couches épitaxiés nécessaires à l’élaboration du DoTPIX. Nous entrons dans une l'étape plus avancée de la réalisation de la structure DoTPIX afin de la caractériser. Pour que cette structure fonctionne il est nécessaire que la couche enterrée en Ge soit suffisamment stable après avoir vu des étapes du procédé de fabrication, qui comportent des recuits et des oxydations. Pour ce nous étudions des structures Si/Ge/Si soumises à différents traitements thermiques, à l'aide de réflectométrie X. Ces expériences seront faites sur une ligne Diffabs du Synchrotron Soleil. Les données finales devront être analysées offline, pour obtenir la composition, les contraintes par exemple. C'est l'objet de ce stage, qui devra déterminer les conditions limites dans lesquelles les étapes technologiques devront être réalisées et comprendre la physique liée au couches enterrées de Ge dans le Silicium, obtenues par épitaxie (CVD). Le stage d’une durée de 5-6 mois se déroulera à l’IRFU, en collaboration avec l’IRAMIS, qui apportera sa connaissance en réflectométrie X. Une collaboration avec le C2N et le LAAS est en cours pour ce travail.
PDF
Caractérisation des détecteurs de neutrons Micromegas : lecture de charges électriques et de signaux lumineux
Characterisation of Micromegas neutron detectors: charge and light readout

Spécialité

PHYSIQUE

Niveau d'étude

Bac+4

Formation

Master 1

Unité d'accueil

Candidature avant le

21/05/2024

Durée

3 mois

Poursuite possible en thèse

non

Contact

SEGUI-IGLESIA Laura
+33 1 69 08 80 07

Résumé/Summary
L'objectif de ce stage est l'étude de la détection des neutrons à l'aide d'un détecteur Micromegas. Différentes mesures expérimentales déjà réalisées, ou à réaliser durant le stage, permettront d'étudier les performances du détecteur dans différentes conditions de faisceau de neutrons. En outre, des études typiques de caractérisation des détecteurs sont prévues en laboratoire pour les gaz utilisés.
The objective of this internship is the study of neutron detection using a Micromegas detector. Different experimental measurements already performed, or to be performed during the internship, will allow studying the performance of the detector under different neutron beam conditions. In addition, typical detector characterization studies are foreseen in the laboratory for the gases used.
Sujet détaillé/Full description
Dans le cadre de la source européenne de spallation (ESS), l'IRFU (Institut de Recherche sur les lois Fondamentales de l'Universe) développe de nouveaux détecteurs de diagnostic de faisceau basés sur la technologie Micromegas. Cette technologie utilise l’amplification de signaux électrique dans un détecteur gazeux à fort champ électrique. Dans le cadre d’ESS, ces détecteurs, appelés nBLM (neutron Beam Loss Monitor), ont été développés pour la partie à faible énergie du faisceau des accélérateurs linéaires, où sont principalement émis des neutrons et des gammas. Les détecteurs ont été conçus pour détecter les neutrons rapides tout en ayant une forte réjection des gammas afin d’éliminer le bruit de fond provenant des seules cavités RF. En outre, d'autres nouvelles approches, par détection d’un signal lumineux au lieu de la charge seule, sont en cours de développement dans le groupe, ce qui ouvre la porte à des applications dans l'industrie nucléaire ou dans le domaine d’imagerie médical grâce à une lecture simplifiée.
Différentes mesures de neutrons dans différentes installations ont été ou seront effectuées pendant le stage. L'exploitation des données permettra d'étudier les performances des détecteurs et de caractériser le flux de neutrons de l'installation. L'étude de la transparence et du gain pour différents gaz sera également réalisée en laboratoire.
Le stagiaire sera impliqué dans l'analyse des données, en utilisant un code C++ avec ROOT. Le code existe mais des modifications seront nécessaires afin d'étudier les différentes variables et de leur appliquer des coupures de sélection pour exploiter pleinement les mesures. Le stagiaire participera également à l’installation du système de détection dans le laboratoire pour étudier la transparence et le gain de différents gaz, en s’impliquant particulièrement dans l'étalonnage de l'électronique, la prise de données et leurs analyses.
Les résultats obtenus conduiront le stagiaire à évaluer les performances du détecteur, avec des implications possibles dans les conceptions futures. De plus, la caractérisation du flux de neutrons de l'installation pourra être également évaluée.
In the context of the European Spallation source, IRFU institute develops new beam diagnostic detectors based on the Micromegas technology. These detectors, named nBLM, have been developed for the low energy part of linear accelerators, where mainly neutrons and gammas are emitted. The detectors have been designed to detect fast neutrons while having a strong gamma rejection, a natural background coming from the RF cavities at these energies. In addition, other new approaches, with the detection of light instead of only charge are being developed in the group, opening the door to applications in nuclear industry or imaging applications, as the readout will be simpler.
Different neutron measurements in different facilities have been or will be carried out during the internship. The exploit of the data will allow the study of the detectors performances and the characterization of the installation neutron flux. In addition, the study of the transparency and gain for different gases will be study in the laboratory.
The intern will be involved in the analysis of the data, using a C++ code with ROOT. The code have been already developed but modifications are expected in order to study different variables and to apply selection cuts to fully exploit the measurements. The intern will also participate in the laboratory set-up to study the transparency and the gain, participating in the electronics calibration, data taking and further analysis.
The results obtained will lead the intern to assess the performance of the detector, with possible implications in further designs. Moreover, the characterization of the neutron flux in the installation will also be obtained.
Mots clés/Keywords
Détecteurs gazeux ; Neutrons ; Micromegas ; Instrumentation ; radioactivité ; imagerie optique
Gaseous detectors; Neutrons; Micromegas; Instrumentation; Radioactivity; Optical Imaging
Compétences/Skills
Mesures physique et et analyse de données De bonnes connaissances en programmation sont souhaitées. Capacité de rédaction de rapports/présentation techniques indispensable.
Physics measurements and data analysis Programming skills are recommended. Ability to write technical reports/presentations is essential.
Logiciels
C/C++, ROOT, Python, PowerPoint, Word, Excel.
PDF
Caractérisation d’un capteur CMOS développé pour la mesure du temps d'arrivée de particules chargées
Characterization of a CMOS sensor developed for the time tagging of charged particle detection

Spécialité

Instrumentation

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

30/04/2024

Durée

6 mois

Poursuite possible en thèse

oui

Contact

DEGERLI Yavuz
+33 1 69 08 61 65/76 63

Résumé/Summary
Le(a) stagiaire participera à la mise en place d’un banc de test qu’il/elle utilisera pour une caractérisation étendue d’un capteur CMOS développé pour la détection de particules chargées.
Sujet détaillé/Full description
Les capteurs monolithiques CMOS (appelés MAPS, Monolithic Active Pixel Sensors) ont été inventés au milieu des années 1990 et leur grand potentiel en tant que dispositifs d'imagerie a été immédiatement exploité dans un grand nombre d'applications. Depuis le début de ce siècle, les MAPS ont également été proposés et mis en œuvre comme trajectographes de haute résolution spatiale pour les expériences de physique des particules.

C'est par exemple le cas des Muon Forward Tracker et Inner Tracking System, deux détecteurs nouvellement construits et intégrés dans le cadre du programme de jouvence de l'expérience ALICE au LHC (CERN). La technologie CMOS utilisée pour les MAPS tire parti des développements mondiaux dans ce domaine et en particulier, étant monolithique, elle permet d’intégrer en principe toutes les fonctionnalités dans le chip au-delà de la matrice de pixels, ce qui apporte une simplification au niveau du système de lecture et donc une réduction des coûts.

Le développement récent de capteurs CMOS dépletés a permis de les proposer également pour les applications très exigeantes en terme de vitesse de fonctionnement et de tenue aux radiations. Ces capteurs semblent être aussi des bonnes alternatives aux solutions hybrides pour le marquage en temps des particules chargées. Dans ce cadre et grâce à la grande expérience acquise ces 15 dernières années, l’IRFU développe actuellement des capteurs CMOS en technologie L-Foundry au sein d’une collaboration internationale avec une résolution temporelle inférieure à 100 ps. Plusieurs prototypes ont déjà été conçus, fabriqués et testés.

Récemment, un nouveau prototype, comportant plusieurs diodes de collection de tailles différentes et de préamplis différents, a été conçu et envoyé en fabrication avec des améliorations et optimisations des performances par rapport aux itérations précédentes. Le(a) stagiaire participera à la mise en place d’un banc de test qu’il/elle utilisera pour une caractérisation étendue de ce prototype. Les mesures à effectuer porteront sur les caractéristiques du bruit du détecteur, la caractérisation de la résolution en temps de l’électronique de lecture et la mesure de la capacité effective de la diode détectrice. Ces mesures seront confrontées aux simulations Cadence/Spice. Les résultats de ces études apportent des informations importantes pour choisir le type de diode et d’architecture de préamplificateur ayant les meilleures performances en terme de rapport signal sur bruit et consommation électrique pour les futurs développements.
Mots clés/Keywords
Electronique, traitement du signal
Compétences/Skills
Acquisition de données, analyses de données.
Logiciels
Phyton, C++
PDF
Caractérisation d’un capteur pixélisé en silicium pour la Physique des Particules.

Spécialité

Électronique embarquée

Niveau d'étude

Bac+4/5

Formation

Ingenieur/Master

Unité d'accueil

Candidature avant le

31/07/2024

Durée

6 mois

Poursuite possible en thèse

non

Contact

GUILLOUX
+33 1 69 08 31 47

Résumé/Summary
Les capteurs monolithiques pixélisés (appelés MAPS, Monolithic Active Pixel Sensors) ont été inventés au début des années 1990 et leur grand potentiel en tant que dispositifs d'imagerie a été immédiatement exploité dans un grand nombre d'applications. Depuis le début de ce siècle, les MAPS ont également été proposés et mis en œuvre comme trajectographes de haute résolution spatiale pour les expériences de physique des particules.

Le(a) stagiaire participera à la mise en place d'un banc de test qu'il/elle utilisera pour une caractérisation étendue d'un prototype MAPS pour la physique des particules. En particulier, il/elle étudiera l’architecture du MAPS, le taux de données produites, ainsi que sa consommation en fonction des différents paramètres de fonctionnement. Cette étude lui permettra, le cas échéant, de mettre en évidence les limites de ce prototype et de proposer et d'initier des développements du design permettant de les dépasser.
Sujet détaillé/Full description
Grâce à la grande expérience acquise ces 15 dernières années, l’IRFU participe actuellement à une collaboration internationale qui travaille au développement d’un capteur MAPS, appelé MALTA. Ce capteur a été conçu pour fournir des très bonnes performances de trajectographie (résolution spatiale, efficacité) dans des conditions de densité de particules très élevées (haute tenue aux radiations et faible consommation). Cependant, la résolution temporelle du capteur, qui présente un intérêt croissant dans les développements des trajectographes en physique des particules, a été peu étudiée et dans des conditions très limitées.
Encadré/e par les concepteurs du MAPS, le/la candidat/e recherché/e doit être capable de mettre en œuvre un banc de test électronique, effectuer les mesures attendues et interpréter les résultats afin de proposer des pistes d'amélioration possible au système MAPS.

Ce stage pourra se prolonger - si le/la candidat/e le souhaite - par une thèse sur les nouvelles architectures de MAPS.

Le profil recherché doit donc posséder de solides connaissances en électronique et une envie de découvrir le domaine de la recherche scientifique. Des connaissances en microélectronique seraient un plus.
[1] https://www.theses-postdocs.cea.fr/offre-de-emploi/emploi-conception-d-un-detecteur-pixelise-monolithique-a-debit-adaptatif-pour-la-physique-des-particules_29415.aspx
Compétences/Skills
FPGA, HDL, Cadence
Logiciels
VHDL, Python, C++
PDF
Caractérisation d’un capteur pixélisé en silicium pour la Physique des Particules.

Spécialité

Électronique embarquée

Niveau d'étude

Bac+4/5

Formation

Ingenieur/Master

Unité d'accueil

Candidature avant le

31/07/2024

Durée

6 mois

Poursuite possible en thèse

non

Contact

GUILLOUX
+33 1 69 08 31 47

Résumé/Summary
Les capteurs monolithiques pixélisés (appelés MAPS, Monolithic Active Pixel Sensors) ont été inventés au début des années 1990 et leur grand potentiel en tant que dispositifs d'imagerie a été immédiatement exploité dans un grand nombre d'applications. Depuis le début de ce siècle, les MAPS ont également été proposés et mis en œuvre comme trajectographes de haute résolution spatiale pour les expériences de physique des particules.

Le(a) stagiaire participera à la mise en place d'un banc de test qu'il/elle utilisera pour une caractérisation étendue d'un prototype MAPS pour la physique des particules. En particulier, il/elle étudiera l’architecture du MAPS, le taux de données produites, ainsi que sa consommation en fonction des différents paramètres de fonctionnement. Cette étude lui permettra, le cas échéant, de mettre en évidence les limites de ce prototype et de proposer et d'initier des développements du design permettant de les dépasser.
Sujet détaillé/Full description
Grâce à la grande expérience acquise ces 15 dernières années, l’IRFU participe actuellement à une collaboration internationale qui travaille au développement d’un capteur MAPS, appelé MALTA. Ce capteur a été conçu pour fournir des très bonnes performances de trajectographie (résolution spatiale, efficacité) dans des conditions de densité de particules très élevées (haute tenue aux radiations et faible consommation). Cependant, la résolution temporelle du capteur, qui présente un intérêt croissant dans les développements des trajectographes en physique des particules, a été peu étudiée et dans des conditions très limitées.
Encadré/e par les concepteurs du MAPS, le/la candidat/e recherché/e doit être capable de mettre en œuvre un banc de test électronique, effectuer les mesures attendues et interpréter les résultats afin de proposer des pistes d'amélioration possible au système MAPS.

Ce stage pourra se prolonger - si le/la candidat/e le souhaite - par une thèse sur les nouvelles architectures de MAPS.

Le profil recherché doit donc posséder de solides connaissances en électronique et une envie de découvrir le domaine de la recherche scientifique. Des connaissances en microélectronique seraient un plus.
[1] https://www.theses-postdocs.cea.fr/offre-de-emploi/emploi-conception-d-un-detecteur-pixelise-monolithique-a-debit-adaptatif-pour-la-physique-des-particules_29415.aspx
Compétences/Skills
FPGA, HDL, Cadence
Logiciels
VHDL, Python, C++
PDF
Caractérisation d’un capteur pixélisé en silicium pour la Physique des Particules.

Spécialité

Électronique embarquée

Niveau d'étude

Bac+4/5

Formation

Ingenieur/Master

Unité d'accueil

Candidature avant le

31/07/2024

Durée

6 mois

Poursuite possible en thèse

non

Contact

GUILLOUX
+33 1 69 08 31 47

Résumé/Summary
Les capteurs monolithiques pixélisés (appelés MAPS, Monolithic Active Pixel Sensors) ont été inventés au début des années 1990 et leur grand potentiel en tant que dispositifs d'imagerie a été immédiatement exploité dans un grand nombre d'applications. Depuis le début de ce siècle, les MAPS ont également été proposés et mis en œuvre comme trajectographes de haute résolution spatiale pour les expériences de physique des particules.

Le(a) stagiaire participera à la mise en place d'un banc de test qu'il/elle utilisera pour une caractérisation étendue d'un prototype MAPS pour la physique des particules. En particulier, il/elle étudiera l’architecture du MAPS, le taux de données produites, ainsi que sa consommation en fonction des différents paramètres de fonctionnement. Cette étude lui permettra, le cas échéant, de mettre en évidence les limites de ce prototype et de proposer et d'initier des développements du design permettant de les dépasser.
Sujet détaillé/Full description
Grâce à la grande expérience acquise ces 15 dernières années, l’IRFU participe actuellement à une collaboration internationale qui travaille au développement d’un capteur MAPS, appelé MALTA. Ce capteur a été conçu pour fournir des très bonnes performances de trajectographie (résolution spatiale, efficacité) dans des conditions de densité de particules très élevées (haute tenue aux radiations et faible consommation). Cependant, la résolution temporelle du capteur, qui présente un intérêt croissant dans les développements des trajectographes en physique des particules, a été peu étudiée et dans des conditions très limitées.
Encadré/e par les concepteurs du MAPS, le/la candidat/e recherché/e doit être capable de mettre en œuvre un banc de test électronique, effectuer les mesures attendues et interpréter les résultats afin de proposer des pistes d'amélioration possible au système MAPS.

Ce stage pourra se prolonger - si le/la candidat/e le souhaite - par une thèse sur les nouvelles architectures de MAPS.

Le profil recherché doit donc posséder de solides connaissances en électronique et une envie de découvrir le domaine de la recherche scientifique. Des connaissances en microélectronique seraient un plus.
[1] https://www.theses-postdocs.cea.fr/offre-de-emploi/emploi-conception-d-un-detecteur-pixelise-monolithique-a-debit-adaptatif-pour-la-physique-des-particules_29415.aspx
Compétences/Skills
FPGA, HDL, Cadence
Logiciels
VHDL, Python, C++
PDF
Deep Learning pour l’analyse de données en spectrométrie gamma
Deep learning for gamma-spectrometry

Spécialité

Physique nucléaire

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

30/09/2024

Durée

6 mois

Poursuite possible en thèse

oui

Contact

BOBIN JÉRÔME
+33 1 69 08 75 91

Résumé/Summary
L'objectif est de développer des méthodes de deep learning pour le démélange de spectres en spectrométrie gamma.
This internship aims at developing deep learning methods for spectral unmixing in gamm-ray spectrometry.
Sujet détaillé/Full description
DESCRIPTION ET PROBLEMATIQUE
La spectrométrie gamma est une technique classique utilisée pour identifier et quantifier les radionucléides dans de nombreux domaines d'applications nucléaires (environnement, industrie, métrologie, trafic illicite, etc.).
Un spectre observé y est constitué de M canaux correspondant à des intervalles d'énergie déposés dans un détecteur sensible aux photons ? (scintillateur ou semi-conducteur). Le comptage dans chaque canal représente le nombre d'événements dans un intervalle d'énergie donné. Pour chaque radionucléide, il existe un spectre caractéristique appelé signature spectrale correspondant à la réponse du détecteur.
Soit X une matrice dont chaque colonne est la signature spectrale normalisée de chaque radionucléide. Le spectre observé suit la distribution de Poisson de Xa :
DESCRIPTION AND PROBLEM
Gamma-ray spectrometry is a classical technique used to identify and quantify radionuclides in a wide range of nuclear applications (environment, industry, metrology, illicit trafficking, etc.).
An observed spectrum is made up of M channels corresponding to energy intervals deposited in a photon-sensitive detector ? (scintillator or semiconductor). The count in each channel represents the number of events in a given energy interval. For each radionuclide, there is a characteristic spectrum called the spectral signature, corresponding to the detector response.
Let X be a matrix, each column of which is the normalized spectral signature of each radionuclide. The observed spectrum follows the Poisson distribution of Xa:
Mots clés/Keywords
Traitement du signal, Machine learning, Physique nucléaire
Signal processing, Machine learning, Nuclear physics
Compétences/Skills
Deep learning, spectral unmixing
Deep learning, spectral unmixing
Logiciels
Python, pytorch
PDF
Deep Plug-and-Play Optical Priors for Ground-Based Point Spread Function Models
Deep Plug-and-Play Optical Priors for Ground-Based Point Spread Function Models

Spécialité

Astrophysique

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

30/09/2024

Durée

6 mois

Poursuite possible en thèse

oui

Contact

Tobias LIAUDAT
+33 1 69 08

Résumé/Summary
Nous proposons de construire un antécédent fondé sur les données des aberrations optiques du télescope grâce à des techniques d'apprentissage profond.
We propose to build a data-driven prior of the telescope’s optical aberrations with the help of deep learning techniques.
Sujet détaillé/Full description
L'effet de lentille gravitationnelle faible [1] est une sonde puissante de la structure à grande échelle de notre univers. Les cosmologistes utilisent l'effet de lentille faible pour étudier la nature de la matière noire et sa distribution spatiale. Les missions d'observation de l'effet de lentille faible nécessitent des mesures très précises de la forme des images de galaxies. La réponse instrumentale du télescope, ou fonction d'étalement du point (PSF), produit une déformation des images observées. Cette déformation peut être confondue avec les effets d'un faible effet de lentille sur les images de galaxies, ce qui constitue l'une des principales sources d'erreur systématique lors de la recherche sur les faibles effets de lentille. Par conséquent, l'estimation d'un modèle de PSF fiable et précis est cruciale pour le succès de toute mission de faible lentille. Le champ de la PSF peut être interprété comme un noyau convolutionnel qui affecte chacune de nos observations d'intérêt et qui varie spatialement, spectralement et temporellement. Le modèle de PSF doit être capable de gérer chacune de ces variationsNous utilisons des étoiles spécifiques considérées comme des sources ponctuelles dans le champ de vision pour contraindre notre modèle PSF. Ces étoiles, qui sont des objets non résolus, nous fournissent des échantillons dégradés du champ de la PSF. Les observations subissent différents types de dégradations en fonction des propriétés du télescope. Certaines de ces dégradations comprennent le sous-échantillonnage, une intégration sur la bande passante de l'instrument et le bruit additif. Nous construisons finalement le modèle de la PSF en utilisant ces observations dégradées et utilisons ensuite le modèle pour déduire la PSF à la position des galaxies. Cette procédure constitue le problème inverse mal posé de la modélisation de la PSF. Voir [2] pour un examen récent de la modélisation de la PSF. Il existe plusieurs sources de variations spatiales de la FSP. Certaines couvrent le plan focal, comme les aberrations optiques du télescope et de l'atmosphère, tandis que d'autres sont spécifiques à chaque puce CCD (Charge-Coupled Device). Le plan focal des caméras d'imagerie à grand champ actuelles comprend un grand nombre de CCD. La plupart des modèles PSF actuels sont construits indépendamment sur chaque CCD, ce qui est une solution simple pour prendre en compte les deux types de variations. Cependant, ce choix présente quelques inconvénients. Il limite le nombre d'étoiles disponibles pour contraindre le modèle, ce qui favorise les modèles les plus simples. Ensuite, ces modèles simples par morceaux définis dans chaque CCD ne peuvent pas modéliser correctement les variations spatiales couvrant l'ensemble du plan focal. En conséquence, des erreurs de modélisation du PSF apparaissent. Pour résoudre ces deux problèmes simultanément, un nouveau modèle de PSF, appelé MCCD [3], a été récemment proposé. Le MCCD peut modéliser l'ensemble du plan focal et prendre en compte les deux types de variations. Il peut inclure avec succès la géométrie de la caméra dans le modèle PSF. Le MCCD est basé sur un schéma de factorisation matricielle qui utilise différents outils mathématiques, tels que la régularisation éparse pour le débruitage de la PSF et la théorie des graphes pour traiter les variations spatiales localisées, entre autres. L'algorithme d'apprentissage combine les concepts précédents avec la descente de coordonnées par blocs, des méthodes d'optimisation convexe efficaces et des algorithmes proximaux. L'une des limitations les plus importantes des modèles de PSF au sol est que l'atmosphère stochastique et changeante limite le nombre d'étoiles disponibles pour contraindre le modèle. Par conséquent, les modèles de PSF sont construits indépendamment pour chaque exposition de la caméra. Cependant, les différentes publications de données de l'étude sont effectuées par lots au fur et à mesure que la couverture du ciel augmente. Une fois qu'une bonne partie de la zone d'étude a été imagée, on peut calculer l'ellipticité moyenne des étoiles observées en fonction de leur position sur le plan focal. La contribution de l'ellipticité atmosphérique aux observations d'étoiles a une moyenne nulle. Par conséquent, nous pouvons obtenir une caractérisation fine de la contribution à l'ellipticité du système optique du télescope. Au moment de la rédaction du présent document, aucun modèle de PSF n'exploite actuellement cette information. Une seule exposition ne permet pas de récupérer les variations à haute fréquence en raison du manque d'informations contraignantes sur les étoiles disponibles. Nous proposons de construire un a priori sur les aberrations optiques du télescope à l'aide de techniques d'apprentissage profond. L'a priori sera incorporé dans le modèle PSF en exploitant les récentes approches "plug-and-play" [4]. Nous avons créé un ensemble de simulations réalistes basées sur les mesures de 107 étoiles du télescope Canada-France-Hawaï (CFHT). Nous prévoyons d'utiliser ces simulations pour entraîner des débruiteurs basés sur l'apprentissage profond. Ces réseaux peuvent ensuite être inclus en tant qu'opérateurs proximaux dans le cadre d'optimisation du modèle PSF du MCCD.
1
[3]. La manière dont les débruiteurs sont inclus suit l'approche plug-and-play, qui évite l'utilisation dangereuse de la boîte noire des réseaux neuronaux profonds. Le cadre fournit un environnement contrôlé pour exploiter la puissance des débruiteurs basés sur l'apprentissage profond.
Une fois que le nouveau modèle a été validé par des simulations, l'objectif est de démontrer sa performance avec des observations réelles provenant de l'étude sol-espace Canada-France Imaging Survey (CFIS) au TCFH. Pour ce faire, nous utiliserons le pipeline de mesure de forme, ShapePipe [5], qui intègre déjà le modèle PSF du MCCD.

[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Point spread function modelling for astronomical
telescopes: a review focused on weak gravitational lensing studies”. In: arXiv e-prints, arXiv:2306.07996
(June 2023), arXiv:2306.07996. doi: 10.48550/arXiv.2306.07996. arXiv: 2306.07996 [astro-ph.IM].
[3] Liaudat, T., Bonnin, J., Starck, J.-L., Schmitz, M. A., Guinot, A., Kilbinger, M., and Gwyn, S. D. J. “Multi-CCD modelling of the point spread function”. In: A&A 646 (2021), A27. doi: 10.1051/0004-
6361/202039584.
[4] U. S. Kamilov, C. A. Bouman, G. T. Buzzard, and B. Wohlberg. “Plug-and-Play Methods for Integrating
Physical and Learned Models in Computational Imaging: Theory, algorithms, and applications”. In: IEEE Signal Processing Magazine 40.1 (Jan. 2023), pp. 85–97. doi: 10.1109/MSP.2022.3199595. arXiv: 2203. 17061 [eess.IV].
[5] Farrens, S., Guinot, A., Kilbinger, M., Liaudat, T., Baumont, L., Jimenez, X., Peel, A., Pujol, A., Schmitz, M., Starck, J.-L., and Vitorelli, A. Z. “ShapePipe: A modular weak-lensing processing and analysis pipeline”. In: A&A 664 (2022), A141. doi: 10.1051/0004-6361/202243970.
Context. Weak gravitational lensing [1] is a powerful probe of the Large Scale Structure of our Universe. Cosmologists use weak lensing to study the nature of dark matter and its spatial distribution. Weak lensing missions require highly accurate shape measurements of galaxy images. The telescope’s instrumental response, or point spread function (PSF), produces a deformation of the observed images. This deformation can be mistaken for the effects of weak lensing in the galaxy images, thus being one of the primary sources of systematic error when doing weak lensing science. Therefore, estimating a reliable and accurate PSF model is crucial for the success of any weak lensing mission. The PSF field can be interpreted as a convolutional kernel that affects each of our observations of interest that varies spatially, spectrally, and temporally. The PSF model needs to be able to cope with each of these variations. We use specific stars considered as point sources in the field-of-view to constrain our PSF model. These stars, which are unresolved objects, provide us with degraded samples of the PSF field. The observations go through different types of degradations depending on the properties of the telescope. Some of these degradations include undersampling, an integration over the instrument’s passband, and additive noise. We finally build the PSF model using these degraded observations and then use the model to infer the PSF at the position of galaxies. This procedure constitutes the ill-posed inverse problem of PSF modelling. See [2] for a recent review on PSF modelling.
There are several sources of spatial variations of the PSF. Some cover the focal plane like the optical aberrations of the telescope and the atmosphere, while others are specific for each Charge-Coupled Device (CCD) chip. The focal plane of current wide-field imaging cameras comprises a large array of CCDs. Most of the current PSF models are built independently on each CCD, which is a simple solution to account for both types of variations. However, this choice has some drawbacks. It limits the number of available stars to constrain the model, thus favouring simpler models. Then, these simple piecewise models defined in each CCD cannot correctly model spatial variations covering the entire focal plane. As a consequence, PSF modelling errors arise. To tackle both problems simultaneously, a new PSF model coined MCCD [3] was recently proposed. MCCD can model the full focal plane and that considers both types of variations. It can successfully include the camera geometry in the PSF model. MCCD is based on a matrix factorisation scheme that uses different mathematical tools, such as sparse regularisation for PSF denoising and graph theory to handle localised spatial variations, among others. The training algorithm combines the previous concepts with block coordinate descent, efficient convex optimization methods and proximal algorithms.
Goals. One of the most significant limitations of ground-based PSF models is that the fast-changing and stochastic atmosphere limits the number of stars available to constrain the model. As a consequence, PSF models are built independently for each camera exposure. However, the different survey data releases are done in batches as the sky coverage increases. Once a good part of the survey area has been imaged, one can compute the average ellipticity of the observed stars as a function of their position on the focal plane. The atmospheric ellipticity contribution to the star observations has a zero mean. Therefore, we can obtain a fine- sampled characterisation of the ellipticity contribution of the telescope’s optical system. At the time of writing, no PSF model is currently exploiting this information. A single exposure does not allow for recovering the high-frequency variations due to the lack of constraining information on the available stars.
We propose to build a data-driven prior of the telescope’s optical aberrations with the help of deep learning techniques. The prior will be incorporated into the PSF model by exploiting recent plug-and-play approaches [4]. We have created a set of realistic simulations based on the measurements of 107 stars from the Canada- France-Hawaii Telescope (CFHT). We plan to use the simulations to train deep learning-based denoisers. These networks can then be included as proximal operators in the optimisation framework of the MCCD PSF model
1
[3]. The way the denoisers are included follows the plug-and-play approach, which avoids the dangerous black- box usage of deep neural networks. The framework provides a controlled environment to exploit the power of the deep learning-based denoisers.
Once the new model has been validated with simulations, the goal is to demonstrate its performance with real observations from the ground-space survey Canada-France Imaging Survey (CFIS) at the CFHT. To accomplish this task we will make use of the shape measurement pipeline, ShapePipe [5], which already incorporates the MCCD PSF model.
The candidate
The candidate must be pursuing a Master 2 degree (or equivalent) and should have a background in signal/image processing. The candidate should be comfortable with the Python programming language, and ideally with a deep learning framework (e.g. TensorFlow, PyTorch, JAX) and open-source and collaborative development tools (e.g. GitHub). Knowledge of machine learning and experience processing astronomical images is not required but is beneficial.
The candidate will acquire expertise in sparse image processing, convex optimisation techniques, machine learn- ing and deep learning. In addition, the intern will learn to work in a collaborative development environment and contribute to existing software packages. The knowledge acquired during the internship applies to a wide range of applications in various fields, e.g., biomedical imaging, and astrophysics.
Contact
The internship will take place in the LILAS lab (CEA Saclay), which is working on signal (and image) processing and machine learning applied to physics applications.

[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Point spread function modelling for astronomical
telescopes: a review focused on weak gravitational lensing studies”. In: arXiv e-prints, arXiv:2306.07996
(June 2023), arXiv:2306.07996. doi: 10.48550/arXiv.2306.07996. arXiv: 2306.07996 [astro-ph.IM].
[3] Liaudat, T., Bonnin, J., Starck, J.-L., Schmitz, M. A., Guinot, A., Kilbinger, M., and Gwyn, S. D. J. “Multi-CCD modelling of the point spread function”. In: A&A 646 (2021), A27. doi: 10.1051/0004-
6361/202039584.
[4] U. S. Kamilov, C. A. Bouman, G. T. Buzzard, and B. Wohlberg. “Plug-and-Play Methods for Integrating
Physical and Learned Models in Computational Imaging: Theory, algorithms, and applications”. In: IEEE Signal Processing Magazine 40.1 (Jan. 2023), pp. 85–97. doi: 10.1109/MSP.2022.3199595. arXiv: 2203. 17061 [eess.IV].
[5] Farrens, S., Guinot, A., Kilbinger, M., Liaudat, T., Baumont, L., Jimenez, X., Peel, A., Pujol, A., Schmitz, M., Starck, J.-L., and Vitorelli, A. Z. “ShapePipe: A modular weak-lensing processing and analysis pipeline”. In: A&A 664 (2022), A141. doi: 10.1051/0004-6361/202243970.
Mots clés/Keywords
Astrophysique, machine learning
Astrophysics, Machine learning
Compétences/Skills
Deep learning, plug and play methods
Deep learning, plug and play methods
PDF
Etude du comportement thermique des couches Ge sur Si et Si/Ge sur Si
Thermal behaviour of Ge on Si and Si On ge On Si layers

Spécialité

Physique des solides, cristallographie

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

21/07/2024

Durée

6 mois

Poursuite possible en thèse

oui

Contact

FOURCHES Nicolas
+33 1 69 08 61 64

Résumé/Summary
Dans le contexte d'une R&D sur détecteurs pixels basés sur la technologie DoTPiX en vue de leur utilisation sur des expériences de physique des particules auprès de futurs collisionneurs e+ e-. Ce travail consiste en la caractérisation de structures Ge On Si et Si On Ge On Si
For a R & D on pixel detectors based on the DoTPiX technology for future e+e- colliders , the work proposed requires the characterization of Ge On Si and Si On Ge On Si structures .
Sujet détaillé/Full description
Ce sujet consiste en une recherche et développement des détecteurs pixels basés sur la technologie DOTPIX et leur caractérisation en vue de leur utilisation sur des expériences de physique des particules auprès de futurs collisionneurs e+ e-. Il s’agit dans un premier temps de développer la technologie Ge On Si nécessaire au fonctionnement du dispositif DoTPiX. Au cours de ce stage d’une durée de six mois environ le /la candidat(e) devra travailler avec les instituts qui collaborent avec l’IRFU pour ces développements liés à ces points en particulier :
• Croissance cristalline (épitaxie UHV/CVD) de Ge sur Si nécessaires au développement des pixels sur silicium au sein du C2N et caractérisation de ces couches.
• Analyse de résultats expérimentaux de réflectométrie X, obtenus sur des structures Ge/Si et Si/Ge/Si sur la ligne Diffabs du synchrotron Soleil. Ce travail se fera avec le concours de l’IRAMIS.
• Modélisation de l’ensemble de ces résultats si possibles.
Le sujet nécessite des compétences à la fois en physique et en nanosciences. Nous recherchons en particulier des candidats ayant une formation M2 en physique des particules expérimentale ou bien en physique des nanostructures. Le stage peut déboucher sur une thèse financée.
This work is part of an R&D for pixel detectors based on DOTPIX technology for use in particle physics experiments at future e+ e- colliders. The first step is to develop the Ge On Si technology necessary for the operation of the DoTPiX device. During this internship of six month duration, the candidate will have to work with the institutes which collaborate with the IRFU for these developments linked to these points in particular:
• Crystal growth (UHV/CVD epitaxy) of Ge on Si necessary for the development of pixels on silicon within C2N and characterization of these layers.
• Analysis of experimental X-ray reflectometry experimental results, data obtained on Ge/Si and Si/Ge/Si structures on the Diffabs line of the Soleil synchrotron. This work will be done with the assistance of IRAMIS.
• Modeling of all of these results if possible.
The subject requires skills in both physics and nanoscience. We are particularly looking for candidates with M2 training in experimental particle physics or nanostructure physics. The internship may lead to a funded doctoral thesis.
Mots clés/Keywords
Physique des particules, Nanosciences,
Solid state physics, Crystallography,
Compétences/Skills
Reflectometrie X. Data analysis
XRR , Data analysis
Logiciels
Python éventuellement, logiciels d'analyse des données de diffraction X
PDF
Mise en place d’un environnement de simulation d’un robot FESTO servant à l’automatisation de test de circuits intégrés
Setup of a simulation environnement for a Festo Robot designed for automatic integrated component testing.

Spécialité

Automatisme

Niveau d'étude

Bac+2

Formation

DUT/L2

Unité d'accueil

Candidature avant le

11/07/2024

Durée

3 mois

Poursuite possible en thèse

non

Contact

DARTOIS Jules
+33 1 69 08 42 92

Résumé/Summary
Le laboratoire dispose d’un robot FESTO utilisé pour l’automatisation du test de circuits intégrés. Lors de la mise au point des séquences de déplacement du robot, un simulateur est nécessaire. L’objectif du stage est de développer ce simulateur ainsi que les visualisations des états du robot.
The lab possesses a Festo robot used to automatically test integrated components. A simulator is necessary to develop the movement sequences of this robot. The aim of this internship is to contribute to the development of this simulator as well as visualization tools for robot status feedback.
Sujet détaillé/Full description
Contexte :

Le stage se déroule au sein de l’équipe électronique ATLAS Argon Liquide de l’IRFU au CEA Saclay. Dans le cadre de l’expérience ATLAS du CERN, l’IRFU doit tester plusieurs milliers de circuits intégrés pour l’upgrade phase 2.
Ces tests sont mis en œuvre à l’aide d’un robot FESTO pick and place. C’est un robot du commerce, qui se programme grâce à l’interface du logiciel CodeSys. Des développements sont en cours au sein de l’équipe pour programmer et piloter le robot. Ces développements sont réalisés en python.

Objectifs :

Le robot est utilisé dans plusieurs projets et dans des scénarii de complexités variables. Afin de satisfaire aux besoins des utilisateurs - prise en main aisé du robot, vérification en sécurité des séquences du robot, développements de séquences par plusieurs utilisateurs, … - un simulateur du robot est nécessaire. Ce simulateur prendra en entrée les séquences de commandes, identiques à celle du robot réel, et devra retourner l’état des différents moteurs.

Le robot FESTO se programme grâce à l’interface du logiciel CodeSys. Cette interface intègre des modules pour la simulation des éléments du robot tel que les moteurs et le contrôleur ainsi qu’un serveur OPC-UA pour les échanges d’informations entre le robot (ou éléments simulé du robot) et une application hôte.

Le but de ce stage est de développer un simulateur du robot FESTO pick and place du laboratoire en utilisant les modules de simulation fournit par CodeSys et l’environnement de contrôle du robot développé en Python. Les échanges entre les modules de simulations et l’application Python se feront à l’aide d’un serveur OPCUA.

Dans un premier temps, le candidat devra prendre en main les différents développements (application de contrôle haut niveau en Python, application de pilotage du robot en CodeSys, serveur OPCUA) existants puis développer un simulateur en python. Dans un second temps, le candidat pourra développer une interface web de visualisation des états du robot.

Context:

During this internship you well be a part of the ATLAS Liquid Argon electronics team of the IRFU at CEA-Saclay. As part of the ATLAS experiment at CERN, the IRFU has to test several thousand integrated circuits for the phase 2 upgrade.

These tests are carried out using a FESTO pick and place robot. This is a commercial robot, programmed via the CodeSys software interface. The team is currently working on programming and controlling the robot. These developments are being carried out in Python.

Objectives:

The robot is used in several projects and in scenarios of varying complexity. In order to meet user requirements - easy handling of the robot, safe verification of robot sequences, development of sequences by several users, etc. - a robot simulator is required. This simulator will take as input the command sequences, identical to those of the real robot, and must return the status of the various motors.
The FESTO robot is programmed using the CodeSys software interface. This interface integrates modules for simulating robot components such as motors and controller, as well as an OPC-UA server for exchanging information between the robot (or simulated robot components) and a host application.
The aim of this internship is to develop a simulator for the laboratory's FESTO pick and place robot, using the simulation modules supplied by CodeSys and the robot control environment developed in Python. Exchanges between the simulation modules and the Python application will take place via an OPCUA server.
Initially, the candidate will have to take charge of the various existing developments (high-level control application in Python, robot control application in CodeSys, OPCUA server), then develop a simulator in Python. Secondly, the candidate will develop a web interface for visualizing the robot's status.
Mots clés/Keywords
Programmation Python, automatique/informatique industrielle, web GUI, (OPCua, CodeSys)
Python, automation, industrial programation, web GUI, (OPCua, CodeSys)
Logiciels
Python, OPCua, CodeSys
PDF
Mise en place d’un environnement de simulation d’un robot FESTO servant à l’automatisation de test de circuits intégrés
Setup of a simulation environnement for a FESTO Robot designed for automatic integrated component testing.

Spécialité

Automatisme

Niveau d'étude

Bac+2

Formation

DUT/L2

Unité d'accueil

Candidature avant le

12/07/2024

Durée

3 mois

Poursuite possible en thèse

non

Contact

DARTOIS Jules
+33 1 69 08 42 92

Résumé/Summary
Le laboratoire dispose d’un robot FESTO utilisé pour l’automatisation du test de circuits intégrés. Lors de la mise au point des séquences de déplacement du robot, un simulateur est nécessaire. L’objectif du stage est de développer ce simulateur ainsi que les visualisations des états du robot.
The lab possesses a Festo robot used to automatically test integrated components. A simulator is necessary to develop the movement sequences of this robot. The aim of this internship is to contribute to the development of this simulator as well as visualization tools for robot status feedback.
Sujet détaillé/Full description
Contexte :

Le stage se déroule au sein de l’équipe électronique ATLAS Argon Liquide de l’IRFU au CEA Saclay. Dans le cadre de l’expérience ATLAS du CERN, l’IRFU doit tester plusieurs milliers de circuits intégrés pour l’upgrade phase 2.
Ces tests sont mis en œuvre à l’aide d’un robot FESTO pick and place. C’est un robot du commerce, qui se programme grâce à l’interface du logiciel CodeSys. Des développements sont en cours au sein de l’équipe pour programmer et piloter le robot. Ces développements sont réalisés en python.

Objectifs :

Le robot est utilisé dans plusieurs projets et dans des scénarii de complexités variables. Afin de satisfaire aux besoins des utilisateurs - prise en main aisé du robot, vérification en sécurité des séquences du robot, développements de séquences par plusieurs utilisateurs, … - un simulateur du robot est nécessaire. Ce simulateur prendra en entrée les séquences de commandes, identiques à celle du robot réel, et devra retourner l’état des différents moteurs.

Le robot FESTO se programme grâce à l’interface du logiciel CodeSys. Cette interface intègre des modules pour la simulation des éléments du robot tel que les moteurs et le contrôleur ainsi qu’un serveur OPC-UA pour les échanges d’informations entre le robot (ou éléments simulé du robot) et une application hôte.

Le but de ce stage est de développer un simulateur du robot FESTO pick and place du laboratoire en utilisant les modules de simulation fournit par CodeSys et l’environnement de contrôle du robot développé en Python. Les échanges entre les modules de simulations et l’application Python se feront à l’aide d’un serveur OPCUA.

Dans un premier temps, le candidat devra prendre en main les différents développements (application de contrôle haut niveau en Python, application de pilotage du robot en CodeSys, serveur OPCUA) existants puis développer un simulateur en python. Dans un second temps, le candidat pourra développer une interface web de visualisation des états du robot.
Context:

During this internship you well be a part of the ATLAS Liquid Argon electronics team of the IRFU at CEA-Saclay. As part of the ATLAS experiment at CERN, the IRFU has to test several thousand integrated circuits for the phase 2 upgrade.

These tests are carried out using a FESTO pick and place robot. This is a commercial robot, programmed via the CodeSys software interface. The team is currently working on programming and controlling the robot. These developments are being carried out in Python.

Objectives:

The robot is used in several projects and in scenarios of varying complexity. In order to meet user requirements - easy handling of the robot, safe verification of robot sequences, development of sequences by several users, etc. - a robot simulator is required. This simulator will take as input the command sequences, identical to those of the real robot, and must return the status of the various motors.

The FESTO robot is programmed using the CodeSys software interface. This interface integrates modules for simulating robot components such as motors and controller, as well as an OPC-UA server for exchanging information between the robot (or simulated robot components) and a host application.

The aim of this internship is to develop a simulator for the laboratory's FESTO pick and place robot, using the simulation modules supplied by CodeSys and the robot control environment developed in Python. Exchanges between the simulation modules and the Python application will take place via an OPCUA server.

Initially, the candidate will have to take charge of the various existing developments (high-level control application in Python, robot control application in CodeSys, OPCUA server), then develop a simulator in Python. Secondly, the candidate will develop a web interface for visualizing the robot's status.
Mots clés/Keywords
Programmation Python, automatique/informatique industrielle, web GUI, (OPCua, CodeSys)
Python, automation, industrial programation, web GUI, (OPCua, CodeSys)
Logiciels
Python OPCua CodeSys
PDF
Monitoring de détecteur de muons et dé-bruitage avec du machine learning
Muon detector monitoring and noise suppresion with machine learning algorithm

Spécialité

Instrumentation

Niveau d'étude

Bac+4/5

Formation

Master 2

Unité d'accueil

Candidature avant le

01/06/2024

Durée

3 mois

Poursuite possible en thèse

non

Contact

GOMEZ-MALUENDA Hector
01 69 08 63 80

Résumé/Summary
La muographie est une technique d’imagerie permettant de scanner des objets très opaques, qui ne peuvent pas être analysés avec d’autres techniques (comme les rayons X). Au CEA Irfu, nous utilisons la muographie pour scanner différents objects comme des réacteurs nucléaires, des colis de déchets radioactifs ou même la grande pyramide de Gizeh. L’équipe développe un programme de R&D en continu pour l’instrumentation des détecteurs, le traitement du signal et l’analyse de données, incluant le machine learning. Pour améliorer l’analyse nous avons besoin de monitorer les détecteurs de muons et d’identifier le bruit. C’est actuellement fait à l’aide de critères appliqués sur certaines features des données. Nous souhaiterions développer un outil de machine learning qui prendrais en compte plus de features et discriminerais mieux les muons du bruit.
Muography is an imaging technique that allows to scan very opaque objects, that cannot be analyzed with other techniques (like X rays). At CEA Irfu, we use muography to scan various objects like nuclear reactors, nuclear waste packages or even the great pyramid of Khufu. The team develops a continuous R&D program for detector instrumentation, signal processing and data analysis techniques, including machine learning. To improve the analysis we need to monitor the muon detectors and identify noise. This is currently done with criteria applied on some features of the data. We would like to develop a machine learning method to take more features into account and discriminate better the muons from the noise.
Sujet détaillé/Full description
- Contexte
La muographie est une méthode de scan non invasive et non destructive adaptée aux structures de grande taille. Elle est actuellement appliquée dans une large variété de contextes comme la volcanologie, la géophysique ou le nucléaire.

Les muons atmosphériques pouvant traverser de très grandes distances dans la matière avant d’être absorbés ou déviés (contrairement aux rayons X par exemple), la reconstruction de leur trajectoire permet l’étude et l’imagerie des objets traversés à l’aide de différentes techniques (absorption, transmission ou déviation).

A l’Irfu, le groupe muographie réalise des mesures à l’aide d’instruments basés sur les détecteurs Micromegas (MICRO MEsh GASeous Structure), inventés à l’Irfu. Ces détecteurs ont été développé à l’origine pour des expériences de physique nucléaire et de physique des particules. A l’aide de cette technologie, le groupe a pu montrer l’intérêt de la muographie depuis 2015 entre autre sur un château d’eau à Saclay, la pyramide de Khéops et plus récemment sur des réacteurs nucléaires à Marcoule. Ces résultats ont éveillés l’intérêt de l’industrie et de la recherche en France et en Europe pour des applications similaires et plus variées.

Le groupe muographie a une politique de R&D continue sur l’instrumentation des télescopes à muons, le traitement du signal et l’analyse de données, incluant le machine learning.

Une des premières étapes de l’analyse est la séparation entre données réelles et bruit. Celle-ci est actuellement faite à l’aide de critères simples utilisant certaines features des données (amplitude électrique, position sur le détecteur, …). Ces critères réduisent significativement le bruit dans les données mais utilisent seulement une petite parties des features mesurées. En pratique il est difficile de trouver des critères à appliquer sur les autres features, ou sur plusieurs en même temps.


- Objectif
Le·la stagiaire recevra des données réelles de détecteurs à muons et développera une méthode de classification supervisée ou non-supervisée pour prédire si les détecteurs fonctionnent correctement ou pas. Dans les deux cas, l’algorithme devra aussi identifier si chaque évènement est du bruit ou un muon.

Pendant ce stage, le·la stagiaire aura à:
• apprendre comment fonctionne un télescope à muons (électronique, gaz, réseau, stockage des données, …)
• apprendre les types de bruits courants
• apprendre quelles informations sont enregistrées pendant l’acquisition
• se renseigner sur l’état de l’art des techniques de monitoring par machine learning
• proposer et développer une méthodes pour les télescopes à muons
• tester et caractériser la méthode choisie
- Context
Muography is a non-invasive and non-destructive scanning method for large structures; it is is currently being considered as a potential technique for a large variety of applications going from volcanology to geophysics, engineering or nuclear domain.

Taking advantage of the capability of atmospheric muons to go through long distances of matter before being absorbed or deviated (on the contrary to X rays for example), muons track reconstruction allows the study and the imaging of the traversed objects using different analysis techniques (absorption, transmission or deviation).

At Irfu, the group working on muography performs measurements using instruments based on Micromegas (MICRO MEsh GASeous Structure) detectors. Invented at Irfu, Micormegas were conceived originally to be used at nuclear and particle physics experiments. Among the measurements done by the group from 2015, those of the “château d’eau” at Saclay, the Khufu’s pyramid or, lately, of a nuclear reactor at CEA Marcoule, can be highlighted. These results triggered the interest of several industrial groups in France and all along Europe for the previously mentioned applications or to new ones.

Muography team at Irfu develops a continuous R&D program both for telescopes instrumentation, signal processing and data analysis techniques, including machine learning.

One of the first step in the analysis is the separation between real data and noise. This is currently done thanks to simple criteria applied on some features of the data (electrical amplitude, localisation on the detector, ...). Those criteria significantly reduces the noise in the data, however many other features are measured but not used. Indeed it can be hard to find how to use them properly.

- Goal

The intern will be given real data from muon telescopes and will have to develop unsupervised and/or supervised classification methods to predict if the telescope is properly functioning or not. In both cases, the algorithm will also have to discern if each event is a muon or noise.

During this internship, the intern would need to:
• learn how a muon telescope works (electronics, gas, network, data storage…)
• learn the usual types of noise
• learn what informations are stored during the acquisition and what they mean
• study the current monitoring methods in the scientific litterature
• propose and develop a classification tool for the telescopes
• test and caracterise the choosen method
Mots clés/Keywords
Machine Learning, Data analysis, Statistics
Machine Learning, Data analysis, Statistics
Compétences/Skills
Nous attendons du·de la candidat·e d’avoir un bon niveau en Python pour l’analyse de données (numpy, matplotlib, …), et curieux ou curieuse au sujet de l’actualité du machine learning. Nous attendons aussi des connaissances fondamentales en statistiques. Une expérience en C/C++ et/ou en ROOT sera appréciée.
We expect the candidate to have a good level in Python (numpy, matplotlib, ...), and to be curious about the current trends in machine learning. Also the candidate will need to have elementary knowledge in statistics. An experience with C/C++ and/or the ROOT framework will be appreciated.
Logiciels
Python, C/C++, ROOT
PDF
Optimisation de performances de calcul scientifique en c++ pour la mission spatiale Euclid (6 mois)
Optimising scientific computing performance in C++ for the Euclid space mission (6 months)

Spécialité

Génie logiciel

Niveau d'étude

Bac+4/5

Formation

Ingenieur/Master

Unité d'accueil

Candidature avant le

31/08/2024

Durée

6 mois

Poursuite possible en thèse

non

Contact

Dagoneau Nicolas
+33 1 69 08 82 54

Résumé/Summary
Optimisation des performances de calcul scientifique pour améliorer la rapidité et l’efficacité d’un code en C++ utilisé pour le traitement au sol des données de la mission spatiale Euclid.
Optimising scientific computing performance to improve the speed and efficiency of a C++ code used for ground processing of data from the Euclid space mission.
Sujet détaillé/Full description
La mission spatiale Euclid, lancée le 1er juillet 2023, a pour objectif de faire des relevés de galaxies afin d’étudier la distribution de masse dans l’Univers. Pour cela, le Laboratoire d’ingénierie logicielle pour les applications scientifiques (LILAS) est en charge du développement d’une partie du code d’analyse (voir : https://www.aanda.org/articles/aa/full_html/2020/06/aa36865-19/aa36865-19.html). Ce code est développé en C++ (<= C++ 17), et fait largement appel aux principes de la programmation orientée objet et de la programmation générique (templates). Il est composé de librairies basées sur des classes et de programmes qui utilisent ces classes pour remplir les objectifs fixés par la mission Euclid. Ces programmes ont vocation à être exécutés par le pipeline de traitement de données au sol.
Le code d’analyse doit être en mesure de traiter un grand nombre de galaxies rassemblées dans des catalogues. Ces catalogues, qui regroupent des centaines de millions de galaxies, sont représentés par des fichiers pouvant atteindre plusieurs dizaines de gigaoctets. La lecture et l’analyse d’un tel fichier posent un défi. Actuellement, le code d’analyse doit lire le catalogue plusieurs fois au cours d’une même exécution, ce qui entraîne une augmentation du temps de traitement et de la quantité de mémoire consommée.
L’objectif de ce stage est d’optimiser la lecture des catalogues par le code d’analyse afin d’améliorer sa rapidité d’exécution. Il s’agira notamment d’implémenter en C++ une nouvelle méthode de traitement qui ne nécessite qu’une seule lecture du fichier pour chaque exécution. Les performances (rapidité et consommation de mémoire) de cette nouvelle implémentation devront être évaluées et comparées à celles de la méthode actuelle. Un objectif secondaire envisageable est l’optimisation des traitements ultérieurs en utilisant des méthodes de calcul parallèle.
Ce stage offrira au candidat ’l’opportunité d’accroître ses compétences en C++ moderne et son utilisation dans le cadre d’un grand projet scientifique, ainsi qu’en algorithmique.
Le candidat recherché doit pouvoir justifier d’un niveau de maîtrise du C++ suffisant ainsi que des principes de la programmation orientée objet. Il doit également maîtriser le développement avec un IDE de son choix (Eclipse, Visual Studio) ainsi que l’utilisation de Git.
The aim of the Euclid space mission, launched on 1 July 2023, is to survey galaxies in order to study mass distribution in the Universe. To achieve this, the Laboratoire d'ingénierie logicielle pour les applications scientifiques (LILAS) is in charge of developing part of the analysis code (see: https://www.aanda.org/articles/aa/full_html/2020/06/aa36865-19/aa36865-19.html). This code is developed in C++ (<= C++ 17), and makes extensive use of the principles of object-oriented programming and generic programming (templates). It is made up of class-based libraries and programs that use these classes to meet the objectives set by the Euclid mission. These programs are intended to be executed by the ground data processing pipeline.
The analysis code must be able to process a large number of galaxies collected in catalogues. These catalogues, which contain hundreds of millions of galaxies, are represented by files that can be several tens of gigabytes in size. Reading and analysing such a file poses a challenge. Currently, the analysis code has to read the catalogue several times during a single run, which increases processing time and the amount of memory consumed.
The aim of this internship is to optimise the reading of catalogues by the analysis code in order to improve its execution speed. In particular, it will involve implementing a new processing method in C++ that only requires a single reading of the file for each execution. The performance (speed and memory consumption) of this new implementation will have to be evaluated and compared with that of the current method. A possible secondary objective is to optimise subsequent processing using parallel computing methods.
This internship will give the candidate the opportunity to develop their skills in modern C++ and its use in a major scientific project, as well as in algorithms.
The successful candidate must have a sufficient level of proficiency in C++ and in the principles of object-oriented programming. They must also be proficient in development using an IDE of their choice (Eclipse, Visual Studio) and in the use of Git.
Mots clés/Keywords
C++, calcul parallèle
C++, parallel computing
Logiciels
C++, Git, Unix, eclipse, Visual Studio, docker, CMake
PDF
Point Spread Function Modelling with Neural Fields and a Differentiable Optical Model
Point Spread Function Modelling with Neural Fields and a Differentiable Optical Model

Spécialité

Astrophysique

Niveau d'étude

Bac+5

Formation

Master 2

Unité d'accueil

Candidature avant le

30/09/2024

Durée

6 mois

Poursuite possible en thèse

oui

Contact

Tobias LIAUDAT
+33 1 69 08

Résumé/Summary
Utilisation de modèle différentiable par réseau de neurone pour la modélisation de réponses instrumentales
Using differentiable neural network models to model instrumental response
Sujet détaillé/Full description
Contexte. La lentille gravitationnelle faible [1] est un outil puissant pour étudier la structure à grande échelle de notre univers. Les cosmologistes utilisent la lentille gravitationnelle faible pour étudier la nature de la matière noire et sa distribution spatiale. Les missions de lentille gravitationnelle faible nécessitent des mesures très précises de la forme des images de galaxies. Le modèle de fonction de transfert du télescope, ou fonction de diffusion ponctuelle (PSF), produit une déformation des images observées. Cette déformation peut être confondue avec les effets de la lentille gravitationnelle faible dans les images de galaxies, ce qui en fait l'une des principales sources d'erreur systématique lors de l'étude de la lentille gravitationnelle faible. Par conséquent, estimer un modèle PSF fiable et précis est crucial pour le succès de toute mission de lentille gravitationnelle faible. Le champ PSF peut être interprété comme un noyau convolutif qui affecte chacune de nos observations d'intérêt et varie spatialement, spectralement et temporellement. Le modèle PSF doit être capable de gérer chacune de ces variations. Nous utilisons des étoiles spécifiques considérées comme des sources ponctuelles dans le champ de vue pour contraindre notre modèle PSF. Ces étoiles, qui sont des objets non résolus, nous fournissent des échantillons dégradés du champ PSF. Les observations subissent différents types de dégradations en fonction des propriétés du télescope. Certaines de ces dégradations incluent l'échantillonnage sous-optimal, une intégration sur la bande passante de l'instrument et un bruit additif. Nous construisons finalement le modèle PSF en utilisant ces observations dégradées, puis utilisons le modèle pour inférer le PSF à la position des galaxies. Cette procédure constitue le problème inverse mal posé de modélisation PSF. Voir [2] pour une revue récente de la modélisation PSF.
La mission Euclid récemment lancée représente l'un des défis les plus complexes pour la modélisation PSF. En raison de la bande passante très large de l'imagerie visible d'Euclid (VIS) allant de 550 nm à 900 nm, les modèles PSF doivent capturer non seulement les variations spatiales du champ PSF, mais aussi ses variations chromatiques. Chaque observation d'étoile est intégrée avec le spectre énergétique de l'objet (SED) sur tout le passband VIS d'Euclid. Comme les observations sont sous-échantillonnées, une étape de super-résolution est également requise. Un modèle récent appelé WaveDiff [3] a été proposé pour aborder le problème de modélisation PSF pour Euclid et est basé sur un modèle optique différentiable. WaveDiff a atteint des performances de pointe et est actuellement en cours d'implémentation dans les pipelines de traitement de données d'Euclid.
Objectifs. Les champs neuronaux récemment introduits [4] ont montré des performances impressionnantes dans les tâches de vision par ordinateur. Les champs neuronaux sont des réseaux neuronaux coordonnés qui paramètrent les propriétés physiques de scènes ou d'objets dans l'espace (et le temps). Ces réseaux ont acquis une visibilité particulière en abordant le problème de la reconstruction de scène 3D [5] à partir de plusieurs images 2D de la scène.
Si nous considérons les coordonnées planes focales (x, y) comme des directions de vue, le problème de modélisation PSF peut être considéré comme une reconstruction de scène à partir d'un ensemble fixe d'images 2D (les étoiles observées). L'un des objectifs de ce stage est d'adapter ces idées aux travaux récents sur les champs neuronaux et de les combiner avec le modèle WaveDiff. Le prochain objectif est de construire un nouveau modèle PSF qui nous permettrait de mieux capturer les variations spatiales du champ PSF. Un dernier objectif est d'inclure des variations spectrales spurielles dans le champ neuronal et de le conditionner sur des simulations existantes.
Context. Weak gravitational lensing [1] is a powerful probe of the Large Scale Structure of our Universe. Cosmologists use weak lensing to study the nature of dark matter and its spatial distribution. Weak lensing missions require highly accurate shape measurements of galaxy images. The telescope’s instrumental response, or point spread function (PSF), produces a deformation of the observed images. This deformation can be mistaken for the effects of weak lensing in the galaxy images, thus being one of the primary sources of systematic error when doing weak lensing science. Therefore, estimating a reliable and accurate PSF model is crucial for the success of any weak lensing mission. The PSF field can be interpreted as a convolutional kernel that affects each of our observations of interest that varies spatially, spectrally, and temporally. The PSF model needs to be able to cope with each of these variations. We use specific stars considered as point sources in the field-of-view to constrain our PSF model. These stars, which are unresolved objects, provide us with degraded samples of the PSF field. The observations go through different types of degradations depending on the properties of the telescope. Some of these degradations include undersampling, an integration over the instrument’s passband, and additive noise. We finally build the PSF model using these degraded observations and then use the model to infer the PSF at the position of galaxies. This procedure constitutes the ill-posed inverse problem of PSF modelling. See [2] for a recent review on PSF modelling.
The recently launched Euclid survey represents one of the most complex challenges for PSF modelling. Because of the very broad passband of Euclid’s visible imager (VIS) ranging from 550nm to 900nm, PSF models need to capture not only the PSF field spatial variations but also its chromatic variations. Each star observation is inte- grated with the object’s spectral energy distribution (SED) over the whole VIS passband. As the observations are undersampled, a super-resolution step is also required. A recent model coined WaveDiff [3] was proposed to tackle the PSF modelling problem for Euclid and is based on a differentiable optical model. WaveDiff achieved state-of-the-art performance and is currently being implemented into Euclid’s data processing pipelines.
Goals. The recently introduced neural fields [4] have shown impressive performance in computer vision tasks. Neural fields are coordinate-based neural networks that parametrise physical properties of scenes or objects across space (and time). These networks gained particular visibility by tackling the problem of 3D scene reconstruction [5] from several 2D images of the scene.
If we consider the (x,y) focal plane coordinates as viewing directions, the PSF modelling problem can be considered as a scene reconstruction from a fixed set of 2D images (the observed stars). One goal of the internship is to adapt these ideas in recent neural fields works and combine them with the WaveDiff model. The next goal is to build a new PSF model that would allow us to better capture the spatial variations of the PSF field. One last goal is to include spurious spectral variations in the neural field and condition it on existing simulations.
The candidate
The candidate must be pursuing a Master 2 degree (or equivalent) and should have a background in signal/image processing. The candidate should be comfortable with the Python programming language, and ideally with a deep learning framework (e.g. TensorFlow, PyTorch, JAX) and open-source and collaborative development tools (e.g. GitHub). Knowledge of machine learning, Fourier optics and experience processing astronomical images is not required but is beneficial.
The candidate will acquire expertise in astronomical image processing, Fourier optics, machine learning and deep learning. In addition, the intern will learn to work in a collaborative development environment and contribute to existing software packages. The knowledge acquired during the internship applies to a wide range of applications in various fields, e.g., biomedical imaging, and astrophysics.

Contact
The internship will take place in the LILAS lab (CEA Saclay), which is working on signal (and image) processing and machine learning applied to physics applications.

References
[1] R. Mandelbaum. “Weak Lensing for Precision Cosmology”. In: Annual Review of Astronomy and Astro- physics 56 (2018), pp. 393–433. doi: 10.1146/annurev-astro-081817-051928. arXiv: 1710.03235.
[2] T. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Point spread function modelling for astronomical
telescopes: a review focused on weak gravitational lensing studies”. In: arXiv e-prints, arXiv:2306.07996
(June 2023), arXiv:2306.07996. doi: 10.48550/arXiv.2306.07996. arXiv: 2306.07996 [astro-ph.IM].
[3] T. Liaudat, J.-L. Starck, M. Kilbinger, and P.-A. Frugier. “Rethinking data-driven point spread function modeling with a differentiable optical model”. In: Inverse Problems 39.3 (Feb. 2023), p. 035008. doi:
10.1088/1361-6420/acb664.
[4] Y. Xie, T. Takikawa, S. Saito, O. Litany, S. Yan, N. Khan, F. Tombari, J. Tompkin, V. Sitzmann, and
S. Sridhar. “Neural Fields in Visual Computing and Beyond”. In: arXiv e-prints, arXiv:2111.11426 (Nov.
2021), arXiv:2111.11426. doi: 10.48550/arXiv.2111.11426. arXiv: 2111.11426 [cs.CV].
[5] B. Mildenhall, P. P. Srinivasan, M. Tancik, J. T. Barron, R. Ramamoorthi, and R. Ng. “NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis”. In: arXiv e-prints, arXiv:2003.08934 (Mar. 2020),
arXiv:2003.08934. doi: 10.48550/arXiv.2003.08934. arXiv: 2003.08934 [cs.CV].
2
Mots clés/Keywords
Astrophysique, machine learning
Astrophysics, Machine learning
Compétences/Skills
Machine learning
Machine learning

 

Retour en haut