Un capteur d'imagerie intégré pour l'aberration

Blog

MaisonMaison / Blog / Un capteur d'imagerie intégré pour l'aberration

Nov 26, 2023

Un capteur d'imagerie intégré pour l'aberration

Nature volume 612, pages 62-71 (2022)Citer cet article 32k Accès 21 Citations 54 Détails Altmetric Metrics Les capteurs d'images numériques planaires facilitent de larges applications dans un large éventail de

Nature volume 612, pages 62-71 (2022)Citer cet article

32 000 accès

21 citations

54 Altmétrique

Détails des métriques

Les capteurs d'images numériques planaires facilitent de nombreuses applications dans un large éventail de domaines1,2,3,4,5, et le nombre de pixels a augmenté rapidement ces dernières années2,6. Cependant, les performances pratiques des systèmes d’imagerie sont fondamentalement limitées par des aberrations optiques spatialement non uniformes provenant de lentilles imparfaites ou de perturbations environnementales7,8. Nous proposons ici un capteur d'imagerie à champ lumineux à balayage intégré, appelé capteur de méta-imagerie, permettant d'obtenir une photographie tridimensionnelle corrigée des aberrations à grande vitesse pour des applications universelles sans modifications matérielles supplémentaires. Au lieu de détecter directement une projection d'intensité bidimensionnelle, le capteur de méta-imagerie capture des distributions extra-fines de champ lumineux quadridimensionnel via un réseau de microlentilles codées vibrantes, permettant une synthèse flexible et précise d'images modulées par champ complexe en post-traitement. . Grâce au capteur, nous obtenons des photographies hautes performances allant jusqu'à un gigapixel avec un seul objectif sphérique sans données préalables, ce qui entraîne des réductions de plusieurs ordres de grandeur de la capacité du système et des coûts d'imagerie optique. Même en présence de turbulences atmosphériques dynamiques, le capteur de méta-imagerie permet une correction des aberrations multisites sur 1 000 secondes d'arc sur un télescope au sol de 80 centimètres sans réduire la vitesse d'acquisition, ouvrant ainsi la voie à des relevés synoptiques du ciel à haute résolution. De plus, des cartes de profondeur précises et à haute densité peuvent être récupérées simultanément, facilitant diverses applications allant de la conduite autonome aux inspections industrielles.

Les capteurs d'imagerie bidimensionnelle (2D) ont révolutionné de nombreux domaines, notamment l'inspection industrielle, les appareils mobiles, la conduite autonome1, la surveillance2, le diagnostic médical3, la biologie4 et l'astronomie5. Bénéficiant du développement rapide de l’industrie des semi-conducteurs, le nombre de pixels dans les capteurs numériques a augmenté rapidement au cours de la dernière décennie2,6. Cependant, les performances pratiques de la plupart des systèmes d’imagerie ont atteint un goulot d’étranglement dû à l’optique plutôt qu’à l’électronique. Par exemple, avec un capteur gigapixel, le nombre de pixels effectif d'un système d'imagerie est généralement limité au niveau mégapixel, en raison d'aberrations optiques provenant de lentilles imparfaites ou de perturbations environnementales, qui provoquent la propagation de la lumière émise depuis un point sur une vaste région. sur un capteur 2D7,8. Parallèlement, la projection de scènes tridimensionnelles (3D) sur un plan 2D entraîne la perte de diverses libertés du champ lumineux, telles que la profondeur et la cohérence locale. En conséquence, il a longtemps été difficile d’obtenir des cartes de profondeur à haute densité avec un capteur intégré9.

Les experts en ingénierie optique ont passé des centaines d’années à concevoir des systèmes d’imagerie parfaits pour la correction des aberrations avec plusieurs lentilles de précision en mode séquentiel10. Cependant, la difficulté de conception et de fabrication optiques augmente de façon exponentielle avec le produit espace-bande passante, qui décrit le nombre total de degrés de liberté pour un système optique et fixe une limite supérieure au nombre de pixels effectif en raison des limites de diffraction11. Dans ce cas, les systèmes d’imagerie incohérentes hautes performances dotés de produits à large bande passante efficace sont généralement très coûteux et encombrants, comme les télescopes à grande ouverture12 et les mésoscopes13,14. Les métaux et les optiques de forme libre peuvent potentiellement atténuer ce problème en fabriquant des surfaces de lentilles optimisées lorsqu'elles sont dotées d'une précision d'usinage suffisante à grande échelle15,16. Les algorithmes de suppression du flou d'image peuvent améliorer le contraste de l'image via des estimations précises de la fonction d'étalement des points (PSF)17,18,19. L'ingénierie PSF avec une ouverture codée préserve plus d'informations en réduisant les valeurs nulles dans le domaine fréquentiel 20,21. Cependant, il est très difficile de récupérer les informations haute fréquence perdues par une fonction de transfert à faible modulation (MTF), et ces approches nécessitent généralement des données a priori spécifiques et des estimations PSF précises, en particulier pour les aberrations spatialement non uniformes. De plus, toutes ces méthodes restent sensibles aux aberrations environnementales dynamiques avec de faibles profondeurs de champ.