Holographie en temps (presque) réel

4 novembre 2010 par Optro & Défense | Print Holographie en temps (presque) réel

Un champ d’application vaste pour l’holographie

L’holographie est un domaine de l’optronique qui dépasse en l’englobant la question militaire. Outre les systèmes de visée holographique des avions de chasse, les hologrammes ont envahi notre quotidien sans qu’on y prête attention; il suffit de jeter un œil sur nos billets de banque. L’art est un domaine qui s’en est également emparé, comme l’illustre les travaux d’Yves Gentet que l’on peut trouver sur son site « ultimate-holography ».

Cependant, le passage du statique au dynamique reste un problème majeur. L’holographie en temps réel est depuis plus de 30 ans réservée au  domaine de la science-fiction, seul R2D2 étant capable de proposer aux héros de Star Wars une vidéoconférence 3D holographique!

R2D2 projette l'hologramme dynamique de la princesse Leia

Une nouvelle avancée

Cette semaine les chercheurs de l’Université d’Arizona à Tucson ont dévoilé un système holographique capable de transmettre une série d’images en trois dimensions en quasi-temps réel. Cela représente une  étape importante vers la transmission directe de vidéos holographiques de personnes ou d’autres objets en couleur et en taille réelle.

Le système présenté intègre un écran d’environ 25 centimètres composé d’un polymère photoréfractif spécifique, qui peut afficher des images holographiques avec un taux rafraîchissement relativement élevé. En effet, l’image est actualisée toutes les 2 secondes. Certes on est encore loin des 24 images par secondes pour nous donner l’illusion du mouvement continu mais cela représente tout de même une réelle amélioration par rapport aux  systèmes précédents ne permettant qu’un rafraîchissement d’image toutes les 4 minutes. Quand à l’écran, une version de plus de 40 centimètres aurait déjà été testée avec succès .  Les nouveaux systèmes d’enregistrement et de transmission d’images 3D via Ethernet vont aussi dans le sens de l’amélioration de cette technologie.

Le système projette des images de 16 perspectives (par 16 caméras), contrairement au cinéma 3D actuel qui se limite à deux caméras pour créer par stéréoscopie l’illusion de la 3D. Le signal de sortie de ces caméras est codé dans un faisceau laser, qui inscrit un motif dans l’écran de polymère, pour créer et stocker une image complète. L’utilisation de plusieurs caméras permet à l’objet d’être vu non seulement de face, mais aussi d’en haut, du dessous,  de derrière, et une variété d’autres angles.

Image holographique du chasseur américain F4 Phantom

Nasser Peyghambarian, chef du projet et directeur du domaine photonique et laser à l’université de Tucson, précise que le système pourrait même intégrer des centaines de points de vue lors de l’utilisation d’images de synthèse – une telle fonction pouvant être particulièrement utile si une intervention chirurgicale serait transmise, afin que des chirurgiens sur des sites distants collaborent avec un bon aperçu de ce qui se passerait.

Principes physiques

Rappelons qu’un hologramme est un matériau qui utilise un effet optique appelé diffraction pour projeter une image lumineuse qui serait celle provenant d’un objet réel placé en face du spectateur, derrière l’hologramme. En marchant autour d’une image holographique, une ou plusieurs personnes peuvent voir des objets sous différents angles sans avoir besoin de lunettes spéciales.

Wikipédia illustre pour nous le principe de réalisation d’un hologramme: Si on prend un caillou et qu’on le jette dans l’eau, il va produire une série d’ondes. Maintenant si on prend 2 cailloux et qu’on les jette dans l’eau en même temps, leur ondes vont interférer. C’est le même principe avec l’hologramme. On prend une plaque photographique spéciale et on prend un faisceau laser scindé (avec des miroirs semi-réfléchissants) en deux faisceaux cohérents. On en envoie un directement sur la plaque et l’autre sur l’objet à holographier où il est réfléchi sur la plaque. Les interférences entre les deux faisceaux vont imprimer une image 3D sur la plaque. Pour restituer l’image, il faut envoyer le même faisceau laser sous la plaque. Contrairement à une photographie où seule l’intensité est enregistrée sur la plaque, l’hologramme contient également une notion de distance (phase de l’onde) qui résulte de l’interférence avec le second faisceau.

La première vidéo d’affichage holographique a été faite au Media Lab du MIT en 1989. Le volume de l’hologramme avait alors tout juste 25 millimètres cubes, soit moins qu’un dé à coudre. Le développement des écrans holographiques a pris du retard par rapport aux autres systèmes 3-D, en plein essor au cinéma en ce moment,  en raison de la difficulté à créer du matériel holographique qui puisse être rapidement réécrit pour rafraîchir l’image. Il va au delà du RayModeler à LED de Sony dont on a pu entendre parler au SIGGRAPH 2010.

La question du matériau holographique

L’information venant de chaque caméra est codée sur un faisceau laser Nd:YAG doublé nanoseconde de 200 mJ pulsé à 50 Hz qui interfère avec un autre faisceau servant de référence. Le motif d’interférence résultant est inscrit dans le polymère photoréfractif pour constituer un pixel holographique (appelé hogel), version en trois dimensions d’un pixel d’image classique. L’avancée vient du fait que le pixel holographique est enregistré le temps des 6 nanosecondes du pulse laser. La configuration d’enregistrement globale est insensible aux vibrations en raison de la courte durée d’impulsion et ne nécessite donc aucun contrôle précis des vibrations,  du bruit ou de la température. Au final, une surface d’image de 10×10 cm avec une résolution d’1mm est inscrite en 2 secondes.

L’hologramme d’une image disparaît au bout de quelques minutes ou secondes en fonction de paramètres expérimentaux; ou peut être effacé par l’enregistrement d’une nouvelle image 3D, créant une nouvelle figure de diffraction et supprimant l’ancienne. Le polymère utilisé, déjà complexe à la base, voit ses propriétés de modulation d’indice renforcées par l’ajout d’un composé fluoré. De plus, il est dopé par un fullerène fonctionnalisé afin de sensibiliser le matériau photoréfractif à l’impulsion nanoseconde. Ce matériau est pressé  entre deux plaques de verre séparées de 100µm, support d’électrodes transparentes en ITO (oxyde d’Induim et d’Etain). Les électrodes sont utilisées pour appliquer un champ électrique externe continu de 7 kV à l’échantillon, permettant à l’effet photoréfractif de  se produire. La stabilité à long terme contre la dégradation liée à la fois la cristallisation et à la rupture diélectrique a été observée avec ce dispositif, avec des échantillons utilisés par les chercheurs pendant des mois sans aucun signe de dégradation.

Sur la première ligne, différentes perspectives d'un hologramme. Sur la deuxième ligne, hologramme enregistré au même endroit que le premier.

Ce travail est le résultat d’une collaboration entre l’université et la société Nitto Denko Technical située entre Los Angeles et San Diego en Californie. L’entreprise a fourni l’échantillon de polymère et la préparation des matériaux. « Nous avons fait de grands progrès dans la fabrication de films polymères photoréfractifs qui permettent l’enregistrement d’images très intéressantes en 3D obtenus dans notre article de Nature à venir », a déclaré Michiharu Yamamoto, vice-président de NDT en co-auteur de l’article.

Perspectives

Bien que la majorité des images publiées soient monochromes, le système peut également afficher des images couleurs par multiplexage sans nuire au taux de rafraîchissement puisque les différentes couleurs sont enregistrées simultanément. Les chercheurs travaillent maintenant à faire que le taux de rafraîchissement d’une image couleur permettent d’atteindre un flux vidéo standard, avec des écrans plus grands, et en augmentant la sensibilité à la lumière du système.

Les résultats de cette étude ont été publiés dans la revue Nature du 4 novembre 2010 qui en a même fait sa couverture. Ne nous y trompons pas, nous restons dans la thématique « optronique et défense » car cette étude a été financée par des subventions de l’Air Force Office of Scientific Research, la DARPA et le CIAN du  National Science Foundation’s Engineering Research Center.

Pour aller plus loin :
– Publication de Blanche, P.-A. et al.,“Holographic three-dimensional telepresence using large-area photorefractive polymer”, Nature 468, 80-83 (2010)
– Publication de Blanche, P.A. et al., “Future of Photorefractive Based Holographic 3D Display”, Proceedings of SPIE , (2010)
– Publication dans la revue Nature : Tay, S. et al., “An updateable holographic 3D display”, Nature 451, 694-698 (2008).
Vidéo issue du site nature.com montrant la rapidité d’inscription d’une Image 3D holographique
Vidéo issue du site nature.com montrant en temps réel l’affichage quasi réel d’une séquence holographique
Vidéo explicative en Anglais sur YouTube de l’université d’Arizona

sources :
– article du 3 novembre 2010 sur Naturenews
– article du 3 novembre 2010 sur le journal de l’université d’Arizona
– article du 3 novembre 2010 sur Technology Review, le magazine du MIT
– article du 3 novembre 2010 sur Photonis
– article du 3 novembre 2010 sur Gizmag

, , , , , , , , ,

 

Réagissez