Réalisations

Science (et) Fiction – Cité des Sciences

L’exposition intitulée « Science (et) Fiction » à la Cité des Sciences et de l’Industrie propose l’une des plus grandes collections d’Europe d’objets originaux ayant servi aux tournages de films culte de la SF, à travers un circuit de découverte enrichi d’applications multimédias ludiques. C’est dans ce cadre que nous avons réalisé le projet Mondes Parallèles.

Mondes Parallèles

L’installation « Mondes parallèles » propose au visiteur d’explorer un monde parallèle au nôtre et dont les évènements se déroulent dans le lieu de l’exposition. Le visiteur voit par le biais de l’écran des robots et autres personnages de science-fiction se mouvoir dans la même pièce que lui, au milieu des autres visiteurs, et il peut découvrir cet univers parallèle en manipulant le dispositif comme un périscope. Il remarquera ainsi que si la plupart des créatures de ce monde étrange ne semblent pas consciente de la présence des personnes réellement dans la salle, certaines semblent au contraire influencées par leurs actions…

Réalisation technique

Le dispositif consiste en un écran et une paire de haut-parleurs situés derrière une caméra, le tout formant un ensemble mobile monté en pivot sur une base cylindrique fixe et muni d’un capteur angulaire. Le logiciel augmente alors les images fournies par la caméra en temps réel par une scène 3D animée dont une partie du contenu est aléatoire et l’autre est influencée par les mouvements observés dans la salle. Ce logiciel est entièrement écrit en C# et exploite notre propre framework développé en interne chez SIP Conseil.

    • Client : Cité des Sciences et de l’Industrie
    • Projet : Mondes parallèles
    • Dates : Exposition « Science (et) Fiction » d’Octobre 2010 à Juillet 2011
    • Expertise : C#, réalité augmentée, incrustation vidéo, rendu 3D temps réel, traitement vidéo, interactivité, ambiance sonore


Voir un extrait de ce qu’on peut observer au périscope

Réalité augmentée

L’image filmée par la caméra, avant d’être affichée à l’écran, est au préalable mixée avec une photographie de la pièce prise sans visiteurs dans la salle, ce qui permet de donner aux visiteurs un aspect fantomatique à l’écran. Pour obtenir une telle photographie pour chaque position de l’ensemble mobile du périscope, une séquence de photographies est obtenue au préalable en ajoutant un moteur pas-à-pas au dispositif. Lors de l’exploitation, le logiciel utilise ensuite le capteur angulaire pour déterminer la paire de ces photographies qui encadre le mieux la position actuelle du dispositif, et effectue une interpolation entre ces deux images pour reproduire une photographie sans spectateurs s’alignant parfaitement avec les images que transmet la caméra.

A ce mix d’images réelles, le logiciel ajoute les éléments d’une scène virtuelle. Cette scène se déroule dans une modélisation 3D de la pièce. Elle est composée d’entités animées indépendantes qui se croisent et se déclenchent aléatoirement, ainsi que d’un ensemble de robots volants dont la trajectoire dynamique est influencée par plusieurs facteurs (mouvements dans l’image de la caméra, autres robots volants, obstacles dans la scène…). Pour assurer un alignement parfait entre le réel et le virtuel, la caméra virtuelle est positionnée par le logiciel lors d’une phase de configuration du dispositif. Pendant cette phase, un ensemble de points-clé préalablement disposés sur la modélisation 3D de la pièce sont glissés au bon endroit de l’écran par l’installateur très simplement en utilisant le pointeur de sa souris, ce qui permet au logiciel de placer précisément la caméra virtuelle pour que l’image de la pièce en 3D s’aligne avec l’image de la caméra. Cette phase de calibration est répétée par l’installateur pour un certain nombre de positions du dispositif, et durant l’exploitation le logiciel s’occupe automatiquement d’interpoler les coordonnées de la caméra virtuelle entre deux positions-clé afin d’assurer le parfait alignement entre virtuel et réel à tout moment.

Rendu haute qualité

Un soin particulier a été apporté à la qualité graphique de l’installation. Le système de rendu HDR utilisé fournit une plus grande précision dans les calculs d’éclairage, ce qui permet un travail plus poussé des lumières et de leurs interactions avec la matière. Le système de microshaders de notre framework a permis de développer et de prototyper rapidement différents modes de rendu pour chaque entité de la scène virtuelle, ce qui résulte en une diversité et une harmonie visuelle des éléments 3D et permet également de personnaliser du rendu de chaque entité via l’interface de configuration du logiciel en temps réel. Une technique d’ombrage de qualité est utilisée, et la modélisation 3D de la pièce et de son mobilier permet de gérer à la fois l’occlusion et la projection d’ombres entre réel et virtuel, pour un rendu encore plus immersif.

Une ambiance sonore dynamique

L’ambiance sonore de l’installation est construite dynamiquement par superposition de pistes audio, et exploite les haut-parleurs stéréo du dispositif grâce à une spatialisation 3D des sources sonores. L’installateur a aussi la possibilité de régler l’ambiance sonore au mieux en réglant dynamiquement le niveau de chaque piste audio.

Gallerie d'images