Le Blog créatif de Subby-kun et Subbinette

Le Blog créatif de Subby-kun et Subbinette

Par Subby kun Blog créé le 25/07/10 Mis à jour le 16/02/13 à 11h47

Il y a des gens qui disent que je suis fou lorsque je passe 15 minutes à contempler mes jeux tous les matins. Le jeu vidéo étant un art, qu'est ce qu'il y a de fou à contempler une oeuvre d'art?

Ajouter aux favoris

Catégorie : Rubrique du Docteur Sub

Signaler
Rubrique du Docteur Sub

Pour ce troisième numéro de la rubrique du Docteur Sub, j'ai décidé de revenir sur le cas batteries et de l'autonomie des consoles portables. Pourquoi ? Parce que la Nintendo 3DS défraie la chronique ces dernières semaines. En effet, l'autonomie de celle-ci serait comprise entre 3 et 5 heures de jeu maximum (lorsque la 3D est utilisée). Cette annonce a choqué le grand public mais celle-ci était totalement prévisible et inévitable. Actuellement, la technologie des batteries peine à suivre le rythme infernale de nos envies technologiques.

Dans cet article, je vais donc revenir dans un premier temps sur la technologie des batteries, expliquer leur évolution, discuter de leur avenir proche et donner quelques conseils de conservations pour les plus attentionnés (conservateurs / collectionneurs ?) d'entre nous. Ensuite, je reviendrai sur le cas de la 3DS et le dilemme que tous les constructeurs doivent résoudre.

 

Qu'est ce qu'un accumulateur et comment fonctionne-t-il ?

Une batterie (ou accumulateurs électrochimiques pour les intimes) est constituée d'un ou plusieurs modules électrochimiques. Ceux-ci peuvent être disposés en série ou en parallèle en fonction des caractéristiques en courant/tension recherchées.

Chaque module est constitué de 4 éléments (Figure 1) : deux électrodes (positive et négative), un électrolyte et un séparateur.

Les électrodes vont permettre de stocker de « l'énergie » lors de la charge et de la restituer lors de la décharge. Cette charge/décharge va s'effectuer via des réactions d'oxydation-réduction (ou oxydoréduction). Les réactions d'oxydoréduction mise en jeu dans ce cycle charge/décharge sont aussi nombreuses et variées que les matériaux d'électrodes qui les constituent.

Ces réactions  chimiques réversibles ne sont possibles qu'en présence d'un électrolyte. Ce dernier assure une conduction ionique entre les deux électrodes. Le séparateur va jouer donc un double rôle : (1) éviter les courts-circuits en séparant les électrodes (2) être imperméable à l'électrolyte.  


Figure 1 : Représentation schématique d'un accumulateur électrochimique

Quelles sont les grandeurs physiques qui caractérisent un accumulateur ?

Pour les applications publiques, nous pouvons définir 5 grandeurs caractéristiques de nos accumulateurs : la puissance, l'énergie, la durée de vie, l'autodécharge et le temps de charge.

La puissance est dépendante de la tension (en Volts) de votre batterie. Celle-ci dépend du type de batterie et elle est généralement comprise entre 1 et 4V (pour nos consoles ou téléphones portables). L'énergie quant à elle, va dépendre de la capacité du système, (capacité = la quantité d'électricité stockée). Celle-ci  s'exprime généralement en  fonction de la masse (Ah/kg ampère heure par kilogramme) ou du volume (Ah/m3, ampère heure par mètre cube). L'autonomie de votre console portable va directement dépendre de cette grandeur. Plus elle est importante et plus votre batterie pourra (à volume ou masse égale) délivrer de l'électricité.

La durée de vie correspond à la dégradation de votre batterie. Elle équivaut au nombre de cycle de charge et de décharge, que les batteries peuvent effectuer avant de perdre en générale 30% de leur énergie (capacité). L'autodécharge, quant à elle, correspond à la décharge de votre batterie sans aucune utilisation. Elle peut survenir en quelques semaines ou quelques mois suivant les systèmes. Le temps de charge correspond, comme son nom l'indique, au temps en heures pour recharger totalement votre batterie. Ce temps va dépendre une nouvelle fois des matériaux utilisés et des conditions de sécurité lors de la recharge de la batterie. Une recharge trop rapide pouvant souvent provoquer une dégradation importante (surchauffe, risque d'explosion).

Quelles sont les grandes familles d'accumulateurs ?

Je me suis permis de détailler la structure d'un accumulateur car les propriétés de chaque batterie vont dépendre des matériaux utilisés.  Pour faire très simple, trois grandes familles de batteries sont sur le marché grand public : les batteries au plomb, les batteries à base de nickel et celles à base de lithium.

Bien, bien... maintenant que vous avez les éléments matériels et techniques, attaquons nous à l'historique pour mieux comprendre l'évolution de batteries et leur limitation actuelle. La technologie des batteries a commencé avec les batteries au plomb/acide. Je pense que tous les conducteurs en ont déjà entendu parler, il s'agit des batteries automobiles. Leur énergie est la plus faible des technologies actuelles (30 à 50 Wh/kg). Les accumulateurs à base de nickel (Ni-Cd et Ni-MH) ont été utilisés pendant de nombreuses années dans les équipements portatifs. Elles représentent la majorité des « piles rechargeables » actuellement dans le commerce. Les défauts sont multiples : elles possèdent une tension limitée à 1,2V, une autodécharge relativement élevée (20 à 30% par mois) et elles souffrent d'une drôle de maladie : « l'effet mémoire ». J'y reviendrai plus tard dans les conseils de conservations.


Figure 2 : Accumulateurs classiques à base de Ni-MH que nous pouvons trouver dans le commerce

Citons enfin la technologie des batteries au lithium. Elle se décline sous diverses formes : Li-ion (lithium ion), Li-Po (lithium ion polymère), Li-PO4 (lithium phosphate) ou LMP (lithium metal polymer). Les accumulateurs Li-ion sont les batteries actuellement utilisées pour les consoles portables. Elles présentent les meilleures caractéristiques en termes d'énergie (100 à 200 Wh/kg) et de puissance (jusqu'à 1500 W/kg). Leur amélioration technologique se réduit progressivement ces dernières années. En parallèle, un très grand nombre d'études est actuellement en cours sur les autres technologies lithium (cf liste ci-dessus). Malheureusement, pour l'ensemble de ces technologies, les énergies obtenues sont plus faibles que les batteries Li-ion actuelles. Certains chercheurs pensent que le salut pourrait provenir des batteries Li-air. Elles possédent une énergie massique (Wh/kg) 10 fois supérieure mais en contre partie, une puissance spécifique (W/kg) 10 fois inférieur à celles des batteries Li-ions actuelles. De plus, cette technologie n'est pas encore au point sur de nombreux détails : elles souffrent d'une forte corrosion (réduisant fortement leur durée de vie), des filtres encombrants doivent être installés afin de garantir un air très pur pour son fonctionnement. Enfin,  les modèles rechargeables commencent à peine à être au point.


Figure 3 : Accumulateur classique à base de Lithium ion que vous retrouvez dans l'ensemble de vos consoles, téléphones portables ou appareil photo numérique

Les perspectives envisagées sur les technologies actuelles ne laissent pas présager un bel avenir. Alors, où est le sauveur ? Un grand nombre de recherches sont actuellement lancés sur un hybride : la batterie Ni-Li (Nickel Lithium). Sur le papier, elles pourraient offrir des énergies 5 fois supérieures pour des puissances équivalentes. Mais les études sur ce type de batteries viennent à peine de débuter et je crois qu'il va falloir attendre 4-5ans au minimum avant de voir leur industrialisation. Attention toutefois, cette technologie risque de combiner aussi de nombreux désavantages (effet mémoire, formation de dendrites) limitant leur durée de vie.

 

 

Comment conserver efficacement l'autonomie de vos batteries ?

Maintenant, je vais vous donner des conseils afin de préserver vos batteries de consoles portables. A tous ceux qui pense: « Pour bien préserver une batterie, il faut la décharger et la recharger à fond à chaque utilisation », je vais briser des idées reçues.

Les batteries Ni-Cd et Ni-MH

Chaque type de batteries va avoir un comportement différent. Il est donc important de bien différencier les batteries à base de nickel (Ni-Cd/Ni-MH) des batteries Li-ion. Pourquoi ? Parce que la phrase ci-dessus ne s'applique en réalité qu'à la technologie Ni-Cd (Ni-MH en souffre parfois également). En effet, ces batteries souffrent d'un phénomène qui se nomme « l'effet mémoire » :

Premièrement, ces appareils sont munis d'un système de mesure de la tension  afin de stopper l'alimentation lorsque les batteries sont vides. Cette sécurité évite la destruction irréversible de l'accumulateur par décharge profonde.

Deuxièmement, l'accumulateur Ni-Cd possède une électrode de cadmium, composée de petits cristaux. Dans certaines conditions, on observe un accroissement de la taille des cristaux qui entraine la diminution de la surface active du système (entre l'électrode et l'électrolyte) et donc de ses performances. En particulier, on observe une baisse de tension de la partie dégradée de l'électrode passant d'une tension de  1,2V (valeur normale d'utilisation) à 1,08V.

Lors de l'utilisation, l'énergie sera d'abord prélevée dans la partie présentant la tension la plus élevée et tout paraîtra normal. Lorsque cette partie sera épuisée, on utilisera l'énergie de la partie dégradée, le seuil de tension passera alors brutalement de 1,2V à 1,08V.

Combiné au système de sécurité précédemment décrit, je pense que vous avez compris le problème : ce changement de tension va rapprocher le système au seuil minimum de fonctionnement de l'appareil, passer en dessous et provoquer l'arrêt de la batterie.

Vu de l'utilisateur, votre batterie va durée moins longtemps, jusqu'à être inutilisable alors que celle-ci pourrait fonctionner avec une tension inférieure.

Source Wikipédia

Alors comment éviter cet effet mémoire ? Il faut bien décharger et charger en profondeur votre batterie à chaque utilisation.  Par contre, lorsque la charge de votre batterie est terminée, il faut débrancher votre appareil.  Sachez enfin qu'il est possible de se « ressusciter » une batterie souffrant d'effet mémoire via des dispositifs spéciaux.

Les batteries Li-ion

Les batteries Lithium ion ne souffrent pas de « l'effet mémoire ». Il n'est donc pas nécessaire de charger/décharger en profondeur votre batterie. Bien au contraire, vous risquez de la dégrader beaucoup plus rapidement. Voilà donc les conseils pour sauver vos batteries Li-ion :

·         - Ne pas faire de décharge profonde

·         - Ne pas stocker les batteries trop longtemps sans les utiliser

·         - Stocker la batterie à ambiante (beaucoup de constructeurs stockent les batteries à 15 °C)

·         - Stocker la batterie aux alentours de 40% de charge

·         - Ne pas charger complètement la batterie avant de la stocker

·         - Ne pas décharger complètement la batterie avant de la stocker

·         - Ne faites pas de stock de batteries de rechange

·          - Lors de l'achat de la batterie, vérifier la date de fabrication, son usure commence dès sa sortie d'usine.


Figure 4 : Dégradation d'une batterie Li-ion en fonction de la température et de sa charge

Si vous avez bien lu avec attention les précautions précédentes, vous avez donc compris qu'il est impossible de conserver une batterie Li-ion pendant une longue période quelque soit la méthode utilisée. Attendez vous donc dans quelques années à voir toutes les batteries de  vos consoles portables favorites (GBA SP en première ligne) définitivement HS. J'en suis le premier attristé. Si vous êtes prévoyants et que vous avez acheté des batteries de rechange, cela n'a servie à rien, les batteries lithium-ion vieillissent dès leur sortie d'usine (alors faites attention aux date de fabrication quand vous achetez un appareil neuf). Je vous déconseille de les utiliser si elles ont plusieurs années. En effet, leur dégradation est déjà bien avancée et vous risquez un incendie lors de la charge de celle-ci...

Retour à la Nintendo 3DS (Attention les avis ci-dessous sont mes réflexions personnelles et ne sont en aucun cas une vérité absolue)

Je pense que vous avez tous compris que nous sommes actuellement prisonniers de la technologie Li-ion en attendant leur remplacement par les Li-air ou Ni-Li éventuellement. Je vais revenir sur la 3DS et je tenais à rebondir sur l'article récent de Pix'n Love : « Aussi, quand on voit que la 3DS ne durerait que trois heures et quelques minutes... On se demande si, finalement, la nouvelle Nintendo ne veut pas chatouiller la PSP sur le plan technologique... Il est où l'héritage de Gunpei Yokoi dans tout ça ? Nous ne pouvons qu'être un peu inquiets quant à ce virage pris par Nintendo... Affaire à suivre ! »

Honnêtement, je ne suis pas d'accord sur ces propos pour plusieurs raisons. "La pensée latérale des technologies désuètes": la 3DS y répond. Tout d'abord, la technologie 3D autostéréoscopique existe depuis très longtemps mais les coûts de fabrication sont devenus raisonnables que récemment. De plus, Nintendo montre depuis de nombreuses années leur volonté d'aller vers la 3D. L'architecture même de la 3DS a été pensée pour être peu consommatrice en énergie (par exemple l'utilisation de la puce PICA 200 de 2006). Cependant, Nintendo (comme les autres) subit la progression lente de la technologie des batteries. Comment faire pour résoudre le problème ?

Deux solutions possibles : on augmente la taille de la batterie par deux pour avoir 2 fois plus d'autonomie (entre 6 et 10heures donc). On se retrouve avec une console au poids et volume fortement augmenté (qui veut un tank de sa poche ?) et la charge de la batterie prendra 2 fois de temps. Il suffit de d'améliorer le temps de recharge diront certains ! Difficile, cela augmente beaucoup les risques d'incendie et d'explosion de la batterie.

De l'autre coté, on réduit la consommation en énergie de la console. On enlève la fonction 3D qui est surement la plus consommatrice en énergie. Quelle est alors l'innovation de la 3DS vis-à-vis d'une simple DS ? Autre solution : On retire un écran ? On perd l'ensemble de la retrocompatibilité et l'affiliation avec la DS. Contrairement à la majorité, je pense sincèrement que Nintendo a fait le choix le plus pertinent pour respecter l'esprit de Gunpei Yokoi avec nos limitations techniques actuelles en termes de consommation et de stockage de l'énergie.

Arrêtons de faire une course à la technologie portative. Laissons le temps aux chercheurs de trouver des solutions de remplacement et là, nous pourrons respecter l'héritage de Gunpei Yokoi.


Figure 5 : La 3DS semble contenir une batterie Li-ion 1300mAh contre 1800mAh pour les premières PSP (1200mAh pour les PSP actuelles). Une autonomie de 3 à 5 heures avec une technologie 3D à barrière parallaxe, je pense sincèrement que Nintendo a fait beaucoup d'effort pour réduire leur consommation énergétique.

 

J'espère que cet article aura répondu à certaines de vos questions concernant les batteries en générale et que les conseils de préservation vous seront utiles. A très bientôt

Docteur Sub

 

Ajouter à mes favoris Commenter (3)

Signaler
Rubrique du Docteur Sub

Rubrique du Docteur Sub n°2

Et voici le deuxième article de la rubrique du Docteur Sub, j'espère sincèrement qu'il vous plaira. La vulgarisation a été plus difficile pour moi que pour le premier article. Si des passages ne vous semblent pas clairs, n'hésitez pas à me le dire et je les corrigerais pour une meilleure accessibilité. A très bientôt.

.

 

La technologie Kinect :

Annoncée en grande pompe lors de la conférence Microsoft de l'E3 2009, la technologie Kinect (ex-Project Natal) propose de jouer avec son corps, renvoyant au placard nos vieilles manettes de jeu. Au lieu de débattre sur l'intérêt ou non de Kinect pour notre univers vidéoludique, essayons de comprendre ensemble le fonctionnement de la bête. Le Docteur Sub vous livre sa deuxième enquête/autopsie exclusive.

Kinect ? Késako?

 

Après avoir disséqué la bête, je peux vous affirmer que Kinect est une évolution très ingénieuse d'une caméra classique. Celui-ci combine et embarque un grand nombre de technologies différentes de façon très originale et intelligente. Attention toutefois, je ne sais pas si la retranscription des mouvements sur l'écran sera efficace, cette partie étant « quasi-exclusivement » dépendante du logiciel de traitement d'images en développement chez Microsoft depuis de nombreuses années.

 

Ce périphérique de Microsoft est constitué d'une barre horizontale connectée à sa base via un petit moteur. Celui-ci permet à la caméra d'effectuer des petits mouvements vers le haut ou le bas (27°C semble-t-il) afin d'adapter la perception de la caméra en fonction de votre position dans la pièce. La barre horizontale constitue l'élément principal de la technologie Kinect. Elle contient une série de multi-microphones, une caméra RGB, et enfin un « 3D depth sensor » permettant d'améliorer l'analyse de mouvement par rapport à une caméra comme l'EyeToy. L'association de ces trois technologies devrait ainsi permettre la reconnaissance vocale et faciale de l'utilisateur, ainsi que la « motion capture » de l'ensemble de la pièce (et donc du corps) en 3D. Cet article va donc se diviser en 3 parties correspondant à chacun des trois éléments de Kinect.

 


Figure 1 : Un petit récapitulatif des technologies embarquées dans Kinect. Traduction pour les non anglophones : Multi-array Mic : Multiples Microphones, Motorized tilt : Pied motorisé, 3D depth sensors : Analyseur de distance 3D

 

« Xbox Explique moi »

 

Je vais donc commencer cette autopsie par une courte présentation des microphones. Pourquoi courte ? Tout simplement car la reconnaissance vocale ne sera pas implanté en français lors du lancement de Kinect. Et pour nous, monolingue français, c'est un scandale ! Non ? Bon, Kinect embarquera vraisemblablement 2 microphones ainsi que 4 détecteurs digitales externes de sources audio. La combinaison de l'ensemble de ce système audio permet ainsi à Kinect de détecter la localisation spatiale d'une source sonore mais aussi d'éliminer les bruits de fond parasites grâce à un traitement de données efficace.

 

Un microphone va fonctionner de la même façon qu'une oreille humaine: celui-ci va traduire l'onde sonore, émise par une source, en signal électrique. Lorsque l'onde sonore vient toucher /exciter la membrane (aussi appelé diaphragme) du microphone, l'excitation de cette membrane va se traduire en signal électrique analogique avant d'être converti en signal numérique. Le diaphragme est l'équivalent du tympan dans notre oreille et son fonctionnement est identique en tout point. Pour convertir un signal analogique en signal numérique, il est obligatoire d'utiliser un convertisseur analogique/numérique. Celui-ci est généralement constitué d'un montage électronique dont la fonction est de traiter une valeur analogique, pour ensuite générer une valeur numérique. Cette valeur numérique sera proportionnelle à la valeur analogique permettant de coder sur plusieurs niveaux (bits). Le plus souvent les valeurs analogiques sont des signaux électriques (comme dans notre cas décrit ci-dessus).

Je vous avoue que je n'ai pas trouvé quel procédé était utilisé pour la localisation spatiale mais celui-ci devrait vraisemblablement s'appuyer sur la comparaison de la « puissance » des signaux sonores reçus. Si vous êtes placés à droite, alors le micro et les détecteurs externes de droite recevront un signal « plus fort » que ceux de gauche. Mais cela reste une hypothèse personnelle.

 

La camera RGB (Red Green Blue)

 

La première des deux caméras embarquées dans la technologie Kinect est une caméra couleur RGB « standard » avec un capteur photographique de type CMOS. Elle se situe au centre de la barre horizontale (cf figure 1). Pour les férus de détails techniques, elle permet une prise d'image avec une fréquence de 30Hz, en couleur 32bits et en résolution VGA de 640x480pixels.

 

Je vais tenter de vous expliquer le fonctionnement des capteurs photographiques intégrant l'ensemble des appareils photos ou caméras numériques actuellement dans le commerce.

 

Qu'est ce qu'un capteur photographique ? C'est un composant électronique sensible à la lumière qui va convertir un rayonnement (Ultra Violet, Lumière visible ou Infra Rouge) en un signal analogique (une nouvelle fois via un signal électrique). Ce signal est ensuite numérisé par un convertisseur analogique-numérique afin d'obtenir une image numérique. Mais avant d'aller plus loin, il est essentiel de redéfinir les rayonnements et la lumière en quelques termes barbares : les ondes électromagnétiques. Pour faire simple, la lumière est composée de l'ensemble des ondes électromagnétiques visible par notre oeil. Ces ondes possèdent une « longueur d'onde » (une fréquence) propre pour chaque couleur que nous connaissons. Lorsque cette longueur d'onde est comprise entre environ 400 et 800 nanomètres, nous sommes dans la gamme des couleurs et de la « lumière visible ».

Pour des longueurs d'ondes inférieures ou supérieures, nous retrouvons les rayonnements avec les domaines des ultraviolets, des infrarouges, des rayons X ou des ondes radio. (Figure 2)

Figure 2 : Représentation du spectre électromagnétique. Comme vous pouvez le voir, la lumière visible et les couleurs ne représentent qu'une toute petite partie de ces ondes.

 

La lumière est composée de 3 couleurs primaires qui sont le Rouge, le Vert et le Bleu comme illustrées sur la Figure 3. L'association de ces 3 couleurs permet d'obtenir la lumière blanche. Le noir représente l'absence totale de couleur. Chaque couleur est donc définie selon le système RVB (ou RGB en anglais) c'est-à-dire en fonction de la proportion respective en rouge, vert et bleu. Ces trois couleurs sont aussi à la base des 3 pixels de couleurs composant les écrans LCD, LED...

 

Contrairement aux couleurs primaires en peinture (cyan, magenta et jaune), les trois couleurs primaires de la lumière sont le rouge, le vert et le bleu.

 

Pour convertir le signal analogique reçu en image numérique, le capteur photographique va filtrer la lumière selon ces 3 couleurs et sortir trois signaux numériques correspondant à chacune d'elles. Actuellement, deux grandes familles de capteurs sont disponibles : les CCD et les CMOS.

 

Les CCD sont surtout utilisés dans les appareils compacts mais sont de plus en plus délaissés dans les reflex. Je ne détaillerai pas le principe des photocapteurs CCD (demandant des connaissances en physique-chimie) car le résultat final est le même que pour la technologie CMOS.

 

Le CMOS est représenté sous la forme un petit « écran » de taille variable comme vous pouvez le voir sur la photographie ci-dessous. La partie sensible à la lumière est la partie grisâtre au centre. Certains capteurs CMOS peuvent actuellement atteindre une résolution hallucinante de 25 millions de pixels et la technologie ne cesse de progresser.

 

Figure 3 : Exemplaire d'un capteur photographique de type CMOS développé par Sony.

 

Comment le capteur fonctionne ? La lumière (l'image) arrive en face du capteur, celle-ci est d'abord purifiée par un filtre Infra Rouge (bloquant les ondes infrarouges et laissant passer la couleur), puis traverse un « mini filtre » de couleur rouge, vert ou bleu placé en face du capteur lui même. Ainsi les millions de capteurs présents à la surface du CMOS vont émettre un signal électrique relatif à une des 3 couleurs qui sera ensuite converti numériquement.

 

Figure 4: Fonctionnement d'un capteur photographique de type CMOS pour les appareils photos numériques et les cameras couleurs.

 

Les propriétés de votre appareil photo ou de votre caméra vont dépendre majoritairement du capteur CMOS (ou CCD) présent dans votre appareil. Ainsi pour les téléphones portables, des capteurs de plus en plus petits sont fabriqués afin d'économiser le maximum de place, au détriment de la qualité de l'image obtenue.

Maintenant que nous avons vu le principe du capteur CMOS pour la caméra RGB, nous allons pouvoir passer aux choses sérieuses avec le « 3D depth sensor ».

 

Figure 5 : Exemple de capteur photographique de taille réduite pour les téléphones mobiles.

 

« 3D depth sensor »

 

Jusqu'à présent nous avons vu les technologies microphones et caméra RGB « classique » mais c'est véritablement avec sa technologie « 3D depth sensor » (comprenez capteur de profondeur/distance 3D) que Kinect tire son épingle du jeu. Cette technologie a été proposée par la société israélienne PrimeSense. La caméra de droite sur la figure 6 est une caméra infrarouge (pas de couleur) à capteur CMOS, QVGA de résolution 320x240, 16bits (donc possédant 65536 niveaux de sensibilité). L'objectif à gauche de Kinect n'est pas une caméra, comme beaucoup pourrait le penser, mais un émetteur de lumière infrarouge. C'est pourquoi certaines images de Kinect sont représentées avec une lampe lumineuse comme sur la figure 6.

 

Figure 6 : C'est deux exemples (Kinect et une télécommande Microsoft) illustrent des émissions infrarouges non visible par notre oeil.

 

Comment fonctionne un capteur CMOS infrarouge ? De façon identique à une caméra RGB sauf qu'on ne laisse passer uniquement les infrarouges (revoir figure 2). La caméra infrarouge permet d'obtenir une image représentant les dégagements thermiques émis par l'objet observé. Ce type d'images furent largement popularisées par le film Predator et sa mythique vision infrarouge. Cependant, les images obtenues ne sont pas colorées, ce sont les utilisateurs qui décident de rajouter les niveaux de couleurs en fonction de la température mesurée.

 

Figure 7 : Il n'est pas trop mignon ? Sur cette image, nous pouvons voir que les émissions de chaleurs proviennent essentiellement des yeux et de la bouche.

 

Je vous vois déjà lever le doigt : «  Mais Monsieur, comment  peut-on faire un détecteur de distance avec une image thermique ? Les yeux du chien sont bien plus éloignés que le bout de sa truffe ! ». Et bien tout simplement, parce que, Kinect ne s'appuie pas sur la chaleur émise par notre corps. En effet, tout l'intérêt de Kinect provient de son émetteur (lampe) de lumière infrarouge.

La scène contenant les joueurs est bombardée par les rayons infrarouges non visibles à l'oeil. Une partie de ces rayonnements va être réfléchie par l'ensemble des surfaces touchées. Plus l'objet sera loin et plus le nombre de rayonnement infrarouge réfléchi (renvoyé vers la caméra) sera faible. A l'inverse, plus l'objet sera proche et plus le nombre de rayonnement infrarouge réfléchi sera important.  Ainsi la caméra infrarouge va mesurer la distance de l'objet en fonction de son intensité comme illustrer sur l'exemple ci-dessous.

 


Figure 8 : Voici une scène de jeu (à gauche) et l'image recueilli par la camera Kinect (à droite).  Nous pouvons voir qu'il est ensuite très facile pour la caméra de reconnaître la silhouette du joueur et par un traitement d'image, d'intégrer les différents points de « motion control ».

 

Le pouf à l'avant est de couleur jaune symbolisant un objet plus proche. S'il était observé par une caméra infrarouge classique, il serait invisible avec le fond du décor car il n'émet aucune chaleur. Grâce à la différence de couleur entre le joueur et le fond, il est facile de distinguer l'ensemble de sa silhouette, mis à part les pieds en contact avec le sol. Ensuite, ce sont les logiciels qui vont effectuer le traitement des images reçues, en intégrant les différentes parties du corps à l'image.

 


Figure 9: Ce schéma résume la technologie Kinect : la lampe infrarouge va être projeté sur la scène, la caméra infrarouge va ensuite filmer cette scène et le puce PS1080 SoC va traiter les données afin d'estimer la distance de chaque objet par rapport à la caméra.

 

Ainsi, d'après la figure 9 (image de droite), il est possible de cartographier avec précision la distance pour tout objet éloigné de 1,5 à 2 mètres de la caméra jusqu'à environ 4-5 mètres de profondeur. Au delà de 5 mètres, le rayonnement IR réfléchi devient trop faible pour être mesurable avec précision. Pour tout objet dont la distance est inférieure à 2 mètres, le phénomène inverse est observé et le signal devient totalement saturé. La publication récente des distances recommandées confirme cette limitation technique : la distance pour pouvoir jouer à deux joueurs est de 2,4 mètres.

L'avantage de l'utilisation de la lampe IR est de pouvoir jouer dans toutes les conditions de luminosité ! Même si certaines fonctionnalités devraient être affectées comme la reconnaissance faciale (caméra RGB) ou le scan des objets (utilisant la caméra RGB, dépendante de la luminosité).

 

Conclusion :

Il est difficile de savoir si Kinect répondra aux attentes du public. Théoriquement, cet outil pourrait libérer le joueur de la manette et lui conférer une liberté totale. En effet, d'un point de vue technique Kinect est un petit bijou de technologies et de bonnes idées. Mais, le développement du logiciel de traitement de données semble représenter une limitation. Ainsi le temps de latence observé jusqu'à présent dépend de l'analyse complexe en « direct » des images filmées. Espérons que « l'amélioration » promis par Microsoft arrive très rapidement au risque d'être le véritable point noir de Kinect.


Figure 10 : Pour finir en beauté pour tous nos amis geeks, un beau schéma résumant l'ensemble des technologies Kinect décrites dans cet article.

 

Docteur Sub

 

Ajouter à mes favoris Commenter (3)

Signaler
Rubrique du Docteur Sub

 

Avec la sortie des nouveaux périphériques tels que Kinect, le PS Move  ou encore l'annonce de la Nintendo 3DS, j'ai décidé d'ouvrir une petite rubrique de vulgarisation scientifique afin d'expliquer comment fonctionnent nos consoles préférées. Mon souhait est de rendre ces articles le plus simple possible et le plus accessible.

 

L'annonce phare de l'E3 2010 en juin dernier est sans hésitation la Nintendo 3DS et son écran auto-stéréoscopique (générant la 3D sans avoir besoin de lunettes). Cet article tentera donc vous expliquer comment ce miracle est possible, mais aussi quelles sont les différences avec les téléviseurs actuellement dans le commerce.

Qu'est ce que la 3D?

Pour commencer ce dossier, il est essentiel d'expliquer comment fonctionne notre vision. Lorsque nous regardons un objet disposé à une certaine distance de nous, nos deux yeux vont observer deux images sensiblement différentes. Cette différence s'explique par la distance d'environ 6,5cm qui sépare nos deux yeux. Le schéma 1 représente la différence de perception entre nos deux yeux. Bien sûr, celle-ci peut sembler minime, cependant il est important de noter que cette différence varie en fonction de la distance de l'objet. Plus l'objet sera proche de nous et plus la différence sera marquée.

 


Schéma 1 : Nos deux yeux ne perçoivent jamais la même image lorsque vous regardez un objet. Plus l'objet sera proche de nous et plus la différence entre les deux images sera importante. Voici un exemple de l'image perçu par l'oeil gauche et l'oeil droit d'un même objet.

 

Lorsque le cerveau reçoit les deux images perçues par nos yeux, il fait une fusion qui nous permet ainsi de voir en 3D. La vision en 3D provient uniquement du fait que notre oeil gauche et notre oeil droit ne perçoit pas la même image. La base de la technologie 3D en relief est fixée sur ce principe simple mais essentiel. L'objectif est de faire croire à chaque oeil que celui-ci perçoit une image différente par rapport à l'autre comme illustré sur le schéma 2. Toute la difficulté de cette technologie est de réussir la séparation totale des deux images pour chaque oeil. Si celle-ci est mal réglée, alors on apercevra une superposition des deux images qu'on appelle aussi image fantôme.  

 

Schéma 2 : Si on parvient à faire croire à nos yeux qu'ils perçoivent une image différente, alors le cerveau fusionnera ces deux images pour donner l'effet 3D. Toutes les technologies 3D sont basées sur ce principe.


Retour historique: Le Virtual Boy et les anaglyphes

Nous allons revenir très rapidement sur deux anciennes technologies 3D : le Virtual Boy et les anaglyphes. Le Virtual Boy emploie une technologie très simple. En se plaçant devant l'appareil, nos deux yeux étaient séparés l'un de l'autre et chacun était disposé devant un écran. Chaque écran envoyait une image sensiblement différente pour l'oeil gauche et l'oeil droit, le cerveau faisait ensuite la fusion des deux images pour obtenir l'effet 3D. Ce système est très efficace mais présente un désavantage certain : il faut rester le nez collé à cette immense paire de jumelles. Cela manque clairement de confort de jeu.

Le Virtual Boy était en avance sur son temps. Le succès aurait été surement différent si les écrans en diiodes rouges avaient été remplacés par des écrans couleurs. Cependant, les écrans LCD couleurs de l'époque ne proposaient pas un rendu suffisamment propre pour satisfaire les exigences de Nintendo.


Pour les anaglyphes, ce système était très connu dans la jeunesse de certaines personnes. Parfois encore utilisé aujourd'hui pour sa facilité de mise en oeuvre et son coût te fabricatiion  faible, l'anaglyphe désigne l'image bleu (ou parfois vert) et rouge qui permettait de voir une image en 3D de bien pauvre qualité lorsque l'on utilisait les fameuses lunettes de mêmes couleurs. Qui n'a pas regardé pendant son enfance ces images de dinosaure, animaux ou de paysage en simili 3D dans divers magazines. Ce n'était pas très beau mais on y croyait, et c'était bien là le principal.

 

Séquence émotion. Le souvenir de ces lunettes en carton au design avant-gardiste et les images d'animaux ou de paysages que l'on trouvait un peu partout restera graver à jamais dans nos mémoires.

 

Pour créer un anaglyphe, rien de plus simple. Vous prenez deux images légèrement différentes d'un même sujet, vous transformez l'une en image bleue, l'autre en image rouge puis vous fusionnez les deux en une seule et même image. Une fois réalisée, vous revêtez vos lunettes bleues et rouges et la magie opère.

En effet, chaque verre de couleur va filtrer une des deux images. Avec votre verre rouge, l'image rouge sera arrêtée et votre oeil ne percevra que l'image bleue, et inversement pour l'autre verre. Ainsi, chaque oeil perçoit une image différente (sans apercevoir l'autre) permettant au cerveau de les fusionner par la suite. Malheureusement, l'utilisation des deux couleurs rouge et bleu altère considérablement la qualité des images offrant un effet 3D de piètre qualité.

 

Deux projecteurs superposent les images rouges et bleu sur un écran. Ensuite, il suffit juste de regarder l'écran revêtu de nos superbes lunettes. Heureusement qu'Avatar n'a pas été diffusé en bleu et rouge.


A partir de ce point, deux conditions primordiales s'imposent pour obtenir une 3D de qualité:

- ne pas altérer la qualité des deux images

- le système doit séparer correctement les deux images pour chaque oeil (afin d'éviter les images fantômes).

Ces systèmes sont appelés stéréoscopiques et nécessitent l'utilisation d'une paire de lunettes. Cette technologie est  actuellement  développée au cinéma ou dans les télévisions 3D que l'on trouve dans le commerce depuis quelques mois.


3D stéréoscopique: Deux technologies pour deux approches opposées

Deux technologies s'opposent pour la 3D stéréoscopique: la technologie « active » et « passive ».

Nous allons commencer par expliquer la technologie « passive » : celle-ci s'appuie sur la polarisation de la lumière. Afin de pouvoir être réalisable, elle nécessite deux projecteurs couplés à deux filtres polarisés, un écran métallisé et une paire de lunettes polarisées. Je ne souhaite pas rentrer dans les détails de la polarisation de la lumière qui risque d'être barbant. Cependant il est possible d'orienter le « code » (en réalité l'onde) émis par une image lumineuse. Les deux projecteurs envoient leurs images traversant les filtres polarisants. Les deux images sont ainsi « coder » avec une orientation horizontale pour l'une, verticale pour l'autre. L'écran métallique conserve ce code et vous renvoie les deux images orientées en même temps. Vos lunettes possèdent aussi ces filtres polarisants et ne vont laisser passer que l'image possédant le même « code » que le filtre. De nouveau, nous avons réussi à envoyer une image différente à chaque oeil, le cerveau fusionne et la magie opère encore une fois. Cette technologie est utilisée dans les cinémas équipés RealD où l'on achète la paire de lunettes à 1€. Malheureusement, les filtres polarisants ternissent l'image, n'offrant pas un confort optimale lors du visionnage de film 3D.


Exemple de la technologie polarisante utilisée dans les cinémas 3D équipés RealD comme les cinémas Gaumont ou Pathé.


La technologie à lunettes polarisantes est finalement très proches des anaglyphes.


La technologie « active » est utilisée dans les téléviseurs 3D commerciaux. Contrairement à la technologie « passive » où les deux images sont superposées à l'écran, la technologie « active » émet alternativement chaque image (les deux images ne sont jamais superposées). Celles-ci sont diffusées à une fréquence minimale de 120Hz pour deux images (équivalent à 60Hz par image). Chaque image est émise tellement rapidement que vous avez l'impression de voir les deux images superposées lorsque vous contemplez l'écran. Or, chaque image est bel et bien émise séparément. Comment arrive-t-on à séparer les deux images avec cette technologie ? Grâce évidemment !! aux lunettes LCD actives vendues séparément pour la modique somme de...

Les lunettes actives vont devenir opaques pour un oeil lorsqu'une image est émise (voir la photographie), quelques millisecondes plus tard, l'autre image est émise et les lunettes vont cacher l'autre oeil. Ainsi les lunettes varient à la même fréquence que les images. Votre oeil gauche ne verra donc qu'un seul type d'image et inversement pour le droit. Encore une fois, la vitesse est tellement rapide que nous n'avons pas le temps de nous rendre compte que les lunettes nous ont caché la vision d'un oeil. Cette technologie est très efficace lorsque la fréquence est élevée. Les deux images ne sont pas altérées et la technologie offre une vision confortable. La technologie a mis du temps pour devenir viable car les écrans LCD n'offraient pas une fréquence de rafraichissement de l'image suffisante pour une vision confortable. Depuis de gros progrès ont été réalisés et les écrans LCD/LED peuvent proposer cette technologie.


La 3D auto-stéréoscopique: deux technologies pour deux approches différentes (bis)

Bon c'est bien toutes ces petites explications, mais revenons au cas qui nous intéresse ici : la Nintendo 3DS. Nous savons maintenant qu'il est nécessaire d'avoir deux images différentes envoyées dans chaque oeil. Et là, vous devez vous demander comment cela peut être possible sans l'utilisation de lunettes. Et bien, il existe deux technologies permettant d'obtenir un tel résultat: l'auto-stéréoscopique à barrière parallaxe et l'auto-stéréoscopique à verre lenticulaire.

L'idée est simple, au lieu d'envoyer les deux images à chaque oeil et ensuite filtrer soit par la polarisation, soit par l'obturation de la vision d'un oeil, ici chaque image est envoyée directement dans un oeil sans que l'autre ne s'en aperçoive. Pour pouvoir réaliser cette prouesse technique, c'est l'écran qui va faire tout le travail.

Bien que non confirmé officiellement, la technologie de la Nintendo 3DS est certainement une barrière parallaxe (technologie des écrans Sharp). Cette technologie semble efficace sur les écrans de petites tailles (comme la 3DS ou un appareil photo). Je vais donc vous expliquer le rôle primordial joué par la barrière dans cet écran.

Nous avons toujours nos deux images : oeil gauche et oeil droit. Ces deux images vont être découpées en parties égales et entrelacées comme illustré sur le schéma 3. On obtient ainsi une nouvelle image un peu bizarre certes je vous l'accorde, contenant l'information des deux images d'origine. Comment l'oeil va-t-il réussir à ne voir qu'une seule des deux images. Tout simplement en cachant l'autre image par une barrière de traits opaques parallèle. D'où le nom de « barrière parallaxe ». Le schéma 4 illustre cette barrière qui permet de filtrer l'image envoyée dans chaque oeil. Si vous tracez un trait de l'image bleu vers l'oeil gauche, vous remarquerez que celui-ci est forcement arrêté par la barrière (pointillés bleus). Et inversement avec l'image rouge. Chaque oeil va percevoir une seule image provoquant de nouveau l'effet 3D.

Schéma 3 : La technologie auto-stéréoscopique consiste à créer des images contenant « plusieurs images en une seule ». Le cas simple de 2 images est illustré ci-dessus mais les futures télévisions 3D auto-stéréoscopique pourront contenir jusqu'à 9 images entrelacées pour améliorer la vision 3D. Epoustouflant non ?

 

Schéma 4 : Lorsque le joueur est placé à la bonne distance de l'écran, une seule et unique image lui sera envoyée directement dans chaque oeil.


Cette méthode de barrière parallaxe est actuellement inefficace pour les grands écrans comme une télévision. Afin de palier à ce problème, une autre méthode a été mise au point pour voir des images 3D sans lunettes. Elle utilise la technique de verre lenticulaire. L'objectif final est strictement le même que celui de la barrière parallaxe. Chaque image sera projetée directement dans les deux yeux de l'utilisateur. Cette fois-ci, un réseau de minuscule lentille, placé devant les pixels, va dévier la lumière de chaque image pour que la séparation s'opère.

 

Cette technologie est l'une des plus efficace actuellement pour voir en 3D sans lunettes et les téléviseurs sont déjà opérationnels. Il suffit juste d'attendre 2-3 ans le temps d'écouler les téléviseurs à lunettes actives LCD/LED à 100€ la paire avant de les voir arriver sur le marché. Avec l'arrivée du LCD, puis du LED, puis de la télé 3D avec lunettes et enfin la télé 3D sans lunettes, les fans de technologie ne vont pas arrêter de passer à la caisse.

Conclusion :

Pour conclure cette première rubrique du Docteur Sub, nous allons revenir sur le cas de la Nintendo 3DS et les avantages/inconvénients de la 3D auto-stéréoscopique à barrière parallaxe. L'avantage le plus flagrant est bien sûr l'absence totale de lunettes. Le confort de jeu est inégalable. La 3D est très efficace et lorsque nous sommes bien placés face à l'écran, aucune image fantôme n'apparait. De plus, la résolution est l'image 3D est splendide. A contrario, son plus gros défaut provient justement de l'absence de lunettes. Les lunettes permettent de filtrer les deux images où que vous soyez. Cependant un écran auto-stéréoscopique fait la séparation des deux images pour vous en imaginant que vous êtes exactement en face de l'écran. Si vous vous décalez légèrement sur la gauche ou la droite, alors vous sortez de la zone « optimale » de séparation et vous voyez de nouveau les deux images par vos yeux, l'effet 3D ne fonctionne plus. C'est pour cela qu'il sera impossible de profiter de l'effet 3D en regardant jouer un partenaire. Seul le joueur plaçait bien en face, ni trop en avant, ni trop en arrière, profitera du relief. Adieu les professeurs Layton avec sa copine au coin du feu, il faudra alors se contenter de jouer en 2D. Le dernier défaut apporté par la technique de barrière parallaxe concerne la luminosité de l'écran. La barrière stoppe une partie de la lumière et les écrans sont obligés d'augmenter le rétro-éclairage pour compenser cette perte de lumière. Espérons  sincèrement que cela n'affectera pas trop l'autonomie de la console pour le moment inconnu.

Vous retrouvez cet article ainsi que de nombreux autres dans le numéro spécial de lancement de N.A.G Webzine spécial E3 dont le lien se trouve ci-dessous:

http://issuu.com/ctso/docs/nagwebzine1

Merci à tous et à très bientôt pour le deuxième numéro de cet rubrique qui traitera certainement de la technologie Kinect (si j'arrive à fouiner les infos qui m'intéressent).


 

 

 

 

 

Ajouter à mes favoris Commenter (4)

Édito

Sur ce blog, je souhaite débattre de jeux vidéo mais aussi de divers domaines comme le cinéma, la BD, les jeux de société, l'Art graphique... Autant de sujets qui me passionnent et dont je souhaite partager ma passion avec vous. N'hésitez pas à laisser vos remarques et commentaires.

 

 

 

Archives

Favoris