Le fondateur et PDG de META, Mark Zuckerberg, a récemment déclaré que des centaines de millions de personnes pourraient porter des lunettes AR. (Il s’adressait au PDG de Nvidia, Jensen Huang, lors de la conférence SIGGRAPH de cette année.)
Je dois dire que je suis d’accord ; J’ai fait des prédictions similaires dans ce domaine au cours des deux dernières années. Je pense que les lunettes AR – d’abord sans, puis avec, images holographiques projetées sur les lentilles – seront la prochaine grande nouveauté en matière de technologie grand public.
Je suis également d’accord avec l’approche revendiquée par Zuckerberg à l’égard de la catégorie. Au cours de cette même conversation, il a déclaré : « Limitons le facteur de forme à quelque chose qui a fière allure. Et dans ce cadre, intégrons autant de technologie que possible.
C’est l’approche opposée de la plupart des fabricants de lunettes AR. TCL RayNeo X2, Vuzix Ultralite, Rokid Max, XREAL Air et d’autres commencent par : Quelle est la meilleure expérience visuelle que nous puissions offrir à un prix raisonnable ? Ils sacrifient l’apparence au profit d’images de qualité et d’un prix inférieur, mais c’est un sacrifice fatal pour l’acceptation du grand public.
Le résultat a tendance à être quelque chose qui est agréable à utiliser mais que personne ne veut voir porter à l’extérieur.
Comme Google l’a appris avec Google Glass, les lunettes socialement inacceptables ne seront jamais généralisées.
Les lunettes Ray-Ban Meta, quant à elles, le seul succès commercial de Meta en matière de matériel, suivent le modèle de Zuckerberg. (Zuckerberg a affirmé dans un rapport récent intitulé que la demande de Ray-Ban Meta « dépasse toujours notre capacité à les fabriquer. ») Les lunettes ressemblent à des lunettes normales. Et pour que cela fonctionne à un prix bas (à partir de 300 $), il n’y a aucun élément visuel dans l’objectif. Toutes les sorties sont audio. L’appareil photo peut traiter une entrée multimodale (photos, pas vidéo), mais il n’y a pas de moteur d’éclairage, pas d’objectifs spéciaux et pas besoin d’une batterie plus grosse.
Pourtant, Meta travaille clairement sur des lunettes AR visuelles holographiques. La société travaille sur des puces personnalisées et s’associe à Luxottica pour obtenir le bon facteur de forme. Des rumeurs circulant dans la Silicon Valley affirment que Meta pourrait présenter publiquement des lunettes AR dès octobre.
Un autre acteur intéressant est Brilliant Labs, qui vend ses lunettes Frame AI. En théorie, cela semble fantastique. Les lunettes sont dotées d’un écran microOLED avec un champ de vision diagonal de 20 degrés dans l’œil droit. Frame accède aux chatbots d’IA génératifs familiers comme ChatGPT, Whisper et Perplexity. Une caméra orientée vers l’avant permet la traduction en direct, l’analyse visuelle et les requêtes Internet. La conception open source permet aux développeurs de personnaliser et d’améliorer les fonctionnalités des lunettes à l’aide des outils et plugins fournis. Et ils sont étonnamment bon marché : 349 $ pour les verres standards, 448 $ pour les verres correcteurs.
Les cadres présentent également des inconvénients évidents. Ils ne disposent pas de haut-parleurs intégrés et nécessitent une connexion à un smartphone pour bénéficier de fonctionnalités complètes. La durée de vie de la batterie varie de deux à six heures. Mais le plus gros inconvénient est leur apparence. Bien qu’elles se situent dans la catégorie des lunettes ordinaires, les montures rondes se démarquent et attirent mal l’attention. Bien qu’intéressantes pour les créateurs et les bricoleurs curieux, la combinaison d’une faible autonomie de la batterie et d’une apparence idiote montre clairement que les lunettes Frames ne sont pas quelque chose qu’un professionnel de bureau pourrait porter au travail.
Les startups et les grandes entreprises technologiques sont engagées dans une course effrénée pour commercialiser des lunettes AR/IA qui ressemblent à des lunettes ordinaires. Cela inclut Apple, Google, Microsoft et des dizaines d’autres sociétés.
Ce qui soulève les questions : où sont les lunettes ? Pourquoi est-ce que ça prend si longtemps ?
Les composants sont trop gros, gourmands en énergie et chers
Il est désormais possible de fabriquer de superbes lunettes AR. Elles ressembleraient à des lunettes ordinaires, projetteraient des images holographiques ancrées dans l’espace physique. Et une caméra aspirerait la vidéo pour une entrée multimodale vers une IA avancée. C’est la bonne nouvelle.
La mauvaise nouvelle est que la batterie durerait peut-être 45 minutes et coûterait, disons, 10 000 $ la paire.
J’invente ces chiffres. Le fait est que nous disposons de la technologie nécessaire pour créer d’excellentes lunettes IA, mais que nous avons besoin d’une réduction des composants, de réductions de coûts et d’une efficacité énergétique à une toute nouvelle échelle pour les rendre viables sur le marché.
D’énormes progrès ont été réalisés dans la miniaturisation des composants, mais il reste encore beaucoup à faire. Les lunettes AR doivent intégrer tous ces composants électroniques dans une monture de taille normale. Il est encore plus difficile de maintenir le poids.
Et si les lunettes doivent être plus petites et plus légères, les batteries doivent être plus grosses et plus puissantes.
Encore plus difficile : les batteries ont besoin d’une densité énergétique élevée pour fournir une puissance suffisante aux écrans, aux processeurs et aux capteurs dans un format compact. La gestion de la chaleur est également un défi d’ingénierie : les batteries ne peuvent pas chauffer car elles se heurteront aux tempes des utilisateurs. Les entreprises explorent des matériaux avancés, comme les électrolytes solides et les nanomatériaux. De gros avantages pourraient provenir de batteries flexibles et incurvées pour une meilleure intégration dans les montures de lunettes. Et des technologies telles que les cellules solaires ou la récupération d’énergie cinétique pourraient contribuer à prolonger la durée de vie des batteries.
Il existe également des obstacles qualitatifs à surmonter. Les moteurs de lumière, qui font partie des lunettes AR qui projettent des images sur les lentilles, ont tendance à souffrir de fuites de lumière (où d’autres personnes peuvent voir votre écran et vos lunettes « s’éclairer » dans des conditions de faible luminosité), d’images fantômes, d’artefacts arc-en-ciel, de faible résolution et plus.
Ce qui est intéressant dans l’industrie des composants de moteurs légers, c’est que les principaux acteurs – un groupe qui comprend Avegant, VitreaLab, Lumus et TriLite Technologies – travaillent tous sur les mêmes problèmes, mais avec des approches radicalement différentes. Par exemple, l’utilisation par Avegant de diverses technologies d’affichage et du VCSEL contraste avec l’accent mis par VitreaLab sur la photonique quantique et les guides d’ondes 3D. La technologie de guide d’ondes réfléchissante de Lumus diffère des deux, offrant une méthode unique de projection d’images. La technologie de balayage par faisceau laser de TriLite représente encore une autre approche distincte.
Il sera intéressant de voir comment ces approches évoluent et quelle approche offre la meilleure combinaison de prix, de performances, de taille et de poids.
Alors, quand aurons-nous tous des lunettes AR utilisables toute la journée et partout ?
Suivant la maxime de Zuckerberg : « Limitons le facteur de forme à quelque chose qui a fière allure. Et dans ce cadre, intégrons autant de technologie que possible » – nous pourrions bientôt voir quelque chose de créatif de la part d’un acteur majeur.
Comme nous l’avons appris avec les lunettes Ray-Ban Meta, en faisant les bons compromis, il est possible d’obtenir un excellent produit portable à faible coût. La clé consiste désormais à ajouter un affichage holographique.
Une mesure de réduction des coûts consisterait à installer un écran dans un seul œil au lieu de deux. Aussi : En proposant des éléments visuels avec parcimonie, et en se concentrant principalement sur une interface audio, les problèmes de batterie pourraient être résolus.
Autre possibilité : que se passerait-il si les informations affichées affichaient uniquement du texte et non des images ? Je pense que la plupart des gens apprécieraient ce qui pourrait ressembler à des sous-titres, offrant une traduction linguistique, des informations contextuelles, des instructions étape par étape et d’autres informations. Les images et les graphiques peuvent attendre, si cela améliore la durée de vie de la batterie et réduit les problèmes de moteur lumineux tels que les fuites de lumière.
Un autre raccourci consiste à proposer uniquement un affichage tête haute, plutôt qu’un affichage affichant du texte et des objets ancrés dans l’espace physique – comme les Google Glass plutôt que l’Apple Vision Pro.
Et encore un autre point à considérer est que les lunettes AR avec capacité d’image holographique ne doivent pas nécessairement être aussi bon marché que les lunettes IA uniquement audio d’aujourd’hui. Les Ray-Ban Metas commencent à 300 $, mais le prix idéal pour une excellente paire de lunettes AR pourrait atteindre 1 000 $.
L’essentiel est que d’étonnantes lunettes AR qui ressemblent à des lunettes ordinaires arrivent toujours. Mais des appareils véritablement de haute qualité et sans compromis n’arriveront pas de si tôt. Il faudra cinq ans pour que des développements plus avancés en matière de batteries, de moteurs d’éclairage, de lentilles et d’autres composants soient disponibles à des prix raisonnables.
En attendant, la plateforme bénéficiera de compromis créatifs qui fourniront quelque chose d’utile et d’attrayant, bien que pas parfait.
Avec la bonne combinaison de composants, un accès persistant à l’IA et des lunettes que les gens veulent vraiment porter en public, les prédictions de Zuckerberg concernant des centaines de millions de personnes portant des lunettes AR pourraient bien s’avérer en réalité conservatrices.