Selon un article du New York Times, Meta intégrera dès le mois prochain l’intelligence artificielle (IA) à ses lunettes connectées Ray-Ban. Ces fonctionnalités d’IA multimodales, disponibles en accès anticipé depuis décembre dernier, permettent la traduction de langues ainsi que l’identification d’objets, d’animaux et de monuments.

Pour activer l’assistant intelligent des lunettes, il suffit aux utilisateurs de dire « Hey Meta », puis de formuler une commande ou de poser une question. L’assistant répondra ensuite par le biais des haut-parleurs intégrés aux branches. Le New York Times a testé l’efficacité de l’IA de Meta en portant les lunettes au supermarché, en conduisant, dans des musées et même au zoo.

Si l’IA de Meta a pu identifier correctement les animaux de compagnie et les œuvres d’art, elle n’a pas été infaillible. Le New York Times a constaté que les lunettes avaient du mal à identifier les animaux du zoo qui se trouvaient loin et derrière des cages. De plus, elles n’ont pas réussi à identifier correctement un fruit exotique, la chérimole, après plusieurs tentatives. En ce qui concerne la traduction par l’IA, le New York Times a constaté que les lunettes prennent en charge l’anglais, l’espagnol, l’italien, le français et l’allemand.

Meta continuera probablement à affiner ces fonctionnalités au fil du temps. Actuellement, les fonctionnalités d’IA des lunettes Ray-Ban Meta Smart Glasses ne sont disponibles qu’aux États-Unis via une liste d’attente d’accès anticipé.