
Google a dévoilé une multitude de nouveaux outils et fonctionnalités d’IA aux E / S, abandonnant le terme Gemini 95 fois et AI 92 fois. Cependant, la meilleure annonce de l’ensemble de l’émission n’était pas une fonctionnalité d’IA; Au contraire, le titre est allé à l’un des deux produits matériels annoncés – les lunettes Android XR.
CNET: Je détestais les lunettes intelligentes jusqu’à ce que j’essaye Android XR de Google. Maintenant je vois le potentiel
Pour la première fois, Google a jeté un coup d’œil au public sur ses lunettes intelligentes tant attendues, qui emballent l’aide des Gémeaux, les affichages en objectif, les haut-parleurs, les caméras et les micros dans le facteur de forme des lunettes traditionnelles. J’ai eu l’occasion de les porter pendant cinq minutes, au cours desquelles j’ai couru une démo de les utiliser pour obtenir une assistance visuelle sur les Gémeaux, prendre des photos et obtenir des instructions de navigation.
En tant qu’utilisateur de méta-rayons, je n’ai pas pu m’empêcher de remarquer les similitudes et les différences entre les deux lunettes intelligentes – et les fonctionnalités que je souhaite maintenant que ma méta paire avait.
- Affichages dans l’objectif
- Affichages dans l’objectif
La plus grande différence entre les lunettes Android XR et les méta-rayons est l’inclusion d’un affichage en objectif. Les lunettes Android XR ont un affichage qui est utile dans tous les cas impliquant du texte, par exemple lorsque vous obtenez une notification, traduisez l’audio en temps réel, discutez avec des Gémeaux ou naviguez dans les rues de votre ville.
Les méta-rayons n’ont pas d’affichage, et bien que d’autres lunettes intelligentes comme Hallidays le fassent, l’interaction consiste à regarder le module optique placé sur le cadre, ce qui permet une expérience plus naturelle. L’affichage est limité dans ce qu’il peut montrer, car ce n’est pas un affichage vif. La capacité de voir des éléments au-delà du texte ajoute une autre dimension à l’expérience.
Aussi: J’ai testé les méta-rayons depuis des mois, et ces 5 fonctionnalités m’étonnent encore
Par exemple, ma partie préférée de la démo était d’utiliser les lunettes intelligentes pour prendre une photo. Après avoir cliqué sur le bouton en haut de l’objectif, j’ai pu prendre une photo de la même manière que moi avec les méta-rayons. Cependant, la différence était qu’après avoir pris la photo, je pouvais voir les résultats sur l’objectif en couleur et en détail.
Bien que pouvoir voir l’image n’était pas particulièrement utile, cela m’a donné un aperçu de ce que cela pourrait ressentir d’avoir un écran en couches et toujours sur vos lunettes de tous les jours et toutes les possibilités.
2. Assistance aux Gémeaux
Google a continuellement amélioré son assistant Gemini en intégrant ses modèles Gemini les plus avancés, ce qui en fait un assistant d’IA de plus en plus compétent et fiable. Bien que le «meilleur» assistant d’IA dépend finalement de la préférence personnelle et du cas d’utilisation, dans mon expérience des tests et en comparant différents modèles au fil des ans, j’ai trouvé les Gémeaux pour surpasser Meta Ai, l’assistant actuellement utilisé dans les lunettes intelligentes Ray-Ban de Meta.
Aussi: je suis un expert en IA, et ces 8 annonces chez Google I / S m’ont le plus impressionné
Ma préférence est basée sur plusieurs facteurs, notamment les outils plus avancés des Gémeaux, tels que la recherche approfondie, la génération de code avancée et les capacités conversationnelles plus nuancées, qui sont des domaines où les Gémeaux détient actuellement un avantage sur la méta-ai. Une autre différence notable est la sécurité du contenu.
Par exemple, les Gémeaux ont des garde-corps plus stricts autour de la génération de contenu sensible, tels que des images de personnages politiques, tandis que Meta Ai est plus lâche. On ne sait toujours pas combien de fonctionnalités de Gemini se poursuivront aux lunettes intelligentes, mais si l’expérience complète est mise en œuvre, je pense que cela donnerait aux lunettes intelligentes Android un avantage concurrentiel.
3. Facteur de forme léger
Bien que visuellement, ils ne sont pas très différents des méta-rayons dans le style Wayfarer, la prise de Google sur les lunettes XR était sensiblement plus légère que celle de Meta. Dès que je les ai mis, j’ai été un peu choqué par le briquet qu’ils étaient plus léger que ce à quoi je m’attendais. Bien qu’un véritable test de confort nécessiterait de les porter pendant une journée entière, et il y a aussi la possibilité qu’au moment où les lunettes atteignent la production, elles deviennent plus lourdes, en ce moment, cela semble être une victoire majeure.
PCMAG: Google Glass Reborn? J’ai essayé des lunettes intelligentes Android XR, et une chose s’est démarquée
Si les lunettes peuvent maintenir leur conception légère actuelle, il sera beaucoup plus facile de profiter pleinement de l’assistance de l’IA qu’ils offrent dans la vie quotidienne. Les porter pendant de longues périodes ne sacrifierait pas le confort, surtout autour du pont du nez et derrière les oreilles. En fin de compte, ces lunettes agissent comme un pont entre l’aide de l’IA et le monde physique. Cette connexion ne fonctionne que si vous voulez et en mesure de les porter de manière cohérente.
Obtenez les meilleures histoires du matin dans votre boîte de réception chaque jour avec notre Newsletter Tech Today.