Le Masque de Réalité Mixte d’Apple : Révélation Prévue à la WWDC 2023
Selon un récent rapport de Bloomberg, Apple pourrait lever le voile sur son casque de réalité mixte, un projet longuement évoqué, lors de la Conférence Mondiale des Développeurs (WWDC) de cette année, qui se déroule traditionnellement en juin 2023.
La date de présentation a connu plusieurs reports en raison de défis technologiques. Initialement prévu pour le printemps, le lancement sera finalement officialisé à la WWDC avant sa commercialisation, attendue pour la fin de l’année 2023.
Ce casque, dont le nom de code serait « Reality Pro », est présenté comme un appareil très puissant, d’apparence similaire à des lunettes de ski, capable de diffuser du contenu en 3D. Il intégrerait des fonctionnalités avancées, telles que le suivi précis des mains, la possibilité de projeter des interlocuteurs FaceTime de manière réaliste, une couronne numérique permettant de basculer entre réalité virtuelle et environnement réel, entre autres.
Les dernières informations suggèrent qu’Apple vise un prix de vente d’environ 3 000 dollars pour ce dispositif, ce qui en ferait l’appareil portable le plus onéreux jamais conçu par la firme.
Bien que les dates de sortie de produits de cette envergure puissent être sujettes à des modifications, Apple espère cette fois tenir son objectif de disponibilité pour la fin de 2023. Si tout se déroule comme prévu, ce masque de réalité mixte d’Apple devrait être dévoilé à l’international lors de la WWDC, et pourrait faire son apparition dans les rayons des magasins vers la fin de l’année.
Le casque de réalité mixte d’Apple pourrait ne pas connaître un engouement immédiat comparable à celui d’autres produits de la marque. Cependant, de nombreux observateurs techniques estiment qu’il possède un fort potentiel de croissance et pourrait devenir une source de revenus significative pour Apple dans un futur proche.
Dans le même temps, des géants comme Microsoft et Alphabet investissent des sommes colossales dans le développement et l’implémentation de technologies d’intelligence artificielle, dans le but de conquérir des parts de marché dans divers secteurs.
Pour faire face à ChatGPT d’OpenAI, (dans laquelle Microsoft a investi des milliards), la société mère de Google, Alphabet, a lancé Bard AI, un service d’IA basé sur LaMDA.
Google a récemment annoncé plusieurs intégrations de l’IA pour permettre l’apprentissage automatique de ses produits Workspace, en vue de générer du texte et des graphiques. De futures fonctionnalités d’IA génératives pour les applications Workspace de Google, telles que Google Docs, Gmail, Sheets et Slides, ont été présentées.
Ces fonctionnalités incluent :
- De nouvelles possibilités pour Google Documents de réfléchir, de résumer et de produire du contenu grâce à l’IA.
- La capacité de Gmail à générer des courriels complets à partir de simples listes à puces fournies par les utilisateurs.
- La fonctionnalité de Google Slides pour créer des images, du son et de la vidéo grâce à l’IA, afin d’illustrer les présentations.
L’entreprise a démontré comment les clients du cloud peuvent utiliser l’IA pour envoyer des emails à leurs collègues, concevoir des supports de formation à la vente, ou prendre des notes lors de réunions. Les développeurs ont désormais accès à certains des modèles d’IA sous-jacents de Google, leur permettant de créer leurs propres applications utilisant cette technologie.
ChatGPT a fait ses débuts l’année dernière et Microsoft a lancé son moteur de recherche Bing intégré avec un chatbot en février 2023. Depuis lors, Google a affiché une détermination à dépasser ses concurrents dans la nouvelle course à l’IA, en annonçant une série de mises à jour de ses produits en intégrant cette technologie.
Un groupe de « testeurs de confiance » basés aux États-Unis aura accès à plusieurs nouvelles fonctionnalités d’IA que la société a introduites ce mois-ci. Google affirme que ces fonctionnalités, parmi d’autres, seront mises à la disposition du grand public ultérieurement cette année, sans toutefois préciser de date exacte.
OpenAI Révèle GPT-4 : Traitement du Texte et de l’Image
OpenAI a présenté la dernière version de son modèle linguistique, GPT-4, dans un article publié sur son blog de recherche. Selon le rapport, GPT-4 est un système multimodal de grande échelle capable de traiter des entrées de type image et texte, tout en ne produisant que des sorties textuelles.
Après des mois de rumeurs et de spéculations, OpenAI a enfin dévoilé GPT-4, une avancée significative en termes de capacité à résoudre des problèmes.
Selon Open AI, GPT-4 est « plus novateur et collaboratif que jamais » et « plus précis face à des situations délicates ». Bien qu’il puisse comprendre les données saisies sous forme de texte et d’image, il ne produit des réponses que sous forme textuelle.
OpenAI indique que GPT-4 a bénéficié de six mois de formation axée sur la sécurité. L’entreprise précise également qu’au cours des tests internes, il était « 82% moins susceptible de répondre à des demandes de contenu restreint » et « 40% plus susceptible de fournir des réponses factuelles par rapport à GPT-3.5 ».
Dans une discussion informelle, OpenAI a souligné qu’il existe une différence « subtile » entre GPT-4 et son prédécesseur GPT-3.5 (modèle qui alimente actuellement ChatGPT). Sam Altman, PDG d’OpenAI, a déclaré que GPT-4 « est encore imparfait, et toujours limité », ajoutant qu’il « semble plus impressionnant lors de la première utilisation qu’après une interaction prolongée ».
Les systèmes conservent encore bon nombre de leurs défauts, notamment leur efficacité moindre comparée à l’humain dans des situations concrètes, et des performances variables selon les critères professionnels et académiques, prévient OpenAI.
Le grand public peut désormais accéder à la version mise à jour de GPT-4 via ChatGPT Plus, l’abonnement ChatGPT d’OpenAI à 20 $ par mois, qui est également utilisé pour alimenter le chatbot Bing de Microsoft. L’accès à GPT-4 sera également disponible sous forme d’API pour les développeurs.