Lancement du nouveau casque Apple, des outils Google AI et du GPT-4

Le casque de réalité mixte d’Apple fera ses débuts à la WWDC 2023

Apple dévoilerait le casque de réalité mixte dont on parle depuis longtemps lors de la conférence mondiale des développeurs (WWDC) de cette année, traditionnellement tenue en juin 2023, selon le dernier rapport de Bloomberg.

La date de dévoilement a été retardée plusieurs fois en raison de difficultés technologiques. Il devait initialement être lancé au printemps, mais il sera maintenant annoncé à la WWDC avant d’être mis en vente fin 2023.

On pense que le casque de la société, dont on dit qu’il s’appelle le « Reality Pro », sera un appareil très puissant qui ressemble à des lunettes de ski et peut diffuser du contenu 3D. Il possède de nombreuses fonctionnalités, telles que le suivi avancé des mains, la possibilité de restituer les appelants FaceTime de manière réaliste, une couronne numérique qui vous permet de quitter la réalité virtuelle, etc.

Selon les dernières informations disponibles, Apple vise à vendre le couvre-chef pour environ 3 000 dollars, ce qui en fait l’article portable le plus cher fabriqué par la société à ce jour.

Comme nous le savons tous, la date de sortie de ces produits révolutionnaires peut changer, mais cette fois, Apple espère rendre le produit disponible d’ici la fin de 2023. Si tout se passe comme prévu, les couvre-chefs Apple MR feront très probablement son lancement international. à la WWDC, et le gadget pourrait arriver dans les magasins fin 2023.

Le casque de réalité mixte d’Apple ne gagnera peut-être pas en popularité comme les autres produits Apple dès ses débuts. Pourtant, selon de nombreux avis techniques, le casque de réalité mixte d’Apple a le potentiel de se développer et pourrait devenir un générateur de revenus plus important pour Apple dans un proche avenir.

Microsoft, Alphabet et d’autres entreprises dépensent des milliards de dollars pour développer et mettre en œuvre la technologie de l’IA afin de gagner des parts de marché dans divers secteurs.

Pour concurrencer ChatGPT d’OpenAI (Microsoft a investi des milliards de dollars dans cette firme), la société mère de Google, Alphabet, a lancé un service d’IA propulsé par LaMDA, Bard AI.

Google a récemment annoncé plusieurs intégrations d’IA pour permettre à l’apprentissage automatique de ses produits Workspace de générer du texte et des graphiques. Plusieurs futures fonctionnalités d’IA génératives pour les applications Workspace de Google, notamment Google Docs, Gmail, Sheets et Slides, ont été annoncées.

Les fonctionnalités incluent :

  • De nouvelles façons pour l’IA de Google Documents de réfléchir, de résumer et de générer du contenu.
  • La capacité de Gmail à créer des e-mails entiers à partir des puces rapides des utilisateurs.
  • La possibilité pour Google Slides de créer des images IA, de l’audio et de la vidéo pour illustrer des présentations.

L’entreprise a démontré comment les clients du cloud pouvaient utiliser l’IA pour envoyer des e-mails à des collègues, produire des présentations et des documents de formation à la vente et prendre des notes lors de réunions. Les développeurs peuvent désormais créer des applications utilisant la technologie de Google grâce à la publication par la société de certains de ses modèles d’IA sous-jacents.

ChatGPT a fait ses débuts l’année dernière et Microsoft a lancé son moteur de recherche compatible avec le chatbot Bing en février 2023. Depuis lors, Google a fait preuve de détermination à dépasser ses concurrents dans la nouvelle course à l’IA en annonçant une série de mises à jour de l’IA pour leurs produits.

Un ensemble de « testeurs de confiance » basés aux États-Unis aura accès à plusieurs nouvelles fonctionnalités d’IA que la société a introduites ce mois-ci. Google affirme que ces fonctionnalités et d’autres seraient rendues accessibles au public plus tard dans l’année, mais n’a pas annoncé la date exacte.

OpenAI annonce GPT-4 capable d’accepter des entrées de texte ou d’image

OpenAI a publié la dernière version de GPT-4 dans son blog de recherche. Selon le rapport, GPT-4 est un système multimodal de grande taille qui peut accepter des entrées d’image et de texte tout en ne produisant qu’une sortie de texte.

Après des mois de chuchotements et de spéculations, OpenAI a finalement révélé GPT-4, une amélioration révolutionnaire de la capacité de résolution de problèmes.

Open AI affirme que GPT-4 est « plus innovant et collaboratif que jamais » et est « plus précis pour faire face aux situations difficiles ». Bien qu’il puisse comprendre à la fois la saisie de texte et d’image, seules des réponses textuelles sont produites.

GPT-4 avait suivi six mois de formation à la sécurité, selon OpenAI, qui a également déclaré que lors de tests internes, il était « 82% moins susceptible de répondre aux demandes de contenu restreint » et « 40% plus susceptible d’offrir des réponses factuelles que GPT -3,5.

Dans une conversation non officielle, OpenAI a affirmé qu’il existe une différence « subtile » entre GPT-4 et son prédécesseur GPT-3.5 (GPT-3.5 est le modèle qui alimente ChatGPT). Sam Altman, PDG d’OpenAI, a déclaré que GPT-4 « est encore imparfait, toujours restreint », ajoutant qu’il « semble plus remarquable lors de la première utilisation qu’après avoir passé plus de temps avec ».

Les systèmes présentent toujours bon nombre des mêmes problèmes, notamment le fait d’être moins efficaces que les humains dans de nombreuses circonstances du monde réel et de fonctionner au niveau humain sur divers critères professionnels et académiques, met en garde OpenAI.

Le public peut accéder au GPT-4 mis à jour via ChatGPT Plus, l’abonnement ChatGPT d’OpenAI à 20 $ par mois, qui alimente le chatbot Bing de Microsoft. Il sera disponible sous forme d’API sur laquelle les programmeurs pourront s’appuyer.