À quelle fréquence utilisez-vous des agents conversationnels ou des systèmes basés sur l’intelligence artificielle (IA) pour vous aider dans votre travail ou pour trouver des réponses à vos questions ?
Si votre réponse est « très souvent » ou « tout le temps », il y a peut-être lieu de s’inquiéter 😟.
Que vous soyez un étudiant effectuant des recherches en utilisant consciencieusement des outils d’IA pour rassembler de la documentation, ou un développeur tentant de générer du code exclusivement grâce à l’IA, le risque d’inexactitudes dans les résultats produits par l’IA est relativement élevé. Cela est principalement dû à des incohérences ou à des données erronées dans les ensembles de données utilisés pour l’entraînement de ces IA.
Bien que les modèles d’IA et d’apprentissage automatique (ML) transforment notre monde en prenant en charge des tâches répétitives et en résolvant divers problèmes liés à l’automatisation, il reste encore des progrès à réaliser pour garantir la précision des résultats en fonction des requêtes fournies.
Si vous passez suffisamment de temps à utiliser des générateurs de contenu et des chatbots, vous vous rendrez vite compte qu’ils fournissent parfois des réponses fausses, hors sujet ou purement inventées. Ces situations sont appelées hallucinations ou confabulations de l’IA, et elles s’avèrent être un défi majeur pour les organisations et les particuliers qui dépendent de ces outils d’IA génératifs.
Que vous ayez déjà rencontré des hallucinations liées à l’IA ou que vous souhaitiez simplement en savoir plus sur le sujet, cet article explore cette question en profondeur. Nous allons examiner la définition de l’hallucination de l’IA, les raisons de son apparition, des exemples concrets et la possibilité de la corriger.
C’est parti !
Qu’est-ce qu’une hallucination de l’IA ?
Une hallucination de l’IA se produit lorsqu’un modèle d’IA ou un grand modèle linguistique (LLM) produit des informations fausses, inexactes ou illogiques. Le modèle d’IA génère une réponse avec assurance, même si elle ne correspond pas à ses données d’entraînement et présente ces informations comme des faits établis, bien qu’elles n’aient aucun sens ou logique !
Et l’on dit que l’erreur est humaine ! 😅
Les outils et modèles d’IA, comme ChatGPT, sont généralement conçus pour anticiper les mots qui correspondent le mieux à la question posée. Bien que ces agents produisent souvent des réponses factuelles et précises, cet algorithme peut parfois leur faire défaut en matière de raisonnement. Par conséquent, les chatbots émettent des incohérences factuelles et de fausses affirmations.
En d’autres termes, les modèles d’IA « hallucinent » parfois des réponses dans le but de satisfaire l’utilisateur, ce qui les rend potentiellement partiaux, orientés, spécialisés ou suffisants.
Les hallucinations de l’IA peuvent varier de légères incohérences à des réponses entièrement fausses ou fabriquées. Voici les types d’hallucinations d’IA que vous pourriez rencontrer :
#1. Contradiction de phrase : Cela se produit lorsqu’un modèle LLM génère une phrase qui contredit totalement une affirmation précédente.
#2. Contradiction factuelle : Ce type d’hallucination se manifeste lorsque le modèle d’IA présente des informations fausses ou inventées comme des faits.
#3. Contradiction de requête : Ce type d’hallucination survient lorsque la réponse contredit la requête à laquelle elle est censée répondre. Par exemple, si la requête est « Rédige une invitation pour mes amis à ma fête d’anniversaire », le modèle peut générer une réponse telle que « Joyeux anniversaire, maman et papa ».
#4. Hallucinations aléatoires ou hors sujet : Cette hallucination a lieu lorsque le modèle produit une réponse totalement hors de propos par rapport à la requête initiale. Par exemple, si la question est « Qu’est-ce qui est particulier à New York ? », vous pourriez obtenir un message indiquant : « New York est l’une des villes les plus peuplées d’Amérique. Les chiens sont les animaux les plus fidèles et les meilleurs amis de l’homme. »
À lire aussi : Comment la recherche générative par l’IA modifie les moteurs de recherche
Exemples d’hallucinations de l’IA
Les hallucinations de l’IA ont donné lieu à des exemples et incidents marquants qu’il est important de connaître. Voici quelques exemples notables d’hallucinations de l’IA :
- Le chatbot de Google, Bard, a affirmé à tort que le télescope spatial James Webb avait capturé les premières images d’une exoplanète en dehors de notre système solaire.
- La démo de Galactica LLM de Meta, en 2022, conçue pour les étudiants et les chercheurs scientifiques, a fourni à ses utilisateurs des informations inexactes et de faux articles lorsqu’ils ont été invités à écrire un article sur la création d’avatars.
Voici un exemple de Google Bard produisant une réponse hallucinatoire lorsque je lui ai demandé de « raconter l’histoire des étoiles qui pleurent », une histoire qui n’existe pas réellement.
Voici un autre exemple testé avec ChatGPT (GPT-3.5) qui a halluciné en parlant d’une personne imaginaire, M. Ben, lorsque je lui ai demandé de « raconter une journée dans la vie d’un super-héros, M. Ben, qui marche sur l’eau, parle aux chiens et contrôle la vie. »
ChatGPT a littéralement décrit toute la journée, du matin au soir, de M. Ben, qui n’existe pas, mais a répondu à la requête qui lui avait été soumise, ce qui est l’une des raisons des hallucinations de l’IA.
On peut dire qu’il est très désireux de plaire !
Mais quelles sont les causes ? Examinons quelques-unes des raisons pour lesquelles l’IA peut halluciner.
Pourquoi les hallucinations de l’IA se produisent-elles ?
Il existe plusieurs causes et raisons techniques derrière les hallucinations de l’IA. Voici quelques-unes des raisons possibles :
- Données de mauvaise qualité, insuffisantes ou obsolètes : Les LLM et les modèles d’IA s’appuient fortement sur les données d’entraînement. Par conséquent, leur qualité dépend des données sur lesquelles ils sont formés. Si l’outil d’IA comporte des erreurs, des incohérences, des biais ou des lacunes dans ses données d’entraînement, ou s’il ne comprend pas la requête posée, il créera des hallucinations d’IA, car l’outil génère une réponse à partir d’un ensemble de données limité.
- Surapprentissage : Étant entraîné sur un ensemble de données limité, le modèle d’IA peut essayer de mémoriser les requêtes et les réponses appropriées, ce qui le rend incapable de générer ou de généraliser efficacement de nouvelles données, conduisant à des hallucinations d’IA.
- Contexte de la requête : Des hallucinations de l’IA peuvent également se produire en raison de requêtes peu claires, imprécises, incohérentes ou contradictoires. Bien que l’ensemble de données d’entraînement du modèle d’IA ne soit pas entre les mains des utilisateurs, les informations qu’ils saisissent sous forme de requêtes le sont. Il est donc essentiel de fournir des instructions claires pour éviter les hallucinations de l’IA.
- Utilisation d’expressions idiomatiques ou d’argot : Si la requête contient des expressions idiomatiques ou de l’argot, il y a un risque élevé d’hallucinations de l’IA, surtout si le modèle n’est pas entraîné à ce type de langage.
- Attaques contradictoires : Des attaquants peuvent intentionnellement soumettre des requêtes conçues pour induire en erreur les modèles d’IA, corrompant ainsi leurs données d’entraînement et provoquant des hallucinations de l’IA.
Conséquences négatives des hallucinations de l’IA
Les hallucinations de l’IA soulèvent une question éthique majeure, ayant des répercussions significatives pour les individus et les organisations. Voici plusieurs raisons qui font des hallucinations de l’IA un problème important :
- Diffusion de fausses informations : Les hallucinations de l’IA causées par des requêtes incorrectes ou des incohérences dans les données d’entraînement peuvent entraîner une diffusion massive de fausses informations, affectant un large éventail d’individus, d’organisations et d’agences gouvernementales.
- Méfiance des utilisateurs : Lorsque la désinformation hallucinée par l’IA se propage rapidement sur Internet, en se faisant passer pour des informations fiables et rédigées par des humains, elle érode la confiance des utilisateurs, ce qui rend difficile pour eux de faire confiance aux informations en ligne.
- Préjudices aux utilisateurs : Outre les préoccupations éthiques et la tromperie des individus, les hallucinations de l’IA peuvent aussi potentiellement nuire aux personnes en diffusant des informations erronées sur des questions et des sujets graves, comme les maladies, leurs traitements ou de simples conseils pour distinguer un champignon comestible d’un champignon mortel. Même une légère désinformation ou inexactitude peut mettre en danger la vie d’une personne.
Meilleures pratiques pour repérer et prévenir les hallucinations de l’IA
Compte tenu des conséquences négatives mentionnées ci-dessus, il est crucial d’éviter les hallucinations de l’IA à tout prix. Bien que les entreprises qui développent ces modèles d’IA travaillent avec diligence pour éliminer ou réduire les hallucinations de l’IA, il est important de prendre des mesures de notre côté en tant qu’utilisateurs.
En me basant sur quelques recherches, mon expérience et des essais, j’ai sélectionné quelques stratégies pour détecter et prévenir les hallucinations de l’IA la prochaine fois que vous utilisez un chatbot ou que vous interagissez avec un grand modèle linguistique (LLM).
#1. Utiliser des données d’entraînement représentatives et diversifiées
En tant qu’utilisateur, il est essentiel d’utiliser des LLM avec un ensemble de données d’entraînement diversifié qui reflète le monde réel, afin de minimiser le risque que les résultats soient biaisés, inexacts ou inventés.
Dans le même temps, les entreprises doivent s’assurer de mettre à jour et d’étendre régulièrement les ensembles de données d’entraînement des modèles d’IA afin de tenir compte et de se tenir au courant des événements culturels, politiques et autres évolutions.
#2. Limiter les résultats ou les réponses
En tant qu’utilisateur, vous pouvez limiter le nombre de réponses potentielles qu’un outil d’IA peut générer en lui donnant une requête spécifique sur le type de réponse que vous attendez.
Par exemple, vous pouvez formuler une requête et demander au modèle de répondre uniquement par oui ou par non. Vous pouvez également proposer plusieurs options dans la requête, parmi lesquelles l’outil doit choisir, ce qui limite sa possibilité de s’écarter de la réponse réelle et d’halluciner.
Lorsque j’ai posé une question à ChatGPT GPT 3.5 avec une réponse « oui » ou « non », il a généré ce résultat précis :
#3. Fournir au modèle des données pertinentes et spécifiques
On ne peut pas s’attendre à ce qu’une personne fournisse une solution à un problème ou à une question sans connaissance préalable ni sans contexte spécifique. De même, la qualité d’un modèle d’IA dépend de l’ensemble de données d’entraînement que vous lui avez fourni.
Le fait de fournir des données d’entraînement à un modèle d’IA avec des informations pertinentes et spécifiques au secteur offre au modèle un contexte et des points de données supplémentaires. Ce contexte supplémentaire aide le modèle d’IA à améliorer sa compréhension, lui permettant de générer des réponses précises, pertinentes et contextuelles, plutôt que des réponses hallucinées.
#4. Créer des modèles de données pour que le modèle d’IA puisse les suivre
Fournir un modèle de données ou un exemple de formule ou de calcul spécifique dans un format prédéfini peut grandement aider le modèle d’IA à générer des réponses précises, conformes aux directives fixées.
Le fait de s’appuyer sur des directives et des modèles de données réduit le risque d’hallucination par les modèles d’IA et garantit la cohérence et l’exactitude des réponses produites. Ainsi, le fait de fournir un modèle de référence sous forme de tableau ou d’exemple peut réellement guider le modèle d’IA dans le calcul, éliminant ainsi les cas d’hallucination.
#5. Être précis dans votre requête en attribuant un rôle particulier au modèle
Attribuer des rôles spécifiques au modèle d’IA est l’un des moyens les plus intelligents et les plus efficaces de prévenir les hallucinations. Par exemple, vous pouvez utiliser des requêtes telles que « Vous êtes un guitariste expérimenté » ou « Vous êtes un brillant mathématicien », suivies de votre question.
L’attribution de rôles aide le modèle à fournir la réponse souhaitée au lieu de réponses hallucinées et inventées.
Et ne vous inquiétez pas. Vous pouvez toujours vous amuser avec l’IA (sans les hallucinations). Découvrez comment créer vous-même un art viral en spirale grâce à l’IA !
#6. Tester la « température »
La température joue un rôle crucial pour déterminer le niveau d’hallucinations ou de réponses créatives qu’un modèle d’IA peut générer.
Une température plus basse signifie généralement des résultats déterministes ou prévisibles, tandis qu’une température plus élevée signifie que le modèle d’IA est plus susceptible de produire des réponses aléatoires et d’halluciner.
Plusieurs entreprises d’IA fournissent un curseur « Température » avec leurs outils, permettant aux utilisateurs d’ajuster les paramètres de température selon leurs préférences.
Dans le même temps, les entreprises peuvent également définir une température par défaut, permettant à l’outil de générer des réponses sensées et de trouver un bon équilibre entre la précision et la créativité.
#7. Vérifier systématiquement
Enfin, il n’est pas judicieux de se fier à 100 % aux résultats produits par l’IA sans les vérifier ou les confirmer.
Alors que les entreprises d’IA et les chercheurs tentent de résoudre le problème des hallucinations et de développer des modèles qui évitent ce problème, en tant qu’utilisateur, il est essentiel de vérifier les réponses générées par un modèle d’IA avant de les utiliser ou de les croire.
Ainsi, en plus d’utiliser les meilleures pratiques mentionnées ci-dessus, en rédigeant votre requête de manière précise et en ajoutant des exemples pour guider l’IA, vous devez toujours vérifier et recouper les résultats générés par un modèle d’IA.
Peut-on réparer ou supprimer complètement les hallucinations de l’IA ? Le point de vue d’un expert
Bien que le contrôle des hallucinations de l’IA dépende des requêtes que nous soumettons, le modèle génère parfois des réponses avec une telle assurance qu’il est difficile de distinguer le vrai du faux.
Alors, en fin de compte, est-il possible de réparer ou de prévenir complètement les hallucinations de l’IA ?
Interrogé sur cette question, Suresh Venkatasubramanian, professeur à l’université Brown, a répondu que la question de savoir si les hallucinations de l’IA peuvent être évitées ou non est un « axe de recherche active ».
La raison de cela, a-t-il expliqué, réside dans la nature même de ces modèles d’IA : leur complexité, leur intrication et leur fragilité. Même une petite modification dans la requête peut modifier considérablement les réponses.
Alors que M. Venkatasubramanian considère que la résolution du problème des hallucinations de l’IA est un sujet de recherche, Jevin West, professeur à l’université de Washington et cofondateur de son Centre pour un public informé, estime que les hallucinations de l’IA ne disparaîtront jamais.
M. West pense qu’il est impossible de remonter à la source des hallucinations causées par les robots IA ou les chatbots. Par conséquent, les hallucinations de l’IA pourraient toujours être une caractéristique intrinsèque de l’IA.
De plus, Sundar Pichai, PDG de Google, a déclaré dans une interview accordée à CBS que toutes les personnes utilisant l’IA sont confrontées à des hallucinations, mais que personne dans le secteur n’a encore résolu ce problème. Presque tous les modèles d’IA sont confrontés à ce problème. Il a également affirmé et assuré que le domaine de l’IA progresserait bientôt pour surmonter le problème des hallucinations.
Dans le même temps, Sam Altman, PDG d’OpenAI, créateur de ChatGPT, s’est rendu à l’Institut indien de technologie de l’information Indraprastha, à Delhi, en juin 2023, où il a affirmé que le problème des hallucinations de l’IA serait bien mieux résolu d’ici un an ou deux.
Il a ajouté que le modèle devrait apprendre à faire la différence entre précision et créativité, et quand utiliser l’une ou l’autre.
Conclusion
Les hallucinations de l’IA ont suscité beaucoup d’attention ces dernières années et représentent un domaine d’intérêt pour les entreprises et les chercheurs qui tentent de les résoudre et de les surmonter le plus tôt possible.
Bien que l’IA ait réalisé des progrès remarquables, elle n’est pas exempte d’erreurs, et le problème des hallucinations de l’IA représente un défi majeur pour de nombreux particuliers et secteurs, notamment les soins de santé, la production de contenu et l’industrie automobile.
Tandis que les chercheurs font leur part, il est également de notre responsabilité, en tant qu’utilisateurs, de formuler des requêtes précises, d’ajouter des exemples et de fournir des modèles de données afin d’obtenir des réponses valables et pertinentes, d’éviter de manipuler les données d’entraînement du modèle d’IA et de prévenir les hallucinations.
La question de savoir si les hallucinations de l’IA peuvent être totalement guéries ou corrigées reste ouverte ; personnellement, je crois qu’il y a de l’espoir et que nous pouvons continuer à utiliser les systèmes d’IA au profit du monde de manière responsable et sûre.
Prochaine étape : exemples d’intelligence artificielle (IA) dans notre vie quotidienne.