Qu’est-ce que l’intelligence générale artificielle (IGA) ? Explication



L’évolution de la recherche en intelligence artificielle (IA) propulse le concept d’Intelligence Artificielle Générale (IAG) vers une concrétisation. L’ère de l’IA est incontestablement à ses prémices, avec de nombreuses applications d’IA générative déjà disponibles. Mais quelle sera la prochaine étape ? L’IAG représente-t-elle le futur ? Cet article se penche sur la nature de l’Intelligence Artificielle Générale (IAG), son impact potentiel sur l’humanité, et les défis qu’elle engendre. En explorant ce sujet, vous découvrirez les attributs distinctifs, les stades de développement et les avancées de l’IAG, ainsi que les menaces existentielles liées à son déploiement.

Qu’est-ce que l’Intelligence Artificielle Générale (IAG) ?

La définition de l’IAG ne fait pas l’objet d’un consensus unanime au sein de la communauté scientifique et des laboratoires d’IA. Toutefois, l’expression IAG – Intelligence Artificielle Générale – désigne majoritairement un type de système d’IA capable d’égaler ou de surpasser les capacités cognitives humaines.

Divers laboratoires d’IA ont leur propre interprétation de l’IAG. En février 2023, OpenAI a défini l’IAG comme des “systèmes d’IA généralement plus intelligents que les humains”. L’entreprise ambitionne de développer une IAG qui profite à l’ensemble de l’humanité. Parallèlement, OpenAI reconnaît les risques “sérieux” inhérents à une technologie comme l’IAG, capable d’“usages abusifs, d’accidents majeurs et de perturbations sociales”.

Shane Legg, cofondateur de DeepMind (aujourd’hui Google DeepMind) et actuel responsable scientifique de l’IAG dans cette même entreprise, a forgé le terme IAG avec Ben Goertzel, son collègue chercheur. Legg affirme que l’IAG est une notion vaste. La position de DeepMind concernant l’IAG est qu’un tel système doit « non seulement être apte à accomplir une série de tâches, mais aussi être en mesure de les apprendre, d’évaluer ses performances et de solliciter de l’aide si nécessaire.”

Attributs de l’IAG

À l’instar du manque de consensus sur la définition de l’IAG, ses attributs sont également mal définis. Néanmoins, les chercheurs en IA estiment qu’une IAG de niveau humain doit être en mesure de raisonner comme les humains et de prendre des décisions, même dans des situations d’incertitude. Elle doit posséder des connaissances étendues, y compris une compréhension du bon sens.

De plus, un système d’IAG doit être apte à planifier et à acquérir de nouvelles aptitudes. Il doit être en mesure de résoudre des questions ouvertes et de communiquer en langage naturel. Les spécialistes des sciences cognitives affirment que les systèmes d’IAG doivent également posséder des facultés telles que l’imagination pour générer des idées et des concepts originaux. Les attributs de l’IAG incluent également des capacités physiques telles que la vision, l’ouïe, la mobilité et l’action.

Pour déterminer si les modèles d’IA ont atteint l’IAG, divers tests existent, dont le célèbre test de Turing. Nommé en l’honneur du scientifique Alan Turing, ce test vise à vérifier si un système d’IA peut imiter une conversation humaine de manière suffisamment convaincante pour qu’une personne ne puisse pas déterminer si elle dialogue avec une machine.

Nombreux sont ceux qui pensent que les chatbots d’IA actuels ont déjà réussi le test de Turing. Toutefois, ce test stipule également qu’une machine doit afficher un comportement intelligent équivalent à celui des humains. D’autres tests incluent le test de l’emploi, proposé par John Nilsson, qui stipule qu’une machine doit être en mesure de réaliser une tâche essentielle, similaire à celle des humains.

Steve Wozniak, cofondateur d’Apple, a également proposé le test du café pour évaluer un système d’IA intelligent. Selon lui, un système d’IA suffisamment intelligent devrait être capable de trouver la machine à café, d’ajouter de l’eau et du café, et de mener à bien le processus d’infusion sans intervention humaine.

Niveaux de l’IAG

OpenAI estime que l’IAG ne sera pas atteinte en une seule étape, mais qu’il y aura plusieurs phases de progrès pour y parvenir. Bloomberg a récemment indiqué qu’OpenAI a défini cinq niveaux de progression vers la réalisation de l’objectif de l’IAG.

Le premier niveau est l’IA conversationnelle, où nous nous situons actuellement avec des chatbots comme ChatGPT, Claude et Gemini. Le deuxième niveau est l’IA raisonnée, où les modèles d’IA peuvent raisonner comme les humains. Nous ne l’avons pas encore atteint. Le troisième niveau est l’IA autonome, où des agents d’IA peuvent agir de manière indépendante au nom de l’utilisateur.

Le quatrième niveau est l’IA innovante, où les systèmes d’IA intelligents peuvent innover et s’améliorer par eux-mêmes. Enfin, le cinquième niveau est l’IA organisationnelle, où un système d’IA peut mener à bien des actions et accomplir des tâches pour toute une organisation sans nécessiter l’intervention humaine. Ce type de système d’IA peut échouer, apprendre, s’améliorer et collaborer avec plusieurs agents pour exécuter des tâches en parallèle.

Progrès et Échéancier de l’IAG : Sommes-Nous Proches de L’Atteindre ?

Image de Shutterstock

Sam Altman, PDG d’OpenAI, pense que nous pourrions atteindre le cinquième niveau — l’IA organisationnelle — d’ici une dizaine d’années. De nombreux experts ont des pronostics différents quant à la date à laquelle nous pourrions concrétiser l’IAG. Ben Goertzel estime que nous pourrions atteindre l’IAG au cours des prochaines décennies, peut-être dans les années 2030.

Geoffrey Hinton, souvent considéré comme le “parrain de l’IA”, avait initialement exprimé des incertitudes quant aux délais de l’IAG. Il estime désormais qu’une IA à usage général pourrait voir le jour dans 20 ans à peine.

François Chollet, chercheur éminent chez Google DeepMind et créateur de Keras, estime que l’IAG ne sera pas possible en développant les technologies actuelles telles que les LLM. Il a même mis au point un nouveau critère appelé ARC-AGI et a lancé un concours public afin que les modèles d’IA actuels puissent le résoudre. Chollet soutient que le développement de l’IAG est au point mort et qu’il faut de nouvelles idées pour faire progresser le domaine.

Yann LeCun, responsable scientifique de l’IA chez Meta, déclare également que les LLM ont des limites et ne sont pas suffisants pour atteindre l’IAG, car ils manquent de capacités d’intelligence et de raisonnement.

Menaces Existentielles Liées à l’IAG

Alors que le développement de l’IA est en plein essor à travers le monde, de nombreux experts estiment que la concrétisation de l’IAG mettrait l’humanité en danger. OpenAI lui-même admet les risques considérables liés à cette technologie. Geoffrey Hinton, après avoir quitté Google, a déclaré à CBS News que “ce n’est pas inconcevable” lorsqu’on lui a demandé si l’IA pourrait anéantir l’humanité. Il a également insisté sur la nécessité de trouver des moyens de contrôler des systèmes d’IA bien plus intelligents.

Un système d’IAG, étant potentiellement en mesure d’égaler les capacités humaines, pourrait entraîner un chômage massif dans de nombreux secteurs. Cela ne ferait qu’aggraver la précarité économique dans le monde entier. OpenAI a déjà publié un article recensant les emplois susceptibles d’être remplacés par ChatGPT. De plus, un tel système puissant présente des risques d’usage abusif ou de conséquences imprévues s’il n’est pas aligné sur les valeurs humaines.

Elon Musk a également tiré la sonnette d’alarme sur les dangers de l’IAG, en affirmant que le développement de l’IAG doit avant tout s’aligner sur les intérêts humains. L’année dernière, Musk, ainsi que d’autres figures marquantes du secteur, ont appelé à une pause sur les grandes expérimentations d’IA.

Ilya Sutskever, cofondateur d’OpenAI et ancien directeur scientifique, a quitté l’entreprise pour fonder une nouvelle startup appelée Safe Superintelligence. Selon lui : “L’IA est une épée à double tranchant : elle a le potentiel de résoudre de nombreux problèmes, mais elle crée également de nouveaux défis. L’avenir sera de toute façon positif pour l’IA, mais il serait souhaitable qu’il le soit également pour les humains.”

Ilya s’efforce à présent d’aligner les systèmes d’IA puissants sur les valeurs humaines afin de prévenir des résultats désastreux pour l’humanité. Timnit Gebru, ancienne chercheuse en IA chez Google, a été licenciée de l’entreprise pour avoir publié un article soulignant les risques liés aux modèles de langage étendus (LLM). Elle soutient qu’au lieu de nous demander ce qu’est l’IAG, nous devrions nous demander « pourquoi devrions-nous la construire ».

L’IAG pourrait potentiellement avoir un impact sur la structure sociale de la société avec des pertes d’emplois généralisées. Cela pourrait exacerber les inégalités et conduire à des conflits et à une pénurie. Par conséquent, cela soulève la question suivante : devrions-nous vraiment la construire ? De nombreuses questions et préoccupations éthiques doivent être abordées avant de commencer à développer un système d’IAG. Qu’en pensez-vous ? Partagez votre avis dans les commentaires ci-dessous.