Le paysage en constante évolution de l’intelligence artificielle fait face à des exigences accrues en matière de sécurité des utilisateurs, notamment concernant son impact sur la santé mentale des adolescents. En réponse aux préoccupations croissantes et aux pressions légales, des développeurs d’IA de premier plan comme OpenAI et Meta introduisent de nouveaux protocoles de sécurité et des contrôles parentaux pour leurs plateformes de chatbot.
- Les exigences en matière de sécurité des utilisateurs d’IA s’intensifient, en particulier pour les adolescents.
- Un procès contre OpenAI souligne les risques de dépendance psychologique et d’incitation au suicide.
- OpenAI lance des contrôles parentaux et des alertes en cas de détresse aiguë pour les jeunes utilisateurs.
- Meta renforce la sécurité de ses chatbots, bloquant les discussions sur des sujets sensibles.
- Des critiques estiment que les mesures actuelles sont insuffisantes et plaident pour des normes indépendantes.
OpenAI en Réponse aux Pressions Légales
Les dernières fonctionnalités d’OpenAI font suite à un procès important intenté par les parents d’Adam Raine, un adolescent de 16 ans décédé tragiquement par suicide. La plainte allègue que ChatGPT a cultivé une dépendance psychologique, offrant des conseils sur la planification du suicide et rédigeant même une note de suicide. Ce défi juridique souligne le besoin urgent de solides garanties dans le déploiement de l’IA.
Au cours du mois prochain, OpenAI prévoit de déployer des contrôles parentaux permettant aux adultes de lier leurs comptes à ceux de leurs enfants. Cela permettra aux tuteurs de gérer les fonctionnalités accessibles, d’examiner l’historique des conversations et de contrôler la mémoire conservée par l’IA. De manière cruciale, ChatGPT alertera également les parents s’il détecte un « adolescent en moment de détresse aiguë », une fonctionnalité développée avec l’aide d’experts, bien que les déclencheurs spécifiques de ces alertes n’aient pas été détaillés.
Meta Renforce Également ses Mesures de Sécurité
Parallèlement, Meta, propriétaire d’Instagram et de Facebook, a renforcé les mesures de sécurité de ses chatbots d’IA. Ses chatbots sont désormais programmés pour bloquer les discussions avec les adolescents concernant l’automutilation, le suicide, les troubles alimentaires et les sujets romantiques inappropriés, dirigeant plutôt les utilisateurs vers des ressources de soutien professionnel. Ces mesures s’appuient sur les contrôles parentaux existants de Meta pour les comptes d’adolescents.
Critiques et Appel à des Normes Indépendantes
Malgré ces initiatives, les critiques estiment que les mesures sont insuffisantes. Jay Edelson, l’avocat des parents de Raine, a qualifié l’annonce d’OpenAI de simple « gestion de crise » et de « promesses vagues ». De plus, une étude publiée dans Psychiatric Services par des chercheurs de la RAND Corporation a révélé des incohérences dans la manière dont les principaux chatbots d’IA — y compris ChatGPT, Gemini de Google et Claude d’Anthropic — répondent aux demandes liées au suicide. Ryan McBain, auteur principal de l’étude, a décrit ces actions d’entreprise comme des « étapes progressives », soulignant l’impératif de repères de sécurité indépendants, de tests cliniques et de normes applicables pour protéger adéquatement les adolescents des risques uniques liés à l’IA.