L’intelligence artificielle générative continue de marquer les esprits, notamment au moment où les plateformes de médias sociaux s’efforcent d’intégrer cette technologie. Cependant, l’IA générative engendre de multiples inconvénients pour les utilisateurs des réseaux sociaux. Dans cet article, nous allons explorer en profondeur les principaux problèmes que cette innovation soulève. Parmi les sujets de préoccupation, on note la prolifération de contenus superflus, une dégradation de l’authenticité, et la matérialisation de la théorie de l’internet mort. L’impact de l’IA générative affecte également l’expérience des utilisateurs qui cherchent à préserver leurs créations. En examinant ces enjeux, nous espérons vous apporter une meilleure compréhension des répercussions de cette tendance croissante.
1. Une Avalanche de Contenus Sans Intérêt
Si vous êtes un utilisateur assidu de plateformes comme Facebook, il est fort probable que vous ayez rencontré ce que l’on désigne par l’expression « IA slop ». Ce terme fait référence à des contenus non pertinents produits par l’IA, allant des créations artistiques surréalistes aux recettes culinaires farfelues. Il existe même un compte X dédié à l’IA slop sur Facebook.
Souvent, ces contenus apparaissent sur des pages de spam cherchant à devenir virales. Étant donné que Facebook met en avant les contenus viraux, cela pourrait entraîner une présence accrue de contenus absurdes dans votre fil d’actualités. L’IA générative a simplifié la création de ce type de publications, inondant ainsi les plateformes de médias sociaux de contenus superflus.
2. Une Baisse Encore Plus Prononcée de l’Authenticité
Dontree_M/Shutterstock
Les réseaux sociaux ne sont pas particulièrement réputés pour leur authenticité. Les influenceurs présentent souvent des extraits de leur vie, principalement pour donner une image parfaite ou pour promouvoir un produit contre rémunération.
Cependant, l’IA accentue ce manque d’authenticité. TikTok teste des influenceurs virtuels permettant aux entreprises de faire de la publicité en utilisant des avatars créés numériquement, comme l’indique SocialMediaToday. Parallèlement, Instagram expérimente une fonctionnalité qui permet aux influenceurs de créer des bots IA à leur image pour répondre aux fans dans les messages. Cette expérimentation a été annoncée par le PDG de Meta, Mark Zuckerberg, dans son canal de diffusion sur Instagram.
Cette diminution de l’authenticité sur les médias sociaux ne se limite pas aux influenceurs. L’IA est également utilisée pour générer des publications d’utilisateurs sur des réseaux sociaux comme Reddit et X (Twitter). Bien que les chatbots capables de le faire existent depuis un certain temps, l’arrivée des grands modèles linguistiques a rendu plus difficile la distinction entre le vrai et le faux. Lors de mon utilisation quotidienne de Reddit, je constate inévitablement des utilisateurs qui accusent d’autres d’employer l’IA pour rédiger une publication ou une histoire.
Les plateformes d’IA des entreprises de médias sociaux sont toujours en cours de développement, ce qui signifie qu’elles commettent encore des erreurs. Certaines de ces erreurs contribuent à la désinformation ou à la diminution de la confiance des utilisateurs envers la plateforme.
Par exemple, Meta AI a répondu à une publication dans un groupe Facebook en se faisant passer pour un parent dont l’enfant « 2e » (deux fois exceptionnel) est inscrit dans un programme pour élèves surdoués, comme le rapporte Sky News. Heureusement, les réponses de Meta AI étant clairement identifiées sur Facebook, les utilisateurs ont pu constater que cette réponse était erronée. Toutefois, cela met en doute la fiabilité d’outils d’IA comme Meta AI lorsqu’ils s’immiscent dans des conversations où ils n’ont pas leur place.
Dans le même temps, Grok AI (le chatbot IA de X) a été critiqué pour avoir produit de la désinformation. Un exemple concerne l’accusation du joueur de la NBA Klay Thompson d’avoir vandalisé des maisons, l’IA ayant mal interprété le jargon du basket qui désigne des lancers manqués comme des « bricks ».
Si certaines erreurs de l’IA peuvent faire sourire, d’autres formes de désinformation sont plus inquiétantes et peuvent engendrer des conséquences réelles.
4. La Vérification de la Théorie de l’Internet Mort
La théorie de l’internet mort suggère qu’une grande partie du contenu sur internet est générée par des robots. Bien que cela ait été facilement tourné en dérision par le passé, cela semble de plus en plus probable face à l’afflux de spams générés par l’IA sur les plateformes de médias sociaux.
Le fait que les entreprises de médias sociaux intègrent également des robots en tant qu’utilisateurs rend cette idée plus réaliste que jamais. Cela a même mené au lancement de Butterflies AI, une plateforme de médias sociaux où certains utilisateurs sont en réalité des robots IA. Bien que les robots puissent être utiles sur les réseaux sociaux, l’idée d’avoir des robots qui se font passer pour d’autres utilisateurs ne m’enthousiasme pas.
Dans l’expérience utilisateur quotidienne, l’IA générative a facilité la tâche des robots spam pour imiter de véritables utilisateurs. Récemment, j’ai publié un message sur X pour commander une œuvre d’art, et ma boîte de réception a été inondée de réponses de robots. Il devient de plus en plus difficile de distinguer les véritables utilisateurs des robots.
5. Les Utilisateurs Doivent Trouver des Moyens de Protéger Leur Contenu Contre le Scraping par l’IA
Les utilisateurs cherchent diverses méthodes pour protéger leurs contenus contre leur utilisation dans des ensembles de données d’IA. Mais cela n’est pas toujours aussi simple que de se désinscrire. Si vos publications sont publiques, il y a de fortes chances qu’elles aient déjà été utilisées pour entraîner l’IA.
Par conséquent, les utilisateurs expérimentent des solutions pour protéger leurs données. Cela inclut le passage à des profils privés ainsi que le « data poisoning » (empoisonnement des données). Si l’utilisation de Nightshade pour empoisonner des œuvres d’art n’affecte pas la visualisation des images par les utilisateurs, d’autres formes de « data poisoning » peuvent affecter le contenu que nous voyons sur les réseaux sociaux.
Si de plus en plus d’utilisateurs passent à des profils privés sur des réseaux sociaux plus ouverts, il deviendra plus difficile de découvrir des utilisateurs et des contenus que vous aimez. Et tandis que les artistes désertent les plateformes qui fournissent des données d’entraînement pour l’IA générative, les personnes qui souhaitent simplement admirer leur travail risquent de passer à côté de cette opportunité, sauf si elles se tournent vers des plateformes de niche.
Bien qu’il existe quelques utilisations de l’IA générative sur ces plateformes, certains pourraient affirmer que nous n’avons pas vraiment besoin de l’IA générative sur les réseaux sociaux. Quoi qu’il en soit, l’IA générative a déjà fondamentalement transformé les médias sociaux de nombreuses manières.
Résumé : L’IA générative remodèle le paysage des médias sociaux, en y introduisant une profusion de contenus peu pertinents et une dégradation de l’authenticité. Alors que les utilisateurs tentent de faire face à ces défis, des stratégies émergent pour protéger leurs contenus. L’intégration grandissante de l’IA dans les interactions sociales soulève des questions concernant l’authenticité et la fiabilité des contenus. En définitive, il est essentiel d’être conscient de ces changements afin de mieux comprendre l’avenir des plateformes sociales.