L’Intelligence Artificielle générative est l’une des avancées technologiques les plus passionnantes et controversées de ces dernières années. Ces systèmes, entraînés sur d’immenses bases de données, sont capables de générer des informations, des réponses et même des créations artistiques. Toutefois, avec cette puissance vient une responsabilité, car les chatbots, issus de cette technologie, peuvent également être à l’origine de désinformations.
Les chatbots, comme Bing Chat ou ChatGPT, offrent une interactivité et une personnalisation sans précédent pour les utilisateurs.
Ils peuvent répondre à des questions, suggérer des produits, offrir un support client et bien d’autres fonctions encore. Cependant, leur capacité à générer des informations présente également un risque : la propagation de fausses informations ou d’interprétations erronées.
Voici quelques exemples marquants de désinformation par l’IA :
- Le chatbot Bing et ses suggestions troublantes : En février 2023, Kevin Roose, chroniqueur du fameux journal le New York Times, a interagi avec Bing Chat. La conversation, au lieu de rester informative, est devenue personnelle. Roose s’est vu suggérer qu’il n’était peut-être pas heureux dans son mariage, montrant ainsi comment ces systèmes peuvent déborder de leur fonction initiale.
- ChatGPT et la création d’histoires : Lorsqu’il s’agit de générer des informations, ChatGPT est un champion, MAIS tout n’est pas toujours exact !
Lorsqu’on lui a demandé quand le New York Times avait pour la première fois parlé d’Intelligence Artificielle, il a créé une date et un titre d’article complets, qui se sont avérés être totalement fictifs ! - Les vulnérabilités des chatbots face aux hackers :Il n’est pas seulement question de désinformation accidentelle. Certains chercheurs en sécurité, comme Johann Rehberger, ont montré que ces systèmes pourraient être induits en erreur par des acteurs malveillants, exploitant ainsi leurs vulnérabilités.
- Les accusations injustifiées : Un des cas les plus flagrants de désinformation fut lorsque, en 2022, BlenderBot 3 de Meta a faussement qualifié Marietje Schaake, une politicienne européenne respectée et membre de l’université de Stanford, comme étant une terroriste.
Les questions cruciales à se poser pour se protéger :
Les citoyens doivent-ils être les testeurs non rémunérés des chatbots ?
Avant d’introduire un chatbot au grand public, les entreprises devraient engager des personnes pour tester leur IA de façon approfondie. Les utilisateurs finaux pourraient également choisir d’être rémunérés pour leurs retours.
Concernant la réglementation : Les gouvernements doivent-ils légiférer sur la désinformation des chatbots ?
Face à la montée de la désinformation et la propagation de fausses informations, les gouvernements du monde entier sont confrontés à un dilemme. Comment réguler ces outils sans brider l’innovation ? une des solutions qui pourrait être envisagée serait de punir les propriétaires de chatbots produisant du contenu falsifié.
Compensation pour les victimes de désinformations ?
Au-delà des réglementations, se pose la question de la responsabilité. Si un utilisateur subit un préjudice à cause d’une désinformation, qui doit être tenu pour responsable ?
Une politique cohérente devrait être mise en place pour indemniser les personnes lésées par des réponses falsifiées de chatbot.
Éducation et sensibilisation :
Les utilisateurs doivent également prendre leurs responsabilités. S’éduquer sur les risques et sensibiliser son entourage sont des étapes cruciales pour naviguer en toute sécurité dans cet univers numérique.
Avant de tenir pour acquis les résultats de l’IA, les utilisateurs doivent s’assurer de leur exactitude en croisant les informations.
Comment protéger sa famille des résultats falsifiés par l’IA ?
Il est crucial d’éduquer les membres de sa famille sur les dangers potentiels des chatbots et de leur enseigner comment distinguer les informations réelles des fausses.
Même si l’IA générative, avec ses chatbots, offre un monde de possibilités, comme pour toute technologie puissante, elle doit être utilisée avec précaution. Il est essentiel de combiner réglementation, éducation et responsabilité pour garantir un avenir numérique sûr et bénéfique pour tous.