Le bot ChatGPT récemment dévoilé d’OpenAI fait beaucoup parler de lui depuis qu’il a été lancé, en ce qui concerne toutes les choses incroyables qu’il peut faire, de l’écriture de musique au codage en passant par la génération d’exploits de vulnérabilité, et tant d’autres choses.
Néamoins, les humains ont commencé à découvrir certains des biais de l’IA, comme le désir d’anéantir l’humanité, rien que ça.
Alors que de plus en plus d’internautes jouent avec cette nouvelle technologie, certaines des failles de la pensée de l’IA font surface alors que ses créateurs se précipitent pour les réparer en temps réel.
Nous avons identifié quelques dangers potentiels à utiliser ChatGPT :
1. Son manque de fiabilité
En effet, quand on pose une question à ChatGPT, il arrive fréquemment que ses réponses contiennent des erreurs. En effet, quand on lui pose une question précise, il faut bien garder en tête que l’IA répond grâce à des statistiques : il génère des phrases selon la probabilité qu’un mot en suive un autre. Les chercheurs appellent ces infos inventées par l’IA des « hallucinations » qui ne sont ni plus ni moins que des associations d’idées et de mots. Selon les requêtes, ces petites imprésisions ne sont pas vraiment trop graves, mais imaginez que vous lui demandez comment réparer vos freins de voiture ou des informations sur votre santé ?
Pour être sûr que Chat GPT vous donne les meilleures informations, votre question doit être précise, et vous devez lui donner des précisions sur ce que vous lui demandez. Par exemple, si vous recherchez une information médicale, demandez-lui de donner la même réponse que celle que vous ferait un médecin.
Dans tous les cas, il vous faudra quand même toujours vérifier les informations obtenues, du moins pour l’instant, ce que n’est pas si facile car l’IA ne site jamais ses sources.
2. Chat GPT et le plagiat
Dans ses réponses, il peut arriver que ChatGPT copie partiellement ou intégralement des textes ou des phrases soumis à droits d’auteur. Ce problème concerne aussi les IA qui fournissent des images comme MidJourney, car pour créer les images, les robots utilisent celles qu’ils trouvent sur internet. Est-ce qu’ils copient ou est-ce qu’ils s’en inspirent pour en créer de nouvelles ? là est toute la question, et aucune juridiction n’est encore prête pour statuer.
La fraude est encore plus grave si l’on fait croire que l’on est l’auteur des textes ou des images obtenus, sans préciser qu’on a utilisé une IA. Cela pourra concerner à l’avenir des travaux de recherche, des articles de journaux, des romans ou, comme on l’entend depuis quelques temps, des travaux d’étudiants.
C’est l’outil de triche ultime pour les dissertations ou même des thèses et certaines écoles ont déjà réagi face au ras de marée.
3. Le problème humain
Car oui, ChatGPT a beau être un robot, il tire tout de même tout son savoir de textes rédigés par des humains. Il a déjà ingurgité un savoir monumental constitué uniquement de sources en anglais. Le problème, c’est qu’avec une seule langue apprise, l’IA n’a appris aussi qu’une seule culture, et qu’une seule vision du monde. Si Chat GPT avait été chinois, ou français, ses réponses seraient très différentes de celles qu’il donne aujourd’hui.
De plus, sachant que les sources sont en langue anglaise ET réalisées par des êtres humains, Chat GPT en a ingurgité aussi les biais : racisme, misogynie, manuel de fabrication d’une bombe, tout est possible. Alors comment l’empêcher de véhiculer simplement les clichés et les travers humains déjà présents dans nos sociétés ? il est très difficile d’éviter ce type de dérapage avec cette IA, d’autant plus que les algorithmes ne fonctionnent pas tout à fait encore de manière autonome.
4. La cybercriminalité
Un autre grand risque à venir est que les chats générés par des IA ne soient plus clairement identifiés comme tels : en résumé, on ne saura bientôt plus faire la différence entre l’informations donnée par un humain de celle donnée par un robot.
Imaginez qu’une entreprise utilise ChatGPT pour faire sa publicité, ou du phishing ou pire, récolter des données confidentielles sur les internautes. Avec ChatGPT, il sera tout à fait possible de bombarder d’emails personnalisés les clients potentiels, et ce, à l’infini.
D’ailleurs, l’IA est déjà utilisée aujourd’hui pour ce genre de cas mais, au contraire, pour stopper les courriers indésirables.
Autre danger potentiel : Chat GPT est capable de générer du code informatique. On peut déjà lui demander de copier des sites web d’entreprise pour arnaquer les clients et même de créer des malwares.
5. La perte de certains emplois
ChatGPT peut, à l’avenir, provoquer des pertes d’emploi, dans les métiers aux tâches répétitives notamment. C’est en tout cas la première crainte des employés en Europe, mais personne ne peut savoir : cette même crainte était déjà citée au début du siècle à l’arrivée des premières machines-outils dans les usines ou des premiers ordinateurs. Tout l’enjeu de ces prochaines années sera de former les gens aux nouveaux métiers que va générer l’arrivée rapide de ce type d’intelligence artificielle. Par exemple, le secteur informatique aura de plus en plus besoin de programmeurs. Selon l’OCDE, 14% des emplois présentent un risque d’automatisation alors que 32% des métiers pourraient profondément changer sans pour autant disparaitre.
6. Le risque de monopole
Un des plus gros risques liés à ce type d’intelligence artificielle est qu’une seule entreprise ou quelques-unes soient les seules à s’emparer de cette technologie pour faire du monde ce qu’on voit dans Blade Runner ou Terminator. Nous n’en sommes pas du tout là : aujourd’hui, l’entreprise qui a créé Chat GPT est OpenAI, une startup a but lucratif plafonné. C’est un statut très particulier qui implique que ses revenus ne peuvent être que 100 fois plus élevés que l’investissement initial.
De plus, il a été annoncé que ChatGPT ne restera pas libre d’être utilisé à l’avenir librement comme aujourd’hui, et de grandes entreprises de technologies sont déjà prêtes à investir dans cet outil, comme Microsoft qui a déjà versé 3 milliards de dollars pour l’intégrer peut-être dans son moteur de recherche Bing ou sa suite office.