L’Union européenne tente d’élaborer une législation historique en matière d’intelligence artificielle, pendant que chaque jour voit arriver de nouveaux outils ultra sophistiqués comme récemment comme ChatGPT qui bousculent et compliquent ses tentatives pour tenter de réglementer cette nouvelle technologie.
Ce n’est pas nouveau, l’UE travaille depuis des années déjà pour réglementer le secteur et être la première du monde à instaurer une législation sur l’IA, dans le but de devenir leader de la course à l’innovation en garantissant la sécurité des droits et des utilisateurs.
La Commission a présenté son projet en avril 2021 et compte bien adopter le texte d’ici peu, en commençant les négociations entre les 27 pays membres au plus tôt car, avec les élections européennes, le projet risque de prendre du retard, voire de ne pas voir le jour, plaçant le sujet après d’autres priorités.
Le commissaire européen au Marché intérieur, Thierry Breton, a toutefois rassuré, indiquant que les trois institutions de l’UE travaillaient déjà ensemble pour « clarifier davantage les règles » sur les technologies de type ChatGPT.
Le cas ChatGPT
La société californienne OpenAI a créé ChatGPT, un générateur de contenus rédactionnels capable de répondre rapidement à des questions complexes, d’écrire des poèmes, ou encore de rédiger des articles scientifiques en plusieurs langues. Toutefois, certains décideurs politiques s’inquiètent de la possibilité que ce type d’outil puisse être utilisé à des fins de désinformation.
ChatGPT n’est qu’un exemple du potentiel des intelligences artificielles à usage général (ou GPAIS pour General Purpose AI System). Ces systèmes sont capables d’accomplir une grande variété de tâches, notamment les IA génératives, qui peuvent créer des contenus originaux (images, texte) à partir de données existantes. Cela soulève des préoccupations quant aux risques liés à leur utilisation, ce qui a conduit les députés européens Dragos Tudorache et Brando Benifei, co-rapporteurs du texte, à proposer des obligations pour les intelligences artificielles à usage général.
Ces obligations ne figuraient pas dans la proposition initiale de la Commission européenne et ont été présentées la semaine dernière dans un document. Les législateurs ont proposé de classer les différents outils d’IA en fonction de leur niveau de risque perçu, allant de « faible » à « inacceptable ». Les gouvernements et les entreprises qui utilisent ces outils auront alors des obligations différentes en fonction du niveau de risque.
Cependant, la question est de savoir si toutes les formes de GPAIS seront considérées comme présentant un « risque élevé », et ce que cela signifierait pour les entreprises technologiques qui cherchent à intégrer l’IA dans leurs produits.
Le règlement proposé aurait un champ d’application étendu et régirait toute personne qui fournit un produit ou un service utilisant l’intelligence artificielle. Il concernerait les systèmes qui peuvent générer des résultats tels que du contenu, des prédictions, des recommandations ou des décisions qui peuvent influencer notre environnement.
L’AI Act fonctionnera également en tandem avec d’autres lois telles que le règlement général sur la protection des données (RGPD).
Les outils d’intelligence artificielle considérés comme présentant un risque élevé seront soumis à des évaluations rigoureuses des risques, devront enregistrer leurs activités et mettre les données à la disposition des autorités afin qu’elles puissent les examiner. Cela pourrait entraîner une augmentation des coûts de mise en conformité pour les entreprises.
Parmi les catégories d’outils d’IA considérées comme présentant un « risque élevé », on trouve notamment les domaines de l’application de la loi, de la migration, des infrastructures critiques, de l’éducation et de l’administration de la justice. Au niveau le plus haut, celui de « l’inacceptable », les outils seront tout simplement interdits.
Le problème le plus crucial sera la capacité à faire appliquer la loi, avertit Kris Shrishak, responsable des technologies au Conseil irlandais pour les libertés civiles. Il est donc essentiel que le Parlement européen renforce cet aspect. Le projet prévoit que les entreprises qui enfreignent la loi s’exposent à des amendes pouvant aller jusqu’à 30 millions d’euros ou 6% des bénéfices mondiaux.
L’AI Act prévoit également des mesures de transparence et d’explicabilité, qui devraient permettre aux utilisateurs de comprendre comment les systèmes d’IA prennent leurs décisions et génèrent leurs résultats. Cela est particulièrement important pour les décisions qui ont un impact significatif sur les individus, comme les décisions de crédit ou les décisions judiciaires.
Cependant, certains experts ont critiqué ces mesures, estimant qu’elles ne vont pas assez loin pour garantir une transparence et une responsabilité suffisantes.
Une autre préoccupation a été émise : les exigences de conformité pourraient être trop lourdes pour les petites entreprises et les startups, qui pourraient avoir du mal à se conformer aux exigences de l’AI Act. Cela pourrait entraîner une concentration du marché entre les grandes entreprises qui ont les ressources nécessaires pour se conformer aux règles et les startups qui ne le peuvent pas.
Malgré ces préoccupations, le règlement est généralement considéré comme une étape importante pour réglementer l’utilisation de l’IA en Europe. Il est probable que d’autres pays et régions du monde suivront l’exemple de l’UE et adopteront des règles similaires pour réglementer l’utilisation de l’IA à l’avenir.
En fin de compte, l’AI Act pourrait avoir un impact significatif sur l’industrie de l’IA et sur la manière dont elle est utilisée dans le monde entier. Les entreprises devront être prêtes à s’adapter aux nouvelles règles et à investir dans la conformité pour éviter les amendes potentiellement lourdes. Les consommateurs pourront avoir plus de confiance dans l’utilisation de l’IA, sachant qu’elle est réglementée et contrôlée de manière appropriée.