Le Royaume-Uni pourrait ne plus suivre longtemps sa stratégie pro-innovation et laissez-faire. La montée en puissance de l’intelligence artificielle (IA) a déclenché une frénésie réglementaire à travers le monde, et l’Europe (UE) est à l’avant-garde de ces développements. 

L’UE et le Royaume-Uni tentent de trouver le juste équilibre entre tirer parti de la croissance de l’IA et atténuer les risques potentiels, mais leurs approches diffèrent considérablement. 

La première a opté pour une approche pratique basée sur les risques, tandis que la seconde a promis une attitude « pro-innovation ». Cependant, avec l’annonce que le gouvernement britannique prépare de nouvelles règles pour réglementer la technologie, cela pourrait bientôt changer.

L’approche plus stricte et plus prudente de l’UE est clairement visible dans la loi sur l’IA, la première loi complète au monde sur l’intelligence artificielle.

L’Acte sur l’IA de l’UE : une approche rigoureuse et prudente

La loi de l’UE adopte une approche descendante et horizontale qui définit des obligations claires de conformité pour toutes les applications et tous les secteurs. Elle crée également le Bureau européen de l’IA, chargé de superviser la mise en œuvre de la loi.

La stratégie britannique : flexibilité et sectorialité

En revanche, le Royaume-Uni n’a pas encore opté pour une législation sur mesure. Il a plutôt proposé un cadre de lignes directrices pour les organismes de réglementation existants. À cette fin, le gouvernement a engagé 10 millions de livres sterling pour préparer et former les régulateurs afin qu’ils puissent évaluer les opportunités et les risques associés à la technologie.

Le Royaume-Uni suit également une stratégie verticale visant à évaluer les risques secteur par secteur sur la base de cinq principes :

  • Sécurité, sûreté et robustesse.

  • Transparence et explicabilité appropriées.

  • Équité.

  • Responsabilité et gouvernance.

  • Contestabilité et réparation.

« En adoptant une approche agile et spécifique à chaque secteur, nous avons commencé à maîtriser immédiatement les risques, ce qui ouvre la voie pour que le Royaume-Uni devienne l’un des premiers pays au monde à bénéficier en toute sécurité de l’IA », a déclaré Michelle Donelan, secrétaire d’État à la Science, à l’Innovation et à la Technologie, en février.

L’approche basée sur les risques de l’UE

Les législateurs de l’UE, quant à eux, croient qu’une approche basée sur les risques et la promotion d’une IA digne de confiance débloqueront l’avantage concurrentiel de l’Europe.

Les règles du bloc ciblent les systèmes d’IA en fonction des niveaux de risque : inacceptable, élevé, limité et minimal. Les outils d’IA menaçant la sécurité et les droits humains, comme la notation sociale, sont considérés comme inacceptables et sont donc totalement interdits.

Pour les autres catégories, le concept est simple : plus le risque est élevé, plus les règles sont strictes. Les systèmes à haut risque incluent, par exemple, les technologies d’IA pouvant être utilisées dans l’application de la loi, les soins de santé et les infrastructures critiques.

La loi sur l’IA s’applique à toutes les entreprises d’IA (à l’intérieur ou à l’extérieur de l’UE) faisant des affaires dans le bloc. Les violations des règles peuvent entraîner des amendes pouvant aller jusqu’à 7 % du chiffre d’affaires mondial d’une entreprise.

En revanche, le Royaume-Uni cible actuellement des accords volontaires sur la sécurité de l’IA avec des entreprises et des pays clés.

Légiférer ou ne pas légiférer ?

Les critiques ont exprimé des préoccupations concernant la loi sur l’IA, craignant que les règles strictes n’entravent l’innovation. Les entreprises européennes ont également soulevé des objections, avertissant que l’UE pourrait perdre sa compétitivité dans le domaine.

Mais le Royaume-Uni pourrait également s’écarter de sa stratégie pro-innovation et laissez-faire avant longtemps. Le gouvernement commence à rédiger sa propre législation sur l’intelligence artificielle, ont rapporté des sources proches du dossier au Financial Times. 

La réglementation limiterait probablement le développement des grands modèles de langage (LLM) et exigerait des entreprises développant des IA avancées de partager leurs algorithmes avec le gouvernement.

Les préoccupations connexes vont des usages potentiels à la manipulation du marché. « Le défi essentiel auquel nous sommes confrontés est de savoir comment exploiter cette technologie immensément excitante au bénéfice de tous. Tout en se protégeant contre l’exploitation potentielle du pouvoir de marché et les conséquences non intentionnelles ». A déclaré Sarah Cardell, PDG de l’Autorité de la concurrence et des marchés (CMA) du Royaume-Uni.

Alors que l’UE et le Royaume-Uni poursuivent leurs chemins divergents dans la réglementation de l’IA, il reste à voir quelle approche s’avérera la plus efficace pour promouvoir l’innovation tout en protégeant les intérêts publics. 

Lire aussi: Intelligence Artificielle et préjugés sexistes : l’UNESCO alerte