Mentre l’UE approva l’AI Act, il Regno Unito continua a preferire un approccio liberista, ma alcune fonti dicono che potrebbe tornare sui suoi passi e scrivere un regolamento.
L’intelligenza artificiale è molto più di un chatbot o un assistente domestico: i nuovi sistemi di deep learning e IA generativa stanno causando un impatto enorme sulla società e, come tutte le tecnologie, potrebbero essere usate per limitare la libertà delle persone o aumentare la discriminazione invece di combatterla.
Per questi motivi, e su richiesta degli stessi cittadini europei, l’UE ha deciso nel 2021 di creare un regolamento sull’intelligenza artificiale, che è stato finalmente approvato a marzo 2024 e dovrebbe essere pubblicato nella sua versione definitiva entro poche settimane.
Il Regno Unito, invece, aveva scelto un approccio più liberista, puntando sull’autoregolamentazione del mercato, perché temeva che una legge sull’AI potesse limitare l’innovazione e lo sviluppo economico. Tuttavia, negli ultimi tempi ha rivalutato la propria strategia e ha iniziato a lavorare a un disegno di legge sull’intelligenza artificiale.
Questi due approcci a livello internazionale descrivono bene il dilemma a livello etico ed economico che accompagna l’AI, soprattutto dall’inizio della commercializzazione dell’AI generativa: legiferare o non legiferare? Controllare o liberalizzare?
In questo post parliamo dell’AI Act, del possibile cambiamento di rotta del Regno Unito, delle obiezioni (anche italiane) al regolamento sull’AI e di cosa ci aspetta in futuro. Buona lettura!
“Abbiamo collegato per sempre il concetto di intelligenza artificiale ai valori fondamentali che costituiscono la base delle nostre società.”
Dragos Tudorache, Correlatore della commissione per le libertà civili dell’UE
Approccio dell’Ue: AI Act
Pochi giorni fa, l’UE ha approvato la legge sull’intelligenza artificiale, il cui obiettivo principale è proteggere le persone dagli usi indebiti della tecnologia, che potrebbero limitarne la libertà e comprometterne la privacy.
L’AI Act nasce dalle richieste dei cittadini che hanno partecipato alla Conferenza sul Futuro dell’Europa (COFE) del 2021 e si basa sula classificazione dei sistemi AI per livello di rischio: più alti sono i rischi per le persone, più stringenti le norme e i controlli.
Ad esempio, un sistema a rischio basso, come un chatbot aziendale, dovrà rispettare solo alcuni requisiti di qualità e trasparenza, e dare la possibilità agli utenti di correggere o rimuovere i propri dati in modo facile e rapido.
Per contro, un sistema ad alto rischio come un’applicazione legata ai dati sanitari o alle procedure giuridiche, avrà molte limitazioni.
Infine, verrà istituita una categoria di applicazioni proibite, tra cui i sistemi di punteggio sociale (come il social scoring cinese), il riconoscimento delle emozioni e la sorveglianza in tempo reale (eccetto rarissimi casi di estrema necessità, ad esempio per prevenire un atto terroristico).
Con le parole del Correlatore della commissione per le libertà civili, Dragos Tudorache: “L’UE ha mantenuto la promessa. Abbiamo collegato per sempre il concetto di intelligenza artificiale ai valori fondamentali che costituiscono la base delle nostre società”.
Se vuoi, puoi scaricare e leggere il testo approvato dell’AI Act (in formato PDF)
Lasciar fare: l’approccio liberista del Regno Unito
UK, invece, ha preferito ascoltare le stesse voci che criticavano il progetto del regolamento europeo e aveva inizialmente deciso di non creare una legislazione apposita, con l’obiettivo principale di non limitare l’innovazione e promuovere al massimo l’eccellenza tecnologica nazionale.
In compenso, ha preferito stabilire 5 principi: sicurezza, trasparenza, equità, responsabilità e contestabilità. Sulla base di questi principi, il governo inglese creerà dei comitati che valuteranno i casi settore per settore.
In questo modo, secondo Michelle Donelan, Segretario di stato per la scienza, l’innovazione e la tecnologia: “adottando un approccio agile e specifico per ciascun settore, abbiamo iniziato a gestire immediatamente i rischi, il che a sua volta sta aprendo la strada affinché il Regno Unito diventi uno dei primi paesi al mondo a cogliere i benefici dell’IA in sicurezza”.
LEGGI ANCHE: Sicurezza IA generativa, Microsoft e OpenAI si uniscono
Differenze tra UE e UK
Come abbiamo accennato, la differenza principale risiede proprio nel fatto di dare la priorità alla sicurezza (Unione europea) o al progresso (Regno Unito). Pochi mesi fa, alcuni paesi europei, tra cui anche l’Italia, avevano espresso le loro preoccupazioni riguardo all’AI Act e al fatto che potesse limitare o rallentare l’innovazione, lasciando indietro i paesi europei rispetto ad altre grandi potenze mondiali con strutture normative molto più permissive.
UK ha preferito un approccio improntato al lasseiz-faire, secondo cui il mercato si autoregola e non è necessario un intervento dello stato. Tuttavia, alcune fonti vicine al governo inglese affermano che questa impostazione potrebbe presto cambiare e anche il Regno Unito potrebbe redigere un regolamento sull’IA.
Si tratta, insomma, di trovare un punto di equilibrio tra innovazione e sicurezza, tra progresso ed etica sociale, una cosa per nulla scontata e affatto facile, soprattutto in un contesto internazionale in cui le pressioni sono molte e su più versanti: ci sono i paesi che vogliono implementare sistemi di sorveglianza video in tempo reale, ci sono quelli che vogliono attrarre capitali e fare da incubatrici di startup, ci sono i movimenti che si preoccupano per i diritti delle persone, quelli preoccupati per le potenziali conseguenze catastrofiche di una tecnologia non regolamentata e quelli che invece applaudono l’intelligenza artificiale come il culmine della ricerca scientifica.
Fare contenti tutti è impossibile: l’Unione europea ha scelto di dare la priorità alla sicurezza e frenare fin da subito le Big Tech, mentre il Regno Unito, almeno finora, ha preferito farsi a un lato e rimanere a vigilare.
“Adottando un approccio agile e specifico per ciascun settore, abbiamo iniziato a gestire immediatamente i rischi, il che a sua volta sta aprendo la strada affinché il Regno Unito diventi uno dei primi paesi al mondo a cogliere i benefici dell’IA in sicurezza.”
Michelle Donelan, Segretario di stato per la scienza, l’innovazione e la tecnologia del Regno Unito
Impatto sulle persone e prospettive per il futuro
Ricapitolando, l’approccio rigoroso dell’UE potrebbe costituire uno svantaggio a livello di innovazione delle aziende europee, ma potrebbe anche convertirsi in un’arma vincente per l’affidabilità che offre. Lo stile anglosassone, invece, è più agile e adattabile, ma espone i cittadini a rischi di sicurezza e crea delle difficoltà a livello di cooperazione internazionale.
Ecco a cosa potremmo assistere in futuro:
- Aggiornamento continuo delle normative in base agli sviluppi delle varie tecnologie e al sorgere di nuovi casi d’uso.
- Pressioni del mercato per soddisfare la domanda dei consumatori di prodotti di IA innovativi ma anche sicuri e responsabili, per cui sia l’Ue che il Regno Unito dovranno modificare alcune norme e requisiti.
- Creazione di standard globali che permettano la collaborazione a livello internazionale e l’interoperabilità dei sistemi.
Nel complesso, è una buona cosa che ci siano paesi con approcci diversi, che comunicano tra loro e si nutrono reciprocamente di prospettive diverse dalla propria. In questo modo, il futuro non sarà una strada a senso unico, ma piuttosto una rete di sentieri che si incrociano spesso e percorribili in entrambe le direzioni, lasciando ai paesi e alle aziende la possibilità di cambiare rotta in base alle necessità emergenti.
CONTINUA A LEGGERE: IT Wallet, arriva il portafoglio digitale per i documenti personali
Buona navigazione e buona lettura della legge sull’intelligenza artificiale!