Meta ha sospeso l’uso dei dati degli utenti per addestrare la propria AI; scopri cosa sta succedendo e cosa fanno le altre Big Tech.

Sulla base dei feedback degli enti regolatori, stiamo rimandando la modifica all’uso delle tue informazioni per sviluppare e migliorare l’AI di Meta. Questa modifica è presente nell’aggiornamento dell’Informativa sulla privacy del 26 giugno 2024. Prima di iniziare a usare le tue informazioni ti informeremo su come esercitare il diritto di opposizione.” 

Questa è la frase che si legge nel Centro sulla privacy di Meta, accessibile da tutte le sue piattaforme come Facebook o Quest. Che cosa significa? Meta ha ricevuto critiche da molte organizzazioni filogovernative e governi veri e propri per la mancanza di trasparenza sull’uso dei dati raccolti per addestrare l’AI.

Per questo, ha deciso di sospendere l’utilizzo finché non troverà un modo che rispetti i requisiti delle normative internazionali e – si spera – la privacy degli utenti.

In questo post vediamo come proteggere i dati personali dalle politiche di Meta e altre Big Tech e perché potrebbe avere senso negare il consenso all’utilizzo dei dati per l’addestramento dei modelli di AI. Buona lettura!

La politica di Meta sui dati degli utenti

Il 26 giugno 2024, Meta ha aggiornato la sua informativa sulla privacy informando gli utenti che per ora i loro dati non verranno utilizzati per addestrare l’AI e, quando lo saranno, agli utenti verranno fornite opzioni chiare e facili da usare per opporsi alla raccolta dei dati.

Questo aggiornamento è la conseguenza diretta delle critiche ricevute da governi e organizzazioni sull’uso di Meta di post, immagini e attività online degli utenti per migliorare la sua tecnologia AI. Il problema principale è che l’azienda ha scelto di basarsi sull’interesse legittimo anziché sul consenso esplicito degli utenti, una scelta controversa che ha innescato le reazioni di governi e associazioni che difendono la libertà e la privacy delle persone.


Meta ha colpito ancora: poco rispetto per le persone e iniziative inconsistenti camuffate da misure di salvaguardia della privacy.


Problemi di trasparenza e controllo

Tra queste organizzazioni, spicca l’organizzazione NOYB (None of Your Business, che in inglese significa “non sono fatti tuoi”), che ha espresso molte preoccupazioni riguardo alla trasparenza e al controllo sui dati raccolti da Meta. Secondo NOYB, la vecchia politica di Meta violava diversi articoli del GDPR (il Regolamento Generale sulla Protezione dei Dati). NOYB e altre organizzazioni si sono unite e hanno denunciato Meta in vari paesi, tra cui l’Italia.

I problemi principali dell’uso dei dati utenti di Meta sono:

  • Mancanza di trasparenza: Meta non ha fornito chiari e completi dettagli sugli scopi specifici per cui verranno utilizzati i dati.
  • Difficoltà di rimozione: gli utenti potrebbero non essere in grado di cancellare i propri dati una volta inseriti nel sistema.
  • Diritto di opposizione: sebbene Meta consenta agli utenti di opporsi all’utilizzo dei propri dati, il processo è complesso e poco chiaro.

Insomma, Meta ha colpito ancora: poco rispetto per le persone e delle normative vigenti e iniziative inconsistenti camuffate da misure di salvaguardia della privacy. Ricordiamo che, secondo il GDPR e tutti gli esperti digitali, uno dei principi base della conformità delle piattaforme online è l’accessibilità agli strumenti di controllo per i propri dati.

Se per riuscirci una persona deve fare 39 clic passando attraverso diversi passaggi di richieste e autenticazioni o con strumenti che richiedono competenze legali o informatiche avanzate, ebbene quel diritto non è rispettato davvero e l’azienda infrange il GDPR o i nuovi regolamenti dell’UE, tra cui il DSA, il DMA e presto anche l’AI Act.

LEGGI ANCHE: AI Act, Italia e UE divise su regolamentazione, trasparenza e sorveglianza

Motivi per cui opporsi all’uso dei dati personali

Diamo un’occhiata ai motivi per cui potresti negare il consenso alla raccolta dei tuoi dati personali per l’addestramento dell’AI di Meta.

Privacy e sicurezza dei dati

Utilizzare i post e le immagini degli utenti per addestrare l’AI può esporli a rischi significativi, come il doxxing (divulgazione di informazioni personali) e altre forme di abuso da parte di cybercriminali.

Uso commerciale dei dati

Meta utilizza i dati personali degli utenti per addestrare sistemi che potrebbero generare profitti enormi per l’azienda, senza nessun beneficio diretto per gli utenti stessi. Chi ci assicura che Meta non utilizzi i modelli di AI per perfezionare il targeting della propria pubblicità, soprattutto ora che i cookie di terze parti sono stati vietati?

Discriminazione algoritmica

Ci mancavano anche gli algoritmi a diffondere pregiudizi e discriminazione… I modelli linguistici come ChatGPT si basano su enormi set di dati, cioè sulle pagine e i documenti che trovano su internet, per cui alla fine i chatbot hanno un effetto tipo “cassa di risonanza”: i testi generati dai chatbot consolidano le opinioni più diffuse, impoverendo il dialogo, e riducono ulteriormente la rappresentazione di gruppi che hanno già pochissima visibilità, come il collettivo LGBTQ+.


OpenAI obbliga l’utente a fare una scelta quasi morale: vuoi proteggere la tua privacy? Ok, ma così non migliorerai il modello per tutti!


Come impedire a Meta di utilizzare i tuoi dati

Per ora, l’utilizzo dei dati è stato sospeso. Meta ne ha approfittato per fare un po’ di greenwashing, pubblicando una nuova informativa dove descrive con dovizia di particolari le sue mille iniziative per la privacy e la sua preoccupazione per la sicurezza degli utenti.

Quando uscirà la nuova informativa, basterà andare al Centro sulla Privacy di Meta. Scegliere la piattaforma da gestire e trovare l’opzione per negare il consenso all’utilizzo dei dati personali per addestrare l’intelligenza artificiale.

Come usano i dati le altre Big Tech

Non dobbiamo fare l’errore di demonizzare Meta, come se fosse la pecora nera in mezzo a un gregge di multinazionali virtuose.

Anche le altre aziende tecnologiche utilizzano i dati degli utenti per addestrare i loro modelli di intelligenza artificiale. E, chi più chi meno, cercano tutte di scoraggiare le persone da negare il consenso al trattamento dei dati.

Vediamo come bloccare l’elaborazione dei dati personali da parte delle principali Big Tech.

Adobe

Vai su https://account.adobe.com/privacy; nella sezioneAnalisi del contenuto per il miglioramento del prodotto, fai clic sul pulsante di attivazione/disattivazione Disattiva.

Se sei minorenne e non vedi l’impostazione di analisi del contenuto nelle preferenze del tuo account, significa che hai rinunciato automaticamente all’analisi del contenuto per il miglioramento del prodotto.

Google Gemini

È molto facile, ma nasconde un problema. Per opporti al trattamento dei tuoi dati per addestrare Gemini, devi aprire l’app sul browser, andare ad “Attività” e selezionare “Disattiva“.

Il problema è che in questo modo disattivi il salvataggio delle conversazioni, che è una funzionalità di base dei chatbot a cui molte persone non vogliono rinunciare. Da questo punto di vista, è una specie di dark pattern da parte di Google: vuoi opporti all’uso dei dati per l’addestramento? Non c’è problema, ma non potrai riprendere le conversazioni passate.

Insomma, siamo di fronte a un altro caso di implementazione ambigua, che sfrutta le necessità o i desideri degli utenti per dissuadere le persone dall’opporsi all’uso dei dati per l’addestramento dell’AI.

ChatGPT

Stessa cosa per il chatbot per eccellenza di OpenAI. Per impedire all’azienda di utilizzare i tuoi dati personali, devi andare a “Impostazioni” (in alto a destra), poi a “Controllo dati” e infine disattivare l’opzione “Migliora il modello per tutti“.

OpenAI è ancora più sfacciata di Google e obbliga l’utente a fare una scelta quasi morale: vuoi proteggere la tua privacy? Ok, questo significa che sei egoista e non vuoi migliorare il modello per tutti.

LinkedIn

Forse l’unica azienda che dice le cose come stanno. Per opporti all’uso dei dati per l’addestramento dell’AI, vai a Impostazioni > Privacy e disattiva l’opzione “Permetti che i large language model vengano addestrati con i tuoi contenuti“.

Per valutare meglio queste impostazioni, ricorda che, in qualità di utente, hai questi diritti: avere strumenti per controllare i tuoi dati; che questi strumenti siano facili da trovare e semplici da usare e che l’utilizzo per l’addestramento dell’AI sia disattivato per impostazione predefinita.

FAQ sulla protezione dei dati per l’AI

Ecco le risposte ad alcuni dei dubbi più comuni che potresti avere sull’AI di Meta, sull’uso dei tuoi dati personali e su come proteggere la tua privacy. Usala come una guida rapida a cui fare riferimento e, se manca qualcosa, chiedicelo nei commenti e saremo felici di aiutarti.

Meta può utilizzare i miei messaggi privati per addestrare l’AI?

 No, Meta ha dichiarato che non userà i messaggi privati per addestrare l’AI.

Come posso sapere se i miei dati sono utilizzati per addestrare l’AI?

Meta deve informare gli utenti se i loro dati vengono utilizzati. Per ora, l’utilizzo è sospeso.

Cosa posso fare se Meta rifiuta la mia richiesta di opposizione?

Se hai presentato una richiesta esplicita a Meta per opporti all’uso di dati inseriti prima della modifica dell’informativa della privacy, ti consigliamo di presentare una denuncia al Garante per la protezione dei dati personali.

Dipende da tutti noi, come utenti dei social media, denunciare le violazioni dei nostri diritti. Inoltre, le autorità italiane ed europee hanno già dimostrato di poter intervenire in situazioni simili e hanno anche la mano piuttosto dura.

Quali altre aziende utilizzano i dati degli utenti per l’AI?

Come abbiamo visto, oltre a Meta, aziende come Adobe, Google e LinkedIn utilizzano i dati degli utenti per addestrare i loro modelli AI. Ma sono solo alcuni esempi; l’elenco è praticamente infinito, perché l’utilizzo di modelli personalizzati di AI sta diventando la prassi nelle grandi aziende multinazionali.

Come posso proteggere i miei dati personali online?

Utilizza le impostazioni di privacy avanzate, disattiva l’analisi dei contenuti quando è possibile e usa strumenti di sicurezza affidabili. In futuro, quando ci sarà più concorrenza in questo settore, potresti utilizzare un chatbot più etico e trasparente.

Che cosa sono i dark pattern e come influenzano il controllo sui dati?

I dark pattern sono tecniche di design (in questo caso di progettazione dei siti web e delle app) che spingono gli utenti a compiere determinate azioni o li dissuadono dal compierle. Nell’ambito dell’addestramento dell’AI, le aziende come Meta creano dark pattern che scoraggiano le persone quando vogliono opporsi all’uso o ne distolgono l’attenzione affinché abbandonino la procedura prima di completarla.

Posso ricevere una notifica sui cambiamenti delle politiche di privacy delle aziende?

Iscriviti alle newsletter delle aziende e leggi le notizie e ultime tendenze sulla privacy nel nostro blog.

Quali sono i rischi di sicurezza associati all’uso dei dati per l’AI?

I rischi principali sono l’esposizione involontaria dei dati personali, il doxxing e la discriminazione algoritmica.

Che ruolo hanno le autorità di regolamentazione nella protezione dei dati?

Gli enti di regolamentazione, come il Garante per la protezione dei dati personali, monitorano e applicano le normative sulla privacy per proteggere gli utenti. Raccolgono denunce e presentano report sull’attività delle aziende con cui giustificare richieste particolari e, nei casi più gravi, sanzioni economiche.

Cosa potrebbe fare Meta con i miei dati?

Meta analizza migliaia di parametri diversi, dal tempo che trascorri in un’app ai movimenti oculari quando usi un visore VR in Quest. Con questi dati può migliorare i suoi servizi e prodotti. Ma anche creare dipendenza in chi li usa, trattenere le persone all’interno del proprio ecosistema digitale e perfezionare i propri strumenti di pubblicità automatizzata per mostrare annunci più persuasivi alle persone.

Ricapitolando, Meta fa in modo che per le persone sia complicato opporsi all’uso dei dati personali per addestrare l’AI e questo ha suscitato le critiche di governi e associazioni. Così, per ora, ha sospeso l’uso per evitare sanzioni o un impatto negativo sulla propria reputazione.

I tuoi dati personali sono la valuta con cui paghi indirettamente per i servizi offerti gratuitamente da aziende come Meta e Google, e i regolamenti come il GDPR mirano proprio a limitare questo sfruttamento indiretto.

Se Meta non dovesse cambiare il proprio approccio e aiutare davvero gli utenti ad avere più controllo sui propri dati, potrebbe ricevere multe molto salate e limitazioni nello Spazio economico europeo.

CONTINUA A LEGGERE: Aggiornare programmi e dispositivi, perché è importante

Buona navigazione e buon controllo di come vengono usati i tuoi dati!