Meta è accusata di non tutelare la privacy dei minori e sfruttarli economicamente e psicologicamente.

Nel 2013, Carolina Picchio aveva 14 anni quando si è tolta la vita in seguito a vari episodi di cyberbullismo su Facebook. I compagni di scuola avevano postato commenti offensivi, foto e video per prenderla in giro.

Sfortunatamente, questo è solo uno dei tanti episodi di molestie e abusi dei minori online, in particolare sui social network. A questo proposito, l’UE ha varato alcune leggi per proteggere gli utenti e controllare in che modo le Big Tech trattano i loro dati e li proteggono dagli effetti nocivi delle nuove tecnologie.

In particolare, ai sensi del recente DSA (Digital Service Act), l’UE ha aperto un’indagine su Meta per stabilire se difende i minori, se rispetta la loro privacy e se offre strumenti efficaci per proteggerli da molestie, abusi e disinformazione.

In questo post parliamo del difficile rapporto tra Meta, social media e minori, dei problemi principali causati da queste aziende e di cosa possiamo fare per proteggere i nostri figli. Buona lettura!


Il 32% delle adolescenti americane ha riportato un peggioramento della propria immagine autopercepita a causa di Instagram.


Meta e i minori

Le piattaforme di Meta (Facebook, Instagram) svolgono un ruolo molto importante nella vita dei più giovani, perché sono onnipresenti e rappresentano ormai un canale di comunicazione e socializzazione fondamentale.

Tuttavia, se da un lato aiutano i minori a comunicare ed esprimersi costruendo una propria identità digitale. Dall’altro lato li espongono a tre grossi rischi: cyberbullismo, problemi di dipendenza e salute mentale e disinformazione.

Per questo motivo, tanto Meta quanto tutte le altre grandi aziende di tecnologia, sono ritenute responsabili dell’impatto sui giovani e sugli utenti in generale e l’Unione europea ha creato varie leggi per obbligarle ad agire in modo etico, in primis il GDPR (il regolamento generale sulla protezione dei dati) e il DSA (regolamento sui servizi digitali).

Le preoccupazioni dell’UE e di altre nazioni

Prima ancora dell’Unione europea, 32 stati degli USA si sono uniti per denunciare Meta di sfruttamento dei minori. Sull’onda di questo procedimento, la Commissione Europea ha avviato un’indagine approfondita su Meta per verificare se la società stia proteggendo adeguatamente i bambini sulle sue piattaforme social, come Facebook e Instagram.

L’indagine mira a determinare se Meta sta rispettando le normative sulla protezione dei minori e se le misure adottate sono sufficienti per garantire la sicurezza e il benessere dei giovanissimi. Questo intervento, inoltre, è parte di uno sforzo più ampio dell’UE per garantire un ambiente digitale sicuro per i bambini.

In particolare, l’UE vuole capire se Meta rispetta le norme del Digital Services Act (DSA), approvato nel 2022 ed entrato in vigore recentemente, che impone nuove regole molto severe per le piattaforme online, tra cui:

  • Protezione dei minori

    Il DSA richiede che le piattaforme adottino misure specifiche per proteggere i minori da contenuti inappropriati e potenzialmente dannosi. Questo include l’implementazione di strumenti di verifica dell’età e di impostazioni della privacy predefinite che limitano l’accesso ai dati personali dei minori.

  • Trasparenza

    Le piattaforme devono comunicare in modo chiaro il modo in cui moderano i contenuti e gestiscono i dati degli utenti. Inoltre, sono obbligate a rendere pubbliche le loro politiche di moderazione e i criteri utilizzati per la rimozione dei contenuti illegali o dannosi.

  • Obbligo di comunicazione istituzionale

    Le piattaforme che hanno più di 45 milioni di utenti nell’UE devono fornire periodicamente dei report sulle misure adottate per rispettare il DSA, inclusi i dettagli sulle azioni intraprese per proteggere i minori e prevenire la disinformazione.

L’indagine dell’UE su Meta ha l’obiettivo di verificare la conformità del gigante tecnologico a queste nuove regole e di valutare se le sue pratiche attuali siano sufficienti per garantire un ambiente online sicuro per i minori. Se Meta dovesse violare il DSA o non aver implementato misure di sicurezza sufficienti, potrebbe andare incontro a multe fino al 6% del fatturato annuale o al divieto di operare in Europa.

LEGGI ANCHE: Crittografia quantistica, la nuova frontiera della cybersecurity in Europa

Le preoccupazioni degli esperti

L’indagine dell’UE nasce non solo da motivi di conformità normativa, ma dalla preoccupazione espressa da molti esperti riguardo ad alcuni aspetti critici. Vediamoli insieme.

Comportamenti che causano dipendenza

Come abbiamo accennato, oltre 30 stati americani si sono uniti per intentare cause federali contro Meta, sostenendo che le sue piattaforme sono progettate in modo da creare dipendenza negli utenti, in particolare nei più giovani, in cui il sistema nervoso non è ancora del tutto formato.

In particolare, si fa riferimento al cosiddetto effetto “rabbit hole” (letteralmente tana di coniglio), per cui l’esperienza di utilizzo, ad esempio tramite lo scorrimento di feed infiniti, farebbe sì che gli utenti non riescano a staccarsi dai dispositivi e trascorrano troppo tempo online.

Le conseguenze sono molte: monetizzazione degli utenti e dei loro dati, esposizione a pubblicità mirate. Impoverimento delle abilità sociali, aumento di ansia, depressione e altre patologie psichiatriche nel pubblico, peggioramento dell’immagine autopercepita, riduzione del rendimento scolastico e molti altri ancora.

Privacy e protezione dei dati personali

La Commissione europea è preoccupata che Meta possa monetizzare in modo non responsabile i dati personali dei bambini e che non stia compiendo le promesse fatte riguardo all’implementazione di nuove misure più efficaci per il controllo e la protezione di questi dati.

Il problema è ampio e abbraccia anche la privacy degli utenti maggiorenni, ma nel caso dei minori la situazione è più pericolosa perché sono poco coscienti dei rischi e hanno meno competenze per gestire in modo responsabile la propria privacy.

Verifica dell’età

Meta afferma di aver adottato molte misure per verificare l’età dei suoi utenti e quindi applicare limiti o impostazioni speciali per i minori. Ma l’efficacia di queste misure è stata messa in discussione dall’UE e da molti esperti.

Ecco le novità più importanti a livello di verifica dell’identità:

  1. Video selfie e collaborazione con Yoti

    Meta sta testando l’uso di video selfie per verificare l’età degli utenti. Gli utenti possono caricare un video selfie che viene poi analizzato da Yoti, un’azienda specializzata in verifica dell’età che utilizza tecnologie di intelligenza artificiale. Questa tecnologia stima l’età basandosi su decine di parametri del volto e l’immagine viene eliminata dopo la verifica.

  2. Social vouching

    Un’altra opzione in fase di test permette agli utenti di chiedere a 3 persone di confermare la loro età. Queste persone devono essere maggiorenni e non devono aver confermato l’età di altri utenti recentemente. Questo metodo è stato progettato per aggiungere un ulteriore livello di verifica tramite la rete di contatti dell’utente.

  3. Richiesta di documenti di identità

    Gli utenti possono anche verificare la loro età caricando un documento di identità. Meta garantisce che i dati dei documenti vengono criptati e conservati in modo sicuro, e che vengono eliminati automaticamente dopo 30 giorni dall’avvenuta verifica.

Tuttavia, esperti e autorità hanno messo in discussione l’efficacia di questi strumenti. In particolare, le tecnologie di intelligenza artificiale e machine learning utilizzate per rilevare i comportamenti che suggeriscono un’età non dichiarata (minore di 18 anni) hanno mostrato limiti significativi.

Poi, la richiesta di documenti di identità per confermare l’età è stata implementata, ma è considerata invasiva e non sempre precisa. Infine, le collaborazioni con aziende specializzate come Yoti hanno migliorato la sicurezza, ma l’adozione di questi strumenti è ancora parziale.

Moderazione dei contenuti

Un altro punto importante è l’esposizione dei minori a contenuti inappropriati e offensivi, ad esempio pornografia, incitamento all’odio, disinformazione o contenuti che possono incidere negativamente sulla loro salute.

Per avere un’idea delle proporzioni di questo problema, il Wall Street Journal ha condotto uno studio approfondito su Facebook (The Facebook Files, in inglese) da cui è emerso che il 32% delle ragazze adolescenti ha riportato un peggioramento della propria immagine corporea a causa di Instagram.

Per quanto riguarda la disinformazione e le fake news, Facebook è tuttora considerata la piattaforma su cui vengono diffuse più fake news e contenuti di disinformazione, alcuni con intenti politici ben precisi, come nel caso degli account automatizzati di Facebook (e X) che pubblicano notizie false per influenzare i risultati delle elezioni europee.


Meta rischia una multa fino al 6% del fatturato annuale e il divieto di operare in Europa.


Prospettive future per Meta

Se l’indagine dovesse dimostrare che alcune delle preoccupazioni della Commissione europea sono fondate, Meta potrebbe andare incontro a conseguenze molto pesanti. Tanto per cominciare, i regolamenti europei prevedono sanzioni economiche fino a un 6% del fatturato annuale dell’azienda per la mancata conformità ai regolamenti generali.

Se poi il problema dovesse persistere o essere molto grave, l’UE potrebbe addirittura decidere di vietare l’accesso di Meta al mercato unico europeo, sebbene si tratti di una prospettiva poco probabile, date le implicazioni a livello economico e sociale.

Infine, se le misure di protezione e conformità non fossero considerate sufficienti, Meta potrebbe essere obbligata a modificare aspetti più sostanziali del suo funzionamento, come l’esperienza online sulle sue piattaforme o gli algoritmi.

In questo post abbiamo visto quali sono le maggiori preoccupazioni di esperti e autorità governative riguardo all’uso delle piattaforme Meta da parte dei minori. Abbiamo visto come ha risposto Meta e i dubbi sull’efficacia delle nuove misure. Ora, non resta che attendere i risultati dell’indagine della Commissione europea.

Nel frattempo, se i tuoi figli minorenni utilizzano Facebook, Instagram o altre piattaforme social online, ti consigliamo di informarti bene e utilizzare gli strumenti di parental control per proteggerli dalla minacce online, a partire dalla possibilità di sviluppare una dipendenza dai social network e dallo smartphone.

CONTINUA A LEGGERE: Sondaggio di cybersecurity, italiani primi in Europa per controllo dei figli online

Buona navigazione e buon uso responsabile delle piattaforme Meta!