Scopriamo insieme cos’è la disinformazione creata dalle app di AI, perché è pericolosa e come proteggerci online!
In poco meno di un anno, con il lancio di ChatGPT, l’AI generativa ha monopolizzato le conversazioni di tecnologia e informatica. Le nuove applicazioni di intelligenza artificiale ci aiutano a svolgere molti compiti e migliorarne la qualità, dall’ottimizzazione della logistica alla scrittura di testi, fino alla diagnosi medica basata su immagini.
Tuttavia, sappiamo già che queste comodità hanno un prezzo da pagare: c’è chi ha paura di perdere il lavoro a causa di ChatGPT, c’è chi teme per la propria privacy e, infine, c’è chi è preoccupato dagli effetti della disinformazione creata dall’AI generativa.
In questo post parliamo proprio di questo: vediamo cos’è la disinformazione, perché i programmi come ChatGPT sono pericolosi da questo punto di vista, quali sono le conseguenze sulla società e cosa si può (o si deve) fare per risolvere questi problemi e proteggere le persone. Continua a leggere!
La disinformazione
Con la parola disinformazione si fa riferimento a tutte le informazioni false, incomplete o imprecise che vengono diffuse inconsapevolmente o apposta per influenzare le opinioni e il comportamento delle persone.
Oggi, su internet, associamo questa parola ad altre espressioni molto diffuse come fake news, bufale online, deepfake e così via. Tuttavia, questo fenomeno è diventato un problema ancora più serio da quando ci si è messa anche l’intelligenza artificiale generativa (come ChatGPT) a creare disinformazione.
L’AI generativa utilizza grandi volumi di dati presi da internet per capire come sono fatti testi, immagini e video e riprodurli seguendo la stessa struttura. Il chatbot di ChatGPT, ad esempio, segue le regole della grammatica, dello stile e di composizione dei contenuti con cui è stato addestrato ed è in grado di scrivere un post per un blog o una notizia breve per un mezzo di comunicazione online.
Il problema è che tra tutti questi dati ci sono anche notizie false e che, a seconda di cosa e come viene chiesto all’AI, è possibile ottenere un contenuto falso ma verosimile e poi diffonderlo online, con un impatto considerevole sull’opinione pubblica.
LEGGI ANCHE: Breve guida all’intelligenza artificiale
La disinformazione creata dall’AI
A prima vista, sembrerebbe semplicemente che ChatGPT e gli altri programmi di AI riproducono quello che può fare una persona e che è stato fatto per tanti anni, ovvero manipolare l’informazione, ma il problema è più complesso:
- I chatbot consentono di produrre velocemente grandi quantità di disinformazione e, tramite altri programmi, di automatizzarne la pubblicazione online moltiplicando l’impatto sulle persone.
- I media più pericolosi sono le immagini e i video manipolati, che hanno un potere persuasivo superiore agli articoli e possono raggiungere un pubblico molto vasto in pochissimo tempo (e sono anche più difficili da riconoscere).
- Si è creato un problema relativamente alla responsabilità e alla proprietà delle informazioni. Chi le controlla? Chi può o deve moderare i contenuti? Come si fa a rettificare un’informazione? Chi risarcisce le persone che hanno subito dei danni a causa di un contenuto falso generato dall’AI?
- Paradossalmente, l’intelligenza artificiale viene utilizzata anche per riconoscere la disinformazione e i media manipolati, in quanto commette meno errori rispetto a un essere umano, ma chi deve occuparsi di queste applicazioni?
- L’AI utilizza dati senza verificare le fonti, per cui in molti casi è impossibile risalire dal contenuto finale alle informazioni originali.
Queste sono le caratteristiche principali del problema della disinformazione online creata dall’IA generativa. Per capire meglio perché queste sfide devono essere superate nei prossimi mesi e anni, diamo un’occhiata all’impatto che hanno sulle persone.
Un effetto devastante della disinformazione è la diffusione di un sentimento generale di diffidenza nei confronti dell’informazione, che porta le persone a non sapere più a chi credere.
Impatto sociale della disinformazione AI
A volte la disinformazione è solo la conseguenza inconsapevole di errori durante la raccolta e la presentazione delle informazioni, come succede per le notizie di cronaca che vengono pubblicate prima di essere state verificate per battere sul tempo le altre testate.
Molto più spesso, però, la disinformazione è un mezzo per manipolare l’opinione pubblica, usato sapientemente da professionisti dell’informazione di vari ambiti, ad esempio nella politica o nel marketing.
Vediamo come le notizie false e la disinformazione nuocciono alle persone e al dibattito pubblico:
- Effetto di risonanza: le informazioni persuadono perché mettono in moto dei meccanismi innati nelle persone; uno di questi è l’effetto di risonanza, ovvero le fake news possono amplificare altre notizie simili, rafforzando certe opinioni nel pubblico.
- Pregiudizio di conferma: un altro fenomeno simile è quello della conferma di opinioni esistenti, che cognitivamente è un processo molto più potente e rapido rispetto alla revisione delle proprie convinzioni.
- Prova sociale: questo meccanismo ampiamente studiato dalla psicologia sociale si attiva nel momento in cui troviamo una notizia online, ad esempio su un portale informativo o tra i commenti su un social media. Il nostro cervello lo interpreta come una prova dell’opinione accettata socialmente e le conferisce più credibilità.
- Manipolazione emotiva: i contenuti multimediali hanno la capacità di manipolare le nostre opinioni facendo leva sulle emozioni, sia tramite ciò che viene mostrato sia attraverso il modo in cui vengono presentati i fatti, ad esempio con una musica triste o con immagini esplicite ripetute varie volte.
- Personalizzazione: le applicazioni di AI sono in grado di personalizzare rapidamente e a fondo i contenuti, rendendoli molto pertinenti agli interessi di certe categorie di persone e quindi ottenendo un effetto persuasivo maggiore.
- Diffondere il dubbio: ancora prima di convincere le persone a credere a una notizia, un effetto devastante della disinformazione è la diffusione di un sentimento generale di diffidenza nei confronti dell’informazione, che porta le persone a non sapere più a chi credere.
Vari studi recenti hanno dimostrato che, a causa di questo fenomeno, le persone iniziano a dubitare anche di fatti dimostrati scientificamente, com’è successo con l’utilità e la sicurezza dei vaccini durante la pandemia. Un clima generale di diffidenza genera insicurezza e paura, che possono essere sfruttate per scopi politici o per diffondere determinate narrative e teorie.
Questi sono i meccanismi alla base della persuasione che la disinformazione sfrutta per modificare l’opinione pubblica, ad esempio per rovinare la reputazione di un politico, influenzare i risultati delle elezioni o ripulire l’immagine di una marca dopo uno scandalo.
Esempio di disinformazione tramite AI generativa
Facciamo un esempio concreto per vedere come influisce la disinformazione generata dall’AI sul pubblico. Prendiamo il caso del deepfake di Donald Trump diffuso a marzo 2023 da Eliot Higgins, il fondatore della piattaforma di giornalismo investigativo Bellingcat.
Fonte: BBC News, questa immagine non è reale, ma generata con il programma di intelligenza artificiale Midjourney.
Higgins ha dichiarato di aver diffuso questa immagine per scherzo e per dimostrare gli effetti dei deepfake sull’opinione pubblica. In pochissimo tempo, la foto è diventata virale e le persone hanno iniziato a condividerla senza verificare l’attendibilità della notizia. Di fatto, alcuni media meno seri hanno pubblicato perfino una notizia sul presunto arresto dell’ex presidente degli Stati Uniti.
Dopo pochissimo tempo, è seguita la smentita della veridicità della foto da parte di chi l’aveva pubblicata, ma l’effetto di risonanza è durato ancora per alcuni giorni e il dibattito sociale, soprattutto sui social media, è stato influenzato da questa immagine, ovviamente con un ritorno negativo sulla reputazione di Donald Trump.
Una cosa da sottolineare è la permanenza dei contenuti online: anche dopo le dovute smentite, i contenuti rimangono online ed è impossibile localizzarli ed eliminarli tutti. Per questo, l’impatto della disinformazione creata tramite AI è enorme e difficile da stimare, dato che continua a influenzare l’opinione pubblica anche a distanza di mesi.
Infine, vale la pena menzionare un altro aspetto caratteristico della comunicazione online, che rende la disinformazione ancora più efficace, come nel caso di questo deepfake di Trump: i contenuti online vengono visualizzati rapidamente e superficialmente, spesso su schermi piccoli come quelli dello smartphone e mentre le persone fanno altre cose, per cui l’attenzione e la capacità critica non sono ai livelli necessari per analizzare i media nel modo corretto.
Di conseguenza, è ancora più facile influenzare l’opinione pubblicare con contenuti multimediali come questa foto, che a un’analisi più attenta rivelano delle imperfezioni, ma che nella normalità del consumo quotidiano online non vengono notate.
L’impatto della disinformazione creata tramite AI è enorme e difficile da stimare, perché continua a influenzare l’opinione pubblica anche a distanza di mesi.
Come proteggersi dalla disinformazione causata dall’AI
Premettiamo che servono delle leggi dettagliate per regolamentare l’utilizzo dell’AI e stabilire le conseguenze dei comportamenti non appropriati. Inoltre, è necessaria la collaborazione tra utenti finali, aziende ed enti pubblici (ovviamente resa obbligatoria a livello legale).
Detto questo, ecco cosa puoi fare per proteggerti dagli effetti della disinformazione generata dall’AI:
- Informati regolarmente con articoli come questo, che descrivono il funzionamento dell’AI e le minacce per la sicurezza online.
- Adotta un atteggiamento critico nei confronti delle informazioni, ma non di completa diffidenza. Le fonti ufficiali vanno considerate affidabili, così come il metodo scientifico e le notizie presentate da giornalisti professionisti.
- In caso di dubbi, verifica le informazioni e fai ricerche online sulle fonti e sul mezzo di comunicazione che pubblica il contenuto.
- Utilizza i siti di fact-checking, specialmente quando una notizia sembra sospetta o non è accompagnata da molte informazioni.
- Fai attenzione ai segnali caratteristici dei deepfake: zone delle immagini di bassa qualità, movimenti scattosi, elementi sproporzionati rispetto al resto dell’immagine, soprattutto per le parti del corpo, mani e piedi sfocati o deformi (l’AI generativa ha dei grossi problemi con le estremità del corpo umano), incongruenze nell’illuminazione, audio non sincronizzato con i movimenti della bocca e del viso e altri ancora.
In questo post abbiamo visto in cosa consiste la disinformazione creata tramite intelligenza artificiale generativa, come agisce sulle persone e quali sono i rischi. Abbiamo visto l’esempio concreto di un deepfake di Donald Trump diffuso qualche mese fa e abbiamo concluso con dei consigli pratici per riconoscere e proteggerci dalla disinformazione, in particolare da quella generata dall’AI.
Nei prossimi anni, verranno introdotte nuove leggi per regolamentare l’utilizzo dell’AI e proteggere le persone, ma è chiaro fin da adesso che la responsabilità finale di difendersi dalla persuasione online ricade sul singolo utente, e con il perfezionarsi delle tecnologie sarà sempre più importante coltivare la propria cultura della sicurezza online.
CONTINUA A LEGGERE: Sondaggio sulla cybersicurezza europea di Panda Security
Buona navigazione e buona protezione dalla disinformazione dell’AI!