I ricercatori hanno scoperto che in determinate condizioni, l’AI non è poi così intelligente.
Grazie a centinaia di piccolissimi sensori e telecamere e al supporto di un potente computer di intelligenza artificiale, le auto a guida autonoma si orientano e si muovono da sole lungo le strade pubbliche. Per farlo in modo sicuro devono essere molto, ma molto intelligenti.
Nelle condizioni giuste, i sistemi di AI sono estremamente efficaci e rapidi, ma quando si trovano di fronte a un evento che non conoscono, non sanno come reagire e non sembrano più così intelligenti. Ad esempio, un’autovettura autonoma che costa decine di migliaia di euro può essere manomessa con del semplice nastro adesivo del valore di pochi centesimi, come vedremo di seguito.
Sapere cosa aspettarsi
Come un bambino che va a scuola, l’intelligenza artificiale ha bisogno di essere istruita o, come si dice nel gergo del settore, alimentata (feeding). I ricercatori danno in pasto al motore di AI migliaia di dati che vengono processati e utilizzati per imparare a guidare la vettura in modo autonomo. Questi dati comprendono milioni di fotografie e video che permettono all’auto di riconoscere gli altri veicoli, i segnali stradali e i pericoli che può trovare lungo il percorso.
In questo modo, l’intelligenza artificiale diventa molto efficace nel riconoscere gli elementi e gli eventi che corrispondono ai dati con cui è stata addestrata. Ad esempio, quando la macchina vede un cartello di limite di velocità, è in grado di frenare o accelerare di conseguenza. Tuttavia, se l’auto a guida autonoma trova un elemento sconosciuto, il sistema di AI esegue un calcolo basato sulla migliore stima possibile e qui è dove iniziano a spuntare i problemi.
Come un bambino che va a scuola, l’AI ha bisogno di essere istruita.
La differenza tra l’intelligenza umana e quella artificiale
A volte, gli elementi o le differenze inaspettate possono essere piccolissimi. Prendiamo ad esempio questo cartello:
È evidente che c’è qualcosa che non va in questo segnale e un essere umano è in grado di riconoscere il problema, isolare gli elementi di disturbo e leggere comunque il limite di velocità: 35 miglia all’ora. A differenza dell’uomo, nei casi come questo l’AI non è molto intelligente. I pezzi di nastro adesivo confondono l’acquisizione immagini delle telecamere della vettura: invece di “35”, l’auto legge “85” e accelera ben oltre il limite consentito.
Questo è solo uno dei tanti esperimenti che sono stati fatti per mettere alla prova le capacità di adattamento dell’AI, e hanno dato tutti risultati simili. Con pochi pezzi di nastro adesivo, è possibile alterare l’aspetto fisico di un segnale stradale e confondere la capacità di interpretazione dell’AI, che si basa su linee e forme apprese da immagini di “casi standard”. Il risultato finale è che il comportamento dell’auto a guida autonoma diventa più imprevedibile e pericoloso.
Tuttavia, la buona notizia è che gli esperti di dati sono al corrente di questi problemi e stanno lavorando a una soluzione. Purtroppo, come in tutti i settori della sicurezza informatica, c’è sempre un conflitto costante tra produttori e hacker: gli ingegneri cercano di trovare ed eliminare le vulnerabilità dei sistemi che creano, mentre i cybercriminali escogitano continuamente nuovi modi per sfruttarle.
LEGGI ANCHE: Il 5G e le smart city: pronti per vivere nelle città del futuro?
Un problema che non verrà risolto molto presto
Il punto è che l’intelligenza artificiale è una tecnologia potentissima ed estremamente efficace per svolgere compiti ben precisi e in condizioni previsibili e controllate. Al contrario, quando l’AI deve operare in un ambiente mutevole con elementi e condizioni sconosciute, anche il più piccolo cambiamento può mandarla in tilt, perfino del semplice nastro adesivo.
L’intelligenza artificiale è ormai una parte importantissima delle nostre vite e controlla moltissime funzioni e attività quotidiane. Per questo, in futuro vedremo sempre più metodi di manomissione dei sistemi informatici, e non solo delle autovetture autonome.
Quando l’AI deve operare in condizioni sconosciute, anche il più piccolo cambiamento può mandarla in tilt.
Tutto questo significa che dovremo aspettare ancora un po’ prima di poter delegare la guida dell’auto all’intelligenza artificiale. Inoltre, questi esempi pratici di come è possibile ingannare anche i più evoluti sistemi di machine learning ci insegnano che per quanto sia smart, a questa tecnologia manca una caratteristica essenziale dell’intelletto umano, ossia l’adattabilità. Quindi, almeno da questo punto di vista, i tempi in cui i robot non avranno più bisogno dell’intervento umano sono ancora molto, molto lontani.
Nel frattempo, ti consigliamo di continuare a informarti sul nostro blog e installare la nostra suite di cybersicurezza per proteggere la rete di casa tua e i tuoi dati personali.
Buona navigazione e buona attesa delle auto a guida autonoma!