Vedere non è più credere: proteggersi nell’era dell’IA

In occasione della Giornata Mondiale per la Sicurezza in Rete, una guida per riconoscere e difendersi dalle frodi generate dall'intelligenza artificiale
Tre secondi di audio. Tanto basta oggi a un software per replicare la voce di chiunque con l'85% di accuratezza. A febbraio 2024, un dipendente di una multinazionale a Hong Kong ha autorizzato quindici bonifici per 25 milioni di dollari dopo una videochiamata con il direttore finanziario e alcuni colleghi. Erano tutti generati dall'intelligenza artificiale, volti e voci compresi.
Facciamo un passo indietro nel tempo, negli anni Cinquanta. A Dartmouth, un gruppo di ricercatori americani immaginava macchine capaci di pensare. Quasi settant'anni dopo, quelle macchine hanno imparato ad assisterci e a moltiplicare le nostre capacità, ma anche a ingannare. Il 10 febbraio si celebra la Giornata Mondiale per la Sicurezza in Rete: il tema scelto nel Regno Unito, "Smart tech, safe choices", invita a riflettere sull'uso responsabile dell'IA. I numeri suggeriscono che la riflessione è urgente.
Per capire quanto velocemente stia cambiando il panorama, basta guardare l'evoluzione dei deepfake. Nel quinquennio 2017-2022 gli incidenti registrati erano 22. Nel solo primo trimestre del 2025 ne sono stati segnalati 179, più dell'intero anno precedente. Uno studio McAfee racconta che un adulto su quattro ha già ricevuto un tentativo di truffa con voce clonata. E l'Italia non fa eccezione: secondo il report "AI Threat Landscape" di Maticmind, quattro incidenti informatici gravi su dieci, tra quelli registrati nel primo semestre 2025, hanno coinvolto strumenti di intelligenza artificiale generativa. Solo un anno fa le frodi basate su IA pesavano lo 0,3% del totale. Oggi siamo al 5%, e le proiezioni parlano di un 60-70% nei prossimi quattro anni.
Le tecniche si sono affinate. La clonazione vocale, un tempo riservata a laboratori specializzati, è oggi accessibile a chiunque: bastano pochi secondi di registrazione, magari presi da un video sui social, per generare una replica convincente. I truffatori la usano per fingersi familiari in difficoltà o dirigenti che richiedono bonifici urgenti. In Italia sono stati segnalati casi di voci clonate per impersonare operatori bancari e ottenere codici di accesso. Un episodio ha coinvolto perfino la voce del ministro della Difesa, utilizzata per tentare di estorcere denaro a imprenditori.
I deepfake video aggiungono un ulteriore livello di credibilità. Le videochiamate, fino a ieri considerate una verifica affidabile, possono oggi essere manipolate in tempo reale. Il caso di Hong Kong lo dimostra: la vittima credeva di parlare con più colleghi, tutti presenti sullo schermo. Nessuno di loro esisteva.
Chi è più esposto? Gli anziani e le persone meno familiari con la tecnologia restano i bersagli principali, soprattutto per le truffe telefoniche. I più giovani, però, scontano un bias di overconfidence: la familiarità con la tecnologia alimenta una sicurezza che abbassa le difese. Un dato fa riflettere: secondo un'indagine Sift, un terzo dei consumatori è convinto di saper riconoscere una truffa generata dall'IA. Eppure, tra chi ha subito un tentativo, più di uno su quattro è caduto nella trappola.
Come difendersi? La prima regola è verificare sempre su un canale separato. Se ricevete una richiesta urgente di denaro da un familiare, richiamatelo sul numero che conoscete. Stabilite una parola d'ordine con i vostri cari, qualcosa di semplice da ricordare ma impossibile da replicare per un software. Diffidate delle richieste che fanno leva sull'urgenza e sulla segretezza: sono le leve psicologiche preferite dai truffatori. Esistono già strumenti di rilevamento, anche se nessuna tecnologia è infallibile.
Ma le contromisure tecniche, da sole, non bastano. Il vero antidoto è la conoscenza. Capire come funziona una voce clonata, sapere che un video può essere generato in tempo reale, riconoscere i segnali di una manipolazione: questa consapevolezza cambia il modo in cui reagiamo a una richiesta sospetta. L'alfabetizzazione sull'intelligenza artificiale non è più una competenza riservata agli addetti ai lavori. È diventata una forma di autodifesa, al pari della capacità di riconoscere una mail di phishing o un sito fraudolento. Chi comprende la tecnologia è meno incline a fidarsi ciecamente di ciò che vede e sente.
Il paradosso è che proprio l'IA può aiutarci a difenderci dall'IA. Esistono già sistemi che analizzano audio e video per individuare anomalie invisibili all'occhio umano. Ma anche questi strumenti funzionano meglio se chi li usa sa cosa cercare. L'intelligenza artificiale può essere un alleato formidabile, ma richiede consapevolezza.
Conoscere per difendersi: forse è la lezione più importante che l'era dell'IA ci sta insegnando.
A cura di Natascia Angelini


