Voice deepfake: come fanno a ingannare gli utenti? 

Grazie all’Intelligenza artificiale, che ha combinato parti di una vecchia registrazione migliorandone la qualità audio, recentemente i Beatles hanno entusiasmato milioni di fan pubblicando una nuova canzone.
Inoltre, sempre di recente, Open AI ha presentato un modello di API Audio in grado di creare discorsi umani e messaggi vocali. Finora, è il software che si avvicina di più al vero linguaggio umano.

API Audio è in grado di riprodurre vocalmente il testo richiesto, consentendo agli utenti di scegliere fra una serie di opzioni vocali. Attualmente, non può essere utilizzato per creare voice deepfake, ma è indicativo del rapido sviluppo delle tecnologie di generazione vocale.
In futuro, questi modelli potrebbero diventare un nuovo strumento nelle mani dei criminali informatici. 

Un potenziale utilizzo nelle frodi estremamente elevato

Nonostante i deepfake e gli strumenti utilizzati per realizzarli non siano ancora ben sviluppati o diffusi, il loro potenziale utilizzo nelle frodi è estremamente elevato. E la tecnologia non smette di evolversi.
Oggi non esiste alcun dispositivo in grado di produrre voice deepfake di alta qualità, ovvero, che non sia distinguibile dal vero parlato umano.

Tuttavia, negli ultimi mesi sono stati rilasciati sempre più strumenti per generare la voce umana. Inoltre, se in precedenza gli utenti avevano bisogno di competenze almeno di programmazione di base, ora sta diventando più facile lavorare con questi strumenti
Insomma, a breve verranno sviluppati modelli che combineranno semplicità d’uso e qualità dei risultati.

Le tecnologie di protezione tardano a diffondersi

Le frodi che sfruttano l’Intelligenza artificiale per ora non sono frequenti, ma esistono già esempi di casi ‘riusciti’.
A metà ottobre del 2023, il venture capitalist americano Tim Draper ha avvertito i suoi follower su Twitter che i truffatori hanno usato la sua voce per alcune truffe.
In particolare, Tim Draper ha segnalato in un tweet che le richieste di denaro effettuate con la sua voce sono il risultato dell’Intelligenza artificiale.
Nonostante questo caso, finora però non si percepiscono i voice deepfake come una possibile minaccia informatica.
E poiché i casi in cui vengono utilizzati con intenzioni malevole sono pochissimi, le tecnologie di protezione tardano a diffondersi.

Come difendersi?

Per il momento, il modo migliore per proteggersi è ascoltare attentamente le parole dell’interlocutore al telefono. Se la qualità della registrazione è bassa, contiene rumori e la voce sembra robotica, non bisogna fidarsi delle informazioni ascoltate.
Un altro modo per testare ‘l’umanità’ dell’interlocutore è quello di porre domande insolite. Ad esempio, se l’interlocutore fosse un modello vocale, una domanda sul suo colore preferito lo lascerebbe perplesso, poiché non è quanto solitamente chiede la vittima di una frode. Il ritardo nella risposta renderà quindi chiaro che l’utente è stato ingannato.
Un’altra opzione è quella di installare una soluzione di sicurezza affidabile e completa. Sebbene non possa rilevare al 100% i voice deepfake, può aiutare gli utenti a evitare siti web sospetti, pagamenti e download di malware, proteggendo i browser e controllando tutti i file sul computer.