Una telefonata, la voce inconfondibile di sua figlia che implora aiuto: “Mamma, mio marito ha investito una donna e un bambino!”. Il panico, la disperazione e poi la richiesta di denaro per risolvere tutto.
La donna, terrorizzata, ha consegnato 30mila euro e gioielli d’oro a uno sconosciuto che si è spacciato per un avvocato. Solo più tardi, vedendo la figlia sana e salva, ha capito di essere stata vittima di una truffa tanto sofisticata quanto spietata: i criminali avevano clonato la voce della figlia usando l’intelligenza artificiale.
L’AI al servizio del crimine
Se il raggiro del “finto incidente” è noto da tempo, l’uso di software di clonazione vocale lo rende oggi ancora più credibile. Bastano pochi secondi di registrazione – presi da un messaggio vocale sui social o da una finta chiamata – per ricreare una copia quasi perfetta della voce di chiunque. Il risultato? Una trappola dalla quale è difficile difendersi, perché colpisce nel punto più debole: l’emozione.
L’arresto e il colpo di scena finale
La Procura della Repubblica di Treviso non ha lasciato impunito il crimine. Grazie a telecamere di sorveglianza, tracciamenti telefonici e testimonianze, è stato arrestato un 55enne campano, autore non solo di questa truffa ma anche di un altro colpo ai danni di una 93enne di Zero Branco. Quando i carabinieri hanno perquisito la sua residenza, hanno trovato un bottino da 40mila euro in contanti e gioielli.
Un monito per tutti
Luciana Gaiotto, dopo lo shock, ha trovato la forza di denunciare e oggi lancia un appello: “Denunciate, anche se provate vergogna”. Il suo coraggio ha permesso di smascherare il truffatore e di restituire il maltolto alle vittime.
L’episodio accende i riflettori su un nuovo, inquietante fronte del crimine digitale: se l’AI può replicare le nostre voci, come possiamo proteggere noi stessi e i nostri cari?