Il nipote la chiama e le chiede denaro. Ma la voce in realtà è di un computer

Le Intelligenze artificiali generative diventano tanto brave da imitare la voce del parente finito nei guai che necessita di denaro per tirarsene fuori. Il primo caso in Canada

Il nipote la chiama e le chiede denaro. Ma la voce in realtà è di un computer

Siamo in Canada, dove la signora Ruth Card ha ricevuto una telefonata con cui il nipote Brandon sosteneva di essere stato arrestato e di avere bisogno di 3mila dollari per pagare la cauzione. La signora è andata a prelevare il denaro e un bancario attento l’ha dissuasa, informandola che non era la prima persona a essere stata allertata da un finto parente. La voce al telefono, tuttavia, era proprio quella del nipote della signora. Come è potuto succedere? Lo spiega il Washington Post.

Le Intelligenze artificiali generative

Le Intelligenze artificiali (AI) generative non sanno soltanto creare testo (come ChatGPT) o immagini (come Dall-E), sanno anche campionare e replicare le voci.

Bastano dei campioni della voce originale, un po’ di pazienza e un po’ di dimestichezza nell’uso di appositi algoritmi, reso più facile da apposite app che si prelevano online per una manciata di dollari.

L'AI generativa replica i campioni in modo affidabile sulla scorta dell’audio inserito e, a fine elaborazione, è sufficiente digitare il testo che si intende fare pronunciare alla voce appena creata.

La truffa del finto parente

Non è diffusa soltanto in Canada, è arrivata da tempo anche alle nostre latitudini in diverse declinazioni, invadendo anche le chat su WhatsApp.

Le vittime, spesso raggiunte da persone che si spacciano per intermediari della persona in difficoltà, cedono allo stress e all’agitazione del momento consegnando denaro, gioielli o altri valori per tirare fuori dai guai il parente prossimo (o l’amico) il quale, ovviamente del tutto ignaro, sta bene e non ha bisogno urgentemente di denaro. Occorre alzare la soglia dell’attenzione (e della furbizia).

A cosa fare attenzione

Innanzitutto, occorre comprendere che è relativamente facile procurarsi la voce da imitare. Basta prelevare audio dai video postati sui social network oppure frequentarla d’abitudine. Allo stesso modo, grazie alle applicazioni sempre più facili da usare, campionare e replicare una voce è diventata cosa da tutti (e sarà sempre più semplice).

Chi dovesse ricevere una telefonata da una persona cara che dice di essere in difficoltà, prima di cedere al panico, dovrebbe chiudere la conversazione e richiamarla al suo numero di telefono e non quello da cui ha telefonato, se diverso.

Diventare furbi è essenziale: nel caso in cui la voce di chi telefona sembra proprio quella della persona che dice di essere, allora può anche fare una videochiamata che fugherà ogni dubbio. Può non essere sempre possibile, in verità, ma è uno stratagemma che può mettere in allarme i furbetti e farli desistere.

Non da ultimo, quando i malfattori si renderanno conto che le truffe al telefono diventano più difficili perché le presunte vittime sono vieppiù diffidenti e reticenti, useranno con maggiore frequenza altri canali

per esempio email, social network o app come WhatsApp – per mettere a segno i loro colpi. Anche in questo caso occorre riuscire a parlare a voce con la persona che dice di avere bisogno di aiuto e mai cedere alla fretta.

Commenti
Disclaimer
I commenti saranno accettati:
  • dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
  • sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica