Ultim'ora
Colpita base Unifil in Libano, 4 militari italiani feriti
Ultim'ora
Colpita base Unifil in Libano, 4 militari italiani feriti

Truffe online, gli inganni costruiti con l’intelligenza artificiale

Il cybercrime sfrutta le app di appuntamenti per adescare le vittime e portarle a trasferire somme di denaro sotto forma di criptovaluta. L'IA consente di avviare nuove campagne di "sextortion" con cui si minaccia di pubblicare online foto e video di nudo della vittima

Truffe online, gli inganni costruiti con l’intelligenza artificiale
00:00 00:00

Con l’arrivo della tecnologia le truffe sono aumentate notevolmente, è il caso di strumenti che sfruttano ChatGpt, la nota chatbot che si serve dell’intelligenza artificiale, per chiedere denaro ai malcapitati del web. Un esempio è la CryptoRom scovata dall'azienda di sicurezza informatica Sophos. Si tratta di una truffa internazionale riguardante il trading di criptovalute che colpisce gli utenti di iPhone e Android attraverso note app di dating come Bumble e Tinder e chiede il versamento di somme di denaro in forma di criptovaluta.

Come funzionano le truffe

Per evitare di cadere in questa tipologia di truffe online è bene saperle conoscere. I criminali sfruttano la ricchezza di dati dell'intelligenza artificiale generativa fingendosi esperti di investimenti e instaurano delle relazioni di fiducia con le loro vittime. Chi cade in questa trappola scarica applicazioni che servono al malintenzionato per compiere il proprio cybercrime e fanno da tramite per il processo di trasferimento del denaro. L’azienda Sophos, lo scorso maggio, ha spiegato il fenomeno. Sostanzialmente si tratta di diversi truffatori che avevano creato false app le quali riportavano diciture in cui affermavano di basarsi su ChatGpt, invece truffavano le vittime rubando soldi a chi sceglieva di abbonarsi a servizi extra che in realtà erano inesistenti.

Il problema della veridicità

L’intelligenza artificiale consente a chi avvia una chat di ricevere delle risposte che parrebbero essere quelle di una persona reale. Entra quindi in campo una nuova tipologia di problema per coloro che si occupano di sicurezza, ovvero la veridicità. Vi sono due tipologie di IA: la prima, detta "deep learning", consente ai computer di apprendere per esperienza mentre seconda, riguarda i cosiddetti "sistemi esperti" e imita la capacità umana di prendere decisioni.

Il caso PayPal

Un caso eclatante riguarda il terremoto che ha colpito Siria e Turchia nel febbraio del 2023. Secondo una ricerca della Bbc vi erano diversi canali TikTok e post sui social che chiedevano di supportare economicamente le vittime dell’avvenimento catastrofico. Venivano proposti video e immagini completamente falsi i quali erano stati creati dal software di intelligenza artificiale, veniva poi fornito un indirizzo PayPal al quale inviare denaro.

I messaggi Whatsapp

Anche i contenuti audio sono metodi di truffa particolarmente utilizzati. Gli utenti ricevono un messaggio audio su Whatsapp o su Messenger dove amici e parenti chiedono un aiuto economico, in realtà si tratta di contenuti creati attraverso l’intelligenza artificiale. Secondo i ricercatori di McAfee, anch’essa una nota azienda di sicurezza informatica, ai criminali servono tre secondi di tempo per replicare la voce di chiunque, inserendo frasi a piacere. Gli esperti dell'azienda hanno affermato in merito alla questione: "Attraverso l'intelligenza artificiale, il truffatore può fingere di essere il figlio di qualcuno o un altro parente grazie ad un campione della voce reale, che addestra l'IA ad assumere un tono e una cadenza il più vicino possibile all'originale. Alcuni hacker arrivano persino a ricercare informazioni personali per rendere la richiesta più credibile".

Il sextortion

Un’altra pratica scorretta riguarda il sextortion. Si tratta della creazione di campagne create per estorcere denaro alle vittime. Ai malcapitati viene chiesto di pagare una somma di denaro altrimenti i criminali provvederanno a pubblicare online foto e video di nudo, con il volto della vittima, ricreati con programmi oggi popolari grazie all’IA generativa.

Sostanzialmente viene sovrapposto il viso reale di un individuo al corpo di attori e professionisti, puntando sulla paura che la propria reputazione venga rovinata per sempre, anche se in realtà il contenuto è realizzato al computer.

Commenti
Disclaimer
I commenti saranno accettati:
  • dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
  • sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica