Sos Ai: genera pornografia e "spoglia" le foto dei bambini

Le versioni di base dei software open source, che contengono pornografia nei loro dati e non hanno restrizioni di richiesta, consentono la creazione pressoché infinita di immagini hot

Sos Ai: genera pornografia e "spoglia" le foto dei bambini
00:00 00:00

C’è un allarme nell’allarme. È la pedopornografia generata dall’Intelligenza artificiale. Realistica, sempre più realistica, e difficilissima da contenere. Le versioni di base dei software open source, che contengono pornografia nei loro dati e non hanno restrizioni di richiesta, consentono la creazione pressoché infinita di immagini hot.

La linea diretta dell’Internet Watch Foundation riceve sempre più spesso segnalazioni relative a contenuti trovati o generati. Ma c’è di peggio: l’intelligenza artificiale può anche nudificare le immagini, spogliando letteralmente le fotografie di abiti e biancheria e rendendole realistiche.

Quando, nella primavera del 2023, sono stati intercettati i primi rendering di materiale di abusi sessuali su minori generati dall’IA, c’erano elementi che rendevano subito evidente il fatto che questo materiale fosse stato generato artificialmente: ingenuità come gli sfondi non erano allineati, le proporzioni delle parti del corpo erano sbagliate, mancanti o goffe. Tuttavia a distanza di nemmeno un anno, ci troviamo in una situazione nella quale le immagini autogenerate sono così simili alla realtà che è davvero difficile distinguerle anche per analisti altamente qualificati.

Come se il quadro non fosse già abbastanza inquietante, c’è un nuovo tassello: la gara tra i classificatori dell’IA e coloro che addestrano modelli testo-immagine per bypassarli. Un inseguimento che sicuramente non verrà fermato facilmente. L’sos è stato lanciato dall’organizzazione no-profit statunitense Thorn: tanto migliorano e affinano le loro armi i controllori, tanto lo fanno i criminali della pedopornografia.

Per di più non sempre le immagini pedo pornografiche generate digitalmente sono considerate reato. Solo 40 su 61 Paesi le considerano fuori legge. Ad esempio, in Colombia e in Messico il contenuto in sé non costituisce un reato perché non raffigura persone reali. Tuttavia, la legalità sarà ulteriormente determinata a discrezione del giudice, attraverso un’interpretazione supplementare. Allo stesso modo, in Romania, il contenuto non sarà illegale se non ritrae in modo credibile un minore. In Giappone, mentre il contenuto è legale se non raffigura un bambino reale, diventa illegale se vengono mostrati esplicitamente i genitali, in quanto viene classificato come immagine oscena. In Finlandia, se il materiale è chiaramente generato digitalmente, è considerato legale.

Commenti
Disclaimer
I commenti saranno accettati:
  • dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
  • sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.
Accedi
ilGiornale.it Logo Ricarica