L'uccellino va allo scontro con l'Unione Europa. Twitter è la sola grande piattaforma tecnologica mondiale che ha rifiutato di aderire al codice di condotta per limitare l'uso dell'intelligenza artificiale nel quale la commissione europea chiede alle grandi aziende di segnalare con un apposito bollino i contenuti generati dall'intelligenza artificiale allo scopo di limitare il diffondersi della disinformazione. La vicepresidente della Commissione europea per i valori e la trasparenza, Vera Jourová, non l'ha presa benissimo: «Se Twitter vuole operare e fare affari nel mercato europeo - ha detto la politica ceca - deve rispettare il Digital Services Act. Dal prossimo agosto le nostre strutture applicheranno la legge e guarderanno alle performance di Twitter valutando se queste rispettino o meno le norme». Una minaccia che arriva proprio nel giorno in cui il New York Times segnala un calo delle entrate pubblicitarie del 59 per cento rispetto all'anno scorso, sulla base delle cinque settimane di aprile e inizio maggio, per il social di proprietà di Elon Musk.
Ieri la Jourová, assieme al commissario per il mercato interno Thierry Bréton, ha incontrato i rappresentanti di oltre quaranta organizzazioni che hanno aderito al codice di condotta dell'Ue contro la disinformazione, tra i quali Microsoft, Google, Meta, TikTok, Twitch. Tutti i giganti tranne Twitter. L'Ue ha chiesto «ai firmatari di creare una traccia dedicata e separata all'interno del codice» per i contenuti generati dall'IA che «dovrebbe mirare a identificare i rischi specifici di disinformazione presentati dall'IA generativa e adottare misure appropriate per affrontarli».
Il bollino servirà a indicare «i contenuti prodotti dall'intelligenza artificiale in un modo che consenta al normale utente, che può essere distratto da diversi contenuti, possa vedere con chiarezza che non si tratta di un testo o un contenuto visivo creato da persone reali, ma che è un robot che parla». L'Artificial intelligence act, una volta in vigore, «permetterà di bloccare o cambiare alcune tecnologie che sono rischiose ai sensi dell'elenco sui settori a rischio».
Secondo Jourová questo strumento è fondamentale visto che l'intelligenza artificiale presenta «nuovi rischi e conseguenze negative per la società» visto che in tempo brevissimo, di pochi secondi, i chatbot possono generare «immagini autentiche di eventi mai accaduti» e i «software di generazione vocale possono imitare la voce di una persona sulla base di un campione di pochi secondi». Immaginiamo quindi quali vertiginosi scenari si aprano per chi voglia usare queste potenzialità in modo perverso, dando una patina di autorevolezza a contenuti di disinformazione o propaganda.
Secondo Jourová i fronti di questa battaglia sono due: «I firmatari che integrano l'intelligenza artificiale generativa nei loro servizi, come Microsoft e Google, dovrebbero integrare le garanzie necessarie affinché questi servizi non possano essere utilizzati da soggetti malintenzionati per generare disinformazione».
In secondo luogo «i firmatari che dispongono di servizi potenzialmente in grado di diffondere disinformazione generata dall'IA dovrebbero a loro volta predisporre una tecnologia per riconoscere tali contenuti ed etichettarli chiaramente agli utenti». «Ho detto più volte che abbiamo il compito di proteggere la libertà di parola - ha concluso Jourová -. Ma quando si tratta di produzione di IA, non vedo alcun diritto per le macchine di avere la libertà di parola».
- dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
- sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.