"Le storture ci sono. Ma siamo ai primordi di questa tecnologia"

Professore Edoardo Fleischner, titolare della seguitissima rubrica "Media e dintorni" da vent'anni su Radio radicale, docente universitario di comunicazione crossmediale e di Gestione di progetti, è entrato in vigore il Digital Act dell'Ue, che impatto ha sui big della Rete e sugli utenti?

"Le storture ci sono. Ma siamo ai primordi di questa tecnologia"
00:00 00:00

Professore Edoardo Fleischner, titolare della seguitissima rubrica «Media e dintorni» da vent'anni su Radio radicale, docente universitario di comunicazione crossmediale e di Gestione di progetti, è entrato in vigore il Digital Act dell'Ue, che impatto ha sui big della Rete e sugli utenti?

«Il Digital Service Act sembra ribadire cose ovvie - contrastare contenuti illegali, violenza, bot, fake news - ma che tali non erano per queste piattaforme. Un conto erano le raccomandazioni, un conto è avere una legge che preveda sanzioni fino al 6% del volume d'affare annuo, una montagna di soldi».

Vede rischi di censura?

«Esistono già storture. Facebook ha un contratto che vieta l'istigazione alla violenza, c'è un algoritmo che deve intercettarla ma che non sempre funziona come dovrebbe. Se per esempio io faccio una disquisizione accademica sulla violenza è facile che il contenuto sia cancellato. I margini di errore ci sono, e si stanno riducendo grazie anche alle azioni Ue. Ora le piattaforme sono chiamate a intercettare sempre con più intelligenza, intesa come intelligence».

In arrivo c'è anche l'Ai act, la proposta Ue per regolamentare l'intelligenza artificiale. Un modo per porre limiti a qualcosa che ancora non conosciamo nelle sue potenziali conseguenze?

«L'Ai act è considerato un atto coraggioso che anticipa i tempi. Chiede trasparenza dei dati, e la sicurezza che non siano manipolati. Ma siamo comunque in ritardo perché ci sono già contenuti profondamente ignoranti, con errori, elementi razzisti e sessisti, seppur in quota minoritaria».

C'è chi invece bolla l'Ai di politically correct nelle sue risposte. Non è così?

«Tutto dipende da come si fa la domanda. Vede, nessuno di noi sa se nei 175 miliardi di asset in pancia a Chat Gpt siano preponderanti le censure di destra o di sinistra. Io uso sette piattaforme di intelligenza artificiale e le dico che è sufficiente che in una frase cambi collocazione di un avverbio e la risposta cambia. Se io chiedo: Mi puoi dire quali persone hanno censurato dei classici della letteratura mondiale perché razzisti?, o perché eventualmente razzisti?, oppure perché ritenuti razzisti?. Beh, ci sono tre risposte diverse, addirittura opposte».

Quali sono i rischi?

«Glielo spiego con una metafora: percorrere strade di grandi città attraversate da auto veloci che tutti possono guidare, ma dove non c'è alcuna segnaletica, non ci sono semafori né precedenze. Cioè, un macello».

Qual è la strada se ce n'è una?

«L''Ai si basa su miliardi di contenuti che non ha assorbito dal punto di vista della struttura delle frasi.

C'è un tale big bang di processi statistici interni che si faccia avanti chi ha capito se la piattaforma sia di destra, di sinistra, sia etica o meno etica. La verità è che siamo ai primordi, alla prima versione, che definirei raffazzonata, pur nel lavoro spaventoso che c'è dietro. Ne riparliamo tra un paio di anni».

Commenti
Disclaimer
I commenti saranno accettati:
  • dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
  • sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.
Accedi
ilGiornale.it Logo Ricarica