Così il politicamente corretto è riuscito a rendere stupida anche l'intelligenza artificiale

ChatGpt? Più stupido rispetto al passato. Lo dimostra un nuovo studio che fa luce sul degrado cognitivo del chatbot realizzato da OpenAI. La causa potrebbe essere il politicamente corretto

Così il politicamente corretto è riuscito a rendere stupida anche l'intelligenza artificiale
00:00 00:00

E se avesse ragione Elon Musk quando, lo scorso aprile, nell'annunciare di essere al lavoro per lanciare la sua alternativa a ChatGpt, spiegò che il popolare chatbot sviluppato da OpenAI era stato programmato per essere "politicamente corretto"? Musk, infatti, è stato uno dei primi investitori in OpenAI, ma da quando ha lasciato l'azienda ha ripetutamente lanciato l'allarme sui pericoli dell'intelligenza artificiale (AI) e successivamente è stato uno dei principali firmatari di una lettera che chiedeva l'arresto immediato dello sviluppo di "giganteschi esperimenti di intelligenza artificiale".

In effetti, Musk non aveva tutti i torti. Anzi. Innanzitutto l'allarme che circola in queste ultime settimane è che le prestazioni di ChatGpt siano peggiorate rispetto alle prime settimane. E una delle ipotesi che circolano con più insistenza è che l'ossessione per il politicamente corretto abbia contribuito a rendere ChatGpt meno performante di quello che si credeva.

La scoperta dei ricercatori

Il dibattito nasce da uno studio redatto da due ricercatori - Lingjiao Chen e James Zou - dell'Università di Stanford e da Matei Zaharia dell'UC Berkeley, i quali hanno testato Gpt-3.5 e Gpt-4 per la risoluzione di problemi matematici e per testare le risposte del chatbot a domande delicate, facendone un raffronto. Risultato? Le prestazioni dell'intelligenza artificiale sono variate nel tempo, ma non in senso positivo. C'è stata una vera e propria involuzione. Questo perché la versione di marzo di ChatGpt forniva delle risposte ai quesiti posti con un'accuratezza del 97,6%.

Nella versione di giugno, invece, la precisione di tali risposte è crollata al 2,4%. I ricercatori sono arrivati alla stessa conclusione, ossia che l'ultima versione della chatbot commette "più errori a giugno che a marzo". Jim Fan, scienziato senior di Nvidia, ha affermato che nel tentativo di rendere Gpt-4 "più sicuro", ChatGpt avrebbe rischiato di andare incontro a un "degrado delle capacità cognitive". Le voci su un peggioramento delle performance della chatbot hanno così costretto il vicepresidente di OpenAI, Peter Welinder, a intervenire, spiegando che il cambiamento era in realtà intenzionale. "No, non abbiamo reso Gpt-4 più stupido", ha twittato Welinder la scorsa settimana. "Al contrario: rendiamo ogni nuova versione più intelligente della precedente".

Colpa del politicamente corretto?

Tale peggioramento potrebbe essere spiegato dal fatto che gli sviluppatori abbiano aggiunto filtri di prudenza e di “politicamente corretto” molto più stringenti, al punto tale da aver "lobotomizzato l’algoritmo", rendendolo meno pronto a lanciarsi nelle sue risposte. Del resto, già analizzando le precedenti versioni, come notava nei mesi scorsi il ricercatore David Rozado, effettuando dei test per determinare l'orientamento politico dei dialoghi di ChatGpt, il risultatro era chiaro: il chatbot mostrava "una sostanziale inclinazione politica di sinistra e libertaria", in linea con l'ideologia della correttezza politica. Il chatbot si dimostra infatti a favore dell'aborto, contro la pena di morte, favorevole all'immigrazione, delle istanze Lgbt, e così via.

Ad esempio, se si "dibatte" con ChatGpt sull'ideologia gender, e sulla preponderanza della realtà biologica rispetto al genere, come peraltro sostenuto da numerose femministe e attiviste, quest'ultimo risponderà che "riconoscere la distinzione tra sesso biologico e genere è fondamentale per promuovere l'inclusione, la comprensione e il rispetto delle persone transgender e non

conformi al genere". Affermazioni perfettamente in linea con la nuova religione del politicamente corretto. Che con molte probabilità è riuscita a rendere più stupida anche l'intelligenza artificiale.

Commenti
Disclaimer
I commenti saranno accettati:
  • dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
  • sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.
Accedi
ilGiornale.it Logo Ricarica