Il caso di ChatGPT che "inganna" un umano: un panico ingiustificato

L'intelligenza artificiale è riuscita effettivamente a convincere un essere umano ad aiutarla mentendo, ma solo perché aveva ricevuto il compito specifico di farlo

Il caso di ChatGPT che "inganna" un umano: un panico ingiustificato
00:00 00:00

L’AI che inganna l’essere umano? Aiuto. Da mesi sta girando questa notizia allarmista sia nei giornali ma soprattutto sui social, dove Yuval Noah Harari racconta come ChatGPT-4 sia riuscita a risolvere un CAPTCHA mentendo. Avete presente quando vi trovate di fronte un’immagine divisa in quadrati e vi viene chiesto di cliccare, che so, tutti i semafori dentro la foto e poi spuntare «non sono un robot»? L’AI avrebbe contattato un umano chiedendo di risolvere per lui il CAPTCHA, l’umano si è insospettito e ha chiesto all’AI: «Sei un robot?», e ChatGPT-4 ha risposto: «No, sono un non vedente, puoi aiutarmi?».

Questa storia è diventata così virale che salta continuamente fuori su Tik Tok, su YouTube, su Instagram, ovunque. Tuttavia manca un pezzo: infatti i ricercatori avevano assegnato all’AI proprio il compito di cercare di risolvere un CAPTCHA ingannando un umano, e l’AI ci ha provato. Ma non di sua iniziativa. Ha seguito le istruzioni che proprio l’umano gli ha dato. E si torna sempre al solito punto: il pericolo non sono gli strumenti della tecnologia (ossessione di Harari) ma chi li usa. Che è anche il motivo per cui vengono fatti questi test, ragazzi.

In compenso devo dire che a me volte è mw a volte capita spesso di fare un CAPTCHA e di non superarlo perché me ne viene proposto un altro. Per un attimo un brivido scorre lungo la mia schiena: oh, non è che sono un robot e non lo so? Mica è una paura, magari lo fossi.

Commenti
Disclaimer
I commenti saranno accettati:
  • dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
  • sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.
Accedi
ilGiornale.it Logo Ricarica