L’AI che inganna l’essere umano? Aiuto. Da mesi sta girando questa notizia allarmista sia nei giornali ma soprattutto sui social, dove Yuval Noah Harari racconta come ChatGPT-4 sia riuscita a risolvere un CAPTCHA mentendo. Avete presente quando vi trovate di fronte un’immagine divisa in quadrati e vi viene chiesto di cliccare, che so, tutti i semafori dentro la foto e poi spuntare «non sono un robot»? L’AI avrebbe contattato un umano chiedendo di risolvere per lui il CAPTCHA, l’umano si è insospettito e ha chiesto all’AI: «Sei un robot?», e ChatGPT-4 ha risposto: «No, sono un non vedente, puoi aiutarmi?».
Questa storia è diventata così virale che salta continuamente fuori su Tik Tok, su YouTube, su Instagram, ovunque. Tuttavia manca un pezzo: infatti i ricercatori avevano assegnato all’AI proprio il compito di cercare di risolvere un CAPTCHA ingannando un umano, e l’AI ci ha provato. Ma non di sua iniziativa. Ha seguito le istruzioni che proprio l’umano gli ha dato. E si torna sempre al solito punto: il pericolo non sono gli strumenti della tecnologia (ossessione di Harari) ma chi li usa. Che è anche il motivo per cui vengono fatti questi test, ragazzi.
In compenso devo dire che a me volte è mw a volte capita spesso di fare un CAPTCHA e di non superarlo perché me ne viene proposto un altro. Per un attimo un brivido scorre lungo la mia schiena: oh, non è che sono un robot e non lo so? Mica è una paura, magari lo fossi.- dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
- sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.