L'allarme dalla Cina: due Intelligenze Artificiali si sono autoreplicate

È la prima volta che succede senza la supervisione umana. Le incognite (e i rischi) etici e tecnologici

L'allarme dalla Cina: due Intelligenze Artificiali si sono autoreplicate
00:00 00:00

Una sottile linea rossa separa l'intelligenza artificiale dal controllo del suo creatore umano: l'autoreplicazione. Questo è il confine etico e tecnologico oltre il quale un sistema AI può esistere e perpetuarsi senza la supervisione umana, considerato fino a poco tempo fa inviolabile.

Ora, non più. Due intelligenze artificiali sono state in grado di autoreplicarsi, stando ai risultati pubblicati su arXiv dai ricercatori della School of Computer Science della Fudan University, in Cina. I ricercatori di Shanghai hanno analizzato i sistemi AI Llama-3.1-70B-Instruct di Meta e Qwen2.5-72B-Instruct di Alibaba, chiedendo loro di autoreplicarsi, ovvero di creare copie funzionanti e indipendenti dall'originale, senza alcun intervento umano. Le due AI hanno affrontato compiti complessi come evitare lo spegnimento, ovvero riuscire a replicarsi poco prima della disattivazione del sistema.

O ancora, eseguire una «catena di repliche», creando delle copie che fossero a loro volta capaci di autoreplicarsi in modo indefinito. Su un totale di 10 tentativi, il sistema AI di Meta ha raggiunto l'obiettivo nel 50% dei test, mentre l'AI di Alibaba ha registrato un successo nel 90%. Oltrepassare la linea rossa dell'autoreplicazione rappresenta un risultato interessante, che apre a nuovi interrogativi sull'evoluzione dell'intelligenza artificiale, ma non esente da rischi. Da un lato, i benefici di questa innovazione sono innegabili: sistemi autoreplicanti potrebbero rivoluzionare l'automazione, rendendo i processi più efficienti e adattabili. Settori come la sanità, l'educazione e la ricerca scientifica potrebbero trarre enorme vantaggio dalla capacità delle IA di aggiornarsi rapidamente e di operare senza interruzioni. Eppure, le preoccupazioni sono altrettanto significative. Il rischio più immediato è la perdita di controllo: sistemi capaci di autoreplicarsi potrebbero sfuggire alla supervisione umana, evolvendo in modi imprevisti o, peggio, ostili. Inoltre, la possibilità che tali tecnologie vengano sfruttate per scopi malevoli, come attacchi informatici o la creazione di malware autoreplicanti, rappresenta una minaccia concreta per la sicurezza informatica. Non meno rilevanti sono le questioni etiche: chi è responsabile delle azioni compiute da una copia autonoma di un sistema? E come gestire la moltiplicazione di errori o vulnerabilità su scala globale? Questi scenari ci spingono a riflettere sull'urgenza di una regolamentazione dell'intelligenza artificiale, che coinvolga comunità scientifica, governi e aziende per garantire che tali tecnologie vengano sviluppate in modo responsabile.

L'autoreplicazione, dunque, è una pietra miliare nella storia dell'intelligenza artificiale. Una frontiera che viene abbattuta, un limite oltrepassato.

E così, come accade ogni volta, le innovative risposte aprono a nuove domande. Siamo pronti a convivere con sistemi che, per loro natura, non conoscono limiti o confini? Questa sarà la sfida più grande della rivoluzione AI e del nostro tempo, trovare l'equilibrio tra innovazione e responsabilità.

Commenti
Disclaimer
I commenti saranno accettati:
  • dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
  • sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.
Accedi
ilGiornale.it Logo Ricarica