Soldati-robot, l'appello delle aziende all'Onu: "Sono una minaccia per l'umanità"

116 esponenti dell'industria dell'intelligenza artificiale hanno chiesto all'Onu di fermare la corsa agli armamenti autonomi perché sono una minaccia per l'umanità

Soldati-robot, l'appello delle aziende all'Onu: "Sono una minaccia per l'umanità"

Oltre cento fondatori di aziende di robotica e intelligenza artificiale hanno firmato un appello chiedendo all'Onu di bloccare la corsa dei governi agli armamenti autonomi.

"Fermate i soldati-robot, sono un pericolo per l'umanità", suona più o meno così l'appello lanciato all'Onu da Melbourne, dove 116 esponenti dell'industria dell'intelligenza artificiale, provenienti da 26 diversi Paesi, si sono riuniti nella International Joint Conference on Artificial Intelligence (IJCAI). Si tratta del primo appello lanciato all'unisono da imprenditori della robotica e segue il precende monito lanciato nel 2015 da centinaia di esponenti del mondo della ricerca universitaria, con nomi di spicco come Stephen Hawking.

L'accorato avvertimento parla chiaro: bisogna impedire che macchine in grado di prendere in autonomia decisioni letali vengano impiegate nei conflitti. La costruzione di robot killer, realtà non così lontana nel tempo, costituirebbe un pericolo per l'umanità. Perché eliminando il contraccolpo psicologico della guerra, si incentiverebbe all'azione militare. Perché le decisioni che prenderà un'intelligenza artificiale sufficientemente sofisticata sono sostanzialmente imprevedibili. E perché droni autonomi dotati di armi potrebbero essere utilizzati per attaccare gli esseri umani.

"Le armi letali autonome minacciano di essere la terza rivoluzione in campo militare - avvertono nella lettera inviata all'Onu - Una volta sviluppate, permetteranno ai conflitti armati di essere combattuti su una scala più grande che mai, e su scale temporali più veloci di quanto gli umani possano comprendere: sono armi che despoti e terroristi potrebbero rivolgere contro popoli innocenti, oltre che armi che gli hacker potrebbero riprogrammare per comportarsi in modi indesiderabili. Non abbiamo molto tempo per agire: una volta aperto il vaso di Pandora, sarà difficile richiuderlo".

Poiché la possibilità di riuscire a controllare queste nuove armi in maniera sufficientemente sicura appare ancora difficile da ottenere - ha spiegato a La Repubblica Alberto Rizzoli, uno degli oltre cento firmatari dell'appello - la strada più praticabile è quella del bandire la corsa agli armamenti autonomi e di sanzionare i Paesi trasgressori.

Questa lettera è stata scritta come reazione dell'industria dell'intelligenza artificiale alla notizia che il primo meeting del gruppo di esperti governativi (Gge) sui sistemi di armi letali autonome, che avrebbe dovuto aver luogo ieri, è stato rimandato a data da desinarsi.

"Invitiamo i partecipanti ai lavori del GGE a sforzarsi di trovare modi per prevenire una corsa agli armamenti autonomi, per proteggere i civili dagli abusi e per evitare gli effetti destabilizzanti di queste tecnologie", chiedono nella lettera aperta.

Commenti
Disclaimer
I commenti saranno accettati:
  • dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
  • sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.
Accedi
ilGiornale.it Logo Ricarica