La "morale" di Terminator

La guerra del futuro sarà combattuta dai robot. Gli Stati Uniti hanno investito 4 miliardi di dollari in progetti destinati insegnare l'etica ai droni guerrieri

La "morale" di Terminator

Le macchine spietate in “Matrix”, i droidi lattei che ossessionano Will Smith in “Io, Robot”, l’inquietante Hal 9000 di “2001 Odissea nello Spazio”, quel tamarro di Terminator. I robot. Nel mondo del cinema, il problema circa l’esistenza o meno dell’intelligenza artificiale lo hanno affrontato e risolto fin dagli anni ‘50. I droni senzienti esistono, punto e basta. Fuori dai multisala invece, se si parla di robot, l’immaginario collettivo può andare solo ad “Asimo”, quel buffo cosino bianco prodotto dalla Honda e periodicamente esposto in grandi cerimonie (una volta lo fanno saltare, un’altra salire le scale, un’altra ancora suonare la tromba).

Ma guardando quell’omino artificiale affrontare titubante una scala viene da pensare che siamo ancora lontani anni luce da macchine come C-3PO, lo spilungone dorato e saputello della trilogia di “Guerre stellari”. Potrebbe non essere così. Asimo non è solo. Tanti suoi fratelli sono in progettazione, alcuni già in fase avanzata di realizzazione, alcuni stanno lasciando in questo momento i laboratori dove sono stati assemblati. Sono meno antropomorfi, non sono capaci di stringere una mano, ma non per questo sono meno tecnologicamente avanzati. Il pubblico non li vede, non li sente, il loro completamento non viene celebrato con champagne e pacche sulle spalle. Sono i droni militari.

E i progetti che li riguardano sono talmente avanzati che già si sta pensando a come renderli “non troppo aggressivi”. L’esercito e la marina degli Stati uniti hanno infatti recentemente assoldato filosofi e esperti di etica per prevenire la nascita di macchine da guerra amorali. Come riporta il Telegraph, gli Stati uniti hanno messo a bilancio fino al 2010 ben quattro miliardi di dollari in programmi di ricerca volti allo sviluppo di “sistemi autonomi”, termine che nel gergo militare indica i robot (o meglio, i droni) da combattimento. Un esperto di robotica britannico è stato recentemente assunto dalla marina statunitense con l’obiettivo di creare robot capaci di rispettare la convenzione di Ginevra.

Colin Allen, un filosofo della scienza presso l’università dell’Indiana che ha appena pubblicato un libro intitolato Macchine Morali: come insegnare ai robot giusto e sbagliato, spiega che “la domanda alla quale i vertici militari statunitensi vogliono dare una risposta è se è possibile creare armi automatiche capaci di rispettare le leggi della guerra, ovvero se è possibile applicare le teorie etiche nella progettazione dei robot”. Quattro miliardi di dollari sono briciole nel budget del Pentagono.

Ma perché, in tempi di crisi economica, riversare una tale quantità di denaro in un simile progetto? La risposta è nella preoccupazione dei vertici dell’esercito più potente del mondo, allarmati per gli studi sullo stress da combattimento in Iraq, vera patologia che serpeggia tra le truppe a stelle e strisce impantanate nel deserto iracheno. Le inchieste mediche sulla salute psichica dei reparti schierati mostrano come alte percentuali dei soldati si dicano favorevoli all’uso di tortura e rappresaglia contro i soldati nemici. Ronald Arkin è uno scienziato informatico. Insegna presso la Georgia Tech University (uno dei centri d’eccellenza mondiale dell’ingegneria robotica) e sviluppa programmi per la marina degli stati uniti, che gli ha chiesto di redigere un rapporto sul tema. “Anche se non eticamente perfette – ha scritto - le macchine possono comportarsi sul campo di battaglia più eticamente che gli uomini. I robot non devono preoccuparsi di difendere sé stessi, quindi non possono essere annebbiati o influenzati nelle loro analisi e giudizi da emozioni come paura e rabbia”.

In effetti droni voltanti sono già usati in Iraq e Afghanistan per lanciare attacchi aerei contro obiettivi militari nemici, e veicoli-robot sono utilizzati per disinnescare ordigni o bombe sui lati delle strade. Oltretutto il mese scorso l’esercito Usa ha ricevuto la consegna, da parte di una ditta appaltatrice Britannica - la “QinetiQ” - di una nuova unità robotica capace di sparare con qualsiasi tipo di calibro, spray urticante, granate ad alto potenziale e di implementare una mitragliatrice da 7.62mm. Ma queste sono le ultime versioni di generazioni robotiche obsolete, perché tutte legate al controllo a distanza degli uomini.

I ricercatori ora stanno lavorando a “robot soldati” capaci di identificare e colpire autonomamente i bersagli, riuscendo nel non facile compito di distinguere forze nemiche, sia truppe che mezzi, dai civili, come ambulanze e personale medico. I software che gestiranno queste unità militari del futuro sapranno seguire le linee guida della convenzione di Ginevra. Il professor Allen si dice compiaciuto della volontà di affrontare i nodi morali ed etici nella robotica: “E’ tempo che ci si impegni su come fare a inserire l’etica nelle macchine da combattimento prima che sia troppo tardi.

Abbiamo già computer – sottolinea - che prendono decisioni che influenzano la vita delle persone, ma lo fanno eseguendo procedure dove l’etica è assente. I computer decidono se dare o meno credito bancario o, in campo medico, se un determinato paziente con una determinata patologia debba essere reanimato in caso di crisi”.

Commenti
Disclaimer
I commenti saranno accettati:
  • dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
  • sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica