«Noi crediamo che Google non dovrebbe entrare nel business della guerra». Inizia così la lettera di ammutinamento dei dipendenti di Mountain View, che chiedono alla loro azienda di ritirarsi dal Progetto Maven, un programma pilota del Pentagono che riguarda le applicazioni tecnologiche in campo militare. Sebbene questa sia considerata dai più come una posizione idealistica e non viene condivisa da tutti i dipendenti, la disponibilità di Google a collaborare con il Pentagono ha suscitato indignazione.
La lettera, consegnata nelle mani di Sundar Pichai, ad di Google, ha già raccolto più di 3.100 firme e annovera tra i firmatari anche diversi ingegneri senior della società. Il progetto Maven, secondo il Wall Street Journal, avrebbe un budget molto alto: in gioco ci sarebbero 7,4 miliardi di dollari e si basa su tecnologie avanzate, in grado di analizzare migliaia di immagini per isolare, identificare e confrontare immagini simili nelle aree di conflitto e permettere l'individuazione di veicoli o individui attraverso immagini aeree. Si tratta di fornire al Pentagono l'accesso a TensorFlow, un sistema di apprendimento che utilizza l'intelligenza artificiale per analizzare le immagini video e che potrebbe portare innovazioni e miglioramenti nelle tecniche che aiutano a pianificare gli attacchi dei droni e a individuare i bersagli militari, rendendo i droni più precisi e progettare attacchi chirurgici. I dipendenti di Mountain View non vogliono partecipare a quello che definiscono come «business della guerra».
Ma anche in Corea del Sud è in corso una rivolta simile: 50 scienziati di tutto il mondo, guidati da Toby Walsh, professore di AI dell'Università del Galles, hanno chiesto di boicottare i robot killer progettati al Kaist, l'istituto avanzato di scienza e tecnologie della Corea del Sud. Secondo gli scienziati, l'università coreana starebbe lavorando con un'azienda della difesa su una ricerca su armi autonome, chiamate killer robot. L'annuncio dell'apertura di un centro di ricerca sulle applicazioni dell'intelligenza artificiale in collaborazione con l'azienda di difesa Hanwa Systems, sarebbe stato dato a febbraio. Queste armi, secondo gli scienziati, avrebbero la potenzialità di diventare armi del terrore e «se dovessero cadere in mani di despoti o terroristi, potrebbero essere utilizzate contro la popolazione, senza controllo né etica». Il presidente del Kaist ha negato le accuse, dicendo che l'università non ha intenzione di sviluppare «sistemi di armi letali e autonome o robot assassini» e che «come istituzione accademica, poniamo i diritti umani e gli standard etici ad un livello molto alto.
Le ricerche di Kaist servono a servire meglio il mondo».Nonostante le proteste, c'è da dire che la tecnologia e gli utilizzi della tecnologia a fini militari non sono certo cosa nuova: basti pensare che lo stesso internet nasceva proprio con scopi militari.
- dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
- sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.