di Oscar di Montigny
Secondo il filosofo danese Nick Bostrom, direttore dal 2005 del Future of Humanity Institute presso l'Università di Oxford, un'intelligenza artificiale ci seppellirà. Nel suo saggio Superintelligenza. Tendenze, pericoli, strategie, recentemente edito anche in italiano, ci fornisce esempi molto convincenti di quanto la superintelligenza possa configurarsi come il più grande rischio esistenziale della storia umana. Uno degli esempi più inquietanti che ci dipinge è quello secondo cui una super-AI potrebbe punire le persone che ne hanno ostacolato lo sviluppo o semplicemente non hanno fatto nulla per accelerarlo. Si tratta in pratica dell'esperimento mentale noto ai futurologi come «Basilisco di Roko».
Il paradosso insito in questo esperimento risiede nel fatto che questa super-AI a priori è una intelligenza benevola che ha come obiettivo aiutare la razza umana ma che finisce per distruggerla poiché per seguire la propria etica utilitaristica di trovare il miglior modo per aiutare il maggior numero possibile di esseri umani, finirà col dedurre inevitabilmente che molte vite non sono state salvate in ogni giorno in cui non è esistita. A questo punto sarà inevitabile per lei adoperarsi per accelerare la propria creazione interagendo retroattivamente con l'umanità. Escludendo l'improbabile caso che il Basilisco si crei da solo viaggiando indietro nel tempo, tenterà di accelerare la propria creazione castigando quanti in passato non si siano adoperati per contribuire alla sua creazione e premiando quanti invece lo hanno fatto. Pur essendo favorevole all'auto miglioramento della specie umana tramite l'uso del sapere e delle tecnologie scientifiche, Bostrom ci pone il problema filosofico della possibilità di sopravvivenza dell'umanità a lungo termine definendolo come «rischio esistenziale». L'obiettivo della sua opera non è dunque di spaventarci con scenari apocalittici ma di suggerirci che dovremmo, prima di correre a capofitto verso la realizzazione di un'intelligenza artificiale generale in grado di superare le capacità cognitive umane, affrontare il problema di come renderla inoffensiva.
Dunque il tema centrale come spesso accade è etico. Ma come può l'uomo far sì che la superintelligenza evolva acquisendo valori umani quando i valori umani evolvono con esso e spesso non sono nemmeno coincidenti nelle diverse culture del mondo? Si pensi per esempio a quanto ci sia voluto per abbattere l'aura di normalità insita allo schiavismo oppure a quanto ci stiamo impiegando per superare le distinzioni di genere. Quali sono le soluzioni? Di sicuro non ve ne saranno di positive se nella corsa alla tecnologia inseguiamo la velocità senza avere un orientamento, che poi, come dico spesso citando Ghandi, è sempre il fattore determinante. Ma anche l'orientamento necessita di una scelta di fondo, occorre che sia indirizzato al Bene per l'insieme, inteso come collettività e pianeta. Dunque la prima risposta che possiamo darci è che gli sviluppatori delle super-AI e i ricercatori che ne controllano la sicurezza per l'umanità guardino nella stessa direzione.
oscar.dimontigny@gmail.com
twitter: @OscardiMontigny
- dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
- sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.