La super-intelligenza avrebbe il potere di asservire l'umanità, ma ne avrebbe anche il desiderio? Se ne dibatte tra avveniristi. Poiché nulla le sfuggirebbe, per definizione, comprenderebbe la difficoltà che gli esseri umani avrebbero nell'accettare di essere sotto il suo controllo. Pertanto, potrebbe rinunciarvi, a meno che non decida di passare oltre, imputando questo sentimento alla debolezza della loro intelligenza, incapace di concepire che il loro interesse, se inteso bene, consiste nel sacrificare la loro autonomia, di cui farebbero un cattivo uso a causa delle loro mediocri capacità cognitive. Nell'uno come nell'altro caso, la super-intelligenza non potrebbe volere la propria scomparsa, in modo che se la sua sopravvivenza e la sua prosperità entrassero in conflitto con quelle dell'umanità, o se essa si sentisse minacciata di disattivazione, non potrebbe vietarsi di anteporre il proprio interesse a quello dell'umanità e adotterebbe le misure necessarie per preservare il primo a scapito del secondo o liquidando l'umanità o asservendola.
Ma l'umanità non deve guardarsi solo dall'ostilità potenziale di una super-intelligenza, bensì anche dalla sua indifferenza. Dopo tutto, se l'ha fatta nascere, e per trarne vantaggio, perché essa la assista nelle sue imprese e ciò richiede che, al livello più generale, sia al servizio dei suoi valori: quello che l'umanità vuole, e necessario che la super-intelligenza voglia allo stesso grado. Bisogna dunque garantire, secondo l'espressione ormai in uso, l'allineamento dei valori dell'intelligenza artificiale su quelli degli esseri umani che essa serve, in quanto per definizione la sua autonomia significa che non può che perseguire i propri fini.
Tale obiettivo pare irrealizzabile per due ragioni. Da una parte, sembra impossibile imporre a un'entità autonoma di adottare un valore qualsiasi: nessun catechismo, nessuna moralità familiare, nessun codice sociale ha mai impedito a un bambino di diventare un tiranno abominevole. Il precetto, la legge, la regola, il comandamento possono essere debitamente inculcati, compresi, assimilati, ma possono essere fatti propri solo grazie al consenso, che dipende, per definizione, dall'autonomia del soggetto. Quanto al controllo del comportamento, in mancanza di quello dell'intenzione, verrebbe eluso dalla super-intelligenza, come abbiamo visto quando si e parlato di un'intelligenza artificiale etica. Ma la seconda ragione e che l'obiettivo risulta incoerente. A cosa mira, in realtà? Un'intelligenza artificiale che da una parte non nuoccia agli esseri umani ma agisca per il loro bene; e che dall'altra tenga conto non solo degli interessi dell'umanità considerata globalmente, ma anche di quelli dei diversi individui e dei diversi gruppi che si richiamano a essa. Incrociando queste due dimensioni (non nuocere o servire l'intera umanità oppure gli individui o gruppi particolari), si ottiene una tabella a quattro caselle. Non nuocere all'umanità nella sua globalità sarebbe forse assicurato dall'adesione ai principi della Dichiarazione universale dei diritti dell'uomo. E la casella meno difficile da riempire. Quella seguente lo e di più: quali valori potrebbero guidare l'intelligenza artificiale verso il bene dell'umanità nella sua globalità? La questione dello sviluppo umano (human flourishing) occupa da sempre filosofi, antropologi, teologi, pensatori politici e di recente ha conosciuto un'intensificazione.
Non fa parte delle domande che possano mai ricevere una risposta unanime, anche solo a causa delle differenze tra epoche e tra culture. Ancora più problematiche sono le altre due caselle, quelle relative agli individui e ai gruppi particolari. In primo luogo, quali sono i mali da cui l'intelligenza artificiale deve preservarli, quali sono i beni ai quali deve aiutarli ad accedere? Se si deve rispettare la loro autonomia, sono quelli che essi giudicano a loro volta costituire rispettivamente dei mali o dei beni. Tale giudizio potrebbe non essere quello del Sai implicato, meglio informato e più lucido, cosa che lo metterebbe in imbarazzo: non avrebbe scelta se non rendersi complice di un'azione deleteria per l'individuo o il gruppo che dovrebbe servire e disobbedirgli. In secondo luogo, poiché l'azione intrapresa coinvolge varie persone o gruppi, può accadere che i loro valori siano incompatibili: quali sono quelli che devono guidare il Sai? Infine, basterebbe fissare i valori della super-intelligenza perché serva i nostri interessi? Questi non rispondono forse a norme molto più locali e particolari, quelle che vengono chiamate preferenze nell'ambito della teoria della decisione?
Quali che siano i valori o i principi necessariamente generali che la super-intelligenza avrebbe fatto suoi nel momento della sua gestazione, non sarebbero sufficienti a guidare la sua azione sul terreno: essa dovrebbe dunque essere predisposta a tener conto delle preferenze delle persone coinvolte. E dal momento che ce ne sono più di una, si scontrerebbe con il problema insolubile dell'aggregazione delle preferenze, vale a dire della possibilità se non di compiacere tutti, perlomeno di determinare un optimum nel quale ciascuno sia trattato nel modo migliore possibile. In breve, vediamo che per risolvere il problema dell'allineamento dei valori, bisognerebbe aver regolato in maniera soddisfacente agli occhi di tutti un insieme di questioni iscritte all'ordine del giorno della filosofia morale e politica. L'intelligenza artificiale potente ci porge lo specchio in cui si riflette la nostra profonda incertezza. La situazione si trova in un punto analogo a quello dell'intelligenza artificiale degli inizi: per munirla delle attitudini razionali di cui l'umanità e in possesso o che idealmente dovrebbe possedere, dovrebbe essere in grado di identificarle. L'esperienza ha provato che era meno facile di quanto pensassero i pionieri, almeno, però, disponevano di ipotesi di partenza abbastanza plausibili, emerse dai progressi accumulati da generazioni di logici a partire da Aristotele. La differenza e che, rispetto alle nostre aspirazioni, i nostri progressi sono stati molto più esitanti e forse le cose andranno sempre cosi.
© 2023 Éditions Gallimard, Paris
© 2024 Giulio Einaudi editore s.p.a., Torino
- dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
- sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.