«I robot imparano sempre più in fretta Ma il mondo tarda a darsi delle regole»

L'esperto di intelligenza artificiale: «Gli algoritmi sono opachi, serve etica. E una crisi come quella dei missili a Cuba»

Massimo Pellegrino è responsabile della Practice di Digital Strategy&Innovation di PricewaterhouseCoopers. È uno dei massimi esperti in Italia di intelligenza artificiale e machine learning e lo scorso ottobre è stato chiamato dalla Singularity University come relatore del secondo SingularityU Italy Summit di Milano. Ecco come racconta il presente - e il futuro - di AI e robotica.

NUOVI CERVELLI «L'intelligenza artificiale è un'opportunità. Negli ultimi 10 anni computer più potenti e una massiccia disponibilità di dati hanno fatto fare un salto esponenziale in fatto di qualità. Non siamo arrivati ancora arrivati a un'esatta replica del intelligenza umana, però in alcuni casi e in domini specifici le performance sono molto vicine a quelle umane».

I RISCHI «Come in tutti i fenomeni tecnologici, lo sviluppo è molto più veloce della cultura e questo provoca ostacoli nelle aziende e tra l'opinione pubblica. D'altra parte a livello mediatico la fantascienza ha fatto dei danni: per esempio in un film come 2001: Odissea nello spazio, con il computer Hal si mette in risalto l'aspetto non umano contro quello umano. Invece l'attenzione deve concentrarsi sugli algoritmi di machine learning, che sono opachi: è difficile dire in che modo arrivino a un risultato e potrebbero discriminare ingiustamente qualcuno per motivi religiosi, razziali, economici per un semplice calcolo probabilità».

L'ETICA «Sappiamo già che quando un sistema è autonomo un auto, dei droni o un robot si trova a dover prendere delle decisioni. Mettersi d'accordo sui principi etici che le guidano non è semplicissimo. L'etica non è una scienza esatta: ci sono principi generali poco applicabili e principi contestuali che variano di comunità in comunità. E poi ci sono problemi tecnici: come aggiungere a un'agenda digitale senza considerare le esperienze quotidiane? La cosa positiva è il revival delle discipline umanistiche applicate all'AI: filosofia, linguistica e antropologia, design. È diventato un ambito ancora più interdisciplinare con grandi opportunità di lavoro».

L'ITALIA «Purtroppo l'argomento non è all'ordine del giorno, c'è una sensibilità più alta in Gb e Usa dopo lo scandalo di Cambridge Analytica. Qui da noi non c'è ancora il bilanciamento tra gli Apocalittici e gli Ottimisti ed io credo ci sia la necessità di avere un approccio più bilanciato. La tecnologia è portatrice di enormi opportunità: va preso il buono ma vanno anche calcolati i rischi».

IL MONDO «Non credo che l'AI finirà in mano a poche persone e il punto di singolarità, il momento in cui si teorizza che l'intelligenza artificiale supererà quella umana, non sappiamo se e quando si realizzerà. Dovesse avvenire, è un rischio di portata molto più alta di quello che dobbiamo affrontare ora. Adesso bisogna creare gli anticorpi, però c'è un problema di governance mondiale. Nella Storia è sempre stato difficile mettersi d'accordo, ma in questo caso c'è una spinta dal basso di aziende, agenzie, università. Può avere analogia con la guerra nucleare, il fatto che si arrivasse a contenere il rischio è partito dai movimenti d'opinione. Ci servirà un'equivalente della crisi dei missili a Cuba.

E di fronte a una minaccia non credo che l'umanità sia votata all'estinzione. Sono profondamente ottimista. Però bisogna recuperare la credibilità del mondo scientifico se una società non ha più la possibilità di fidarsi di una fonte autorevole, allora il problema diventa irrisolvibile».

Commenti
Disclaimer
I commenti saranno accettati:
  • dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
  • sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.
Pubblica un commento
Non sono consentiti commenti che contengano termini violenti, discriminatori o che contravvengano alle elementari regole di netiquette. Qui le norme di comportamento per esteso.
Accedi
ilGiornale.it Logo Ricarica