Gerd Gigerenzer, scienziato cognitivo, dirige il Max Planck Institute for Human Development di Berlino, dove conduce numerosi studi sull'intelligenza, umana e artificiale. Il 21 febbraio sarà in libreria, edito da Raffaello Cortina, il suo nuovo saggio Perché l'intelligenza umana batte ancora gli algoritmi (pagg. 368, euro 26): un libro che, per la chiarezza degli esempi e per l'umanesimo di fondo (da parte di uno scienziato) sarebbe da far leggere ai ragazzi nelle scuole.
Davvero possiamo «rimanere intelligenti in un mondo intelligente»?
«Certo. Nel nostro mondo, tutto diventa sempre più smart; quindi, noi dobbiamo esserlo ancora di più. Sarebbe un errore fare un passo indietro e lasciare che l'Intelligenza artificiale conquisti le nostre democrazie, perché dietro l'Ia ci sono le persone: aziende, istituzioni e Stati che ci manipolano, se smettiamo di pensare».
Ci sono delle strategie?
«Sì. Per esempio, su internet, non leggere mai un sito dall'inizio alla fine, come un giornale, ma usare la lettura laterale, confrontando il contenuto con altri siti; oppure adottare la disciplina del clic: non cliccare subito il primo o il secondo risultato di una ricerca, perché è l'algoritmo a stabilire l'ordine, calcolando che, da quei siti, si possono ottenere più guadagni dalla pubblicità».
L'Ia è più forte di noi a scacchi ma - scrive - questo non significa che essa sconfigga gli umani. Perché?
«Le reti neurali artificiali possono risolvere moltissimi problemi meglio di noi, ma non tutti. Se le questioni rientrano nel principio del mondo stabile, gli algoritmi complessi ci superano; ma se il problema è instabile, come avviene nella quotidianità, che è incerta, gli algoritmi complessi non ci aiutano. I Big Data si basano sempre sul passato; quindi, se il futuro non è come il passato, gli algoritmi sono fuorvianti».
Perché invece il nostro cervello funziona meglio?
«Perché l'intelligenza umana si è evoluta in un mondo instabile. Si è evoluta per avere a che fare con l'incertezza. Per farlo, usiamo l'euristica: per esempio, al Max Planck abbiamo dimostrato che le previsioni sull'influenza basate sull'esperienza recente sono migliori di quelle basate sui Big Data».
Lei dice che il «capitalismo della sorveglianza» non è un risultato necessario della realtà digitale, bensì del modello di business dei social. Che vuol dire?
«È come essere in un bar che dia il caffè gratis, così tutti ci vanno, si divertono, chiacchierano, e non costa nulla... Però sui tavoli ci sono microspie e alle pareti telecamere che registrano ogni parola che diciamo, e a chi la diciamo; e il locale è pieno di venditori che ci interrompono per offrirci prodotti personalizzati. Sui social non sei il cliente, sei il prodotto. Basterebbe pagare per il servizio: la sorveglianza è necessaria perché non si paga».
Quindi?
«Dobbiamo tornare
a internet come era all'inizio: un luogo di libertà, di informazione onesta e corretta per tutti. La libertà è stata corrotta da aziende e governi, ma la sorveglianza non è affatto una conseguenza necessaria della rete».- dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
- sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.