Se l'auto che guida da sola va in crisi come un umano

Debutta in Italia e passa col rosso. Ma il problema è: in caso di incidente sa scegliere il male minore?

Se l'auto che guida da sola va in crisi come un umano

Mangiare un panino, guardare un film, scrivere un articolo, mandare messaggi, fare bricolage. Le auto che si guidano da sole sarebbero una bellissima cosa, davvero. Da un lato si eviterebbero tutti gli incidenti derivati da errori umani e ci si potrebbe dedicare ad altre attività. Però, c'è un però. Immaginiamo un'automobile a guida autonoma che viaggia bella tranquilla su una strada. Tutto meraviglioso. Mettiamo che l'auto si trovasse di fronte un bambino, a lato avesse un anziano e dall'altro lato una madre incinta. Cosa farebbe l'auto, chi sceglierebbe di investire se non potesse fare altrimenti? Vale di più il bambino, la donna incinta o l'anziano? Ecco, in questa domanda è riassunto il perché lo sviluppo di questa tecnologia (che avremmo anche tutta la capacità tecnica di costruire) è ancora bloccato. Questo è un caso limite, ma mostra ciò che i giornali americani hanno scritto e riscritto.

Ad aprile, in Italia, è stata aperta la sperimentazione per la guida senza conducente. L'ok è arrivato dopo la pubblicazione in Gazzetta Ufficiale. Il decreto Ministeriale, firmato da Delrio, prevede la sperimentazione solo su alcuni tratti di strada e l'autorizzazione può essere richiesta da istituti universitari, enti di ricerca pubblici e privati, e costruttori di veicoli. Martedì un'auto a guida autonoma, per la prima volta è stata testata per le strade di Torino. Ovvero, l'hanno accesa e l'hanno lasciata andare in giro per le strade. Sensori, 5g, intelligenza artificiale che batte in un cuore tecnologico e tantissime diavolerie per capire dove è giusto frenare e dove si sta andando. Un passo in avanti, certo. Però, durante il test, piccolo inconveniente: l'auto non si è fermata al semaforo ed è passata con il rosso. Il problema sta nelle scelte che l'intelligenza artificiale dovrebbe riuscire a compiere. L'incidente con il semaforo rosso, vedete, è poca cosa. A marzo, un'auto senza conducente di Uber ha investito e ucciso una donna che si chiamava Elaine Herzberg. È successo in Arizona. Probabilmente, non siamo ancora pronti e le macchine non sono ancora abbastanza intelligenti.

Questo fa riflettere sulla capacità delle macchine di prendere decisioni complesse. Il problema, non da poco, riguarda anche costruttori e delle assicurazioni. In caso di incidente di chi sarà la responsabilità? Esiste un sito del MIT che si chiama Moral Machine, una piattaforma che serve a dare una prospettiva umana sulle decisioni morali compiute dalle macchine, dove con il nostro intelletto umano possiamo provare a giudicare situazioni limite. Un modello interattivo pensato per far decidere la persona in situazioni delicate e, talvolta, anti-etiche.

Uno studio di Land Rover, fatto quest'anno, ha rilevato che il 63% delle persone è scettico verso le auto senza conducente e preferisce ancora uno sguardo umano. La ricerca sulle auto autonome è in fase di sviluppo anche in Usa e Cina (Tesla docet). Delle auto che si guidano da sole e delle scelte morali delle macchine, e questo può far sorridere, si sono occupati anche i Simpson: Homer, nell'episodio di novembre, intitolato «Baby you can't drive my car», ha lavorato come tester delle auto a guida autonoma. Non si schiantava, ma le macchine chiaccheravano tra loro.

Ma la domanda

fondamentale resta questa: quale capacità di giudizio avranno le macchine davanti a situazioni difficili? Se non risolviamo questo dilemma e le questioni etiche, il futuro dell'auto che si guida da sola potrebbe essere distante.

Commenti
Disclaimer
I commenti saranno accettati:
  • dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
  • sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.
Accedi
ilGiornale.it Logo Ricarica