L’Intelligenza artificiale contri i crimini? Perché siamo ancora lontani

L’obiettivo primo dei lavori come quelli svolti dal gruppo di ricerca dell’Università di Chicago non è ancora riuscire ad anticipare i crimini ma è il riuscire a contribuire allo sviluppo di un’IA in grado di farlo con una certa efficacia

L’Intelligenza artificiale contri i crimini? Perché siamo ancora lontani

Mai cedere ai facili entusiasmi, soprattutto quando si parla di Intelligenze artificiali (IA). Va però segnalato uno studio condotto da un gruppo di ricercatori dell’Università di Chicago e pubblicato su Nature Human Behaviour nel quale viene illustrata la capacità di un’IA di identificare i luoghi in cui verranno commessi dei crimini.

Lo studio

Lo studio per il momento ha valore soltanto in otto città americane e si basa su un algoritmo a suo modo statico: esaminando lo storico dei luoghi nei quali sono stati consumati reati violenti si potrebbe – in linea teorica – stabilire in quali posti potranno esserne commessi altri.

Benché ogni piccola conquista contribuisca al progresso, l’IA non è in grado di dire quando i crimini verranno commessi né da chi e, in ultima analisi, gli algoritmi non sono scevri da pregiudizi.

L’algoritmo crea un modello digitale delle città, suddividendole in zone di 300 metri quadrati ognuna per avere una prospettiva topografica più efficiente ed esamina tutti i dati relativi ai crimini che gli vengono forniti. Poiché per l’addestramento delle IA (il Machine Learning) servono molte informazioni, queste diventano più attendibili a mano a mano che i dati diventano più precisi e corposi. Ma tutto ciò non basta per ottenere previsioni realistiche, nel caso specifico mancano molti parametri come, per esempio, un’analisi degli eventi socioeconomici che inducono al crimine tra disoccupazione, povertà, acquisto di armi e persino periodi dell’anno in cui la tendenza al crimine si intensifica.

Di valore è il nome del responsabile del gruppo di ricerca, Ishanu Chattopadhyay, già autore di molti studi sia sull’uso delle IA sia sui pregiudizi di cui queste soffrono. I risultati di molte ricerche hanno dato ormai per conclamato il fatto che gli algoritmi tendono a fare propri i pregiudizi dell’uomo ma occorre uscire dal contesto delle Intelligenze artificiali per comprendere quanto sia difficile sanare questo gap.

Il problema è a monte

Diventa complicato, se non del tutto proibitivo, istruire modelli di IA simili se si parte da una realtà fisica compromessa: a Chicago, per esempio, la polizia compie più arresti se i crimini avvengono nelle zone ricche della città ed è meno solerte per reati commessi nelle aree meno abbienti. Con questi dati si istruiscono IA dalle potenzialità parziali e ogni altra miglioria degli algoritmi può essere ottenuta simulando matematicamente le informazioni. Si giunge così al punto di alimentare un’Intelligenza artificiale probabilistica con dati a loro volta probabilistici, andando a inficiare sul risultato finale.

Nel 2016, sempre a Chicago, un’IA ha cercato di individuare le persone più esposte al rischio di sparatorie a prescindere dal ruolo che queste potessero svolgere nello scontro armato. Ne è emerso che i profili selezionati fossero persone di colore nel 56% dei casi.

L’obiettivo primo (e non ultimo) dei lavori come quelli svolti dal gruppo di ricerca dell’Università di Chicago non è ancora riuscire ad anticipare i crimini ma è il riuscire a contribuire allo sviluppo di un’IA in grado di farlo potenzialmente con una certa efficacia.

Siamo ancora lontani? Riusciremo a farlo? La risposta alla prima domanda è ovvia: sì, siamo lontani, almeno prendendo in esame lo scenario odierno. Alla seconda domanda si potrebbe rispondere in modo positivo, ma attendersi che ciò possa contribuire in futuro a ridurre a zero il crimine sarebbe poco credibile.

Commenti
Disclaimer
I commenti saranno accettati:
  • dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
  • sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.
Accedi
ilGiornale.it Logo Ricarica