Finché si tratta di uno strumento per giocare su Internet, farsi qualche risata con le voci artificiali di vip che cantano le hit dell'estate, o anche, perché no, farsi aiutare per svolgere un compito o una ricerca particolarmente noiosa, non ci sono problemi. Ma è ormai evidente che l'intelligenza artificiale, se non usata in maniera adeguata, e senza un regolamento preciso che ne indirizzi l'utilizzo, può diventare un pericolo. Al punto che un pool di scienziati, tra i maggiori esperti mondiali in materia, ha lanciato l'allarme: rischiamo l'estinzione. Realtà, fantascienza o eccesso di allarmismo si vedrà. Fatto sta che le istituzioni mondiali stanno rapidamente correndo ai ripari. O almeno ci provano.
Dagli Stati Uniti fino al G7, passando per l'Europa, si cerca di regolamentare un settore che rischia di diventare, se già non lo è, un vero far West. Il presidente americano Joe Biden sembra quello deciso a intervenire con maggiore forza. Ieri ha presentato un ordine esecutivo per regolare l'uso dell'intelligenza artificiale in cui si impegna a creare standard di sicurezza e protezione e richiederà ad alcune società che lavorano nel settore di condividere i risultati dei test di sicurezza con il governo. Biden chiede anche che venga valutato se gli algoritmi promuovano la discriminazione specie quando utilizzati per sentenze, prevenzione dei reati, appalti o nei processi di assunzione. «È necessario fare il possibile su tutti i fronti per accentuare i benefici dell'intelligenza artificiale e mitigarne i rischi», ha spiegato la Casa Bianca.
Anche il nostro Paese si muove. Ieri si è tenuto un vertice trilaterale tra Italia, Germania e Francia, con il ministro delle Imprese e del Made in Italy Adolfo Urso a rilanciare il tema della «cooperazione industriale» tra i tre Paesi. «Abbiamo dato un segnale forte alla nostra Europa sulla strada che insieme dobbiamo perseguire sul futuro tecnologico e scientifico», ha detto Urso. L'obiettivo futuro è anche quello di canalizzare le potenzialità della nuova tecnologia e creare un'industria europea dell'intelligenza artificiale con lo scopo di ottimizzarne gli aspetti positivi ed evitare potenziali minacce. Il tutto mentre il G7 ha stilato una serie di linee guida e un codice di condotta internazionale per le aziende e le organizzazioni che sviluppano sistemi di intelligenza artificiale, dopo che il tema è stato tra i più dibattuti all'ultimo vertice di Hiroshima. Italia, Francia, Usa, Giappone, Regno Unito, Germania e Canada hanno stilato un memorandum in undici punti con lo scopo di avere una AI sicura e affidabile. Anche se al codice di condotta si aderisce soltanto su base volontaria, lasciando quindi molto elevato il tema della discrezionalità.
Nel codice, si spiega tra l'altro che «sfruttando le opportunità dell'innovazione, le organizzazioni dovrebbero rispettare lo stato di diritto, i diritti umani, il giusto processo, la diversità, l'equità, la democrazia e la tutela dei diritti umani nella progettazione, nello sviluppo e nell'implementazione di sistemi avanzati di AI».
Richiesto anche che non si indeboliscano le democrazie, che non si favoriscano terrorismo e abusi criminali oltre a chiedere che vengano condivise le informazioni e si lavori per trovare metodi efficaci per distinguere l'operato dell'intelligenza artificiale da quello dell'uomo. Nulla di eccessivamente definito quindi, ma un primo passo. Là dove sembra evidente che la tecnologia sia ben più avanti rispetto alle norme che le regolano.
- dal lunedì al venerdì dalle ore 10:00 alle ore 20:00
- sabato, domenica e festivi dalle ore 10:00 alle ore 18:00.