I sistemi di intelligenza artificiale possono sbagliare senza ammetterlo

Per costruire un sistema di intelligenza artificiale a cui gli esseri umani possano affidare responsabilità di vita o di morte, le macchine dovranno sviluppare una caratteristica molto umana: ammettere i propri errori.

I sistemi di intelligenza artificiale possono sbagliare senza ammetterlo

Di Tara Haelle

5 aprile 2022 C I sistemi di intelligenza artificiale vengono costruiti per aiutare a diagnosticare le malattie, ma prima di poter affidare loro responsabilità di vita e di morte, le IA dovranno sviluppare una caratteristica molto umana: ammettere gli errori.

E la verità è che non sono ancora in grado di farlo.

Secondo i ricercatori dell'Università di Cambridge e dell'Università di Oslo, oggi le IA sono più spesso in grado di fornire la risposta corretta a un problema che di rendersi conto di aver commesso un errore.

Questo difetto fondamentale, riferiscono, ha le sue radici in un problema matematico.

Alcune affermazioni matematiche non possono essere dimostrate né vere né false. Per esempio, la stessa matematica che la maggior parte di noi ha imparato a scuola per trovare le risposte a domande semplici e complicate non può essere usata per dimostrare la nostra coerenza nell'applicarla.

Forse abbiamo dato la risposta giusta e forse no, ma avevamo bisogno di verificare il nostro lavoro. Questo è qualcosa che gli algoritmi dei computer per lo più non possono ancora fare.

È un paradosso matematico identificato per la prima volta dai matematici Alan Turing e Kurt G. del all'inizio del XX secolo, secondo cui alcuni problemi matematici non possono essere dimostrati.

Il matematico Stephen Smale ha poi elencato questo difetto fondamentale dell'intelligenza artificiale tra i 18 problemi matematici irrisolti al mondo.

Partendo dal paradosso matematico, i ricercatori, guidati da Matthew Colbrook, PhD, del Dipartimento di Matematica Applicata e Fisica Teorica dell'Università di Cambridge, hanno proposto un nuovo modo di classificare le aree problematiche dell'IA.

Nel Proceedings of the National Academy of Sciences, i ricercatori hanno tracciato una mappa delle situazioni in cui le reti neurali dell'IA C, modellate sulla base della rete di neuroni del cervello umano, possono essere addestrate per produrre risultati più affidabili.

Si tratta di un importante lavoro iniziale necessario per realizzare sistemi di IA più intelligenti e sicuri.

Hot