Strumenti
FTL
Una Facoltà affiliata all'USI

I limiti matematici dell'intelligenza artificiale generale

92df4c3d6c0b7395321340fd56a515f6.jpg

Servizio comunicazione istituzionale

23 Marzo 2023

La recente popolarità di ChatGPT e di altri modelli linguistici in grado di scrivere testi elaborati e di rispondere alle domande degli utenti ha ridato attualità al dibattito sull’Intelligenza artificiale generale e i suoi rischi. L’AGI (Artificial general intelligence) è un’intelligenza artificiale in grado di eguagliare o superare tutte le manifestazioni dell’intelligenza umana. Il tema è stato al centro di un seminario organizzato dall’Istituto di studi filosofici della Facoltà di Teologia di Lugano, affiliata all’USI, partendo dal saggio Why Machines Will Never Rule the World (Routledge 2023) di Jobst Landgrebe e Barry Smith, e a cui sono intervenuti anche Tim Crane (CEU, Vienna), Emma Tieffenbach (USI, EPFL) e Stefan Wolf (USI).

Le capacità di questi modelli linguistici lasciano pensare che la realizzazione di un’intelligenza artificiale generale sia relativamente vicina. Quello che separa gli attuali sistemi in grado di produrre testi persuasivi su vari argomenti e un programma capace di eguagliare, o addirittura superare, le capacità di una mente umana della mente umana sarebbe solo una questione di potenza di calcolo. Partendo da questa idea, alcuni filosofi come Nick Bostrom sostengono che sia inevitabile lo sviluppo della cosiddetta Singolarità, un’intelligenza artificiale completamente autonoma e potenzialmente pericolosa, e che il compito della filosofia dovrebbe essere prepararsi a questo evento.

La tesi di Landgrebe e Smith è invece che sia impossibile sviluppare un’intelligenza artificiale generale e, come hanno spiegato durante il loro intervento al seminario, non per limiti tecnologici: si tratta di un’impossibilità matematica.

Sistemi come ChatGPT sono basati sul deep learning e devono la loro efficacia a una fase di addestramento che avviene analizzando un campione di dati. Questo insieme di addestramento, ha spiegato Smith, deve avere una varianza confrontabile con quella dei dati sui quali l’intelligenza artificiale andrà poi a operare. Ma per sistemi come la mente e il linguaggio umani non è possibile creare un insieme di addestramento con queste caratteristiche per cui i modelli saranno forzatamente limitati. Si tratta, come accennato, di un’impossibilità matematica, simile all’impossibilità di avere una macchina a moto perpetuo.

Per comprendere meglio questa impossibilità, Landgrebe e Smith introducono un’importante distinzione, quella tra sistemi logici e sistemi complessi. I primi sono regolati da un insieme chiuso di regole ed è pertanto possibile, anche se in alcuni casi può essere molto complicato, prevedere il loro comportamento. Il moto dei pianeti e un motore a combustione sono sistemi logici. I sistemi complessi invece evolvono nel tempo secondo interazioni che dipendono dal contesto. Esempi di sistemi complessi sono, oltre alla mente umana, anche il clima globale, il mercato azionario e gli organismi viventi. È possibile creare modelli predittivi per i sistemi complessi, ma questi saranno o generali oppure limitati nel tempo. È il caso, ad esempio, delle previsioni del tempo: dettagliate e affidabili per i prossimi giorni, generiche per periodi più lunghi.

La teoria di Landgrebe e Smith spiega sia gli importanti successi raggiunti da sistemi di intelligenza artificiale quando si ha a che fare con compiti specifici, sia i limiti che emergono ad esempio in ChatGPT quando il modello linguistico viene messo alla prova in contesti “estremi” come il linguaggio scientifico o quello filosofico.