La mente umana non è, come ChatGPT e i suoi simili, un motore statistico ingombrante per la corrispondenza dei modelli. È un sistema sorprendentemente efficiente ed elegante che opera con piccole quantità di informazioni; non cerca di dedurre correlazioni brutali tra i dati, ma di creare spiegazioni.
di Ian Roberts, Jeffrey Watumull, Noam Chomsky, New York Times – 08/03/2023
Jorge Luis Borges scrisse che vivere in un’epoca di grandi pericoli e promesse significa sperimentare sia la tragedia che la commedia, con “l’imminenza di una rivelazione” nella comprensione di noi stessi e del mondo. Oggi i nostri presunti progressi rivoluzionari nell’intelligenza artificiale sono in effetti motivo di preoccupazione e di ottimismo. Ottimismo perché l’intelligenza è il mezzo con cui risolviamo i problemi. Preoccupazione perché temiamo che il filone più popolare e alla moda dell’A.I. – l’apprendimento automatico – degradi la nostra scienza e svilisca la nostra etica incorporando nella nostra tecnologia una concezione fondamentalmente errata del linguaggio e della conoscenza.
ChatGPT di OpenAI, Bard di Google e Sydney di Microsoft sono meraviglie dell’apprendimento automatico. In parole povere, prendono enormi quantità di dati, ne cercano gli schemi e diventano sempre più abili nel generare risultati statisticamente probabili, come un linguaggio e un pensiero apparentemente simili a quelli umani. Questi programmi sono stati acclamati come i primi barlumi all’orizzonte dell’intelligenza artificiale generale, quel momento a lungo profetizzato in cui le menti meccaniche supereranno i cervelli umani non solo quantitativamente in termini di velocità di elaborazione e dimensioni della memoria, ma anche qualitativamente in termini di intuizione intellettuale, creatività artistica e ogni altra facoltà distintivamente umana.
Quel giorno potrebbe arrivare, ma la sua alba non è ancora spuntata, contrariamente a quanto si legge nei titoli iperbolici e si calcola con investimenti avventati. La rivelazione borgesiana della comprensione non si è verificata e non si verificherà – e, a nostro avviso, non può verificarsi – se programmi di apprendimento automatico come ChatGPT continueranno a dominare il campo dell’A.I. Per quanto questi programmi possano essere utili in alcuni ambiti ristretti (possono essere utili nella programmazione di computer, per esempio, o nel suggerire rime per versi leggeri), sappiamo dalla scienza della linguistica e dalla filosofia della conoscenza che differiscono profondamente dal modo in cui gli esseri umani ragionano e usano il linguaggio. Queste differenze pongono limitazioni significative a ciò che questi programmi possono fare, codificandoli con difetti ineliminabili.
È comico e tragico allo stesso tempo, come avrebbe potuto notare Borges, che tanto denaro e tanta attenzione si concentrino su una cosa così piccola – una cosa così banale se confrontata con la mente umana, che a causa del linguaggio, secondo le parole di Wilhelm von Humboldt, può fare “un uso infinito di mezzi finiti”, creando idee e teorie di portata universale.
La mente umana non è, come ChatGPT e i suoi simili, un motore statistico ingombrante per la corrispondenza dei modelli, che si ingozza di centinaia di terabyte di dati ed estrapola la risposta più probabile a una conversazione o la risposta più probabile a una domanda scientifica. Al contrario, la mente umana è un sistema sorprendentemente efficiente e persino elegante che opera con piccole quantità di informazioni; non cerca di dedurre correlazioni brutali tra i dati, ma di creare spiegazioni.
Per esempio, un bambino che acquisisce una lingua sta sviluppando – inconsciamente, automaticamente e rapidamente a partire da dati minuscoli – una grammatica, un sistema stupendamente sofisticato di principi e parametri logici. Questa grammatica può essere intesa come un’espressione del “sistema operativo” innato, geneticamente installato, che conferisce agli esseri umani la capacità di generare frasi complesse e lunghi ragionamenti. Quando i linguisti cercano di sviluppare una teoria sul perché una determinata lingua funziona come funziona (“Perché queste frasi – ma non quelle – sono considerate grammaticali?”), stanno costruendo consapevolmente e faticosamente una versione esplicita della grammatica che il bambino costruisce istintivamente e con una minima esposizione alle informazioni. Il sistema operativo del bambino è completamente diverso da quello di un programma di apprendimento automatico.
Infatti, tali programmi sono bloccati in una fase pre-umana o non-umana dell’evoluzione cognitiva. Il loro difetto più profondo è l’assenza della capacità più critica di qualsiasi intelligenza: dire non solo ciò che è il caso, ciò che è stato il caso e ciò che sarà il caso – questa è la descrizione e la previsione – ma anche ciò che non è il caso e ciò che potrebbe o non potrebbe essere il caso. Questi sono gli ingredienti della spiegazione, il marchio della vera intelligenza.
Ecco un esempio. Supponiamo di avere in mano una mela. Ora lasciate andare la mela. Osservate il risultato e dite: “La mela cade”. Questa è una descrizione. Una previsione potrebbe essere l’affermazione “La mela cadrà se apro la mano”. Entrambe hanno valore e possono essere corrette. Ma una spiegazione è qualcosa di più: Include non solo descrizioni e previsioni, ma anche congetture controfattuali come “Qualsiasi oggetto del genere cadrebbe”, più la clausola aggiuntiva “a causa della forza di gravità” o “a causa della curvatura dello spazio-tempo” o altro. Questa è una spiegazione causale: “La mela non sarebbe caduta se non fosse stato per la forza di gravità”. Questo è pensare.
Il punto cruciale dell’apprendimento automatico è la descrizione e la previsione; non prevede meccanismi causali o leggi fisiche. Naturalmente, qualsiasi spiegazione di tipo umano non è necessariamente corretta; siamo fallibili. Ma questo fa parte di ciò che significa pensare: per essere giusti, deve essere possibile sbagliare. L’intelligenza non consiste solo in congetture creative, ma anche in critiche creative. Il pensiero di tipo umano si basa su possibili spiegazioni e sulla correzione degli errori, un processo che limita gradualmente le possibilità che possono essere considerate razionalmente. (Come disse Sherlock Holmes al dottor Watson: “Quando hai eliminato l’impossibile, ciò che rimane, per quanto improbabile, deve essere la verità”).
Ma ChatGPT e programmi simili sono, per loro stessa concezione, illimitati in ciò che possono “imparare” (cioè memorizzare); sono incapaci di distinguere il possibile dall’impossibile. A differenza degli esseri umani, per esempio, che sono dotati di una grammatica universale che limita le lingue che possiamo imparare a quelle con un certo tipo di eleganza quasi matematica, questi programmi imparano con la stessa facilità le lingue umanamente possibili e quelle umanamente impossibili. Mentre gli esseri umani sono limitati nei tipi di spiegazioni che possiamo razionalmente ipotizzare, i sistemi di apprendimento automatico possono imparare sia che la terra è piatta sia che la terra è rotonda. Si tratta solo di probabilità che cambiano nel tempo.
In breve, ChatGPT e i suoi fratelli sono costituzionalmente incapaci di bilanciare la creatività con i vincoli. O generano in eccesso (producendo sia verità che falsità, appoggiando decisioni etiche e non) o generano in difetto (mostrando assenza di impegno in qualsiasi decisione e indifferenza alle conseguenze). Data l’amoralità, la falsa scienza e l’incompetenza linguistica di questi sistemi, possiamo solo ridere o piangere per la loro popolarità.
Chomsky e Roberts sono professori di linguistica. Watumull è direttore di IA presso un’azienda scientifica e tecnologica.
