L'intelligenza artificiale deve imparare come un bambino
I nuovi sistemi di intelligenza artificiale sono straordinari, ma non possono competere con gli esseri umani. Benjamin Grewe sostiene quindi che le macchine intelligenti di domani impareranno come bambini piccoli.
Il sogno di creare una macchina intelligente simile all'uomo attraversa la storia dell'umanità. Di recente abbiamo sentito parlare da San Francisco di un nuovo sistema linguistico chiamato GPT3. Secondo i suoi sviluppatori, è in grado di rispondere a domande generiche, correggere e completare testi o addirittura scriverli da solo, senza essere stato addestrato per compiti specifici. GPT3 svolge quest'ultimo compito così bene che le righe generate sono difficilmente distinguibili da testi umani. Cosa ne pensiamo?
GPT3 conosce (quasi) tutta Internet
GPT3 è stato addestrato con un set di dati testuali di 500 miliardi di stringhe di caratteri basati sull'intero Internet (filtrato), su Wikipedia e su diverse raccolte di libri digitalizzati. Un enorme patrimonio di conoscenza che l'uomo non è in grado di gestire. Ma che cosa fa esattamente GPT3 con tutto questo? In quello che è noto come addestramento "auto-supervisionato", la rete linguistica impara semplicemente a completare la parola successiva sulla base di una determinata sezione di testo. L'algoritmo si ripete e riesce a prevedere quale parola è più probabile che sia quella successiva. In questo modo, scrive iterativamente una frase o un testo completo.
La regola generale per i moderni sistemi linguistici di intelligenza artificiale è: Più grande è la rete e più numerose sono le connessioni tra i neuroni artificiali, migliore è l'apprendimento. GPT3 è composto da ben 175 miliardi di parametri di connessione. A titolo di confronto, la famosa rete BERT di Google ne contiene solo 255 milioni, mentre il cervello umano ne ha 10.14 connessioni sinaptiche. Questo significa che supera il GPT3 di un fattore fino a 10.000!
Per me, le numerose carenze di GPT3 simboleggiano il problema delle moderne reti neurali artificiali "ad alte prestazioni". Praticamente ogni testo generato è grammaticalmente corretto. Il contenuto è persino logicamente coerente a Chi siamo. Tuttavia, i testi più lunghi hanno spesso poco senso in termini di contenuto. Non è sufficiente prevedere la parola successiva. Per essere veramente intelligente, una macchina dovrebbe comprendere il contenuto e gli obiettivi di un testo. Il sistema linguistico GPT3 non è assolutamente in grado di rispondere a tutte le domande generali. Pertanto, con GPT3 non è stata sviluppata un'intelligenza simile a quella umana.
Le persone imparano molto di più dei semplici modelli statistici
A mio parere, l'esempio di GPT3 illustra anche un altro problema generale che la ricerca sull'intelligenza artificiale deve affrontare oggi. Gli attuali sistemi e algoritmi intelligenti sono incredibilmente bravi a elaborare grandi quantità di dati, a riconoscere modelli statistici e, se necessario, a riprodurli da soli. Il problema, tuttavia, è rappresentato dagli algoritmi di addestramento altamente specializzati. Imparare semplicemente il significato di una parola da un testo e utilizzarla in modo grammaticalmente corretto non è sufficiente.
Prendiamo l'esempio di "cane": anche se insegniamo a una macchina che la parola statisticamente compare spesso nei testi insieme a "bassotto", "San Bernardo" o "carlino", per un essere umano questa parola risuona con molti più "significati". Forma numerose connotazioni che sono costituite da una moltitudine di esperienze e ricordi reali e fisici. ? per questo che il "sistema linguistico umano" può leggere tra le righe, dedurre l'intenzione di chi scrive o interpretare un testo.
Come imparano le persone e cosa impariamo noi?
Lo psicologo svizzero dello sviluppo Jean Piaget ha descritto le caratteristiche principali dell'apprendimento umano durante lo sviluppo infantile. I bambini imparano reagendo all'ambiente, interagendo con esso e osservandolo. In questo modo, passano attraverso vari stadi cognitivi che si costruiscono l'uno sull'altro. ? importante notare che l'intelligenza sensomotoria, dal meccanismo dei riflessi all'azione intenzionale, è la prima a svilupparsi. Solo molto più tardi il bambino acquisisce la capacità di parlare, di mettere in relazione logica i fatti o addirittura di formulare pensieri astratti e ipotetici, come quando rievoca situazioni vissute.
"I bambini possono - anche se probabilmente elaborano meno dati dal punto di vista quantitativo - fare comunque di più di qualsiasi IA".Benjamin Grewe
Sono convinto che se vogliamo fare progressi decisivi verso un'intelligenza simile a quella umana nell'apprendimento automatico, dobbiamo orientarci molto di più al modo in cui i bambini imparano e si sviluppano, ad esempio. L'interazione fisica con l'ambiente gioca un ruolo centrale in questo senso. In termini concreti, potremmo immaginare i seguenti approcci: Umwelt und Geomatik costruisce o simula robot interattivi, orientati all'uomo, che integrano una varietà di esperienze sensoriali nell'apprendimento automatico e imparano autonomamente in un ambiente reale o virtuale.
Le informazioni provenienti dal sistema locomotore e dai sensori visivi, uditivi e tattili vengono poi collegate in rete in modo da creare schemi coerenti. Una volta appresi gli schemi semplici, l'algoritmo può lentamente iniziare a integrarli con un sistema di linguaggio astratto. Ciò consente di astrarre ulteriormente ciò che è stato appreso, adattandolo e collegandolo ad altri concetti astratti.
In breve: oggi i bambini imparano in modo fondamentalmente diverso dalle macchine e, sebbene elaborino meno dati in termini quantitativi, possono comunque fare di più di qualsiasi IA. Secondo gli sviluppatori, GPT3 sta probabilmente già raggiungendo i limiti di ciò che è possibile fare con la quantità di dati. Questo dimostra anche che gli algoritmi di apprendimento altamente specializzati con un numero ancora maggiore di dati non miglioreranno più in modo significativo l'apprendimento automatico. Per inciso, questo post è stato scritto da un essere umano e ci vorrà ancora molto tempo prima che una macchina possa fare lo stesso.
Questo testo appare anche come pezzo d'opinione nella sezione pagina esternaNZZ am Sonntag.