Il problema della scatola nera
Un bioeticista e un neuroinformatico parlano della crescente intelligenza delle macchine e del perché questo porti a nuove sfide etiche.
Signor Grewe, cosa ha imparato dal suo servizio civile, durante il quale ha lavorato con bambini con problemi cognitivi?
Benjamin Grewe: Ho notato che la motivazione o l'umorismo, ad esempio, sono spesso completamente inalterati, anche se le funzioni di livello superiore, come la comprensione di concetti astratti, spesso non sembrano funzionare correttamente. Il cervello umano è davvero complesso.
L'intelligenza artificiale può tenere il passo con quella umana?
Grewe: Quando ho iniziato a occuparmi di apprendimento automatico, inizialmente ho programmato una rete neurale artificiale per analizzare il modo in cui gli esseri umani imparano, comprese le paure. Tuttavia, non funzionava come previsto: Qualsiasi cosa le si mostrasse, la rete reagiva sempre con paura. L'intelligenza artificiale (AI) dovrebbe imitare alcuni aspetti dell'intelligenza umana, ma non tutti. Che senso avrebbe un'auto intelligente che si rifiuta di fare il suo lavoro perché ha troppa paura di guidare?
Agata Ferretti: L'IA moderna è orientata al compito. Il livello emotivo, invece, non è altrettanto sviluppato. L'intelligenza umana, d'altra parte, non può essere ridotta all'eccellenza in un particolare compito. Da questo punto di vista, l'IA potrebbe addirittura essere definita "stupida", in quanto adatta solo a settori di applicazione ben definiti.
Grewe: Tuttavia, in futuro ci si sta concentrando sempre di più sull'addestramento dell'IA per più di una specifica area di attività. Ad esempio, si sta cercando di rendere più intelligenti i sistemi linguistici dell'IA utilizzando enormi database di testi su Internet. Sebbene gli algoritmi sviluppati in questo processo siano in grado di creare testi grammaticalmente corretti, hanno solo una comprensione rudimentale del loro contenuto. Per esempio, usano la parola "cane" senza averne mai visto o toccato uno, né tantomeno essere stati morsi da uno di essi.
Ferretti: Ci sono esempi simili in medicina, dove l'intelligenza artificiale viene utilizzata per la diagnosi del cancro basata sulle immagini. Un medico basa la sua valutazione sulle conoscenze mediche e sull'esperienza. L'intelligenza artificiale, invece, si basa, tra le altre cose, sulle condizioni di luce o sui bordi dell'immagine. Questi aspetti sono importanti per riconoscere i modelli, ma non sempre hanno un significato clinico per il medico. Gli esseri umani e le macchine valutano quindi in modo diverso l'importanza di questa correlazione.
Grewe: Questo è un aspetto importante. Nel caso degli attacchi avversari, ad esempio, i ricercatori cercano di superare le reti neurali artificiali. Per esempio, mostrano la foto di un cane, poi cambiano tre pixel specifici e la rete riconosce un gatto. Un essere umano non ci cascherebbe mai.
Scambiare un cane per un gatto può sembrare divertente, ma quando si tratta di diagnosi di cancro, la posta in gioco è alta...
Ferretti: ? vero, e c'è un problema anche quando i sistemi funzionano correttamente. I pazienti possono non fidarsi dei risultati se non capiscono il contesto. Medici e pazienti si fidano di un sistema quando si dimostra affidabile e si rendono conto che le possibili implicazioni sono comunicate in modo trasparente. Sostenere il diritto degli utenti a ricevere spiegazioni adeguate e un certo livello di trasparenza rafforzerebbe la fiducia in questi sistemi.
Tuttavia, persino gli scienziati ammettono che in alcuni sistemi non sanno nemmeno cosa e come si apprende...
Grewe: Questo è un problema importante e generale dell'apprendimento automatico. Fino a poco tempo fa, i ricercatori programmavano i robot utilizzando codici di istruzione diretti: "Per afferrare questa tazza, muovi la mano verso destra e chiudila nella posizione XY", quindi sapevano esattamente cosa stava facendo il robot. Ora, invece, gli si forniscono ampi dati di immagine, lui prova diversi movimenti a caso e quando prende la tazza gli si dice: "? andata bene, ora impara e ripeti". I ricercatori non programmano più e conoscono ogni singola fase del processo, ma insegnano agli algoritmi il comportamento desiderato utilizzando un apprendimento esteso. Tuttavia, questa è una vera e propria scatola nera. Nessuno sa esattamente come funzionano questi algoritmi. Il problema più grande è che a volte falliscono completamente e non sappiamo perché.
Abbiamo quindi bisogno di un apprendimento automatico interpretabile il cui modello sia progettato per la trasparenza fin dall'inizio?
Ferretti: Sarebbe utile un certo grado di spiegabilità. Questo può anche aiutare a chiarire la questione della responsabilità se qualcosa va storto. Se la tecnologia viene utilizzata nel settore sanitario, ad esempio, deve essere possibile risalire al responsabile di una diagnosi errata: un medico che ha commesso un errore o un errore del sistema di intelligenza artificiale.
Grewe: Deve essere chiaro quando e perché i sistemi di intelligenza artificiale commettono errori. Se un umano prende una decisione, possiamo chiedergli perché. Questo non è ancora possibile con gli algoritmi delle reti neurali artificiali.
Ferretti: Dobbiamo anche parlare dei dati che forniamo a queste macchine. Se partiamo dal presupposto che anche il nostro mondo è caratterizzato da pregiudizi e ingiustizie, corriamo il rischio che le macchine riproducano questi problemi, a meno che non interveniamo. Inoltre, la distorsione del campionamento nei dati potrebbe portare alla discriminazione. Ad esempio, se la macchina riceve principalmente serie di dati che mostrano tumori sulla pelle chiara, è improbabile che riconosca crescite sulla pelle scura. Questi sistemi devono essere testati a fondo per garantire la necessaria neutralità dei dati e prevenire la discriminazione.
Come si possono soddisfare questi requisiti etici?
Ferretti: ? difficile. Nel nostro laboratorio stiamo lavorando allo sviluppo di sistemi di garanzia della qualità e di condizioni quadro che dovrebbero essere richieste per testare tali tecnologie. Gli strumenti etici e legali esistenti per la ricerca medica devono essere adattati ai nuovi problemi degli algoritmi di IA. La sfida è sviluppare un sistema in grado di tenere il passo con questa tecnologia in rapida evoluzione e di valutarla e monitorarla adeguatamente.
Abbiamo bisogno di nuove linee guida?
Ferretti - Dobbiamo chiarire come i principi etici per lo sviluppo dell'IA debbano essere interpretati e attuati nella pratica. Attualmente esistono diverse linee guida sull'etica dell'IA, ma c'è incertezza su come attuarle esattamente, poiché i punti di vista delle rispettive parti interessate sono diversi. Allo stesso tempo, esistono linee guida rigorose per l'utilizzo di dati sensibili, come quelli medici, raccolti negli ospedali. La situazione è completamente diversa per i dati provenienti dai social media o dalle app di fitness, anche se a volte vengono utilizzati per scopi simili. Come gestire questi dati provenienti da fonti diverse? Abbiamo bisogno di un quadro di governance più completo che garantisca la protezione dei dati, l'equità e una maggiore trasparenza e che monitori gli sviluppi tecnologici.
Le aziende tecnologiche di solito hanno una potenza di calcolo significativamente maggiore rispetto alle scuole universitarie. Questo vi limita come ricercatori?
Grewe - In alcune aree, come la modellazione del linguaggio, questo è già problematico, perché le scuole universitarie non sono competitive in questo campo. Questi modelli di intelligenza artificiale ad alte prestazioni vengono addestrati con testi provenienti da tutta Internet. Ciò richiede risorse di calcolo che costano milioni di dollari. D'altra parte, non ho letto tutto Internet, ma penso comunque di essere più intelligente di tutti gli attuali modelli linguistici di IA. Credo che sia necessario un concetto di apprendimento completamente diverso, in modo che gli algoritmi di IA possano comprendere meglio i problemi e risolverli in modo più universale.
Cosa c'è di diverso?
Grewe - Forse è giunto il momento di abbandonare l'apprendimento statistico e i big data per concentrarsi su come i bambini imparano. Penso a sistemi incarnati che imparano prima le basi per sviluppare concetti astratti molto semplici. Possono poi basarsi su questi per apprendere interazioni e schemi sempre più complessi. Inoltre, dovremmo adottare un approccio più interdisciplinare alla ricerca sugli algoritmi, ad esempio combinando l'informatica e l'apprendimento automatico con la robotica, le neuroscienze e la psicologia.
Signora Ferretti, questo approccio comporterebbe meno o più problemi etici?
Ferretti - Questo porterebbe in ultima analisi a maggiori problemi - la domanda è di quale lasso di tempo stiamo parlando. In primo luogo, dobbiamo considerare gli strumenti orientati al compito che potrebbero rendere la vita più facile e migliore. Questi portano già con sé questioni etiche estremamente impegnative. Il futuro sarà entusiasmante!
Questo testo è pubblicato nell'attuale numero dell'ETH Magazine. Globo apparso.