"L'IA affidabile richiede una collaborazione interdisciplinare".
L'intelligenza artificiale e l'apprendimento automatico sono tecnologie fondamentali per la scienza, l'economia e la società. Ma quanto sono affidabili? Andreas Krause, vincitore del Premio R?ssler 2021 e presidente dell'ETH AI Center, Chi siamo sulle opportunità e le sfide dell'IA affidabile.
Signor Krause, lei è uno dei principali ricercatori europei nel campo dell'apprendimento automatico e dell'intelligenza artificiale (AI). Ci sono compiti che svolgeva da solo dieci anni fa e che ora delega a programmi informatici intelligenti?
Sullo sfondo, ci sono già alcune tecnologie molto utili in cui l'intelligenza artificiale e l'apprendimento automatico facilitano il mio lavoro quotidiano: la ricerca letteraria è notevolmente supportata dai sistemi di raccomandazione e la comprensione delle lingue e la traduzione sono ora ampiamente automatizzate. Tutto questo non era possibile dieci anni fa.
L'intelligenza artificiale può comprendere problemi che l'uomo stesso non ha ancora capito?
? difficile definire il significato di "comprensione". Le macchine sono in grado di estrarre in modo efficiente modelli statistici complessi da grandi insiemi di dati e di utilizzarli a fini computazionali. Ciò non significa che li "capiscano" in alcun modo. Tuttavia, i metodi di apprendimento automatico esistenti sono molto utili per compiti specializzati. Tuttavia, è ancora una peculiarità degli esseri umani la capacità di trasferire le proprie conoscenze e di apprendere e risolvere rapidamente compiti molto diversi e complessi. Nell'intelligenza artificiale siamo molto lontani da questo.
Come giudica la ricerca sull'IA all'ETH di Zurigo?
All'ETH conduciamo un'eccellente ricerca sull'IA, sia in ambito informatico che in molte altre discipline. In particolare nei sottocampi della scienza dei dati come l'apprendimento automatico, la comprensione delle immagini e la comprensione del parlato, ma anche in applicazioni come la sanità, la robotica, ecc. Poiché molte delle questioni più interessanti sorgono all'interfaccia tra le discipline, vedo delle opportunità nella collaborazione sistematica. Per questo motivo abbiamo istituito l'ETH AI Center su base interdisciplinare e abbiamo aderito alla European Machine Learning Initiative ELLIS. Il collegamento in rete è la chiave. Solo chi ha una leadership tecnologica può influenzare in modo significativo lo sviluppo dell'IA e garantire che i valori europei siano incorporati nella prossima generazione di IA.
Cosa significano i "valori europei" nel contesto dell'IA?
Riflettiamo sugli sviluppi tecnologici e sul loro impatto sulla nostra economia e sulla società liberale. Ad esempio, la protezione della privacy è una priorità assoluta in Europa. Ciò solleva nuovi interrogativi su come sviluppare le tecnologie di IA. L'affidabilità, l'equità e la tracciabilità giocano un ruolo centrale in questo contesto, in quanto si riferiscono a questioni molto rilevanti di accettazione sociale, inclusione e fiducia nell'IA.
Quali sono le sfide attuali sulla strada dell'IA affidabile?
L'intelligenza artificiale e l'apprendimento automatico dovrebbero essere affidabili e controllabili come i sistemi software tradizionali, e dovrebbero consentire applicazioni complesse di cui ci si possa fidare. A mio avviso, una sfida importante è che l'affidabilità dell'IA può essere valutata solo in relazione ad applicazioni specifiche. Le domande specifiche della medicina, ad esempio, difficilmente possono essere trasferite direttamente alle domande del settore legale o assicurativo. Per sviluppare un'IA affidabile e degna di fiducia, dobbiamo quindi conoscere i requisiti specifici di un'applicazione.
Che cosa è importante perché i processi di apprendimento intelligente siano affidabili?
L'affidabilità è un aspetto fondamentale per l'accettazione delle nuove tecnologie di IA. I requisiti specifici dipendono molto dall'applicazione in questione. Se un sistema di raccomandazione suggerisce un film che non piace a qualcuno, le conseguenze non sono le stesse di un sistema di assistenza medica o di un'auto a guida autonoma. In queste applicazioni, i requisiti di affidabilità e sicurezza dei metodi sono molto più elevati.
E se gli errori si insinuano?
"Il fatto che i processi di apprendimento automatico commettano errori è probabilmente inevitabile. Anche gli esseri umani commettono errori, ma imparano da essi e cercano di ridurli al minimo. Questo è altrettanto importante nell'apprendimento automatico".Andreas Krause
Analizzando sistematicamente i tipi di errori che si verificano, possiamo ridurli e prevenirli il più possibile. ? particolarmente importante che i processi di apprendimento non presentino comportamenti errati inaspettati.
Esistono esempi di comportamento scorretto inaspettato?
Per esempio, esistono sistemi di riconoscimento delle immagini per le auto a guida autonoma che riconoscono i segnali stradali. A volte basta che qualcuno applichi un adesivo su un cartello stradale e il sistema di riconoscimento automatico smette di funzionare. Questo comportamento scorretto è estremamente inaspettato per le persone che non si lasciano ingannare dagli adesivi. Dobbiamo trovare nuovi metodi che eliminino in modo affidabile queste interferenze e sviluppare processi di apprendimento robusti. Si tratta di temi di ricerca molto attuali.
A volte si dice che l'apprendimento automatico deve essere spiegabile, in modo che sia possibile capire a posteriori come e perché un processo è arrivato a un risultato.
Esattamente. Anche la spiegabilità è difficile da definire e può essere concretizzata solo in riferimento a un'applicazione. A mio avviso, non è assolutamente necessario capire esattamente come un sistema di formazione abbia preso una decisione. Se pensiamo a come noi esseri umani prendiamo le decisioni, non sappiamo esattamente quali siano le ragioni neurobiologiche che spingono una persona a prendere una determinata decisione. Ma le persone hanno la capacità di spiegare le loro decisioni in modo comprensibile. Dobbiamo cercare di replicare questa capacità nei processi di apprendimento automatico. Quando si classificano i segnali stradali, ad esempio, possiamo cercare di capire se un modello di apprendimento si orienta verso proprietà di sfondo o caratteristiche secondarie invece che verso proprietà rilevanti dei segnali stradali.
Quando viene riconosciuto un errore, la procedura di apprendimento viene adattata?
Sì. Ma in ogni caso Ma in ogni caso, dobbiamo prima capire qual è il problema, in modo da poter addestrare i modelli di apprendimento in modo che gli errori non si verifichino più.
"Nei processi di apprendimento che hanno potenziali conseguenze per le persone, sono imperativi elevati standard etici per garantire che i risultati siano equi e non discriminino nessuno."Andreas Krause
Si può capire perché a qualcuno viene in mente l'apprendista stregone di Goethe quando si parla di intelligenza artificiale? "Quelli che ho chiamato, gli spiriti di cui ora non riesco a liberarmi"?
L'intelligenza artificiale risveglia sogni e paure. Questo è influenzato anche dalla fantascienza, dai film di Hollywood e dalla fiction. Come ricercatore, sono più preoccupato dell'uso cieco o improprio delle tecnologie esistenti e delle possibili conseguenze che possono derivare da una mancanza di affidabilità o di discriminazione. Tuttavia, è importante non lasciarsi guidare dalle paure, ma affrontare le sfide. Solo così possiamo contribuire in modo proattivo a plasmare la tecnologia e a utilizzarla a vantaggio della società.
Che ruolo hanno le questioni etiche?
Nei processi di apprendimento che hanno potenziali conseguenze per le persone, sono indispensabili elevati standard etici per garantire che i risultati siano equi e non discriminino nessuno. Ciò richiede la cooperazione tra diverse discipline. La risposta a una domanda etica non può essere puramente tecnologica. Ad esempio, nessun informatico può pensare da solo, in modo generalizzato, a come sviluppare un sistema di persone in formazione in modo che prenda decisioni eque.
Quali consigli ha per gli studenti che vogliono affermarsi nel mondo del lavoro con l'IA?
Le basi, soprattutto in matematica e informatica, sono molto importanti. Allo stesso tempo, è necessario essere aperti a nuove domande e farsi coinvolgere in progetti specifici con partner provenienti da diverse aree applicative. Infine, è importante mantenere una certa compostezza in un campo in rapido sviluppo come l'IA. Piuttosto che inseguire l'ultima tendenza, è meglio prendersi il tempo per pensare al futuro e riflettere sull'intera questione.
Andreas Krause
Andreas Krause è professore di informatica all'ETH di Zurigo. ? anche co-direttore accademico del portale per studenti pagina esternaCentro svizzero per la scienza dei dati,Presidente dell'ETH AI Center e cofondatore dell'apertura ETH pagina esternaLatticeFlow. Ha svolto un ruolo di primo piano nella creazione del Programma master in scienza dei dati,del Scienza dei dati DAS e la lezione più visitata dell'ETH "Introduzione al Machine Learning". Nel 2012 ha ricevuto un Gufo d'oro di studenti dell'ETH per l'eccezionale insegnamento. Recentemente ha vinto il premio Premio R?ssler,Il premio per studenti dell'ETH di Zurigo è il premio di ricerca più ricco dell'ETH di Zurigo.
Serie "In cammino verso un'IA affidabile
Con la fondazione dell'ETH AI Center nell'ottobre 2020, l'ETH di Zurigo si è impegnato a promuovere sistemi di IA affidabili, accessibili e inclusivi. In una serie di interviste e ritratti, ETH News fa luce sul significato di questi valori per i ricercatori all'ETH.
I risultati più recenti della ricerca sull'IA e il loro potenziale impatto sono forniti anche dalla pagina esternavideo della serie "AI + X" con i membri dell'ETH AI Center.
Articoli correlati
- chevron_right La mente dell'apprendimento automatico attivo (l'ETH News, 10.06.2021)
- chevron_right Nuovo centro per la ricerca sull'IA (comunicato stampa del 20.10.2020)
- chevron_right ? tutto AI? (Rivista Globe, 15/09/2020)
- chevron_right Fondamenti per un'intelligenza artificiale affidabile (ETH News, 15.09.2020)