«Vertrauenswürdige KI erfordert interdisziplinäre Zusammenarbeit»
Künstliche Intelligenz und maschinelles Lernen sind Schlüsseltechnologien für Wissenschaft, Wirtschaft und Gesellschaft. Doch wie zuverl?ssig funktionieren sie? Andreas Krause, R?ssler-Preistr?ger 2021 und Vorsitzender des ETH AI Centers, über die Chancen und Herausforderungen vertrauenswürdiger KI.
Herr Krause, Sie sind einer der führenden Forscher für maschinelles Lernen und künstliche Intelligenz (KI) in Europa. Gibt es Aufgaben, die Sie vor zehn Jahren noch selbst erledigten, heute jedoch an intelligente Computerprogramme delegieren?
Im Hintergrund gibt es tats?chlich schon einige sehr nützliche Technologien, bei denen künstliche Intelligenz und maschinelles Lernen meine t?gliche Arbeit erleichtern: Die Literaturrecherche wird massgeblich durch Empfehlungssysteme unterstützt und Sprachverstehen sowie Sprachübersetzung funktionieren heute zu grossen Teilen automatisiert. Das war vor zehn Jahren noch nicht m?glich.
Kann eine künstliche Intelligenz auch Probleme verstehen, die ein Mensch selbst noch nicht verstanden hat?
Es ist schwierig zu definieren, was ?verstehen? konkret bedeutet. Maschinen sind in der Lage effizient komplexe, statistische Muster aus grossen Datens?tzen zu extrahieren und berechnungstechnisch zu verwerten. Das heisst nicht, dass sie diese in irgendeiner Art und Weise ?verstehen?. Die bestehenden maschinellen Lernverfahren sind dennoch sehr nützlich für spezialisierte Aufgaben. Es ist allerdings nach wie vor eine Eigenheit des Menschen, dass er sein Wissen übertragen und sehr verschiedene, komplexe Aufgaben schnell lernen und l?sen kann. Davon sind wir in der künstlichen Intelligenz weit entfernt.
Wie sch?tzen Sie die KI-Forschung an der ETH Zürich ein?
Sowohl in der Informatik als auch in vielen anderen Disziplinen leisten wir an der ETH exzellente KI-Forschung. Speziell in datenwissenschaftlichen Teilgebieten wie dem Maschinellen Lernen, dem Bildverstehen und dem Sprachverstehen, aber auch in Anwendungen wie dem Gesundheitswesen, der Robotik, etc. Da viele der spannendsten Fragen an den Schnittstellen der Disziplinen entstehen, sehe ich Chancen in der systematischen Zusammenarbeit. Darum haben wir das ETH AI Center fachübergreifend etabliert und uns der europ?ischen Initiative für maschinelles Lernen ELLIS angeschlossen. Diese Vernetzung ist der Schlüssel. Nur, wer die technologische Leadership hat, kann die Entwicklung der KI massgeblich beeinflussen und sicherstellen, dass europ?ische Werte in die n?chste Generation der KI einfliessen.
Was bedeuten ?europ?ische Werte? im Zusammenhang mit KI?
Dass wir die technologische Entwicklung und ihre Wirkungen auf unsere Wirtschaft und freiheitliche Gesellschaft reflektieren. So hat der Schutz der Privatsph?re beispielsweise in Europa einen hohen Stellenwert. Daraus ergeben sich neue Fragen, wie KI-Technologien zu entwickeln sind. Dabei spielen Zuverl?ssigkeit, Fairness, und Nachvollziehbarkeit eine zentrale Rolle, denn sie betreffen hochrelevante Fragen der gesellschaftlichen Akzeptanz, der Inklusion und des Vertrauens in die KI.
Was sind aktuell die Herausforderungen auf dem Weg zu einer vertrauenswürdigen KI?
KI und maschinelles Lernen sollen so zuverl?ssig und beherrschbar sein wie klassische Softwaresysteme, und sie sollen komplexe Anwendungen erm?glichen, denen wir vertrauen k?nnen. Aus meiner Sicht besteht eine grosse Herausforderung darin, dass sich Vertrauenswürdigkeit von KI nur im Hinblick auf bestimmte Anwendungen bewerten lassen kann. Spezielle Fragen aus der Medizin lassen sich beispielsweise kaum direkt auf Fragen des Gerichts- oder Versicherungswesens übertragen. Wir müssen also die konkreten Anforderungen einer Anwendung kennen, um eine vertrauenswürdige und zuverl?ssige KI zu entwickeln.
Worauf kommt es an, dass intelligente Lernverfahren zuverl?ssig sind?
Zuverl?ssigkeit ist ein zentrales Thema für die Akzeptanz der neuen KI-Technologien. Welche konkreten Anforderungen hier bestehen, h?ngt wiederum sehr von der jeweiligen Anwendung ab. Wenn ein Empfehlungssystem einen Film vorschl?gt, der jemandem nicht gef?llt, dann haben die Konsequenzen nicht dieselbe Tragweite wie wenn ein medizinisches Unterstützungssystem oder ein selbstfahrendes Auto einen Fehler machen. In diesen Anwendungen sind die Anforderungen an die Zuverl?ssigkeit und die Sicherheit der Methoden ungleich h?her.
Und wenn sich doch Fehler einschleichen?
?Dass maschinelle Lernverfahren Fehler machen ist wohl unvermeidbar. Menschen machen auch Fehler, aber sie lernen daraus und versuchen sie zu minimieren. Das ist beim maschinellen Lernen genauso wichtig.?Andreas Krause
Indem wir systematisch untersuchen, welche Arten von Fehlern auftreten, k?nnen wir sie reduzieren und bestm?glich verhindern. Dabei ist es insbesondere wichtig, dass Lernverfahren kein unerwartetes Fehlverhalten an den Tag legen.
Gibt es Beispiele für unerwartetes Fehlverhalten?
Zum Beispiel gibt es Bilderkennungssysteme für selbstfahrende Autos, die Verkehrszeichen erkennen. Mitunter reicht es bereits, dass jemand einen Sticker über ein Verkehrszeichen klebt und schon funktioniert die maschinelle Erkennung nicht mehr. Dieses Fehlverhalten ist für Menschen, die sich durch Sticker nicht t?uschen lassen würden, ?usserst unerwartet. Hier muss man neue Methoden finden, die diese St?reinflüsse zuverl?ssig ausblenden, und robuste Lernverfahren entwickeln. Das sind sehr aktuelle Forschungsthemen.
Zuweilen ist zu lesen, maschinelles Lernen müsse erkl?rbar sein, damit sich im Nachhinein nachvollziehen l?sst, wie und warum ein Verfahren zu einem Ergebnis gekommen ist.
Genau. Auch Erkl?rbarkeit ist schwer zu definieren, und kann nur im Hinblick auf eine Anwendung konkretisiert werden. Aus meiner Sicht ist es nicht zwingend erforderlich, exakt zu verstehen, wie genau ein lernendes System seine Entscheidung getroffen hat. Wenn wir uns überlegen, wie wir Menschen entscheiden, dann wissen wir ja auch nicht genau, aus welchen neurobiologischen Gründen ein Mensch eine bestimmte Entscheidung f?llt. Aber Menschen haben die M?glichkeit, ihre Entscheidungen nachvollziehbar darzulegen. Diese F?higkeit müssen wir versuchen, bei maschinellen Lernverfahren nachzubilden. Bei der Klassifikation von Verkehrszeichen kann man beispielsweise versuchen, herauszufinden, ob sich ein Lernmodell an Hintergrundeigenschaften oder nebens?chlichen Merkmalen orientiert anstatt an relevanten Eigenschaften der Verkehrszeichen.
Wenn ein Fehler erkannt ist, wird das Lernverfahren angepasst?
Ja. Nur müssen wir in jedem Fall zuerst einmal verstehen, was das Problem ist, damit wir die Lernmodelle so trainieren k?nnen, dass die Fehler nicht mehr auftreten.
?Bei Lernverfahren, die potenziell Konsequenzen haben für die Menschen, sind hohe ethische Standards zwingend erforderlich, um sicherstellen, dass die Ergebnisse fair sind und niemanden diskriminieren.?Andreas Krause
Ist es für Sie nachvollziehbar, wenn sich jemand bei der künstlichen Intelligenz an Goethes Zauberlehrling erinnert fühlt: ?Die ich rief, die Geister Werd ich nun nicht los??
Künstliche Intelligenz weckt sowohl Tr?ume als auch ?ngste. Das ist auch durch Science-Fiction, Hollywoodfilme und Belletristik beeinflusst. Als Forscher mache ich mir eher Sorgen über den blinden Einsatz oder den Missbrauch der bestehenden Technologien, und die m?glichen Konsequenzen, die aus mangelnder Zuverl?ssigkeit oder durch Diskriminierung entstehen k?nnen. Es ist aber wichtig, dass wir uns nicht von ?ngsten leiten lassen, sondern wir müssen uns den Herausforderungen stellen. Nur so k?nnen wir die Technologie proaktiv mitgestalten und zum Wohle der Gesellschaft einsetzen.
Welche Rolle spielen ethischen Fragen?
Bei Lernverfahren, die potenziell Konsequenzen haben für die Menschen, sind hohe ethische Standards zwingend erforderlich, um sicherstellen, dass die Ergebnisse fair sind und niemanden diskriminieren. Dies erfordert die Zusammenarbeit zwischen verschiedenen Fachgebieten. Die Antwort auf eine ethische Frage kann nicht rein technologisch sein. Kein Informatiker kann beispielsweise in einer verallgemeinerten Weise für sich allein überlegen, wie ein lernendes System zu entwickeln ist, damit es faire Entscheidungen trifft.
Was geben Sie Studierenden mit auf den Weg, die sich mit KI in der Wirtschaft etablieren wollen?
Die Grundlagen, insbesondere in Mathematik und Informatik, sind sehr wichtig. Zugleich sollte man aufgeschlossen sein für neue Fragen und sich auf konkrete Projekte mit Partnern aus verschiedenen Anwendungsbereichen einlassen. Schliesslich gilt es, eine gewisse Gelassenheit zu bewahren in einem Feld, das sich so wahnsinnig schnell entwickelt wie die KI. Besser als dem neusten Trend hinterherzurennen, ist es, sich die Zeit zu nehmen, um weiterzudenken und das Ganze zu reflektieren.
Andreas Krause
Andreas Krause ist Professor für Informatik an der ETH Zürich. Zudem ist er akademischer Co-Direktor des externe Seite Swiss Data Science Center, Vorsitzender des ETH AI Center und Mitgründer des ETH Spin-offs externe Seite LatticeFlow. Er war federführend am Aufbau des Masterprogramms Data Science, des DAS Data Science und der meistbesuchten ETH-Vorlesung ?Introduction to Machine Learning? beteiligt. 2012 erhielt er eine Goldene Eule der ETH-Studierenden für ausgezeichnete Lehre. Zuletzt gewann er den R?ssler-Preis, den h?chstdotierten Forschungspreis an der ETH Zürich.
Serie ?Auf dem Weg zu einer vertrauenswürdigen KI?
Mit der Gründung des ETH AI Centers im Oktober 2020 hat sich die ETH Zürich die F?rderung vertrauenswürdiger, zug?nglicher und inklusiver KI-Systeme verschrieben. In einer Serie von Interviews und Portr?ts beleuchtet ETH-News, was diese Werte für Forscherinnen und Forscher an der ETH bedeuten.
Einblick in die neuesten KI-Forschungsergebnisse und ihre m?glichen Auswirkungen geben auch die externe Seite Videos aus der Serie ?AI + X? mit Mitgliedern des ETH AI Center.
Verwandte Artikel
- chevron_right Vordenker des aktiven maschinellen Lernens (ETH-News, 10.06.2021)
- chevron_right Neues Zentrum für KI-Forschung (Medienmitteilung, 20.10.2020)
- chevron_right Alles KI? (Magazin Globe, 15.09.2020)
- chevron_right Grundlagen für eine vertrauenswürdige künstliche Intelligenz (ETH-News, 15.09.2020)