Das Blackbox-Problem
Eine Bioethikerin und ein Neuroinformatiker sprechen über die zunehmende Intelligenz von Maschinen und darüber, warum dies zu neuen ethischen Herausforderungen führt.
Herr Grewe, was haben Sie aus Ihrer Zivildienstzeit mitgenommen, in der Sie mit kognitiv beeintr?chtigten Kindern gearbeitet haben?
Benjamin?Grewe: Ich habe bemerkt, dass etwa Motivation oder Humor oft vollst?ndig unbeeintr?chtigt sind – selbst wenn übergeordnete Funktionen wie die Erfassung abstrakter Konzepte oft nicht richtig zu funktionieren scheinen. Das menschliche Gehirn ist wirklich komplex.
Kann künstliche mit menschlicher Intelligenz mithalten?
Grewe: Bei meinem Einstieg ins maschinelle Lernen programmierte ich zun?chst ein künstliches neuronales Netzwerk, um zu analysieren, wie der Mensch lernt, unter anderem ?ngste. Allerdings funktionierte es nicht wie beabsichtigt: Was man ihm auch zeigte, das Netzwerk reagierte immer ?ngstlich. Künstliche Intelligenz (KI) soll einige Aspekte der menschlichen Intelligenz nachahmen, aber eben nicht alle. Was würde ein intelligentes Auto bringen, das einem den Dienst verweigert, weil es gerade zu viel Angst vor dem Fahren hat?
Agata?Ferretti: Moderne KI ist aufgabenorientiert. Die Gefühlsebene ist dagegen nicht ansatzweise so weit ausgebildet. Menschliche Intelligenz hingegen l?sst sich nicht darauf reduzieren, eine bestimmte Aufgabe herausragend zu meistern. So gesehen k?nnte man KI sogar als ?dumm? bezeichnen, denn sie eignet sich nur für eng eingegrenzte Einsatzbereiche.
Grewe: Es wird jedoch zunehmend darauf fokussiert, KI künftig für mehr als nur einen speziellen Aufgabenbereich zu trainieren. So versucht man beispielsweise KI-Sprachsysteme mittels riesiger Internet-Textdatenbanken intelligenter zu machen. Die dabei entwickelten Algorithmen k?nnen zwar grammatikalisch korrekte Texte erstellen, ihren Inhalt verstehen sie jedoch nur ansatzweise. Sie verwenden etwa das Wort ?Hund?, ohne je einen gesehen oder berührt zu haben, geschweige denn von einem gebissen worden zu sein.
Ferretti: ?hnliche Beispiele gibt es auch in der Medizin, wo KI zur bildgestützten Krebsdiagnose verwendet wird. Ein Arzt greift bei seiner Einsch?tzung auf medizinisches Wissen und Erfahrung zurück. Die KI hingegen stützt sich unter anderem auf Lichtverh?ltnisse oder R?nder im Bild. Diese Aspekte sind wichtig dafür, Muster zu erkennen, haben für den Arzt jedoch nicht immer eine klinische Bedeutung. Mensch und Maschine bewerten die Aussagekraft dieser Korrelation also unterschiedlich.
Grewe: Das ist ein wichtiger Aspekt. Bei feindseligen Angriffen zum Beispiel, sogenannten Adversarial Attacks, versuchen Forschende, künstliche neuronale Netze zu überlisten. So zeigen sie etwa das Bild eines Hundes, ?ndern dann drei bestimmte Pixel und das Netzwerk erkennt anschliessend eine Katze. Darauf würde ein Mensch nie hereinfallen.
Einen Hund mit einer Katze zu verwechseln, klingt zwar lustig, aber bei Krebsdiagnosen steht ja einiges auf dem Spiel…
Ferretti: Das stimmt, und dabei gibt es selbst dann ein Problem, wenn die Systeme korrekt arbeiten. Patienten misstrauen den Ergebnissen unter Umst?nden, wenn sie die Hintergründe nicht verstehen. ?rzte und Patienten bauen Vertrauen in ein System auf, wenn es sich als verl?sslich erwiesen hat, und sie merken, dass m?gliche Implikationen transparent kommuniziert werden. Sich für das Recht der Benutzer auf entsprechende Erkl?rungen und ein bestimmtes Mass an Transparenz einzusetzen, würde das Vertrauen in diese Systeme st?rken.
Allerdings r?umen selbst Wissenschaftler ein, bei manchen Systemen gar nicht zu wissen, was und wie sie lernen…
Grewe: Das ist ein gr?sseres, generelles Problem des maschinellen Lernens. Bis vor Kurzem programmierten Forschende Roboter mittels direkter Befehlscodes: ?Um diesen Becher zu greifen, bewege deine Hand nach rechts und schliesse sie bei Position XY.? Sie wussten also genau, was der Roboter macht. Jetzt speisen sie ihm jedoch umfangreiche Bilddaten ein, er versucht auf gut Glück verschiedene Bewegungen und wenn er den Becher erwischt, sagen sie ihm: ?Das war gut, jetzt lernen und bitte wiederholen.? Forschende programmieren und kennen damit also nicht mehr jeden einzelnen Prozessschritt, sondern bringen stattdessen Algorithmen das gewünschte Verhalten mittels extensiven Lernens bei. Dabei hat man es aber mit einer echten Blackbox zu tun. Niemand weiss genau, wie diese Algorithmen funktionieren. Das gr?sste Problem dabei ist, dass sie manchmal komplett versagen und wir die Gründe dafür nicht kennen.
Wir brauchen also interpretierbares maschinelles Lernen, dessen Modell von Beginn an auf Transparenz ausgelegt ist?
Ferretti: Ein bestimmtes Mass an Erkl?rbarkeit w?re nützlich. Das kann auch dazu beitragen, die Haftungsfrage zu kl?ren, falls etwas schiefgeht. Setzt man die Technologie etwa im Gesundheitswesen ein, muss nachvollziehbar sein, wer für eine Fehldiagnose verantwortlich ist – ein Arzt, der sich irrte, oder ein Fehler im KI-System.
Grewe: Es muss klar sein, wann und warum KI-Systeme Fehler machen. Trifft ein Mensch eine Entscheidung, k?nnen wir ihn nach den Gründen dafür fragen. Bei künstlichen neuronalen Netzwerkalgorithmen ist das noch nicht m?glich.
Ferretti: Ausserdem müssen wir darüber sprechen, welche Daten wir in diese Maschinen einspeisen. Wenn man davon ausgeht, dass unsere Welt auch von Vorurteilen und Ungerechtigkeit gepr?gt ist, laufen wir Gefahr, dass Maschinen diese Probleme reproduzieren, sofern man nichts dagegen tut. Zudem k?nnten Stichprobenverzerrungen in den Daten zu Diskriminierung führen. Gibt man der Maschine etwa haupts?chlich Datens?tze, die Tumore auf heller Haut zeigen, erkennt sie wahrscheinlich keine Wucherungen auf dunkler Haut. Diese Systeme müssen genauestens getestet werden, damit für die n?tige Neutralit?t der Daten gesorgt ist und Diskriminierung verhindert werden kann.
Wie lassen sich diese ethischen Anforderungen erfüllen?
Ferretti: Das ist schwierig. In unserem Labor arbeiten wir daran, Qualit?tssicherungssysteme und Rahmenbedingungen zu entwickeln, die zur Prüfung solcher Technologien erforderlich sein sollten. Die bisherigen Ethik- und Rechtsinstrumente aus der medizinischen Forschung müssen an die neuen Probleme von KI-Algorithmen angepasst werden. Die Herausforderung besteht darin, ein System zu entwickeln, das mit dieser rasant fortschreitenden Technologie Schritt halten und diese ad?quat evaluieren und überwachen kann.
Brauchen wir neue Vorgaben?
Ferretti – Wir müssen klarstellen, wie die ethischen Prinzipien für die KI-Entwicklung praktisch zu interpretieren und umzusetzen sind. Mittlerweile gibt es viele verschiedene KI-Ethikrichtlinien, aber es besteht Unsicherheit darüber, wie diese genau umzusetzen sind, da die Auffassungen der jeweiligen Stakeholder unterschiedlich sind. Gleichzeitig gelten strenge Vorgaben für die Verwendung sensibler – beispielsweise medizinischer – Daten, die in Spit?lern erfasst werden. Ganz anders sieht es bei Daten aus sozialen Medien oder Fitness-Apps aus, auch wenn sie teils zu ?hnlichen Zwecken genutzt werden. Wie soll man diese Daten aus verschiedenen Quellen verwalten? Wir brauchen einen umfassenderen Governance-Rahmen, der Datenschutz, Gerechtigkeit sowie mehr Transparenz gew?hrleistet und die technologische Entwicklung überwacht.
Technologieunternehmen verfügen meist über deutlich mehr Rechenleistung als Hochschulen. Schr?nkt Sie das als Forscher ein?
Grewe – In manchen Bereichen wie der Sprachmodellierung ist das bereits problematisch, da Hochschulen dort nicht wettbewerbsf?hig sind. Diese Hochleistungs-KI-Modelle werden mit Texten aus dem gesamten Internet trainiert. Das erfordert Rechenressourcen, die Millionen von Dollar kosten. Andererseits: Ich habe zwar nicht das gesamte Internet gelesen, denke aber, dass ich trotzdem intelligenter bin als alle aktuellen KI-Sprachmodelle. Ich glaube, dass wir ein ganz anderes Lernkonzept brauchen, damit KI-Algorithmen Probleme besser verstehen und universeller l?sen.
Inwiefern anders?
Grewe – Vielleicht ist es an der Zeit, sich von statistischem Lernen und Big Data zu verabschieden und sich daran zu orientieren, wie Kinder lernen. Dabei denke ich an verk?rperte Systeme, die zun?chst Grundlagen lernen, um ganz einfache abstrakte Konzepte zu entwickeln. Anschliessend k?nnen sie darauf aufbauend immer komplexere Interaktionen und Schemata erlernen. Zus?tzlich sollten wir fachübergreifender an die Algorithmenforschung herangehen, indem wir beispielsweise Informatik und maschinelles Lernen mit Robotik, Neurowissenschaften und Psychologie kombinieren.
Frau Ferretti, würde dieser Ansatz zu weniger oder mehr ethischen Problemen führen?
Ferretti – Daraus würden sich letztlich mehr Probleme ergeben – die Frage ist, von welchem Zeitrahmen wir hier sprechen. Zun?chst müssen wir uns mit aufgabenorientierten Tools befassen, die das Leben leichter machen und verbessern k?nnten. Diese bringen bereits überaus herausfordernde ethische Probleme mit sich. Die Zukunft wird spannend!
Dieser Text ist in der aktuellen Ausgabe des ETH-Magazins Globe erschienen.