Wer am Ende entscheidet
Wenn es um den Schutz der Bev?lkerung geht, sind Entscheidungen in der Regel weitreichend. Da ist jede Hilfe willkommen – auch jene von KI.
Waldbr?nde geraten zusehends ausser Kontrolle, wie die jüngsten Beispiele in Kalifornien oder Australien zeigen. Viele Feuerwehrleute k?mpfen unermüdlich gegen die Flammen – doch l?ngst nicht nur mit Wasser oder kontrolliertem Gegenfeuer. Die Digitalisierung hat auch hier Einzug gehalten. Geoinformationssysteme, Webcams oder Drohnen sind mittlerweile wichtige Pfeiler bei der Bek?mpfung und Vorhersage von Waldbr?nden. Doch wo viele Daten generiert werden, st?sst die menschliche Expertise schnell an ihre Grenzen. ?KI lohnt sich immer, wenn es viele Daten gibt?, sagt Benjamin Scharte, Leiter des Risiko- und Resilienz-Teams am Center for Security Studies (CSS) der ETH Zürich. Gemeinsam mit seinem Mitarbeiter Kevin Kohler hat er den Einsatz von KI im Bev?lkerungsschutz analysiert.
?Spannend wird es, wenn man mit Algorithmen Vorhersagen machen kann?, erg?nzt Kohler. In welche Richtung entwickelt sich die Feuerfront? An welchen Stellen braucht es jetzt ein kontrolliertes Gegenfeuer? Zur Beantwortung solcher Fragen k?nnen mit KI-basierten Modellierungstools alle vorhandenen Daten zusammengefasst werden – von der Wettervorhersage über die Dauer der Dürre oder die Windrichtung bis hin zur Menge an m?glichem Brennstoff. Dank der Vorhersage kann die Krisenreaktion effizienter erfolgen. Im Idealfall dient die Vorhersage sogar als Pr?vention.
KI hat im Bev?lkerungsschutz auch einen besonderen Stellenwert, weil unter Umst?nden jede Minute z?hlt oder es um Leben und Tod geht. Wenn Experten innerhalb kürzester Zeit eine weitreichende Entscheidung treffen müssen, sind sie dankbar für jede Hilfe, die die Entscheidung auf besseren Daten basieren l?sst. Wichtig dabei ist allerdings die Qualit?t der Daten. ?Mein Algorithmus kann noch so klug sein, wenn ich ihn nicht mit den passenden Daten für die Krise füttern kann, dann bringt er mir im Ernstfall wenig?, gibt Kohler zu bedenken.
Selbst wenn die Daten optimal sind, langj?hrige Erfahrung von Experten ersetzen sie nie g?nzlich. So ist die Frage, ob Mensch oder Maschine die finale Entscheidung treffen soll, sehr komplex. Es kann sein, dass der Algorithmus über alle F?lle hinweg einen geringeren finanziellen Schaden oder eine geringere Anzahl an Verletzten bringt als der Mensch, aber im Einzelfall eine Entscheidung trifft, die uns nicht akzeptabel erscheint. ?Dann werden wir uns auch in Zukunft als Gesellschaft schwertun, die Entscheidung einer autonomen Maschine zu überlassen?, ist Scharte überzeugt.
Eine Sache des Vertrauens
Es stellt sich die Frage, ab wann wir die autonome Entscheidungsfindung einer Maschine akzeptieren. Scharte und Kohler sind sich einig: ?Im Bereich Bev?lkerungsschutz, bei dem es mitunter um Leben und Tod geht, sollte der Mensch in die Entscheidungsfindung involviert sein und es sollte keine g?nzlich autonomen Entscheidungen geben.?
Dabei spielt das Vertrauen in den Algorithmus eine ganz zentrale Rolle. Denn mit dem Vertrauen kommt die Akzeptanz. Beides wird erh?ht, wenn ein Algorithmus nachvollziehbar ist. Wenn zum Beispiel eine ?rztin nachvollziehen kann, wie ein Algorithmus funktioniert, wird sie ihm mehr vertrauen und ihn bei ihrer Arbeit eher einsetzen. Das zeigen zahlreiche Studien. Allerdings gibt Scharte zu bedenken: ?Die transparente Nachvollziehbarkeit erh?ht nicht zwingend die Sicherheit.? Bei ?man-made hazard?, wie etwa Cyberkriminalit?t oder Terrorismus, k?nne die Nachvollziehbarkeit sogar ein Nachteil sein. ?Ist ?ffentlich nachvollziehbar, wie ein Algorithmus verd?chtige Verhaltensmuster bewertet, kann er einfacher b?swillig ausgetrickst werden?, warnt der Sicherheitsexperte.
Dieser Text ist in der aktuellen Ausgabe des ETH-Magazins Globe erschienen.