Bei Prognosen versagt die Politik mehr als die Wissenschaft
Politik und Medien tun sich schwer mit Prognosen. Das liegt vielmehr an mangelndem Verst?ndnis von Unsicherheiten als an der Zuverl?ssigkeit von Modellen, argumentiert Reto Knutti.
?Taskforce best?tigt Fehlprognose? titelte der Blick.1 ?Corona-Taskforce gibt Fehlprognose zu? schrieb der Tagesanzeiger.2 Darunter das Bild von Covid-Taskforce-Pr?sidentin Tanja Stadler, die quasi an den Pranger gestellt wird. Und mit der Zuverl?ssigkeit einer Schweizer Uhr nehmen das wissenschaftskritische Politiker zum Anlass, Prognosen generell zu hinterfragen.3
Was auf den ersten Blick wie eine Klick-Jagd von Blattmachern oder Politik-Polemik aussieht, ist Symptom eines Grabens zwischen Wissenschaft und Politik. ?Die Experten – deren Meinung ich kaum mehr zur Kenntnis nehme – scheinen für mich nicht in der realen Welt zu leben? liess Bundesrat Ueli Maurer vor kurzem verlauten, und Alain Berset sagte im Januar: ?Mit Prognosen k?nnen wir nicht arbeiten.?
Offenbar sehen einige in wissenschaftlich fundierten Prognosen keinen Mehrwert. An was liegt das? Sind solche Voraussagen wirklich unbrauchbar? Würde jemand die Prognose, dass auf diesen Winter ein Sommer folgt, als unbrauchbar abtun?
Wie Prognosen entstehen
Ob beim Klimawandel, der Wettervorhersage oder der Einsch?tzung einer Pandemie – wissenschaftliche Prognosen basieren unabh?ngig vom Fachgebiet fast immer auf vier Elementen: erstens auf einem Modell, zweitens auf Daten, mit denen unbekannte Parameter gesch?tzt werden, drittens auf Annahmen von sogenannten Szenarien und viertens auf Expertenwissen. Die Wichtigkeit dieser vier Elemente h?ngt stark von der Fragestellung ab.
Das Modell beschreibt unser Verst?ndnis der Dynamik eines bestimmten Systems. Dabei variiert die Komplexit?t verschiedener Systeme. Die Himmelsmechanik bestimmt die Jahreszeiten so exakt, dass die Unsicherheit in der Prognose verschwindend klein ist. Wesentlich schwieriger sind biologische Systeme, für die man nicht einfach eine Gleichung aufschreiben kann, oder Systeme mit chaotischem Verhalten wie das Wetter. Einige komplexe Prozesse übersteigen unser Verst?ndnis oder unsere rechnerischen M?glichkeiten, um sie direkt abzubilden, und werden dann statistisch oder n?herungsweise beschrieben.
Modelle: Nur so gut wie ihre Datengrundlage
Ein Modell ben?tigt – zweitens – Daten zur Kalibrierung und Verifikation. Hier unterscheiden sich die Klimamodelle von epidemiologischen Modellen. W?hrend entscheidende Daten und Zusammenh?nge in der Klimaforschung bereits seit Jahrzehnten systematisch ermittelt werden, führten die wechselnden Varianten von Sars-CoV-2 dazu, dass Daten begrenzt verfügbar oder nicht repr?sentativ waren und entscheidende Gr?ssen von wechselnden Teststrategien oder dem Fortschritt in der Behandlung abh?ngig waren.
Drittens: Wo Menschen Entscheide treffen, müssen auch diese in die Prognose einfliessen. Prognosen, also Voraussagen über die Entwicklung der realen Welt, werden damit in der Fachsprache zu Projektionen oder zu sogenannten Was-w?re-wenn-Szenarien. Beispiele sind die zu erwartende epidemiologische Entwicklung für einen bestimmten Mix von Massnahmen oder im Klima die Erw?rmung für einen bestimmten Verlauf der CO2-Emissionen. Wenn das schlimmste Szenario nicht eintritt, ist oft nicht das Modell falsch, sondern man hat Massnahmen getroffen, um diesen Fall zu vermeiden.
Die Natur dieser zwei Unsicherheiten ist v?llig unterschiedlich: Das Szenario ist unsere Wahl und damit am Ende Sache der Politik. Es muss nicht eintreten, aber hilft uns, das System zu verstehen und die Verwundbarkeit aufzeigen. Die Unsicherheit für ein bestimmtes Szenario andererseits reflektiert das nicht vollst?ndige Verst?ndnis des Systemverhaltens oder begrenzter Daten. Diese zu reduzieren ist Aufgabe der Wissenschaft.
Modelle sind Ann?herungen an die Wirklichkeit
Expertenwissen ist schliesslich und viertens n?tig, um die Unsch?rfe der Voraussagen abzusch?tzen, die auf Grund der Vereinfachungen im Modell und Fehler in den Daten entstehen. Es geht darum, die Modellvereinfachungen und Datenfehler in einen Kontext zu stellen und dies auch zu kommunizieren. Ein Modell ist nie exakt richtig; es ist und bleibt ein Modell und kann h?chstens ein mehr oder weniger pr?zises Abbild der Realit?t sein. Ganz im Sinne der Aussage des britischem Statistikers George Box ?All models are wrong – but some are useful? ist die Frage damit nicht, ob ein Modell richtig ist, weil jedes Modell eine Vereinfachung der Realit?t und damit in einem strikten Sinne falsch ist. Entscheidend ist, ob das Modell geeignet ist, um eine bestimmte Frage zu beantworten.
Waren die Omikron-Prognosen wirklich falsch?
Das bringt uns zurück zur Prognose der Omikron-Welle.4 Der Verlauf der Fallzahlen im Januar war gut vorausgesagt, das Modell also ad?quat dafür. Die Hospitalisierungen hingegen blieben tiefer als im optimistischsten Fall. Da diese verz?gert auftreten, konnte man sie aus den Daten der Schweiz unm?glich voraussagen. Es war naheliegend, sich auf Erkenntnisse aus dem Labor und aus anderen L?ndern zu stützen, aber offenbar haben diese die Situation der Schweiz nicht vollst?ndig abgebildet. Neben medizinischen Aspekten wie der tieferen Virulenz, und dass vermehrt Genesene oder Geimpfte infiziert werden, die eine Grundimmunit?t und damit weniger schwere Verl?ufe zeigen, k?nnen auch Verhaltensaspekte ins Spiel kommen, die schwer quantifizierbar sind: Zum Beispiel, wenn sich Risikogruppen vorsichtiger verhalten, auch wenn das nicht vorgeschrieben ist. Eine abschliessende epidemiologische Beurteilung werden die Fachleute liefern.
Eines ist jedoch klar: Projektionen werden von der Wissenschaft nicht absichtlich verzerrt dargestellt. Sie reflektieren die momentane Datenlage und den Wissensstand, so gut dieser quantitativ abgebildet werden kann. Wenn neue Erkenntnisse verfügbar sind, werden die Projektionen angepasst.
?Die letztlich relevante Frage ist, ob wir mit quantitativen Prognosen bessere Entscheidungen treffen k?nnen als ohne. Die Antwort ist fast immer ja.?Reto Knutti
Aber: Prognosen k?nnen mehr schaden als nützen, wenn sie systematisch falsch sind oder die Unsicherheiten untersch?tzen. Im Falle von Sars-CoV-2 waren sie über die ganze Dauer der Pandemie angesichts der oft sp?rlichen Datenlage recht gut.5 Je l?nger man mit Modellen arbeitet, desto genauer kann die Unsicherheit bestimmt werden, und die Resultate k?nnen zur Risikoabsch?tzung dienen. In der Klimaforschung haben hundert Jahre Messdaten und fünfzig Jahre Modellrechnungen die Zuverl?ssigkeit eindrücklich aufgezeigt.6 Mehr noch, wir haben mit Prognosen von Extremwetter viel Erfahrung, wie die Gesellschaft darauf basierend Entscheidungen trifft. Oder wann man wie warnen muss.
Fast alle Entscheidungen basieren auf Prognosen
Ohne Prognosen entscheiden kann man eigentlich nicht. Selbst das Bauchgefühl, dass sich gegenüber heute nichts ?ndern wird, oder die Annahme, dass das Problem morgen auf magische Art verschwindet, ist letztlich eine Prognose. Einfach eine ohne Modelle, Szenarien, Daten und Expertenwissen – mal ehrlich, w?ren Sie lieber ohne professionelle Prognose durch eine Pandemie, die schon so rund sechs Millionen Tote gefordert hat?
Die letztlich relevante Frage ist vielmehr, ob wir mit quantitativen Prognosen eine bessere Entscheidung treffen k?nnen als ohne. Die Antwort ist fast immer ja. Wenn die Prognosen wissenschaftlich fundiert sind, bieten sie eine gute Orientierungshilfe. Die grosse Herausforderung dabei ist – egal in welchem Fachgebiet – die Unsicherheit und Zuverl?ssigkeit systematisch zu berechnen. Das zus?tzliche Wissen, das Prognosen generieren, zu ignorieren, zeigt eigentlich vor allem, dass die Prognosen nicht ins eigene Weltbild passen.
Mehr Dialog und Vertrauen n?tig
Prognosen vereinigen unser gesamtes Wissen über ein System. Sie sind selten perfekt, aber werden laufend pr?ziser. Prognosen k?nnen jedoch noch so gut sein, sie nützen wenig, wenn man sie nicht versteht, wenn man nicht mit Unsicherheiten umgehen kann oder wenn man nicht bereit ist, darauf zu reagieren. Gefragt ist im Hinblick auf zukünftige Krisen mehr Dialog und Vertrauen zwischen Politik, Gesellschaft, Medien und Forschung.
Dieser Beitrag von Reto Knutti erschien zuerst als externe Seite Klartext bei Higgs.
Referenzen
1 Blick (13.02.2022): externe Seite Taskforce best?tigt Omikron-Fehlprognose
2 Tagesanzeiger (12.02.2022): externe Seite Corona-Taskforce gibt Fehlprognose zu
3 Zum Beispiel auf externe Seite Twitter
4 Der Schweizerische Bundesrat auf Youtube: externe Seite 11.01.2022 - Point de Presse
5 NZZ (29.01.2022): externe Seite Warum die Wissenschafter manchmal falsch liegen
6 Geophysical Research Letters (2019): externe Seite Evaluating the Performance of Past Climate Model Projections