KI ist keine Pandemie
Manche glauben, dass ChatGPT das Bildungssystem untergraben k?nnte, und es werden Rufe laut, die Nutzung von KI in der Lehre zu regulieren. Gerd Kortemeyer spricht sich dafür aus, dies nur mit Augenmass zu tun. Denn alles andere k?nnte am Ende kontraproduktiv sein.
- Vorlesen
- Anzahl der Kommentare
Als Covid-19 zum ersten Mal zuschlug, reagierten wir sofort, indem wir Regeln und Einschr?nkungen entwickelten, verkündeten und zurückzogen. Wir haben Vorschriften über Masken, Tests, Reisen und Impfungen erlassen, die teilweise widersprüchlich waren. Im Rückblick m?gen uns einzelne Massnahmen l?cherlich, wirkungslos oder schlicht übertrieben erscheinen – doch damals war Unvollkommenheit viel besser als Unt?tigkeit: Wir mussten etwas tun, um eine t?dliche Pandemie einzud?mmen.
KI ist keine t?dliche Pandemie, aber auch hier laufen wir Gefahr, vorauseilend einschneidende und über das Ziel hinausschiessende Regeln und Vorschriften zu erlassen, um ihre Ausbreitung zu verhindern. Zugegeben, im Vergleich zu anderen disruptiven Technologien traten Tools wie ChatGPT ziemlich abrupt in die ?ffentlichkeit. Unterdessen fordern Kritiker und Kritikerinnen, die Entwicklung neuer KI-Modelle komplett einzufrieren. Ganze L?nder versuchen, ChatGPT zu verbieten und Verlage erweitern ihre Autorenvereinbarungen. Auch die Universit?ten beeilen sich, neue Vorschriften zu erlassen. Meistens geht es dabei nicht darum, zu regulieren, wofür KI eingesetzt werden darf, sondern nur darum, wo sie verboten werden soll. Ich vermute, dass wir auch viele dieser Massnahmen in ein paar Monaten als l?cherlich, ineffektiv oder schlicht als übertrieben ansehen werden.
Nach dem ersten Schock...
KI ist keine Pandemie, sondern ein Werkzeug – allerdings ein beeindruckendes. Für Bildungsexperten war es ein Schock zu erkennen, dass ChatGPT eine Universit?tszulassungsprüfung meistern kann. Und nicht nur das: Das Tool hat naturwissenschaftliche Einführungskurse bestanden und kann Essays und Pr?sentationen mit bemerkenswert plausiblen, wenn auch fiktiven Inhalten erstellen. Ich spreche bewusst von Fiktion, denn m?gen diese Texte noch so sachlich daherkommen, handelt es sich schlussendlich um eine statistisch wahrscheinliche Zusammenstellung von Textfetzen, welche nicht durch Quellen belegt werden kann – der zum Training verwendete Textkorpus ist propriet?r, der Algorithmus wirbelt alles durcheinander, und wenn man ChatGPT auffordert, Referenzen zu liefern, so sind diese komplette Fiktion.
Trotzdem: Es ist erstaunlich, wie gut ChatGPT programmieren, Sprachen übersetzen und Texte zusammenfassen kann. Wir werden Zeit brauchen, um herauszufinden, was das über KI aussagt, aber auch, was es über unser Bildungssystem aussagt.
?Den unver?nderten Text aus einem KI-Tools zu verwenden, ist zwar kein Plagiat, aber die Aussage ?Ich habe das geschrieben? w?re eindeutig eine Lüge.?Gerd Kortemeyer
In Schachturnieren wurde die KI verboten, um den Spass der Menschen an diesem kunstvollen Spiel zu bewahren. In der Wissenschaft wird jedoch immer von uns erwartet, dass wir die leistungsf?higsten verfügbaren Werkzeuge verwenden, um die Grenzen des Wissens zu erweitern. Es kann in der Hochschulbildung daher nicht darum gehen, über ein komplettes Verbot eines Werkzeugs zu diskutieren, sondern eher um die Konsequenzen dieser Disruption dafür, was und wie wir lehren – und wahrscheinlich nur um ein paar wenige harte Grenzen gegen den Missbrauch des Werkzeugs.
Nicht einfach ?nur? ein Plagiat
Um der KI Grenzen zu setzen, sind unsere Regeln, um Plagiate zu verhindern, leider nicht sehr hilfreich. Sie wurden erstellt, bevor KI alltagstauglich wurde, und sie konzentrieren sich meistens darauf, dass das geistige Eigentum eines anderen nicht als eigenes ausgegeben wird. Für die KI gilt dies streng genommen nicht, es sei denn, wir gestehen der KI eine eigene Pers?nlichkeit zu. Anstatt dass wir uns auf die Arbeit ?von jemand anderem? konzentrieren, sollten wir uns darauf fokussieren, was ?eigene Arbeit? bedeutet: Den Text eines KI-Tools zu verwenden, ist zwar kein Plagiat, aber die Aussage ?Ich habe das geschrieben? w?re eindeutig eine Lüge.
Auf der anderen Seite k?nnen KI-Tools legitim verwendet werden, um Schreibblockaden zu überwinden und einen schnellen ?berblick über ?the good, the bad, and the ugly? dessen zu erhalten, was in seinem riesigen Textkorpus zu einem bestimmten Thema zu finden ist. Dann allerdings müssen die menschlichen Autorinnen und Autoren es zu ihrer eigenen Arbeit machen, indem sie die Spreu vom Weizen trennen und Informationen aus tats?chlichen wissenschaftlichen Quellen verifizieren und validieren. Wo genau in dem Prozess ?die eigene Arbeit? im Sinne einer wissenschaftlichen Leistung ansetzt, muss diskutiert werden. Ich denke aber, eine Regel, dass keine KI-generierten W?rter oder Formulierungen verwendet werden dürfen, greift zu weit. Nehmen wir uns Zeit, sinnvolle Regeln zu entwickeln. Oder haben wir es eilig, weil wir uns sch?men, wenn wir ChatGPT gute Noten geben?
Lieber gegen Fake News impfen
Wie auch immer, Diskussionen über Betrug mit KI sind wahrscheinlich wenig konstruktiv. Die Studierenden kommen zu uns, weil sie lernen wollen und weil sie kritisches, unabh?ngiges Denken und letztlich Kreativit?t sch?tzen. Es liegt in unserer Verantwortung, die F?higkeiten, Konzepte, Methoden und Kompetenzen zu vermitteln, die es ihnen erm?glichen, in einer Welt, in der KI allgegenw?rtig sein wird, zu bestehen und sich zu behaupten. W?hrend wir in Mathematik und Naturwissenschaften immer noch ein solides Fundament legen, müssen wir einige Lehrpl?ne überdenken. Zum Beispiel k?nnten einfache Programmierübungen veraltet sein. Wir müssen uns m?glicherweise auf Berechenbarkeit, Algorithmen und Informationstheorie konzentrieren. Vielleicht kommen wir zum Schluss, dass zum Beispiel das h?ndische Zusammenfassen von Texten und andere Lehrinhalte obsolet sein m?gen. Stattdessen müssen wir unsere Studierenden m?glicherweise gegen die Pandemie viraler Fake News, Fake Science und Deepfakes impfen.