Künstliche Intelligenz in der Lehre
Künstliche Intelligenz ist eine Technologie, die seit langer Zeit parallel zum Aufkommen immer leistungsstärkerer Computersysteme entwickelt wird. In den letzten Jahren hat sie auf Basis der heute zur Verfügung stehenden Rechenleistung ein Niveau erreicht, dass für sehr leistungsstarke Anwendungen genutzt werden kann. Seit Ende 2022 hat ein Chatbot auf Basis des Sprachmodells GPT-3.5 hohe öffentliche Aufmerksamkeit auf die Künstliche Intelligenz (KI) gelenkt, da mit einer intuitiven Oberfläche in natürlicher Sprache Zugang zu KI für jedermann geschaffen wurde. Auch wenn KI vorher bereits in vielen Anwendungen enthalten war (Suchmaschinen, Spracherkennung etc.), waren diese Anwendungen viel weniger sichtbar.
Die heute zur Verfügung stehende Leistungsfähigkeit von KI und deren rasante Weiterentwicklung haben dazu geführt, dass diese Technologie schon jetzt und in naher Zukunft noch viel stärker im Alltag und im beruflichen Handeln Eingang findet. Dazu werden Expertensysteme gehören, die mit umfangreichen, sorgfältig ausgewählten fachspezifischen Daten trainiert sind und damit Menschen effektiv und zuverlässig unterstützen oder die sogar ganz eigenständig handeln können. In manchen Berufen wird dies zu drastischen Veränderungen führen, in anderen werden es wertvolle zusätzliche Werkzeuge sein.
Auch in der Wissenschaft kommen schon heute und in Zukunft umso mehr KI-Methoden zur Anwendung, z.B. zur Auswertung großer Datenmengen, für die Mustererkennung und andere Methoden der Datenanalyse. Grundsätzlich besteht auch die Möglichkeit, den Stand der Wissenschaft zu einem Themengebiet zu recherchieren und zusammenfassen zu lassen, was aber mit Risiken der Lückenhaftigkeit und der nicht nachvollziehbaren Einordnung der Relevanz einzelner Beiträge einhergeht.
Künstliche Intelligenz wirft eine Reihe ethischer Fragen auf, insbesondere dann, wenn bedeutsame Entscheidungen einer künstlichen Intelligenz überlassen werden, ohne die Entscheidungsfindung anhand eines Algorithmus nachvollziehen zu können. Einschätzungen von KI basieren auf sehr großen Datensätzen mit denen sie trainiert wird und sind entsprechend mit z.T. problematischen Einschätzungen in diesen Trainingsdaten belastet. Vor diesem Hintergrund sollten Entscheidungen immer auf der menschlichen Urteilskraft beruhen, was auch die jüngst vom Deutschen Ethikrat vorgenommene Einschätzung der Chancen und Grenzen des Einsatzes von KI sowie ihrer ethischen Beurteilung bestätigt.1
Die Universitäten müssen sich der Herausforderung stellen, junge Menschen auf eine Berufstätigkeit vorzubereiten, in der diese Werkzeuge ein selbstverständlicher Bestandteil des beruflichen Handelns sein werden. Sie müssen gleichzeitig in die Lage versetzt werden, in ihrem Fach eine Urteilskraft zu entwickeln, die es ihnen erlaubt, Vorschläge und Bewertungen aus KI-gestützten Tools kritisch zu hinterfragen und eine abschließende eigene Bewertung abzugeben, die dann als Basis für zu treffende Entscheidungen dient.
Die Art und Weise, wie KI im beruflichen Handeln und der Wissenschaft produktiv eingesetzt werden kann, wird sich von Fach zu Fach deutlich unterscheiden. Daher wird es keine Antwort auf die neu entstandenen Fragen geben können, die für alle Fächer gleichermaßen passend ist. Gleichzeitig definieren die Regeln Guter wissenschaftlicher Praxis allgemeine und für alle Fächer gleichermaßen geltende Vorgaben. Wissenschaftliche Integrität bildet dabei die Grundlage, die auch im Umgang mit KI für alle Fächer gleichermaßen gilt.
Eine wesentliche Frage hinsichtlich der Guten wissenschaftlichen Praxis und der einschlägigen Leitprinzipien bei der Nutzung von KI in der Wissenschaft muss darauf gerichtet sein, als was die KI genutzt wird. Ist sie Ideengeber und damit ähnlich wie ein Gesprächspartner zu sehen oder wird sie als Datenquelle oder konkretes Instrument genutzt? Danach richtet sich auch der Umgang mit ihr im Sinne der Guten wissenschaftlichen Praxis und den jeweiligen Leitprinzipien zu Quellangaben etc.
Nach diesen Leitprinzipien4 sind u.a. alle im Forschungsprozess erhobenen Daten und Resultate vollständig zu dokumentieren und nachvollziehbar darzustellen sowie alle Ergebnisse kritisch zu hinterfragen. Zugleich ist die Datenprovenienz von im Forschungsprozess verwendeten Daten, Organismen, Materialien und Software kenntlich zu machen und die Nachnutzung zu belegen. Die angewandten Methoden sind – auch im Hinblick auf ihre Replizierbarkeit – nachvollziehbar zu beschreiben. Daten sind nicht zu fälschen oder zu erfinden und wissenschaftlich fundierte und nachvollziehbare Methoden anzuwenden, zu beschreiben und bei der Entwicklung und Anwendung neuer Methoden auf Qualitätssicherung und Etablierung von Standards zu achten. Diese Leitprinzipien gelten auch für den Umgang mit KI. Die konkrete Bedeutung wird im Einzelfall zu entscheiden sein. Gleichwohl steht in diesem Sinn auch jedes Fach selbst vor der Aufgabe, sich die Möglichkeiten, Grenzen und Risiken von KI und den Umgang mit ihr im Rahmen der Guten wissenschaftlichen Praxis für die eigene Fachkultur zu verklaren.
Es muss in der Gemeinschaft der Wissenschaftler:innen eine Diskussion geführt werden, wie die Gute wissenschaftliche Praxis in Bezug auf die Integration von KI-gestützten Methoden über die allgemeinen Leitprinzipien hinaus weiterentwickelt werden kann und muss. Welcher Einsatz ist hilfreich für effektiven Erkenntnisgewinn, welche Risiken sind damit verbunden und wie sind diese einzuordnen, wie werden Forschungsergebnisse einzelnen Forschenden bzw. Gruppen von Forschenden zugeschrieben, wenn KI einen wesentlichen Betrag am Erkenntnisgewinn hat, welche Werkzeuge dürfen beim Erstellen von Publikationen eingesetzt werden und welche davon müssen ab welchem Umfang ihrer Verwendung transparent gemacht werden etc..
Sicher werden die Fachgesellschaften eine wichtige Rolle in dieser Diskussion spielen und Grundsätze, die für alle Fächer gelten und über die geltenden Regelungen zur Guten wissenschaftlichen Praxis hinausgehen, werden auch Eingang in den KODEX der DFG - Leitlinien zur Sicherung guter wissenschaftlicher Praxis finden. Das Ergebnis dieser Diskussion wird sich auf die Lehre an Hochschulen auswirken, da Studierende in ihrem Studium das eigenständige wissenschaftliche Arbeiten und das konsequente Anwenden der guten wissenschaftlichen Praxis erlernen.
Es ist die Aufgabe aller Forschenden und Lehrenden an Universitäten sich jetzt und weiterhin kontinuierlich mit den Entwicklungen und den neuen Möglichkeiten der Künstlichen Intelligenz in ihrem Fach auseinanderzusetzen und deren Auswirkungen zu bewerten. Sie sollten jederzeit mit dem Stand der Diskussion zur Guten wissenschaftlichen Praxis vertraut sein. In Bezug auf die Lehre ist es wichtig, dass Lehrende auch in diesem Feld zu den gut informierten Experten gehören und ihren Studierenden Orientierung in diesem sich sehr dynamisch entwickelnden Feld geben können. Dazu gehört auch, dass sie einschlägige Tools kennen und deren Möglichkeiten und Zuverlässigkeit einschätzen können. Die Universität Kassel wird ihre Lehrenden durch Weiterbildungsangebote unterstützen. Z.B. finden an der Universität Kassel vom 17. bis 19. November 2025 die KI-Thementage statt.
Für den verantwortungsvollen Einsatz von KI ist es notwendig, die von den Tools erzeugten Ausgaben bewerten zu können und sie weiterzuverarbeiten, bis man zu einem abschließenden eigenen Ergebnis, bzw. Urteil kommt. Für diesen Prozess ist es erforderlich, einzelne Schritte auch ohne Technologie-Einsatz gehen oder nachvollziehen zu können. Daher war bei jeder Einführung neuer Technologien der Anspruch, entsprechende Aufgaben auch weiterhin ohne Anwendung der jeweiligen neuen Technologie bewältigen zu können (Taschenrechner, Rechtschreibprüfung in der Textverarbeitung, Übersetzung von Texten etc.). Die elementare Grundfertigkeit verliert aber im Laufe der Zeit an Bedeutung und beschränkt sich teils nur noch auf das Prinzipielle (Navigationssysteme / Aufsuchen einer Straßenadresse in einer fremden Großstadt nur mithilfe eines Stadtplans).
Lehrende können daher im Rahmen der Freiheit der Lehre vor dem Hintergrund der Standards eines Faches entscheiden, welche Fertigkeiten mit und ohne Technologie bis zu welchem Grad beherrscht werden müssen. Eine Differenzierung, ob eine Fertigkeit ohne Technologieeinsatz erlernt werden soll oder die Erstellung eines hochwertigen Produkts unter Verwendung einer Reihe von Technologien angestrebt wird, kann in der Beschreibung von Lernzielen der jeweiligen Module getroffen werden.
Es ist erforderlich, dass Lehrende den Studierenden vermitteln, welcher Einsatz von KI vor dem Hintergrund dieser Lernziele und angestrebten Kompetenzen erforderlich, zulässig oder dezidiert unzulässig ist. Sie sollten darauf achten, im Kontext der Erläuterung der Prüfungsmodalitäten Hinweise hierzu zu geben, die diesen Zielen und diesen Grenzen Rechnung tragen. Es ist wichtig, dass nach dem Erlernen einer fachlichen Grundfertigkeit auch der effektivste Weg zum Ziel mit verfügbaren Technologien erlernt und geübt wird, dessen Beschreitung später in der Berufstätigkeit erwartet wird. Ein Beispiel könnte das Übersetzen eines Textes mit KI und anschließender gründlicher Nachbearbeitung des Textes sein. Das Kompetenzniveau würde sich in dem Beispiel daran messen lassen, wie weit Studierende in der Lage sind, den automatisch übersetzten Text im Hinblick auf unterschiedliche Qualitätsmerkmale noch zu verbessern bzw. zu präzisieren. Würden sie keine Verbesserungen am Text vornehmen können, würden sie beruflich für diese Aufgabe nicht eingesetzt werden, da ihre Arbeit im Vergleich zur KI-Anwendung keinen Mehrwert stiften würde.
Mit jeder neuen Technologie werden die Ansprüche an berufliche Tätigkeiten höher, da nur noch die Fähigkeiten jenseits dessen, was die Technologie dem Menschen abnimmt, von Wert sind. Auch KI wird zu einem Steigen des Anspruchsniveaus in vielen Berufen führen. Auch viele akademische Berufe werden betroffen sein, da durch KI selbst anspruchsvolle akademische Tätigkeiten zu einem gewissen Grad automatisiert werden können und die Fähigkeiten der KI dazu im Laufe der Zeit weiterhin deutlich zunehmen werden. Es wird eine Herausforderung sein, Studierende in der begrenzten Zeit eines Studiums zu einem Kompetenzniveau zu führen, das diesen Ansprüchen gerecht wird. Dieses Ziel muss den Studierenden und den Lehrenden bewusst sein.
Auch das für die berufliche Tätigkeit innerhalb und außerhalb der Wissenschaft erforderliche Kompetenzspektrum ändert sich mit den neuen Technologien. In diesem Sinn müssen Curricula incl. der Lehrinhalte und -methoden kritisch hinterfragt und systematisch unter Berücksichtigung der Dynamik der Situation für die zukünftig anzustrebenden Kompetenzspektren aufgebaut werden. Neben einer digital Literacy im Allgemeinen gehört dazu auch eine KI Literacy, die algorithmisches Denken und anwendungsbezogene Kompetenzen wie beispielsweise das Interagieren mit KI-Technologien (Prompt Engineering für Sprachmodelle), das Trainieren von KI-Modellen oder deren Anwendung für spezifische Nutzungsfälle, aber auch rechtliche und ethische Grundlagen für die Nutzung von KI-Modellen umfasst.
Neben der Präsenzlehre bieten digitale Lehrangebote schon heute zusätzliche Lerngelegenheiten, die helfen, Lernprozesse zu individualisieren und zu flexibilisieren. Künstliche Intelligenz wird eine Reihe zusätzlicher Möglichkeiten eröffnen, individualisierte Rückmeldung zu Lernprozessen zu geben. Das reicht von individualisierten Aufgabentools, die sich an den Lernstand der Lernenden anpassen und individualisierte Aufgaben formulieren, bis hin zu Lernbegleitern, die Vorschläge für die Organisation des Lernprozesses unterbreiten oder Rückmeldungen zu erstellten Texten geben können. Solche Instrumente können helfen, Studierende mit sehr unterschiedlichen Voraussetzungen individuell zu fördern und damit einen Beitrag zum Studienerfolg liefern.
Werden KI-basierte Tools von Studierenden als inhaltliche Quelle beim Lernen eingesetzt, sind die Anforderungen an die fachliche Korrektheit sehr hoch. Lehrangebote, die durch Lehrende erstellt werden, sind durch die fachliche Expertise der Lehrenden abgesichert. Werden Chatbots auf der Basis von Sprachmodellen von Studierenden zum Lernen herangezogen, besteht die Gefahr, dass fachlich unpräzise oder falsche Inhalte gelernt werden. Eine Überprüfung der fachlichen Korrektheit während des Lernprozesses ist für Lernende kaum möglich, da das hierfür notwendige Wissen gerade erst erworben wird. Studierende sollten sich dieses Risikos bewusst sein und beim Lernen nur zuverlässige Quellen nutzen. Lehrende sollten den Studierenden Orientierung geben, wie sie die Qualität von zusätzlich herangezogenen Quellen im Lernprozess einschätzen können. Darüber hinaus sind Aspekte des Datenschutzes und der Zugänglichkeit beim Einsatz digitaler Tools in der Lehre von Bedeutung und müssen geklärt werden.
Prüfungen können als Messinstrumente für die in einem Modul erworbenen Kompetenzen verstanden werden. Im Sinn eines Aufbaus unterschiedlicher, aufeinander aufbauender Kompetenzen, wie oben beschrieben, muss in manchen Prüfungen der Einsatz bestimmter Technologien ausgeschlossen werden, um die fachlichen Grundfertigkeiten zu prüfen, in anderen Prüfungen aber gezielt zugelassen werden, um den Grad der Fähigkeit zur Erstellung hochwertiger Ergebnisse, Lösungen etc. unter Verwendung angemessener Technologien zu messen. In manchen Prüfungen wird der kompetente und reflektierte Einsatz von KI-basierten Tools selbst Gegenstand der Prüfung sein. Daher kann die Antwort hier auch nur eine prozedurale sein: Lehrende müssen jeweils bezogen auf ihre Lehrveranstaltung und die zu erbringenden Studien- und Prüfungsleistungen klarstellen, welcher Gebrauch von welchen Instrumenten bzw. Hilfsmitteln erforderlich, zulässig bzw. unzulässig ist. Es ist nicht möglich, für alle Prüfungen geltende Regeln über die erlaubten Hilfsmittel zu erlassen. Auch die fachlichen Unterschiede sind viel zu groß, um hochschulweit einheitliche Regeln dafür zu formulieren.
Die Konzeption einer Prüfung incl. der Festlegung zulässiger Hilfsmittel liegt in der Verantwortung der Lehrenden. Die Prüfung muss geeignet sein, das erreichte Kompetenzniveau der Studierenden messen und bewerten zu können. Wichtig ist, dass Studierenden rechtzeitig vor der Prüfung, idealerweise zu Beginn einer Veranstaltung transparent und verlässlich mitgeteilt wird, welche Hilfsmittel erforderlich, erlaubt und welche ausgeschlossen sein werden. Dies sollte eine Gelegenheit sein, mit den Studierenden die angestrebten Kompetenzen zu besprechen und ihnen gegenüber zu begründen, warum die Nutzung bestimmter Tools auch schon während des Lernprozesses erwünscht bzw. unerwünscht ist.
Bei Klausuren und mündlichen Prüfungen ist eine Überprüfung der verwendeten Hilfsmittel möglich. Bei anderen Prüfungsformen (Hausarbeit, Projekt, Vorbereitung eines Vortrags, Fernprüfung etc.) kann der Einsatz von Hilfsmitteln dagegen nicht kontrolliert werden. Das an Hochschulen übliche Mittel zum Umgang mit dieser Situation sind Eigenständigkeitserklärungen, in denen versichert wird, dass unzulässige Hilfsmittel nicht verwendet wurden. Diese Eigenständigkeitserklärungen bieten die Möglichkeit, aktiv transparent zu machen, welche Tools verwendet wurden und wie sie bzw. in welchem Umfang sie eingesetzt wurden. Dies ist ein zielführender Weg, vor dem Hintergrund eines sich sehr dynamisch entwickelnden Feldes nicht mit abschließenden Listen von Verboten umzugehen, sondern immer wieder aufs Neue und jeweils situationsbezogen Transparenz über die Herstellung eines ‚Produktes‘ zu schaffen, das in der Prüfung bewertet wird. Wichtig für Studierende ist, dass vor Beginn der Arbeit von den Lehrenden klar gestellt wird, welche Auswirkung die Verwendung von Tools auf die Bewertung der Arbeit hat. Neben dem Ausschluss einzelner Tools oder Klassen von Tools muss deutlich gemacht werden, ob eine Nutzung anderer Tools, die in der Eigenständigkeitserklärung korrekt angegeben wurden, zu einer Abwertung der eigenen Leistung führen wird. Studierende sollten keine Sorgen haben müssen, dass alleine der Einsatz eines nicht ausgeschlossenen Tools zu einer schlechteren Note führt. Die Klärung solcher Fragen mit den Studierenden wird in Zukunft einen größeren Raum einnehmen und Lehrende müssen sich ihre Bewertungsmaßstäbe u.U. neu verklaren.
Eine Überprüfbarkeit der Einhaltung von Angaben aus der Eigenständigkeitserklärung war und ist begrenzt. Texte, die von Anwendungen generativer KI wie ChatGPT erzeugt werden, sind nach heutigem Stand in der Regel nicht zweifelsfrei als solche identifizierbar. Da sie immer individuell erzeugt werden, sind sie auch mit Plagiatssoftware nicht auffindbar. Der Einsatz von Sprachmodellen für die Formulierung von Texten ist daher vergleichbar mit der Hilfe durch dritte Personen, die bisher auch nicht nachweisbar war und daher mit der Eigenständigkeitserklärung ausgeschlossen wurde. Ebenso können der Einsatz von Formulierungshilfen wie DeepL-Write oder Grammarly, die Übernahme einer KI-basierten Übersetzung aus einer ersten muttersprachlichen Fassung ins Deutsche, der Einsatz von Computeralgebra für die Herleitung von Formeln, die Erstellung von Programmcode mithilfe KI-basierter Tools usw. in der Regel nicht nachgewiesen werden. Sollen zu Beginn eines Studiums die fachlichen Grundfertigkeiten ohne Technologieeinsatz geprüft werden, sind überwachte Prüfungsformate (Klausur, mündliche Prüfung) ein Weg zur Kontrolle. In Fachkulturen, in denen das Schreiben wissenschaftlicher Aufsätze (Hausarbeiten) zu den Grundfertigkeiten des Faches gehört, können solche Arbeiten prinzipiell auch durch den Einsatz ergänzender Kolloquien abgesichert werden. Änderungen der Prüfungsformen erfordern allerdings Änderungen der Prüfungsordnungen, die ggf. mittelfristig erforderlich sein werden. Im weiteren Studium sollte der verantwortungsvolle Umgang mit den im Rahmen der Guten wissenschaftlichen Praxis zulässigen Tools geübt werden und in den Prüfungen die Hochwertigkeit der damit erstellten Arbeiten bewertet werden. Sicherlich erschöpft sich Hochwertigkeit nicht im sprachlichen Ausdruck, sondern auch in der Stringenz von Argumentation und innovativer Fragstellung und Erkenntnis. Bei Abschlussarbeiten ist eine Ergänzung der schriftlichen Arbeit durch ein in der Prüfungsordnung verankertes verpflichtendes Kolloquium, in dem die eigenen Ergebnisse vorgestellt und eingeordnet werden, ein Weg, um die tiefgehende wissenschaftliche Auseinandersetzung mit dem Thema zu prüfen.
In Bezug auf GPT 3.5 im Speziellen ist bekannt, dass die erzeugten Texte von sehr unterschiedlicher Qualität sind. Es gibt das Phänomen des ‚Halluzinierens‘, bei dem die KI falsche Aussagen erfindet, die es dennoch sprachlich überzeugend präsentiert. Da das Sprachmodell darauf beruht, Aussagen und Formulierungen zu erzeugen, die angesichts des gegebenen Kontexts bei einer von Menschen geführten Kommunikation mit hoher Wahrscheinlichkeit zu erwarten wären, klingen solche erfundenen Tatsachen naheliegend und sind durch Plausibilitätstests allein nicht zu identifizieren. Auch Zitate werden von GPT 3.5 zum Teil erfunden, wobei Autorenlisten und Titel der Publikation sogar naheliegend wirken können, ohne dass es eine solche Publikation gibt. Eine sorgfältige Prüfung von Inhalt und Zitaten kann daher Hinweise auf eine unreflektierte Verwendung von Sprachmodellen liefern. Weiterentwicklungen wie GPT-4 reduzieren diese Effekte zwar bereits signifikant und bieten bessere Bezüge zu den herangezogenen Quellen, dennoch bleibt diese Art der Unsicherheit grundsätzlich bestehen.
Am Ende ist jede Person für die von ihr erstellte Arbeit selbst verantwortlich unabhängig von den bei der Erstellung eingesetzten Tools. Sie trägt die Verantwortung für alle Inhalte, deren Darstellung und die Angabe aller herangezogenen Quellen.
- Schwerpunkt Rechtliche Fragen: https://learning-aid.blogs.ruhr-uni-bochum.de/rechtsgutachten-zu-ki-tools-veroeffentlicht/
- Schwerpunkt Handlungsempfehlungen für Lehrende und Studierende: https://www.uni-hohenheim.de/pressemitteilung?tx_ttnews%5Btt_news%5D=58293&cHash=bdac6c37cb985c16b9c2a050d7c0dd13
Download
Fußnoten
- Deutscher Ethikrat: Stellungnahme „Mensch und Maschine“ (Webseite)
- EU-KI-Verordnung – Entwurf und Verfahren (eur-lex.europa.eu/europarl.europa.eu)
- „Excellence and trust in AI“ (commission.europa.eu)
- Grundsätze zur Sicherung guter wissenschaftlicher und künstlerischer/gestalterischer Praxis der Universität Kassel, Mitteilungsblatt Nr. 8/2022 vom 27.07.2022, S. 263, 264f. (PDF)