KI, ChatGPT und die Wissenschaften

DFG 2

DFG formuliert Leitlinien für Umgang mit generativen Modellen zur Text- und Bilderstellung

Die Deutsche Forschungsgemeinschaft (DFG) hat erste Leitlinien für den Umgang mit generativen Modellen für die Text- und Bilderstellung formuliert.

Eine jetzt veröffentlichte Stellungnahme des Präsidiums der größten Forschungsförderorganisation und zentralen Selbstverwaltungseinrichtung für die Wissenschaft in Deutschland beleuchtet den Einfluss von ChatGPT und anderen generativen KI-Modellen auf die Wissenschaften und das Förderhandeln der DFG.

Als Ausgangspunkt einer kontinuierlichen Begleitung soll das Papier sowohl Wissenschaftlerinnen und Wissenschaftlern in ihrer Arbeit als auch Antragstellenden bei der DFG sowie den am Begutachtungs-, Bewertungs- und Entscheidungsprozess beteiligten Personen eine Orientierung bieten.

Nach Ansicht des DFG-Präsidiums verändern KI-Technologien bereits jetzt den gesamten wissenschaftlichen, erkenntnisgewinnenden und kreativen Arbeitsprozess in erheblichem Maße und werden in den verschiedenen Wissenschaftsbereichen in vielfältiger, wenn auch unterschiedlicher Weise eingesetzt. Gerade bei generativen Modellen zur Text- und Bilderstellung stehe diese Entwicklung erst am Anfang.

»Der Einsatz generativer Modelle im Rahmen des wissenschaftlichen Arbeitens sollte angesichts der erheblichen Chancen und Entwicklungspotenziale keinesfalls ausgeschlossen werden«, heißt es in dem Papier: »Ihr Einsatz erfordert jedoch bestimmte verbindliche Rahmenbedingungen, um die gute wissenschaftliche Praxis und die Qualität wissenschaftlicher Ergebnisse zu sichern.« Grundlegend seien auch hier die allgemein in den Wissenschaften etablierten Standards guter wissenschaftlicher Praxis.

An konkreten Leitlinien formuliert das DFG-Präsidium, dass Wissenschaftlerinnen und Wissenschaftler bei der öffentlichen Zugänglichmachung ihrer Ergebnisse offenlegen sollten, ob und welche generativen Modelle sie zu welchem Zweck und in welchem Umfang eingesetzt haben. Dies schließt auch Förderanträge bei der DFG mit ein. Der Einsatz solcher Modelle entbinde die Forschenden dabei nicht von ihrer eigenen inhaltlichen und formalen Verantwortung für die Einhaltung der Grundprinzipien wissenschaftlicher Integrität.

In wissenschaftlichen Publikationen könnten nur die verantwortlich handelnden natürlichen Personen als Autorinnen und Autoren in Erscheinung treten, stellt das Papier fest. »Sie müssen sicherstellen, dass durch die Verwendung generativer Modelle kein fremdes geistiges Eigentum verletzt wird und kein wissenschaftliches Fehlverhalten etwa in Form von Plagiaten entsteht«, heißt es weiter.

Im Rahmen der Antragstellung bei der DFG soll der Einsatz generativer Modelle auf der Grundlage dieser Prinzipien zulässig sein. Bei der Erstellung von Gutachten hingegen sei der Einsatz mit Blick auf die Vertraulichkeit des Begutachtungsverfahrens unzulässig, stellt das Papier fest und führt weiter aus: »Zur Begutachtung bereitgestellte Unterlagen sind vertraulich und dürfen insbesondere nicht als Eingabe für generative Modelle genutzt werden.«

Hinweise an die Antragstellenden und an die am Urteilsbildungsprozess beteiligten Personen werden derzeit in der Geschäftsstelle der DFG in die entsprechenden Dokumente und technischen Systeme überführt.

Anknüpfend an diese ersten Leitlinien will die DFG in einem fortlaufenden Prozess die Chancen und möglichen Risiken des Einsatzes generativer Modelle in den Wissenschaften und in ihrem eigenen Förderhandeln analysieren und bewerten.

Eine Arbeitsgruppe »Digitaler Wandel« des DFG-Senats soll sich dabei mit übergreifenden epistemischen und fachspezifischen Fragen befassen. Mögliche Auswirkungen auf Tatbestände wissenschaftlichen Fehlverhaltens sollen in der Kommission zur Überarbeitung der DFG-Verfahrensordnung zum Umgang mit wissenschaftlichem Fehlverhalten thematisiert werden. Auch mit weiteren Stellungnahmen will die DFG zu einem »diskursiven und wissenschaftsbasierten Prozess« beim Einsatz generativer Modelle beitragen.


Ähnliche Themen in dieser Kategorie

09.09.2025

Risikomanagement in der Wissenschaft - Hochschulen erhalten praxisnahe Hilfe für sichere Kooperationen Der Deutsche Akademische Austauschdienst (DAAD) baut sein Engagement für Wissenssicherheit in der internationalen Wissenschaftskooperation weiter aus. Mit der neu …

05.09.2025

KI prägt deutschen Hochschulalltag: Neue Strategien und Prüfungsmodelle Deutsche Hochschulen stehen beim Thema Künstliche Intelligenz (KI) vor einem tiefgreifenden Wandel. Laut dem »KI Monitor 2025« des Hochschulforums Digitalisierung (HFD) integrieren sie KI zunehmend in den …

29.08.2025

Künstliche Intelligenz in Klassenzimmer und Lehrsaal: WKW-Forschungsprojekt belegt intensive KI-Nutzung im Bildungsbereich Künstliche Intelligenz prägt den Wiener Bildungsalltag zunehmend. Ein Forschungsprojekt der FHWien der WKW, beauftragt von der Wirtschaftskammer Wien (WKW …

21.08.2025

Für das Jahr Haushaltsjahr 2026 sieht der Regierungsentwurf für das Bundesministerium für Forschung, Technologie und Raumfahrt Ausgaben in Höhe von 21,3 Milliarden Euro vor. Das sind rund 1,1 Milliarden Euro weniger als im Entwurf für den Haushalt 2025). Als Einnahmen sind im …

.
Oft gelesen...