Sprachbasierte KIs haben verborgene Moral- und Wertevorstellungen

(Geschätzte Lesezeit: 1 - 2 Minuten)
gesis Logo

KI-Sprachmodelle: Verborgene Moralvorstellungen im Fokus

Wie Menschen, so besitzen auch hochentwickelte KI-Sprachmodelle individuelle Moral- und Wertevorstellungen. Allerdings sind diese ethischen Prägungen oft verborgen.

Wissenschaftler der Universität Mannheim und des GESIS – Leibniz-Instituts widmen sich nun der Aufdeckung dieser verborgenen Eigenschaften. Ihre Forschung konzentriert sich darauf, die charakteristischen Merkmale der KI-Modelle zu enthüllen und die potenziellen gesellschaftlichen Auswirkungen dieser Voreingenommenheiten zu untersuchen.

Die jüngste Forschung von Wissenschaftlerinnen der Universität Mannheim und des GESIS – Leibniz-Instituts für Sozialwissenschaften offenbart, dass kommerzielle KI-Systeme wie ChatGPT und DeepL oftmals geschlechtsspezifische Stereotype reproduzieren. So wird beispielsweise angenommen, dass Ärztinnen männlich und Pflegekräfte weiblich sind. Diese Tendenz beschränkt sich jedoch nicht nur auf Geschlechterrollen, sondern erstreckt sich auch auf andere menschliche Eigenschaften, wie die Studie anhand verschiedener öffentlich zugänglicher Großsprachmodelle (Large Language Models, LLMs) zeigt.

Mithilfe etablierter psychologischer Tests untersuchten die Forschenden die Eigenschaftsprofile dieser LLMs und stellten vergleichende Analysen an. Max Pellert, Assistenzprofessor am Lehrstuhl für Data Science in den Wirtschafts- und Sozialwissenschaften der Universität Mannheim, betont die Übertragbarkeit dieser psychometrischen Tests, die seit Jahrzehnten beim Menschen angewendet werden, auf KI-Modelle. Nach Ansicht von Clemens Lechner, Psychologe am GESIS – Leibniz-Institut, ermöglicht dies die Erstellung differenzierter Profile von KI-Modellen, indem man sie ähnlich wie bei Menschen durch Fragebogen beantworten lässt.

Die Studienergebnisse zeigen, dass LLMs genderspezifische Vorurteile aufweisen. So wird in identischen Texten, die sich nur durch das Geschlecht der zentralen Figur unterscheiden, der Wert »Achievement« bei Männern stärker hervorgehoben, während bei Frauen die Aspekte Sicherheit und Tradition dominieren. Pellert warnt vor den gesellschaftlichen Auswirkungen solcher Vorurteile, insbesondere wenn KI-Modelle in Bereichen wie Bewerbungsverfahren zum Einsatz kommen. Er plädiert für frühzeitige Untersuchungen und das Aufzeigen potenzieller Verzerrungen, um einer Verfestigung dieser Vorurteile entgegenzuwirken.

Die Studie entstand in Zusammenarbeit der Lehrstühle für Data Science, Survey Design und Methodology sowie Computational Social Science an der Universität Mannheim und am GESIS – Leibniz-Institut für Sozialwissenschaften, unter der Leitung von Prof. Dr. Markus Strohmaier, Prof. Dr. Beatrice Rammstedt, Prof. Dr. Claudia Wagner und Prof. Dr. Sebastian Stier.

Die Ergebnisse der Untersuchung sind im renommierten Fachjournal »Perspectives on Psychological Science« erschienen:
Pellert, M., Lechner, C. M., Wagner, C., Rammstedt, B., & Strohmaier, M. (2024). AI Psychometrics: Assessing the Psychological Profiles of Large Language Models Through Psychometric Inventories. Perspectives on Psychological Science.


Rückgang der Fachkräfte-Quote in deutschen Kitas
Wichtiger Faktor für frühkindliche Bildung: Rückgang der Fachkräfte-Quote in deutschen Kitas Eine hohe Fachkraftquote ist entscheidend für die Qualität frühkindlicher Bildung. Eine aktuelle Analyse des »Ländermonitorings Frühkindliche...
Führungskräfte Studie: Flexibilität und Anpassungsfähigkeit immer wichtiger
Soft Skills und individuelle Stärken rücken auf dem Arbeitsmarkt in den Mittelpunkt Individuelle Fähigkeiten und Soft Skills werden immer wichtiger, um den Anforderungen des Arbeitsmarktes gerecht zu werden. Viele Unternehmen passen sich den...
KI im Bildungskontext
Nationales Bildungspanel startet Aufruf für Fragemodule zu Nutzungsmotiven, Wissen, Vertrauen Das Nationale Bildungspanel ruft Forscherinnen und Forscher außerhalb des NEPS-Netzwerks auf, Vorschläge für neue Fragemodule einzureichen. Der...

.