Wenn Maschinen Moral berechnen: Wie KI unsere Ethik beeinflusst

Neue Datenquellen, alte Probleme: Forschende stehen vor methodischen Herausforderungen
Professor Jürgen Pfeffer von der Technischen Universität München warnte in einer LIfBi Lecture vor blindem Vertrauen in digitale Verhaltensdaten. Der Computational-Social-Science-Experte betonte, dass trotz riesiger Datensätze aus Social Media oder Tracking-Tools fundamentale Qualitätsfragen offenblieben.
Twitter-Analyse und Algorithmen-Manipulation
Anhand eines selbst erstellten Datensatzes mit 375 Millionen Tweets zeigte Pfeffer, wie 24-Stunden-Aktivitäten auf Twitter/X wissenschaftlich nutzbar gemacht werden können.
Gleichzeitig demonstrierte er erfolgreiche Manipulationen des Twitter-Algorithmus – ein Beleg für das Spannungsfeld zwischen Erkenntnischancen und Missbrauchsrisiken.
ChatGPT als ethisches Minenfeld
Am Beispiel generativer KI-Systeme verdeutlichte Pfeffer intransparente Entscheidungsprozesse. Verschiedene KI-Modelle lieferten demnach widersprüchliche Antworten auf moralische Dilemmata. Er kritisierte, dass undurchsichtige Programmierung das ethische Urteilsvermögen von Nutzenden untergrabe statt stärke.
»Black Box«-Effekt bei Big Data
Laut Pfeffer behindern drei Kernprobleme valide Aussagen:
1. Unbekannte Algorithmus-Änderungen
2. Technologiebedingte Verzerrungen
3. Verhaltensänderungen durch Monitoring
Sein Fazit: Trotz enormer Mengen bleibe die Datenqualität schwer einschätzbar. Klassische Methoden mit überprüfbaren Stichproben seien weiter unverzichtbar.
Wissenstransfer in der Praxis
Im Austausch mit LIfBi-Mitarbeitenden diskutierte Pfeffer konkrete Anwendungen – von Onlinebefragungs-Qualität bis zur Auswertung von Karrierenetzwerk-Daten. Sein Appell: Kritisches Hinterfragen technischer »Black Boxes« müsse fester Forschungsbestandteil werden.
Ähnliche Themen in dieser Kategorie
Europäisches Projekt stärkt KI-Kompetenzen in der Hochschullehre Das Zentrum für wissenschaftliche Weiterbildung (ZWW) der Johannes Gutenberg-Universität Mainz (JGU) leitet ein ambitioniertes europäisches Projekt zur Förderung von Künstlicher Intelligenz (KI) in der …
Generative KI auf dem Vormarsch Die Nutzung generativer künstlicher Intelligenz (KI) wie ChatGPT, Perplexity oder Google Gemini hat in Deutschland rasant zugenommen. Laut einer repräsentativen Studie des Leibniz-Instituts für Medienforschung (Hans-Bredow-Instituts) nutzen …
Nutzung und Wahrnehmung generativer KI in Deutschland Generative KI, wie sie in Anwendungen wie ChatGPT oder Google Gemini eingesetzt wird, hat in Deutschland bereits einen erheblichen Einfluss auf die Informationsuche. Laut einer repräsentativen Befragung des Hamburger …
Künstliche Intelligenz im Hochschulbetrieb: Chancen und Herausforderungen Wie verändert Künstliche Intelligenz (KI) Forschung, Verwaltung sowie Studium und Lehre an Hochschulen? Diese Frage steht im Mittelpunkt des neuen Forschungsprojekts »KIWIT«, das unter Leitung der …