Ethische Fragen rund um die Künstliche Intelligenz (KI)

Mit ethischen Fragen der Künstlichen Intelligenz (KI) haben sich die Mitglieder der Bundestags-Enquete-Kommission zur Künstlichen Intelligenz in ihrer Sitzung am Montag (14. Januar 2019) beschäftigt. In öffentlichen Kurzvorträgen umrissen sechs Sachverständige dabei wesentliche theoretische und praktische Aspekte des Themas.
Knut Löschke (Hochschule für Technik, Wirtschaft und Kultur Leipzig) betonte, dass es keine besondere KI-Ethik gebe. Vielmehr gehe es um die grundsätzlichen ethischen Fragen, die sich auf den Einsatz von Instrumenten und Werkzeugen bezögen. Der Begriff KI führe die Diskussion in die falsche Richtung, sagte Löschke. Er chlug vor, stattdessen von »brain extension« zu sprechen.
Alexander Filipovic (Hochschule für Philosophie München) umriss verschiedene Problembereiche in Bezug auf Ethik und KI. Vornehmlich gehe es aktuell darum, im Bereich der angewandten Ethik den Gebrauch der sogenannten »schwachen KI« zu betrachten. Filipovic verwies auf die Herangehensweise der von der EU-Kommission eingesetzten »High-Level Expert Group on Artificial Intelligence«, Diese leite aus Grundwerten abstrakte Prinzipien ab und entwickle dann Werte anhand konkreter Fälle. Je konkreter es dabei werde, desto kontroverser werde diskutiert, sagte Filipovic.
Andrea Martin (Chief Technology Officer für IBM) berichtete, wie IBM mit Fragestellung der KI-Ethik umgeht. Martin verwies dazu unter anderem auf den Leitfaden für IBM-Entwickler sowie weitere Angebote des Unternehmens, mit denen Entwickler etwa prüfen könnten, ob ihre KI-Lösungen faire Ergebnisse produzierten.
Katharina Zweig (TU Kaiserslautern) stellte eine sogenannte Blackbox-Analyse zur Kontrolle von KI-Anwendungen vor. Konkret ging sie dabei auf eine Untersuchung zur Personalisierung von Google-Suchergebnissen ein. Zweig stellte zudem Kosten und Voraussetzungen dieser Kontrollmöglichkeit dar.
Hannah Bast (Albert-Ludwigs-Universität Freiburg) problematisierte die Erklärbarkeit beziehungsweise Verzerrung (Bias) von Ergebnissen KI-basierter Anwendungen. Die Systeme lieferten nicht ohne weiteres eine verständliche Erklärung ihrer Ergebnisse, sagte Bast. Das erfordere weitere Arbeit, etwa die Entwicklung eines zusätzlichen Systems. Gleiches gelte für den Umgang mit einem Bias. Es sei daher eine politische Frage, in welchen Fällen man Erklärbarkeit beziehungsweise Mechanismen gegen ein Bias fordere, sagte Bast.
Lothar Schröder (Mitglied des ver.di-Bundesvorstands) kritisierte, dass es bei der Diskussion um KI an einer gesellschaftlichen Vision fehle. Aus gewerkschaftlicher Sicht seien zudem beim KI-Einsatz etwa Aspekte der Mitbestimmung wichtig. Konkret verwies Schröder beispielsweise auf KI-gestützte Bewerberauswahl.
VERWEISE
- ...
Ähnliche Themen in dieser Kategorie
Ungleichheit begrenzt Mitgestaltung Aktuelle Daten des Deutschen Jugendinstituts (DJI) zeigen deutliche soziale Unterschiede bei der politischen und gesellschaftlichen Partizipation junger Menschen. Die neue DJI Impulse-Doppelausgabe erklärt, warum echte …
Technologischer Wandel im Mittelpunkt Die Gesellschaft für deutsche Sprache (GfdS) wählte »KI-Ära« zum »Wort des Jahres« 2025, weil der Begriff einen grundlegenden technologischen Umbruch markiert. Künstliche Intelligenz beeinflusst zunehmend Arbeitsprozesse, Kommunikation …
Digitale Kindheit neu vermessen Die Langzeitstudie »Conkids« des Hans-Bredow-Instituts in Zusammenarbeit mit der FAU Erlangen-Nürnberg zeigt grundlegende Verschiebungen im Aufwachsen der jungen Generation. Entscheidend ist nicht mehr die reine Bildschirmzeit, sondern ein …
Gesundheit als Hebel für Qualität Die frühe Bildung steht unter Druck. Fachkräfte arbeiten am Limit, während strukturelle Defizite den Alltag bestimmen. Eine aktuelle Stellungnahme der Ständigen Wissenschaftlichen Kommission der Kultusministerkonferenz (SWK) zeigt jedoch, …
