Ethische Fragen rund um die Künstliche Intelligenz (KI)

KI

Mit ethischen Fragen der Künstlichen Intelligenz (KI) haben sich die Mitglieder der Bundestags-Enquete-Kommission zur Künstlichen Intelligenz in ihrer Sitzung am Montag (14. Januar 2019) beschäftigt. In öffentlichen Kurzvorträgen umrissen sechs Sachverständige dabei wesentliche theoretische und praktische Aspekte des Themas.

Knut Löschke (Hochschule für Technik, Wirtschaft und Kultur Leipzig) betonte, dass es keine besondere KI-Ethik gebe. Vielmehr gehe es um die grundsätzlichen ethischen Fragen, die sich auf den Einsatz von Instrumenten und Werkzeugen bezögen. Der Begriff KI führe die Diskussion in die falsche Richtung, sagte Löschke. Er chlug vor, stattdessen von »brain extension« zu sprechen.

Alexander Filipovic (Hochschule für Philosophie München) umriss verschiedene Problembereiche in Bezug auf Ethik und KI. Vornehmlich gehe es aktuell darum, im Bereich der angewandten Ethik den Gebrauch der sogenannten »schwachen KI« zu betrachten. Filipovic verwies auf die Herangehensweise der von der EU-Kommission eingesetzten »High-Level Expert Group on Artificial Intelligence«, Diese leite aus Grundwerten abstrakte Prinzipien ab und entwickle dann Werte anhand konkreter Fälle. Je konkreter es dabei werde, desto kontroverser werde diskutiert, sagte Filipovic.

Andrea Martin (Chief Technology Officer für IBM) berichtete, wie IBM mit Fragestellung der KI-Ethik umgeht. Martin verwies dazu unter anderem auf den Leitfaden für IBM-Entwickler sowie weitere Angebote des Unternehmens, mit denen Entwickler etwa prüfen könnten, ob ihre KI-Lösungen faire Ergebnisse produzierten.

Katharina Zweig (TU Kaiserslautern) stellte eine sogenannte Blackbox-Analyse zur Kontrolle von KI-Anwendungen vor. Konkret ging sie dabei auf eine Untersuchung zur Personalisierung von Google-Suchergebnissen ein. Zweig stellte zudem Kosten und Voraussetzungen dieser Kontrollmöglichkeit dar.

Hannah Bast (Albert-Ludwigs-Universität Freiburg) problematisierte die Erklärbarkeit beziehungsweise Verzerrung (Bias) von Ergebnissen KI-basierter Anwendungen. Die Systeme lieferten nicht ohne weiteres eine verständliche Erklärung ihrer Ergebnisse, sagte Bast. Das erfordere weitere Arbeit, etwa die Entwicklung eines zusätzlichen Systems. Gleiches gelte für den Umgang mit einem Bias. Es sei daher eine politische Frage, in welchen Fällen man Erklärbarkeit beziehungsweise Mechanismen gegen ein Bias fordere, sagte Bast.

Lothar Schröder (Mitglied des ver.di-Bundesvorstands) kritisierte, dass es bei der Diskussion um KI an einer gesellschaftlichen Vision fehle. Aus gewerkschaftlicher Sicht seien zudem beim KI-Einsatz etwa Aspekte der Mitbestimmung wichtig. Konkret verwies Schröder beispielsweise auf KI-gestützte Bewerberauswahl.

   

  VERWEISE  
  •  ...

 

Ähnliche Themen in dieser Kategorie

30.09.2025

Rückgang qualifizierter Fachkräfte in Kitas Die Qualität der frühkindlichen Bildung in Deutschland steht unter Druck. Laut einer aktuellen Auswertung der Bertelsmann Stiftung ist der Anteil an Kitas mit einem hohen Anteil einschlägig qualifizierter Fachkräfte in zehn …

29.09.2025

Investition in frühe Bildung: Bund und Länder gemeinsam aktiv Der Bund investiert insgesamt rund vier Milliarden Euro in die Verbesserung der Qualität frühkindlicher Bildung für die Jahre 2025 und 2026. Nach Abschluss aller 16 Verträge zwischen Bund und Ländern steht nun fest, …

09.09.2025

Mehrheit der Deutschen mit digitalen Defiziten Die neue Studie »Digital Skills Gap 2025« der Initiative D21 zeigt, dass Deutschland bei den digitalen Basiskompetenzen weiterhin deutlich hinter dem EU-Ziel zurückliegt. Lediglich 49 Prozent der Bevölkerung verfügen über …

01.09.2025

DJI fordert professionelle Planungen für Chancengleichheit in Kitas Die frühkindliche Bildung in Deutschland bleibt trotz sinkender Geburtenzahlen eine Herausforderung: Bedarfsgerechte Betreuungsplätze für ein- und zweijährige Kinder sind weiterhin unzureichend vorhanden. …

.
Oft gelesen...