Ethische Fragen rund um die Künstliche Intelligenz (KI)

KI

Mit ethischen Fragen der Künstlichen Intelligenz (KI) haben sich die Mitglieder der Bundestags-Enquete-Kommission zur Künstlichen Intelligenz in ihrer Sitzung am Montag (14. Januar 2019) beschäftigt. In öffentlichen Kurzvorträgen umrissen sechs Sachverständige dabei wesentliche theoretische und praktische Aspekte des Themas.

Knut Löschke (Hochschule für Technik, Wirtschaft und Kultur Leipzig) betonte, dass es keine besondere KI-Ethik gebe. Vielmehr gehe es um die grundsätzlichen ethischen Fragen, die sich auf den Einsatz von Instrumenten und Werkzeugen bezögen. Der Begriff KI führe die Diskussion in die falsche Richtung, sagte Löschke. Er chlug vor, stattdessen von »brain extension« zu sprechen.

Alexander Filipovic (Hochschule für Philosophie München) umriss verschiedene Problembereiche in Bezug auf Ethik und KI. Vornehmlich gehe es aktuell darum, im Bereich der angewandten Ethik den Gebrauch der sogenannten »schwachen KI« zu betrachten. Filipovic verwies auf die Herangehensweise der von der EU-Kommission eingesetzten »High-Level Expert Group on Artificial Intelligence«, Diese leite aus Grundwerten abstrakte Prinzipien ab und entwickle dann Werte anhand konkreter Fälle. Je konkreter es dabei werde, desto kontroverser werde diskutiert, sagte Filipovic.

Andrea Martin (Chief Technology Officer für IBM) berichtete, wie IBM mit Fragestellung der KI-Ethik umgeht. Martin verwies dazu unter anderem auf den Leitfaden für IBM-Entwickler sowie weitere Angebote des Unternehmens, mit denen Entwickler etwa prüfen könnten, ob ihre KI-Lösungen faire Ergebnisse produzierten.

Katharina Zweig (TU Kaiserslautern) stellte eine sogenannte Blackbox-Analyse zur Kontrolle von KI-Anwendungen vor. Konkret ging sie dabei auf eine Untersuchung zur Personalisierung von Google-Suchergebnissen ein. Zweig stellte zudem Kosten und Voraussetzungen dieser Kontrollmöglichkeit dar.

Hannah Bast (Albert-Ludwigs-Universität Freiburg) problematisierte die Erklärbarkeit beziehungsweise Verzerrung (Bias) von Ergebnissen KI-basierter Anwendungen. Die Systeme lieferten nicht ohne weiteres eine verständliche Erklärung ihrer Ergebnisse, sagte Bast. Das erfordere weitere Arbeit, etwa die Entwicklung eines zusätzlichen Systems. Gleiches gelte für den Umgang mit einem Bias. Es sei daher eine politische Frage, in welchen Fällen man Erklärbarkeit beziehungsweise Mechanismen gegen ein Bias fordere, sagte Bast.

Lothar Schröder (Mitglied des ver.di-Bundesvorstands) kritisierte, dass es bei der Diskussion um KI an einer gesellschaftlichen Vision fehle. Aus gewerkschaftlicher Sicht seien zudem beim KI-Einsatz etwa Aspekte der Mitbestimmung wichtig. Konkret verwies Schröder beispielsweise auf KI-gestützte Bewerberauswahl.

   

  LINKS  

  •  ...

 

Erwartungen an die Auswirkungen von KI in verschiedenen Berufsfeldern
In Deutschland erwarten viele Menschen, dass die Künstliche Intelligenz (KI) in den nächsten Jahren umfassende Veränderungen in verschiedenen Berufsfeldern mit sich bringen wird. Eine Umfrage des Digitalverbands Bitkom, an der 1.004 Personen ab 16...
Future Skills Journey: Digitaler Lernort für Zukunftskompetenzen
Der Weg zur Zukunftskompetenz: Kostenlose Lernangebote für alle Der Stifterverband hat in Zusammenarbeit mit dem Technologiepartner NEOCOSMO eine Plattform geschaffen, auf der Interessierte kostenlos Zugang zu sogenannten Future Skills, also...
Ist hybride Mensch-KI-Kooperation das neue Normal?
Mensch-KI-Kollaboration: Chancen und Risiken am Arbeitsplatz Aus Mensch-KI-Kooperationen entwickeln Wissenschaftler*innen der Universität Duisburg-Essen neue Kriterien für eine erfolgreiche Zusammenarbeit. In einer aktuellen Studie des Instituts...

.