Grundbegriffe der KI vorgestellt

Deutscher Bundestag 2

Künstliche Intelligenz - Gesellschaftliche Verantwortung und wirtschaftliche Potenziale 

Die Enquete-Kommission »Künstliche Intelligenz - Gesellschaftliche Verantwortung und wirtschaftliche, soziale und ökologische Potenziale« ist am Montagmorgen mit begriffsklärenden Vorträgen in eine ganztägige Klausurtagung gestartet. Fünf Sachverständige der Kommission erläuterten dabei in öffentlicher Sitzung Grundbegriffe rund um die »Künstliche Intelligenz«. In nicht-öffentlicher Sitzung schloss sich eine Fragerunde an. Im weiteren Verlauf des Montags wollen die Mitglieder der Kommission zudem in Gruppen den Arbeitsauftrag der Kommission konkretisieren.

Aljoscha Burchardt (DFKI, Deutsches Forschungszentrum für Künstliche Intelligenz) führte aus, dass der Begriff »Künstliche Intelligenz« (KI) schwer zu definieren sei, weil auch der Begriff der menschlichen Intelligenz kaum definiert sei. Burchardt unterschied grundlegend zwischen »starker KI« als Vorstellung eines den Menschen imitierenden Systems und »schwacher KI« als Einzeltechnologien zur »smarten Mensch-Maschinen-Interaktion«. Über »starke KI« werde im seriösen Umfeld eigentlich nicht geredet. Der Fokus liegt laut Burchardt vielmehr auf der »schwachen KI«. In diesem Sinne ist laut Burchardt KI, insbesondere durch das maschinelle Lernen, das wesentliche Mittel der »zweiten Welle der Digitalisierung«.

Antonio Krüger (ebenfalls DFKI) stellte die KI-Forschung als einen »Kanon von interdisziplinären Wissenschaften« dar. So differenzierte er etwa zwischen ingenieurwissenschaftlichen Zielen der KI-Entwicklung, die den wesentlichen Einsatzbereich ausmachten, und kognitionswissenschaftlichen Zielen. Im letzteren Bereich werde KI genutzt, um kognitive Prozesse besser zu verstehen. Krüger führte aus, dass KI-Systeme aktuell grundsätzlich besser mit aus menschlicher Sicht schweren Problemen, beispielsweise dem Suchen von Fehlern in Computerchips oder das Spielen von Schach auf höchsten Niveau, umgehen könnten. Aus menschlicher Sicht leichte Probleme, beispielsweise eine SIM-Karte zu wechseln oder einen Witz zu verstehen, seien für KI-Systeme hingegen schwer zu lösen.

Katharina Zweig (TU Kaiserslautern) ging in ihrem Vortrag auf zwei Grundängste gegenüber der KI ein: Menschen fürchteten demnach sowohl eine KI, die dichten könne und somit den Menschen ersetze, als auch eine KI, die richten könne, also Menschen bewertet beziehungsweise klassifiziert. Zweig skizzierte ein Konzept, nach welchen Kriterien die Anwendung von KI-Systemen im Bewertungs- beziehungsweise Klassifikationsbereich reguliert werden könnte.

Hannah Bast (Albert-Ludwigs-Universität Freiburg) stellte die grundsätzliche Funktionsweise des maschinellen Lernens (ML) und neuraler Netzwerke vor und grenzte diese Methode von klassischen Algorithmen ab. ML ermögliche es, komplexe Probleme wie Bildverarbeitung oder Spracherkennung ohne Vorgabe von Regeln anzugehen, was mit klassischen Algorithmen nicht möglich sei. ML revolutioniere die Informatik und die Welt, sagte Bast. Das sei »kein Hype, sondern einfach Fakt«. Allerdings sei die Anwendung auf klar eingegrenzte Probleme beschränkt.

Sami Haddadin (TU München) trug zu KI-Anwendungen im Bereich der Robotik vor. KI führe in diesem Feld zu Innovationssprüngen, denn es ermögliche Anwendungen etwa im Bereich der Montage, die für die bisherigen Systeme nicht möglich gewesen seien. Haddadin führte dazu ein Beispiel aus der Forschung aus, bei dem es darum geht, Robotern das Einführen von Schlüsseln beizubringen und gelernte Fähigkeiten auf andere Problemkonstellationen zu übertragen.

   

  LINKS  

  •  ...

 

Studie zu ChatGPT: Viele Nutzende finden Fehler
Dank ChatGPT ist Künstliche Intelligenz in aller Munde, doch was denken die Menschen in Deutschland wirklich über den innovativen Chat-Bot? Eins ist klar: Die meisten Nutzerinnen und Nutzer sind mit der Qualität der Ergebnisse zufrieden und...
Berufliche Mail-Postfächer werden immer voller
Jede und jeder Zwölfte erhält täglich hundert und mehr berufliche Mails  Das neue Angebot vom Lieferanten, die Info an Kolleginnen und Kollegen, der Link für die nächste Online-Konferenz oder der wöchentliche Newsletter – E-Mails waren schon...
Deutscher Ethikrat: Künstliche Intelligenz darf menschliche Entfaltung nicht vermindern
Mensch und Maschine - Herausforderungen durch Künstliche Intelligenz Am 20. März 2023 veröffentlicht der Deutsche Ethikrat seine Stellungnahme »Mensch und Maschine - Herausforderungen durch Künstliche Intelligenz«, in der er die Auswirkungen...

.
Wir benutzen Cookies
Der BildungsSpiegel setzt auf seiner Website sog. Cookies ein. Einige von ihnen sind für den reibungslosen Betrieb essentiell, während andere uns helfen, diese Website und die Nutzererfahrung zu verbessern. Sie können selbst entscheiden, ob Sie die Cookies zulassen möchten. Bitte beachten Sie, dass bei einer Ablehnung womöglich nicht mehr alle Funktionalitäten der Website zur Verfügung stehen.