Künstliche Intelligenz
1956 trafen sich zehn junge US-amerikanische Wissenschaftler für einige Wochen im Dartmouth College in Hanover, New Hampshire und gründeten das Fachgebiet der Künstlichen Intelligenz (KI). Ihr erklärtes Ziel war, Computer so zu programmieren, dass sie Merkmale von Intelligenz und kognitive Prozesse simulieren wie die Nutzung von Sprache, Lernen, Abstraktion, Kreativität, Problemlösen, Konzeptentwicklung und Selbstverbesserung. Schon damals galt das aus den 1940er-Jahren stammende Konzept der künstlichen neuronalen Netze als eine vielversprechende methodische Grundlage, die in den letzten Jahren so viel Furore gemacht hat. An den Zielen hat sich seit den Anfängen gar nicht allzu viel verändert, die Relevanz für uns und die Gesellschaft ist aber drastisch gestieben.

We and AI
CC BY Jamillah Knowles – https://betterimagesofai.org
Die ersten 25 Jahre der KI-Geschichte sind geprägt von einigen Erfolgen bei Mustererkennung sowie bei mathematischen Beweis- und Expertensystemen, die nach Art logischer Schlussregeln arbeiten. Aufsehen erregt hat auch das System ELIZA von Joseph Weizenbaum (1966), das ein Stück weit natürlich-sprachliche Kommunikation zwischen Mensch und Computer anhand einfacher Regeln imitiert und dadurch "intelligent" wirkte. Wegen der damaligen technischen Beschränkungen stießen viele Anwendungsversuche schnell an ihre Grenzen und Enttäuschung machte sich breit. Die KI-Entwicklung erhielt aber durch das japanische 5th-Generation-Computer-Programm und die US-amerikanische Antwort mit der Strategic Computing Initiative (SCI) in den 1880er-Jahren einen gewaltigen Schub, nicht zuletzt wegen der verfügbaren Finanzmittel von mehreren 100 Millionen US-Dollar. Das zivil angelegte japanische Projekt setzte methodisch auf logische Programmierung für wissensbasierte Systeme, während SCI auf drei militärische Anwendungen mit einem Sprachassistenten für die Luftwaffe, einem Schlachtenmanagementsystem für die Marine und mit autonomen Vehikeln für das Heer fokussiert war. Die zehnjährige Laufzeit von SCI und die verfügbaren technischen Möglichkeiten haben nicht gereicht, um solche Systeme funktionsfähig zu entwickeln. Heutzutage – rund 40 Jahre später – ist vieles davon umgesetzt.
Die bedeutenden Erfolge der KI sind vor allem in diesem Jahrhundert zustande gekommen und maßgeblich beeinflusst durch die wesentlich verbesserten technischen Grundlagen: sehr viel schnellere Rechner, gewaltige Speicherkapazitäten und grundlegend verbesserte (Lern-) Algorithmen. Zu erwähnen sind eindrucksvolle Leistungen bei der Mustererkennung, bei der Sprachübersetzung, bei der Generierung von Sprache und Bildern sowie bei Spielen wie zum Beipsiel GO oder Dota 2. Zu erwarten sind Fortschritte in der Medizin, Verwaltung und Produktion sowie im Verkehr. KI gilt als Schlüsseltechnologie künftiger Wertschöpfung, so dass viele Staaten der Welt KI-Förderprogramme aufgesetzt haben. Zusammen mit den Milliarden der großen KI-Unternehmen werden aktuell horrende Geld- und Personalmittel für die KI-Entwicklung aufgewendet. Ein großer Teil davon wird in die staatliche Überwachung, in die Manipulation von Medieninhalten und in die KI-tisierung des Kriegs gesteckt. Stattdessen wäre es wünschenswert, wenn KI helfen könnte, die großen Probleme der Menschheit wie den Klimawandel, Armut, Hunger, Fluchtbewegungen und Krieg zu lösen.
Ein spezieller Aspekt von KI bedarf besonderer Aufmerksamkeit. Während konkrete KI-Entwicklungen auf Programmsysteme und Roboter gerichtet sind, die einzelne spezifische kognitive Fähigkeiten maschinell realisieren, werden in einer kleinen Strömung die Künstliche Allgemeine Intelligenz (auch oft starke KI genannt) superintelligente Maschinen propagiert, die so intelligent sind wie Menschen oder sogar intelligenter. Es gibt eine Reihe Sachbücher zu dem Thema. Ein Teil der transhumanistischen Bewegung setzt auf diese starke KI als Ablösung der "alten, überholten, nicht mehr zeitgemäßen" Menschheit. Aber auch eine Reihe von KI-Fachleuten bis hin zu Nobelpreisträgern und viele Führungskräfte der großen IT-Unternehmen formulieren wiederholt, dass solche Maschinen sehr bald möglich seien und dann eventuell große Gefahren für die Menschheit von ihnen ausgingen.
Heutige KI-Systeme basieren auf Algorithmen, die anhand von Trainings- und Testdaten Zusammenhänge erkennen „lernen“. Wenn in den genutzten Daten die Realität verzerrt ist, ein Bias in den Daten enthalten ist, werden durch die Nutzung des KI-Modells diese Verzerrungen wiedergegeben - ggf. vorhandene Diskriminierungen und Vorurteile werden mitgelernt. Auch das (nachträgliche) Entfernen von in den Lerndaten enthalten Bias funktioniert bisher nicht vollständig und die konkreten Auswirkungen sind schwer abschätzbar.
Bei den aktuellen KI-Systemen, die nun in ganz verschiedenen Kontexten auch praktisch eingesetzt werden, führt die Frage „Wer trägt welche Verantwortung“ zu ganz neuen Herausforderungen. Die Verantwortungsfrage muss aber vor dem Einsatz eines jeden KI-Systems geklärt werden.
Das FIfF beobachtet und begleitet kritisch die Entwicklung und den Einsatz der Künstlichen Intelligenz.
-
Welche Erwartungen werden an KI gestellt, wie realistisch sind sie überhaupt und welche besonderen Risiken sind durch KI zu befürchten? Dies wird etwa in den FIfF-Kommunikationen 1/2020, 2/2022, 4/2024 fortlaufend thematisiert. Die Beiträge beziehen sich auf gegenwärtige Anwendungsbereiche der KI unter Aspekten wie Unternehmen, Arbeitsplätze, Arbeitsalltag, Frauenperspektive, ökologische Nachhaltigkeit, Globalisierung, Militär und Krieg.
-
Große Sprachmodelle (engl. Large Language Models - LLM) wurden Ende 2022 breit bekannt. Sie verwenden die statistischen Methoden der KI zum Generieren von Texten; beispielsweise das zuerst bekannt gewordene ChatGPT, mit dem sich auch Gespräche in natürlicher Sprache führen lassen. Problematisierungen der Nutzung von KI, insbesondere der generativen Modelle, enthalten die Vorträge Cyberangriffe mit ChatGPT und generativer KI und Was man über die Ökonomie der generativen KI wissen sollte auf der FIfF-Konferenz 2023.
-
Mit der militärischen Nutzung von Informatik und insbesondere von KI setzt sich das FIfF seit langem besonders auseinander. Welche Auswirkungen die sogenannten gezielten Tötungen (Targeted Killing) der israelischen Militäreinsätze haben und warum sie als Kriegsverbrechen einzustufen sind, thematisiert das FIfF seit Anfang 2024. Gemeinsam haben das FIfF, der Arbeitskreis gegen bewaffnete Drohnen sowie die Informationsstelle Militarisierung (IMI) im April 2024 eine Stellungnahme dazu veröffentlicht. Im November 2024 fand unter Beteiligung des FIfF ein Online-Hearing Targeted Killing oder das Versprechen, die 'Richtigen' zu treffen statt. Ergänzend veröffentlicht ist ein Reader zum Hearing.
-
Die unheilvolle Verquickung von KI mit dem militärischen Komplex wird auch in dem Memorandum Informatiker:innen für Frieden zum 40-jährigen bestehen des FIfF thematisiert.
Der Rat der 27 EU-Mitgliedstaaten hat zwar am 21. Mai 2024 den AI Act (KI-Gesetz) und damit einen einheitlichen Rahmen für den Einsatz von Künstlicher Intelligenz in der Europäischen Union verabschiedet. Neben der Frage, ob die Vorschriften für Hochrisiko-Systeme adäquat sind oder überhaupt klar ist, wann ein KI-System ein Hochrisiko-System ist, fehlt auch ein sinnvoller Umgang der Regierungen in Deutschland mit diesem AI Act. Dies ist erkennbar, wenn „Die Bundesregierung, Polizeibehörden und auch das Bundesamt für Migration und Flucht mit neuen Befugnissen für die biometrische Gesichtersuche im Netz ausstatten (will). Aber darf sie das überhaupt? Mit den neuen EU-Regeln für den Einsatz von KI ist das kaum unter einen Hut zu bringen.
Aktivitäten zu diesem Thema

Militarisierung über KI-Sprachmodelle und ‚soziale‘ Medien
KI im Krieg: Aus ChatGPT wird im Gazastreifen ein tödliches Waffensystem. Big Tech gestaltet so nicht nur unseren Alltag, sondern auch Kriege und Krisen – mit fatalen Folgen für Zivilgesellschaft und Widerstand. KI im Krieg: Aus ChatGPT wird im Gazastreifen ein tödliches Waffensystem. Big Tech gestaltet so nicht nur unseren Alltag, sondern auch Kriege und Krisen – mit fatalen Folgen für Zivilgesellschaft und Widerstand.

FIfF-Konferenz 2019
Künstliche Intelligenz als Wunderland Künstliche Intelligenz als Wunderland
Publikationen zu diesem Thema

FIfF-Kommunikation 4/2024
Künstliche Intelligenz zwischen euphorischen Erwartungen und dystopischen Szenarien Künstliche Intelligenz zwischen euphorischen Erwartungen und dystopischen Szenarien

FIfF-Kommunikation 4/2021
Künstliche Intelligenz zieht in den Krieg Künstliche Intelligenz zieht in den Krieg
Meldungen und Posts zu diesem Thema

KI im Krieg senkt die Tötungshemmschwelle
29.04.2024
Der Einsatz von Lavender und Co. sind als Kriegsverbrechen einzustufen. Der Einsatz von Lavender und Co. sind als Kriegsverbrechen einzustufen.

SZ-Interview: Wenn Waffen das Töten lernen - Ethik im IT-Zeitalter
16.08.2011
SZ-Interview: Wenn Waffen das Töten lernen - Ethik im IT-Zeitalter SZ-Interview: Wenn Waffen das Töten lernen - Ethik im IT-Zeitalter
Ansprechpersonen zum Thema
weitere Menschen, die sich mit Künstliche Intelligenz beschäftigen
Verwandte Themen

Bildung, Diskurs und Mythen
Oft verklären Mythen und magische Zuschreibungen einen klaren Blick auf neue Technologien, wie beispielsweise bei der Künstlichen Intelligenz (KI). Das FIfF macht reale Möglichkeiten, aber auch Grenzen technischer Entwicklungen deutlich. Oft verklären Mythen und magische Zuschreibungen einen klaren Blick auf neue Technologien, wie beispielsweise bei der Künstlichen Intelligenz (KI). Das FIfF macht reale Möglichkeiten, aber auch Grenzen technischer Entwicklungen deutlich.

Komplexität von IT-Systemen Komplexität informationstechnischer Systeme
Ambitionierte und komplexe IT-Systeme haben eine Vielzahl an gesellschaftlichen Implikationen und bergen Risiken hinsichtlich ihrer Nutzung, weswegen das FIfF die Entwicklungen kritisch begleitet und die Frage nach der Verantwortbarkeit stellt. Ambitionierte und komplexe IT-Systeme haben eine Vielzahl an gesellschaftlichen Implikationen und bergen Risiken hinsichtlich ihrer Nutzung, weswegen das FIfF die Entwicklungen kritisch begleitet und die Frage nach der Verantwortbarkeit stellt.