| Phänomene | Risiken KI-basierter Frühwarn- und Entscheidungssysteme in der Raketenabwehr

Risiken KI-basierter Frühwarn- und Entscheidungssysteme in der Raketenabwehr

Lesezeit: 5 Min.

Die Sicherung der atomaren Zweitschlagfähigkeit ist die Grundlage der Abschreckungsstrategie, die bis heute jeden potenziellen Angreifer abgehalten hat, einen atomaren Angriff zu starten: „Wer als Erster schießt, stirbt als Zweiter.“ Um auch bei einer Gefährdung der Zweitschlagfähigkeit reagieren zu können, haben die Atommächte umfangreiche computergestützte Frühwarn- und Entscheidungssysteme entwickelt und installiert. Diese Systeme können den Menschen unterstützen und haben das Ziel, einen Angriff rechtzeitig zu erkennen, um die eigenen atomaren Trägerraketen vor dem vernichtenden Einschlag aktivieren zu können. Eine solche Strategie wird als Launch-on-Warning-Strategie bezeichnet.

Grundlage für das Erkennen von feindlichen Raketenstarts sind Radaranlagen, Satelliten mit verschiedenen Sensoren sowie maritime Horchsensoren zur Ermittlung der Bewegung von U-Booten und Schiffen. Aufgrund immer kürzerer Vorwarnzeiten, z. B. wegen moderner Hyperschallraketen, werden zunehmend Techniken der Künstlichen Intelligenz benötigt, um gewisse Teilaufgaben automatisch zu lösen und Entscheidungsempfehlungen zu liefern. In hochkomplexen Systemen treten allerdings auch Fehler auf, und es ist unmöglich, ein solches System fehlerfrei zu realisieren. Des Weiteren sind die im Fall einer Alarmmeldung für eine Entscheidung verfügbaren Daten in der Regel vage, unsicher und unvollständig. Bei der Bewertung von Sensorsignalen spielen vage Werte wie Helligkeit und Größe eine Rolle, wobei es ein kontinuierliches Spektrum zwischen „trifft nicht zu“ und „trifft zu“ geben kann. Deshalb können auch KI-Systeme in solchen Situationen nicht hundertprozentig korrekt entscheiden, und in der kurzen verfügbaren Zeit wird es kaum möglich sein, Entscheidungen der Maschine zu überprüfen: Dem Personal bleibt nur zu glauben, was die Maschine liefert. Dabei haben Fehler in der Vergangenheit mehrfach dazu geführt, dass ein Angriff mit atomaren Raketen gemeldet wurde, obwohl keine Bedrohung vorlag. Ursachen für solche Fehler können unter anderem falsche oder falsch interpretierte Sensordaten, Übertragungsfehler oder Computerfehler sein. Im Zusammenhang mit Atomwaffen könnten solche automatischen Entscheidungen aber fatal sein. Derartige Unsicherheiten können auch bei normalen Waffensystemen relevant sein, allerdings sind die Auswirkungen in der Regel begrenzt, während es im Fall eines Atomkriegs um das Überleben der gesamten Menschheit gehen kann.

Vergleichbarkeit mit analogen Phänomenen

Für eine bessere Visualisierung der Gefahren blicken wir in einen anderen analogen Fachbereich: Fehldiagnosen durch medizinisches Fachpersonal. Trotz jahrelanger Erfahrung und umfangreicher Ausbildung können selbst Expertinnen und Experten Symptome falsch deuten, besonders in zeitkritischen oder komplexen Situationen. Ähnlich wie bei Frühwarnsystemen für Raketenangriffe können solche Fehler, wenn auch aufgrund der Vielschichtigkeit der Daten nicht verhinderbar, drastische Folgen haben.

Frühwarnsysteme für Raketenangriffe gab es dabei bereits vor der verstärkten Nutzung von KI. Doch schon damals gehörten die Algorithmen zur Ermittlung von Raketenstarts zu den anspruchsvollsten Berechnungsprozessen der Zivilisation. Die wachsende Bedeutung von Künstlichen Intelligenzen auch im militärischen Bereich wird heute erst durch die Erzeugung großer Datenmengen (durch die oben beschriebene Sensorik), die zunehmende Vernetzung und die anschließend hohe Geschwindigkeit der Datenverarbeitung möglich. Zuvor waren menschliche Entscheidungen wichtiger. Ein Beispiel hierfür ist der Vorfall am 26.09.1983: Ein Satellit des russischen Frühwarnsystems meldete fünf angreifende Interkontinentalraketen. Da die Meldung der vorgeschriebenen Überprüfung standhielt, hätte der diensthabende russische Offizier Stanislaw Petrow die Warnmeldung vorschriftsmäßig weitergeben müssen. Er hielt einen Angriff der Amerikaner mit nur fünf Raketen aber eher für unwahrscheinlich und entschied trotz der Datenlage, dass es vermutlich ein Fehlalarm sei und verhinderte damit eine Katastrophe mit atomarem Schlag und Gegenschlag. Petrow hatte gefühlsmäßig mit einem Fehlalarm gerechnet, und er wollte nicht für den millionenfachen Tod von Menschen verantwortlich sein und hat entsprechend entschieden.

Dabei wird deutlich, dass beim Menschen Empathie und eine Beurteilung weltpolitischer Zusammenhänge wichtig sind. Eine Maschine hat solche Gefühle eher nicht, sondern entscheidet sachlich nach gewissen Regeln. Heute kämen in solchen Situationen noch weitere Risiken dazu: Cyberangriffe könnten in Frühwarnsysteme eingreifen, indem z. B. falsche Daten übermittelt oder in Konferenzen zur Bewertung von Alarmsituationen mit Deepfake-Techniken falsche Vorgesetzte eingespielt werden.

Gesellschaftliche Relevanz

In den letzten Jahren hat ein neues Wettrüsten in verschiedenen militärischen Dimensionen begonnen. Dies gilt für neue Trägersysteme von Atomwaffen, wie etwa die Hyperschallraketen, die geplante Bewaffnung des Weltraums, den Ausbau von Cyberkriegskapazitäten und die zunehmende Anwendung von Systemen der Künstlichen Intelligenz (KI) bis hin zu autonomen Waffensystemen.

Es ist zu erwarten, dass das Risiko eines Atomkriegs in den nächsten Jahren und Jahrzehnten stark steigen wird. Der Klimawandel wird zu mehr Krisen führen, und neue technische Entwicklungen werden die Komplexität von Frühwarnsystemen und Bedrohungssituationen so stark erhöhen, dass die Beherrschbarkeit solcher Systeme immer schwieriger wird. Dabei kann es zuletzt um das Überleben der gesamten Menschheit gehen. Zur Reduzierung der Risiken wären dringend politische Maßnahmen und neue Vereinbarungen erforderlich, wie beispielsweise

  • Verbesserung von Vertrauen, Kommunikation und Zusammenarbeit zwischen Atommächten
  • Vereinbarungen zur Reduzierung von Atomwaffen und zum Alarmmodus von Atomwaffen
  • Verbesserung des Informationsaustauschs auch im Zusammenhang mit Frühwarnsystemen
  • keine automatischen Entscheidungen zum Einsatz von Atomwaffen.

Weiterführende Links und Literatur​​​​