| Phänomene | Die Herausforderungen der Regulierung von Dual-Use-Technologien in der Rüstungskontrolle

Die Herausforderungen der Regulierung von Dual-Use-Technologien in der Rüstungskontrolle

Lesezeit: 4 Min.

Neue Technologien wie Cyber-, Biotechnologie oder Künstliche Intelligenz (KI) versprechen große Fortschritte in vielen Bereichen der Gesellschaft. Sie besitzen vielfältige zivile, aber auch militärische Anwendungsoptionen. Daher können sie unter dem Begriff Dual-Use-Technologien zusammengefasst werden: Einerseits ermöglichen diese eine Vielzahl an nicht militärischen, kommerziellen Anwendungen (wie z. B. Agrardrohnen, Pflegeroboter oder Chatbots im Bereich KI), andererseits können sie auch zu militärischen Zwecken eingesetzt werden (wie im KI-Bereich z. B. zur Kriegsführung mittels autonomer Waffen oder Verfahren zur Bilderkennung, mithilfe derer militärische Entscheidungen getroffen werden).

Mit Dual-Use-Technologien verbinden sich diverse Risiken und Unsicherheiten, die insbesondere daraus resultieren, dass nur schwer vorherzusehen ist, wie und von wem diese Technologien künftig eingesetzt werden könnten, und ob Technologien, die aktuell nur für zivile Zwecke genutzt werden, künftig auch militärisch eingesetzt bzw. missbraucht werden könnten. Dual-Use-Technologien stellen daher auch die internationale Rüstungskontrolle vor große Herausforderungen.

Dies zeigt sich besonders eindrücklich am Beispiel Künstlicher Intelligenz: Zweifelsfrei gibt es zahlreiche kommerzielle Anwendungsoptionen, von denen wir uns einen großen Nutzen erwarten. Aber auch signifikante militärische Innovationen werden durch den Einsatz von KI ermöglicht. Zu diesen Anwendungen, die einzelnen Staaten große strategische Vorteile verschaffen können, zählen auch autonome Waffensysteme.

(Teil)autonome Waffensysteme kommen bereits heute zum Einsatz. Insbesondere der strategische Wettbewerb zwischen großen Militärmächten wie den USA und China haben einen KI-Wettlauf befeuert, der sich im zivilen wie militärischen Bereich abspielt. International gibt es jedoch großen Dissens hinsichtlich der Frage, ob und wie diese reguliert werden sollen. Die internationale Kampagne für ein Verbot letaler autonomer Waffensysteme ist bislang insbesondere am Widerstand großer Militärmächte gescheitert. Nicht selten stehen sich strategische Anreize für die militärische Nutzung von KI und ethische, moralische und völkerrechtliche Vorbehalte gegenüber. 

Dieses Beispiel illustriert das Problem, vor das Dual-Use-Technologien die internationale Rüstungskontrolle stellen: Häufig sind traditionelle rüstungskontrollpolitische Instrumente – wie bspw. Instrumente zur quantitativen Rüstungskontrolle oder das Verbot konkreter Waffentypen – ungeeignet, um Innovationen, die auf Dual-Use-Technologien basieren, zu regulieren. Denn ein striktes Verbot oder die Beschränkung einer Technologie an sich ist in der Regel weder möglich noch gewünscht. Rüstungskontrolle im Dual-Use-Bereich steht daher stets vor der Herausforderung, die Grenzen des legitimen Einsatzes jener Technologien zu definieren. Die Regulierung von Dual-Use-Technologie wird zudem erschwert werden durch die Vielzahl von Akteuren, die Interessen mit der Entwicklung bzw. dem Einsatz bestimmter Anwendungen verbinden. Zu diesen zählen private wie öffentliche Akteure und internationale NGOs ebenso wie nationale Interessengruppen. Zudem gehören im Bereich KI nicht nur klassische Rüstungskonzerne, sondern auch große Technologiekonzerne und Start-ups zu den zentralen Stakeholdern.

Vergleichbarkeit mit analogen Phänomenen

Es ist ein grundsätzliches Charakteristikum von Künstlicher Intelligenz, dass es als Dual-Use-Technologie, General Purpose Technology bzw. Enabling Technology bezeichnet werden kann. Es handelt sich also nicht um eine bestimmte Anwendung (für die es ein konkret vergleichbares analoges Phänomen gibt), sondern um eine Technologie, die in vielen verschiedenen Bereichen Anwendung findet – und so auch im Rüstungsbereich. Daher wird Künstliche Intelligenz in ihrem transformatorischen Potenzial häufig mit großen technologischen Innovationen wie der Entdeckung der Elektrizität oder der industriellen Revolution verglichen. Als Problem für Rüstungskontrolle kann KI daher am besten mit anderen Technologien mit hohem Dual-Use-Potenzial verglichen werden. Dazu zählen neuere Technologien wie zum Beispiel die Biotechnologie ebenso wie die Nukleartechnologie, die bereits seit Jahrzehnten für zivile und militärische Anwendungen eingesetzt werden.

Gesellschaftliche Relevanz

Es handelt sich bei dem skizzierten Problem um ein Phänomen von höchster sicherheitspolitischer Bedeutung. Rüstungskontrolle allgemein ist deutlich erschwert durch die jüngsten internationalen Konflikte und die zunehmende Rivalität zwischen den USA einerseits und Staaten wie China und Russland andererseits. Zudem ist davon auszugehen, dass die Relevanz von Technologien mit hohem Dual-Use-Potenzial künftig weiter steigen wird.

Quellen

  • Boulanin, V. (2016). Mapping the Innovation Ecosystem Driving the Advance of Autonomy in Weapon Systems. SIPRI Working Paper. Stockholm: SIPRI.
  • Dahlmann, A. et al. (2021). Autonome Waffensysteme und menschliche Kontrolle. Konsens über das Konzept, Unklarheit über die Operationalisierung. SWP-Aktuell 31. Berlin.
  • DoD (2018). Summary of the 2018 Department of Defense Artificial Intelligence Strategy. Harnessing AI to Advance Our Security and Prosperity. https://media.defense.gov/2019/Feb/12/2002088963/-1/-1/1/SUMMARY-OF-DOD-AI-STRATEGY.PDF [23.07.2024]
  • DoD (2012). Directive 3000.09, Autonomy in Weapon Systems. https://irp.fas.org/doddir/dod/d3000_09.pdf [23.07.2024]
  • Horowitz, M. C. (2018). Artificial Intelligence, International Competition, and the Balance of Power (May 2018). In: Texas National Security Review (1), 36–57.
  • Horowitz, M. C. (2019). When speed kills: Lethal autonomous weapon systems, deterrence and stability. In: Journal of Strategic Studies 42 (6), 764–788.
  • Singer, P. W. (2009). Wired for war. The robotics revolution and conflict in the twenty-first century. New York, NY.