Q1/2019 - Group of Governmental Experts on Lethal Autonomous Weapons Systems (GGE LAWS)
4. Treffen der GGE LAWS, Genf, 25.-29. März 2019
DieGGE LAWS hat sich für ihr 2019er Arbeitsprogramm fünf Schwerpunkte gegeben[1], darunter auch die Untersuchung, wie LAWS in Übereinstimmung mit dem humanitären Völkerrecht der Genfer Konventionen von 1948 gebracht werden können. Ein konkretes Kodifikationsvorhaben in Form eines Moratoriums oder eines internationalen Vertrages steht momentan nicht zur Debatte.
Japan hat in einem Arbeitspapier vorgeschlagen, sich zunächst auf die Ausarbeitung einer „Politische Deklaration“ zu konzentrieren. Einerseits gäbe es einen Konsensus zu den „guiding principles“, der Relevanz von Völkerrecht und der Notwendigkeit einer „menschlichen Kontrolle“ über LAWS. Anderseits sei man noch weit entfernt von einem einheitlichen Verständnis darüber, was „autonome“ und „tödliche“ Waffensysteme sind und wie die „menschliche Kontrolle“ genau gestaltet werden soll[2].
Russland sieht in seinem Arbeitspapier keine Notwendigkeit, für LAWS neue völkerrechtliche Instrumente auszuarbeiten. Russland vertritt die Ansicht, dass das bestehende Völkerrecht, einschließlich der Genfer Konventionen von 1948 und der entsprechenden Zusatzprotokolle, ausreichend ist, um mit den Herausforderungen von LAWS umgehen zu können[3].
Die 4. Sitzung der GGE LAWS endete am 29. März 2019. Die Ergebnisse der Diskussion werden im Bericht über das 2. Quartal 2019 vorgelegt.
Expertenkonferenz, Berlin, 15. März 2019
Auf einer hochrangigen Expertenkonferenz zum Thema „2019.Capturing Technology. Rethinking Arms Control“, die am 15. März 2019 in Berlin stattfand - veranstaltet vom deutschen Außenministerium - wurden rechtliche, politische und technische Aspekte autonomer Waffensysteme diskutiert.
In einer dreiseitigen Erklärung zum Abschluss der Konferenz forderten die Außenminister aus Schweden, den Niederlanden und Deutschland, dass die Entwicklung neuer autonomer Waffensysteme eingebunden werden muss in die existierende Architektur von internationalen Abrüstungsvereinbarungen und Rüstungskontrolle. Durch neue Waffensysteme seien Fragen aufgeworfen wie die Relevanz des Völkerrechts, ethische Fragen und der notwendige Grad von menschlicher Aufsicht und Kontrolle über die neuen, tödlichen autonomen Waffensysteme[4].
Der deutsche Außenminister Heiko Maas hatte in seiner Eröffnungsrede vor eine Militarisierung des Cyberspace gewarnt: „Der nächste Krieg wird nicht mehr nur mit Megabomben, sondern auch mit Megabits und Megabytes geführt. Was aber bedeutet es für die Transparenz und für Abrüstung, wenn das schädliche Objekt nur ein Code ist, der blitzschnell kopiert und um die Welt bewegt werden kann? Das ist nicht weniger als ein Angriff auf die Menschlichkeit selbst, auf die menschliche Würde und auf den Kern unserer Verfassung.“ Maas forderte für autonome Waffensysteme völkerrechtlich verbindliche Normen: „Wir brauchen Regeln für autonome Waffensysteme. Killer-Roboter, die auf Basis anonymer Datensätze und völlig jenseits menschlicher Kontrolle über Leben und Tod entscheiden, sind bereits heute eine erschreckend reale Perspektive“[5].