Q1/2019 - Group of Governmental Experts on Lethal Autonomous Weapons Systems (GGE LAWS)

4. Treffen der GGE LAWS, Genf, 25.-29. März 2019

DieGGE LAWS hat sich für ihr 2019er Arbeitsprogramm fünf Schwerpunkte gegeben[1], darunter auch die Untersuchung, wie LAWS in Übereinstimmung mit dem humanitären Völkerrecht der Genfer Konventionen von 1948 gebracht werden können. Ein konkretes Kodifikationsvorhaben in Form eines Moratoriums oder eines internationalen Vertrages steht momentan nicht zur Debatte. 

Japan hat in einem Arbeitspapier vorgeschlagen, sich zunächst auf die Ausarbeitung einer „Politische Deklaration“ zu konzentrieren. Einerseits gäbe es einen Konsensus zu den „guiding principles“, der Relevanz von Völkerrecht und der Notwendigkeit einer „menschlichen Kontrolle“ über LAWS. Anderseits sei man noch weit entfernt von einem einheitlichen Verständnis darüber, was „autonome“ und „tödliche“ Waffensysteme sind und wie die „menschliche Kontrolle“ genau gestaltet werden soll[2].

Russland sieht in seinem Arbeitspapier keine Notwendigkeit, für LAWS neue völkerrechtliche Instrumente auszuarbeiten. Russland vertritt die Ansicht, dass das bestehende Völkerrecht, einschließlich der Genfer Konventionen von 1948 und der entsprechenden Zusatzprotokolle, ausreichend ist, um mit den Herausforderungen von LAWS umgehen zu können[3].

Die 4. Sitzung der GGE LAWS endete am 29. März 2019. Die Ergebnisse der Diskussion werden im Bericht über das 2. Quartal 2019 vorgelegt.

    Expertenkonferenz, Berlin, 15. März 2019

    Auf einer hochrangigen Expertenkonferenz zum Thema „2019.Capturing Technology. Rethinking Arms Control“, die am 15. März 2019 in Berlin stattfand - veranstaltet vom deutschen Außenministerium - wurden rechtliche, politische und technische Aspekte autonomer Waffensysteme diskutiert.

    In einer dreiseitigen Erklärung zum Abschluss der Konferenz forderten die Außenminister aus Schweden, den Niederlanden und Deutschland, dass die Entwicklung neuer autonomer Waffensysteme eingebunden werden muss in die existierende Architektur von internationalen Abrüstungsvereinbarungen und Rüstungskontrolle. Durch neue Waffensysteme seien Fragen aufgeworfen wie die Relevanz des Völkerrechts, ethische Fragen und der notwendige Grad von menschlicher Aufsicht und Kontrolle über die neuen, tödlichen autonomen Waffensysteme[4].

    Der deutsche Außenminister Heiko Maas hatte in seiner Eröffnungsrede vor eine Militarisierung des Cyberspace gewarnt: „Der nächste Krieg wird nicht mehr nur mit Megabomben, sondern auch mit Megabits und Megabytes geführt. Was aber bedeutet es für die Transparenz und für Abrüstung, wenn das schädliche Objekt nur ein Code ist, der blitzschnell kopiert und um die Welt bewegt werden kann? Das ist nicht weniger als ein Angriff auf die Menschlichkeit selbst, auf die menschliche Würde und auf den Kern unserer Verfassung.“ Maas forderte für autonome Waffensysteme völkerrechtlich verbindliche Normen: „Wir brauchen Regeln für autonome Waffensysteme. Killer-Roboter, die auf Basis anonymer Datensätze und völlig jenseits menschlicher Kontrolle über Leben und Tod entscheiden, sind bereits heute eine erschreckend reale Perspektive“[5].

    Mehr zum Thema
    Q1/2019GGE-LAWS
    1. [1] Group of Governmental Experts on Emerging Technologies in the Area of Lethal Autonomous Weapons Systems, Genf, 25. - 29. März; „Focus of work of the Group of Governmental Experts in 2019: (a) An exploration of the potential challenges posed by emerging technologies in the area of Lethal Autonomous Weapons Systems to International Humanitarian Law; (b) Characterization of the systems under consideration in order to promote a common understanding on concepts and characteristics relevant to the objectives and purposes of the Convention; (c) Further consideration of the human element in the use of lethal force; aspects of human-machine interaction in the development, deployment and use of emerging technologies in the area of lethal autonomous weapons systems; (d) Review of potential military applications of related technologies in the context of the Group’s work; (e) Possible options for addressing the humanitarian and international security challenges posed by emerging technologies in the area of lethal autonomous weapons systems in the context of the objectives and purposes of the Convention without prejudging policy outcomes and taking into account past, present and future proposals.“ https://www.unog.ch/80256EDD006B8954/(httpAssets)/884DF349536F790BC12583C8004C3AEB/$file/CCW_GGE1_2019_1_Rev.1_Agenda_final.pdf
    2. [2] Possible Outcome of the 2019 GGE on Future Actions of the Internaitonal Community on LAWS, Genf, Working Paper submitted by Japan, Dokument CCW/GGE.1/2019/WP3 vom 22. März 2019: „(a) Regarding the definition of LAWS, it is necessary to deepen discussion on the lethality and form of human control; (b) Concerning lethality, it is appropriate to limit the discussion only to autonomous weapons system with lethality. It might be worth considering that weapons systems designed to directly kill human beings be made subject to rules on lethality; (c) Regarding the form of human control, it is indispensable that a lethal weapon system be accompanied with meaningful human control by securing proper operation and be operated by persons with sufficient information on such weapons systems. It would be necessary to deepen discussion on where and how much meaningful human control is necessary in the life-cycle of weapons systems; (d) The scope of rules should be focused on fully autonomous weapons systems with lethality, that does not comprise meaningful human control. The research and development activities on autonomous technology should not be restricted on the simplistic ground that such technologies could be diverted to lethal weapons systems; (e) With regard to the relationship with international law and ethics, principles of international humanitarian law (IHL) must be upheld in the development and operations of all weapons systems including LAWS. Any violation of IHL by using autonomous weapons systems should be attributed to States or individual persons as is the case with conventional weapons systems; (f) Concerning confidence building measures, it is appropriate to consider what kind of mechanism is suitable in order to secure transparency. Introducing an implementation mechanism of weapons review into the annual report of the CCW may work as one of such mechanisms.“ https://www.unog.ch/80256EDD006B8954/(httpAssets)/B0F30B3F69F5F2EEC12583C8003F3145/$file/CCW_+GGE+.1_+2019_+WP3+JAPAN.pdf
    3. [3] Potential opportunities and limitations of military uses of lethal autonomous weapons systems, Genf, Working Paper Submitted by the Russian Federation, Dokument CCW/GGE.1/2019/WP.1 vom 14. März 2019: „The Russian Federation is convinced that the issue of LAWS is extremely sensitive. While discussing it, the GGE should not ignore potential benefits of such systems in the context of ensuring States' national security. It is necessary to examine the modalities for applying the existing international legal restrictions and IHL rules to these systems. Thus, the concerns regarding LAWS can be addressed through faithful implementation of the existing international legal norms.“ https://www.unog.ch/80256EDD006B8954/(httpAssets)/B7C992A51A9FC8BFC12583BB00637BB9/$file/CCW.GGE.1.2019.WP.1_R+E.pdf
    4. [4] Political Declaration: Conference „2019. Capturing Technology. Rethinking Arms Control”, Berlin, 15. März 2019: „While the rapid speed of technological development in the fields of artificial intelligence, life sciences and digital technology – to name just a few – is creating multifold opportunities for global progress, new technologies may also enable the development of new military applications and capabilities. It is of the utmost importance that the production, use and transfer of these types of weapons are firmly grounded in International Law and state-control. New types of warfare imply the need to adapt the future arms control and non-proliferation architecture. They also raise questions with regard to their conformity with international law and current ethical standards, as well as with the required level of human control. Against this background, we affirm the following: 1. We will work together to strengthen existing biological, chemical, conventional and nuclear arms control arrangements in a multilateral endeavour to maintain and reinforce the rules-based international order for a new technological age. 2. The time to act is now. Given the speed of technological developments, it is of utmost importance that we now analyse closely potential negative and positive effects of new technologies, and identify the need for further regulation and new arms control arrangements in order to maintain international peace and stability. 3. There is a need to build a shared understanding of how technologically enhanced military capabilities may change the character of warfare and how this will influence global security. 4. We need to intensify cooperation to prevent the uncontrolled proliferation of weapon systems, both existing and new. 5. The development and use of all weapons needs to be in full compliance with existing international law. 6. We need an intensified dialogue with and among the representatives of science, research and industry to encourage the development of ethical standards for the development of new technologies. https://rethinkingarmscontrol.de/documents/
    5. [5] Rede des deutschen Außenministers Heiko Maas auf der Expertenkonferenz: „2019. Capturing Technology. Rethinking Arms Control“, Berlin 15. März 2019: „Fluch und Segen technologischer Entwicklung liegen einfach nah beieinander.Wenn wir heute hier in Berlin über neue Technologien und ihre Auswirkungen auf Frieden und Sicherheit sprechen, dann kann es nicht darum gehen, technologische Entwicklung abzuschneiden oder zu verhindern. Für ein Land wie Deutschland – Hochtechnologiestandort und Wxportweltmeister – wäre das fatal. Aber im Kern geht es um die Frage, ob wir die Technologie beherrschen oder wir am Ende von ihr beherrscht werden. … Die Hoffnung, dass technologische Entwicklung Kriege eindämmt, ist eine Illusion. Viele dieser Technologien stoßen in politische und rechtliche Graubereiche vor, in denen die Grenzen zwischen Recht und Unrecht, zwischen Frieden und Konflikt verschwimmen. Neue Technologien sind zudem viel anfälliger für Proliferation, für Manipulation und Missbrauch als konventionelle Waffen. Für Cyberangriffe brauchen Hacker nicht viel mehr als einen Computer. Und der Zugang zu tödlichen Erregern, die sich zu Kampfzwecken missbrauchen lassen, ist viel schwerer zu kontrollieren als ein Waffen- oder Munitionslager. ... Unsere gemeinsamen Regelwerke kamen fast immer zu spät. Sie halten nicht Schritt mit der technologischen Entwicklung und sie bleiben dadurch löchrig.Wenn neue Technologien heute also die Entwicklung von Waffen und die Kriegsführung revolutionieren, dann stehen wir vor einer ganz entscheidenden Frage: Schaffen wir es diesmal, vorausschauend zu handeln? Oder werden unsere Regeln wieder zu spät kommen – dieses Mal vielleicht endgültig zu spät? Nichtstun ist dabei keine Option. Denn die Welt, in der wir heute leben, ist viel unübersichtlicher und gefährlicher als noch vor einigen Jahrzehnten, sogar zu Zeiten des Kalten Kriegs.Die Rivalität der Großmächte spielt sich nicht mehr nur zwischen zwei Blöcken ab. Neue Akteure sind hinzugekommen, vor allem China. Aber auch neue Felder der Auseinandersetzung – vom Weltraum bis in den Cyberraum … Wir brauchen Regeln für autonome Waffensysteme. Killer-Roboter, die auf Basis anonymer Datensätze und völlig jenseits menschlicher Kontrolle über Leben und Tod entscheiden, sind bereits heute eine erschreckend reale Perspektive. Das ist nicht weniger als ein Angriff auf die Menschlichkeit selbst, auf die menschliche Würde und auf den Kern unserer Verfassung. Doch es sind nicht nur ethische Erwägungen, die gegen solche Waffen sprechen: Vollautonome Waffen sind anfällig für Manipulation und auch für Fehlkalkulationen. Automatische Eskalationen – “flash wars” – und Rüstungswettläufe sind praktisch vorprogrammiert. Wir dürfen deshalb diese rote Linie nicht überschreiten. Dafür setzen wir uns bereits in Genf ein und dabei wollen wir dieses Jahr Fortschritte erzielen: Wir wollen das Prinzip wirksamer menschlicher Kontrolle über alle tödlichen Waffensysteme international festschreiben und damit einen großen Schritt gehen hin zur weltweiten Ächtung vollautonomer Waffen. Der nächste Krieg – so viel Prognose würde ich heute schon mal wagen – wird nicht mehr nur mit Megabomben, sondern auch mit Megabits und Megabytes geführt. Auch Bomben werden ja mittlerweile so gesteuert. Was aber bedeutet es für die Transparenz und für Abrüstung, wenn das schädliche Objekt nur ein Code ist, der blitzschnell kopiert und um die Welt bewegt werden kann?1. Kein Staat wird ernsthaft wollen, dass der hochgradig vernetzte Welthandel zum Opfer von Cyber-Angriffen wird. 2. Kein Staat kann hinnehmen, dass Hacker sein Bankensystem lahmlegen oder den Zahlungsverkehr manipulieren. 3. Und kein Staat kann zusehen, wenn Cyber-Angreifer den internationalen Luftverkehr gefährden. Lassen Sie uns diese gemeinsamen Interessen zum Ausgangspunkt nehmen für universelle Verhaltensnormen und Standards im Cyberraum. Die nötigen Prozesse gibt es bereits: In den Vereinten Nationen, zum Beispiel, und auch in der OSZE. Was bisher fehlt, ist der ernsthafte politische Wille. Das müssen und das wollen wir ändern.“ : https://www.auswaertiges-amt.de/de/newsroom/maas-konferenz-2019-capturing-technology-rethinking-arms-control/2199790