Q2/2018 - Group of Governmental Expert on Lethal Autonomous Weapons Systems (GGE-LAWS)

GGE-LAWS Q218

Das 2. Treffen der Expertengruppe diente primär der weiteren Verständigung über Definitionen (was denn nun unter tödlichen automatisierten Waffensystem zu verstehen ist), über Strukturen und Optionen für das weitere Vorgehen, einschließlich möglicher völkerrechtlicher Regelungen. Ergänzt wurde die Sitzung um eine Expertenanhörung mit Spezialisten aus den USA, dem Vereinigten Königreich, Russland und China/Hongkong. Im Mittelpunkt der fünftägigen Tagung aber stand, welche Rolle der „menschliche Faktor“ bei der Entwicklung und Anwendung solcher Waffensysteme spielt und spielen sollte.

  • Bei der Diskussion um Strukturen wurden vier Phasen – von der Entwicklung bis zum Einsatz von LAWS – unterschieden (1. Research and Development, 2. Testing and Evaluation, Verification and Validation, Reviews, 3. Deployment, Command and Control, 4. Use and Abort).
     
  • Bei der Diskussion zum „menschlichen Faktor“ dominierte die Ansicht, dass selbst bei selbstlernenden Waffensystemen (Killer-Roboter) eine letztendliche menschliche Kontrolle, die auch die Möglichkeit des Überschreibens eines Algorithmus einschließt, gegeben sein muss. LAWS könnten z.B. nicht zwischen zivilen und militärischen Gruppen unterscheiden, obwohl ein Experte eine über das Internet gesteuerte automatische Unterseewaffe vorstellte, die an Hand von Kriterien herausfinden konnte, ob das definierte Ziel ein Kriegsschiff oder ein ziviles Schiff ist. Man war sich aber einig, dass In 10 - 15 Jahren LAWS als Ergänzung zu konventionellen Waffen in den meisten militärischen Auseinandersetzungen einbezogen werden.
     
  • Im Hearing bezeichnete die amerikanische Professorin Mary Cummings von der Duke University (eine ehemalige Kampfpilotin), dass in einem Drohnenkrieg der einzelne Soldat durch die Herausnahme aus dem unmittelbaren Kampfgebiet in die Lage versetzt würde, bessere Entscheidungen zu treffen („It takes the human out of the stressful environment who can then take better decisions.“). Auch der russische Professor Pshikopow argumentierte, dass LAWS weniger Fehlentscheidungen treffen würden als Soldaten in einem Kampfgebiet („What would be the better choice: Let the human operator take the wrong decision and let people die or to use smart LAWS with much less casualities.“). Die chinesische Professorin Pascale Fung machte deutlich, dass viele militärische KI-Entwicklungen im zivilen Leben bereits breite Anwendung finden würden, wie Sprach- und Gesichtserkennung. Der englisches Professor Anthony Gillespie (University College London) forderte eine besondere Ausbildung für „Operators“, die LAWS befehligen würden.
     
  • Bei der Diskussion zu zukünftigen rechtlichen Regelungen wurde einerseits betont, dass die Genfer Konventionen zum humanitären Völkerrecht von 1948 auch Anwendung finden müssen beim Einsatz von LAWS. Andererseits aber dürften Regelungen zu den LAWS nicht Innovation im Bereich künstlicher Intelligenz verhindern. Diskutiert wurde, ob ein Moratorium für die Entwicklung und Anwendung von LAWS sinnvoll sei. Andere Vorschläge betrafen die Vereinbarung von vertrauensbildenden Maßnahmen (Transparenz, Informationsaustausch) zwischen Regierungen, der Abschluss einer völkerrechtlich bindenden Konvention, die nach dem Modell des Verbotes von B- und C-Waffen gestaltet werden könnte, oder die Ausarbeitung einer politischen Deklaration als ein Zwischenschritt zu rechtlich verbindlichen Absprachen.

Die nächste Sitzung der Gruppe ist für August 2018 in Genf geplant.

Mehr zum Thema
GGE-LAWSQ2/2018