Du betrachtest gerade GGE diskutiert autonome Waffensysteme in Genf

GGE diskutiert autonome Waffensysteme in Genf

Vom 3. bis 7. März war WILPF in der Sitzung der Group of Governmental Experts (GGE) on Lethal Autonomous Weapons Systems bei den Vereinten Nationen in Genf präsent. Ein Bericht über Fortschritte und Herausforderungen.

Ein Bericht von Jennifer Menninger

Vom 3. bis 7. März hatte ich die Gelegenheit, an der Sitzung der „Group of Governmental Experts“ (GGE) on Lethal Autonomous Weapons Systems (LAWS) bei den Vereinten Nationen in Genf teilzunehmen. Diese Sitzung war die erste im Jahr 2025 und die dritte unter dem dreijährigen Mandat der Gruppe, das darauf abzielt, einen Konsensbericht über die Regulierung von LAWS zu erreichen.

Die Atmosphäre war angespannt, da der Termin für die Einreichung des Berichts näher rückte. Viele Delegationen äußerten den Wunsch, dass die GGE ihr Mandat bis Ende 2025 abschließen sollte, um den dringenden Bedarf an Regulierung zu decken. Um den Prozess voranzubringen, stellt der Vorsitzende einen „rolling text“ vor, der fünf Abschnitte umfasste. An der Erarbeitung beteiligten sich die „Friends of the Chair“ Australien, die Philippinen, Brasilien und die Schweiz.

Ein herausforderndes Thema bleibt weiterhin die Einbindung der Zivilgesellschaft. Russlands Einspruch gegen die Teilnahme von Beobachtern sorgte für Spannungen und stellte die Transparenz der Diskussionen in Frage. Jedoch wurde sich darauf geeinigt, die Teilnahme von Beobachtern zu erlauben, solange sie die Diskussionen nicht politisieren würden.

Intensive Textarbeit

Während der Diskussionen über den „rolling text“ war das Element von menschlicher Kontrolle besonders umstritten. Der Textentwurf enthielt mehrfach den Begriff „context related human control and judgement“ (kontextangemessene menschliche Kontrolle und Urteil), der von einigen Staaten klar abgelehnt wird. Österreich, Frankreich, Deutschland, Irland, Luxemburg, Mexiko, Norwegen, Spanien, Sri Lanka und die Schweiz sprachen sich für den Begriff aus.

Auch das Thema Letalität in Bezug auf autonome Waffensysteme wurde intensiv diskutiert. Mehrere Länder, darunter Österreich, Brasilien, Irland und Finnland, lehnten den Begriff „letal“ in der Bezeichnung „letale autonome Waffensysteme“ ab. Brasilien argumentierte, dass die Verwendung des Begriffs nicht nur unnötig sei, sondern auch das Risiko birgt, den Anwendungsbereich der Charakterisierung unangemessen einzuschränken. Irland wies darauf hin, dass der Begriff vor zehn Jahren geprägt wurde und das kollektive Verständnis der Gruppe sich seitdem erheblich weiterentwickelt hat. Trotz dieser Bedenken unterstützten einige Delegationen, darunter die USA, Russland und China, den Begriff „letal“.

Ein weiteres zentrales Thema war das Verständnis von LAWS als Systeme, die Menschen töten oder verletzen, ohne Schäden an Objekten zu berücksichtigen. Das Internationale Komitee vom Roten Kreuz (IKRK) wies darauf hin, dass das Internationale Humanitäre Recht sowohl Kämpfer:innen als auch Zivilist:innen schützt und dass es wichtig sei, das Potenzial zur Beschädigung oder Zerstörung von Objekten zu erfassen. Es wurde gefordert, dieses erweiterte Verständnis in einem zukünftigen Instrument zu berücksichtigen.

In der GEE wurde auch das Thema Bias (Voreingenommenheit) angesprochen. Das IKRK und andere Organisationen unterscheiden zwischen zwei Kategorien von Bias:

  1. Algorithmische Voreingenommenheit: Diese entsteht innerhalb eines Systems oder seiner Datensätze. Sie kann auftreten, wenn die Daten, die zur Schulung der KI verwendet werden, voreingenommene oder unvollständige Informationen enthalten, was zu unfairen oder diskriminierenden Entscheidungen führen kann.
  2. Kognitive Voreingenommenheit: Diese bezieht sich auf menschliche Verzerrungen, die auftreten können, wenn Menschen mit Maschinen interagieren. Ein Beispiel hierfür ist der Automatisierungsbias, bei dem Menschen dazu neigen, Entscheidungen von automatisierten Systemen übermäßig zu vertrauen, selbst wenn diese fehlerhaft sind.

Einige Delegationen schlugen vor, den Text zu ändern, um die verschiedenen Arten von Bias klarer zu differenzieren und spezifische Maßnahmen zur Minderung dieser Voreingenommenheiten zu fordern. Es wurde betont, dass es notwendig ist, sowohl während der Entwicklung von KI-Systemen als auch in der laufenden Nutzung regelmäßige Bewertungen durchzuführen, um unbeabsichtigte Bias zu erkennen und zu korrigieren.

Um die Diskussionen und den Wissensstand zu Bias zu erweitern, organisierte Deutschland am 5. März in Kooperation mit dem Stockholm International Peace Research Institute (SIPRI) das Side Event „Bias in AWS and Compliance with IHL: Addressing a Missing Link“. Die Veranstaltung umfasste ein Panel mit Expert:innen des IKRK und Vertreter:innen aus Panama, Pakistan und dem Vereinigten Königreich. Ziel war es, verschiedene Ansichten und Ansätze zu sammeln und ein besseres Verständnis für die rechtlichen Implikationen von Bias in AWS zu entwickeln. Die Veranstaltung wurde auch zum Anlass genommen, um die neue SIPRI-Publikation „Bias in Military Artificial Intelligence“ zu launchen.

Wie es weitergeht

Die GGE zeigt, dass die Herausforderungen im Zusammenhang mit der Regulierung autonomer Waffensysteme komplex und vielschichtig sind. Die unterschiedlichen Positionen der Mitgliedstaaten spiegeln nicht nur nationale Sicherheitsinteressen wider, sondern auch ethische und humanitäre Überlegungen, die in den kommenden Verhandlungen berücksichtigt werden müssen. Aus feministischer Sicht, ist auch die Einbindung der Zivilgesellschaft und anderer Beobachter:innen entscheidend, um das Vertrauen in den Prozess zu stärken und möglichst viele Stimmen substanziell einzubeziehen. Weitere Empfehlungen für ein inklusiveres und transparenteres Vorgehen der Staaten in Bezug auf AWS sind in dem Policy Paper Feministische Außenpolitik in der Praxis. Ein Weg zur Regulierung von autonomen Waffensystemen“ zu finden.

Die bevorstehende informelle Sitzung im Mai in New York bietet eine wertvolle Gelegenheit, die Diskussion zu erweitern und neue Perspektiven einzubringen. Es bleibt zu hoffen, dass die Teilnehmer:innen bereit sind, über nationale Interessen hinauszudenken und einen gemeinsamen Weg zu finden, um die Herausforderungen, die mit AWS verbunden sind, anzugehen. Der Ruf nach einem rechtlich bindenden Instrument ist laut und klar: Die Zeit für verbindliche Regelungen ist gekommen, um die Risiken autonomer Waffensysteme zu minimieren und die humanitären Prinzipien zu wahren.

Weitere Informationen

Kontakt: Jennifer Menninger (menninger@wilpf.de)

Reaching Critical Will, WILPF, CCW Report Vol. 13, Nr. 2