Jetzt anmelden
Ausgabe Nr. 19/2024 vom 06.05.2024, Fotos: S.W.O.R.D Defnse System, picturedesk.com
Artikel-Bild
Bewaffneter Roboter-Hund „SPUR“.
Artikel-Bild
Marit Seyer von „Stoppt Killer-Roboter“.
Artikel-Bild
Außenminister Alexander Schallenberg.
Roboter töteten bereits für die US-Polizei
Jetzt neu: Hier klicken
und Artikel an Freunde verschenken.
Sie könnten bald über Leben und Tod entscheiden. Kämpfende Roboter sind für Armeen
interessant. Doch es wächst die Angst vor autonomen Waffensystemen.
Auf Play drücken
um Artikel vorlesen
zu lassen.
Dieser Vierbeiner ist nicht der beste Freund des Menschen. Der Roboterhund trägt ein Maschinengewehr. Er soll aus 1,2 Kilometer Entfernung punktgenau treffen, dank Infrarot-Kameras auch nachts. Das „unbemannte Spezialgewehr“ („SPUR“) stammt aus den USA. Noch wird es ferngesteuert, doch bald könnte es auch autonom töten.
„Killer-Roboter“ sind keine Utopie mehr. Rund um den Globus wird an autonomen Waffensystemen (AWS) getüftelt. Wer die intelligentesten Waffen hat, der gewinnt die Kriege der Zukunft, so heißt es.

20 Sekunden für Leben oder Tod

In Wien fand kürzlich eine Konferenz statt, um der Entwicklung Einhalt zu gebieten. Auf Einladung des ÖVP-Außenministers Alexander Schallenberg, 54, diskutierten 900 Gäste aus 142 Staaten über Regulierungen. „Es stehen enorme ethische Fragen auf dem Spiel: Wie lässt sich etwa verhindern, dass Entscheidungen über Leben und Tod an Maschinen abgegeben werden und wie lässt sich ein von Künstlicher Intelligenz (KI) angetriebenes Wettrüsten verhindern? Ich kann die Dringlichkeit nicht genug betonen: Das ist der ‚Oppenheimer-Moment‘ unserer Generation (J. Robert Oppenheimer, † 1967, gilt als Vater der Atombombe). Wir dürfen diesen Moment nicht verstreichen lassen“, mahnt Schallenberg.

Teils sind autonome Waffensysteme jedoch schon im Einsatz. So werden im Ukraine-Krieg Drohnen gegen die Russen eingesetzt, die auf Künstlicher Intelligenz basieren. Sie können ihre Mission auch zu Ende bringen, wenn der Kontakt zum Piloten abbricht.

Im Gaza-Krieg soll die israelische Armee auf Künstliche Intelligenz setzen. Um Hamas-Ziele bei der Bombardierung aufzuspüren, kommt laut Informanten aus der israelischen Armee ein Programm namens „Lavender“ zum Einsatz. Es soll autonom handeln und nur 20 Sekunden brauchen, um jemanden als Zielperson zu bestätigen. Zivile Opfer werden in Kauf genommen.

An vorderster Front gegen diese Waffensysteme kämpft die Kampagne „Stoppt Killer Roboter“
(www.stopkillerrobots.org). Sie ist auch bei uns vereinsmäßig vertreten (www.krcaustria.at). Die Obfrau Marit Seyer mahnt, „vollautonomen Waffen würde das menschliche Urteilsvermögen fehlen, um die Verhältnismäßigkeit eines Angriffes zu bewerten, Zivilisten von Kämpfern zu unterscheiden und andere Kernprinzipien des Kriegsvölkerrechts einzuhalten.“

Es drohe ein globales Wettrüsten. Autonome Waffen könnten zudem tragische Fehler begehen, mit unabsehbaren Folgen.
Bei der Konferenz hätte sich wieder einmal gezeigt, dass der Großteil der Staaten für ein Verbot beziehungsweise strenge Regulierung ist. „Nur eine Handvoll Länder wie die USA, Russland, Indien, Israel und Australien legen sich quer.“

Seyer ist jedoch überzeugt: „Maschinen dürfen nicht darüber entscheiden, wer lebt und wer stirbt.“ Die teilnehmenden Länder der Konferenz sollen nun bis Ende Mai ihre Standpunkte und Informationen an die Vereinten Nationen (UN) übermitteln, damit in der Folge ein Bericht entsteht.

Seit zehn Jahren wird ohne Ergebnisse diskutiert.

„Es wird seit rund zehn Jahren über das Thema diskutiert, bislang aber ohne Ergebnisse.“ Unser Land nimmt jedoch eine Vorreiterrolle ein. Es hat im Jahr 2023 mit einigen anderen Ländern eine Resolution zur Regulierung autonomer Waffensysteme eingebracht. Sie wurde in der Vollversammlung der Vereinten Nationen angenommen.
Der UN-Generalsekretär António Guterres, 75, das Internationale Komitee vom Roten Kreuz (IKRK) und mehr als 100 Länder fordern ein Verbot von Killer-Robotern. Auch Menschenrechtsorganisationen machen Druck.

Das Thema hat auch eine rechtliche Tragweite. „Die Genfer Konventionen sind mehr als 70 Jahre alt. Es muss etwas Neues her.“ Zudem gebe es keine einheitliche Definition zu autonomen Waffensystemen. Laut dem Internationalen Komitee vom Roten Kreuz sind dies jene, bei denen in der Zielauswahl und Bekämpfung kein weiterer menschlicher Eingriff erfolgt.

Marit Seyer fordert: „Alle Waffen, die antipersonell und darauf programmiert sind, Menschen als Ziel zu haben, gehören komplett verboten. Alle anderen Waffen gehören reguliert. Die menschliche Kontrolle muss immer gewährleistet sein.“

Seyer warnt zudem, dass autonome Waffen außerhalb von Armeen eingesetzt werden, etwa bei der Polizei beziehungsweise Grenzpolizei.

In Amerika ist dies teils schon Realität. So wurde in Dallas (Texas) vor Jahren ein Bombenräumungsroboter dafür eingesetzt, per Sprengsatz einen Mann zu töten, der zuvor Polizisten erschossen hatte.

Die Polizei von San Francisco (Kalifornien) erwog 2023 ebenfalls, dass etwa Bombenentschärfungsroboter in Ausnahmefällen „tödliche Gewalt“ anwenden dürfen. Nach Protesten gab es aber einen Rückzieher.

Kommt es jetzt zu einem „Roboter-Wettrüsten“ ?

schon auf Killer-Roboter einzustellen. So könnte die britische Armee bis 2030 zu einem Viertel aus Robotern bestehen (30.000 Stück). Zumindest glauben das einzelne Generäle. Sie sehen Roboter Seite an Seite mit Soldaten kämpfen.
Der heimische Militärexperte Franz-Stefan Gady kann sich Killer-Roboter in näherer Zukunft noch nicht auf den Schlachtfeldern vorstellen. Er glaubt hingegen an die Unterstützung durch Systeme, die in Abstimmung mit dem Menschen zusammenarbeiten. So setzt das Bundesheer schon jetzt auf teilautonome Systeme. Im Arsenal sind etwa Minenroboter, ein Drohnenabwehrsystem sowie Aufklärungsdrohnen.
rb
Weitere Inhalte dieser Ausgabe:
Ihre Meinung
Ihre Meinung ist uns wichtig.

Schreiben Sie Ihren Kommentar zu diesem Artikel, den wir dann prüfen und veröffentlichen werden.
Bitte melden Sie sich an, um einen Kommentar zu verfassen.
Werbung