Spiel mit dem Feuer Ex-Google-Mitarbeiterin warnt: Killer-Roboter können Kriege starten

tafi

17.9.2019

Noch ist Igorek ein Prototyp. Doch schon im nächsten Jahr will der russischen Waffenhersteller Kalaschnikow ein funktionierendes Modell des Kampfroboters vorstellen, der – zunächst noch – von Soldaten gesteuert wird.
Noch ist Igorek ein Prototyp. Doch schon im nächsten Jahr will der russischen Waffenhersteller Kalaschnikow ein funktionierendes Modell des Kampfroboters vorstellen, der – zunächst noch – von Soldaten gesteuert wird.
Bild: Getty Images

Dass Killer-Roboter die Kriege der Zukunft entscheiden, daran zweifeln Experten nicht. Eine ehemalige Google-Mitarbeiterin warnt nun, dass sie auch versehentlich Kriege und Massenexekutionen lostreten könnten.

Bis zum vergangenen Jahr arbeitete Laura Nolan als Softwareingenieurin für Google. Dann kündigte sie – aus Protest gegen die Mitwirkung ihres Arbeitgebers an einem Projekt zur drastischen Verbesserung der Drohnentechnologie des US-Militärs. Als Expertin für mit künstlicher Intelligenz ausgestattete Waffensysteme warnt sie nun vor unabsehbaren Folgen des Einsatzes von Killerrobotern und fordert ein Verbot aller Waffensysteme, die nicht von Menschen gesteuert werden.

Im Gegensatz zu Drohnen, die von menschlichen Teams kontrolliert werden, haben Killerroboter das Potenzial, «verheerende Dinge anzurichten, für die sie ursprünglich nicht programmiert waren», wird Nolan vom «Guardian» zitiert.




Nolan, die sich der «Campaign To Stop Killer Robots» angeschlossen hat, hat demnach vor UN-Diplomaten in New York und Genf über die Gefahren autonomer Waffen referiert. Dem «Guardian» zufolge warnte sie, dass die Wahrscheinlichkeit einer Katastrophe umso grösser sei, je mehr Killermaschinen sich gleichzeitig in einem bestimmten Gebiet befinden. «Uns stehen mögliche Gräueltaten und rechtswidrige Tötungen bevor, insbesondere wenn Hunderte oder Tausende dieser Maschinen gleichzeitig eingesetzt werden.»

Nolan befürchtet, dass es zu schwerwiegenden Zwischenfällen komme, weil sich die Killer-Roboter «auf unerwartete Weise zu verhalten beginnen». Deshalb sollten alle modernen Waffensysteme menschlicher Kontrolle unterliegen. «Sonst müssen sie verboten werden, weil sie viel zu unvorhersehbar und gefährlich sind.»



Externe Faktoren, etwa ein Wetterumschwung, könnten ausreichen, um die Programmierung von Killerrobotern mit möglicherweise fatalen Folgen zu stören. Es fehle einfach der gesunde Menschenverstand. «Wie trainiert man die Software eines Waffensystems, subtile Feinheiten im menschlichen Verhalten zu erkennen?», umreisst Nolan im «Guardian» das Problem. Den Unterschied zwischen Menschen, die mit einem Gewehr auf die Jagd gehen und feindlichen Soldaten könnten die KI-Maschinen nicht erkennen.

Keine Science Fiction: Russland präsentiert Kampfroboter

Zurück zur Startseite