Autonome (Killer-)Roboter

Den "Terminator" verhindern

Uhr | Aktualisiert

Selbstfahrende Autos sollen die Strassen der Welt sicherer machen. Die Regierungen der Welt feilen fleissig an den gesetzlichen Regeln dafür. Bei ihren entfernten Verwandten, den autonomen Waffensystemen, sieht das anders aus.

Ronald Arkin, Professor für Robotik am Georgia Institute of Technology. (Quelle: Netzmedien)
Ronald Arkin, Professor für Robotik am Georgia Institute of Technology. (Quelle: Netzmedien)

Ronald Arkin, Professor für Robotik am Georgia Institute of Technology, mag weder Krieg, noch will er ihn. Trotzdem beschäftigt er sich intensiv mit autonomen Waffensystemen, sogenannten Killerrobotern.

Am 18. Januar 2017 sprach Arkin in der Aula der Universität Zürich über seine Forschung. Er erzählte, was in der der Welt der Robotik derzeit passiert.

Zum Einstieg ins Thema zeigte er Szenen aus den Terminator-Filmen und verglich sie mit Szenen der "DARPA Robotics Challenge". DARPA steht für Defense Advanced Research Projects Agency. Eine Behörde des US-Verteidigungsministeriums.

Was ist ein Killerroboter?

Arkin bezweifelt, dass der "Terminator" aus den Filmen bald Realität wird. Das zeigte auch der Vergleich mit den Szenen der DARPA Robotics Challenge. Simple Aufgaben, wie das Öffnen und durchschreiten ein Tür, überforderten viele der Roboter. Für den Terminator sind solche Aufgaben ein Kinderspiel.

Der Terminator zeige uns aber etwas, sagte Arkin. "Wir brauchen Definitionen." Was ist ein Killerroboter und wie sieht die angemessene menschliche Kontrolle des Roboters aus? Welche Fähigkeiten muss oder darf ein Roboter haben?

Asimovs Gesetze eignen sich nur für Science Fiction

Arkin erwähnte die Robotergesetze von Isaac Asimov. Die Gesetze waren Teil von Asimovs Kurzgeschichte Runaround, die 1942 in dem Science-Fiction-Heft Astounding (heute Analog Science Fiction and Fact) erschien. Sie kamen auch in dem Film I, Robot vor.

Asimovs Gesetze seien keine Lösung. "Diese Gesetze eigenen sich für Science-Fiction-Filme", sagte Arkin. In einem intelligenten Robotersystem könne man sie aber nicht brauchen.

Die Probleme, vor denen Roboterentwickler stehen, sind eigentlich simpel. Und doch sind sie schwer zu lösen.

Ein bewaffneter Roboter soll feindliche Soldaten angreifen. Wie erkennt er die feindlichen Soldaten? An ihrer Uniform?

Was passiert, wenn sie keine Uniform tragen?

Was passiert, wenn die feindliche Armee Kindersoldaten an die Front schickt?

Was passiert, wenn die Soldaten keine sichtbaren Waffen tragen?

Der Roboter müsste Intentionen und Haltungen erkennen können. Und selbst dann gibt es offene Fragen. Etwa im Fall der Kindersoldaten. Soll der Roboter die Kinder töten?

Roboter sind effizienter

Es drängt sich die Frage auf, warum die Militärs dieser Welt überhaupt Roboter wollen. Arkin weiss es. Mit Robotern können sie die Zahl ihrer Soldaten reduzieren. Roboter müssen nicht schlafen, Roboter müssen nicht essen, sie müssen nicht auf die Toilette.

Roboter haben bessere Augen und Ohren, Roboter können mehr Informationen von mehr Quellen in kürzerer Zeit als Menschen verarbeiten. Roboter haben keine Emotionen, die ihr Urteil trüben. Roboter können ihre menschlichen Waffenbrüder überwachen und Beweismaterial liefern, falls sich die Menschen falsch verhalten.

Als Beispiel für letzteres zeigte Arkin Ausschnitte aus dem Youtube-Film Drone von Yomyomf.

Roboter könnten menschlicher handeln als Menschen

Arkin glaubt, durch den Einsatz von autonomen Robotern würden weniger Zivilisten getötet. Eines der grössten Probleme im Krieg.

Gemäss Human Rights Watch wurden in der ersten Jahreshälfte 2016 allein in Afghanistan über 100 Zivilisten durch US-Luftschläge getötet. Die Zahlen in Ländern wie Syrien sind ungleich höher.

Arkin stellt in den Raum, dass Roboter möglicherweise menschlicher handeln könnten als Menschen. Denn im Kampf gibt es viele Gründe für Fehlentscheidungen. Menschen werden wütend, haben Angst, drehen durch. “Da ist eindeutig Raum für Verbesserungen. Autonome Systeme können helfen”, sagte Arkin.

Aber nur mit den richtigen Regulierungen. Denn autonome Waffensystem töten schon heute und das werde sich nicht verhindern lassen. Für Arkin sind nämlich schon eine Landmine oder eine Rakete autonome Waffensysteme. Allerdings fehlt diesen Systemen etwas: Die Fähigkeit ihre Mission abzubrechen.

"Stellen Sie sich vor, eine Rakete soll eine Brücke zerstören", sagte Arkin. Die Rakete benötige 20 Minuten zum Ziel. In diesen 20 Minuten könnte sich die Situation auf der Brücke vollkommen geändert haben. Es könnten Schulbusse mit Kindern auf der Brücke stehen. "Die Rakete sollte die Situation erkennen und ihre Mission abbrechen können", sagte Arkin.

UNO diskutiert über autonome Waffensysteme

Vielleicht wäre es doch einfacher, autonome Roboter komplett zu verbieten. Human Rights Watch vertritt diese Ansicht. Und auch der US-Softwareentwickler Bill Joy - er entwickelte die C-Shell.

Joy sieht in der Robotik, Genetik und Nanotechnologie das Ende der Menschheit. Er empfiehlt sämtliche Forschung in diesen Feldern komplett einzustellen.

Das US-Verteidigungsministerium verlangt hingegen eindeutige Restriktionen. Die UNO diskutiert in ihrer Group of Governmental Experts über autonome Waffensysteme. Diese Gruppe debattiert darüber, welche Waffen unter die Convention on Certain Conventional Weapons fallen. Eine Liste mit Waffen, die von der UNO verboten sind.

"Ich bin einem Verbot nicht abgeneigt. Aber ich glaube, wir brauchen Regulierungen. Und zwar jetzt", sagte Arkin.

Webcode
DPF8_21766

Kommentare

« Mehr