Keine Neuprogrammierung mehr nötig

Wie Roboter künftig Bewegungen lernen

Uhr
von Alexia Muanza und Übersetzung: René Jaun, nki, ahu

EPFL-Forscher haben eine Methode für Roboter entwickelt, die es unterschiedlich gebauten Maschinen ermöglicht, dieselbe Aufgabe ohne Neuprogrammierung auszuführen. Das System wandelt menschliche Gesten um in Bewegungsstrategien, die es für den jeweiligen Roboter anpasst.

Das Fliessband-Experiment. (Source: LASA EPFL)
Das Fliessband-Experiment. (Source: LASA EPFL)

Ein neues Framework namens "Kinematic Intelligence" könnte das Einarbeiten neuer Roboter wesentlich erleichtern. Hinter dem System stehen Forschende des Laboratoire des algorithmes et systèmes d’apprentissage (LASA) der ETH Lausanne (EPFL). Ihre Arbeit stellten sie unlängst in "Science Robotics" vor.

Ihre Methode ermöglicht es Robotern mit unterschiedlichen mechanischen Architekturen, dieselbe Aufgabe ohne spezifische Neuprogrammierung auszuführen. Das Framework löst eine grosse Herausforderung in der Industrie. Üblicherweise müssten nach jeder Maschinenänderung die eingesetzten Roboter entsprechend ihrer Einschränkungen angepasst oder neu programmiert werden, erklärt die EPFL.

"Kinematic Intelligence" startet mit einer von einem Menschen ausgeführten Aufgabe. Diese wandelt das System mathematisch in eine allgemeine Bewegungsstrategie um und passt sie dann an die physikalischen Einschränkungen jedes einzelnen Roboters an.

Mithilfe von Motion-Capture-Technologie zeichneten die Forschenden zunächst Manipulationsgesten auf, wie etwa Ablegen, Schieben oder Werfen. Anschliessend klassifizierten sie systematisch die mechanischen Grenzen der Roboter. Besonderes Augenmerk legten sie auf den Bewegungsumfang der Gelenke und der Positionen, die eine Maschine vermeiden muss, um ihre Stabilität zu wahren.

Basierend auf diesen Klassifizierungen passt das System dann die Bewegungen automatisch an die unterschiedlichen Körperformen an.

In einem Experiment an einem Fliessband führten drei kommerzielle Roboter mit völlig unterschiedlichen Konstruktionen dieselbe Abfolge aus: einen Holzblock von einem Förderband auf eine Werkbank schieben, ihn auf einen Tisch legen und dann in einen Korb werfen. Das System funktionierte auch, wenn die Forschenden Schritte anderen Robotern zuteilten.

"Jeder Roboter interpretiert dieselbe Aufgabe auf seine eigene Weise", erklärt Sthithpragya Gupta, Doktorand am LASA und Mitautor der Studie. Er ergänzt, die Roboter hätten im Experiment stets innerhalb sicherer und realisierbarer Grenzen gearbeitet.

Künftig möchten die Wissenschaftler das System erweitern, sodass es auch Kontexte wie die Mensch-Roboter-Zusammenarbeit und Interaktionen auf Basis natürlicher Sprache unterstützt. Damit könnte es möglich werden, einen Roboter zu Hause über einfache Befehle zu steuern, ohne Programmierkenntnisse zu benötigen. Der Ansatz könnte auch den Austausch von Roboterplattformen erleichtern, wenn sich die Hardware weiterentwickelt.


 

Lesen Sie auch: Forschende von Sony AI haben einen Roboter gebaut, der Tischtennis auf Expertenniveau spielen kann. Es soll das erste Mal sein, dass ein Roboter in einer physischen Sportart mit menschlichen Profis mithält.

 

Webcode
cU25xeGD