Dieser Roboter hat sich selbst beigebracht, in einer Simulation zu laufen - und ist dann in Berkeley spazieren gegangen

Quellknoten: 807787

Kürzlich wurde in einem Labor in Berkeley Ein Roboter namens Cassie brachte sich selbst das Laufen bei, ein bisschen wie ein Kleinkind. Durch Versuch und Irrtum lernte es, sich in einer simulierten Welt zu bewegen. Dann schickten seine Betreuer es durch ein Minenfeld realer Tests, um zu sehen, wie es abschneiden würde.

Und wie sich herausstellte, lief es verdammt gut. Ohne weitere Feinabstimmung war der Roboter – der im Grunde nur ein Beinpaar ist – in der Lage, in alle Richtungen zu gehen, beim Gehen in die Hocke zu gehen, sich wieder aufzurichten, wenn er aus dem Gleichgewicht gestoßen wurde, und sich an verschiedene Arten von Oberflächen anzupassen.

Es ist das erste Mal, dass ein maschineller Lernansatz namens Reinforcement Learning so erfolgreich bei zweibeinigen Robotern angewendet wird.

Dies ist wahrscheinlich nicht das erste Robotervideo, das Sie gesehen haben, und auch nicht das ausgefeilteste.

Seit Jahren ist das Internet von Videos begeistert, in denen Roboter weit mehr tun, als nur zu laufen und ihr Gleichgewicht wiederzuerlangen. Heutzutage steht alles auf dem Spiel. Boston Dynamics, der Schwergewichts-Champion für Robotervideos, veröffentlicht regelmäßig atemberaubende Aufnahmen von Robotern, die Parkour machen. Rückwärtssalto und komplexe Tanzroutinen. Manchmal scheint es eine Welt zu sein iRobot ist gleich um die Ecke.

Dieses Gefühl der Ehrfurcht ist wohlverdient. Boston Dynamics ist einer der weltweit führenden Hersteller fortschrittlicher Roboter.

Aber sie müssen es trotzdem tun Programmieren und choreografieren Sie die Bewegungen sorgfältig von Hand der Roboter in ihren Videos. Dies ist ein leistungsstarker Ansatz, und das Team von Boston Dynamics hat damit Unglaubliches geleistet.

In realen Situationen müssen Roboter jedoch robust und belastbar sein. Sie müssen sich regelmäßig mit dem Unerwarteten auseinandersetzen, und viel Choreografie reicht dafür nicht aus. Dabei hofft man, dass maschinelles Lernen helfen kann.

Reinforcement Learning wurde vor allem von DeepMind von Alphabet genutzt, um Algorithmen zu trainieren Verprügele Menschen bei einigen der schwierigsten Spiele. Vereinfacht gesagt orientiert es sich an der Art und Weise, wie wir lernen. Fass den Herd an, verbrenne dich, fass das verdammte Ding nie wieder an; Sagen Sie bitte, holen Sie sich eine Gummibärchen und bitten Sie höflich um eine andere.

Im Fall von Cassie nutzte das Berkeley-Team Reinforcement Learning, um einen Algorithmus für das Laufen in einer Simulation zu trainieren. Es ist nicht die erste KI, die auf diese Weise das Laufen lernt. Aber der Übergang von der Simulation in die reale Welt lässt sich nicht immer übersetzen.

Subtile Unterschiede zwischen den beiden können einen jungen Roboter (im wahrsten Sinne des Wortes) zum Stolpern bringen, wenn er seine Sim-Fähigkeiten zum ersten Mal ausprobiert.

Um diese Herausforderung zu meistern, verwendeten die Forscher zwei Simulationen statt einer. Bei der ersten Simulation, einer Open-Source-Trainingsumgebung namens MuJoCo, greift der Algorithmus auf eine große Bibliothek möglicher Bewegungen zurück und lernt durch Versuch und Irrtum, diese anzuwenden. Die zweite Simulation namens Matlab SimMechanics diente als Testgelände mit geringem Aufwand, das den realen Bedingungen genauer entsprach.

Sobald der Algorithmus gut genug war, wechselte er zu Cassie.

Und erstaunlicherweise war kein weiteres Polieren nötig. Anders ausgedrückt: Als es in die physische Welt hineingeboren wurde, wusste es, wie man ganz gut läuft. Darüber hinaus war es auch recht robust. Die Forscher schreiben, dass während des Experiments zwei Motoren in Cassies Knie versagten, der Roboter sich jedoch anpassen und weiterfahren konnte.

Andere Labore haben hart daran gearbeitet, maschinelles Lernen auf die Robotik anzuwenden.

Letztes Jahr hat Google verwendet Verstärkungslernen zum Trainieren eines (einfacheren) vierbeinigen Roboters. Und OpenAI hat es mit Roboterarmen verwendet. Auch Boston Dynamics wird wahrscheinlich nach Möglichkeiten suchen, dies zu erreichen Erweitern Sie ihre Roboter durch maschinelles Lernen. Neue Ansätze – wie diese hier. Ziel ist es, Roboter mit mehreren Fähigkeiten auszubilden oder diese hier. Das Angebot kontinuierlichen Lernens über das Training hinaus kann ebenfalls den Ausschlag geben. Es ist jedoch noch früh und es ist nicht abzusehen, wann maschinelles Lernen traditionellere Methoden übertreffen wird.

Und in der Zwischenzeit sind es die Bots von Boston Dynamics Testen der kommerziellen Gewässer.

Dennoch halten Robotikforscher, die nicht zum Berkeley-Team gehörten, den Ansatz für vielversprechend. Edward Johns, Leiter des Robot Learning Lab des Imperial College London, sagte MIT Technology Review„Das ist eines der erfolgreichsten Beispiele, die ich je gesehen habe.“

Das Berkeley-Team hofft, auf diesem Erfolg aufbauen zu können, indem es „dynamischere und agilere Verhaltensweisen“ ausprobiert. Könnte also eine autodidaktische Parkour-Cassie auf uns zukommen? Wir werden sehen.

Bild-Kredit: University of California Berkeley Hybrid Robotics über YouTube

Quelle: https://singularityhub.com/2021/04/11/this-robot-taught-itself-to-walk-in-a-simulation-then-went-for-a-stroll-in-berkeley/

Zeitstempel:

Mehr von Singularity Hub