Acest robot a învățat singur să meargă într-o simulare, apoi a plecat la o plimbare în Berkeley

Nodul sursă: 807787

Recent, într-un laborator din Berkeley, un robot numit Cassie a învăţat singur să meargă, un pic ca un copil mic. Prin încercare și eroare, a învățat să se miște într-o lume simulată. Apoi, stăpânii săi l-au trimis să se plimbe printr-un câmp minat de teste din lumea reală pentru a vedea cum i se va descurca.

Și, după cum se dovedește, s-a descurcat destul de bine. Fără o reglare mai fină, robotul - care este practic doar o pereche de picioare - a fost capabil să meargă în toate direcțiile, să se ghemuiască în timp ce merge, să se redreseze atunci când este împins dezechilibrat și să se adapteze la diferite tipuri de suprafețe.

Este pentru prima dată când o abordare de învățare automată cunoscută sub numele de învățare prin întărire este aplicată cu atât de mult succes în roboții cu două picioare.

Acesta nu este, probabil, primul videoclip cu robot pe care l-ați văzut și nici cel mai șlefuit.

De ani de zile, internetul a fost captivat de videoclipurile cu roboți care fac mult mai mult decât mersul și își regăsesc echilibrul. Tot ceea ce este miza de masă în aceste zile. Boston Dynamics, campionul la categoria grea a videoclipurilor cu roboți, lansează în mod regulat imagini uimitoare cu roboți care fac parkour, rotiri pe spate, și rutine complexe de dans. Uneori, poate părea lumea de iRobot este chiar după colț.

Acest sentiment de uimire este bine câștigat. Boston Dynamics este unul dintre cei mai importanți producători de roboți avansați din lume.

Dar tot trebuie programează meticulos manual și coregrafiază mișcările a roboților din videoclipurile lor. Aceasta este o abordare puternică, iar echipa Boston Dynamics a făcut lucruri incredibile cu ea.

În situațiile din lumea reală, totuși, roboții trebuie să fie robusti și rezistenți. Ei trebuie să se ocupe în mod regulat de neașteptate și nicio coregrafie nu va fi de folos. Acesta este modul în care, se speră, învățarea automată poate ajuta.

Învățarea prin întărire a fost exploatată cel mai faimos de DeepMind de la Alphabet pentru a antrena algoritmi care bate oamenii la unele dintre cele mai dificile jocuri. Simplist, este modelat după modul în care învățăm. Atinge aragazul, arde-te, nu mai atinge blestemul; spune te rog, ia un jeleu, cere politicos altul.

În cazul lui Cassie, echipa Berkeley a folosit învățarea prin întărire pentru a antrena un algoritm care să meargă într-o simulare. Nu este primul AI care învață să meargă în acest fel. Dar trecerea de la simulare la lumea reală nu se traduce întotdeauna.

Diferențele subtile dintre cei doi pot (literal) să declanșeze un robot în curs de dezvoltare în timp ce își încearcă abilitățile sim pentru prima dată.

Pentru a depăși această provocare, cercetătorii au folosit două simulări în loc de una. Prima simulare, un mediu de antrenament open source numit MuJoCo, a fost în cazul în care algoritmul a folosit o bibliotecă mare de mișcări posibile și, prin încercare și eroare, a învățat să le aplice. A doua simulare, numită Matlab SimMechanics, a servit ca un teren de testare cu mize mici, care se potrivea mai precis cu condițiile din lumea reală.

Odată ce algoritmul a fost suficient de bun, a trecut la Cassie.

Și uimitor, nu a avut nevoie de lustruire suplimentară. Spuse altfel, când s-a născut în lumea fizică – știa să meargă foarte bine. În plus, era și destul de robust. Cercetătorii scriu că două motoare din genunchiul lui Cassie au funcționat defectuos în timpul experimentului, dar robotul a reușit să se ajusteze și să continue transportul.

Alte laboratoare au lucrat din greu pentru a aplica învățarea automată la robotică.

Anul trecut a folosit Google învățare prin întărire să antreneze un robot cu patru picioare (mai simplu). Și OpenAI l-a folosit cu brațe robotizate. Boston Dynamics, de asemenea, va explora probabil modalități să-și sporească roboții cu învățare automată. Abordări noi—cum ar fi acesta care vizează antrenarea roboţilor multi-calificaţi sau acesta oferind învățare continuă dincolo de formare — poate, de asemenea, să miște cadranul. Cu toate acestea, este încă devreme și nu se știe când învățarea automată va depăși metodele mai tradiționale.

Și între timp, roboții Boston Dynamics sunt testarea apelor comerciale.

Totuși, cercetătorii în robotică, care nu au făcut parte din echipa Berkeley, cred că abordarea este promițătoare. Edward Johns, șeful Laboratorului de învățare a roboților din Imperial College London, a spus MIT Technology Review, „Acesta este unul dintre cele mai de succes exemple pe care le-am văzut.”

Echipa Berkeley speră să se bazeze pe acest succes încercând „comportamente mai dinamice și mai agile”. Deci, ar putea un autodidact parkour-Cassie să se îndrepte spre noi? Vom vedea.

Credit imagine: Universitatea din California Berkeley Hybrid Robotics prin YouTube

Sursa: https://singularityhub.com/2021/04/11/this-robot-taught-itself-to-walk-in-a-simulation-then-went-for-a-stroll-in-berkeley/

Timestamp-ul:

Mai mult de la Singularity Hub