Denne robot lærte sig selv at gå i en simulering - gik derefter en tur i Berkeley

Kildeknude: 807787

For nylig, i et Berkeley-laboratorium, en robot kaldet Cassie lærte sig selv at gå, lidt ligesom et lille barn kan. Gennem forsøg og fejl lærte den at bevæge sig i en simuleret verden. Derefter sendte dens handlere den til at slentre gennem et minefelt af tests fra den virkelige verden for at se, hvordan den ville klare sig.

Og som det viser sig, klarede det sig ret godt. Uden yderligere finjustering var robotten – som dybest set kun er et par ben – i stand til at gå i alle retninger, sætte sig på hug, mens den gik, rette sig selv, når den blev skubbet ud af balance, og tilpasse sig forskellige slags overflader.

Det er første gang, en maskinlæringstilgang kendt som forstærkningslæring er blevet anvendt så vellykket i to-benede robotter.

Dette er sandsynligvis ikke den første robotvideo, du har set, og heller ikke den mest polerede.

I årevis har internettet været betaget af videoer af robotter, der gør langt mere end at gå og genvinde balancen. Alt det er bordindsats i disse dage. Boston Dynamics, sværvægtsmesteren inden for robotvideoer, udgiver jævnligt forbløffende optagelser af robotter, der laver parkour, vender tilbageog komplekse danserutiner. Til tider kan det virke verden af iRobot er lige rundt om hjørnet.

Denne følelse af ærefrygt er velfortjent. Boston Dynamics er en af ​​verdens førende producenter af avancerede robotter.

Men det skal de stadig minutiøst håndprogrammere og koreografere satserne af robotterne i deres videoer. Dette er en kraftfuld tilgang, og Boston Dynamics-teamet har gjort utrolige ting med det.

I virkelige situationer skal robotter dog være robuste og modstandsdygtige. De skal regelmæssigt beskæftige sig med det uventede, og ingen koreografi duer. Det er, forhåbentlig, hvordan maskinlæring kan hjælpe.

Forstærkende læring er mest berømt blevet udnyttet af Alphabets DeepMind til at træne algoritmer tæske mennesker ved nogle af de sværeste spil. Forenklet er det baseret på den måde, vi lærer på. Rør ved komfuret, bliv brændt, rør ikke ved det forbandede igen; sig venligst, få en jelly bean, bed høfligt om en anden.

I Cassies tilfælde brugte Berkeley-holdet forstærkningslæring til at træne en algoritme til at gå i en simulering. Det er ikke den første AI, der lærer at gå på denne måde. Men at gå fra simulering til den virkelige verden oversætter ikke altid.

Subtile forskelle mellem de to kan (bogstaveligt talt) slå en spæd robot i fare, når den prøver sine sim-færdigheder for første gang.

For at overvinde denne udfordring brugte forskerne to simuleringer i stedet for én. Den første simulering, et open source træningsmiljø kaldet MuJoCo, var hvor algoritmen trak på et stort bibliotek af mulige bevægelser og gennem forsøg og fejl lærte at anvende dem. Den anden simulering, kaldet Matlab SimMechanics, tjente som et testområde med lav indsats, der mere præcist matchede virkelige forhold.

Da algoritmen var god nok, blev den uddannet til Cassie.

Og utroligt nok behøvede den ikke yderligere polering. Sagt på en anden måde, da den blev født ind i den fysiske verden - den vidste, hvordan den skulle gå fint. Derudover var den også ret robust. Forskerne skriver, at to motorer i Cassies knæ fejlede under eksperimentet, men robotten var i stand til at justere og fortsætte med at køre med lastbil.

Andre laboratorier har arbejdet hårdt med at anvende maskinlæring til robotteknologi.

Sidste år brugte Google forstærkning at lære at træne en (enklere) firbenet robot. og OpenAI har brugt det med robotarme. Boston Dynamics vil sandsynligvis også udforske måder at gøre det på udvide deres robotter med maskinlæring. Nye tilgange – som denne rettet mod at træne multi-kyndige robotter eller denne tilbyder kontinuerlig læring ud over træning – kan også flytte urskiven. Det er dog tidligt endnu, og der er ingen at sige, hvornår maskinlæring vil overstige mere traditionelle metoder.

Og i mellemtiden er Boston Dynamics-bots test af kommercielle farvande.

Alligevel synes robotforskere, som ikke var en del af Berkeley-teamet, at tilgangen er lovende. Edward Johns, leder af Imperial College Londons Robot Learning Lab, fortalt MIT Technology Review, "Dette er et af de mest succesrige eksempler, jeg har set."

Berkeley-teamet håber at bygge videre på denne succes ved at prøve "mere dynamisk og smidig adfærd." Så kan en autodidakt parkour-Cassie være på vej til os? Vi får at se.

Billede Credit: University of California Berkeley Hybrid Robotics via YouTube

Kilde: https://singularityhub.com/2021/04/11/this-robot-taught-itself-to-walk-in-a-simulation-then-went-for-a-stroll-in-berkeley/

Tidsstempel:

Mere fra Singularitet Hub