Denne roboten lærte seg å gå i en simulering - gikk deretter en tur i Berkeley

Kilde node: 807787

Nylig i et Berkeley-laboratorium, en robot som heter Cassie lærte seg å gå, litt som en smårolling kanskje. Gjennom prøving og feiling lærte den å bevege seg i en simulert verden. Så sendte håndtererne spasertur gjennom et minefelt av virkelige tester for å se hvordan det ville klare seg.

Og som det viser seg, gikk det ganske jævla bra. Uten videre finjustering, var roboten - som i utgangspunktet bare er et par ben - i stand til å gå i alle retninger, knebøye seg ned mens han gikk, rette seg selv når den ble presset ut av balanse, og tilpasse seg forskjellige typer overflater.

Det er første gang en maskinlæringsmetode, kjent som forsterkningslæring, blir brukt med suksess i tobente roboter.

Dette er sannsynligvis ikke den første robotvideoen du har sett, og heller ikke den mest polerte.

I årevis har internett blitt begeistret av videoer av roboter som gjør mye mer enn å gå og gjenvinne balansen. Alt som er bordpenger i disse dager. Boston Dynamics, den tunge mesteren av robotvideoer, slipper jevnlig imponerende opptak av roboter som gjør parkour, baklengs saltoog komplekse danserutiner. Noen ganger kan det virke som en verden av iRobot er rett rundt hjørnet.

Denne følelsen av ærefrykt er velfortjent. Boston Dynamics er en av verdens fremste produsenter av avanserte roboter.

Men det må de fortsatt omhyggelig håndprogram og koreografere bevegelsene av robotene i videoene deres. Dette er en kraftig tilnærming, og Boston Dynamics-teamet har gjort utrolige ting med det.

I virkelige situasjoner må imidlertid roboter være robuste og robuste. De må regelmessig håndtere det uventede, og ingen koreografi vil gjøre. Det er slik, det er håpet, maskinlæring kan hjelpe.

Forsterkningslæring er mest kjent utnyttet av Alfabetets DeepMind for å trene algoritmer som thrash mennesker på noen av de vanskeligste spillene. Forenklet er den modellert på den måten vi lærer. Berør komfyren, bli brent, ikke rør den forbaskede tingen igjen; si vær så snill, få en gelébønne, be høflig om en annen.

I Cassies tilfelle brukte Berkeley-teamet forsterkningslæring for å trene en algoritme til å gå i en simulering. Det er ikke den første AI som lærer å gå på denne måten. Men å gå fra simulering til den virkelige verden oversettes ikke alltid.

Subtile forskjeller mellom de to kan (bokstavelig talt) trekke opp en ny robot når den prøver ut sine sim-ferdigheter for første gang.

For å overvinne denne utfordringen brukte forskerne to simuleringer i stedet for en. Den første simuleringen, et treningsmiljø med åpen kildekode kalt MuJoCo, var der algoritmen trakk et stort bibliotek med mulige bevegelser og gjennom prøving og feiling lærte å bruke dem. Den andre simuleringen, kalt Matlab SimMechanics, fungerte som et testområde med lav innsats som mer presist samsvarte med forholdene i den virkelige verden.

Når algoritmen var god nok, ble den uteksaminert til Cassie.

Og utrolig nok trengte den ikke ytterligere polering. Sagt på en annen måte, da den ble født inn i den fysiske verden - den visste hvordan man skulle gå helt fint. I tillegg var den også ganske robust. Forskerne skriver at to motorer i Cassies kne fungerte dårlig under eksperimentet, men roboten var i stand til å justere og fortsette å kjøre.

Andre laboratorier har jobbet hardt med å bruke maskinlæring til robotikk.

I fjor brukte Google forsterkning læring å trene en (enklere) firbente robot. Og OpenAI har brukt den med robotarmer. Boston Dynamics vil også sannsynligvis utforske måter å øke roboter med maskinlæring. Nye tilnærminger - som dette rettet mot å trene multifaglige roboter eller dette tilby kontinuerlig læring utover trening - kan også flytte ratten. Det er imidlertid tidlig, og det er ikke noe å si når maskinlæring vil overstige mer tradisjonelle metoder.

Og i mellomtiden er Boston Dynamics-roboter det teste det kommersielle vannet.

Likevel mener robotikkforskere, som ikke var en del av Berkeley-teamet, at tilnærmingen er lovende. Edward Johns, leder av Imperial College Londons Robot Learning Lab, fortalte MIT Technology Review, "Dette er et av de mest vellykkede eksemplene jeg har sett."

Berkeley-teamet håper å bygge videre på suksessen ved å prøve "mer dynamisk og smidig oppførsel." Så kan en selvlært parkour-Cassie være på vei mot oss? Vi får se.

Bilde Credit: University of California Berkeley Hybrid Robotics via YouTube

Kilde: https://singularityhub.com/2021/04/11/this-robot-taught-itself-to-walk-in-a-simulation-then-went-for-a-stroll-in-berkeley/

Tidstempel:

Mer fra Singularity Hub