Meta raziskovalci gradijo AI, ki se enako dobro uči iz vizualnih, pisnih ali govorjenih materialov

Izvorno vozlišče: 1590449

Napredek na področju umetne inteligence se nenehno pojavlja, vendar je običajno omejen na eno domeno: kul nova metoda za ustvarjanje sintetičnega govora na primer ni Prav tako način prepoznavanja izrazov na človeških obrazih. Raziskovalci Meta (AKA Facebook) delajo na nečem nekoliko bolj vsestranskem: AI, ki se lahko sam uspešno uči, ne glede na to, ali to počne v govorjenem, pisnem ali vizualnem gradivu.

Tradicionalni način usposabljanja modela AI za pravilno razlago nečesa je, da mu damo veliko in veliko (na primer na milijone) označenih primerov. Slika mačke z označenim delom mačke, pogovor z govorci in prepisanimi besedami itd. Vendar ta pristop ni več v modi, saj so raziskovalci ugotovili, da ni več mogoče ročno ustvariti podatkovnih zbirk velikosti, potrebne za naslednje usposabljanje. -gen AI. Kdo želi označiti 50 milijonov mačjih slik? V redu, nekaj ljudi verjetno - toda kdo želi označiti 50 milijonov slik običajnega sadja in zelenjave?

Trenutno so nekateri najbolj obetavni sistemi umetne inteligence tako imenovani samonadzorovani: modeli, ki lahko delujejo na podlagi velikih količin neoznačenih podatkov, kot so knjige ali videoposnetki interakcij med ljudmi, in gradijo svoje lastno strukturirano razumevanje pravil sistema. Na primer, z branjem tisoč knjig se bo naučil relativnih položajev besed in idej o slovnični strukturi, ne da bi mu kdo povedal, kaj so predmeti, členki ali vejice - to je dobil tako, da je sklepal iz številnih primerov.

To se intuitivno zdi bolj podobno temu, kako se ljudje učijo, kar je del tega, zakaj je raziskovalcem všeč. Toda modeli so še vedno navadno enomodalni in vse delo, ki ga opravite za vzpostavitev delno nadzorovanega učnega sistema za prepoznavanje govora, sploh ne bo veljalo za analizo slike - preprosto so preveč različni. Tukaj je najnovejša raziskava Facebooka/Mete, privlačnega imena data2vec, vstopi.

Zamisel za data2vec je bila zgraditi okvir AI, ki bi se učil na bolj abstrakten način, kar pomeni, da bi mu lahko začeli od začetka, dali knjige za branje ali slike za skeniranje ali govor za zvok, in po nekaj usposabljanja bi naučite se katere od teh stvari. Podobno je, kot bi začeli z enim samim semenom, a odvisno od rastlinske hrane, ki jo daste, zraste v narcis, mačeho ali tulipan.

Preizkušanje data2vec po tem, ko smo ga pustili usposobiti na različnih zbirkah podatkov, je pokazalo, da je konkurenčen namenskim modelom podobne velikosti za to modalnost in da jih celo prekaša. (To pomeni, da če so vsi modeli omejeni na 100 megabajtov, se je data2vec odrezal bolje - specializirani modeli bi ga verjetno še vedno prekašali, ko bi rasli.)

"Osnovna ideja tega pristopa je učenje bolj na splošno: AI bi se moral naučiti opravljati veliko različnih nalog, vključno s tistimi, ki so popolnoma neznane," je ekipa zapisala v objavi na blogu. "Upamo tudi, da nas bo data2vec približal svetu, kjer računalniki potrebujejo zelo malo označenih podatkov, da lahko opravijo naloge."

"Ljudje doživljajo svet s kombinacijo vida, zvoka in besed in sistemi, kot je ta, bi lahko nekega dne razumeli svet tako, kot ga razumemo mi," je raziskavo komentiral izvršni direktor Mark Zuckerberg.

To je še vedno raziskava v zgodnji fazi, zato ne pričakujte, da se bo legendarni "splošni AI" pojavil kar naenkrat - toda imeti AI s splošno učno strukturo, ki deluje z različnimi domenami in vrstami podatkov, se zdi boljše, bolj elegantna rešitev kot razdrobljen nabor mikrointeligenc, s katerimi se srečujemo danes.

Koda za data2vec je odprtokodna; on in nekateri vnaprej pripravljeni modeli so na voljo tukaj.

Vir: https://techcrunch.com/2022/01/20/meta-researchers-build-an-ai-that-learns-equally-well-from-visual-written-or-spoken-materials/

Časovni žig:

Več od Techcrunch