Meta-tutkijat rakentavat tekoälyä, joka oppii yhtä hyvin visuaalisesta, kirjoitetusta tai puhutusta materiaalista

Lähdesolmu: 1590449

Tekoälymaailman edistysaskeleet tulevat jatkuvasti esiin, mutta ne rajoittuvat yleensä yhteen toimialueeseen: Esimerkiksi hieno uusi menetelmä synteettisen puheen tuottamiseen ei ole Myös tapa tunnistaa ilmeet ihmisten kasvoilla. Meta (AKA Facebook) tutkijat työskentelevät jotain hieman monipuolisempaa: tekoälyä, joka voi oppia itsenäisesti, tekeekö se niin puhutussa, kirjoitetussa tai visuaalisessa materiaalissa.

Perinteinen tapa kouluttaa tekoälymalli tulkitsemaan jotain oikein on antaa sille paljon ja paljon (kuten miljoonia) merkittyjä esimerkkejä. Kuva kissasta, jossa kissan osa on merkitty, keskustelu puhujien kanssa ja sanat litteroituina jne. Mutta tämä lähestymistapa ei ole enää muodissa, koska tutkijat havaitsivat, että ei enää ollut mahdollista luoda manuaalisesti seuraavan harjoittelun kokoisia tietokantoja -gen AIs. Kuka haluaa merkitä 50 miljoonaa kissakuvaa? Okei, muutama ihminen luultavasti – mutta kuka haluaa merkitä 50 miljoonaa kuvaa tavallisista hedelmistä ja vihanneksista?

Tällä hetkellä jotkin lupaavimmista tekoälyjärjestelmistä ovat niin sanottuja itsevalvottuja: malleja, jotka voivat työskennellä suurista määrittämättömästä datasta, kuten kirjoista tai videoista ihmisten vuorovaikutuksessa, ja rakentaa oman jäsennellyn käsityksensä järjestelmän säännöistä. Esimerkiksi lukemalla tuhat kirjaa se oppii sanojen ja ajatusten suhteelliset asemat kieliopin rakenteesta ilman, että kukaan kertoisi sille, mitä esineet tai artikkelit tai pilkut ovat – se sai sen tekemällä johtopäätöksiä monista esimerkeistä.

Tämä tuntuu intuitiivisesti enemmän ihmisten oppimiselta, mikä on osa sitä, miksi tutkijat pitävät siitä. Mutta mallit ovat edelleen yleensä yksimuotoisia, ja kaikki työ, jonka teet puheentunnistuksen puolivalvotun oppimisjärjestelmän perustamiseksi, ei sovellu kuva-analyysiin ollenkaan - ne ovat yksinkertaisesti liian erilaisia. Tästä löytyy Facebookin/Metan uusin tutkimus, tarttuvan nimen data2vec, tulee sisään.

Data2vecin ideana oli rakentaa tekoälykehys, joka oppisi abstraktimmalla tavalla, eli alusta alkaen voit antaa sille kirjoja luettavaksi tai kuvia skannattavaksi tai puhetta äänitettäväksi, ja pienen harjoittelun jälkeen se oppia mitään näistä asioista. Se on vähän kuin aloittaisi yhdestä siemenestä, mutta riippuen siitä, mitä kasviruokaa sille annat, siitä kasvaa narsissi, orvokki tai tulppaani.

Data2vec-testaus sen jälkeen, kun sen oli annettu harjoitella useilla datakorpeilla, osoitti, että se oli kilpailukykyinen ja jopa parempia kuin vastaavan kokoiset tälle muodolle omistetut mallit. (Toisin sanoen, jos kaikki mallit rajoittuvat 100 megatavuun, data2vec pärjäsi paremmin – erikoismallit olisivat todennäköisesti silti parempia kuin ne kasvavat.)

"Tämän lähestymistavan ydinajatus on oppia yleisemmin: tekoälyn pitäisi pystyä oppimaan tekemään monia erilaisia ​​tehtäviä, myös sellaisia, jotka ovat täysin tuntemattomia." kirjoitti tiimi blogikirjoituksessaan. "Toivomme myös data2vecin tuovan meidät lähemmäksi maailmaa, jossa tietokoneet tarvitsevat hyvin vähän merkittyä dataa tehtävien suorittamiseen."

"Ihmiset kokevat maailman näön, äänen ja sanojen yhdistelmän kautta, ja tällaiset järjestelmät voisivat jonain päivänä ymmärtää maailmaa niin kuin me teemme", kommentoi toimitusjohtaja Mark Zuckerberg tutkimusta.

Tämä on vielä varhaisen vaiheen tutkimusta, joten älä odota tarunomaisen "yleisen tekoälyn" ilmaantuvan yhtäkkiä – mutta tekoäly, jolla on yleinen oppimisrakenne, joka toimii useiden alojen ja tietotyyppien kanssa, näyttää paremmalta. tyylikkäämpi ratkaisu kuin nykypäivän hajanainen mikroälyvalikoima.

Data2vecin koodi on avoimen lähdekoodin; se ja joitain esikoulutettuja malleja ovat saatavilla täältä.

Lähde: https://techcrunch.com/2022/01/20/meta-researchers-build-an-ai-that-learns-equaly-well-from-visual-written-or-spoken-materials/

Aikaleima:

Lisää aiheesta TechCrunch