Meta araştırmacıları, görsel, yazılı veya sözlü materyallerden eşit derecede iyi öğrenen bir yapay zeka oluşturur

Kaynak Düğüm: 1590449

Yapay zeka alanındaki gelişmeler sürekli olarak ortaya çıkıyor, ancak bunlar tek bir alanla sınırlı olma eğiliminde: Örneğin, sentetik konuşma üretmek için harika ve yeni bir yöntem değil. Ayrıca insan yüzlerindeki ifadeleri tanımanın bir yolu. Meta (AKA Facebook) araştırmacıları biraz daha çok yönlü bir şey üzerinde çalışıyorlar: sözlü, yazılı veya görsel materyallerde kendi kendine yetenekli bir şekilde öğrenebilen bir yapay zeka.

Bir yapay zeka modelini bir şeyi doğru şekilde yorumlaması için eğitmenin geleneksel yolu, ona çok sayıda (milyonlarca gibi) etiketli örnek vermektir. Kedi kısmı etiketlenmiş bir kedi resmi, konuşmacılarla bir konuşma ve yazıya dökülmüş kelimeler vb. -gen AI'lar. Kim 50 milyon kedi resmini etiketlemek ister? Tamam, muhtemelen birkaç kişi - ama kim 50 milyon yaygın meyve ve sebze resmini etiketlemek ister?

Şu anda en umut verici yapay zeka sistemlerinden bazıları, kendi kendini denetleme olarak adlandırılan sistemlerdir: Etkileşen insanların kitapları veya videoları gibi büyük miktarlarda etiketlenmemiş verilerden çalışabilen ve sistemin kurallarının ne olduğuna dair kendi yapılandırılmış anlayışlarını oluşturan modeller. Örneğin, bin kitap okuyarak, kimse ona nesnelerin, makalelerin veya virgüllerin ne olduğunu söylemeden dilbilgisi yapısıyla ilgili kelimelerin ve fikirlerin göreli konumlarını öğrenecek - bunu birçok örnekten çıkarımlar yaparak elde etti.

Bu, sezgisel olarak daha çok insanların nasıl öğrendiği gibi hissettiriyor, araştırmacıların bundan hoşlanmasının bir parçası da bu. Ancak modeller hala tek modlu olma eğilimindedir ve konuşma tanıma için yarı denetimli bir öğrenme sistemi kurmak için yaptığınız tüm çalışmalar, görüntü analizi için hiç geçerli olmayacaktır - bunlar çok farklıdır. İşte Facebook/Meta'nın son araştırması, akılda kalıcı bir şekilde adlandırılmış data2vec, içeri gelir.

data2vec fikri, daha soyut bir şekilde öğrenecek bir AI çerçevesi oluşturmaktı, yani sıfırdan başlayarak ona okuması için kitaplar, taraması için resimler veya seslendirmesi için konuşmalar verebilirsiniz ve biraz eğitimden sonra bunlardan herhangi birini öğrenin. Bu biraz tek bir tohumla başlamak gibi ama ona hangi bitki besini verirseniz ona göre büyüyerek nergis, hercai menekşe veya lale olur.

Data2vec'in çeşitli veri korpileri üzerinde çalışmasına izin verdikten sonra test edilmesi, bu modalite için benzer boyuttaki ayrılmış modellerle rekabet ettiğini ve hatta onlardan daha iyi performans gösterdiğini gösterdi. (Yani, modellerin tümü 100 megabayt olmakla sınırlıysa, data2vec daha iyi sonuç verdi - özel modeller büyüdükçe muhtemelen ondan daha iyi performans gösterecektir.)

"Bu yaklaşımın ana fikri, daha genel olarak öğrenmektir: AI, tamamen alışılmadık olanlar da dahil olmak üzere birçok farklı görevi yapmayı öğrenebilmelidir." ekibi bir blog yazısında yazdı. "Ayrıca data2vec'in, bilgisayarların görevleri yerine getirmek için çok az etiketli veriye ihtiyaç duyduğu bir dünyaya bizi yaklaştıracağını umuyoruz."

CEO Mark Zuckerberg araştırmayla ilgili olarak, "İnsanlar dünyayı görüntü, ses ve kelimelerin bir kombinasyonuyla deneyimliyor ve bunun gibi sistemler bir gün dünyayı bizim anladığımız gibi anlayabilir" dedi.

Bu henüz erken bir araştırmadır, bu nedenle efsanevi "genel yapay zekanın" birdenbire ortaya çıkmasını beklemeyin — ancak çeşitli alanlar ve veri türleriyle çalışan genelleştirilmiş bir öğrenme yapısına sahip bir yapay zekaya sahip olmak daha iyi gibi görünüyor. bugün kullandığımız parçalanmış mikro zekalardan daha zarif bir çözüm.

data2vec kodu açık kaynaktır; o ve önceden eğitilmiş bazı modeller burada mevcuttur.

Kaynak: https://techcrunch.com/2022/01/20/meta-researchers-build-an-ai-that-learns-equally-well-from-visual-writing-or-spoken-materials/

Zaman Damgası:

Den fazla Techcrunch