חוקרי מטה בונים AI שלומד באותה מידה מחומרים חזותיים, כתובים או מדוברים

צומת המקור: 1590449

התקדמות בתחום הבינה המלאכותית יוצאות כל הזמן החוצה, אבל הן נוטות להיות מוגבלות לתחום אחד: למשל, שיטה חדשה ומגניבה להפקת דיבור סינתטי אינה גם דרך לזהות הבעות על פני אדם. חוקרי Meta (AKA Facebook) עובדים על משהו קצת יותר תכליתי: AI שיכול ללמוד בכוחות עצמו בין אם הוא עושה זאת בחומרים מדוברים, כתובים או חזותיים.

הדרך המסורתית לאמן מודל AI לפרש נכון משהו היא לתת לו המון המון (כמו מיליוני) דוגמאות מסומנות. תמונה של חתול עם התווית של חלק החתול, שיחה עם הדוברים והמילים מתומללות וכו'. אבל הגישה הזו כבר לא באופנה מכיוון שחוקרים גילו שלא ניתן עוד ליצור ידנית מאגרי מידע בגדלים הדרושים לאימון הבא AIs מהדור. מי רוצה לתייג 50 מיליון תמונות חתולים? אוקיי, כמה אנשים כנראה - אבל מי רוצה לתייג 50 מיליון תמונות של פירות וירקות נפוצים?

נכון לעכשיו, כמה ממערכות הבינה המלאכותית המבטיחות ביותר הן מה שנקרא בפיקוח עצמי: מודלים שיכולים לעבוד מכמויות גדולות של נתונים ללא תווית, כמו ספרים או וידאו של אנשים המקיימים אינטראקציה, ולבנות הבנה מובנית משלהם לגבי החוקים של המערכת. לדוגמה, על ידי קריאת אלף ספרים הוא ילמד את המיקומים היחסיים של מילים ורעיונות לגבי מבנה דקדוקי מבלי שאף אחד יגיד לו מהם חפצים או מאמרים או פסיקים - הוא השיג זאת על ידי הסקת מסקנות מהרבה דוגמאות.

זה מרגיש אינטואיטיבי יותר כמו איך אנשים לומדים, וזה חלק מהסיבה שהחוקרים אוהבים את זה. אבל המודלים עדיין נוטים להיות חד-מודאליים, וכל העבודה שאתה עושה כדי להקים מערכת למידה מפוקחת למחצה לזיהוי דיבור לא תחול כלל על ניתוח תמונה - הם פשוט שונים מדי. זה המקום שבו המחקר האחרון של Facebook/Meta, ה-data2vec בעל השם הקליע, מגיע ב.

הרעיון של data2vec היה לבנות מסגרת בינה מלאכותית שתלמד בצורה מופשטת יותר, כלומר החל מאפס, אתה יכול לתת לה ספרים לקריאה או תמונות לסרוק או דיבור להשמע, ואחרי קצת אימון ללמוד כל אחד מהדברים האלה. זה קצת כמו להתחיל עם זרע בודד, אבל תלוי איזה מזון צמחי אתה נותן לו, הוא גדל לנרקיס, אמנון או צבעוני.

בדיקת data2vec לאחר שנתנה לו להתאמן על מידע קורפי שונים הראתה שהוא תחרותי עם מודלים ייעודיים בגודל דומה עבור המודל הזה ואף עלה על ביצועיהם. (כלומר, אם כל הדגמים מוגבלים לנפח של 100 מגה-בייט, data2vec הצליחה יותר - דגמים מיוחדים כנראה עדיין ישיגו ביצועים טובים יותר ככל שיגדלו).

"הרעיון המרכזי של גישה זו הוא ללמוד באופן כללי יותר: בינה מלאכותית אמורה להיות מסוגלת ללמוד לבצע משימות רבות ושונות, כולל אלה שאינן מוכרות לחלוטין." כתב הצוות בפוסט בבלוג. "אנחנו גם מקווים ש-data2vec יקרב אותנו לעולם שבו מחשבים זקוקים למעט מאוד נתונים מסומנים כדי לבצע משימות."

"אנשים חווים את העולם באמצעות שילוב של ראייה, צליל ומילים, ומערכות כאלה יוכלו יום אחד להבין את העולם כמונו", אמר המנכ"ל מארק צוקרברג על המחקר.

זה עדיין מחקר בשלבים מוקדמים, אז אל תצפה ש"בינה מלאכותית כללית" האגדית יופיע פתאום - אבל קיים AI שיש לו מבנה למידה כללי שעובד עם מגוון תחומים וסוגי נתונים נראה כמו מוצר טוב יותר, פתרון אלגנטי יותר מהקבוצה המפוצלת של מיקרו-אינטליגנציות שאנו מסתדרים איתם היום.

הקוד עבור data2vec הוא קוד פתוח; זה וכמה דגמים שהוכשרו מראש זמינים כאן.

מקור: https://techcrunch.com/2022/01/20/meta-researchers-build-an-ai-that-learns-equally-well-from-visual-written-or-spoken-materials/

בול זמן:

עוד מ Techcrunch