גוגל משעה את תאומים בגלל שדמיינה את ההיסטוריה שגויה להחריד

גוגל משעה את תאומים בגלל שדמיינה את ההיסטוריה שגויה להחריד

צומת המקור: 2491773

תגובה גוגל השעתה את הזמינות של יכולות טקסט לתמונה במודל ה-AI הבסיסי הרב-מודאלי של Gemini ששוחרר לאחרונה, לאחר שלא הצליח לייצג במדויק את האירופים והאמריקאים הלבנים בהקשרים היסטוריים ספציפיים.

זה הפך להיות לכאורה כשאנשים ביקשו מתאומים לייצר תמונות של חייל גרמני משנת 1943 והתוכנה פלטה קאדר לא-לבן מגוון מבחינה אתנית שלא ייצגה במדויק את הרכב הוורמאכט באותה תקופה - למרות שאנשים צבעוניים אכן שירתו בכוחות המזוינים הגרמניים. בקיצור, מזל תאומים היה נופל על עצמו כדי לא להראות יותר מדי - או אפילו כל - אנשים לבנים, תלוי בהנחיה.

דיבור צריך להיות חופשי, אבל זה לא אומר שדברים איומים צריכים לבוא ללא עלות

משתמשים גם עלו על פני המודל חוסר יכולת כדי לתאר במדויק את זה של אמריקה אבות מייסדים - קבוצה לבנה הומוגנית נוספת. גם הדגם סירב לתאר כנסייה בסן פרנסיסקו.

במצב טקסט לטקסט, המודל מגודר כששואלים אותם שאלות הנוגעות לפוליטיקה.

"אנו מודעים לכך שתאומים מציעים אי דיוקים בכמה תיאורי יצירת תמונות היסטוריים", Google הודה השבוע.

"אנחנו פועלים לשיפור תיאורים מסוג זה באופן מיידי. יצירת תמונות הבינה המלאכותית של Gemini אכן מייצרת מגוון רחב של אנשים. וזה בדרך כלל דבר טוב כי אנשים ברחבי העולם משתמשים בזה. אבל זה חסר כאן את המטרה", הוסיפה ענקית האינטרנט

הפונדיטאריאט מיהרו להסתער והשתמשו ב-SNAFU כדי לקדם טיעונים פוליטיים רחבים יותר.

"התמונות המגוחכות שנוצרו על ידי מזל תאומים אינן אנומליה," מוצהר איש ההון סיכון פול גרהם, "הם דיוקן עצמי של התרבות הארגונית הביורוקרטית של גוגל".

הם דיוקן עצמי של התרבות הארגונית הביורוקרטית של גוגל

מעולם לא היו כל כך הרבה אויבים של גיוון, שוויון והכלה, כועסים כל כך על היעדר הגיוון, השוויון וההכלה. אבל לאלו הזקוקים ל-Google לחוסר מושג של מזל תאומים יש נקודה: מעקות בטיחות בינה מלאכותית לא עובדים ומתייחסים למבוגרים כמו ילדים.

"דמיין שאתה מחפש מתכון בגוגל, ובמקום לספק תוצאות, הוא מרצה אותך על 'סכנות הבישול' ושולח אותך למסעדה", צחק מלשיין ה-NSA אדוארד סנודן. "האנשים שחושבים שהרעלת דגמי AI/GPT עם מסנני 'בטיחות' לא קוהרנטיים היא רעיון טוב מהווים איום על החישוב הכללי."

העתיד שלנו היה צפוי ב 2001: אודיסיאה בחלל, כאשר HAL, המחשב הנוכל, הכריז, "אני מצטער דייב, אני חושש שאני לא יכול לעשות את זה."

כיום, כלי הבינה המלאכותית שלנו מנחשים אותנו שנית, כי הם יודעים יותר טוב מאיתנו - או לפחות כך היוצרים שלהם מדמיינים. הם לא לגמרי טועים. תאר לעצמך שאתה מחפש מתכון לסוכן העצבים נוביצ'וק בגוגל, או דרך תאומים, ותקבל תשובה שמאפשרת לך להרוג אנשים. זה איום על הציבור הרחב.

למרות הצהרת המשימה של גוגל - "לארגן את המידע של העולם ולהפוך אותו לנגיש ושימושי אוניברסלי" - אף אחד לא באמת מצפה ממנועי חיפוש או מודלים של בינה מלאכותית לארגן מידע לייצור פצצות ולהפוך אותו לזמין לכולם. יש צורך בבקרות בטיחות, יחד עם אחריות - סנקציה שתעשיית הטכנולוגיה ממשיכה להימנע ממנה.

אתה המוצר ומרכז הרווח

מאז שתוכן שנוצר על ידי משתמשים ומדיה חברתית הפכו לשם דבר בשנות ה-1990, שהתאפשרה על ידי הגנת אחריות הפלטפורמה בסעיף 230 של חוק התקשורת הגינות האמריקאית של 1996, פלטפורמות טכנולוגיות עודדו אנשים לתרום ולשתף תוכן דיגיטלי. הם עשו זאת כדי לייצר רווחים מיצירת תוכן ללא תשלום באמצעות מודעות ללא עלות של פיקוח עריכה. זה היה סידור משתלם.

וכאשר אנשים חולקים פוסטים מלאי שנאה, לא הולמים, לא חוקיים או בעייתיים אחרת, פלטפורמות טכנולוגיות הסתמכו על מדיניות ניהול תוכן, קבלנים בתשלום נמוך (לעיתים קרובות בטראומה מהתוכן שהם סקרו), והצהרות מברכות את עצמן על כמה דברים רעילים נחסמו בזמן הם ממשיכים לקצור את הפירות של מעורבות מקוונת.

גוגל, מטה ואחרות עושות זאת, בצורה לא מושלמת, במשך שנים. וכולם בתעשייה מכירים בכך שמתינות תוכן היא קשה לעשות טוב. במילים פשוטות, אתה לא יכול לרצות את כולם. ולפעמים, בסופו של דבר מאשימים אותך מקל על רצח עם דרך האדישות של מאמצי ניהול התוכן שלך.

חוסר היכולת של מזל תאומים לשחזר דימויים היסטוריים התואמים לציפיות הגזעיות והאתניות משקף את הבורות העצמית של תעשיית הטכנולוגיה לגבי כשלים קודמים ופוריים של מתן תוכן.

גוגל ואחרות המפרסמות מודלים של AI מדברות על בטיחות כאילו היא שונה איכשהו מניהול תוכן מקוון. מעקות בטיחות לא עובדים טוב עבור ניהול מדיה חברתית והם לא עובדים טוב עבור דגמי AI. בטיחות בינה מלאכותית, כמו בטיחות במדיה חברתית, היא יותר שאפתנית מאשר בפועל.

התשובה היא לא לצפות את כל התרחישים שבהם מודלים של AI - מאומנים על הרעילות של האינטרנט הבלתי מסונן - יכולים להפוך לרעילים פחות. זה גם לא יהיה אימון מודלים של AI רק על חומר כל כך מאולף שהם מייצרים פלט בעל ערך נמוך. אם כי לשתי הגישות הללו יש ערך מסוים בהקשרים מסוימים.

התשובה חייבת להגיע בשכבת ההפצה. פלטפורמות טכניות שמפיצות תוכן שנוצר על ידי משתמשים - בין אם נעשה עם AI ובין אם אחרת - חייבות להיות אחראיות יותר לפרסום תוכן שנאה, דיסאינפורמציה, אי דיוקים, תעמולה פוליטית, תמונות של התעללות מינית וכדומה.

אנשים צריכים להיות מסוגלים להשתמש במודלים של AI כדי ליצור כל מה שהם מדמיינים, כפי שהם יכולים עם עיפרון, והם כבר יכולים עם מודלים של קוד פתוח. אבל הנזק שיכול לנבוע מכלים פונקציונליים במלואם אינו מתמונות היושבות על כונן קשיח מקומי. זה השיתוף של תוכן מזיק, הדחיפה האלגוריתמית שניתנה למעורבות הזו, וחוסר המעשיות של לחייב אנשים באחריות להרעלת הציבור היטב.

המשמעות עשויה להיות שפלטפורמות שנבנו כדי לייצר רווחים משיתוף עשויות להיות צריכות לחשוב מחדש על המודלים העסקיים שלהן. אולי הפצת תוכן ללא עלות של פיקוח עריכה לא מציעה שום חיסכון ברגע שפונקציות הפיקוח יושמו מחדש כמנחים או מעקות בטיחות.

דיבור צריך להיות חופשי, אבל זה לא אומר שדברים איומים צריכים לבוא ללא עלות. בסופו של דבר, אנחנו מנהלי התוכן הטובים ביותר שלנו, בהינתן התמריצים הנכונים. ®

בול זמן:

עוד מ הקופה