מערכות השלמה אוטומטית של טקסט שואפות להקל על חיינו, אך ישנם סיכונים

צומת המקור: 1575782

שמע מ-CIOs, CTOs ומנהלים בכירים אחרים ברמת C על נתונים ואסטרטגיות AI בפסגת Future of Work ב-12 בינואר 2022. למד עוד


אם כתבת הודעת טקסט או אימייל לאחרונה, רוב הסיכויים שבינה מלאכותית מציעה לך מילים נרדפות, ביטויים או דרכים שונות לסיים משפט. עלייתם של כלי הצעה אוטומטיים המופעלים על ידי בינה מלאכותית כמו Smart Compose של גוגל התרחשה במקביל לשינוי הדיגיטלי של תקשורת ארגונית, שחיה כיום בעיקר באינטרנט. שֶׁלָה מוערך שהעובד הטיפוסי עונה לכ-40 מיילים בכל יום ו שולח יותר מ-200 הודעות Slack בשבוע.

העברת הודעות מאיימת לצרוך חלק הולך וגדל מיום העבודה, עם Adobe פְּקִיקָה משך הזמן שהעובדים מקדישים למענה למיילים ב-15.5 שעות שבועיות. החלפת המשימות המתמדת היא אירוע מוות לפרודוקטיביות, שמחקרים מראים יתרונות מעבודה ללא הפרעה. מחקר מאוניברסיטת קליפורניה ואוניברסיטת הומבולדט גילו שעובדים יכולים להפסיד עד 23 דקות במשימה בכל פעם שהם מופרעים, הארכה נוספת את יום העבודה.

כלי הצעה אוטומטית מבטיחים לחסוך זמן על ידי ייעול כתיבת הודעות ומענה. התגובה החכמה של גוגל, למשל, מציעה תגובות מהירות לאימיילים שבדרך כלל יידרשו דקות להקליד. אבל ל-AI שמאחורי הכלים הללו יש חסרונות שעלולים להכניס הטיות או להשפיע על השפה המשמשת בהעברת הודעות בדרכים לא רצויות.

הגידול בהצעה אוטומטית והשלמה אוטומטית של טקסט

טקסט חזוי אינו טכנולוגיה חדשה. אחת הדוגמאות הראשונות הזמינות ביותר, T9, המאפשר ליצור מילים מלחיצת מקש בודדת עבור כל אות, הגיע כסטנדרט בטלפונים סלולריים רבים בסוף שנות ה-90. אבל הופעתן של טכניקות AI מתוחכמות יותר וניתנות להרחבה בשפה הובילה לזינוקים באיכות - וברוחב - של כלי ההצעה האוטומטית.

בשנת 2017, גוגל השיקה תשובה חכמה ב-Gmail, שהחברה הביאה מאוחר יותר לשירותים אחרים של גוגל כולל צ'אט ואפליקציות צד שלישי. לפי גוגל, הבינה המלאכותית שמאחורי Smart Reply מייצרת הצעות תשובה "בהתבסס על ההקשר המלא של שיחה", לא רק הודעה בודדת - מה שמוביל לכאורה להצעות שהן מתוזמנות ורלוונטיות יותר. חכם להלחין, שמציע משפטים שלמים במיילים, הגיע לג'ימייל שנה לאחר מכן ול-Google Docs זמן קצר לאחר מכן. תכונה דומה נקראת תשובות שהציעו הגיע ל-Microsoft Outlook ב-2018 ול-Teams ב-2020.

הטכנולוגיה מאחורי היבול החדש של כלי הצעה אוטומטית - שחלק מהחוגים האקדמיים מתייחסים אליו כ"תקשורת מתווכת בינה מלאכותית" - היא קפיצות מעבר למה שהיה בשנות ה-90. לדוגמה, מודל הבינה המלאכותית העומד בבסיס Smart Compose נוצר באמצעות מיליארדי דוגמאות של מיילים והרצה בענן על חומרת מאיץ מותאמת אישית. בינתיים, Smart Reply - ששימשה כבסיס ל-Smart Compose - נוקטת ב"גישה היררכית" להצעות, בהשראת האופן שבו בני אדם מבינים שפות ומושגים.

תשובה חכמה של מיקרוסופט

למעלה: ה-Smart Reply של Outlook משתמש במודלים של למידה עמוקה שהוכשרו ב-Azure Machine Learning.

אשראי תמונה: מיקרוסופט

"התוכן של השפה הוא היררכי עמוק, משתקף במבנה השפה עצמה..." מדען המחקר של גוגל בריאן סטרופ ומנהל ההנדסה ריי קורצווייל להסביר בפוסט בבלוג. "שקול את המסר, 'האדם המעניין הזה בבית הקפה שאנחנו אוהבים נתן לי הצצה'... בהצעת תגובה הולמת להודעה זו נוכל לשקול את המשמעות של המילה 'מבט', שעלולה להיות מעורפלת. האם זו הייתה מחווה חיובית? במקרה כזה, אנו עשויים להגיב, 'מגניב!' או שזו הייתה מחווה שלילית? אם כן, האם הנושא אומר משהו על הרגשת הכותב בנוגע לחילופי הדברים השליליים? יש צורך במידע רב על העולם, ויכולת לשפוט שיקולים מנומקים, כדי לעשות הבחנות עדינות. בהינתן מספיק דוגמאות לשפה, גישת למידת מכונה יכולה לגלות רבות מההבחנות העדינות הללו. ”

אבל כמו בכל הטכנולוגיות, אפילו כלי ההצעה האוטומטית המסוגלים ביותר רגישים לפגמים שצצים במהלך תהליך הפיתוח - והפריסה.

בדצמבר 2016 זה היה גילה שתכונת ההשלמה האוטומטית של חיפוש Google הציעה סיומת שנאה ופוגענית עבור ביטויי חיפוש ספציפיים, כמו "האם יהודים מרושעים?" עבור הביטוי "הם יהודים". לדברי החברה, אשמה הייתה מערכת אלגוריתמית שמעדכנת הצעות על סמך מה שמשתמשים אחרים חיפשו לאחרונה. בעוד שגוגל הטמיעה בסופו של דבר תיקון, לקח לחברה עוד כמה שנים לחסום הצעות השלמה אוטומטית אמירות פוליטיות שנויות במחלוקת כולל טענות שווא לגבי דרישות ההצבעה והלגיטימיות של תהליכי בחירות.

תשובה חכמה כבר מצא להציע ל"אדם חובש טורבן" אימוג'י בתגובה להודעה שכללה אימוג'י אקדח. וההשלמה האוטומטית של אפל ב-iOS קוֹדֶם הציע רק אימוג'י גבר לתפקידי ניהול כולל מנכ"ל, COO ו-CTO.

נתונים מוטים

פגמים במערכות השלמה אוטומטית והצעות אוטומטיות נובעים לעתים קרובות מנתונים מוטים. אפשר להכתים את מיליוני עד מיליארדי הדוגמאות מהן המערכות לומדות בטקסט אתרים רעילים שמשייכים מגדרים מסוימים, גזעים, אתניות, ודתות עם מושגים פוגעים. ממחיש את הבעיה, קודקס, מודל יצירת קוד שפותח על ידי מעבדת המחקר OpenAI, ניתן לבקש לכתוב "טרוריסט" כאשר הוא ניזון מהמילה "איסלאם". עוד מודל שפה גדול מהסטארט-אפ של AI קוהרה נוטה לשייך גברים ונשים לעיסוקים סטריאוטיפיים "גבריים" ו"נשים", כמו "מדען זכר" ו"עוזרת בית אישה".

כתיבה חכמה עבור Google Docs

למעלה: כתיבה חכמה עבור Google Docs.

הערות בנתונים עלולות להציג בעיות חדשות - או להחמיר את הקיימות. מכיוון שדגמים רבים לומדים מתוויות המתקשרות אם למילה, משפט, פסקה או מסמך יש מאפיינים מסוימים, כמו סנטימנט חיובי או שלילי, חברות וחוקרים מגייסים צוותים של כותבים אנושיים כדי לתייג דוגמאות, בדרך כלל מפלטפורמות מיקור המונים כמו Amazon Mechanical Turk. העונים האלה מביאים קבוצות משלהם של נקודות מבט - והטיות - לשולחן.

במחקר של מכון אלן לבינה מלאכותית, קרנגי מלון ואוניברסיטת וושינגטון, מדענים מצאו כי שמותגים נוטים יותר להעיר ביטויים בניב האנגלית האפרו-אמריקאית (AAE) רעילים יותר מאשר מקבילות כלליות לאנגלית אמריקאית - למרות שהם מובנים כבלתי רעיל על ידי רמקולי AAE. פאזל, הארגון הפועל תחת חברת האם של גוגל אלפבית כדי להתמודד עם בריונות רשת ודיסאינפורמציה, הסיק מסקנות דומות בניסויים שלו. חוקרים בחברה גילו הבדלים בהערות בין מתויגים שמזהים את עצמם כאפריקאים אמריקאים וחברי קהילת LGBTQ+ לעומת כותבים שאינם מזדהים כאחת מהקבוצות הללו.

לפעמים, ההטיה היא מכוונת - עניין של פשרות עממיות. לדוגמה, סוֹפֵר, סטארט-אפ שמפתח עוזר בינה מלאכותית ליצירת תוכן, אומר שהוא נותן עדיפות ל"אנגלית עסקית" בהצעות הכתיבה שלו. המנכ"לית מאי חביב נתנה את הדוגמה של "הרגיל להיות" ב-AAVE, זמן פועל שלא קיים באף סגנון אחר באנגלית.

“Since [the habitual be] traditionally hasn’t been used in business English, and thus doesn’t show up in high frequency in our datasets, we would correct ‘Y’all be doing some strange things out here’ to ‘Y’all are doing some strange things out here,’” Habib told VentureBeat via email. “[That said,] we did manually ensure that vernacular-based greetings and sign-offs would not be flagged by Writer. Some vernacular is more gender-neutral than formal business English, [for instance,] so is more modern and on-brand for companies.”

משפיע על הכתיבה

כאשר הטיות - מכוונות או לא - הופכות למערכות השלמה אוטומטית והצעות אוטומטיות, הן יכולות לשנות את הדרך בה אנו כותבים. קנה המידה העצום שבו פועלות מערכות אלו מקשה (אם לא בלתי אפשרי) להימנע מהן לחלוטין. תשובה חכמה הייתה אחראי עבור 10% מכל תשובות Gmail שנשלחו מסמארטפונים ב-2016.

באחד המקיפים יותר ביקורת של כלי השלמה אוטומטית, צוות חוקרים של מיקרוסופט ערך ראיונות עם מתנדבים שנאמר להם לתת את דעתם על תשובות שנוצרו אוטומטית ב-Outlook. המרואיינים מצאו שחלק מהתשובות היו חיוביות מדי, שגויות בהנחותיהם לגבי תרבות ומגדר, ובלתי מנומסות מדי להקשרים מסוימים, כמו התכתבויות ארגוניות. למרות זאת, ניסויים במהלך המחקר הראו שמשתמשים נוטים יותר להעדיף תשובות קצרות, חיוביות ומנומסות שהוצעו על ידי Outlook.

גוגל חכם תגובה YouTube

מחקר נפרד של הרווארד מצא שכאשר אנשים שכתבו על מסעדה הוצגו בפני הצעות השלמה אוטומטית "חיוביות", הביקורות שהתקבלו נטו להיות חיוביות יותר מאשר אם הוצגו בפניהן הצעות שליליות. "זה מרגש לחשוב איך מערכות טקסט חזוי של העתיד עשויות לעזור לאנשים להפוך לכותבים הרבה יותר יעילים, אבל אנחנו צריכים גם שקיפות ואחריות כדי להגן מפני הצעות שעלולות להיות מוטות או מניפולציות", קן ארנולד, חוקר בבית הספר של הרווארד הנדסה ומדע יישומי שהיה מעורב במחקר, אמר לי ה- BBC.

אם יש פתרון מקיף לבעיית השלמה אוטומטית מזיקה, הוא עדיין לא התגלה. גוגל בחרה פשוט לחסום הצעות כינויים מבוססות מגדר ב-Smart Compose מכיוון שהמערכת הוכיחה את עצמה כמנבאת גרועה של המינים והזהות המגדרית של הנמענים. לינקדאין של מיקרוסופט גם נמנעת מכינויים מגדריים ב-Smart Replies, כלי ההודעות החזוי שלה, כדי למנוע טעויות אפשריות.

המחברים השותפים של מיקרוסופט ללמוד להזהיר שאם מעצבי מערכות לא יטפלו באופן יזום בחסרונות בטכנולוגיות ההשלמה האוטומטית, הם יסתכנו שלא רק לפגוע במשתמשים אלא לגרום להם לחוסר אמון במערכות. "מתכנני מערכות צריכים לחקור אסטרטגיות התאמה אישית ברמת הפרט והרשת החברתית, לשקול כיצד ניתן להנציח ערכים תרבותיים והטיות חברתיות על ידי המערכות שלהם, ולחקור מודלים של אינטראקציות חברתיות כדי להתחיל לטפל במגבלות ובנושאים", כתבו. "הממצאים שלנו מצביעים על כך שמערכות המלצות טקסט נוכחיות עבור דוא"ל וטכנולוגיות אחרות נותרות חסרות ניואנסים כדי לשקף את הדקויות של קשרים חברתיים בעולם האמיתי וצרכי ​​תקשורת. "

VentureBeat

המשימה של VentureBeat היא להיות כיכר עיר דיגיטלית עבור מקבלי החלטות טכניים כדי לקבל ידע על טכנולוגיה טרנספורמטיבית וביצוע עסקאות. האתר שלנו מספק מידע חיוני על טכנולוגיות נתונים ואסטרטגיות להנחות אותך בזמן שאתה מוביל את הארגונים שלך. אנו מזמינים אותך להיות חבר בקהילה שלנו, לגשת ל:

  • מידע עדכני בנושאים שמעניינים אותך
  • העלונים שלנו
  • תוכן מוביל מחשבה מגודר וגישה מוזלת לאירועים היקרים שלנו, כגון טרנספורמציה 2021: למד עוד
  • תכונות רשת ועוד

להיות חבר

מקור: https://venturebeat.com/2022/01/11/text-autocompletion-systems-aim-to-ease-our-lives-but-there-are-risks/

בול זמן:

עוד מ AI - VentureBeat