סגירת הפער בין הבנה אנושית ללמידת מכונה: AI ניתן להסבר כפתרון - KDnuggets

סגירת הפער בין הבנה אנושית ללמידת מכונה: AI ניתן להסבר כפתרון - KDnuggets

צומת המקור: 2142889

סגירת הפער בין הבנה אנושית ללמידת מכונה: AI ניתן להסבר כפתרון
תמונה מאת Bing Image Creator

האם אי פעם פתחת את אפליקציית הקניות האהובה עליך והדבר הראשון שאתה רואה הוא המלצה על מוצר שבכלל לא ידעת שאתה צריך, אבל בסופו של דבר אתה קונה בזכות ההמלצה בזמן? או שפתחתם את אפליקציית המוזיקה שלכם ושמחתם לראות פנינה נשכחת של האמן האהוב עליכם שהומלץ בראש כמשהו "שאולי תאהב"? ביודעין, או שלא ביודעין, כולנו נתקלים בהחלטות, פעולות או חוויות שנוצרו על ידי בינה מלאכותית (AI) כיום. בעוד שחלק מהחוויות הללו הן די תמימות (המלצות מוזיקה נקודתיות, מישהו?), חלק אחרות עשויות לפעמים לגרום לאי נחת ("איך האפליקציה הזו ידעה שחשבתי לעשות תוכנית הרזיה?”). אי הנוחות הזו מסלימה לדאגה וחוסר אמון בכל הנוגע לענייני פרטיות על עצמך ועל יקיריו. עם זאת, לדעת אֵיך or למה משהו שהומלץ לך יכול לעזור עם חלק מאי הנוחות הזו. 

כאן נכנס לתמונה ה-Explainable AI, או XAI. ככל שמערכות התומכות בינה מלאכותית הופכות נפוצות יותר ויותר בכל מקום, הצורך להבין כיצד מערכות אלו מקבלות החלטות גובר. במאמר זה, נחקור את XAI, נדון באתגרים במודלים של AI הניתנים לפירוש, התקדמות בהפיכת מודלים אלו לניתנים לפירוש ונספק הנחיות לחברות וליחידים ליישם XAI במוצרים שלהם כדי לטפח את אמון המשתמשים ב-AI. 

בינה מלאכותית (XAI) היא היכולת של מערכות בינה מלאכותית להיות מסוגלות לספק הסברים להחלטות או לפעולות שלהן. XAI מגשר על הפער החשוב בין החלטה של ​​מערכת AI לבין הבנת משתמש הקצה למה ההחלטה התקבלה. לפני הופעת הבינה המלאכותית, מערכות היו לרוב מבוססות כללים (למשל, אם לקוח קונה מכנסיים, ממליץ על חגורות. או אם אדם מדליק את "הטלוויזיה החכמה שלו", המשך לסובב את ההמלצה מספר 1 בין 3 אפשרויות קבועות). חוויות אלו סיפקו תחושה של חיזוי. עם זאת, כאשר AI הפך למיינסטרים, חיבור הנקודות לאחור מהסיבה שמשהו מוצג או מדוע החלטה כלשהי מתקבלת על ידי מוצר אינו פשוט. AI ניתן להסבר יכול לעזור במקרים אלה.

AI ניתן להסבר (XAI) מאפשר למשתמשים להבין למה מערכת AI החליטה משהו ו מה גורמים נכנסו להחלטה. לדוגמה, כאשר אתה פותח את אפליקציית המוזיקה שלך, אתה עשוי לראות ווידג'ט בשם "כי אתה אוהב את טיילור סוויפט" ואחריו המלצות שהן מוזיקת ​​פופ ודומות לשירים של טיילור סוויפט. או שאתה יכול לפתוח אפליקציית קניות ולראות "המלצות המבוססות על היסטוריית הקניות האחרונה שלך" ואחריו המלצות למוצרי תינוקות מכיוון שקנית כמה צעצועים ובגדים לתינוק בימים האחרונים.

XAI חשוב במיוחד בתחומים שבהם מתקבלות החלטות בעלות סיכון גבוה על ידי AI. למשל, מסחר אלגוריתמי והמלצות פיננסיות אחרות, שירותי בריאות, רכבים אוטונומיים ועוד. היכולת לספק הסבר להחלטות יכולה לעזור למשתמשים להבין את הרציונל, לזהות את ההטיות שהוכנסו בקבלת ההחלטות של המודל בגלל הנתונים שעליהם הוא מאומן, לתקן שגיאות בהחלטות ולעזור לבנות אמון בין בני אדם ובינה מלאכותית. בנוסף, עם הגדלת ההנחיות הרגולטוריות והדרישות המשפטיות שמתגבשות, החשיבות של XAI רק תגדל.

אם XAI מספקת שקיפות למשתמשים, אז למה לא להפוך את כל דגמי הבינה המלאכותית לניתנים לפירוש? ישנם מספר אתגרים שמונעים זאת מלהתרחש. 

למודלים מתקדמים של AI כמו רשתות עצביות עמוקות יש כמה שכבות נסתרות בין הקלט והפלט. כל שכבה לוקחת את הקלט משכבה קודמת, מבצעת עליה חישוב ומעבירה אותו כקלט לשכבה הבאה. האינטראקציות המורכבות בין השכבות מקשות על מעקב אחר תהליך קבלת ההחלטות על מנת להפוך אותו לסביר. זו הסיבה מדוע דגמים אלה מכונים לעתים קרובות קופסאות שחורות. 

מודלים אלה גם מעבדים נתונים במידות גבוהות כמו תמונות, אודיו, טקסט ועוד. היכולת לפרש את ההשפעה של כל תכונה ותכונה כדי להיות מסוגלת לקבוע איזו תכונה תרמה הכי הרבה להחלטה היא מאתגרת. פישוט המודלים הללו כדי להפוך אותם לניתנים יותר לפירוש מביא לירידה בביצועים שלהם. לדוגמה, מודלים פשוטים ו"מובנים" יותר כמו עצי החלטה עשויים להקריב ביצועים חזויים. כתוצאה מכך, גם סחר בביצועים ודיוק למען הניבוי אינו מקובל. 

עם הצורך הגובר של XAI להמשיך לבנות אמון אנושי בבינה מלאכותית, נרשמו התקדמות בתקופה האחרונה בתחום זה. לדוגמה, ישנם כמה מודלים כמו עצי החלטה, או מודלים ליניאריים, שהופכים את הפרשנות ברורה למדי. ישנם גם מודלים סמליים או מבוססי כללים המתמקדים בייצוג מפורש של מידע וידע. מודלים אלה זקוקים לעתים קרובות לבני אדם כדי להגדיר כללים ולהזין מידע תחום למודלים. עם ההתפתחות האקטיבית המתרחשת בתחום זה, ישנם גם מודלים היברידיים המשלבים למידה עמוקה עם פרשנות, וממזערים את ההקרבה על ביצועים. 

העצמת משתמשים להבין יותר ויותר מדוע מודלים של AI מחליטים מה הם מחליטים יכולה לעזור לטפח אמון ושקיפות לגבי המודלים. זה יכול להוביל לשיתוף פעולה משופר, וסימביוטי, בין בני אדם למכונות כאשר מודל הבינה המלאכותית עוזר לבני אדם בקבלת החלטות עם שקיפות ובני אדם עוזרים לכוונן את מודל הבינה המלאכותית כדי להסיר הטיות, אי דיוקים ושגיאות.

להלן כמה דרכים שבהן חברות ואנשים יכולים ליישם XAI במוצרים שלהם:

  1. בחר דגם בר פירוש איפה שאתה יכול - היכן שהם מספיקים ומשרתים היטב, יש לבחור דגמי AI הניתנים לפירוש על פני אלה שאינם ניתנים לפירוש בקלות. לדוגמה, בתחום הבריאות, מודלים פשוטים יותר כמו עצי החלטה יכולים לעזור לרופאים להבין מדוע מודל בינה מלאכותית המליץ ​​על אבחנה מסוימת, מה שיכול לעזור לטפח אמון בין הרופא למודל הבינה המלאכותית. יש להשתמש בטכניקות הנדסת תכונות כמו קידוד חד פעמי או קנה מידה של תכונה המשפרות את יכולת הפירוש. 
  2. השתמש בהסברים פוסט-הוקיים - השתמש בטכניקות כמו חשיבות תכונה ומנגנוני קשב כדי ליצור הסברים פוסט-הוקיים. לדוגמה, LIME (Local Interpretable Model-Agnostic Explanations) היא טכניקה שמסבירה את התחזיות של מודלים. זה מייצר ציוני חשיבות תכונה כדי להדגיש את התרומה של כל תכונה להחלטת המודל. לדוגמה, אם בסופו של דבר "אהבתם" המלצה מסוימת על פלייליסט, שיטת LIME תנסה להוסיף ולהסיר שירים מסוימים מהפלייליסט ולחזות את הסבירות שתאהבו את הפלייליסט ולהסיק שהאמנים ששיריהם נמצאים ברשימת ההשמעה מנגנים תפקיד גדול באהבתך או לא אוהב את הפלייליסט. 
  3. תקשורת עם משתמשים - ניתן להשתמש בטכניקות כמו LIME או SHAP (הסברים תוספים של SHapley) כדי לספק הסבר שימושי לגבי החלטות או תחזיות מקומיות ספציפיות ללא צורך בהכרח להסביר את כל המורכבות של המודל הכולל. ניתן למנף גם רמזים חזותיים כמו מפות הפעלה או מפות קשב כדי להדגיש אילו תשומות רלוונטיות ביותר לפלט שנוצר על ידי מודל. ניתן להשתמש בטכנולוגיות עדכניות כמו Chat GPT כדי לפשט הסברים מורכבים בשפה פשוטה שניתן להבין למשתמשים. לבסוף, מתן שליטה מסוימת למשתמשים כדי שיוכלו לקיים אינטראקציה עם המודל יכול לעזור לבנות אמון. לדוגמה, משתמשים יכולים לנסות לכוונן את הקלט בדרכים שונות כדי לראות כיצד הפלט משתנה. 
  4. בקרה מתמשכת - חברות צריכות ליישם מנגנונים לניטור הביצועים של מודלים ולזהות ולהזעיק באופן אוטומטי כאשר מתגלות הטיות או סחיפות. צריך להיות עדכון שוטף וכוונון של מודלים, כמו גם ביקורות והערכות כדי להבטיח שהמודלים עומדים בחוקים הרגולטוריים ועומדים בתקנים אתיים. לבסוף, גם אם במשורה, צריכים להיות בני אדם במעגל כדי לספק משוב ותיקונים לפי הצורך.

לסיכום, ככל שה-AI ממשיך לגדול, זה הופך להיות הכרחי לבנות XAI כדי לשמור על אמון המשתמשים ב-AI. על ידי אימוץ הקווים המנחים שהובאו לעיל, חברות ואנשים יכולים לבנות בינה מלאכותית שהיא שקופה יותר, מובנת ופשוטה יותר. ככל שיותר חברות יאמצו את XAI, כך התקשורת בין המשתמשים למערכות בינה מלאכותית תהיה טובה יותר, וככל שהמשתמשים ירגישו בטוחים יותר לתת לבינה מלאכותית לשפר את חייהם
 
 
אשלשה קאדם מוביל צוות מוצר עולמי באמזון מיוזיק הבונה חוויות מוזיקה באפליקציות Alexa ו- Amazon Music (אינטרנט, iOS, אנדרואיד) עבור מיליוני לקוחות ב-45+ מדינות. היא גם תומכת נלהבת לנשים בטכנולוגיה, ומשמשת כיו"ר משותפת במסלול אינטראקציה עם מחשבים אנושיים (HCI) לחגיגת גרייס הופר (כנס הטכנולוגיה הגדול ביותר לנשים בטכנולוגיה עם יותר מ-30 אלף משתתפים ב-115 מדינות). בזמנה הפנוי, אשלשה אוהבת לקרוא ספרות, להאזין לפודקאסטים של ביז-טק (המועדפים הנוכחיים - נרכשים), לטייל בצפון-מערב האוקיינוס ​​השקט היפה ולבלות עם בעלה, בנה והגולדן רטריבר בן ה-5.
 

בול זמן:

עוד מ KDnuggets