האם אתה יכול לסמוך על AI כדי להגן על AI?

צומת המקור: 1884060

הצטרפו למנהלים המובילים היום באינטרנט ב-Data Summit ב-9 במרץ. להירשם כאן.


כעת, כאשר בינה מלאכותית נכנסת לזרם המרכזי של ארכיטקטורת ה-IT, המרוץ נמשך להבטיח שהיא תישאר מאובטחת כאשר היא נחשפת למקורות נתונים שאינם בשליטת הארגון. ממרכז הנתונים לענן ועד לקצה, בינה מלאכותית תצטרך להתמודד עם מגוון רחב של פגיעויות ומערך מורכב יותר ויותר של איומים, שכמעט כולם יונעו על ידי AI עצמו.

בינתיים, ההימור יהיה גבוה יותר, בהתחשב בכך ש-AI עשויה לספק את עמוד השדרה של שירותי הבריאות, התחבורה, הפיננסים ושאר המגזרים החיוניים לתמיכה באורח החיים המודרני שלנו. אז לפני שארגונים יתחילו לדחוף בינה מלאכותית לתוך הארכיטקטורות המבוזרות הללו עמוק מדי, זה עשוי לעזור לעצור לרגע כדי להבטיח שניתן להגן עליה כראוי.

אמון ושקיפות

בראיון שנערך לאחרונה עם VentureBeat, קצין הבינה המלאכותית הראשי של IBM, סת' דוברין ציין את הבניין הזה אמון ושקיפות בכל שרשרת הנתונים של AI הוא חיוני אם המיזם מקווה להפיק ערך מרבי מהשקעתו. בניגוד לארכיטקטורות מסורתיות שניתן פשוט לכבות או לשדוד נתונים כאשר הם נפגעים על ידי וירוסים ותוכנות זדוניות, הסכנה לבינה מלאכותית גדולה הרבה יותר מכיוון שניתן ללמד אותה לאמן את עצמה מחדש מהנתונים שהיא מקבלת מנקודת קצה.

"נקודת הקצה היא REST API שאוסף נתונים", אמר דוברין. "אנחנו צריכים להגן על AI מפני הרעלה. עלינו לוודא שנקודות הקצה של בינה מלאכותית מאובטחות ומנוטרות באופן רציף, לא רק לצורך ביצועים אלא לצורך הטיה".

לשם כך, דוברין אמר ש-IBM עובדת על ההקמה חוסן יריב ברמת המערכת של פלטפורמות כמו ווטסון. על ידי הטמעת מודלים של AI שחוקרים מודלים אחרים של AI כדי להסביר את תהליכי קבלת ההחלטות שלהם, ולאחר מכן לתקן את המודלים האלה אם הם חורגים מהנורמות, הארגון יוכל לשמור על תנוחות אבטחה במהירות של הכלכלה הדיגיטלית המהירה של היום. אבל זה דורש שינוי בחשיבה הרחק מציד וסיכול קוד מרושע לניטור וניהול התגובה של AI למה שנראה כמו נתונים רגילים.

כבר עכשיו מתחילים להסתובב דיווחים על הדרכים הגאוניות הרבות שבהן נתונים עוברים מניפולציות כדי להטעות את AI ולשנות את הקוד שלו בדרכים מזיקות. ג'ים דמפסי, מרצה בבית הספר למשפטים של UC Berkeley ויועץ בכיר למרכז מדיניות הסייבר של סטנפורד, אומר שאפשר ליצור אודיו שנשמע כמו דיבור לאלגוריתם של ML אבל לא לבני אדם. מערכות זיהוי תמונות ורשתות עצביות עמוקות יכולות להיות מוטעות עם הפרעות שאינן מורגשות לעין האנושית, לפעמים רק על ידי הזזה של פיקסל בודד. יתר על כן, התקפות אלו יכולות להתבצע גם אם למבצע אין גישה למודל עצמו או לנתונים המשמשים לאימון אותו.

למנוע ולהגיב

כדי להתמודד עם זה, המיזם חייב להתמקד בשני דברים. ראשית, אומר CTO העולמי של Dell Technologies, ג'ון רוזה, עליה להקדיש משאבים רבים יותר למניעה ולתגובה להתקפות. רוב הארגונים מיומנים באיתור איומים באמצעות שירותי ניהול מידע על אירועים מונעי בינה מלאכותית או ספק שירותי אבטחה מנוהלים, אך המניעה והתגובה עדיין איטיות מכדי לספק הפחתה נאותה של הפרה חמורה.

זה מוביל לשינוי השני שעל הארגון ליישם, אומר מנכ"ל Rapid7, קורי תומס: העצמת מניעה ותגובה עם יותר AI. זוהי גלולה שקשה לבלוע עבור רוב הארגונים מכיוון שהיא בעצם נותנת ל-AI מרחב פעולה לבצע שינויים בסביבת הנתונים. אבל תומס אומר שיש דרכים לעשות זאת המאפשרות לבינה מלאכותית לתפקד בהיבטי האבטחה שהוא הכי מיומן בטיפול תוך שמירת יכולות מפתח למפעילים אנושיים.

בסופו של דבר, זה מסתכם באמון. AI הוא הילד החדש במשרד כרגע, אז לא אמורים להיות לו את המפתחות לכספת. אבל עם הזמן, כפי שהוא מוכיח את ערכו בהגדרות התחלתיות, הוא צריך לזכות באמון בדיוק כמו כל עובד אחר. זה אומר לתגמל אותו כאשר הוא מתפקד טוב, ללמד אותו לעשות טוב יותר כאשר הוא נכשל, ולוודא תמיד שיש לו משאבים מתאימים והנתונים המתאימים כדי להבטיח שהוא מבין את הדבר הנכון לעשות ואת הדרך הנכונה לעשות זאת.

המשימה של VentureBeat היא להיות כיכר עירונית דיגיטלית עבור מקבלי החלטות טכניות לצבור ידע על טכנולוגיה ארגונית טרנספורמטיבית ועסקאות. פתרונות אבטחה

מקור: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

בול זמן:

עוד מ AI - VentureBeat