ללא מטרות רווח בונה אתר כדי לעקוב אחר תקלות בינה מלאכותית גואה

ללא מטרות רווח בונה אתר כדי לעקוב אחר תקלות בינה מלאכותית גואה

צומת המקור: 2507697

ראיון אישי לא נכון תמונות של דונלד טראמפ נתמך על ידי מצביעים שחורים מאופרים, תלמידי חטיבת ביניים שיוצרים זיופים עמוקים פורנוגרפיים של חברותיהם לכיתה, והצ'אטבוט Gemini של גוגל אי ליצור תמונות של אנשים לבנים בצורה מדויקת.

אלו הם חלק מהאסונות האחרונים המפורטים ב- מסד נתונים של תקריות בינה מלאכותית - אתר עוקב אחר כל הדרכים השונות שבהן הטכנולוגיה משתבשת.

הושק בתחילה כפרויקט בחסות Partnership On AI, קבוצה שמנסה להבטיח שה-AI תועיל לחברה, מאגר תקריות AI הוא כעת ארגון ללא מטרות רווח הממומן על ידי Underwriters Laboratories - העצמאי הגדול והוותיק ביותר (בשנת 1894) מעבדת בדיקות בארצות הברית. הוא בודק כל מיני מוצרים - מרהיטים ועד עכברי מחשב - והאתר שלו קיטלג עד כה למעלה מ-600 תקריות ייחודיות לאוטומציה ו-AI.

"יש אסימטריה עצומה של מידע בין יצרני מערכות בינה מלאכותית לצרכנים ציבוריים - וזה לא הוגן", טען פטריק הול, עוזר פרופסור בבית הספר לעסקים של אוניברסיטת ג'ורג' וושינגטון, המכהן כיום בדירקטוריון מאגר תקריות בינה מלאכותית. . הוא אמר הקופה: "אנחנו צריכים יותר שקיפות, ואנחנו מרגישים שזה התפקיד שלנו רק לשתף את המידע הזה."

מסד הנתונים של תקריות AI מעוצב על פי תוכנית CVE שהוקמה על ידי המלכ"ר מִצנֶפֶת, או המינהל הלאומי לבטיחות תחבורה בכבישים המהירים אתר אינטרנט המדווח על פרצות אבטחת סייבר ותאונות רכב שנחשפו בפומבי. "בכל פעם שיש תאונת מטוס, תאונת רכבת או תקרית אבטחת סייבר גדולה, זה הפך לנוהג מקובל במשך עשרות שנים לתעד מה קרה כדי שנוכל לנסות להבין מה השתבש ואז לא לחזור על זה".

האתר מנוהל כיום על ידי כעשרה אנשים, בתוספת קומץ מתנדבים וקבלנים שבודקים ומפרסמים תקריות הקשורות לבינה מלאכותית באינטרנט. הת'ר פרייס, עמית בכירה בג'ורג'טאון המרכז לאבטחה וטכנולוגיה מתפתחת התמקד בהערכת בינה מלאכותית ומנהל מסד נתונים של תקריות בינה מלאכותית, טען שהאתר ייחודי בכך שהוא מתמקד בהשפעות בעולם האמיתי מהסיכונים והנזקים של בינה מלאכותית - לא רק פגיעויות ובאגים בתוכנה.

הארגון אוסף כרגע תקריות מסיקור תקשורתי וסוקר בעיות שדווחו על ידי אנשים בטוויטר. מסד הנתונים של תקריות בינה מלאכותית רשם 250 תקריות ייחודיות לפני שחרורו של ChatGPT בנובמבר 2022, וכעת מפרט מעל 600 תקריות ייחודיות.

ניטור בעיות עם AI לאורך זמן חושף מגמות מעניינות, ויכול לאפשר לאנשים להבין את הנזקים האמיתיים של הטכנולוגיה הנוכחית.

האולם של אוניברסיטת ג'ורג' וושינגטון חשף שכמחצית מהדיווחים במסד הנתונים קשורים לבינה מלאכותית גנרטיבית. חלקם הם "דברים מצחיקים, מטופשים" כמו מוצרים מפוקפקים נמכר באמזון עם הכותרת: "אני לא יכול למלא את הבקשה הזו" - סימן ברור לכך שהמוכר השתמש במודל שפה גדול כדי לכתוב תיאורים - או מופעים אחרים של ספאם שנוצר בינה מלאכותית. אבל חלקם "ממש דיכאוניים ורציניים" - כמו רובוטקסי של קרוז שרץ וגורר אישה מתחת לגלגליה בתאונה בסן פרנסיסקו.

"AI הוא בעיקר מערב פרוע כרגע, והגישה היא ללכת מהר ולשבור דברים", הוא קונן. לא ברור איך הטכנולוגיה מעצבת את החברה, והצוות מקווה שמסד הנתונים של תקריות בינה מלאכותית יכול לספק תובנות לגבי הדרכים בהן נעשה בו שימוש לרעה ולהדגיש השלכות לא רצויות - בתקווה שמפתחים וקובעי מדיניות יהיו מעודכנים יותר כדי שיוכלו לשפר את המודלים שלהם או לווסת הסיכונים הדוחקים ביותר.

"יש הרבה הייפ מסביב. אנשים מדברים על סיכון קיומי. אני בטוח שבינה מלאכותית יכולה להוות סיכונים חמורים מאוד לציוויליזציה האנושית, אבל ברור לי שחלק מהסכנות האלו בעולם האמיתי יותר - כמו הרבה פציעות הקשורות למכוניות בנהיגה עצמית או, אתה יודע, הנצחת הטיה באמצעות אלגוריתמים בשימוש במימון צרכנים או תעסוקה. זה מה שאנחנו רואים".

"אני יודע שחסר לנו הרבה, נכון? לא הכל מדווח או נתפס על ידי התקשורת. הרבה פעמים אנשים אולי אפילו לא מבינים שהפגיעה שהם חווים נובעת מבינה מלאכותית", ציין פרייס. "אני מצפה שהפגיעה הפיזית תגדל מאוד. אנחנו רואים [בעיקר] נזקים פסיכולוגיים ונזקים בלתי מוחשיים אחרים שקורים ממודלים של שפות גדולות - אבל ברגע שתהיה לנו רובוטיקה יוצרת, אני חושב שהנזק הפיזי יגדל מאוד".

פרייס מודאג בעיקר מהדרכים שבהן בינה מלאכותית יכולה לשחוק את זכויות האדם וחירויות האזרח. היא מאמינה שאיסוף תקריות בינה מלאכותית יראה אם ​​המדיניות הפכה את הטכנולוגיה לבטוחה יותר לאורך זמן.

"צריך למדוד דברים כדי לתקן דברים", הוסיף הול.

הארגון תמיד מחפש מתנדבים וכרגע מתמקד בלכידת אירועים נוספים והגברת המודעות. פרייס הדגיש שחברי הקבוצה אינם אוהדי בינה מלאכותית: "כנראה אנחנו יוצאים די אנטי בינה מלאכותית, אבל אנחנו לא. אנחנו בעצם רוצים להשתמש בו. אנחנו רק רוצים את הדברים הטובים".

הול הסכים. "כדי לשמור על הטכנולוגיה קדימה, מישהו פשוט צריך לעשות את העבודה כדי להפוך אותה לבטוחה יותר", אמר. ®

בול זמן:

עוד מ הקופה