התקפות סייבר מבוססות בינה מלאכותית: האקרים מנצלים בינה מלאכותית נשק

צומת המקור: 1883086

אין להכחיש את העובדה ש AI משנה את תעשיית אבטחת הסייבר. חרב פיפיות, בינה מלאכותית יכולה לשמש הן כפתרון אבטחה והן כנשק על ידי האקרים. כאשר בינה מלאכותית נכנסת למיינסטרים, יש הרבה מידע מוטעה ובלבול לגבי היכולות והאיומים הפוטנציאליים שלה. תרחישים דיסטופיים של מכונות יודעות-כל משתלטות על העולם והורסות את האנושות בשפע בתרבות הפופולרית. עם זאת, אנשים רבים מזהים את היתרונות הפוטנציאליים ש-AI עשוי להביא לנו באמצעות ההתקדמות והתובנות שהוא יכול לספק.

מערכות מחשב המסוגלות ללמוד, לחשוב ולפעול נמצאות עדיין בשלבים מוקדמים. למידת מכונה דורשת כמויות אדירות של נתונים. כאשר מיושמת על מערכות בעולם האמיתי כמו רכבים אוטונומיים, טכנולוגיה זו משלבת אלגוריתמים מורכבים, רובוטיקה וחיישנים פיזיים. בעוד שהפריסה יעילה עבור עסקים, מתן AI עם גישה לנתונים והענקת כל מידה של אוטונומיה מעוררת דאגות משמעותיות.

AI משנה את אופי אבטחת הסייבר לטוב ולרע

בינה מלאכותית (AI) נמצאת בשימוש נרחב בפתרונות אבטחת סייבר, אך האקרים משתמשים בה גם כדי ליצור תוכנות זדוניות מתוחכמות ולבצע התקפות סייבר.

בעידן של היפר קישוריות, שבו נתונים נתפסים כנכס היקר ביותר שיש לחברה, תעשיית אבטחת הסייבר מגוונת. יש הרבה מגמות אבטחת סייבר מונעות בינה מלאכותית שמומחים בתעשייה חייבים להיות מודעים אליהם.

עד 2023, אבטחת סייבר צפויה להיות שווה 248 מיליארד דולר, בעיקר בשל צמיחת איומי הסייבר הדורשים צעדי נגד מורכבים ומדויקים יותר ויותר.

יש הרבה כסף להרוויח מפשעי סייבר בימינו. עם שפע המשאבים הזמינים, גם אלה ללא מומחיות טכנית יכולים לעסוק בכך. ערכות ניצול ברמות שונות של תחכום זמינות לרכישה, החל מכמה מאות דולרים ועד עשרות אלפים. לפי Business Insider, האקר עשוי להפיק כ-85,000 דולר בכל חודש.

זהו בילוי רווחי ונגיש מאוד, כך שהוא לא ייעלם בקרוב. יתרה מכך, התקפות סייבר צפויות להפוך לקשות יותר לזיהוי, תכופות יותר ומתוחכמות יותר בעתיד, מה שיסכן את כל המכשירים המחוברים שלנו.

עסקים, כמובן, מתמודדים עם הפסדים משמעותיים במונחים של אובדן נתונים, אובדן הכנסות, קנסות כבדים והאפשרות לסגור את הפעילות שלהם.

כתוצאה מכך, שוק אבטחת הסייבר צפוי להתרחב, עם ספקים המציעים קשת מגוונת של פתרונות. למרבה הצער, זה קרב בלתי נגמר, עם הפתרונות שלהם יעילים רק כמו הדור הבא של תוכנות זדוניות.

טכנולוגיות מתפתחות, כולל AI, ימשיכו לשחק חלק משמעותי בקרב זה. האקרים יכולים לנצל את התקדמות AI ו השתמש בהם עבור התקפות סייבר כמו התקפות DDoS, התקפות MITM ומנהור DNS.

לדוגמה, ניקח את CAPTCHA, טכנולוגיה שהייתה זמינה במשך עשרות שנים כדי להגן מפני סתימות של אישורים על ידי אתגר לבוטים שאינם אנושיים לקרוא טקסט מעוות. לפני מספר שנים, מחקר של גוגל גילה שטכנולוגיית זיהוי תווים אופטי (OCR) מבוסס למידת מכונה יכולה להתמודד עם 99.8 אחוז מהבוטים. קשיים עם CAPTCHA.

פושעים גם משתמשים בבינה מלאכותית כדי לפרוץ סיסמאות מהר יותר. למידה עמוקה יכולה לעזור להאיץ התקפות כוח גס. לדוגמה, מחקר הכשיר רשתות עצביות עם מיליוני סיסמאות דליפות, מה שהביא לשיעור הצלחה של 26% ביצירת סיסמאות חדשות.

השוק השחור לכלים ושירותי פשעי סייבר מספק הזדמנות לבינה מלאכותית להגביר את היעילות והרווחיות.

החשש החמור ביותר לגבי היישום של AI בתוכנות זדוניות הוא שזנים מתעוררים ילמדו מאירועי זיהוי. אם זן תוכנה זדונית יוכל להבין מה גרם לזיהויו, אותה פעולה או מאפיין עשויים להימנע בפעם הבאה.

מפתחי תוכנות זדוניות אוטומטיות עשויים, למשל, לשכתב קוד של תולעת אם זה היה הגורם לפשרה שלה. כמו כן, אקראיות עשויה להתווסף לכללי התאמת דפוסים לסכל אם מאפיינים ספציפיים של התנהגות גרמו לגילוי.

כופר

האפקטיביות של תוכנת כופר תלויה כמה מהר היא יכולה להתפשט במערכת רשת. פושעי סייבר כבר ממנפים בינה מלאכותית למטרה זו. לדוגמה, הם מפעילים בינה מלאכותית כדי לראות את התגובות של חומות האש ולאתר יציאות פתוחות שצוות האבטחה הזניח.

ישנם מקרים רבים שבהם מדיניות חומת אש באותה חברה מתנגשת, ובינה מלאכותית היא כלי מצוין לניצול הפגיעות הזו. רבות מההפרות האחרונות השתמשו בבינה מלאכותית כדי לעקוף מגבלות חומת אש.

התקפות אחרות מבוססות על AI, בהתחשב בקנה המידה והתחכום שלהם. AI מוטמע בערכות ניצול הנמכרות בשוק השחור. זוהי אסטרטגיה משתלמת מאוד עבור פושעי סייבר, ו-SDKs של תוכנות הכופר עמוסות בטכנולוגיית AI.

התקפות אוטומטיות

האקרים משתמשים גם בבינה מלאכותית ולמידת מכונה כדי להפוך התקפות על רשתות ארגוניות לאוטומטיות. לדוגמה, פושעי סייבר יכולים להשתמש ב-AI ו-ML כדי לבנות תוכנות זדוניות כדי לזהות פגיעויות ולקבוע באיזה מטען להשתמש כדי לנצל אותן.

זה מרמז על תוכנות זדוניות שיכולות להימנע מזיהוי על ידי אי צורך לתקשר עם שרתי פקודה ובקרה. במקום להשתמש באסטרטגיית פיזור האיטית הרגילה שיכולה להזהיר את הקורבן שהוא מותקף, התקפות יכולות להיות ממוקדות לייזר.

מבולבל

תוקפים משתמשים גם ב-AI כדי לחשוף חולשות תוכנה חדשות. כלים מטושטשים כבר זמינים כדי לעזור למפתחי תוכנה לגיטימיים ולבודקי חדירה להגן על התוכנות והמערכות שלהם, אבל כפי שקורה לעתים קרובות, בכל הכלים שהחבר'ה הטובים משתמשים בהם, הרעים יכולים לנצל.

בינה מלאכותית ומערכות נלוות הופכות נפוצות יותר בכלכלה העולמית, והעולם התחתון הפלילי הולך בעקבותיה. יתרה מכך, קוד המקור, מערכי הנתונים והמתודולוגיות המשמשים לפיתוח ותחזוקת היכולות החזקות הללו זמינים כולם לציבור, ולכן פושעי סייבר עם תמריץ כספי לנצל אותם ירכזו את מאמציהם כאן.

כשזה מגיע לאיתור אוטומציה זדונית, מרכזי נתונים חייבים לאמץ אסטרטגיית אמון אפס.

דיוג

עובדים הפכו מיומנים בזיהוי הודעות דוא"ל דיוג, במיוחד כאלו שנשלחות בהמוניות, אך בינה מלאכותית מאפשרת לתוקפים להתאים אישית כל אימייל עבור כל נמען.

זה המקום שבו אנו רואים את הנשק הראשון החמור של אלגוריתמי למידת מכונה. זה כולל קריאת פוסטים של עובד ברשתות חברתיות או, במקרה של תוקפים שקיבלו בעבר גישה לרשת, קריאת כל התקשורת של העובד.

תוקפים יכולים גם להשתמש בבינה מלאכותית כדי להכניס את עצמם לחילופי דוא"ל מתמשכים. אימייל שהוא חלק משיחה נוכחית נשמע אמיתי באופן מיידי. חטיפת שרשורי דוא"ל היא אסטרטגיה רבת עוצמה לכניסה למערכת ולהפצת תוכנות זדוניות ממכשיר אחד לאחר.

מקור: https://www.smartdatacollective.com/ai-powered-cyberattacks-hackers-are-weaponizing-artificial-intelligence/

בול זמן:

עוד מ קולקטיב SmartData