به مدیران برجسته امروز به صورت آنلاین در نشست داده در 9 مارس بپیوندید. ثبت نام اینجا کلیک نمایید.
اکنون که هوش مصنوعی وارد جریان اصلی معماری فناوری اطلاعات شده است، رقابت برای اطمینان از ایمن ماندن آن در هنگام قرار گرفتن در معرض منابع داده ای که خارج از کنترل شرکت هستند ادامه دارد. از مرکز داده گرفته تا ابر تا لبه، هوش مصنوعی باید با طیف وسیعی از آسیبپذیریها و مجموعهای از تهدیدات پیچیدهتر مقابله کند، که تقریباً همه آنها توسط خود هوش مصنوعی هدایت میشوند.
در همین حال، با توجه به اینکه هوش مصنوعی احتمالاً ستون فقرات مراقبت های بهداشتی، حمل و نقل، مالی و سایر بخش هایی را که برای حمایت از شیوه زندگی مدرن ما حیاتی هستند، فراهم می کند، خطرات به طور فزاینده ای افزایش خواهد یافت. بنابراین قبل از اینکه سازمانها شروع به فشار دادن بیش از حد هوش مصنوعی به این معماریهای توزیعشده کنند، ممکن است کمی مکث کنیم تا اطمینان حاصل کنیم که میتوان به اندازه کافی از آن محافظت کرد.
اعتماد و شفافیت
در مصاحبه اخیر با VentureBeat، ست دوبرین، افسر ارشد هوش مصنوعی IBM اشاره کرد که ساختمان اعتماد و شفافیت در کل زنجیره داده هوش مصنوعی اگر شرکت امیدوار است حداکثر ارزش را از سرمایه گذاری خود به دست آورد، بسیار مهم است. برخلاف معماریهای سنتی که در صورت در معرض خطر قرار گرفتن ویروسها و بدافزارها، صرفاً میتوان آنها را بسته یا از دادهها ربود، خطر هوش مصنوعی بسیار بیشتر است زیرا میتوان به آن آموزش داد که از دادههایی که از یک نقطه پایانی دریافت میکند، خود را دوباره آموزش دهد.
Dobrin گفت: "نقطه پایانی REST API است که داده ها را جمع آوری می کند." ما باید از هوش مصنوعی در برابر مسمومیت محافظت کنیم. ما باید مطمئن شویم که نقاط پایانی هوش مصنوعی ایمن هستند و به طور مداوم نظارت می شوند، نه فقط برای عملکرد بلکه برای سوگیری.
برای انجام این کار، Dobrin گفت IBM در حال کار بر روی ایجاد است استحکام خصمانه در سطح سیستم پلتفرم هایی مانند واتسون. با پیادهسازی مدلهای هوش مصنوعی که سایر مدلهای هوش مصنوعی را مورد بازجویی قرار میدهند تا فرآیندهای تصمیمگیری آنها را توضیح دهند، و سپس آن مدلها را در صورت انحراف از هنجارها تصحیح میکنند، شرکت قادر خواهد بود وضعیتهای امنیتی را با سرعت اقتصاد دیجیتال پرشتاب امروزی حفظ کند. اما این نیاز به تغییر تفکر از شکار و خنثی کردن کدهای شرور به نظارت و مدیریت واکنش هوش مصنوعی به آنچه که به نظر می رسد داده های معمولی است، دارد.
در حال حاضر، گزارشهایی در مورد بسیاری از روشهای مبتکرانه دستکاری دادهها برای فریب دادن هوش مصنوعی به منظور تغییر کد آن به روشهای مضر شروع به انتشار کردهاند. جیم دمپسیمدرس دانشکده حقوق دانشگاه کالیفرنیا برکلی و مشاور ارشد مرکز سیاست سایبری استنفورد، میگوید که میتوان صوتی ایجاد کرد که شبیه گفتار برای الگوریتمهای ML باشد، اما نه برای انسان. سیستمهای تشخیص تصویر و شبکههای عصبی عمیق را میتوان با اغتشاشاتی که برای چشم انسان نامحسوس است، گاهی اوقات تنها با جابجایی یک پیکسل منحرف کرد. علاوه بر این، این حملات میتوانند حتی اگر مجرم به خود مدل یا دادههای مورد استفاده برای آموزش آن دسترسی نداشته باشد، انجام شود.
پیشگیری کنید و پاسخ دهید
برای مقابله با این، شرکت باید روی دو چیز تمرکز کند. اول می گوید جان روز، مدیر ارشد فناوری جهانی Dell Technologies، باید منابع بیشتری را برای پیشگیری و پاسخ به حملات اختصاص دهد. بیشتر سازمانها در شناسایی تهدیدها با استفاده از خدمات مدیریت اطلاعات رویداد مبتنی بر هوش مصنوعی یا ارائهدهنده خدمات امنیتی مدیریتشده ماهر هستند، اما پیشگیری و واکنش هنوز برای کاهش کافی یک نقض جدی بسیار کند است.
میگوید این منجر به دومین تغییری میشود که شرکت باید اجرا کند کوری توماس مدیر عامل Rapid7: توانمندسازی پیشگیری و واکنش با هوش مصنوعی بیشتر. این قرص برای اکثر سازمانها سخت است زیرا اساساً به هوش مصنوعی آزادی عمل برای ایجاد تغییرات در محیط داده میدهد. اما توماس میگوید راههایی برای انجام این کار وجود دارد که به هوش مصنوعی اجازه میدهد تا در جنبههای امنیتی که در مدیریت آن مهارت دارد و در عین حال قابلیتهای کلیدی را برای اپراتورهای انسانی محفوظ میدارد، عمل کند.
در نهایت به اعتماد برمی گردد. هوش مصنوعی در حال حاضر بچه جدید دفتر است، بنابراین نباید کلیدهای طاق را داشته باشد. اما با گذشت زمان، همانطور که ارزش خود را در تنظیمات سطح ابتدایی ثابت می کند، باید مانند هر کارمند دیگری اعتماد کسب کند. این به این معنی است که وقتی عملکرد خوبی داشت به آن پاداش دهید، به آن آموزش دهید که در صورت شکست بهتر عمل کند، و همیشه مطمئن شوید که منابع کافی و داده های مناسب برای اطمینان از اینکه کار درست و روش درست انجام آن را درک می کند، دارد.
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. بیشتر بدانید
منبع: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/
- درباره ما
- دسترسی
- مشاور
- AI
- الگوریتم
- معرفی
- API
- معماری
- حمله
- سمعی
- بودن
- برکلی
- شکاف
- بنا
- قابلیت های
- مدیر عامل شرکت
- تغییر دادن
- رئیس
- ابر
- رمز
- جمع آوری
- پیچیده
- CTO
- سایبر
- داده ها
- مرکز داده
- شبکه های عصبی عمیق
- دیجیتال
- اقتصاد دیجیتال
- توزیع شده
- پایین
- رانده
- اقتصاد
- لبه
- قدرت دادن
- نقطه پایانی
- سرمایه گذاری
- محیط
- واقعه
- مدیران
- چشم
- سرمایه گذاری
- نام خانوادگی
- تمرکز
- تابع
- جهانی
- اداره
- بهداشت و درمان
- کمک
- زیاد
- HTTPS
- انسان
- آی بی ام
- تصویر
- شناسایی تصویر
- انجام
- اجرای
- مصاحبه
- سرمایه گذاری
- IT
- کلید
- کلید
- دانش
- قانون
- برجسته
- مدرس
- رهبری
- سطح
- مسیر اصلی
- ساخت
- نرم افزارهای مخرب
- مارس
- ML
- الگوریتم های ML
- مدل
- مدل
- نظارت بر
- بیش
- اکثر
- شبکه
- عصبی
- شبکه های عصبی
- افسر
- آنلاین
- سازمان های
- دیگر
- کارایی
- پیکسل
- سیستم عامل
- سیاست
- جلوگیری
- پیشگیری
- فرآیندهای
- محافظت از
- اثبات می کند
- ارائه
- ارائه دهنده
- نژاد
- واکنش
- ثبت نام
- گزارش ها
- منابع
- پاسخ
- REST
- سعید
- مدرسه
- بخش ها
- تیم امنیت لاتاری
- سرویس
- خدمات
- تغییر
- So
- سرعت
- مربع
- استنفورد
- شروع
- قله
- پشتیبانی
- سیستم
- سیستم های
- تعلیم
- فنی
- فن آوری
- پیشرفته
- خرک
- تفکر
- تهدید
- زمان
- امروز
- امروز
- سنتی
- شفافیت
- حمل و نقل
- اعتماد
- ارزش
- طاق
- VentureBeat
- ویروس ها
- آسیب پذیری ها
- واتسون
- چی
- کارگر
- با ارزش