آیا می توانید برای محافظت از هوش مصنوعی به هوش مصنوعی اعتماد کنید؟

گره منبع: 1884060

به مدیران برجسته امروز به صورت آنلاین در نشست داده در 9 مارس بپیوندید. ثبت نام اینجا کلیک نمایید.


اکنون که هوش مصنوعی وارد جریان اصلی معماری فناوری اطلاعات شده است، رقابت برای اطمینان از ایمن ماندن آن در هنگام قرار گرفتن در معرض منابع داده ای که خارج از کنترل شرکت هستند ادامه دارد. از مرکز داده گرفته تا ابر تا لبه، هوش مصنوعی باید با طیف وسیعی از آسیب‌پذیری‌ها و مجموعه‌ای از تهدیدات پیچیده‌تر مقابله کند، که تقریباً همه آنها توسط خود هوش مصنوعی هدایت می‌شوند.

در همین حال، با توجه به اینکه هوش مصنوعی احتمالاً ستون فقرات مراقبت های بهداشتی، حمل و نقل، مالی و سایر بخش هایی را که برای حمایت از شیوه زندگی مدرن ما حیاتی هستند، فراهم می کند، خطرات به طور فزاینده ای افزایش خواهد یافت. بنابراین قبل از اینکه سازمان‌ها شروع به فشار دادن بیش از حد هوش مصنوعی به این معماری‌های توزیع‌شده کنند، ممکن است کمی مکث کنیم تا اطمینان حاصل کنیم که می‌توان به اندازه کافی از آن محافظت کرد.

اعتماد و شفافیت

در مصاحبه اخیر با VentureBeat، ست دوبرین، افسر ارشد هوش مصنوعی IBM اشاره کرد که ساختمان اعتماد و شفافیت در کل زنجیره داده هوش مصنوعی اگر شرکت امیدوار است حداکثر ارزش را از سرمایه گذاری خود به دست آورد، بسیار مهم است. برخلاف معماری‌های سنتی که در صورت در معرض خطر قرار گرفتن ویروس‌ها و بدافزارها، صرفاً می‌توان آن‌ها را بسته یا از داده‌ها ربود، خطر هوش مصنوعی بسیار بیشتر است زیرا می‌توان به آن آموزش داد که از داده‌هایی که از یک نقطه پایانی دریافت می‌کند، خود را دوباره آموزش دهد.

Dobrin گفت: "نقطه پایانی REST API است که داده ها را جمع آوری می کند." ما باید از هوش مصنوعی در برابر مسمومیت محافظت کنیم. ما باید مطمئن شویم که نقاط پایانی هوش مصنوعی ایمن هستند و به طور مداوم نظارت می شوند، نه فقط برای عملکرد بلکه برای سوگیری.

برای انجام این کار، Dobrin گفت IBM در حال کار بر روی ایجاد است استحکام خصمانه در سطح سیستم پلتفرم هایی مانند واتسون. با پیاده‌سازی مدل‌های هوش مصنوعی که سایر مدل‌های هوش مصنوعی را مورد بازجویی قرار می‌دهند تا فرآیندهای تصمیم‌گیری آن‌ها را توضیح دهند، و سپس آن مدل‌ها را در صورت انحراف از هنجارها تصحیح می‌کنند، شرکت قادر خواهد بود وضعیت‌های امنیتی را با سرعت اقتصاد دیجیتال پرشتاب امروزی حفظ کند. اما این نیاز به تغییر تفکر از شکار و خنثی کردن کدهای شرور به نظارت و مدیریت واکنش هوش مصنوعی به آنچه که به نظر می رسد داده های معمولی است، دارد.

در حال حاضر، گزارش‌هایی در مورد بسیاری از روش‌های مبتکرانه دستکاری داده‌ها برای فریب دادن هوش مصنوعی به منظور تغییر کد آن به روش‌های مضر شروع به انتشار کرده‌اند. جیم دمپسیمدرس دانشکده حقوق دانشگاه کالیفرنیا برکلی و مشاور ارشد مرکز سیاست سایبری استنفورد، می‌گوید که می‌توان صوتی ایجاد کرد که شبیه گفتار برای الگوریتم‌های ML باشد، اما نه برای انسان. سیستم‌های تشخیص تصویر و شبکه‌های عصبی عمیق را می‌توان با اغتشاشاتی که برای چشم انسان نامحسوس است، گاهی اوقات تنها با جابجایی یک پیکسل منحرف کرد. علاوه بر این، این حملات می‌توانند حتی اگر مجرم به خود مدل یا داده‌های مورد استفاده برای آموزش آن دسترسی نداشته باشد، انجام شود.

پیشگیری کنید و پاسخ دهید

برای مقابله با این، شرکت باید روی دو چیز تمرکز کند. اول می گوید جان روز، مدیر ارشد فناوری جهانی Dell Technologies، باید منابع بیشتری را برای پیشگیری و پاسخ به حملات اختصاص دهد. بیشتر سازمان‌ها در شناسایی تهدیدها با استفاده از خدمات مدیریت اطلاعات رویداد مبتنی بر هوش مصنوعی یا ارائه‌دهنده خدمات امنیتی مدیریت‌شده ماهر هستند، اما پیشگیری و واکنش هنوز برای کاهش کافی یک نقض جدی بسیار کند است.

می‌گوید این منجر به دومین تغییری می‌شود که شرکت باید اجرا کند کوری توماس مدیر عامل Rapid7: توانمندسازی پیشگیری و واکنش با هوش مصنوعی بیشتر. این قرص برای اکثر سازمان‌ها سخت است زیرا اساساً به هوش مصنوعی آزادی عمل برای ایجاد تغییرات در محیط داده می‌دهد. اما توماس می‌گوید راه‌هایی برای انجام این کار وجود دارد که به هوش مصنوعی اجازه می‌دهد تا در جنبه‌های امنیتی که در مدیریت آن مهارت دارد و در عین حال قابلیت‌های کلیدی را برای اپراتورهای انسانی محفوظ می‌دارد، عمل کند.

در نهایت به اعتماد برمی گردد. هوش مصنوعی در حال حاضر بچه جدید دفتر است، بنابراین نباید کلیدهای طاق را داشته باشد. اما با گذشت زمان، همانطور که ارزش خود را در تنظیمات سطح ابتدایی ثابت می کند، باید مانند هر کارمند دیگری اعتماد کسب کند. این به این معنی است که وقتی عملکرد خوبی داشت به آن پاداش دهید، به آن آموزش دهید که در صورت شکست بهتر عمل کند، و همیشه مطمئن شوید که منابع کافی و داده های مناسب برای اطمینان از اینکه کار درست و روش درست انجام آن را درک می کند، دارد.

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. بیشتر بدانید

منبع: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

تمبر زمان:

بیشتر از هوش مصنوعی – VentureBeat