هل يمكنك الوثوق بالذكاء الاصطناعي لحماية الذكاء الاصطناعي؟

عقدة المصدر: 1884060

انضم إلى كبار المديرين التنفيذيين اليوم عبر الإنترنت في قمة البيانات في 9 مارس. يسجل هنا.


والآن بعد أن أصبح الذكاء الاصطناعي هو الاتجاه السائد في هندسة تكنولوجيا المعلومات، فإن السباق مستمر لضمان بقائه آمنًا عند تعرضه لمصادر البيانات الخارجة عن سيطرة المؤسسة. من مركز البيانات إلى السحابة إلى الحافة، سيتعين على الذكاء الاصطناعي أن يتعامل مع مجموعة واسعة من نقاط الضعف ومجموعة متزايدة التعقيد من التهديدات، والتي ستكون جميعها تقريبًا مدفوعة بالذكاء الاصطناعي نفسه.

وفي الوقت نفسه، ستكون المخاطر مرتفعة بشكل متزايد، نظرا لأن الذكاء الاصطناعي من المرجح أن يوفر العمود الفقري للرعاية الصحية، والنقل، والتمويل، وغيرها من القطاعات التي تعتبر بالغة الأهمية لدعم أسلوب حياتنا الحديث. لذا، قبل أن تبدأ المؤسسات في دفع الذكاء الاصطناعي إلى هذه البنى الموزعة بشكل عميق، قد يكون من المفيد التوقف للحظة للتأكد من إمكانية حمايته بشكل مناسب.

الثقة والشفافية

في مقابلة حديثة مع VentureBeat، سيث دوبرين، كبير مسؤولي الذكاء الاصطناعي في شركة IBM لاحظت هذا المبنى الثقة والشفافية في سلسلة بيانات الذكاء الاصطناعي بأكملها يعد أمرًا بالغ الأهمية إذا كانت المؤسسة تأمل في الحصول على أقصى قيمة من استثماراتها. وعلى عكس البنى التقليدية التي يمكن فقط إغلاقها أو سرقة البيانات منها عند اختراقها بواسطة الفيروسات والبرامج الضارة، فإن الخطر على الذكاء الاصطناعي أكبر بكثير لأنه يمكن تعليمه إعادة تدريب نفسه من البيانات التي يتلقاها من نقطة النهاية.

وقال دوبرين: "نقطة النهاية هي REST API التي تجمع البيانات". "نحن بحاجة إلى حماية الذكاء الاصطناعي من التسمم. علينا أن نتأكد من أن نقاط نهاية الذكاء الاصطناعي آمنة ويتم مراقبتها باستمرار، ليس فقط من أجل الأداء ولكن أيضًا من أجل التحيز.

وللقيام بذلك، قال دوبرين إن شركة IBM تعمل على تأسيسها متانة الخصومة على مستوى النظام لمنصات مثل Watson. ومن خلال تنفيذ نماذج الذكاء الاصطناعي التي تستجوب نماذج الذكاء الاصطناعي الأخرى لشرح عمليات صنع القرار الخاصة بها، ثم تصحيح تلك النماذج إذا انحرفت عن المعايير، ستتمكن المؤسسة من الحفاظ على المواقف الأمنية بسرعة الاقتصاد الرقمي سريع الخطى اليوم. لكن هذا يتطلب تحولا في التفكير بعيدا عن مطاردة وإحباط الشفرات الخبيثة، إلى مراقبة وإدارة رد فعل الذكاء الاصطناعي على ما يبدو أنه بيانات عادية.

وبالفعل، بدأت التقارير تنتشر حول العديد من الطرق البارعة التي يتم من خلالها التلاعب بالبيانات لخداع الذكاء الاصطناعي ودفعه إلى تغيير شفرته بطرق ضارة. جيم ديمبسييقول، محاضر في كلية الحقوق بجامعة كاليفورنيا في بيركلي ومستشار أول لمركز سياسات الإنترنت بجامعة ستانفورد، إنه من الممكن إنشاء صوت يبدو مثل الكلام لخوارزميات تعلم الآلة ولكن ليس للبشر. يمكن أن تضل أنظمة التعرف على الصور والشبكات العصبية العميقة عن طريق اضطرابات غير محسوسة للعين البشرية، وأحيانًا عن طريق تغيير بكسل واحد فقط. علاوة على ذلك، يمكن شن هذه الهجمات حتى لو لم يتمكن مرتكب الجريمة من الوصول إلى النموذج نفسه أو البيانات المستخدمة لتدريبه.

منع والرد

ولمواجهة ذلك، يجب على المؤسسة التركيز على شيئين. أولا، يقول المدير الفني العالمي لشركة Dell Technologies، جون روزويجب عليها تخصيص المزيد من الموارد لمنع الهجمات والتصدي لها. تتمتع معظم المؤسسات بالمهارة في اكتشاف التهديدات باستخدام خدمات إدارة معلومات الأحداث المعتمدة على الذكاء الاصطناعي أو مزود خدمة الأمان المُدارة، لكن الوقاية والاستجابة لا تزال بطيئة للغاية بحيث لا توفر التخفيف المناسب من الانتهاك الخطير.

ويقول إن هذا يؤدي إلى التغيير الثاني الذي يجب على المؤسسة تنفيذه الرئيس التنفيذي لشركة Rapid7 كوري توماس: تمكين الوقاية والاستجابة بمزيد من الذكاء الاصطناعي. يعد هذا أمرًا صعبًا بالنسبة لمعظم المؤسسات لأنه يمنح الذكاء الاصطناعي مجالًا أساسيًا لإجراء تغييرات على بيئة البيانات. لكن توماس يقول إن هناك طرقًا للقيام بذلك تسمح للذكاء الاصطناعي بالعمل في الجوانب الأمنية التي يكون أكثر مهارة في التعامل معها مع الاحتفاظ بالقدرات الأساسية للمشغلين البشريين.

وفي النهاية يتعلق الأمر بالثقة. الذكاء الاصطناعي هو الطفل الجديد في المكتب الآن، لذلك لا ينبغي أن يكون لديه مفاتيح القبو. ولكن مع مرور الوقت، ومع إثبات قيمته في المستويات المبتدئة، يجب أن يكسب الثقة تمامًا مثل أي موظف آخر. وهذا يعني مكافأته عندما يؤدي أداءً جيدًا، وتعليمه كيفية القيام بعمل أفضل عندما يفشل، والتأكد دائمًا من أن لديه الموارد الكافية والبيانات المناسبة للتأكد من أنه يفهم الشيء الصحيح الذي يجب فعله والطريقة الصحيحة للقيام بذلك.

مهمة VentureBeat هي أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. تعلم المزيد

المصدر: https://venturebeat.com/2022/02/04/can-you-trust-ai-to-protect-ai/

الطابع الزمني:

اكثر من منظمة العفو الدولية - VentureBeat