10 خطوات لتثقيف شركتك بشأن عدالة الذكاء الاصطناعي

عقدة المصدر: 893723

ارفع تكنولوجيا واستراتيجية بيانات مؤسستك في تحويل 2021.


مع تزايد تطبيق الشركات للذكاء الاصطناعي ، يجب عليها معالجة المخاوف المتعلقة بالثقة.

فيما يلي 10 تدخلات عملية للشركات لتوظيفها لضمان عدالة الذكاء الاصطناعي. وهي تشمل إنشاء ملف عدالة منظمة العفو الدولية ميثاق وتنفيذ التدريب والاختبار.

تعمل التقنيات المعتمدة على البيانات والذكاء الاصطناعي (AI) على دعم عالمنا اليوم - من التنبؤ بمكان ظهور متغير COVID-19 التالي ، إلى مساعدتنا على السفر على الطريق الأكثر كفاءة. في العديد من المجالات ، يتمتع عامة الناس بقدر كبير من الثقة في أن الخوارزميات التي تدعم هذه التجارب يتم تطويرها بطريقة عادلة.

ومع ذلك ، يمكن كسر هذه الثقة بسهولة. على سبيل المثال ، ضع في اعتبارك برامج التوظيف أنه ، بسبب بيانات التدريب غير التمثيلية ، يعاقب التطبيقات التي تحتوي على كلمة "النساء" ، أو نظام تسجيل الائتمان الذي يفتقد الأدلة الواقعية على الجدارة الائتمانية ، وبالتالي تحصل مجموعات معينة على حدود ائتمانية أقل أو حرموا من القروض.

الحقيقة هي أن التكنولوجيا تتحرك بشكل أسرع من التعليم والتدريب على عدالة الذكاء الاصطناعي. غالبًا ما يكون الأشخاص الذين يقومون بتدريب وتطوير وتنفيذ وتسويق هذه التجارب المستندة إلى البيانات غير مدركين لها الآثار الثانية أو الثالثة من عملهم الشاق.

كجزء من المنتدى الاقتصادي العالمي مجلس المستقبل العالمي للذكاء الاصطناعي للبشرية، مجموعة من ممارسي الذكاء الاصطناعي والباحثين ومستشاري الشركات ، نقترح 10 تدخلات عملية للشركات لتوظيفها لضمان عدالة الذكاء الاصطناعي.

1. تعيين المسؤولية عن تعليم الذكاء الاصطناعي

تعيين مسؤول أخلاقيات الذكاء الاصطناعي (CAIO) الذي يجب أن يكون مسؤولاً إلى جانب مجلس الأخلاقيات متعدد الوظائف (بما في ذلك ممثلين من علوم البيانات والتنظيم والعلاقات العامة والاتصالات والموارد البشرية) عن تصميم وتنفيذ أنشطة تعليم الذكاء الاصطناعي. يجب أن يكون CAIO أيضًا "أمين المظالم" للموظفين للوصول إليه في حالة وجود مخاوف تتعلق بالإنصاف ، بالإضافة إلى المتحدث باسم الموظفين غير التقنيين. من الناحية المثالية ، يجب أن يقدم هذا الدور تقاريره مباشرة إلى المدير التنفيذي من أجل الرؤية والتنفيذ.

2. حدد الإنصاف لمنظمتك

قم بتطوير قالب ميثاق الإنصاف للذكاء الاصطناعي ثم اسأل جميع الإدارات الذين يستخدمون الذكاء الاصطناعي بنشاط لإكماله في سياقهم. هذا مهم بشكل خاص لمديري خط الأعمال وأصحاب المنتجات والخدمات.

3. ضمان عدالة الذكاء الاصطناعي على طول سلسلة التوريد

اطلب من الموردين الذين تستخدمهم والذين لديهم ذكاء اصطناعي مدمج في منتجاتهم وخدماتهم المشتراة - على سبيل المثال وكالة توظيف قد تستخدم الذكاء الاصطناعي لفحص المرشحين - لإكمال ميثاق عدالة الذكاء الاصطناعي والالتزام بسياسات الشركة بشأن عدالة الذكاء الاصطناعي. هذا مهم بشكل خاص لوظيفة الشراء والموردين.

4. تثقيف الموظفين وأصحاب المصلحة من خلال التدريب ونهج "التعلم بالممارسة"

طلب تدريب وشهادة إلزامية لجميع الموظفين على مبادئ العدالة في الذكاء الاصطناعي - على غرار الطريقة التي يُطلب من الموظفين الاشتراك بها في قواعد سلوك العمل. بالنسبة للموظفين الفنيين ، قم بتوفير التدريب على كيفية بناء النماذج التي لا تنتهك مبادئ الإنصاف. يجب أن تستفيد جميع الدورات التدريبية من الرؤى من مواثيق الإنصاف للذكاء الاصطناعي لمعالجة المشكلات التي تواجه الشركة مباشرةً. تأكد من مراجعة محتوى الدورة بانتظام من قبل مجلس الأخلاقيات.

5. إنشاء خطة الناس للعدالة للذكاء الاصطناعي في الموارد البشرية

يجب أن تتضمن خطة عدالة الذكاء الاصطناعي للموارد البشرية مراجعة سنوية من قبل قسم الموارد البشرية لتقييم تنوع الفريق الذي يعمل على التقنيات المعتمدة على البيانات والذكاء الاصطناعي ، ومراجعة وترقية صريحة للكفاءات والمهارات التي يتم الإعلان عنها حاليًا لتطوير المنتجات الرئيسية ذات الصلة بالذكاء الاصطناعي الأدوار (مثل مالك المنتج وعالم البيانات ومهندس البيانات) لضمان الوعي بالعدالة جزء من الوصف الوظيفي.

6. اختبر نزاهة الذكاء الاصطناعي قبل إطلاق أي تقنية

مطالبة الإدارات والموردين بتشغيل ونشر اختبارات نتائج الإنصاف داخليًا قبل السماح لأي خوارزمية للذكاء الاصطناعي بالبدء في العمل. بمجرد معرفة المجموعات التي قد يتم التعامل معها بشكل غير عادل بسبب تحيز البيانات ، قم بمحاكاة المستخدمين من تلك المجموعة ومراقبة النتائج. يمكن استخدام هذا من قبل فرق المنتج لتكرار وتحسين منتجهم أو خدمتهم قبل نشرها. أدوات مفتوحة المصدر ، مثل مايكروسوفت فيرليرن، يمكن أن تساعد في توفير التحليل لاختبار نتائج الإنصاف.

7. قم بتوصيل منهجك تجاه عدالة الذكاء الاصطناعي

قم بإعداد جلسات تعلم نتائج الإنصاف مع الموظفين الذين يتعاملون مع العملاء والجمهور لإجراء اختبارات نتائج الإنصاف لأي منتج أو خدمة جديدة أو محدثة. هذا مهم بشكل خاص للتسويق والاتصالات الخارجية ، وكذلك فرق خدمة العملاء.

8. تخصيص بند دائم في اجتماعات مجلس الإدارة لعمليات عدالة الذكاء الاصطناعي

يجب أن تتضمن هذه المناقشة الإبلاغ عن التقدم والالتزام بالموضوعات التي أثيرت من مسؤول أخلاقيات الذكاء الاصطناعي الرئيسي ومجلس الأخلاقيات ونتائج اختبارات نتائج الإنصاف ذات الأولوية

9. تأكد من أن التعليم يلتصق

تتبع بانتظام والإبلاغ عن المشاركة وإكمال أنشطة عدالة الذكاء الاصطناعي ، جنبًا إلى جنب مع التأثير الواضح لإدارة العدالة من حيث القيمة الحقيقية للأعمال. قدم هذه التحديثات إلى مديري الإدارات والمسؤولين التنفيذيين للتواصل مع الموظفين لتعزيز ذلك من خلال جعل منصات وبرامج الذكاء الاصطناعي أكثر عدالة ، تكون المنظمة أكثر فعالية وإنتاجية.

10. توثيق كل شيء

وثق نهجك في عدالة الذكاء الاصطناعي وأبلغه في تدريبات الموظفين والموردين والأحداث رفيعة المستوى ، بما في ذلك للعملاء والمستثمرين.

[ظهرت هذه القصة في الأصل في 10 خطوات لتثقيف شركتك بشأن عدالة الذكاء الاصطناعي | المنتدى الاقتصادي العالمي (weforum.org). حقوق الطبع والنشر 2021.]

نجية يوسف هو العضو المنتدب والشريك في مجموعة بوسطن الاستشارية ويشترك في قيادة ممارسة المؤسسات المالية في المملكة المتحدة وهولندا وبلجيكا.

مارك مينيفيتش هو كرسي لسياسة الذكاء الاصطناعي في مركز الأبحاث الدولي للذكاء الاصطناعي تحت رعاية اليونسكو ، معهد جوزيف ستيفان.

VentureBeat

تتمثل مهمة VentureBeat في أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول التكنولوجيا التحويلية والمعاملات. يقدم موقعنا معلومات أساسية حول تقنيات واستراتيجيات البيانات لإرشادك وأنت تقود مؤسساتك. ندعوك لتصبح عضوًا في مجتمعنا ، للوصول إلى:

  • معلومات محدثة عن الموضوعات التي تهمك
  • رسائلنا الإخبارية
  • محتوى مبوب لرائد الفكر وإمكانية وصول مخفضة إلى الأحداث الثمينة لدينا ، مثل تحويل 2021: يتعلم أكثر
  • ميزات الشبكات والمزيد

تصبح عضوا

المصدر: https://venturebeat.com/2021/06/11/10-steps-to-educate-your-company-on-ai-fairness/

الطابع الزمني:

اكثر من منظمة العفو الدولية - VentureBeat