وجدت دراسة كامبريدج أن برنامج التوظيف باستخدام الذكاء الاصطناعي هو "علم زائف آلي"

عقدة المصدر: 1722666

تم فضح الادعاءات القائلة بأن برنامج التوظيف المدعوم بالذكاء الاصطناعي يمكن أن يعزز تنوع الموظفين الجدد في مكان العمل في دراسة نُشرت هذا الأسبوع.

يعتقد المدافعون عن خوارزميات التعلم الآلي المدربين على تحليل لغة الجسد والتنبؤ بالذكاء العاطفي للمرشحين أن البرنامج يوفر طريقة أكثر عدلاً لتقييم العمال إذا لم يأخذ في الاعتبار الجنس والعرق. وهم يجادلون بأن الأدوات الجديدة يمكن أن تزيل التحيزات البشرية وتساعد الشركات على تحقيق أهدافها المتعلقة بالتنوع والإنصاف والشمول من خلال توظيف المزيد من الأشخاص من المجموعات الممثلة تمثيلا ناقصا.

لكن ورقة نشرت في مجلة الفلسفة والتكنولوجيا من قبل اثنين من الباحثين في جامعة كامبريدج ، مع ذلك ، يوضح أن البرنامج ليس أكثر من "علم زائف آلي". قام ستة طلاب جامعيين في علوم الكمبيوتر بتكرار نموذج تجاري مستخدم في الصناعة لفحص كيف يتنبأ برنامج التوظيف بالذكاء الاصطناعي بشخصيات الأشخاص باستخدام صور لوجوههم. 

يطلق عليها اسم "آلة الشخصية" ، و نظام يبحث عن استعارات الشخصية "الخمسة الكبار": الانبساطية والقبول والانفتاح والضمير والعصابية. ووجدوا أن تنبؤات البرنامج تأثرت بالتغيرات في تعابير وجوه الأشخاص ، والإضاءة ، والخلفيات ، بالإضافة إلى اختيارهم للملابس. يجادل الباحثون بأن هذه الميزات لا علاقة لها بقدرات الباحث عن عمل ، وبالتالي فإن استخدام الذكاء الاصطناعي لأغراض التوظيف معيب. 

قال كيري ماكريث ، باحث ما بعد الدكتوراه في مركز دراسات النوع الاجتماعي بجامعة كامبريدج: "حقيقة أن التغييرات في الضوء والتشبع والتباين تؤثر على درجة شخصيتك هي دليل على ذلك". السجل. نتائج الورقة مدعومة بالدراسات السابقة ، والتي لديها أظهرت وأشارت إلى أن ارتداء النظارات والحجاب في مقابلة بالفيديو أو إضافة رف كتب في الخلفية يمكن أن يقلل من درجات المرشح فيما يتعلق بالضمير والعصاب. 

أوضح ماكريث أيضًا أن هذه الأدوات من المحتمل أن تكون مدربة للبحث عن السمات المرتبطة بالمرشحين الناجحين السابقين ، وبالتالي فهي أكثر عرضة لتوظيف أشخاص متشابهين المظهر بدلاً من تعزيز التنوع. 

"تُفهم نماذج التعلم الآلي على أنها تنبؤية ؛ ومع ذلك ، نظرًا لأنهم مدربون على البيانات السابقة ، فإنهم يعيدون تكرار القرارات التي اتخذت في الماضي ، وليس في المستقبل. بينما تتعلم الأدوات من مجموعة البيانات الموجودة مسبقًا ، يتم إنشاء حلقة تغذية مرتدة بين ما تعتبره الشركات موظفًا مثاليًا والمعايير التي تستخدمها أدوات التوظيف الآلية لاختيار المرشحين ".

يعتقد الباحثون أن التكنولوجيا بحاجة إلى تنظيم أكثر صرامة. "نشعر بالقلق من أن بعض البائعين يقومون بتغليف منتجات" زيت الثعبان "في عبوات لامعة وبيعها للعملاء المطمئنين ،" محمد مؤلفة مشاركة إليانور دراج ، باحثة ما بعد الدكتوراه تعمل أيضًا في مركز دراسات النوع الاجتماعي. 

"على الرغم من أن الشركات قد لا تتصرف بسوء نية ، إلا أن هناك قدرًا ضئيلًا من المساءلة عن كيفية تصنيع هذه المنتجات أو اختبارها. على هذا النحو ، هذه التكنولوجيا ، والطريقة التي يتم تسويقها بها ، يمكن أن ينتهي بها الأمر كمصادر خطيرة للمعلومات المضللة حول كيفية "عدم التحيز" للتجنيد وجعله أكثر عدلاً ".

قال ماكريث إنه على الرغم من أن قانون الاتحاد الأوروبي للذكاء الاصطناعي يصنف برامج التوظيف هذه على أنها "عالية المخاطر" ، إلا أنه من غير الواضح ما هي القواعد التي يتم تطبيقها للحد من هذه المخاطر. "نعتقد أنه يجب أن يكون هناك تدقيق أكثر جدية في هذه الأدوات والادعاءات التسويقية التي يتم إجراؤها حول هذه المنتجات ، وأن تنظيم أدوات الموارد البشرية المدعومة بالذكاء الاصطناعي يجب أن يلعب دورًا أكثر بروزًا في أجندة سياسة الذكاء الاصطناعي."

واختتمت قائلة: "في حين أن أضرار أدوات التوظيف التي تعمل بالذكاء الاصطناعي تبدو أكثر كامنة ومكرًا من الأمثلة البارزة للتمييز الخوارزمي ، إلا أنها تمتلك القدرة على إحداث آثار طويلة الأمد على التوظيف والتنقل الاجتماعي والاقتصادي". ®

الطابع الزمني:

اكثر من السجل