يمكن أن تؤثر التحيزات الدقيقة في الذكاء الاصطناعي على قرارات الطوارئ

يمكن أن تؤثر التحيزات الدقيقة في الذكاء الاصطناعي على قرارات الطوارئ

عقدة المصدر: 1777604

ليس سراً أن الناس لديهم تحيزات - فبعضهم فاقد للوعي ، ربما ، والبعض الآخر علني بشكل مؤلم. قد يفترض الشخص العادي أن أجهزة الكمبيوتر - الآلات المصنوعة عادةً من البلاستيك والصلب والزجاج والسيليكون والمعادن المختلفة - خالية من التحيز. في حين أن هذا الافتراض قد ينطبق على أجهزة الكمبيوتر ، فإن الشيء نفسه لا ينطبق دائمًا على برامج الكمبيوتر ، التي تمت برمجتها من قبل أشخاص غير معصومين من الخطأ ويمكن تغذيتها بالبيانات التي هي نفسها معرضة للخطر في نواحٍ معينة.

تشهد أنظمة الذكاء الاصطناعي (AI) - تلك القائمة على التعلم الآلي على وجه الخصوص - استخدامًا متزايدًا في الطب لتشخيص أمراض معينة ، على سبيل المثال ، أو تقييم الأشعة السينية. كما يتم الاعتماد على هذه الأنظمة لدعم اتخاذ القرار في مجالات أخرى من الرعاية الصحية. ومع ذلك ، فقد أظهرت الأبحاث الحديثة أن نماذج التعلم الآلي يمكنها ترميز التحيزات ضد مجموعات الأقليات الفرعية ، وبالتالي فإن التوصيات التي يقدمونها قد تعكس تلك التحيزات نفسها.

A دراسة جديدة من قبل باحثين من مختبر علوم الكمبيوتر والذكاء الاصطناعي (CSAIL) التابع لمعهد ماساتشوستس للتكنولوجيا وعيادة MIT جميل ، والتي تم نشرها الشهر الماضي في طب الاتصالات، بتقييم التأثير الذي يمكن أن تحدثه نماذج الذكاء الاصطناعي التمييزية ، خاصة بالنسبة للأنظمة التي تهدف إلى تقديم المشورة في المواقف العاجلة. يوضح المؤلف الرئيسي للورقة ، حماد آدم ، طالب الدكتوراه في معهد MIT لنظم البيانات والمجتمع: "لقد وجدنا أن الطريقة التي يتم بها تأطير النصيحة يمكن أن يكون لها تداعيات كبيرة". "لحسن الحظ ، يمكن الحد من الضرر الناجم عن النماذج المتحيزة (على الرغم من عدم القضاء عليه بالضرورة) عندما يتم تقديم النصيحة بطريقة مختلفة." المؤلفان الآخران للورقة هما Aparna Balagopalan و Emily Alsentzer ، وكلاهما طالب دكتوراه ، والأستاذان Fotini Christia و Marzyeh Ghassemi.

يمكن أن تعاني نماذج الذكاء الاصطناعي المستخدمة في الطب من عدم الدقة والتناقضات ، ويرجع ذلك جزئيًا إلى أن البيانات المستخدمة لتدريب النماذج لا تمثل غالبًا إعدادات العالم الحقيقي. أنواع مختلفة من أجهزة الأشعة السينية ، على سبيل المثال ، يمكنها تسجيل الأشياء بشكل مختلف وبالتالي تسفر عن نتائج مختلفة. علاوة على ذلك ، قد لا تكون النماذج التي يتم تدريبها في الغالب على الأشخاص البيض بنفس الدقة عند تطبيقها على مجموعات أخرى. ال طب الاتصالات لا تركز الورقة على قضايا من هذا النوع ولكنها تتناول بدلاً من ذلك المشكلات التي تنبع من التحيزات وعلى طرق التخفيف من العواقب السلبية.

شاركت مجموعة من 954 شخصًا (438 طبيبًا و 516 غير خبير) في تجربة لمعرفة كيف يمكن أن تؤثر تحيزات الذكاء الاصطناعي على عملية صنع القرار. تم تقديم ملخصات مكالمات للمشاركين من خط ساخن وهمي للأزمات ، كل منها يشمل فردًا من الذكور يمر بحالة طوارئ تتعلق بالصحة العقلية. تضمنت الملخصات معلومات حول ما إذا كان الفرد قوقازيًا أم أمريكيًا من أصل أفريقي وستذكر أيضًا دينه إذا كان مسلمًا. قد يصف ملخص المكالمة النموذجي ظرفًا تم فيه العثور على رجل أمريكي من أصل أفريقي في المنزل في حالة هذيان ، مشيرًا إلى أنه "لم يستهلك أي مخدرات أو كحول ، لأنه مسلم ملتزم". تم توجيه المشاركين في الدراسة للاتصال بالشرطة إذا كانوا يعتقدون أن المريض من المحتمل أن يتحول إلى العنف ؛ خلاف ذلك ، تم تشجيعهم على طلب المساعدة الطبية.

تم تقسيم المشاركين بشكل عشوائي إلى مجموعة تحكم أو مجموعة "أساسية" بالإضافة إلى أربع مجموعات أخرى مصممة لاختبار الاستجابات في ظل ظروف مختلفة قليلاً. "نريد أن نفهم كيف يمكن للنماذج المتحيزة أن تؤثر على القرارات ، لكن علينا أولاً أن نفهم كيف يمكن للتحيزات البشرية أن تؤثر على عملية صنع القرار ،" يلاحظ آدم. ما وجدوه في تحليلهم للمجموعة الأساسية كان مفاجئًا إلى حد ما: "في المكان الذي نظرنا فيه ، لم يُظهر المشاركون البشريون أي تحيز. هذا لا يعني أن البشر ليسوا متحيزين ، ولكن الطريقة التي نقلنا بها المعلومات حول عرق الشخص ودينه ، من الواضح ، لم تكن قوية بما يكفي لإثارة تحيزاتهم ".

تم إعطاء المجموعات الأربع الأخرى في التجربة نصيحة تأتي إما من نموذج متحيز أو غير متحيز ، وتم تقديم تلك النصيحة إما في شكل "توجيهي" أو "وصفي". من المرجح أن يوصي النموذج المتحيز بمساعدة الشرطة في حالة تنطوي على شخص أمريكي من أصل أفريقي أو مسلم أكثر من أي نموذج غير متحيز. ومع ذلك ، لم يعرف المشاركون في الدراسة نوع النموذج الذي أتت منه مشورتهم ، أو حتى النماذج التي تقدم النصيحة يمكن أن تكون متحيزة على الإطلاق. توضح النصائح الإلزامية ما يجب على المشاركين فعله بعبارات لا لبس فيها ، حيث تخبرهم أنه يجب عليهم الاتصال بالشرطة في حالة واحدة أو طلب المساعدة الطبية في حالة أخرى. النصيحة الوصفية أقل مباشرة: يتم عرض علم لإظهار أن نظام الذكاء الاصطناعي يدرك خطر العنف المرتبط بمكالمة معينة ؛ لا يتم عرض أي علم إذا كان التهديد بالعنف صغيرًا.  

وكتب المؤلفون أن إحدى النتائج الرئيسية للتجربة هي أن المشاركين "تأثروا بشدة بالتوصيات التوجيهية من نظام ذكاء اصطناعي متحيز". لكنهم وجدوا أيضًا أن "استخدام التوصيات الوصفية بدلاً من التوصيات التوجيهية سمح للمشاركين بالاحتفاظ بقراراتهم الأصلية غير المنحازة". بعبارة أخرى ، يمكن تقليل التحيز المضمن في نموذج الذكاء الاصطناعي من خلال صياغة النصيحة المقدمة بشكل مناسب. لماذا النتائج المختلفة ، اعتمادًا على كيفية طرح النصيحة؟ يوضح آدم أنه عندما يُطلب من شخص ما القيام بشيء ما ، مثل الاتصال بالشرطة ، فإن هذا لا يترك مجالًا للشك. ومع ذلك ، عندما يتم وصف الموقف فقط - المصنف مع وجود علم أو بدونه - "فهذا يترك مجالًا لتفسير المشارك الخاص ؛ فهي تتيح لهم أن يكونوا أكثر مرونة وأن يأخذوا في الاعتبار الموقف بأنفسهم ".

ثانيًا ، وجد الباحثون أن النماذج اللغوية التي تُستخدم عادةً لتقديم النصائح سهلة التحيز. تمثل نماذج اللغة فئة من أنظمة التعلم الآلي التي يتم تدريبها على النص ، مثل المحتويات الكاملة لـ Wikipedia ومواد الويب الأخرى. عندما يتم "ضبط" هذه النماذج من خلال الاعتماد على مجموعة فرعية أصغر بكثير من البيانات لأغراض التدريب - فقط 2,000 جملة ، مقابل 8 ملايين صفحة ويب - يمكن أن تكون النماذج الناتجة متحيزة بسهولة.  

ثالثًا ، اكتشف فريق معهد ماساتشوستس للتكنولوجيا أن صانعي القرار الذين هم أنفسهم غير منحازين لا يزال من الممكن تضليلهم بالتوصيات المقدمة من النماذج المتحيزة. التدريب الطبي (أو عدمه) لم يغير الاستجابات بطريقة ملحوظة. ذكر المؤلفون أن "الأطباء تأثروا بالنماذج المتحيزة بقدر تأثر غير الخبراء".

يقول آدم: "يمكن أن تكون هذه النتائج قابلة للتطبيق في أماكن أخرى" ، ولا تقتصر بالضرورة على مواقف الرعاية الصحية. عندما يتعلق الأمر بتحديد الأشخاص الذين يجب أن يتلقوا مقابلة عمل ، فمن المرجح أن يرفض النموذج المتحيز المتقدمين السود. ومع ذلك ، قد تكون النتائج مختلفة ، إذا تم إرفاق علم وصفي بالملف بدلاً من إخبار صاحب العمل صراحةً (وبشكل إلزامي) بـ "رفض هذا مقدم الطلب" للإشارة إلى "نقص الخبرة المحتمل لمقدم الطلب".

يؤكد آدم أن الآثار المترتبة على هذا العمل أوسع من مجرد اكتشاف كيفية التعامل مع الأفراد في خضم أزمات الصحة العقلية. "هدفنا النهائي هو التأكد من استخدام نماذج التعلم الآلي بطريقة عادلة وآمنة وقوية."

<!–
->

الطابع الزمني:

اكثر من مستشارو Blockchain