AI Weekly: AlphaCode الخاص بـ DeepMind، والتحقق التلقائي من العمر، ونموذج لغة مفتوح جديد

عقدة المصدر: 1601380

انضم إلى كبار المديرين التنفيذيين اليوم عبر الإنترنت في قمة البيانات في 9 مارس. يسجل هنا.


هذا الأسبوع في الذكاء الاصطناعي، قامت DeepMind بتفصيل نظام جديد لتوليد التعليمات البرمجية، ألفا كود، التي تدعي أنها قادرة على المنافسة مع كبار المبرمجين البشريين. أعلنت سلاسل المتاجر الكبرى في المملكة المتحدة أنها ستبدأ في اختبار أنظمة التحقق التلقائي من العمر لتقدير أعمار العملاء عند شراء الكحول. وأصدرت EleutherAI، وهي مجموعة بحثية تركز على أنظمة الذكاء الاصطناعي مفتوحة المصدر ذات القدرة العالية، GPT-NeoX-20B، وهو نموذج لغوي يعد من بين الأكبر من نوعه.

يعد AlphaCode أحد الأمثلة الأكثر تعقيدًا لبرمجة الآلات، أو الأدوات التي تعمل على أتمتة عمليات تطوير البرامج وصيانتها. تدعي شركة DeepMind أنها تستطيع كتابة تعليمات برمجية "على مستوى المنافسة"، محققة تصنيفًا متوسطًا ضمن أعلى 54.3% عبر 10 مسابقات حديثة على منصة تحدي البرمجة Codeforces.

إن تطبيقات برمجة الآلة واسعة النطاق، وهو ما يفسر سبب وجود الحماس حولها. وفقًا لدراسة أجرتها جامعة كامبريدج، يتم إنفاق نصف جهود المطورين على الأقل في تصحيح الأخطاء، مما يكلف صناعة البرمجيات ما يقدر بنحو 312 مليار دولار سنويًا. حتى ترحيل قاعدة التعليمات البرمجية إلى لغة أكثر كفاءة يمكن أن يتطلب مبلغًا ضخمًا. على سبيل المثال، بنك الكومنولث الأسترالي قضى حوالي 750 مليون دولار على مدار خمس سنوات لتحويل منصتها من COBOL إلى Java.

تعد أدوات إنشاء الأكواد التي تعمل بالذكاء الاصطناعي مثل AlphaCode بخفض تكاليف التطوير مع السماح للمبرمجين بالتركيز على المهام الإبداعية والأقل تكرارًا. لكن AlphaCode ليس خاليًا من العيوب. الى جانب كونها ذو تكلفة باهظة للمحافظة عليه، فإنه لا ينتج دائمًا تعليمات برمجية صحيحة ويمكن أن تحتوي على مشكلات - إذا كانت هناك أي إشارة إلى أنظمة مماثلة انحياز. علاوة على ذلك، إذا تم إتاحتها للعامة، فقد تسيء الجهات الفاعلة الضارة استخدامها لإنشاء برامج ضارة، تجنب اختبارات البرمجة، و مجنون الباحثين في مجال الأمن السيبراني.

"[A] على الرغم من أن فكرة إعطاء قوة البرمجة للأشخاص الذين لا يستطيعون البرمجة هي فكرة مثيرة، إلا أن لدينا الكثير من المشكلات التي يتعين علينا حلها قبل أن نصل إلى هناك،" مايك كوك، باحث في مجال الذكاء الاصطناعي في جامعة كوين ماري في الولايات المتحدة. لندن.

التحقق التلقائي من العمر

تستخدم ثلاث سلاسل متاجر سوبر ماركت في المملكة المتحدة - أسادا، وكو أوب، وموريسونز - الكاميرات لتقدير أعمار العملاء كجزء من اختبار تجريه وزارة الداخلية، وهي الوزارة البريطانية المسؤولة عن الهجرة والأمن والقانون والنظام. هذه التقنية، التي كانت تُستخدم بالفعل في موقع Aldi الخالي من الخروج في لندن، تخمن عمر العملاء الذين يوافقون على استخدام الخوارزميات المدربة على "قاعدة بيانات للوجوه المجهولة". بالنسبة الى الى بي بي سي. إذا قررت أن عمرهم أقل من 25 عامًا، فسيتعين عليهم إظهار بطاقة الهوية لأحد الموظفين.

وتقول شركة Yoti - الشركة التي تقدم هذه التقنية - إنه تم اختبارها على أكثر من 125,000 ألف وجه، وتم تخمين العمر في حدود 2.2 سنة. لكن بينما يقول Yoti إنه لا يقوم بالتعرف على الوجه أو يحتفظ بالصور التي يتم التقاطها، فإن النظام يثير مخاوف أخلاقية.

يمكن لأنظمة تقدير العمر، مثل أنظمة الذكاء الاصطناعي الأخرى، تضخيم أي تحيز في البيانات المستخدمة لتطوير الأنظمة. دراسة واحدة يسلط الضوء على تأثير المكياج، الذي يمكن أن يغطي علامات التقدم في السن مثل البقع العمرية والتجاعيد، ويكتشف أن برامج تقدير العمر تميل إلى أن تكون أكثر دقة بالنسبة للرجال. ووجد البحث نفسه أن البرنامج يبالغ في تقدير أعمار الشباب غير القوقازيين ويقلل من تقدير أعمار كبار السن من الآسيويين والسود، ويمكن أن يتأثر حتى بما إذا كان الشخص يبتسم أم لا.

في مقابلة مع Wired، اعترف المؤسس المشارك لشركة Yoti والرئيس التنفيذي Robin Tombs بأن الشركة لم تكن متأكدة من ميزات الوجه التي يستخدمها الذكاء الاصطناعي لتحديد أعمار الأشخاص. وبينما شدد على أن مجموعة بيانات التدريب الخاصة بشركة Yoti والتي تضم "مئات الآلاف" من الوجوه كانت "تمثل لون البشرة والأعمار والجنس" وأن أبحاثها الداخلية أظهرت معدلات خطأ مماثلة عبر التركيبة السكانية، فإن الأدب الأكاديمي يبدو أنه يشير إلى خلاف ذلك. تُظهر الوثيقة البيضاء الخاصة بـ Yoti أن التقنية أقل دقة بالنسبة للنساء الأكبر سناً ذوات البشرة الداكنة.

إن التقدير الخاطئ للعمر في السوبر ماركت قد لا يمثل أكثر من مجرد إزعاج (وربما إحراج). لكن من الممكن أن يؤدي ذلك إلى تطبيع التكنولوجيا، مما يؤدي إلى تطبيقات أكثر إشكالية في أماكن أخرى. قال دانييل لوفر، محلل السياسات الأوروبية الذي يركز على الذكاء الاصطناعي في مجموعة الحريات المدنية Access Now، لموقع Wired إنه يجب على المنظمين أن ينظروا إلى الأشخاص الذين من المرجح أن تفشل هذه الأنظمة عندما يفكرون في حالات الاستخدام. وقال: "عادةً ما تكون هذه الإجابة هي الأشخاص الذين تفشلهم الأنظمة الأخرى بشكل روتيني".

نموذج لغة مفتوحة المصدر

إليوثيراي يوم الأربعاء صدر أحدث نموذج لغوي لها، GPT-NeoX-20B، كجزء من مهمتها لتوسيع الوصول إلى الذكاء الاصطناعي عالي القدرة لإنشاء النصوص. متوفر الآن من خلال واجهة برمجة التطبيقات (API) وفي الأسبوع المقبل كمصدر مفتوح، يتفوق GPT-NeoX-20B على نماذج اللغة العامة الأخرى عبر العديد من المجالات بينما يكون نشره أرخص بشكل عام، وفقًا لـ EleutherAI.

تم تدريب GPT-NeoX-20B – الذي تم تطويره على البنية التحتية المقدمة من CoreWeave، وهو مزود سحابي متخصص – على مجموعة بيانات نصية تبلغ 825 جيجابايت من EleutherAI وتحتوي على 20 مليار معلمة، أي أقل بحوالي 9 مرات من GPT-3 من OpenAI. في التعلم الآلي، تعد المعلمات جزءًا من النموذج الذي تم تعلمه من بيانات التدريب التاريخية. بشكل عام، في مجال اللغة، كان الارتباط بين عدد المعلمات والتعقيد جيدًا بشكل ملحوظ.

لا تدعي EleutherAI أن GPT-NeoX-20B يحل أيًا من المشكلات الرئيسية التي تعاني منها نماذج اللغة الحالية، بما في ذلك جوانب مثل التحيز والسمية. لكن المجموعة تؤكد أن فوائد إطلاق النموذج - وغيره من النماذج المشابهة - تفوق المخاطر. يمكن أن تكلف النماذج اللغوية ما يصل إلى ملايين الدولارات للتدريب من الصفر، والاستدلال - (أي تشغيل النموذج المُدرب فعليًا) يمثل عائقًا آخر. يربط أحد التقديرات تكلفة تشغيل GPT-3 على مثيل Amazon Web Services واحد بما لا يقل عن 87,000 دولار سنويًا.

"من البريد العشوائي والتسويق الماكر إلى إدمان برامج الدردشة الآلية، هناك أضرار واضحة يمكن أن تظهر من استخدام هذه النماذج بالفعل اليوم، ونتوقع أن تكون مواءمة النماذج المستقبلية ذات أهمية بالغة. وقال كونور ليهي، المؤسس المشارك لشركة EleutherAI، في بيان: “نعتقد أن تسريع أبحاث السلامة أمر في غاية الأهمية”.

لقد أنتجت نماذج EleutherAI السابقة بالفعل شركات ناشئة جديدة تمامًا في مجال الذكاء الاصطناعي كخدمة. إذا كان التاريخ مؤشرًا، فإن GPT-NeoX-20B سيفعل الشيء نفسه.

لتغطية منظمة العفو الدولية ، أرسل نصائح إخبارية إلى كايل ويجرس - وتأكد من الاشتراك في النشرة الأسبوعية لمنظمة العفو الدولية وقم بوضع إشارة مرجعية على قناة الذكاء الاصطناعي الخاصة بنا ، آلة.

شكرا للقراءة،

كايل ويجرس

كاتب كبير في منظمة العفو الدولية

مهمة VentureBeat هي أن تكون ساحة المدينة الرقمية لصناع القرار التقنيين لاكتساب المعرفة حول تكنولوجيا المؤسسات التحويلية والمعاملات. تعرف على المزيد

المصدر: https://venturebeat.com/2022/02/04/ai-weekly-deepminds-alphacode-automatic-age-verification-and-a-new-open-language-model/

الطابع الزمني:

اكثر من منظمة العفو الدولية - VentureBeat