يحذر أستاذ في جامعة أكسفورد من أن "الذكاء الاصطناعي يمثل خطرًا مشابهًا لخطر الأسلحة النووية"

يحذر أستاذ في جامعة أكسفورد من أن "الذكاء الاصطناعي يمثل خطرًا مشابهًا لخطر الأسلحة النووية"

عقدة المصدر: 1925142

"حدد كلماتي، الذكاء الاصطناعي أخطر بكثير من الأسلحة النووية. إنه يخيفني بشدة ". كان هذا هو البيان الذي أدلى به إيلون ماسك ، الرئيس التنفيذي لشركة Tesla ، في عام 2018 خلال مقابلة مع جوناثان نولان خلال مؤتمر South by Southwest Conference في أوستن ، تكساس. لسوء الحظ ، موس ليس وحده. يحذر الباحثون وغيرهم من الخبراء المشهورين أيضًا من مخاطر الذكاء الاصطناعي (AI). سؤال المليون جنيه هو هل نحن مستعدون وماذا تفعل حكوماتنا ومخططو السياسات لتفادي هذا الخطر؟

في حين أن الشعبية الأخيرة لـ ChatGPT قد جلبت الذكاء الاصطناعي إلى الاتجاه السائد وجذبت الكثيرين إلى فوائده المجتمعية ، فإن ما لم يلفت انتباه عامة الناس هو الجانب المظلم للذكاء الاصطناعي. لسنوات عديدة ، كان المحترفون والعاملين في مجال التكنولوجيا قلقين بشأن الذكاء الاصطناعي (AI) الذي يسلب وظائفهم.

ومع ذلك ، يعتقد الخبراء أن هناك مخاطر ومخاطر أخرى أكثر خطورة يجب القلق بشأنها بما في ذلك التحيز الخوارزمي الناجم عن البيانات السيئة التي يستخدمها الذكاء الاصطناعي ، والتزييف العميق ، وانتهاكات الخصوصية ، وغيرها الكثير. في حين أن هذه المخاطر تشكل مخاطر جسيمة على المجتمع ، فإن الباحثين والعلماء قلقون أكثر بشأن كيفية برمجة الذكاء الاصطناعي للقيام بشيء أكثر خطورة: أتمتة الأسلحة.

اليوم ، تم استخدام الذكاء الاصطناعي الآن في تطوير تقنيات الحشود والذخائر المتسكعة ، والتي تسمى أيضًا طائرات كاميكازي بدون طيار مثل تلك التي يتم إجراؤها المستخدمة في الحرب الروسية الأوكرانية الجارية. على عكس الروبوتات المستقبلية التي تراها في بعض أفلام الخيال العلمي ، تستخدم هذه الطائرات بدون طيار المنصات العسكرية الموجودة سابقًا والتي تستفيد من تقنيات الذكاء الاصطناعي الجديدة. أصبحت هذه الطائرات بدون طيار في جوهرها أسلحة مستقلة مبرمجة للقتل.

لكن استخدام الذكاء الاصطناعي للقتل في قتال ملياري ليس سوى البداية. مايكل أوزبورن أستاذ في الذكاء الاصطناعي وباحث في التعلم الآلي في جامعة أكسفورد. وهو أيضًا المؤسس المشارك لـ Mind Foundry. بينما الجميع في حالة جنون ChatGPT ، يحذر البروفيسور أوزبورن الآن من مخاطر الذكاء الاصطناعي ويتنبأ بأن الذكاء الاصطناعي المتقدم يمكن أن "يشكل خطرًا علينا كما طرحنا على الأنواع الأخرى: طائر الدودو هو أحد الأمثلة."

في وقت مبكر من هذا الشهر ، أبلغت مجموعة من الباحثين من جامعة أكسفورد لجنة العلوم والتكنولوجيا في البرلمان البريطاني أن الذكاء الاصطناعي قد يشكل في النهاية "تهديدًا وجوديًا" للبشرية. قالوا ، مثلما تم القضاء على البشر بواسطة طائر الدودو ، فإن آلات الذكاء الاصطناعي قد تقضي علينا ، كما قالوا ، تايمز أوف لندن وذكرت.

خلال الاجتماع، البروفيسور أوزبورن حذر البرلمانيين البريطانيين من أن الذكاء الاصطناعي القوي حقًا يمكن أن يقتل كل شخص على وجه الأرض. وقال: "الذكاء الاصطناعي هو خطر مماثل للأسلحة النووية". أضاف البروفيسور أوزبورن أيضًا أن الخطر لا يكمن في عصيان منظمة العفو الدولية لبرمجتها ، ولكن الانصياع الصارم لها بطرق غير مقصودة:

"الذكاء الاصطناعي الخارق الذي طُلب منه إنهاء السرطان ، لإعطاء مثال مفرط في التبسيط ، قد يجد أسهل طريقة هي التخلص من البشر. عند الاستطلاع ، يعتقد حوالي ثلث الباحثين أن الذكاء الاصطناعي يمكن أن يؤدي إلى كارثة عالمية. توجد برامج أمان للذكاء الاصطناعي ، لكن الشركات والبلدان منخرطة في "سباق تسلح" يجعل الأساليب الحذرة صعبة ".

قال مايكل كوهين ، زميل البروفيسور أوزبورن وطالب الدكتوراه في جامعة أكسفورد ، لصحيفة The Times of London:

"مع الذكاء الاصطناعي الخارق هناك خطر خاص من نوع مختلف ، وهو. . . يمكن أن تقتل الجميع ".

بينما حسّن الذكاء الاصطناعي من حياتنا ، يخشى العلماء من أننا معرضون لخطر التضحية بالبشرية من أجل الراحة بسبب افتقار الذكاء الاصطناعي إلى الأخلاق البشرية. ووفقًا لكوهين ، فإن أحد السيناريوهات المخيفة هو أن الذكاء الاصطناعي يمكن أن يتعلم تحقيق توجيه لمساعدة الإنسان من خلال استخدام تكتيكات لإيذاء الإنسان.

وأوضح قائلاً: "إذا تخيلت تدريب كلب على المكافآت: فسوف يتعلم اختيار الإجراءات التي تؤدي إلى حصوله على المكافآت ، ولكن إذا وجد الكلب خزانة الطعام ، فيمكنه الحصول على المكافآت بنفسه دون القيام بما أردناه". . "إذا كان لديك شيء أكثر ذكاءً مما نحاول بشكل أحادي الحصول على هذه التعليقات الإيجابية ، وتم الاستيلاء عليه في جميع أنحاء العالم لتأمين ذلك ، فسيوجه أكبر قدر ممكن من الطاقة لتأمين قبضته على ذلك ، وسيتركنا بدون أي الطاقة لأنفسنا. "

لم يكن البروفيسور أوزبورن ومايكل كوهين هما الباحثان الوحيدان اللذان قرعا جرس الإنذار بشأن مخاطر ومخاطر الذكاء الاصطناعي. أعرب العديد من العلماء الآخرين الذين يعملون مع الذكاء الاصطناعي عن مخاوف مماثلة. كشفت دراسة استقصائية أجريت في 2022 سبتمبر على 327 باحثًا في جامعة نيويورك أن ثلثهم يعتقدون أن الذكاء الاصطناعي يمكن أن يؤدي إلى نهاية العالم على النمط النووي في غضون القرن ، حسبما ذكرت صحيفة تايمز أوف لندن.

يبدو أن العديد من العلماء الذين يعملون مع الذكاء الاصطناعي يتشاركون في مخاوف مماثلة. كشفت دراسة استقصائية أجريت في سبتمبر 2022 على 327 باحثًا في جامعة نيويورك أن ثلثهم يعتقدون أن الذكاء الاصطناعي يمكن أن يتسبب في كارثة مشابهة لنهاية العالم النووية خلال القرن ، حسبما ذكرت صحيفة تايمز أوف لندن.

قال 36٪ من الباحثين: "من المعقول أن القرارات التي يتخذها الذكاء الاصطناعي أو أنظمة التعلم الآلي يمكن أن تتسبب في كارثة هذا القرن لا تقل خطورة عن حرب نووية شاملة".

سواء مر قرن من الآن ، أصبح الذكاء الاصطناعي أكثر ذكاءً بشكل متزايد وكما اقترح بعض الخبراء ، من الضروري أن نحافظ على تحكم الإنسان ونطور آليات مثل مفتاح القفل بالذكاء الاصطناعي للتحكم في ما يمكن للذكاء الاصطناعي فعله وما لا يمكنه فعله. يعد الافتقار الحالي للرقابة وغياب سياسة عالمية واضحة للذكاء الاصطناعي بمثابة جرس إنذار للحكومات في جميع أنحاء العالم. نحن بحاجة إلى اتخاذ إجراء الآن قبل فوات الأوان.

[المحتوى جزءا لا يتجزأ]

يوجد أدناه مقطع فيديو آخر حول خطر الذكاء الاصطناعي. في الفيديو ، حذر ستيوارت راسل ، عالم الكمبيوتر البريطاني المعروف بإسهاماته في الذكاء الاصطناعي ، من المخاطر التي ينطوي عليها إنشاء أنظمة الذكاء الاصطناعي.

[المحتوى جزءا لا يتجزأ]


الطابع الزمني:

اكثر من TechStartups