"حدد كلماتي، الذكاء الاصطناعي أخطر بكثير من الأسلحة النووية. إنه يخيفني بشدة ". كان هذا هو البيان الذي أدلى به إيلون ماسك ، الرئيس التنفيذي لشركة Tesla ، في عام 2018 خلال مقابلة مع جوناثان نولان خلال مؤتمر South by Southwest Conference في أوستن ، تكساس. لسوء الحظ ، موس ليس وحده. يحذر الباحثون وغيرهم من الخبراء المشهورين أيضًا من مخاطر الذكاء الاصطناعي (AI). سؤال المليون جنيه هو هل نحن مستعدون وماذا تفعل حكوماتنا ومخططو السياسات لتفادي هذا الخطر؟
في حين أن الشعبية الأخيرة لـ ChatGPT قد جلبت الذكاء الاصطناعي إلى الاتجاه السائد وجذبت الكثيرين إلى فوائده المجتمعية ، فإن ما لم يلفت انتباه عامة الناس هو الجانب المظلم للذكاء الاصطناعي. لسنوات عديدة ، كان المحترفون والعاملين في مجال التكنولوجيا قلقين بشأن الذكاء الاصطناعي (AI) الذي يسلب وظائفهم.
ومع ذلك ، يعتقد الخبراء أن هناك مخاطر ومخاطر أخرى أكثر خطورة يجب القلق بشأنها بما في ذلك التحيز الخوارزمي الناجم عن البيانات السيئة التي يستخدمها الذكاء الاصطناعي ، والتزييف العميق ، وانتهاكات الخصوصية ، وغيرها الكثير. في حين أن هذه المخاطر تشكل مخاطر جسيمة على المجتمع ، فإن الباحثين والعلماء قلقون أكثر بشأن كيفية برمجة الذكاء الاصطناعي للقيام بشيء أكثر خطورة: أتمتة الأسلحة.
اليوم ، تم استخدام الذكاء الاصطناعي الآن في تطوير تقنيات الحشود والذخائر المتسكعة ، والتي تسمى أيضًا طائرات كاميكازي بدون طيار مثل تلك التي يتم إجراؤها المستخدمة في الحرب الروسية الأوكرانية الجارية. على عكس الروبوتات المستقبلية التي تراها في بعض أفلام الخيال العلمي ، تستخدم هذه الطائرات بدون طيار المنصات العسكرية الموجودة سابقًا والتي تستفيد من تقنيات الذكاء الاصطناعي الجديدة. أصبحت هذه الطائرات بدون طيار في جوهرها أسلحة مستقلة مبرمجة للقتل.
لكن استخدام الذكاء الاصطناعي للقتل في قتال ملياري ليس سوى البداية. مايكل أوزبورن أستاذ في الذكاء الاصطناعي وباحث في التعلم الآلي في جامعة أكسفورد. وهو أيضًا المؤسس المشارك لـ Mind Foundry. بينما الجميع في حالة جنون ChatGPT ، يحذر البروفيسور أوزبورن الآن من مخاطر الذكاء الاصطناعي ويتنبأ بأن الذكاء الاصطناعي المتقدم يمكن أن "يشكل خطرًا علينا كما طرحنا على الأنواع الأخرى: طائر الدودو هو أحد الأمثلة."
في وقت مبكر من هذا الشهر ، أبلغت مجموعة من الباحثين من جامعة أكسفورد لجنة العلوم والتكنولوجيا في البرلمان البريطاني أن الذكاء الاصطناعي قد يشكل في النهاية "تهديدًا وجوديًا" للبشرية. قالوا ، مثلما تم القضاء على البشر بواسطة طائر الدودو ، فإن آلات الذكاء الاصطناعي قد تقضي علينا ، كما قالوا ، تايمز أوف لندن وذكرت.
خلال الاجتماع، البروفيسور أوزبورن حذر البرلمانيين البريطانيين من أن الذكاء الاصطناعي القوي حقًا يمكن أن يقتل كل شخص على وجه الأرض. وقال: "الذكاء الاصطناعي هو خطر مماثل للأسلحة النووية". أضاف البروفيسور أوزبورن أيضًا أن الخطر لا يكمن في عصيان منظمة العفو الدولية لبرمجتها ، ولكن الانصياع الصارم لها بطرق غير مقصودة:
"الذكاء الاصطناعي الخارق الذي طُلب منه إنهاء السرطان ، لإعطاء مثال مفرط في التبسيط ، قد يجد أسهل طريقة هي التخلص من البشر. عند الاستطلاع ، يعتقد حوالي ثلث الباحثين أن الذكاء الاصطناعي يمكن أن يؤدي إلى كارثة عالمية. توجد برامج أمان للذكاء الاصطناعي ، لكن الشركات والبلدان منخرطة في "سباق تسلح" يجعل الأساليب الحذرة صعبة ".
قال مايكل كوهين ، زميل البروفيسور أوزبورن وطالب الدكتوراه في جامعة أكسفورد ، لصحيفة The Times of London:
"مع الذكاء الاصطناعي الخارق هناك خطر خاص من نوع مختلف ، وهو. . . يمكن أن تقتل الجميع ".
بينما حسّن الذكاء الاصطناعي من حياتنا ، يخشى العلماء من أننا معرضون لخطر التضحية بالبشرية من أجل الراحة بسبب افتقار الذكاء الاصطناعي إلى الأخلاق البشرية. ووفقًا لكوهين ، فإن أحد السيناريوهات المخيفة هو أن الذكاء الاصطناعي يمكن أن يتعلم تحقيق توجيه لمساعدة الإنسان من خلال استخدام تكتيكات لإيذاء الإنسان.
وأوضح قائلاً: "إذا تخيلت تدريب كلب على المكافآت: فسوف يتعلم اختيار الإجراءات التي تؤدي إلى حصوله على المكافآت ، ولكن إذا وجد الكلب خزانة الطعام ، فيمكنه الحصول على المكافآت بنفسه دون القيام بما أردناه". . "إذا كان لديك شيء أكثر ذكاءً مما نحاول بشكل أحادي الحصول على هذه التعليقات الإيجابية ، وتم الاستيلاء عليه في جميع أنحاء العالم لتأمين ذلك ، فسيوجه أكبر قدر ممكن من الطاقة لتأمين قبضته على ذلك ، وسيتركنا بدون أي الطاقة لأنفسنا. "
لم يكن البروفيسور أوزبورن ومايكل كوهين هما الباحثان الوحيدان اللذان قرعا جرس الإنذار بشأن مخاطر ومخاطر الذكاء الاصطناعي. أعرب العديد من العلماء الآخرين الذين يعملون مع الذكاء الاصطناعي عن مخاوف مماثلة. كشفت دراسة استقصائية أجريت في 2022 سبتمبر على 327 باحثًا في جامعة نيويورك أن ثلثهم يعتقدون أن الذكاء الاصطناعي يمكن أن يؤدي إلى نهاية العالم على النمط النووي في غضون القرن ، حسبما ذكرت صحيفة تايمز أوف لندن.
يبدو أن العديد من العلماء الذين يعملون مع الذكاء الاصطناعي يتشاركون في مخاوف مماثلة. كشفت دراسة استقصائية أجريت في سبتمبر 2022 على 327 باحثًا في جامعة نيويورك أن ثلثهم يعتقدون أن الذكاء الاصطناعي يمكن أن يتسبب في كارثة مشابهة لنهاية العالم النووية خلال القرن ، حسبما ذكرت صحيفة تايمز أوف لندن.
قال 36٪ من الباحثين: "من المعقول أن القرارات التي يتخذها الذكاء الاصطناعي أو أنظمة التعلم الآلي يمكن أن تتسبب في كارثة هذا القرن لا تقل خطورة عن حرب نووية شاملة".
سواء مر قرن من الآن ، أصبح الذكاء الاصطناعي أكثر ذكاءً بشكل متزايد وكما اقترح بعض الخبراء ، من الضروري أن نحافظ على تحكم الإنسان ونطور آليات مثل مفتاح القفل بالذكاء الاصطناعي للتحكم في ما يمكن للذكاء الاصطناعي فعله وما لا يمكنه فعله. يعد الافتقار الحالي للرقابة وغياب سياسة عالمية واضحة للذكاء الاصطناعي بمثابة جرس إنذار للحكومات في جميع أنحاء العالم. نحن بحاجة إلى اتخاذ إجراء الآن قبل فوات الأوان.
[المحتوى جزءا لا يتجزأ]
يوجد أدناه مقطع فيديو آخر حول خطر الذكاء الاصطناعي. في الفيديو ، حذر ستيوارت راسل ، عالم الكمبيوتر البريطاني المعروف بإسهاماته في الذكاء الاصطناعي ، من المخاطر التي ينطوي عليها إنشاء أنظمة الذكاء الاصطناعي.
[المحتوى جزءا لا يتجزأ]
- محتوى مدعوم من تحسين محركات البحث وتوزيع العلاقات العامة. تضخيم اليوم.
- بلاتوبلوكشين. Web3 Metaverse Intelligence. تضخيم المعرفة. الوصول هنا.
- المصدر https://techstartups.com/2023/01/28/ai-is-as-comparable-a-danger-as-nuclear-weapons-oxford-university-researchers-warn/
- 2018
- 2022
- 7
- a
- الذكاء الاصطناعى
- من نحن
- AC
- وفقا
- التأهيل
- اكشن
- الإجراءات
- وأضاف
- متقدم
- AI
- أنظمة الذكاء الاصطناعي
- AI-بالطاقة
- إنذار
- خوارزمية
- التحيز الحسابي
- وحده
- و
- آخر
- تظهر
- اقتراب
- حول
- مصطنع
- الذكاء الاصطناعي
- الذكاء الاصطناعي (منظمة العفو الدولية)
- اهتمام
- أوستن
- مستقل
- سيئة
- بيانات سيئة
- أصبح
- أن تصبح
- قبل
- البداية
- يجري
- اعتقد
- جرس
- الفوائد
- انحياز
- جلب
- بريطاني
- جلبت
- الأعمال
- دعوة
- تسمى
- دعوات
- يستطيع الحصول على
- السرطان.
- لا تستطيع
- سبب
- تسبب
- حذر
- قرن
- الرئيس التنفيذي
- شات جي بي تي
- فئة
- واضح
- المؤسس المشارك
- الزميل
- مكافحة
- لجنة
- مماثل
- الكمبيوتر
- قلق
- اهتمامات
- مؤتمر
- محتوى
- مساهمات
- مراقبة
- ملاءمة
- استطاع
- دولة
- خلق
- حالياًّ
- DANGER
- خطير
- الأخطار
- غامق
- البيانات
- القرارات
- عميق
- المزيفون العميقة
- تطوير
- تطوير
- التطوير التجاري
- مختلف
- صعبة
- مباشرة
- كارثة
- DODO
- كلب
- فعل
- طائرات بدون طيار
- أثناء
- أرض
- أسهل
- القضاء
- ايلون
- إيلون ماسك
- جزءا لا يتجزأ من
- طاقة
- مخطوب
- جوهر
- الأثير (ETH)
- حتى
- في النهاية
- كل شخص
- مثال
- القائمة
- خبرائنا
- يعتقد الخبراء
- شرح
- أعربت
- خوف
- ردود الفعل
- ويرى
- وجدت
- مسبك
- تبدأ من
- مستقبلية
- كسب
- العلاجات العامة
- الشعب العام
- دولار فقط واحصل على خصم XNUMX% على جميع
- الحصول على
- منح
- العالمية
- الحكومات
- تجمع
- عقد
- كيفية
- HTTPS
- الانسان
- الإنسانية
- البشر
- صيغة الامر
- تحسن
- in
- بما فيه
- على نحو متزايد
- مجنون
- رؤيتنا
- المقابلة الشخصية
- المشاركة
- IT
- نفسها
- المشــاريــع
- قتل
- معروف
- نقص
- متأخر
- قيادة
- تعلم
- تعلم
- يترك
- الرافعة المالية
- حياة
- لندن
- آلة
- آلة التعلم
- الآلات
- صنع
- التيار
- جعل
- كثير
- الاجتماع
- طريقة
- مايكل
- ربما
- عسكر
- مانع
- شهر
- أخلاقية
- الأكثر من ذلك
- أفلام
- مسك
- حاجة
- جديد
- نيويورك
- جامعة نيويورك
- نووي
- أسلحة نووية
- ONE
- جارية
- أخرى
- مراقبة
- أكسفورد
- جامعة أكسفورد
- مجلس النواب
- خاص
- اختيار
- منصات التداول
- أفلاطون
- الذكاء افلاطون البيانات
- أفلاطون داتا
- سياسة
- شعبية
- إيجابي
- قوي
- أعدت
- سابقا
- خصوصية
- المهنيين
- البروفيسور
- المبرمجة
- برمجة وتطوير
- البرامج
- جمهور
- سؤال
- الأخيرة
- إزالة
- مشهور
- وذكرت
- الباحث
- الباحثين
- المخاطرة
- المخاطر
- الروبوتات
- التضحية
- السلامة
- قال
- صالح
- الخيال العلمي
- علوم
- العلوم والتكنولوجيا
- عالم
- العلماء
- تأمين
- تأمين
- سبتمبر
- جدي
- شاركت
- مماثل
- سمارت
- أكثر ذكاء
- مجتمعي
- جاليات
- بعض
- شيء
- جنوب
- ملخص الحساب
- طالب
- هذه
- جبار
- الدراسة الاستقصائية
- مفاتيح
- أنظمة
- التكتيكات
- أخذ
- مع الأخذ
- التكنولوجيا
- التكنولوجيا
- تكنولوجيا
- تكساس
- •
- العالم
- من مشاركة
- الثالث
- مرات
- إلى
- جدا
- قادة الإيمان
- علاج
- يعامل
- جامعة
- us
- تستخدم
- فيديو
- انتهاكات
- مطلوب
- حرب
- تحذير
- يحذر
- طرق
- أسلحة
- ابحث عن
- التي
- في حين
- من الذى
- سوف
- في غضون
- بدون
- كلمات
- للعمل
- العمال
- العالم
- قلق
- سوف
- سنوات
- موقع YouTube
- زفيرنت