"کلماتم را نمره گذاری کن، هوش مصنوعی بسیار خطرناک تر از سلاح های هسته ای است. این جهنم مرا می ترساند.» این بیانیه ای بود که ایلان ماسک، مدیرعامل تسلا در سال 2018 طی مصاحبه ای با جاناتان نولان در جریان کنفرانس South by Southwest در آستین، تگزاس بیان کرد. متأسفانه موس تنها نیست. محققان و سایر کارشناسان مشهور نیز در مورد خطرات هوش مصنوعی (AI) هشدار می دهند. سوال 1 میلیون پوندی این است که آیا ما آمادگی داریم و دولت ها و برنامه ریزان سیاست ما برای جلوگیری از این خطر چه می کنند؟
در حالی که محبوبیت اخیر ChatGPT، هوش مصنوعی را به جریان اصلی تبدیل کرده و بسیاری را به سمت مزایای اجتماعی آن کشانده است، چیزی که توجه عموم را به خود جلب نمی کند، جنبه تاریک هوش مصنوعی است. سالهاست که متخصصان و کارکنان فناوری نگران هستند که هوش مصنوعی (AI) شغلشان را از بین ببرد.
با این حال، کارشناسان بر این باورند که خطرات و خطرات جدی تری وجود دارد که باید نگران آن باشیم، از جمله سوگیری الگوریتمی ناشی از داده های بد استفاده شده توسط هوش مصنوعی، تقلبی های عمیق، نقض حریم خصوصی و بسیاری موارد دیگر. در حالی که این خطرات خطرات جدی برای جامعه ایجاد می کند، محققان و دانشمندان بیشتر نگران این هستند که چگونه هوش مصنوعی می تواند برای انجام کارهای خطرناک تر برنامه ریزی شود: خودکارسازی سلاح ها.
امروزه، هوش مصنوعی در توسعه فناوریهای ازدحامی و مهمات پرسهزن، که به آن پهپادهای کامیکازه نیز میگویند، استفاده شده است. در جنگ جاری روسیه و اوکراین استفاده می شود. برخلاف روباتهای آیندهنگر که در برخی از فیلمهای علمی تخیلی میبینید، این پهپادها از پلتفرمهای نظامی قبلی استفاده میکنند که از فناوریهای جدید هوش مصنوعی بهره میبرند. این پهپادها در اصل به سلاح های خود مختاری تبدیل شده اند که برای کشتن برنامه ریزی شده اند.
اما استفاده از هوش مصنوعی برای کشتن در نبردهای نظامی تازه شروع کار است. مایکل آزبورن، استاد هوش مصنوعی و محقق یادگیری ماشین در دانشگاه آکسفورد است. او همچنین یکی از بنیانگذاران Mind Foundry است. در حالی که همه در شور و شوق ChatGPT هستند، پروفسور آزبورن اکنون در مورد خطرات هوش مصنوعی هشدار می دهد و پیش بینی می کند که هوش مصنوعی پیشرفته می تواند "به همان اندازه که برای سایر گونه ها خطر کرده ایم، برای ما خطر ایجاد کند: dodo یک نمونه است."
در اوایل این ماه، گروهی از محققان دانشگاه آکسفورد به کمیته علم و فناوری در پارلمان بریتانیا گفتند که هوش مصنوعی در نهایت میتواند یک "تهدید وجودی" برای بشریت باشد. تایمز لندن گفتند، درست همانطور که انسان ها توسط دودو نابود شدند، ماشین های هوش مصنوعی ممکن است ما را از بین ببرند. گزارش.
در طول جلسه ، پروفسور آزبورن به نمایندگان پارلمان بریتانیا هشدار داد که هوش مصنوعی واقعا قدرتمند می تواند همه افراد روی زمین را بکشد. او گفت: "هوش مصنوعی به اندازه سلاح های هسته ای خطری است." پروفسور آزبورن همچنین اضافه کرد که خطر این نیست که هوش مصنوعی از برنامه ریزی خود اطاعت کند، بلکه به شیوه های ناخواسته از آن اطاعت می کند.
یک هوش مصنوعی فوقهوشمند که به آن گفته میشود برای پایان دادن به سرطان، مثالی بیش از حد سادهشده ارائه دهد، ممکن است سادهترین روش را حذف انسانها بداند. زمانی که نظرسنجی انجام شد، حدود یک سوم از محققان فکر می کنند که هوش مصنوعی می تواند منجر به یک فاجعه جهانی شود. برنامههای ایمنی هوش مصنوعی وجود دارد، اما کسبوکارها و کشورها درگیر «مسابقه تسلیحاتی» هستند که رویکردهای محتاطانه را دشوار میکند.
مایکل کوهن، همکار پروفسور آزبورن و دانشجوی دکترا در دانشگاه آکسفورد، به تایمز لندن گفت:
هوش مصنوعی مافوق بشری خطر خاصی دارد که از نوع متفاوتی است، که . . . می تواند همه را بکشد.»
در حالی که هوش مصنوعی زندگی ما را بهبود بخشیده است، دانشمندان میترسند که به دلیل عدم اخلاق انسانی هوش مصنوعی، در خطر قربانی کردن بشریت به خاطر راحتی باشیم. به گفته کوهن، یکی از سناریوهای ترسناک این است که هوش مصنوعی می تواند با استفاده از تاکتیک های آسیب رساندن به انسان، دستیابی به دستورالعمل کمک به انسان را بیاموزد.
او توضیح داد: «اگر شما تصور کنید که سگی را با خوراکیهایی تربیت کنید: او یاد میگیرد که کارهایی را انتخاب کند که منجر به دریافت خوراکیها میشود، اما اگر سگ کمد غذا را پیدا کند، خودش میتواند بدون انجام کاری که ما میخواستیم انجام دهد، غذا را دریافت کند. . "اگر چیزی بسیار هوشمندتر از ما دارید که به طور تک شیادانه تلاش می کنیم تا این بازخورد مثبت را دریافت کنید، و برای اطمینان از آن در سراسر جهان گرفته شده است، تا آنجا که می تواند انرژی خود را صرف حفظ آن می کند، و ما را بدون هیچ گونه بازخوردی رها می کند. انرژی برای خودمان.»
پروفسور آزبورن و مایکل کوهن تنها دو محققی نیستند که زنگ خطر را در مورد خطرات و خطرات هوش مصنوعی به صدا در می آورند. بسیاری از دانشمندان دیگری که با هوش مصنوعی کار می کنند نگرانی های مشابهی را ابراز کرده اند. به گزارش تایمز لندن، یک نظرسنجی در سپتامبر 2022 از 327 محقق در دانشگاه نیویورک نشان داد که یک سوم بر این باورند که هوش مصنوعی میتواند یک آخرالزمان به سبک هستهای را در یک قرن به وجود آورد.
به نظر می رسد بسیاری از دانشمندانی که با هوش مصنوعی کار می کنند، نگرانی های مشابهی دارند. به گزارش تایمز لندن، یک نظرسنجی در سپتامبر 2022 از 327 محقق در دانشگاه نیویورک نشان داد که یک سوم بر این باورند که هوش مصنوعی میتواند فاجعهای شبیه به یک آخرالزمان هستهای در طول قرن ایجاد کند.
36 درصد از محققان میگویند: «ممکن است تصمیمهای گرفته شده توسط هوش مصنوعی یا سیستمهای یادگیری ماشینی باعث فاجعهای در قرن حاضر شود که حداقل به اندازه یک جنگ هستهای تمامعیار بد است».
صرف نظر از یک قرن آینده، هوش مصنوعی به طور فزاینده ای بیش از حد هوشمند می شود و همانطور که برخی از کارشناسان پیشنهاد کرده اند، ضروری است که کنترل انسان را حفظ کنیم و مکانیسم هایی مانند سوئیچ کشتن هوش مصنوعی برای کنترل آنچه که هوش مصنوعی می تواند انجام دهد و نمی تواند انجام دهد. فقدان نظارت فعلی و فقدان سیاست جهانی هوش مصنوعی روشن زنگ خطری برای دولتهای سراسر جهان است. باید همین الان اقدام کنیم تا دیر نشده.
[محتوای جاسازی شده]
در زیر ویدیوی دیگری در مورد خطر هوش مصنوعی وجود دارد. در این ویدئو، استوارت راسل، دانشمند کامپیوتر بریتانیایی که به خاطر مشارکتهایش در هوش مصنوعی شهرت دارد، درباره خطرات ناشی از ایجاد سیستمهای هوش مصنوعی هشدار میدهد.
[محتوای جاسازی شده]
- محتوای مبتنی بر SEO و توزیع روابط عمومی. امروز تقویت شوید.
- پلاتوبلاک چین. Web3 Metaverse Intelligence. دانش تقویت شده دسترسی به اینجا.
- منبع: https://techstartups.com/2023/01/28/ai-is-as-comparable-a-danger-as-nuclear-weapons-oxford-university-researchers-warn/
- 2018
- 2022
- 7
- a
- هوش مصنوعی
- درباره ما
- AC
- مطابق
- رسیدن
- عمل
- اقدامات
- اضافه
- پیشرفته
- AI
- سیستم های هوش مصنوعی
- مجهز به هوش مصنوعی
- هشدار
- الگوریتمی
- تعصب الگوریتمی
- تنها
- و
- دیگر
- ظاهر شدن
- رویکردها
- دور و بر
- مصنوعی
- هوش مصنوعی
- هوش مصنوعی (AI)
- توجه
- آستین
- خود مختار
- بد
- داده های بد
- شدن
- تبدیل شدن به
- قبل از
- شروع
- بودن
- باور
- ناقوس
- مزایای
- تعصب
- به ارمغان بیاورد
- انگلیسی
- آورده
- کسب و کار
- صدا
- نام
- تماس ها
- می توانید دریافت کنید
- سرطان
- نمی توان
- علت
- ایجاد می شود
- محتاط
- قرن
- مدیر عامل شرکت
- GPT چت
- کلاس
- واضح
- بنیانگذاران
- هم قطار
- مبارزه با
- کمیسیون
- قابل مقایسه
- کامپیوتر
- علاقمند
- نگرانی ها
- کنفرانس
- محتوا
- مشارکت
- کنترل
- راحتی
- میتوانست
- کشور
- ایجاد
- جاری
- خطر
- خطرناک
- خطرات
- تاریک
- داده ها
- تصمیم گیری
- عمیق
- جعل عمیق
- توسعه
- در حال توسعه
- پروژه
- مختلف
- مشکل
- مستقیم
- فاجعه
- دودو
- سگ
- عمل
- هواپیماهای بدون سرنشین
- در طی
- زمین
- آسان ترین
- از بین بردن
- الون
- Elon مشک
- جاسازی شده
- انرژی
- مشغول
- ماهیت
- اتر (ETH)
- حتی
- در نهایت
- هر کس
- مثال
- موجود
- کارشناسان
- کارشناسان بر این باورند
- توضیح داده شده
- بیان
- ترس
- باز خورد
- پیدا کردن
- پیدا می کند
- یافت
- ریخته گری
- از جانب
- مربوط به اینده
- به دست آوردن
- سوالات عمومی
- عمومی
- دریافت کنید
- گرفتن
- دادن
- جهانی
- دولت ها
- گروه
- نگه داشتن
- چگونه
- HTTPS
- انسان
- بشریت
- انسان
- امری ضروری
- بهبود یافته
- in
- از جمله
- به طور فزاینده
- اینسان
- اطلاعات
- مصاحبه
- گرفتار
- IT
- خود
- شغل ها
- کشتن
- شناخته شده
- عدم
- دیر
- رهبری
- یاد گرفتن
- یادگیری
- ترک کردن
- قدرت نفوذ
- زندگی
- لندن
- دستگاه
- فراگیری ماشین
- ماشین آلات
- ساخته
- مسیر اصلی
- ساخت
- بسیاری
- نشست
- روش
- مایکل
- قدرت
- نظامی
- ذهن
- ماه
- اخلاق
- بیش
- فیلم ها
- مشک
- نیاز
- جدید
- نیویورک
- دانشگاه نیویورک
- هستهای
- سلاح های هسته ای
- ONE
- مداوم
- دیگر
- نظارت
- اکسفورد
- دانشگاه آکسفورد
- مجلس
- ویژه
- انتخاب کنید
- سیستم عامل
- افلاطون
- هوش داده افلاطون
- PlatoData
- سیاست
- محبوبیت
- مثبت
- قوی
- آماده شده
- قبلا
- خلوت
- حرفه ای
- معلم
- برنامهریزی شده
- برنامه نويسي
- برنامه ها
- عمومی
- سوال
- اخیر
- از بین بردن
- مشهور
- گزارش
- پژوهشگر
- محققان
- خطر
- خطرات
- ربات ها
- قربانی کردن
- ایمنی
- سعید
- دلیل
- Sci-Fi حجم
- علم
- علم و تکنولوژی
- دانشمند
- دانشمندان
- امن
- امنیت
- سپتامبر
- جدی
- به اشتراک گذاشته شده
- مشابه
- هوشمند
- دقیق
- اجتماعی
- جامعه
- برخی از
- چیزی
- جنوب
- بیانیه
- دانشجو
- چنین
- فوق بشری
- بررسی
- گزینه
- سیستم های
- تاکتیک
- گرفتن
- مصرف
- فن آوری
- فن آوری
- پیشرفته
- وابسته به تکزاس
- La
- جهان
- شان
- سوم
- بار
- به
- هم
- آموزش
- درمان
- رفتار می کند
- دانشگاه
- us
- استفاده کنید
- تصویری
- نقض
- خواسته
- جنگ
- هشدار
- هشدارها
- راه
- تسلیحات
- چی
- که
- در حین
- WHO
- اراده
- در داخل
- بدون
- کلمات
- مهاجرت کاری
- کارگران
- جهان
- نگران
- خواهد بود
- سال
- یوتیوب
- زفیرنت