پروفسور دانشگاه آکسفورد هشدار می‌دهد: «هوش مصنوعی به اندازه سلاح‌های هسته‌ای خطری است

پروفسور دانشگاه آکسفورد هشدار می‌دهد: «هوش مصنوعی به اندازه سلاح‌های هسته‌ای خطری است

گره منبع: 1925142

"کلماتم را نمره گذاری کن، هوش مصنوعی بسیار خطرناک تر از سلاح های هسته ای است. این جهنم مرا می ترساند.» این بیانیه ای بود که ایلان ماسک، مدیرعامل تسلا در سال 2018 طی مصاحبه ای با جاناتان نولان در جریان کنفرانس South by Southwest در آستین، تگزاس بیان کرد. متأسفانه موس تنها نیست. محققان و سایر کارشناسان مشهور نیز در مورد خطرات هوش مصنوعی (AI) هشدار می دهند. سوال 1 میلیون پوندی این است که آیا ما آمادگی داریم و دولت ها و برنامه ریزان سیاست ما برای جلوگیری از این خطر چه می کنند؟

در حالی که محبوبیت اخیر ChatGPT، هوش مصنوعی را به جریان اصلی تبدیل کرده و بسیاری را به سمت مزایای اجتماعی آن کشانده است، چیزی که توجه عموم را به خود جلب نمی کند، جنبه تاریک هوش مصنوعی است. سال‌هاست که متخصصان و کارکنان فناوری نگران هستند که هوش مصنوعی (AI) شغل‌شان را از بین ببرد.

با این حال، کارشناسان بر این باورند که خطرات و خطرات جدی تری وجود دارد که باید نگران آن باشیم، از جمله سوگیری الگوریتمی ناشی از داده های بد استفاده شده توسط هوش مصنوعی، تقلبی های عمیق، نقض حریم خصوصی و بسیاری موارد دیگر. در حالی که این خطرات خطرات جدی برای جامعه ایجاد می کند، محققان و دانشمندان بیشتر نگران این هستند که چگونه هوش مصنوعی می تواند برای انجام کارهای خطرناک تر برنامه ریزی شود: خودکارسازی سلاح ها.

امروزه، هوش مصنوعی در توسعه فناوری‌های ازدحامی و مهمات پرسه‌زن، که به آن پهپادهای کامیکازه نیز می‌گویند، استفاده شده است. در جنگ جاری روسیه و اوکراین استفاده می شود. برخلاف روبات‌های آینده‌نگر که در برخی از فیلم‌های علمی تخیلی می‌بینید، این پهپادها از پلتفرم‌های نظامی قبلی استفاده می‌کنند که از فناوری‌های جدید هوش مصنوعی بهره می‌برند. این پهپادها در اصل به سلاح های خود مختاری تبدیل شده اند که برای کشتن برنامه ریزی شده اند.

اما استفاده از هوش مصنوعی برای کشتن در نبردهای نظامی تازه شروع کار است. مایکل آزبورن، استاد هوش مصنوعی و محقق یادگیری ماشین در دانشگاه آکسفورد است. او همچنین یکی از بنیانگذاران Mind Foundry است. در حالی که همه در شور و شوق ChatGPT هستند، پروفسور آزبورن اکنون در مورد خطرات هوش مصنوعی هشدار می دهد و پیش بینی می کند که هوش مصنوعی پیشرفته می تواند "به همان اندازه که برای سایر گونه ها خطر کرده ایم، برای ما خطر ایجاد کند: dodo یک نمونه است."

در اوایل این ماه، گروهی از محققان دانشگاه آکسفورد به کمیته علم و فناوری در پارلمان بریتانیا گفتند که هوش مصنوعی در نهایت می‌تواند یک "تهدید وجودی" برای بشریت باشد. تایمز لندن گفتند، درست همانطور که انسان ها توسط دودو نابود شدند، ماشین های هوش مصنوعی ممکن است ما را از بین ببرند. گزارش.

در طول جلسه ، پروفسور آزبورن به نمایندگان پارلمان بریتانیا هشدار داد که هوش مصنوعی واقعا قدرتمند می تواند همه افراد روی زمین را بکشد. او گفت: "هوش مصنوعی به اندازه سلاح های هسته ای خطری است." پروفسور آزبورن همچنین اضافه کرد که خطر این نیست که هوش مصنوعی از برنامه ریزی خود اطاعت کند، بلکه به شیوه های ناخواسته از آن اطاعت می کند.

یک هوش مصنوعی فوق‌هوشمند که به آن گفته می‌شود برای پایان دادن به سرطان، مثالی بیش از حد ساده‌شده ارائه دهد، ممکن است ساده‌ترین روش را حذف انسان‌ها بداند. زمانی که نظرسنجی انجام شد، حدود یک سوم از محققان فکر می کنند که هوش مصنوعی می تواند منجر به یک فاجعه جهانی شود. برنامه‌های ایمنی هوش مصنوعی وجود دارد، اما کسب‌وکارها و کشورها درگیر «مسابقه تسلیحاتی» هستند که رویکردهای محتاطانه را دشوار می‌کند.

مایکل کوهن، همکار پروفسور آزبورن و دانشجوی دکترا در دانشگاه آکسفورد، به تایمز لندن گفت:

هوش مصنوعی مافوق بشری خطر خاصی دارد که از نوع متفاوتی است، که . . . می تواند همه را بکشد.»

در حالی که هوش مصنوعی زندگی ما را بهبود بخشیده است، دانشمندان می‌ترسند که به دلیل عدم اخلاق انسانی هوش مصنوعی، در خطر قربانی کردن بشریت به خاطر راحتی باشیم. به گفته کوهن، یکی از سناریوهای ترسناک این است که هوش مصنوعی می تواند با استفاده از تاکتیک های آسیب رساندن به انسان، دستیابی به دستورالعمل کمک به انسان را بیاموزد.

او توضیح داد: «اگر شما تصور کنید که سگی را با خوراکی‌هایی تربیت کنید: او یاد می‌گیرد که کارهایی را انتخاب کند که منجر به دریافت خوراکی‌ها می‌شود، اما اگر سگ کمد غذا را پیدا کند، خودش می‌تواند بدون انجام کاری که ما می‌خواستیم انجام دهد، غذا را دریافت کند. . "اگر چیزی بسیار هوشمندتر از ما دارید که به طور تک شیادانه تلاش می کنیم تا این بازخورد مثبت را دریافت کنید، و برای اطمینان از آن در سراسر جهان گرفته شده است، تا آنجا که می تواند انرژی خود را صرف حفظ آن می کند، و ما را بدون هیچ گونه بازخوردی رها می کند. انرژی برای خودمان.»

پروفسور آزبورن و مایکل کوهن تنها دو محققی نیستند که زنگ خطر را در مورد خطرات و خطرات هوش مصنوعی به صدا در می آورند. بسیاری از دانشمندان دیگری که با هوش مصنوعی کار می کنند نگرانی های مشابهی را ابراز کرده اند. به گزارش تایمز لندن، یک نظرسنجی در سپتامبر 2022 از 327 محقق در دانشگاه نیویورک نشان داد که یک سوم بر این باورند که هوش مصنوعی می‌تواند یک آخرالزمان به سبک هسته‌ای را در یک قرن به وجود آورد.

به نظر می رسد بسیاری از دانشمندانی که با هوش مصنوعی کار می کنند، نگرانی های مشابهی دارند. به گزارش تایمز لندن، یک نظرسنجی در سپتامبر 2022 از 327 محقق در دانشگاه نیویورک نشان داد که یک سوم بر این باورند که هوش مصنوعی می‌تواند فاجعه‌ای شبیه به یک آخرالزمان هسته‌ای در طول قرن ایجاد کند.

36 درصد از محققان می‌گویند: «ممکن است تصمیم‌های گرفته شده توسط هوش مصنوعی یا سیستم‌های یادگیری ماشینی باعث فاجعه‌ای در قرن حاضر شود که حداقل به اندازه یک جنگ هسته‌ای تمام‌عیار بد است».

صرف نظر از یک قرن آینده، هوش مصنوعی به طور فزاینده ای بیش از حد هوشمند می شود و همانطور که برخی از کارشناسان پیشنهاد کرده اند، ضروری است که کنترل انسان را حفظ کنیم و مکانیسم هایی مانند سوئیچ کشتن هوش مصنوعی برای کنترل آنچه که هوش مصنوعی می تواند انجام دهد و نمی تواند انجام دهد. فقدان نظارت فعلی و فقدان سیاست جهانی هوش مصنوعی روشن زنگ خطری برای دولت‌های سراسر جهان است. باید همین الان اقدام کنیم تا دیر نشده.

[محتوای جاسازی شده]

در زیر ویدیوی دیگری در مورد خطر هوش مصنوعی وجود دارد. در این ویدئو، استوارت راسل، دانشمند کامپیوتر بریتانیایی که به خاطر مشارکت‌هایش در هوش مصنوعی شهرت دارد، درباره خطرات ناشی از ایجاد سیستم‌های هوش مصنوعی هشدار می‌دهد.

[محتوای جاسازی شده]


تمبر زمان:

بیشتر از راه اندازی TechStartups