خطر ابرکامپیوتر جدید متا، شرکت پشت آن است

گره منبع: 1884057

آیا جلسه ای از آخرین رویداد GamesBeat را از دست داده اید؟ به صفحه گیمینگ GamesBeat و Facebook و GamesBeat Summit: Into the Metaverse 2 On Demand بروید اینجا کلیک نمایید.


در اواخر ژانویه، متا - شرکت مادر فیس بوک - اعلام کرد در حال کار بر روی یک ابررایانه هوش مصنوعی بود که پس از تکمیل آن در تابستان امسال سریع‌ترین در جهان خواهد بود. را ابرخوشه تحقیقاتی هوش مصنوعییا RSC، به شرکت کمک می کند تا مدل های هوش مصنوعی جدیدی بسازد که در نهایت می توانند ستون فقرات متاورس را تشکیل دهند. 

این اعلامیه بحث درباره اخلاقیات افزودن یک ابرکامپیوتر پیشرفته دیگر به زرادخانه فناوری های در مقیاس بزرگ به سرعت در حال ظهور را تجدید کرد. واکنش‌ها به RSC از «ترسناک» تا «دیستوپیک» متغیر بود.

اما تکنولوژی در حال تکامل مشکل نیست. در عوض، این انسان‌ها هستند که در پشت آن قرار دارند - مانند مدیران عامل وسواس سود با دسترسی به داده‌های مصرف‌کننده - که باید ما را نگران کند.

رهبران کسب و کار به طور فزاینده ای از فناوری هوش مصنوعی استفاده می کنند تا عملیات خود را کارآمدتر کنند، بهره وری را افزایش دهند، نوآوری را تقویت کنند و مشتریان بیشتری را جذب کنند. در یک نظرسنجی از مدیران تجاری در سال گذشته، بیش از 85٪ گفت که هوش مصنوعی در حال تبدیل شدن به یک "فناوری اصلی" در شرکت آنها است. 

هوش مصنوعی اکنون بخشی فراگیر از زندگی روزمره ما است. برای مدیریت محتوای پیشنهادی در Netflix و Spotify استفاده می شود. این به تخمین سرعت ترافیک در برنامه های ناوبری کمک می کند. وقتی سوالی را در گوگل تایپ می کنید، هوش مصنوعی اینترنت را برای یافتن محتوای مرتبط جستجو می کند.

از آنجایی که ما اکنون به صورت روزانه با هوش مصنوعی مواجه هستیم، کاستی ها و پیامدهای اخلاقی این فناوری به طور فزاینده ای در معرض دید عموم قرار گرفته است.

گزارش های افشاگر بدنام فیس بوک در پاییز گذشته جرقه جلسات استماع کنگره و افزایش نظارت بر الگوریتم های پلتفرم رسانه های اجتماعی را برانگیخت. اسناد داخلی نشان داد فیس بوک آگاهانه از هوش مصنوعی برای سوق دادن کاربران به سمت محتوای رادیکال برای افزایش تعامل کاربران استفاده می کند. شرکت حالا میگه امیدوار است از هوش مصنوعی برای رفع این مشکلات استفاده کند.

اواخر سال گذشته هنگامی که الکسای آمازون به دختر 10 ساله ای گفت که شارژر تلفن را تا نیمه به پریز برق بزند و یک پنی را به شاخک های در معرض آن لمس کند، خشمگین شد. دستیار صوتی گزارش شده است چالش را پیدا کرد "در وب."

ملاحظات اخلاقی مانند اینها و موارد دیگر - از تأثیرات تعصبات نژادی هوش مصنوعی گرفته تا نگرانی در مورد حفظ حریم خصوصی و نظارت - با ادامه پیشرفت هوش مصنوعی اهمیت بیشتری پیدا خواهد کرد. و نسل بعدی هوش مصنوعی به سرعت در حال ظهور است.

OpenAI ایلان ماسک و DeepMind گوگل ادعا می کنند که در حال توسعه هوش عمومی مصنوعی هستند - فناوری مستقلی که می تواند وظایف فکری انسان را یاد بگیرد و درک کند. سیستم OpenAI نوشت: مقاله قانع کننده در مورد اینکه چرا بازیافت برای جهان بد است ابرکامپیوتر متا به وضوح در حال نابودی است همان جاده

و سپس هوش عمومی مصنوعی وجود دارد - هوش مصنوعی که فقط به چند قابلیت خاص محدود نمی شود، بلکه می تواند کارهای مختلف مختلفی را یاد بگیرد، درست مانند انسان. (شرکت خود من، FutureAI، در این فضا است.) مطمئناً خطراتی در ارتباط با فناوری AGI وجود دارد. از آنجایی که AGI می تواند به طور مستقل از انسان یاد بگیرد، روزی از هوش انسان بسیار فراتر خواهد رفت. اما قبل از شروع نگرانی در مورد سناریوهای روز قیامت که شامل ارتشی از روبات‌های ترمیناتور مانند هستند، باید به یاد داشته باشیم که انسان‌ها کسانی هستند که AGI را برنامه‌ریزی و اجرا می‌کنند.

هوش مصنوعی و پسرعموی آینده‌اش AGI سیستم‌های هدف‌دار هستند. این بدان معناست که رفتار AGI ها نتیجه مستقیم اهدافی خواهد بود که انسان به آنها می دهد. اگر AGI ها را با اهداف انسان مانند ثروت، پول و قدرت برنامه ریزی کنیم، آنگاه نقص های بالقوه خطرناک و انسان مانندی خواهند داشت. 

تصور سناریویی که در آن این اتفاق می افتد، سخت نیست. ما قبلاً شاهد عواقب - مداخله در انتخابات و سایر تلاش‌ها برای تغییر عقیده - برای مثال - افتادن هوش مصنوعی به دست اشتباه بوده‌ایم. 

با فناوری هوشمند فزاینده، بازیگران بدخواه می توانند به طور موثرتری سود ایجاد کنند یا کنترل سیاسی را به دست آورند. برای مثال، اگر مدیران عامل شروع به آزمایش با سیستم‌های AGI کنند که می‌تواند از داده‌های مصرف‌کننده حتی کارآمدتر کسب درآمد کند، ممکن است دلیلی برای نگرانی داشته باشیم. 

اما اگر انسان‌ها سیستم‌های AGI را برای دنبال کردن اهداف اکتشاف و اکتشاف آموزش دهند، آنها خوش‌خیم‌تر خواهند بود. در این سناریو، AGIها پدیده‌های فراتر از درک انسان را کشف خواهند کرد.

البته نمی توان تضمین کرد که آینده AGI کاملاً مثبت خواهد بود. همیشه این احتمال وجود دارد که هکرها بتوانند سیستم های AGI را غصب کنند. و از آنجایی که AGI در نهایت قادر خواهد بود نسل های متوالی را به تنهایی طراحی کند، بدون توجه به اهدافی که انسان ها در ابتدا برای آن تجویز کرده اند، در آن نقطه کنترل کمی بر روی آن خواهند داشت.

به همین دلیل بر ما واجب است که چند نسل اول AGI را با اهداف خیرخواهانه هدایت کنیم. هنگامی که آنها شروع به ایجاد نسل های آینده خود می کنند، AGI از همان قوانین خوش اخلاقی که ما در ایجاد آنها انجام دادیم پیروی می کنند.

در حال حاضر، واقعیت این است که متا را نمی توان از توسعه هوش مصنوعی ابررایانه خود منع کرد و این شرکت منابع عظیمی را پشت سر دنبال کردن متاورس خود قرار داده است. اما این می تواند تغییر کند. فقط متا 200 میلیارد دلار ضرر کرد ارزش بازار آن به دلیل کاهش کاربران فیس بوک است. بنابراین از آنجایی که مسائل اخلاقی با هوش مصنوعی متاورس پدیدار می شود و به طور گسترده منتشر می شود، می توانیم انتظار داشته باشیم که متا نیز توسط کاربرانش مهار شود.

مهمتر از همه، بدون شک سیستم‌های هوش مصنوعی هوشمندتر نیز در کنار ابررایانه متا وجود دارند. در حالی که نمی‌توانیم جلوی تقاضای سیری ناپذیر فناوری‌های پیشرفته را بگیریم، می‌توانیم انتخاب کنیم که چگونه - و چه کسی - بتواند فناوری‌هایی را که هنوز در راه نیستند، برنامه‌ریزی کنیم.

چارلز جی. سیمون موسس و مدیر عامل شرکت است FutureAI، یک شرکت فناوری عمیق مستقر در دی سی که هوش عمومی مصنوعی را توسعه می دهد.

ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. بیشتر بدانید

منبع: https://venturebeat.com/2022/02/04/the-danger-of-metas-new-supercomputer-is-the-company-behind-it/

تمبر زمان:

بیشتر از هوش مصنوعی – VentureBeat