آیا جلسه ای از آخرین رویداد GamesBeat را از دست داده اید؟ به صفحه گیمینگ GamesBeat و Facebook و GamesBeat Summit: Into the Metaverse 2 On Demand بروید اینجا کلیک نمایید.
در اواخر ژانویه، متا - شرکت مادر فیس بوک - اعلام کرد در حال کار بر روی یک ابررایانه هوش مصنوعی بود که پس از تکمیل آن در تابستان امسال سریعترین در جهان خواهد بود. را ابرخوشه تحقیقاتی هوش مصنوعییا RSC، به شرکت کمک می کند تا مدل های هوش مصنوعی جدیدی بسازد که در نهایت می توانند ستون فقرات متاورس را تشکیل دهند.
این اعلامیه بحث درباره اخلاقیات افزودن یک ابرکامپیوتر پیشرفته دیگر به زرادخانه فناوری های در مقیاس بزرگ به سرعت در حال ظهور را تجدید کرد. واکنشها به RSC از «ترسناک» تا «دیستوپیک» متغیر بود.
اما تکنولوژی در حال تکامل مشکل نیست. در عوض، این انسانها هستند که در پشت آن قرار دارند - مانند مدیران عامل وسواس سود با دسترسی به دادههای مصرفکننده - که باید ما را نگران کند.
رهبران کسب و کار به طور فزاینده ای از فناوری هوش مصنوعی استفاده می کنند تا عملیات خود را کارآمدتر کنند، بهره وری را افزایش دهند، نوآوری را تقویت کنند و مشتریان بیشتری را جذب کنند. در یک نظرسنجی از مدیران تجاری در سال گذشته، بیش از 85٪ گفت که هوش مصنوعی در حال تبدیل شدن به یک "فناوری اصلی" در شرکت آنها است.
هوش مصنوعی اکنون بخشی فراگیر از زندگی روزمره ما است. برای مدیریت محتوای پیشنهادی در Netflix و Spotify استفاده می شود. این به تخمین سرعت ترافیک در برنامه های ناوبری کمک می کند. وقتی سوالی را در گوگل تایپ می کنید، هوش مصنوعی اینترنت را برای یافتن محتوای مرتبط جستجو می کند.
از آنجایی که ما اکنون به صورت روزانه با هوش مصنوعی مواجه هستیم، کاستی ها و پیامدهای اخلاقی این فناوری به طور فزاینده ای در معرض دید عموم قرار گرفته است.
گزارش های افشاگر بدنام فیس بوک در پاییز گذشته جرقه جلسات استماع کنگره و افزایش نظارت بر الگوریتم های پلتفرم رسانه های اجتماعی را برانگیخت. اسناد داخلی نشان داد فیس بوک آگاهانه از هوش مصنوعی برای سوق دادن کاربران به سمت محتوای رادیکال برای افزایش تعامل کاربران استفاده می کند. شرکت حالا میگه امیدوار است از هوش مصنوعی برای رفع این مشکلات استفاده کند.
اواخر سال گذشته هنگامی که الکسای آمازون به دختر 10 ساله ای گفت که شارژر تلفن را تا نیمه به پریز برق بزند و یک پنی را به شاخک های در معرض آن لمس کند، خشمگین شد. دستیار صوتی گزارش شده است چالش را پیدا کرد "در وب."
ملاحظات اخلاقی مانند اینها و موارد دیگر - از تأثیرات تعصبات نژادی هوش مصنوعی گرفته تا نگرانی در مورد حفظ حریم خصوصی و نظارت - با ادامه پیشرفت هوش مصنوعی اهمیت بیشتری پیدا خواهد کرد. و نسل بعدی هوش مصنوعی به سرعت در حال ظهور است.
OpenAI ایلان ماسک و DeepMind گوگل ادعا می کنند که در حال توسعه هوش عمومی مصنوعی هستند - فناوری مستقلی که می تواند وظایف فکری انسان را یاد بگیرد و درک کند. سیستم OpenAI نوشت: مقاله قانع کننده در مورد اینکه چرا بازیافت برای جهان بد است ابرکامپیوتر متا به وضوح در حال نابودی است همان جاده
و سپس هوش عمومی مصنوعی وجود دارد - هوش مصنوعی که فقط به چند قابلیت خاص محدود نمی شود، بلکه می تواند کارهای مختلف مختلفی را یاد بگیرد، درست مانند انسان. (شرکت خود من، FutureAI، در این فضا است.) مطمئناً خطراتی در ارتباط با فناوری AGI وجود دارد. از آنجایی که AGI می تواند به طور مستقل از انسان یاد بگیرد، روزی از هوش انسان بسیار فراتر خواهد رفت. اما قبل از شروع نگرانی در مورد سناریوهای روز قیامت که شامل ارتشی از روباتهای ترمیناتور مانند هستند، باید به یاد داشته باشیم که انسانها کسانی هستند که AGI را برنامهریزی و اجرا میکنند.
هوش مصنوعی و پسرعموی آیندهاش AGI سیستمهای هدفدار هستند. این بدان معناست که رفتار AGI ها نتیجه مستقیم اهدافی خواهد بود که انسان به آنها می دهد. اگر AGI ها را با اهداف انسان مانند ثروت، پول و قدرت برنامه ریزی کنیم، آنگاه نقص های بالقوه خطرناک و انسان مانندی خواهند داشت.
تصور سناریویی که در آن این اتفاق می افتد، سخت نیست. ما قبلاً شاهد عواقب - مداخله در انتخابات و سایر تلاشها برای تغییر عقیده - برای مثال - افتادن هوش مصنوعی به دست اشتباه بودهایم.
با فناوری هوشمند فزاینده، بازیگران بدخواه می توانند به طور موثرتری سود ایجاد کنند یا کنترل سیاسی را به دست آورند. برای مثال، اگر مدیران عامل شروع به آزمایش با سیستمهای AGI کنند که میتواند از دادههای مصرفکننده حتی کارآمدتر کسب درآمد کند، ممکن است دلیلی برای نگرانی داشته باشیم.
اما اگر انسانها سیستمهای AGI را برای دنبال کردن اهداف اکتشاف و اکتشاف آموزش دهند، آنها خوشخیمتر خواهند بود. در این سناریو، AGIها پدیدههای فراتر از درک انسان را کشف خواهند کرد.
البته نمی توان تضمین کرد که آینده AGI کاملاً مثبت خواهد بود. همیشه این احتمال وجود دارد که هکرها بتوانند سیستم های AGI را غصب کنند. و از آنجایی که AGI در نهایت قادر خواهد بود نسل های متوالی را به تنهایی طراحی کند، بدون توجه به اهدافی که انسان ها در ابتدا برای آن تجویز کرده اند، در آن نقطه کنترل کمی بر روی آن خواهند داشت.
به همین دلیل بر ما واجب است که چند نسل اول AGI را با اهداف خیرخواهانه هدایت کنیم. هنگامی که آنها شروع به ایجاد نسل های آینده خود می کنند، AGI از همان قوانین خوش اخلاقی که ما در ایجاد آنها انجام دادیم پیروی می کنند.
در حال حاضر، واقعیت این است که متا را نمی توان از توسعه هوش مصنوعی ابررایانه خود منع کرد و این شرکت منابع عظیمی را پشت سر دنبال کردن متاورس خود قرار داده است. اما این می تواند تغییر کند. فقط متا 200 میلیارد دلار ضرر کرد ارزش بازار آن به دلیل کاهش کاربران فیس بوک است. بنابراین از آنجایی که مسائل اخلاقی با هوش مصنوعی متاورس پدیدار می شود و به طور گسترده منتشر می شود، می توانیم انتظار داشته باشیم که متا نیز توسط کاربرانش مهار شود.
مهمتر از همه، بدون شک سیستمهای هوش مصنوعی هوشمندتر نیز در کنار ابررایانه متا وجود دارند. در حالی که نمیتوانیم جلوی تقاضای سیری ناپذیر فناوریهای پیشرفته را بگیریم، میتوانیم انتخاب کنیم که چگونه - و چه کسی - بتواند فناوریهایی را که هنوز در راه نیستند، برنامهریزی کنیم.
چارلز جی. سیمون موسس و مدیر عامل شرکت است FutureAI، یک شرکت فناوری عمیق مستقر در دی سی که هوش عمومی مصنوعی را توسعه می دهد.
ماموریت VentureBeat این است که یک میدان شهر دیجیتال برای تصمیم گیرندگان فنی باشد تا دانشی در مورد فناوری سازمانی متحول کننده کسب کنند و معامله کنند. بیشتر بدانید
- &
- درباره ما
- دسترسی
- نشانی
- پیشرفته
- AI
- سیستم های هوش مصنوعی
- چک
- الگوریتم
- قبلا
- خبر
- دیگر
- استیناف
- برنامه های کاربردی
- انبار مهمات
- مصنوعی
- هوش مصنوعی
- دستیار
- خود مختار
- فناوری خودمختار
- اساس
- بی بی سی
- ساختن
- کسب و کار
- قابلیت های
- علت
- مدیر عامل شرکت
- تغییر دادن
- شرکت
- مصرف کننده
- محتوا
- ادامه
- میتوانست
- ایجاد
- مشتریان
- داده ها
- روز
- مناظره
- Deepmind
- تقاضا
- طرح
- در حال توسعه
- DID
- مختلف
- دیجیتال
- کشف
- اسناد و مدارک
- پایین
- قطره
- انتخاب
- سنگ سنباده
- رویارویی
- نامزدی
- سرمایه گذاری
- تخمین زدن
- اصول اخلاق
- واقعه
- مثال
- مدیران
- اکتشاف
- چشم
- فیس بوک
- نام خانوادگی
- معایب
- به دنبال
- فرم
- موسس
- آینده
- بازی
- سوالات عمومی
- نسل ها
- اهداف
- رفتن
- گوگل
- هکرها
- سر
- کمک
- کمک می کند
- چگونه
- HTTPS
- انسان
- افزایش
- افزایش
- ابداع
- فکری
- اطلاعات
- هوشمند
- اینترنت
- گرفتار
- مسائل
- IT
- ژانویه
- دانش
- آخرین
- یاد گرفتن
- محدود شده
- بازار
- ماده
- رسانه ها
- متا
- متاوررس
- مدل
- پول
- بیش
- جهت یابی
- نت فلیکس
- OpenAI
- عملیات
- نظر
- دیگر
- نظرسنجی
- قدرت
- خلوت
- مشکل
- بهره وری
- منافع
- برنامه
- عمومی
- سوال
- واکنش
- واقعیت
- بازیافت
- گزارش ها
- تحقیق
- منابع
- نشان داد
- ربات ها
- قوانین
- سعید
- So
- آگاهی
- رسانه های اجتماعی
- فضا
- سرعت
- Spotify
- مربع
- شروع
- تابستان
- قله
- ابر کامپیوتر
- نظارت
- سیستم
- سیستم های
- فنی
- فن آوری
- پیشرفته
- آینده
- متاورس
- جهان
- لمس
- ترافیک
- برملا کردن
- us
- کاربران
- ارزش
- صدا
- دستیار صوتی
- ثروت
- وب
- WHO
- به طور گسترده ای
- کارگر
- جهان
- سال
- ZDNET