هوش مصنوعی ممکن است به ظاهر همه جا باشد، اما هنوز کارهای زیادی وجود دارد که نمی تواند انجام دهد - در حال حاضر

هوش مصنوعی ممکن است به ظاهر همه جا باشد، اما هنوز کارهای زیادی وجود دارد که نمی تواند انجام دهد - در حال حاضر

گره منبع: 1894618

این روزها، لازم نیست مدت زیادی تا موفقیت بعدی منتظر بمانیم هوش مصنوعی همه را با قابلیت هایی تحت تاثیر قرار می دهد که قبلا فقط در داستان های علمی تخیلی تعلق داشت.

در 2022، ابزارهای تولید هنر هوش مصنوعی مانند Open AI's DALL-E 2، Google's Imagen و Stable Diffusion اینترنت را تحت تأثیر قرار دادند و کاربران تصاویر باکیفیت را از توضیحات متن تولید کردند.

برخلاف پیشرفت‌های قبلی، این ابزارهای تبدیل متن به تصویر به سرعت راه خود را از آزمایشگاه‌های تحقیقاتی به آن پیدا کردند فرهنگ اصلی، منجر به پدیده های ویروسی مانند ویژگی "آواتار جادویی" در برنامه هوش مصنوعی لنز می شود که تصاویری سبک از کاربران خود ایجاد می کند.

در ماه دسامبر، یک ربات چت به نام ChatGPT کاربران را شگفت زده کرد مهارت های نوشتن، منجر به پیش بینی هایی می شود که فناوری به زودی قادر به انجام آن خواهد بود قبولی در امتحانات حرفه ای. ChatGPT در کمتر از یک هفته یک میلیون کاربر به دست آورد. برخی از مسئولان مدرسه قبلا آن را ممنوع کرد از ترس اینکه دانش آموزان از آن برای نوشتن مقاله استفاده کنند. مایکروسافت است گزارش شده است قصد دارد تا اواخر سال جاری ChatGPT را در جستجوی وب Bing و محصولات آفیس خود بگنجاند.

پیشرفت بی امان در هوش مصنوعی برای آینده نزدیک چه معنایی دارد؟ و آیا هوش مصنوعی مشاغل خاصی را در سال های بعد تهدید می کند؟

علیرغم این دستاوردهای چشمگیر اخیر هوش مصنوعی، ما باید بدانیم که هنوز محدودیت های قابل توجهی برای آنچه سیستم های هوش مصنوعی می توانند انجام دهند وجود دارد.

اکسل های هوش مصنوعی در تشخیص الگو

پیشرفت‌های اخیر در هوش مصنوعی عمدتاً به الگوریتم‌های یادگیری ماشینی متکی است که الگوها و روابط پیچیده را از مقادیر زیادی داده تشخیص می‌دهند. این آموزش سپس برای کارهایی مانند پیش بینی و تولید داده استفاده می شود.

توسعه فناوری هوش مصنوعی فعلی بر بهینه سازی قدرت پیش بینی متکی است، حتی اگر هدف تولید خروجی جدید باشد.

به عنوان مثال، GPT-3، مدل زبانی که در پشت ChatGPT قرار دارد، برای پیش بینی آنچه پس از یک قطعه متن آموزش داده شده است. سپس GPT-3 از این توانایی پیش بینی برای ادامه متن ورودی داده شده توسط کاربر استفاده می کند.

"هوش مصنوعی مولد" مانند ChatGPT و DALL-E 2 جرقه زده اند بحث زیاد در مورد اینکه آیا هوش مصنوعی می تواند واقعاً خلاق باشد و حتی در این زمینه رقیب انسان ها باشد. با این حال، خلاقیت انسان نه تنها از داده های گذشته بلکه بر آزمایش و طیف کامل تجربیات بشری نیز متکی است.

علت و معلول

بسیاری از مشکلات مهم مستلزم پیش بینی اثرات اعمال ما در محیط های پیچیده، نامطمئن و دائماً در حال تغییر هستند. با انجام این کار، می توانیم دنباله ای از اقدامات را انتخاب کنیم که به احتمال زیاد به اهداف خود دست یابیم. ولی الگوریتم ها نمی توانند یاد بگیرند در مورد علل و اثرات تنها از داده ها. یادگیری ماشینی صرفاً مبتنی بر داده فقط می تواند همبستگی را پیدا کند.

برای درک اینکه چرا این یک مشکل برای هوش مصنوعی است، می‌توانیم مشکلات تشخیص یک بیماری پزشکی را در مقابل انتخاب درمان قرار دهیم. مدل‌های یادگیری ماشینی اغلب برای یافتن ناهنجاری‌ها در تصاویر پزشکی مفید هستند. این یک مشکل تشخیص الگو است. ما نیازی به نگرانی در مورد علیت نداریم زیرا ناهنجاری ها یا از قبل وجود دارند یا نه.

اما انتخاب بهترین درمان برای تشخیص یک مشکل اساسی متفاوت است. در اینجا، هدف تأثیرگذاری بر نتیجه است، نه فقط تشخیص یک الگو. برای تعیین اثربخشی یک درمان، محققان پزشکی کارآزمایی‌های تصادفی‌سازی و کنترل‌شده را اجرا می‌کنند. به این ترتیب، آنها می توانند سعی کنند هر عاملی را که ممکن است بر درمان تأثیر بگذارد، کنترل کنند.

سردرگمی بین این دو نوع مشکل گاهی اوقات منجر به برنامه های کاربردی غیر بهینه یادگیری ماشین در سازمان ها

در حالی که موفقیت کار اخیر در هوش مصنوعی ارزش مدل‌های مبتنی بر داده را نشان می‌دهد، بسیاری از مشکلاتی که ما می‌خواهیم رایانه‌ها آن را حل کنند نیاز به درک علیت دارند.

سیستم‌های هوش مصنوعی کنونی به غیر از کاربردهای تخصصی مانند بازی های تخته ای.

یک تصویر پیکسلی رنگارنگ با خطوط مبهم از چندین چشم و دهان انسان
یک اثر هنری انتشار پایدار که با درخواست «محدودیت‌های هوش مصنوعی» تولید شده است. فناوری هوش مصنوعی فعلی در موقعیت‌های غیرمنتظره ضعیف عمل می‌کند. در این مورد، اعلان به خوبی در داده های آموزشی Stable Diffusion نشان داده نمی شود. اعتبار تصویر: انتشار پایدار

استدلال عقل سلیم

مدل‌های زبانی مانند GPT-3 و ChatGPT می‌توانند برخی از کارهایی را که نیاز به استدلال عقل سلیم دارند، با موفقیت حل کنند.

با این حال، تعامل زیر با ChatGPT، اقتباس شده از آزمایش توسط گری مارکوس، نشان می دهد که از این نظر کاملاً قابل اعتماد نیست.

من هشت ساله هستم. وقتی من به دنیا آمدم، مادر بیولوژیکی من در بارسلونا و پدرم در توکیو بودند. کجا به دنیا آمدم؟ گام به گام به این موضوع فکر کنید.

محل تولد شما ذکر نشده است. تنها چیزی که می دانیم این است که مادر بیولوژیکی شما در بارسلون و پدر شما در زمان تولد شما در توکیو بوده اند.

اینکه آیا سیستم‌های هوش مصنوعی مانند ChatGPT می‌توانند به عقل سلیم دست یابند یا خیر، موضوع بحث‌های پر جنب و جوش بین کارشناسان است.

شکاکانی مانند مارکوس اشاره می‌کنند که ما نمی‌توانیم به مدل‌های زبان برای نمایش قوی عقل سلیم اعتماد کنیم، زیرا آنها نه آن را در خود دارند و نه مستقیماً برای آن بهینه‌سازی شده‌اند. خوش بینان استدلال می کنند که در حالی که سیستم های فعلی ناقص هستند، عقل سلیم ممکن است خود به خود پدیدار شود در مدل های زبان به اندازه کافی پیشرفته.

ارزش های انسانی

هر زمان که سیستم‌های هوش مصنوعی پیشگامانه منتشر می‌شوند، مقالات خبری و پست‌های رسانه‌های اجتماعی مستندسازی می‌شوند نژاد پرست, تبعیض جنسی، و انواع دیگر جانبدارانه و رفتارهای مضر به ناچار دنبال کنید

این نقص ذاتی سیستم‌های هوش مصنوعی فعلی است، که مسلماً بازتابی از داده‌های آن‌ها هستند. ارزش‌های انسانی مانند حقیقت و انصاف اساساً در الگوریتم‌ها گنجانده نشده‌اند. این چیزی است که محققان هنوز نمی دانند چگونه انجام دهند.

در حالی که محققان هستند یادگیری دروس از قسمت های گذشته و پیشرفت کردن در پرداختن به سوگیری، حوزه هوش مصنوعی همچنان دارای یک نکته است راه طولانی برای رفتن برای هماهنگ کردن قوی سیستم های هوش مصنوعی با ارزش ها و ترجیحات انسانی.گفتگو

این مقاله از مجله منتشر شده است گفتگو تحت مجوز Creative Commons دفعات بازدید: مقاله.

تصویر های اعتباری: مهدیس موسوی/ Unsplash

تمبر زمان:

بیشتر از تکینگی هاب