وقتی نوبت به محاسبات مغزی می رسد، زمان بندی همه چیز است. این نحوه اتصال نورون ها به مدارهاست. این مدارها چگونه دادههای بسیار پیچیده را پردازش میکنند و به اقداماتی منجر میشوند که میتوانند به معنای زندگی یا مرگ باشند. مغز ما چگونه میتواند در چند ثانیه تصمیم بگیرد، حتی زمانی که با شرایط کاملاً جدیدی روبرو میشویم. و ما این کار را بدون اینکه مغز را از مصرف زیاد انرژی سرخ کنیم، انجام می دهیم.
به بیان مجدد، مغز نمونه ای عالی از یک کامپیوتر بسیار قدرتمند برای تقلید می سازد – و دانشمندان و مهندسان کامپیوتر اولین گام ها را برای انجام این کار برداشته اند. حوزه محاسبات نورومورفیک به دنبال بازسازی معماری مغز و توانایی های پردازش داده ها با تراشه های سخت افزاری جدید و الگوریتم های نرم افزاری است. ممکن است راهی به سوی حقیقت باشد هوش مصنوعی.
اما یک عنصر اساسی وجود ندارد. اکثر الگوریتمهایی که تراشههای نورومورفیک را نیرو میدهند، فقط به سهم هر نورون مصنوعی اهمیت میدهند - یعنی اینکه چقدر قوی به یکدیگر متصل میشوند که «وزن سیناپسی» نامیده میشود. چیزی که گم شده است - اما مساوی با کار درونی مغز ما است - زمان بندی است.
در این ماه، یک تیم وابسته به پروژه مغز انسان، تلاش پرچمدار اتحادیه اروپا در زمینه علوم اعصاب داده های بزرگ، اضافه کردند. عنصر زمان به یک الگوریتم نورومورفیک سپس نتایج بر روی سخت افزار فیزیکی پیاده سازی شد Brain ScaleS-2 پلتفرم نورومورفیک - و در مقابل GPU های پیشرفته و راه حل های مرسوم نورومورفیک قرار گرفته است.
نویسندگان میگویند: «در مقایسه با شبکههای عصبی انتزاعی که در یادگیری عمیق استفاده میشوند، کهنالگوهای زیستشناختی بیشتر به دلیل پیچیدگی ذاتیشان همچنان از نظر عملکرد و مقیاسپذیری عقبتر هستند».
در چندین آزمایش، الگوریتم "به طور مطلوب، از نظر دقت، تأخیر، و کارایی انرژی" در یک آزمون معیار استاندارد مقایسه شد. گفت: دکتر شارلوت فرنکل در دانشگاه زوریخ و ETH زوریخ در سوئیس که در این مطالعه شرکت نداشت. با افزودن یک جزء زمانی به محاسبات نورومورفیک، میتوانیم عصر جدیدی از هوش مصنوعی بسیار کارآمد را آغاز کنیم که از وظایف دادههای ایستا - مثلاً تشخیص تصویر - به مرحلهای که زمان را بهتر دربر میگیرد، حرکت میکند. به ویدیوها، سیگنالهای زیستی یا گفتار مغز به رایانه فکر کنید.
برای نویسنده اصلی، دکتر میهای پتروویچی، پتانسیل هر دو طرف است. کار ما نه تنها برای محاسبات نورومورفیک و سخت افزارهای الهام گرفته از بیولوژیک جالب است. همچنین تقاضا برای انتقال به اصطلاح رویکردهای یادگیری عمیق به علوم اعصاب و در نتیجه افشای بیشتر اسرار مغز انسان را تایید می کند. گفت:.
Let's Talk Spikes
ریشه الگوریتم جدید یک اصل اساسی در محاسبات مغزی است: spikes.
بیایید نگاهی به یک نورون بسیار انتزاعی بیندازیم. این مانند یک رول توتی است، با بخش میانی پیازی که توسط دو لفاف به بیرون در طرفین قرار گرفته است. یک طرف ورودی است - درخت پیچیده ای که سیگنال های یک نورون قبلی را دریافت می کند. دیگری خروجی است و سیگنالهایی را به نورونهای دیگر با استفاده از کشتیهای حبابمانند پر از مواد شیمیایی منفجر میکند که به نوبه خود باعث ایجاد پاسخ الکتریکی در انتهای گیرنده میشود.
نکته اصلی اینجاست: برای اینکه کل این توالی اتفاق بیفتد، نورون باید "سنبله" کند. اگر، و تنها اگر، نورون به اندازه کافی سطح ورودی بالایی دریافت کند - یک مکانیسم کاهش نویز که به خوبی تعبیه شده است - بخش حباب دار یک سنبله ایجاد می کند که در کانال های خروجی حرکت می کند تا به نورون بعدی هشدار دهد.
اما نورون ها فقط از یک سنبله برای انتقال اطلاعات استفاده نمی کنند. در عوض، آنها در یک توالی زمانی افزایش می یابند. به آن مانند کد مورس فکر کنید: زمان وقوع انفجار الکتریکی حاوی اطلاعات زیادی است. این پایه ای است برای اتصال نورون ها به مدارها و سلسله مراتب ها و امکان پردازش بسیار کارآمد انرژی را فراهم می کند.
پس چرا همان استراتژی را برای کامپیوترهای نورومورفیک اتخاذ نکنیم؟
تراشه ای شبیه مغز اسپارتی
این تیم به جای نقشهبرداری از میخهای یک نورون مصنوعی - یک کار هرکولی - بر روی یک معیار متمرکز شد: مدت زمانی که طول میکشد تا یک نورون شلیک شود.
ایده پشت کد "زمان تا اولین اسپایک" ساده است: هر چه مدت زمان بیشتری طول بکشد تا یک نورون افزایش یابد، سطح فعالیت آن کاهش می یابد. در مقایسه با شمارش سنبله ها، این یک روش بسیار پراکنده برای رمزگذاری فعالیت یک نورون است، اما با مزایایی همراه است. از آنجایی که تنها زمان تأخیر اولین باری که یک نورون افزایش مییابد برای رمزگذاری فعالسازی استفاده میشود، پاسخدهی نورون را بدون تحت تأثیر قرار دادن رایانهای با نقاط داده بسیار زیاد ثبت میکند. به عبارت دیگر، سریع، کم مصرف و آسان است.
سپس تیم الگوریتم را روی یک تراشه نورومورفیک کدگذاری کرد Brain ScaleS-2، که تقریباً «نرونهای» ساده را در داخل ساختار خود شبیهسازی میکند، اما اجرا میشود بیش از 1,000 برابر سریعتر از مغز بیولوژیکی ما این پلتفرم دارای بیش از 500 نورون مصنوعی فیزیکی است که هر کدام قادر به دریافت 256 ورودی از طریق سیناپس های قابل تنظیم هستند، جایی که نورون های بیولوژیکی مبادله، پردازش و ذخیره اطلاعات می شوند.
راه اندازی هیبریدی است. "یادگیری" بر روی تراشه ای به دست می آید که الگوریتم وابسته به زمان را پیاده سازی می کند. با این حال، هرگونه به روز رسانی در مدار عصبی – یعنی اینکه یک نورون با چه شدتی به نورون دیگری متصل می شود – از طریق یک ایستگاه کاری خارجی به دست می آید، چیزی که «آموزش درون حلقه» نامیده می شود.
در اولین آزمایش، الگوریتم با وظیفه "یین یانگ" به چالش کشیده شد، که نیاز به الگوریتم برای تجزیه مناطق مختلف در نماد سنتی شرقی دارد. این الگوریتم با میانگین 95 درصد دقت عالی بود.
سپس تیم با یک کار یادگیری عمیق کلاسیک راه اندازی را به چالش کشید-منيستمجموعه داده ای از اعداد دست نویس که بینایی کامپیوتر را متحول کرد. الگوریتم با دقتی نزدیک به 97 درصد دوباره عالی شد. حتی چشمگیرتر، سیستم BrainScaleS-2 کمتر از یک ثانیه زمان برد تا 10,000 نمونه آزمایشی را با مصرف انرژی نسبی بسیار پایین طبقه بندی کند.
با قرار دادن این نتایج در زمینه، تیم در مرحله بعد عملکرد BrainScaleS-2 - مجهز به الگوریتم جدید - را با پلتفرمهای تجاری و دیگر نورومورفیک مقایسه کرد. بگیر SpiNNaker، یک معماری گسترده و موازی توزیع شده که محاسبات عصبی و سنبله ها را نیز تقلید می کند. الگوریتم جدید در تشخیص تصویر بیش از 100 برابر سریعتر بود در حالی که تنها کسری از قدرت مصرفی SpiNNaker را مصرف میکرد. نتایج مشابهی با True North، تراشه نورومورفیک پیشگوی IBM مشاهده شد.
بعد چه؟
دو با ارزش ترین ویژگی محاسباتی مغز - بهره وری انرژی و پردازش موازی - اکنون به شدت الهام بخش نسل بعدی تراشه های کامپیوتری هستند. هدف؟ ماشینهایی بسازید که به اندازه مغز خودمان انعطافپذیر و سازگار باشند، در حالی که تنها کسری از انرژی مورد نیاز برای تراشههای مبتنی بر سیلیکون فعلی ما استفاده میکنند.
با این حال، در مقایسه با یادگیری عمیق، که بر شبکه های عصبی مصنوعی متکی است، آنهایی که از نظر بیولوژیکی قابل قبول هستند، از بین رفته اند. فرنکل توضیح داد که بخشی از این مشکل "به روز رسانی" این مدارها از طریق یادگیری است. با این حال، با BrainScaleS-2 و لمس داده های زمان بندی، اکنون این امکان وجود دارد.
در عین حال، داشتن یک داور "خارجی" برای به روز رسانی اتصالات سیناپسی به کل سیستم مدتی برای نفس کشیدن می دهد. سخت افزار نورومورفیک، شبیه به آشفتگی محاسبات مغز ما، مملو از عدم تطابق و خطا است. با تراشه و یک داور خارجی، کل سیستم میتواند یاد بگیرد که با این تنوع سازگار شود و در نهایت برای یادگیری سریعتر و انعطافپذیرتر، ویژگیهای آن را جبران کند یا حتی از آن بهرهبرداری کند.
برای فرنکل، قدرت الگوریتم در پراکندگی آن نهفته است. او توضیح داد که مغز با کدهای پراکنده ای کار می کند که "می توانند زمان واکنش سریع را توضیح دهند ... مانند پردازش بصری." به جای فعال کردن کل نواحی مغز، تنها به چند شبکه عصبی نیاز است - مانند چرخیدن در بزرگراه های خالی به جای گیر کردن در ترافیک ساعات شلوغی.
علیرغم قدرت، الگوریتم هنوز هم سکسکه دارد. با تفسیر دادههای ایستا مشکل دارد، اگرچه در توالیهای زمانی برتری دارد - به عنوان مثال، گفتار یا سیگنالهای زیستی. اما از نظر فرنکل، این شروع یک چارچوب جدید است: اطلاعات مهم را می توان با یک معیار منعطف اما ساده کدگذاری کرد و برای غنی سازی پردازش داده های مبتنی بر مغز و هوش مصنوعی با کسری از هزینه های انرژی سنتی، تعمیم داد.
او گفت: «[این]…ممکن است یک پله مهم برای افزایش سخت افزار نورومورفیک باشد تا در نهایت یک مزیت رقابتی نسبت به رویکردهای شبکه عصبی معمولی نشان دهد.
اعتبار تصویر: طبقه بندی نقاط داده در مجموعه داده یین یانگ، توسط گولتز و کرینر و همکاران. (هایدلبرگ / برن)
- 000
- 100
- مزیت - فایده - سود - منفعت
- AI
- الگوریتم
- الگوریتم
- اجازه دادن
- معماری
- شبکه های عصبی مصنوعی
- نویسندگان
- محک
- بزرگ داده
- مغز
- ساختن
- اهميت دادن
- کانال
- مواد شیمیایی
- تراشه
- چیپس
- رمز
- تجاری
- جزء
- چشم انداز کامپیوتر
- کامپیوتر
- محاسبه
- اتصالات
- مصرف
- هزینه
- اعتبار
- جاری
- داده ها
- پردازش داده ها
- یادگیری عمیق
- تقاضا
- شرقی
- بهره وری
- انرژی
- مورد تأیید
- ETH
- ETH زوریخ
- اروپایی
- FAST
- سرانجام
- آتش
- نام خانوادگی
- بار اول
- چارچوب
- GPU ها
- سخت افزار
- زیاد
- بزرگراه ها
- چگونه
- HTTPS
- ترکیبی
- آی بی ام
- اندیشه
- تصویر
- شناسایی تصویر
- اطلاعات
- گرفتار
- IT
- رهبری
- برجسته
- یاد گرفتن
- یادگیری
- سطح
- طولانی
- ماشین آلات
- حرکت می کند
- شبکه
- شبکه
- عصبی
- شبکه های عصبی
- شبکه های عصبی
- علوم اعصاب
- سر و صدا
- شمال
- تعداد
- دیگر
- کارایی
- فیزیکی
- سکو
- سیستم عامل
- قدرت
- پروژه
- واکنش
- پاسخ
- نتایج
- نورد
- هجوم بردن
- دانشمندان
- کشتی
- ساده
- So
- نرم افزار
- مزایا
- شروع
- opbevare
- استراتژی
- مهاجرت تحصیلی
- سویس
- سیستم
- آزمون
- تست
- زمان
- لمس
- ترافیک
- آموزش
- دانشگاه
- به روز رسانی
- فیلم های
- دید
- ثروت
- WHO
- ویکیپدیا
- سیم
- کلمات
- مهاجرت کاری
- زوریخ