تراشه نورومورفیک جدید Spiking می تواند آغازگر عصر هوش مصنوعی بسیار کارآمد باشد

گره منبع: 1456889

وقتی نوبت به محاسبات مغزی می رسد، زمان بندی همه چیز است. این نحوه اتصال نورون ها به مدارهاست. این مدارها چگونه داده‌های بسیار پیچیده را پردازش می‌کنند و به اقداماتی منجر می‌شوند که می‌توانند به معنای زندگی یا مرگ باشند. مغز ما چگونه می‌تواند در چند ثانیه تصمیم بگیرد، حتی زمانی که با شرایط کاملاً جدیدی روبرو می‌شویم. و ما این کار را بدون اینکه مغز را از مصرف زیاد انرژی سرخ کنیم، انجام می دهیم.

به بیان مجدد، مغز نمونه ای عالی از یک کامپیوتر بسیار قدرتمند برای تقلید می سازد – و دانشمندان و مهندسان کامپیوتر اولین گام ها را برای انجام این کار برداشته اند. حوزه محاسبات نورومورفیک به دنبال بازسازی معماری مغز و توانایی های پردازش داده ها با تراشه های سخت افزاری جدید و الگوریتم های نرم افزاری است. ممکن است راهی به سوی حقیقت باشد هوش مصنوعی.

اما یک عنصر اساسی وجود ندارد. اکثر الگوریتم‌هایی که تراشه‌های نورومورفیک را نیرو می‌دهند، فقط به سهم هر نورون مصنوعی اهمیت می‌دهند - یعنی اینکه چقدر قوی به یکدیگر متصل می‌شوند که «وزن سیناپسی» نامیده می‌شود. چیزی که گم شده است - اما مساوی با کار درونی مغز ما است - زمان بندی است.

در این ماه، یک تیم وابسته به پروژه مغز انسان، تلاش پرچمدار اتحادیه اروپا در زمینه علوم اعصاب داده های بزرگ، اضافه کردند. عنصر زمان به یک الگوریتم نورومورفیک سپس نتایج بر روی سخت افزار فیزیکی پیاده سازی شد Brain ScaleS-2 پلتفرم نورومورفیک - و در مقابل GPU های پیشرفته و راه حل های مرسوم نورومورفیک قرار گرفته است.

نویسندگان می‌گویند: «در مقایسه با شبکه‌های عصبی انتزاعی که در یادگیری عمیق استفاده می‌شوند، کهن‌الگوهای زیست‌شناختی بیشتر به دلیل پیچیدگی ذاتی‌شان همچنان از نظر عملکرد و مقیاس‌پذیری عقب‌تر هستند».

در چندین آزمایش، الگوریتم "به طور مطلوب، از نظر دقت، تأخیر، و کارایی انرژی" در یک آزمون معیار استاندارد مقایسه شد. گفت: دکتر شارلوت فرنکل در دانشگاه زوریخ و ETH زوریخ در سوئیس که در این مطالعه شرکت نداشت. با افزودن یک جزء زمانی به محاسبات نورومورفیک، می‌توانیم عصر جدیدی از هوش مصنوعی بسیار کارآمد را آغاز کنیم که از وظایف داده‌های ایستا - مثلاً تشخیص تصویر - به مرحله‌ای که زمان را بهتر دربر می‌گیرد، حرکت می‌کند. به ویدیوها، سیگنال‌های زیستی یا گفتار مغز به رایانه فکر کنید.

برای نویسنده اصلی، دکتر میهای پتروویچی، پتانسیل هر دو طرف است. کار ما نه تنها برای محاسبات نورومورفیک و سخت افزارهای الهام گرفته از بیولوژیک جالب است. همچنین تقاضا برای انتقال به اصطلاح رویکردهای یادگیری عمیق به علوم اعصاب و در نتیجه افشای بیشتر اسرار مغز انسان را تایید می کند. گفت:.

Let's Talk Spikes

ریشه الگوریتم جدید یک اصل اساسی در محاسبات مغزی است: spikes.

بیایید نگاهی به یک نورون بسیار انتزاعی بیندازیم. این مانند یک رول توتی است، با بخش میانی پیازی که توسط دو لفاف به بیرون در طرفین قرار گرفته است. یک طرف ورودی است - درخت پیچیده ای که سیگنال های یک نورون قبلی را دریافت می کند. دیگری خروجی است و سیگنال‌هایی را به نورون‌های دیگر با استفاده از کشتی‌های حباب‌مانند پر از مواد شیمیایی منفجر می‌کند که به نوبه خود باعث ایجاد پاسخ الکتریکی در انتهای گیرنده می‌شود.

نکته اصلی اینجاست: برای اینکه کل این توالی اتفاق بیفتد، نورون باید "سنبله" کند. اگر، و تنها اگر، نورون به اندازه کافی سطح ورودی بالایی دریافت کند - یک مکانیسم کاهش نویز که به خوبی تعبیه شده است - بخش حباب دار یک سنبله ایجاد می کند که در کانال های خروجی حرکت می کند تا به نورون بعدی هشدار دهد.

اما نورون ها فقط از یک سنبله برای انتقال اطلاعات استفاده نمی کنند. در عوض، آنها در یک توالی زمانی افزایش می یابند. به آن مانند کد مورس فکر کنید: زمان وقوع انفجار الکتریکی حاوی اطلاعات زیادی است. این پایه ای است برای اتصال نورون ها به مدارها و سلسله مراتب ها و امکان پردازش بسیار کارآمد انرژی را فراهم می کند.

پس چرا همان استراتژی را برای کامپیوترهای نورومورفیک اتخاذ نکنیم؟

تراشه ای شبیه مغز اسپارتی

این تیم به جای نقشه‌برداری از میخ‌های یک نورون مصنوعی - یک کار هرکولی - بر روی یک معیار متمرکز شد: مدت زمانی که طول می‌کشد تا یک نورون شلیک شود.

ایده پشت کد "زمان تا اولین اسپایک" ساده است: هر چه مدت زمان بیشتری طول بکشد تا یک نورون افزایش یابد، سطح فعالیت آن کاهش می یابد. در مقایسه با شمارش سنبله ها، این یک روش بسیار پراکنده برای رمزگذاری فعالیت یک نورون است، اما با مزایایی همراه است. از آنجایی که تنها زمان تأخیر اولین باری که یک نورون افزایش می‌یابد برای رمزگذاری فعال‌سازی استفاده می‌شود، پاسخ‌دهی نورون را بدون تحت تأثیر قرار دادن رایانه‌ای با نقاط داده بسیار زیاد ثبت می‌کند. به عبارت دیگر، سریع، کم مصرف و آسان است.

سپس تیم الگوریتم را روی یک تراشه نورومورفیک کدگذاری کرد Brain ScaleS-2، که تقریباً «نرون‌های» ساده را در داخل ساختار خود شبیه‌سازی می‌کند، اما اجرا می‌شود بیش از 1,000 برابر سریعتر از مغز بیولوژیکی ما این پلتفرم دارای بیش از 500 نورون مصنوعی فیزیکی است که هر کدام قادر به دریافت 256 ورودی از طریق سیناپس های قابل تنظیم هستند، جایی که نورون های بیولوژیکی مبادله، پردازش و ذخیره اطلاعات می شوند.

راه اندازی هیبریدی است. "یادگیری" بر روی تراشه ای به دست می آید که الگوریتم وابسته به زمان را پیاده سازی می کند. با این حال، هرگونه به روز رسانی در مدار عصبی – یعنی اینکه یک نورون با چه شدتی به نورون دیگری متصل می شود – از طریق یک ایستگاه کاری خارجی به دست می آید، چیزی که «آموزش درون حلقه» نامیده می شود.

در اولین آزمایش، الگوریتم با وظیفه "یین یانگ" به چالش کشیده شد، که نیاز به الگوریتم برای تجزیه مناطق مختلف در نماد سنتی شرقی دارد. این الگوریتم با میانگین 95 درصد دقت عالی بود.

سپس تیم با یک کار یادگیری عمیق کلاسیک راه اندازی را به چالش کشید-منيستمجموعه داده ای از اعداد دست نویس که بینایی کامپیوتر را متحول کرد. الگوریتم با دقتی نزدیک به 97 درصد دوباره عالی شد. حتی چشمگیرتر، سیستم BrainScaleS-2 کمتر از یک ثانیه زمان برد تا 10,000 نمونه آزمایشی را با مصرف انرژی نسبی بسیار پایین طبقه بندی کند.

با قرار دادن این نتایج در زمینه، تیم در مرحله بعد عملکرد BrainScaleS-2 - مجهز به الگوریتم جدید - را با پلتفرم‌های تجاری و دیگر نورومورفیک مقایسه کرد. بگیر SpiNNaker، یک معماری گسترده و موازی توزیع شده که محاسبات عصبی و سنبله ها را نیز تقلید می کند. الگوریتم جدید در تشخیص تصویر بیش از 100 برابر سریع‌تر بود در حالی که تنها کسری از قدرت مصرفی SpiNNaker را مصرف می‌کرد. نتایج مشابهی با True North، تراشه نورومورفیک پیشگوی IBM مشاهده شد.

بعد چه؟

دو با ارزش ترین ویژگی محاسباتی مغز - بهره وری انرژی و پردازش موازی - اکنون به شدت الهام بخش نسل بعدی تراشه های کامپیوتری هستند. هدف؟ ماشین‌هایی بسازید که به اندازه مغز خودمان انعطاف‌پذیر و سازگار باشند، در حالی که تنها کسری از انرژی مورد نیاز برای تراشه‌های مبتنی بر سیلیکون فعلی ما استفاده می‌کنند.

با این حال، در مقایسه با یادگیری عمیق، که بر شبکه های عصبی مصنوعی متکی است، آنهایی که از نظر بیولوژیکی قابل قبول هستند، از بین رفته اند. فرنکل توضیح داد که بخشی از این مشکل "به روز رسانی" این مدارها از طریق یادگیری است. با این حال، با BrainScaleS-2 و لمس داده های زمان بندی، اکنون این امکان وجود دارد.

در عین حال، داشتن یک داور "خارجی" برای به روز رسانی اتصالات سیناپسی به کل سیستم مدتی برای نفس کشیدن می دهد. سخت افزار نورومورفیک، شبیه به آشفتگی محاسبات مغز ما، مملو از عدم تطابق و خطا است. با تراشه و یک داور خارجی، کل سیستم می‌تواند یاد بگیرد که با این تنوع سازگار شود و در نهایت برای یادگیری سریع‌تر و انعطاف‌پذیرتر، ویژگی‌های آن را جبران کند یا حتی از آن بهره‌برداری کند.

برای فرنکل، قدرت الگوریتم در پراکندگی آن نهفته است. او توضیح داد که مغز با کدهای پراکنده ای کار می کند که "می توانند زمان واکنش سریع را توضیح دهند ... مانند پردازش بصری." به جای فعال کردن کل نواحی مغز، تنها به چند شبکه عصبی نیاز است - مانند چرخیدن در بزرگراه های خالی به جای گیر کردن در ترافیک ساعات شلوغی.

علیرغم قدرت، الگوریتم هنوز هم سکسکه دارد. با تفسیر داده‌های ایستا مشکل دارد، اگرچه در توالی‌های زمانی برتری دارد - به عنوان مثال، گفتار یا سیگنال‌های زیستی. اما از نظر فرنکل، این شروع یک چارچوب جدید است: اطلاعات مهم را می توان با یک معیار منعطف اما ساده کدگذاری کرد و برای غنی سازی پردازش داده های مبتنی بر مغز و هوش مصنوعی با کسری از هزینه های انرژی سنتی، تعمیم داد.

او گفت: «[این]…ممکن است یک پله مهم برای افزایش سخت افزار نورومورفیک باشد تا در نهایت یک مزیت رقابتی نسبت به رویکردهای شبکه عصبی معمولی نشان دهد.

اعتبار تصویر: طبقه بندی نقاط داده در مجموعه داده یین یانگ، توسط گولتز و کرینر و همکاران. (هایدلبرگ / برن)

منبع: https://singularityhub.com/2021/11/09/new-spiking-neuromorphic-chip-could-usher-in-an-era-of-highly-efficient-ai/

تمبر زمان:

بیشتر از تکینگی هاب