שיפור תוספי וקטור RISC-V כדי להאיץ את הביצועים בעומסי עבודה של ML

צומת המקור: 1853315

במהלך השבוע של 19 באפרילth, Linley Group ערכה את כנס מעבדי האביב שלה 2021. לקבוצת Linley יש מוניטין של כינוס כנסים מצוינים. וכנס האביב השנה לא היה יוצא דופן. היו מספר שיחות אינפורמטיביות מאוד מחברות שונות שעדכנו את הקהל בעבודות המחקר והפיתוח העדכניות ביותר שמתרחשות בתעשייה. המצגות סווגו לפי שמונה נושאים שונים. הנושאים היו Edge AI, Embedded SoC Design, Scaling AI Training, AI SoC Design, Infrastructure Network for AI ו-5G, Edge AI Software, Processing Signals and Efficient AI Inference.

בינה מלאכותית (AI) כטכנולוגיה זכתה לתשומת לב והשקעה רבה בשנים האחרונות. הכנס בהחלט שיקף את זה במספר קטגוריות הנושא הקשורות לבינה מלאכותית. בתוך הקטגוריה הרחבה יותר של בינה מלאכותית, בינה מלאכותית של Edge הייתה נושא שהיה לו חלק לא הוגן במצגות ובצדק. מחשוב Edge רואה צמיחה מהירה המונעת על ידי IoT, 5G ויישומים אחרים עם דרישות אחזור נמוך.

אחת המצגות בקטגוריית Edge AI נקראה "שיפור הרחבות וקטוריות של RISC-V כדי להאיץ ביצועים בעומסי עבודה של ML." ההרצאה ניתנה על ידי כריס לטנר, נשיא, הנדסה ומוצר ב-SiFive, Inc. כריס הוכיח מדוע הפתרון מבוסס ההרחבות הווקטוריות של SiFive RISC-V מתאים מאוד ליישומים מונעי בינה מלאכותית. להלן דעתי.

דרישות השוק:

ככל שהשוק של מחשוב קצה גדל, גם דרישות הביצועים וההספק של יישומים אלה הופכים יותר ויותר תובעניים. רבים מהיישומים הללו מונעים בינה מלאכותית ונכללים בקטגוריה של עומסי עבודה של למידת מכונה (ML). ואימוץ בינה מלאכותית דוחף את דרישות העיבוד יותר לכיוון מניפולציה של נתונים ולא למחשוב למטרות כלליות. למידה עמוקה עומדת בבסיס מודלים של ML וכוללת עיבוד מערכים גדולים של נתונים. כאשר דגמי ML מתפתחים במהירות, פתרון אידיאלי יהיה פתרון המייעל עבור: ביצועים, עוצמה, קלות שילוב דגמי ML מתעוררים והיקף השינויים בחומרה ו/או בתוכנה.

יתרון וקטור RISC-V:

המניע המקורי מאחורי היוזמה שהעניקה לנו את ארכיטקטורת RISC-V הוא ניסויים. ניסוי לפיתוח עיצובי שבבים שמניבים ביצועים טובים יותר מול האטה צפויה של חוק מור. RISC-V בנוי על הרעיון של היכולת להתאים צ'יפים מסוימים שבהם אתה יכול לבחור באילו הרחבות ערכת הוראות אתה משתמש. הרחבות וקטוריות מאפשרות עיבוד של וקטורים בכל אורך באמצעות פונקציות המעבדות וקטורים באורכים קבועים. עיבוד וקטור מאפשר לתוכנה קיימת לפעול ללא הידור מחדש כאשר החומרה משודרגת בצורה של יותר ALUs ויחידות פונקציונליות אחרות. התקדמות משמעותית התרחשה במונחים של בסיס חומרה מבוסס ומערכת אקולוגית תומכת כגון טכנולוגיות מהדר.

ניתן לבצע אופטימיזציה של RISC-V עבור תחום או יישום מסוים באמצעות הרחבות מותאמות אישית. כארכיטקטורת ערכת הוראות פתוחה, משתמשי RISC-V נהנים מגמישות רבה בבחירת ספק לצרכי עיצוב השבבים שלהם.

ההצעה של SiFive:

SiFive שיפרה את היתרון RISC-V Vector על ידי הוספת הרחבות וקטוריות חדשות להאצת הביצוע של מודלים רבים של רשתות עצביות. עיין באיור 1 כדי לראות דוגמה לסוג המהירות שניתן להשיג באמצעות הרחבות התוספות של SiFive בהשוואה לשימוש רק בהרחבות הווקטוריות הבסיסיות של RISC-V. פתרון Intelligence X280 שלה הוא פתרון RISC-V Vector בעל יכולת מרובת ליבות (חומרה ותוכנה) כדי להקל על לקוחותיה ליישם יישומי Edge AI אופטימליים. הפתרון יכול לשמש גם ליישום יישומי מרכז נתונים.

איור 1:

SuperCharge ML Performance risc-v

יתרון SiFive:

  • פתרון Intelligence X280 של SiFive תומך באופן מלא בפלטפורמות קוד פתוח של TensorFlow ו- TensorFlow Lite ללמידת מכונה (עיין באיור 2)
  • SiFive מספקת דרך קלה להעביר את הקוד הקיים של הלקוח בהתבסס על ארכיטקטורות אחרות לארכיטקטורת RISC-V Vector. לדוגמה, SiFive יכולה לתרגם קוד ARM Neon לקוד הרכבה RISC-V V
  • SiFive מאפשרת ללקוחותיה לחקור הוספת הרחבות מותאמות אישית למימושי RISC-V שלהם
  • SiFive באמצעות היחידה העסקית OpenFive שלה מרחיבה שירותי הטמעת שבבים מותאמים אישית כדי לתת מענה לצרכי סיליקון ספציפיים לתחום

איור 2:

תמיכה מלאה TensorFlow Lite risc-v מסננת

סיכום:

בקצרה, לקוחות SiFive יכולים ליישם בקלות ובמהירות את היישומים שלהם, בין אם היישומים כוללים עומסי עבודה של Edge AI או עומסי עבודה מסורתיים מסוג מרכז נתונים. אם אתה מעוניין ליהנות מהפתרונות של SiFive להאצת הביצועים של עומסי העבודה שלך ב-ML, אני ממליץ לך להירשם ולהקשיב ל כל ההרצאה של כריס ולאחר מכן לדון עם SiFive על דרכים למנף את ההיצע השונות שלהם לפיתוח המוצרים שלך.

שתף את הפוסט הזה באמצעות: מקור: https://semiwiki.com/ip/sifive/299157-enhancing-risc-v-vector-extensions-to-accelerate-performance-on-ml-workloads/

בול זמן:

עוד מ Semiwiki