Mejora de las extensiones vectoriales de RISC-V para acelerar el rendimiento en cargas de trabajo de aprendizaje automático

Nodo de origen: 1853315

Durante la semana del 19 de abrilth, Linley Group celebró su Spring Processor Conference 2021. Linley Group tiene la reputación de convocar excelentes conferencias. Y la conferencia de primavera de este año no fue una excepción. Hubo una serie de charlas muy informativas de varias empresas actualizando a la audiencia sobre los últimos trabajos de investigación y desarrollo que se están realizando en la industria. Las presentaciones se clasificaron en ocho temas diferentes. Los temas tratados fueron Edge AI, Diseño de SoC integrado, Entrenamiento de AI de escalamiento, Diseño de SoC de AI, Infraestructura de red para AI y 5G, Software de AI de borde, Procesamiento de señales e Inferencia de AI eficiente.

La inteligencia artificial (IA) como tecnología ha atraído mucha atención e inversión en los últimos años. La conferencia ciertamente reflejó eso en el número de categorías de temas relacionados con la IA. Dentro de la categoría más amplia de IA, Edge AI fue un tema que tuvo una parte injusta de presentaciones y con razón. La informática de borde está experimentando un rápido crecimiento impulsado por IoT, 5G y otras aplicaciones de requisitos de baja latencia.

Una de las presentaciones dentro de la categoría Edge AI se tituló "Mejora de las extensiones vectoriales de RISC-V para acelerar el rendimiento en cargas de trabajo de aprendizaje automático". La charla estuvo a cargo de Chris Lattner, presidente de ingeniería y producto de SiFive, Inc. Chris presentó un caso sólido de por qué la solución basada en extensiones vectoriales RISC-V de SiFive es ideal para aplicaciones impulsadas por IA. La siguiente es mi opinión.

Requisitos del mercado:

A medida que crece el mercado de la informática de punta, los requisitos de potencia y rendimiento de estas aplicaciones también son cada vez más exigentes. Muchas de estas aplicaciones están impulsadas por la IA y entran en la categoría de cargas de trabajo de aprendizaje automático (ML). Y la adopción de la inteligencia artificial está impulsando los requisitos de procesamiento más hacia la manipulación de datos que hacia la computación de propósito general. El aprendizaje profundo es la base de los modelos de ML e implica el procesamiento de grandes conjuntos de datos. Con los modelos de ML en rápida evolución, una solución ideal sería aquella que optimizara el rendimiento, la potencia, la facilidad para incorporar modelos de ML emergentes y el alcance de los cambios resultantes de hardware y / o software.

Ventaja del vector RISC-V:

La motivación original detrás de la iniciativa que nos ha dado la arquitectura RISC-V es la experimentación. Experimentar para desarrollar diseños de chips que produzcan un mejor rendimiento frente a la desaceleración esperada de la ley de Moore. RISC-V se basa en la idea de poder personalizar chips particulares donde puede elegir qué extensiones de conjunto de instrucciones está utilizando. Las extensiones de vector permiten el procesamiento de vectores de cualquier longitud utilizando funciones que procesan vectores de longitudes fijas. El procesamiento vectorial permite que el software existente se ejecute sin recompilar cuando el hardware se actualiza en forma de más ALU y otras unidades funcionales. Se ha producido un progreso significativo en términos de una base de hardware establecida y un ecosistema de soporte, como las tecnologías de compilación.

RISC-V se puede optimizar para un dominio o aplicación en particular a través de extensiones personalizadas. Como una arquitectura de conjunto de instrucciones de estándar abierto, los usuarios de RISC-V disfrutan de mucha flexibilidad a la hora de elegir un proveedor para sus necesidades de diseño de chips.

Oferta de SiFive:

SiFive ha mejorado la ventaja de RISC-V Vector al agregar nuevas extensiones de vector para acelerar la ejecución de muchos modelos de redes neuronales diferentes. Consulte la Figura 1 para ver un ejemplo del tipo de aceleración que se puede obtener usando las extensiones complementarias de SiFive en comparación con el uso solo de las extensiones de vector base de RISC-V. Su solución Intelligence X280 es una solución RISC-V Vector con capacidad para múltiples núcleos (hardware y software) para facilitar a sus clientes la implementación de aplicaciones optimizadas de Edge AI. La solución también se puede utilizar para implementar aplicaciones de centros de datos.

Figura 1:

Rendimiento de SuperCharge ML risc-v

Ventaja SiFive:

  • La solución Intelligence X280 de SiFive es totalmente compatible con las plataformas de código abierto TensorFlow y TensorFlow Lite para el aprendizaje automático (consulte la Figura 2)
  • SiFive proporciona una manera fácil de migrar el código existente del cliente basado en otras arquitecturas a la arquitectura RISC-V Vector. Por ejemplo, SiFive puede traducir código ARM Neon a código ensamblador RISC-V V
  • SiFive permite a sus clientes explorar la posibilidad de agregar extensiones personalizadas a sus implementaciones RISC-V
  • SiFive, a través de su unidad de negocio OpenFive, amplía los servicios de implementación de chips personalizados para abordar las necesidades de silicio específicas del dominio.

Figura 2:

Soporte completo TensorFlow Lite risc-v sifive

Resumen:

En pocas palabras, los clientes de SiFive pueden implementar fácil y rápidamente sus aplicaciones, ya sea que las aplicaciones involucren cargas de trabajo de Edge AI o cargas de trabajo de tipo de centro de datos tradicional. Si está interesado en beneficiarse de las soluciones de SiFive para acelerar el rendimiento de sus cargas de trabajo de ML, le recomiendo que se registre y escuche Toda la charla de Chris y luego hable con SiFive sobre las formas de aprovechar sus diferentes ofertas para desarrollar sus productos.

Comparte esta publicación a través de: Fuente: https://semiwiki.com/ip/sifive/299157-enhancing-risc-v-vector-extensions-to-accelerate-performance-on-ml-workloads/

Sello de tiempo:

Mas de Semiwiki