Intel y Facebook están trabajando juntos en una nueva inteligencia artificial (AI) chip. Llamado el procesador Nervana red neuronal (PNN-I), es un chip de AI para cargas de trabajo a base de inferencia. Se espera que el nuevo chip para ser terminado en el segundo medio de 2019, Intel dijo el lunes durante el Consumer Electronics Show en Las Vegas.
"Facebook se complace en asociarse con Intel en una nueva generación de potencia optimizada, altamente sintonizado chip de inferencia AI que será un salto en la inferencia aceleración de la carga de trabajo,”, Dijo Facebook en su propia declaración.
Con este chip, Intel espera que se mantenga en una posición líder en el mercado de rápido crecimiento de la IA. Se espera que los chips similares de empresas de la competencia, tales como Nvidia y unidad de Amazon Web Services, Reuters informó.
Intel y Facebook Trabajando en Nervana AI viruta
De acuerdo con Naveen Rao, Vicepresidente corporativo y gerente general de AI en Intel, El chip está construido sobre un proceso Intel de 10 nanómetros e incluirá núcleos de Ice Lake para manejar operaciones generales y aceleración de redes neuronales..
Nervana está diseñado con la idea de ayudar a los investigadores en el proceso de inferencia. En el AI, un motor de inferencia es un componente del sistema que aplica reglas lógicas a la base de conocimientos para deducir información nueva. La inferencia es, De hecho, parte del aprendizaje automático. El aprendizaje automático tiene dos fases - la formación y la inferencia. La capacitación se lleva mucho tiempo y es más complicado. Realizar inferencia en los nuevos datos parece ser más fácil y es la tecnología esencial detrás de la visión por ordenador, reconocimiento de voz, y tareas de procesamiento del lenguaje, los expertos explican.
Nervana está optimizado para el reconocimiento de imágenes, Intel explicó durante la presentación. La arquitectura del chip es diferente, ya que carece de una jerarquía de caché estándar, y en el chip de memoria es gestionada por software directamente, VentureBeat reportado. Adicionalmente, el chip es capaz de distribuir los parámetros de red neural a través de múltiples chips de, y esto se debe a su alta velocidad de- e interconexiones fuera de chip.
Vale la pena mencionar que los procesadores de Intel están en la parte superior del mercado para la inferencia de aprendizaje automático. En septiembre 2018 Nvidia también lanzó su propio procesador de inferencia, y Amazon está siguiendo sus pasos. Sin embargo, El chip de Amazon no es una competencia directa ya que la compañía no está vendiendo los chips.. Amazon planea vender servicios a sus clientes de la nube que utilizará el chip en el futuro. Pero esto significa que Amazon no va a necesitar los chips de Intel y Nvidia, que es una pérdida de un cliente importante, Reuters señaló.