Intel et Facebook travaillent ensemble sur une nouvelle intelligence artificielle (AI) puce. Appelé le processeur réseau Neural Nervana (NNP-I), il est une puce AI pour les charges à base inférence,. La nouvelle puce devrait être terminé dans la seconde moitié de 2019, Intel a annoncé lundi lors du Consumer Electronics Show à Las Vegas.
"Facebook est heureux d'être en partenariat avec Intel sur une nouvelle génération d'énergie optimisée, très à l'écoute d'inférence puce AI qui sera un saut dans l'accélération de la charge de travail d'inférence,» Facebook a déclaré dans sa propre déclaration.
Avec cette puce, Intel espère rester sur une position de leader sur le marché à croissance rapide de la grippe aviaire. puces similaires sont attendues des entreprises compétitives telles que l'unité de services Web de Nvidia et Amazon, Reuters a rapporté.
Intel et Facebook Travailler sur Nervana AI Chip
Selon Naveen Rao, Vice-président et directeur général de l'IA chez Intel, la puce est construite sur un processus Intel de 10 nanomètres et comprendra des noyaux Ice Lake pour gérer les opérations générales et l'accélération du réseau neuronal.
Nervana est conçu avec l'idée d'aider les chercheurs dans le processus d'inférence. Dans l'IA, un moteur d'inférence est un composant du système qui applique des règles logiques à la base de connaissances pour en déduire de nouveaux renseignements. L'inférence est, en fait, partie de l'apprentissage automatique. L'apprentissage machine a deux phases - la formation et l'inférence. La formation prend beaucoup de temps et est plus compliquée. Exécution de l'inférence sur les nouvelles données semble être plus facile et est la technologie essentielle derrière la vision par ordinateur, reconnaissance vocale, et les tâches de traitement des langues, les experts expliquent.
Nervana est optimisée pour une reconnaissance d'image, Intel a expliqué lors de la présentation. L'architecture de la puce est différent parce qu'il manque une hiérarchie de cache norme, et de la mémoire sur puce est gérée par le logiciel directement, VentureBeat signalé. En outre, la puce est en mesure de distribuer les paramètres du réseau de neurones sur plusieurs puces, et cela est dû à sa grande vitesse sur- et des interconnexions hors puce.
Il est à noter que les processeurs d'Intel sont au sommet du marché de l'inférence d'apprentissage de la machine. En Septembre 2018 Nvidia a également lancé son propre processeur d'inférence, et Amazon suit leurs traces. Cependant, La puce d'Amazon n'est pas une concurrence directe car la société ne vend pas les puces. Amazon prévoit de vendre des services à ses clients de cloud qui utilisera la puce à l'avenir. Mais cela signifie que Amazon ne sera pas puces d'Intel et qui ont besoin Nvidia, ce qui est une perte d'un client important, Reuters a noté.