Intel et Facebook de travail sur la grippe aviaire Inference Chip Appelée Nervana
NOUVELLES

Intel et Facebook de travail sur la grippe aviaire Inference Chip Appelée Nervana

Intel et Facebook travaillent ensemble sur une nouvelle intelligence artificielle (AI) puce. Appelé le processeur réseau Neural Nervana (NNP-I), il est une puce AI pour les charges à base inférence,. La nouvelle puce devrait être terminé dans la seconde moitié de 2019, Intel a annoncé lundi lors du Consumer Electronics Show à Las Vegas.

"Facebook est heureux d'être en partenariat avec Intel sur une nouvelle génération d'énergie optimisée, très à l'écoute d'inférence puce AI qui sera un saut dans l'accélération de la charge de travail d'inférence,» Facebook a déclaré dans sa propre déclaration.

Avec cette puce, Intel espère rester sur une position de leader sur le marché à croissance rapide de la grippe aviaire. puces similaires sont attendues des entreprises compétitives telles que l'unité de services Web de Nvidia et Amazon, Reuters a rapporté.




Intel et Facebook Travailler sur Nervana AI Chip

Selon Naveen Rao, Vice-président et directeur général de l'IA chez Intel, la puce repose sur un processus Intel 10 nanomètres, et comprendra les carottes de glace du lac pour gérer les opérations générales et de l'accélération du réseau de neurones.

Nervana est conçu avec l'idée d'aider les chercheurs dans le processus d'inférence. Dans l'IA, un moteur d'inférence est un composant du système qui applique des règles logiques à la base de connaissances pour en déduire de nouveaux renseignements. Inference est en fait une partie de l'apprentissage de la machine. L'apprentissage machine a deux phases - la formation et l'inférence. La formation prend beaucoup de temps et est plus compliquée. Exécution de l'inférence sur les nouvelles données semble être plus facile et est la technologie essentielle derrière la vision par ordinateur, reconnaissance vocale, et les tâches de traitement des langues, experts Explique.

en relation:
Intel vient d'annoncer plusieurs nouvelles initiatives qui utilisent des fonctionnalités spécifiques à la plate-forme matérielle Intel pour améliorer la sécurité.
Intel déploie la technologie de détection des menaces, GPU permet de numérisation

Nervana est optimisée pour une reconnaissance d'image, Intel a expliqué lors de la présentation. L'architecture de la puce est différent parce qu'il manque une hiérarchie de cache norme, et de la mémoire sur puce est gérée par le logiciel directement, VentureBeat signalé. En outre, la puce est en mesure de distribuer les paramètres du réseau de neurones sur plusieurs puces, et cela est dû à sa grande vitesse sur- et des interconnexions hors puce.

Il est à noter que les processeurs d'Intel sont au sommet du marché de l'inférence d'apprentissage de la machine. En Septembre 2018 Nvidia a également lancé son propre processeur d'inférence, et Amazon suit leurs traces. Cependant, La puce d'Amazon n'est pas la concurrence directe que la société ne vend pas les puces. Amazon prévoit de vendre des services à ses clients de cloud qui utilisera la puce à l'avenir. Mais cela signifie que Amazon ne sera pas puces d'Intel et qui ont besoin Nvidia, ce qui est une perte d'un client important, Reuters a noté.

Milena Dimitrova

Un écrivain inspiré et gestionnaire de contenu qui a été avec SensorsTechForum pour 4 ans. Bénéficie d' « M.. Robot » et les craintes de 1984 '. Axé sur la vie privée des utilisateurs et le développement des logiciels malveillants, elle croit fermement dans un monde où la cybersécurité joue un rôle central. Si le bon sens n'a pas de sens, elle sera là pour prendre des notes. Ces notes peuvent se tourner plus tard dans les articles!

Plus de messages

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont marqués *

Délai est épuisé. S'il vous plaît recharger CAPTCHA.

Partager sur Facebook Partager
Loading ...
Partager sur Twitter Tweet
Loading ...
Partager sur Google Plus Partager
Loading ...
Partager sur Linkedin Partager
Loading ...
Partager sur Digg Partager
Partager sur Reddit Partager
Loading ...
Partager sur Stumbleupon Partager
Loading ...