Intel und Facebook arbeiten gemeinsam an einer neuen künstlichen Intelligenz (AI) Chip. Genannt der Nervana Neural Network Processor (NNP-I), es ist ein AI-Chip für Inferenz-basierten Auslastungen. Der neue Chip wird voraussichtlich in der zweiten Hälfte des Jahres fertig sein 2019, Intel sagte am Montag während der Consumer Electronics Show in Las Vegas.
"Facebook ist sehr zufrieden mit Intel über die Partnerschaft auf eine neue Generation von leistungsoptimierten, hoch Chip abgestimmte AI-Inferenz, der ein Sprung in der Inferenz Arbeitsbelastung Beschleunigung wird,“, Sagte Facebook in seiner eigenen Aussage.
Mit diesem Chip, Intel hofft auf eine führende Position zu bleiben, in dem schnell wachsenden Markt von AI. Ähnliche Chips werden von wettbewerbsfähigen Unternehmen wie Nvidia und Amazon Web Services-Einheit erwartet, Reuters berichtet.
Intel und Facebook Arbeiten an Nervana AI Chip
Nach Naveen Rao, Corporate Vice President und General Manager von AI bei Intel, Der Chip basiert auf einem 10-Nanometer-Intel-Prozess und wird Ice Lake-Kerne enthalten, um den allgemeinen Betrieb und die Beschleunigung des neuronalen Netzwerks zu bewältigen.
Nervana ist mit der Idee, die Forscher in den Prozess der Folgerung zu helfen. Im AI, eine Inferenzmaschine ist eine Komponente des Systems, die logischen Regeln zur Wissensbasis gilt neue Informationen abzuleiten. Die Folgerung ist, tatsächlich, Teil des maschinellen Lernens. Maschinelles Lernen hat zwei Phasen - Ausbildung und Inferenz. Ausbildung dauert lange und ist komplizierter. Durchführen von Inferenz auf neue Daten erscheint leichter zu sein, und ist die wesentliche Technologie hinter Computer Vision, Spracherkennung, und Sprachverarbeitungsaufgaben, Experten erklären.
Nervana ist für die Bilderkennung optimiert, Intel erklärte bei der Präsentation. Die Architektur des Chips ist anders, weil es eine Standard-Cache-Hierarchie fehlt, und On-Chip-Speicher wird durch die Software direkt verwaltet, Venture berichtet. Außerdem, der Chip in der Lage ist neurale Netzwerkparameter über mehrere Chips zu verteilen,, und dies ist aufgrund seiner hohen Geschwindigkeit auf- und Off-Chip-Verbindungen.
Es ist erwähnenswert, dass Intel-Prozessoren an der Spitze des Marktes für maschinelles Lernen Inferenz. Im September 2018 Nvidia hat ebenfalls einen eigenen Prozessor Inferenz, und Amazon folgt ihren Spuren. Jedoch, Der Chip von Amazon ist keine direkte Konkurrenz, da das Unternehmen die Chips nicht verkauft. Amazon plant Dienstleistungen für seine Cloud-Kunden zu verkaufen, die den Chip in Zukunft nutzen werden. Das bedeutet aber, dass Amazon nicht Chips von Intel und Nvidia mehr braucht, Das ist ein Verlust eines Großkunden, Reuters festgestellt.