Intel e Facebook stanno lavorando insieme su un nuovo intelligenza artificiale (AI) patata fritta. Chiamato il processore Nervana Neural Network (NNP-I), è un chip AI per carichi di lavoro inferenza basati. Il nuovo chip dovrebbe essere finito nella seconda metà di 2019, Intel ha detto il Lunedi durante il Consumer Electronics Show di Las Vegas.
"Facebook è lieta di essere partner di Intel su una nuova generazione di potenza ottimizzata, altamente sintonizzato chip di inferenza AI che sarà un salto di accelerazione carico inferenza,”Facebook ha detto nella sua propria dichiarazione.
Con questo chip, Intel spera di rimanere in una posizione di leadership nel mercato in rapida crescita di AI. chip simili sono attesi da imprese competitive come Nvidia e Amazon Web Services dell'unità, Reuters ha riferito.
Intel e Facebook Lavorare su Nervana AI Chip
Secondo Rao Naveen, VP aziendale e direttore generale di AI a Intel, il chip è basato su un processo Intel da 10 nanometri e includerà core Ice Lake per gestire le operazioni generali e l'accelerazione della rete neurale.
Nervana è stato progettato con l'idea di aiutare i ricercatori nel processo di inferenza. Nel AI, un motore inferenziale è un componente del sistema che applica regole logiche alla base di conoscenza per dedurre nuove informazioni. L'inferenza è, infatti, parte dell'apprendimento automatico. Apprendimento automatico ha due fasi - la formazione e l'inferenza. La formazione richiede molto tempo ed è più complicato. Esecuzione di inferenza su nuovi dati sembra essere più facile ed è la tecnologia essenziale dietro computer vision, riconoscimento vocale, e le attività di elaborazione del linguaggio, spiegano gli esperti.
Nervana è ottimizzata per il riconoscimento delle immagini, Intel ha spiegato durante la presentazione. L'architettura del chip è diverso perché manca una gerarchia di cache standard di, e on-chip di memoria è controllata da software direttamente, VentureBeat segnalati. In aggiunta, il chip è in grado di distribuire i parametri di rete neurale su più chip, e questo è dovuto alla sua alta velocità su- e interconnessioni off-chip.
Vale la pena ricordare che i processori Intel sono al top del mercato per l'inferenza di machine learning. Nel mese di settembre 2018 Nvidia ha anche lanciato un proprio processore inferenza, e Amazon sta seguendo le loro orme. Tuttavia, Il chip di Amazon non è una competizione diretta in quanto la società non vende i chip. Amazon sta progettando di vendere servizi ai propri clienti nube che utilizzerà il chip in futuro. Ma questo significa che Amazon non avrà bisogno di chip di Intel e Nvidia, che è una perdita di un importante cliente, Reuters ha osservato.