Casa > Cyber ​​Notizie > Intel e Facebook al lavoro su un chip di inferenza AI chiamato Nervana
CYBER NEWS

Intel e Facebook di lavoro sulle AI Inference chip chiamato Nervana

Intel e Facebook stanno lavorando insieme su un nuovo intelligenza artificiale (AI) patata fritta. Chiamato il processore Nervana Neural Network (NNP-I), è un chip AI per carichi di lavoro inferenza basati. Il nuovo chip dovrebbe essere finito nella seconda metà di 2019, Intel ha detto il Lunedi durante il Consumer Electronics Show di Las Vegas.

"Facebook è lieta di essere partner di Intel su una nuova generazione di potenza ottimizzata, altamente sintonizzato chip di inferenza AI che sarà un salto di accelerazione carico inferenza,”Facebook ha detto nella sua propria dichiarazione.

Con questo chip, Intel spera di rimanere in una posizione di leadership nel mercato in rapida crescita di AI. chip simili sono attesi da imprese competitive come Nvidia e Amazon Web Services dell'unità, Reuters ha riferito.




Intel e Facebook Lavorare su Nervana AI Chip

Secondo Rao Naveen, VP aziendale e direttore generale di AI a Intel, il chip è basato su un processo Intel da 10 nanometri e includerà core Ice Lake per gestire le operazioni generali e l'accelerazione della rete neurale.

Nervana è stato progettato con l'idea di aiutare i ricercatori nel processo di inferenza. Nel AI, un motore inferenziale è un componente del sistema che applica regole logiche alla base di conoscenza per dedurre nuove informazioni. L'inferenza è, infatti, parte dell'apprendimento automatico. Apprendimento automatico ha due fasi - la formazione e l'inferenza. La formazione richiede molto tempo ed è più complicato. Esecuzione di inferenza su nuovi dati sembra essere più facile ed è la tecnologia essenziale dietro computer vision, riconoscimento vocale, e le attività di elaborazione del linguaggio, spiegano gli esperti.

Correlata: [wplinkpreview url =”https://sensorstechforum.com/intel-threat-detection-technology-gpu-scanning/”]Intel implementa Threat Detection Technology, Abilita GPU Scansione

Nervana è ottimizzata per il riconoscimento delle immagini, Intel ha spiegato durante la presentazione. L'architettura del chip è diverso perché manca una gerarchia di cache standard di, e on-chip di memoria è controllata da software direttamente, VentureBeat segnalati. In aggiunta, il chip è in grado di distribuire i parametri di rete neurale su più chip, e questo è dovuto alla sua alta velocità su- e interconnessioni off-chip.

Vale la pena ricordare che i processori Intel sono al top del mercato per l'inferenza di machine learning. Nel mese di settembre 2018 Nvidia ha anche lanciato un proprio processore inferenza, e Amazon sta seguendo le loro orme. Tuttavia, Il chip di Amazon non è una competizione diretta in quanto la società non vende i chip. Amazon sta progettando di vendere servizi ai propri clienti nube che utilizzerà il chip in futuro. Ma questo significa che Amazon non avrà bisogno di chip di Intel e Nvidia, che è una perdita di un importante cliente, Reuters ha osservato.

Milena Dimitrova

Uno scrittore ispirato e un gestore di contenuti che è stato con SensorsTechForum dall'inizio del progetto. Un professionista con 10+ anni di esperienza nella creazione di contenuti accattivanti. Incentrato sulla privacy degli utenti e lo sviluppo di malware, crede fortemente in un mondo in cui la sicurezza informatica gioca un ruolo centrale. Se il buon senso non ha senso, lei sarà lì per prendere appunti. Quelle note possono poi trasformarsi in articoli! Seguire Milena @Milenyim

Altri messaggi

Seguimi:
Cinguettio

Lascio un commento

Il tuo indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito utilizza i cookie per migliorare l'esperienza dell'utente. Utilizzando il nostro sito web acconsenti a tutti i cookie in conformità con la ns politica sulla riservatezza.
Sono d'accordo