Hjem > Cyber ​​Nyheder > Intel og Facebook Arbejder med AI Inference Chip kaldet Nervana
CYBER NEWS

Intel og Facebook arbejdsgruppe om AI Inferens Chip Called Nervana

Intel og Facebook arbejder sammen på en ny kunstig intelligens (AI) chip. Kaldet Nervana Neural Network Processor (NNP-I), det er en AI chip til inferens-baserede arbejdsbelastninger. Det forventes, at nye chip til at være færdig i anden halvdel af 2019, Intel sagde mandag under Consumer Electronics Show i Las Vegas.

"Facebook er glad for at være partner med Intel på en ny generation af el-optimeret, tunede AI inferens chip der vil være et spring i inferens arbejdsbyrde acceleration,”Sagde Facebook i sin egen erklæring.

Med denne chip, Intel håber at forblive på en førende position på det hurtigt voksende marked for AI. Lignende chips forventes fra konkurrencedygtige virksomheder som Nvidia og Amazons Web Services enhed, Reuters rapporterede.




Intel og Facebook Arbejde på Nervana AI Chip

Ifølge Naveen Rao, virksomhedernes VP og General Manager for AI hos Intel, chippen er bygget på en 10-nanometer Intel-proces og vil omfatte Ice Lake-kerner til at håndtere generelle operationer og neurale netværksacceleration.

Nervana er designet med ideen om at hjælpe forskere i gang med at følgeslutning. I AI, en slutning motor er en del af systemet, der gælder logiske regler for videngrundlaget at udlede nye oplysninger. Inferensen er, faktisk, del af maskinlæring. Machine learning har to faser - uddannelse og følgeslutning. Træning tager lang tid og er mere kompliceret. Udførelse følgeslutning om nye data synes at være lettere og er den afgørende teknologi bag computer vision, stemmegenkendelse, og sprogbehandling opgaver, eksperter forklarer.

Relaterede: [wplinkpreview url =”https://sensorstechforum.com/intel-threat-detection-technology-gpu-scanning/”]Intel udsender Threat Detection-teknologi, Aktiverer GPU Scanning

Nervana er optimeret til billedgenkendelse, Intel forklarede under præsentationen. Chippen arkitektur er anderledes, fordi det mangler en standard cache hierarki, og on-chip hukommelse styres af software direkte, VentureBeat rapporteret. Desuden, chippen er i stand til at distribuere neurale netværksparametre tværs af flere chips, og det er på grund af sin høje hastighed på- og off-chip interconnects.

Det er værd at nævne, at Intels processorer er i toppen af ​​markedet for machine learning inferens. I september 2018 Nvidia lancerede også sin egen følgeslutning processor, og Amazon følger i deres fodspor. Men, Amazons chip er ikke en direkte konkurrence, da virksomheden ikke sælger chips. Amazon planlægger at sælge tjenester til sine cloud kunder, som vil udnytte chippen i fremtiden. Men det betyder, at Amazon ikke vil være behov for chips fra Intel og Nvidia, der er et tab af en stor kunde, Reuters bemærkede.

Milena Dimitrova

En inspireret forfatter og indholdschef, der har været hos SensorsTechForum siden projektets start. En professionel med 10+ års erfaring med at skabe engagerende indhold. Fokuseret på brugernes privatliv og malware udvikling, hun tror stærkt på en verden, hvor cybersikkerhed spiller en central rolle. Hvis almindelig sund fornuft giver ingen mening, hun vil være der til at tage noter. Disse noter senere kan blive til artikler! Følg Milena @Milenyim

Flere indlæg

Følg mig:
Twitter

Efterlad en kommentar

Din e-mail-adresse vil ikke blive offentliggjort. Krævede felter er markeret *

This website uses cookies to improve user experience. By using our website you consent to all cookies in accordance with our Fortrolighedspolitik.
Jeg er enig