Intel e Facebook estão trabalhando juntos em uma nova inteligência artificial (AI) lasca. Chamado de processador Nervana Rede Neural (PNN-I), é um chip de AI para cargas de trabalho baseadas em inferência. O novo chip deverá ser concluído no segundo semestre de 2019, Intel disse na segunda-feira durante o Consumer Electronics Show em Las Vegas.
“O Facebook tem o prazer de fazer parceria com a Intel em uma nova geração de sistemas de energia otimizados, chip de inferência de IA altamente ajustado que será um salto na aceleração da carga de trabalho de inferência,"O Facebook disse em sua própria declaração.
Com este chip, A Intel espera permanecer em uma posição de liderança no mercado de IA em rápido crescimento. Chips semelhantes são esperados de empresas concorrentes, como a Nvidia e a unidade de serviços Web da Amazon, Reuters.
Intel e Facebook trabalhando no chip Nervana AI
De acordo com Naveen Rao, vice-presidente corporativo e gerente geral de inteligência artificial da Intel, o chip é construído em um processo Intel de 10 nanômetros e incluirá núcleos de Ice Lake para lidar com operações gerais e aceleração de rede neural.
Nervana é projetado com a idéia de ajudar pesquisadores no processo de inferência. Na IA, um mecanismo de inferência é um componente do sistema que aplica regras lógicas à base de conhecimento para deduzir novas informações. A inferência é, de fato, parte do aprendizado de máquina. O aprendizado de máquina tem duas fases - treinamento e inferência. O treinamento leva muito tempo e é mais complicado. Realizar inferência em novos dados parece ser mais fácil e é a tecnologia essencial por trás da visão computacional, reconhecimento de voz, e tarefas de processamento de idiomas, especialistas explicam.
Nervana é otimizado para reconhecimento de imagem, Intel explicou durante a apresentação. A arquitetura do chip é diferente porque não possui uma hierarquia de cache padrão, e a memória no chip é gerenciada diretamente pelo software, VentureBeat relatado. além do que, além do mais, o chip é capaz de distribuir parâmetros de rede neural em vários chips, e isso se deve à sua alta velocidade- e interconexões fora do chip.
Vale ressaltar que os processadores da Intel estão no topo do mercado de inferência de aprendizado de máquina. Em setembro 2018 A Nvidia também lançou seu próprio processador de inferência, e a Amazon está seguindo seus passos. Contudo, O chip da Amazon não é uma competição direta, pois a empresa não está vendendo os chips. A Amazon planeja vender serviços para seus clientes em nuvem que utilizarão o chip no futuro. Mas isso significa que a Amazon não precisará de chips da Intel e Nvidia, que é uma perda de um grande cliente, Reuters observou.