IntelとFacebookは、新しい人工知能に協力して取り組んでいます (AI) チップ. Nervanaニューラルネットワークプロセッサと呼ばれる (NNP-I), 推論ベースのワークロード用のAIチップです. 新しいチップは下半期に完成する予定です 2019, Intelは月曜日にラスベガスで開催されたConsumerElectronicsShowで語った.
「「Facebookは、電力を最適化した新世代のインテルと提携できることを嬉しく思います。, 推論ワークロードの高速化を飛躍させる高度に調整されたAI推論チップ,Facebookは独自の声明で述べた.
このチップで, Intelは、急成長しているAI市場で主導的な地位を維持することを望んでいます。. 同様のチップは、NvidiaやAmazonのWebサービスユニットなどの競争力のある企業から期待されています, ロイターは報告した.
IntelとFacebookがNervanaAIチップに取り組んでいます
ナヴィーン・ラオによると, インテルの企業VP兼AIのゼネラルマネージャー, チップは10ナノメートルのIntelプロセス上に構築されており、一般的な操作とニューラルネットワークの高速化を処理するためのIceLakeコアが含まれます.
Nervanaは、推論の過程で研究者を支援するという考えで設計されています. AIで, 推論エンジンは、新しい情報を推測するために知識ベースに論理ルールを適用するシステムのコンポーネントです。. 推論は, 実際には, 機械学習の一部. 機械学習には、トレーニングと推論の2つのフェーズがあります. トレーニングには時間がかかり、より複雑です. 新しいデータの推論を実行することはより簡単であるように思われ、コンピュータビジョンの背後にある不可欠なテクノロジーです, 音声認識, および言語処理タスク, 専門家は説明します.
Nervanaは画像認識用に最適化されています, Intelはプレゼンテーション中に説明しました. チップのアーキテクチャは、標準のキャッシュ階層がないため異なります。, オンチップメモリはソフトウェアによって直接管理されます, VentureBeat 報告. 加えて, チップはニューラルネットワークパラメータを複数のチップに分散させることができます, これは高速オンによるものです- およびオフチップ相互接続.
インテルのプロセッサーが機械学習推論の市場のトップにあることは言及する価値があります. 九月に 2018 Nvidiaは独自の推論プロセッサも発表しました, そしてAmazonは彼らの足跡をたどっています. でも, アマゾンのチップは、同社がチップを販売していないため、直接の競争ではありません. アマゾンは、将来的にチップを利用するクラウドの顧客にサービスを販売することを計画しています. しかし、これは、AmazonがIntelとNvidiaのチップを必要としないことを意味します, これは主要な顧客の損失です, ロイターは指摘した.