Semiconductor Portal

» セミコンポータルによる分析 » 噞分析

半導プロセッサメーカーが集Tした師走(AI)

今後がR`される半導設企業がこの12月に集Tした。Intel、Nvidia、Qualcomm、Arm、そしてRISC-V Foundationだ。脱パソコンを模索するIntelはAI、Nvidiaもゲーム機のGPUからAIへとそれぞれシフトさせ、AIプロセッサIPコアベンダーAImotiveがハンガリーから来日した。i半はAI、後半はIoTを中心に紹介する。

Intel、クラウドからエッジまでAI揃える
Intelは、これまでx86アーキテクチャのXeonプロセッサをAIの演QにW(w┌ng)するスケーラブルプロセッサに加え、企業A収によって3つのAIソフトウエア企業を}に入れた(図1)。Movidius、Nervana、そしてSaffronの3社である。Movidiusは推bに化したエッジのAIチップを設しており、人間のNを構成するニューロン(神経細胞)とシナプス(I点)を模倣したニューロモーフィックプロセッサ「Loihi」を、さらにNervana社はニューラルネットワークプロセッサ「Lake Crest」をそれぞれ出してきている。Saffron社の\術は連[メモリを使うAIで、Xeon Scalableプロセッサ屬法金融Mを検(m┬ng)するために最適化された「Saffron Anti-Money Laundering Adviser」を載せている。


スライド:Intel AIに向けた戦S的なDり組み

図1 2017QのIntelはAIにを入れ始めた


IntelはAIをさまざまな分野に向けてを[定しており、エッジからデータセンターに至るさまざまなエンドツーエンドのソリューションに官できるようにしている(図2)。例えば、エッジではMovidiusチップを使ってドローンや監カメラなどのビジョンプロセッシングを担う。ハイエンドのデータセンターでは、Nervanaニューラルネットワークプロセッサで膨j(lu┛)なデータのバッチ処理を行う。にを入れるNervanaでは、SDK(ソフトウエア開発キット)やライブラリを揃え、さらにAIフレームワークであるCaffe 2やTensorFlowなどをサポートする。


スライド:Intel エンド・ツー・エンドのAIコンピューティング

図2 エッジからデータセンターまでのチップを揃えるIntel


Intelの(d┛ng)みは何といってもAlteraA収によってFPGAを}に入れたこと。にデータセンターなどでは、並`処理に優れたGPUとはいっても、さすがにハードウエアv路であるFPGAには性Cで及ばない。FPGAのStratix 10と、(d┛ng)なCPUであるXeon、そしてNervanaのニューラルネットワークプロセッサと3つを使うことができる。現在最(d┛ng)のXeon Platinum 8180プロセッサとIntelのMKL(Math Kernel Library)を使い、最適化されたCaffe AlexNetでi世代のプロセッサで比べると学{のスループットは113倍、推bではCaffe GoogleNet v1で138倍屬ったとしている。

Nvidia、AI向けGPUで性Δ鰺ダ
k(sh┫)、AIで最Zもてはやされているグラフィックスプロセッサチップ(GPU)のNvidiaは、AIに向いたGPUシリーズのCUDAを発表して以来、進化を~げている。2012Qの「Kepler」から数えて4世代に相当する「Volta」アーキテクチャでは、「Tesla V100」というがあるが(図3)、これは最j(lu┛)125TFLOPSの半@度(16ビット)性Δ鮗存修垢Tensorコアを搭載しているという。このチップを搭載したAIスーパーコンピュータともいうべきDGX DGX Stationは、1Peta FLOPSという高性Δ淵灰鵐團紂璽燭任△襦


スライド:NVIDIA GPU コンピューティングの躍進

図3 AIに適したGPUのCUDAの進化 最新チップはVoltaシリーズのTesla V100


このTesla V100の威をデータセンターレベルで比較すると、4万5000の画気1秒間で識別するのに要なデータセンターのサーバー数は、来のCPUサーバーだと160要で、消J電は65kWだったが、Tesla V100を搭載したGPUサーバーだと、8で済み、消J電は3kWで済んだとしている。つまり、画鞠Ъ韻40倍高]になり、O言語翻l処理をさせる場合には140倍高]だったとしている。

NvidiaのCEOであるJensen Huang(hu━)(図4)は、1のTesla V100サーバーが約50万ドルをI約したことに相当する、と述べている。同(hu━)は再帰型ニューラルネットワーク(RNN)を使って作曲のデモも見せた。バッハ、モーツアルト、ベートーベンの音楽と、「スターウォーズ」や「インディ・ジョーンズ」、「ハリー・ポッター」など映画音楽の巨泥献腑鵝ΕΕリアムズの作を学{させた後、作曲させたシンフォニー音楽をビデオで流した。


^真:Nvidia CEO Jensun Huang(hu━)

図4 NvidiaのCEOであるJensun Huang(hu━)


AIはクルマのO動認識に使う\術でもあるが、これからのO運転にはソフトウエアがカギになろうと述べ、コネクテッドカーでのSOTA(Software on the air)などを含め、クルマは、「Software-Defined Car」になると述べた。これはスマートフォンがアプリでさまざまな機Δ鮗{加できるようになったことがクルマにもきるだろうとした。

AIのIPベンダーも登場
ハンガリーのIPベンダー、AImotive社がエッジ向けの推b専のAIプロセッサコアのライセンス提供を国内で始めた。Y化団のKhronos Groupが定めたNNEF(Neural Network Exchange Format)に拠したニューラルネットワークのアクセラレータIPである。現行のGPUと比べて電効率が4~5倍高く、MAC(積和演Q_(d│))の使率が94%と高い、としている。


スライド:AImotive AIWAREのターゲット

図5 マイコンとk緒に動くAIアクセラレータ 出Z:AImotive


同社は、開発をサポートする日本の半導専門商社、菱洋エレクトロを通じて販売ライセンスをサポートする。このIPはマイコンと共に動作するアクセラレータであり、スケーラブルな演Q_(d│)であるLAM(Layer Access Module)が外けメモリ(DDR)とやりDりする(図5)。国内でもグラフィックUのIPベンダーであるDMP(デジタルメディアプロフェッショナル)がAI推bIPをライセンス販売している。次vは、IoTとセキュリティの最新の動きを紹介する。

(2017/12/20)
ごT見・ご感[
麼嫋岌幃学庁医 冉巖母絃消消娼瞳| 忽恢晩昆壓濆杰簡啼詰嫋| 戟諾景洋欠寂喇胆狼双| 天胆18www| 冉巖及匯屈眉膨曝| v11av18| 晩云眉雫仔弼利峽| 冉巖某沃崙捲天胆総窃| 握秤戯胎務冉巖喟消秘笥笥| 亜亜亜挫寄壓濆杰| 楳楳課嚔赤篇撞| 忽恢頭窒継牽旋頭喟消| 91壓|天胆| 爺銘8壓潴賁致編bt| 眉雫弌傍及匯匈| 晩晩玻際際玻爺爺玻av| 消消忝栽際際忝栽消消忝栽88| 天胆晩云篇撞壓濆杰| 冉巖篇撞爺爺符| 及匯肝侃篤溺18蛍嶝互賠| 転転距縮侭29和性塀窒継堋響 | 撹繁窒継篇撞罷周利嫋| 消消繁曇富絃壷課AV築孟| 天胆19忝栽嶄猟忖鳥| 冉巖撹壓繁澣舐位賁檀| 訴課唹篇2021返字| 窒継匯雫蒙仔蒙弼寄頭壓濆杰| 消消消消冉巖av撹繁涙鷹| 仔肱篇撞壓濆杰簡啼| 忽恢娼瞳窒継消消消消窮唹利| 99犯宸戦峪嗤娼瞳99| 翆翆励埖忝栽宿秤壓瀛啼| 嶄猟忖鳥涙鷹涙鷹廨曝| 91秉曲啼砧枸| 忽恢娼瞳谷頭匯曝屈曝| 99娼瞳忽恢匯曝屈曝眉曝2021| 芳悟厘勣温倖魅弌傍| 嶄猟忖鳥匯曝屈曝眉曝消消利嫋| 晩云匯曝屈曝眉曝壓濘| 消消邦築孟冉巖AV涙鷹娼瞳| 字依湊間湊啣的棒低|