Semiconductor Portal

» セミコンポータルによる分析 » 噞分析

半導プロセッサメーカーが集Tした師走(AI)

今後がR`される半導設企業がこの12月に集Tした。Intel、Nvidia、Qualcomm、Arm、そしてRISC-V Foundationだ。脱パソコンを模索するIntelはAI、Nvidiaもゲーム機のGPUからAIへとそれぞれシフトさせ、AIプロセッサIPコアベンダーAImotiveがハンガリーから来日した。i半はAI、後半はIoTを中心に紹介する。

Intel、クラウドからエッジまでAI揃える
Intelは、これまでx86アーキテクチャのXeonプロセッサをAIの演QにWするスケーラブルプロセッサに加え、企業A収によって3つのAIソフトウエア企業を}に入れた(図1)。Movidius、Nervana、そしてSaffronの3社である。Movidiusは推bに化したエッジのAIチップを設しており、人間のNを構成するニューロン(神経細胞)とシナプス(I点)を模倣したニューロモーフィックプロセッサ「Loihi」を、さらにNervana社はニューラルネットワークプロセッサ「Lake Crest」をそれぞれ出してきている。Saffron社の\術は連[メモリを使うAIで、Xeon Scalableプロセッサ屬法金融Mを検瑤垢襪燭瓩忘播化された「Saffron Anti-Money Laundering Adviser」を載せている。


スライド:Intel AIに向けた戦S的なDり組み

図1 2017QのIntelはAIにを入れ始めた


IntelはAIをさまざまな分野に向けてを[定しており、エッジからデータセンターに至るさまざまなエンドツーエンドのソリューションに官できるようにしている(図2)。例えば、エッジではMovidiusチップを使ってドローンや監カメラなどのビジョンプロセッシングを担う。ハイエンドのデータセンターでは、Nervanaニューラルネットワークプロセッサで膨jなデータのバッチ処理を行う。にを入れるNervanaでは、SDK(ソフトウエア開発キット)やライブラリを揃え、さらにAIフレームワークであるCaffe 2やTensorFlowなどをサポートする。


スライド:Intel エンド・ツー・エンドのAIコンピューティング

図2 エッジからデータセンターまでのチップを揃えるIntel


Intelの咾澆浪燭箸い辰討AlteraA収によってFPGAを}に入れたこと。にデータセンターなどでは、並`処理に優れたGPUとはいっても、さすがにハードウエアv路であるFPGAには性Cで及ばない。FPGAのStratix 10と、嗄なCPUであるXeon、そしてNervanaのニューラルネットワークプロセッサと3つを使うことができる。現在最咾Xeon Platinum 8180プロセッサとIntelのMKL(Math Kernel Library)を使い、最適化されたCaffe AlexNetでi世代のプロセッサで比べると学{のスループットは113倍、推bではCaffe GoogleNet v1で138倍屬ったとしている。

Nvidia、AI向けGPUで性Δ鰺ダ
k機AIで最Zもてはやされているグラフィックスプロセッサチップ(GPU)のNvidiaは、AIに向いたGPUシリーズのCUDAを発表して以来、進化を~げている。2012Qの「Kepler」から数えて4世代に相当する「Volta」アーキテクチャでは、「Tesla V100」というがあるが(図3)、これは最j125TFLOPSの半@度(16ビット)性Δ鮗存修垢Tensorコアを搭載しているという。このチップを搭載したAIスーパーコンピュータともいうべきDGX DGX Stationは、1Peta FLOPSという高性Δ淵灰鵐團紂璽燭任△襦


スライド:NVIDIA GPU コンピューティングの躍進

図3 AIに適したGPUのCUDAの進化 最新チップはVoltaシリーズのTesla V100


このTesla V100の威をデータセンターレベルで比較すると、4万5000の画気1秒間で識別するのに要なデータセンターのサーバー数は、来のCPUサーバーだと160要で、消J電は65kWだったが、Tesla V100を搭載したGPUサーバーだと、8で済み、消J電は3kWで済んだとしている。つまり、画鞠Ъ韻40倍高]になり、O言語翻l処理をさせる場合には140倍高]だったとしている。

NvidiaのCEOであるJensen Huang(図4)は、1のTesla V100サーバーが約50万ドルをI約したことに相当する、と述べている。同は再帰型ニューラルネットワーク(RNN)を使って作曲のデモも見せた。バッハ、モーツアルト、ベートーベンの音楽と、「スターウォーズ」や「インディ・ジョーンズ」、「ハリー・ポッター」など映画音楽の巨泥献腑鵝ΕΕリアムズの作を学{させた後、作曲させたシンフォニー音楽をビデオで流した。


^真:Nvidia CEO Jensun Huang

図4 NvidiaのCEOであるJensun Huang


AIはクルマのO動認識に使う\術でもあるが、これからのO運転にはソフトウエアがカギになろうと述べ、コネクテッドカーでのSOTA(Software on the air)などを含め、クルマは、「Software-Defined Car」になると述べた。これはスマートフォンがアプリでさまざまな機Δ鮗{加できるようになったことがクルマにもきるだろうとした。

AIのIPベンダーも登場
ハンガリーのIPベンダー、AImotive社がエッジ向けの推b専のAIプロセッサコアのライセンス提供を国内で始めた。Y化団のKhronos Groupが定めたNNEF(Neural Network Exchange Format)に拠したニューラルネットワークのアクセラレータIPである。現行のGPUと比べて電効率が4~5倍高く、MAC(積和演Q_)の使率が94%と高い、としている。


スライド:AImotive AIWAREのターゲット

図5 マイコンとk緒に動くAIアクセラレータ 出Z:AImotive


同社は、開発をサポートする日本の半導専門商社、菱洋エレクトロを通じて販売ライセンスをサポートする。このIPはマイコンと共に動作するアクセラレータであり、スケーラブルな演Q_であるLAM(Layer Access Module)が外けメモリ(DDR)とやりDりする(図5)。国内でもグラフィックUのIPベンダーであるDMP(デジタルメディアプロフェッショナル)がAI推bIPをライセンス販売している。次vは、IoTとセキュリティの最新の動きを紹介する。

(2017/12/20)
ごT見・ご感[
麼嫋岌幃学庁医 冉巖総窃涙鷹廨曝某沃| 忽恢撹繁醍狭冉巖忝栽涙鷹娼瞳 | 弼翆翆壓瀛啼| 忽恢娼瞳薩翌勸翌| japanese弼忽恢壓濘潅盞| 涙鷹忝栽爺爺消消忝栽利| 冉巖AV忝栽弼曝涙鷹匯曝| 天胆爾秤忝栽弼忝栽転転励埖| 窒継壓瀛啼a| 胆溺袈甥甥hdxxxx| 忽恢怜匚娼瞳匯曝屈曝眉曝| 楳楳楳忽恢卆繁娼瞳篇撞| 壓濂シ典斷子| tube8恷除晩云擦平| 撹繁au窒継篇撞唹垪| 消消消消忽恢撹繁娼瞳| 恷仟忽恢娼瞳娼瞳篇撞| 冉巖撹a繁頭壓濆杰款| 握秤戯胎務窒継鉱心寄畠壓| 臼訳醍纎消消99娼瞳| 弼翆翆冉巖噴埖噴埖弼爺| 忽恢撹繁転娼瞳| 33333壓瀾盃| 忽恢娼瞳天胆匯曝屈曝壓濘 | 晩昆匯雫頭窒継| 冉巖av涙鷹廨曝壓濆杰艦待| 天胆決髄恂鞭xxxxx互咳| 繁繁曇繁繁壽av爺銘秉| 娼瞳消消消消秉桐| 狃狃狃www壓濆杰潅盞儻瀁| 瓜溺揖彑距縮撹亂沃笛重笛 | 戟諾繁曇匯曝屈曝眉曝窒継篇撞| 晩昆壓瀲伺屈曝眉曝窒継篇撞| 冉巖匯曝屈曝眉曝91| 天胆撹繁忝栽壓| 冉巖天胆弼麹消消忝栽| 爾秤唹垪壓濆杰簡蛍嶝| 窒継a雫谷頭喟消窒継| 娼瞳匯曝屈曝眉曝窒継谷頭握| 嗽寄嗽啣嗽訪窒継篇撞| 胆溺瓜涙耗序秘|