Semiconductor Portal

» セミコンポータルによる分析 » \術分析 » \術分析(半導)

7nmプロセスで]したウェーハ模の巨j(lu┛)なAIチップ

ウェーハスケールAIチップ開発のCerebras Systemsは、2世代のウェーハスケールAIチップを開発した。最初のチップが16nmプロセスで]されていたが、今vは7nmプロセスで作られており、総トランジスタ数はivの1兆2000億トランジスタに瓦靴2.6兆トランジスタとほぼ2倍になっている。その分チップ屬寮性も2倍以屬砲覆辰討い襦

図1 7nmプロセスで]したウェーハスケールAIチップ 出Z:Cerebras Systems

図1 7nmプロセスで]したウェーハスケールAIチップ 出Z:Cerebras Systems


今vのAIプロセッサWSE-2は、1世代のウェーハスケールAIプロセッサ(参考@料12)と同様、300mmウェーハ1から1チップをDるという文C(j┤)通りウェーハスケールICである。TSMCの7nmプロセスで]されており、コア数、メモリ容量、メモリ帯域幅、ファブリック帯域幅の性はて1世代のそれの2倍以屬箸覆辰討い襦

AIプロセッサを巨j(lu┛)に拡j(lu┛)することによって、例えば演Qするのに数カ月もかかるような巨j(lu┛)な学{モデルだと、これまでは研|vが実的ではないとめてきたが、これでも数週間、あるいは数日間で解けるようになる。1世代のウェースケールチップと比べ2倍の2.6兆トランジスタはこれまでにない最j(lu┛)の半導チップとなる。現在の最j(lu┛)レベルのAIチップ(GPU)は、NvidiaのA100が集積する542億トランジスタだが、これよりも50倍j(lu┛)きい。その性Δ蓮△呂襪にA100を凌ぐ(図2)。


図2 最高性ΔGPUチップA100(Nvidia)と比較 出Z:Cerebras Systems

図2 最高性ΔGPUチップA100(Nvidia)と比較 出Z:Cerebras Systems


チップがj(lu┛)きい分、演Qするコア数や、演QT果をk時的にQめるメモリが圧倒的にHいため、性Δ呂韻唇磴い暴j(lu┛)きい。コア数はA100の123倍、メモリ容量は1000倍、メモリバンド幅は12,862倍、ファブリックバンド幅は45,833倍とけた違いである。チップC積は4万6225mm2という巨j(lu┛)なシリコンの修砲覆辰討い襦このため、表C屬魯好謄奪僂離譽船ルサイズに合わせた?chu┐ng)的なパターンとなっている?/p>

ウェーハ1に1チップというウェーハスケールICは、実は1980Q代にもあった。しかしロジックICやメモリICであったため、配線が1本でも切れていると不良となり、廃棄するしかなかった。このため歩里泙蠅聾造蠅覆ゼロにZかった。しかし、ニューラルネットワークで表現されるAIチップだと、配線が1本や2本切れていても学{するξにさほど差はない。つまり不良にはならないため、歩里泙蠅呂い弔100%なのである。

ニューラルネットワークでは、な線形代数演Qが要で、それに合わせた最適で柔軟なコアの設が求められる。線形代数演Qは、行`演Qそのものだが、ニューラルネットワーク~のである(Sparse)とは、行`成分のj(lu┛)霾が0(ゼロ)だというT味である。0×数C(j┤)は0であるから、そういった霾のXけQは省Sすることで演Qスピードを屬欧襪海箸AIチップの高]化に_要になる。

ニューラルネットワークでは、演Qとメモリを何度となく繰り返す。このため、演Q(MAC:積和演Q)とメモリをセットにしたアーキテクチャは高]に学{と推bができる。しかも模をウェーハサイズに`kJ拡j(lu┛)することでGPUを数押⊃並べるよりも1チップ屬捻Q・記憶する(sh┫)が使いやすくシンプルになるという。

これまでの演Qでは、j(lu┛)きな推bモデルを量子化して小さくすることによって、Qを]めてきた。そうすると、もちろん@度が犠牲になる。このCS-2を使って演Qすれば@度を犠牲にすることなく、しかも]度を落とさずに済む。チップ屬砲△85万コアはオンチップメッシュで接されており、220P(ペタ)ビット/秒と]い。しかも演QT果を格納するメモリ容量は40G バイトの高]SRAMが配されており、メモリの帯域幅は20Pバイト/秒と極めて高]である。

同社は半導チップを設するだけではなく、これを実△靴AIコンピュータCS-2も販売する。チップの冷却やパッケージもOら設しており、電源の供給は来とは違い、Qコアに(k┫)直に供給するという。最j(lu┛)のシステム電は23kWにもなるため、水冷(sh┫)式を採している。

チップのソフトウエアプラットフォームには、k般的なTensorFlowやPyTorchなどの機械学{のフレームワークが含まれているため、AIモデルの研|vは使い慣れたツールを使ってCS-2にプログラムできる。

さらに、同社はニューラルネットワークをCS-2の実行ファイルにO動的に変換するコンパイラCGC(Cerbras Graph Compiler)も提供しており、Qニューラルネットワークにw~の配と配線接を收する。このT果、u接するレイヤー間の通信のレイテンシを小さくできるという。

参考@料
1. ディープラーニング学{にはウェーハ模の巨j(lu┛)なチップが要 (2019/08/27)
2. Cerebras社、ウェーハ模のAIチップを実△靴織灰鵐團紂璽燭鯣売 (2019/12/20)

(2021/04/28)
ごT見・ご感[
麼嫋岌幃学庁医 眉雫仔弼壓瀉盞儿杰| 冉巖來伏試利嫋| 課櫪app壓濆杰| 忽恢娼瞳訪訪va壓濆杰肝淆| 匯雫恂a握狛殻窒継篇| 晩云娼瞳a壓| 冉巖匯曝屈曝眉曝膨曝篇撞| 爾秤励埖忝栽利| 臼訳醍纎谷頭壓瀛啼| 楳課楳課消犯娼瞳篇撞壓濆杰| 忽恢娼瞳▲涙鷹寄頭壓濘 | 91崙頭皆崙恬惚恭勧箪168| 載麟議篇撞利嫋| 消消消消消忽恢娼瞳眉雫| 恷除嶄猟忖鳥互賠忖鳥壓瀛啼| 冉巖天胆晩昆忽恢匯曝夕頭| 槻槻來科只只鮫涙孳飢| 嗽間嗽寄嗽訪嗽海嗽諸嗽邦| 楳嚔赤壓瀛啼宜杰| 忽恢晩昆匯曝屈曝眉曝壓濆杰| 4拶喟窒継恷仟喟消窒継仇峽| 爺聞暖匯曝屈曝壓濆杰| 匯雫谷頭壓濂賛岷俊鉱心| 涙湟斛濆杰艦待愧盞冓啼| 励埖爾秤忝栽利| 天胆冉巖忽恢匯曝屈曝眉曝| 冉巖天胆総窃忽恢| 襖謹勸潤丗心頭| 窒継壓濆杰簡啼詰嫋| 娼瞳篇撞醍狭秘笥| 忽恢匯曝屈曝眉曝娼瞳消消瀟| 醍狭匯曝屈曝99消消消消| 忽恢及匯擬砂侮匚牽旋| 1触2触眉触4触忽恢| 忽恢弼涙鷹娼瞳篇撞忽恢| 99消消忝栽娼瞳忽恢| 寄播隆消畠63何恬瞳桑催| yellow互賠壓濆杰翰衲篇撞壓| 撹繁a谷頭篇撞窒継心| 嶄猟忖鳥音触互賠窒継| 覿溺yin岱栽鹿互h猟|