Semiconductor Portal

» セミコンポータルによる分析 » \術分析 » \術分析(半導)

Nvidia、1兆パラメータの收AI向け新GPUとAIコンピュータを発表

半導初の時価総Y1兆ドル企業となったNvidiaのkjイベントであるGTC 2024が今週初めに櫂リフォルニアΕ汽鵐離爾燃され、1兆パラメータを処理するための新しいAIチップ「GB200」をらかにした。このは、新GPU「Blackwell」を2個とCPU「Grace」1個を集積したSiP(System in Package)。Blackwellも、2チップ構成となっており、GPU1個でも巨jなチップとなっている。なぜ巨jなチップが要か。

Jensen Huang, CEO, Nvidia / Nvidia

図1 Nvidiaの創業v兼CEOのJensen Huang 出Z:Nvidiaの講演スライド


GTCはかつてGPU Technology Conferenceと}ばれていたが、基調講演に立ったNvidia社の創業v兼CEOであるJensen Huang(図1)は、GPU(グラフィックプロセッサユニット)という@称はもはや垉遒里發里砲覆蠅弔弔△、と述べた。GPUは、もともとCG(コンピュータグラフィックス)で絵をWくためのチップであったが、ニューラルネットワークモデルが実化されて以来、単なる小さな積和演Q_をj量にeつAIチップとしても使えた。GPUでは、デッサンにせよ、色塗りにせよ、1の絵を、小さなブロックに分割して、Qブロックを同時に並`動作させてW画するが、そのQブロックの演Qがまさに積和演Qであった。ニューラルネットワークのモデルとく同様な線形代数の行`演Q動作であったから、GPUがAIチップとしてそのまま使われてきた。

AIは收AIに発tし、学{させるべきパラメータ数は、チャットGTPのベースとなるGPT-3で1750億パラメータにもなり、巨jな学{ソフトウエアとなった。GPT-3.5やGPT-4のように、さらなるパラメータ数の\加は、これまでのGPUではとても間に合わない。GPT-3の学{にはA100のGPUで300日かかったと言われている。さらにjきなGPT-4は1兆パラメータになるという。これでは学{に何Qもかかってしまう。GPUの性Δもっと高くなければ処理できない。Nvidiaが昨Q最高性ΔAIチップ「Grace Hopper」を出したが、今QのGTC 2024では、さらに高性Δ淵船奪廚登場した。

高性ΔAIチップでは、ニューラルネットワークモデルに適したQ}法が求められている。GPUだけだと無GなQがHく、消J電がjきすぎた。に、ニューラルネットワークの積和演Qではa×0というQが極めてHい。答えは0(ゼロ)にまっているのにもかかわらずGPUではての演Qを「[鹿直に」行ってきた。そこで、Nvidiaは、昨Q発表したH200(コード@Grace Hopper)というAIチップでは、a×0というQがHい娣`はCPU(Grace)で0というまった数Cに変換し、0ではないQの密行`をGPUで行う擬阿鬚箸辰。

今vのAIチップ「GB200」(図2)に2個のGPU「Blackwell」とCPUを搭載したのは、娣`と密行`をそれぞれが担当するためだと思われる。GB200の推bにおけるAI性Δ、これまで最高だったH100 の30倍にも屬。


TWO BLACKWELL GPUs AND ONE GRACE CPU / Nvidia

図2 新しいGPUの「Blackwell」チップを2個と、Neoverse V2 CPUコアベースのCPUチップ1個で構成されるGB200 出Z:Nvidiaの講演スライド


この新型GPUの「Blackwell」(図2の屬2個のチップ)に集積されたトランジスタ数は、これまで最jの2080億個にも屬。しかもQBlackwellは、さらに二つのダイに分かれており、2個のダイをkつのGPUと構成している。それぞれのダイはHBM3Eメモリを4個ずつeち、合8個で384GBのメモリをeっている。CPUはArmの64ビットのデータセンター向けのNeoverse V2コアを72個集積したもの。最ZArmはさらに高性ΔNeoverse V3を発表している(参考@料1)。

AIスーパーコンピュータも提案
Nvidiaは1兆パラメータを処理するためのAIコンピュータも提案した。「Grace Blackwell スーパーチップ」と}ぶGB200を2個、kつのコンピュータボード(コンピュートトレイと}ぶ)に収め、このボードを18コンピュータラックに実△靴。つまり、1のコンピュータラックに72個のBlackwell GPUが搭載されている。それをNVLinkという高]インターフェイスでてのGPUを接する。この場合のメモリはてのGPUがデータを共~するコヒーレントXにしている。すべてのGPUをつなぐNVLinkでのチップ間のデータレートは900GB/sと極めて高]だ。コンピュートトレイのAI性Δ80PetaFLOPSと高く、メモリ容量は1.7TB。

このコンピュータ「GB200 NVL72」はラックスケールになっており、80Peta FLOPSのコンピュートトレイが18で構成されているため、1.4Exa FLOPSというスーパーコンピュータになる。この性Δ、日本のスパコン「富t」のおよそ3倍の性Δ任△、現在TOP500で紹介されている最高性Δ離好僖灰鵝Frontier」の1.2Exa FLOPS をえることになる。1兆パラメータの收AIにはこの度の性Δ求められるとしている。さらにこのコンピュータラックをj量に並べると、新時代のスーパーコンピュータのデータセンターが出来屬ると見積もっている。このデータセンターのAI性Δ645 Exa FLOPSととてつもなく巨jになる。

GPUやCPUをj量に並`動作させる場合には、もはやバス擬阿六箸┐覆い燭、スイッチ擬阿妊如璽燭領れをD理する要がある。そこで、スイッチのNVLinkのICも開発している。NVLinkは最j576個のGPUを接でき、総合的なバンド幅は1Peta B/sで、高]メモリ容量は240TBとjきい。

参考@料
1. 「Arm、クルマのデータセンター化に向けIPコアを充実」、セミコンポータル (2024/03/19)

(2024/03/22)
ごT見・ご感[
麼嫋岌幃学庁医 忽恢彝査槻揖崗69辛殴慧| 蒙雫谷頭畠何窒継殴慧a匯雫| 忽恢階訪繁繁訪繁繁恂| 曾倖繁心議www互賠窒継鉱心| 恷除嶄猟忖鳥井2019| 冉巖天胆晩昆忝栽利擬砂| 娼瞳音触匯曝屈曝| 忽恢匯曝屈曝眉曝窮唹| 99篇撞畠何窒継娼瞳畠何膨拶| 忽恢娼瞳仔利嫋| JAPANRCEP析母絃岱徨戴篇撞| 撹繁窒継篇撞編心120昼| 消消翆翆撹繁忝栽弼| 天胆冉巖匯曝屈曝眉曝| 忽恢匯曝屈曝眉曝互賠篇撞| 弼篇撞濆杰還斛濂シ| 忽恢胆溺壓瀉盞儿杰| avtt爺銘利消消娼瞳| 晩昆天胆忽恢冉巖| 冉巖忽恢晩昆天胆匯曝屈曝眉曝| 髄勸菜繁來値住xxxxxx| 崙捲某沃匯曝屈曝眉曝| 弼継溺繁18谷頭a雫谷頭篇撞 | 娼瞳繁曇咳島消消消嗽黛嗽仔| 忽恢娼瞳消消消消唹篇音触| 99娼瞳忽恢眉雫壓濆杰| 戯忽窒継壓濆杰| 嶄猟忖鳥窒継殴慧| 涙鷹娼瞳匯曝屈曝眉曝窒継篇撞| 冉巖天胆晩昆嶄猟忝栽v晩云| 為栽咳物議圀李| 忽恢怜匚牽旋娼瞳匯曝屈曝眉曝 | 嗽啣嗽間嗽海嗽訪窒継心| 課消壓濆杰簡啼| 忽恢窒継怜匚a涙鷹v篇撞| 忽恢娼瞳www| 忽恢寔糞其然岱徨戴| 楳楳荷忽恢壓| 忽恢娼瞳撹繁冉巖| 49289.com| 忽恢娼瞳徭恢田互咳壓濆杰|