メーカーとサプライヤの関係が逆転するTSMCとNvidiaの新\術
メーカーとサプライヤとの関係がひっくり返る例がNvidiaとTSMCとの間に見られる。これまではファブレス半導としてのNvidiaが設したチップをTSMCが]するという関係だった。今度はTSMCがメーカーとなり、プロセス中によく使うリソグラフィ工でより確なマスクを作するためのQに、サプライヤであるNvidiaのGPUをWするのだ。

図1 CUDA-XライブラリのQ機リソグラフィツールCuLitho によるチップの例
半導プロセスのリソグラフィ工におけるマスク作に、NvidiaのGPUとそのソフトウエアCUDA、さらにCUDA-XライブラリのkつであるCuLithoをWしたことで、「性Δj幅に向屬靴。スループットがS的に向屬掘▲汽ぅル時間が]縮、消J電も少した」、とTSMCのCEOだったC.C.Weiが今QのはじめのGTC ConferenceでBしていた。10月8日に開されたNvidia AI Summitでは、来よりも45倍改したと同社エンタープライズプラットフォーム担当VPのBob PetteはBしている。
同日のNvidiaのブログ(参考@料1)では、CuLithoがすでにTSMCに使われてjきな成果を屬欧討い襪海箸らかにしている。加工するシリコンウェーハのパターン配線幅と配線間隔が光のS長よりも]くなるほど微細化すると、パターン通りのレジストパターンが出来なくなる。このためOPC(Optical Proximity Correction)\術によってパターンを里したり丸めを{加したり、細くしたりする、などを行ってきた。されたパターンは、v路図のパターンとはく違うものになるが、露光するとほぼT図したとおりのパターンをWくのである。
すでに193nmのArFレーザー時代から90nmなどの加工に使われてきた\術ではあるが、パターンのだけではなく、パターンそのものの向きを揃える、光源の最適な形にする、水の屈折率をWする、などさまざまな\術を~使することで、S長限cをより遠くへ押し出してきた。これが限cに来た時に、所望の配線ピッチを半分だけずらして再度露光するダブルパターニングや3v露光するドリプルパターニングなども使ってきた。しかしスループットが半分あるいは1/3に落ちるため、S長13.5nmのEUVが使われるようになった。
EUV露光でさえも、3nmプロセスや2nmプロセスに相当する実際の配線幅が10nm度になってくると、これまでのように試行惴軼に最適なパターンを作るのではなく、最初からQ機を使って、加工したいパターンに合うような最適なパターンをQするようになってきた。これが、NvidiaがTSMCへ納入するGPUと、ソフトウエアCUDA、CUDA-XライブラリのkつであるCuLithoをWするQ機ベースのリソグラフィ\術である。
CuLithoには、Maxwellの電磁c解析や、レジストの微細な反応を表す光化学、OPCなど光のvり込みやv折による現を解析する∨,亮Q}法などに加え、これまで何度もイタレーション(実xとT果の繰り返し)をしてきた経x値や数学的な@関数演Qなどの極めて雑なQ}法を△靴討い。いわば、さまざまなモデルとQ}法のノウハウの修任△襦
ファウンドリには、このための専のデータセンターがある。先端ファウンドリには、Q間で数億時間のCPU時間をコンピュータQしていた。kつのSoCの代表的なフォトマスクセットでは3000万時間というCPU時間がかかっていたという。アクセラレーティングコンピュータ演Qでは、4万個のCPUは、NvidiaのH100 Tensor Core GPUベースのシステムなら350個で済むとしている。つまりGPUとCuLithoシステムを使えば、コストとスペース、消J電をj幅に削できるとNvidiaは主張する。
これまでNvidiaのGPUは消J電がjきいと言われてきたが、Nvidiaはe可Δ淵灰鵐團紂璽振\術を開発するためにGPUの性Δ屬欧討たという。NvidiaのBob Petteは、「10QiのGPUである『Kepler』は、1.8兆パラメータのGPT-4を学{させるのに、5,500 GWhもの電を消Jするが、最新のGPUの『Blackwell』だとわずか3GWhしか消Jしない」というグラフを見せた。もちろん、AI研|vは10Qi、これほど巨jなデータを学{させようと考えることはなかった。それを学{させるために膨jな時間がかかるため、みんなめていたのだ。しかし、めなかったOpenAIが收AIを擇鵑世里任△襦GPUをはじめとするAI半導は、むしろこれからが本番である。
参考@料
1. “TSMC and NVIDIA Transform Semiconductor Manufacturing with Accelerated Computing”, Nvidia Blog, (2024/10/08)