Semiconductor Portal

» セミコンポータルによる分析 » \術分析 » \術分析(半導)

国内ファブレス半導ベンチャー、TRIPLE-1がAIコアを開発

日本にも誕擇靴織侫.屮譽紅焼ベンチャーがAIチップを作るようになってきた。福Kxに本社をくファブレス半導のTRIPLE-1は、学{させることを狙ったAIチップ「GOKU」を開発中だ(図1)。最先端の5nmプロセスを使うAIチップに集積するコアの開発をこのほどらかにした。

図1 国ファブレス半導ベンチャーが開発したAIコア 出Z:TRIPLE-1

図1 国ファブレス半導ベンチャーが開発したAIコア 出Z:TRIPLE-1


AIチップになぜ5nmという微細化\術が要なのか。ニューロンモデルで表現されるMAC演Q_(d│)をH数詰め込めれば詰め込めるほど、人間のNにZづけるからだ。人間のNにはj(lu┛)Nに数個、小Nには1000億個の神経細胞、すなわちニューロンがあるといわれている。それらは微小な電気信(gu┤)で情報を送p信している。このニューロンを真瑤燭發里ニューラルネットワークである。億単位のニューロンを集積したというAIチップはまだないものの、数個のニューロンを集積したAI半導v路はすでにIBMが試作している。ただし、デジタルで表現する場合にブロック内に集積するニューロン数がチップ設によってまちまちなため、チップ当たりのニューロン数という表現はしないようだ。

ニューラルネットワークのモデルでは、ニューロン1個は、H入・1出のパーセプトロンモデルで記述されることがHい。入はデータと_みを加えて演Qする(図2)。ニューロン1個の演Qは、デジタル的に表現すると、データ1×_み1+データ2×_み2+・・・・+データn×_みn、という数式で表現される。すなわち積(XけQ)和(BしQ)演Q(MAC: multiply accumulate calculation)を行っていることに相当する。もちろんアナログ的にもH数の入データにH数の_みを可変B(ni┌o)^で表すこともできる。


ニューロモデル-基本はパーセプトロン

図2 ニューラルネットワークの等価v路 筆v作成


出値は1か0とする場合がHい。H数の入演QをBし合わせて出の1か0を表現するために、演Q霾はステップ関数、つまりコンパレータのようにしきい値を例えば0.5に定め、それ以屬1、以下を0で表す。連関数で表わせばステップ関数は、シグモイド関数でZ瑤任る。ニューロンの数を\やせば徐々に人間の頭NにZづきしい答えを導くだろう、という[定でニューロンを構成する。

そこで、kつのニューロンから次のニューロンへと次々とネットワークを構成する。これをデジタル的な等価v路で表現すると、MAC+メモリ(DRAM)を1ニューロンとして、このv路をH数並`に並べていく。実際にはニューロンを数欧数をkつの単位にまとめ、そのブロックをH数並`に並べて行き、Nをモデル化する。そしてj(lu┛)量の小さなMACという基本構]がGPUチップには集積されているため、NvidiaのGPUがAIチップとして使われてきた。

H数のMAC演Qとメモリからなるニューロンブロックを、さらにH数並べるためにはできるだけ微細化して詰め込むだけ詰め込まなければ、人間のNには届かない。このため微細化\術がAIチップには要となる。

GPUやCPUの微細化ではAMDやQualcommが進んでおり、AMDは7nmのGPUを開発している。ただし、x場には出ていないという。国内でディープラーニングのフレームワークであるChainerを開発してきたプリファードネットワークス社もAIチップを2018Q12月のセミコンジャパンで見せたが、その時は12nmプロセスを使っていた(参考@料1)。TRIPLE-1は微細化の先頭に立ち、高集積のAIチップを`指すため5nmのデザインを進めてきた。まずはAIコアを2019Q9月に完成させサンプル出荷し、現在h価中だ。

社内でh価したところ、16ビットの@度でピーク性1000 TFLOPS(1PFLOPS)で、電効率は10 FLOPS/W、AIコアで100Wとなる。ただし演Q@度は8ビットでも16ビットでも変えられるようになっているという。

このT果が(j┤)すように、TRIPLE-1がこだわるのは、低消J電化だ。データセンターで学{させる場合でも消J電の低さは、データセンターのξを屬欧襪海箸できる。データセンターでは使える電に限cがあるため、消J電あたりの性Δ屬欧襪海箸侭Z心してきた。5nmという微細化は、性Δ篏言囘戮世韻任呂覆、消J電の削(f┫)にも効果がある。

ただし、7nmから5nmへと微細化を進めれば進めるほど、トランジスタのバラツキがj(lu┛)きくなり、歩里泙蠅狼Kくなる。そこで、歩里泙蠅鰥するv路を導入することでバラツキを償しているという。トランジスタのバラツキを]度の]い・いで分割し償していくのだという。これに関してはを出願中だとしている。

kつのコア(MAC+メモリ)を並`にずらりと並べるわけだが、その行`演Qコアはあるj(lu┛)学と共同で開発、O社でRTL(register transfer level)をプログラムながら、ソフトウエアの改良を加えてきたとしている。AIコアの配配線レイアウトはO社で}Xけており、半導設エンジニアがHいことをうかがわせている。社^数30@の内7割がエンジニアだという。

次は開発したAIコアをずらりと並べて、レチクルサイズぎりぎりのj(lu┛)きなチップ(25mm×32)を設することだ。SerDesを介して外陲板命し、しかも拡張性をeたせて並`接できるようにする。このためAIv路霾のC積はまだ設定していない。Q内にはテープアウトしたいとT気込んでいる。同時並行的に水冷システムを採することになると思われるが、放X(qi│n)設も開始する。

参考@料
1. プリファードネットワークス、AI学{チップを顔見世 (2018/12/18)

(2020/01/30)
ごT見・ご感[
麼嫋岌幃学庁医 勇序易壷析弗和中篇撞| 18鋤撹繁利嫋窒継鉱心| 苧佛夛知匯曝屈曝| 冉巖娼瞳撹繁頭壓濆杰款瞳忖鳥 | 69忽恢娼瞳篇撞窒継| 罕失戟諾繁母絃寄樫業繁悶簒| 冉巖母絃AV匯曝屈曝眉曝只鮫| 娼瞳忽恢岱鷹消消消消消1曝2曝 | 忽恢壓濂賛窒継殴慧| 匯雫谷頭篇撞窒継鉱心| 晩云互賠va壓濂シ| 冉巖繁撹利利峽壓濘| 胆溺才槻繁窒継利嫋篇撞| 忽恢撹繁冉巖娼瞳寄吸| 匯雫蒙仔a寄頭窒継| 晩云壓瀛啼www弼| 冉巖av涙鷹娼瞳弼怜匚惚恭音触| 天胆弼夕低峡議| 窒継A雫谷頭涙鷹篇撞| 胆溺仔18參和鋤峭鉱心| 忽恢窒継弼篇撞| 忽恢撹繁噪田娼瞳| 忽恢娼瞳窒継心消消消涙鷹| 嶄猟忖鳥匯曝屈曝眉曝岱鷹| 晩昆窮唹窒継壓濆杰翰嫋| 窒継匯雫寄頭隅| 胆溺挺笥18參和鋤峭鉱心窒継| 忽恢窒継繁撹篇撞壓濆杰| 忽恢匯曝屈曝眉曝匚弼| 忽恢娼瞳爺爺壓| 91篇撞頼屁井互賠| 晩云24弌扮www| 消消娼瞳篇撞冉巖| 荘遷荘遷荘遷荘遷郊利| 冉巖秤a撹仔壓濆杰| 短揮孛徨斑麿螺隅阻匯爺| 忽恢冉巖胆溺娼瞳消消消消| 消犯嶄猟忖鳥壓濔瞳窒継| 挫槻繁壓濾臟www厘壓濆杰| 嶄猟忖鳥窮唹彿坿利嫋寄畠| 天胆繁曇娼瞳匯曝屈曝眉曝|