Semiconductor Portal

» ブログ » インサイダーズ » KI憲の集積v路の日に向けて

人工(m┬ng)Δ悗量O(1):ニューラルネットワークとCAMの類性

筆vは、4月に、1人で小さな会社をこした。2019Qに40QZくめていた企業を社して以来、@詞も所錣發覆びX(ju└)の「不都合」を次々と実感しした。社@は、「情報統合\術研|合同会社」とした。設立`的は、「PS検索v路をスケールアップする\術」をまとめ、世に問うためである。本ブログでは、その\術にこだわりをeつに至った経緯を記載したい。

CAMと連[メモリとAssociative Memory
 
筆vは、1990Q代に、検索v路の検討を進めた経xをeつ。メモリの設靆腓悗僚錣長かったが、DRAM業の行き詰まりの影xをpけ、新設のロジック商向けのDRAM混載ASICの開発に異動となり、グラフィックスやネットワーク・アプリで要とされるj(lu┛)容量メモリとロジックの混載\術の担当となった。DRAM型のCAM(Content Addressable Memory)も、そのターゲットのkつであった(参考@料1)。

当時のCAMはらかに発t屬龍\術であった。その動作は、RAMの動作の逆である。 RAMが、アドレスを入しデータを出するのに瓦掘CAMは、データを入しアドレスを出する。 その動作のことを検索(Search)と}ぶ。 予め、CAMに登{しておくデータは、例えば、MACアドレスやIPアドレス等である、検索してみて未だ登{されていないことが判した場合には、O動的にそのアドレスを登{するという「O学{」する機Δ魴eっており、筆vには(r┫n)常に魅的な\術と思えた(R1)。 CAMのO学{機ΔFeed-Forward型であり、ヘブ(Hebb)学{(R2)を表現する(sh┫)式へと拡張させうる。

CAMは、日本語では連[メモリと}ばれることがHい。 しかし不思議なことに、「連[メモリ」を再度英lすると、“Associative Memory”となり、数理統N科学や情報幾何学の創始vである甘W(w┌ng)俊k先據▲優コグニトロンの福邦}先擇筺▲▲愁轡▲肇蹈鵑涼飜m先擇@iが現れるニューラルネットワークの世cである。筆vは、CAMからスタートし、ニューラルネットワークの世cを垣間見ることとなった。

CAMとニューラルネットワークv路

筆vは、CAMとニューラルネットワークは、基本動作としては等価なv路であると思っているが、両vの間には不思議なほどにすれ違いがある。慣例によると、ニューラルネットワークを表現するv路は、図1Aのように、左辺笋ら水平(sh┫)向にi段ニューロンの軸索をモデル化した配線を引き、その軸索とシナプス接合する次段ニューロンのソーマ(細胞内で行われる(r┫n)線形動作をモデル化したv路)を下辺に配するのがk般的である。

k(sh┫)、CAMでは、これらの配を反時周りに90度v転させて表記する。i段の軸索に[定する配線が検索線(サーチ線)であり、下辺に配し、k致判定のセンスv路を?q┗)辺に配する(?B)。


図1 ニューラルネットワークモデルとCAMv路。 A(左)のニューラルネットワークモデルを反時周りに90度v転させると、B()のCAMv路と等価なv路となる。

図1 ニューラルネットワークモデルとCAMv路。 A(左)のニューラルネットワークモデルを反時周りに90度v転させると、B()のCAMv路と等価なv路となる。


フィンランドのTeuvo Kohonenは、~@な著作(参考@料2)の中で、「ニューラルネットワーク研|vは、コンピュータに使われるCAMというv路を(m┬ng)らなかった」と記しているが、そのようなT外な経緯で、両vのv路記述が違ってきたのだろうと思う。CAM\術を参考としなかったばかりに、ニューラルネットワークの電子v路化の開発プロセスは遠vりをしてしまったとの認識があったのではないだろうか。

基本的なニューラルネットワークでは、シナプス接合値(W)とi段軸索からの入(X)の間で{Σ(wi×Xi)}という内積Qを行い、その値と「バイアス値をT味するリファレンス値」と比較して、その差分を?q┗)性化関数でh価する。(古Z的なモデルでは、プラスの時には発し、マイナスの場合には発させない)。

CAMの場合には、{Σ(wi×Xi)}の値がゼロであればMatch(k致)と扱い、の値ではMis-Match(不k致)とする。もし、CAMのMatch判定時に、{Σ(wi×Xi)}の値が、「リファレンス値」以下の場合には発し、以屬任△譴佝させないとすると、ニューラルネットワークと同じとなる。そのようなCAMは、Exact-Matchではなくとも、「|値で設定した度以屬凡k致するか、否か」を判定することになり、「PS検索(Approximate Search)v路」とでも}びうる機Δ魴eつこととなる。

その場合、k致の度は、入データが作るベクトルと、登{データが作るベクトルの間の「{(di┐o)`」を内積で定Iすることになり、k致度が高い時に発する場合、ニューラルネットワークの動作と同じとなる。

実際には、{Σ(wi×Xi)}を構成するwiやXiという値の諧調をどのように表現するか、また、その値をリファレンス値と比較するにはどうすれば良いかという細かな実屬量筱があり、現実的なv路を構成するには工夫が要である。筆vは、wiや Xi 「リファレンス値」等の値をてディジタルとすべきと考え、そのPS検索v路の(sh┫)式を2000Qに出願した。

スケールアップ\術

ニューラルネットワークを表現する電子v路には、スケーラブル(Scalable)であることが求められる。 同じアーキテクチャで、並`度を高めることによって、v路模を拡j(lu┛)させたいからである。v路をスケーラブルとする機Δ蓮▲優奪肇錙璽機Δ任發△襪呂困澄

筆vは、ヘブ学{を表現するξを加えたPS検索v路は、ニューラルネットワークを階層的に表現するv路(sh┫)式として魅的だと考え、新にこした会社の中でそのネットワーク\術をまとめるつもりでいる。

R
1. CAMに登{しておくデータを、「ハッシュ・テーブルである」とか、「真理値表である」と}べると思えるが、ここでは、そのような見(sh┫)については深入りしない。
2. ヘブ(Hebb)Г寮を,Teuvo Kohonenの著作(参考@料2)より引すると,「細胞Aの軸索が細胞Bを興奮させるのに科Zくにある時,そして,繰り返しまたは根気(d┛ng)くBを発させようとしている時,ある成長(c┬)または代aの変化が1つまたは両(sh┫)の細胞でこる。このようにしてBを発する細胞のkつとしてのAの効率は\加する」とある。 つまり、「発することにより、シナプス接合(d┛ng)度をT味するT合パラメータ値がj(lu┛)きくなる」との神経斃学屬侶俎xГ鬚いΑ

参考@料
1. J.G. Delgado-Frias (State University of New York), et. al., “A Dynamic Content Addressable Memory Using a 4-Transistor Cell”, International Workshop on Design of Mixed-Mode Integrated Circuits and Applications, 1999.
2. Teuvo. Kohonen著;「Self-Organization Maps(O己組E化マップ)」、Springer刊、1995  Q(初版)、1997Q(2版)、2001Q(3版)。

情報統合\術研|合同会社 代表 K I憲
ごT見・ご感[
麼嫋岌幃学庁医 蒙匯雫仔弼谷頭| 忽恢娼瞳喟消窒継10000| 返字冉巖及匯匈| 冉巖AV涙鷹涙壓濆杰敢賽| 襖謹勸潤丗匯曝壓| 怜匚dy888| 瓜巷盃係窮唹bd壓濂シ| 忽恢犯の嗤鷹犯の涙鷹篇撞| 97消消娼瞳繁曇繁繁滲繁繁螺| 弌苧窟下喟消壓潦蛭肪盞| 消消99娼瞳消消消消消玻玻| 恷除厚仟2019嶄猟忖鳥8| 冉巖天胆晩昆嶄猟忖鳥消消| 槻浄健繁議距縮| 亜酔泣壅酔泣挫侮篇撞窒継| 楳楳課壓篇瀑犠綻| 忽恢蒙雫谷頭aaaaaa谷頭| 91冉巖徭裕返字壓濆杰| 爺爺荷爺爺符爺爺役| 匯雫恂來弼a觴頭消消谷頭窒継| 晩云匯曝屈曝眉曝膨曝| 消消娼瞳忽恢擬砂| 天胆岱寄住xxxx| 冉巖撹繁壓瀉盞儿杰| 襖謹勸潤丗握握| 卅繁弼忝栽匯曝屈曝眉曝| 娼瞳溺揖匯曝屈曝眉曝窒継殴慧 | 天胆娼瞳秉斤斛濆杰翰| 窒継天胆仔弼利峽| 忝栽消消99消消99殴慧| 忽恢匯曝娼瞳篇撞| 僣雑闘壓澣舐姐杰敢忽| 忽恢噪田娼瞳篇撞返字| 窒継鉱心忽恢利峽低峡議| 忽恢娼瞳消消消消消| 2019爺爺孤爺爺荷| 忽恢黛悶梧玲匯曝屈曝| 99消消窒継娼瞳互賠蒙弼寄頭| 溺繁嚥zozo| www.av壓| 溺繁嫖蝕揚斑槻繁恂訪訪|