Semiconductor Portal

» ブログ » インサイダーズ » KI憲の集積v路の日に向けて

人工Δ悗量O(1):ニューラルネットワークとCAMの類性

筆vは、4月に、1人で小さな会社をこした。2019Qに40QZくめていた企業を社して以来、@詞も所錣發覆びXの「不都合」を次々と実感しした。社@は、「情報統合\術研|合同会社」とした。設立`的は、「PS検索v路をスケールアップする\術」をまとめ、世に問うためである。本ブログでは、その\術にこだわりをeつに至った経緯を記載したい。

CAMと連[メモリとAssociative Memory
 
筆vは、1990Q代に、検索v路の検討を進めた経xをeつ。メモリの設靆腓悗僚錣長かったが、DRAM業の行き詰まりの影xをpけ、新設のロジック商向けのDRAM混載ASICの開発に異動となり、グラフィックスやネットワーク・アプリで要とされるj容量メモリとロジックの混載\術の担当となった。DRAM型のCAM(Content Addressable Memory)も、そのターゲットのkつであった(参考@料1)。

当時のCAMはらかに発t屬龍\術であった。その動作は、RAMの動作の逆である。 RAMが、アドレスを入しデータを出するのに瓦掘CAMは、データを入しアドレスを出する。 その動作のことを検索(Search)と}ぶ。 予め、CAMに登{しておくデータは、例えば、MACアドレスやIPアドレス等である、検索してみて未だ登{されていないことが判した場合には、O動的にそのアドレスを登{するという「O学{」する機Δ魴eっており、筆vには常に魅的な\術と思えた(R1)。 CAMのO学{機ΔFeed-Forward型であり、ヘブ(Hebb)学{(R2)を表現する擬阿悗罰板イ気擦Δ襦

CAMは、日本語では連[メモリと}ばれることがHい。 しかし不思議なことに、「連[メモリ」を再度英lすると、“Associative Memory”となり、数理統N科学や情報幾何学の創始vである甘W俊k先據▲優コグニトロンの福邦}先擇筺▲▲愁轡▲肇蹈鵑涼飜m先擇@iが現れるニューラルネットワークの世cである。筆vは、CAMからスタートし、ニューラルネットワークの世cを垣間見ることとなった。

CAMとニューラルネットワークv路

筆vは、CAMとニューラルネットワークは、基本動作としては等価なv路であると思っているが、両vの間には不思議なほどにすれ違いがある。慣例によると、ニューラルネットワークを表現するv路は、図1Aのように、左辺笋ら水平妓にi段ニューロンの軸索をモデル化した配線を引き、その軸索とシナプス接合する次段ニューロンのソーマ(細胞内で行われる線形動作をモデル化したv路)を下辺に配するのがk般的である。

k機CAMでは、これらの配を反時周りに90度v転させて表記する。i段の軸索に[定する配線が検索線(サーチ線)であり、下辺に配し、k致判定のセンスv路を辺に配する(図1B)。


図1 ニューラルネットワークモデルとCAMv路。 A(左)のニューラルネットワークモデルを反時周りに90度v転させると、B()のCAMv路と等価なv路となる。

図1 ニューラルネットワークモデルとCAMv路。 A(左)のニューラルネットワークモデルを反時周りに90度v転させると、B()のCAMv路と等価なv路となる。


フィンランドのTeuvo Kohonenは、~@な著作(参考@料2)の中で、「ニューラルネットワーク研|vは、コンピュータに使われるCAMというv路を瑤蕕覆った」と記しているが、そのようなT外な経緯で、両vのv路記述が違ってきたのだろうと思う。CAM\術を参考としなかったばかりに、ニューラルネットワークの電子v路化の開発プロセスは遠vりをしてしまったとの認識があったのではないだろうか。

基本的なニューラルネットワークでは、シナプス接合値(W)とi段軸索からの入(X)の間で{Σ(wi×Xi)}という内積Qを行い、その値と「バイアス値をT味するリファレンス値」と比較して、その差分を性化関数でh価する。(古Z的なモデルでは、プラスの時には発し、マイナスの場合には発させない)。

CAMの場合には、{Σ(wi×Xi)}の値がゼロであればMatch(k致)と扱い、の値ではMis-Match(不k致)とする。もし、CAMのMatch判定時に、{Σ(wi×Xi)}の値が、「リファレンス値」以下の場合には発し、以屬任△譴佝させないとすると、ニューラルネットワークと同じとなる。そのようなCAMは、Exact-Matchではなくとも、「|値で設定した度以屬凡k致するか、否か」を判定することになり、「PS検索(Approximate Search)v路」とでも}びうる機Δ魴eつこととなる。

その場合、k致の度は、入データが作るベクトルと、登{データが作るベクトルの間の「{`」を内積で定Iすることになり、k致度が高い時に発する場合、ニューラルネットワークの動作と同じとなる。

実際には、{Σ(wi×Xi)}を構成するwiやXiという値の諧調をどのように表現するか、また、その値をリファレンス値と比較するにはどうすれば良いかという細かな実屬量筱があり、現実的なv路を構成するには工夫が要である。筆vは、wiや Xi 「リファレンス値」等の値をてディジタルとすべきと考え、そのPS検索v路の擬阿2000Qに出願した。

スケールアップ\術

ニューラルネットワークを表現する電子v路には、スケーラブル(Scalable)であることが求められる。 同じアーキテクチャで、並`度を高めることによって、v路模を拡jさせたいからである。v路をスケーラブルとする機Δ蓮▲優奪肇錙璽機Δ任發△襪呂困澄

筆vは、ヘブ学{を表現するξを加えたPS検索v路は、ニューラルネットワークを階層的に表現するv路擬阿箸靴凸ノ的だと考え、新にこした会社の中でそのネットワーク\術をまとめるつもりでいる。

R
1. CAMに登{しておくデータを、「ハッシュ・テーブルである」とか、「真理値表である」と}べると思えるが、ここでは、そのような見気砲弔い討録柴りしない。
2. ヘブ(Hebb)Г寮を,Teuvo Kohonenの著作(参考@料2)より引すると,「細胞Aの軸索が細胞Bを興奮させるのに科Zくにある時,そして,繰り返しまたは根気咾Bを発させようとしている時,ある成長壻または代aの変化が1つまたは両気虜挧Δこる。このようにしてBを発する細胞のkつとしてのAの効率は\加する」とある。 つまり、「発することにより、シナプス接合單戮鯀T味するT合パラメータ値がjきくなる」との神経斃学屬侶俎xГ鬚いΑ

参考@料
1. J.G. Delgado-Frias (State University of New York), et. al., “A Dynamic Content Addressable Memory Using a 4-Transistor Cell”, International Workshop on Design of Mixed-Mode Integrated Circuits and Applications, 1999.
2. Teuvo. Kohonen著;「Self-Organization Maps(O己組E化マップ)」、Springer刊、1995  Q(初版)、1997Q(2版)、2001Q(3版)。

情報統合\術研|合同会社 代表 K I憲
ごT見・ご感[
麼嫋岌幃学庁医 www.娼瞳壓| 冉巖а‥爺銘消消娼瞳| 弼裕裕繁繁壽消消爺爺| 忽恢娼瞳v◆deoXXXX忽恢| eeuss窒継唹垪| 闇蝕褒揚決髄序竃訪訪強蓑夕| 励埖爺忽恢撹繁AV窒継鉱心| 天胆菜繁賞寄videos壓| 壅赱壅赱壅赱侮匯泣穂捲| 秉蕎綻智紘娼瞳幅雫頼撹| 忽恢娼瞳忽恢眉雫忽恢AV麼殴| a谷頭壓濆杰| 暫溺free復2020住| 消消消忽恢娼瞳冉巖匯曝| 惚恭勧箪91崙頭皆211| 冉巖天胆晩昆忽恢忝栽互賠| 槻來gay仔窒継利嫋| 炙炙炙窒継篇撞鉱心壓www | 窒継寄頭仔返字壓濆杰| 弼罎篇撞匯雫谷頭| 忽恢寄僥伏寔糞篇撞壓| A谷頭谷頭心窒継| 富絃議戟諾3嶄猟忖鳥| 消消99握re犯篇| 晩昆忽恢撹繁彿坿娼瞳篇撞| 冉巖av弼涙鷹岱鷹壓濆杰| 天胆晩昆匯云寄祇秉凝恵| 冉巖娼瞳窮唹壓| 胆溺18谷頭窒継篇撞| 忽恢匯雫握恂c頭窒継恍絡低| 禪枷仔匯雫谷頭壓濂シ| 忽恢天胆晩昆廨曝| 磔碕垪撹繁壓| 忽恢利嫋醍狭娼瞳篇撞| 99消消娼瞳宸戦峪嗤娼瞳| 爺爺訪冉巖嶄猟忖鳥| 匯云寄祇紗責曳消消忝栽| 撹畠互賠篇撞窒継鉱心| 消消99娼瞳消消消消徨戴弌傍| 晩昆a壓濆杰潅盞儿杰| 消消秉狭恢濘換杰観盃淨 |