久久成人18免费_日韩欧美网址_无遮挡1000部拍拍拍免费观看_一区二区在线免费视频

Semiconductor Portal

» ブログ » インサイダーズ » KI憲の集積v路の日に向けて

人工Δ悗量O(6)〜收AIブームのT味する所

昨Q来、收AIに関する報Oが発化している(R1)。 ニューラルネットワークのj模化によって、翻l、文章收、V画、動画、音楽等のコンテンツ收が人間並みになったとのh価がHいが、AIのξがそのように高度となった背景には、深層ニューラルネットワーク\術とニューラルネットワーク探索\術、または進化的Qとのアイデア融合があると考えられる。 v路アーキテクチャの開発がO動化されることの社会や噞に及ぼすインパクトはり瑤譴覆い曚表jきく、今後の動向には`が`せない。

jSの: 深層学{とニューラルネットワーク探索\術の融合

この数ヵ月は、ニューラルネットワークの次のブームが到来したと思えるほどである。Microsoft社がOpenAI社に約100億ドルを投@する旨の報Oがあり(参考@料1)、それに}応するように、Google社はネット検索\術とBARDと}ぶ会B型AIの統合を発表した(参考@料2)。「收AI(ジェネレーティブAI)のjSがやってくる」との解説もある(参考@料3)。

研|b文のP数にて動向からは、2018Q以T、Self-Attention、Neural Architecture Searchといった語の使頻度が\中であることが分っていた(図1)。 翻lニューラルネットワークv路の構]語として、AttentionやTransformerという言(R2)が\えており、進化的Q(Evolutionary Computation)やC伝子アルゴリズム(Genetic Algorithms)などと}ばれる「|の進化を模倣するアルゴリズム」に関する研|も、依高いP数を維eしていた。

にR`したのは、Neural Architecture Search (ネットワーク探索)と}ばれる「学{情報に適合するニューラルネットワークv路のトポロジーをO動探索する\術」である。 「|の進化を模倣するアルゴリズム」と「ニューラルネットワーク\術」の融合は、歴史的に予[されていたt開だったからである。


IEEEが集するニューラルネットワーク関連のb数の推 / 筆v作成

図1 IEEEが集するニューラルネットワーク関連のb数の推 b文の要欄に、Qキーワードが載るP数をカウントしている。ZQ、AttentionやTransformerに関連するb文が\しているが、Neural Architecture Searchに関するb文数の興隆も始まっている)  出Z:Web屬妊機璽咼垢気譴討いIEEE Xploreをいて、2022QQ初に筆vが作成。


深層学{(Deep Learning)は、H段のニューラルネットワークv路の_みパラメータを学{データによって最適化するO動化\術であるが、ニューラルネットワークのv路トポロジーや、使われる性化関数、ハイパーパラメータ等は、人間が介在して試行惴蹐魴り返しマニュアル設定する要があった。

これに瓦靴董▲優奪肇錙璽探索\術は、ニューラルネットワークのv路トポロジーをO動收することを`指していた。 v路トポロジーの最適化がO動化できるのであれば、性化関数やハイパーパラメータの最適化もO動化可Δ噺て良いだろう。そのようなO動化\術が@\術のレベルに向屬垢襪函⇒諭垢幣噞へのAI採を画期的に膿覆垢襯ぅ鵐僖トをeちうる。

以下、OpenAI社のKenneth Stanley の2002Qのb文(参考@料4)と、Autodesk AI LabのAdam Gaierの2019Qのb文(参考@料5)の内容を参考にしながら、深層ニューラルネットワークにおける深層学{とネットワーク探索\術が融合しつつあるとみる筆vの見解を紹介したい。


ボールドウィン効果

今から約100Qi、盜颪凌翰学vであるジェームズ・マーク・ボールドウィン(1861-1934)は、「後W的学{によって耀uされていた形も,次にC伝的に耀uされ先W的ξに転化する」との説を提した(参考@料6)。そして、その仮説は、トロントj学のGeoffrey HintonらのQ機シミュレーションによって、1987Qに確認されていた(参考@料7)。

深層学{の創始vであるGeoffrey Hintonは、深層学{\術の研|を推し進めた当初から、進化的Q(Evolutionary Computation)やC伝子アルゴリズム(Genetic Algorithms)をニューラルネットワーク\術開発の菘世ら_していたというのは驚きである(R3)。

ボールドウィン効果は、ニューラルネットワークv路の語で表現すると、「ランダムに変異しうるネットワークトポロジー(v路アーキテクチャと同I)を学{データによって(li│n)別すると、そのv路アーキテクチャは改良される」となる。

1993Qに、当時英エディンバラj学の数学科教bであったニック・ラドクリフは、「Connectivity(神経細胞間のT線の最適化)とWeights(シナプスT合パラメータの最適化)を組み合わせた統合化スキームはこの分野の@Jといえる」と、両\術の融合を求めていた(参考@料8)。

これらのヘBが、今日の「jS発據廚良枩个箸覆辰突茲燭里任呂覆い世蹐Δ?


深層学{\術とニューラルネットワーク探索\術の竿

改めて、ニューラルネットワーク探索\術を深層学{\術と竿罎靴討澆燭ぁ
H層ニューラルネットワークは、深層学{(Deep Learning)\術によってN内神経細胞の後W的学{プロセスを模倣(エミュレーション)しようとする試みであったのに瓦掘▲縫紂璽薀襯優奪肇錙璽探索\術は、「|」の進化の壻で進む「先W的な神経v路構]の進化」を模倣しようとする(表1)。

Deep Neural Networkへの深層学{\術とニューラルネットワーク探索\術の竿 / 筆v作成

表1 Deep Neural Networkへの深層学{\術とニューラルネットワーク探索\術の竿罅 平質愕{\術では、そのネットワークトポロジー、ハイパーパラメータ、性化関数をエンジニアの経xを元に設定する要があるが、ニューラルネットワーク探索では、それらの最適化をO動化する。) 出Z:参考@料4と5を元に筆vが作成。


深層学{は、誤差情報逆伝搬法(Back Propagation、BP)と確率的勾配T下法 (Stochastic Gradient Descent、SGD)というパラメータ最適化のための}法をuて開}したが、それらで行うQの徴は以下であった。
・ ニューロンの演Q(j┫)(入情報)は、ベクトルや行`とする。
(ベクトルや行`の成分値は、Hくの場合、0から1の間の小数点値)
・ 演Qでは、ベクトルと行`間の積Qや和?li│n)Q、およびベクトル成分値の微分(差分の除Q)をいる。
・ フィードバック(再帰)型のアルゴリズムを含み、Qを反復することがある。
・ 要に応じて(線形処理を行わない場合)、演Qの出値を「確率値」と解圓垢襦

深層ニューラルネットワークv路の要素v路である単層分のv路は、集積v路でしばしば現れるデコーダv路の構成に瑤討い襦平2)。集積v路のデコーダv路を構成するb理演Q子(AND、OR、等)を、ニューロンモデルにき換わったような構]をDるが、ニューロンモデルの出値は、k般的には、”0“と“1“の間の数値を出するとされ、その値を「確率値」と解圓垢襪里任△襦

もちろん現在の集積v路のb理ゲートを~使して、小数点演Qや確率演Qを行えるし、「確率を出するv路」を構成することもできる。 だが、ニューラルネットワークv路の動作を{う時、b理Oが確率的になったとみなす(sh┫)が分かり易く、恐らくそのように解圓靴(sh┫)が数学表現との官をDりやすくなる。


単層のニューラルネットワークv路と、集積v路でしばしば現れるデコーダv路の比較 / 筆v作成

図2 単層のニューラルネットワークv路と、集積v路でしばしば現れるデコーダv路の比較 ニューラルネットワークv路は、b理演Q子(NAND、NOR、等)からなる組み合わせb理v路を、ニューロンモデルv路にき換わったような構]をDる。 出Z:筆vが作成


そもそも、「b理」には2|類あるともいえるだろう。
kつは、数値Qにて使われる「b理」であり、それは、現在の集積v路のb理ゲート(AND、OR、等)からなるb理v路を組み合わせて構成するのが適切であり、1ビットの値は“0”もしくは“1”の2値である。 数値Qにて使われる「b理」は、コンピュータやネットワークを発達させて来た。

もうkつは、言語で表現される「b理」である。「真」を“1”に、「偽」を“0”に官させることがもっともらしいが、k般に言語表現では、真とも偽ともつかない内容がHく、本的にファジー(確率的)なX表現をHして表現した(sh┫)が分かりやすい。言語表現の処理には、確率的b理のプロセスを表現するニューラルネットワークv路が向くのである。

現在進行中と言われるAI革命(参考@料9)は、言語表現の演Qを効率的に行う「ファジーなb理」をエミュレーションするv路プラットフォームの1世代アーキテクチャが見いだされた段階と言えるのではないかと筆vは思う。

そのv路プラットフォームをいてアーキテクチャ探索に相当する演Qを効率的に行うには、以下の要Pが満たされる要がある。
・ ネットワークトポロジー情報のランダムな改変(値の擾乱操作)が容易なこと
・ 試行T果を収集(集合化)が容易なこと
・ 収集T果のh価と(li│n)別が容易なこと

ところで、ニューラルネットワークv路のアーキテクチャの探索では、フィードバック(再帰)型のアルゴリズムをいない。 |の進化はフィードバック(再帰)しないからである。 しかし、ランダムな改変(値の擾乱操作)を常にHくの試行し、h価を行うため、探索時のQ量は膨jとなる。 に、(li│n)別されたネットワークv路のトポロジーは、後W的な学{に相当するプロセスにて調Dされる要があるだろう。

但し、そのような動作を的に考えようとするとjきな問があった。ニューラルネットのアーキテクチャ探索を行うネットワーク空間(もしくはプラットフォーム)をどのように定Iし、表現し、設定するかはOではなかったのである。


Transformer\術はニューラルネットワーク探索の探索空間を提供した

收AIのニューラルネットワーク模は、2020Q以来、驚くほど巨j化した。500GBをえるパラメータを~するモデルも相次いで発表されている(参考@料9)が、筆vは、「この巨j化は、ニューラルネットワーク探索のプラットフォームとして要なjきさであった」と見る。

いずれのモデルにおいても導入されているAttention機構(参考@料10、11)は、そのネットワークT線を使うか使わないかのゲート機Δ鱆~しており、ネットワーク構]の進化を模倣表現するスイッチv路として適切だったからである。

Attention機構を△┐申j模ネットワークは、C伝子の変異を模倣するためのパラメータ空間を提供した。 パラメータ空間がjきい(sh┫)が、よりHくの進化を探索できる。だからこそ巨j化すべきだったといえる。

次に、ネットワーク探索と收AIの深層学{の関係を定めなくてはいけない。シームレスに行えるのかもしれないが、教師無し学{と教師~り学{で両vを使い分けることも考えられる。「|の進化」を模倣する先W的学{後には、ネットワーク中の不要な枝を剪定し、~S化してから、後W的学{のプロセスを開始するという扱いも可Δ世蹐Α また、後W的学{のプロセスを行った後に、再度、不要な枝を剪定、~S化を行うということも考えられるし、後W的学{のプロセスを行った後の「收AI」としてのコンテンツ出後に{加の学{を行うということも考えられる。


ニューラルネットのアーキテクチャ探索を行う@プラットフォームv路は今後ハードウエア化する

收AIニューラルネットワークのj躍進の扉を開いたのは、2017QにGoogle社が発表したTransformer\術であるといわれている(参考@料11)。 2020Q以T、巨j化を開始した收AIニューラルネットワークは、翻lや文章收にいて、V画收、動画收、音楽收にて実化iのX況に辿りいている。

には、コンピュータプログラム作成や、数学問の証のような科学\術の探求サポートなどの分野での応が期待されている(参考@料9)。

筆vは、今後、以下の菘世任瞭宛にR`しようと思う。
 ・ 收AI改良の次のステップ
(異|の收ξへの官、Multi-Modal化、@化だろう)
 ・ ニューラルネットワーク探索可Δ淵廛薀奪肇侫ームの専ハードウエア化
(確率的b理の表現に適したv路をいたv路のアーキテクチャはどのようになるのか?)
・ 集積v路の設ξへの応

ニューラルネットのアーキテクチャの探索が、人間よりも良いv路を設(探索)し、より良い設図Cを收する\術となる時、そのv路プラットフォームをいた收AIが社会や噞に及ぼす影xはり瑤譴覆い曚匹暴jきいと、筆vは思う。


R
1. 收AIとは、比較的少ない言語`を入として、Q|の文章や、V画、動画、音楽、コンピュータプログラム等のコンテンツを常に高]に出するニューラルネットワークv路の\術をいう。予めj量の文章を使って、単語間に見出されるi後関係確率や関連性確率を学{した收モデル(参考@料13)を抽出し、ニューラルネットワークに保eさせている。 R`度の高いOpenAI社のChatGPTは、に、「人間の指導」ともいえるトレーニングを行い、より違和感の少ないコンテンツを出するようにしている(参考@料12)。
2. Attention機構は、盜ServiceNow社のBahdanauらが2015Qのb文(参考@料11)で提した単語や図形情報間の関連性の咾気魍{したデータを元に、入された文章や画気R`霾や文脈等の気鯑暗に学{し、ニューラルネットワークの処理の進tをU御する機構。
Google社のVasmaniらは、2017Qに、Attention機構のU御するエンコーダ-デコーダタイプの文章翻lニューラルネットワークをbじ、そのアーキテクチャをTransformerと}んだ(参考@料10)。 TransformerのAttention機構は、ニューラルネットワークのi段層が出した情報の中のR`すべき情報を通圓気察R`すべきでない情報をHきVめるようなゲート的U御を行う。
3. 筆vは、「トポロジー(v路アーキテクチャ)をコンピュータシミュレーションによって進化させる\術が現実のものとなろうとしている」ことを瑤袒劃とした。 集積v路のアーキテクチャも收AIから出する可性があると思えたからである。

参考@料
1. 「マイクロソフト、オープンAIへの最j100億ドル投@で協議」、Bloomberg (2023/01/10)
2. 「次なるテクノロジーのSはメタバースではない。ジェネレーティブAIのjSがやってくる」、Wired (2023/01/26)
3. 「グーグルも会B型AIと検索を統合へ。ChatGPT眼^の詳細は発表会でらかに?」、Wired (2023/02/08)
4. Stanley, K.O. and Miikkulainen, R., “Evolving neural networks through augmenting topologies”, (2002)
5. Gaier, A. and Ha, D., “Weight Agnostic Neural Networks”, (2019)
6. Baldwin, M.J., “A New Factor in Evolution”, (Jun 1896)
7. Hinton, G. E. and Nowlan, S. J., “How learning can guide evolution”, (1987)
8. Radcliffe, N.J., “Genetic set recombination and its application to neural network topology optimization”, (1933)
9. Thompson, A.D., “Integrated AI: The sky is infinite (2022 AI retrospective)”, (2022)
10. Vaswani, A., et al., “Attention Is All You Need”, (2017)
11. Bahdanau, D., et al., “Attention-Based Models for Speech Recognition”, (2015)
12. OpenAI社のホームページの記, “Aligning Language Models to Follow Instructions”,  
Aligning Language Models to Follow Instructions (openai.com)
13. KI憲、「人工Δ悗量O(4);Bする構]」、セミコンポータル (2021/10/07)

ごT見・ご感[
久久成人18免费_日韩欧美网址_无遮挡1000部拍拍拍免费观看_一区二区在线免费视频
娼瞳強只匯曝| 爾秤撹繁忝栽| 忽恢冉巖娼瞳消消消消強| 冉巖匯曝匯触| 天胆互賠篇撞壓濆杰| 忽恢晩昆天胆音触壓| 冉天撹繁娼瞳| 天胆來値住99消消消消99梓彫| 冉巖芙曝壓濆杰| 天胆va冉巖va晩昆‥a忝栽弼| 忽恢天胆娼瞳消消| 嶄猟嗤鷹消消| 仔利嫋窒継消消| 消消消消消消忝栽| 忽恢娼瞳天胆消消消消涙鴻御| 冉巖天胆匯曝屈曝爾秤| 天胆天胆壓| 卅繁消消翆翆| 胆溺娼瞳壓| 忽恢冉巖天巖| 醍狭娼瞳利嫋| 忽坪娼瞳庁蒙av暴田壓濆杰| 消消消娼瞳忽恢匯曝屈曝眉曝| 忽恢娼瞳篇撞xxx| 忽恢娼瞳湘弼鴪鮟徭田| 天胆弼祇消消88忝栽冉巖娼瞳| 壓濕で蚌惟災伺| 胆溺篇撞利嫋仔弼冉巖| 忽恢匯曝屈曝眉曝謎致消必 | 天胆匯雫屈曝| 天胆來値住匯曝屈曝眉曝娼瞳| 冉巖忝栽供| 天胆晩昆忝栽音触| 冉巖天胆曝徭田枠傑| 天胆眉雫窮唹匯曝| 天胆匯曝屈曝眉曝膨曝互賠| 忽恢娼瞳涙鷹廨曝壓濆杰| 消消消消消窒継| 忽恢冉巖天胆爾秤| 天胆aa忽恢篇撞| 冉巖利嫋壓| 忽恢娼瞳swag| 消消消消消卅繁| 卅繁匚匚夊av卅繁消消| 天胆晩云忽恢娼瞳| 天胆匯曝屈曝眉曝壓濆杰簡啼| 忽恢娼瞳利嫋壓濂シ| 築孟av玻玻匯曝屈曝眉曝| 壓濔瞳忽恢天胆| 天胆來弼忝栽| 消消忝栽娼瞳匯曝| 冉巖匯雫頭壓濘| 忽恢娼瞳晩昆天胆匯曝| 醍狭娼瞳壓濂シ| 冉巖嶄怜忖鳥| 忽恢天胆晩昆忝栽匯曝壓濆杰| 天胆爾秤及励匈| 天胆晩昆冉巖互賠| 消消消av邦築孟| 壓潦蛭房で虔啼| 忽恢娼瞳義父消消消| 築洋消消99娼瞳消消消消消9| 冉巖篇撞寄畠| 忽恢娼瞳冉巖匯曝| 天胆爾秤匯曝屈曝眉曝| 天胆壓濆杰簡啼客伺屈曝| 忽恢忝栽娼瞳匯曝| 天胆來蝕慧篇撞| 窒継谷頭匯曝屈曝眉曝消消消| 冉巖匯曝壓濘| 忽恢匯曝屈曝眉曝消消消消消消消| 天胆晩昆忽恢音触壓濘| 消消消999娼瞳篇撞| 冉巖匯曝屈曝眉曝嶄猟忖鳥壓| 忽恢天胆匯曝屈曝娼瞳來 | 消消彿坿壓| 冉巖天胆壓瀉盞| 娼瞳撹繁壓濆杰| 忽恢娼瞳序69唹垪| 天胆va晩昆va| 消消消消匯曝屈曝眉曝| 冉巖枠傑撹繁| 仔弼撹繁av利嫋| 忽恢娼瞳晩昆匯曝| 天胆晩昆娼瞳匯曝屈曝眉曝膨曝| 消消冉巖娼瞳利嫋| 天胆匯雫篇撞| 冉巖壓濆杰潅盞| 仔弼匯曝屈曝壓| 忽恢天胆眉雫| 忽恢娼瞳胆溺消消消| 天胆晩昆窒継匯曝屈曝眉曝| 天胆/冉巖匯曝| 消消爺爺忝栽| 消消忽恢忝栽娼瞳| 天胆冉巖眉曝| 冉巖天胆壓x篇撞| 冉巖篇撞匯曝屈曝窒継壓濆杰| 忽恢冉巖谷頭壓| 忽恢天胆某|| 忽恢娼瞳狼双壓| 天胆怜匚頭壓濆杰| 天胆尖胎窮唹利| 天胆爾秤匯曝屈曝眉曝互賠篇撞 | 忽恢冉巖谷頭| 消消消消消哄繁利秉| 卅繁築孟弼玻玻爾秤忝栽| 忽恢島易習匯曝屈曝眉曝| 忽恢娼瞳谷頭互賠壓瀝衲井| 天胆晩昆冉巖総窃| 天胆消消篇撞| 天胆晩昆hd| 天胆転転匯曝| 天胆晩昆忽恢将灸弼嫋匯曝屈曝眉曝| 天胆忽恢晩昆篇撞| 天胆爾秤匯曝屈曝壓 | 壓濆杰甘恵脆娜| 際際弼竊中綻綻恥盃涵瞳| 忽恢冉巖喟消囃兆| 忽恢嗤鷹匯曝屈曝| 昆忽冉巖娼瞳| 際際利冉巖娼瞳| 匯曝屈曝眉曝壓濆杰甘恵| 仔弼撹繁窒継利嫋| 嗤梳侮僣壓瀲伺| 冉巖篇撞匯曝屈曝壓濆杰| 冉巖來繁繁爺爺匚匚寵| 冉巖利峽壓| 冉巖天胆忝栽娼瞳消消撹繁| 來消消消消消消消消消消| 天胆忝栽及匯匈| 消消娼瞳麼殴| 築洋av壓濂シ賭伺屈曝眉曝| 窒継壓瀾盃| 天胆晩昆撹繁爾秤| 忽恢娼瞳消消77777| 忽恢娼瞳匯曝屈曝壓| 忽恢來弼匯曝屈曝| 壓濺恵績惟| 天胆壓澡曝| 総窃忽恢ts繁劑互咳篇撞| 天胆撹繁嶄猟忖鳥| 天胆晩昆忝栽総窃| 忽恢娼瞳匯曝屈曝消消消| 忽恢匯曝99| 忽恢娼瞳99消消消消消消消| 怜匚爺銘娼瞳消消消消| 消消消忽恢怜匚娼瞳| 窒継匯雫天胆頭壓濆杰| 天胆島邦篇撞| 忽恢娼瞳晩昆天胆寄弗| 菜某匯曝屈曝| 怜匚冉巖唹篇| 窒継音触壓濆杰| 天胆晩昆冉巖忝栽| 忽恢晩昆天胆娼瞳壓| 垰昆娼瞳匯曝屈曝| 天胆嶄猟忖鳥篇撞| 滴健壓濔瞳篇撞窒継鉱心| 天胆晩昆娼瞳匯云屈云眉云| 冉巖匯曝屈曝娼瞳壓| 天胆娼瞳匯曝屈曝消消翆翆| 忽恢娼瞳消消翆翆鎗埖供| 忽恢匯曝屈曝av| 冉巖天胆晩昆廨曝| 消消消消消消消築孟| 天胆爾秤匯曝屈曝眉曝互賠篇撞| 忽恢娼瞳消消消消眉雫| 仔弼晩昆壓| 天胆壓瀛啼偽曝| 天胆互賠壓濔瞳匯曝| 忽恢娼瞳消壓濆杰| 匯曝屈曝眉曝壓濆杰換恢| 天胆匯曝忽恢匯曝| 天胆窮唹窒継| 忽恢晩昆av互賠| 冉巖忝栽弼玻玻際際| 窒継鉱心匯曝| 忽恢娼瞳消消牽旋| 壓瀉盞儿杰簡啼客伺| 消消消消消玻玻玻消消消娼瞳| 天胆晩昆娼瞳匯曝屈曝爺爺田弌傍 | 來天胆8khd互賠自瞳| 胆溺篇撞利嫋仔弼冉巖| 忽恢娼瞳yjizz| 冉巖弼夕崙捲某沃| 総窃天胆晩昆忽恢壓| 忽恢娼瞳theporn| 壓瀲伺篇撞| 消弼撹繁壓| 忽恢胆溺娼瞳繁繁恂繁繁訪| 冉巖匯曝唹垪| 天胆爾秤溺繁20p| 忽恢寔糞娼瞳消消屈眉曝| 消消忽恢天胆娼瞳| 天胆頭及1匈忝栽| 匯曝篇撞壓濂シ| 消消爺爺夊匚匚夊際際夊2022 | 天胆匯曝壓濘| 天胆晩昆壓瀛啼客伺屈曝|