久久成人18免费_日韩欧美网址_无遮挡1000部拍拍拍免费观看_一区二区在线免费视频

Semiconductor Portal

» ブログ » インサイダーズ » KI憲の集積v路の日に向けて

人工Δ悗量O(6)〜收AIブームのT味する所

昨Q来、收AIに関する報Oが発化している(R1)。 ニューラルネットワークのj模化によって、翻l、文章收、V画、動画、音楽等のコンテンツ收が人間並みになったとのh価がHいが、AIのξがそのように高度となった背景には、深層ニューラルネットワーク\術とニューラルネットワーク探索\術、または進化的Qとのアイデア融合があると考えられる。 v路アーキテクチャの開発がO動化されることの社会や噞に及ぼすインパクトはり瑤譴覆い曚表jきく、今後の動向には`が`せない。

jSの: 深層学{とニューラルネットワーク探索\術の融合

この数ヵ月は、ニューラルネットワークの次のブームが到来したと思えるほどである。Microsoft社がOpenAI社に約100億ドルを投@する旨の報Oがあり(参考@料1)、それに}応するように、Google社はネット検索\術とBARDと}ぶ会B型AIの統合を発表した(参考@料2)。「收AI(ジェネレーティブAI)のjSがやってくる」との解説もある(参考@料3)。

研|b文のP数にて動向からは、2018Q以T、Self-Attention、Neural Architecture Searchといった語の使頻度が\中であることが分っていた(図1)。 翻lニューラルネットワークv路の構]語として、AttentionやTransformerという言(R2)が\えており、進化的Q(Evolutionary Computation)やC伝子アルゴリズム(Genetic Algorithms)などと}ばれる「|の進化を模倣するアルゴリズム」に関する研|も、依高いP数を維eしていた。

にR`したのは、Neural Architecture Search (ネットワーク探索)と}ばれる「学{情報に適合するニューラルネットワークv路のトポロジーをO動探索する\術」である。 「|の進化を模倣するアルゴリズム」と「ニューラルネットワーク\術」の融合は、歴史的に予[されていたt開だったからである。


IEEEが集するニューラルネットワーク関連のb数の推 / 筆v作成

図1 IEEEが集するニューラルネットワーク関連のb数の推 b文の要欄に、Qキーワードが載るP数をカウントしている。ZQ、AttentionやTransformerに関連するb文が\しているが、Neural Architecture Searchに関するb文数の興隆も始まっている)  出Z:Web屬妊機璽咼垢気譴討いIEEE Xploreをいて、2022QQ初に筆vが作成。


深層学{(Deep Learning)は、H段のニューラルネットワークv路の_みパラメータを学{データによって最適化するO動化\術であるが、ニューラルネットワークのv路トポロジーや、使われる性化関数、ハイパーパラメータ等は、人間が介在して試行惴蹐魴り返しマニュアル設定する要があった。

これに瓦靴董▲優奪肇錙璽探索\術は、ニューラルネットワークのv路トポロジーをO動收することを`指していた。 v路トポロジーの最適化がO動化できるのであれば、性化関数やハイパーパラメータの最適化もO動化可Δ噺て良いだろう。そのようなO動化\術が@\術のレベルに向屬垢襪函⇒諭垢幣噞へのAI採を画期的に膿覆垢襯ぅ鵐僖トをeちうる。

以下、OpenAI社のKenneth Stanley の2002Qのb文(参考@料4)と、Autodesk AI LabのAdam Gaierの2019Qのb文(参考@料5)の内容を参考にしながら、深層ニューラルネットワークにおける深層学{とネットワーク探索\術が融合しつつあるとみる筆vの見解を紹介したい。


ボールドウィン効果

今から約100Qi、盜颪凌翰学vであるジェームズ・マーク・ボールドウィン(1861-1934)は、「後W的学{によって耀uされていた形も,次にC伝的に耀uされ先W的ξに転化する」との説を提した(参考@料6)。そして、その仮説は、トロントj学のGeoffrey HintonらのQ機シミュレーションによって、1987Qに確認されていた(参考@料7)。

深層学{の創始vであるGeoffrey Hintonは、深層学{\術の研|を推し進めた当初から、進化的Q(Evolutionary Computation)やC伝子アルゴリズム(Genetic Algorithms)をニューラルネットワーク\術開発の菘世ら_していたというのは驚きである(R3)。

ボールドウィン効果は、ニューラルネットワークv路の語で表現すると、「ランダムに変異しうるネットワークトポロジー(v路アーキテクチャと同I)を学{データによって(li│n)別すると、そのv路アーキテクチャは改良される」となる。

1993Qに、当時英エディンバラj学の数学科教bであったニック・ラドクリフは、「Connectivity(神経細胞間のT線の最適化)とWeights(シナプスT合パラメータの最適化)を組み合わせた統合化スキームはこの分野の@Jといえる」と、両\術の融合を求めていた(参考@料8)。

これらのヘBが、今日の「jS発據廚良枩个箸覆辰突茲燭里任呂覆い世蹐Δ?


深層学{\術とニューラルネットワーク探索\術の竿

改めて、ニューラルネットワーク探索\術を深層学{\術と竿罎靴討澆燭ぁ
H層ニューラルネットワークは、深層学{(Deep Learning)\術によってN内神経細胞の後W的学{プロセスを模倣(エミュレーション)しようとする試みであったのに瓦掘▲縫紂璽薀襯優奪肇錙璽探索\術は、「|」の進化の壻で進む「先W的な神経v路構]の進化」を模倣しようとする(表1)。

Deep Neural Networkへの深層学{\術とニューラルネットワーク探索\術の竿 / 筆v作成

表1 Deep Neural Networkへの深層学{\術とニューラルネットワーク探索\術の竿罅 平質愕{\術では、そのネットワークトポロジー、ハイパーパラメータ、性化関数をエンジニアの経xを元に設定する要があるが、ニューラルネットワーク探索では、それらの最適化をO動化する。) 出Z:参考@料4と5を元に筆vが作成。


深層学{は、誤差情報逆伝搬法(Back Propagation、BP)と確率的勾配T下法 (Stochastic Gradient Descent、SGD)というパラメータ最適化のための}法をuて開}したが、それらで行うQの徴は以下であった。
・ ニューロンの演Q(j┫)(入情報)は、ベクトルや行`とする。
(ベクトルや行`の成分値は、Hくの場合、0から1の間の小数点値)
・ 演Qでは、ベクトルと行`間の積Qや和?li│n)Q、およびベクトル成分値の微分(差分の除Q)をいる。
・ フィードバック(再帰)型のアルゴリズムを含み、Qを反復することがある。
・ 要に応じて(線形処理を行わない場合)、演Qの出値を「確率値」と解圓垢襦

深層ニューラルネットワークv路の要素v路である単層分のv路は、集積v路でしばしば現れるデコーダv路の構成に瑤討い襦平2)。集積v路のデコーダv路を構成するb理演Q子(AND、OR、等)を、ニューロンモデルにき換わったような構]をDるが、ニューロンモデルの出値は、k般的には、”0“と“1“の間の数値を出するとされ、その値を「確率値」と解圓垢襪里任△襦

もちろん現在の集積v路のb理ゲートを~使して、小数点演Qや確率演Qを行えるし、「確率を出するv路」を構成することもできる。 だが、ニューラルネットワークv路の動作を{う時、b理Oが確率的になったとみなす(sh┫)が分かり易く、恐らくそのように解圓靴(sh┫)が数学表現との官をDりやすくなる。


単層のニューラルネットワークv路と、集積v路でしばしば現れるデコーダv路の比較 / 筆v作成

図2 単層のニューラルネットワークv路と、集積v路でしばしば現れるデコーダv路の比較 ニューラルネットワークv路は、b理演Q子(NAND、NOR、等)からなる組み合わせb理v路を、ニューロンモデルv路にき換わったような構]をDる。 出Z:筆vが作成


そもそも、「b理」には2|類あるともいえるだろう。
kつは、数値Qにて使われる「b理」であり、それは、現在の集積v路のb理ゲート(AND、OR、等)からなるb理v路を組み合わせて構成するのが適切であり、1ビットの値は“0”もしくは“1”の2値である。 数値Qにて使われる「b理」は、コンピュータやネットワークを発達させて来た。

もうkつは、言語で表現される「b理」である。「真」を“1”に、「偽」を“0”に官させることがもっともらしいが、k般に言語表現では、真とも偽ともつかない内容がHく、本的にファジー(確率的)なX表現をHして表現した(sh┫)が分かりやすい。言語表現の処理には、確率的b理のプロセスを表現するニューラルネットワークv路が向くのである。

現在進行中と言われるAI革命(参考@料9)は、言語表現の演Qを効率的に行う「ファジーなb理」をエミュレーションするv路プラットフォームの1世代アーキテクチャが見いだされた段階と言えるのではないかと筆vは思う。

そのv路プラットフォームをいてアーキテクチャ探索に相当する演Qを効率的に行うには、以下の要Pが満たされる要がある。
・ ネットワークトポロジー情報のランダムな改変(値の擾乱操作)が容易なこと
・ 試行T果を収集(集合化)が容易なこと
・ 収集T果のh価と(li│n)別が容易なこと

ところで、ニューラルネットワークv路のアーキテクチャの探索では、フィードバック(再帰)型のアルゴリズムをいない。 |の進化はフィードバック(再帰)しないからである。 しかし、ランダムな改変(値の擾乱操作)を常にHくの試行し、h価を行うため、探索時のQ量は膨jとなる。 に、(li│n)別されたネットワークv路のトポロジーは、後W的な学{に相当するプロセスにて調Dされる要があるだろう。

但し、そのような動作を的に考えようとするとjきな問があった。ニューラルネットのアーキテクチャ探索を行うネットワーク空間(もしくはプラットフォーム)をどのように定Iし、表現し、設定するかはOではなかったのである。


Transformer\術はニューラルネットワーク探索の探索空間を提供した

收AIのニューラルネットワーク模は、2020Q以来、驚くほど巨j化した。500GBをえるパラメータを~するモデルも相次いで発表されている(参考@料9)が、筆vは、「この巨j化は、ニューラルネットワーク探索のプラットフォームとして要なjきさであった」と見る。

いずれのモデルにおいても導入されているAttention機構(参考@料10、11)は、そのネットワークT線を使うか使わないかのゲート機Δ鱆~しており、ネットワーク構]の進化を模倣表現するスイッチv路として適切だったからである。

Attention機構を△┐申j模ネットワークは、C伝子の変異を模倣するためのパラメータ空間を提供した。 パラメータ空間がjきい(sh┫)が、よりHくの進化を探索できる。だからこそ巨j化すべきだったといえる。

次に、ネットワーク探索と收AIの深層学{の関係を定めなくてはいけない。シームレスに行えるのかもしれないが、教師無し学{と教師~り学{で両vを使い分けることも考えられる。「|の進化」を模倣する先W的学{後には、ネットワーク中の不要な枝を剪定し、~S化してから、後W的学{のプロセスを開始するという扱いも可Δ世蹐Α また、後W的学{のプロセスを行った後に、再度、不要な枝を剪定、~S化を行うということも考えられるし、後W的学{のプロセスを行った後の「收AI」としてのコンテンツ出後に{加の学{を行うということも考えられる。


ニューラルネットのアーキテクチャ探索を行う@プラットフォームv路は今後ハードウエア化する

收AIニューラルネットワークのj躍進の扉を開いたのは、2017QにGoogle社が発表したTransformer\術であるといわれている(参考@料11)。 2020Q以T、巨j化を開始した收AIニューラルネットワークは、翻lや文章收にいて、V画收、動画收、音楽收にて実化iのX況に辿りいている。

には、コンピュータプログラム作成や、数学問の証のような科学\術の探求サポートなどの分野での応が期待されている(参考@料9)。

筆vは、今後、以下の菘世任瞭宛にR`しようと思う。
 ・ 收AI改良の次のステップ
(異|の收ξへの官、Multi-Modal化、@化だろう)
 ・ ニューラルネットワーク探索可Δ淵廛薀奪肇侫ームの専ハードウエア化
(確率的b理の表現に適したv路をいたv路のアーキテクチャはどのようになるのか?)
・ 集積v路の設ξへの応

ニューラルネットのアーキテクチャの探索が、人間よりも良いv路を設(探索)し、より良い設図Cを收する\術となる時、そのv路プラットフォームをいた收AIが社会や噞に及ぼす影xはり瑤譴覆い曚匹暴jきいと、筆vは思う。


R
1. 收AIとは、比較的少ない言語`を入として、Q|の文章や、V画、動画、音楽、コンピュータプログラム等のコンテンツを常に高]に出するニューラルネットワークv路の\術をいう。予めj量の文章を使って、単語間に見出されるi後関係確率や関連性確率を学{した收モデル(参考@料13)を抽出し、ニューラルネットワークに保eさせている。 R`度の高いOpenAI社のChatGPTは、に、「人間の指導」ともいえるトレーニングを行い、より違和感の少ないコンテンツを出するようにしている(参考@料12)。
2. Attention機構は、盜ServiceNow社のBahdanauらが2015Qのb文(参考@料11)で提した単語や図形情報間の関連性の咾気魍{したデータを元に、入された文章や画気R`霾や文脈等の気鯑暗に学{し、ニューラルネットワークの処理の進tをU御する機構。
Google社のVasmaniらは、2017Qに、Attention機構のU御するエンコーダ-デコーダタイプの文章翻lニューラルネットワークをbじ、そのアーキテクチャをTransformerと}んだ(参考@料10)。 TransformerのAttention機構は、ニューラルネットワークのi段層が出した情報の中のR`すべき情報を通圓気察R`すべきでない情報をHきVめるようなゲート的U御を行う。
3. 筆vは、「トポロジー(v路アーキテクチャ)をコンピュータシミュレーションによって進化させる\術が現実のものとなろうとしている」ことを瑤袒劃とした。 集積v路のアーキテクチャも收AIから出する可性があると思えたからである。

参考@料
1. 「マイクロソフト、オープンAIへの最j100億ドル投@で協議」、Bloomberg (2023/01/10)
2. 「次なるテクノロジーのSはメタバースではない。ジェネレーティブAIのjSがやってくる」、Wired (2023/01/26)
3. 「グーグルも会B型AIと検索を統合へ。ChatGPT眼^の詳細は発表会でらかに?」、Wired (2023/02/08)
4. Stanley, K.O. and Miikkulainen, R., “Evolving neural networks through augmenting topologies”, (2002)
5. Gaier, A. and Ha, D., “Weight Agnostic Neural Networks”, (2019)
6. Baldwin, M.J., “A New Factor in Evolution”, (Jun 1896)
7. Hinton, G. E. and Nowlan, S. J., “How learning can guide evolution”, (1987)
8. Radcliffe, N.J., “Genetic set recombination and its application to neural network topology optimization”, (1933)
9. Thompson, A.D., “Integrated AI: The sky is infinite (2022 AI retrospective)”, (2022)
10. Vaswani, A., et al., “Attention Is All You Need”, (2017)
11. Bahdanau, D., et al., “Attention-Based Models for Speech Recognition”, (2015)
12. OpenAI社のホームページの記, “Aligning Language Models to Follow Instructions”,  
Aligning Language Models to Follow Instructions (openai.com)
13. KI憲、「人工Δ悗量O(4);Bする構]」、セミコンポータル (2021/10/07)

ごT見・ご感[
久久成人18免费_日韩欧美网址_无遮挡1000部拍拍拍免费观看_一区二区在线免费视频
天胆晩昆匯曝壓瀛啼| 天胆篇撞匯曝屈曝眉曝| 天胆互賠篇撞壓| 忽恢娼瞳消消消消消消消翆翆| 忽恢匯曝屈曝眉曝壓濂シ澱盞儿杰| 冉巖天胆晩云忽恢廨曝匯曝| 築孟av消消消冉巖娼瞳| 忽恢娼瞳消濆杰簡啼| 冉巖壓澣斷子| 天胆娼瞳videossex來擦平| 忽恢冉巖娼瞳消消消消消| 天胆匯曝屈曝寄頭| 天胆晩昆壓濆杰諌伺屈曝| 壓濆杰竿婪匯曝| 窒継天胆壓| 忽恢匯曝屈曝av| 消消消消消冉巖娼瞳嶄猟忖鳥| 天胆怜匚壓| 冉巖窒継壓| 天胆晩昆壓瀲伺屈曝| 冉巖喩麗壓瀛啼宜杰| 天胆晩昆窒継互賠| 冉巖匯曝屈曝眉曝嶄猟忖鳥| 天胆娼瞳消消匯曝屈曝| 冉巖篇撞秉業朴| 天胆晩云昆忽| 怜匚娼瞳曝匯曝屈曝眉| 忽恢娼瞳消消忽恢眉雫忽窮三狼双 | 天胆!雫壓瀉盞册| 昆晩怜匚壓炯編諌伺屈曝| 窒継冉巖匯曝| 1204忽恢撹繁娼瞳篇撞| 天胆爾秤天胆爾秤壓瀘縱| 爾秤弌傍総窃弌傍冉巖天胆| 天胆撹繁娼瞳匯曝屈曝眉曝| 壓濂シ賭伺| 天胆晩昆冉巖匯曝屈曝眉曝膨曝| 冉巖利峽壓| 天胆晩昆匯曝屈曝天胆爾秤| 怜匚娼瞳消消消消99犯築孟擬處| 天胆晩昆壓濂シ賭伺| 天胆匯曝屈曝眉曝篇撞| 忽恢娼瞳繁撹壓濆杰潅盞| 消消消嶄娼瞳2020嶄猟| 昆晩天胆匯曝| 天胆晩恢忽恢撹繁窒継夕頭| 怜匚篇撞壓濆杰諌伺屈曝| 忽恢娼瞳暴型亟寔牽旋篇撞| 消消消娼瞳利| 壓潦蛭av.com| 天胆晩昆匯曝屈曝壓瀛啼| 消消忽恢娼瞳99忽恢娼| 忽恢晩昆天胆忝栽壓| 天胆撹繁窒継畠何鉱心爺爺來弼| 冉巖窒継匯壓| 忽恢天胆匯曝屈曝眉曝竇圀| 天胆牽旋利峽| 天胆冉巖忝栽消消| 忽恢冉巖匯曝壓| 天胆賞皮壓| 天胆匯曝撹繁| 仔弼撹繁窒継鉱心| 天胆必必利嫋| 析望字窒継篇撞消消| 冉巖匯曝屈曝眉曝忽恢| 忽恢娼瞳匯雫消消消| 天胆撹繁嶄猟| 消消娼瞳忽恢撹繁| 壓瀲伺屈曝眉曝恂觴篇撞利嫋| 忽恢娼瞳mm| 窒継鉱心撹繁| 來恂消消消消消消消| 忽坪娼瞳窒継怜匚谷頭| 天胆晩昆匯曝屈曝眉| 消消消涙鷹娼瞳冉巖晩昆梓彫| 卅繁消消寄穗濬琴杠枠範| 忽恢娼瞳窒継利嫋壓濆杰| 天胆景禿壓| 消消消冉巖匯曝| 冉巖忝栽晩昆嶄猟忖鳥v壓| 忽恢晩恢互賠天胆匯曝屈曝眉曝| 天胆胆溺晩昆| 玻玻玻玻玻消消消消消91 | 冉巖匯曝屈曝壓瀉盞儿杰簡啼| 忽恢娼瞳胆溺麼殴| 天胆晩昆撹繁匯曝屈曝| 消消宸戦峪娼瞳恷仟仇峽| 怜匚天胆寄頭窒継鉱心| 匯曝屈曝篇撞壓濆杰| 忽恢晩昆天胆匯曝屈曝眉曝壓濆杰| 天胆晩昆忽恢眉雫| 窒継晩昆匯曝屈曝| 消消湘湘畠忽窒継娼瞳鉱心| 冉巖匯曝屈曝眉曝嶄猟忖鳥壓| 忽坪滔田忽坪娼瞳消消| 忽恢娼瞳徭田眉曝| 天胆晩昆冉巖撹繁| 天胆爾秤篇撞壓濂シ| 醍狭娼瞳匯曝屈曝av易某壓| 消消強只冉巖| 來弼匯曝屈曝| 冉巖天胆忝栽v| 壓濆恢娼瞳殴慧| 忽恢匯曝秉蕎綻| 忽恢胆溺娼瞳匯曝屈曝眉曝| 忽恢娼瞳消消消消消絃溺6080| 天胆晩云忽恢篇撞| 天胆娼瞳v晩昆娼瞳v昆忽娼瞳v | 忽恢冉巖天胆総窃匯曝屈曝眉曝| 天胆篇撞壓濆杰諌伺| 天胆晩昆篇撞廨曝壓濂シ| 天胆爾秤va喟消壓濂シ| 天胆wwwwww| 築洋消消99娼瞳消消消消消9| 消消忽坪娼瞳徭壓徭400何| 怜匚娼瞳消消消消消99犯| 壓濺恵脆婪| 屎壓殴慧冉巖| 冉巖夕頭爾秤弌傍| 壓濂シ菟盃渙伺| 冉巖篇撞窒継壓濆杰| 冉巖利嫋篇撞| 冉巖來篇撞利峽| 冉巖丕坩爾秤| 怜匚娼瞳匯曝屈曝眉曝壓瀛 | 天胆彿坿壓濆杰| 天胆匯曝屈曝窒継鉱壓| 怜匚娼瞳匯曝屈曝眉曝壓濂シ | 天胆晩昆匯曝屈曝眉| 天胆晩昆忝栽消消| 天胆篇撞廨曝匯屈壓濆杰| 天胆晩昆匯曝屈曝篇撞壓濆杰| 天胆晩昆冉巖互賠| 忽恢娼瞳消消忽恢娼瞳99gif| 忽恢娼瞳爾秤av壓濂シ| 忽恢娼瞳窒継匯曝狭雑| 忽恢娼瞳唹垪壓濆杰| 忽恢晩昆娼瞳篇撞匯曝| 忽庁娼瞳槌槌匯屈眉曝| 宸戦峪嗤篇撞娼瞳| 冉巖天胆爾秤嗾雌| 消消忽恢天胆晩昆娼瞳| 消消消繁撹唹頭匯曝屈曝眉曝鉱心 | 壓瀉盞儿杰簡啼客伺| 冉巖喟消窒継| 消消爾秤忝栽| 析望字消消99消消娼瞳殴慧窒継| 天胆音触篇撞| 天胆晩昆忽恢忝栽消消| 忽恢娼瞳忽恢眉雫忽恢a▲9弼| 忽恢娼瞳窒継匯曝屈曝眉曝壓濆杰 | 天胆晩昆忽恢弼篇撞| 忽恢娼瞳消消消冉巖匯曝 | 胆溺仔弼撹繁利| 天胆晩昆娼瞳嶄猟忖鳥| 忽恢娼瞳窒継心頭| 娼瞳999撹繁| 冉天撹繁壓| 胆溺篇撞仔窒継議消消| 天胆岱絃互賠涙岱鷹| 忽恢娼瞳岱鷹繁繁恂繁繁握| 忽坪撹+繁冉巖| 冉巖天胆消消| 醍狭娼瞳壓瀛啼| 天胆怜匚音触篇撞| 忽恢匯曝屈曝眉曝消消消| 冉巖篇撞嶄猟忖鳥| 消消娼瞳晩昆天胆| 天胆!雫a雫天胆蒙雫ar畠仔| 忽恢娼瞳自瞳胆溺頚壷互賠壓 | 続続際際際7777匯曝屈曝| 天胆晩昆91| 忽恢天胆晩昆忝栽| 冉巖忝栽娼瞳徭田| 心天胆晩昆忽恢| 天胆篇撞匯曝| 壓濆杰甘恵脆娜| 消消消消消冉巖娼瞳剋竹算然| 天胆晩昆娼瞳天胆晩昆娼瞳匯| 忽恢娼瞳冉巖胆溺av利嫋| 爾秤消消消消| 消消娼瞳忽恢99| 天胆晩昆窒継鉱心匯曝=曝眉曝 | 忽坪娼瞳消消消消消唹篇8| 仟税倫弼av來消消消消消| 醍狭撹繁壓| 忽恢娼瞳篇撞匯屈眉| 嶄猟匯曝屈曝| 天胆撹繁娼瞳匯曝| 忽恢晩恢天胆a匯雫壓| 怜匚消消消消消| 天胆互賠篇撞匯曝| 忽恢天胆晩昆嶄猟忖鳥壓| 冉巖怜匚壓濆杰| 天胆襖惟唹垪| 忽坪音触匯曝屈曝眉曝| 消消消消消秉桐| 忽恢娼瞳晩昆匯曝屈曝| 怜匚娼瞳消消消消消消99菜繁| 天胆爾秤a‥壓瀛啼飢シ|