ディープラーニングとニューラルネットワーク の編集 -- 雛形とするページ -- adairshapiro461 AIを活用した事例一覧 axelsen56morrison38 beadjeff172 BracketName Chat chillgrade477 dayabrahamsen4307 deadplanet517 deadplanet570 dosondragonocean34 dragonoceanhp28 dragonoceanocelot1861 duandragonocean44 FormattingRules FrontPage gamblefoldager584 gamblefoldager593 Help imperiasmart78 InterWiki InterWikiName InterWikiSandBox knparadise04 knparadiseland16 knparadiseland75 lazerepilasyon lundqvistduke7011 lundqvistduke7055 lundqvistduke7092 lutz70broussard12 mcgeetyson476 MenuBar paradisekncamranh88 paradisekncamranh96 pastakayak7607 pastakayak7610 PHP PukiWiki PukiWiki/1.4 PukiWiki/1.4/Manual PukiWiki/1.4/Manual/Plugin PukiWiki/1.4/Manual/Plugin/A-D PukiWiki/1.4/Manual/Plugin/E-G PukiWiki/1.4/Manual/Plugin/H-K PukiWiki/1.4/Manual/Plugin/L-N PukiWiki/1.4/Manual/Plugin/O-R PukiWiki/1.4/Manual/Plugin/S-U PukiWiki/1.4/Manual/Plugin/V-Z Pythonプログラミング Pythonプログラミング-変数と型 Pythonプログラミング-画像を扱う Pythonプログラミング―画像を扱う raynor63raynor05 raynor63raynor35 RecentDeleted SandBox seo1 Sohbet sotaapp52 targetpan539 tubepphuctho2437 tubepphucthos71 vance63gram05 vance63gram23 vindanphuonghanoi82 vinhome3coloa23 vinhomedanphuongz35 vinhomehungyenland01 vinhomehungyenland47 vinhomehungyenland90 vinhomescoloa60 vinsmartcitytaymo66 WikiEngines WikiName WikiWikiWeb YukiWiki こちら なぜ人工知能が騒がれているか オートエンコーダ ディープラーニング ディープラーニングとは ディープラーニングとニューラルネットワーク ニューラルネットワーク ニューラルネットワークをPythonで実装する パーセプトロン ボルツマンマシン 人工知能Wiki 人工知能の参考書籍 人工知能の定義について 分類問題 回帰問題 基礎となる数学 大垣敬寛の学習記録 学習の手順 山形県人工知能コミュニティ 強化学習 機械学習について 機械語 行列の基礎知識について ... [[ディープラーニングとは]] +[[ディープラーニングとニューラルネットワーク]] +[[パーセプトロン]] +[[ニューラルネットワーク]] +[[ディープラーニング]] *ディープラーニングとニューラルネットワーク [#yd8b1ecd] ディープラーニングの理論を学ぶ前に、ディープラーニングが生まれるまでの歴史を簡単に振り返ります。 **形式ニューロンの誕生 [#ze3c0514] 脳は多数の神経細胞(ニューロン)のつながり(ネットワーク)によって形成されています。1943年、この神経細胞をモデル化した「形式ニューロン」が発表されました。 CENTER:&ref(Fig. 1.1.png); CENTER:Fig. 1.1 形式ニューロン #br ここで、'''x'''は別ニューロンからの入力、'''w'''は重み、'''θ'''は閾値を表しています。別ニューロンからの各入力'''x'''に対してそれぞれ重み'''w'''を掛け合わせた値の総和がある値'''θ'''を超えた場合、次のニューロンに伝える出力は1、越えなかった場合、出力は0となります。例えば、入力が(1,3,5)で重みが(0.5,0.9,0.1)である場合、総和は1×0.5+3×0.9+5×0.1 = 3.7 です。この場合、閾値が3であれば1が出力され、閾値が4であれば0が出力されることになります。 これによって1つの神経細胞を非常に簡略化して表現しています。 **パーセプトロンへの拡張 [#z38c8277] 形式ニューロンモデルの考え方に基づいて、1958年に開発されたのが「パーセプトロン」です。 CENTER:&ref(Fig. 1.2.png); CENTER:Fig. 1.2 パーセプトロン #br 開発したとは言っても、Fig. 1.2を見ればわかるように形式ニューロンを入力層と出力層の2層に拡張しただけです。 しかしながら、実はこれがとても重要で、入力層と出力層に分けることよって重み'''w'''を最適化することが可能になります。この重みを調整する作業を「学習」と呼びます。つまり、パーセプトロンにより簡単な「学習」ができるようになったというわけです。 とはいえ、この「学習」には限度があり、理論的に解けない問題が多く存在することが発覚し、次第に日の目を浴びなくなりました。 重みの最適化の方法については[[こちら]]を参照してください。 **ニューラルネットワークの誕生と衰退 [#m989c0a1] 1958年に発表されたパーセプトロンでは入力層と出力層の間の重みを調整することで学習できるようになりましたが、理論的に解けない問題、具体的には非線形分離問題を解けないという難点がありました。 この課題を解決する方法は単純で、入力層と出力層の間に中間層を挿入するだけです。 CENTER:&ref(Fig. 1.3.png); CENTER:Fig. 1.3 多層パーセプトロン #br このように層を増やしていき、更新する重みの数を増やすことで入力・出力層だけの単純なパーセプトロンで解決できない問題も解くことができます。以降は、入力層と出力層だけのパーセプトロンを「単純パーセプトロン」、単純パーセプトロンに中間層を挿入したものを「多層パーセプトロン」と呼ぶことにします。 また、多層パーセプトロンの学習を効率的に行うアルゴリズムも考案されました。 **ニューラルネットワークの復活 [#dea2fd49] タイムスタンプを変更しない [[ディープラーニングとは]] +[[ディープラーニングとニューラルネットワーク]] +[[パーセプトロン]] +[[ニューラルネットワーク]] +[[ディープラーニング]] *ディープラーニングとニューラルネットワーク [#yd8b1ecd] ディープラーニングの理論を学ぶ前に、ディープラーニングが生まれるまでの歴史を簡単に振り返ります。 **形式ニューロンの誕生 [#ze3c0514] 脳は多数の神経細胞(ニューロン)のつながり(ネットワーク)によって形成されています。1943年、この神経細胞をモデル化した「形式ニューロン」が発表されました。 CENTER:&ref(Fig. 1.1.png); CENTER:Fig. 1.1 形式ニューロン #br ここで、'''x'''は別ニューロンからの入力、'''w'''は重み、'''θ'''は閾値を表しています。別ニューロンからの各入力'''x'''に対してそれぞれ重み'''w'''を掛け合わせた値の総和がある値'''θ'''を超えた場合、次のニューロンに伝える出力は1、越えなかった場合、出力は0となります。例えば、入力が(1,3,5)で重みが(0.5,0.9,0.1)である場合、総和は1×0.5+3×0.9+5×0.1 = 3.7 です。この場合、閾値が3であれば1が出力され、閾値が4であれば0が出力されることになります。 これによって1つの神経細胞を非常に簡略化して表現しています。 **パーセプトロンへの拡張 [#z38c8277] 形式ニューロンモデルの考え方に基づいて、1958年に開発されたのが「パーセプトロン」です。 CENTER:&ref(Fig. 1.2.png); CENTER:Fig. 1.2 パーセプトロン #br 開発したとは言っても、Fig. 1.2を見ればわかるように形式ニューロンを入力層と出力層の2層に拡張しただけです。 しかしながら、実はこれがとても重要で、入力層と出力層に分けることよって重み'''w'''を最適化することが可能になります。この重みを調整する作業を「学習」と呼びます。つまり、パーセプトロンにより簡単な「学習」ができるようになったというわけです。 とはいえ、この「学習」には限度があり、理論的に解けない問題が多く存在することが発覚し、次第に日の目を浴びなくなりました。 重みの最適化の方法については[[こちら]]を参照してください。 **ニューラルネットワークの誕生と衰退 [#m989c0a1] 1958年に発表されたパーセプトロンでは入力層と出力層の間の重みを調整することで学習できるようになりましたが、理論的に解けない問題、具体的には非線形分離問題を解けないという難点がありました。 この課題を解決する方法は単純で、入力層と出力層の間に中間層を挿入するだけです。 CENTER:&ref(Fig. 1.3.png); CENTER:Fig. 1.3 多層パーセプトロン #br このように層を増やしていき、更新する重みの数を増やすことで入力・出力層だけの単純なパーセプトロンで解決できない問題も解くことができます。以降は、入力層と出力層だけのパーセプトロンを「単純パーセプトロン」、単純パーセプトロンに中間層を挿入したものを「多層パーセプトロン」と呼ぶことにします。 また、多層パーセプトロンの学習を効率的に行うアルゴリズムも考案されました。 **ニューラルネットワークの復活 [#dea2fd49] テキスト整形のルールを表示する