こんにちは!
現役パラレルワーカー フクコです。
前回の記事↓に続き
www.fukuko-parallel-work.com
来年の2月の試験に向けてE資格試験勉強中のため
E資格とは?の記事はコチラ↓
ゼロつくシリーズでおなじみ
オーライリーから出版されている
ディープラーニングの本格的な入門書でよくおススメされる
「ゼロからつくる Deep Learning」本
この本↑を毎日5ページずつコツコツこなすと
約2か月間で今年中に終了するので
来年のE資格試験までにこれで基礎力をつけることにしました。(^^)
ついつい私は何もないとだらけてしまうので(笑)
毎日5ページ終わった後の記録とまとめを書いていこうと思います。
と、まとめに入る前に…
やる気を出すためのコトバをシェアします!!(主に私のやる気を出すために 笑)
「人生には空模様があるからな。
移ろって動いて行く。
ずっと晴れ続ける事もないし、
ずっと雪が降り続ける事もない。
そして幸せが壊れる時には
いつも血の臭いがする。」
by炭治郎
私の大好きな「鬼滅の刃」から
炭治郎の名言です。
またまた、え!?炭治郎、キミ、マジで何歳??という
すべてを悟ったかのような発言ですが(笑)
そう!!
ホント、イイこともおこれば、ワルイいこともおこるのが日常
です。
文字通り、人生は山あり、谷あり
時とともに、移ろっていく…
なので、
全力で今やりたいことをして生きる!!
というコトで、
たとえ友人たちに忘年会やショッピングに久しぶりに誘われようと
どんなに「行きたいな~」と思ったとしても
私は今はE資格の勉強に専念しますよ!
そう、私は、今勉強に集中するのですっ!!(>ー<)(ちょっとヤケ 笑)
炭治郎、どうもありがとう! (^0^)
今日もやる気が出てきました!
よし!! 今日も頑張るぞ~! お~!!
というコトで、
どんなに誘惑があろうと、今日も私はノルマはゼッタイこなしますよ!笑
ではでは、いい加減まとめに入ります。笑
その前に本の目次の紹介です。
ゼロつくディープラーニングは、下記↓の合計8章で構成されています。
本の目次
- 1章 Python入門
- 2章 パーセプトロン
- 3章 ニューラルネットワーク
- 4章 ニューラルネットワークの学習
- 5章 誤差伝播法
- 6章 学習に関するテクニック
- 7章 畳み込みニューラルネットワーク
- 8章 ディープラーニング
ちなみに…
ゼロつくディープラーニングの第1章はPython入門のセクション(20ページ分)なので、
とりあえず今回私は飛ばし、第2章からまとめています。
前回第7章が終わったので、今回から第8章 ディープラーニングで~す。
第8章 ディープラーニング のつづき
層を深くしたディープなニューラルネットワーク。
ディープラーニングの性質と課題、そして、可能性についてみていく。
8.1.3 層を深くすることのモチベーションのつづき
小さなフィルターを重ねてネットワークを深くする利点は、
パラメータ数を小さくでき、受容野を広くカバーできる点にある。
層を重ねることで、
ReLUなどの活性化関数が畳み込み層の間に挟まれて
ネットワークの表現力が上がる。
ネットワークの表現力が上がるのは、
活性化関数によってネットワークに「非線形」の力が加わるから。
層を深くすることで、
学習データを少なくでき、高速に学習が行える。
ネットワークを深くすれば、
学習するべき問題を回想的に分解することができる。
各層が学習すべき問題は、より単純な、問題として取り組むことができる。
層を深くすることで、階層的に情報を渡していくことができる点も重要。
要は、
層を深くすることで、
各層が学習すべき問題を「解きやすいシンプルな問題」へと分解できるから。
8.2 ディープラーニングの小歴史
2012年に開催された大規模画像認識コンペ
ILSVRC(ImageNet Large Scale Visual Recognition Challenge)
がディープラーニングに注目を集めるきっかけとなり
AlexNetが、圧倒的な成績で優勝する。
8.2.1 ImageNet
ImageNetは、100万枚を超える画像のデータセット。
1400万枚以上もあるほど大規模な「カラー写真」の教師ラベル付き画像データベース。
↓がImageNetの公式サイト
8.2.2 VGG
VGGは、
畳み込み層とプーリング層から構成される基本的なCNN 。
VGGのネットワーク構造は↓のとおり。
3x3の小さなフィルターによる畳み込み層を連続して行っている点がポイント。