「ゼロから作るディープラーニング」を動画でまとめている人がいたので紹介します。

ゼロから作るディープラーニングという本が昔はやったが、それをYoutubeで解説している神動画を見つけたので紹介。スライドとコードで両方解説しているようだ。

Deep Learning 第1回:まずは環境構築だ!

Pythonの実行環境と各種ライブラリの説明をしている。ただ、これは以前紹介したGoogle Colaboratoryで用意できそう。

この動画で学ぶこと


・環境構築の方法
・numpyの基礎



Deep Learning 第2回:パーセプトロンを実装しよう

以下の内容を学ぶ。


パーセプトロン
ニューロンモデル
AND回路
OR回路
XAND回路
XOR回路

スライドもついている。Github上で。


Deep Learning 第3回:ニューラルネットワーク その1 実装準備編


この動画で学ぶこと

・多層パーセプトロン
・活性化関数
・ステップ関数
・シグモイド関数
・ReLU関数
・行列計算


Deep Learning 第4回:ニューラルネットワーク その2 実装編

この動画で学ぶこと


・恒等関数:入力と同じ出力を返す関数
・ソフトマックス関数:出力を確率で表せる関数
・MNIST: 画像認識のデータセット
・Picle


Deep Learning 第5回:ニューラルネットワークの学習機能を実装


この動画で学ぶこと

・損失関数
・交差エントロピー誤差
・勾配法
・学習率


Deep Learning 第6回:誤差逆伝播を利用して学習処理を早くする

この動画で学ぶこと

・誤差逆伝播法(ごさぎゃくでんぱほう)
・ノード:掛け算の結果を出力する
・順伝播:左から右へ計算する
・逆伝播:合計値から逆に計算する
・計算グラフ
・偏微分
・シグモイドレイヤ
・ReLUレイヤ



Deep Learning 第7回:誤差逆伝播を用いてニューラルネットワークを実装

この動画で学ぶこと

・Affineレイヤ
・ミニバッジ版Affineレイヤ
・2層ニューラルネットワークを実装
・ReLU関数
・Softmax関数
・Softmax with Lossレイヤ
・順伝播
・逆伝播
・勾配確認
・逆誤差伝播の実装

Deep Learning 第8回:機械学習機能を実装したので、ここまでのまとめ

この動画で学ぶこと

・今までの復習内容


Deep Learning 第9回:パラメータの自動最適化

この動画で学ぶこと

・確率的勾配降下法(SGD):損失関数の値を微分して、最適に近づける。
・Momentum(モーメンタム)
・AdaGrad:学習が進むにつれて学習係数を小さくする方法
・重みの初期値の最適化
・Xavier(ザビエル)の初期値
・ガウス分布
・Heの初期値(ReLUを利用)


Deep Learning 第10回:パラメータの自動最適化(過学習編)

この動画で学ぶこと

・過学習
・Batch Normalization:各層でのアクティベーション分布を正規化によって適度な広がりを持つようにする
・ハイパーパラメーターの検証
・正則化:過学習の抑制
・Weight Decay: 大きな重みにペナルティを与える方法
・Dropout:ニューロンをランダムで削除する方法
・ハイパーパラメーター検証
・エポック


Deep Learning 第11回:畳み込みニューラルネットワーク

この動画で学ぶこと

・CNN:画像認識や音声認識で使われやすい
・Comvolution レイヤ
・Poolingレイヤ
・パディング


この記事が気に入ったら、サポートをしてみませんか?気軽にクリエイターを支援できます。

note.user.nickname || note.user.urlname

サポートでいただいたお金はFanzaの動画を購入するために利用されます。

うれしいです!ぜひ感想を#DAINOTE とツイッターでお願いします!
98

Dai

Daiの技術チュートリアル(単品)

PythonやGoogle Apps Scriptを利用して、役に立つアプリケーションを作成する方法をまとめています。 #Python #JavaScript
6つのマガジンに含まれています
コメントを投稿するには、 ログイン または 会員登録 をする必要があります。