機械学習 名古屋 分科会 #5に行ってきた

機械学習 名古屋 分科会 #5に行ってきた。

前回の続きだ。

今回は、前回の続きで4章の途中から4章の終わりまでやった。
偏微分による勾配の計算方法を、損失関数に適用する。
勾配は、例えばx,yの2変数の関数で計算すると、ゴルフのグリーンの勾配みたいに傾きの分布が2次元で求めららる。
勾配の「傾き」に従ってボールを転がせば、ボールは関数の「高さ」が一番低い場所に向かって転がっていき、最小値あるいは極小値に行き着く。
そんな感じの原理で損失関数が最低になるような数値解を求めるのが勾配降下法という方法となる。
Pythonのコードでこれを実装するハンズオンなのだが、うまく動かせなかった。

どうも教科書の初版の初期の刷数のものは教科書に載っているコードが間違っているらしい。
あと、教科書のコードだけで完結していないので、あらかじめコード内で参照するコードなどをダウンロードしておかないと駄目みたいだ。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

Time limit is exhausted. Please reload CAPTCHA.

× 4 = 32