機械学習 名古屋 分科会 #8に行ってきた。
前回の続きだ。
今回は、前回の続きの6章の後半と、7章の畳み込みニューラルネットワークの最初の7-3まで進んだ。
6章の後半はBatch Normalizationや過学習対策の方法など理論というより工夫やテクニックという内容が多い。
ハンズオンは、ちょっとコードが長いし、実行するにしても長時間かかるものばかりなので割愛。
7章の畳み込みニューラルネットワークに進んだ。
今まではニューラルネットワークの各層が全部結合している全結合のものをやってきた。
しかし画像処理にニューラルネットワークを使う場合、空間的に近いデータの位置の情報というのが無視されてしまうので、画像の中の近接するピクセルの影響を学習させるのが難しいとか効率が悪いという問題がある。
空間的に隣接するデータを畳み込み処理をする層を使ってニューラルネットワークを作ると画像処理などがうまく処理できるようになるという。
畳み込み処理、畳み込み演算は、画像処理の縮小フィルタのようなもので、周辺のピクセルを重みをつけて平均などの計算をして例えば4×4のピクセルの並びを2×2に縮小する。
あるいはカラーの3チャンネルの画像を1チャンネルのグレースケールに落とすなどの処理も畳み込みの一種と言える。
7章の3節まで進んだが、まだコードとかは出てこないので、結局今回はハンズオンはまったく無かった。
PCをせっかく持っていったのに出番がなかったなあ。