PRML勉強会で発表してきた@VOYAGE GROUP

今日の発表で使った資料をupします。


今日は主にラプラス近似の話でした。
先日、研究室で雑談してた時に、「ラプラス近似って論文で見たことないしどうでもいい手法なのでは」的な話にって、それでもNLPみたいなそもそも連続量の分布を扱わない分野しか見てないのでラプラス近似は目に入らないだけで、ひょっとすると大事なのかもみたいな話をしていました。
今日の勉強会では、画像とか他の分野で機械学習やってる人の間でも、ラプラス近似はメジャーな手法としては共有されてない印象でした。結局あまり大事ではない?
4章、5章を読んだ感触としては、とりあえず①目的関数を設定②最適化、の流れを、各手法について正確に理解することが大事な印象です。
近似や最適化について、断片的な知識でわかった気になっていて体系的・包括的な理解が足りてないと感じたので精進したいところです。