- 【統計分析】機械学習・データマイニング4
84 :デフォルトの名無しさん[sage]:2014/08/27(水) 05:12:01.16 ID:KHfeegfr - >>80
俺の経験上だけどdeep learningは画像データみたいにfeatureベクトルの次元間に強い相関があるような場合 じゃないとそこまで大した性能は出ないよ。 しかもめちゃくちゃ大量にあるハイパーパラメータをどうチューニングするのかでとても頭を悩ませる。 なので仕事で使うときは結局random forestばっか使ってるよ。 random forestはあんまハイパーパラメータチューニングしなくてもそこそこ性能出ちゃうし OOBエラーとかvariable importanceとか出せて使い勝手いいし
|
- 【統計分析】機械学習・データマイニング4
88 :デフォルトの名無しさん[sage]:2014/08/27(水) 15:51:13.75 ID:KHfeegfr - >>86
deep learningは現時点では最強に近い手法かもしれないが得意不得意がある 不得意な分野だと誤識別率10%が9.5%になったとか、そんなレベルでしか改善されない だったら0.5%は捨ててもっと使いやすい手法を使ったほうがよい あとdeep learningのハイパーパラメータチューニングはグリッドサーチよりランダムサンプリングがよいという話がある http://conditional.github.io/blog/2013/09/22/practical-recommendations-for-gradient-based-training-of-deep-architectures/ しかし既存のパッケージには実装されてないのでランダムサンプリング部分は自分で書く必要がある random forestはtuneRFでチューニングするだけでいいよ ていうか一つの手法にこだわるより複数の手法を試して、場合によっては多数決とかしたほうがよい
|
- 【統計分析】機械学習・データマイニング4
105 :デフォルトの名無しさん[sage]:2014/08/27(水) 23:09:34.38 ID:KHfeegfr - 論文を書く必要がある研究者以外は中身知る必要ないんだよ
それ以外でグダグダ言ってるのはお勉強が無駄になって悲しいガリ勉君のポジショントークだから
|