トップページ > プログラム > 2014年08月27日 > KHfeegfr

書き込み順位&時間帯一覧

30 位/199 ID中時間01234567891011121314151617181920212223Total
書き込み数0000010000000001000000013



使用した名前一覧書き込んだスレッド一覧
デフォルトの名無しさん
【統計分析】機械学習・データマイニング4

書き込みレス一覧

【統計分析】機械学習・データマイニング4
84 :デフォルトの名無しさん[sage]:2014/08/27(水) 05:12:01.16 ID:KHfeegfr
>>80
俺の経験上だけどdeep learningは画像データみたいにfeatureベクトルの次元間に強い相関があるような場合
じゃないとそこまで大した性能は出ないよ。
しかもめちゃくちゃ大量にあるハイパーパラメータをどうチューニングするのかでとても頭を悩ませる。
なので仕事で使うときは結局random forestばっか使ってるよ。
random forestはあんまハイパーパラメータチューニングしなくてもそこそこ性能出ちゃうし
OOBエラーとかvariable importanceとか出せて使い勝手いいし
【統計分析】機械学習・データマイニング4
88 :デフォルトの名無しさん[sage]:2014/08/27(水) 15:51:13.75 ID:KHfeegfr
>>86
deep learningは現時点では最強に近い手法かもしれないが得意不得意がある
不得意な分野だと誤識別率10%が9.5%になったとか、そんなレベルでしか改善されない
だったら0.5%は捨ててもっと使いやすい手法を使ったほうがよい

あとdeep learningのハイパーパラメータチューニングはグリッドサーチよりランダムサンプリングがよいという話がある
http://conditional.github.io/blog/2013/09/22/practical-recommendations-for-gradient-based-training-of-deep-architectures/
しかし既存のパッケージには実装されてないのでランダムサンプリング部分は自分で書く必要がある

random forestはtuneRFでチューニングするだけでいいよ
ていうか一つの手法にこだわるより複数の手法を試して、場合によっては多数決とかしたほうがよい
【統計分析】機械学習・データマイニング4
105 :デフォルトの名無しさん[sage]:2014/08/27(水) 23:09:34.38 ID:KHfeegfr
論文を書く必要がある研究者以外は中身知る必要ないんだよ
それ以外でグダグダ言ってるのはお勉強が無駄になって悲しいガリ勉君のポジショントークだから


※このページは、『2ちゃんねる』の書き込みを基に自動生成したものです。オリジナルはリンク先の2ちゃんねるの書き込みです。
※このサイトでオリジナルの書き込みについては対応できません。
※何か問題のある場合はメールをしてください。対応します。