- 【AIコラ】fakeapp その12【革命】©bbspink.com
452 :/名無しさん[1-30].jpg[sage]:2020/02/11(火) 10:25:45.73 ID:n/xqevtk0 - >>451
畳込みで端っこのpixelを特徴抽出するときに、+3とか5pixel分余分にpaddingしてるのが関係してるんだろうね resに関係なく起こるのでまあ要するに気にしなくていいと思う TFでいい効果が得られたことないなあと思いつつ 軽い気持ちで久しぶりにTF入れてみたらやっぱりクリーチャーを生み出してしまった ガイドではrandomwarpしばらくかければリカバリできるよって書いてるけどなかなか治らないな…バックアップ必須
|
- 【AIコラ】fakeapp その12【革命】©bbspink.com
455 :/名無しさん[1-30].jpg[sage]:2020/02/11(火) 10:49:24.60 ID:n/xqevtk0 - >>453
なるほど本当だ 引き延ばされてる部分見ると斜めになってるのでこれぽいね
|
- 【AIコラ】fakeapp その12【革命】©bbspink.com
466 :/名無しさん[1-30].jpg[sage]:2020/02/11(火) 15:16:48.00 ID:n/xqevtk0 - >>456 >>457
0.01にするところ0.1にしてた俺が悪いんだけど TFでクリーチャーができるってのは実際あるんだよね 仕組みはよくわからんけど正面顔なのに横顔に変形してくるとか >>463 素人意見で申し訳ないけども 特定のsrcの学習に特化しないようにNN空間全体を揺らしながら学習するRWと 一定割合(今のコードだと70%)のノード(重み)の更新を止めてより精細化を図るdropoutとは意図が反してるような気はする 効果がでてるならいいような気もするけど
|
- 【AIコラ】fakeapp その12【革命】©bbspink.com
467 :/名無しさん[1-30].jpg[sage]:2020/02/11(火) 15:27:00.13 ID:n/xqevtk0 - >>465
ただのデフォルト設定だと1.0のように似ない、って話はよく見るね俺も同意見 ae_dimが足りない(昔のように512にする)説、 train回数が少ないのでまだ2.0の真の実力が見れていない説、 いろんなsrcやdstを経ることで成長していく説(エイジング的な)、 色々あるけど結論は出ていないように思う
|
- 【AIコラ】fakeapp その12【革命】©bbspink.com
474 :/名無しさん[1-30].jpg[sage]:2020/02/11(火) 16:52:51.73 ID:n/xqevtk0 - >>472
実は昔440でって書いたのは俺なんだけど、きりのいい数字は448なんだよね単なる計算間違い まあどうでもいいんだけどね…ちなみに俺は512でやってます models_opt_on_gpu: Trueかつbatch size:4くらいを確保できるresに落として速度を稼ぐのがいいんじゃないかなと思ってるよ ここらへんは人それぞれかな
|
- 【AIコラ】fakeapp その12【革命】©bbspink.com
484 :/名無しさん[1-30].jpg[sage]:2020/02/11(火) 20:51:29.97 ID:n/xqevtk0 - >>478
これはすごいね! それにbatch2でも回数さえこなせば高品質にはなるのか…希望が持てる >>483 https://mrdeepfakes.com/forums/thread-dfl-2-0-pretrained-models-general-thread-for-user-made-models-and-requests ここらへんのをまず試してみるのは?
|