- 【AIコラ】fakeapp その1【革命】 [無断転載禁止]©bbspink.com
263 :/名無しさん[1-30].jpg[sage]:2018/02/24(土) 01:55:26.34 ID:lclGN7kX0 - >>262
A→Bの場合、右側のプレビューが変なのは気にしないで いいような希ガス。 単にA側のサンプルにBのサンプルと同じような角度が 見つけられなかったってだけで、むしろBのサンプル多い 方が使いまわし効くんじゃないか? まだ満足のいくものがちゃんとできてない俺が言うのも なんだがw
|
- 【AIコラ】fakeapp その1【革命】 [無断転載禁止]©bbspink.com
266 :/名無しさん[1-30].jpg[]:2018/02/24(土) 12:56:28.05 ID:lclGN7kX0 - >>264 その認識でいいと思う。
https://www.deepfakes.club/tutorial/#Step_2_Training に The first six columns show face A being transformed into face B, and vice versa for the last six columns. Within each group of three images, the leftmost is the original image, the middle image is the model trying to redraw the original image, and the rightmost is the predicted transformation. ってあるので、左側はA→A'→Bへの変換予測 っていうことで、 右半分はその逆で。
|
- 【AIコラ】fakeapp その1【革命】 [無断転載禁止]©bbspink.com
270 :/名無しさん[1-30].jpg[sage]:2018/02/24(土) 21:49:35.92 ID:lclGN7kX0 - >>268
FakeApp限定の知識ではないが知ってる範囲で。もし間違ってたら突っ込みよろ。 1.学習結果を書きだす頻度。ほとんど落ちないんだったら大きめに よく落ちたり中断させたりするんだったら小さめに 2.GAN ttps://elix-tech.github.io/ja/2017/02/06/gan.html でもFakeAppでは実装されてないってどっかで読んだ希ガス。使えるんだったら 試してみてもいいかもね。使ったことないから効果のほどは知らない 3.大きくするメリット ・学習速度が上がる ・個々のサンプルへの反応を下げることができる →ノイズに惑わされない→lossの揺れ幅が小さくなる 逆に小さくするメリットは ・メモリの消費量が少ない ぐらいしか思いつかない。VRAM足りなくて落ちるんだったら必然的に小さくなるけど。 4.認識に相違なし
|
- 【AIコラ】fakeapp その1【革命】 [無断転載禁止]©bbspink.com
271 :/名無しさん[1-30].jpg[sage]:2018/02/24(土) 21:52:41.55 ID:lclGN7kX0 - ところで、実行中にカスペル先生がファイル勝手に削除するように
なったんだが。 安心して使えるバージョンどこにあるか知ってる人いますか? 非マイニングバージョンだと嬉しい
|
- 【AIコラ】fakeapp その1【革命】 [無断転載禁止]©bbspink.com
273 :/名無しさん[1-30].jpg[sage]:2018/02/24(土) 23:06:52.97 ID:lclGN7kX0 - >>272
なるほどねー。前後の文脈が分からないので何とも言えないけど、 ・ノード数とバッチサイズどっちを優先するか ・バッチサイズが大きすぎると過学習が起きるかもしれない というあたりかもしれん。このあたりは確かにリソースの問題 だけでなく大きければいいとは言いきれなくて最適な値が どっかにあるかも。というわけで 今後ノウハウの蓄積や試行錯誤でバッチサイズの最適値 が判ってくるようになるんじゃない? ぐらいに270を訂正。でもサンプル量や質によって最適値変わり そうな気もする。ごめんよ中途半端な知識で。
|