Cycle-Consistent Adversarial Networksを用いた画像のスタイル変換

敵対的生成ネットワークによる画像中の人体の教師なし姿勢変換

岸本悠斗

本研究では、Cycle-Consistent Adversarial Networks(CycleGAN)と呼ばれるニューラルネットを用いて画像の画風を変換するスタイル変換について検討した。
CycleGANのネットワークは、入力画像が本物か偽物かを識別するDiscriminatorと呼ばれるネットワークと、入力画像を別の画像の画風に変換するGeneratorと呼ばれるネットワークを2つずつ有している。 変換の質を落とさずに学習時間を削減するために、学習データの入力方法やGeneratorの構造の改良を試みた。実験の結果、変換後の画質が悪くなるものの、学習時間を削減できることがわかった。

優秀プレゼンテーション賞(2020年度)