Tagged

생성모델

A collection of 3 posts

[GAN 시리즈][DCLGAN] Dual Contrastive Learning for Unsupervised Image-to-Image Translation - 1편
논문리뷰

[GAN 시리즈][DCLGAN] Dual Contrastive Learning for Unsupervised Image-to-Image Translation - 1편

Abstract Unsupervised image-to-image translation 개념 Unsupervised image-to-image translation tasks는 unpaired train data에서 source domain X와 target domain Y 간의 매핑(mapping)을 찾는걸 목표로 하는 task 입니다. CUT(Contrastive Learning for unpaired image-to-image Translation) Contrastive Learning for unpaired image-to-image Translation은 두개의 도메인 (X, Y) 모두에 대해 하나의 Encoder만 사용하여 입력

[GAN 시리즈][StyleGAN] A Style-Based Generator Architecture for Generative Adversarial Networks -2편
논문 리뷰

[GAN 시리즈][StyleGAN] A Style-Based Generator Architecture for Generative Adversarial Networks -2편

StyleGAN은 PGGAN 구조에서 Style transfer 개념을 적용하여 generator architetcture를 재구성 한 논문입니다. 그로 인하여 PGGAN에서 불가능 했던 style을 scale-specific control이 가능하게 되었습니다. Paper 원문: StyleGAN: A Style-Based Generator Architecture for Generative Adversarial Networks StyleGAN official code(Tensorflow): https://github.com/NVlabs/stylegan 본 포스팅은 StyleGAN 2편으로 StyleGAN 1편을 읽고 오시면

[GAN 시리즈][StyleGAN] A Style-Based Generator Architecture for Generative Adversarial Networks -1편
논문리뷰

[GAN 시리즈][StyleGAN] A Style-Based Generator Architecture for Generative Adversarial Networks -1편

StyleGAN은 PGGAN 구조에서 Style transfer 개념을 적용하여 generator architetcture를 재구성 한 논문입니다. 그로 인하여 PGGAN에서 불가능 했던 style을 scale-specific control이 가능하게 되었습니다. Paper 원문: StyleGAN: A Style-Based Generator Architecture for Generative Adversarial Networks StyleGAN official code(Tensorflow): https://github.com/NVlabs/stylegan 1. Abstract [제안한 네트워크] Style transfer 문헌에서 차용한

s