본문 바로가기
반응형

논문 정리42

Denoising Diffusion Probabilistic Models(DDPM) https://arxiv.org/abs/2006.11239 Denoising Diffusion Probabilistic Models We present high quality image synthesis results using diffusion probabilistic models, a class of latent variable models inspired by considerations from nonequilibrium thermodynamics. Our best results are obtained by training on a weighted variational bound arxiv.org 요즘 핫한 Diffusion model에 대해 알아보도록 하자. 본 포스팅은 https://www.yo.. 2022. 11. 8.
Zero-shot Learning 본 설명은 https://www.youtube.com/watch?v=7uAszeiLE2w 자료를 참고하여 정리하였습니다. # Introduction Deep Learning은 여러 분야에서 좋은 성능을 내는 바탕에는 막대한 데이터의 양이 있다. 실제로 데이터의 수에 비례하여 딥러닝이 가장 큰 Performance를 낸다. 그러나 현실에서는 정답 label이 함께 존재하지 않는 데이터가 훨씬 많고, label을 지정하는데 시간과 비용에 따른 제약이 많다. 따라서 label이 존재하지 않는 데이터에서 해당 카테고리의 데이터를 올바르게 예측하는 것은 매우 중요하다. 그래서 이를 풀기 위해선 zero-shot learning을 사용한다. # Zero-shot Learning zero shot learning이란.. 2022. 9. 5.
Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Photo-Realistic Sign Language Production (CVPR2022) https://openaccess.thecvf.com/content/CVPR2022/html/Saunders_Signing_at_Scale_Learning_to_Co-Articulate_Signs_for_Large-Scale_Photo-Realistic_CVPR_2022_paper.html CVPR 2022 Open Access Repository Signing at Scale: Learning to Co-Articulate Signs for Large-Scale Photo-Realistic Sign Language Production Ben Saunders, Necati Cihan Camgoz, Richard Bowden; Proceedings of the IEEE/CVF Conference on Co.. 2022. 8. 23.
Taming Transformers for High Resolution Image Synthesis (VQGAN) https://arxiv.org/abs/2012.09841 Taming Transformers for High-Resolution Image Synthesis Designed to learn long-range interactions on sequential data, transformers continue to show state-of-the-art results on a wide variety of tasks. In contrast to CNNs, they contain no inductive bias that prioritizes local interactions. This makes them expres arxiv.org ## Background 본 논문에 들어가기 앞서 Background 지식을.. 2022. 7. 28.
Attention is all you need https://www.youtube.com/watch?v=AA621UofTUA&t=192s 나동빈님 강의를 기반으로 설명을 진행한다. Seq2Seq 는 하나의 context vector가 source sentence(input)의 모든 정보를 가지고 있어야하므로 bottleneck이 발생한다. 따라서 이로 인해 성능 저하가 일어난다. 따라서 이를 해결하기 위해 source sentence에서의 output 값 전부를 input으로 받는다. 따라서 고정된 크기의 context vector로 압축하는 것이 아니라 이를 입력값으로 다시 처리해주면서 출력단어를 만들면 더욱 성능이 좋아진다는 것이다. Seq2Seq 포스팅 2021.11.01 - [논문 정리] - Sequence to Sequence Learnin.. 2022. 7. 12.
Image Generation 정리 (2) 2022.06.19 - [논문 정리] - Image Generation 정리(1) Image Generation 정리(1) ## GAN [NIPS 2015] https://bigdata-analyst.tistory.com/264?category=883085 Generative Adversarial Nets(GAN) 원 논문 arxiv.org/pdf/1406.2661.pdf 참고 자료 www.youtube.com/watch?v=AVvlDmhHgC4 나동빈님.. bigdata-analyst.tistory.com ## Least Squares Generative Adversarial Networks [ICCV 2017] GAN의 loss function은 discriminator에서 sigmoid cross-.. 2022. 6. 23.
반응형