본문 바로가기
반응형

논문 정리42

Image Generation 정리(1) ## GAN [NIPS 2015] https://bigdata-analyst.tistory.com/264?category=883085 Generative Adversarial Nets(GAN) 원 논문 arxiv.org/pdf/1406.2661.pdf 참고 자료 www.youtube.com/watch?v=AVvlDmhHgC4 나동빈님의 유튜브를 참고하여 진행하였는데 정말 갓동빈님이시다...설명을 이렇게 쉽게 해주시는 분은 거의 처음본다..역시. bigdata-analyst.tistory.com https://arxiv.org/abs/1406.2661 GAN은 Generator와 Discriminator로 서로 다른 2개의 network로 이뤄지고 이 두 network를 adverarial 하게 학습시켜 .. 2022. 6. 19.
HVPS : A Human Video Panoptic Segmentation Framework Panoptic Segmentation : Instance Segmenation + Semantic Segmentation - Instance Segmentation : Object 대로 사진 분할( 객체의 아이디가 존재) - Semantic Segmentation : 의미대로 사진 분할 ( 객체의 아이디가 존재하지 않음 ) , 배경포함 - Panoptic Segmenation : 의미대로 사진을 분류하고 (배경 포함) 거기에 있는 Object들의 id도 부여해서 pixel 단위로 segmentation 수행 https://motchallenge.net/workshops/bmtt2021/reports/motcha_uw_etri.pdf # Introduction 본 모델은 두가지 step으로 진행된다. 1.. 2022. 5. 30.
MOTS : Multi-Object Tracking and Segmentation https://openaccess.thecvf.com/content_CVPR_2019/papers/Voigtlaender_MOTS_Multi-Object_Tracking_and_Segmentation_CVPR_2019_paper.pdf ## Abstract MOT(Multi Object Tracking) 과 Segmentation을 합쳐서 픽셀 단위의 tracking을 이뤄내는 논문이다. 이를 위해 새로운 annotation을 이뤄냈다. 평가를 위해 새로운 MOT의 metric에서 확장을 하였다. 본 논문에선 단일 모델을 통해 Detection + Segmentation + Tracking을 하는 모델 제안한다. ## Introduction 현재 Segmentation과 Tracking은 좋은 성능을 보.. 2022. 5. 30.
StyleCLIP: Text-Driven Manipulation of StyleGAN Imagery https://www.youtube.com/watch?v=hFC7DSh9RIw 본 글은 나동빈님의 유튜브를 참조하여 작성하였습니다. - Base 논문 : StyleGAN (StyleGAN 리뷰) 2021.05.09 - [논문 정리] - A Style Based Generator Architecture for Generative Adversarial Networks(StyleGAN) A Style Based Generator Architecture for Generative Adversarial Networks(StyleGAN) 원 논문 : arxiv.org/abs/1812.04948 A Style-Based Generator Architecture for Generative Adversarial Netw.. 2021. 11. 11.
Sequence to Sequence Learning with Neural Networks(Seq2Seq) https://www.youtube.com/watch?v=4DzKM0vgG1Y 나동빈님 유튜브를 바탕으로 리뷰하였습니다. Seq2Seq는 현재 Transformer에 밀려 잘 사용되진 않지만 NLP의 기초를 공부하기 위해서 이 논문을 리뷰한다. ## seq2seq seq2seq 모델은 LSTM을 활용한 효율적인 seq2seq 기계번역 아키텍쳐이다. 기존(seq2seq가 나오기 전)엔 딥러닝을 활용한 기계번역보다 통계적인 방법을 활용한 번역을 더 많이 사용하였다. 그러나 seq2seq 가 나옴으로써 딥러닝을 활용한 기계번역 연구에 불을 지폈다. seq2seq의 간단한 동작 과정은 다음과 같다. encoder와 decoder로 구성이 되어있고 context vector \(v\)를 활용한다. seq2seq는.. 2021. 11. 1.
Neural Sign Language Translation based on Human Keypoint Estimation KETI에서 쓴 논문이다. 우리나라의 수화 영상 데이터셋을 구축하고, 이를 keypoint 기반으로 번역하는 알고리즘을 구축하였다. # Abstract - 본 논문은 Human Keypoint 추정 기반의 SLT(수화 번역) 알고리즘을 제안함 - KETI dataset 소개 (11578 개의 비디오) - 얼굴, 손, 몸에 대한 keypoint를 추출 - human keypoint vector는 keypoint의 평균과 표준편차로 normalization 수행 - sequence to sequence 모델을 베이스로 번역 진행 ( 모델 설명 : https://blog.naver.com/sooftware/221784419691) - training 하는 dataset이 작아도 robust한 결과를 얻는다. .. 2021. 9. 16.
반응형