본문 바로가기
반응형

논문 정리42

Improving Object Detection with Selective Self-Supervised Self-Training https://arxiv.org/pdf/2007.09162.pdf The paper proposes a novel learning method called selective self-supervised self-training to improve object detection by leveraging diverse Web images and rectifying the supervision signals in Web images using a selective net, achieving state-of-the-art results on detecting different object classes. Key insights: Image-to-image search is an effective method f.. 2023. 3. 17.
Towards Adversarially Robust Object Detection https://arxiv.org/pdf/1907.10310.pdf Arixv GPT The paper "Towards Adversarially Robust Object Detection" proposes an adversarial training approach to improve the robustness of object detection models against adversarial attacks, and verifies its effectiveness through extensive experiments on PASCAL-VOC and MS-COCO datasets. Key insights and lessons learned: Object detection models are vulnerable.. 2023. 3. 16.
Benchmarking Robustness in Object Detection: Autonomous Driving when Winter is Coming https://arxiv.org/pdf/1907.07484.pdf Arixv GPT Summary The paper "Benchmarking Robustness in Object Detection: Autonomous Driving when Winter is Coming" presents a benchmark to evaluate object detection models' performance under various image corruptions and weather conditions, crucial for real-orld applications like autonomous driving. The authors provide three benchmark datasets with a large v.. 2023. 3. 16.
Model Summary (NLP) NLP version : 2023.03.14 - [논문 정리] - PFMs for Natural Language Processing Transformer - self-attention 방법을 제안한 최초의 논문 - Encoder에선 sequence 를 vector로 encoding, Decoder에선 이를 auto-regressive 하게 각 단어에 대한 확률로 반환 - auto-regressive 한 Decoder로 인해 이전 또는 이후 정보만 사용하고, 이전-이후 정보를 동시에 사용할 수 없기 때문에 문맥에 대한 이해가 부족하다는 단점이 존재 GPT & GPT-2 - Transformer Decoder를 12개 쌓음 (GPT-2 는 decoder를 48개로 쌓음) - auto-regressive 방식.. 2023. 3. 15.
PFMs for Natural Language Processing 본 글은 A comprehensive Survey on Pretrained Foundation Models : A History from BERT to ChatGPT 논문을 참고하여 작성한 글입니다. PFM ( Pretrained Foundation Model) 은 pretraining 기술에 기반을 두고 있는 모델로 많은 양의 데이터와 task를 학습하여 쉽게 fine-tuning 하여 일반적인 모델로 훈련할 수 있는 것에 목적을 둔 모델이다. 최근 각광받고 있는 ChatGPT도 이에 대한 일종이다. 따라서 이러한 모델들이 AI 분야의 전반적으로 널리 쓰이고 있으며 본 장에서는 NLP에서의 PFM을 알아보도록 한다. NLP task에서 현재 주로 연구되는 분야는 다음과 같다. (기타 포함) 1. Nam.. 2023. 3. 14.
[Task 파악] Phrase Grounding & Weakly Supervised learning [Phrase Grounding] Phrase Grounding을 구글 번역에 치면 "구문 접지" 이런 식으로 나오는데, 무슨 말인지 모르겠다. 따라서 paperwithcodes 의 설명을 이용하여 정리하면 Given an image and a corresponding caption, the Phrase Grounding task aims to ground each entity mentioned by a noun phrase in the caption to a region in the image. 라고 표현되어 있다.한국말로 해석하면, image와 그에 해당하는 caption (이미지를 설명하는 text)가 두개 다 주어진다면, Pharse Grounding 분야는 caption에 있는 명사구에 해당하는.. 2022. 11. 10.
반응형