본문 바로가기
논문 정리

Model Summary (NLP)

by winston1214 2023. 3. 15.
반응형

NLP version :  2023.03.14 - [논문 정리] - PFMs for Natural Language Processing

Transformer

Transformer Architecture

- self-attention 방법을 제안한 최초의 논문

- Encoder에선 sequence 를 vector로 encoding, Decoder에선 이를 auto-regressive 하게 각 단어에 대한 확률로 반환

- auto-regressive 한 Decoder로 인해 이전 또는 이후 정보만 사용하고, 이전-이후 정보를 동시에 사용할 수 없기 때문에 문맥에 대한 이해가 부족하다는 단점이 존재

 

GPT & GPT-2

GPT

- Transformer Decoder를 12개 쌓음 (GPT-2 는 decoder를 48개로 쌓음)

- auto-regressive 방식

- self-supervised 및 supervised fine tuning 방식을 이용함

- GPT-2 에선 multi-task learning을 하는 방법 소개

- multi-task pretraining 과 super-large dataset, super-large 모델로 Transformer의 단점인 문맥 이해를 못하는 것을 극복

 

BERT

BERT

- Contextual LM

- Transformer Encoder를 feature extractor 로 사용

- Word-Peice tokenize 사용

- word embedding, segment embedding, potion embedding 으로 구성

- MLM (Masking LM) 사용하여 bi-directional 한 학습 구조 가지게함

- MLM : 어떤 단어를 masking 하여 이를 예측하고 두 문장이 문맥적으로 맞는지 판단

- NSP (Next Sentence Prediction) 사용하여 두 문장 간의 relationship 파악. 

- bi-directional encoding으로 인해 놓친 token 들은 독립적으로 예측되어서 generation 능력 저하

- 많은 computing power 필요

- MLM 모델은 pretraining 동안만 masking 이 마킹되지 fine tunning 과정에선 되지 않아서 여전히 불일치 문제가 발생

ROBERTa

- contextual LM

- BERT에서 훈련시 많은 training task와 더 큰 corpus 가 필요한 점을 개선

- 더 큰 batch size와 unlabeled data 사용

- 더 오래 훈련

- NSP 제거

- full sentence에 대한 훈련 하여 순서를 학습하도록 

- input sequence 마다 다른 masking 처리를 해주는 BPE (Byte Pair Encoding) 사용 . input sequence가 동시에 들어와도 다르게 처리

XLNET

 

- permuted LM = auto-regressive LM + contextual LM

- auto-regressive LM 과 달리 sequence를 순서대로 모델링하지 않고, sequence의 가능한 모든 순열 (permutation)을 제공

- 모든 위치에 있는 문맥 정보 파악 가능

- Transformer-XL 에 relative positional encoding 과 segment recurrence 결합

- segment recurrence를 통해 긴 문장에 대해서도 permutation을 계산할 수 있는 방법 고안

ELMO

- conceptual LM

- 오직 bi-LSTM 만 사용

- 양방향의 likelihood를 최대화 하는 목적으로 학습

- 문맥 정보를 도입하고, 다의어 문제를 개선

- 언어적 특징을 잘 추출하지 못함

BART

- encoding-decoding 구조의 seq2seq 모델로 noise를 줄인 auto-encoder 모델

- noise를 사용하여 text를 파괴한 뒤, seq2seq 모델로 텍스트 재구성

- noise 의 종류 : single word mask, word deletion, span mask, sentence rearrangement, document rearrangement

- encoder엔 masking 되어서 들어가고 decoder는 이를 복구하는 방식

- BERT Encoder (\(\sim\) Transformer Encoder), GPT Decoder

SpanBERT

SpanBert

- RoBERTa 기반

- dynamic masking , single segment pretraining 

- SBO (Span Boundary Objective) 로 연속된 여러 단어를 masking

UniLM

- 두 문장 간의 다른 mask를 씌움

- 첫번째 문장에선 Transformer Encoder를 사용하여 각 단어가 앞뒤 단어를 알 수 있도록

- 두번째 문장에선 각 단어는 첫번째 문장의 모든 단어와 문장의 앞 단어만 인식할수 있도록

 

ERNIE & ERNIE 2.0

- Transformer Encoder와 task embedding part로 나뉨

- Transformer Encoder에선 self-attention을 통해 각 토큰에 대한 context 정보 추출 , context representation을 ㅇ,ㅁ베딩 하는 용도

- task embedding 에선 다른 task 들의 특성을 적용하는 방식

- ERNIE 2.0 에선 7개의 다른 task를 사용하여 word/ sentence/ semantic level 을 포함.

- continual learning으로 이전에 학습한 정보들을 유지하고 long distance memory 를 유지하게 함

반응형

댓글