세로형
Link
08-13 09:49
«   2022/08   »
  1 2 3 4 5 6
7 8 9 10 11 12 13
14 15 16 17 18 19 20
21 22 23 24 25 26 27
28 29 30 31      
Archives
Today
189
Total
2,363,041
관리 메뉴

꿈 많은 사람의 이야기

nlp ALBERT 논문 정리(논문 리뷰) - A Lite BERT for Self-supervised Learning of Language Representations 본문

deep learning(딥러닝)

nlp ALBERT 논문 정리(논문 리뷰) - A Lite BERT for Self-supervised Learning of Language Representations

이수진의 블로그 2021. 11. 8. 09:40

포스팅 개요

이번 포스팅은 자연어처리(NLP) 논문 중 A Lite BERT for Self-supervised Learning of Language Representations라는 논문을 리뷰하는 포스팅입니다. 본 논문은 NLP논문에서 ALBERT라고 많이 알려진 논문입니다. 앞서 GPT, BERT, RoBERTa 논문 리뷰에 이어서 진행하는 자연어처리 논문 시리즈 다섯 번 째 포스팅입니다.

 

추가로 해당 포스팅의 내용은 제가 진행하는 사내 자연어처리 스터디에서 발표한 자료를 블로그로 정리한 자료임을 알려드립니다.

 

자연어처리 논문 리뷰는 아래와 같은 순서로 할 예정이며 이번 포스팅은 그 다섯 번 째 ALBERT 논문입니다.

 

  1. GPT-1 (https://lsjsj92.tistory.com/617)
  2. BERT (https://lsjsj92.tistory.com/618)
  3. GPT-2 (https://lsjsj92.tistory.com/620)
  4. RoBERTa ( https://lsjsj92.tistory.com/626 )
  5. ALBERT
  6. ELECTRA ( https://lsjsj92.tistory.com/629 )

참고한 자료는 아래와 같습니다.


포스팅 본문

 ALBERT 논문 리뷰는 아래와 같은 순서로 진행합니다.

1. ALBERT 핵심 요약

2. ALBERT 논문 리뷰


ALBERT 핵심 요약

Network pretraining

Language representation learning에서 큰 발전을 이룸

성능 개선을 위해 했던 방법은 Model Distill

Large networktraining 하고 distill them down to smaller ones for real applications

 

Large Network의 문제점

Memory Limitation

모델의 크기가 커짐에 따라서 Out of Memory(OOM)이 발생

Training time

학습하는데 시간이 오래 걸림

 

ALBERT에서 제시하고자 하는 것

Factorized Embedding Parameterization

    • 기존 BERT : Vocab Embedding X Hidden Embedding. => E(또는 V) x H

    • ALBERT : Vocab Embedding x E, E x Hidden 2가지 matrixdecomposing을 진행

        • ALBERT에서는 Input Embedding H보다 작게 설정

        • Input embeddingtoken의 정보를 담고 있음

        • Hidden outputtransformer에서 학습된 contextualized representation 결과

 

Cross layer parameter sharing

        • Transformer layer끼리 parameter 공유

        • Shared-attention, all-shared 등의 방법

 

Sentence Order Prediction(SOP)

    • BERT에서는 Next Sentence Prediction(NSP)

        • 너무 쉽다

        • Sentence 간에 연관 관계를 학습하는 것이 아닌 같은 topic인지 보는 topic prediction에 가까움

    • 이를 보완하기 위해 SOP 도입

        • 두 문장의 순서를 바꿈

        • 문장의 순서가 올바른지 예측

 

ALBERT는 이렇게 요약할 수 있습니다. 이제 논문을 리뷰합니다.


ALBERT 논문 리뷰

Introduction 

Pre-training network

Language representation 효과 검증

Large networkSOTA performance에 중요

 

Distillation

Pre-train large model을 진행

이후 distill down to smaller ones

 

의문 제기

큰 모델을 사용하면 더 좋은 NLP 모델을 만들 수 있나?

Training speedmemory limitation 문제가 장애물로 걸림

ALBERT의 문제 접근

memory limitation problem

Training time

 

Two parameter reduction 접근

Factorized embedding parameterization

Decomposing large vocab embedding

   -> two small matrices

Cross-layer parameter sharing

    • Parameter 보호

이 두 방법은 아래와 같은 장점

    • reduce the number of parameter

        • Without seriously hurting performance

        • Improving parameter-efficiency

    • More faster

 

Sentence Order Prediction(SOP) 접근

Sentence Ordering Objectives

    • 두 문장의 연속 순서를 결정하기 위한 학습

    • BERT보다 더 어렵고 downstream task에서 더 유용함

 

Related work 

지난 모델들이 특정 Size에서 멈춘 이유

계산 비용이 비쌈(computation cost problem)

메모리 한계(Easily hit memory limit)

 

SOP에 대한 설명도 있으나 위에 작성한 관계로 넘어갑니다.

 

The Elements of ALBERT 

반응형

Factorized Embedding Parameterization

기존 방법들은 EH 같음

    • E : input token embedding

    • H : Hidden size

Model 관점에서 EH

    • E

        • Token에 대한 Embedding

        • Context independent

    • H

        • Hidden layer에 대한 output

        • Token의 주변 관계까지 파악된 Embedding

        • Context Dependent

    • 따라서 HE보다 큰 것이 의미가 있음

Vocabulary size (V)에 따라 matrix 크기가 커짐

    • V x E

    • 30000 * 768 = 23,040,000

그래서 factorization embedding parameter 이용

    • Decomposing two smaller matrices

    • (VxE) + (ExH) 형태

    • 파라미터 수를 줄일 수 있음

    • (30000 * 128) + (128 * 768)= 3,938,304

오른쪽 그림 : https://arxiv.org/pdf/1807.03819.pdf

Cross-layer parameter sharing

Factorization 보다 더 많은 parameter 감소에 기여

Transformer layerparameter 공유

    • 성능이 크게 저하되지 않으면서 parameter는 크게 감소

All parameters share default로 가지고 감

BERTALBERTL2 distance, cosine similarity 비교

    • layerinput, output 유사도

    • BERT는 진동함

    • ALBERT는 수렴하는 모습

        • , weight sharingnetwork 안정화에 기여

 

Inter-sentence coherence loss

BERT

    • Masked Language Model(MLM)

    • Next Sentence Prediction(NSP) 사용

후속 연구

    • NSP 신뢰할 수 없다고 판단하고 제거하기 시작

    • NSP는 어렵지 않은 task이기 때문

NSP

    • Topic prediction과 일관성(결합성, coherence) 예측 반영

    • Topic predictioncoherence 보다 쉬움

    • MLM loss와 겹침

따라서!

    • Topic prediction을 피하고 inter-sentence coherencefocus

    • Positive : 순서가 일치한 연속 문장

    • Negative: 순서를 swap

    • NSPSOP 풀 수 없음

    • SOPNSP 풀 수 있음

300x250

Model setup

ALBERTBERT보다 더 작은 파라미터

ALBERT-xxlarge 이용

    • 24layer가 아닌 12layer

    • 24 layer12layer는 성능 차이가 크지 않음

    • 그러나 24 layer는 계산 비용(computation cost)가 더 비쌈

Experimental result 

Experimental setup

16GB 데이터

    • Bookcorpus, English wikipedia

Maximum 길이 512

Vocab size 30,000

Sentencepiece 사용

N-gram mask 사용

 

Comparison between BERT and ALBERT

ALBERT-xxlarge

    • BERT-large70%파라미터만 사용

    • BERT-large보다 더 좋은 성능 달성

Speed of Data Throughput

    • Less communication and fewer computations

        • ALBERTBERT보다 higher data throughput

    • Large끼리 비교했을 때 1.7배 빠름

    • xxlarge3배 더 느림

        • Structure가 크기 때문

Factorized Embedding Parameterization

Vocab Embedding size E에 따른 성능

Non-shared condition(BERT)

    • Larger embedding이 좋은 성능

    • 그러나 크게 좋진 않음

All-shared condition(ALBERT)

    • 128 sizebest

    • 이후 셋팅도 128 size

 

Cross layer parameter sharing

E = 768, 128 2가지

4가지 전략

    • All-shared strategy(ALBERT style)

    • Not-sharing (BERT style)

    • Only the attention

    • Only FFN parameters share

All shared 방법

    • Hurts performance both condition

    • 하지만, 크게 저하 되지 않음

    • ALBERT Style

FFN

    • 성능 저하의 대부분은 여기서 나옴

Attention

    • 떨어지지 않거나 약간만 떨어짐

 

Sentence order prediction(SOP)

3가지 실험

    • None(XLNet, RoBERTa style)

    • NSP(BERT style)

    • SOP(ALBERT-style)

NSP

    • SOP 해결할 수 없음

    • Topic shift 모델링

SOP

    • NSP 해결할 수 있음

    • Downstream task performance에도 영향

Train with same amount of time

Longer training은 좋은 성능을 이끌어 냄

데이터 처리량(number of training steps)을 제어하는 대신

    • Actual training timecontrol해 비교

BERT large model

    • 400k training step34시간

ALBERT-xxlarge model

    • 125k training step32시간

    • 대략 비슷함

    • BERT보다 더 좋은 성능이 나옴

 

Add training data, Dropout effect

데이터를 추가로 더하고, 더하지 않은 것을 비교

    • 더한 것이 더 좋음

Largest model은 여전히 not overfit

    • 따라서 dropout을 제거하기로 결심함

        • Model capacity 늘리기 위해

Dropout 제거

    • 제거 후 더 나은 성능을 보여줌

    • 경험, 이론적으로 CNN에선 안 좋다고 증명

        • Batch normalization and dropout combination

    • Large Transformer-based model에선 첫 사례임

        • 그러나, ALBERT는 특수한 케이스이고 더 실험이 필요

 

Task에 따른 성능 결과

Discussion 

ALBERT-xxlarge

BERT-large보다 더 적은 파라미터 및 더 좋은 성능

Larger structure 때문에 계산 비용이 더 비쌈

Next stepALBERTtraining and inference speed 올리는 것

Sentence Order Prediction이 더 좋다는 것을 보여 줌

반응형
그리드형
0 Comments
댓글쓰기 폼