3. LaRva Team
김성동
● LM 기반 Text
생성 ● LM, Transfer learning
● Dialogue model
● NLU
● Big NLP 모델 학습
● 분산학습 ● CLaF: Clova
Language Framework
(ㄱㄴㄷ순)
김한주
김민정
김규완
김성동
이동준
7. LaRva Factory
Data Collection
Build vocab
/
Preprocessing
Downstream task
● Single sentence
Classification
● Sentence Pair Classification
● Question Answering
● Sequence Tagging
● ...
Pre-training
- On-the-fly preprocessing
- Various training setting
- Half-Precision training
- Distributed training
8. LaRva Factory
Pipeline
Benchmark server
1. 매 K Step 마다 Storage server에
체크포인트 업로드
2. Trigger를 통해 Downstream task 전부
돌리기
3. Benchmark Server에 성능 업데이트!
Storage server
x N
Run Fine-tuning
Report
best score
9. LaRva Factory
Pipeline
Benchmark server
1. 매 K Step 마다 Storage server에
체크포인트 업로드
2. Trigger를 통해 Downstream task 전부
돌리기
3. Benchmark Server에 성능 업데이트!
4. 괜찮은 모델이 나오면…
Submit 준비해보자!!
Storage server
x N
Run Fine-tuning
Report
best score
KorQuAD
괜찮은거
하나
나왔어요~
F1: 94.21
14. 효과적이였던 방법론들!
Fine-tuning: Data Augmentation
https://arxiv.org/pdf/1810.04805.pdf
KorQuAD 형식의
데이터들
(1 Epoch)
KorQuAD v1.0 Train set
15. 효과적이였던 방법론들!
Fine-tuning: Data Augmentation
https://arxiv.org/pdf/1810.04805.pdf
KorQuAD 형식의
데이터들
(1 Epoch)
KorQuAD v1.0 Train set
기존 데이터만 사용대비
F1 기준, 0.5 정도 상승!
17. 효과적이였던 방법론들!
CLaF: Tokenizer
Passage Passage
doc_stride: 64
[UNK]
[UNK]
https://github.com/naver/claf
SentTokenizer
No [UNK]!
F1 기준, 0.5 정도 상승!
(Dev Set - Test Set Gap 감소)