정리용 블로그
5 분 소요
데이터 수집
최대 1 분 소요
Tranformer 1
Seq2Seq with Attention
1 분 소요
Self-supervised Pre-training Model - BERT
Natural Language Generation with Decoding