paper code

참고글 출처 https://littlefoxdiary.tistory.com/65

개요

성능은 좋지만 무거운 BERT_large, 다이어트 시켜보자!

MobileBERT는 원래 모델과 마찬가지로 fine-tuning을 통해 어떠한 NLP 태스크에도 적용 가능하다.

성능 & 모델 사이즈 측면에서

- BERT_base보다 4.3배 작으면서 5.5배 빠른 모델을 확보

모델 개요