Knowledge Distillation 등장 이유?
아래의 두 모델 이 있을때
- 복잡한 모델 T : 예측 정확도 99% + 예측 소요 시간 3시간
- 단순한 모델 S : 예측 정확도 90% + 예측 소요 시간 3분
복잡한 모델 T가 학습한 generalization 능력을 단순한 모델 S에 전달 해주는 것
Knowledge Distillation 등장 시기?
Knowledge Distillation 하는 방법?
*cumbersome model: 크고 복잡하고 학습이 잘 된 고성능 모델
Distilling the Knowledge in a Neural Network
Abstract
- 머신러닝 알고리즘의 성능을 향상시키는 가장 쉬운 방법은 같은 데이터셋에 수많은 다른 모델들을 학습시키고, 예측값을 평균내는 방법임
- 지식을 Distillation 하는 방법으로 모델의 앙상블 효과를 하나의 모델로 전이 가능함
'**Autonomous driving tech.' 카테고리의 다른 글
| 컴퓨터 비전과 디지털 영상 이해 (0) | 2025.07.21 |
|---|---|
| 07.08. Webinar with KANG Min-gyu (0) | 2025.07.08 |
| [Python] 07.06 (일) 공부내용 (0) | 2025.07.06 |
| ~정리 필요~ 다중시점기하학 (0) | 2025.06.08 |
| Regularization vs Normalization, Dropout, 도메인의 개념, 멀티스케일?, 디스크립터? (0) | 2025.06.07 |