
앙상블 학습은 두 개 이상의 모델을 생성하고 결합함으로써 예측에 대한 합의에 도달하는 방법입니다. 앙상블 학습을 활용하는 2가지 이유1. 앙상블 학습 프레임워크는 앙상블을 구성하는 개별 모델보다 더욱 견고하다.2. 예측 오차의 분산이 감소한다. 앙상블 학습이 유용한 경우1. "최적의" 모델을 선택할 수 없음데이터 세트의 일부 분포에서는 서로 다른 모델이 나은 성능을 보이는 상황이 발생할 수 있습니다. 2. 데이터의 초과/부족많은 양의 데이터가 있는 경우, 하나의 모델을 대량의 데이터로 훈련하는 대신, 분류 작업을 여러 모델에 나누어 분산시키고 예측 시간 동안 앙상블할 수 있습니다.반면, 사용 가능한 데이터가 작은 경우, *Bootstrapping 전략을 사용할 수 있습니다. * Bootstrap: 데이터..
문과생이 이해하는 개발의 길 🚀/MLOps
2025. 4. 9. 19:54