ML에서 오버피팅을 막아준다.
L1: 전체 가중치의 합
L2: 전체 가중치의 합에 루트
몇몇 아이디어는 손실 함수에도 적용될 수 있다.
L1은 전체 피쳐들을 0으로 만드는 것이고 L2는 몇몇 피쳐들을 남기는 것이다. 100개의 피쳐중에서 10개의 피쳐만 유의미해서 남기고 싶다 - coefficients가 없는 피쳐들로만.
Linear Learner & XGBoost (0) | 2023.10.30 |
---|---|
SageMaker - Training and Enference Pipeline (0) | 2023.10.30 |
Ensemble Learning (Bagging & Boosting) (0) | 2023.10.30 |
Amazon S3- Bucket Policy (0) | 2023.10.09 |
Amazon S3 Lifecycle Rules (Analytics) (0) | 2023.09.18 |