상세 컨텐츠

본문 제목

L1 and L2 Regularisation

AWS Certified Machine Learning Specialty

by Taeyoon.Kim.DS 2023. 10. 30. 01:51

본문

ML에서 오버피팅을 막아준다.

L1: 전체 가중치의 합

L2: 전체 가중치의 합에 루트

몇몇 아이디어는 손실 함수에도 적용될 수 있다.

L1은 전체 피쳐들을 0으로 만드는 것이고 L2는 몇몇 피쳐들을 남기는 것이다. 100개의 피쳐중에서 10개의 피쳐만 유의미해서 남기고 싶다 - coefficients가 없는 피쳐들로만. 

 

 

관련글 더보기