일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 | 31 |
- 딥러닝
- Deep Learning for Computer Vision
- michigan university deep learning for computer vision
- 검증 평가 지표
- 서포터즈 촬영
- 머신러닝
- 데이터 분석
- 브라이틱스 분석
- 파이썬 SQL 연동
- Activation Function
- paper review
- 브라이틱스 스태킹
- Brightics EDA
- 비전공자를 위한 데이터 분석
- 브라이틱스 프로젝트
- 범주형 변수 처리
- 브라이틱스 AI
- Random Forest
- 데이터 분석 플랫폼
- pymysql
- 분석 툴
- Brigthics Studio
- 파이썬 내장 그래프
- Brightics 서포터즈
- 삼성 SDS 서포터즈
- Brightics studio
- Python
- 삼성 SDS
- 브라이틱스 서포터즈
- Brightics AI
- Today
- Total
하마가 분석하마
[Regularization model-1] Ridge Regression (2) 본문
[Ridge Regression]
L2-norm regularization : 제곱 오차를 최소화하면서 회귀 계수 Beta의 L2-norm을 제한
[MSE Contour]
MSE를 전개하면 이와 같다.
MSE 식에서 판별식을 구해보자.
MSE 식을 계산하여 판별식에 넣어보면 0보다 작다. 0보다 작다는 것은 '타원'의 형태를 의미한다. 즉, MSE는 타원의 형태를 가진다. 제약조건이 주어질 때 MSE 값의 변화에 따른 타원의 형태를 살펴보자.
최소제곱법은 제약조건이 주어질 때, 그 안에 들어올 수 없다. 따라서 Bias 값을 희생하며 MSE 값을 키워본다. 이 과정은 Variance를 줄이기 위해 행해지며 MSE의 판별식이 0보다 작기에 타원의 형태를 그리며 커진다. MSE 타원이 제약조건과 맞닿을 때 그때의 Beta를 Ridge estimator라고 부른다. Ridge estimator는 제약조건을 만족하며 에러를 최소로 하는 추정량이다. 또한 그림에서 알 수 있듯이 제약조건에 가까워질수록 Beta 값은 작아진다.
[Tuning parameter t값에 따른 B_ridge의 변화]
t 값이 너무 크면 제약을 가하지 않은 것과 같아진다. 제약조건인 t값이 커지면 Beta 제곱들의 합을 이루는 원이 커지며 OLS estimator에 가깝게 된다. 반대로 t값을 매우 작게 하면 Beta 값은 OLS estimator에서 점점 멀어지고 MSE 타원이 커지며 그에 따라 작아진다.
[Ridge Solution]
Ridge는 행렬 연산을 통해 closed form solution을 구할 수 있다.
최소제곱법은 unbiased estimator이다. 그러나 Ridge Solution은 λ(람다)를 더해줬기 때문에 bias estimator이다. Ridge Solution의 Variance가 OLS estimator 보다 작기 때문에 현재 데이터에 대한 설명은 떨어질 수 있으나 새로운 데이터에 대한 예측면에서는 좋다.
'알고리즘' 카테고리의 다른 글
[Regularization model-1] Ridge Regression (1) (0) | 2021.06.02 |
---|---|
[Boosting] 4. XGBoost, Light GBM (0) | 2021.03.20 |
[Bagging] 3. Random Forest-2 (0) | 2021.03.16 |
[Bagging] 3. Random Forest-1 (0) | 2021.03.14 |
[boosting] 2. GBM (0) | 2021.03.08 |