Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 삼성 SDS 서포터즈
- 파이썬 내장 그래프
- 데이터 분석
- 브라이틱스 AI
- Brightics 서포터즈
- 범주형 변수 처리
- Brightics EDA
- 삼성 SDS
- 머신러닝
- 서포터즈 촬영
- Brightics AI
- michigan university deep learning for computer vision
- pymysql
- Brightics studio
- 딥러닝
- Python
- 데이터 분석 플랫폼
- 브라이틱스 프로젝트
- 분석 툴
- Deep Learning for Computer Vision
- 비전공자를 위한 데이터 분석
- 파이썬 SQL 연동
- Brigthics Studio
- 브라이틱스 스태킹
- paper review
- 브라이틱스 서포터즈
- Activation Function
- 브라이틱스 분석
- Random Forest
- 검증 평가 지표
Archives
- Today
- Total
목록gradient descent (1)
하마가 분석하마

Michigan University의 'Deep Learning for Computer Vision' 강의를 듣고 정리한 내용입니다. Optimization Optimization L(W) 함숫값을 최소화하는 최적의 W를 구하는 것이 목적이다. 따라서 최적의 W는 W*=argmin(L(W))의 식으로 구한다. argmin은 최소화원(minimizer)이고, L(W)를 최솟값으로 만드는 W를 W*으로 정의한다. L(W)는 전체 개형을 알 수 있는 함수가 아니다. W=W0라는 점이 주어졌을 때, 그 근접한 곳만 알 수 있다. 따라서 산에서 아래로 내려가는 것처럼 W0라는 점이 주어지면 함수가 감소하는 방향으로 값을 최적화한다. 그러나 gradient를 구해서 함수가 감소하는 방향으로 가는 게 절대 전체적인 ..
Deep learning/Michigan university deep learning
2022. 1. 16. 15:06