20230423 1750
딥러닝 deep learning은 회귀분석 regression 과 같다. 다만 목적함수의 꼴이 조금 다를 뿐
회귀분석
given (x_i, y_i), i=1,...,n
error_i = y_i-y_i^hat where y_i^hat = β * x_i
sum_of_error(target function) = sum_i=1^n { error_i^2}
min_(β) sum_of_error → Gradient Desent 적용
딥러닝
given (x_i, y_i), i=1,...,n
error_i = y_i-y_i^hat where y_i^hat = w'x_i+b
sum_of_error(target function) = sum_i=1^n { error_i^2}
min_(β) sum_of_error → Gradient Desent 적용
(note)딥러닝 결과를 개선하기 위해서는
히든레이어 개수, 액티베이션 함수 종류, Gradient Descet의 step size 변경 등등을 시도해봐야 한다. 노가다!
<개요, 메모>
'[AI]Artificial Inteligence 인공지능' 카테고리의 다른 글
AI 활성화 함수 Activation Function (0) | 2023.04.30 |
---|---|
AI OR gate, Regression (vs Deap Learning) (0) | 2023.04.27 |
AI 큰 그림 Story telling of Deep Learning (0) | 2023.04.15 |
AI Newton Raphson method 이해 (0) | 2023.04.11 |
AI understanding Gradient Descent 경사하강법 이해 (0) | 2023.04.11 |