일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- @Transactional
- skt fellowship 3기
- marksense.ai
- C++
- YOLOv5
- react native
- google cloud
- yolo
- Expo
- google 로그인
- google login
- 양방향 매핑
- javascript
- matplotlib
- Spring Boot
- Spring
- AWS
- 순환참조
- 커스텀 데이터 학습
- pandas
- JPA
- 2021 제9회 문화공공데이터 활용경진대회
- Loss Function
- 코드업
- idToken
- oauth
- OG tag
- html
- STT
- 졸프
Archives
- Today
- Total
민팽로그
선형 회귀(Linear Regression) 본문
선형 회귀(Linear Regression)
$$ H(x)=Wx+b $$
1. 초기에 랜덤한 w와 b값을 생성 -> 초기 w, b값은 정답과는 거리가 멀 것.
2. 가설과 실제 정답 간의 차이(오차, 손실, 비용, loss, cost)를 구함 -> H(가설) - Y(정답)
3. 손실함수의 값을 최소화 할 수 있는 W, b를 찾아내야 함
MLR(Multi-variable Linear Regression)
$$ y=Wx_{1}+Wx_{2}+...+Wx_{i}+b $$
MLP(Multi-variable Linear perceptron)처럼 문자 그대로 다중 선형 회귀로, 입력이 여러개임. 예측값이 여러 요소들의 영향을 받음 -> 최근에 이 기술을 기반으로 한 분야를 딥러닝이라고 함
손실 함수(Loss Function)
loss function을 구하는 대표적인 방법인 Mean Squared Error(MSE)는 아래와 같은 형태임
$$ cost(W, b) = \frac{1}{m}\sum_{i=1}^{m} (H(x_{i})-y_{i} )^{2} $$
최적화 함수(Optimizer)
-> 가중치에 대해 오차함수가 가장 작은 지점을 구함
대표적인 optimizer인 경사하강법(Gradient Descent) : 현재 위치에서 오차함수의 미분값 -> 양수라면 음의 방향으로 이동, 음수라면 양의 방향으로 이동 -> 미분값 -> 이동 -> (반복) -> 미분값이 0에 가까운 점으로 이동하며 W를 구함
참고할 사이트
3) 선형 회귀(Linear Regression)
딥 러닝을 이해하기 위해서는 선형 회귀(Linear Regression)와 로지스틱 회귀(Logsitic Regression)를 이해할 필요가 있습니다. 이번 챕터에서는 머 ...
wikidocs.net
'머신러닝&딥러닝' 카테고리의 다른 글
9월 28일 언어 지능 실습 정리 (0) | 2021.09.28 |
---|---|
Recurrent Neural Network(RNN) (0) | 2021.09.28 |
활성화 함수(Activation Function) (0) | 2021.09.28 |
[용어 정리]object detection 공부하면서 모르는 용어 (0) | 2021.08.31 |
강화학습(Reinforcement Learning) 개념 (0) | 2021.08.24 |
Comments