코딩로그
Lec 02 - Linear regression의 hypothesis와 cost 설명 본문
<Linear regression 과 hypothesis>
- predicting exam score : 1부터 100까지 나타내는 것이므로 regression이다.
- 시간당 점수로 supervised learning을 한다고 하자.
- x : 데이터의 특성(feature)
- y : 예측값
- regression 모델을 학습한다는 것 – 가설을 세우는 것
- 잘 모르겠지만, 이 데이터는 아마 linear할 거야. 따라서 이 가설에 대입하면 답은 이것일꺼야. 라고 예측한다.
- 훈련시간과 달리기실력, 집 크기가 클수록 가격이 크다든지 세상의 많은 것들이 linear하다. 따라서 유용하다.
- linear하게 가설을 세운다는 것? – 선을 찾는 것! - 그게 바로 학습이다.
- 가설을 세우는 방법
- 1. 일차함수로 가설을 세운다.
- 2. 어떤 선이 가장 데이터에 맞는지 찾는다.(w와 b를 찾는다)
<Cost function>
- 예측값에서 실제 값을 뺀다. 그러나 이것을 그대로 사용하면 안된다. 음수가 될 수도 있고 양수가 될수도 있어서 거리라고 할 수 없기 때문이다. 따라서 이를 제곱하는 방식으로 cost를 구한다. 다음은 그래프와 수식이다.
- const에 우리가 처음 세운 가설을 기계적으로 대입한다. 그럼 const는 w와 b에 관한 함수가 될 것이다.
leanear regression의 목표이자 학습 : cost를 최소화 하는 w와 b를 찾는 것이다.
'코딩로그 > 모두를 위한 딥러닝' 카테고리의 다른 글
4. multi-variable linear regression을 TensorFlow에서 구현하기 (0) | 2020.01.04 |
---|---|
3. linear regression의 cost 최소화 알고리즘의 원리 (0) | 2020.01.04 |
Lab 02 – TensorFlow로 간단한 linear regression을 구현 (0) | 2020.01.04 |
Lab 01 - tensorflow의 설치 및 기본적인 operations (0) | 2020.01.04 |
Lec 01 - 머신러닝의 기본적인 용어와 개념 (0) | 2020.01.04 |