Notice
Recent Posts
Recent Comments
Link
«   2025/01   »
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31
Archives
Today
Total
관리 메뉴

코딩로그

Lec 02 - Linear regression의 hypothesis와 cost 설명 본문

코딩로그/모두를 위한 딥러닝

Lec 02 - Linear regression의 hypothesis와 cost 설명

hyeonnny 2020. 1. 4. 14:39

<Linear regression 과 hypothesis>

 - predicting exam score : 1부터 100까지 나타내는 것이므로 regression이다.

 - 시간당 점수로 supervised learning을 한다고 하자.

 - x : 데이터의 특성(feature)

 - y : 예측값

 - regression 모델을 학습한다는 것 가설을 세우는 것

 - 잘 모르겠지만, 이 데이터는 아마 linear할 거야. 따라서 이 가설에 대입하면 답은 이것일꺼야. 라고 예측한다.

 - 훈련시간과 달리기실력, 집 크기가 클수록 가격이 크다든지 세상의 많은 것들이 linear하다. 따라서 유용하다.

 - linear하게 가설을 세운다는 것? 선을 찾는 것! - 그게 바로 학습이다.

  - 가설을 세우는 방법

 - 1. 일차함수로 가설을 세운다.

 - 2. 어떤 선이 가장 데이터에 맞는지 찾는다.(wb를 찾는다)

 

 

<Cost function>

 - 예측값에서 실제 값을 뺀다. 그러나 이것을 그대로 사용하면 안된다. 음수가 될 수도 있고 양수가 될수도 있어서 거리라고 할 수 없기 때문이다. 따라서 이를 제곱하는 방식으로 cost를 구한다. 다음은 그래프와 수식이다.

 - const에 우리가 처음 세운 가설을 기계적으로 대입한다. 그럼 constwb에 관한 함수가 될 것이다.

leanear regression의 목표이자 학습 : cost를 최소화 하는 wb를 찾는 것이다.