선형 회기는 데이터를 모아서 직선 그래프를 만들어 그 추세를 파악하는 방법이다.
이러한 방법을 통해 다음에 어떤 x(data)값이 들어왔을 때 이건 어떤 y 이다! 라고 예측을 하는 것이다.
ex)
우리는 위와 같은 데이터를 사용하게 된다. x (data), y(label) 이 값을 이용해서 가설 값(예측 값)을 정하게 된다.
직선으로 만들게 되고 우리는 노랑, 파랑, 빨강 직선중 어떤 직선이 우리가 원하는 직선일까?
우리는 눈으로 보고 바로 당연히 파랑이지! 이렇지만 컴퓨터는 다르다.
엄청나게 학습을 해서 파란색 직선을 찾아야한다.
그럼 어떤 방식으로 파란색 직선을 찾을까? 를 알아보자
우리는 최적의 직선을 cost function(비용 함수), loss function(손실 함수)를 통해서 찾아낸다.
둘이 같은 말이다.
참고로 cost(비용) 함수라고도 하고 loss(손실) 함수라고도 한다.
이름이 왜 비용함수냐면 우리는 비용이 가장 작게 만든다고 생각하면 쉽다.
우리가 무엇을 해야할때 비용(우리가 지불해야하는 돈이라 생각하면 쉬움)이 줄면 좋기 때문이다.
손실이라 생각해도 좋음
그럼 우리는 cost(loss)= 0 값이 0이 되게 해야한다.
이렇게 값을 구하게 된다. H(X) (가설값) - y (label) 차이의 합이 0이 되게 해야한다.
위의 식을 보고 이해하면 좋다.
이 값을 최소화 해야한다!
최소화 하는 방법은 다음 시간에
반응형
'AI > 머신러닝(딥러닝) 정리' 카테고리의 다른 글
5-2. Logistic (regression) classification: cost function & gradient decent (0) | 2022.05.01 |
---|---|
5-1. Logistic (regression) classification (0) | 2022.04.30 |
4. 다양한 변수 선형 회기 (0) | 2022.04.30 |
3. 어떻게 cost(loss) 비용, 손실을 작게 만들까 (0) | 2022.04.30 |
1. 머신 러닝 기초 (0) | 2022.04.29 |