저번 시간에 hypothesis, cost function, gradient descent algorithm에 대해 배웠다.
또 input이 하나일 때는 위와 같은 data가 나오고 x 하나로 y 하나를 예측하면 된다.
오늘 배울 것은 여러 개의 input으로 결과 하나를 예측하는 multi-variable linear regression이다.
위와 같은 경우에는 input이 3개이다. 이런 경우에는 변수가 3개나 있어서 이전의 방법과는 다른 방법을 써야한다.
입력이 3개일 때 가설과 cost function은 위와 같은 모양이 될 것이다.
variable이 더 많은 경우도 위와 같이 설정할 수 있다. 그런데 이렇게 나열하다보니 매우 불편해진다.
그래서 matrix를 사용하려고 한다.
위와 같이 우리의 Hypothesis를 행렬로 표현했다. 간단하게 행렬의 곱셈을 수행하면 원하는 식을 구할 수 있다.
보통 행렬을 쓸 때는 대문자로 표현하고, x를 앞에 쓴다.
이 점수 한 줄 한 줄을 instance라고 부른다. 많은 instance가 있을 때에는 위처럼 X 행렬 하나당 W 행렬을 곱할 수도 있지만, 횟수가 너무 많아지므로 아래의 방법을 사용한다.
위와 같이 instance의 수만큼 행렬을 만드면 한꺼번에 곱해서 결과를 얻을 수 있다.
만약 None이나 -1이 행렬의 행이나 열의 개수로 나타난다면 n개라는 뜻이다.
출력이 꼭 하나일 필요는 없으므로 여러 개의 출력을 확인할 수도 있겠다. 위의 경우에는 [3, 2]의 W를 사용했을 것이다.
matrix를 사용하면 multi-variable일 경우에도, 출력이 여러 개일 때에도 처리할 수 있어서 매우 편리하겠다.
다음 시간에는 Logistic Regression인 Classification을 배울 것이다.
'AI > [DLBasic]모두의 딥러닝(딥러닝의 기본)' 카테고리의 다른 글
[DLBasic] 5-2. Classification : cost function & gradient decent (0) | 2020.01.16 |
---|---|
[DLBasic]Lecture 5-1. Logistic(Regression) Classification (0) | 2020.01.16 |
[DLBasic]Lecture 3 . How to minimize cost (0) | 2020.01.15 |
[DLBasic]Lecture 2. Linear Regression (0) | 2020.01.15 |
[DLBasic]Lecture 1 : Machine Learning Basics (0) | 2020.01.15 |