본문 바로가기

LogisticRegression3

[PyTorchZeroToAll] 7. Wide and Deep 저번 시간에는 linear model로 logistic regression을 구현했다. 위의 예시는 하나의 입력을 받아서 하나의 출력을 내는 결과를 보여주고 있다. 하나의 입력밖에 안 받기 때문에 forward하기에 충분하지 않을 수 있다. 그래서 더 좋은 결과를 얻기 위해서 여러 개의 입력을 준다고 해보자. 이번에는경험이라는 입력까지 넣어보자. 학점과 경험이라는 두 개의 입력을 받아서 과연 홍콩과기대에 합격할 수 있을지 예측하는 모델을 만드는 것이다. 이것을 해결하기 위해서는 행렬의 곱셈 연산에 대해서 알아야한다. 위와 같이 일반화하면 입력이 여러 개여도 곱셈 연산을 수행할 수 있다. 우리의 경우에는 입력이 2개이고, 출력이 한 개이기 때문에 위와 같이 코드를 작성하면 된다. 그래서 넓게, Wide라는.. 2020. 1. 27.
[DLBasic] 5-2. Classification : cost function & gradient decent 저번 시간에는 linear regression과 다소 차이가 있는 logistic regression을 알아봤다. 이번 시간에는 그 logistic regression의 cost function과 그를 최소화하는 법을 알아볼 것이다. H(x) = Wx + b의 형태를 사용했던 linear regression과 달리 classification은 sigmoid function을 사용하기 때문에 cost function의 모양도 좀 달라지게 된다. sigmoid function의 값은 0과 1 사이이기 때문에 위와 같이 함수의 모양이 좀 달라진다. 더이상 linear하지 않아져서 시작점이 어디인지에 따라 최소값이 달라질 수 있는 문제가 생긴다. 전체의 최소값, 즉 global minimum을 찾는 것이 우리의.. 2020. 1. 16.
[DLBasic]Lecture 5-1. Logistic(Regression) Classification 저번 시간에는 linear regression을 배웠는데 이번 시간에는 Logistic Regression인 Classification을 배우도록 하겠다. 매우 중요한 부분이라고 강조하셨다. 저번 시간까지 배웠던 Linear Regression을 복습해보자면 위와 같다. Hypothesis, Cost Function, Gradient Descent는 꼭 알아야할 중요한 부분이었다. Hypothesis의 형태가 선형이기 때문에 linear regression이라고 불린 것이었다. Gradient Descent에서의 alpha 뒤에 나오는 기울기는 Cost function을 미분한 형태이다. 한 번에 얼마나 움직일지가 alpha로 주어진, learning rate라고도 불리는 학습률이다. 이 세 가지만 있으.. 2020. 1. 16.