본문 바로가기
AI/[DLBasic]모두의 딥러닝(딥러닝의 기본)

[DLBasic] 6-1. Softmax Classification : Multinomial Classification

by 쵸빙 2020. 1. 16.

     저번 시간의 Binary Classification을 위한 sigmoid function의 cost function과 그 최소값을 구하기 위한 gradient descent algorithm에 이어서 이번 시간에는 카테고리가 여러개인 분류인 multinomial classification을 위한 softmax classification에 대해서 알아보려고 한다. 사실 multinomial classification을 위해서 여러 방법이 있는데 softmax classification이 가장 많이 쓰인다고 한다.

 

     위 도면의 Y 위에 -가 있는 것은 y hat이라고 부르며, prediction값이다. S는 시그모이드 함수를 의미한다

 

Multinomial Classification의 data 예시

     위는 multinomial classification의 데이터값의 예시이다.

여기서 A, B, C를 구분하는 선을 찾아내는 것이 중요할 것이다. 

     위와 같이 나눌 수 있을 것이다. 

벡터를 이용해서 계산

     위와 같이 독립적으로 3번 계산하면 시간이 오래 걸리므로 행렬의 특징을 이용해서 하나의 연산으로 바꾼다.

하나의 행렬로 표현해서 계산

     

다음 시간에는 위의 연산을 효율적으로, 간단히 하는 방법에 대해 배우도록 하겠다.