< 목차 >
- 용어정의
- Classification of a new data point
1. 용어정의
- 피드백 후 작성예정입니다.
2. Classification of a new data point
2021.04.05 - [인공지능/머신러닝 이론] - 6-3. Quadratic Optimization Problem 의 서포트 벡터 머신내용에 이어서, 서포트 벡터 머신으로 학습된 모델을 가지고 새로운 입력데이터를 제대로 분류하기 위해, 출력함수 y의 부호는 '<0' 혹은 '0' 으로 나타나며 해당하는 클래스로 구분된다.
이때 위의 전개과정에서 구한 'w'를 y에 관한 함수에 대입하여, 다음과 같이 y에 관해 새롭게 전개할 수 있다.
또한 앞의 글에서 소개된 KKT 조건을 만족하기 위해서는 모든 데이터에 관해 a_n이 0 이거나 t_n*y(x_n)이 1 이어야 하는데, 즉 a_n이 0 인 경우에 해당하는 데이터는 Model prediction이 아무런 기여를 하지않고, t_n*y(x_n)=1 인 경우에 해당하는 데이터는 support vector 라는 말이다.
아래의 그래프를 보면, 입력데이터 중 초평면을 최대화하는 Margin에 존재하는 데이터들만 Prediction에 관여하고, 나머지는 무의미하다고 할 수 있다. 이것이 바로 SVM와 Neural network의 차이점이자 핵심이다.
728x90
반응형
'인공지능 > 머신러닝 이론' 카테고리의 다른 글
7-2. EM algorithm for K-means clustering (2) | 2021.04.05 |
---|---|
7-1. Mixture Models and Expectation-Maximization(EM) Algorithm (0) | 2021.04.05 |
6-3. Quadratic Optimization Problem (0) | 2021.04.05 |
6-2. Margin of Support Vector Machine(SVM) (2) | 2021.04.05 |
6-1. Overview of Support Vector Machine(SVM) (0) | 2021.04.05 |