본문 바로가기

분류문제

6-4. Classification of a new data point 용어정의 Classification of a new data point 1. 용어정의 피드백 후 작성예정입니다. 2. Classification of a new data point 2021.04.05 - [인공지능/머신러닝 이론] - 6-3. Quadratic Optimization Problem 의 서포트 벡터 머신내용에 이어서, 서포트 벡터 머신으로 학습된 모델을 가지고 새로운 입력데이터를 제대로 분류하기 위해, 출력함수 y의 부호는 '<0' 혹은 '0' 으로 나타나며 해당하는 클래스로 구분된다. 이때 위의 전개과정에서 구한 'w'를 y에 관한 함수에 대입하여, 다음과 같이 y에 관해 새롭게 전개할 수 있다. 또한 앞의 글에서 소개된 KKT 조건을 만족하기 위해서는 모든 데이터에 관해 a.. 더보기
3-3. Least Squares for Computing 'w' 용어정의 Least squares for computing 'w' 1. 용어정의 One hot encoding : 카테고리 변수로 되어있는 데이터를 0과 1로 이루어진 이진수로 변환하며, 벡터의 크기를 늘려서 클래스 개수만큼 늘려서 표현하는 방식 Trace : 행렬의 모든 대각성분들의 합 2. Least squares for computing 'w' 두 개 이상의 클래스를 갖는 Classification Problems 은 아래와 같은 Linear model로 간단히 표현될 수 있다. 이때 하나의 입력데이터 x 가 (D x 1)차원을 갖고 타겟값인 y가 (K x 1)차원을 갖는다고 가정하면, W는 (D x K) 차원의 매트릭스를 갖고 같은 조건으로 N개의 입력데이터 X로, y를 N개의 T로 .. 더보기
3-1. Linear Models for Classification 용어정의 Linear models for classification Generative model Discriminative model Discriminant function 1. 용어정의 Outlier : 이상점, 변수의 분포에서 비정상적으로 벗어난 값 2. Linear models for classification 앞의 챕터에서 이미 언급했듯, Classification 문제를 풀기위한 방법으로 세 가지가 제시되었고, 각 방법의 특징을 요약하면 아래와 같다. 2-1. Generative Model Class-conditional density function인 p(x|C_k)와 Prior class probability 인 p(C_k)를 계산하고, 베이지안 이론을 통해 Posterior .. 더보기

728x90
반응형