패턴인식 썸네일형 리스트형 3-8. Logistic Regression 용어정의 Logistic regression 1. 용어정의 아래 페이지를 참고해주세요. 2021.03.31 - [인공지능/머신러닝] - 3-2. Discriminant Functions 2. Logistic regression Logistic sigmoid function이라고도 불리며, σ(.)를 사용하여 p(C_k|x)의 선형 모델을 비선형적으로 Mapping 하는 것이다. 정규분포를 가정한 Class-conditional density의 경우 두 개의 클래스에 대한 평균 2*M와 Covariance matrix 의 M(M+1)/2 개의 미지수를 결정해야 하기 때문에 계산이 더 복잡한 반면, D 차원의 입력데이터를 임의 M 차원으로 변경하여 M 개의 미지수만 결정하면 된다는 장점이 있다... 더보기 3-7. Linear Basis Function Model 용어정의 Linear basis function model Polynomial basis function Gaussian basis function Sigmoid basis function 1. 용어정의 Bimodal distribution : 두 가지의 분포를 가지고 있는 데이터의 분포 2. Linear basis function model 지금까지 선형 모델에 대해 Decision boundary를 결정하는 방법을 배웠고, 실제로는 비선형 형태의 Decision boundary를 결정해야 하는 Classification 문제들이 존재하기 때문에 본 내용에서 살펴보고자 한다. 비선형 모델은 Basis function을 이용하여 D 차원크기를 갖는 x 를 임의의 M 차원크기로 Mapping .. 더보기 3-6. Estimation of the Class-Conditional & Prior Probabilities 용어정의 Estimation of the class-conditional & prior probabilities 1. 용어정의 아래 페이지를 참고해주세요. 2021.03.31 - [분류 전체보기] - 3-5. Probabilistic Generative Models 2. Estimation of the class-conditional & prior probabilities 만약 Class-conditional densities인 p(x|C_k)의 분포를 가정할 수 있다면, p(C_k)에 대한 Prior probabilities 과 함께 필요한 매개 변수를 결정할 수 있다. 예로 들어, 두개 클래스를 갖는 Classification 에서 각각의 클래스가 정규 분포를 갖는 Class-condit.. 더보기 3-5. Probabilistic Generative Models 용어정의 Probabilistic generative models 1. 용어정의 아래 페이지를 참고해주세요. 2021.03.31 - [인공지능/머신러닝] - 3-4. Fisher's Linear Discriminant 2. Probabilistic generative models 앞장에서 언급했던 Generative model은 Class-conditional density function인 p(x|Ck) 와 Class prior probability인 p(Ck) 를 계산하고, 베이지안 이론을 통해 Posterior probability 인 p(Ck|x)를 계산한다. 이는 두 클래스를 갖는 Classification Problems에서 Sigmoid Function로 표현될 수 있다. 또한,.. 더보기 3-4. Fisher's Linear Discriminant 용어정의 Fisher's linear discriminant 1. 용어정의 Central limit theorem : 상호독립적인 랜덤데이터 수(N>30)가 증가할수록 데이터의 분포는 점차 정규분포를 따른다는 이론 2. Fisher's linear discriminant Fisher's Linear Discriminant Analysis(LDA)라고도 하며, 데이터를 가장 잘 분류할 수 있는 평면을 찾아내어 해당 평면으로 데이터를 사영(Projection)시켜 차원을 축소하는 방법이다. Fisher에 의해 제안된 평면은 데이터의 클래스간 중첩되는 영역을 최소화하는 것으로, 이는 클래스간 평균을 최대화하고 각각의 클래스 내부에 분산를 최소화하는 평면을 말한다. 해당 기준(Fisher crite.. 더보기 3-3. Least Squares for Computing 'w' 용어정의 Least squares for computing 'w' 1. 용어정의 One hot encoding : 카테고리 변수로 되어있는 데이터를 0과 1로 이루어진 이진수로 변환하며, 벡터의 크기를 늘려서 클래스 개수만큼 늘려서 표현하는 방식 Trace : 행렬의 모든 대각성분들의 합 2. Least squares for computing 'w' 두 개 이상의 클래스를 갖는 Classification Problems 은 아래와 같은 Linear model로 간단히 표현될 수 있다. 이때 하나의 입력데이터 x 가 (D x 1)차원을 갖고 타겟값인 y가 (K x 1)차원을 갖는다고 가정하면, W는 (D x K) 차원의 매트릭스를 갖고 같은 조건으로 N개의 입력데이터 X로, y를 N개의 T로 .. 더보기 3-2. Discriminant Functions 용어정의 Discriminant functions 1. 용어정의 Hyperplane : 초평면, 선형 공간의 차원보다 한 단계 낮은 차원을 가진 부분 선형 공간을 평행 이동하여 얻은 평면 2. Discriminant function 위에서 언급한 입력데이터 x를 해당하는 클래스로 분류할 수 있는 Discriminant functions에 대해 살펴보면 입력데이터는 Linear model에 의해 표현될 수 있고 입력데이터의 공간을 D차원이라고 했을 때, Decision boundary는 (D-1)차원으로 나타난다. 위의 그림을 예로 들면, 2차원의 x1, x2 데이터공간에서 이를 분류하는 Decision boundary인 y=f(x)는 1차원의 Linear model이다. 이때, 임의의 입력데.. 더보기 3-1. Linear Models for Classification 용어정의 Linear models for classification Generative model Discriminative model Discriminant function 1. 용어정의 Outlier : 이상점, 변수의 분포에서 비정상적으로 벗어난 값 2. Linear models for classification 앞의 챕터에서 이미 언급했듯, Classification 문제를 풀기위한 방법으로 세 가지가 제시되었고, 각 방법의 특징을 요약하면 아래와 같다. 2-1. Generative Model Class-conditional density function인 p(x|C_k)와 Prior class probability 인 p(C_k)를 계산하고, 베이지안 이론을 통해 Posterior .. 더보기 이전 1 2 3 4 5 6 다음