본문 바로가기

Classification

코세라 머신러닝 case study 수료 코세라에서 제공하는 "Machine Learning Foundations" 강의를 이수하였다. 이번 강의는 개론 수준에서 머신러닝이 활용되는 대표적인 5가지 분야에 대해 알려준다. 각각은 Regression, Classification, Clustering, Recommendation, Deep Learing(Image Recognition) 이며, 분야별 Case Study는 다음과 같다. 집값예측하기 긍정/부정적 감정 분석하기 위키피디아 문서를 활용하여 유사한 인물들 찾기 개인화된 노래추천하기 고전 머신러닝을 활용한 이미지 분류와 딥러닝을 활용한 이미지분류 성능 비교해보기 딥러닝을 활용하여 유사한 이.. 더보기
6-4. Classification of a new data point 용어정의 Classification of a new data point 1. 용어정의 피드백 후 작성예정입니다. 2. Classification of a new data point 2021.04.05 - [인공지능/머신러닝 이론] - 6-3. Quadratic Optimization Problem 의 서포트 벡터 머신내용에 이어서, 서포트 벡터 머신으로 학습된 모델을 가지고 새로운 입력데이터를 제대로 분류하기 위해, 출력함수 y의 부호는 '<0' 혹은 '0' 으로 나타나며 해당하는 클래스로 구분된다. 이때 위의 전개과정에서 구한 'w'를 y에 관한 함수에 대입하여, 다음과 같이 y에 관해 새롭게 전개할 수 있다. 또한 앞의 글에서 소개된 KKT 조건을 만족하기 위해서는 모든 데이터에 관해 a.. 더보기
6-2. Margin of Support Vector Machine(SVM) 용어정의 Margin of support vector machine(SVM) Classification of the perpendicular distnace to the decision surface Classification of margin Simplification of margin 1. 용어정의 피드백 후 작성예정입니다. 2. Margin 2-1. Calculation of the perpendicular distance to the decision surface SVM에서 Margin의 개념은 굉장히 중요하기 때문에 수식전개를 통해 깊이있게 이해할 필요가 있다. 임의의 'x_A'와 'x_B'라는 데이터가 Decision boundary인 y(x) 위에 있다고 가정할 경우, 아래의 조.. 더보기
6-1. Overview of Support Vector Machine(SVM) 용어정의 Overview of support vector machine(SVM) 1. 용어정의 피드백 후 작성예정입니다. 2. Overview of support vector machine(SVM) Support Vector Machine (SVM)은 각 클래스 간의 거리를 최대화할 수 있는 초평면(Hyperplane)을 찾는 feed-forward networks 중 하나이며, Outlier의 영향을 받지않고 네트워크의 Generalization을 향상시킬 수 있다. 또한, SVM은 데이터가 입력공간에서 비선형적으로 존재할 때, Non-linear mapping function 을 이용해서 더 높은 차원으로 데이터를 변환하여 분류할 수 있다. 이때 Non-linear mapping func.. 더보기
5-2. Multi-Layer Perceptron(MLP) Neural Network 용어정의 Overview of MLP Regression vs. Classification Issues for neural network construction 1. 용어정의 패드백 후 작성 예정입니다. 2. Overview of MLP Mulit-Layer Perceptron(MLP) Neural Network 는 말그대로 다수의 레이어로 구성된 네트워크로 아래의 구조와 같이 Input Layer, Hidden Layer, Output Layer 로 구성된다. MLP의 연산과정을 구체적으로 살펴보면, 다음 순서로 나타난다. (1) Input layer에서 입력된 각 데이터들은 각 노드와 노드를 연결하는 Weight를 통해 가중된다. (2) h( ) 함수를 통해 변환되어 Hidden laye.. 더보기

728x90
반응형