본문 바로가기

패턴인식

6-3. Quadratic Optimization Problem 용어정의 Quadratic optimization problem Solving a constrained optimization using Lagrange multipliers Comparison between the primal and dual problems 1. 용어정의 Lagrange multiplier : 라그랑주 승수법, 제한조건이 있는 최적화 문제를 풀기 위한 방법으로 제한조건 내에서 주어진 함수의 극댓값과 극솟값을 찾는 것이다. 2. Quadratic optimization problem 2-1. Solving a constrained optimization using Lagrange multipliers ||w||에 관한 2차 최적화 문제는 위에서 주어진 constraint를 .. 더보기
6-2. Margin of Support Vector Machine(SVM) 용어정의 Margin of support vector machine(SVM) Classification of the perpendicular distnace to the decision surface Classification of margin Simplification of margin 1. 용어정의 피드백 후 작성예정입니다. 2. Margin 2-1. Calculation of the perpendicular distance to the decision surface SVM에서 Margin의 개념은 굉장히 중요하기 때문에 수식전개를 통해 깊이있게 이해할 필요가 있다. 임의의 'x_A'와 'x_B'라는 데이터가 Decision boundary인 y(x) 위에 있다고 가정할 경우, 아래의 조.. 더보기
6-1. Overview of Support Vector Machine(SVM) 용어정의 Overview of support vector machine(SVM) 1. 용어정의 피드백 후 작성예정입니다. 2. Overview of support vector machine(SVM) Support Vector Machine (SVM)은 각 클래스 간의 거리를 최대화할 수 있는 초평면(Hyperplane)을 찾는 feed-forward networks 중 하나이며, Outlier의 영향을 받지않고 네트워크의 Generalization을 향상시킬 수 있다. 또한, SVM은 데이터가 입력공간에서 비선형적으로 존재할 때, Non-linear mapping function 을 이용해서 더 높은 차원으로 데이터를 변환하여 분류할 수 있다. 이때 Non-linear mapping func.. 더보기
5-5. Introduction to Support Vector Machines(SVM) 용어정의 Introduction to support vector machines (SVM) 1. 용어정의 피드백 후 작성예정입니다. 2. Introduction to support vector machines (SVM) 서포트벡터머신, 즉 SVM은 MLP와 마찬가지로 데이터를 구분짓을 수 있는 선형 초평면(Hyperplane)을 찾아내는 것으로, Support vector라는 데이터만 이용하여 최적의 초평면을 결정하여 MLP보다 Generalization 을 향상시킬 수 있다. Support vector는 임의의 초평면에 가장 근접해있는 데이터들을 의미하는 것으로, Support vector 클래스간의 거리를 최대로 하는 최적의 초명편(Optimal hyperplane)을 찾아낸다. 이때, .. 더보기
5-4. Radial Basis Function(RBF) Neural Network 용어정의 Radial basis function(RBF) neural network 1. 용어정의 피드백 후 작성 예정입니다. 2. Radial basis function(RBF) neural network RBF 뉴럴네트워크는 아래의 Gaussian basis function을 이용하는 것으로, 각각의 Center 와 Width를 가지는 정규분포의 선형적 결합으로 타겟데이터의 분포를 근사하는 것이다. 따라서, RBF 뉴럴네트워크는 두 단계로 학습된다. 첫번째는 각 Basis function의 Center 와 Width 를 추정하는데, 입력데이터만 이용하기 때문에 비지도 학습이다. 두번째는 입력데이터와 타겟데이터를 이용해서 네트워크의 가중치 W를 구하며 이때는 지도 학습이다. 위의 과정은 아.. 더보기
5-3. Network Training 용어정의 Error functions Neural network parameter estimation Error backpropagation Convergence and local minima Generalization for neural network 1. 용어정의 피드백 후 추가 예정입니다. 2. Error functions 뉴럴네트워크 가중치의 학습을 위해서는 타겟데이터와 연산된 출력값 간의 오차가 최소화되도록 하는 Objective function 의 정의가 필요하며, Regression 과 Classification 문제에 따라 Objection function은 달라진다. (1) Regression 회귀(Regression) 문제는 네트워크 연산을 통해 나온 출력값 y 와 타겟데이.. 더보기
5-2. Multi-Layer Perceptron(MLP) Neural Network 용어정의 Overview of MLP Regression vs. Classification Issues for neural network construction 1. 용어정의 패드백 후 작성 예정입니다. 2. Overview of MLP Mulit-Layer Perceptron(MLP) Neural Network 는 말그대로 다수의 레이어로 구성된 네트워크로 아래의 구조와 같이 Input Layer, Hidden Layer, Output Layer 로 구성된다. MLP의 연산과정을 구체적으로 살펴보면, 다음 순서로 나타난다. (1) Input layer에서 입력된 각 데이터들은 각 노드와 노드를 연결하는 Weight를 통해 가중된다. (2) h( ) 함수를 통해 변환되어 Hidden laye.. 더보기
5-1. Introduction to Neural Networks 용어정의 Objective of supervised learning From biology to artificial neural networks Neural networks as universal function approximators 1. 용어정의 해당 페이지를 참고해주세요. 2021.03.31 - [인공지능/머신러닝 이론] - 3-4. Fisher's Linear Discriminant 2. Objective of supervised learning 지도학습(Supervised Learning)은 입력데이터 x를 학습하고자 하는 출력값 y에 근사시키도록 변환하는 함수 f(x)를 찾는 것이다. 이는 크게 두 Classification 과 Regression 두 가지로 구분할 수 있는데, .. 더보기

728x90
반응형