본문 바로가기

일상

코세라 Improving Deep Neural Networks 수료

< Improving Deep Neural Networks >

 

코세라 Deep Learning 특화과정 중 두번째 강의이다. 강좌의 전체이름은 Improving Deep Neural Networks: Hyperparameter Tuning, Regularization and Optimization 로 강좌에서는 네트워크 성능을 안정화하고 개선하기 위한 대표적인 방법들에 대해 소개하고 있다. 총 3주 과정으로 구성되며 Initialization, Regularization, Gradient Checking, SGD, SGD with Momentum, RMSProp, Adam 등의 다양한 Optimization 기법들을 이해하고 파이썬 라이브러리(numpy, tensorflow) 를 사용하여 직접 코드로 구현해보는 과제를 수행하게 된다.

 

Improving Deep Neural Networks: Hyperparameter Tuning, Regularization and Optimization 에서 다루고 있는 내용은 아래와 같다.

  • Regularization Methods (L1, L2(weight decay), Dropout, Data Augmentation) 
  • Weight Initialization
  • Gradient Checking
  • Optimization (Gradient Descent, Gradient Descent with Momentum, RMSProp, Adam) 
  • Learning Rate Decay
  • Hyperparameter Tuning Process in Practice
  • Batch Normalization
  • Multi-class Classification
  • Tensorflow Programming Introduction

 

이수가 끝나면 아래처럼 수료증이 나온다. 그리고 Deep Learning 특화과정은 각 강의끝마다 인공지능분야의 세계적 대가(Geoffrey Hinton , Yushua Bengio, Ian Goodfellow 외 다수)라는 분들과 인터뷰하는 내용이 있는데 입문자들이 어느 부분에 주안점을 두고 공부하면 좋을지, 인공지능이 조금더 현실에 정착하기 위해서는 어떤 부분들이 연구되어야 하는지 등 그분들의 오랜경험에 의한 생각을 엿볼 수 있어서 굉장히 좋았다.  

 

728x90
반응형