< Improving Deep Neural Networks >
코세라 Deep Learning 특화과정 중 두번째 강의이다. 강좌의 전체이름은 Improving Deep Neural Networks: Hyperparameter Tuning, Regularization and Optimization 로 강좌에서는 네트워크 성능을 안정화하고 개선하기 위한 대표적인 방법들에 대해 소개하고 있다. 총 3주 과정으로 구성되며 Initialization, Regularization, Gradient Checking, SGD, SGD with Momentum, RMSProp, Adam 등의 다양한 Optimization 기법들을 이해하고 파이썬 라이브러리(numpy, tensorflow) 를 사용하여 직접 코드로 구현해보는 과제를 수행하게 된다.
Improving Deep Neural Networks: Hyperparameter Tuning, Regularization and Optimization 에서 다루고 있는 내용은 아래와 같다.
- Regularization Methods (L1, L2(weight decay), Dropout, Data Augmentation)
- Weight Initialization
- Gradient Checking
- Optimization (Gradient Descent, Gradient Descent with Momentum, RMSProp, Adam)
- Learning Rate Decay
- Hyperparameter Tuning Process in Practice
- Batch Normalization
- Multi-class Classification
- Tensorflow Programming Introduction
이수가 끝나면 아래처럼 수료증이 나온다. 그리고 Deep Learning 특화과정은 각 강의끝마다 인공지능분야의 세계적 대가(Geoffrey Hinton , Yushua Bengio, Ian Goodfellow 외 다수)라는 분들과 인터뷰하는 내용이 있는데 입문자들이 어느 부분에 주안점을 두고 공부하면 좋을지, 인공지능이 조금더 현실에 정착하기 위해서는 어떤 부분들이 연구되어야 하는지 등 그분들의 오랜경험에 의한 생각을 엿볼 수 있어서 굉장히 좋았다.
728x90
반응형
'일상' 카테고리의 다른 글
코세라 Structuring Machine Learning Projects 수료 (4) | 2021.06.07 |
---|---|
스타트업 vs 대기업 vs 외국계 (14) | 2021.06.04 |
코세라 Neural Networks and Deep Learning 수료 (0) | 2021.06.01 |
퇴사준비 (8) | 2021.05.23 |
코세라 Advanced Machine Learning 수료 (0) | 2021.05.18 |