“Momentum+RMSProp의 장점을 다 가질거야! ”
작성자 홍다혜 ghdek11@gmail.com / 이원재 ondslee0808@gmail.com
'【1】Deep Learning 시작하기 > 최적화가 가장 중요하다!' 카테고리의 다른 글
Adadelta Optimizer (Adaptive Delta) (0) | 2020.01.26 |
---|---|
RMSProp (0) | 2020.01.25 |
Adagrad Optimizer (Adaptive Gradient) (0) | 2020.01.24 |
Momentum Optimizer (0) | 2020.01.23 |
최적화(Optimizer)가 뭐였지? 확률적 경사 하강법(SGD) (0) | 2020.01.22 |