Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 파이썬 #알고리즘 #코딩인터뷰 #리트코드 #DFS
- 파이썬 #알고리즘 #데크 #원형큐 #코딩테스트
- 배치 정규화 #batch normalization # 딥러닝 #머신러닝
- BERT #자연어처리
- 3d cad #인공지능 #resnet
- 딥러닝 #모멘텀 #momentum #핸즈온머신러닝 #하이퍼파라미터튜닝
- 특이값분해 # SVD #머신러닝 #차원축소 # 인공지능
- cyclegan #GAN
- 딥러닝 #머신러닝 #AdaGrad
- 자연어처리 #기계번역 #attention #global attention # local attention
- char-CNN #자연어처리 # 단어임베딩 #wordembedding #LSTM
- 자연어처리 #glove #글로브 #glove vector #벡터 임베딩
- 자연어처리 #question-answering #dynamic memory #attention
- PCA #주성분 분석 #머신러닝 #선형대수 #sklearn
Archives
- Today
- Total
목록딥러닝 #머신러닝 #AdaGrad (1)
누누와데이터
AdaGrad(Adaotive Method) 개념 및 코드 구현
개념 핸즈온 머신러닝 2 책에서는 Adagrad의 원리를 다음과 같이 소개한다. 한쪽이 길쭉한 그릇 모양의 손실함수가 있다고 가정해보자. Gradient descent 알고리즘은 global minimum으로 곧장 향하지 않고 가장 가파른 경사를 따라 빠르게 내려가기 시작해서 골짜기 아래로 느리게 이동한다. AdaGrad 알고리즘은 global minimum의 방향을 좀 더 일찍 감지하고 global minimum쪽으로 좀더 정확한 방향을 잡아서 이동한다. 일반적인 Gradient descent 알고리즘의 경우에는, 모든 파라메터에 대해 동일한 step-size (학습률) 이 적용된다. 이에 반해 Adaptive 방법은, 각각의 매개변수에 맞춰서 학습률을 변화시키는 학습을 진행하면서, 학습률을 점차 줄여..
딥러닝
2021. 7. 10. 00:06