Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- BERT #자연어처리
- 딥러닝 #모멘텀 #momentum #핸즈온머신러닝 #하이퍼파라미터튜닝
- 파이썬 #알고리즘 #코딩인터뷰 #리트코드 #DFS
- 3d cad #인공지능 #resnet
- 파이썬 #알고리즘 #데크 #원형큐 #코딩테스트
- 자연어처리 #기계번역 #attention #global attention # local attention
- 자연어처리 #glove #글로브 #glove vector #벡터 임베딩
- 딥러닝 #머신러닝 #AdaGrad
- 특이값분해 # SVD #머신러닝 #차원축소 # 인공지능
- cyclegan #GAN
- 자연어처리 #question-answering #dynamic memory #attention
- 배치 정규화 #batch normalization # 딥러닝 #머신러닝
- PCA #주성분 분석 #머신러닝 #선형대수 #sklearn
- char-CNN #자연어처리 # 단어임베딩 #wordembedding #LSTM
Archives
- Today
- Total
목록배치 정규화 #batch normalization # 딥러닝 #머신러닝 (1)
누누와데이터
[논문 리뷰] Batch Normalization: Accelerating Deep Network Training by ReducingInternal Covariate Shift
1.기존의 Deep Neural Network 정규화 방식의 문제 Neural Network를 안정적으로 잘 학습시키려면, (1) Input 부분에서 정규화 기법을 사용하고 (2)각 층의 weight를 √(n/2) 로 나누어 표준화를 진행한다. 하지만 Layer가 깊어질수록 input 부분에서 정규화한 효과가 없어진다(내부 공변량 변화 : Internal Covariate Shift) 이전 파라미터들이 업데이트 됨에 따라 다음에 번에 있는 Hidden Layer들의 입력 분포가 변경 됩니다. 이는 Layer가 깊을수록 심화될 수 있습니다. 2.Internal Covariate Shift Internal Covariate Shift(내부 공변량 변환)는 학습 도중 신경망 파라미터 변화에 의해서 발생되는 신..
딥러닝 논문
2021. 7. 1. 19:47