Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 자연어처리 #question-answering #dynamic memory #attention
- char-CNN #자연어처리 # 단어임베딩 #wordembedding #LSTM
- cyclegan #GAN
- BERT #자연어처리
- 자연어처리 #glove #글로브 #glove vector #벡터 임베딩
- 파이썬 #알고리즘 #코딩인터뷰 #리트코드 #DFS
- PCA #주성분 분석 #머신러닝 #선형대수 #sklearn
- 배치 정규화 #batch normalization # 딥러닝 #머신러닝
- 파이썬 #알고리즘 #데크 #원형큐 #코딩테스트
- 3d cad #인공지능 #resnet
- 자연어처리 #기계번역 #attention #global attention # local attention
- 딥러닝 #모멘텀 #momentum #핸즈온머신러닝 #하이퍼파라미터튜닝
- 특이값분해 # SVD #머신러닝 #차원축소 # 인공지능
- 딥러닝 #머신러닝 #AdaGrad
Archives
- Today
- Total
목록자연어처리 #기계번역 #attention #global attention # local attention (1)
누누와데이터
[논문 리뷰] Effective Approaches to Attention-based Neural Machine Translation
Effective Approaches to Attention-based Neural Machine Translation는 attention 기법이 기계번역이 적용되기 시작하던 초창기에 이에 대한 성능을 높이는 방법을 소개한 논문이다. 2022년 현재는 self-attention에 기반한 transformer방법들이 기계번역 성능을 높이는 데, 주로 많이 쓰이지만 이 때 당시만 하더라도 encoder-decoder기반의 모델에서 attention을 접목시켜서 해결하는 것이 주된 방식이였던 것 같다. 논문에서는 Global approach 과 Local approach 두가지 방식을 소개하면서 Bahdanau attetion보다 성능이 좋으면서 연산과정은 더 간단함을 보이고 있다. 특히 Local appro..
자연어처리 논문
2022. 2. 11. 17:44