Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- 자연어처리 #glove #글로브 #glove vector #벡터 임베딩
- 딥러닝 #머신러닝 #AdaGrad
- BERT #자연어처리
- 배치 정규화 #batch normalization # 딥러닝 #머신러닝
- 자연어처리 #기계번역 #attention #global attention # local attention
- 3d cad #인공지능 #resnet
- PCA #주성분 분석 #머신러닝 #선형대수 #sklearn
- 자연어처리 #question-answering #dynamic memory #attention
- 특이값분해 # SVD #머신러닝 #차원축소 # 인공지능
- 딥러닝 #모멘텀 #momentum #핸즈온머신러닝 #하이퍼파라미터튜닝
- 파이썬 #알고리즘 #데크 #원형큐 #코딩테스트
- char-CNN #자연어처리 # 단어임베딩 #wordembedding #LSTM
- cyclegan #GAN
- 파이썬 #알고리즘 #코딩인터뷰 #리트코드 #DFS
Archives
- Today
- Total
목록char-CNN #자연어처리 # 단어임베딩 #wordembedding #LSTM (1)
누누와데이터
[논문 리뷰] Character-Aware Neural Language Models
1. Introduction 일반적인 NLM 의 특징과 단점 • 언어 모델은 단어들에 대한 시퀀스를 확률 분포로 나타낸 것이다. • 그리고 전통적인 방법은 (1) n차 마르코프 가정과 (2) counting과 subsequent smoothing에 대한 n-gram 확률 추정을 나타낸다. • Neural language model은 n-gram 데이터의 sparsity 문제를 단어에 대한 매개변수화를 통해 임베딩 벡터를 표현함으로써 해결한다. • NLM이 count-based 방법보다 앞선 성능을 보여주지만, 이러한 모델에도 단점이 있다 . 예컨대, NLM은 eventful, eventfully, uneventful, and uneventfully 와 같은 단어들이 벡터 공간에서 서로 구조적으로 연관된 ..
자연어처리 논문
2022. 1. 22. 17:39