Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 딥러닝 #머신러닝 #AdaGrad
- 자연어처리 #glove #글로브 #glove vector #벡터 임베딩
- 배치 정규화 #batch normalization # 딥러닝 #머신러닝
- 파이썬 #알고리즘 #데크 #원형큐 #코딩테스트
- 자연어처리 #question-answering #dynamic memory #attention
- 자연어처리 #기계번역 #attention #global attention # local attention
- 딥러닝 #모멘텀 #momentum #핸즈온머신러닝 #하이퍼파라미터튜닝
- 특이값분해 # SVD #머신러닝 #차원축소 # 인공지능
- BERT #자연어처리
- cyclegan #GAN
- 파이썬 #알고리즘 #코딩인터뷰 #리트코드 #DFS
- 3d cad #인공지능 #resnet
- PCA #주성분 분석 #머신러닝 #선형대수 #sklearn
- char-CNN #자연어처리 # 단어임베딩 #wordembedding #LSTM
Archives
- Today
- Total
목록BERT #자연어처리 (1)
누누와데이터

1. Introduction & Related Work - Language model의 pre-training은 많은 자연어 처리 tasks에서 효과가 있다. - 여기서 말하는 pre-training 방법은 다른 문제에 학습시킨 가중치들로 초기화하고 pre-train 모델을 downstream task에 적용하는 것이다. - downstream task의 예시 Sentence-level tasks : natural language inference, paraphrasing, … Token-level tasks : named entity recognition, question answering, … - pre-training을 하기 위한 task로 Language model를 채택한다. - Language..
자연어처리 논문
2022. 3. 6. 16:54