Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 자연어처리 #question-answering #dynamic memory #attention
- PCA #주성분 분석 #머신러닝 #선형대수 #sklearn
- 자연어처리 #기계번역 #attention #global attention # local attention
- 딥러닝 #모멘텀 #momentum #핸즈온머신러닝 #하이퍼파라미터튜닝
- 파이썬 #알고리즘 #코딩인터뷰 #리트코드 #DFS
- 자연어처리 #glove #글로브 #glove vector #벡터 임베딩
- cyclegan #GAN
- 3d cad #인공지능 #resnet
- 딥러닝 #머신러닝 #AdaGrad
- 특이값분해 # SVD #머신러닝 #차원축소 # 인공지능
- char-CNN #자연어처리 # 단어임베딩 #wordembedding #LSTM
- BERT #자연어처리
- 파이썬 #알고리즘 #데크 #원형큐 #코딩테스트
- 배치 정규화 #batch normalization # 딥러닝 #머신러닝
Archives
- Today
- Total
목록PCA #주성분 분석 #머신러닝 #선형대수 #sklearn (1)
누누와데이터

구성 차원축소(Dimension Reduction) PCA (Principal Component Analysis) 공분산 행렬 공분산 행렬 분해 klearn 적용 및 활용 차원 축소(Dimension Reduction) 일반적으로 차원이 증가할수록, 데이터 포인트 간의 거리가 기하급수적으로 멀어지게 되고 희소(sparse)한 구조를 가지게 된다. 수백개 이상의 피처로 구성된 데이터 세트의 경우, 상대적으로 적은 차원에서 학습된 모델보다 예측 신뢰도가 떨어진다. 또한 피처가 많을 경우, 개별 피처 간에 상관관계가 높을 가능성이 큰데, 선형회귀와 같은 선형 모델에서는 입력 변수 간의 상관관계가 높을 경우 이로 인한 다중공선성 문제로 모델의 예측 성능이 저하된다 →필요성 : (1) 많은 다차원의 피처를 차원 ..
머신러닝
2021. 6. 28. 22:01