Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- 쿠버네티스
- bigquery
- 리액트
- 머신러닝
- r
- 심층신경망
- LDA
- 클러스터링
- 파이썬
- Machine Learning
- Kubernetes
- 차원 축소
- TooBigToInnovate
- 대감집 체험기
- do it
- 대감집
- Kaggle
- frontend
- 프론트엔드
- DBSCAN
- python
- docker
- 구글
- ADP
- ADP 실기
- 빅쿼리
- 타입스크립트
- React
- 최적화
- 캐글
Archives
- Today
- Total
목록pca (1)
No Story, No Ecstasy
[ADP 실기 with R] 2. 차원 축소: PCA, LLE, FA (Factor Analysis), MDS
0. 차원 축소 - Feature 수를 크게 줄이는 것으로, 모델의 훈련 속도를 높이거나 데이터 시각화를 위해 사용된다. - Feature 수가 늘어날수록 샘플의 밀도는 기하급수적으로 낮아진다. (=과대 적합 위험이 커진다.) - 투영과 매니폴드 학습 접근법 - 투영: 저차원 부분공간(평면)에 놓여 있다고 가정하여, 저차원으로 투영시키는 것 - 매니폴드 학습: 휘어지거나 뒤틀린 저차원 공간에 놓여있다고 가정하여 매니폴드 공간을 찾는 것 1. PCA (Principal Component Analysis) - 저차원의 초평면에 훈련 세트를 투영시키는 차원 축소 알고리즘이다. - 분산이 최대로 보존되는 축(원본 데이터 셋과 투영된 것 사이의 평균제곱거리를 최소화)을 찾아야 한다. - 주성분은 특잇값 분해(SV..
Data Science Series
2020. 12. 12. 17:15