일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
- ADP 실기
- 차원 축소
- 머신러닝
- 빅쿼리
- 캐글
- TooBigToInnovate
- 파이썬
- 리액트
- 최적화
- ADP
- 타입스크립트
- 대감집
- 심층신경망
- 구글
- React
- LDA
- 프론트엔드
- bigquery
- DBSCAN
- frontend
- 대감집 체험기
- python
- Machine Learning
- Kubernetes
- r
- do it
- 쿠버네티스
- docker
- 클러스터링
- Kaggle
- Today
- Total
목록차원 축소 (2)
No Story, No Ecstasy
1. Feature Engineering # Feature Engineering # Example) improve performance through feature engineering X = df.copy() y = X.pop("CompressiveStrength") # Train and score baseline model baseline = RandomForestRegressor(criterion="mae", random_state=0) baseline_score = cross_val_score(baseline, X, y, cv=5, scoring="neg_mean_absolute_error") baseline_score = -1 * baseline_score.mean() print(f"MAE Ba..
0. 차원 축소 - Feature 수를 크게 줄이는 것으로, 모델의 훈련 속도를 높이거나 데이터 시각화를 위해 사용된다. - Feature 수가 늘어날수록 샘플의 밀도는 기하급수적으로 낮아진다. (=과대 적합 위험이 커진다.) - 투영과 매니폴드 학습 접근법 - 투영: 저차원 부분공간(평면)에 놓여 있다고 가정하여, 저차원으로 투영시키는 것 - 매니폴드 학습: 휘어지거나 뒤틀린 저차원 공간에 놓여있다고 가정하여 매니폴드 공간을 찾는 것 1. PCA (Principal Component Analysis) - 저차원의 초평면에 훈련 세트를 투영시키는 차원 축소 알고리즘이다. - 분산이 최대로 보존되는 축(원본 데이터 셋과 투영된 것 사이의 평균제곱거리를 최소화)을 찾아야 한다. - 주성분은 특잇값 분해(SV..