Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- ADP
- LDA
- 머신러닝
- 프론트엔드
- ADP 실기
- TooBigToInnovate
- python
- 리액트
- 차원 축소
- 최적화
- 구글
- Machine Learning
- docker
- r
- 심층신경망
- 쿠버네티스
- 대감집 체험기
- 타입스크립트
- 파이썬
- Kaggle
- React
- frontend
- DBSCAN
- 캐글
- do it
- 대감집
- Kubernetes
- 클러스터링
- bigquery
- 빅쿼리
Archives
- Today
- Total
목록심층신경망 (1)
No Story, No Ecstasy

1. Vanishing Gradient (or exploding gradient) 문제 해결 - Vanishing Gradient란? . 알고리즘이 하위층으로 진행될수록 그래디언트는 점점 작아지게 된다(연쇄적으로 계산하기 때문). . 어떤 경우에는 특정 층의 가중치가 비정상적으로 커져서, 알고리즘이 발산할 수도 있다. (예: RNN) . 심층 신경망이 오랫동안 방치되었던 이유 중 하나 - 중요한 발견: 로지스틱 시그모이드 함수와 표준정규분포를 사용한 가중치 무작위 초기화의 문제 . 이 조합으로 훈련 시, 각 층에서 출력의 분산이 입력의 분산보다 크다는 것을 발견 . 신경망의 위쪽으로 갈수록 분산이 계속 커져 가장 높은 층에서는 활성화 함수가 0이나 1로 수렴 . 로지스틱 함수의 평균이 0.5라는 사실 때..
Data Science Series
2021. 5. 29. 23:40