Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 | 31 |
Tags
- Kubernetes
- LDA
- do it
- 타입스크립트
- 프론트엔드
- 리액트
- 쿠버네티스
- React
- TooBigToInnovate
- 캐글
- 머신러닝
- 차원 축소
- DBSCAN
- docker
- Machine Learning
- 빅쿼리
- 클러스터링
- 대감집
- python
- 대감집 체험기
- 심층신경망
- Kaggle
- frontend
- 최적화
- r
- ADP
- 파이썬
- bigquery
- ADP 실기
- 구글
Archives
- Today
- Total
목록nnet (1)
No Story, No Ecstasy
[ADP 실기 with R] 7. Neural Networks
1. Neural Networks - 퍼셉트론: 각 노드의 입력치*가중치의 합과 활성 함수에 의하여 해당 노드의 활성화 여부가 결정되는 간단한 feedforward 인공 신경망 - 다층 퍼셉트론과 역전파 - 입력층, 은닉층, 출력층으로 구성된 인공 신경망을 다층 퍼셉트론, 은닉층이 2개 이상일 때 심층 신경망이라고 표현 - 역전파 알고리즘은 네트워크의 출력 오차에 각 뉴런이 얼마나 기여했는지를 마지막 은닉층부터 측정하여, 이전 은닉층의 뉴런은 얼마나 기여했는지 입력층에 도달할 때까지 계속 측정하는 것을 의미한다. - 이렇게 역방향으로 계산한 오차 그래디언트를 네트워크의 모든 연결 가중치에 반영한다(경사 하강법). - 역전파 알고리즘을 위한 대표적 활성화 함수: 로지스틱, 하이퍼볼릭 탄젠트, ReLU 함수..
Data Science Series
2020. 12. 12. 17:20