일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 운영체제
- Class Activation Map
- Router
- 신경망
- LED 제어
- 텐서플로우
- Linux
- 밑바닥부터 시작하는 딥러닝
- demultiplexing
- 리눅스
- 모두를 위한 딥러닝]
- 스위치
- file descriptors
- RDT
- Network layer
- GPIO
- TensorFlow
- Transport layer
- Switch
- Generalized forward
- function call
- LED
- 인터럽트
- 3분 딥러닝
- 모두를 위한 딥러닝
- Interrupt
- 신경망 첫걸음
- 디바이스 드라이버
- 딥러닝
- 펌웨어
Archives
- Today
- Total
건조젤리의 저장소
10-3. NN dropout and model ensemble 본문
김성훈 교수님의 강의내용을 정리한 내용입니다.
출처 : http://hunkim.github.io/ml/
오버 피팅이란 학습 데이터에 모델이 과도하게 적응하여 새로운 데이터에 대한 분별력을 잃어버리는 현상을 말합니다.
모델이 오버 피팅인지 알 수 있는 방법은 학습 데이터와 테스트 데이터의 정확도 차이를 보면 알 수 있습니다.
지난 시간에는 오버 피팅을 해결하기 위해 Regularization(일반화) (7장 참고) 를 이용했습니다.
이번 시간에는 Dropout기법을 알아보도록 하겠습니다.
Dropout이란 학습 시 임의의 노드를 0으로 설정하는 방법입니다.
이 방법을 이용하면 특정노드에 모델이 의존적으로 바뀌는 것을 억제할 수 있다.
또한 학습 데이터에 의해 가중치들의 서로 동조화 되는 현상을 억제할 수 있고
모델 결합에 의한 투표효과(Voting)이 생기게 되고 학습의 성능이 개선된다고 한다.
Tensorflow에서는 Dropout을 이미 구현해 놓았다.
이 함수를 사용할때 우리는 Dropout비율을 잘 설정하면 된다.
주의할 점은 테스트를 할 때는 비율을 1로 설정해야 한다는 점이다.
앙상블이란 독립적으로 모델을 만든 뒤 각 모델을 학습시킨 후,
테스트 시 각 모델의 결과들을 합하여 최종 결과를 뽑아내는 방법을 말한다. (Voting)
이러한 방법을 통해 4~5%의 성능 향상을 얻을 수 있다.
(Dropout의 원리와 관련이 있다!)
'공부 기록 > 모두를 위한 딥러닝 (Basic)' 카테고리의 다른 글
10-5. Tensorflow로 구현한 NN, ReLu, Xavier, Dropout, Adam (0) | 2019.11.11 |
---|---|
10-4. NN LEGO Play (0) | 2019.11.11 |
10-2. Initialize weights in a smart way (1) | 2019.11.11 |
10-1. ReLU: Better non-linearity (0) | 2019.11.08 |
9-4. Tensorboard 사용 (0) | 2019.11.08 |
Comments