일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |
Tags
- 3분 딥러닝
- Network layer
- file descriptors
- 운영체제
- demultiplexing
- Router
- 신경망
- 모두를 위한 딥러닝]
- LED
- 인터럽트
- 스위치
- Transport layer
- Linux
- 디바이스 드라이버
- function call
- Generalized forward
- 딥러닝
- RDT
- 밑바닥부터 시작하는 딥러닝
- 텐서플로우
- 펌웨어
- TensorFlow
- Interrupt
- 리눅스
- Class Activation Map
- GPIO
- Switch
- LED 제어
- 모두를 위한 딥러닝
- 신경망 첫걸음
Archives
- Today
- Total
건조젤리의 저장소
10-5. Tensorflow로 구현한 NN, ReLu, Xavier, Dropout, Adam 본문
공부 기록/모두를 위한 딥러닝 (Basic)
10-5. Tensorflow로 구현한 NN, ReLu, Xavier, Dropout, Adam
건조젤리 2019. 11. 11. 17:05김성훈 교수님의 강의내용을 정리한 내용입니다.
출처 : http://hunkim.github.io/ml/
모두를 위한 머신러닝/딥러닝 강의
hunkim.github.io
기존 7장에서 구현하였던 MNIST 예제이다.
계층을 늘리게 된다면 정확도가 증가하게 된다.
Xavier 초기값으로 설정하게 된다면 정확도가 더욱 증가한다.
계층을 증가시켰음에도 정확도가 더 나아지지 않은 모습이다. (Overfitting)
Overfitting문제를 해결하기 위해 Dropout기법을 사용하여 정확도가 더욱 증가하였다.
경사하강법 외에 더욱 다양한 최적화 알고리즘이 존재한다.
'공부 기록 > 모두를 위한 딥러닝 (Basic)' 카테고리의 다른 글
11-2. CNN introduction: Max pooling and others (0) | 2019.11.12 |
---|---|
11-1. CNN introduction (0) | 2019.11.11 |
10-4. NN LEGO Play (0) | 2019.11.11 |
10-3. NN dropout and model ensemble (0) | 2019.11.11 |
10-2. Initialize weights in a smart way (1) | 2019.11.11 |
Comments