일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 모두를 위한 딥러닝]
- Generalized forward
- Switch
- LED
- 딥러닝
- 신경망
- 신경망 첫걸음
- Network layer
- GPIO
- file descriptors
- Transport layer
- 리눅스
- 운영체제
- Linux
- Class Activation Map
- TensorFlow
- 3분 딥러닝
- LED 제어
- Router
- RDT
- 밑바닥부터 시작하는 딥러닝
- 펌웨어
- 디바이스 드라이버
- 모두를 위한 딥러닝
- 스위치
- demultiplexing
- function call
- Interrupt
- 인터럽트
- 텐서플로우
Archives
- Today
- Total
건조젤리의 저장소
7-3. Tensorflow를 이용한 Learning rate, Evaluation실습 본문
김성훈 교수님의 강의내용을 정리한 내용입니다.
출처 : http://hunkim.github.io/ml/
Learning rate를 적절하게 설정하지 못할경우 어떻게 되는지 확인해보자.
nan이 나타난다!
Cost의 변동이 없다.
데이터가 정규화 되지 않았다면 어떻게 될까?
정규화 과정을 거친다면?!
'공부 기록 > 모두를 위한 딥러닝 (Basic)' 카테고리의 다른 글
8. 딥러닝의 기본 개념 및 Tensorflow Manipulation (0) | 2019.11.07 |
---|---|
7-4. Tensorflow를 이용한 MNIST 실습 (0) | 2019.11.07 |
7-2. Learning and test data sets (0) | 2019.11.07 |
7-1. Learning rate, data preprocessing, overfitting (0) | 2019.11.07 |
6-2. Tensorflow를 이용한 Softmax Classifier구현 (0) | 2019.11.07 |
Comments