일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 스위치
- Class Activation Map
- Linux
- 운영체제
- LED 제어
- 디바이스 드라이버
- Router
- function call
- Switch
- 신경망
- 텐서플로우
- 모두를 위한 딥러닝]
- 리눅스
- demultiplexing
- 모두를 위한 딥러닝
- Interrupt
- file descriptors
- Transport layer
- TensorFlow
- Generalized forward
- RDT
- Network layer
- 펌웨어
- 3분 딥러닝
- GPIO
- LED
- 딥러닝
- 인터럽트
- 신경망 첫걸음
- 밑바닥부터 시작하는 딥러닝
Archives
- Today
- Total
건조젤리의 저장소
9-2. Backpropagation 본문
김성훈 교수님의 강의내용을 정리한 내용입니다.
출처 : http://hunkim.github.io/ml/
경사 하강법을 이용해 모델을 학습하기 위해서는 각 가중치의 미분값이 필요하다.
XOR을 구현한 모델은 2개의 레이어로 구성되어있다.
어떻게 해야할까?
먼저 편미분에 대한 기본 지식이 있어야 한다.
교수님의 설명 동영상 링크를 참고하자.
동영상: https://www.youtube.com/watch?v=oZyvmtqLmLo&list=PLlMkM4tgfjnLSOjrEJN31gZATbcj_MpUm&index=26
Chain rule를 이용해 각 노드의 미분값을 구할 수 있다.
레이어가 깊어도 계산은 간단하다.
결국 앞에서 전달받은 미분값에 로컬 미분값을 곱하면 되는 것이다.
이를 이용하면 Sigmoid의 미분도 간단하다.
각 계산별로 노드를 나눈 뒤 미분을 수행하면 된다.
텐서플로우에서는 이러한 방식을 사용해 미분을 하는데,
각 노드가 서로 연결되어 있는 모습을 TensorBoard에서 확인할 수 있다.
'공부 기록 > 모두를 위한 딥러닝 (Basic)' 카테고리의 다른 글
9-4. Tensorboard 사용 (0) | 2019.11.08 |
---|---|
9-3. Tensorflow를 이용한 XOR구현 (0) | 2019.11.08 |
9-1. Neural Nets(NN) for XOR (0) | 2019.11.08 |
8. 딥러닝의 기본 개념 및 Tensorflow Manipulation (0) | 2019.11.07 |
7-4. Tensorflow를 이용한 MNIST 실습 (0) | 2019.11.07 |
Comments