일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 딥러닝
- 리눅스
- function call
- Generalized forward
- 디바이스 드라이버
- 텐서플로우
- GPIO
- Linux
- LED 제어
- 신경망
- Router
- TensorFlow
- 밑바닥부터 시작하는 딥러닝
- 모두를 위한 딥러닝]
- 스위치
- Network layer
- 펌웨어
- 운영체제
- Interrupt
- demultiplexing
- file descriptors
- Switch
- 3분 딥러닝
- LED
- 모두를 위한 딥러닝
- Class Activation Map
- 신경망 첫걸음
- Transport layer
- RDT
- 인터럽트
Archives
- Today
- Total
목록Keras (1)
건조젤리의 저장소

CNN을 해석하기 위해서는 어떻게 해야할까? 기본적인 CNN구조에서는 Convolution Layer를 이용하여 특징을 뽑아낸 후 Fully-Connected Layer(FC)를 통과시켜 class의 분류를 수행한다. FC를 통과시키기 위해 Convolution을 이용해 뽑은 특징점의 Flatten과정을 거치게 되고 위치 정보들이 소실된다. 만약 이러한 위치 정보들이 소실되지 않고 유지되며 class분류를 수행할 수 있다면, CNN이 각 class를 분류하는데 중요한 위치정보를 알 수 있지 않을까? Learning Deep Features for Discriminative Localization 논문에서는 특징점의 Flatten과정 대신 각 채널별로 Global Average Pooling(GAP)을 적..
공부 기록/인공지능
2020. 1. 8. 13:08