일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- LED 제어
- 텐서플로우
- 디바이스 드라이버
- 펌웨어
- GPIO
- LED
- Class Activation Map
- 3분 딥러닝
- Transport layer
- demultiplexing
- 딥러닝
- file descriptors
- Linux
- Generalized forward
- 신경망 첫걸음
- 모두를 위한 딥러닝]
- 운영체제
- Interrupt
- Network layer
- Router
- 스위치
- function call
- 밑바닥부터 시작하는 딥러닝
- 리눅스
- 인터럽트
- RDT
- 모두를 위한 딥러닝
- Switch
- 신경망
- TensorFlow
- Today
- Total
목록TensorFlow (2)
건조젤리의 저장소

CNN을 해석하기 위해서는 어떻게 해야할까? 기본적인 CNN구조에서는 Convolution Layer를 이용하여 특징을 뽑아낸 후 Fully-Connected Layer(FC)를 통과시켜 class의 분류를 수행한다. FC를 통과시키기 위해 Convolution을 이용해 뽑은 특징점의 Flatten과정을 거치게 되고 위치 정보들이 소실된다. 만약 이러한 위치 정보들이 소실되지 않고 유지되며 class분류를 수행할 수 있다면, CNN이 각 class를 분류하는데 중요한 위치정보를 알 수 있지 않을까? Learning Deep Features for Discriminative Localization 논문에서는 특징점의 Flatten과정 대신 각 채널별로 Global Average Pooling(GAP)을 적..

더보기 코드 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 x_input = tf.placeholder(tf.float32, [None, 28*28]) y_input = tf.placeholder(tf.float32, [None, 10]) input_dataset = tf.data.Dataset.from_tensor_slices((x_input, y_input)).repeat().batch(100) train_iterator = input_dataset.make_initializable_iterator() next_batch_train = train_iterator.get_next() sess = tf.Session() sess.run(train_iterator.initialize..