일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- function call
- 모두를 위한 딥러닝]
- 펌웨어
- 스위치
- Interrupt
- Network layer
- Transport layer
- TensorFlow
- 신경망 첫걸음
- file descriptors
- Class Activation Map
- RDT
- 3분 딥러닝
- 딥러닝
- 텐서플로우
- 리눅스
- GPIO
- 모두를 위한 딥러닝
- LED
- Router
- 디바이스 드라이버
- Switch
- Linux
- 밑바닥부터 시작하는 딥러닝
- Generalized forward
- 인터럽트
- demultiplexing
- 운영체제
- 신경망
- LED 제어
- Today
- Total
목록TensorFlow (2)
건조젤리의 저장소
CNN을 해석하기 위해서는 어떻게 해야할까? 기본적인 CNN구조에서는 Convolution Layer를 이용하여 특징을 뽑아낸 후 Fully-Connected Layer(FC)를 통과시켜 class의 분류를 수행한다. FC를 통과시키기 위해 Convolution을 이용해 뽑은 특징점의 Flatten과정을 거치게 되고 위치 정보들이 소실된다. 만약 이러한 위치 정보들이 소실되지 않고 유지되며 class분류를 수행할 수 있다면, CNN이 각 class를 분류하는데 중요한 위치정보를 알 수 있지 않을까? Learning Deep Features for Discriminative Localization 논문에서는 특징점의 Flatten과정 대신 각 채널별로 Global Average Pooling(GAP)을 적..
더보기 코드 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 x_input = tf.placeholder(tf.float32, [None, 28*28]) y_input = tf.placeholder(tf.float32, [None, 10]) input_dataset = tf.data.Dataset.from_tensor_slices((x_input, y_input)).repeat().batch(100) train_iterator = input_dataset.make_initializable_iterator() next_batch_train = train_iterator.get_next() sess = tf.Session() sess.run(train_iterator.initialize..