일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- Network layer
- 리눅스
- function call
- file descriptors
- 디바이스 드라이버
- Interrupt
- LED
- 펌웨어
- 모두를 위한 딥러닝
- demultiplexing
- 신경망
- TensorFlow
- 텐서플로우
- 인터럽트
- Linux
- RDT
- 딥러닝
- GPIO
- Class Activation Map
- Router
- 스위치
- Switch
- 모두를 위한 딥러닝]
- 밑바닥부터 시작하는 딥러닝
- 3분 딥러닝
- Generalized forward
- 운영체제
- LED 제어
- Transport layer
- 신경망 첫걸음
Archives
- Today
- Total
건조젤리의 저장소
11-3. CNN case study 본문
김성훈 교수님의 강의내용을 정리한 내용입니다.
출처 : http://hunkim.github.io/ml/
모두를 위한 머신러닝/딥러닝 강의
hunkim.github.io
강의에서 쓰인 자료 출처: http://cs231n.stanford.edu/
CNN의 등장을 알린 네트워크이다.
컨볼루션 필터의 크기는 5x5이고 stride는 1이다.
풀링 레이어를 사용하였다.
Normalization layer는 최근에는 잘 사용되지 않는 레이어이다.
ReLU를 처음 사용한 네트워크이다.
7개의 네트워크를 사용하여(앙상블) 성능을 향상하였다.
인셉션 모듈이라는 특이한 레이어 구조를 가지고 있는 네트워크이다.
다른 네트워크와 비교하여 네트워크가 상당히 깊어졌다.
네트워크가 깊어지면 학습이 어려워지게 되는데 ResNet은 특수한 구조를 사용하여 이를 해결하였다.
여러 레이어를 거치지 않고 바로 연결하는 구조를 추가하였다.
두 네트워크(GoogLeNet, ResNet)는 유사한 구조를 가지고 있다.
이미지 뿐만 아니라 Text 분류에도 컨볼루션 네트워크를 사용하였다.
'공부 기록 > 모두를 위한 딥러닝 (Basic)' 카테고리의 다른 글
12-1. RNN (0) | 2019.11.13 |
---|---|
11-4. Tensorflow를 이용한 CNN의 구현 (0) | 2019.11.12 |
11-2. CNN introduction: Max pooling and others (0) | 2019.11.12 |
11-1. CNN introduction (0) | 2019.11.11 |
10-5. Tensorflow로 구현한 NN, ReLu, Xavier, Dropout, Adam (0) | 2019.11.11 |
Comments