일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- GPIO
- Linux
- 펌웨어
- Interrupt
- 신경망 첫걸음
- 모두를 위한 딥러닝]
- Network layer
- 리눅스
- 신경망
- demultiplexing
- Class Activation Map
- RDT
- 딥러닝
- Generalized forward
- 디바이스 드라이버
- Switch
- file descriptors
- 3분 딥러닝
- 운영체제
- 스위치
- Transport layer
- 모두를 위한 딥러닝
- LED 제어
- function call
- TensorFlow
- LED
- 인터럽트
- 텐서플로우
- Router
- 밑바닥부터 시작하는 딥러닝
Archives
- Today
- Total
건조젤리의 저장소
11-3. CNN case study 본문
김성훈 교수님의 강의내용을 정리한 내용입니다.
출처 : http://hunkim.github.io/ml/
강의에서 쓰인 자료 출처: http://cs231n.stanford.edu/
CNN의 등장을 알린 네트워크이다.
컨볼루션 필터의 크기는 5x5이고 stride는 1이다.
풀링 레이어를 사용하였다.
Normalization layer는 최근에는 잘 사용되지 않는 레이어이다.
ReLU를 처음 사용한 네트워크이다.
7개의 네트워크를 사용하여(앙상블) 성능을 향상하였다.
인셉션 모듈이라는 특이한 레이어 구조를 가지고 있는 네트워크이다.
다른 네트워크와 비교하여 네트워크가 상당히 깊어졌다.
네트워크가 깊어지면 학습이 어려워지게 되는데 ResNet은 특수한 구조를 사용하여 이를 해결하였다.
여러 레이어를 거치지 않고 바로 연결하는 구조를 추가하였다.
두 네트워크(GoogLeNet, ResNet)는 유사한 구조를 가지고 있다.
이미지 뿐만 아니라 Text 분류에도 컨볼루션 네트워크를 사용하였다.
'공부 기록 > 모두를 위한 딥러닝 (Basic)' 카테고리의 다른 글
12-1. RNN (0) | 2019.11.13 |
---|---|
11-4. Tensorflow를 이용한 CNN의 구현 (0) | 2019.11.12 |
11-2. CNN introduction: Max pooling and others (0) | 2019.11.12 |
11-1. CNN introduction (0) | 2019.11.11 |
10-5. Tensorflow로 구현한 NN, ReLu, Xavier, Dropout, Adam (0) | 2019.11.11 |
Comments