일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 텐서플로우
- Generalized forward
- 신경망 첫걸음
- Transport layer
- Network layer
- Class Activation Map
- 디바이스 드라이버
- 모두를 위한 딥러닝
- Linux
- function call
- 딥러닝
- RDT
- GPIO
- 운영체제
- 인터럽트
- 밑바닥부터 시작하는 딥러닝
- Interrupt
- 리눅스
- Switch
- 모두를 위한 딥러닝]
- 신경망
- LED 제어
- TensorFlow
- 펌웨어
- file descriptors
- 3분 딥러닝
- Router
- LED
- demultiplexing
- 스위치
Archives
- Today
- Total
건조젤리의 저장소
12-2. Tensorflow를 이용한 RNN 기초 실습 본문
김성훈 교수님의 강의내용을 정리한 내용입니다.
출처 : http://hunkim.github.io/ml/
Tensorflow에서 RNN을 사용하기 위해서는
1. Cell을 만듬 (출력크기 정하기)
2. 셀을 구동시켜 출력하기 (cell과 입력 데이터를 넣음, output: 출력 / _states: 마지막 상태값)
셀의 종류는 다양하고 우리가 원하는 셀을 선택하여 선언하면 된다.
hidden_size는 출력값의 크기를 나타낸다.
하나의 입력값을 넣어 출력한 결과이다.
hidden_size의 값과 출력값의 크기가 동일하다.
5개의 sequence를 가진 데이터를 입력하면 출력되는 결과이다.
배치 처리도 입력 데이터만 수정하면 되기 때문에 간단하다.
'공부 기록 > 모두를 위한 딥러닝 (Basic)' 카테고리의 다른 글
12-4. Tensorflow를 이용한 RNN + Softmax layer 구현 (0) | 2019.11.13 |
---|---|
12-3. Tensorflow를 이용한 RNN 예제 실습 (0) | 2019.11.13 |
12-1. RNN (0) | 2019.11.13 |
11-4. Tensorflow를 이용한 CNN의 구현 (0) | 2019.11.12 |
11-3. CNN case study (0) | 2019.11.12 |
Comments