일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- LED 제어
- TensorFlow
- 밑바닥부터 시작하는 딥러닝
- 디바이스 드라이버
- 펌웨어
- Transport layer
- file descriptors
- Linux
- Interrupt
- 3분 딥러닝
- Switch
- 신경망
- 모두를 위한 딥러닝
- 리눅스
- 신경망 첫걸음
- Class Activation Map
- 모두를 위한 딥러닝]
- 딥러닝
- GPIO
- 텐서플로우
- LED
- Router
- function call
- RDT
- Generalized forward
- 스위치
- 운영체제
- Network layer
- demultiplexing
- 인터럽트
- Today
- Total
목록전체 글 (65)
건조젤리의 저장소
김성훈 교수님의 강의내용을 정리한 내용입니다. 출처 : http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io 수식을 그대로 적용하면 간단하다!
김성훈 교수님의 강의내용을 정리한 내용입니다. 출처 : http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io 회귀 문제가 아닌 분류문제의 경우 어떻게 해야할까? 0인지 1인지 구별하는 문제! -> 결과가 0과 1사이의 값으로 나와야 한다! Sigmoid 함수를 이용하면 해결! Cost Function 선형이 아닌 곡선형의 함수이므로 많은 굴곡이 생긴다고 한다. -> 경사 하강법 적용 시 지역 최소값으로 빠질 가능성이 있음! Log함수의 성질을 이용하여 새로운 Cost Function을 만들었다! * 참고: log함수 그래프와 Cost Function의 이해 이와 같은 Cost를 최소화 하면 된다!
김성훈 교수님의 강의내용을 정리한 내용입니다. 출처 : http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io 이와 같은 데이터 파일이 있다. [x1, x2, x3, y] 구조가 줄 단위로 나열되어 있다. 만약 하나의 파일이 아닌 여러개의 파일을 읽어 학습하려면 어떻게 해야할까? 큐 구조를 이용하자! 여러개의 파일들을 큐에 넣고 관리하는 법을 알기전에 기초부터 알아보자. 텐서플로우는 Queue Runner를 이용하여 큐를 관리한다. Queue Runner는 큐에 데이터를 넣는 역할을 한다. Queue Runner가 큐에 어떤 데이터를 어떻게 넣을지 정의 하는 것은 Enqueue_operation이라 한다. Queue Runner는 멀티 쓰레드로 ..
김성훈 교수님의 강의내용을 정리한 내용입니다. 출처 : http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io
김성훈 교수님의 강의내용을 정리한 내용입니다. 출처 : http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io 하나의 변수가 아닌 여러개의 변수일때의 선형 회귀 Multivariable에서의 Cost Function 행렬의 곱셈을 이용하면 간단하게 해결이 가능
김성훈 교수님의 강의내용을 정리한 내용입니다. 출처 : http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io
김성훈 교수님의 강의내용을 정리한 내용입니다. 출처 : http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io 먼저 쉬운 이해를 위해 위의 식을 아래의 식으로 간단하게 나타낸다. Cost function의 그래프는 어떠한 모양을 가지고 있을까? 위의 그래프에 따르면 W=1 일 경우 최소값을 갖게됨을 알 수 있다. 어떻게 하면 최소값을 찾을 수 있을까? Gradient descent algorithm (경사 하강법 알고리즘) 랜덤한 값으로 초기값을 설정한다. Cost function의 미분값을 이용하여 Cost값을 감소시키는 방향으로 값을 약간 수정한다. 반복한다. Cost의 미분값을 사용하므로 쉬운 이해를 위해 값을 약간 수정해보자. W에 알파값..