일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
- 펌웨어
- 신경망
- 모두를 위한 딥러닝]
- Interrupt
- 텐서플로우
- 디바이스 드라이버
- Switch
- 리눅스
- RDT
- LED
- function call
- 스위치
- TensorFlow
- 3분 딥러닝
- file descriptors
- Class Activation Map
- GPIO
- Router
- Transport layer
- Network layer
- demultiplexing
- 모두를 위한 딥러닝
- 딥러닝
- 밑바닥부터 시작하는 딥러닝
- 인터럽트
- Generalized forward
- LED 제어
- 신경망 첫걸음
- Linux
- 운영체제
- Today
- Total
목록공부 기록/모두를 위한 딥러닝 (Basic) (36)
건조젤리의 저장소
김성훈 교수님의 강의내용을 정리한 내용입니다. 출처 : http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io 먼저 쉬운 이해를 위해 위의 식을 아래의 식으로 간단하게 나타낸다. Cost function의 그래프는 어떠한 모양을 가지고 있을까? 위의 그래프에 따르면 W=1 일 경우 최소값을 갖게됨을 알 수 있다. 어떻게 하면 최소값을 찾을 수 있을까? Gradient descent algorithm (경사 하강법 알고리즘) 랜덤한 값으로 초기값을 설정한다. Cost function의 미분값을 이용하여 Cost값을 감소시키는 방향으로 값을 약간 수정한다. 반복한다. Cost의 미분값을 사용하므로 쉬운 이해를 위해 값을 약간 수정해보자. W에 알파값..
김성훈 교수님의 강의내용을 정리한 내용입니다. 출처 : http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io
김성훈 교수님의 강의내용을 정리한 내용입니다. 출처 : http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io 이러한 데이터의 특징을 나타낼 수 있는 선형식은 무엇일까? 어떻게 찾을 수 있을까? 선형식은 위와 같은 1차 방정식으로 나타낼 수 있다. W와 b의 값을 어떻게 설정하면 파란 선처럼 데이터의 특징을 잘 나타낼 수 있을까? 실제 데이터의 값과 선형식의 값의 차이를 최소한으로 줄이면 최적의 선형식을 찾을 수 있을 것이다. 실제 값과 예측값의 차이를 Cost라 한다. Cost 값을 가장 최소화시키는 W, b를 찾는 것이 목표가 될 것이다. 우리의 목표를 위와 같이 나타낼 수 있다.
김성훈 교수님의 강의내용을 정리한 내용입니다. 출처 : http://hunkim.github.io/ml/ 모두를 위한 머신러닝/딥러닝 강의 hunkim.github.io 프로그래머가 정확하게 프로그래밍 하기 어려운 경우 스팸 필터 자율 주행 차 Machine Learning (기계 학습) 기계가 일일이 코드로 명시하지 않은 동작을 데이터로부터 학습하여 실행할 수 있도록 하는 알고리즘을 개발하는 연구 분야 학습하는 방법에 따라 Supervised/Unsupervised learning (지도/비지도 학습) 으로 분류할 수 있다. Supervised learning 라벨링이 되어있는 학습 데이터로 학습을 하는 방법 Unsupervised learning 주어진 데이터로 스스로 학습하는 방법 Types of ..