일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | |||||
3 | 4 | 5 | 6 | 7 | 8 | 9 |
10 | 11 | 12 | 13 | 14 | 15 | 16 |
17 | 18 | 19 | 20 | 21 | 22 | 23 |
24 | 25 | 26 | 27 | 28 | 29 | 30 |
Tags
- 3분 딥러닝
- 운영체제
- 모두를 위한 딥러닝]
- Class Activation Map
- TensorFlow
- Switch
- file descriptors
- 스위치
- LED 제어
- 리눅스
- 신경망
- Router
- 모두를 위한 딥러닝
- demultiplexing
- 인터럽트
- Interrupt
- RDT
- 디바이스 드라이버
- 텐서플로우
- 펌웨어
- Generalized forward
- Transport layer
- function call
- 딥러닝
- GPIO
- LED
- 밑바닥부터 시작하는 딥러닝
- Network layer
- Linux
- 신경망 첫걸음
Archives
- Today
- Total
건조젤리의 저장소
2-1. Linear Regression 본문
김성훈 교수님의 강의내용을 정리한 내용입니다.
출처 : http://hunkim.github.io/ml/
이러한 데이터의 특징을 나타낼 수 있는 선형식은 무엇일까? 어떻게 찾을 수 있을까?
선형식은 위와 같은 1차 방정식으로 나타낼 수 있다.
W와 b의 값을 어떻게 설정하면 파란 선처럼 데이터의 특징을 잘 나타낼 수 있을까?
실제 데이터의 값과 선형식의 값의 차이를 최소한으로 줄이면 최적의 선형식을 찾을 수 있을 것이다.
실제 값과 예측값의 차이를 Cost라 한다.
Cost 값을 가장 최소화시키는 W, b를 찾는 것이 목표가 될 것이다.
우리의 목표를 위와 같이 나타낼 수 있다.
'공부 기록 > 모두를 위한 딥러닝 (Basic)' 카테고리의 다른 글
4-1. Multi-variable linear regression (0) | 2019.11.06 |
---|---|
3-2. Tensorflow를 이용한 Minimizing Cost확인 (0) | 2019.11.06 |
3-1. How to minimize cost (0) | 2019.11.06 |
2-2. Tensorflow를 이용한 Linear Regression의 구현 (0) | 2019.11.06 |
1. Machine Learning Basics (모두를 위한 딥러닝 정리) (0) | 2019.11.06 |
Comments