일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | 7 |
8 | 9 | 10 | 11 | 12 | 13 | 14 |
15 | 16 | 17 | 18 | 19 | 20 | 21 |
22 | 23 | 24 | 25 | 26 | 27 | 28 |
29 | 30 |
Tags
- RDT
- 인터럽트
- 모두를 위한 딥러닝]
- 밑바닥부터 시작하는 딥러닝
- LED
- LED 제어
- 3분 딥러닝
- Switch
- 운영체제
- 딥러닝
- Interrupt
- GPIO
- file descriptors
- demultiplexing
- Linux
- Router
- 모두를 위한 딥러닝
- function call
- 신경망
- 펌웨어
- Class Activation Map
- 신경망 첫걸음
- Generalized forward
- Transport layer
- TensorFlow
- 텐서플로우
- Network layer
- 스위치
- 리눅스
- 디바이스 드라이버
Archives
- Today
- Total
건조젤리의 저장소
5-1. Logistic (regression) classification 본문
김성훈 교수님의 강의내용을 정리한 내용입니다.
출처 : http://hunkim.github.io/ml/
회귀 문제가 아닌 분류문제의 경우 어떻게 해야할까?
0인지 1인지 구별하는 문제! -> 결과가 0과 1사이의 값으로 나와야 한다!
Sigmoid 함수를 이용하면 해결!
Cost Function
선형이 아닌 곡선형의 함수이므로 많은 굴곡이 생긴다고 한다.
-> 경사 하강법 적용 시 지역 최소값으로 빠질 가능성이 있음!
Log함수의 성질을 이용하여 새로운 Cost Function을 만들었다!
* 참고: log함수 그래프와 Cost Function의 이해
이와 같은 Cost를 최소화 하면 된다!
'공부 기록 > 모두를 위한 딥러닝 (Basic)' 카테고리의 다른 글
6-1. Softmax classification: Multinomial classification (0) | 2019.11.07 |
---|---|
5-2. Tensorflow를 이용한 Logistic (regression) classifier구현 (0) | 2019.11.07 |
4-3. Tensorflow를 이용해 File에서 Data 읽어오기 (0) | 2019.11.07 |
4-2. Tensorflow를 이용한 Multi-variable linear regression구현 (0) | 2019.11.06 |
4-1. Multi-variable linear regression (0) | 2019.11.06 |
Comments