Gradient Descent(경사하강법)
머신러닝 기반 회귀의 핵심 사항은 비용함수를 최소로 만드는 w1, w0 변수가 무엇인지 알아내는 것이다. (여기서는 단순선형 회귀라고 가정한다. y = w0 + w1 * x) 비용함수를 최소로 하는 w1, w0 가 무엇인지 찾아보는 방법이 경사하강법 이다. 실제 y 와 예측된 y_pred 의 차이를 계산하는 비용함수는 아래와 같다. 비용함수를 단순히 y=x^2 로 나타내보면 위의 그래프와 같은데, 여기서 두가지 사항을 눈여겨보자. 1) 방향성 기울기+ 인 경우 : x 값이 작아질수록 y 가 작아지고, 기울기- 인 경우 : x값이 커질수록 y 가 작아짐을 알 수 있다. 2) 크기 y (비용함수)가 작을 수록 : 기울기가 작아지고 y (비용함수)가 클수록 : 기울기가 커진다. 따라서, w1_update = ..
머신러닝
2023. 2. 9. 11:53
공지사항
최근에 올라온 글
최근에 달린 댓글
- Total
- Today
- Yesterday
링크
TAG
- 통화량 데이타
- dash
- 리치고 주식
- 마연굴
- 환율이평선
- 블록해쉬구현
- 김성일 작가님
- 리치고
- 블록해쉬
- pandas apply
- 말잔
- 계정조정계열
- 원계열
- Dash.html
- 연금저축
- 환매시점
- 환율데이터
- 경제는 어떻게 움직이는가
- ChatGPT
- Forgiving
- 위경도변환
- 내 연금조회
- 연금등록
- 주소를 위경도 변환
- 경제주체별 M2
- Dash 와 html 차이
- 객사오
- M1M2비율
- 프로그래스바 표시
- M1/M2
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
글 보관함