반응형
250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 코딩공부
- SQL
- for반복문
- 코딩
- 경사하강법
- 파이썬
- matplotlib
- 결정트리
- CSS
- 코딩독학
- 오늘도코드잇
- 머신러닝
- HTML
- 선형회귀
- 다항회귀
- 유학생
- 코드잇TIL
- 영국석사
- 로지스틱회귀
- 행렬
- numpy
- 윈도우함수
- 코드잇 TIL
- 나혼자코딩
- sql연습문제
- 코드잇
- 판다스
- Seaborn
- 런던
- 데이터분석
Archives
- Today
- Total
목록feature scaling (1)
영국 척척석사 유학생 일기장👩🏻🎓

이전 글에서 feature scaling을 하는 이유 중 하나는 경사 하강법을 빨리 할 수 있도록 도와주기 때문이라고 했습니다. 어떤 방법으로 도와주는지 알아봅시다. 1. 선형 회귀, 경사하강법 선형 회귀는 위와 같은 데이터가 있을 때 데이터에 가장 잘 맞는 선 또는 가설 함수 를 찾는 것입니다. 데이터에 가장 잘 맞는다는 것은 데이터에 대한 평균 제곱 오차를 최소화한다는 뜻입니다. 평균 제곱 오차는 아래와 같이 계산합니다. 여기서 m은 데이터 개수, htheta(x^(i))는 i번째 데이터의 목표변수의 예측값, y^(i)는 i번째 데이터의 목표변수의 실제값을 나타냅니다. 그리고 손실 함수라는 것은 아래와 같이 평균 제곱 오차로 정의합니다. 손실 함수는 가설 함수를 평가하기 위한 함수입니다. 손실이 크면..
코딩공부/Machine Learning
2023. 9. 15. 12:02