반응형
250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
Tags
- 코딩독학
- 파이썬
- 코드잇TIL
- matplotlib
- 영국석사
- 데이터분석
- CSS
- 다항회귀
- 코드잇 TIL
- 나혼자코딩
- 로지스틱회귀
- 결정트리
- numpy
- 유학생
- 런던
- 오늘도코드잇
- 행렬
- 경사하강법
- 코딩
- 판다스
- Seaborn
- 선형회귀
- 코드잇
- HTML
- sql연습문제
- 윈도우함수
- SQL
- 코딩공부
- 머신러닝
- for반복문
Archives
- Today
- Total
목록feature scaling (1)
영국 척척석사 유학생 일기장👩🏻🎓

이전 글에서 feature scaling을 하는 이유 중 하나는 경사 하강법을 빨리 할 수 있도록 도와주기 때문이라고 했습니다. 어떤 방법으로 도와주는지 알아봅시다. 1. 선형 회귀, 경사하강법 선형 회귀는 위와 같은 데이터가 있을 때 데이터에 가장 잘 맞는 선 또는 가설 함수 를 찾는 것입니다. 데이터에 가장 잘 맞는다는 것은 데이터에 대한 평균 제곱 오차를 최소화한다는 뜻입니다. 평균 제곱 오차는 아래와 같이 계산합니다. 여기서 m은 데이터 개수, htheta(x^(i))는 i번째 데이터의 목표변수의 예측값, y^(i)는 i번째 데이터의 목표변수의 실제값을 나타냅니다. 그리고 손실 함수라는 것은 아래와 같이 평균 제곱 오차로 정의합니다. 손실 함수는 가설 함수를 평가하기 위한 함수입니다. 손실이 크면..
코딩공부/Machine Learning
2023. 9. 15. 12:02