반응형
250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 |
Tags
- SQL
- 코딩
- 서브쿼리
- 로지스틱회귀
- Seaborn
- 파이썬
- 행렬
- for반복문
- CSS
- 판다스
- 코드잇 TIL
- 코딩공부
- 경사하강법
- 다항회귀
- 코드잇
- 머신러닝
- 코딩독학
- HTML
- pandas
- matplotlib
- 윈도우함수
- 나혼자코딩
- sql연습문제
- 결정트리
- 코드잇TIL
- 메소드
- numpy
- 오늘도코드잇
- 데이터분석
- 선형회귀
Archives
- Today
- Total
목록feature scaling (1)
Coding Diary.
(Machine Learning) Feature Scaling 과 경사하강법
이전 글에서 feature scaling을 하는 이유 중 하나는 경사 하강법을 빨리 할 수 있도록 도와주기 때문이라고 했습니다. 어떤 방법으로 도와주는지 알아봅시다. 1. 선형 회귀, 경사하강법 선형 회귀는 위와 같은 데이터가 있을 때 데이터에 가장 잘 맞는 선 또는 가설 함수 를 찾는 것입니다. 데이터에 가장 잘 맞는다는 것은 데이터에 대한 평균 제곱 오차를 최소화한다는 뜻입니다. 평균 제곱 오차는 아래와 같이 계산합니다. 여기서 m은 데이터 개수, htheta(x^(i))는 i번째 데이터의 목표변수의 예측값, y^(i)는 i번째 데이터의 목표변수의 실제값을 나타냅니다. 그리고 손실 함수라는 것은 아래와 같이 평균 제곱 오차로 정의합니다. 손실 함수는 가설 함수를 평가하기 위한 함수입니다. 손실이 크면..
Coding/Machine Learning
2023. 9. 15. 12:02