반응형
250x250
Notice
Recent Posts
Recent Comments
Link
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 31 |
Tags
- for반복문
- 코드잇TIL
- pandas
- matplotlib
- numpy
- 행렬
- 서브쿼리
- 코딩독학
- sql연습문제
- 코드잇
- 오늘도코드잇
- SQL
- 코딩공부
- 데이터분석
- 코드잇 TIL
- 머신러닝
- Seaborn
- 결정트리
- 로지스틱회귀
- 다항회귀
- 판다스
- CSS
- 코딩
- 나혼자코딩
- HTML
- 메소드
- 파이썬
- 윈도우함수
- 경사하강법
- 선형회귀
Archives
- Today
- Total
목록feature scaling (1)
Coding Diary.
(Machine Learning) Feature Scaling 과 경사하강법
이전 글에서 feature scaling을 하는 이유 중 하나는 경사 하강법을 빨리 할 수 있도록 도와주기 때문이라고 했습니다. 어떤 방법으로 도와주는지 알아봅시다. 1. 선형 회귀, 경사하강법 선형 회귀는 위와 같은 데이터가 있을 때 데이터에 가장 잘 맞는 선 또는 가설 함수 를 찾는 것입니다. 데이터에 가장 잘 맞는다는 것은 데이터에 대한 평균 제곱 오차를 최소화한다는 뜻입니다. 평균 제곱 오차는 아래와 같이 계산합니다. 여기서 m은 데이터 개수, htheta(x^(i))는 i번째 데이터의 목표변수의 예측값, y^(i)는 i번째 데이터의 목표변수의 실제값을 나타냅니다. 그리고 손실 함수라는 것은 아래와 같이 평균 제곱 오차로 정의합니다. 손실 함수는 가설 함수를 평가하기 위한 함수입니다. 손실이 크면..
Coding/Machine Learning
2023. 9. 15. 12:02