RSS 데이터 과학으로 - Medium

"최소제곱회귀, 설명: 비주얼 가이드와 코드 예제로 배우는 초보자를 위한 가이드" 또는 "최소제곱회귀, 쉽게 이해하기: 비주얼 가이드와 코드 예제로 배우는 초보자를 위한 가이드" 이 두 가지 번역 모두가 적절하지만, 두 번째 번역은 더 자연스럽고 쉬운 한국어로 번역되어 있습니다.

선형 회귀는 종속 변수와 하나 이상의 독립 변수 간의 관계를 모델링하여 수치 값을 예측하는 통계적 방법입니다. 선형 회귀의 가장 일반적인 접근 방식은 "최소 제곱 방법"이라고 하는데, 이는 예측 값과 실제 값 사이의 제곱 차이를 최소화하여 데이터에서 패턴을 찾는 방식입니다. 일반 최소 제곱법(OLS)은 선형 회귀의 기본적인 접근 방식으로, 데이터 포인트와 선 사이의 제곱 거리의 합을 최소화하여 데이터 포인트를 가장 잘 맞추는 선을 찾습니다. 최적화 목표는 제곱 거리의 합을 최소화하는 계수를 찾는 것으로, 이는 정규 방정식을 사용하여 계산할 수 있습니다. 다차원 경우, 훈련 과정은 데이터 행렬을 준비하고, 정규 방정식을 사용하여 계수를 계산하고, 계수를 사용하여 새로운 데이터 포인트를 예측하는 것입니다. 릿지 회귀는 계수를 크게 하는 것을 억제하기 위해 목적 함수에 페널티 항을 추가하는 OLS의 변형입니다. 페널티 항은 계수를 얼마나 큰지에 따라 페널티를 부여하는 lambda 매개변수로 제어됩니다. 릿지 회귀의 훈련 과정은 OLS와 유사하지만, 폐쇄형 해법에 수정이 있습니다. OLS와 릿지 회귀 중에서 선택하는 것은 데이터에 따라 다르며, OLS는 잘 동작하는 데이터에 적합하고, 릿지 회귀는 많은 특징, 다중 공선성 또는 과적합의 징후가 있는 데이터에 적합합니다.
favicon
towardsdatascience.com
Least Squares Regression, Explained: A Visual Guide with Code Examples for Beginners
Create attached notes ...