선형 회귀는 종속 변수와 하나 이상의 독립 변수 간의 관계를 모델링하여 수치 값을 예측하는 통계적 방법입니다. 선형 회귀의 가장 일반적인 접근 방식은 "최소 제곱 방법"이라고 하는데, 이는 예측 값과 실제 값 사이의 제곱 차이를 최소화하여 데이터에서 패턴을 찾는 방식입니다. 일반 최소 제곱법(OLS)은 선형 회귀의 기본적인 접근 방식으로, 데이터 포인트와 선 사이의 제곱 거리의 합을 최소화하여 데이터 포인트를 가장 잘 맞추는 선을 찾습니다. 최적화 목표는 제곱 거리의 합을 최소화하는 계수를 찾는 것으로, 이는 정규 방정식을 사용하여 계산할 수 있습니다. 다차원 경우, 훈련 과정은 데이터 행렬을 준비하고, 정규 방정식을 사용하여 계수를 계산하고, 계수를 사용하여 새로운 데이터 포인트를 예측하는 것입니다. 릿지 회귀는 계수를 크게 하는 것을 억제하기 위해 목적 함수에 페널티 항을 추가하는 OLS의 변형입니다. 페널티 항은 계수를 얼마나 큰지에 따라 페널티를 부여하는 lambda 매개변수로 제어됩니다. 릿지 회귀의 훈련 과정은 OLS와 유사하지만, 폐쇄형 해법에 수정이 있습니다. OLS와 릿지 회귀 중에서 선택하는 것은 데이터에 따라 다르며, OLS는 잘 동작하는 데이터에 적합하고, 릿지 회귀는 많은 특징, 다중 공선성 또는 과적합의 징후가 있는 데이터에 적합합니다.
towardsdatascience.com
Least Squares Regression, Explained: A Visual Guide with Code Examples for Beginners
