La regresión lineal es un método estadístico que predice valores numéricos utilizando una ecuación lineal, modelando la relación entre una variable dependiente y una o más variables independientes. Los enfoques más comunes para la regresión lineal se llaman "Métodos de Mínimos Cuadrados", que funcionan encontrando patrones en los datos minimizando las diferencias al cuadrado entre las predicciones y los valores reales. La regresión de Mínimos Cuadrados Ordinarios (OLS) es un enfoque fundamental para la regresión lineal que encuentra la línea de mejor ajuste a través de los puntos de datos minimizando la suma de las distancias al cuadrado entre cada punto y la línea. El objetivo de optimización es encontrar coeficientes que minimicen la suma de las distancias al cuadrado, lo que se puede calcular utilizando la ecuación normal. En el caso multidimensional, el proceso de entrenamiento implica preparar la matriz de datos, calcular los coeficientes utilizando la ecuación normal y realizar predicciones multiplicando los nuevos puntos de datos por los coeficientes. La regresión de Ridge es una variante de OLS que agrega un término de penalización a la función objetivo para desalentar coeficientes grandes, lo que puede llevar a un sobreajuste. El término de penalización se controla mediante el parámetro lambda, que determina cuánto penalizar los coeficientes grandes. El proceso de entrenamiento para la regresión de Ridge es similar al de OLS, pero con una modificación en la solución cerrada. La elección entre OLS y Ridge depende de los datos, con OLS adecuado para datos bien comportados y Ridge adecuado para datos con muchas características, multicolinealidad o signos de sobreajuste.
towardsdatascience.com
Least Squares Regression, Explained: A Visual Guide with Code Examples for Beginners
Create attached notes ...
