Линейная регрессия - это статистический метод, который предсказывает числовые значения с помощью линейного уравнения, моделируя связь между зависимой переменной и одной или несколькими независимыми переменными. Наиболее распространенные подходы к линейной регрессии называются "Методы наименьших квадратов", которые работают путем поиска закономерностей в данных путем минимизации квадратов разностей между прогнозами и фактическими значениями. Обычные наименьшие квадраты (OLS) - это фундаментальный подход к линейной регрессии, который находит лучшую линию, проходящую через точки данных путем минимизации суммы квадратов расстояний между каждой точкой и линией. Цель оптимизации - найти коэффициенты, которые минимизируют сумму квадратов расстояний, которые можно рассчитать с помощью нормального уравнения. В многомерном случае процесс обучения включает подготовку матрицы данных, вычисление коэффициентов с помощью нормального уравнения и построение прогнозов путем умножения новых точек данных на коэффициенты. Регрессия с штрафом (Ridge) - это вариация OLS, которая добавляет штрафной член в целевую функцию для предотвращения больших коэффициентов, которые могут привести к переобучению. Штрафной член контролируется параметром лямбда, который определяет, насколько сильно штрафовать большие коэффициенты. Процесс обучения для регрессии с штрафом аналогичен OLS, но с модификацией замкнутого решения. Выбор между OLS и Ridge зависит от данных, с OLS, подходящим для хорошо себя ведущих данных, и Ridge, подходящим для данных с множеством функций, мультиколлинеарностью или признаками переобучения.
towardsdatascience.com
Least Squares Regression, Explained: A Visual Guide with Code Examples for Beginners
Create attached notes ...
