-
Регрессия по методу обычных наименьших квадратов (OLS). Это наиболее распространенный метод подбора линии регрессии путем минимизации суммы квадратов разностей между наблюдаемыми точками данных и прогнозируемыми значениями.
-
Полиномиальная регрессия. В полиномиальной регрессии взаимосвязь между переменными моделируется с использованием полиномиальных функций более высокой степени, а не прямой линии.
-
Множественная линейная регрессия. Этот метод предполагает подгонку линии регрессии к нескольким переменным-предикторам, а не только к одной переменной.
-
Риджевая регрессия. Ридж-регрессия – это метод регуляризации, который добавляет штрафной член к методу OLS, уменьшая влияние мультиколлинеарности (высокая корреляция между предикторами).
-
Лассо-регрессия. Лассо-регрессия — это еще один метод регуляризации, который сочетает в себе выбор переменных и регуляризацию путем добавления штрафного члена к методу OLS, что приводит к разрежению моделей.
-
Эластичная чистая регрессия. Эластичная сеть сочетает в себе недостатки гребневой регрессии и лассо-регрессии, обеспечивая баланс между выбором переменных и регуляризацией.
-
Нелинейная регрессия. Методы нелинейной регрессии используются, когда связь между переменными лучше представляется нелинейной функцией, а не прямой линией.
-
Байесовская регрессия. Байесова регрессия включает в регрессионный анализ предварительные знания или представления о взаимосвязи между переменными.
-
Регрессия опорных векторов (SVR): SVR — это метод машинного обучения, который использует машины опорных векторов для соответствия линии регрессии.
-
Регрессия дерева решений. Регрессия дерева решений включает в себя построение модели дерева решений для прогнозирования целевой переменной на основе набора переменных-предикторов.