Регрессия – это статистический термин, обозначающий метод моделирования, используемый для понимания взаимосвязи между зависимой переменной и одной или несколькими независимыми переменными. Обычно он используется для прогнозирования или оценки значения зависимой переменной на основе значений независимых переменных.
Существует несколько методов регрессионного анализа, в том числе:
-
Линейная регрессия. Этот метод предполагает линейную связь между зависимой переменной и независимыми переменными. Его цель — найти наиболее подходящую линию, которая минимизирует сумму квадратов различий между наблюдаемыми и прогнозируемыми значениями.
-
Полиномиальная регрессия. В этом методе связь между зависимой переменной и независимыми переменными моделируется как полином n-й степени. Он может фиксировать нелинейные связи между переменными.
-
Множественная регрессия. Множественная регрессия включает в себя несколько независимых переменных для прогнозирования зависимой переменной. Это помогает анализировать влияние каждой независимой переменной, контролируя при этом другие.
-
Логистическая регрессия. В отличие от линейной регрессии, логистическая регрессия используется, когда зависимая переменная является категориальной или бинарной. Он оценивает вероятность возникновения события на основе значений независимых переменных.
-
Риджевая регрессия. Гребневая регрессия – это метод регуляризации, который добавляет штрафной член к модели линейной регрессии для предотвращения переобучения. Это помогает уменьшить влияние мультиколлинеарности между независимыми переменными.
-
Лассо-регрессия. Лассо-регрессия — это еще один метод регуляризации, который добавляет штрафной член в модель линейной регрессии. Он не только помогает при переоснащении, но и выполняет выбор функций, сводя к нулю менее важные переменные.
-
Эластичная чистая регрессия. Эластичная чистая регрессия сочетает в себе методы регрессии Ridge и Lasso, добавляя штрафы L1 и L2. Он учитывает ограничения каждого метода и обеспечивает баланс между выбором функций и сокращением коэффициентов.
-
Байесовская регрессия. Байесова регрессия включает в регрессионный анализ предварительные знания или убеждения о взаимосвязях между переменными. Он обеспечивает вероятностную основу для оценки взаимосвязей и неопределенностей.
-
Нелинейная регрессия. Нелинейная регрессия моделирует взаимосвязь между зависимой и независимыми переменными с помощью нелинейных уравнений. Это полезно, когда взаимосвязь не является линейной и не может быть адекватно отражена с помощью линейной регрессии.