- Линейная регрессия.
Линейная регрессия – широко используемый метод моделирования взаимосвязи между зависимой переменной и одной или несколькими независимыми переменными.
import numpy as np
from sklearn.linear_model import LinearRegression
# Generate some random data
X = np.random.rand(100, 1)
y = 3 * X + np.random.randn(100, 1)
# Fit the linear regression model
model = LinearRegression()
model.fit(X, y)
# Predict the output for new data points
new_X = np.array([[0.2], [0.5], [0.8]])
predictions = model.predict(new_X)
<ол старт="2">
Логистическая регрессия используется для задач двоичной классификации, когда целевая переменная имеет два класса.
import numpy as np
from sklearn.linear_model import LogisticRegression
# Generate some random data
X = np.random.rand(100, 2)
y = np.random.randint(0, 2, size=(100,))
# Fit the logistic regression model
model = LogisticRegression()
model.fit(X, y)
# Predict the class probabilities for new data points
new_X = np.array([[0.2, 0.5], [0.5, 0.8]])
probabilities = model.predict_proba(new_X)
- Деревья решений.
Деревья решений – это универсальные методы, используемые как для задач классификации, так и для регрессии.
import numpy as np
from sklearn.tree import DecisionTreeClassifier
# Generate some random data
X = np.random.rand(100, 2)
y = np.random.randint(0, 2, size=(100,))
# Fit the decision tree classifier
model = DecisionTreeClassifier()
model.fit(X, y)
# Predict the class labels for new data points
new_X = np.array([[0.2, 0.5], [0.5, 0.8]])
predictions = model.predict(new_X)
- Случайные леса.
Случайные леса – это метод ансамблевого обучения, который объединяет несколько деревьев решений для повышения эффективности прогнозирования.
import numpy as np
from sklearn.ensemble import RandomForestClassifier
# Generate some random data
X = np.random.rand(100, 2)
y = np.random.randint(0, 2, size=(100,))
# Fit the random forest classifier
model = RandomForestClassifier()
model.fit(X, y)
# Predict the class labels for new data points
new_X = np.array([[0.2, 0.5], [0.5, 0.8]])
predictions = model.predict(new_X)
- Машины опорных векторов (SVM).
SVM – это мощный метод для задач классификации и регрессии, который находит оптимальную гиперплоскость для разделения точек данных.
import numpy as np
from sklearn.svm import SVC
# Generate some random data
X = np.random.rand(100, 2)
y = np.random.randint(0, 2, size=(100,))
# Fit the support vector classifier
model = SVC()
model.fit(X, y)
# Predict the class labels for new data points
new_X = np.array([[0.2, 0.5], [0.5, 0.8]])
predictions = model.predict(new_X)
Это всего лишь несколько примеров популярных методов обработки данных. Существует множество других методов и алгоритмов, доступных в зависимости от конкретной проблемы, которую вы пытаетесь решить. Не забудьте изучить документацию и ресурсы, относящиеся к используемым вами библиотекам и инструментам, для получения более подробной информации.