线性回归的Python、GD和SGD实现

2024-04-28 11:27:32 发布

您现在位置:Python中文网/ 问答频道 /正文

我试图在一个简单的线性回归例子中理解和实现这些算法。我很清楚,全批量梯度下降使用所有数据来计算梯度,而随机梯度下降只使用一个。在

全批次梯度下降:

import pandas as pd
from math import sqrt

df = pd.read_csv("data.csv")
df = df.sample(frac=1)
X = df['X'].values
y = df['y'].values

m_current=0
b_current=0

epochs=100000
learning_rate=0.0001
N = float(len(y))

for i in range(epochs):
    y_current = (m_current * X) + b_current
    cost = sum([data**2 for data in (y-y_current)]) / N
    rmse = sqrt(cost)

    m_gradient = -(2/N) * sum(X * (y - y_current))
    b_gradient = -(2/N) * sum(y - y_current)

    m_current = m_current - (learning_rate * m_gradient)
    b_current = b_current - (learning_rate * b_gradient)

print("RMSE: ", rmse)

全批次梯度下降输出RMSE: 10.597894381512043

现在我尝试在这段代码上实现随机梯度下降,它看起来像这样:

^{pr2}$

输出:RMSE: 27.941268469783633RMSE: 20.919246260939282RMSE: 31.100985268167648RMSE: 21.023479528518386RMSE: 19.920972478204785。。。在

我使用sklearn SGDRegressor得到的结果(设置相同):

import pandas as pd
from sklearn import linear_model
from sklearn.metrics import mean_squared_error
from math import sqrt

    data= pd.read_csv('data.csv')

    x = data.X.values.reshape(-1,1)
    y = data.y.values.reshape(-1,1).ravel()

    Model = linear_model.SGDRegressor(alpha = 0.0001, shuffle=True, max_iter = 100000)
    Model.fit(x,y)
    y_predicted = Model.predict(x)

    mse = mean_squared_error(y, y_predicted)
    print("RMSE: ", sqrt(mse))

输出:RMSE: 10.995881334048224RMSE: 11.75907544873036RMSE: 12.981134247509486RMSE: 12.298263437187988RMSE: 12.549948073154608。。。在

以上算法得到的结果比scikit模型的结果差。。我想知道我在哪里犯了错误?我的算法也很慢(几秒钟)。。在


Tags: csvfromimport算法dfdataratesqrt
1条回答
网友
1楼 · 发布于 2024-04-28 11:27:32

似乎您将alpha中的alpha设置为学习速率。alpha不是学习率。在

要设置恒定学习率,请将SGDClassifier'slearing_rate设置为constant,并将eta0设置为学习速率。在

您还需要将alpha设置为0,因为这是正则化项,而您的实现没有使用它。在

还要注意,由于这些算法本质上是随机的,所以将random_state设置为某个固定值可能是个好主意。在

相关问题 更多 >