最小二乘不会给出相同的结果,因为在这种情况下噪声是通过对数转换的。如果噪声为零,则两种方法都会给出相同的结果。
import numpy as np
from numpy import random as rng
from scipy.optimize import curve_fit
rng.seed(0)
X=np.arange(1,7)
Y = np.zeros((4, 6))
for i in range(4):
b = a = i + 1
Y[i] = (X/b)**a + 0.01 * randn(6)
def linear(x, a, b):
return (x/b)**a
coeffs=[]
for ix in range(Y.shape[0]):
print(ix)
c0, pcov = curve_fit(linear, X, Y[ix])
coeffs.append(c0)
coefs
is
[array([ 0.99309127, 0.98742861]),
array([ 2.00197613, 2.00082722]),
array([ 2.99130237, 2.99390585]),
array([ 3.99644048, 3.9992937 ])]
我将使用 scikit-learn 的线性回归实现,因为我相信它可以很好地扩展。
from sklearn.linear_model import LinearRegression
lr = LinearRegression()
获取日志X
and Y
lX = np.log(X)[None, :]
lY = np.log(Y)
现在拟合并检查系数是否与之前相同。
lr.fit(lX.T, lY.T)
lr.coef_
这给出了相似的指数。
array([ 0.98613517, 1.98643974, 2.96602892, 4.01718514])
现在检查除数。
np.exp(-lr.intercept_ / lr.coef_.ravel())
这给出了相似的系数,您可以看到这些方法在答案中略有不同。
array([ 0.99199406, 1.98234916, 2.90677142, 3.73416501])