Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
使用 glmnet 和 lm 的普通最小二乘法
这个问题是在stackoverflow com q 38378118 https stackoverflow com q 38378118但没有得到满意的答复 0 的 LASSO 相当于普通最小二乘法 但对于以下情况似乎并非如此glmnet
r
LM
leastsquares
glmnet
从 Python 中的 OLS 摘要获取 Durbin-Watson 和 Jarque-Bera 统计数据
我正在运行一列值的 OLS 摘要 OLS 的一部分是 Durbin Watson 和 Jarque Bera JB 统计数据 我想直接提取这些值 因为它们已经被计算出来 而不是像我现在使用 durbinwatson 那样将这些步骤作为额外步
python
statistics
StatsModels
leastsquares
绘制 3D 线,matlab
我的问题非常标准 但找不到解决方案 我有点 x y z 并想绘制最佳拟合线 我正在使用下面给出的函数 和 Thanx Smith LS3DLINE M Least squares line in 3 dimensions Version 1
MATLAB
plot
line
leastsquares
datafitting
如何计算响应矩阵每一列的最小但快速的线性回归?
我想计算普通最小二乘 OLS R 中的估计不使用 lm 这有几个原因 首先 考虑到数据大小在我的情况下是一个问题 lm 还计算了很多我不需要的东西 例如拟合值 其次 我希望能够在使用另一种语言 例如使用 GSL 的 C 语言 之前先在 R
Algorithm
r
Optimization
linearregression
leastsquares
C 中快速高效的最小二乘拟合算法?
我正在尝试对两个数据数组实现线性最小二乘拟合 时间与幅度 到目前为止 我知道的唯一技术是测试 y m x b 中所有可能的 m 和 b 点 然后找出最适合我的数据的组合 以便其误差最小 然而 我认为迭代这么多组合有时是没有用的 因为它测试了
c
Algorithm
leastsquares
scipy curve_fit 和局部最小值:尽快达到全局最小值
我手头的问题 我正在使用scipy curve fit拟合一条曲线 https docs scipy org doc scipy reference generated scipy optimize curve fit html https
python
scipy
curvefitting
leastsquares
非常大的非线性最小二乘优化的收敛
我正在尝试解决以下问题 我有很多 80000 正在生长的器官表面斑块 我随着时间的推移 18 个时间点 测量它的每个面积 并希望拟合一条增长曲线 双逻辑模型 例如 只是两个逻辑函数 bcs 的总和 在观察期 我有框约束来确保指数项不会爆炸
MATLAB 散点图中的线性回归线
我正在尝试获取两个变量散点图的残差 我可以使用最小二乘线性回归线lslinematlab的函数 但是 我也想得到残差 我怎样才能在matlab中得到这个 为此我需要知道参数a and b线性回归线的 ax b 使用功能polyfit htt
MATLAB
Regression
leastsquares
如何在r中为异方差数据设置加权最小二乘?
我正在对人口普查数据进行回归 其中因变量是预期寿命 并且有八个自变量 数据是按城市汇总的 因此我有数千个观察结果 不过 我的模型有点异方差 我想运行加权最小二乘法 其中每个观察值均按城市人口加权 在这种情况下 这意味着我想通过总体平方根的倒
r
Regression
leastsquares
如何设置 curve_fit 的初始值以找到最佳优化,而不仅仅是局部优化?
我正在尝试拟合幂律函数 并找到最佳拟合参数 但是 我发现如果参数的初始猜测不同 最佳拟合 输出就会不同 除非我找到正确的初始猜测 否则我可以获得最佳优化 而不是局部优化 有没有办法找到 合适的初始猜测 下面列出了我的代码 请随意提出任何意见
python
scikitlearn
scipy
leastsquares
bestfitcurve
scipy 中最小二乘函数雅可比行列式的方法签名
任何人都可以提供一个向 a 提供雅可比行列式的示例吗 最小二乘函数 http docs scipy org doc scipy reference generated scipy optimize leastsq html scipy op
python
NumPy
scipy
leastsquares
使用 NumPy 进行 LMS 批量梯度下降
我正在尝试编写一些非常简单的 LMS 批量梯度下降 但我相信我在梯度方面做错了 数量级与初始值之间的比率theta的元素有很大不同theta所以要么theta 2 不动 例如 如果alpha 1e 8 or theta 1 发射 例如 如果
python
NumPy
linearregression
leastsquares
gradientdescent
CVXPY 在二次规划优化问题上返回不可行/不准确
我正在尝试使用 CVXPY 来解决非负最小二乘问题 附加约束是解向量中的条目之和必须等于 1 然而 当我使用 SCS 求解器在这个简单的二次程序上运行 CVXPY 时 我让求解器运行最多 100000 次迭代 最后遇到错误 指出二次程序不可
Ceres Solver:无法禁用日志记录(google glog)
我在一个项目中使用 ceres 求解器 当我调用ceres Solve函数后 库开始输出如下行 iterative schur complement solver cc 88 No parameter blocks left in the
c
leastsquares
glog
ceressolver
加权最小二乘估计函数
R 有加权最小二乘函数吗 具体来说 我正在寻找计算截距和斜率的东西 数据集 1 3 5 7 9 11 14 17 19 25 29 17 31 19 27 31 62 58 35 29 21 18 102153 104123 96564 1
r
leastsquares
在 MATLAB 中使用 Levenberg-Marquardt (lsqcurvefit) 获取协方差矩阵
我正在使用 Matlab 中的 lsqcurvefit 函数对一些实验数据进行建模 数据采用特定的形状 因此算法只是调整该形状的系数来改变其幅度等 该模型运行良好并且拟合良好 我已经计算了卡方 Levenberg Marquardt 算法的
Algorithm
MATLAB
covariance
leastsquares
levenbergmarquardt
回归模型中成本函数的 L1 范数代替 L2 范数
我想知道Python中是否有一个函数可以完成与scipy linalg lstsq但使用 最小绝对偏差 回归而不是 最小二乘 回归 OLS 我想使用L1规范 而不是L2 norm 事实上 我有 3d 点 我想要它们的最佳拟合平面 常见的方法
python
machinelearning
Regression
leastsquares
零截距模型的 lm() 中的 R 平方
我经营一家lm 在 R 中 这是总结的结果 Multiple R squared 0 8918 Adjusted R squared 0 8917 F statistic 9416 on 9 and 10283 DF p value lt
r
statistics
linearregression
leastsquares
1
2
»