Python
Java
PHP
IOS
Android
Nodejs
JavaScript
Html5
Windows
Ubuntu
Linux
R通过lapply命令从乘法回归中提取回归系数
我有一个包含多个变量的大型数据集 其中一个是状态变量 每个状态编码为 1 50 我想对数据集的其余 27 个变量 总共 55 个变量 运行 28 个变量的回归 并且针对每个州 换句话说 对 covariate1 covariate2 cov
r
linearregression
lapply
使用 NumPy 进行 LMS 批量梯度下降
我正在尝试编写一些非常简单的 LMS 批量梯度下降 但我相信我在梯度方面做错了 数量级与初始值之间的比率theta的元素有很大不同theta所以要么theta 2 不动 例如 如果alpha 1e 8 or theta 1 发射 例如 如果
python
NumPy
linearregression
leastsquares
gradientdescent
python 中的分段线性回归
Is there a library in python to do segmented linear regression http en wikipedia org wiki Segmented regression I d like
python
linearregression
rstudent() 返回“mlm”的错误结果(装有多个 LHS 的线性模型)
我知道对具有多个 LHS 的线性模型的支持是有限的 但是 当可以在 mlm 对象上运行函数时 我希望结果是可信的 使用时rstudent 产生奇怪的结果 这是一个错误还是有其他解释 在下面的例子中fittedA and fittedB是相同
r
Regression
linearregression
LM
MLM
使用 R 进行时间序列预测
我有以下 R 代码 library forecast value lt c 1 2 1 7 1 6 1 2 1 6 1 3 1 5 1 9 5 4 4 2 5 5 6 5 6 6 2 6 8 7 1 7 1 5 8 0 5 2 4 6 3
r
TimeSeries
Regression
linearregression
forecasting
plot.lm():提取诊断 Q-Q 图中标记的数字
对于下面的简单示例 您可以看到在随后的图中标识了某些点 如何提取这些图中识别的行号 尤其是正态 Q Q 图 set seed 2016 maya lt data frame rnorm 100 names maya 1 lt a maya
r
plot
Regression
linearregression
LM
绘制线性回归后预测的条件密度
这是我的数据框 data lt structure list Y c NA 1 793 0 642 1 189 0 823 1 715 1 623 0 964 0 395 3 736 0 47 2 366 0 634 0 701 1 692
r
plot
Regression
linearregression
LM
拟合具有多个 LHS 的线性模型
我是 R 新手 我想用以下脚本来改进 apply函数 我读过apply 但我无法使用它 我想用lm多个自变量 数据框中的列 的函数 我用了 for i in 1 3 assign paste0 lm names data i lm form
r
Regression
linearregression
LM
MLM
摘要不适用于 OLS 估计
我的 statsmodels OLS 估计有问题 该模型运行没有任何问题 但是当我尝试调用摘要以便我可以看到实际结果时 当 a 的形状和权重不同时 我得到需要指定的轴的 TypeError 我的代码如下所示 from future impo
python
linearregression
finance
StatsModels
如果数据具有单个特征,则使用 array.reshape(-1, 1) 重塑数据;如果数据包含单个样本,则使用 array.reshape(1, -1) 重塑数据
当我从数据中预测一个样本时 它会给出重塑错误 但我的模型具有相同的行数 这是我的代码 import pandas as pd from sklearn linear model import LinearRegression import
python
python3x
machinelearning
scikitlearn
linearregression
如何使用 Gnuplot 4.6 跟踪图表中的趋势线?
我有这些数据 2019 08 28 384 2019 08 29 394 2019 08 30 406 2019 08 31 424 2019 09 01 439 2019 09 02 454 2019 09 03 484 和 gnuplo
gnuplot
linearregression
curvefitting
求解线性回归的梯度下降法和正规方程法给出了不同的解
我正在研究机器学习问题 并希望使用线性回归作为学习算法 我实现了两种不同的方法来查找参数theta线性回归模型 梯度 最速 下降和正态方程 对于相同的数据 他们应该给出大致相等的theta向量 然而他们没有 Both theta除了第一个元
MATLAB
machinelearning
linearregression
gradientdescent
R:我可以使用 regsubsets() 按组添加/排除变量吗?
我正在使用一个数据框 其中包含许多指标变量 这些变量是我使用分类变量制作的dummy 使用时regsubsets 来自leaps包 有没有办法让它按组而不是单独包含这些指标 换句话说 我可以让它进行测试吗 模型包含DF Cat1 A DF
r
linearregression
梯度下降算法不会收敛
我正在尝试为斯坦福机器学习讲座中解释的梯度下降算法编写一些代码 第二讲 25 00左右 http www youtube com watch v 5u4G23 OohI t 25m 下面是我最初使用的实现 我认为它是从讲座中正确复制的 但是
c
machinelearning
linearregression
线性回归:如何求点与预测线之间的距离?
我正在寻找点和预测线之间的距离 理想情况下 我希望结果显示在包含距离 称为 距离 的新列中 我的进口 import os path import numpy as np import pandas as pd import matplotl
python
NumPy
machinelearning
scikitlearn
linearregression
如何在R中使用公式排除主效应但保留交互作用
我不想要主效应 因为它与更精细的因子固定效应共线 所以拥有这些效果很烦人NA 在这个例子中 lm y x z 我想要的互动x 数字 和z 因素 但不是主效应z 介绍 R 文档 formula says 运算符表示因子交叉 a b 解释为 a
r
Regression
linearregression
LM
categoricaldata
当我们可以解析线性回归时为什么要梯度下降
在线性回归空间中使用梯度下降有什么好处 看起来我们可以用分析方法解决这个问题 找到最小成本函数的theta0 n 那么为什么我们仍然想使用梯度下降来做同样的事情呢 谢谢 当您使用正规方程为了分析求解成本函数 您必须计算 其中 X 是输入观测
machinelearning
linearregression
gradientdescent
线性回归预测中的个别项
我在 R 中对某些数据集进行了回归分析 并尝试预测数据集中每行的每个自变量对因变量的贡献 所以像这样 set seed 123 y lt rnorm 10 m lt data frame v1 rnorm 10 v2 rnorm 10 v3
r
linearregression
Prediction
为什么 R 中的回归会删除因子变量的索引 1? [复制]
这个问题在这里已经有答案了 我正在尝试使用 R 进行回归lm和glm功能 我的因变量是基于给定时间段内事件与非事件比例的对数转换数据 所以我的因变量是连续的 而我的自变量是因子变量或虚拟变量 我有两个自变量 可以取以下值 i 年到 m 年
r
statistics
Regression
linearregression
为什么在 python 中求解 Xc=y 的不同方法会给出不同的解,而它们不应该给出不同的解?
我试图解决线性系统Xc y那是方形的 我知道解决这个问题的方法有 使用逆c
python
NumPy
linearalgebra
linearregression
polynomialmath
«
1
2
3
4
5
6
7
8
»